DE102017214666A1 - Verfahren und Vorrichtung zum Schätzen einer Eigenbewegung eines Fahrzeugs - Google Patents

Verfahren und Vorrichtung zum Schätzen einer Eigenbewegung eines Fahrzeugs Download PDF

Info

Publication number
DE102017214666A1
DE102017214666A1 DE102017214666.4A DE102017214666A DE102017214666A1 DE 102017214666 A1 DE102017214666 A1 DE 102017214666A1 DE 102017214666 A DE102017214666 A DE 102017214666A DE 102017214666 A1 DE102017214666 A1 DE 102017214666A1
Authority
DE
Germany
Prior art keywords
classified
camera image
motion
vehicle
additional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017214666.4A
Other languages
English (en)
Inventor
Oliver Pink
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102017214666.4A priority Critical patent/DE102017214666A1/de
Priority to CN201810952949.XA priority patent/CN109426807A/zh
Priority to US16/106,243 priority patent/US10755113B2/en
Publication of DE102017214666A1 publication Critical patent/DE102017214666A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • B60T7/16Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger operated by remote control, i.e. initiating means not mounted on vehicle
    • B60T7/18Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger operated by remote control, i.e. initiating means not mounted on vehicle operated by wayside apparatus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • G06V20/42Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T17/00Component parts, details, or accessories of power brake systems not covered by groups B60T8/00, B60T13/00 or B60T15/00, or presenting other characteristic features
    • B60T17/18Safety devices; Monitoring
    • B60T17/22Devices for monitoring or checking brake systems; Signal devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T8/00Arrangements for adjusting wheel-braking force to meet varying vehicular or ground-surface conditions, e.g. limiting or varying distribution of braking force
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T8/00Arrangements for adjusting wheel-braking force to meet varying vehicular or ground-surface conditions, e.g. limiting or varying distribution of braking force
    • B60T8/17Using electrical or electronic regulation means to control braking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/24323Tree-organised classifiers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2201/00Particular use of vehicle brake systems; Special systems using also the brakes; Special software modules within the brake system controller
    • B60T2201/08Lane monitoring; Lane Keeping Systems
    • B60T2201/089Lane monitoring; Lane Keeping Systems using optical detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2210/00Detection or estimation of road or environment conditions; Detection or estimation of road shapes
    • B60T2210/30Environment conditions or position therewithin
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T2210/00Detection or estimation of road or environment conditions; Detection or estimation of road shapes
    • B60T2210/30Environment conditions or position therewithin
    • B60T2210/36Global Positioning System [GPS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D15/00Steering not otherwise provided for
    • B62D15/02Steering position indicators ; Steering position determination; Steering aids
    • B62D15/029Steering assistants using warnings or proposing actions to the driver without influencing the steering system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Abstract

Der hier vorgestellte Ansatz betrifft ein Verfahren zum Schätzen einer Eigenbewegung eines Fahrzeugs. Das Verfahren umfasst einen Schritt des Einordnens, einen Schritt des Detektierens und einen Schritt des Ermittelns. Im Schritt des Einordnens wird zumindest ein ein klassifiziertes Objekt darstellender Teilbereich eines Kamerabilds (105) in eine Objektkategorie (220) eingeordnet, die stationäre Objekte repräsentiert. Im Schritt des Detektierens wird zumindest ein Detektionspunkt des in die Objektkategorie (220) eingeordneten Teilbereichs in dem Kamerabild (105) unter Verwendung eines Detektionsalgorithmus detektiert. Im Schritt des Ermittelns wird unter Verwendung des Detektionspunkts eine geschätzte Eigenbewegung des Fahrzeugs ermittelt.

Description

  • Stand der Technik
  • Der Ansatz geht aus von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche. Gegenstand des vorliegenden Ansatzes ist auch ein Computerprogramm.
  • Moderne Fahrerassistenzsysteme und automatisiertes Fahren erfordern eine genaue Bestimmung der Fahrzeugbewegung. Dabei kommen sowohl Inertialsensoren, Radsignale als auch Umfeldsensoren zum Einsatz. Ist im Fahrzeug eine Videokamera verbaut, kann die Fahrzeugeigenbewegung sehr genau anhand der Verschiebung markanter Punkte im Bild geschätzt werden. Unter der Annahme einer starren, unbewegten Umgebung wird dabei auf die Bewegung des Fahrzeugs geschlossen.
  • Ein bekanntes Verfahren zeichnet sich dadurch aus, dass es auch bei Verletzungen der Annahme einer starren Szene, beispielsweise durch andere bewegte Fahrzeuge, besonders robust ist. Der Grund hierfür ist die Verwendung eines robusten Schätzverfahrens, beispielsweise dem sogenannten Random Sample Consensus (RANSAC), mit dessen Hilfe eine Hypothese für die Bewegung bestimmt wird, die von einer möglichst großen Zahl an markanten Bildpunkten unterstützt wird. Ein weiteres ähnliches Verfahren wird in der US 2009/0263009 A1 beschrieben, in der die Verwendung von RANSAC zur Ausreißerunterdrückung bei der Bewegungsschätzung zum Einsatz kommt.
  • In den letzten Jahren haben außerdem Verfahren zur semantischen Segmentierung von Bildinformation, z. B. mit Hilfe von Deep Learning, beachtliche Fortschritte gemacht.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz ein Verfahren zum Schätzen einer Eigenbewegung eines Fahrzeugs, weiterhin eine Vorrichtung, die dieses Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.
  • Die mit dem vorgestellten Ansatz erreichbaren Vorteile bestehen darin, dass unter Verwendung des hier vorgestellten Verfahrens eine Genauigkeit einer geschätzten Eigenbewegung eines Fahrzeugs stark erhöht wird, da ausschließlich stationäre oder unbewegte klassifizierte Objekte im Umfeld des Fahrzeugs beim Schätzen der Eigenbewegung des Fahrzeugs berücksichtigt werden.
  • Es wird ein Verfahren zum Schätzen einer Eigenbewegung eines Fahrzeugs vorgestellt. Das Verfahren umfasst einen Schritt des Einordnens, einen Schritt des Detektierens und einen Schritt des Ermittelns. Im Schritt des Einordnens wird zumindest ein ein klassifiziertes Objekt darstellender Teilbereich eines Kamerabilds in eine Objektkategorie eingeordnet, die stationäre Objekte repräsentiert. Im Schritt des Detektierens wird zumindest ein Detektionspunkt des in die Objektkategorie eingeordneten Teilbereichs in dem Kamerabild unter Verwendung eines Detektionsalgorithmus detektiert. Im Schritt des Ermittelns wird unter Verwendung des Detektionspunkts eine geschätzte Eigenbewegung des Fahrzeugs ermittelt.
  • Das Fahrzeug kann ein Kraftfahrzeug sein, das in einem Fahrbetrieb über eine Fahrbahn gelenkt wird. Bei dem Fahrzeug kann es sich aber auch um ein sich in der Luft fortbewegbares oder fortbewegendes Fahrzeug wie ein Fluggerät handeln. Als ein klassifiziertes Objekt ist ein erkanntes Objekt zu verstehen, das einer Objektklasse zugeordnet wurde. Objekte mehrerer verschiedener Objektklassen können in die Objektkategorie eingeordnet werden. Als ein stationäres Objekt ist ein Objekt zu verstehen, das sich nicht bewegen kann, da es an einen festen Ort gebunden ist, beispielsweise eine Laterne. Erkannte Objekte der Objektklasse „Laterne“ würden demnach der Objektkategorie zugeordnet.
  • Der Schritt des Einordnens kann unter Verwendung eines semantischen Segmentierungsverfahrens erfolgen. Im Schritt des Detektierens kann als der Detektionspunkt beispielsweise ein markanter Punkt wie eine Kante verstanden werden, der schnell und einfach zu ermitteln ist und sich leicht nachverfolgen lässt. Im Schritt des Ermittelns kann die geschätzte Eigenbewegung des Fahrzeugs unter Verwendung des Detektionspunkts und eines visuellen Odometrieverfahrens ermittelt werden.
  • Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.
  • Da in dem hier vorgestellten Verfahren klassifizierte Objekte in die Objektkategorie eingeordnet werden, bevor die geschätzte Eigenbewegung ermittelt wird, kann vorteilhafterweise ermöglicht werden, dass beim Ermitteln der geschätzten Eigenbewegung des Fahrzeugs lediglich solche Detektionspunkte auf klassifizierten Objekten berücksichtigt werden, die stationär angeordnet sind und somit besonders verlässliche Referenzwerte für die Eigenbewegungsschätzung bilden.
  • Von Vorteil ist es hierbei, wenn im Schritt des Einordnens zumindest ein ein weiteres klassifiziertes Objekt darstellender weiterer Teilbereich des Kamerabilds in eine weitere Objektkategorie eingeordnet wird, die bewegte Objekte repräsentiert, wobei die Schritte des Detektierens und des Ermittelns von der weiteren Objektkategorie unabhängig ausgeführt werden. Dies kann verhindern, dass bewegte Objekte zu einer fehlerhaften Schätzung der Eigenbewegung beitragen.
  • Beispielsweise kann der weitere Teilbereich zudem aus dem Kamerabild ausgeblendet werden.
  • Vorteilhafterweise kann im Schritt des Einordnens der das klassifizierte Objekt darstellende Teilbereich des Kamerabilds in die Objektkategorie eingeordnet werden, wenn das Objekt als eine Fahrbahnoberfläche und/oder eine Straßenlaterne und/oder ein Gebäude und/oder ein Straßenschild und/oder eine Vegetation klassifiziert wurde. Derartige Objektklassen bzw. Objekte sind eindeutig unbeweglich. Auf der Fahrbahnoberfläche können hierbei beispielsweise Fahrbahnmarkierungen als die Detektionspunkte detektiert und für das weitere Verfahren verwendet werden.
  • Im Schritt des Detektierens kann der zumindest eine Detektionspunkt unter Verwendung eines Detektionsalgorithmus detektiert werden, der dazu ausgebildet ist, um als den Detektionspunkt eine Ecke und/oder Kante und/oder einen Helligkeitsunterschied des Teilbereichs in dem Kamerabild zu detektieren.
  • Um auch bewegbare oder nicht eindeutig identifizierte Objekte identifizierbar zu machen, ist es von Vorteil, wenn gemäß einer Ausführungsform des Verfahrens im Schritt des Einordnens zumindest ein ein zusätzliches klassifiziertes Objekt darstellender zusätzlicher Teilbereich des Kamerabilds in eine zusätzliche Objektkategorie eingeordnet wird, die bewegbare Objekte repräsentiert. Als ein bewegbares Objekt kann beispielsweise ein weiteres Fahrzeug verstanden werden, das entweder bewegt, also während eines Fahrbetriebs, oder aber auch unbewegt, also stehend oder parkend, angeordnet sein kann.
  • Um einen Bewegungszustand, bewegt oder unbewegt, eines solchen bewegbaren Objekts identifizieren zu können, kann das Verfahren einen Schritt des Erkennens aufweisen, in dem der Bewegungszustand des zusätzlichen Objekts erkannt wird.
  • Ansprechend auf den Schritt des Erkennens kann dann der das zusätzliche klassifizierte Objekt repräsentierende zusätzliche Teilbereich in die Objektkategorie eingeordnet werden, wenn im Schritt des Erkennens der Bewegungszustand als unbewegt erkannt wird oder in die weitere Objektkategorie eingeordnet werden, wenn im Schritt des Erkennens der Bewegungszustand als bewegt erkannt wird. Auch unter Verwendung eines solchen Schritts des Erkennens kann verhindert werden, dass bewegte Objekte zu einer fehlerhaften Schätzung der Eigenbewegung beitragen.
  • Günstig ist ferner eine Ausführungsform des hier vorgestellten Ansatzes, bei der ein Schritt des Ansteuerns eines Fahrerassistenzsystems unter Verwendung der geschätzten Eigenbewegung des Fahrzeugs vorgesehen ist. Auf diese Weise kann im Fahrerassistenzsystem ein sehr präziser Wert für die Eigenbewegung des Fahrzeugs angenommen oder verwendet werden. Unter einem Fahrerassistenzsystem kann vorliegend beispielsweise ein Fahrzeugsystem betrachtet werden, welches eine Unterstützung des Fahrers bei der Führung des Fahrzeugs bietet, beispielsweise in der Form eines Spurhalteassistenten oder eines Notbremsassistenten. In diesem Fall kann die geschätzte Eigenbewegung als Plausibilisierung und/oder Überprüfung einer auf andere Weise erhaltenen Eigenbewegung des Fahrzeugs, beispielsweise unter Verwendung von Satellitennavigationssystemen und/oder aus einer Radarmessung verwendet werden, wodurch sich eine präzisere und besser abgesicherte Funktion des Fahrerassistenzsystems realisieren lässt.
  • Der hier vorgestellte Ansatz schafft ferner eine Vorrichtung, die ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante des Ansatzes in Form einer Vorrichtung kann die dem Ansatz zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Hierzu kann die Vorrichtung zumindest eine Recheneinheit zum Verarbeiten von Signalen oder Daten, zumindest eine Speichereinheit zum Speichern von Signalen oder Daten, zumindest eine Schnittstelle zu einem Sensor oder einem Aktor zum Einlesen von Sensorsignalen von dem Sensor oder zum Ausgeben von Daten- oder Steuersignalen an den Aktor und/oder zumindest eine Kommunikationsschnittstelle zum Einlesen oder Ausgeben von Daten aufweisen, die in ein Kommunikationsprotokoll eingebettet sind. Die Recheneinheit kann beispielsweise ein Signalprozessor, ein Mikrocontroller oder dergleichen sein, wobei die Speichereinheit ein Flash-Speicher, ein EPROM oder eine magnetische Speichereinheit sein kann. Die Kommunikationsschnittstelle kann ausgebildet sein, um Daten drahtlos und/oder leitungsgebunden einzulesen oder auszugeben, wobei eine Kommunikationsschnittstelle, die leitungsgebundene Daten einlesen oder ausgeben kann, diese Daten beispielsweise elektrisch oder optisch aus einer entsprechenden Datenübertragungsleitung einlesen oder in eine entsprechende Datenübertragungsleitung ausgeben kann.
  • Unter einer Vorrichtung kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Die Vorrichtung kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen der Vorrichtung beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • In einer vorteilhaften Ausgestaltung erfolgt durch die Vorrichtung eine Steuerung eines Schätzens einer Eigenbewegung eines Fahrzeugs. Hierzu kann die Vorrichtung beispielsweise auf Sensorsignale zugreifen. Die Ansteuerung erfolgt zumindest über Aktoren wie eine Einordnungseinrichtung, eine Detektionseinrichtung und eine Ermittlungseinrichtung.
  • Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Ausführungsbeispiele des hier vorgestellten Ansatzes sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
    • 1 eine Vorrichtung zum Schätzen einer Eigenbewegung eines Fahrzeugs;
    • 2 eine Vorrichtung zum Schätzen einer Eigenbewegung eines Fahrzeugs gemäß einem Ausführungsbeispiel; und
    • 3 ein Ablaufdiagramm eines Verfahrens zum Schätzen einer Eigenbewegung eines Fahrzeugs gemäß einem Ausführungsbeispiel.
  • In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele des vorliegenden Ansatzes werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.
  • 1 zeigt eine Vorrichtung 100 zum Schätzen einer Eigenbewegung eines Fahrzeugs.
  • Bei einer hier gezeigten typischen visuellen Odometrie wählt die Vorrichtung 100 markanteste Punkte in einem Kamerabild 105, hier also z. B. Ecken, Kanten, hohe Helligkeitsunterschiede. In typischen Straßenszenen liegen diese Punkte, wie hier zu sehen, häufig auf bewegten weiteren Fahrzeugen. Die hier gezeigte Vorrichtung 100 nutzt ein Verfahren, welchem die Annahme zugrunde liegt, dass eine starre Szene einen möglichst großen Teil des Kamerabilds 105 einnimmt, andere bewegte Objekte dagegen nur einen geringen Teil des Kamerabilds 105 einnehmen.
  • Bei dem hier durchgeführten Verfahren der Vorrichtung 100 entstehen insbesondere auch Fehler beim Schätzen der Eigenbewegung, wenn ein Großteil des Kamerabilds 105 zu einem bewegten Objekt gehört, beispielsweise durch einen vorausfahrenden LKW oder zumindest ein vorausfahrendes anderes Fahrzeug.
  • 2 zeigt eine Vorrichtung 200 zum Schätzen einer Eigenbewegung eines Fahrzeugs gemäß einem Ausführungsbeispiel. Bei dem Kamerabild 105 kann es sich um das in 1 gezeigte Kamerabild 105 handeln.
  • Anders als die in 1 gezeigte bekannte Vorrichtung weist die hier vorgestellte Vorrichtung 200 eine Einordnungseinrichtung 205, eine Detektionseinrichtung 210 und eine Ermittlungseinrichtung 215 auf.
  • Die Einordnungseinrichtung 205 ist dazu ausgebildet, um zumindest einen ein klassifiziertes Objekt darstellenden Teilbereich des Kamerabilds 105 in eine Objektkategorie 220 einzuordnen, die stationäre Objekte repräsentiert.
  • Die Detektionseinrichtung 210 ist dazu ausgebildet, um zumindest einen Detektionspunkt des in die Objektkategorie 220 eingeordneten Teilbereichs in dem Kamerabild 105 unter Verwendung eines Detektionsalgorithmus zu detektieren. Die Ermittlungseinrichtung 215 ist dazu ausgebildet, um unter Verwendung des Detektionspunkts eine geschätzte Eigenbewegung des Fahrzeugs zu ermitteln.
  • Gemäß diesem Ausführungsbeispiel ordnet die Einordnungseinrichtung 205 jene klassifizierte Objekte darstellenden Teilbereiche des Kamerabilds 105 in die Objektkategorie 220 ein, bei denen die klassifizierten Objekte als eine Fahrbahnoberfläche 225 und/oder Straßenschilder 230 und/oder Vegetationen 235 klassifiziert wurden.
  • Gemäß diesem Ausführungsbeispiel ist die Einordnungseinrichtung 205 außerdem dazu ausgebildet, um zumindest einen ein weiteres klassifiziertes Objekt darstellenden weiteren Teilbereich des Kamerabilds 105 in eine weitere Objektkategorie 240 einzuordnen, die bewegte Objekte repräsentiert, wobei die Detektionseinrichtung 210 und die Ermittlungseinrichtung 215 von der weiteren Objektkategorie 240 unabhängig arbeiten bzw. Schritte ausführen.
  • Die Einordnungseinrichtung 205 ist gemäß diesem Ausführungsbeispiel weiterhin dazu ausgebildet, um einen ein zusätzliches klassifiziertes Objekt darstellenden zusätzlichen Teilbereich des Kamerabilds 105 in eine zusätzliche Objektkategorie einzuordnen, die bewegbare Objekte repräsentiert. Gemäß diesem Ausführungsbeispiel ordnet die Einordnungseinrichtung 205 eine Mehrzahl von zusätzliche klassifizierte Objekte darstellenden zusätzlichen Teilbereichen des Kamerabilds 105 in die zusätzliche Objektkategorie ein, bei denen die zusätzlichen klassifizierten Objekte weitere Fahrzeuge 245 repräsentieren.
  • Gemäß diesem Ausführungsbeispiel weist die Vorrichtung 200 eine Erkenneinrichtung auf, die dazu ausgebildet ist, um einen Bewegungszustand der zusätzlichen Objekte, hier also der weiteren Fahrzeuge 245, zu erkennen.
  • Die Erkenneinrichtung erkennt gemäß diesem Ausführungsbeispiel, dass die weiteren Fahrzeuge 245 bewegt sind und ordnet darauf ansprechend die zusätzlichen Teilbereiche in die weitere Objektkategorie 240 ein. Wenn gemäß einem alternativen Ausführungsbeispiel die weiteren Fahrzeuge 245 von der Erkenneinrichtung als unbewegt erkannt werden, werden darauf ansprechend die zusätzlichen Teilbereiche in die Objektkategorie 220 eingeordnet.
  • Die Vorrichtung 200 weist gemäß diesem Ausführungsbeispiel zudem eine Ausblendeeinrichtung 250 auf, die dazu ausgebildet ist, um die weiteren Teilbereiche sowie jene zusätzlichen Teilbereiche, die in die weitere Objektkategorie 240 eingeordnet wurden, auf dem Kamerabild 105 auszublenden.
  • Gemäß diesem Ausführungsbeispiel detektiert die Detektionseinrichtung 210 die Detektionspunkte unter Verwendung eines Detektionsalgorithmus, der dazu ausgebildet ist, um als den zumindest einen Detektionspunkt eine Ecke und/oder Kante und/oder einen Helligkeitsunterschied des Teilbereichs in dem Kamerabild 105 zu detektieren.
  • Im Folgenden werden Details der Vorrichtung 200 noch einmal genauer beschrieben:
  • Die hier vorgestellte Vorrichtung 200 ermöglicht für automatisiertes oder hochautomatisiertes Fahren eine kamerabasierte Bewegungsschätzung unter Berücksichtigung von semantischer Information.
  • Ermöglicht wird eine genaue Schätzung der Eigenbewegung eines Fahrzeugs anhand von Kamerabildern 105 einer Fahrzeugkamera des Fahrzeugs. Im Vergleich zu bekannten Verfahren ist das erfindungsgemäße Verfahren, welches durch die Vorrichtung 200 ausführbar ist, auch dann in der Lage, eine genaue Schätzung zu liefern, wenn ein Großteil der in dem Kamerabild 105 dargestellten Szene aus bewegten Objekten besteht, z. B. im Stau oder in einer Fußgängerzone.
  • Ein Kern des hier vorgestellten Ansatzes ist eine Kombination einer semantischen Segmentierung mit einer visuellen Odometrie. Dabei wird zunächst das Kamerabild 105 klassifiziert, z. B. in die Klassen Fußgänger, Fahrzeug, Straßenlaterne, Gebäude, Fahrbahnoberfläche, Vegetation. Anschließend werden wie bei der herkömmlichen visuellen Odometrie markante Punkte, hier die Detektionspunkte, im Kamerabild 105 detektiert. Im Unterschied zu bekannten Vorrichtungen werden von der Vorrichtung 200 aber nur Punkte in Bereichen gesucht, die zu Objektklassen gehören, die sicher unbewegt sind, also gemäß diesem Ausführungsbeispiel nur auf der Fahrbahnoberfläche 225, auf Straßenschildern 230 oder Vegetation 235, oder gemäß einem alternativen Ausführungsbeispiel auf Straßenlaternen und/oder auf Gebäuden. Auf diese Weise kann eine fehlerhafte Schätzung der Eigenbewegung aufgrund von bewegten Objekten, wie hier den weiteren Fahrzeugen 245, sicher ausgeschlossen werden.
  • Gemäß diesem Ausführungsbeispiel werden zuerst alle potenziell beweglichen oder bewegbaren Objektklassen mithilfe einer semantischen Segmentierung ausgeblendet. Im verbleibenden Bild werden wieder markante Punkte gesucht. Eine Gesamtzahl der markanten Punkte in 1 und der Detektionspunkte in 2 ist gleich, aber in 2 liegen vorteilhafterweise alle Detektionspunkte auf statischen oder stationären Objekten.
  • 3 zeigt ein Ablaufdiagramm eines Verfahrens 300 zum Schätzen einer Eigenbewegung eines Fahrzeugs gemäß einem Ausführungsbeispiel. Dabei kann es sich um ein Verfahren 300 handeln, das von der anhand von 2 beschriebenen Vorrichtung ansteuerbar oder ausführbar ist.
  • Das Verfahren 300 umfasst einen Schritt 305 des Einordnens, einen Schritt 310 des Detektierens und einen Schritt 315 des Ermittelns. Im Schritt 305 des Einordnens wird zumindest ein ein klassifiziertes Objekt darstellender Teilbereich eines Kamerabilds in eine Objektkategorie eingeordnet, die stationäre Objekte repräsentiert. Im Schritt 310 des Detektierens wird zumindest ein Detektionspunkt des in die Objektkategorie eingeordneten Teilbereichs in dem Kamerabild unter Verwendung eines Detektionsalgorithmus detektiert. Im Schritt 315 des Ermittelns wird unter Verwendung des Detektionspunkts eine geschätzte Eigenbewegung des Fahrzeugs ermittelt.
  • Die im Folgenden beschriebenen Ausführungsbeispiele und ein zusätzlicher Schritt 320 des Erkennens sind optional.
  • Gemäß diesem Ausführungsbeispiel wird im Schritt 305 des Einordnens zumindest ein ein weiteres klassifiziertes Objekt darstellender weiterer Teilbereich des Kamerabilds in eine weitere Objektkategorie eingeordnet, die bewegte Objekte repräsentiert, wobei die Schritte 310, 315 des Detektierens und des Ermittelns von der weiteren Objektkategorie unabhängig ausgeführt werden.
  • Im Schritt 305 des Einordnens wird gemäß diesem Ausführungsbeispiel der das klassifizierte Objekt darstellende Teilbereich des Kamerabilds in die Objektkategorie eingeordnet, wenn das Objekt als eine Fahrbahnoberfläche und/oder eine Straßenlaterne und/oder ein Gebäude und/oder ein Straßenschild und/oder eine Vegetation klassifiziert wurde.
  • Im Schritt 310 des Detektierens wird der zumindest eine Detektionspunkt unter Verwendung eines Detektionsalgorithmus detektiert, der dazu ausgebildet ist, um als den Detektionspunkt eine Ecke und/oder Kante und/oder einen Helligkeitsunterschied des Teilbereichs in dem Kamerabild zu detektieren.
  • Gemäß diesem Ausführungsbeispiel wird im Schritt 305 des Einordnens zumindest ein ein zusätzliches klassifiziertes Objekt darstellender zusätzlicher Teilbereich des Kamerabilds in eine zusätzliche Objektkategorie eingeordnet, die bewegbare Objekte repräsentiert.
  • Im optionalen Schritt 320 des Erkennens wird ein Bewegungszustand des zusätzlichen klassifizierten Objekts erkannt. Ansprechend auf den Schritt 320 des Erkennens wird der das zusätzliche klassifizierte Objekt repräsentierende zusätzliche Teilbereich in die Objektkategorie eingeordnet, wenn im Schritt 320 des Erkennens der Bewegungszustand als unbewegt erkannt wird oder in die weitere Objektkategorie eingeordnet, wenn im Schritt 320 des Erkennens der Bewegungszustand als bewegt erkannt wird.
  • Die hier vorgestellten Verfahrensschritte können wiederholt sowie in einer anderen als in der beschriebenen Reihenfolge ausgeführt werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 2009/0263009 A1 [0003]

Claims (11)

  1. Verfahren (300) zum Schätzen einer Eigenbewegung eines Fahrzeugs, wobei das Verfahren (300) die folgenden Schritte umfasst: - Einordnen (305) zumindest eines ein klassifiziertes Objekt darstellenden Teilbereichs eines Kamerabilds (105) in eine Objektkategorie (220), die stationäre Objekte repräsentiert; - Detektieren (310) zumindest eines Detektionspunkts des in die Objektkategorie (220) eingeordneten Teilbereichs in dem Kamerabild (105) unter Verwendung eines Detektionsalgorithmus; und - Ermitteln (315) einer geschätzten Eigenbewegung des Fahrzeugs unter Verwendung des Detektionspunkts.
  2. Verfahren (300) gemäß Anspruch 1, bei dem im Schritt (305) des Einordnens zumindest ein ein weiteres klassifiziertes Objekt darstellender weiterer Teilbereich des Kamerabilds (105) in eine weitere Objektkategorie (240) eingeordnet wird, die bewegte Objekte repräsentiert, wobei die Schritte (310, 315) des Detektierens und des Ermittelns von der weiteren Objektkategorie (240) unabhängig ausgeführt werden.
  3. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (305) des Einordnens der das klassifizierte Objekt darstellende Teilbereich des Kamerabilds (105) in die Objektkategorie (220) eingeordnet wird, wenn das Objekt als eine Fahrbahnoberfläche (225) und/oder eine Straßenlaterne und/oder ein Gebäude und/oder ein Straßenschild (230) und/oder eine Vegetation (235) klassifiziert wurde.
  4. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (310) des Detektierens der zumindest eine Detektionspunkt unter Verwendung eines Detektionsalgorithmus detektiert wird, der dazu ausgebildet ist, um als den Detektionspunkt eine Ecke und/oder Kante und/oder einen Helligkeitsunterschied des Teilbereichs in dem Kamerabild (105) zu detektieren.
  5. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, bei dem im Schritt (305) des Einordnens zumindest ein ein zusätzliches klassifiziertes Objekt darstellender zusätzlicher Teilbereich des Kamerabilds (105) in eine zusätzliche Objektkategorie eingeordnet wird, die bewegbare Objekte repräsentiert.
  6. Verfahren (300) gemäß Anspruch 5, mit einem Schritt (320) des Erkennens, in dem ein Bewegungszustand des zusätzlichen klassifizierten Objekts erkannt wird.
  7. Verfahren (300) gemäß Anspruch 5, bei dem der das zusätzliche klassifizierte Objekt repräsentierende zusätzliche Teilbereich in die Objektkategorie (220) eingeordnet wird, wenn im Schritt (320) des Erkennens der Bewegungszustand als unbewegt erkannt wird oder in die weitere Objektkategorie (240) eingeordnet wird, wenn im Schritt (320) des Erkennens der Bewegungszustand als bewegt erkannt wird.
  8. Verfahren (300) gemäß einem der vorangegangenen Ansprüche, das einen Schritt des Ansteuerns eines Fahrerassistenzsystems unter Verwendung der geschätzten Eigenbewegung des Fahrzeugs aufweist.
  9. Vorrichtung (200), die eingerichtet ist, um Schritte des Verfahrens (300) gemäß einem der vorangegangenen Ansprüche in entsprechenden Einheiten (205, 210, 215, 250) auszuführen und/oder anzusteuern.
  10. Computerprogramm, das dazu eingerichtet ist, das Verfahren (300) gemäß einem der Ansprüche 1 bis 8 auszuführen und/oder anzusteuern.
  11. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 10 gespeichert ist.
DE102017214666.4A 2017-08-22 2017-08-22 Verfahren und Vorrichtung zum Schätzen einer Eigenbewegung eines Fahrzeugs Pending DE102017214666A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102017214666.4A DE102017214666A1 (de) 2017-08-22 2017-08-22 Verfahren und Vorrichtung zum Schätzen einer Eigenbewegung eines Fahrzeugs
CN201810952949.XA CN109426807A (zh) 2017-08-22 2018-08-21 用于估计车辆的自身运动的方法和设备
US16/106,243 US10755113B2 (en) 2017-08-22 2018-08-21 Method and device for estimating an inherent movement of a vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102017214666.4A DE102017214666A1 (de) 2017-08-22 2017-08-22 Verfahren und Vorrichtung zum Schätzen einer Eigenbewegung eines Fahrzeugs

Publications (1)

Publication Number Publication Date
DE102017214666A1 true DE102017214666A1 (de) 2019-02-28

Family

ID=65320894

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017214666.4A Pending DE102017214666A1 (de) 2017-08-22 2017-08-22 Verfahren und Vorrichtung zum Schätzen einer Eigenbewegung eines Fahrzeugs

Country Status (3)

Country Link
US (1) US10755113B2 (de)
CN (1) CN109426807A (de)
DE (1) DE102017214666A1 (de)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102472767B1 (ko) * 2017-09-14 2022-12-01 삼성전자주식회사 신뢰도에 기초하여 깊이 맵을 산출하는 방법 및 장치

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090263009A1 (en) 2008-04-22 2009-10-22 Honeywell International Inc. Method and system for real-time visual odometry
US20150151753A1 (en) * 2013-12-04 2015-06-04 Mobileye Vision Technologies Ltd. Image-based velocity control for a turning vehicle
US20150239472A1 (en) * 2014-02-21 2015-08-27 Denso Corporation Vehicle-installed obstacle detection apparatus having function for judging motion condition of detected object
US9199643B1 (en) * 2014-09-25 2015-12-01 GM Global Technology Operations LLC Sensor odometry and application in crash avoidance vehicle
US20160068114A1 (en) * 2014-09-03 2016-03-10 Sharp Laboratories Of America, Inc. Methods and Systems for Mobile-Agent Navigation

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS60121131A (ja) * 1983-12-06 1985-06-28 Nissan Motor Co Ltd 車両走行制御装置
US7690737B2 (en) * 2004-03-18 2010-04-06 Ford Global Technologies Method of controlling an automotive vehicle having a trailer
DE102005017422A1 (de) * 2005-04-15 2006-10-19 Robert Bosch Gmbh Fahrerassistenzsystem mit Einrichtung zur Erkennung von stehenden Objekten
DE102010011093A1 (de) * 2010-03-11 2011-09-15 Daimler Ag Verfahren zur Bestimmung einer Fahrzeugaufbaubewegung
DE102010063133A1 (de) * 2010-12-15 2012-06-21 Robert Bosch Gmbh Verfahren und System zur Bestimmung einer Eigenbewegung eines Fahrzeugs
US8718329B2 (en) * 2012-04-09 2014-05-06 GM Global Technology Operations LLC Top-down view classification in clear path detection
HK1203289A2 (en) * 2015-07-07 2015-10-23 香港生產力促進局 號 A method and a device for detecting moving object
EP3254918B1 (de) * 2016-06-07 2023-05-24 Volvo Car Corporation Adaptive geschwindigkeitsregelung und fahrzeug mit adaptiver geschwindigkeitsregelung
EP3478209A1 (de) * 2016-06-30 2019-05-08 Koninklijke Philips N.V. System zur verfolgung inertialer vorrichtungen und verfahren zum betrieb davon
KR101851155B1 (ko) * 2016-10-12 2018-06-04 현대자동차주식회사 자율 주행 제어 장치, 그를 가지는 차량 및 그 제어 방법
KR102646644B1 (ko) * 2017-03-01 2024-03-13 모빌아이 비젼 테크놀로지스 엘티디. 감지 불확실성이 있는 항법을 위한 시스템 및 방법

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090263009A1 (en) 2008-04-22 2009-10-22 Honeywell International Inc. Method and system for real-time visual odometry
US20150151753A1 (en) * 2013-12-04 2015-06-04 Mobileye Vision Technologies Ltd. Image-based velocity control for a turning vehicle
US20150239472A1 (en) * 2014-02-21 2015-08-27 Denso Corporation Vehicle-installed obstacle detection apparatus having function for judging motion condition of detected object
US20160068114A1 (en) * 2014-09-03 2016-03-10 Sharp Laboratories Of America, Inc. Methods and Systems for Mobile-Agent Navigation
US9199643B1 (en) * 2014-09-25 2015-12-01 GM Global Technology Operations LLC Sensor odometry and application in crash avoidance vehicle

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KANG, Y. [et al.]: Texture Segmentation of Road Environment Scene Using SfM Module and HLAC Features. IPSJ Transactions on Computer Vision and Applications, Vol. 1, 2009, S. 220-230. *
YAMAGUCHI, K. [et al.]: Moving Obstacle Detection using Monocular Vision. Intelligent Vehicles Symposium, Tokyo, Japan, 2006, S. 288-293. *

Also Published As

Publication number Publication date
CN109426807A (zh) 2019-03-05
US10755113B2 (en) 2020-08-25
US20190065865A1 (en) 2019-02-28

Similar Documents

Publication Publication Date Title
DE102017130041A1 (de) Automatische leckerkennung bei fahrzeugen
DE102016118902A1 (de) Kollisionsvermeidung mit durch Kartendaten erweiterten auditorischen Daten
DE102016003424B4 (de) Verfahren und Vorrichtung zum Erkennen von Verkehrszeichen
DE102012213344A1 (de) Verkehrszeichenerkennung
DE102015220252A1 (de) Spurhalte-Unterstützungssystem und Verfahren für dieses
DE102016219542A1 (de) Informationsverarbeitungsvorrichtung
DE102006027113B4 (de) Verfahren und Einrichtung zur Erfassung von Objekten
EP3427242A1 (de) Infrastrukturerkennungsvorrichtung für ein fahrzeug, verfahren zum erzeugen eines signals und verfahren zum bereitstellen einer reparaturinformation
DE102014202503A1 (de) Verfahren und Vorrichtung zum Bestimmen eines Abstands eines Fahrzeugs zu einem verkehrsregelnden Objekt
DE102013021840A1 (de) Verfahren zum Erzeugen eines Umgebungsmodells eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102016120066A1 (de) Computer-implementiertes Verfahren zum Kontrollieren bzw. Testen eines Objekterkennungssystems
DE112018005749T5 (de) Fahrbahnmarkierungsbestimmungsvorrichtung zum automatisierten Fahren
DE102015006569A1 (de) Verfahren zur bildbasierten Erkennung des Straßentyps
DE102011005780A1 (de) Verfahren und Vorrichtung zur Bestimmung einer Entfernung zwischen einem Fahrzeug und einem Objekt
DE102017223621A1 (de) Verfahren und Steuereinheit zur Steuerung einer Funktion eines zumindest teilweise automatisiert fahrenden Fahrzeugs
DE102008043756A1 (de) Verfahren und Steuergerät zum Bereitstellen einer Verkehrszeicheninformation
DE102017214666A1 (de) Verfahren und Vorrichtung zum Schätzen einer Eigenbewegung eines Fahrzeugs
DE102017211887A1 (de) Verfahren und Vorrichtung zum Lokalisieren und automatisierten Betreiben eines Fahrzeugs
DE102014209015A1 (de) Verfahren und Vorrichtung zur Abstandsregelung für ein Fahrzeug
DE102019129107A1 (de) Verfahren und System für Bildanalyse unter Verwendung von Umgrenzungserfassung
DE102016124888A1 (de) Verfahren zum Unterstützen eines Fahrers eines Kraftfahrzeugs beim Einparken unter Verwendung einer Fahrerassistenzvorrichtung, entsprechendes Computerprogrammprodukt und Fahrerassistenzvorrichtung
DE102016225631A1 (de) Verfahren und Vorrichtung zum Entfernen von zumindest einer Landmarkenposition einer Landmarke in einer Radarkarte
EP3688412A1 (de) Verfahren und vorrichtung zum bestimmen einer hochgenauen position und zum betreiben eines automatisierten fahrzeugs
DE102009036196A1 (de) Verfahren und Vorrichtung zur Verkehrszeichenerkennung für ein Fahrzeug
DE102017217063A1 (de) Erkennungssystem, Arbeitsverfahren und Trainingsverfahren zum Erzeugen eines 3D-Modells mit Referenzdaten

Legal Events

Date Code Title Description
R163 Identified publications notified