DE102019114707B4 - System und Verfahren zum Erfassen von Objekten in einem autonomen Fahrzeug - Google Patents

System und Verfahren zum Erfassen von Objekten in einem autonomen Fahrzeug Download PDF

Info

Publication number
DE102019114707B4
DE102019114707B4 DE102019114707.7A DE102019114707A DE102019114707B4 DE 102019114707 B4 DE102019114707 B4 DE 102019114707B4 DE 102019114707 A DE102019114707 A DE 102019114707A DE 102019114707 B4 DE102019114707 B4 DE 102019114707B4
Authority
DE
Germany
Prior art keywords
vehicle
light
control system
image
incident light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019114707.7A
Other languages
English (en)
Other versions
DE102019114707A1 (de
Inventor
Mohannad Murad
Eric Hatfield
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC filed Critical GM Global Technology Operations LLC
Publication of DE102019114707A1 publication Critical patent/DE102019114707A1/de
Application granted granted Critical
Publication of DE102019114707B4 publication Critical patent/DE102019114707B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • B60W10/184Conjoint control of vehicle sub-units of different type or different function including control of braking systems with wheel brakes
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/30Conjoint control of vehicle sub-units of different type or different function including control of auxiliary equipment, e.g. air-conditioning compressors or oil pumps
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/18Propelling the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/59Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W50/08Interaction between the driver and the control system
    • B60W50/14Means for informing the driver, warning the driver or prompting a driver intervention
    • B60W2050/143Alarm means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/06Combustion engines, Gas turbines
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/08Electric propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/30Auxiliary equipments
    • B60W2710/305Auxiliary equipments target power to auxiliaries
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/10Longitudinal speed
    • B60W2720/106Longitudinal acceleration

Landscapes

  • Engineering & Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Combustion & Propulsion (AREA)
  • Chemical & Material Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Traffic Control Systems (AREA)

Abstract

Kraftfahrzeug (12) umfassend:eine Kabine (80);einen optischen Sensor (26), der angeordnet ist, um Bilder der Kabine (80) aufzunehmen;ein Lichtsteuersystem (82), das betreibbar ist, um eine Intensität oder Richtung des einfallenden Lichts in der Kabine (80) zu ändern; undeine Steuerung (22), die konfiguriert ist, um als Reaktion auf eine Objekterkennungsanforderung automatisch den optischen Sensor (26) zu steuern, um ein erstes Bild der Kabine (80) mit einer ersten Konfiguration des einfallenden Lichts aufzunehmen, das Lichtsteuersystem (82) zu steuern, um eine Intensität oder Richtung des einfallenden Lichts in der Kabine (80) zu einer zweiten Konfiguration des einfallenden Lichts zu ändern, den optischen Sensor (26) zu steuern, um ein zweites Bild der Kabine (80) mit der zweiten Konfiguration des einfallenden Lichts aufzunehmen, eine Änderung in einem Schatten (86, 86') zwischen dem ersten Bild und dem zweiten Bild zu erkennen, auf das Vorhandensein eines Objekts (84) in der Kabine (80) basierend auf der Änderung im Schatten zu schließen und eine Korrekturmaßnahme basierend auf das Vorhandensein des Objekts (84) durchzuführen;dadurch gekennzeichnet , dassdie Kabine (80) mit mindestens einem Fenster versehen ist, wobei das Lichtsteuersystem (82) ein Fenstersystem umfasst, das betreibbar ist, um einfallendes Licht durch das mindestens eine Fenster zu modifizieren, und wobei die Steuerung (22) konfiguriert ist, um das Lichtsteuersystem (82) durch selektives Steuern des Fenstersystems zu steuern, um einfallendes Licht zu modifizieren; und/oderdas Lichtsteuersystem (82) mindestens ein Stellglied (30) umfasst, das zum Steuern der Fahrzeuglenkung, -beschleunigung oder -bremsung konfiguriert ist, und wobei die Steuerung (22) konfiguriert ist, um das Lichtsteuersystem (82) durch selektives Steuern des Stellglieds (30) zu steuern, um das Kraftfahrzeug (12) zwischen einer ersten Ausrichtung in Bezug auf eine Umgebungslichtquelle und einer zweiten Ausrichtung in Bezug auf die Umgebungslichtquelle zu bewegen.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung bezieht sich auf Fahrzeuge, die durch automatisierte Fahrsysteme gesteuert werden, insbesondere auf ein Kraftfahrzeug gemäß dem Oberbegriff des Anspruchs 1, wie es der Art nach im Wesentlichen aus der DE 10 2017 200 607 A1 hervorgeht.
  • Bezüglich des weitergehenden Standes der Technik sei an dieser Stelle auf die US 2007 / 0 176 402 A1 verwiesen.
  • EINLEITUNG
  • Der Betrieb von modernen Fahrzeugen wird zunehmend automatisierter, d. h. Fahrzeuge übernehmen die Fahrsteuerung mit geringerem Eingriff des Fahrers. Die Fahrzeugautomatisierung wurde kategorisiert nach nummerischen Ebenen von null, entsprechend keiner Automatisierung mit voller menschlicher Kontrolle, bis Fünf, entsprechend der vollen Automatisierung ohne menschliche Kontrolle. Verschiedene automatisierte Fahrerassistenzsysteme, wie beispielsweise Geschwindigkeitsregelung, adaptive Geschwindigkeitsregelung und Parkassistenzsysteme, entsprechen niedrigeren Automatisierungsebenen, während echte „fahrerlose“ Fahrzeuge mit höheren Automatisierungsebenen übereinstimmen.
  • KURZDARSTELLUNG
  • Erfindungsgemäß wird ein Kraftfahrzeug vorgeschlagen, das sich durch die Merkmale des Anspruchs 1 auszeichnet. Das Fahrzeug beinhaltet eine Kabine, einen optischen Sensor, der zum Erfassen von Bildern der Kabine angeordnet ist, ein Lichtsteuersystem, das zum Ändern einer Intensität oder Richtung des einfallenden Lichts in der Kabine betrieben werden kann, und eine Steuerung. Die Steuerung ist konfiguriert, um als Reaktion auf eine Objekterkennungsanforderung automatisch den optischen Sensor zu steuern, um ein erstes Bild der Kabine mit einer ersten Konfiguration des einfallenden Lichts aufzunehmen, das Lichtsteuersystem zu steuern, um eine Intensität oder Richtung des einfallenden Lichts in der Kabine zu einer zweiten Konfiguration des einfallenden Lichts zu ändern, den optischen Sensor zu steuern, um ein zweites Bild der Kabine mit der zweiten Konfiguration des einfallenden Lichts aufzunehmen, eine Änderung in einem Schatten zwischen dem ersten Bild und dem zweiten Bild zu erkennen, auf das Vorhandensein eines Objekts in der Kabine basierend auf der Änderung im Schatten zu schließen und eine Korrekturmaßnahme basierend auf das Vorhandensein des Objekts durchzuführen.
  • Gemäß einem Aspekt ist die Kabine erfindungsgemäß mit mindestens einem Fenster versehen, das Lichtsteuersystem umfasst eine Fensterblende mit einer geöffneten und einer geschlossenen Position, und die Steuerung ist konfiguriert, um das Lichtsteuersystem zu steuern, indem sie die Fensterblende selektiv zwischen der geöffneten und der geschlossenen Position bewegt.
  • Gemäß einem anderen Aspekt umfasst das Lichtsteuersystem erfindungsgemäß mindestens ein Stellglied, das zum Steuern der Fahrzeuglenkung, - beschleunigung oder -bremsung konfiguriert ist, und die Steuerung ist konfiguriert, um das Lichtsteuersystem durch selektives Steuern des Stellglieds zu steuern, um das Fahrzeug zwischen einer ersten Ausrichtung in Bezug auf eine Umgebungslichtquelle und einer zweiten Ausrichtung in Bezug auf eine Umgebungslichtquelle zu bewegen.
  • In einer exemplarischen Ausführungsform umfasst das Lichtsteuersystem eine in der Kabine angeordnete Innenbeleuchtung, und die Steuerung ist konfiguriert, um das Lichtsteuersystem durch selektives Ein- und Ausschalten der Innenbeleuchtung zu steuern.
  • In einer exemplarischen Ausführungsform basiert die Objekterkennungsanforderung auf einer Bilddifferenz zwischen einem vor einem Fahrzyklus aufgenommenen Referenzkabinenbild und einem nach einem Fahrzyklus aufgenommenen endgültigen Kabinenbild.
  • In einer exemplarischen Ausführungsform umfasst die Korrekturmaßnahme das Signalisieren einer Warnung an einen Benutzer.
  • Ferner wird ein Verfahren zum Erfassen eines Objekts beschrieben. Das Verfahren beinhaltet das Bereitstellen eines Erfassungsraums, in dem ein optischer Sensor angeordnet ist, um Bilder vom Erfassungsraum aufzunehmen, ein Lichtsteuersystem, das zum Ändern einer Intensität oder Richtung des einfallenden Lichts in dem Erfassungsraum betreibbar ist, und mindestens eine sich mit dem optischen Sensor und dem Lichtsteuersystem in Verbindung befindenden Steuerung. Das Verfahren beinhaltet auch das automatische Steuern des optischen Sensors über die mindestens eine Steuerung, um ein erstes Bild des Erfassungsraums mit einer ersten Konfiguration des einfallenden Lichts aufzunehmen. Das Verfahren beinhaltet zusätzlich das automatische Steuern des Lichtsteuerungssystems über die mindestens eine Steuerung, um eine Intensität oder Richtung des einfallenden Lichts in der Kabine zu einer zweiten Konfiguration des einfallenden Lichts zu ändern, die sich von der ersten Konfiguration des einfallenden Lichts unterscheidet. Das Verfahren beinhaltet ferner das automatische Steuern des optischen Sensors über die mindestens eine Steuerung, um ein zweites Bild des Erfassungsraums mit der zweiten Konfiguration des einfallenden Lichts aufzunehmen, das automatische Erfassen einer Änderung in einem Schatten zwischen dem ersten Bild und dem zweiten Bild über die mindestens eine Steuerung und basierend auf der erfassten Änderung im Schatten, das automatische Signalisieren einer Warnung über die mindestens eine Steuerung.
  • In einer exemplarischen Ausführungsform ist der Erfassungsraum mit mindestens einem Fenster versehen, das Lichtsteuersystem umfasst ein Fenstersystem, das betreibbar ist, um einfallendes Licht durch das Fenster zu modifizieren, und das automatische Steuern des Lichtsteuersystems umfasst das Steuern des Fenstersystems, um einfallendes Licht zu modifizieren.
  • In einer exemplarischen Ausführungsform umfasst das automatische Erfassen einer Schattenänderung das Ausführen eines Bilddifferenzalgorithmus für das erste Bild und das zweite Bild.
  • In einer exemplarischen Ausführungsform umfasst das Lichtsteuersystem eine im Erfassungsraum angeordnete Innenbeleuchtung und die automatische Steuerung des Lichtsteuersystems umfasst das selektive Ein- und Ausschalten der Innenbeleuchtung.
  • In einer exemplarischen Ausführungsform umfasst der Erfassungsraum eine Kabine eines Kraftfahrzeugs. In solchen Ausführungsformen kann das Lichtsteuersystem mindestens ein Stellglied umfassen, das zum Steuern der Fahrzeuglenkung, -beschleunigung oder -bremsung konfiguriert ist, und das automatische Steuern des Lichtsteuersystems kann das selektive Steuern des Stellglieds umfassen, um das Fahrzeug zwischen einer ersten Ausrichtung in Bezug auf eine Umgebungslichtquelle und einer zweiten Ausrichtung in Bezug auf die Umgebungslichtquelle zu bewegen.
  • Ferner wird ein Erfassungssystem für ein Kraftfahrzeug beschrieben. Das Erfassungssystem beinhaltet einen optischen Sensor, der zum Erfassen von Bildern eines Abschnitts des Fahrzeugs angeordnet ist, ein Lichtsteuersystem, das zum Ändern einer Intensität oder Richtung des einfallenden Lichts auf den Abschnitt des Fahrzeugs betreibbar ist, und eine Steuerung. Die Steuerung ist konfiguriert, um den optischen Sensor zu steuern, um ein Referenzbild des Abschnitts des Fahrzeugs vor einem Fahrzyklus aufzunehmen, den optischen Sensor zu steuern, um ein erstes Bild des Abschnitts des Fahrzeugs unmittelbar nach dem Fahrzyklus aufzunehmen, das Lichtsteuersystem zu steuern, um eine Intensität oder Richtung des einfallenden Lichts in der Kabine auf eine zweite Konfiguration des einfallenden Lichts als Reaktion auf das erste Bild, das sich vom Referenzbild unterscheidet, zu ändern, den optischen Sensor zu steuern, um ein zweites Bild der Kabine mit der zweiten Konfiguration des einfallenden Lichts aufzunehmen, und automatisch einen Alarm als Reaktion auf das zweite Bild, das sich vom ersten Bild unterscheidet, zu signalisieren.
  • Ausführungsformen gemäß der vorliegenden Erfindung stellen eine Reihe von Vorteilen bereit. Die vorliegende Erfindung sieht beispielsweise ein System und Verfahren zum automatischen Bestimmen vor, ob ein Objekt in einem Fahrzeug zurückgelassen wurde, und zum Ergreifen von Korrekturmaßnahmen, wenn eine solche Bestimmung vorgenommen wird.
  • Die vorstehenden und andere Vorteile und Merkmale der vorliegenden Erfindung werden aus der folgenden ausführlichen Beschreibung der bevorzugten Ausführungsformen in Verbindung mit den zugehörigen Zeichnungen ersichtlich.
  • Figurenliste
    • 1 ist ein schematisches Diagramm eines Kommunikationssystems, das ein autonom gesteuertes Fahrzeug gemäß einer Ausführungsform der vorliegenden Erfindung beinhaltet;
    • 2 ist ein schematisches Blockdiagramm eines automatisierten Antriebssystems (ADS) für ein Fahrzeug gemäß einer Ausführungsform der vorliegenden Erfindung;
    • 3 ist eine Flussdiagrammdarstellung eines Verfahrens zum Steuern eines Fahrzeugs gemäß einer Ausführungsform der vorliegenden Erfindung; und
    • Die 4A-4D sind schematische Darstellungen einer Fahrzeugkabine gemäß einer Ausführungsform der vorliegenden Erfindung.
  • AUSFÜHRLICHE BESCHREIBUNG
  • 1 veranschaulicht schematisch eine Betriebsumgebung, die ein mobiles Fahrzeugkommunikations- und Steuersystem 10 für ein Kraftfahrzeug 12 umfasst. Das Kommunikations- und Steuersystem 10 für das Fahrzeug 12 beinhaltet im Allgemeinen ein oder mehrere Mobilfunkanbietersysteme 60, ein Festnetz 62, einen Computer 64, eine mobile Vorrichtung 57, wie beispielsweise ein Smartphone, und eine Fernzugriffszentrale 78.
  • Das in 1 schematisch dargestellte Fahrzeug 12 ist in der veranschaulichten Ausführungsform als Pkw dargestellt, es sollte jedoch beachtet werden, dass auch jedes andere Fahrzeug, einschließlich Motorräder, Lastwagen, Sportfahrzeuge (SUVs), Freizeitfahrzeuge (RVs), Schiffe, Flugzeuge usw. verwendet werden können. Das Fahrzeug 12 beinhaltet ein Antriebssystem 13, das in verschiedenen Ausführungsformen einen Verbrennungsmotor, eine elektrische Maschine, wie beispielsweise einen Traktionsmotor und/oder ein Brennstoffzellenantriebssystem, beinhalten kann.
  • Das Fahrzeug 12 beinhaltet zudem ein Getriebe 14, das so konfiguriert ist, dass es Leistung vom Antriebssystem 13 auf eine Vielzahl von Fahrzeugrädern 15 gemäß wählbaren Drehzahlverhältnissen überträgt. Gemäß verschiedenen Ausführungsformen kann das Getriebe 14 ein Stufenverhältnis-Automatikgetriebe, ein stufenlos verstellbares Getriebe oder ein anderes geeignetes Getriebe beinhalten. Das Fahrzeug 12 beinhaltet zusätzlich Radbremsen 17, die so konfiguriert sind, dass sie ein Bremsmoment an die Fahrzeugräder 15 liefern. Die Radbremsen 17 können in verschiedenen Ausführungsformen Reibungsbremsen, ein regeneratives Bremssystem, wie beispielsweise eine elektrische Maschine und/oder andere geeignete Bremssysteme, beinhalten.
  • Das Fahrzeug 12 beinhaltet zudem ein Lenksystem 16. Während in einigen Ausführungsformen innerhalb des Umfangs der vorliegenden Erfindung zur Veranschaulichung als ein Lenkrad dargestellt, kann das Lenksystem 16 kein Lenkrad beinhalten.
  • Das Fahrzeug 12 beinhaltet ein drahtloses Kommunikationssystem 28, das konfiguriert ist, um drahtlos mit anderen Fahrzeugen („V2V“) und/oder Infrastruktur („V2I“) zu kommunizieren. In einer exemplarischen Ausführungsform ist das drahtlose Kommunikationssystem 28 konfiguriert, um über einen dedizierten Kurzstreckenkommunikationskanal (DSRC) zu kommunizieren. DSRC-Kanäle beziehen sich auf Einweg- oder Zweiwege-Kurzstrecken- bis Mittelklasse-Funkkommunikationskanäle, die speziell für den Automobilbau und einen entsprechenden Satz von Protokollen und Standards entwickelt wurden. Drahtlose Kommunikationssysteme, die für die Kommunikation über zusätzliche oder alternative drahtlose Kommunikationsstandards wie IEEE 802.11 und zellulare Datenkommunikation konfiguriert sind, werden jedoch ebenfalls im Rahmen der vorliegenden Erfindung berücksichtigt.
  • Das Antriebssystem 13, das Getriebe 14, das Lenksystem 16 und die Radbremsen 17 stehen mit oder unter der Steuerung von mindestens einer Steuereinheit 22 in Verbindung. Obgleich zu Veranschaulichungszwecken als eine einzige Einheit dargestellt, kann die Steuereinheit 22 zusätzlich eine oder mehrere andere „Steuereinheiten“ beinhalten. Die Steuerung 22 kann einen Mikroprozessor oder eine zentrale Verarbeitungseinheit (CPU) beinhalten, die mit verschiedenen Arten von computerlesbaren Speichervorrichtungen oder Medien in Verbindung steht. Computerlesbare Speichergeräte oder Medien können flüchtige und nicht-flüchtige Speicher in einem Nur-Lese-Speicher (ROM), einem Speicher mit direktem Zugriff (RAM) und einem Aufrechterhaltungsspeicher („Keep-Alive-Memory, KAM“) beinhalten. KAM ist ein persistenter oder nichtflüchtiger Speicher, der verwendet werden kann, um verschiedene Betriebsvariablen zu speichern, während die CPU ausgeschaltet ist. Computerlesbare Speichergeräte oder Medien können unter Verwendung einer beliebigen Anzahl an bekannten Speichergeräten, wie beispielsweise PROMs (programmierbarer Nur-Lese-Speicher), EPROMs (elektrische PROM), EEPROMs (elektrisch löschbarer PROM), Flash-Speicher oder beliebigen anderen elektrischen, magnetischen, optischen oder kombinierten Speichergeräten implementiert sein, die Daten speichern können, von denen einige ausführbare Anweisungen darstellen, die von der Steuereinheit 22 beim Steuern des Fahrzeugs verwendet werden.
  • Die Steuerung 22 beinhaltet ein automatisiertes Antriebssystem (ADS) 24 zum automatischen Steuern verschiedener Stellglieder im Fahrzeug. In einer exemplarischen Ausführungsform ist das ADS 24 ein sogenanntes Level-Drei-Automatisierungssystem. Ein Level-Drei-System zeigt eine „konditionale Automatisierung“ unter Bezugnahme auf die Fahrmodus-spezifische Leistung durch ein automatisiertes Fahrsystem aller Aspekte der dynamischen Fahraufgabe an, mit der Erwartung, dass der menschliche Fahrer angemessen auf eine Intervention reagieren wird.
  • Andere Ausführungsformen gemäß der vorliegenden Erfindung können in Verbindung mit den so genannten Level-Eins- oder Level-Zwei-Automatisierungssystemen implementiert werden. Ein Level-Eins-System zeigt die „Fahrerassistenz“ an und bezieht sich auf die Fahrmodus-spezifische Ausführung durch ein Fahrerassistenzsystem von entweder Lenkung oder Beschleunigung/Verzögerung unter Verwendung von Informationen zur Fahrumgebung und mit der Erwartung, dass der menschliche Fahrer alle übrigen Aspekte der dynamischen Fahraufgabe erfüllt. Ein Level-Zwei-System zeigt die „Teilautomatisierung“ an und bezieht sich auf die Fahrmodus-spezifische Ausführung durch ein Fahrerassistenzsystem von sowohl Lenkung als auch Beschleunigung/Verzögerung unter Verwendung von Informationen zur Fahrumgebung und mit der Erwartung, dass der menschliche Fahrer alle übrigen Aspekte der dynamischen Fahraufgabe erfüllt.
  • Noch weitere Ausführungsformen gemäß der vorliegenden Erfindung können ebenfalls in Verbindung mit sogenannten Level-Vier- oder Level-Fünf-Automatisierungssystemen implementiert werden. Ein Level-Vier-System zeigt eine „hohe Automatisierung“ unter Bezugnahme auf die Fahrmodus-spezifische Leistung durch ein automatisiertes Fahrsystem aller Aspekte der dynamischen Fahraufgabe an, selbst wenn ein menschlicher Fahrer nicht angemessen auf eine Anforderung einzugreifen, reagiert. Ein Level-Fünf-System zeigt eine „Vollautomatisierung“ an und verweist auf die Vollzeitleistung eines automatisierten Fahrsystems aller Aspekte der dynamischen Fahraufgabe unter allen Fahrbahn- und Umgebungsbedingungen, die von einem menschlichen Fahrer verwaltet werden können.
  • In einer exemplarischen Ausführungsform ist das ADS 24 so konfiguriert, dass es das Antriebssystem 13, das Getriebe 14, das Lenksystem 16 und die Radbremsen 17 steuert, um die Fahrzeugbeschleunigung, das Lenken und das Bremsen ohne menschliches Eingreifen über eine Vielzahl von Stellgliedern 30 in Reaktion auf Eingaben von einer Vielzahl von Sensoren 26, wie z. B. GPS, RADAR, LIDAR, optischen Kameras, thermischen Kameras, Ultraschallsensoren und/oder zusätzlichen Sensoren, zu steuern.
  • 1 veranschaulicht mehrere vernetzte Geräte, die mit dem drahtlosen Kommunikationssystem 28 des Fahrzeugs 12 kommunizieren können. Eine der vernetzten Vorrichtungen, die über das drahtlose Kommunikationssystem 28 mit dem Fahrzeug 12 kommunizieren können, ist die mobile Vorrichtung 57. Die mobile Vorrichtung 57 kann eine Computerverarbeitungsfähigkeit, einen Sender-Empfänger, der mit einem drahtlosen Nahbereichsprotokoll kommunizieren kann, und eine visuelle Smartphone-Anzeige 59 beinhalten. Die Computerverarbeitungsfähigkeit beinhaltet einen Mikroprozessor in Form einer programmierbaren Vorrichtung, die eine oder mehrere in einer internen Speicherstruktur gespeicherte Befehle beinhaltet und angewendet wird, um binäre Eingaben zu empfangen und binäre Ausgaben zu erzeugen. In einigen Ausführungsformen beinhaltet die mobile Vorrichtung 57 ein GPS-Modul, das GPS-Satellitensignale empfangen und GPS-Koordinaten basierend auf diesen Signalen erzeugen kann. In weiteren Ausführungsformen beinhaltet die mobile Vorrichtung 57 eine Mobilfunk-Kommunikationsfunktionalität, wodurch die mobile Vorrichtung 57, wie hierin erläutert, Sprach- und/oder Datenkommunikationen über das Mobilfunkanbietersystem 60 unter Verwendung eines oder mehrerer Mobilfunk-Kommunikationsprotokolle durchführt. Die visuelle Smartphone-Anzeige 59 kann zudem einen Berührungsbildschirm als grafische Benutzeroberfläche beinhalten.
  • Das Mobilfunkanbietersystem 60 ist vorzugsweise ein Mobiltelefonsystem, das eine Vielzahl von Mobilfunktürmen 70 (nur einer dargestellt), eine oder mehrere Mobilvermittlungsstellen (MSCs) 72, sowie alle anderen Netzwerkkomponenten beinhaltet, die zum Verbinden des Mobilfunkanbietersystems 60 mit dem Festnetz 62 erforderlich sind. Jeder Mobilfunkturm 70 beinhaltet Sende- und Empfangsantennen und eine Basisstation, wobei die Basisstationen von unterschiedlichen Mobilfunktürmen mit der MSC 72 entweder direkt oder über zwischengeschaltete Geräte, wie z. B. eine Basisstationssteuereinheit, verbunden sind. Das Mobilfunkanbietersystems 60 kann jede geeignete Kommunikationstechnologie, darunter auch beispielsweise analoge Technologien, wie z. B. AMPS, oder digitale Technologien, wie z. B. CDMA (z. B. CDMA2000) oder GSM/GPRS, implementieren. Andere Mobilfunkturm/Basisstation/MSC-Anordnungen sind möglich und könnten mit dem Mobilfunkanbietersystem 60 verwendet werden. So könnten sich beispielsweise die Basisstation und der Mobilfunkturm an derselben Stelle oder entfernt voneinander befinden, jede Basisstation könnte für einen einzelnen Mobilfunkturm zuständig sein oder eine einzelne Basisstation könnte verschiedene Mobilfunktürme bedienen, oder verschiedene Basisstationen könnten mit einer einzigen MSC gekoppelt werden, um nur einige der möglichen Anordnungen zu nennen.
  • Abgesehen vom Verwenden des Mobilfunkanbietersystems 60 kann ein unterschiedliches Mobilfunkanbietersystem in der Form von Satellitenkommunikation verwendet werden, um unidirektionale oder bidirektionale Kommunikation mit dem Fahrzeug 12 bereitzustellen. Dies kann unter Verwendung von einem oder mehreren Fernmeldesatelliten 66 und einer aufwärtsgerichteten Sendestation 67 erfolgen. Bei der unidirektionalen Kommunikation kann es sich beispielsweise um Satellitenradiodienste handeln, worin die Programmierinhalte (Nachrichten, Musik usw.) von der Sendestation 67 empfangen, für das Hochladen gepackt und anschließend an den Satelliten 66 gesendet wird, der die Programmierung an die Teilnehmer ausstrahlt. Bei der bidirektionalen Kommunikation kann es sich beispielsweise um Satellitentelefondienste handeln, die den Satelliten 66 verwenden, um Telefonkommunikationen zwischen dem Fahrzeug 12 und der Station 67 weiterzugeben. Die Satellitentelefonie kann entweder zusätzlich oder anstelle des Mobilfunkanbietersystems 60 verwendet werden.
  • Das Festnetz 62 kann ein herkömmliches landgebundenes Telekommunikationsnetzwerk sein, das mit einem oder mehreren Festnetztelefonen verbunden ist und das Mobilfunkanbietersystem 60 mit der Fernzugriffszentrale 78 verbindet. So kann beispielsweise das Festnetz 62 ein öffentliches Telekommunikationsnetz (PSTN) beinhalten, wie es beispielsweise verwendet wird, um fest verdrahtete Telefonie, paketvermittelte Datenkommunikationen und die Internetinfrastruktur bereitzustellen. Ein oder mehrere Segmente des Festnetzes 62 könnten durch Verwenden eines normalen drahtgebundenen Netzwerks, eines Lichtleiter- oder eines anderen optischen Netzwerks, eines Kabelnetzes, von Stromleitungen, anderen drahtlosen Netzwerken, wie z. B. drahtlosen lokalen Netzwerken (WLANs) oder Netzwerken, die drahtlosen Breitbandzugang (BWA) bereitstellen oder einer Kombination derselben implementiert sein. Weiterhin muss die Fernzugriffszentrale 78 nicht über das Festnetz 62 verbunden sein, sondern könnte Funktelefonausrüstung beinhalten, sodass sie direkt mit einem drahtlosen Netzwerk, wie z. B. dem Mobilfunkanbietersystem 60, kommunizieren kann.
  • Obgleich in 1 als ein einziges Gerät dargestellt, kann der Computer 64 eine Anzahl von Computern beinhalten, die über ein privates oder öffentliches Netzwerk, wie z. B. das Internet, zugänglich sind. Jeder Computer 64 kann für einen oder mehrere Zwecke verwendet werden. In einer exemplarischen Ausführungsform kann der Computer 64 als ein Webserver konfiguriert sein, der durch das Fahrzeug 12 über das drahtlose Kommunikationssystem 28 und den Mobilfunkanbieter 60 zugänglich ist. Zu anderen derart zugänglichen Computern 64 können beispielsweise gehören: ein Computer in einer Reparaturwerkstatt, der Diagnoseinformationen und andere Fahrzeugdaten vom Fahrzeug über das drahtlose Kommunikationssystem 28 oder einen Speicherort eines Drittanbieters hochgeladen werden können oder aus welchem Fahrzeugdaten oder sonstigen Informationen, entweder durch Kommunikation mit dem Fahrzeug 12, der Fernzugriffszentrale 78, der mobilen Vorrichtung 57 oder einer Kombination aus diesen bereitgestellt werden. Der Computer 64 kann eine durchsuchbare Datenbank und ein Datenbankverwaltungssystem instandhalten, das die Eingabe, Löschung und Änderung von Daten, sowie den Empfang von Anfragen ermöglicht, um Daten innerhalb der Datenbank zu lokalisieren. Der Computer 64 kann zudem für die Bereitstellung von Internetverbindungen, wie z. B. DNS-Diensten, oder als Netzwerkadressenserver verwendet werden, der DHCP oder ein anderes geeignetes Protokoll verwendet, um dem Fahrzeug 12 eine IP-Adresse zuzuweisen.. Der Computer 64 kann mit mindestens einem zusätzlichen Fahrzeug zusätzlich zum Fahrzeug 12 kommunizieren. Das Fahrzeug 12 und alle zusätzlichen Fahrzeuge können gemeinsam als Flotte bezeichnet werden.
  • Wie in 2 dargestellt, beinhaltet das ADS 24 mehrere verschiedene Steuersysteme, einschließlich mindestens eines Wahrnehmungssystem 32 zum Feststellen des Vorhandenseins, der Position, der Klassifizierung und der Bahn der erkannten Eigenschaften oder Objekte in der Nähe des Fahrzeugs. Das Wahrnehmungssystem 32 ist so konfiguriert, dass es Eingaben, wie beispielsweise in 1 veranschaulicht, von einer Vielzahl von Sensoren 26 empfängt und Sensoreingaben synthetisiert und verarbeitet, um Parameter zu erzeugen, die als Eingaben für andere Steueralgorithmen des ADS 24 verwendet werden.
  • Das Wahrnehmungssystem 32 umfasst ein Sensorfusions- und Vorverarbeitungsmodul 34, das die Sensordaten 27 aus der Vielzahl der Sensoren 26 verarbeitet und synthetisiert. Das Sensorfusions- und Vorverarbeitungsmodul 34 führt eine Kalibrierung der Sensordaten 27 durch, einschließlich, aber nicht beschränkt auf LIDAR-zu-LIDAR-Kalibrierung, Kamera-zu-LIDAR-Kalibrierung, LIDAR-zu-Chassis-Kalibrierung und LIDAR-Strahlintensitätskalibrierung. Das Sensorfusions- und Vorverarbeitungsmodul 34 gibt vorverarbeitete Sensorausgaben 35 aus.
  • Ein Klassifizierungs- und Segmentierungsmodul 36 empfängt die vorverarbeitete Sensorausgabe 35 und führt Objektklassifizierung, Bildklassifizierung, Ampelklassifizierung, Objektsegmentierung, Bodensegmentierung und Objektverfolgungsprozesse durch. Die Objektklassifizierung beinhaltet, ist aber nicht beschränkt auf die Identifizierung und Klassifizierung von Objekten in der Umgebung, einschließlich Identifizierung und Klassifizierung von Verkehrssignalen und - zeichen, RADAR-Fusion und -verfolgung, um die Platzierung und das Sichtfeld (FoV) des Sensors und die falsche positive Ablehnung über die LIDAR-Fusion zu berücksichtigen, um die vielen falschen Positiven zu beseitigen, die in einer städtischen Umgebung existieren, wie zum Beispiel Schachtabdeckungen, Brücken, in die Fahrbahn ragende Bäume oder Lichtmasten und andere Hindernisse mit einem hohen RADAR-Querschnitt, die aber nicht die Fähigkeit des Fahrzeugs beeinflussen, entlang seines Kurses zu fahren. Zusätzliche Objektklassifizierungs- und Verfolgungsprozesse, die durch das Klassifizierungs- und Segmentierungsmodell 36 durchgeführt werden, beinhalten, sind aber nicht beschränkt auf Freespace-Erkennung und High-Level-Tracking, die Daten von RADAR-Spuren, LIDAR-Segmentierung, LIDAR-Klassifizierung, Bildklassifizierung, Objektform-Passmodellen, semantischen Informationen, Bewegungsvorhersage, Rasterkarten, statischen Hinderniskarten und andere Quellen verschmelzen, um qualitativ hochwertige Objektspuren zu erzeugen. Das Klassifizierungs- und Segmentierungsmodul 36 führt zusätzlich eine Verkehrssteuerungs-Klassifizierungs- und Verkehrssteuerungsvorrichtungsverschmelzung mit Spurassoziations- und Verkehrssteuerungsvorrichtungsverhaltensmodellen durch. Das Klassifizierungs- und Segmentierungsmodul 36 erzeugt eine Objektklassifizierungs- und Segmentierungsausgabe 37, die eine Objektidentifikationsinformation enthält.
  • Ein Lokalisierungs- und Abbildungsmodul 40 verwendet die Objektklassifizierungs- und Segmentierungsausgabe 37, um Parameter zu berechnen, einschließlich, aber nicht beschränkt auf Schätzungen der Position und Orientierung des Fahrzeugs 12 in sowohl typischen als auch anspruchsvollen Antriebsszenarien. Zu diesen anspruchsvollen Antriebsszenarien gehören unter anderem dynamische Umgebungen mit vielen Autos (z. B. dichter Verkehr), Umgebungen mit großflächigen Obstruktionen (z. B. Fahrbahnbaustellen oder Baustellen), Hügel, mehrspurige Straßen, einspurige Straßen, eine Vielzahl von Straßenmarkierungen und Gebäuden oder deren Fehlen (z. B. Wohn- und Geschäftsbezirke) und Brücken und Überführungen (sowohl oberhalb als auch unterhalb eines aktuellen Straßensegments des Fahrzeugs).
  • Das Lokalisierungs- und Abbildungsmodul 40 enthält auch neue Daten, die als Ergebnis von erweiterten Kartenbereichen erfasst werden, die durch fahrzeugeigene Abbildungsfunktionen erhalten werden, die von Fahrzeug 12 während des Betriebs ausgeführt werden, und Zuordnungsdaten, die über das drahtlose Kommunikationssystem 28 an das Fahrzeug 12 „geschoben“ werden. Das Lokalisierungs- und Abbildungsmodul 40 aktualisiert die vorherigen Kartendaten mit den neuen Informationen (z. B. neue Spurmarkierungen, neue Gebäudestrukturen, Hinzufügen oder Entfernen von Baustellenzonen usw.), während unbeeinflusste Kartenbereiche unverändert bleiben. Beispiele von Kartendaten, die erzeugt oder aktualisiert werden können, beinhalten, sind aber nicht beschränkt auf die Ausweichspurkategorisierung, die Spurgrenzerzeugung, die Spurverbindung, die Klassifizierung von Neben- und Hauptstraßen, die Klassifizierung der Links- und Rechtskurven und die Kreuzungsspurerstellung. Das Lokalisierungs- und Abbildungsmodul 40 erzeugt eine Lokalisierungs- und Abbildungsausgabe 41, welche die Position und Ausrichtung des Fahrzeugs 12 in Bezug auf erkannte Hindernisse und Straßenmerkmale umfasst.
  • Ein Fahrzeug-Odometrie-Modul 46 empfängt Daten 27 von den Fahrzeugsensoren 26 und erzeugt eine Fahrzeug-Odometrie-Ausgabe 47, die beispielsweise Fahrzeugkurs- und Geschwindigkeitsinformation beinhaltet. Ein absolutes Positionierungsmodul 42 empfängt die Lokalisierungs- und Abbildungsausgabe 41 und die Fahrzeug-Odometrieinformation 47 und erzeugt eine Fahrzeugpositionsausgabe 43, die in getrennten Berechnungen verwendet wird, wie unten erörtert wird.
  • Ein Objektvorhersagemodul 38 verwendet die Objektklassifizierungs- und Segmentierungsausgabe 37, um Parameter zu erzeugen, einschließlich, aber nicht beschränkt auf eine Position eines erkannten Hindernisses relativ zum Fahrzeug, einen vorhergesagten Weg des erkannten Hindernisses relativ zum Fahrzeug und eine Position und Orientierung der Fahrbahnen relativ zum Fahrzeug. Daten über den vorhergesagten Weg von Objekten (einschließlich Fußgänger, umliegende Fahrzeuge und andere bewegte Objekte) werden als Objektvorhersageausgabe 39 ausgegeben und in getrennten Berechnungen verwendet, wie unten erörtert wird.
  • Das ADS 24 enthält auch ein Beobachtungsmodul 44 und ein Interpretationsmodul 48. Das Beobachtungsmodul 44 erzeugt eine Beobachtungsausgabe 45, die vom Interpretationsmodul 48 empfangen wird. Das Beobachtungsmodul 44 und das Interpretationsmodul 48 erlauben den Zugriff durch die Fernzugriffszentrale 78. Das Interpretationsmodul 48 erzeugt eine interpretierte Ausgabe 49, die eine zusätzliche Eingabe enthält, die von der Fernzugriffszentrale 78 bereitgestellt wird, sofern vorhanden.
  • Ein Wegplanungsmodul 50 verarbeitet und synthetisiert die Objektvorhersageausgabe 39, die interpretierte Ausgabe 49 und zusätzliche Kursinformationen 79, die von einer Online-Datenbank oder der Fernzugriffszentrale 78 empfangen werden, um einen Fahrzeugweg zu bestimmen, der verfolgt werden soll, um das Fahrzeug unter Beachtung der Verkehrsgesetze und Vermeidung von erkannten Hindernissen auf dem gewünschten Kurs zu halten. Das Wegplanungsmodul 50 verwendet Algorithmen, die konfiguriert sind, um beliebige erkannte Hindernisse in der Nähe des Fahrzeugs zu vermeiden, das Fahrzeug in einer gegenwärtigen Fahrspur zu halten und das Fahrzeug auf dem gewünschten Kurs zu halten. Das Wegplanungsmodul 50 gibt die Fahrzeugweginformationen als Wegplanungsausgabe 51 aus. Die Wegplanungsausgabe 51 beinhaltet eine vorgegebene Fahrzeugroute auf der Grundlage der Route, eine Fahrzeugposition relativ zu der Route, Position und Orientierung der Fahrspuren und das Vorhandensein und den Weg erfasster Hindernisse.
  • Ein erstes Steuermodul 52 verarbeitet und synthetisiert die Wegplanungsausgabe 51 und die Fahrzeugpositionsausgabe 43 zum Erzeugen einer ersten Steuerausgabe 53. Das erste Steuermodul 52 enthält auch die Kursinformation 79, die von der Fernzugriffszentrale 78 im Falle einer Fernübernahmebetriebsart des Fahrzeugs bereitgestellt wird.
  • Ein Fahrzeugsteuermodul 54 empfängt die erste Steuerausgabe 53 sowie die Geschwindigkeits- und Richtungsinformation 47, die von der Fahrzeug-Odometrie 46 empfangen wird, und erzeugt einen Fahrzeugsteuerausgabe 55. Die Fahrzeugsteuerausgabe 55 beinhaltet einen Satz Stellgliedbefehle, um den befohlenen Weg vom Fahrzeugsteuermodul 54 zu erreichen, einschließlich, jedoch nicht beschränkt auf einen Lenkbefehl, einen Schaltbefehl, einen Drosselbefehl und einen Bremsbefehl.
  • Die Fahrzeugsteuerausgabe 55 wird an die Stellglieder 30 übermittelt. In einer exemplarischen Ausführungsform beinhalten die Aktuatoren 30 eine Lenkkontrolle, eine Schaltkontrolle, eine Drosselsteuerung und eine Bremssteuerung. Die Lenksteuerung kann beispielsweise ein Lenksystem 16 steuern, wie in 1 veranschaulicht. Die Gangschaltsteuerung kann beispielsweise ein Getriebe 14 steuern, wie in 1 veranschaulicht. Die Drosselklappensteuerung kann beispielsweise ein Antriebssystem 13 steuern, wie in 1 veranschaulicht. Die Bremssteuerung kann beispielsweise die Radbremsen 17 steuern, wie in 1 veranschaulicht.
  • In einem autonomen Fahrzeug, und insbesondere in einem autonomen Fahrzeug, das von einer Vielzahl von Fahrgästen gemeinsam genutzt werden kann, kann es schwierig sein, zu bestimmen, ob ein Objekt von einem Fahrgast zurückgelassen wurde. Während bei herkömmlichen menschlich angetriebenen Fahrzeugen ein Fahrer die Kabine überprüfen kann, um sicherzustellen, dass keine Gegenstände vergessen wurden, verfügen autonome Fahrzeuge möglicherweise über keine menschlichen Fahrer.
  • Unter nunmehriger Bezugnahme auf die 3 und 4A-4D wird ein Verfahren zum Steuern eines Fahrzeugs gemäß der vorliegenden Erfindung dargestellt. Das Verfahren beginnt bei Block 100 in 3.
  • Ein Referenzbild einer Insassenkabine wird, wie bei Block 102 dargestellt, aufgenommen. Das Referenzbild bezieht sich auf ein Bild des Fahrzeuginnenraums, das vor Beginn eines Fahrzyklus aufgenommen wird, z. B. ohne Insassen in der Kabine. Eine veranschaulichende Insassenkabine 80 des Fahrzeugs 12' ist in 4A dargestellt. Unter den Sensoren 26 ist eine oder mehrere optische Kameras 26' angeordnet, die Bilder der Insassenkabine 80 aufnehmen. In einer exemplarischen Ausführungsform kann das Referenzbild von der optischen Kamera 26' basierend auf einem Befehl der Steuerung 22 aufgenommen werden. Der Befehl kann beispielsweise basierend auf einer Bestimmung, dass sich derzeit keine Insassen im Fahrzeug 12 befinden, generiert werden.
  • Die Insassenkabine 80 ist zusätzlich mit mindestens einem Lichtsteuersystem 82 ausgestattet. Das Lichtsteuersystem 82 steht in Verbindung mit der Steuerung 22 oder wird durch dieses gesteuert. Das Lichtsteuersystem 82 ist betreibbar, um eine Lichtcharakteristik im Fahrzeuginneren zu modifizieren, z. B. um eine Intensität oder Ausrichtung des einfallenden Lichts in der Insassenkabine 80 zu modifizieren. Wie hier verwendet, bezieht sich das einfallende Licht auf Licht, das von einer oder mehreren Innen- oder Außenlichtquellen auf Oberflächen des Insassen fällt. Gemäß einer nicht beanspruchten Ausführungsform beinhaltet das Lichtsteuersystem 82 eine oder mehrere in der Insassenkabine 80 angeordnete Innenleuchten, z. B. eine Lichtkuppel. Gemäß einer erfindungsgemäßen Ausführungsform beinhaltet das Lichtsteuersystem 82 ein oder mehrere Stellglieder, z. B. Stellglieder 30, die konfiguriert sind, um Beschattungen selektiv zu öffnen oder zu schließen, die einem oder mehreren Fahrzeugfenstern oder Schiebedächern zugeordnet sind. In einer dritten exemplarischen Ausführungsform beinhaltet das Lichtsteuersystem 82 ein oder mehrere elektrochrome Fenster, die konfiguriert sind, um die Opazität selektiv zu erhöhen, um das von der Außenseite des Fahrzeugs übertragene Licht zu verringern. Andere Ausführungsformen können andere Lichtsteuersysteme oder eine beliebige Kombination der vorhergehend genannten beinhalten.
  • In einigen Ausführungsformen kann das Erfassen des Referenzbildes der Insassenkabine das Steuern des Lichtsteuersystems 82 beinhalten, um vor der Aufnahme des Bildes eine vordefinierte Referenzlicht-Einstellung bereitzustellen, z. B. durch Schließen aller verfügbaren Fensterblenden und Einschalten aller Innenleuchten der Insassenkabine 80.
  • Nach der Aufnahme des Referenzbildes wird, wie bei Block 104 dargestellt, ein Fahrzyklus durchgeführt, z. B. durch Abholen eines oder mehrerer Fahrgäste und Befördern der Fahrgäste zu ihren Zielorten. Während solcher Fahrzyklen können Fahrgäste Gegenstände im Fahrzeug zurücklassen, z. B. das in 4B dargestellte Objekt 84.
  • Ein erstes Bild der Insassenkabine wird nach Abschluss der Fahrt, wie bei Block 106 dargestellt, aufgenommen. Das erste Bild nach Abschluss der Fahrt kann von der optischen Kamera 26' basierend auf einem Befehl der Steuerung 22 aufgenommen werden. Der Befehl kann beispielsweise basierend auf einer Bestimmung, dass sich derzeit keine Insassen im Fahrzeug 12 befinden, generiert werden. Das erste Bild nach Abschluss der Fahrt weist erste Konfiguration des einfallenden Lichts auf. In einigen Ausführungsformen kann das Aufnehmen des ersten Bildes der Insassenkabine nach Abschluss der Fahrt das Steuern des Lichtsteuerungssystems 82 beinhalten, um die vordefinierte Referenzlicht-Einstellung zu reproduzieren. In solchen Ausführungsformen entspricht die erste Konfiguration des einfallenden Lichts daher der Referenzlicht-Einstellung. In weiteren Ausführungsformen entspricht die erste Konfiguration des einfallenden Lichts dem Umgebungslicht, z. B. von externen Lichtquellen wie Sonne oder Straßenbeleuchtung. Basierend auf Lichtquellen der ersten Konfiguration des einfallenden Lichts wirft das Objekt 84 in der Veranschaulichung von 4C einen ersten Schatten 86.
  • Wie bei Block 108 dargestellt, wird eine Bilddifferenz zwischen dem ersten Bild nach Abschluss der Fahrt und dem Referenzbild bestimmt. Dies kann mit jedem geeigneten Bilddifferenzalgorithmus durchgeführt werden.
  • Wie bei Operation 110 dargestellt, wird bestimmt, ob die Bilddifferenz auf ein in der Kabine 80 zurückgelassenes potentielles Objekt schließen lässt. In einer exemplarischen Ausführungsform kann bestimmt werden, dass ein potenzielles Objekt als Reaktion auf die Bilddifferenz zwischen dem ersten Bild nach Abschluss der Fahrt und dem Referenzbild, das einen Schwellenwert in einem Bereich der Insassenkabine 80 überschreitet, zurückgelassen wurde. Es kann jedoch schwierig sein, anhand eines zweidimensionalen Bildes festzustellen, ob der Unterschied auf ein zurückgelassenes Objekt oder auf einen Fleck oder eine Verfärbung auf Polstern oder Teppichen in der Kabine 80 zurückzuführen ist.
  • Wenn die Bestimmung der Operation 110 negativ ist, d.h. die Bilddifferenz kein potentielles Objekt anzeigt, endet der Algorithmus bei Block 124. Der Algorithmus kann sich dann für einen nachfolgenden Fahrzyklus wiederholen. In einer exemplarischen Ausführungsform kann das erste Bild nach Abschluss der Fahrt als Referenzbild für einen sich daran anschließenden Fahrzyklus wiederverwendet werden.
  • Wenn die Bestimmung des Betriebs 110 positiv ist, werden ein oder mehrere Fahrzeugsysteme gesteuert, um die Ausrichtung und/oder Intensität des einfallenden Lichts, wie bei Block 112 dargestellt, zu ändern. Dadurch wird eine zweite Konfiguration des einfallenden Lichts erzeugt, die sich von der ersten Konfiguration des einfallenden Lichts unterscheidet. In einer exemplarischen Ausführungsform wird das Lichtsteuersystem 82 gesteuert, um die Lichtorientierung und/oder - intensität zu ändern, z. B. durch Ein- und Ausschalten von Innenleuchten, Öffnen oder Schließen eines Fensters oder einer Beschattung oder durch Ändern der Opazität eines oder mehrerer elektrochromer Fenster. In einer weiteren exemplarischen Ausführungsform werden die Fahrzeugstellglieder 30 durch das ADS 24 gesteuert, um das Fahrzeug 12 in einer anderen Ausrichtung relativ zu den Umgebungslichtquellen zu positionieren und um die Ausrichtung des einfallenden Lichts in der Kabine 80 dadurch zu ändern. Basierend auf Lichtquellen der zweiten Konfiguration des einfallenden Lichts wirft das Objekt 84 in der Veranschaulichung von 4D einen zweiten Schatten 86'.
  • Ein sich daran anschließendes Bild der Insassenkabine wird nach Abschluss der Fahrt, wie bei Block 114 dargestellt, aufgenommen. Das sich daran anschließende Bild nach Abschluss der Fahrt kann von der optischen Kamera 26' basierend auf einem Befehl der Steuerung 22 aufgenommen werden. Wie bei Block 116 dargestellt, wird eine Bilddifferenz zwischen dem sich daran anschließenden Bild nach Abschluss der Fahrt und dem ersten Bild nach Abschluss der Fahrt bestimmt. Dies kann mit jedem geeigneten Bilddifferenzalgorithmus durchgeführt werden.
  • Wie bei Operation 118 dargestellt, wird bestimmt, ob die Bilddifferenz auf ein in der Kabine 80 zurückgelassenes Objekt schließen lässt. In einer exemplarischen Ausführungsform kann als Reaktion auf die Bilddifferenz zwischen dem sich daran anschließenden Bild nach Abschluss der Fahrt und dem ersten Bild nach Abschluss der Fahrt, das einen Schwellenwert überschreitet, bestimmt werden, dass ein Objekt zurückgelassen wurde. Eine solche Differenz, die auf der Änderung des einfallenden Lichts basiert, deutet eher auf ein wie in 4D dargestelltes dreidimensionales Objekt, als auf einen Fleck oder eine Verfärbung hin.
  • Als Reaktion darauf, dass die Bestimmung der Operation 118 negativ ist, d.h. die Bilddifferenz kein Objekt anzeigt, kann, wie bei Block 120 dargestellt, auf das Vorhandensein eines Flecks in der Insassenkabine geschlossen werden, welches das Ergreifen von Korrekturmaßnahmen veranlasst. In einer exemplarischen Ausführungsform beinhaltet dies die automatische Steuerung des Fahrzeugs 12 über das ADS 24 zu einer Serviceeinrichtung zur Reinigung. Es können auch andere Korrekturmaßnahmen ergriffen werden. Der Algorithmus endet dann bei Block 124.
  • Als Reaktion darauf, dass die Bestimmung der Operation 120 positiv ist, d.h. die Bilddifferenz ein Objekt anzeigt, kann, wie bei Block 122 dargestellt, auf das Vorhandensein eines Objekts in der Insassenkabine geschlossen werden, welches das Ergreifen von Korrekturmaßnahmen veranlasst. In einer exemplarischen Ausführungsform beinhaltet dies die automatische Benachrichtigung eines oder mehrerer jüngerer Fahrgäste, z. B. durch Benachrichtigung der mobilen Vorrichtung des Fahrgastes, Hupen einer Fahrzeughupe, blinkende Fahrzeugleuchten oder andere geeignete Mittel zur Benachrichtigung. Der Algorithmus endet dann bei Block 124.
  • Abweichungen davon sind natürlich möglich. Als Beispiel können ein oder mehrere weitere Bilder nach Abschluss der Fahrt mit anderen Konfigurationen des einfallenden Lichts aufgenommen werden, um zusätzliche Präzision über die Position, Form, Größe oder andere Eigenschaften von Objekten, die im Fahrzeug zurückgelassen werden, bereitzustellen. Als weiteres Beispiel kann eine Größe des Objekts basierend auf einer Länge des vom Objekt geworfenen Schattens und der Kenntnis der Position der Lichtquelle, die zur Erzeugung des Schattens verwendet wird, berechnet werden. Darüber hinaus können ähnliche Verfahren wie die vorstehend beschriebenen implementiert werden, um Objekte in anderen Erfassungsräumen zu erkennen, z. B. in Fahrzeugkoffern oder auch in nicht automobilen Umgebungen.

Claims (4)

  1. Kraftfahrzeug (12) umfassend: eine Kabine (80); einen optischen Sensor (26), der angeordnet ist, um Bilder der Kabine (80) aufzunehmen; ein Lichtsteuersystem (82), das betreibbar ist, um eine Intensität oder Richtung des einfallenden Lichts in der Kabine (80) zu ändern; und eine Steuerung (22), die konfiguriert ist, um als Reaktion auf eine Objekterkennungsanforderung automatisch den optischen Sensor (26) zu steuern, um ein erstes Bild der Kabine (80) mit einer ersten Konfiguration des einfallenden Lichts aufzunehmen, das Lichtsteuersystem (82) zu steuern, um eine Intensität oder Richtung des einfallenden Lichts in der Kabine (80) zu einer zweiten Konfiguration des einfallenden Lichts zu ändern, den optischen Sensor (26) zu steuern, um ein zweites Bild der Kabine (80) mit der zweiten Konfiguration des einfallenden Lichts aufzunehmen, eine Änderung in einem Schatten (86, 86') zwischen dem ersten Bild und dem zweiten Bild zu erkennen, auf das Vorhandensein eines Objekts (84) in der Kabine (80) basierend auf der Änderung im Schatten zu schließen und eine Korrekturmaßnahme basierend auf das Vorhandensein des Objekts (84) durchzuführen; dadurch gekennzeichnet , dass die Kabine (80) mit mindestens einem Fenster versehen ist, wobei das Lichtsteuersystem (82) ein Fenstersystem umfasst, das betreibbar ist, um einfallendes Licht durch das mindestens eine Fenster zu modifizieren, und wobei die Steuerung (22) konfiguriert ist, um das Lichtsteuersystem (82) durch selektives Steuern des Fenstersystems zu steuern, um einfallendes Licht zu modifizieren; und/oder das Lichtsteuersystem (82) mindestens ein Stellglied (30) umfasst, das zum Steuern der Fahrzeuglenkung, -beschleunigung oder -bremsung konfiguriert ist, und wobei die Steuerung (22) konfiguriert ist, um das Lichtsteuersystem (82) durch selektives Steuern des Stellglieds (30) zu steuern, um das Kraftfahrzeug (12) zwischen einer ersten Ausrichtung in Bezug auf eine Umgebungslichtquelle und einer zweiten Ausrichtung in Bezug auf die Umgebungslichtquelle zu bewegen.
  2. Kraftfahrzeug (12) nach Anspruch 1, wobei das Lichtsteuersystem (82) eine in der Kabine (80) angeordnete Innenbeleuchtung umfasst, und wobei die Steuerung (22) konfiguriert ist, um das Lichtsteuersystem (82) durch selektives Ein- oder Ausschalten der Innenbeleuchtung zu steuern.
  3. Kraftfahrzeug (12) nach Anspruch 1, wobei die Objekterkennungsanforderung auf einer Bilddifferenz zwischen einem vor einem Fahrzyklus aufgenommenen Referenzkabinenbild und einem nach einem Fahrzyklus aufgenommenen Nachzykluskabinenbild basiert.
  4. Kraftfahrzeug (12) nach Anspruch 1, wobei die Korrekturmaßnahme das Signalisieren einer Warnung an einen Benutzer umfasst.
DE102019114707.7A 2018-06-22 2019-05-31 System und Verfahren zum Erfassen von Objekten in einem autonomen Fahrzeug Active DE102019114707B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/015,330 US11117594B2 (en) 2018-06-22 2018-06-22 System and method for detecting objects in an autonomous vehicle
US16/015,330 2018-06-22

Publications (2)

Publication Number Publication Date
DE102019114707A1 DE102019114707A1 (de) 2019-12-24
DE102019114707B4 true DE102019114707B4 (de) 2021-12-23

Family

ID=68806046

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019114707.7A Active DE102019114707B4 (de) 2018-06-22 2019-05-31 System und Verfahren zum Erfassen von Objekten in einem autonomen Fahrzeug

Country Status (3)

Country Link
US (1) US11117594B2 (de)
CN (1) CN110626330B (de)
DE (1) DE102019114707B4 (de)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11493348B2 (en) 2017-06-23 2022-11-08 Direct Current Capital LLC Methods for executing autonomous rideshare requests
US20190095714A1 (en) * 2017-09-28 2019-03-28 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Vehicle interior lidar detection systems
US11106927B2 (en) * 2017-12-27 2021-08-31 Direct Current Capital LLC Method for monitoring an interior state of an autonomous vehicle
US11117594B2 (en) * 2018-06-22 2021-09-14 GM Global Technology Operations LLC System and method for detecting objects in an autonomous vehicle

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070176402A1 (en) 2006-01-27 2007-08-02 Hitachi, Ltd. Detection device of vehicle interior condition
DE102017200607A1 (de) 2017-01-17 2018-07-19 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen eines Objekts in einem Fahrzeug

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6910711B1 (en) * 1992-05-05 2005-06-28 Automotive Technologies International, Inc. Method for controlling deployment of an occupant protection device
US6778672B2 (en) * 1992-05-05 2004-08-17 Automotive Technologies International Inc. Audio reception control arrangement and method for a vehicle
US7663502B2 (en) * 1992-05-05 2010-02-16 Intelligent Technologies International, Inc. Asset system control arrangement and method
US6942248B2 (en) * 1992-05-05 2005-09-13 Automotive Technologies International, Inc. Occupant restraint device control system and method
US6856873B2 (en) * 1995-06-07 2005-02-15 Automotive Technologies International, Inc. Vehicular monitoring systems using image processing
US8948442B2 (en) * 1982-06-18 2015-02-03 Intelligent Technologies International, Inc. Optical monitoring of vehicle interiors
US6919803B2 (en) * 2002-06-11 2005-07-19 Intelligent Technologies International Inc. Low power remote asset monitoring
US7415126B2 (en) * 1992-05-05 2008-08-19 Automotive Technologies International Inc. Occupant sensing system
US6820897B2 (en) * 1992-05-05 2004-11-23 Automotive Technologies International, Inc. Vehicle object detection system and method
US6735506B2 (en) * 1992-05-05 2004-05-11 Automotive Technologies International, Inc. Telematics system
US7164117B2 (en) * 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
US6869100B2 (en) * 1992-05-05 2005-03-22 Automotive Technologies International, Inc. Method and apparatus for controlling an airbag
US7050897B2 (en) * 1992-05-05 2006-05-23 Automotive Technologies International, Inc. Telematics system
US9290146B2 (en) * 1992-05-05 2016-03-22 Intelligent Technologies International, Inc. Optical monitoring of vehicle interiors
US20080142713A1 (en) * 1992-05-05 2008-06-19 Automotive Technologies International, Inc. Vehicular Occupant Sensing Using Infrared
US7596242B2 (en) * 1995-06-07 2009-09-29 Automotive Technologies International, Inc. Image processing for vehicular applications
US7738678B2 (en) * 1995-06-07 2010-06-15 Automotive Technologies International, Inc. Light modulation techniques for imaging objects in or around a vehicle
US20090046538A1 (en) * 1995-06-07 2009-02-19 Automotive Technologies International, Inc. Apparatus and method for Determining Presence of Objects in a Vehicle
US8054203B2 (en) * 1995-06-07 2011-11-08 Automotive Technologies International, Inc. Apparatus and method for determining presence of objects in a vehicle
US7734061B2 (en) * 1995-06-07 2010-06-08 Automotive Technologies International, Inc. Optical occupant sensing techniques
US7386372B2 (en) * 1995-06-07 2008-06-10 Automotive Technologies International, Inc. Apparatus and method for determining presence of objects in a vehicle
CN101010224B (zh) * 2004-09-06 2012-11-14 宝马股份公司 用于检测车辆座位上对象的装置
US20130100266A1 (en) * 2011-10-25 2013-04-25 Kenneth Edward Salsman Method and apparatus for determination of object topology
KR101841948B1 (ko) * 2015-10-02 2018-03-26 엘지전자 주식회사 차량 내 분실물 예방 서비스 제공장치, 제공방법 및 이동 단말기
WO2017087984A1 (en) * 2015-11-20 2017-05-26 Uber Technologies, Inc. Controlling autonomous vehicles in connection with transport services
US9454154B1 (en) * 2016-03-07 2016-09-27 Amazon Technologies, Inc. Incident light sensor on autonomous vehicle
JP2019174116A (ja) * 2016-08-26 2019-10-10 パナソニックIpマネジメント株式会社 画像処理システム及び方法
US11117594B2 (en) * 2018-06-22 2021-09-14 GM Global Technology Operations LLC System and method for detecting objects in an autonomous vehicle

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20070176402A1 (en) 2006-01-27 2007-08-02 Hitachi, Ltd. Detection device of vehicle interior condition
DE102017200607A1 (de) 2017-01-17 2018-07-19 Robert Bosch Gmbh Verfahren und Vorrichtung zum Erkennen eines Objekts in einem Fahrzeug

Also Published As

Publication number Publication date
US11117594B2 (en) 2021-09-14
CN110626330B (zh) 2023-03-28
DE102019114707A1 (de) 2019-12-24
CN110626330A (zh) 2019-12-31
US20190389486A1 (en) 2019-12-26

Similar Documents

Publication Publication Date Title
DE102017126877B4 (de) Kraftfahrzeug
DE102017121181B4 (de) Steuerungsstrategie für unbemanntes autonomes Fahrzeug
DE102018122459B4 (de) Fahrzeugsystem, entferntes fahrzeugassistenzsystem und comuterimplementiertes verfahren zum bereitstellen von fernunterstützung
DE102019114707B4 (de) System und Verfahren zum Erfassen von Objekten in einem autonomen Fahrzeug
DE102019107798A1 (de) Pedalanordnung für ein fahrzeug
DE102018119469A1 (de) System und verfahren zur verbesserten hinderniserkennung unter verwendung eines v2x-kommunikationssystems
DE102018105693A1 (de) Strassenbau-Erfassungssysteme und -Verfahren
DE102019110184A1 (de) Systeme und verfahren zum autonomen fahren unter verwendung eines auf neuronalen netzwerken basierten fahrerlernens auf tokenizierten sensoreingaben
DE102018110425A1 (de) Verfahren und systeme für lidar-punkt-wolkenanomalien
DE102018110086A1 (de) Automatisierte routenüberquerung eines fahrzeugs
DE102019115421A1 (de) System und verfahren zur steuerung eines autonomen fahrzeugs
DE102019110759A1 (de) System und verfahren zum steuern eines autonomen fahrzeugs
DE102018121009A1 (de) System und verfahren zur abstandsregelung für ein autonomes fahrzeug
DE102019107285A1 (de) Pedalanordnung für ein fahrzeug
DE102019114792B4 (de) System und verfahren zur autonomen steuerung eines pfades eines fahrzeugs
DE102019116056A1 (de) System und verfahren zur steuerung eines autonomen fahrzeugs
DE102018110508A1 (de) Benachrichtigungssystem für ein kraftfahrzeug
DE102018111252A1 (de) Diagnoseverfahren für einen stellantrieb in einem autonomen fahrzeug
DE102019115984A1 (de) System und verfahren zur steuerung eines autonomen fahrzeugs
DE102019134351A1 (de) System und verfahren zur sensordiagnose
DE102020100941A1 (de) System und verfahren zum steuern eines autonomen fahrzeugs
DE102018121593A1 (de) Türschliesssystem
DE102019114626B4 (de) Kraftfahrzeug mit einem System zur Hardware-Überprüfung in einem Kraftfahrzeug
DE102020102955A1 (de) Verfahren zur priorisierung der übertragung von erfassten objekten für die kooperative sensorteilung
DE102020126975A1 (de) Systeme und verfahren zur kommunikation eines beabsichtigten fahrzeugmanövers

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: MANITZ FINSTERWALD PATENT- UND RECHTSANWALTSPA, DE

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final