DE102019127229A1 - System und verfahren zum bestimmen einer vertrautheit eines fahrzeugdatensatzes - Google Patents

System und verfahren zum bestimmen einer vertrautheit eines fahrzeugdatensatzes Download PDF

Info

Publication number
DE102019127229A1
DE102019127229A1 DE102019127229.7A DE102019127229A DE102019127229A1 DE 102019127229 A1 DE102019127229 A1 DE 102019127229A1 DE 102019127229 A DE102019127229 A DE 102019127229A DE 102019127229 A1 DE102019127229 A1 DE 102019127229A1
Authority
DE
Germany
Prior art keywords
vehicle
data
learned
sensor data
control unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019127229.7A
Other languages
English (en)
Inventor
Aaron Thompson
Honghao Tan
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harman International Industries Inc
Original Assignee
Harman International Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harman International Industries Inc filed Critical Harman International Industries Inc
Publication of DE102019127229A1 publication Critical patent/DE102019127229A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W50/00Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
    • B60W2050/0001Details of the control system
    • B60W2050/0002Automatic control, details of type of controller or control system architecture
    • B60W2050/0004In digital systems, e.g. discrete-time systems involving sampling
    • B60W2050/0005Processor details or data handling, e.g. memory registers or chip architecture

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Automation & Control Theory (AREA)
  • Human Computer Interaction (AREA)
  • Transportation (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)

Abstract

Die vorliegende Offenbarung betrifft Systeme, Vorrichtungen und Verfahren zum Identifizieren von Objekten und Szenarien, die nicht erlernt wurden oder die von Fahrzeugwahrnehmungssensoren oder Fahrzeugassistenzfahrsystemen nicht identifiziert werden können. Ausführungsformen sind darauf ausgerichtet, einen erlernten Fahrzeugdatensatz zu verwenden, um Zielobjekte in Fahrzeugsensordaten zu identifizieren. In einer Ausführungsform ist ein Prozess bereitgestellt, der das Ausführen eines Szenendetektionsvorgangs am Fahrzeug beinhaltet, um einen Vektor von Zielobjektattributen der Fahrzeugsensordaten abzuleiten und eine Vektordarstellung für den Szenendetektionsvorgang und die Attribute der Fahrzeugsensordaten zu erzeugen. Die Vektordarstellung wird mit einem Vertrautheitsvektor verglichen, um die Wirksamkeit des Szenendetektionsvorgangs darzustellen. Darüber hinaus kann die Vektordarstellung bewertet werden, um ein oder mehrere Zielobjekte oder signifikante Szenarien, einschließlich Szenarien mit nicht identifizierbaren Objekten und/oder Fahrszenen für die Meldung zu identifizieren.

Description

  • GEBIET
  • Die vorliegende Offenbarung betrifft Systeme, Verfahren und Vorrichtungen für unterstützendes und autonomes Fahren und insbesondere das Identifizieren signifikanter Daten.
  • ALLGEMEINER STAND DER TECHNIK
  • Um den Betrieb eines Fahrzeugs zu unterstützen, werden Fahrzeugsysteme entwickelt. Die Systeme können die Bereitstellung von Rückmeldung und Fahrzeugsteuerung beinhalten. Es besteht Bedarf an Systemen und Prozessen zur genauen Identifizierung von Daten, die für Fahrzeugdetektionssysteme wichtig sind. Viele der bestehenden Systeme erfassen große Datenmengen, die nur schwer nutzbar sind. Beispielsweise kann ein Fahrzeugsystem, das mehrere Sensoren beinhaltet, während des Betriebs eine große Datenmenge erzeugen. Da bestehende Systeme typischerweise Daten wahllos erzeugen und speichern, gibt es einen erheblichen Kostenaufwand für die Speicherung und Pflege von Daten. Zusätzlich zur Verarbeitung erfordern diese Systeme umfangreiche Datenspeichermöglichkeiten. Nachteile dieser Systeme können den Fakt, dass sie nicht in der Lage sind, Daten effizient zu handhaben, Kosten für die Datenspeicherung und Schwierigkeiten bei der Identifizierung relevanter Daten beinhalten. Bestehende Systeme stellen keine Konfigurationen zur Interpretation signifikanter Daten bereit. Infolgedessen können bestehende Systeme durch gespeicherte und nicht nutzbare Daten beeinträchtigt werden. Es besteht Verbesserungsbedarf bei den Konfigurationen der Fahrzeugsysteme für das unterstützte Fahren und bei der Identifizierung wichtiger Daten.
  • KURZDARSTELLUNG DER AUSFÜHRUNGSFORMEN
  • Hierin sind Verfahren, Vorrichtungen und Systeme für Fahrzeugwahrnehmungssystemvorgänge offenbart und beansprucht. Eine Ausführungsform ist gerichtet auf das Identifizieren signifikanter Szenariodaten durch eine Steuereinheit eines Fahrzeugs. Das Verfahren beinhaltet Empfangen von Fahrzeugsensordaten, die von mindestens einem Sensor des Fahrzeugs erfasst werden, durch eine Steuereinheit. Die Fahrzeugsensordaten werden von einem Fahrerassistenzsystem eines Fahrzeugs erzeugt. Das Verfahren beinhaltet auch Ausführen eines Szenendetektionsvorgangs anhand der Fahrzeugsensordaten durch die Steuereinheit unter Verwendung eines erlernten Fahrzeugdatensatzes, um Zielobjektattribute der Fahrzeugsensordaten zu identifizieren. Das Verfahren beinhaltet auch das Erzeugen einer Vektordarstellung für den Szenendetektionsvorgang und der Attribute der Fahrzeugsensordaten durch die Steuereinheit, wobei die Vektordarstellung eine Darstellung der Effektivität des Szenendetektionsvorgangs bei der Identifizierung von Zielobjektattributen der Fahrzeugsensordaten ist. Das Verfahren beinhaltet auch das Identifizieren von signifikanten Szenariodaten durch die Steuereinheit basierend auf der Vektordarstellung, wobei das signifikante Szenario mindestens ein Zielobjekt der Fahrzeugsensordaten identifiziert.
  • In einer Ausführungsform beinhalten die Fahrzeugsensordaten mindestens eines von Bild-, Radar- und LiDAR-Daten für eine Detektionszone des Fahrerassistenzsystems des Fahrzeugs.
  • In einer Ausführungsform erzeugt das Ausführen des Szenendetektionsvorgangs anhand der Fahrzeugsensordaten einen kommentierten Datensatz für Zielobjekte in Echtzeit basierend auf den Attributen des erlernten Fahrzeugdatensatzes, wobei der erlernte Fahrzeugdatensatz eine Vielzahl von Objekttypen und Objektattributen bereitstellt.
  • In einer Ausführungsform beinhaltet das Vergleichen der Vektordarstellung das Durchführen eines Clusteringvorgangs für Zielobjekte der Fahrzeugsensordaten unter Verwendung des erlernten Fahrzeugdatensatzes zum Erzeugen eines Vektordatenmodells für die Fahrzeugsensordaten, wobei das Vektordatenmodell die Fähigkeit des erlernten Fahrzeugsatzes zum Wahrnehmen von Zielobjekten der Fahrzeugsensordaten kennzeichnet.
  • In einer Ausführungsform beinhaltet das Identifizieren des signifikanten Szenarios Bestimmen, dass ein Zielobjekt ein nicht identifiziertes Objekt ist.
  • In einer Ausführungsform beinhaltet das Identifizieren des signifikanten Szenarios Bestimmen, dass mindestens eines der erlernten Fahrzeugdatenattribute nicht in der Lage ist, ein Zielobjekt zu klassifizieren.
  • In einer Ausführungsform beinhaltet das Identifizieren des signifikanten Szenarios Bestimmen der Vertrautheit eines Zielobjekts in Bezug auf den erlernten Datensatz basierend auf mindestens einem von der Anzahl der Zielobjekte, der Klassifizierung der Zielobjekte, der Größe und Form des Zielobjekts, dem Objekttyp und der Objektfarbe.
  • In einer Ausführungsform beinhaltet das Identifizieren des signifikanten Szenarios Bestimmen von mindestens einer Fahrzeugbetriebscharakteristik als Attribut in Bezug auf die Identifizierung eines Zielobjekts in mindestens einem von einem Fahrerassistenzsystem und einem autonomen Fahrsystem.
  • In einer Ausführungsform beinhaltet das Identifizieren des signifikanten Szenarios Bestimmen der Vertrautheit für eine aktuelle Szene des durchfahrenden Fahrzeugs in Bezug auf den erlernten Fahrzeugdatensatz für eine Fahrbedingung.
  • In einer Ausführungsform beinhaltet das Verfahren ferner das Bewerten der Vektordarstellung anhand der Fähigkeit des Szenendetektionsvorgangs, Zielobjektattribute der Fahrzeugsensordaten unter Verwendung des erlernten Fahrzeugdatensatzes wahrzunehmen, durch die Steuereinheit, und wobei das signifikante Szenario identifizierte Daten basierend auf einer Bewertung der Vektordarstellung unterhalb eines vorbestimmten Schwellenwerts ist.
  • In einer Ausführungsform beinhaltet das Verfahren ferner Ausgeben von mindestens einem Zielobjekt der Fahrzeugsensordaten.
  • Eine weitere Ausführungsform ist auf eine Fahrzeugsteuereinheit gerichtet, die einen Eingang, der dazu konfiguriert ist, Fahrzeugsensordaten zu empfangen, und eine Steuereinheit, die an den Eingang gekoppelt ist, beinhaltet. Die Steuereinheit ist konfiguriert zum Empfangen von Fahrzeugsensordaten, die von mindestens einem Sensor des Fahrzeugs erfasst werden, wobei die Fahrzeugsensordaten von einem Fahrerassistenzsystem eines Fahrzeugs erzeugt werden. Die Steuereinheit ist außerdem konfiguriert zum Ausführen eines Szenendetektionsvorgangs anhand der Fahrzeugsensordaten unter Verwendung eines erlernten Fahrzeugdatensatzes, um Zielobjektattribute der Fahrzeugsensordaten zu identifizieren. Die Steuereinheit ist außerdem konfiguriert zum Erzeugen einer Vektordarstellung für den Szenendetektionsvorgang und der Attribute der Fahrzeugsensordaten durch die Steuereinheit, wobei die Vektordarstellung eine Darstellung der Effektivität des Szenendetektionsvorgangs bei der Identifizierung von Zielobjektattributen der Fahrzeugsensordaten ist. Die Steuereinheit ist außerdem konfiguriert zum Identifizieren von signifikanten Szenariodaten basierend auf der Vektordarstellung, wobei das signifikante Szenario mindestens ein Zielobjekt der Fahrzeugsensordaten identifiziert.
  • Andere Aspekte, Merkmale und Techniken liegen für den einschlägigen Fachmann angesichts der folgenden detaillierten Beschreibung der Ausführungsformen auf der Hand.
  • Figurenliste
  • Die Merkmale, Aufgaben und Vorteile der vorliegenden Offenbarung gehen aus der unten aufgeführten detaillierten Beschreibung in Verbindung mit den Zeichnungen deutlicher hervor, in denen gleiche Bezugszeichen durchgehend Entsprechendes kennzeichnen und in denen Folgendes gilt:
    • Die 1A-1B stellen grafische Darstellungen von Szenariodaten gemäß einer oder mehreren Ausführungsformen dar;
    • 2 stellt einen Prozess von einem Vorgang der Steuereinheit gemäß einer oder mehreren Ausführungsformen dar;
    • 3 stellt eine grafische Darstellung einer Fahrzeugsteuereinheit gemäß einer oder mehreren Ausführungsformen dar;
    • 4 stellt eine grafische Darstellung eines erlernten Fahrzeugdatensatzes gemäß einer oder mehreren Ausführungsformen dar;
    • 5 stellt eine grafische Darstellung von Vorgängen der Steuereinheit gemäß einer oder mehreren Ausführungsformen dar;
    • 6 stellt eine grafische Darstellung von Vorgängen in Bezug auf einen bekannten Datensatz gemäß einer oder mehreren Ausführungsformen dar; und
    • 7 stellt eine grafische Darstellung von Objektattributen gemäß einer oder mehreren Ausführungsformen dar.
  • DETAILLIERTE BESCHREIBUNG DER AUSFÜHRUNGSBEISPIELE
  • Überblick und Terminologie
  • Ein Aspekt der Offenbarung ist auf das Identifizieren signifikanter Daten, die von einem Fahrzeugsystem detektiert werden, und insbesondere unterstützende oder autonome Fahrsysteme gerichtet. In einer Ausführungsform beinhaltet das Identifizieren signifikanter Daten das Identifizieren von Daten, die für eine bestehende Konfiguration zum Detektieren von Objekten nicht vertraut sind. Sofern nicht anderweitig angegeben, werden Systeme, Konfigurationen und Prozesse bereitgestellt, um mindestens eines von einem Objekt, Objektattribut und Szenario zu identifizieren, das von einem Fahrzeugsystem wahrgenommen wird, das im erlernten Datensatz unterrepräsentiert oder ganz neu ist. Die Identifizierung signifikanter und/oder unterrepräsentierter Daten ist eine beispielhafte Verwendung der hierin beschriebenen Konfigurationen und Vorgänge. Ausführungsformen richten sich auch auf die Detektion und Charakterisierung von Anomalien in Fahrzeugdatensätzen. Im vorliegenden Zusammenhang können eine oder mehrere Anomalien in Bezug auf Fahrzeugsensordaten unter Verwendung eines erlernten Fahrzeugdatensatzes bestimmt werden. In einigen Fällen ist ein erlernter Fahrzeugdatensatz nicht in der Lage, ein detektiertes Objekt zu identifizieren oder zu klassifizieren. Beispielsweise können ein oder mehrere Fahrzeugsensoren Ausgaben bereitstellen, die das Vorhandensein und/oder den Standort eines Objekts identifizieren, wobei das Objekt möglicherweise nicht mit einem Objekttyp des erlernten Datensatzes übereinstimmt oder durch diesen repräsentiert wird. In anderen Ausführungsformen können die Fahrzeugsensordaten in Bezug auf ein detektiertes Objekt widersprüchlich sein. Das Versäumnis, ein Objekt zu identifizieren oder zu klassifizieren, kann auf unzureichenden Daten oder Parametern eines erlernten Datensatzes beruhen, der vom Fahrzeug zur Wahrnehmung einer Szene verwendet wird.
  • Im vorliegenden Zusammenhang kann sich unterstütztes Fahren auf mindestens eines von Folgendem beziehen: Bereitstellen einer Angabe, Erfassen von Daten, Steuern des Betriebs eines Fahrzeugs, Aktivieren eines Fahrzeugsystems und von Fahrzeugsteuerungsvorgängen im Allgemeinen für durch Fahrer und/oder fahrerlos gesteuerte Fahrzeuge. Das unterstützende Fahren kann sich auf eine oder mehrere Funktionen eines erweiterten Fahrerassistenzsystems (advanced driver assistance system - ADAS) oder eines Systems für das autonome Fahren (autonomous driving - AD) beziehen. Vorgänge für das unterstützende Fahren können Spurwechselassistent, Einparkassistent, Bremssteuerung usw. beinhalten. Das unterstützende Fahren kann sich auch auf Systeme und Vorgänge für autonome Fahrsysteme und Fahrzeuge beziehen. Ein unterstützendes Fahrsystem kann sich auf ein Fahrzeugsystem beziehen, das mindestens einen Sensor zum Detektieren von Objekten oder Fahrzeugbetriebsbedingungen, eine Steuereinheit und ein oder mehrere Fahrzeugsysteme zum Steuern des Fahrzeugs beinhaltet. Objekt- und Fahrzeugdaten können von mindestens einem Sensor bestimmt werden, einschließlich unter anderem eines Bildsensors (z. B. Video), Radarsensors, LiDAR-Sensors, Beschleunigungs-/Bewegungssensors und Fahrzeugsensoren (z. B. Raddrehzahlsensors, Reifendruckkontrollsystem(tire pressure monitoring system - TPMS)-Sensors, ABS-Sensors, Gier-/Neigungssensors, Stabilitätskontrollsensors usw.). Gemäß einer Ausführungsform können unterstützende Fahrsysteme unter Verwendung von Ausgangsdaten, wie etwa einem erlernten Datensatz zum Detektieren von Zielobjekten (z. B. anderen Fahrzeugen, Fahrbahnmarkierungen, Hindernissen usw.), Fahrbedingungen (z. B. eine Bremsbedingung, Fahrzeuggleiten, Abstand zu anderen Fahrzeugen/Objekten usw.) und/oder Szenarien, betrieben werden. Die Ausgangsdaten können ein(en) oder mehrere erkannte Objekttypen und Objektattribute beinhalten. Die Ausgangsdaten können auch Szenariodaten für Objekte und Objektanordnung beinhalten. Beispielsweise können Muster von Fahrbahnmarkierungen detektiert werden, um ein Zusammenlaufen von Fahrbahnen oder Kurven auf einer Straße zu signalisieren. Wie hierin erörtert, können Objekte, Objektattribute und Szenendaten Teil eines Szenarios sein, das identifiziert und charakterisiert werden kann. Die hierin beschriebenen Systeme, Verfahren und Konfigurationen können Fahrzeugsysteme für den Einsatz in der Praxis bei verschiedenen Bedingungen oder Szenen (z. B. Tag, Nacht, schwaches Licht, wetterbedingt usw.) beinhalten. Darüber hinaus können Systeme und Verfahren während der Laufzeit (z. B. während der Programmausführung) für den Einsatz im Fahrzeug durchgeführt werden.
  • Gemäß einem weiteren Aspekt der Offenbarung sind Ausführungsformen auf die Ereigniserfassung und Vorgänge zum Analysieren von Fahrzeugsensordaten ausgerichtet. Ein Problem für ein Fahrzeugsystem, das große Datenmengen erfasst, ist die Identifizierung signifikanter Daten. Ausführungsformen sind darauf ausgerichtet, die signifikanten Daten in einen erlernten Fahrzeugdatensatz zu integrieren. Signifikante Daten können verwendet werden, um Erfassungsereignisse und Datensegmente zu bestimmen, die Ähnlichkeit eines Ausgangsdatensatzes mit der Praxis zu verbessern und festzustellen, ob die insgesamt detektierten Szenendaten gültig sind.
  • In einer Ausführungsform beinhalten die Prozesse das Erzeugen einer Vektordarstellung eines erlernten Datensatzes oder von kommentierten Ausgangsdaten. In anderen Ausführungsformen beinhalten die Prozesse das Erzeugen einer Vektordarstellung von Fahrzeugsensordaten. Die Vektordarstellungen können auf Modelldaten des Systems basieren und können verwendet werden, um die Effektivität des Systems bei der Identifizierung von Objekten unter Verwendung eines erlernten Datensatzes und/oder die Effektivität des erlernten Datensatzes zu bestimmen. Das Erzeugen einer Vektordarstellung kann das Durchführen von einem oder mehreren Vorgängen durch eine Fahrzeugsteuerung beinhalten. In einer Ausführungsform ermöglicht die Vektordarstellung die Bestimmung eines Anomalievektors. Der Anomalievektor kann verwendet werden, um Objekte oder Szenarien zu identifizieren, die für das System von Bedeutung sind.
  • In einer Ausführungsform beinhalten die Prozesse das Vergleichen einer Vektordarstellung des erlernten Datensatzes, wie etwa eines Vertrautheitsvektors, mit einem Vektor, der für die von mindestens einem Wahrnehmungssensor eines Fahrzeugs detektierten Zielobjektattribute abgeleitet ist.
  • Gemäß einer Ausführungsform können Vektordarstellungen zum Bestimmen eines signifikanten Szenarios basierend auf Vektordarstellungen von Objekttyp, Objektattributen, Objektmustern und Szenen verwendet werden. Beispielsweise können Vektordarstellungen des Objekttyps ein Objekt identifizieren, das nicht mit den Parametern des Datensatzes zur Identifizierung eines Objekts übereinstimmt oder nicht identifiziert werden kann. In einer Ausführungsform können Objektattribute signifikant sein, wenn ein Zielobjekt detektiert und als Objekt klassifiziert wird. Das Zielobjekt kann ein oder mehrere Attribute beinhalten, die identifiziert und von einer Steuervorrichtung nicht angemessen gehandhabt werden, dementsprechend können das eine oder die mehreren Attribute signifikant sein. In einer weiteren Ausführungsform können Vektordarstellungen von Objektmustern, wie Fahrbahnmarkierungen, Parksituationsmustern, Bremsmustern für Stop-and-Go-Verkehr usw., durch eine Vektordarstellung für das Muster gehandhabt werden. Situationen, die sich von den Mustern des Datensatzes unterscheiden, oder Fahrsituationen, die ein Muster und dann eine Abweichung vom Muster beinhalten, können als signifikant identifiziert werden. Eine oder mehrere Vektordarstellungen können für Zielobjektattribute von Fahrzeugsensordaten abgeleitet werden. Vektordarstellungen können für eine Szene basierend auf einem oder mehreren Parametern erzeugt werden. Für eine Fahrszene, die in Bezug zu anderen Objekten, wie etwa anderen Fahrzeugen, steht, kann die Bewegung der anderen Fahrzeuge und des Fahrzeugs, das die Steuereinheit beinhaltet, detektiert werden, um signifikante Szenarien für das Fahrzeug, das eine Steuereinheit beinhaltet, wie etwa ein Verkehrsmuster, zu identifizieren, das das Fahrzeug nicht richtig handhaben kann. Alternativ können sich die Szenarien auf Fahrbedingungen beziehen, die auf Wetter (z. B. Regen, Schnee, Nebel usw.), Straßenbedingungen (z. B. befestigt, unbefestigt, geringe Traktion usw.), Lichtverhältnisse (z. B. wenig Licht) und Betriebsszenarien für ein Fahrzeug basieren.
  • Gemäß einer Ausführungsform beinhaltet das Identifizieren eines signifikanten Szenarios das Identifizieren von mindestens einem Zielobjekt. Das Zielobjekt kann signifikant sein, wenn die erlernten Fahrzeugdaten nicht ausreichen, um die Art des detektierten Objekts zu charakterisieren oder zu bestimmen. Ein Zielobjekt kann signifikant sein, wenn ein oder mehrere Attribute der erlernten Fahrzeugdaten ein Objekt nicht ausreichend identifizieren. Basierend auf dem Fahrzeugbetrieb können signifikante Szenarien detektiert werden.
  • Gemäß einer weiteren Ausführungsform kann ein signifikantes Szenario durch Vergleichen einer Vektordarstellung für einen Szenendetektionsvorgang mit einem Vertrautheitsvektor eines erlernten Datensatzes, wie etwa eines erlernten Fahrzeugdatensatzes, identifiziert werden.
  • Gemäß einer Ausführungsform beinhaltet das Identifizieren eines signifikanten Szenarios das Detektieren einer oder mehrerer Fahrzeugbetriebsbedingungen. Die Fahrzeugbetriebsbedingungen können basierend auf Fahrzeugdaten, wie z. B. Traktionsverlust oder schnelle Verzögerungsereignisse (z. B. Bremsereignisse), anhand von Fahrzeugdaten bestimmt werden. In anderen Ausführungsformen können die Fahrzeugbetriebsbedingungen in Bezug zu identifizierten Objekten stehen. Beispielsweise kann die Detektion eines Objekts, wie etwa eines Fahrzeugs, das in die gleiche Richtung oder vor einem Fahrzeug fährt, zur Detektion eines Szenarios verwendet werden.
  • Gemäß einer Ausführungsform ist eine Steuereinheit eines Fahrzeugs dazu konfiguriert, signifikante Szenariodaten zu identifizieren. Es werden Prozesse und Vorrichtungskonfigurationen bereitgestellt, um signifikante Szenariodaten, die von einem oder mehreren Fahrzeugsensoren detektiert werden, zu identifizieren. Somit können während der Laufzeit signifikante Fahrzeugdaten detektiert werden. Darüber hinaus können erlernte Fahrzeugdaten und die Fähigkeit eines Fahrzeugsystems, Objekte und Fahrkonfigurationen zu detektieren, ausgewertet werden. In einer Ausführungsform beinhaltet eine Fahrzeugsteuereinheit mindestens einen Eingang, der zum Empfangen von Fahrzeugsensordaten konfiguriert ist, und eine an den Eingang gekoppelte Steuereinheit. Die Steuereinheit kann Teil eines Fahrzeugsteuersystems sein, wie etwa eine Einheit für das unterstützende Fahren oder ein Modul für das autonome Fahren. Die Steuereinheit kann dazu konfiguriert sein, Fahrzeugsensordaten zu empfangen und einen oder mehrere Vorgänge durchzuführen, um eine mit einem Fahrzeug assoziierte Szene und/oder eine oder mehrere Betriebscharakteristika auszuwerten. Wie im Folgenden näher erläutert, kann die Steuereinheit eine Vektordarstellung nutzen, um Attribute der Fahrzeugsensordaten zu verarbeiten.
  • Die hierin beschriebenen Prozesse und Vorrichtungskonfigurationen können Meldedaten vermeiden, die von dem System problemlos verarbeitet werden können. Signifikante Meldedaten, wie etwa eines signifikanten Objekts, werden bevorzugt, um die Daten, die zur Auswertung eines erlernten Fahrzeugdatensatzes verarbeitet werden müssen, zu begrenzen. Die hierin beschriebenen Prozesse und Vorrichtungskonfigurationen ermöglichen es einer Fahrzeugsteuereinheit, signifikante oder relevante Objekte zu identifizieren und Daten zur weiteren Analyse zu erfassen. Diese Vorgänge können es einem Fahrzeugassistenzsystem ermöglichen, sich kontinuierlich einem gewünschten Datensatz von Parametern zu nähern und gleichzeitig die Notwendigkeit einer manuellen Überprüfung zu begrenzen und/oder zu beseitigen.
  • Im vorliegenden Zusammenhang sollen die Ausdrücke „ein“ oder „eine“ eins oder mehr als eins bedeuten. Der Ausdruck „Vielzahl“ soll zwei oder mehr als zwei bedeuten. Der Ausdruck „ein anderes“ ist als zweites oder mehr definiert. Die Ausdrücke „beinhaltend“ und/oder „aufweisend“ sind nicht ausschließlich (z. B. umfassend). Der Ausdruck „oder“ ist im hier verwendeten Sinne als einschließend oder ein beliebiges oder eine beliebige Kombination bedeutend auszulegen. So bedeutet „A, B oder C“ „ein beliebiges der Folgenden: A; B; C; A und B; A und C; B und C; A, B und C“. Eine Ausnahme dieser Definition liegt nur dann vor, wenn sich eine Kombination aus Elementen, Funktionen, Schritten oder Handlungen an sich auf eine Art gegenseitig ausschließt.
  • In dieser Schrift bedeuten Bezugnahmen auf „eine Ausführungsform“, „bestimmte Ausführungsformen“ oder einen ähnlichen Ausdruck, dass ein bestimmtes Merkmal, eine bestimmte Struktur oder Eigenschaft, das bzw. die in Verbindung mit der Ausführungsform beschrieben wird, in mindestens einer Ausführungsform enthalten ist. So bezieht sich das Auftreten derartiger Formulierungen an verschiedenen Stellen dieser Beschreibung nicht unbedingt immer auf dieselbe Ausführungsform. Des Weiteren können die bestimmten Merkmale, Strukturen oder Eigenschaften auf jede geeignete Weise in einer oder mehreren Ausführungsformen ohne Einschränkung kombiniert werden.
  • Ausführungsbeispiele
  • Die 1A-1B stellen grafische Darstellungen von Szenariodaten gemäß einer oder mehreren Ausführungsformen dar. Gemäß einer Ausführungsform sind hierin beschriebene Systeme, Konfigurationen und Prozesse auf Fahrzeugsysteme ausgerichtet. Die 1A-1B stellen grafische Darstellungen eines beispielhaften Szenarios für eine Szene 100 dar, die mit dem Fahrzeug 105 und einer Vielzahl von Objekten assoziiert ist. Die Szene 100 kann sich auf einen bestimmten Ort oder Zeitraum beziehen, wobei das Vorhandensein von Objekten und/oder eine von mehreren Fahrzeugcharakteristika es einem Sensor des Fahrzeugs 105 ermöglichen kann, ein oder mehrere Objekte zu detektieren. Gemäß einer Ausführungsform kann das Fahrzeug 105 einen oder mehrere Sensoren zum Detektieren von Objekten basierend auf erlernten Fahrzeugdaten beinhalten. Als Beispiel ist das Fahrzeug 105 für Objekte, die in der Szene 100 vorhanden sind, dazu konfiguriert, Fahrzeugsensordaten zu interpretieren, um eines oder mehrere der Objekte zu detektieren. In bestimmten Ausführungsformen können sich Fahrzeugsensordaten auf eine Vorrichtung oder einen Vorrichtungstyp beziehen, wie etwa einen Bildsensor (z. B. eine Kamera). Somit können ein oder mehrere Zielobjekte vom Fahrzeug 105 unter Verwendung von erlernten Fahrzeugdaten aus den erfassten Bilddaten identifiziert werden. Gemäß einer anderen Ausführungsform kann das Fahrzeug 105 eine Vielzahl von Erfassungsvorrichtungen beinhalten, die mehrere Typen von Sensorausgaben erzeugen, einschließlich eines oder mehrerer von Bildern, Näherungssensoren, Radar und LiDAR.
  • Das Fahrzeug 105 kann dazu konfiguriert sein, eine Vielzahl von Objekttypen und Szenarien, wie etwa Bremsereignisse oder Spurwechsel, unter Verwendung erlernter Fahrzeugdaten zu detektieren und zu klassifizieren. Die hierin erörterten Ausführungsformen ermöglichen es, zu beurteilen, wann erlernte Fahrzeugdatensätze das Detektieren oder Handhaben von Zielobjekten nicht ausreichend ermöglichen. Beispielsweise kann das Fahrzeug 105 ein Objekt detektieren, aber nicht in der Lage sein, zu identifizieren oder zu bestimmen, wie das Fahrzeug 105 als Reaktion auf das Objekt zu steuern ist. Weitere Ausführungsformen ermöglichen es, die Vertrautheit des Fahrzeugs mit Objekten unter Verwendung eines erlernten Datensatzes zu beurteilen. Auf diese Weise können die Ausführungsformen zwar spezifische Sensortypen und/oder Zielobjektattribute verwenden, aber die hierin beschriebenen Systeme, Prozesse und Konfigurationen ermöglichen es, Anomalien mit einer oder mehreren verschiedenen Sensorkonfigurationen oder erlernten Fahrzeugdatensätzen zu detektieren. Darüber hinaus können die Prinzipien der Offenbarung auf verschiedene Sensorkonfigurationen eines Fahrzeugs angewandt werden.
  • 1A stellt eine beispielhafte Szene mit Objekten dar, die von einer oder mehreren Einheiten, wie etwa einer Steuereinheit des Fahrzeugs 105, detektiert und identifiziert werden können. In 1A beinhaltet die Szene 100 das Fahrzeug 105, das einen oder mehrere als 110 und 111 gezeigte Detektionsbereiche beinhaltet, wobei sich die Detektionsbereiche im Allgemeinen auf eine Vorwärtsfahrtrichtung für den Detektionsbereich 110 und eine nach hinten gerichtete Richtung für den Detektionsbereich 111 des Fahrzeugs 105 beziehen. Die Detektionsbereiche 110 und 111 sind in Bezug auf eine oder mehrere Richtungen des Fahrzeugs 105 gezeigt, die im erlernten Fahrzeugdatensatz beurteilt und/oder berücksichtigt werden können. Gemäß einer Ausführungsform können ein oder mehrere Sensoren des Fahrzeugs 105 Objekte in Bezug auf die Detektionsbereiche des Fahrzeugs detektieren, einschließlich der Vorwärts-, Rückwärts- und Querrichtungsbereichen des Fahrzeugs. Die Szene 100 kann sich auf ein beispielhaftes Szenario oder einen Typ von Szene beziehen, das bzw. der für das Fahrzeug von Interesse ist. Darüber hinaus kann jede vom Fahrzeug 105 detektierte Szene mit einem oder mehreren von Folgendem assoziiert sein: Objekttyp, Anzahl der Objekte, Standort der Objekte, Bewegung der Objekte usw. Gemäß einer weiteren Ausführungsform kann jede Szene mit mindestens einer der Betriebscharakteristika des Fahrzeugs und den Betriebscharakteristika anderer Fahrzeuge assoziiert sein. Gemäß einem Ausführungsbeispiel beinhaltet Szene 100 Fußgänger 120, Fahrbahnmarkierungen 125 und 130, das Fahrzeug 135 und die Fahrbahnbegrenzung 140.
  • Das Fahrzeug 105 kann nicht nur einen Typ von Zielobjekt, wie etwa Fußgänger oder Personenkraftwagen, identifizieren, sondern auch ein oder mehrere Attribute des Objekts verwenden, um ein Zielobjekt zu charakterisieren. Attribute und Objekttypen können in kommentierten Ausgangsdaten oder erlernten Fahrzeugdaten gespeichert werden, die von einer Steuereinheit des Fahrzeugs 105 verwendet werden können, um Objekte zu identifizieren und in einigen Fällen das Fahrzeug 105 zu steuern. In einem Ausführungsbeispiel kann das Fahrzeug 105 die Fahrbahnmarkierungen 125 und 130 und ein oder mehrere Attribute, die mit jedem Ziel assoziiert sind, detektieren. Als Beispiel kann das Fahrzeug 105 den Standort, den Abstand, die Farbe, die Winkelumlenkung und ein oder mehrere zusätzliche Attribute detektieren, um ein Szenario zu detektieren, das für das Fahrzeug von Interesse sein könnte. In einigen Fällen, wie etwa beim Fahren auf der Autobahn, kann dem Fahrzeug 105 beigebracht werden, Fahrbahnmarkierungen 125 und 130 zu detektieren und zu handhaben, die über einen längeren Zeitraum hinweg mehr oder weniger geradlinig erscheinen. Die Identifizierung dieser Attribute kann von einem Assistenzsystem des Fahrzeugs 105 verwendet werden, um innerhalb der Fahrbahnmarkierungen 125 und 130 zu bleiben. Wie hierin erläutert, kann die Vektordarstellung der erfassten Fahrzeugdaten für Zielobjekte, wie etwa die Fahrbahnmarkierungen 125 und 130, verwendet werden, um Szenarien zu identifizieren, in denen die erlernten Fahrzeugdaten nicht für die Handhabung von Zielobjekten ausgestattet sind, wie etwa ein plötzliches Verlassen der Fahrbahnmarkierungen 125 und 130 oder eine Verengung der Fahrbahn 140. Zusätzlich zur Ereigniserfassung sind Konfigurationen darauf ausgerichtet, zu bestimmen, wann und welcher Typ von Fahrzeugsensordaten nicht ausreichend in den erlernten Fahrzeugdaten enthalten sind. Als solches werden Konfigurationen bereitgestellt, um mindestens eines von einem Zielobjekt von Interesse, eines Szenario von Interesse und eines Umfangs der von einem Fahrzeug erfassten Daten zu identifizieren.
  • In noch einer weiteren Ausführungsform werden Konfigurationen bereitgestellt, um ein oder mehrere Zielobjekte und Szenarien von Interesse zu melden. Gemäß einer Ausführungsform kann das Fahrzeug 105 dazu konfiguriert sein, mit dem Kommunikationsnetzwerk 115 zum Datenaustausch mit einer oder mehreren Netzwerkressourcen, wie etwa Servern, zu kommunizieren, um Zielobjekte und Szenarien gemeinsam zu nutzen. In bestimmten Ausführungsformen können Netzwerkressourcen verwendet werden, um Aktualisierungen der vom Fahrzeug 105 verwendeten Fahrzeugdaten als Reaktion auf gemeldete Objekte oder Szenarien bereitzustellen.
  • Eine weitere Ausführungsform ist darauf ausgerichtet, die von dem Fahrzeug 105 gemeldeten Daten zu minimieren. Fahrzeuge, die für unterstütztes oder autonomes Fahren konfiguriert sind, können große Datenmengen aufzeichnen. Während Fahrzeugdaten aufgezeichnet und in einer Fahrzeugaufzeichnungsvorrichtung gespeichert werden können, um den Fahrzeugbetrieb zu verfolgen, kann es viele Fälle geben, in denen die Meldung von Fahrzeugdaten unnötig ist. Beispielsweise ist eine Meldung möglicherweise nicht erforderlich, wenn das Fahrzeug 105 das Szenario oder die Szene basierend auf einem erlernten Fahrzeugdatensatz angemessen bewältigen kann. Unter Bezugnahme auf das vorstehend beschriebene Beispiel für das Fahren auf Autobahnen zwischen den Fahrbahnmarkierungen 125 und 130 über weite Strecken (z. B. in der Größenordnung von Meilen/km) kann auf die Meldung und spätere Verarbeitung der Daten und des Szenarios verzichtet werden. Tatsächlich kann die Meldung und Verarbeitung der Daten nach dem Fahrzeugbetrieb große Datenspeicher und tatsächliche manuelle Arbeit erfordern, die einen finanziellen Aufwand erfordern. In bestimmten Situationen sind Konfigurationen erforderlich, die keine Fahrzeugsensordaten melden, die angemessen gehandhabt werden.
  • Eine weitere Ausführungsform beinhaltet das Identifizieren von Zielobjekten oder Szenarien, die unbekannt sind oder von einer Fahrzeugsteuereinheit nicht ordnungsgemäß klassifiziert werden.
  • Beispielsweise kann das Fahrzeug 105 mehrere Fußgänger, wie etwa Fußgänger 120, oder mehrere Fahrzeuge, wie etwa das Fahrzeug 135, detektieren, wobei Attribute des erlernten Fahrzeugdatensatzes Unterschiede bei den tatsächlichen Objekten berücksichtigen können, während die Objekte dennoch dem richtigen Objekttyp und/oder den entsprechenden Objektattributen zugeordnet sind. In einigen Fällen können erlernte Fahrzeugdatensätze jedoch ein Objekt oder ein Szenario nicht genau oder ausreichend identifizieren. 1A stellt ein signifikantes Szenario 145 als Fragezeichen dar, da Fahrzeugsensordaten identifizieren können, dass das Szenario 145 mit einem Zielobjekt oder einer Fahrzeugbedingung assoziiert ist, das unter Verwendung des erlernten Fahrzeugdatensatzes nicht verstanden wird. Beispielsweise kann es vorkommen, dass der erlernte Datensatz ein Zielobjekt unter Verwendung des erlernten Datensatzes nicht versteht, wenn eines oder mehrere der Objekte, Objektattribute und Fahrbedingungen einen Grad oder Schwellenwert in Bezug auf eine Vektordarstellung der detektierten Sensordaten überschreiten. Die hierin erörterten Vorgänge und Konfigurationen stellen verschiedene nicht identifizierte Szenarien bereit.
  • In Bezug auf Zielobjekte kann sich das Szenario 145 auf ein nicht identifiziertes Objekt beziehen. Anders beschrieben, kann sich das Szenario 145 auf ein Objekt beziehen, das von Fahrzeug 105 detektiert wird, aber dem Fahrzeug unbekannt ist. Wenn sich beispielsweise das Szenario 145 auf eine Person bezieht, die mit einem Hühneranzug (oder einem anderen Kostüm) gekleidet ist, können Attribute des vom Fahrzeug 105 verwendeten erlernten Fahrzeugdatensatzes das Objekt möglicherweise nicht identifizieren, da der Hühneranzug wahrscheinlich zu Charakteristika führen würde, die keine Attribute für einen Fußgänger-Objekttyp beinhalten. Oder der Hühneranzug kann mit Objektattributen für zwei verschiedene Objekttypen assoziiert sein, was zu einem Konflikt führt. Ein weiteres Objekttypbeispiel für Szenario 145 kann sich auf die Detektion eines seltenen Objekts beziehen, wie etwa eines Monstertrucks (z. B. Fahrzeug mit extrem großen Reifen und möglicherweise Pyrotechnik), das vom Fahrzeug 105 detektiert wird. Attribute von Zielobjekttypen für Fahrzeuge in einem erlernten Fahrzeugsatz sind typischerweise auf Personenkraftwagen ausgerichtet, ein detektierter Monstertruck kann ein Szenario von Interesse sein. Szenarien von Interesse können von dem Fahrzeug 105 als meldewürdig charakterisiert werden. Das Szenario 145 kann sich auf Fahrzeugbetriebscharakteristika beziehen, wie etwa abruptes Manövrieren (z. B. Rutschen, Traktionsverlust) oder Fahrzeugsteuerung (z. B. Bremsen). Während einer typischen Fahrt im Berufsverkehr kann ein Fahrzeugführer (oder ein autonomes System) die Bremsen stark betätigen. In einigen Situationen kann ein wiederholtes Bremsen in unmittelbarer Nähe zu anderen Fahrzeugen für ein bestimmtes Fahrzeug zu einer bestimmten Tageszeit und/oder auf einer bestimmten Route/Strecke der Straße normal sein. In anderen Situationen können jedoch abrupte oder wiederholte Bremsungen oder andere Fahrzeugbetriebsbedingungen ein meldewürdiges Szenario, wie etwa das Szenario 145, sein. Beispielsweise kann es vorkommen, dass der erlernte Fahrzeugdatensatz für unterstützendes Bremsen oder autonomes Fahren nicht erlernt wird, um einen angemessenen Abstand der Trennung einzuhalten. Als solches werden Systeme, Vorrichtungen und Fahrzeugkonfigurationen bereitgestellt, um Szenarien von Interesse in Bezug auf einen erlernten Fahrzeugdatensatz zu identifizieren.
  • In Bezug auf Objekttypen und Szenarien können die Prinzipien der Offenbarung auch für die Beurteilung der Vertrautheit einer Fahrassistenzeinheit des Fahrzeugs als Ganzes für verschiedene Szenarien gelten. Fahrassistenzsysteme, die auf Fahrbahnen bei angenehmen Wetterbedingungen trainiert werden, können Schwierigkeiten haben, wenn es zu Wetterveränderungen oder andere Situationen kommt. Wetter, das Vorhandensein von Schnee oder anderen Niederschlägen und sogar der Verlust von Grip können Attribute sein, die für die Beurteilung von erlernten Fahrzeugdatensätzen verantwortlich sind.
  • 1B veranschaulicht ein beispielhaftes Segment von Objekten in Bezug auf eine Zeitachse. In Bezug auf die Meldung kann eine Steuereinheit eines Fahrzeugs (z. B. Fahrzeug 105) dazu konfiguriert sein, mindestens eines von einem Objekt von Bedeutung und einem Segment der vom Fahrzeug erfassten Daten zu melden. In einigen Fällen kann die Meldung eines Zielobjekts es dem Fahrzeug ermöglichen, unbekannte Fußgänger, wie etwa einen Mann in einem Hühneranzug, besser zu verstehen. In anderen Fällen kann das Melden aller Zielobjekte und Attribute für einen Zeitraum vor und nach einem Zielobjekt erfolgen. 1B zeigt Szenendaten 150 in Bezug auf eine Zeitachse 155 und für ein Segment von Interesse 160. Das Segment 160 kann in Bezug auf Zielobjekte und Attribute, die bei der Meldung identifiziert werden, identifiziert werden. Wie im Folgenden näher erläutert wird, kann ein Segment von Daten, wie etwa Fahrzeugsensordaten, als Reaktion auf einen Szenendetektionsvorgang zur Identifizierung eines signifikanten Szenarios oder Objekts gemeldet werden. 1B ist eine beispielhafte Darstellung des Segments 160, bei der Objekte vor dem Segment, wie etwa das Fahrzeug 165, von der Meldung ausgeschlossen werden. In einer Ausführungsform beinhaltet die Meldung eines Segments von Objektzielen das Melden von Objekten vorab für signifikante Szenariodaten, wie etwa Fußgänger 170 vor dem Szenario 180, und Objekte nach dem Szenario, wie etwa das Fahrzeug 175. Vorliegende Ausführungsformen ermöglichen die einfache Meldung des Szenarios 180 und/oder die Meldung des Segments 160, einschließlich der Objekte 170 und 175 sowie des Szenarios 180.
  • Während die 1A-1B eine beispielhafte Szene und ein Segment von Objekten/Szenarien darstellen, die detektiert werden können, sind hierin Ausführungsformen zur Identifizierung signifikanter Daten und Szenarien bereitgestellt.
  • 2 stellt einen Prozess zum Identifizieren signifikanter Szenariodaten gemäß einer oder mehreren Ausführungsformen dar. Der Prozess 200 kann von einer Steuereinheit (z. B. der Steuereinheit 305 aus 3) durchgeführt werden. Gemäß einer Ausführungsform beinhaltet der Prozess 200 das Empfangen von Fahrzeugsensordaten, die von mindestens einem Sensor des Fahrzeugs erfasst werden, bei Block 205, das Ausführen eines Szenendetektionsvorgangs bei Block 210 und das Erzeugen einer Vektordarstellung einer Szene bei Block 215. Ein signifikantes Szenario kann bei Block 220 identifiziert werden. Der Prozess 200 kann von einer Steuereinheit, wie etwa einer Navigationssteuereinheit, eines Fahrzeugs durchgeführt werden. Die Steuereinheit kann dazu konfiguriert sein, Positionsdaten für das Fahrzeug zu empfangen, wie etwa globale Positionsdaten (z. B. GPS). Die Steuereinheit kann auch Kartendaten für eine oder mehrere geografische Regionen speichern, die der Fahrzeugposition zugeordnet sind. In bestimmten Ausführungsformen ist die Steuereinheit dazu konfiguriert, Fahrbahninformationsdienste, wie Verkehr und Wetter, zu empfangen, die mit den Routen der Kartendaten assoziiert sind. Fahrbahn- und Bedingungsinformationen, wie etwa das Wetter, können in einem oder mehreren Attribute eines erlernten Fahrzeugdatensatzes enthalten sein.
  • Gemäß einer Ausführungsform kann der Prozess 200 auf einem erlernten Fahrzeugdatensatz basieren. Beispielsweise kann ein erlernter Fahrzeugdatensatz einen kommentierten Trainingsdatensatz aus einem erweiterten Fahrerassistenzsystem (ADAS) oder einem System für autonomes Fahren (AD) mit Sensorrohdaten basierend auf mehreren Attributen mit Grundwahrheit beinhalten. Fahrzeugsensoren können Daten für eines oder mehrere von Video, Radar und LiDAR als Grundwahrheit für die Kommentierung beinhalten. Grundwahrheitsdaten stellen dem System wahrnehmbare Objekttypen und Attribute bereit. Der Prozess 200 kann die Extraktion und Verwendung von Betriebsparametern eines Fahrerassistenzsystems (z. B. Algorithmus, Prozesse usw.) während der Laufzeit ermöglichen, um die Vertrautheit mit seinem eigenen Ausgangsdatensatz zu beurteilen, um eine Anomalie zu identifizieren und zur Erfassung zu markieren. Diese Erfassung würde verwendet werden, um das Erlernen des Laufzeitalgorithmus in einem späteren Release durch Aktualisierung des Ausgangsdatensatzes zu aktualisieren.
  • Bei Block 205 können Fahrzeugsensordaten von einem oder mehreren Sensoren des Fahrzeugs empfangen werden. Beispielsweise werden Fahrzeugsensordaten von einem Fahrerassistenzsystem eines Fahrzeugs erzeugt, insbesondere von einem oder mehreren Sensoren, die mit dem Fahrerassistenzsystem assoziiert oder in diesem enthalten sind. Gemäß einer Ausführungsform beinhalten die Fahrzeugsensordaten mindestens eines von Bild-, Radar- und LiDAR-Daten für eine Detektionszone des Fahrerassistenzsystems des Fahrzeugs. Fahrzeugsensordaten können auch den Betrieb eines Fahrzeugs und eines oder mehrerer anderer Fahrzeuge in Bezug auf das Fahrzeug charakterisieren, um Daten für die Fahrstrecke in Bezug auf die Fahrzeuge, die Anzahl der Fahrzeuge, den Fahrzeugtyp usw. zu enthalten.
  • Bei Block 210 führt die Steuereinheit einen Szenendetektionsvorgang anhand der Fahrzeugsensordaten unter Verwendung eines erlernten Fahrzeugdatensatzes aus, um Zielobjektattribute der Fahrzeugsensordaten zu identifizieren. In einer Ausführungsform erzeugt das Ausführen des Szenendetektionsvorgangs anhand der Fahrzeugsensordaten einen kommentierten Datensatz für Zielobjekte in Echtzeit basierend auf den Attributen des erlernten Fahrzeugdatensatzes. Beispielsweise identifiziert der Szenendetektionsvorgang nicht nur Zielobjekte, sondern führt auch Vorgänge durch, um die Objekte mit einem erlernten Fahrzeugdatensatz wahrzunehmen. Der erlernte Fahrzeugdatensatz kann eine Vielzahl von Objekttypen und Objektattributen bereitstellen. Der Szenendetektionsvorgang 210 kann einen Datensatz erzeugen, der eine Szene in Bezug auf ein Fahrzeug charakterisiert. Gemäß einer Ausführungsform kann der Datensatz durch Clustering der Datentypen basierend auf den Attributen approximiert werden.
  • Gemäß einer weiteren Ausführungsform führt die Steuereinheit bei Block 210 einen Szenendetektionsvorgang anhand der Fahrzeugsensordaten aus, um einen Vektor von Zielobjektattributen der Fahrzeugsensordaten abzuleiten. In einer Ausführungsform charakterisiert der Vektor der Zielobjektattribute eine Szene in Bezug auf ein Fahrzeug, der die von mindestens einem Wahrnehmungssensor erzeugten Daten beinhaltet.
  • Bei Block 215 kann die Steuereinheit dazu konfiguriert sein, eine Vektordarstellung für den Szenendetektionsvorgang mit einem Vertrautheitsvektor eines erlernten Datensatzes zu vergleichen. [Hinweis an Erfinder: Bitte beschreiben Sie den Vertrautheitsvektor des erlernten Datensatzes und wie der Vertrautheitsvektor mit der Vektordarstellung des Szenendetektionsvorgangs verglichen wird]
  • Bei Block 215 kann die Steuereinheit das Erzeugen einer Vektordarstellung für den Szenendetektionsvorgang und die Attribute der Fahrzeugsensordaten beinhalten. Gemäß einer Ausführungsform beinhaltet die Vektordarstellung einen oder mehrere Vorgänge, um ein Modell der Daten für die Szene zu erzeugen, wie etwa ein Vektorraummodell, das Objekte in einem kontinuierlichen Vektorraum darstellt, in dem ähnliche Objekte auf benachbarte Punkte abgebildet werden. Gemäß einer Ausführungsform korreliert die Anzahl der Attribute für Objekte im erlernten Fahrzeugsatz direkt mit der Anzahl der Abmessungen des erzeugten Vektors. Das Erzeugen der Vektordarstellung kann das Durchführen eines Clusteringvorgangs für Zielobjekte der Fahrzeugsensordaten unter Verwendung des erlernten Fahrzeugdatensatzes zum Erzeugen eines Vektordatenmodells für die Fahrzeugsensordaten beinhalten. Beispielsweise kann ein Clusteringverfahren, wie etwa K-Means-Clustering, verwendet werden, um den „Bereich“ eines erfassten und kommentierten Datensatzes zu approximieren, der zum Erlernen eines Laufzeitalgorithmus für die Szenendetektion verwendet wird. Gemäß einer Ausführungsform ist die Vektordarstellung eine Darstellung der Effektivität des Szenendetektionsvorgangs bei der Identifizierung von Zielobjektattributen der Fahrzeugsensordaten. Das Vektordatenmodell, das die Fähigkeit des erlernten Fahrzeugsatzes charakterisiert, Zielobjekte der Fahrzeugsensordaten wahrzunehmen.
  • Gemäß einer Ausführungsform wird ein erlernter Fahrzeugdatensatz in einem Datenspeicher, wie etwa einem Cloud-Speicher, gespeichert und kann einem oder mehreren Fahrzeugen (z. B. Steuereinheiten) bereitgestellt werden. Aus dem Clustering kann ein resultierender Vektor erzeugt werden, der den Datensatz für die Durchführung von Szenenvorgängen beschreibt. In einer Ausführungsform wird der Vektor gleichzeitig mit der Algorithmenfreigabe für das Laufzeitsystem erzeugt.
  • Gemäß einer weiteren Ausführungsform wird der Vektor dann im Laufzeitsystem verwendet, um das Szenario basierend auf den Attributen der detektierten Zielobjekte zu bewerten. Der Prozess 200 kann optional das Bewerten einer Vektordarstellung bei Block 225 beinhalten. Gemäß einer Ausführungsform kann die Steuereinheit eine Vektordarstellung hinsichtlich der Fähigkeit des Szenendetektionsvorgangs bewerten, um Zielobjektattribute der Fahrzeugsensordaten unter Verwendung des erlernten Fahrzeugdatensatzes wahrzunehmen. Ein signifikantes Szenario kann anhand von Daten identifiziert werden, die auf einer Bewertung der Vektordarstellung unterhalb eines vorbestimmten Schwellenwerts basieren.
  • Bei Block 220 kann die Steuereinheit basierend auf der Vektordarstellung signifikante Szenariodaten identifizieren. Das signifikante Szenario identifiziert mindestens ein Zielobjekt der Fahrzeugsensordaten. Gemäß einer Ausführungsform würde eine Anomalie, die dem durch den Vektor beschriebenen Clustering entkommt, eine Markierung in einem Datenerfassungssystem auslösen, das ein Ereignis beschreibt. Jedes Ereignis kann als signifikant für den vorhandenen Datensatz angesehen werden, da der erlernte Laufzeitalgorithmus mit dem Szenario nicht vertraut ist. Die während des Erfassungszeitraums erfassten zusammengestellten Ereignisse werden dem resultierenden Datensatz hinzugefügt und durchlaufen den Erlernungsprozess für die nächste Algorithmenfreigabe. Der neue Datensatz wird dann erneut approximiert, um das Clustering zu aktualisieren.
  • Gemäß einer Ausführungsform beinhaltet das Identifizieren des signifikanten Szenarios Bestimmen, dass ein Zielobjekt ein nicht identifiziertes Objekt ist. Nicht identifizierte Objekte, wie etwa eine Person in einem Hühneranzug, ein Monstertruckfahrzeug oder ein nicht identifiziertes Flugobjekt (z. B. Drohne, Flugobjekte im Allgemeinen), können als nicht identifizierbar eingestuft und gemeldet werden. In einigen Fällen können Netzwerkressourcen die Objektziele oder Segmente der Meldung überprüfen. Durch das Bereitstellen einer Meldung über das nicht identifizierte Objekt kann das Prüfsystem die Ressourcen auf Objekte konzentrieren, die nicht identifizierbar sind, und zwar anhand des erlernten Datensatzes.
  • Gemäß einer weiteren Ausführungsform beinhaltet das Identifizieren eines signifikanten Szenarios Bestimmen, dass mindestens eines der erlernten Fahrzeugdatenattribute nicht in der Lage ist, ein Zielobjekt zu klassifizieren. In diesem Szenario kann ein Objekt mit einer Zielobjektklasse assoziiert sein oder nicht; jedoch dürfen ein oder mehrere Merkmale oder Attribute des Zielobjekts nicht durch den erlernten Fahrzeugdatensatz klassifiziert werden. Dementsprechend können Objektattribute hinzugefügt oder modifiziert werden, um die Klassifizierung eines Objekts basierend auf einem neuen Parameter zu ermöglichen.
  • Gemäß einer weiteren Ausführungsform beinhaltet das Identifizieren des signifikanten Szenarios Bestimmen der Vertrautheit eines Zielobjekts in Bezug auf den erlernten Datensatz basierend auf mindestens einem von der Anzahl der Zielobjekte, der Klassifizierung der Zielobjekte, der Größe und Form des Zielobjekts, dem Objekttyp und der Objektfarbe. In bestimmten Ausführungsformen können Attribute im erlernten Fahrzeugdatensatz für eine Vielzahl von Attributen basierend auf zuvor detektierten Objektzielen gespeichert werden.
  • Gemäß einer weiteren Ausführungsform beinhaltet das Identifizieren des signifikanten Szenarios Bestimmen von mindestens einer Fahrzeugbetriebscharakteristik als Attribut in Bezug auf die Identifizierung eines Zielobjekts in mindestens einem von einem Fahrerassistenzsystem und einem autonomen Fahrsystem. In bestimmten Ausführungsformen werden im erlernten Fahrzeugdatensatz Attribute für Sensorkonfigurationen des Fahrzeugs bereitgestellt. In einem Ausführungsbeispiel können Attribute auf einer Frontkamera basieren, die im Fahrzeugassistenzsystem oder im autonomen Fahrzeug verwendet wird, um Daten in eine zentrale Rechenplattform des Fahrzeugs einzubringen.
  • Der Prozess 200 kann optional Ausgeben eines Zielobjekts und/oder Szenarios bei Block 230 beinhalten. Die Ausgabe der signifikanten Szenariodaten kann die Ausgabe eines Objekts, mehrerer Objekte und eines Datensegments beinhalten. In bestimmten Ausführungsformen können Segmente der Datenausgabe Daten für Zielobjekte beinhalten, die in einem Zeitraum vor und nach der Identifizierung eines signifikanten Ereignisses detektiert wurden. Die Meldung signifikanter Szenariodaten ist eine Verbesserung gegenüber Systemen, die alle Daten melden, insbesondere, wenn ein Fahrzeug über einen längeren Zeitraum betrieben wird.
  • Gemäß einem Ausführungsbeispiel kann der Prozess 200 das Identifizieren signifikanter Szenariodaten basierend auf einer Vektordarstellung eines erlernten Datensatzes und Fahrzeugsensordaten von einem oder mehreren Sensoren (z. B. Sensoren 3351-n aus 3) beinhalten. Das Empfangen von Fahrzeugsensordaten bei Block 205 kann das Empfangen von Daten von Fahrzeugsensoren beinhalten, einschließlich unter anderem eines Bildsensors (z. B. Video), Radarsensors, LiDAR-Sensors, Beschleunigungs-/Bewegungssensors und Fahrzeugsensoren (z. B. Raddrehzahlsensors, Reifendrucküberwachungssystem(TPMS)-Sensors, ABS-Sensors, Gier-/Neigungssensors, Stabilitätskontrollsensors usw.). Die Sensordaten können von einer Steuereinheit mittels eines Controller-Area-Network(CAN)-Busses des Fahrzeugs empfangen werden. Sensordaten, die bei Block 205 empfangen werden, können verwendet werden, um einen Szenendetektionsvorgang bei Block 210 durchzuführen.
  • In einer Ausführungsform identifiziert der Szenendetektionsvorgang bei Block 210 empfangene Sensordaten und eine Vektordarstellung kann für Sensoren einzeln und/oder in Kombination erzeugt werden. In bestimmten Ausführungsformen kann ein Szenendetektionsvorgang durchgeführt werden, um Sensordaten zu identifizieren, die außerhalb eines normalen oder erlernten Betriebsbereichs liegen. Für das Fahrzeughandling können beispielsweise ein oder mehrere Drosselklappensensorausgänge, Bremssteuerungen (z. B. ABS-Bremssystemsensoren), Reifendruck usw. für einen bestimmten Zeitraum detektiert werden. Wenn einer oder mehrere der Sensoren eine Ausgangsänderung aufweisen, die mit einem Ereignissensor verbunden ist, können Daten vor, während und nach dem Ereignis erfasst werden. Ein signifikantes Szenario kann bei Block 220 detektiert werden, wenn ein oder mehrere Sensorausgänge einen erlernten Datensatz überschreiten oder von diesem abweichen. Beispielsweise kann für ein Fahrzeug, das während der Fahrt auf der Autobahn mit hohen Geschwindigkeiten fährt, der Szenendetektionsvorgang erlernte Daten für eine bestimmte Fahrzeuggeschwindigkeit beinhalten, wobei Bremsen, Reifendruck und andere Sensordaten in einem relativen Bereich liegen müssen. Wenn Sensordaten eine Abweichung von den erwarteten Grenzen für das Szenario anzeigen, wie etwa ein Fahrzeug, das bei Geschwindigkeiten gesteuert oder betrieben wird, die für die Abfahrt von der Autobahn zu hoch sind, wie durch eines oder mehrere von erhöhtem Reifendruck, verstärktem Bremsen angegeben, können Fahrzeugsensordaten ein signifikantes Szenario angeben, in dem erlernte Daten keinen akzeptablen Betrieb des Fahrzeugs bereitstellen. Da sich die Autobahnausfahrten oft unterscheiden, können erlernte Daten für ein Fahrzeug von Szenen und Szenarien profitieren, die von dem Fahrzeug erfasst werden.
  • Gemäß einer weiteren Ausführungsform können die bei Block 210 detektierten Sensordaten zu einem signifikanten Szenario führen, wenn der Sensor keine genaue Darstellung bereitstellt. Beispielsweise können ein oder mehrere Sensoren des Fahrzeugs für bestimmte Betriebsparameter konfiguriert sein, wie etwa eine Kameradefinition, die auf der Anzahl der detektierten Pixel oder Frames basiert. Für bestimmte Fahrsituationen, wie etwa das Fahren bei geringer Geschwindigkeit, können die Kameraauflösung und die Framerate für das Fahren bei geringer Geschwindigkeit akzeptabel sein, während für den Betrieb bei höherer Geschwindigkeit eine höhere Auflösung oder Detektionsraten erforderlich sein können. Dementsprechend kann ein signifikantes Szenario bei Block 220 detektiert werden, das sich auf eine Angabe der Fähigkeit der Sensoren beziehen kann, zusätzlich zu einem oder mehreren Trainingsparametern für die Fahrzeugsteuereinheit Daten bereitzustellen. Das Ausgeben eines Szenarios bei Block 230 kann neben der Angabe des Ereignisses auch die Bereitstellung von Sensordaten beinhalten. Für Kameravorrichtungen kann das Ausgabeszenario bei Block 230 die Übertragung von Bilddaten und Objekten, die von der Fahrzeugsteuereinheit im Rahmen des Szenendetektionsvorgangs erfasst wurden, beinhalten.
  • Gemäß einer Ausführungsform, wenn sich das Szenario auf ein Muster von detektierten Daten bezieht, kann die Ereignisbedeutung mit Abweichungen bei Mustern oder Mustertypen verbunden sein, die nicht erlernt sind. Gemäß einer Ausführungsform beziehen sich die Fahrzeugsensordaten bei Block 205 auf ein Muster, wie etwa Fahrbahnmarkierungen oder eine Straßenbreite. Die Muster können sich auch auf Objekte in Bezug auf eine Straße beziehen, wie etwa Hindernisse oder Fahrradfahrer. Der Szenendetektionsvorgang bei Block 210 kann das Muster von den Sensordaten detektieren und eine Vektordarstellung der Sensordaten kann eingesetzt werden, um den Betrieb des Fahrzeugs in Bezug auf das Muster zu charakterisieren. Signifikante Szenarien können bei Block 220 detektiert werden, wenn sich empfangene Sensordaten des Musters ändern. Beispielsweise Fahrbahnmarkierungen für einen bestimmten Zeitraum, wie etwa 100 Yards (z. B. 300 m), die sich plötzlich verändern oder zu einem Spurwechsel führen. Ähnliche Beispiele beinhalten das Vorhandensein von Fahrbahnhindernissen und dann eine Positionsverschiebung. Ein weiteres Beispiel kann das plötzliche Auftreten eines Fahrbahnhindernisses sein. In Bezug auf bewegliche oder sich bewegende Objekte kann ein signifikantes Szenario die Betriebscharakteristik eines anderen Fahrzeugs sein, das auszuscheren scheint. Ein weiteres Beispiel für das signifikante Szenario kann das Muster eines Motorrad- oder Radfahrers sein, der in einem Muster/auf einer erwarteten Bahn fährt, der sich plötzlich zu einem Fahrzeug der Steuereinheit wechselt. In einem solchen Fall können ein oder mehrere Fahrzeugsysteme, wie etwa ein Stabilitätssteuermodul, ein Szenario erzeugen, das nicht erkannt wird und/oder nicht erlernt ist.
  • Gemäß einer Ausführungsform kann der Prozess 200 das Identifizieren eines signifikanten Szenarios durch Bestimmen der Vertrautheit mit einer aktuellen Szene, in der das Fahrzeug betrieben wird, beinhalten, in Bezug auf einen erlernten Fahrzeugdatensatz für mindestens eine Fahrbedingung. Ein signifikantes Szenario kann bei Block 220 detektiert werden, indem sich beim Empfang von Sensordaten das Muster ändert.
  • 3 stellt eine grafische Darstellung einer Fahrzeugsteuereinheit gemäß einer oder mehreren Ausführungsformen dar. Gemäß einer Ausführungsform beinhaltet ein Fahrzeug eine Steuereinheit 305, die dazu konfiguriert sein kann, mit einer oder mehreren Fahrzeugkomponenten eine Schnittstelle zu bilden. Gemäß einer Ausführungsform kann die Steuereinheit 305 dazu konfiguriert sein, eine(n) oder mehrere hierin beschriebene Prozesse und Funktionen, wie etwa den Prozess 200 aus 2, durchzuführen. Die Steuereinheit 305 kann sich auf eine Steuereinheit einer Fahrzeugnavigationseinheit, eines erweiterten Fahrerassistenzsystems (ADAS) oder eines Systems für das autonome Fahren (AD) beziehen.
  • In einem Ausführungsbeispiel beinhaltet die Steuereinheit 305 ein oder mehrere Elemente oder Module zum Bilden einer Schnittstelle mit Fahrzeugkomponenten. 3 zeigt die Steuereinheit 305, die ein Steuermodul 306, ein Szenendetektionsmodul 307 und ein Vektorerzeugungsmodul 308 beinhaltet. Die Steuereinheit 305 kann vom Empfänger 310 Positionsdaten für ein Fahrzeug empfangen. Eine oder mehrere ausführbare Anweisungen und Navigationsdaten (z. B. Kartendaten) können von dem Datenspeicher 320 gespeichert werden. Das Eingangs-/Ausgangsmodul 320 kann dazu konfiguriert sein, eine Schnittstelle mit einer oder mehreren anderen Vorrichtungen zu bilden, einschließlich unter anderem Netzwerkressourcen. Die Steuereinheit 305 kann dazu konfiguriert sein, mit einem Fahrzeugsystem 330, einschließlich einer Motorsteuereinheit (engine control unit - ECU), zu kommunizieren.
  • Gemäß einer Ausführungsform stellt das Steuermodul 306 ein oder mehrere Funktions- und Hardwareelemente der Steuereinheit 305 dar, die zum direkten Betrieb der Steuereinheit konfiguriert sein können. Das Steuermodul 306 kann dazu konfiguriert sein, einen erlernten Fahrzeugdatensatz zu empfangen und zu verwenden. Das Steuermodul 306 kann eine oder mehrere Kommunikationen an das Fahrzeugsystem 330 leiten, die eine Ausgabe an eines oder mehrere eines Fahrzeugbusses und einer elektronischen Steuereinheit beinhalten können, die zum Steuern des Fahrzeugbetriebs konfiguriert ist (z. B. Bremsen, beleuchtete Anzeigen, Sicherheitsmerkmale usw.).
  • Gemäß einer Ausführungsform stellt das Szenendetektionsmodul 307 ein oder mehrere Funktions- und Hardwareelemente der Steuereinheit 305 dar, die dazu konfiguriert sein können, Zielobjekte und Fahrzeugvorgänge zu analysieren. Das Szenendetektionsmodul 307 kann ein oder mehrere signifikante Ereignisse identifizieren.
  • Gemäß einer Ausführungsform stellt das Vektorerzeugungsmodul 308 ein oder mehrere Funktions- und Hardwareelemente der Steuereinheit 305 dar, die dazu konfiguriert sein können, einen Vektor und eine oder mehrere Anomalien des Vektor zu erzeugen. Das Vektorerzeugungsmodul 308 kann die Vertrautheit eines erlernten Fahrzeugsatzes mit einer aktuellen Fahrsituation oder Umgebung schätzen. Das Sensormodul 308 kann auch ein oder mehrere Steuersignale für einen Sensor empfangen, der Teil des Fahrzeugsystems 330 ist und sich auf den Status eines Filters bezieht.
  • Gemäß einer Ausführungsform können die Prinzipien, Prozesse und Vorrichtungskonfigurationen auf ein oder mehrere Sensorpakete angewendet werden. 3 ist gezeigt, einschließlich der Sensoren 3351-n, die dazu konfiguriert sind, Daten dem Fahrzeugsystem 330 bereitzustellen. Gemäß einer Ausführungsform können sich die Sensoren 3351-n auf einen oder mehrere Sensoren eines Fahrzeugs beziehen, das mit der Steuereinheit 305 assoziiert ist. Die Sensoren 3351-n können eine Ausgabe an einen CAN-Bus des Fahrzeugsystems 330 bereitstellen, die auch von der Steuereinheit 305 mittels eines CAN-Busses oder anderen Fahrzeugsystems empfangen werden kann.
  • Sensoren des Fahrzeugs können einen oder mehrere eines Bildsensors (z. B. Video), Radarsensors, LiDAR-Sensors, Beschleunigungs-/Bewegungssensors und Fahrzeugsensoren (z. B. Raddrehzahlsensors, Reifendrucküberwachungssystem(TPMS)-Sensors, ABS-Sensors, Gier-/Neigungssensors, Stabilitätskontrollsensors usw.), Drosselklappensensors und Fahrzeugsensors im Allgemeinen beinhalten.
  • Die Ausgabe der Sensoren 3351-n kann als Fahrzeugsensordaten an die Steuereinheit 305 zur Verarbeitung bereitgestellt werden.
  • Gemäß einer Ausführungsform können sich die Sensoren 3351-n auf einen oder mehrere Fahrzeugbeschleunigungssensoren und/oder Fahrzeugstabilitätssteuersensoren (z. B. Traktionskontrolle) beziehen. Die Sensoren 3351-n können eine Vielzahl von Beschleunigungssensoren (z. B. Beschleunigungsmesser) und Sensoren für Gieren, Nicken und Lenkwinkel beinhalten. In bestimmten Ausführungsformen kann sich das Identifizieren eines signifikanten Ereignisses auf die Fähigkeit eines erlernten Fahrzeugdatensatzes beziehen, den Fahrzeugbetrieb in Bezug auf eine Fahrbahn oder Kurve zu steuern. Somit kann die Bewertung einen Objektwert erzeugen, der die Fähigkeit eines Traktionssteuersystems des Fahrzeugs zur Handhabung einer Fahrbahn darstellt. Beispielsweise können die Sensoren 3351-n eine Ausgabe erzeugen, die Unter- oder Übersteuern von einem oder mehreren der Sensoren 3351-n angibt. Die Sensoren 3351-n können einen Fahrzeugbeschleunigungsmesser (z. B. einachsig, mehrachsig) und einen oder mehrere Gier-/Neigungssensoren beinhalten, um die Bewegung des Fahrzeugs um eine Kurve zu verfolgen. In Situationen, in denen der erlernte Datensatz zum Betreiben des Fahrzeugs verwendet und/oder vom Traktionssteuersystem eingesetzt wird, kann ein signifikantes Ereignis für Unter- und/oder Übersteuern bestimmt werden.
  • 4 stellt eine grafische Darstellung eines erlernten Fahrzeugdatensatzes gemäß einer oder mehreren Ausführungsformen dar. Gemäß einer Ausführungsform ist ein erlernter Fahrzeugdatensatz ein bekannter Trainingsdatensatz, der zum Erlernen von Algorithmen verwendet wird, die autonome Fahrzeuge und unterstützte Fahrsysteme verschiedener Typen betreiben. 4 stellt eine beispielhafte Veranschaulichung eines erlernten Fahrzeugdatensatzes in Bezug auf einen idealen Datensatz bereit.
  • Gemäß einer Ausführungsform kann ein idealer Datensatz erreicht werden, bei dem die meisten oder alle Fahrszenen angemessen gehandhabt werden. Der ideale Datensatz für ein Fahrzeug kann von den Sensoren des Fahrzeugs, der Erfassungsfähigkeit, den Sensordaten usw. abhängen. Selbst mit verbesserten Sensoren ist es notwendig, die Fähigkeit eines Systems zu beurteilen, Objekte und Szenarien zu detektieren und zu handhaben. Darüber hinaus ist es notwendig, Situationen zu identifizieren, die ein erlernter Fahrzeugdatensatz nicht ausreichend abdeckt.
  • 4 veranschaulicht eine Darstellung eines bekannten oder vorhandenen Datensatzes 405 im Vergleich zu einem idealen Datensatz 410. Der vorhandene Datensatz 405 kann sich auf einen bekannten Datensatz beziehen, einschließlich eines bekannten Trainingsdatensatzes, der zum Erlernen von Algorithmen verwendet wird, die autonome Fahrzeuge verschiedener Typen betreiben. Die hierin erörterten Prozesse und Vorgänge können eine Vertrautheitsmetrik oder einen Vertrautheitsvektor erzeugen, der als Vektoren 415 gezeigt ist, wobei Daten, die von einem oder mehreren lokalen Fahrzeugsensoren oder kombinierten Sensoren erfasst werden, und anschließende Echtzeitalgorithmen zur Messung von Szenenstatistiken verwendet werden. In einer Ausführungsform wird die Vertrautheit des Datensatzes 405 basierend auf vielen möglichen Attributen, die vom Host-Fahrzeug und den zugehörigen Algorithmen erfasst werden, erzeugt. Gemäß einer Ausführungsform können beispielhafte Attribute unter anderem Folgendes beinhalten: Anzahl der Zielobjekte, Klassifizierung der Zielobjekte, Größe und Form der Zielobjekte, Anzahl der Fahrbahnen, Fahrbahntyp, Fahrbahnmarkierungsfarbe, Fahrbahnmarkierungsform oder Strichtyp, Fahrzeugzustandsverhalten, wie Rutschen, Fahrzeugstandort, Umgebungsbedingungen, die die Sichtbarkeit der Zielobjekte und Fahrbahnen beeinflussen. Diese Attribute können verwendet werden, um die Dimensionen eines Vektors oder der Vektoren 415 zu beschreiben, die von einem neuronalen Netzwerk erzeugt werden, das eine Technik für das Clustering bekannter Attribute eines bekannten Trainingsdatensatzes verwendet. Ein oder mehrere Vektoren, wie etwa die Vektoren 415, können in einer Laufzeitumgebung verwendet werden, um Anomalien des Vektors zu detektieren. Der beschriebene Vektor ist die Schätzung der Vertrautheit des Laufzeitalgorithmus mit der Umgebung, in der er verwendet wird. Um die allgemeine Verwendung des zuvor erwähnten Vektors zu beschreiben, wird der Vektor als Teil eines Software-Release für ein autonomes Fahrzeugsteuersystem erzeugt, der den gesamten Trainingsdatensatz beschreibt. In einer Ausführungsform wird der Vektor während der Laufzeit im autonomen Fahrzeugsteuersystem als Teil der Wahrnehmungs-Engines kontinuierlich bewertet. Diese Bewertung bietet die Möglichkeit, signifikante oder nicht vertraute Szenariodaten zu identifizieren und assoziierte Daten in einem zuvor nicht erwähnten Datenschreiber zu markieren oder aufzuzeichnen.
  • Der ideale Datensatz 410 kann einen Satz von Daten darstellen, der nicht erreicht werden kann. Die hierin erörterten Systeme und Konfigurationen können basierend auf dem bekannten Datensatz 405 betrieben werden. Für den Datensatz 405 kann ein Anomaliedetektionsvektor zur Beschreibung des Datensatzes erzeugt werden. Die hierin erörterten Prozesse stellen einen Auslösemechanismus dar, der ein Ereignis oder Szenario auslöst, das nicht im Datensatz 410 vorhanden ist.
  • 5 stellt eine grafische Darstellung von Vorgängen der Steuereinheit gemäß einer oder mehreren Ausführungsformen dar. Die Vorgänge der Steuereinheit können die automatische Identifizierung neuer Daten erleichtern, mit denen ein bestehender unterstützender Fahrzeugalgorithmus nicht vertraut wäre. Gemäß einer Ausführungsform kann eine Fahrzeugsteuereinheit 500 Funktionen für mindestens eines von Signifikanzanomaliedetektion und Validierungsanomaliedetektion durchführen. Die Fahrzeugsteuereinheit 500 kann dazu konfiguriert sein, einen erlernten Fahrzeugdatensatz 501 von einem Datenspeicher, wie etwa einem Cloud-Speicher, zu empfangen. Der Fahrzeugdatensatz kann einem Fahrzeug bereitgestellt werden, um eine Szenendetektion und/oder andere Vorgänge durchzuführen.
  • In einer Ausführungsform beinhaltet die Fahrzeugsteuereinheit 500 ein Engine-Modul 505 für die Signifikanzanomaliedetektion, die dazu konfiguriert ist, ein Clusteringverfahren, wie etwa K-Means-Clustering, durchzuführen, um den „Bereich“ des erfassten und kommentierten Datensatzes, der zum Erlernen des Laufzeitalgorithmus verwendet wird, zu approximieren. Ein resultierender Vektor aus dem Anomalievektorblock 510 wird anhand des Clusterings erzeugt und wird zum Beschreiben des Datensatzes verwendet. Der Vektor kann gleichzeitig mit der Algorithmenfreigabe für das Laufzeitsystem erzeugt werden. In einer Ausführungsform wird der Vektor dann in einem Laufzeitsystem verwendet, um das Szenario basierend auf einem oder mehreren Attributen zu bewerten. Eine Anomalie, die dem durch den Anomalievektor beschriebenen Clustering entkommt, würde in einem Datenerfassungssystem eine Markierung beim Ereignisauslöserblock 515 auslösen, die ein Ereignis beschreibt. Gemäß einer Ausführungsform ist dieses Ereignis signifikant für den vorhandenen Datensatz 501, da der erlernte Laufzeitalgorithmus mit dem Szenario nicht vertraut ist.
  • Gemäß einer Ausführungsform werden die während des Erfassungszeitraums erfassten zusammengestellten Ereignisse dem resultierenden Datensatz hinzugefügt und durchlaufen den Erlernungsprozess für die nächste Algorithmenfreigabe. Der neue Datensatz wird dann erneut approximiert, um das Clustering von Objekten zu aktualisieren.
  • Bei Block 520 empfängt die Engine für die Validierungsanomaliedetektion den Anomalievektor von Block 510. Gemäß einer Ausführungsform kann der Anomalievektor durch das Engine-Modul 520 für die Validierungsanomaliedetektion verwendet werden, um die Vertrautheit des Datensatzes 501 innerhalb der momentanen Analyse einer Szene zu beurteilen. Das Engine-Modul 520 für die Validierungsanomaliedetektion kann Anomalien des Anomalievektors aus Block 510 detektieren und eine Meldung über die Vertrautheit des Datensatzes 501 mit einer Szene, einem Szenario oder Fahrzeugsensordaten erzeugen.
  • 6 stellt eine grafische Darstellung von Vorgängen in Bezug auf einen bekannten Datensatz gemäß einer oder mehreren Ausführungsformen dar. Der Prozess 600 beschreibt Vorgänge für ein Fahrzeugsystem gemäß einer oder mehreren Ausführungsformen. In einer Ausführungsform ist der Prozess 600 darauf ausgerichtet, Vorgänge zur Signifikanzanomaliedetektion durchzuführen. Gemäß einer weiteren Ausführungsform ist der Prozess 600 auf die Validierung einer Engine für die Anomaliedetektion ausgerichtet. Der Prozess 600 kann sich auf einen oder mehrere Vorgänge der Steuereinheit eines Engine-Moduls für die Signifikanzanomaliedetektion und eines Engine-Moduls für die Validierungsanomaliedetektion beziehen (z. B. Engine-Modul 505 für die Signifikanzanomaliedetektion und Engine-Modul 520 für die Validierungsanomaliedetektion aus 5).
  • Gemäß einer Ausführungsform kann der Ausgangsdatensatz 605, der eine Vielzahl von Objekttypen und Objektattributen beinhaltet, als bekannte Trainingsdaten verwendet werden, um Algorithmen eines Fahrzeugassistenzsystems, wie etwa einen Szenendetektionsvorgang, zu erlernen. Bei Block 610 wird ein Clustering-Quantisierungsvorgang für den Ausgangsdatensatz durchgeführt und bei Block 615 wird ein Vektorerzeugungsvorgang basierend auf den Charakteristika der in Block 610 erzeugten Datencluster durchgeführt. Die Clustering-Quantisierung kann einen oder mehrere Vorgänge zur Klassifizierung und Kommentierung von Objekten nach Typ und Attributen beinhalten. Durch das Clustering können Objekte mit ähnlichen Attributen Cluster bilden, die durch vektorbasierte Modellierung analysiert werden können. Ausgehend von einem bekannten Datensatz, wie etwa dem Ausgangsdatensatz 605, einschließlich eines bekannten Trainingsdatensatzes, der zum Erlernen von Algorithmen verwendet wird, die autonome Fahrzeuge verschiedener Typen betreiben, ist der Prozess 600 dazu konfiguriert, eine Vertrautheitsmetrik oder einen Vertrautheitsvektor bei Block 615 zu erzeugen. Es können ein oder mehrere Vektoren erzeugt werden, die den Schwerpunkt jedes Clusterbildungsblocks 610 beschreiben und zu einer Darstellung führen, die von einer Fahrzeugsteuereinheit zur Analyse der erfassten Daten und/oder des Ausgangsdatensatzes 605 verwendet werden kann. Vorgänge bei Block 610 und 615 können durchgeführt werden, um den kommentierten Ausgangsdatensatz 605 zu beschreiben, wie etwa, ob der Ausgangsdatensatz Daten beinhaltet, die den erfassten Fahrzeugdaten ähnlich sind oder in der Lage sind, diese zu beschreiben. Der bei Block 615 erzeugte Vektor kann verwendet werden, um Objektziele oder signifikante Fahrzeugbetriebsbedingungen zu identifizieren. Gemäß einer weiteren Ausführungsform können die Blöcke 610 und 615 als computerausführbarer Code ausgeführt werden, der in einem Fahrzeug zur Verwendung in einem Fahrerassistenzsystem bereitgestellt werden kann. Gemäß einer Ausführungsform werden Attribute verwendet, um die Dimensionen eines Vektors zu beschreiben, der bei Block 620 erzeugt wurde, und zwar durch ein neuronales Netzwerk, das das Clustering der bekannten Attribute bei Block 610 und den Trainingsdatensatz 605 verwendet.
  • Gemäß einer weiteren Ausführungsform können Vorgänge zur Detektion von Anomalien durch den Prozess 600 bereitgestellt werden. Unter Verwendung von Daten, die von einem lokalen Fahrzeugsensor oder kombinierten Sensoren bei Block 606 erfasst werden, und anschließende Echtzeitalgorithmen zur Messung von Szenenstatistiken, wie etwa ein Wahrnehmungsalgorithmus bei Block 625, kann die Vertrautheit mit dem Ausgangsdatensatz bestimmt werden. Der Prozess 600 beinhaltet die Bewertung von Attributen anhand eines Anomalievektor bei Block 630. Die Bewertung kann einen oder mehrere Werte bereitstellen, wie etwa einen Prozentsatz oder Wert innerhalb eines Bereichs, der die Vertrautheit mit dem kommentierten Ausgangsdatensatz 605 mit Objekten, die bei Block 625 detektiert wurden, kennzeichnet. Die Bewertung kann auf vielen möglichen Attributen basieren, die das Host-Fahrzeug erfasst, und zwar in den Sensordaten 606 und den assoziierten Algorithmen, die bei Block 625 durchgeführt werden. Beispielhafte Attribute in einer Ausführungsform können unter anderem Folgendes beinhalten: Anzahl der Zielobjekte, Klassifizierung der Zielobjekte, Größe und Form der Zielobjekte, Anzahl der Fahrbahnen, Fahrbahntyp, Fahrbahnmarkierungsfarbe, Fahrbahnmarkierungsform oder Strichtyp, Fahrzeugzustandsverhalten, wie Rutschen, Fahrzeugstandort, Umgebungsbedingungen, die die Sichtbarkeit der Zielobjekte und Fahrbahnen beeinflussen. Die Bewertung bei Block 630 kann die Identifizierung signifikanter oder nicht vertrauter Szenariodaten ermöglichen, die markiert werden sollen, oder die assoziierten Daten in einem Datenschreiber oder einer Speichereinheit eines Fahrzeugs aufzeichnen.
  • Gemäß einer Ausführungsform wird die Bewertung bei Block 630 basierend auf einem vorbestimmten Ausmaß der Variabilität durchgeführt. Gemäß einer Ausführungsform kann für optisch detektierte Objekte ein akzeptables Ausmaß an Variabilität für bestimmte Objektklassifikationen ermöglicht werden. Dementsprechend kann die Bewertung auf der Grundlage einer ersten Objektklasse ein erstes Ausmaß an Variabilität nutzen, während die Bewertung eines zweiten Objekttyps ein zweites Maß an Variabilität nutzen kann, wobei sich das zweite Ausmaß an Variabilität von dem ersten unterscheidet. Somit können Kamerasensordaten aus Block 606, die ein Fußgängerobjekt identifizieren, einen niedrigen Schwellenwert für das Bestimmen der Signifikanz in Bezug auf die Beschilderung aufweisen, die normalerweise mit einem begrenzten Satz von vordefinierten Objekten assoziiert ist, und somit einen höheren Schwellenwert für die Signifikanz aufweisen. In Bezug auf das Bewerten von Sensorattributen kann die Bewertung die Abweichung der Sensorausgabe in Bezug auf die erlernten Sensorbereiche bewerten. In bestimmten Ausführungsformen ist die Bewertung bei Block 630 dazu konfiguriert, die Fähigkeit eines erlernten Datensatzes zur Wahrnehmung eines Fahrszenarios basierend auf den Sensordaten 606 zu beurteilen. Beispielsweise kann ein erlernter Datensatz eine Grundlage für eines oder mehrere von Darstellen einer Angabe, Steuern einer Fahrzeugeinheit oder Aktivieren eines Fahrzeugsteuersystems (z. B. aktives Bremsen, Drosselklappensteuerung usw.) auf der Grundlage von Sensordaten 606 und der Vektorerzeugung 616 bilden. Die Bewertung bei Block 630 kann eine Angabe der Fähigkeit der erlernten Datensätze zur Handhabung der erfassten Daten bereitstellen. In einer Ausführungsform kann das Bewerten bei Block 630 zu mindestens einem von einer prozentualen und/oder wertmäßigen Messung der Genauigkeit für den erlernten Datensatz in Bezug auf die Sensordaten 606 führen. In bestimmten Ausführungsformen kann die bestimmte Bewertung mit erzeugten Markierungen ausgegeben werden, um einen erlernten Datensatz zu aktualisieren.
  • Gemäß einer Ausführungsform nutzen die von der Steuereinheit 620 durchgeführten Vorgänge einen Vektor, der bei Block 615 erzeugt wurde, und zwar in einer Laufzeitumgebung, um Anomalien des Vektors zu detektieren. Der beschriebene Vektor ist die Schätzung der Vertrautheit des Laufzeitalgorithmus mit der Umgebung, in der er verwendet wird. Um die allgemeine Verwendung des zuvor erwähnten Vektors zu beschreiben, wird der Vektor als Teil eines Software-Release für ein autonomes Fahrzeugsteuersystem erzeugt, der den gesamten Trainingsdatensatz beschreibt. Der Vektor wird während der Laufzeit in dem autonomen Fahrzeugsteuersystem als Teil der Wahrnehmungs-Engine kontinuierlich bewertetet.
  • Beim Entscheidungsblock 635 bestimmt der Prozess 600, ob die detektierten Zielobjekte Teil eines Ausgangsdatensatzes sind, wie etwa des kommentierten Ausgangsdatensatzes 605. Wenn Objekte im Datensatz enthalten sind, kann die Bewertung bei Block 630 die Vertrautheit der Datensätze mit dem erfassten Zielobjekt widerspiegeln. Wenn die Zielobjekte nicht Teil des Ausgangsdatensatzes sind, kann bei Block 640 eine Ereignismarkierung zur Identifizierung eines Zielobjekts oder eine Ereigniserfassung zur Detektion eines Segments von Zielobjekten erzeugt werden. Der Prozess 600 kann Ausgeben von Ereignismarkierungen und der Ereigniserfassung von Block 640 an eine Datenspeichereinheit 645 oder eine Netzwerkressource (z. B. Server, Cloud-Netzwerk) beinhalten, die zum Kommentieren und/oder Aktualisieren eines kommentierten Ausgangsdatensatzes 605 verwendet werden kann. Ereignismarkierungen und Ereigniserfassungen im Datenspeicher 645 können auch verwendet werden, um ein oder mehrere Objekte, Objektattribute und Szenarien zu identifizieren, die eindeutig sind.
  • 7 stellt eine grafische Darstellung von Objektattributen gemäß einer oder mehreren Ausführungsformen dar. Gemäß einer Ausführungsform kann ein Ausgangsdatensatz durch Attribute charakterisiert werden, die mit Objekttypen und/oder Objektcharakteristika assoziiert sind. Der Prozess 700 beschreibt das Clustering von Objektattributen durch eine Fahrzeugsteuereinheit gemäß einer oder mehreren Ausführungsformen.
  • Der Prozess 700 kann auf einer Vielzahl von Attributen, wie etwa der Attribute 7051-n, basieren. Zu den Attributen des Prozesses 700 gehören die Anzahl der Objekte 7051 , die Objektklasse 7052 , Größe und Form (z. B. Dimension) 7053 und Farbe 705n . Es versteht sich, dass andere Attribute eingesetzt werden können. Die Attribute 7051-n können auch auf den Sensoren eines Fahrzeugs basieren. Unter Verwendung der Attribute 7051-n kann bei Block 710 eine Vektordarstellung einer Szene erzeugt werden. Die Vektordarstellung kann auf einem Vektordatenmodell basieren, das detektierte Objekte durch Attribute, wie etwa 7051-n, in einer Vielzahl von Dimensionen darstellt. Die Vektordarstellung kann auf Clustern von Daten basieren, die ähnliche Objekttypen darstellen. Die Datendarstellung 715 stellt eine beispielhafte Darstellung von Daten dar, die einen Cluster 720 beinhalten, der mit einem Ausgangsdatensatz assoziiert ist. Der Cluster 720 stellt bekannte Daten dar, während der Datenpunkt 725 eine Anomalie oder ein Objektziel darstellt, das dem Datenpunkt 725 nicht ähnlich ist. Der Datenpunkt 725 wird als ein Punkt zur Veranschaulichung eines detektierten Objekts oder einer detektierten Szene bezeichnet, der außerhalb des Objekts, der Objektattribute und/oder der Szenenparameter des erlernten Datensatzes liegt, wie durch den Cluster 720 dargestellt. Gemäß einer Einbettung kann ein für den Cluster 720 bestimmter Anomalievektor eingesetzt werden, um den Datenpunkt 725 zu identifizieren.
  • Gemäß einer Ausführungsform kann die Vektordarstellung einer Szene bei Block 710 unter Verwendung der Attribute 7051-n erzeugt werden, die sich auf eine Vektormodelldarstellung einer Fähigkeit erlernter Datensätze, ein detektiertes Objekt und/oder eine detektierte Szene wahrzunehmen und zu handhaben, beziehen kann. Gemäß einer Ausführungsform kann die Identifizierung eines signifikanten Ereignisses auf dem Ausmaß der Abweichung eines Datenpunktes, wie etwa des Datenpunktes 725, von einem Cluster, wie etwa dem Cluster 720, des Vektordatenmodells basieren. Wie hierin erörtert, kann die Bewertung von Attributen zu einem Wert oder einer Darstellung der Abweichung des Datenpunkts von einem Cluster, wie etwa dem Cluster 720, führen.
  • Während diese Offenbarung unter Bezugnahme auf Ausführungsbeispiele davon näher veranschaulicht und beschrieben wurde, liegt für den Fachmann auf der Hand, dass verschiedene Änderungen an Form und Details vorgenommen werden können, ohne vom Umfang der beanspruchten Ausführungsformen abzuweichen.

Claims (20)

  1. Verfahren zum Identifizieren signifikanter Szenariodaten durch eine Steuereinheit eines Fahrzeugs, wobei das Verfahren Folgendes umfasst: Empfangen von Fahrzeugsensordaten, die von mindestens einem Sensor des Fahrzeugs erfasst werden, durch eine Steuereinheit, wobei die Fahrzeugsensordaten von mindestens einem Wahrnehmungssensor eines Fahrzeugs erzeugt werden; Ausführen eines Szenendetektionsvorgangs anhand der Fahrzeugsensordaten durch die Steuereinheit, um einen Vektor von Zielobjektattributen der Fahrzeugsensordaten abzuleiten; Vergleichen einer Vektordarstellung für den Szenendetektionsvorgang durch die Steuereinheit mit einem Vertrautheitsvektor eines erlernten Datensatzes, wobei die Vektordarstellung eine Darstellung der Effektivität des Szenendetektionsvorgangs bei der Identifizierung von Zielobjektattributen der Fahrzeugsensordaten ist; und Identifizieren von signifikanten Szenariodaten durch die Steuereinheit basierend auf der Vektordarstellung, wobei das signifikante Szenario mindestens ein Zielobjekt der Fahrzeugsensordaten identifiziert.
  2. Verfahren nach Anspruch 1, wobei die Fahrzeugsensordaten mindestens eines von Bild-, Radar- und LiDAR-Daten für eine Detektionszone eines Fahrerassistenzsystems des Fahrzeugs beinhalten.
  3. Verfahren nach Anspruch 1, wobei das Ausführen des Szenendetektionsvorgangs anhand der Fahrzeugsensordaten einen kommentierten Datensatz für Zielobjekte in Echtzeit basierend auf den Attributen eines erlernten Fahrzeugdatensatzes erzeugt, wobei der erlernte Fahrzeugdatensatz eine Vielzahl von Objekttypen und Objektattributen bereitstellt.
  4. Verfahren nach Anspruch 1, wobei das Vergleichen der Vektordarstellung das Durchführen eines Clusteringvorgangs für Zielobjekte der Fahrzeugsensordaten unter Verwendung des erlernten Fahrzeugdatensatzes zum Erzeugen eines Vektordatenmodells für die Fahrzeugsensordaten beinhaltet, wobei das Vektordatenmodell die Fähigkeit des erlernten Fahrzeugsatzes zum Wahrnehmen von Zielobjekten der Fahrzeugsensordaten kennzeichnet.
  5. Verfahren nach Anspruch 1, wobei das Identifizieren des signifikanten Szenarios Bestimmen, dass ein Zielobjekt ein nicht identifiziertes Objekt ist, beinhaltet.
  6. Verfahren nach Anspruch 1, wobei das Identifizieren des signifikanten Szenarios Bestimmen, dass mindestens eines der erlernten Fahrzeugdatenattribute nicht in der Lage ist, ein Zielobjekt zu klassifizieren, beinhaltet.
  7. Verfahren nach Anspruch 1, wobei das Identifizieren des signifikanten Szenarios Bestimmen der Vertrautheit eines Zielobjekts in Bezug auf den erlernten Datensatz basierend auf mindestens einem von der Anzahl der Zielobjekte, der Klassifizierung der Zielobjekte, der Größe und Form des Zielobjekts, dem Objekttyp und der Objektfarbe beinhaltet.
  8. Verfahren nach Anspruch 1, wobei das Identifizieren des signifikanten Szenarios Bestimmen von mindestens einer Fahrzeugbetriebscharakteristik als Attribut in Bezug auf die Identifizierung eines Zielobjekts in mindestens einem von einem Fahrerassistenzsystem und einem autonomen Fahrsystem beinhaltet.
  9. Verfahren nach Anspruch 1, wobei das Identifizieren des signifikanten Szenarios Bestimmen der Vertrautheit für eine aktuelle Szene des Fahrzeugbetriebs in Bezug auf einen erlernten Fahrzeugdatensatz für mindestens eine Fahrbedingung beinhaltet.
  10. Verfahren nach Anspruch 1, ferner umfassend das Bewerten der Vektordarstellung anhand der Fähigkeit des Szenendetektionsvorgangs, Zielobjektattribute der Fahrzeugsensordaten unter Verwendung des erlernten Fahrzeugdatensatzes wahrzunehmen, durch die Steuereinheit, und wobei das signifikante Szenario identifizierte Daten basierend auf einer Bewertung der Vektordarstellung unterhalb eines vorbestimmten Schwellenwerts ist.
  11. Verfahren nach Anspruch 1, ferner umfassend Ausgeben von mindestens einem Zielobjekt der Fahrzeugsensordaten.
  12. Fahrzeugsteuereinheit, umfassend: einen Eingang, der dazu konfiguriert ist, Fahrzeugsensordaten zu empfangen; und eine Steuereinheit, die an die Anzeige gekoppelt ist, wobei die Steuereinheit ferner zu Folgendem konfiguriert ist: Empfangen von Fahrzeugsensordaten, die von mindestens einem Sensor des Fahrzeugs erfasst werden, wobei die Fahrzeugsensordaten von mindestens einem Wahrnehmungssensor eines Fahrzeugs erzeugt werden, Ausführen eines Szenendetektionsvorgangs anhand der Fahrzeugsensordaten, um einen Vektor von Zielobjektattributen der Fahrzeugsensordaten abzuleiten, Vergleichen einer Vektordarstellung für den Szenendetektionsvorgang mit einem Vertrautheitsvektor eines erlernten Datensatzes, wobei die Vektordarstellung eine Darstellung der Effektivität des Szenendetektionsvorgangs bei der Identifizierung von Zielobjektattributen der Fahrzeugsensordaten ist, und Identifizieren von signifikanten Szenariodaten basierend auf der Vektordarstellung, wobei das signifikante Szenario mindestens ein Zielobjekt der Fahrzeugsensordaten identifiziert.
  13. Fahrzeugsteuereinheit nach Anspruch 12, wobei die Fahrzeugsensordaten mindestens eines von Bild-, Radar- und LiDAR-Daten für eine Detektionszone des Fahrerassistenzsystems des Fahrzeugs beinhalten.
  14. Fahrzeugsteuereinheit nach Anspruch 12, wobei das Ausführen des Szenendetektionsvorgangs anhand der Fahrzeugsensordaten einen kommentierten Datensatz für Zielobjekte in Echtzeit basierend auf den Attributen eines erlernten Fahrzeugdatensatzes erzeugt, wobei der erlernte Fahrzeugdatensatz eine Vielzahl von Objekttypen und Objektattributen bereitstellt.
  15. Fahrzeugsteuereinheit nach Anspruch 12, wobei das Vergleichen der Vektordarstellung das Durchführen eines Clusteringvorgangs für Zielobjekte der Fahrzeugsensordaten unter Verwendung des erlernten Fahrzeugdatensatzes zum Erzeugen eines Vektordatenmodells für die Fahrzeugsensordaten beinhaltet, wobei das Vektordatenmodell die Fähigkeit des erlernten Fahrzeugsatzes zum Wahrnehmen von Zielobjekten der Fahrzeugsensordaten kennzeichnet.
  16. Fahrzeugsteuereinheit nach Anspruch 12, wobei das Identifizieren des signifikanten Szenarios Bestimmen, dass ein Zielobjekt ein nicht identifiziertes Objekt ist, beinhaltet.
  17. Fahrzeugsteuereinheit nach Anspruch 12, wobei das Identifizieren des signifikanten Szenarios Bestimmen, dass mindestens eines der erlernten Fahrzeugdatenattribute nicht in der Lage ist, ein Zielobjekt zu klassifizieren, beinhaltet.
  18. Fahrzeugsteuereinheit nach Anspruch 12, wobei das Identifizieren des signifikanten Szenarios Bestimmen der Vertrautheit eines Zielobjekts in Bezug auf den erlernten Datensatz basierend auf mindestens einem von der Anzahl der Zielobjekte, der Klassifizierung der Zielobjekte, der Größe und Form des Zielobjekts, dem Objekttyp und der Objektfarbe beinhaltet.
  19. Fahrzeugsteuereinheit nach Anspruch 12, wobei das Identifizieren des signifikanten Szenarios Bestimmen von mindestens einer Fahrzeugbetriebscharakteristik als Attribut in Bezug auf die Identifizierung eines Zielobjekts in mindestens einem von einem Fahrerassistenzsystem und einem autonomen Fahrsystem beinhaltet.
  20. Fahrzeugsteuereinheit nach Anspruch 12, wobei die Fahrzeugsteuereinheit ferner konfiguriert ist zum Bewerten der Vektordarstellung anhand der Fähigkeit des Szenendetektionsvorgangs, Zielobjektattribute der Fahrzeugsensordaten unter Verwendung des erlernten Fahrzeugdatensatzes wahrzunehmen, und wobei das signifikante Szenario identifizierte Daten basierend auf einer Bewertung der Vektordarstellung unterhalb eines vorbestimmten Schwellenwerts ist.
DE102019127229.7A 2018-10-10 2019-10-10 System und verfahren zum bestimmen einer vertrautheit eines fahrzeugdatensatzes Pending DE102019127229A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/156,357 2018-10-10
US16/156,357 US11087144B2 (en) 2018-10-10 2018-10-10 System and method for determining vehicle data set familiarity

Publications (1)

Publication Number Publication Date
DE102019127229A1 true DE102019127229A1 (de) 2020-04-16

Family

ID=69954498

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019127229.7A Pending DE102019127229A1 (de) 2018-10-10 2019-10-10 System und verfahren zum bestimmen einer vertrautheit eines fahrzeugdatensatzes

Country Status (3)

Country Link
US (2) US11087144B2 (de)
CN (1) CN111016921A (de)
DE (1) DE102019127229A1 (de)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020205315A1 (de) 2020-04-27 2021-10-28 Volkswagen Aktiengesellschaft Verfahren zur Klassifikation kritischer Fahrsituationen, Auswahl von der kritischen Fahrsituation ähnlichen Daten und Nachtraining des automatischen Systems
DE102020118504A1 (de) 2020-07-14 2022-01-20 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum Erweitern eines neuronalen Netzes für eine Umfelderkennung
US11597406B2 (en) * 2020-02-19 2023-03-07 Uatc, Llc Systems and methods for detecting actors with respect to an autonomous vehicle
DE102021214334B3 (de) 2021-12-14 2023-06-07 Continental Autonomous Mobility Germany GmbH Fahrzeugdatensystem und Verfahren zur Ermittlung von relevanten bzw. übertragenswerten Fahrzeugdaten eines Umgebungserfassungssensors

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11019084B2 (en) * 2018-12-14 2021-05-25 Intel Corporation Controller, a context broadcaster and an alert processing device
CN109767397B (zh) * 2019-01-09 2022-07-12 三星电子(中国)研发中心 一种基于人工智能的图像优化方法和系统
US11615654B1 (en) * 2019-10-24 2023-03-28 Lytx, Inc. Signature use for efficient data transfer
JP7429143B2 (ja) * 2020-03-30 2024-02-07 本田技研工業株式会社 移動体制御装置、移動体制御方法、およびプログラム
US20220084228A1 (en) * 2020-09-11 2022-03-17 Waymo Llc Estimating ground truth object keypoint labels for sensor readings
US20220082398A1 (en) * 2020-09-17 2022-03-17 Guangzhou Automobile Group Co., Ltd. Method and Device for Measuring Driving Route Familiarity
CN112734292B (zh) * 2021-01-26 2023-12-29 中国人民解放军国防科技大学 一种基于发育型聚类的无人车智能迁移方法及系统
US20230192141A1 (en) * 2021-12-16 2023-06-22 Gm Cruise Holdings Llc Machine learning to detect and address door protruding from vehicle

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5048097A (en) * 1990-02-02 1991-09-10 Eastman Kodak Company Optical character recognition neural network system for machine-printed characters
JP2001022942A (ja) * 1999-06-18 2001-01-26 Mitsubishi Electric Inf Technol Center America Inc テスト画像からの情景の推定方法
JP2008022103A (ja) * 2006-07-11 2008-01-31 Matsushita Electric Ind Co Ltd テレビ番組動画像ハイライト抽出装置及び方法
WO2010040668A1 (de) * 2008-10-10 2010-04-15 Adc Automotive Distance Control Systems Gmbh Verfahren und einrichtung zur analyse von umgebungsobjekten und/oder umgebungsszenen, wie zur objekt- und szenenklassensegmentierung
US8775341B1 (en) * 2010-10-26 2014-07-08 Michael Lamport Commons Intelligent control with hierarchical stacked neural networks
US8503768B2 (en) * 2010-12-22 2013-08-06 Sony Corporation Shape description and modeling for image subscene recognition
EP2825996A4 (de) * 2012-03-13 2017-03-08 Nokia Technologies Oy Verfahren und vorrichtung für verbesserte gesichtserkennung
EP2995079A4 (de) * 2013-05-10 2017-08-23 Robert Bosch GmbH System und verfahren zur objekt- und ereignisidentifikation mit mehreren kameras
CN103425989B (zh) * 2013-08-07 2017-04-19 中山大学 一种基于显著性分析的车辆颜色识别方法及系统
US9779314B1 (en) * 2014-08-21 2017-10-03 Waymo Llc Vision-based detection and classification of traffic lights
CN107564513B (zh) * 2016-06-30 2020-09-08 阿里巴巴集团控股有限公司 语音识别方法及装置
US10712746B2 (en) * 2016-08-29 2020-07-14 Baidu Usa Llc Method and system to construct surrounding environment for autonomous vehicles to make driving decisions
US10614326B2 (en) * 2017-03-06 2020-04-07 Honda Motor Co., Ltd. System and method for vehicle control based on object and color detection
WO2018232032A1 (en) * 2017-06-16 2018-12-20 nuTonomy Inc. Intervention in operation of a vehicle having autonomous driving capabilities
US10572963B1 (en) * 2017-07-14 2020-02-25 Synapse Technology Corporation Detection of items
KR20200037816A (ko) * 2017-08-02 2020-04-09 스트롱 포스 아이오티 포트폴리오 2016, 엘엘씨 대규모 데이터 세트들을 갖는 산업 사물 인터넷 데이터 수집 환경에서의 검출을 위한 방법들 및 시스템들
CN107492251B (zh) * 2017-08-23 2020-02-14 武汉大学 一种基于机器学习与深度学习的驾驶员身份识别与驾驶状态监测方法
US10877999B2 (en) * 2017-12-21 2020-12-29 Micron Technology, Inc. Programmatically identifying a personality of an autonomous vehicle
US11079758B2 (en) * 2018-01-12 2021-08-03 Toyota Research Institute, Inc. Systems and methods for incentivizing user-aided improvement of autonomous vehicle control systems and methods of operating a vehicle using the same
CN108550190A (zh) * 2018-04-19 2018-09-18 腾讯科技(深圳)有限公司 增强现实数据处理方法、装置、计算机设备和存储介质
US10679099B2 (en) * 2018-05-08 2020-06-09 Toyta Research Institute, Inc. Method and apparatus for a manifold view of space
CN109389163B (zh) * 2018-09-29 2022-03-29 华南理工大学 一种基于地形图的无人机影像分类系统及方法

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11597406B2 (en) * 2020-02-19 2023-03-07 Uatc, Llc Systems and methods for detecting actors with respect to an autonomous vehicle
DE102020205315A1 (de) 2020-04-27 2021-10-28 Volkswagen Aktiengesellschaft Verfahren zur Klassifikation kritischer Fahrsituationen, Auswahl von der kritischen Fahrsituation ähnlichen Daten und Nachtraining des automatischen Systems
DE102020118504A1 (de) 2020-07-14 2022-01-20 Bayerische Motoren Werke Aktiengesellschaft Verfahren und System zum Erweitern eines neuronalen Netzes für eine Umfelderkennung
DE102021214334B3 (de) 2021-12-14 2023-06-07 Continental Autonomous Mobility Germany GmbH Fahrzeugdatensystem und Verfahren zur Ermittlung von relevanten bzw. übertragenswerten Fahrzeugdaten eines Umgebungserfassungssensors

Also Published As

Publication number Publication date
US20200117912A1 (en) 2020-04-16
US11087144B2 (en) 2021-08-10
US11688174B2 (en) 2023-06-27
CN111016921A (zh) 2020-04-17
US20210326604A1 (en) 2021-10-21

Similar Documents

Publication Publication Date Title
DE102019127229A1 (de) System und verfahren zum bestimmen einer vertrautheit eines fahrzeugdatensatzes
EP2149131B1 (de) Verfahren und vorrichtung zur erkennung von verkehrsrelevanten informationen
DE102019127190A1 (de) System und verfahren zum beurteilen des bekanntseins eines gelernten fahrzeugdatensatzes eines fahrerassistenzsystems
DE112018000479T5 (de) Ereignisvorhersagesystem, Ereignisvorhersageverfahren, Aufzeichnungsmedium und sich bewegender Körper
DE102018120845A1 (de) Verfahren und Vorrichtung zum Überwachen eines autonomen Fahrzeugs
DE102018132525A1 (de) Verfahren und Vorrichtung zur Bewertung einer Fahrzeugfahrfläche
DE112018001569T5 (de) Informationsverarbeitungsgerät und Informationsverarbeitungssystem
DE102018125207A1 (de) Fahrzeuginterne verkehrsassistenz
WO2017054956A1 (de) Verfahren und system zum ermitteln von verkehrsteilnehmern mit interaktionspotential
DE112016007501T5 (de) Regel-/steuervorrichtung und regel-/steuerverfahren
DE102014225804A1 (de) Unterstützung beim Führen eines Fahrzeugs
DE102018111935A1 (de) Bildverarbeitungssystem, Bildverarbeitungsverfahren, Informationsverarbeitungsvorrichtung und Aufzeichnungsmedium
DE102019122536A1 (de) Exzentrizitätskarten
DE102018221054A1 (de) Verfahren zum Bereitstellen von Kartendaten in einem Kraftfahrzeug, Kraftfahrzeug und zentrale Datenverarbeitungseinrichtung
DE102021128041A1 (de) Verbesserung eines neuronalen fahrzeugnetzwerks
DE102017211387A1 (de) System und Verfahren zum automatisierten Manövrieren eines Ego-Fahrzeugs
WO2018023143A1 (de) Verfahren und vorrichtung zum messen eines abstands zwischen einem ersten fahrzeug und einem zweiten, dem ersten fahrzeug unmittelbar vorausfahrenden, fahrzeug
DE102021106900A1 (de) Fahrzeugunsicherheitsaustausch
WO2021139974A1 (de) Verfahren zur zusammenführung mehrerer datensätze für die erzeugung eines aktuellen spurmodells einer fahrbahn und vorrichtung zur datenverarbeitung
DE102018128563A1 (de) Verfahren und vorrichtung für eine autonome systemleistung und einen vergleich
DE102017209258A1 (de) Verfahren und Vorrichtung zum Überwachen einer Fahrstabilität eines Fahrzeugs auf einer vorausliegenden Fahrroute
DE102018213378B4 (de) Fahrassistenzsystem für ein Fahrzeug, Fahrzeug mit demselben und Fahrassistenzverfahren für ein Fahrzeug
DE102021119871B4 (de) Verfahren und Prozessorschaltung zum Betreiben einer automatisierten Fahrfunktion mit Objektklassifikator in einem Kraftfahrzeug, sowie Kraftfahrzeug
EP2737282A1 (de) Verfahren und vorrichtung zum bestimmen aktueller fahrzeugspezifischer orientierungsdaten für ein fahrzeug
DE102017221465A1 (de) Verfahren und Vorrichtung zum Detektieren eines lichtaussendenden Objekts an einem Verkehrsknotenpunkt für ein Fahrzeug

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000