DE102021004931A1 - Verfahren zum Verarbeiten von Umgebungsdaten in einem Fahrzeug - Google Patents

Verfahren zum Verarbeiten von Umgebungsdaten in einem Fahrzeug Download PDF

Info

Publication number
DE102021004931A1
DE102021004931A1 DE102021004931.4A DE102021004931A DE102021004931A1 DE 102021004931 A1 DE102021004931 A1 DE 102021004931A1 DE 102021004931 A DE102021004931 A DE 102021004931A DE 102021004931 A1 DE102021004931 A1 DE 102021004931A1
Authority
DE
Germany
Prior art keywords
recognition unit
quality
data
environmental data
modified
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102021004931.4A
Other languages
English (en)
Inventor
Joana Hois
Stefan Studer
Alexander Hanuschkin
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler AG filed Critical Daimler AG
Priority to DE102021004931.4A priority Critical patent/DE102021004931A1/de
Publication of DE102021004931A1 publication Critical patent/DE102021004931A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Quality & Reliability (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Verarbeiten von Umgebungsdaten (U) in einem Fahrzeug (1), das zum hochautomatisierten oder autonomen Fahren konfiguriert ist, wobei die Umgebungsdaten (U) mittels mindestens eines Sensors (2) erfasst und in einer ersten Erkennungseinheit (B) einer Bildverarbeitung unterzogen werden, wobei mittels einer zweiten Erkennungseinheit (S) erwartete Ergebnisse der ersten Erkennungseinheit (B) auf Basis der Umgebungsdaten (U) als deren Eingangssignal (E) überwacht werden, wobei die zweite Erkennungseinheit (S) prädiziert, wie gut die Ergebnisse der ersten Erkennungseinheit (B) auf Basis der Qualität der Umgebungsdaten (U) sein werden, wobei dann, wenn die erwarteten Ergebnisse der ersten Erkennungseinheit (B) als von geringer Güte unterhalb eines definierten Schwellwerts erkannt werden, die Umgebungsdaten (U) von der zweiten Erkennungseinheit (S) modifiziert werden, um die erwartete Güte der ersten Erkennungseinheit (B) zu optimieren und den Schwellwert zu erreichen, oder eine Warnung ausgegeben und die erste Erkennungseinheit (B) deaktiviert wird.

Description

  • Die Erfindung betrifft ein Verfahren zum Verarbeiten von Umgebungsdaten in einem Fahrzeug gemäß dem Oberbegriff des Anspruchs 1.
  • Hochautomatisiertes und/oder autonomes Fahren wird durch maschinelles Sehen (engl. computer vision) unterstützt. Eine Schwierigkeit besteht dabei darin, dass zuvor selten gesehene visuelle Eingangsdaten, aber auch ungünstige Lichtsituation jeweils zu fehlerhaften Bildverarbeitungsschritten führen können.
  • DE 10 2017 124 600 A1 beschreibt ein Verfahren für die semantische Segmentierung eines Objekts in einem Bild mit den folgenden Verfahrensschritten:
    • - aufeinanderfolgendes Erfassen von Einzelbildern,
    • - Eingeben eines ersten Einzelbilds der aufeinanderfolgend erfassten Einzelbilder in Echtzeit in ein neuronales Faltungsnetz,
    • - Untersuchen durch das neuronale Faltungsnetz, ob im ersten Einzelbild ein Objekt erkannt werden kann,
    • - semantisches Klassifizieren der erkannten Objekte durch das neuronale Faltungsnetz durch Zuordnen jedes erkannten Objekts zu einer von einer Liste vordefinierter Objektklassen,
    • - Bereitstellen einer Lookup-Tabelle mit einer Prioritätsliste, die eine jeweilige Prioritätsstufe für jede der vordefinierten Objektklassen aufweist,
    • - Bestimmen einer jeweiligen Prioritätsstufe der erkannten Objekte durch Vergleich mit der Lookup-Tabelle,
    • - Bestimmen von einem oder mehr Objekt(en), die eine vordefinierte Prioritätsstufe haben,
    • - Bestimmen eines Bereichs hoher Priorität des Einzelbilds, der sich auf das oder ein Objekt mit der vordefinierten Prioritätsstufe bezieht,
    • - Eingeben eines nächsten Einzelbilds der aufeinanderfolgend erfassten Einzelbilder in Echtzeit in das neuronale Faltungsnetz,
    • - Analysieren nur des Bereichs hoher Priorität im nächsten Einzelbild durch das neuronale Faltungsnetz.
  • Der Erfindung liegt die Aufgabe zu Grunde, ein verbessertes Verfahren zum Verarbeiten von Umgebungsdaten in einem Fahrzeug anzugeben.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zum Verarbeiten von Umgebungsdaten in einem Fahrzeug gemäß Anspruch 1.
  • Vorteilhafte Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
  • Bei einem erfindungsgemäßen Verfahren zum Verarbeiten von Umgebungsdaten in einem Fahrzeug, das zum hochautomatisierten oder autonomen Fahren konfiguriert ist, werden die Umgebungsdaten mittels mindestens eines Sensors erfasst und in einer ersten Erkennungseinheit einer Bildverarbeitung unterzogen. Erfindungsgemäß ist vorgesehen, dass mittels einer zweiten Erkennungseinheit erwartete Ergebnisse der ersten Erkennungseinheit auf Basis der Umgebungsdaten als deren Eingangssignal überwacht werden, wobei die zweite Erkennungseinheit prädiziert, wie gut die Ergebnisse der ersten Erkennungseinheit auf Basis der Qualität der Umgebungsdaten sein werden, wobei dann, wenn die erwarteten Ergebnisse der ersten Erkennungseinheit als von geringer Güte unterhalb eines definierten Schwellwerts erkannt werden, die Umgebungsdaten von der zweiten Erkennungseinheit modifiziert werden, um die erwartete Güte der ersten Erkennungseinheit zu optimieren und den Schwellwert zu erreichen, oder eine Warnung ausgegeben und die erste Erkennungseinheit deaktiviert wird, wobei die zweite Erkennungseinheit eine zu erwartende Zielgröße der ersten Erkennungseinheit für die Umgebungsdaten approximiert (zum Beispiel aber nicht zwingend ausschließlich mittels Methoden des maschinellen Lernens) um eine Güte zu erhalten, wobei die zweite Erkennungseinheit während ihrer Entwicklung oder mittels Flottendaten mit Beispieldaten trainiert wird, wobei die Umgebungsdaten von der zweiten Erkennungseinheit auf Basis generativer Methoden mittels prototypischer Referenzbilder, welche zu einer hohen Ergebnisgüte der ersten Erkennungseinheit führen, im Stil angepasst werden oder erkannte Objekte in den Umgebungsdaten farblich hervorgehoben werden oder die Umgebungsdaten durch Kontrastveränderung, Regelung von Gamm-Werten, Filter und/oder Transformationen modifiziert werden, wobei dabei erhaltene modifizierte Umgebungsdaten erneut von der zweiten Erkennungseinheit geprüft werden um zu ermitteln, ob die modifizierten Umgebungsdaten als Eingangssignal für die erste Erkennungseinheit zu einer besseren, über dem Schwellwert liegenden, Erkennungsgüte führen, wobei in diesem Fall die modifizierten Umgebungsdaten an die erste Erkennungseinheit zur zusätzlichen Verwendung bei der Erkennung übermittelt werden, wobei auf gleiche Weise parallel weitere Modifikationen des Eingangssignals geprüft werden, um festzustellen, ob diese die Erkennungsgüte positiv beeinflussen, wobei das erwartet beste Ergebnis der modifizierten Umgebungsdaten jeweils von der zweiten Erkennungseinheit an die erste Erkennungseinheit übermittelt wird, wobei die zweite Erkennungseinheit in Form einer Feedback-Schleife zur Optimierung der eigenen Bewertungsfunktion den positiven oder negativen Einfluss der an die erste Erkennungseinheit übermittelten modifizierten Eingangssignale bewertet, wobei die zweite Erkennungseinheit einen Satz an Eingangssignalen speichert, für die die Erkennungsgüte besser war als für die nicht modifizierten Eingangssignale.
  • Die vorliegende Erfindung beschreibt eine Einheit in einem Fahrzeug, welche zum einen ein visuelles Eingangssignal hinsichtlich der erwarteten Güte eines Bildverarbeitungsschritts kontinuierlich evaluiert und bei Unterschreiten einer Schwelle Optimierverfahren auf dem Eingangsbild bereitstellt, um die Fehlerquote bei der Bilderkennung zu verringern.
  • Durch die erfindungsgemäße Lösung können sicherheitskritische Situationen im Fahrgeschehen reduziert werden. Ferner sind eine Reduktion fehlerhafter Erkennung von Fahrzeug-Bilderkennungseinheiten, eine Unterstützung manuellen Fahrens bei visuell ungünstigen Bedingungen sowie die Realisierung eines Redundanzkonzepts auf Basis unterschiedlicher Software und unterschiedlicher Verfahren möglich.
  • Ausführungsbeispiele der Erfindung werden im Folgenden anhand einer Zeichnung näher erläutert.
  • Dabei zeigt:
    • 1 eine schematische Ansicht eines Verfahrens zur Bewertung und Optimierung von Eingabedaten für eine maschinelle Sensorauswertung.
  • Die einzige 1 ist eine schematische Ansicht eines Verfahrens zur Bewertung und Optimierung von Eingabedaten für eine maschinelle Sensorauswertung, beispielsweise für das hochautomatisierte oder autonome Fahrens eines Fahrzeugs 1.
  • Als Teil des hochautomatisierten oder autonomen Fahrens eines Fahrzeugs 1 werden Signale/Sensorwerte eines Umfelds des Fahrzeugs 1 unter anderem visuell erfasst und ausgewertet. Dies erfolgt beispielsweise mittels Sensoren 2, beispielsweise optischen Sensoren, insbesondere Onboard-Kameras, oder Radarsensoren. Die Ergebnisse einer Bildverarbeitung dieser Signale dienen unter anderem der Navigation, der Manöver-Planung, der Erkennung von anderen Objekten usw. Diese Verarbeitung erfolgt in einer ersten Erkennungseinheit B. Aus verschiedenen Gründen kann das Ergebnis dieser Verarbeitung allerdings von geringer Güte sein, mit der Folge, dass auch die darauf aufbauenden Funktionen des automatisierten oder autonomen Fahrens ungünstig beeinflusst werden. Diese verschiedenen Ursachen sind beispielsweise beschädigte oder verdreckte Kameralinsen, ungünstige Lichtverhältnisse wie beispielsweise starke Sonneneinstrahlung direkt auf die Kameralinse, wetterbedingt ungünstiger Einfluss auf die Eingangsdaten, beispielsweise schneebedeckte Objekte usw.
  • Um die erste Erkennungseinheit B in diesen ungünstigen Umgebungs-Situationen zu unterstützen, ist eine zweite Erkennungseinheit S dazu vorgesehen, die erwarteten Ergebnisse der ersten Erkennungseinheit B auf Basis von dessen Eingangssignal E, nämlich den von den Sensoren 2 erfassten Umgebungsdaten U zu überwachen. Die zweite Erkennungseinheit S prädiziert also unter anderem zu Zwecken der Absicherung und Redundanz, wie gut die Ergebnisse der ersten Erkennungseinheit B auf Basis der Qualität der Umgebungsdaten U sein werden, und zwar unabhängig von der ersten Erkennungseinheit B. Erkennt die zweite Erkennungseinheit S, dass die erwarteten Ergebnisse der ersten Erkennungseinheit B von geringer Güte unterhalb eines definierten Schwellwerts sein werden, was voraussichtlich negativen Einfluss auf das Fahrverhalten bei automatisiertem oder autonomen Fahren zur Folge hat, so versucht die zweite Erkennungseinheit S die Umgebungsdaten U als Eingangssignal E für die erste Erkennungseinheit B zu modifizieren und erhält so die modifizierten Umgebungsdaten U' bzw. das modifizierte Eingangssignal E', um die erwartete Güte der ersten Erkennungseinheit B zu optimieren und den Schwellwert zu erreichen. Weiter kann bei Unterschreiten des Schwellwerts eine Warnung ausgegeben und die erste Erkennungseinheit B deaktiviert werden.
  • Die zweite Erkennungseinheit S approximiert hierzu in einem Schritt S1 eine zu erwartende Zielgröße Quali(B) der ersten Erkennungseinheit B für die Umgebungsdaten U als Eingangssignal E und erhält so eine Güte Quali_pred(BIU). Hierzu wird die zweite Erkennungseinheit S während ihrer Entwicklung oder mittels Flottendaten (beispielsweise in der Cloud oder einem Rechenzentrum) mit Beispieldaten trainiert. Hierbei sind die Eingangsdaten E durch die Umgebungsdaten U und die Zielgröße (engl. label) durch Quali(B) gegeben. Beispielsweise kann die Zielgröße Quali(B) während der Entwicklung die Abweichung zu einer manuell markierten Musterlösung der Erkennung (engl. ground truth) oder bei Flottendaten eine auf Basis weiterer Sensorik approximierte Musterlösung sein.
  • Die Zielgröße Quali(B) kann beispielsweise als ein Gütemaß des maschinellen Lernens definiert werden, das die Güte einer Klassifikation ausgibt. Mögliche Metriken sind Accuracy, False-Positive und False-Negative Rate, Konfidenzmaße, Intersection-Over-Union als Maß für die Überlappung einer Fläche usw. Quali(B|U) ist die Güte der ersten Erkennungseinheit B, gegeben durch die Umgebungsdaten U als Eingangssignal E. Quali_pred(B|U) ist die von der zweiten Erkennungseinheit S prädizierte Güte der ersten Erkennungseinheit B, gegeben durch die Umgebungsdaten U als Eingangssignal E.
  • Um die erwartete Güte der ersten Erkennungseinheit B zu optimieren und den Schwellwert zu erreichen, setzt die zweite Erkennungseinheit S in einem Schritt S2 verschiedene Verfahren des maschinellen Lernens auf Basis von Bilddaten ein. Auf Basis generativer Methoden werden die Umgebungsdaten U als Eingangssignal E mittels prototypischer Referenzbilder, welche zu einer hohen Ergebnisgüte der ersten Erkennungseinheit B führen, im Stil angepasst. Die dabei erhaltenen modifizierten Umgebungsdaten U' werden erneut von der zweiten Erkennungseinheit S geprüft um zu ermitteln, ob die modifizierten Umgebungsdaten U' als Eingangssignal E für die erste Erkennungseinheit B zu einer besseren, über dem Schwellwert liegenden, Erkennungsgüte führen. In diesem Fall werden die modifizierten Umgebungsdaten U' an die erste Erkennungseinheit B zur zusätzlichen Verwendung bei der Erkennung übermittelt. Auf gleiche Weise werden parallel weitere Eingangssignal-Modifikationen geprüft, um festzustellen, ob diese die Erkennungsgüte positiv beeinflussen. Das erwartet beste Ergebnis der modifizierten Umgebungsdaten U' wird jeweils von der zweiten Erkennungseinheit S an die erste Erkennungseinheit B übermittelt.
  • Ein weiteres paralleles Verfahren neben der genannten Stil-Anpassung besteht darin, einzelne, erkannte Objekte anzupassen oder hervorzuheben, basierend auf der erwarteten Begünstigung der Erkennungsgüte der ersten Erkennungseinheit B. Beispielsweise können Fahrzeuge farblich modifiziert werden, wenn die Umgebung selbst eine farbliche Konzentration aufweist. Dies ist der Fall bei wetterbedingt stark verschneiten Umgebungen, beispielsweise wenn die Umgebung primär helle bis weiße Farbnoten beinhaltet. In diesem Fall sind die Fahrzeuge mit gleicher oder ähnlicher Farbe schlechter zu erkennen und können von der zweiten Erkennungseinheit S farblich angepasst werden, beispielsweise mit einer Farbe, die kaum im Eingangssignal E vorhanden ist. Wirkt sich diese Modifikation positiv auf die Erkennungsgüte der ersten Erkennungseinheit B aus und ist im Vergleich zu anderen Modifikationen am besten, so wird das Ergebnis von der zweiten Erkennungseinheit S an die erste Erkennungseinheit B übermittelt.
  • Weitere parallele Eingangssignal-Modifikationen sind u.a. Kontrastverstärkung oder - abschwächung und grundlegende Bildanpassungen, wie Regelung von Gamma-Werten, Filter und Transformationen.
  • Zusätzlich lernt die zweite Erkennungseinheit S in einem Schritt S3 in Form einer Feedback-Schleife zur Optimierung der eigenen Bewertungsfunktion den positiven oder negativen Einfluss der an die erste Erkennungseinheit B übermittelten Eingangssignale E, E'. Wenn die erste Erkennungseinheit B mittels der modifizierten Eingangssignale E' bessere Ergebnisse erzielen konnte, das heißt wenn eine Güte Quali(B|U') auf Basis der modifizierten Umgebungsdaten U' besser ist als eine Güte Quali(B|U) auf Basis der nicht modifizierten Umgebungsdaten U, insbesondere hinsichtlich des ausgeführten zumindest teilweise automatisierten Fahrverhaltens, dann wird die verwendete Modifikations-Methode positiv gewichtet und die Bewertungsfunktion in der zweiten Erkennungseinheit S aktualisiert.
  • Da es das grundsätzliche Ziel ist, dass die erste Erkennungseinheit B die bestmögliche Erkennungsgüte liefert, behält die zweite Erkennungseinheit S einen Satz an Eingangssignalen E vor, bei denen die Güte Quali(B|U') auf Basis der modifizierten Umgebungsdaten U' zu besseren Ergebnissen als die Güte Quali(B|U) auf Basis der nicht modifizierten Umgebungsdaten U geführt hat. Diese Beispiele können dahingehend ausgewertet werden, ob eine nachträgliche Verbesserung der Erkennungsgüte der ersten Erkennungseinheit B grundsätzlich möglich ist oder ob gezielt potentielle Schwachstellen der ersten Erkennungseinheit B identifiziert werden können. Da dies die Gesamtabsicherung der ersten Erkennungseinheit B betrifft, werden solche Verbesserungsmaßnahmen nicht direkt im Fahrbetrieb vorgenommen, sondern nur zu vorgesehenen Service-Intervallen.
  • In einer weiteren Ausführung kann die zweite Erkennungseinheit S zusätzlich (optional oder als Angebot an die Insassen) in einem Schritt S4 das modifizierte Umgebungssignal U' in einem Innenraum des Fahrzeugs 1 anzeigen. Im Fall von teilautomatisierten Fahrfunktionen kann so auch der Fahrer selbst zusätzlich unterstützt werden, falls dieser ebenfalls Schwierigkeiten hat die Fahrsituation visuell eindeutig zu erkennen. Die zweite Erkennungseinheit S trägt somit mit digitalen Mitteln zu Steigerung des Fahrkomforts bei.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102017124600 A1 [0003]

Claims (5)

  1. Verfahren zum Verarbeiten von Umgebungsdaten (U) in einem Fahrzeug (1), das zum hochautomatisierten oder autonomen Fahren konfiguriert ist, wobei die Umgebungsdaten (U) mittels mindestens eines Sensors (2) erfasst und in einer ersten Erkennungseinheit (B) einer Bildverarbeitung unterzogen werden, dadurch gekennzeichnet, dass mittels einer zweiten Erkennungseinheit (S) erwartete Ergebnisse der ersten Erkennungseinheit (B) auf Basis der Umgebungsdaten (U) als deren Eingangssignal (E) überwacht werden, wobei die zweite Erkennungseinheit (S) prädiziert, wie gut die Ergebnisse der ersten Erkennungseinheit (B) auf Basis der Qualität der Umgebungsdaten (U) sein werden, wobei dann, wenn die erwarteten Ergebnisse der ersten Erkennungseinheit (B) als von geringer Güte unterhalb eines definierten Schwellwerts erkannt werden, die Umgebungsdaten (U) von der zweiten Erkennungseinheit (S) modifiziert werden, um die erwartete Güte der ersten Erkennungseinheit (B) zu optimieren und den Schwellwert zu erreichen, oder eine Warnung ausgegeben und die erste Erkennungseinheit (B) deaktiviert wird, wobei die zweite Erkennungseinheit (S) eine zu erwartende Zielgröße der ersten Erkennungseinheit (B) für die Umgebungsdaten (U) approximiert um eine Güte zu erhalten, wobei die zweite Erkennungseinheit (S) während ihrer Entwicklung oder mittels Flottendaten mit Beispieldaten trainiert wird, wobei die Umgebungsdaten (U) von der zweiten Erkennungseinheit (S) auf Basis generativer Methoden mittels prototypischer Referenzbilder, welche zu einer hohen Ergebnisgüte der ersten Erkennungseinheit (B) führen, im Stil angepasst werden oder erkannte Objekte in den Umgebungsdaten (U) farblich hervorgehoben werden oder die Umgebungsdaten (U) durch Kontrastveränderung, Regelung von Gamma-Werten, Filter und/oder Transformationen modifiziert werden, wobei dabei erhaltene modifizierte Umgebungsdaten (U') erneut von der zweiten Erkennungseinheit (S) geprüft werden um zu ermitteln, ob die modifizierten Umgebungsdaten (U') als Eingangssignal (E) für die erste Erkennungseinheit (B) zu einer besseren, über dem Schwellwert liegenden, Erkennungsgüte führen, wobei in diesem Fall die modifizierten Umgebungsdaten (U') an die erste Erkennungseinheit (B) zur zusätzlichen Verwendung bei der Erkennung übermittelt werden, wobei auf gleiche Weise parallel weitere Modifikationen des Eingangssignals (E) geprüft werden, um festzustellen, ob diese die Erkennungsgüte positiv beeinflussen, wobei das erwartet beste Ergebnis der modifizierten Umgebungsdaten (U') jeweils von der zweiten Erkennungseinheit (S) an die erste Erkennungseinheit (B) übermittelt wird, wobei die zweite Erkennungseinheit (S) in Form einer Feedback-Schleife zur Optimierung der eigenen Bewertungsfunktion den positiven oder negativen Einfluss der an die erste Erkennungseinheit (B) übermittelten modifizierten Eingangssignale (E') bewertet, wobei die zweite Erkennungseinheit (S) einen Satz an Eingangssignalen (E') speichert, für die die Erkennungsgüte besser war als für die nicht modifizierten Eingangssignale (E).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Zielgröße während der Entwicklung die Abweichung zu einer manuell markierten Musterlösung der Erkennung oder bei Flottendaten eine auf Basis weiterer Sensorik approximierte Musterlösung ist.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Zielgröße ein Gütemaß des maschinellen Lernens ist, das die Güte einer Klassifikation ausgibt, wobei als Metrik der Güte beispielsweise Accuracy, False-Positive Rate und False-Negative Rate, Confidence Score oder Intersection-Over-Union als Maß für den Schwellwert oder Akzeptanzwert verwendet wird.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die zweite Erkennungseinheit (S) das modifizierte Umgebungssignal (U') in einem Innenraum des Fahrzeugs (1) anzeigt.
  5. Vorrichtung zum Verarbeiten von Umgebungsdaten (U) in einem Fahrzeug (1), das zum hochautomatisierten oder autonomen Fahren konfiguriert ist, umfassend mindestens einen Sensor (2) zum Erfassen der Umgebungsdaten (U), eine erste Erkennungseinheit (B) zur Bildverarbeitung der Umgebungsdaten (U), dadurch gekennzeichnet, dass eine zweite Erkennungseinheit (S) zur Überwachung erwarteter Ergebnisse der ersten Erkennungseinheit (B) auf Basis der Umgebungsdaten (U) als deren Eingangssignal (E) vorgesehen ist, wobei die Vorrichtung zur Durchführung des Verfahrens nach einem der vorhergehenden Ansprüche konfiguriert ist.
DE102021004931.4A 2021-10-01 2021-10-01 Verfahren zum Verarbeiten von Umgebungsdaten in einem Fahrzeug Pending DE102021004931A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021004931.4A DE102021004931A1 (de) 2021-10-01 2021-10-01 Verfahren zum Verarbeiten von Umgebungsdaten in einem Fahrzeug

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021004931.4A DE102021004931A1 (de) 2021-10-01 2021-10-01 Verfahren zum Verarbeiten von Umgebungsdaten in einem Fahrzeug

Publications (1)

Publication Number Publication Date
DE102021004931A1 true DE102021004931A1 (de) 2021-12-09

Family

ID=78605444

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021004931.4A Pending DE102021004931A1 (de) 2021-10-01 2021-10-01 Verfahren zum Verarbeiten von Umgebungsdaten in einem Fahrzeug

Country Status (1)

Country Link
DE (1) DE102021004931A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017124600A1 (de) 2017-10-20 2019-04-25 Connaught Electronics Ltd. Semantische Segmentierung eines Objekts in einem Bild

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017124600A1 (de) 2017-10-20 2019-04-25 Connaught Electronics Ltd. Semantische Segmentierung eines Objekts in einem Bild

Similar Documents

Publication Publication Date Title
DE102018206208A1 (de) Verfahren, Vorrichtung, Erzeugnis und Computerprogramm zum Betreiben eines technischen Systems
DE102017218889A1 (de) Unscharf parametriertes KI-Modul sowie Verfahren zum Betreiben
DE102020126554A1 (de) Mikroskopiesystem und verfahren zum überprüfen von eingabedaten
DE102012206037A1 (de) Lernverfahren zur automatisierten Erkennung von Verkehrszeichen, Verfahren zur Bestimmung eines aktualisierten Parametersatzes für eine Klassifikation von einem Verkehrszeichen und Verkehrszeichenerkennungssystem
DE102019204139A1 (de) Training für künstliche neuronale Netzwerke mit besserer Ausnutzung der Lern-Datensätze
DE102017217072B4 (de) Verfahren zum Erkennen eines Witterungsverhältnisses in einer Umgebung eines Kraftfahrzeugs sowie Steuervorrichtung und Kraftfahrzeug
DE102020215860A1 (de) Korrektur von Bildern eines Rundumsichtkamerasystems bei Regen, Lichteinfall und Verschmutzung
DE102008026876A1 (de) Stereokamerasystem und Verfahren zum Ermitteln mindestens eines Kalibrierfehlers eines Stereokamerasystems
DE102016120066A1 (de) Computer-implementiertes Verfahren zum Kontrollieren bzw. Testen eines Objekterkennungssystems
DE102020132106A1 (de) System und verfahren zum betrieb eines gaussschen bildqualitätsanalysesystems
DE102021004931A1 (de) Verfahren zum Verarbeiten von Umgebungsdaten in einem Fahrzeug
WO2022128013A1 (de) Korrektur von bildern einer kamera bei regen, lichteinfall und verschmutzung
DE102021204040A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erstellung von Trainingsdaten im Fahrzeug
WO2020164841A1 (de) Verfahren zum bereitstellen einer trainingsdatensatzmenge, ein verfahren zum trainieren eines klassifikators, ein verfahren zum steuern eines fahrzeugs, ein computerlesbares speichermedium und ein fahrzeug
DE102019103192A1 (de) Verfahren zum Erzeugen von Trainingsdaten für ein digitales, lernfähiges Kamerasystem
WO2021122337A1 (de) Verfahren und vorrichtung zum erkennen einer entfremdung einer sensordatendomäne von einer referenzdatendomäne
EP4049186A1 (de) Verfahren zum robustifizieren eines neuronalen netzes gegen adversariale störungen
DE102021213097B3 (de) Verfahren zum Klassifizieren von Objekten in einem Bild, welches die Fahrbahn im Vorfeld eines Kraftfahrzeugs zeigt
DE102019207575A1 (de) Verfahren zum Beurteilen einer funktionsspezifischen Robustheit eines Neuronalen Netzes
DE102019102423A1 (de) Verfahren zur Live-Annotation von Sensordaten
DE102018204881A1 (de) Verfahren zur Objekterkennung für ein Fahrzeug mit einer Thermografiekamera und modifizierter Entrauschungsfilter
DE102007021577A1 (de) Verfahren und Vorrichtung zur Verkehrszeichenerkennung
DE102021115251A1 (de) Erzeugen eines Eingangsbilds für einen Algorithmus zur Computer-Vision
EP3781996A1 (de) Verfahren, computersystem und computerprogramm zum steuern eines aktors
DE102021130505A1 (de) Verfahren zur Bestimmung einer Beleuchtungsfarbe, Bildverarbeitungsvorrichtung und Aufnahmesystem

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R230 Request for early publication
R081 Change of applicant/patentee

Owner name: MERCEDES-BENZ GROUP AG, DE

Free format text: FORMER OWNER: DAIMLER AG, STUTTGART, DE

R012 Request for examination validly filed