DE102021214474A1 - Computerimplementiertes verfahren zur optimierung eines algorithmus zum erkennen eines interessierenden objekts ausserhalb eines fahrzeugs - Google Patents

Computerimplementiertes verfahren zur optimierung eines algorithmus zum erkennen eines interessierenden objekts ausserhalb eines fahrzeugs Download PDF

Info

Publication number
DE102021214474A1
DE102021214474A1 DE102021214474.8A DE102021214474A DE102021214474A1 DE 102021214474 A1 DE102021214474 A1 DE 102021214474A1 DE 102021214474 A DE102021214474 A DE 102021214474A DE 102021214474 A1 DE102021214474 A1 DE 102021214474A1
Authority
DE
Germany
Prior art keywords
algorithm
sensor
scenes
interest
subset
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102021214474.8A
Other languages
English (en)
Inventor
Andreas Weinlich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Continental Automotive Technologies GmbH
Original Assignee
Continental Automotive Technologies GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Continental Automotive Technologies GmbH filed Critical Continental Automotive Technologies GmbH
Priority to DE102021214474.8A priority Critical patent/DE102021214474A1/de
Publication of DE102021214474A1 publication Critical patent/DE102021214474A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting

Abstract

Es wird ein computerimplementiertes Verfahren zur Optimierung eines Algorithmus zum Erkennen eines interessierenden Objekts außerhalb eines Fahrzeugs bereitgestellt. Es wird ein Satz von Trainingsdaten erzeugt, umfassend: (i) erste, mehreren Szenen entsprechende Daten, die durch einen ersten Sensor erfasst wurden, und (ii) zweite, den mehreren Szenen entsprechende Daten, die durch einen zweiten Sensor erfasst wurden. Es wird - entsprechend unter Verwendung des ersten oder des zweiten Algorithmus - ein erster und ein zweiter Satz der mehreren Szenen bestimmt, in dem ein interessierendes Objekt erkannt wird. Es wird eine Untergruppe der mehreren Szenen als eine symmetrische Differenz des ersten und des zweiten Satzes bestimmt. Es werden Kennzeichnungsinformationen, die Kennzeichnungen entsprechen, die interessierenden Objekten in der Untergruppe von Szenen zugewiesen sind, empfangen. Basierend auf der Untergruppe und den Kennzeichnungsinformationen werden Parameter des ersten Algorithmus optimiert.

Description

  • HINTERGRUND
  • Um Eingaben für Fahrfunktionen in hochgradig automatisierten Fahrszenarien bereitzustellen, ist es notwendig, dass ein Fahrzeug interessierende Objekte, wie Verkehrsteilnehmer (andere Fahrzeuge, verletzbare Straßennutzer), nicht überfahrbare Gegebenheiten (Verschmutzungen/Gegenstände, Tiere), Regelungsobjekte (Verkehrszeichen, Spuren) sowie freien Raum (potenziell befahrbare Teile der Straße, Teile der Straße, die befahren werden dürfen), in seiner Nähe zuverlässig erkennt.
  • Systeme des Standes der Technik sind aus mehreren Sensoren zusammengesetzt, die diese Objekte fusionieren, um zuverlässigere Erkennungen zu erreichen. Einige dieser Sensoren sind basierend auf Algorithmen des maschinellen Lernens, wie neuronalen Netzen, implementiert, d. h. die Algorithmen werden unter Verwendung von Trainingsdaten trainiert. Solche Daten können beispielsweise erhalten werden, indem unbearbeitete Sensoreingangsdaten aufgezeichnet und diese Daten manuell gekennzeichnet werden. Die Trainingsdaten können dazu verwendet werden, einen Satz von Parametern eines Algorithmus auf automatische Weise zu optimieren, sodass der Sensor, der den optimierten Algorithmus verwendet, beim Erkennen der interessierenden Objekte die beste Leistung bereitstellt.
  • Die Leistung wird dabei typischerweise mit zwei Leistungsindikatoren gemessen:
    • • Richtig-positiv-Rate (engl. true positive rate - TPR) = Anzahl korrekt erkannter interessierender Objekte, geteilt durch die Anzahl aller in den Trainingsdaten vorhandenen Objekte. Eine Maximierung der Richtig-positiv-Rate entspricht einer Minimierung der Falsch-negativ-Rate.
    • • Falsch-positiv-Rate (engl. false positive rate - FPR) = Anzahl an Erkennungen, wo in Wirklichkeit kein interessierendes Objekt in dem Training vorhanden ist. Die Falsch-positiv-Rate kann auf eine bestimmte Fahrzeit, eine bestimmte zurückgelegte Entfernung oder auf die Gesamtzahl von Erkennungen, die das System bereitstellt, normalisiert (durch diese geteilt) werden.
  • Das Ziel der Optimierung des Algorithmus ist es, die TPR zu maximieren und gleichzeitig die FPR zu minimieren. Da diese Ziele einander widersprechen, können durch Modifizieren eines Erkennungsempfindlichkeitsparameters die meisten Algorithmen so angepasst werden, dass sie insgesamt mehr Objekte erkennen, wodurch beide Leistungsindikatoren höher ausfallen, oder so angepasst werden, dass sie insgesamt weniger Objekte erkennen, wodurch beide Leistungsindikatoren niedriger ausfallen.
  • Für eine gute Gesamtleistung, d. h. eine hohe TPR und eine niedrige FPR muss entweder mit einer großen Menge an Trainingsdaten gearbeitet werden oder wenigstens ein großer Bereich der möglichen Variationen des Erscheinungsbildes, die in realen Umgebungen auftreten, abgedeckt sein, um eine gute Verallgemeinerung zu erlauben. Da das Kennzeichnen typischerweise kostspielig ist (geldliche Kosten und/oder Verarbeitungsleistung), ist es jedoch auch wichtig, die Menge an Trainingsdaten so klein wie möglich zu halten.
  • Der Erfindung liegt daher die Aufgabe zugrunde, die Menge an Trainingsdaten zur Optimierung eines solchen Algorithmus zu reduzieren und dennoch eine gute Gesamtleistung zu erhalten.
  • KURZDARSTELLUNG
  • Die Aufgabe der Erfindung wird gelöst, indem ein Verfahren nach Anspruch 1 bereitgestellt wird.
  • In einer Ausführungsform wird ein computerimplementiertes Verfahren zur Optimierung eines Algorithmus zum Erkennen eines interessierenden Objekts außerhalb eines Fahrzeugs bereitgestellt, das folgende Schritte umfasst:
    1. a) Bereitstellen eines ersten Algorithmus zum Erkennen eines interessierenden Objekts in einer Szene basierend auf Sensordaten, die durch einen ersten Sensor bereitgestellt werden, und eines zweiten Algorithmus zum Erkennen eines interessierenden Objekts in einer Szene basierend auf Sensordaten, die durch einen zweiten Sensor bereitgestellt werden;
    2. b) Erzeugen eines Satzes von Trainingsdaten, umfassend: (i) erste, mehreren Szenen entsprechende Daten, die durch einen ersten Sensor erfasst wurden, und (ii) zweite, den mehreren Szenen entsprechende Daten, die durch einen zweiten Sensor erfasst wurden;
    3. c) Auswählen einer Untergruppe des Satzes von Trainingsdaten, die einer Untergruppe der mehreren Szenen entspricht;
    4. d) Empfangen von Kennzeichnungsinformationen, die Kennzeichnungen entsprechen, die interessierenden Objekten in der Untergruppe von Szenen zugewiesen sind;
    5. e) Optimieren von Parametern des ersten Algorithmus basierend auf der Untergruppe von Trainingsdaten und den Kennzeichnungsinformationen; wobei Schritt c) folgende Schritte umfasst:
      • c1) Bestimmen eines ersten Satzes der mehreren Szenen, in dem ein interessierendes Objekt erkannt wird, unter Verwendung des ersten Algorithmus;
      • c2) Bestimmen eines zweiten Satzes der mehreren Szenen, in dem ein interessierendes Objekt erkannt wird, unter Verwendung des zweiten Algorithmus;
      • c3) Bestimmen der Untergruppe der mehreren Szenen als einer symmetrischen Differenz des ersten und des zweiten Satzes;
      • c4) Bestimmen der Untergruppe von Trainingsdaten, die der Untergruppe der mehreren Szenen entsprechen.
  • Ein Algorithmus kann als eine endliche Folge gut definierter, computerimplementierbarer Anweisungen, die basierend auf einer Eingabe eine Ausgabe erzeugen können, verstanden werden. Die Anweisung kann Parameter des Algorithmus aufweisen oder durch solche gekennzeichnet sein. Eine Änderung der Parameter des Algorithmus kann die Ausgabe des Algorithmus beeinflussen.
  • Eine Szene kann als eine Darstellung eines Teils der Welt, die durch einen oder mehrere Sensoren erfasst wurde, verstanden werden. Ein Beispiel ist ein Bild, das durch eine Kamera aufgenommen wurde, ein Radarbild, das durch ein Radar aufgenommen wurde, oder ein Einzelbild in einem Film, der durch eine Kamera aufgenommen wurde. Beispiele für einen Sensor (einen ersten oder einen zweiten Sensor) sind ein Radar, ein Lidar und eine Kamera. Es kann wünschenswert sein, über Sensoren zu verfügen, die imstande sind, interessierende Objekte in einem Teil der Welt, also in einer durch einen solchen Sensor erfassten Szene, zu erkennen, und zwar unter Verwendung ihres Algorithmus zum Erkennen eines interessierenden Objekts in einer Szene.
  • Ein Algorithmus zum Erkennen eines interessierenden Objekts in einer Szene kann optimiert werden, indem seine Parameter geändert werden, sodass die Ausgabe des Algorithmus besser der tatsächlichen Situation in der Welt entspricht, d. h. seine Leistung verbessert wird. Für diese Optimierung kann ein Satz von Trainingsdaten verwendet werden, der Daten von einem ersten Sensor und einem zweiten Sensor, die eine oder mehrere gleiche Szenen betreffen, umfasst. In einer oder mehreren Ausführungsformen kann der Algorithmus des zweiten Sensors (d. h. der zweite Algorithmus) bereits optimiert worden sein und zur Optimierung des Algorithmus des ersten Sensors (d. h. des ersten Algorithmus) verwendet werden.
  • In einer oder mehreren Ausführungsformen umfasst das Erkennen eines interessierenden Objekts in einer Szene (i) Erkennen einer Position eines interessierenden Objekts in einer Szene und/oder (ii) Zuweisen einer Objektklasse zu dem interessierenden Objekt. Beispiele für Objektklassen sind Fahrzeuge, Fußgänger, Abfallbehälter, Ampeln, Fahrräder, Bäume, Gebäude usw.
  • Die Trainingsdaten können erhalten werden, indem ein Fahrzeug mit dem ersten und dem zweiten Sensor ausgestattet wird und das Fahrzeug über eine gewisse Entfernung gefahren wird, während der erste und zweite Sensor Daten erfassen. Die Trainingsdaten können beispielsweise einer Entfernung von 5000 km entsprechen.
  • Die Szenen, für die sowohl der erste als auch der zweite Sensor das gleiche interessierende Objekt erkennen, sind zur Optimierung des ersten Algorithmus weniger relevant. Es kann vielmehr erwartet werden, dass der erste Algorithmus eine korrekte Ausgabe für diese Szenen erzeugt hat.
  • Das Gleiche gilt für Szenen, für die sowohl der erste als auch der zweite Sensor das interessierende Objekt nicht erkennen. Daher wird nur eine Untergruppe von Szenen für die weitere Verarbeitung ausgewählt, für die ein Sensor - der erste oder der zweite - ein interessierendes Objekt erkannt hat und der andere Sensor - der erste oder der zweite - das interessierende Objekt nicht erkannt hat.
  • Für die Szenen der Untergruppe werden Kennzeichnungsinformationen empfangen. Die Kennzeichnungsinformationen entsprechen Kennzeichnungen, die interessierenden Objekten in der Untergruppe zugewiesen sind. Eine Kennzeichnung gibt an, dass ein interessierendes Objekt tatsächlich in einer Szene vorhanden ist. In einer oder mehreren Ausführungsformen gibt die Kennzeichnung auch eine Klasse von Objekten an, der das interessierende Objekt zugewiesen ist. In einer oder mehreren Ausführungsformen kann die Kennzeichnung auch eine Position eines interessierenden Objekts in der Szene angeben. Kennzeichnungsinformationen können von einem dritten Algorithmus empfangen werden oder aus einer Einschätzung durch einen Menschen empfangen werden.
  • Die Kennzeichnungsinformationen können daher dazu verwendet werden zu bestimmen, ob der erste Algorithmus die korrekte Ausgabe für eine Szene in der Untergruppe erzeugt hat. In einer oder mehreren Ausführungsformen können die Kennzeichnungsinformationen auch dazu verwendet werden zu bestimmen, ob der zweite Algorithmus die korrekte Ausgabe für eine Szene erzeugt hat.
  • Auf der Basis der Untergruppe von Trainingsdaten (die der Untergruppe von Szenen entspricht) und der Kennzeichnungsinformationen können also die Parameter des ersten Algorithmus optimiert werden. Wenn ein optimierter erster Algorithmus für die Untergruppe von Szenen angewendet wird, kann erwartet werden, dass seine Ausgabe besser den Kennzeichnungsinformationen entspricht.
  • Es wäre möglich, den ersten Algorithmus auf der Basis aller Trainingsdaten zu optimieren, wenn für alle Szenen Kennzeichnungsinformationen bereitgestellt werden. Die Erzeugung von Kennzeichnungsinformationen kann jedoch kostspielig sein - in Hinblick auf die Verarbeitungsleistung, in zeitlicher und/oder geldlicher Hinsicht. Ein Vorteil des Auswählens einer Untergruppe von Szenen gemäß der Erfindung ist es, dass für weniger Szenen Kennzeichnungsinformationen erforderlich sind. Aufgrund der Art und Weise, in der die Untergruppe ausgewählt wird, ist die Untergruppe von Szenen für die Optimierung hochgradig relevant.
  • Der optimierte erste Algorithmus (d. h. der erste Algorithmus mit optimierten Parametern) kann validiert werden. In einer oder mehreren Ausführungsformen wird ein Satz von Validierungsdaten, der andere Daten als den Satz von Trainingsdaten umfassen kann, für die Validierung verwendet.
  • In einer oder mehreren Ausführungsformen werden die Schritte c), d) und e) vor Schritt f) wenigstens einmal wiederholt, wobei in Schritt c1) der erste Algorithmus mit optimierten Parametern verwendet wird. Ein Vorteil dessen ist eine weitere Verbesserung der Parameter während jeder Iteration und somit eine Verbesserung des ersten Algorithmus.
  • In einer oder mehreren Ausführungsformen umfasst Schritt c) ferner Schritt c0) Einstellen einer ersten Empfindlichkeit des ersten Algorithmus und/oder einer zweiten Empfindlichkeit des zweiten Algorithmus.
  • Im Allgemeinen kann eine Empfindlichkeit eines Algorithmus zum Erkennen eines interessierenden Objekts die Anzahl an durch diesen Algorithmus erkannten Objekten für einen bestimmten Datensatz betreffen. Eine höhere Empfindlichkeit hat mehr erkannte Objekte zur Folge als eine niedrigere Empfindlichkeit. Die Empfindlichkeit eines Algorithmus kann durch Einstellen eines oder mehrerer Parameter des Algorithmus eingestellt werden.
  • In einer oder mehreren Ausführungsformen kann der erste Sensor eine Kamera oder eine Radarvorrichtung sein und der zweite Sensor eine Radarvorrichtung oder eine Kamera sein. In einer oder mehreren Ausführungsformen ist/sind der erste Sensor und/oder der zweite Sensor an oder im Inneren einem/s Fahrzeug(s) befestigt. In einer oder mehreren Ausführungsformen umfasst das Verfahren ferner ein Bereitstellen des ersten Algorithmus mit optimierten Parametern für Produktionseinheiten des ersten Sensors.
  • Figurenliste
  • Für ein umfassenderes Verständnis der vorliegenden Erfindung wird in der folgenden Beschreibung auf die beigefügten Zeichnungen Bezug genommen. Es zeigt:
    • 1 eine schematische Übersicht einer Ausführungsform des Verfahrens zur Optimierung eines Algorithmus zum Erkennen eines interessierenden Objekts außerhalb eines Fahrzeugs;
    • 2 eine schematische Übersicht eines Beispiels einer Szene, die durch den ersten Sensor erfasst wurde; und
    • 3 eine schematische Übersicht der Szene von 2, die durch den zweiten Sensor erfasst wurde.
  • AUSFÜHRLICHE BESCHREIBUNG
  • 1 zeigt eine schematische Übersicht einer Ausführungsform des Verfahrens 100 zur Optimierung eines Algorithmus zum Erkennen eines interessierenden Objekts außerhalb eines Fahrzeugs 220. In einer oder mehreren Ausführungsformen ist das Fahrzeug 220 mit einem ersten Sensor 222 und einem zweiten Sensor 225 ausgestattet (siehe 2 und 3).
  • In einer oder mehreren Ausführungsformen ist der erste Sensor 222 ein Radar und der zweite Sensor eine Videokamera. In einer oder mehreren Ausführungsformen werden mehr als zwei Sensoren verwendet. Der zusätzliche Sensor mit ihren zusätzlichen Algorithmen kann (mit zusätzlichen Daten in den Trainingsdaten, Kennzeichnungsinformationen usw.) dazu verwendet werden, die Auswahl der Szenen zum Ausbilden der Untergruppe zu verbessern oder diese Algorithmen basierend auf den Trainingsdaten und den Kennzeichnungsinformationen zu verbessern.
  • Beispiele für interessierende Objekte können eine Ampel 210 oder ein Fußgänger 230 sein. In einer oder mehreren Ausführungsformen kann das Fahrzeug 220 ein Pkw, ein Motorrad, ein Transporter, ein Lkw, ein Fahrrad oder ein Motorroller sein.
  • In Schritt 110 ein erster Algorithmus zum Erkennen eines interessierenden Objekts in einer Szene basierend auf Sensordaten, die durch einen ersten Sensor 222 bereitgestellt werden, und ein zweiter Algorithmus zum Erkennen eines interessierenden Objekts in einer Szene 200 basierend auf Sensordaten, die durch einen zweiten Sensor 225 bereitgestellt werden. In einer oder mehreren Ausführungsformen sind der erste und/oder der zweite Algorithmus mit anfänglichen oder vorgegebenen Parametern ausgestattet.
  • In Schritt 120 wird ein Satz von Trainingsdaten erzeugt, wobei der Satz von Trainingsdaten umfasst: (i) erste, mehreren Szenen entsprechende Daten, die durch einen ersten Sensor 222 erfasst wurden, und (ii) zweite, den mehreren Szenen entsprechende Daten, die durch einen zweiten Sensor 225 erfasst wurden.
  • In einer oder mehreren Ausführungsformen können die Trainingsdaten erzeugt werden, indem durch Fahren mit einem Fahrzeug im realen Verkehr Kilometer von Video- und Radarbildern aufgezeichnet werden.
  • 2 zeigt eine schematische Übersicht einer Szene 200, wie durch den ersten Sensor 222 erfasst. Die Szene 200 ist ein Beispiel der mehreren Szenen, die sowohl durch den ersten zweiten 222 als auch den zweiten Sensor 225 erfasst werden. 3 zeigt eine schematische Übersicht der gleichen Szene 200, aber jetzt wie durch den zweiten Sensor 225 erfasst.
  • In Schritt 130 wird eine Untergruppe des Satzes von Trainingsdaten, die einer Untergruppe der mehreren Szenen entspricht, ausgewählt. Schritt 130 umfasst die folgenden Schritte:
    • In Schritt 131 wird unter Verwendung des ersten Algorithmus ein erster Satz der mehreren Szenen, in dem ein interessierendes Objekt erkannt wird, bestimmt.
  • 2 zeigt eine schematische Übersicht einer solchen Szene 200 der mehreren Szenen. In dieser Übersicht wurden unter Verwendung des ersten Detektors und des ersten Algorithmus zwei interessierende Objekte 240 und 210 erkannt. Das Objekt 210 wurde korrekt erkannt. Das Objekt 240 wurde inkorrekt erkannt, da in der eigentlichen Szene kein Objekt an dieser Stelle in der Szene vorhanden ist. Ein drittes Objekt 230 ist in der Szene vorhanden, wird aber nicht erkannt.
  • In Schritt 132 wird unter Verwendung des zweiten Algorithmus ein zweiter Satz der mehreren Szenen, in dem ein interessierendes Objekt erkannt wird, bestimmt. 3 zeigt eine schematische Übersicht der Szene 200 der mehreren Szenen. In dieser Übersicht wurden unter Verwendung des zweiten Detektors und des zweiten Algorithmus zwei interessierende Objekte 230 und 210 erkannt. Das Objekt 210 wurde erneut korrekt erkannt. Auch das Objekt 230 wurde korrekt erkannt und es wurde kein Objekt 240 erkannt.
  • In Schritt 133 wird eine Untergruppe der mehreren Szenen als eine symmetrische Differenz des ersten und des zweiten Satzes bestimmt. Mit anderen Worten umfasst die Untergruppe Szenen, für die ein Sensor - der erste oder der zweite - ein interessierendes Objekt erkannt hat und der andere Sensor - der erste oder der zweite - das interessierende Objekt nicht erkannt hat.
  • Also wäre, wenn die Szene 200 nur die Ampel 210 umfassen würde, die Szene 200 nicht Teil der Untergruppe, weil sowohl der erste als auch der zweite Sensor das Objekt 210 erkannt haben. Wenn der zweite Detektor mit dem zweiten Algorithmus ein Objekt 230 erkennen würde, aber der erste Detektor mit dem ersten Algorithmus das Objekt 230 nicht erkennen würde, wäre die Szene 200 Teil der Untergruppe. Wenn der zweite Detektor mit dem zweiten Algorithmus kein Objekt 240 erkennen würde, aber der erste Detektor mit dem ersten Algorithmus ein Objekt 240 erkennen würde, wäre die Szene 200 ebenfalls Teil der Untergruppe.
  • In einer oder mehreren Ausführungsformen kann eine korrekte Erkennung eines interessierenden Objekts in einer Szene Folgendes umfassen: (i) korrektes Erkennen des Vorhandenseins eines interessierenden Objekts, (ii) Bestimmen der korrekten Position des Objekts in der Szene und/oder (iii) Bestimmen der korrekten Klasse von Objekten für das Objekt.
  • In einer oder mehreren Ausführungsformen umfasst Schritt 130 ferner Schritt 135, in dem eine erste Empfindlichkeit des ersten Algorithmus und/oder eine zweite Empfindlichkeit des zweiten Algorithmus eingestellt wird.
  • Auf diese Weise kann die Auswahl von Szenen in die Untergruppe von Szenen angepasst werden. Wenn die Empfindlichkeit des ersten Algorithmus erhöht wird, nimmt die Anzahl an Szenen, für die der erste Algorithmus ein interessierendes Objekt erkennt, zu, und wenn die Empfindlichkeit des zweiten Algorithmus verringert wird, nimmt die Anzahl an Szenen, für die der zweite Algorithmus ein interessierendes Objekt erkennt, ab. Dies kann dazu beitragen, Szenen auszuwählen, die eine Reduzierung der FPR des ersten Algorithmus unterstützen können.
  • Umgekehrt hat eine Verringerung der Empfindlichkeit des ersten Algorithmus und Erhöhung der Empfindlichkeit des zweiten Algorithmus mehr Szenen, für die der erste Algorithmus kein interessierendes Objekt erkennt, und mehr Szenen, für die der zweite Algorithmus ein interessierendes Objekt erkennt, zur Folge. Dies kann dazu beitragen, Szenen auszuwählen, die eine Erhöhung der TPR des ersten Algorithmus unterstützen können.
  • In einer oder mehreren Ausführungsformen wird die Empfindlichkeit des ersten und/oder des zweiten Algorithmus so eingestellt, dass die Anzahl ausgewählter Szenen in der Untergruppe einem vorgegebenen Wert entspricht. In einer oder mehreren Ausführungsformen ist dieser vorgegebene Wert die Anzahl an Szenen, für die in einer bestimmten Zeitspanne, für einen bestimmten Geldbetrag usw. Kennzeichnungsinformationen bereitgestellt werden können. Insbesondere im Fall einer Iteration von Schritten des Verfahrens (siehe unten) kann es vorteilhaft sein, die Anzahl an Szenen in der Untergruppe zu begrenzen.
  • In Schritt 134 wird eine Untergruppe von Trainingsdaten bestimmt, die der Untergruppe der mehreren Szenen entsprechen. Die Untergruppe von Trainingsdaten wird zur Optimierung der Parameter des ersten Algorithmus verwendet.
  • In Schritt 140 werden Kennzeichnungsinformationen empfangen, die Kennzeichnungen entsprechen, die interessierenden Objekten in der Untergruppe von Szenen zugewiesen sind. In dem Beispiel der 2 und 3, die beide die gleiche Szene betreffen, kann dem Objekt 210 eine Kennzeichnung zugewiesen sein und dem Objekt 230 eine Kennzeichnung zugewiesen sein. In einer oder mehreren Ausführungsformen kann eine einem Objekt zugewiesene Kennzeichnung angeben, dass ein interessierendes Objekt vorhanden ist, Informationen über eine Position des Objekts in der Szene und die Klasse von Objekten, der das interessierende Objekt zugewiesen ist, bereitstellen. Die Kennzeichnungsinformationen werden in Bezug auf die tatsächliche Situation in der Welt als korrekt eingestuft und zur Optimierung der Parameter des ersten Algorithmus verwendet.
  • Beispielsweise kann die dem Objekt 210 zugewiesene Kennzeichnung angeben, dass das Objekt 210 eine Ampel ist, und die dem Objekt 230 zugewiesene Kennzeichnung angeben, dass das Objekt 210 ein Fußgänger ist.
  • In einer oder mehreren Ausführungsformen werden Kennzeichnungsinformationen von Experten erzeugt, welche die Szenen der Untergruppe von Szenen anschauen, Kästen um die interessierenden Objekte herum zeichnen (die Position des Objekts bestimmen) und optional für jeden Kasten Informationen über die Klasse von Objekten, der das interessierende Objekt zugewiesen werden kann, bereitstellen. In einer oder mehreren Ausführungsformen werden die Kästen und/oder die Objekte unter Verwendung von Schwarmauslagerung (engl. crowdsourcing), wie etwa Captchas, identifiziert.
  • In Schritt 150 werden Parameter des ersten Algorithmus basierend auf der Untergruppe von Trainingsdaten und den Kennzeichnungsinformationen optimiert.
  • In einer oder mehreren Ausführungsformen umfasst Schritt 150 ferner ein Optimieren von Parametern des zweiten Algorithmus basierend auf der Untergruppe von Trainingsdaten und den Kennzeichnungsinformationen.
  • In einer oder mehreren Ausführungsformen werden die Parameter des ersten Algorithmus und die Parameter des zweiten Algorithmus basierend auf der Untergruppe von Trainingsdaten und den Kennzeichnungsinformationen optimiert, sodass die Erkennung interessierender Objekte durch die Kombination des ersten Sensors mit dem ersten Algorithmus und des zweiten Sensors mit dem zweiten Algorithmus verbessert wird.
  • In diesem Fall kann die Erkennung interessierender Objekte durch jeden Sensor für sich, aber auch die Erkennung interessierender Objekte durch ein Fusionssystem von Sensoren verbessert werden. Im letztgenannten Fall kann gesagt werden, dass Parameter eines Fusionsalgorithmus (einer Kombination des ersten und des zweiten Algorithmus) basierend auf der Untergruppe von Trainingsdaten und den Kennzeichnungsinformationen optimiert werden.
  • Beispielsweise kann es der Fall sein, dass einer des Fusionssystems von Sensoren einen systematischen Fehler aufweist. Dieser systematische Fehler eines ersten Sensors kann unter bestimmten Umständen durch einen zweiten Sensor korrigiert werden, während es unter anderen Umständen der systematische Fehler des zweiten Sensors sein kann, der durch den ersten Sensor korrigiert wird.
  • Beispielweise kann es für eine Radarvorrichtung mit ihrem Algorithmus schwierig sein, einen Fußgänger von einem Abfallbehälter zu unterscheiden, während es für eine Kamera mit ihrem Algorithmus einfach (oder einfacher) sein kann, diese aufgrund ihres unterschiedlichen Erscheinungsbildes zu unterscheiden.
  • In einem Fusionssystem dieser zwei Sensoren kann es der Fall sein, dass, wenn die Radarvorrichtung einen Abfallbehälter erkennt und die Kamera einen Fußgänger erkennt, die Erkennung der Kamera als korrekt (oder als mit größerer Wahrscheinlichkeit korrekt) eingestuft wird, da Kameras beim Unterscheiden von Fußgängern von Abfallbehältern zuverlässiger sind als Radar. Unter Verwendung einer oder mehrerer Ausführungsformen des Verfahrens 100 können die Parameter eines Fusionsalgorithmus jedoch so optimiert werden, dass in Fällen wie dem obigen die Erkennung der Kamera als korrekt (oder als mit größerer Wahrscheinlichkeit korrekt) eingestuft und entsprechend verarbeitet wird.
  • In einer oder mehreren Ausführungsformen werden die Schritte 130, 140 und 150 wiederholt oder mehrfach durchgeführt, wobei in jeder nächsten Iteration der erste Algorithmus mit Parametern verwendet wird, die in der vorherigen Iteration optimiert wurden.
  • Das Verfahren kann ferner einen Schritt 160 umfassen, in dem der erste Algorithmus mit den optimierten Parametern gegen einen Satz von Validierungsdaten validiert wird. Häufig umfasst der Validierungssatz keine der Trainingsdaten.
  • In einer oder mehreren Ausführungsformen umfasst das Verfahren 100 ferner einen Schritt 170, in dem der erste Algorithmus mit optimierten Parametern Produktionseinheiten des ersten Sensors bereitgestellt wird.
  • Dem Fachmann ist klar, dass die verschiedenen illustrativen Logikblöcke, Module, Schaltungen und Algorithmusschritte, die in Verbindung mit den hierin offenbarten Ausführungsformen beschrieben sind, als elektronische Hardware, Computersoftware oder Kombinationen aus beiden implementiert werden können. Um diese Auswechselbarkeit von Hardware und Software deutlich zu machen, wurden oben verschiedene illustrative Komponenten, Blöcke, Module, Schaltungen und Schritte allgemein im Hinblick auf ihre Funktionalität beschrieben. Ob diese Funktionalität als Hardware oder Software implementiert wird, hängt von der/n konkreten Anwendung und konstruktionsbezogenen Einschränkungen ab, denen das Gesamtsystem unterliegt. Der Fachmann kann die beschriebene Funktionalität für jede konkrete Anwendung auf unterschiedliche Weise implementieren, aber solche Implementierungsentscheidungen sollten nicht als ein Verlassen des Schutzbereichs der vorliegenden Erfindung bewirkend ausgelegt werden.
  • Die vorstehende Beschreibung der offenbarten Ausführungsformen wird bereitgestellt, damit der Fachmann die vorliegende Erfindung ausführen oder verwenden kann. Verschiedene Abwandlungen dieser Ausführungsformen sind für den Fachmann offensichtlich und die hierin definierten übergreifenden Prinzipien können für andere Ausführungsformen angewendet werden, ohne vom Grundgedanken der Erfindung abzuweichen oder deren Schutzbereich zu verlassen. Die vorliegende Erfindung soll somit nicht auf die hierin gezeigten Ausführungsformen beschränkt sein, sondern ihr ist der weiteste Schutzbereich zu gewähren, der mit den hierin offenbarten Prinzipien und neuen Merkmalen vereinbar ist.
  • Die günstigen Wirkungen und Vorteile, die durch die vorliegende Erfindung bereitgestellt werden können, wurden oben in Bezug auf konkrete Ausführungsformen beschrieben. Diese günstigen Wirkungen und Vorteile und alle Elemente oder Einschränkungen, die bewirken können, dass diese eintreten oder sich verstärken, sind nicht als kritische, erforderliche oder wesentliche Merkmale eines oder aller Ansprüche auszulegen. Wie hierin verwendet, sollen die Begriffe „umfasst“, „umfassend“ oder alle anderen Formen davon als nicht ausschließlich die Elemente oder Einschränkungen, die diesen Begriffen folgen, umfassend ausgelegt werden. Dementsprechend ist ein System, Verfahren oder eine andere Ausführungsform, die eine Gruppe von Elementen umfasst, nicht auf nur diese Elemente beschränkt, sondern kann andere, nicht ausdrücklich aufgeführte oder der beanspruchten Ausführungsform innewohnende Elemente umfassen.
  • Auch wenn die vorliegende Erfindung unter Bezugnahme auf konkrete Ausführungsformen beschrieben wurde, versteht es sich, dass die Ausführungsformen illustrativ sind und dass der Schutzbereich der Erfindung nicht auf diese Ausführungsformen beschränkt ist. Bezüglich der oben beschriebenen Ausführungsformen sind viele Variationen, Abwandlungen, Hinzufügungen und Verbesserungen möglich. Es ist vorgesehen, dass diese Variationen, Abwandlungen, Hinzufügungen und Verbesserungen in den Schutzbereich der Erfindung fallen, wie in den folgenden Ansprüchen detailliert angegeben.

Claims (5)

  1. Computerimplementiertes Verfahren zur Optimierung eines Algorithmus zum Erkennen eines interessierenden Objekts außerhalb eines Fahrzeugs, das folgende Schritte umfasst: a) Bereitstellen eines ersten Algorithmus zum Erkennen eines interessierenden Objekts in einer Szene basierend auf Sensordaten, die durch einen ersten Sensor bereitgestellt werden, und eines zweiten Algorithmus zum Erkennen eines interessierenden Objekts in einer Szene basierend auf Sensordaten, die durch einen zweiten Sensor bereitgestellt werden; b) Erzeugen eines Satzes von Trainingsdaten, umfassend: (i) erste, mehreren Szenen entsprechende Daten, die durch einen ersten Sensor erfasst wurden, und (ii) zweite, den mehreren Szenen entsprechende Daten, die durch einen zweiten Sensor erfasst wurden; c) Auswählen einer Untergruppe des Satzes von Trainingsdaten, die einer Untergruppe der mehreren Szenen entspricht; d) Empfangen von Kennzeichnungsinformationen, die Kennzeichnungen entsprechen, die interessierenden Objekten in der Untergruppe von Szenen zugewiesen sind; e) Optimieren von Parametern des ersten Algorithmus basierend auf der Untergruppe von Trainingsdaten und den Kennzeichnungsinformationen, wobei Schritt c) folgende Schritte umfasst: c1) Bestimmen eines ersten Satzes der mehreren Szenen, in dem ein interessierendes Objekt erkannt wird, unter Verwendung des ersten Algorithmus; c2) Bestimmen eines zweiten Satzes der mehreren Szenen, in dem ein interessierendes Objekt erkannt wird, unter Verwendung des zweiten Algorithmus; c3) Bestimmen der Untergruppe der mehreren Szenen als einer symmetrischen Differenz des ersten und des zweiten Satzes; c4) Bestimmen der Untergruppe von Trainingsdaten, die der Untergruppe der mehreren Szenen entsprechen.
  2. Verfahren nach Anspruch 1, wobei die Schritte c), d) und e) vor Schritt f) wenigstens einmal wiederholt werden, wobei in Schritt c1) der erste Algorithmus mit optimierten Parametern verwendet wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei Schritt c) ferner Schritt c0) Einstellen einer ersten Empfindlichkeit des ersten Algorithmus und/oder einer zweiten Empfindlichkeit des zweiten Algorithmus umfasst.
  4. Verfahren nach einem der Ansprüche 1-3, wobei der erste Sensor eine Radarvorrichtung ist und/oder der zweite Sensor eine Kamera ist.
  5. Verfahren nach einem der Ansprüche 1-4, ferner umfassend: g) Bereitstellen des ersten Algorithmus mit optimierten Parametern für Produktionseinheiten des ersten Sensors.
DE102021214474.8A 2021-12-15 2021-12-15 Computerimplementiertes verfahren zur optimierung eines algorithmus zum erkennen eines interessierenden objekts ausserhalb eines fahrzeugs Ceased DE102021214474A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102021214474.8A DE102021214474A1 (de) 2021-12-15 2021-12-15 Computerimplementiertes verfahren zur optimierung eines algorithmus zum erkennen eines interessierenden objekts ausserhalb eines fahrzeugs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102021214474.8A DE102021214474A1 (de) 2021-12-15 2021-12-15 Computerimplementiertes verfahren zur optimierung eines algorithmus zum erkennen eines interessierenden objekts ausserhalb eines fahrzeugs

Publications (1)

Publication Number Publication Date
DE102021214474A1 true DE102021214474A1 (de) 2023-06-15

Family

ID=86498900

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102021214474.8A Ceased DE102021214474A1 (de) 2021-12-15 2021-12-15 Computerimplementiertes verfahren zur optimierung eines algorithmus zum erkennen eines interessierenden objekts ausserhalb eines fahrzeugs

Country Status (1)

Country Link
DE (1) DE102021214474A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020096941A1 (en) 2018-11-05 2020-05-14 Edge Case Research, Inc. Systems and methods for evaluating perception system quality
DE102019218613A1 (de) 2019-11-29 2021-06-02 Volkswagen Aktiengesellschaft Objektklassifizierungsverfahren, Objektklassifizierungsschaltung, Kraftfahrzeug

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020096941A1 (en) 2018-11-05 2020-05-14 Edge Case Research, Inc. Systems and methods for evaluating perception system quality
DE102019218613A1 (de) 2019-11-29 2021-06-02 Volkswagen Aktiengesellschaft Objektklassifizierungsverfahren, Objektklassifizierungsschaltung, Kraftfahrzeug

Similar Documents

Publication Publication Date Title
DE102006057552B4 (de) System und Verfahren zur Messung des Abstands eines vorausfahrenden Fahrzeugs
EP2179381B1 (de) Verfahren und vorrichtung zur verkehrszeichenerkennung
DE19831413C2 (de) Bildverarbeitungsverfahren und Vorrichtungen zur Erkennung von Objekten im Verkehr
DE102016210534A1 (de) Verfahren zum Klassifizieren einer Umgebung eines Fahrzeugs
DE102008057675A1 (de) Verfahren zur Verkehrszeichenerkennung
EP3644239A1 (de) Verfahren und vorrichtung zum abstrahieren eines datensatzes
DE102012000459A1 (de) Verfahren zur Objektdetektion
EP3785169A1 (de) Verfahren und vorrichtung zur umsetzung eines eingangsbildes einer ersten domäne in ein ausgangsbild einer zweiten domäne
EP3869390A1 (de) Computerimplementiertes verfahren und system zum erzeugen einer virtuellen fahrzeugumgebung
EP2539866A1 (de) Verfahren und vorrichtung zur freisichtprüfung einer kamera für ein automobiles umfeld
EP4078238A1 (de) Verfahren und vorrichtung zum robustifizieren von sensordaten gegen adversariale störungen
DE102019204602B4 (de) Verfahren und Vorrichtung zur Maskierung von in einem Bild enthaltenen Objekten
DE102008050456B4 (de) Verfahren und Vorrichtung zur Fahrspurerkennung
DE102019129029A1 (de) System und verfahren zur objektdetektion
DE102021214474A1 (de) Computerimplementiertes verfahren zur optimierung eines algorithmus zum erkennen eines interessierenden objekts ausserhalb eines fahrzeugs
DE102019208233A1 (de) Verfahren und Vorrichtung zum automatischen Ausführen einer Steuerfunktion eines Fahrzeugs
DE102018114912A1 (de) Verfahren zum Klassifizieren einer Farbe einer Fahrbahnmarkierung mittels eines statistischen Fahrbahnmarkierungsbestimmungsmodells, elektronische Recheneinrichtung sowie Fahrerassistenzsystem
WO2011104124A1 (de) Verfahren und vorrichtung zur analyse eines bildes einer bilderfassungseinrichtung für ein fahrzeug
EP3772017A1 (de) Bahnsignalerkennung für autonome schienenfahrzeuge
DE102019217952A1 (de) Verfahren und Vorrichtung zum Bereitstellen eines Trainingsdatensatzes zum Trainieren einer KI-Funktion auf eine unbekannte Datendomäne
EP3748454A1 (de) Verfahren und vorrichtung zum automatischen ausführen einer steuerfunktion eines fahrzeugs
DE102007025620A1 (de) Vorrichtung zur Bestimmung einer Objekt- und/oder Existenzwahrscheinlichtkeit eines Suchobjekts in einem Auslesefenster eines Bildes, Verfahren sowie Computerprogramm
DE102016124074A1 (de) Ermitteln einer Befahrbarkeit eines Fahrbahnabschnitts anhand eines Bildes
DE102013012781A1 (de) Verfahren zum Trainieren eines Algorithmus zum Erkennen von vorbestimmten Mustern in Bilddaten, Kamerasystem und Kraftfahrzeug
DE10160295B4 (de) Verfahren und Vorrichtung zum Ermitteln von Kartendaten für eine Anzeige eines Fahrerinformationssystems

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final