DE102022202999A1 - Erzeugung von Testdatensätzen für die Prüfung, inwieweit ein trainierter Klassifikator zur Generalisierung fähig ist - Google Patents

Erzeugung von Testdatensätzen für die Prüfung, inwieweit ein trainierter Klassifikator zur Generalisierung fähig ist Download PDF

Info

Publication number
DE102022202999A1
DE102022202999A1 DE102022202999.2A DE102022202999A DE102022202999A1 DE 102022202999 A1 DE102022202999 A1 DE 102022202999A1 DE 102022202999 A DE102022202999 A DE 102022202999A DE 102022202999 A1 DE102022202999 A1 DE 102022202999A1
Authority
DE
Germany
Prior art keywords
records
representations
test data
test
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022202999.2A
Other languages
English (en)
Inventor
William Harris Beluch
Laura Beggel
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022202999.2A priority Critical patent/DE102022202999A1/de
Publication of DE102022202999A1 publication Critical patent/DE102022202999A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Verfahren (100) zur Erzeugung eines Testdatensatzes S für einen Klassifikator und/oder Regressor (1), der Messdaten (2) auf Klassifikations-Scores (3a) bezüglich einer oder mehrerer Klassen, bzw. auf Werte (3b) einer interessierenden Größe, abbildet und auf einer Menge X von Records x von Trainingsdaten trainiert ist, mit den Schritten:• es wird ein Pool XPmit Records xpvon Kandidaten-Testdaten bereitgestellt (110);• die Records x der Trainingsdaten X werden in Trainings-Repräsentationen x̂ mit verminderter Dimensionalität überführt (120), die jeweils die Ausprägung von Merkmalen im jeweiligen Record x angeben;• die Records xpder Kandidaten-Testdaten XPwerden in Test-Repräsentationen x̂Pmit verminderter Dimensionalität überführt (130), die jeweils die Ausprägung von Merkmalen im jeweiligen Record xpangeben;• iterativ werden jeweils Records xpder Kandidaten-Testdaten XP, deren Test-Repräsentationen x̂Pmöglichst ähnlich zu den Trainings-Repräsentationen x̂, aber möglichst unähnlich zu den Test-Repräsentationen x̂Pder schon im Testdatensatz S enthaltenen Testdaten XPsind, aus dem Pool XPals Records s in den Testdatensatz S überführt (140); und• in Antwort darauf, dass ein vorgegebenes Abbruchkriterium (150) erfüllt ist, wird das Hinzufügen von Records xpder Kandidaten-Testdaten XPzu dem Testdatensatz S beendet (160).

Description

  • Die vorliegende Erfindung betrifft die Prüfung von Klassifikatoren, die insbesondere verwendet werden können, um Bilder oder andere Messdaten auf Klassifikations-Scores in Bezug auf eine oder mehrere Klassen abzubilden.
  • Stand der Technik
  • In vielen Anwendungen werden Messdaten mit mindestens einem Sensor aufgenommen und anschließend für die weitere Auswertung einem Klassifikator und/oder Regressor zugeführt. Ein Klassifikator kann eine gesuchte Zuordnung der Messdaten zu einer oder mehreren Klassen liefern und beispielsweise eine sensorisch beobachtete Szenerie semantisch analysieren. Ein Regressor kann aus den Messdaten den gesuchten Wert einer Messgröße auswerten.
  • Klassifikatoren und/oder Regressoren werden meistens mit Trainings-Messdaten überwacht trainiert. Die Trainings-Messdaten sind mit Soll-Ausgaben gelabelt, auf die der Klassifikator und/oder Regressor sie im trainierten Zustand abbilden soll. Wenn dem Klassifikator und/oder Regressor dies im Mittel gut gelingt, wird davon ausgegangen, dass er auch im Training ungesehene Messdaten korrekt verarbeiten kann.
  • Um diese Fähigkeit zur Generalisierung zu prüfen, wird ein Testdatensatz mit Testdaten benötigt, die der Klassifikator und/oder Regressor im Training noch nicht gesehen hat. Gerade das macht es jedoch schwierig zu gewährleisten, dass die „Lernerfolgskontrolle“ mit dem Testdatensatz die ganze Bandbreite des im Training gelernten „Wissens“ abdeckt.
  • Offenbarung der Erfindung
  • Die Erfindung stellt ein Verfahren zur Erzeugung eines Testdatensatzes S für einen Klassifikator und/oder Regressor bereit. Der Klassifikator und/oder Regressor bildet Messdaten auf Klassifikations-Scores bezüglich einer oder mehrerer Klassen, bzw. auf Werte einer interessierenden Größe, ab. Das Verfahren geht davon aus, dass der Klassifikator und/oder Regressor auf einer Menge X von Records x von Trainingsdaten trainiert ist.
  • Hierbei ist der Begriff „Record“ zu verstehen wie der englischsprachige Begriff „record“, der eine Gruppe von inhaltlich zusammenhängenden Datenfeldern bezeichnet und somit im weitesten Sinne mit einer Karteikarte in einem Karteikasten vergleichbar ist. Ein Record kann insbesondere beispielsweise einen Vektor, eine Matrix oder einen Tensor beinhalten, etwa mehrere jeweils pixelaufgelöste Farbkanäle eines RGB- oder CMYK-Bildes. Der hierfür im Deutschen eigentlich gebräuchliche Begriff „Datensatz“ ist auf dem Gebiet des Machine Learnings bereits reserviert für eine Gesamtheit von Trainingsdaten, Testdaten oder Validierungsdaten, also den jeweiligen kompletten „Karteikasten“.
  • Im Rahmen des Verfahrens wird ein Pool XP mit Records xp von Kandidaten-Testdaten bereitgestellt. Die Records x der Trainingsdaten X werden in Trainings-Repräsentationen x̂ mit verminderter Dimensionalität überführt, die jeweils die Ausprägung von Merkmalen im jeweiligen Record x angeben. Ebenso werden die Records xp der Kandidaten-Testdaten XP in Test-Repräsentationen x̂P mit verminderter Dimensionalität überführt, die jeweils die Ausprägung von Merkmalen im jeweiligen Record xp angeben.
  • Es werden nun iterativ jeweils Records xp der Kandidaten-Testdaten XP, deren Test-Repräsentationen x̂P möglichst ähnlich zu den Trainings-Repräsentationen x̂, aber möglichst unähnlich zu den Test-Repräsentationen x̂P der schon im Testdatensatz S enthaltenen Testdaten XP sind, aus dem Pool XP als Records s in den Testdatensatz S überführt. Hierbei bedeutet „iterativ“, dass mehrfach zwischen
    • • dem Auswählen eines oder mehrerer Records xp aus XP unter Berücksichtigung der schon in S vorhandenen Records s einerseits und
    • • dem Überführen der ausgewählten Records xp nach S als neue Records s andererseits
    gewechselt wird.
  • Dieser Prozess kann beispielsweise durch Auswahl eines zufälligen Records xp initialisiert werden. Jeder Record xp kann nur einmal als Record s in den Testdatensatz S überführt werden und steht dann bei weiteren Iterationen nicht mehr zur Wahl. Das Hinzufügen von Records xpder Kandidaten-Testdaten XP zu dem Testdatensatz S wird in Antwort darauf, dass ein vorgegebenes Abbruchkriterium erfüllt ist, beendet.
  • Der Prozess ist mit einer aus der Geometrie bekannten Coreset-Aufgabe vergleichbar, bei der die Form einer großen Punktemenge durch wenige, möglichst repräsentative Punkte angenähert werden soll.
  • Die Forderung, dass die Test-Repräsentationen x̂P möglichst unähnlich zu den Test-Repräsentationen x̂P der schon im Testdatensatz S enthaltenen Testdaten XP sein sollen, bewirkt, dass möglichst viele Aspekte des im Training des Klassifikators und/oder Regressors gelernten „Wissens“ getestet werden. Zugleich bewirkt die Forderung, dass die Test-Repräsentationen x̂P möglichst ähnlich zu den Trainings-Repräsentationen x̂ sein sollen, dass der abgefragte Stoffumfang nicht über den Umfang des Trainings hinausgeht. Zugleich wird durch den konsequenten Ausschluss der Records x der Trainingsdaten X aus dem Testdatensatz S sichergestellt, dass sich der mit dem Testdatensatz S getestete Klassifikator und/oder Regressor nicht durch ein Overfitting an die Trainingsdaten zu ungerechtfertigten guten Bewertungen „durchmogeln“ kann.
  • Ein mit dem Testdatensatz S durchgeführter Test prüft also die Fähigkeit des Klassifikators und/oder Regressors, auf die es in vielen realen Anwendungen (wie etwa der Erkennung von Objekten oder der Qualitätskontrolle) ankommt, genau im richtigen Umfang. Es wird einerseits nicht erwartet, dass Aspekte, die im Training gar nicht vorgekommen sind, beherrscht werden. Andererseits werden alle Aspekte, die im Training vorgekommen sind, auch abgefragt. Der Test ist dann ein Stück weit analog zu mündlichen Prüfungen, bei denen die besten Noten vergeben werden, wenn das Prüfungsgespräch eine große Bandbreite von Themen innerhalb des zuvor im Unterricht behandelten Stoffumfangs abdeckt und der Kandidat durchweg gute Leistungen zeigt.
  • Die Zusammenstellung des Testdatensatzes S gemäß dem hier vorgeschlagenen Verfahren sorgt dafür, dass auch Szenarien, die in der Realität und somit auch im Trainingsdatensatz weniger häufig vorkommen, getestet werden. Dies ist gerade bei dem Test von Klassifikatoren und Regressoren wichtig, die in sicherheitskritischen Bereichen zum Einsatz kommen, wie etwa dem zumindest teilweise automatisierten Führen von Fahrzeugen. Hier kommt es auch darauf an, dass sich das Fahrzeug in seltenen, aber besonders gefährlichen Situationen, den sogenannten „corner cases“, angemessen verhalten wird. Diese „corner cases“ sind in den Trainingsdaten häufig unterrepräsentiert, da es häufig nicht möglich ist, diese besonders gefährlichen Situationen zwecks Erwerb von Trainingsdaten bewusst herbeizuführen. Stattdessen muss eine von sich aus eintretende derartige Situation bestmöglich in Trainingsdaten umgemünzt werden.
  • Die Bestimmung der Ähnlichkeit im Raum der Repräsentationen von Merkmalen ebnet allfällige Unterschiede zwischen Records x und xp, bzw. zwischen Records xp untereinander, die den gleichen semantischen Inhalt haben, ein. So sind beispielsweise selbst zwei Bilder, die unmittelbar nacheinander von derselben Szenerie aufgenommen werden, nicht völlig identisch. Wenn das Bild aber beispielsweise durch Anwendung mehrerer Faltungsschichten sukzessive in Merkmale zerlegt wird, werden Bildrauschen und andere allfällige Unterschiede zwischen semantisch gleichen Bildern nur einen geringen Einfluss auf diese Merkmale haben.
  • Zugleich kann durch die Reduzierung der Dimensionalität beim Übergang zu den Repräsentationen der Testdatensatz auch inhaltlich in eine gewünschte Richtung gelenkt werden. Die Reduzierung der Dimensionalität zwingt zu einer Auswahl der wichtigsten Informationen. Die Erzeugung der Repräsentationen lässt sich so steuern, dass die im Sinne der jeweiligen Anwendung relevantesten Informationen bevorzugt noch mit aufgenommen werden.
  • Die Trainings-Repräsentationen x̂, und/oder die Test-Repräsentationen x̂P, können beispielsweise Merkmalskarten entnommen werden, die der trainierte Klassifikator und/oder Regressor aus den Records x von Trainingsdaten X, bzw. aus den Records xp von Kandidaten-Testdaten XP, bildet. Diese Merkmalskarten können beispielsweise die Ausgabe der vorletzten Schicht des Klassifikators und/oder Regressors vor der Schicht, die Logits oder Softmax-Werte bestimmt, bilden.
  • Die Trainings-Repräsentationen x̂, und/oder die Test-Repräsentationen x̂P, können aber auch beispielsweise mit einem Encoder erzeugt werden, der Teil einer Encoder-Decoder-Anordnung ist. Diese Encoder-Decoder-Anordnung ist darauf trainiert, Messdaten mit dem Encoder in Repräsentationen mit verminderter Dimensionalität zu überführen und aus diesen Repräsentationen mit dem Decoder die Messdaten wieder zu rekonstruieren. Auch dieses Training kann beispielsweise mit den vorhandenen Trainingsdaten durchgeführt worden sein.
  • In einer besonders vorteilhaften Ausgestaltung wird die Ähnlichkeit zwischen Test-Repräsentationen x̂P untereinander, und/oder zwischen Test-Repräsentationen x̂P und Trainings-Repräsentationen x̂, anhand einer Norm einer Differenz zwischen den Repräsentationen ermittelt. Diese Norm, wie beispielsweise eine euklidische Norm, gibt eine Distanz zwischen den Repräsentationen an. Je unähnlicher die Repräsentationen zueinander sind, desto weiter sind sie voneinander entfernt.
  • Alternativ oder auch in Kombination hierzu kann die Ähnlichkeit zwischen Test-Repräsentationen x̂P untereinander, und/oder zwischen Test-Repräsentationen x̂P und Trainings-Repräsentationen x̂, beispielsweise anhand einer Hamming-Distanz zwischen den Repräsentationen ermittelt werden. Die Hamming-Distanz misst die Anzahl der Positionen, in denen sich die Repräsentationen voneinander unterscheiden.
  • In einer weiteren vorteilhaften Ausgestaltung wird aus einer Vereinigungsmenge X u XP\s der Trainingsdaten X mit dem noch nicht in den Testdatensatz s überführten Anteil der Kandidaten-Testdaten XP derjenige Record u ausgewählt wird, dessen Repräsentation ̂u = x̂ v x̂p maximal unähnlich zu allen Records s des Testdatensatzes S ist. Wenn dieser Record u nun zu den noch nicht in den Testdatensatz s überführten Kandidaten-Testdaten XP gehört, also u ∈ XP\s, dann wird dieser Record u als neuer Record s in den Testdatensatz S übernommen. Wenn der Record u hingegen zu den Trainingsdaten X gehört, also u ∈ X, wird stattdessen der zu u ähnlichste Record u' ∈ XP\s als neuer Record s in den Testdatensatz S übernommen.
  • Das vorgegebene Abbruchkriterium kann insbesondere beispielsweise beinhalten, dass der Testdatensatz S eine vorgegebene Anzahl von Records s umfasst. Alternativ oder auch in Kombination hierzu kann das vorgegebene Abbruchkriterium beinhalten, dass die Ähnlichkeit zwischen dem letzten zu S hinzugefügten Record s und dem hierzu ähnlichsten sonstigen Record in S einen vorgegebenen Schwellwert erreicht oder überschreitet. Insbesondere das letztgenannte Kriterium wirkt darauf hin, dass der Testdatensatz S nicht mit Records s „aufgebläht“ wird, die die Abdeckung der abzufragenden Bandbreite an Test-Szenerien für den Klassifikator und/oder Regressor nicht mehr wesentlich verbessern.
  • Wie zuvor erläutert, wird mit dem Testdatensatz S letztendlich das Ziel verfolgt, zu prüfen, ob der Klassifikator und/oder Regressor seine gelernte Aufgabe korrekt ausführt und dabei auch in hinreichendem Maße generalisieren kann. Daher werden in einer weiteren besonders vorteilhaften Ausgestaltung die Records s des Testdatensatzes S dem Klassifikator und/oder Regressor zugeführt, so dass sie von dem Klassifikator und/oder Regressor auf Ausgaben abgebildet werden. Diese Ausgaben werden mit Soll-Ausgaben verglichen, mit denen die Records s jeweils gelabelt sind. Aus den Ergebnissen dieser Vergleiche wird eine Genauigkeit des Klassifikators und/oder Regressors ausgewertet. Diese Auswertung kann in gleicher Weise erfolgen wie für jeden bislang verwendeten Testdatensatz S auch.
  • Hierbei können die Soll-Ausgaben aus einer beliebigen Quelle stammen. Beispielsweise können bereits die ursprünglichen Kandidaten-Testdaten XP in gelabelter Form bezogen werden. Die Soll-Ausgaben können aber auch automatisch erzeugt werden. Beispielsweise kann für jeden Record Records s des Testdatensatzes S das Label desjenigen Records x der Trainingsdaten X übernommen werden, zu dem der Record s am ähnlichsten ist.
  • In einer weiteren vorteilhaften Ausgestaltung wird der Klassifikator und/oder Regressor zusätzlich auf den Records s des Testdatensatzes S trainiert. Dies kann insbesondere in Antwort darauf erfolgen, dass die zuvor ausgewertete Genauigkeit nicht den Erwartungen entspricht. Es wird dann also genau das Material, auf dem die Leistung des Klassifikators und/oder Regressors zuvor nicht ausgereicht hat, als neues Trainingsmaterial verwendet. Das Verfahren kann dann insbesondere beispielsweise neu begonnen werden, um an Stelle des zuvor als neues Trainingsmaterial „verbrauchten“ Testdatensatzes S einen neuen Trainingsdatensatz S zu erzeugen.
  • Mit dem Training des Klassifikators und/oder Regressors wird letztendlich das Ziel verfolgt, die Leistung in der realen Anwendung zu verbessern. Daher werden in einer weiteren besonders vorteilhaften Ausgestaltung dem Klassifikator und/oder Regressor Messdaten zugeführt, die mit mindestens einem Sensor aufgenommen wurden. Aus der Ausgabe des Klassifikators und/oder Regressors wird ein Ansteuersignal ermittelt. Ein Fahrzeug, ein System für die Überwachung von Bereichen, ein System für die Qualitätskontrolle, und/oder ein System für die medizinische Bildgebung, wird mit dem Ansteuersignal angesteuert. Auf diese Weise ist die Wahrscheinlichkeit erhöht, dass die vom jeweils angesteuerten System ausgeführte Reaktion der durch die Messdaten verkörperten Situation angemessen ist.
  • In einer besonders vorteilhaften Ausgestaltung enthalten die Trainingsdaten X, und/oder die Kandidaten-Testdaten XP, durch Beobachtung eines Bereichs mit mindestens einem Sensor aufgenommene Bilder, und/oder durch Auswertung von Reflexionen mindestens eines elektromagnetischen oder akustischen Abfragestrahls aus einem Bereich gewonnene Messergebnisse. Dies sind typischerweise hoch dimensionale Daten, bei denen es üblicherweise besonders schwierig ist, einen Testdatensatz S gezielt so zu generieren, dass er speziell das im Training gelernte „Wissen“ abdeckt. Mit dem hier vorgeschlagenen Verfahren kann genau ein solcher gewünschter Testdatensatz S in transparent motivierter Weise generiert werden.
  • Das Verfahren kann ganz oder teilweise computerimplementiert sein. Die Erfindung bezieht sich daher auch auf ein Computerprogramm mit maschinenlesbaren Anweisungen, die, wenn sie auf einem oder mehreren Computern und/oder Compute-Instanzen ausgeführt werden, den oder die Computer und/oder Compute-Instanzen dazu veranlassen, das hier beschriebene Verfahren auszuführen. In diesem Sinne sind auch Steuergeräte für Fahrzeuge und Embedded-Systeme für technische Geräte, die ebenfalls in der Lage sind, maschinenlesbare Anweisungen auszuführen, als Computer anzusehen. Compute-Instanzen können insbesondere beispielsweise virtuelle Maschinen, Container oder andere Ausführungsumgebungen zur Ausführung von Programmcode in einer Cloud sein.
  • Ebenso bezieht sich die Erfindung auch auf einen maschinenlesbaren Datenträger und/oder auf ein Downloadprodukt mit dem Computerprogramm. Ein Downloadprodukt ist ein über ein Datennetzwerk übertragbares, d.h. von einem Benutzer des Datennetzwerks downloadbares, digitales Produkt, das beispielsweise in einem Online-Shop zum sofortigen Download feilgeboten werden kann.
  • Weiterhin können ein oder mehrere Computer und/oder Compute-Instanzen mit dem Computerprogramm, mit dem maschinenlesbaren Datenträger bzw. mit dem Downloadprodukt ausgerüstet sein.
  • Weitere, die Erfindung verbessernde Maßnahmen werden nachstehend gemeinsam mit der Beschreibung der bevorzugten Ausführungsbeispiele der Erfindung anhand von Figuren näher dargestellt.
  • Ausführungsbeispiele
  • Es zeigt:
    • 1 Ausführungsbeispiel des Verfahrens 100 zur Erzeugung eines Testdatensatzes S;
    • 2 Illustratives Beispiel für eine sukzessive Hinzunahme neuer Records s zum Testdatensatz S.
  • 1 ist ein schematisches Ablaufdiagramm eines Ausführungsbeispiels des Verfahrens 100 zur Erzeugung eines Testdatensatzes S für einen Klassifikator und/oder Regressor 1, der Messdaten 2 auf Klassifikations-Scores 3a bezüglich einer oder mehrerer Klassen, bzw. auf Werte 3b einer interessierenden Größe, abbildet.
  • Der Klassifikator und/oder Regressor 1 ist auf einer Menge X von Records x von Trainingsdaten trainiert. Weiterhin wird in Schritt 110 ein Pool XP mit Records xp von Kandidaten-Testdaten bereitgestellt.
  • In Schritt 120 werden die Records x der Trainingsdaten X werden in Trainings-Repräsentationen x̂ mit verminderter Dimensionalität überführt, die jeweils die Ausprägung von Merkmalen im jeweiligen Record x angeben. Ebenso werden in Schritt 130 die Records xp der Kandidaten-Testdaten XP in Test-Repräsentationen x̂P mit verminderter Dimensionalität überführt, die jeweils die Ausprägung von Merkmalen im jeweiligen Record xp angeben.
  • Gemäß den Blöcken 121 bzw. 131 können die Trainings-Repräsentationen x̂, und/oder die Test-Repräsentationen x̂p, Merkmalskarten entnommen werden, die der trainierte Klassifikator und/oder Regressor 1 aus den Records x von Trainingsdaten X, bzw. aus den Records xp von Kandidaten-Testdaten XP, bildet.
  • Gemäß den Blöcken 122 bzw. 132 können die Trainings-Repräsentationen x̂, und/oder die Test-Repräsentationen x̂p, mit einem Encoder erzeugt werden. Der Encoder ist Teil einer Encoder-Decoder-Anordnung. Diese Encoder-Decoder-Anordnung ist darauf trainiert, Messdaten 2 mit dem Encoder in Repräsentationen mit verminderter Dimensionalität zu überführen und aus diesen Repräsentationen mit dem Decoder die Messdaten wieder zu rekonstruieren.
  • In Schritt 140 werden iterativ jeweils Records xp der Kandidaten-Testdaten XP, deren Test-Repräsentationen x̂P möglichst ähnlich zu den Trainings-Repräsentationen x̂, aber möglichst unähnlich zu den Test-Repräsentationen xp der schon im Testdatensatz S enthaltenen Testdaten XP sind, aus dem Pool XP als Records s in den Testdatensatz S überführt.
  • Gemäß Block 141 kann die Ähnlichkeit zwischen Test-Repräsentationen xp untereinander, und/oder zwischen Test-Repräsentationen xp und Trainings-Repräsentationen x̂,anhand einer Norm einer Differenz zwischen den Repräsentationen ermittelt werden.
  • Gemäß Block 142 kann die Ähnlichkeit zwischen Test-Repräsentationen x̂p untereinander, und/oder zwischen Test-Repräsentationen x̂p und Trainings-Repräsentationen x̂,anhand einer Hamming-Distanz zwischen den Repräsentationen ermittelt werden.
  • Gemäß Block 143 kann aus einer Vereinigungsmenge X u XP\s der Trainingsdaten X mit dem noch nicht in den Testdatensatz s überführten Anteil der Kandidaten-Testdaten XP wird derjenige Record u ausgewählt werden, dessen Repräsentation ̂û = x̂ v x̂P maximal unähnlich zu allen Records s des Testdatensatzes S ist. Es kann dann gemäß Block 144 geprüft werden, ob dieser Record u zu den Kandidaten-Testdaten XP\s oder aber zu den Trainingsdaten X gehört.
  • Wenn der Record u zu den Kandidaten-Testdaten XP\s gehört, wird er gemäß Block 145 direkt als neuer Record s in den Testdatensatz S übernommen. Wenn der Record u hingegen zu den Trainingsdaten X gehört, wird der zu u ähnlichste Record u' ∈ Xp\s ermittelt und als neuer Record s in den Testdatensatz S übernommen.
  • In Schritt 150 wird geprüft, ob ein vorgegebenes Abbruchkriterium erfüllt ist. Ist dies nicht der Fall (Wahrheitswert 0), wird zu Schritt 140 zurückverzweigt, so dass dem Testdatensatz S weitere Records s hinzugefügt werden. Ist das Abbruchkriterium hingegen erfüllt (Wahrheitswert 1), wird in Schritt 160 das Hinzufügen von Records xpder Kandidaten-Testdaten XP zu dem Testdatensatz S beendet.
  • Gemäß Block 151 kann das vorgegebene Abbruchkriterium beinhalten, dass der Testdatensatz S eine vorgegebene Anzahl von Records s umfasst. Gemäß Block 152 kann das vorgegebene Abbruchkriterium alternativ oder in Kombination hierzu beinhalten, dass die Ähnlichkeit zwischen dem letzten zu S hinzugefügten Record s und dem hierzu ähnlichsten sonstigen Record in S einen vorgegebenen Schwellwert erreicht oder überschreitet.
  • In dem in 1 gezeigten Ausführungsbeispiel werden in Schritt 170 die Records s des Testdatensatzes S dem Klassifikator und/oder Regressor 1 zugeführt, so dass sie von dem Klassifikator und/oder Regressor 1 auf Ausgaben 3a, 3b abgebildet. Diese Ausgaben 3a, 3b werden in Schritt 180 mit Soll-Ausgaben 3a*, 3b* verglichen werden, mit denen die Records s jeweils gelabelt sind. Aus den Ergebnissen 180a dieser Vergleiche wird in Schritt 190 eine Genauigkeit 1a des Klassifikators und/oder Regressors 1 ausgewertet. Der Klassifikator und/oder Regressor 1 kann dann in Schritt 200, insbesondere abhängig von der ermittelten Genauigkeit 1a, zusätzlich auf den Records s des Testdatensatzes S trainiert werden. Er erreicht damit einen Zustand 1*.
  • In Schritt 210 werden dem Klassifikator und/oder Regressor 1 Messdaten 2 zugeführt werden, die mit mindestens einem Sensor 9 aufgenommen wurden. Aus der hierbei erhaltenen Ausgabe 3a, 3b des Klassifikators und/oder Regressors 1 wird in Schritt 220 ein Ansteuersignal 220a ermittelt. In Schritt 230 wird ein Fahrzeug 50, ein System 60 für die Überwachung von Bereichen, ein System 70 für die Qualitätskontrolle, und/oder ein System 80 für die medizinische Bildgebung, mit dem Ansteuersignal 220a angesteuert.
  • 2 illustriert schematisch den iterativen Aufbau des Testdatensatzes S aus neuen Records s. Gegeben sind die Menge X der Records x von Trainingsdaten, die jeweils als Kreise eingezeichnet sind, sowie die Menge XP der Records xP von Kandidaten-Testdaten.
  • Wie in 2a veranschaulicht ist, wird der Testdatensatz S zunächst mit einem zufällig aus der Menge XP ausgewählten Record s initialisiert. Dieser Record s ist mit 1 bezeichnet. Ausgehend hiervon wird im nächsten Schritt, der in 2b veranschaulicht ist, der nächste, mit 2 bezeichnete Record s ausgewählt, da er maximal weit vom zuerst ausgewählten Record s entfernt und zugleich ähnlich zu einem Record x ist. Nach dem gleichen Prinzip wird schließlich ein weiterer, mit 3 bezeichneter Record s ausgewählt, wie in 2c gezeigt ist.

Claims (14)

  1. Verfahren (100) zur Erzeugung eines Testdatensatzes S für einen Klassifikator und/oder Regressor (1), der Messdaten (2) auf Klassifikations-Scores (3a) bezüglich einer oder mehrerer Klassen, bzw. auf Werte (3b) einer interessierenden Größe, abbildet und auf einer Menge X von Records x von Trainingsdaten trainiert ist, mit den Schritten: • es wird ein Pool XP mit Records xp von Kandidaten-Testdaten bereitgestellt (110); • die Records x der Trainingsdaten X werden in Trainings-Repräsentationen x̂ mit verminderter Dimensionalität überführt (120), die jeweils die Ausprägung von Merkmalen im jeweiligen Record x angeben; • die Records xp der Kandidaten-Testdaten XP werden in Test-Repräsentationen x̂p mit verminderter Dimensionalität überführt (130), die jeweils die Ausprägung von Merkmalen im jeweiligen Record xp angeben; • iterativ werden jeweils Records xp der Kandidaten-Testdaten XP, deren Test-Repräsentationen x̂P möglichst ähnlich zu den Trainings-Repräsentationen x̂, aber möglichst unähnlich zu den Test-Repräsentationen x̂P der schon im Testdatensatz S enthaltenen Testdaten XP sind, aus dem Pool XP als Records s in den Testdatensatz S überführt (140); und • in Antwort darauf, dass ein vorgegebenes Abbruchkriterium (150) erfüllt ist, wird das Hinzufügen von Records xpder Kandidaten-Testdaten XP zu dem Testdatensatz S beendet (160).
  2. Verfahren (100) nach Anspruch 1, wobei die Trainings-Repräsentationen x̂, und/oder die Test-Repräsentationen x̂P, Merkmalskarten entnommen werden (121, 131), die der trainierte Klassifikator und/oder Regressor (1) aus den Records x von Trainingsdaten X, bzw. aus den Records xp von Kandidaten-Testdaten XP, bildet.
  3. Verfahren (100) nach einem der Ansprüche 1 bis 2, wobei die Trainings-Repräsentationen x̂, und/oder die Test-Repräsentationen x̂P, mit einem Encoder erzeugt werden (122, 132), wobei der Encoder Teil einer Encoder-Decoder-Anordnung ist, die darauf trainiert ist, Messdaten (2) mit dem Encoder in Repräsentationen mit verminderter Dimensionalität zu überführen und aus diesen Repräsentationen mit dem Decoder die Messdaten wieder zu rekonstruieren.
  4. Verfahren (100) nach einem der Ansprüche 1 bis 3, wobei die Ähnlichkeit zwischen Test-Repräsentationen x̂P untereinander, und/oder zwischen Test-Repräsentationen x̂P und Trainings-Repräsentationen x̂, anhand einer Norm einer Differenz zwischen den Repräsentationen ermittelt wird (141).
  5. Verfahren (100) nach einem der Ansprüche 1 bis 4, wobei die Ähnlichkeit zwischen Test-Repräsentationen x̂P untereinander, und/oder zwischen Test-Repräsentationen x̂P und Trainings-Repräsentationen x̂, anhand einer Hamming-Distanz zwischen den Repräsentationen ermittelt wird (142).
  6. Verfahren (100) nach einem der Ansprüche 1 bis 5, wobei • aus einer Vereinigungsmenge X u XP\s der Trainingsdaten X mit dem noch nicht in den Testdatensatz s überführten Anteil der Kandidaten-Testdaten XP wird derjenige Record u ausgewählt wird (143), dessen Repräsentation ̂û = x̂ v x̂P maximal unähnlich zu allen Records s des Testdatensatzes S ist; • falls u ∈ Xp\s (144), dieser Record u als neuer Record s in den Testdatensatz S übernommen wird (145); und • falls u ∈ X (144), der zu u ähnlichste Record u' ∈ XP\s als neuer Record s in den Testdatensatz S übernommen wird (146).
  7. Verfahren (100) nach einem der Ansprüche 1 bis 6, wobei das vorgegebene Abbruchkriterium (150) beinhaltet, dass • der Testdatensatz S eine vorgegebene Anzahl von Records s umfasst (151), und/oder • die Ähnlichkeit zwischen dem letzten zu S hinzugefügten Record s und dem hierzu ähnlichsten sonstigen Record in S einen vorgegebenen Schwellwert erreicht oder überschreitet (152).
  8. Verfahren (100) nach einem der Ansprüche 1 bis 7, wobei • die Records s des Testdatensatzes S dem Klassifikator und/oder Regressor (1) zugeführt werden, so dass sie von dem Klassifikator und/oder Regressor (1) auf Ausgaben (3a, 3b) abgebildet werden (170); • diese Ausgaben (3a, 3b) mit Soll-Ausgaben (3a*, 3b*) verglichen werden (180), mit denen die Records s jeweils gelabelt sind; und • aus den Ergebnissen (180a) dieser Vergleiche eine Genauigkeit (1a) des Klassifikators und/oder Regressors (1) ausgewertet wird (190).
  9. Verfahren (100) nach Anspruch 8, wobei der Klassifikator und/oder Regressor (1) zusätzlich auf den Records s des Testdatensatzes S trainiert wird (200).
  10. Verfahren (100) nach einem der Ansprüche 8 bis 9, wobei • dem Klassifikator und/oder Regressor (1) Messdaten (2) zugeführt werden (210), die mit mindestens einem Sensor (9) aufgenommen wurden; • aus der Ausgabe (3a, 3b) des Klassifikators und/oder Regressors (1) ein Ansteuersignal (220a) ermittelt wird (220) und • ein Fahrzeug (50), ein System (60) für die Überwachung von Bereichen, ein System (70) für die Qualitätskontrolle, und/oder ein System (80) für die medizinische Bildgebung, mit dem Ansteuersignal (220a) angesteuert wird (230).
  11. Verfahren (100) nach einem der Ansprüche 1 bis 10, wobei die Trainingsdaten X, und/oder die Kandidaten-Testdaten XP, durch Beobachtung eines Bereichs mit mindestens einem Sensor (9) aufgenommene Bilder, und/oder durch Auswertung von Reflexionen mindestens eines elektromagnetischen oder akustischen Abfragestrahls aus einem Bereich gewonnene Messergebnisse enthalten.
  12. Computerprogramm, enthaltend maschinenlesbare Anweisungen, die, wenn sie auf einem oder mehreren Computern und/oder Compute-Instanzen ausgeführt werden, den oder die Computer bzw. Compute-Instanzen dazu veranlassen, das Verfahren (100) nach einem der Ansprüche 1 bis 11 auszuführen.
  13. Maschinenlesbarer Datenträger mit dem Computerprogramm nach Anspruch 12.
  14. Ein oder mehrere Computer und/oder Compute-Instanzen mit dem Computerprogramm nach Anspruch 12, und/oder mit dem maschinenlesbaren Datenträger nach Anspruch 13.
DE102022202999.2A 2022-03-28 2022-03-28 Erzeugung von Testdatensätzen für die Prüfung, inwieweit ein trainierter Klassifikator zur Generalisierung fähig ist Pending DE102022202999A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022202999.2A DE102022202999A1 (de) 2022-03-28 2022-03-28 Erzeugung von Testdatensätzen für die Prüfung, inwieweit ein trainierter Klassifikator zur Generalisierung fähig ist

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022202999.2A DE102022202999A1 (de) 2022-03-28 2022-03-28 Erzeugung von Testdatensätzen für die Prüfung, inwieweit ein trainierter Klassifikator zur Generalisierung fähig ist

Publications (1)

Publication Number Publication Date
DE102022202999A1 true DE102022202999A1 (de) 2023-09-28

Family

ID=87930708

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022202999.2A Pending DE102022202999A1 (de) 2022-03-28 2022-03-28 Erzeugung von Testdatensätzen für die Prüfung, inwieweit ein trainierter Klassifikator zur Generalisierung fähig ist

Country Status (1)

Country Link
DE (1) DE102022202999A1 (de)

Similar Documents

Publication Publication Date Title
EP3948688A1 (de) Training für künstliche neuronale netzwerke mit besserer ausnutzung der lern-datensätze
DE102018208763A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines maschinellen Lernsystems
EP3782081B1 (de) Verfahren zur erzeugung eines testdatensatzes, verfahren zum testen, verfahren zum betreiben eines systems, vorrichtung, steuerungssystem, computerprogrammprodukt, computerlesbares medium, erzeugung und verwendung
DE102021203587A1 (de) Verfahren und Vorrichtung zum Trainieren eines Stilencoders eines neuronalen Netzwerks und Verfahren zum Erzeugen einer einen Fahrstil eines Fahrers abbildenden Fahrstilrepräsentation
DE102018113621A1 (de) Verfahren zum Trainieren eines konvolutionellen neuronalen Netzwerks zum Verarbeiten von Bilddaten zur Anwendung in einem Fahrunterstützungssystem
DE102020203707A1 (de) Plausibilisierung der Ausgabe neuronaler Klassifikatornetzwerke
DE102022202999A1 (de) Erzeugung von Testdatensätzen für die Prüfung, inwieweit ein trainierter Klassifikator zur Generalisierung fähig ist
DE102019219734A1 (de) Auswertungssystem für Messdaten aus mehreren Domänen
DE102018220608A1 (de) Maschinelles Lernsystem, sowie ein Verfahren, ein Computerprogramm und eine Vorrichtung zum Erstellen des maschinellen Lernsystems
DE102020206990A1 (de) Vorrichtung zur Verarbeitung von Sensordaten und Trainingsverfahren
DE102018207923A1 (de) Verbessertes Training eines Klassifikators
DE102020214850A1 (de) Energie- und speichereffizientes Training neuronaler Netzwerke
DE102021204040A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erstellung von Trainingsdaten im Fahrzeug
WO2023016859A1 (de) Training von neuronalen netzwerken auf äquivarianz oder invarianz gegenüber änderungen des eingabe-bildes
DE102021204343A1 (de) Steuergerät zum Erzeugen von Trainingsdaten zum Trainieren eines Algorithmus des maschinellen Lernens
DE102022207091A1 (de) Objektklassifikation anhand von Messdaten aus mehreren Perspektiven unter Nutzung von Pseudo-Labels
DE102022203000A1 (de) Prüfung synthetischer Messdaten auf Verwendbarkeit als Trainings-Messdaten für einen Klassifikator und/oder Regressor
DE102020207324A1 (de) Plausibilisierung der Ausgabe eines Bildklassifikators mit einem Generator für abgewandelte Bilder
DE102022204295A1 (de) Verfahren zum Trainieren und Betreiben eines Transformationsmoduls zur Vorverarbeitung von Eingaberecords zu Zwischenprodukten
EP4002217A1 (de) Verfahren zur reduktion von trainingsdaten
DE102020215539A1 (de) Bestimmung der Robustheit eines Objektdetektors und/oder Klassifikators für Bilddaten
DE102021210532A1 (de) Verfahren zum Trainieren eines deterministischen Autoencoders
DE102022208614A1 (de) Rekonstruktion von Trainings-Beispielen im föderierten Training neuronaler Netzwerke
DE202021102338U1 (de) Steuergerät zum Erzeugen von Trainingsdaten zum Trainieren eines Algorithmus des maschinellen Lernens
WO2021043509A1 (de) Verfahren zum komprimieren eines neuronalen netzes

Legal Events

Date Code Title Description
R163 Identified publications notified