DE102022203045A1 - Konfidenzbetrachtung während dem Training eines KNN - Google Patents

Konfidenzbetrachtung während dem Training eines KNN Download PDF

Info

Publication number
DE102022203045A1
DE102022203045A1 DE102022203045.1A DE102022203045A DE102022203045A1 DE 102022203045 A1 DE102022203045 A1 DE 102022203045A1 DE 102022203045 A DE102022203045 A DE 102022203045A DE 102022203045 A1 DE102022203045 A1 DE 102022203045A1
Authority
DE
Germany
Prior art keywords
data
confidence
training
ann
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022203045.1A
Other languages
English (en)
Inventor
Fabian Woitschek
Georg Schneider
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102022203045.1A priority Critical patent/DE102022203045A1/de
Priority to PCT/EP2023/053027 priority patent/WO2023186388A1/de
Publication of DE102022203045A1 publication Critical patent/DE102022203045A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Filters That Use Time-Delay Elements (AREA)

Abstract

Trainingsverfahren für ein künstliches neuronales Netzwerk mit den folgenden Schritten:- Speisen (S1) des KNN mit Eingangstrainingsdaten, um Ausgangsdaten zu den Eingangstrainingsdaten zu ermitteln;- Ermitteln (S2) einer Konfidenz der Ausgangsdaten;- Trainieren (S3) des KNN, indem eine Verlustfunktion, die von der Konfidenz der Ausgangsdaten abhängt, optimiert wird.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein Trainingsverfahren für ein künstliches neuronales Netzwerk.
  • TECHNISCHER HINTERGRUND
  • Die Patentanmeldung mit dem Aktenzeichen10 2021 200 215.3 beschreibt, wie eine Konfidenz von Ausgangsdaten eines KNN ermittelt werden kann, indem die Umgebungskonfidenz evaluiert wird. Diese bewertet zuverlässig, ob die aktuelle Klassifikation sicher in einer Entscheidungsregion liegt oder am Rand einer Region. Daraus ergibt sich die Konfidenz in die aktuelle Klassifikation, welche durch den Generator in verschiedenen Umsetzungsformen bestimmt wird.
  • Es ist wünschenswert die Konfidenz, beispielsweise die Umgebungskonfidenz, eines KNNs zu steigern, sodass das resultierende KNN eine erhöhte Sicherheit in die Klassifikation hat.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Demgemäß ist vorgesehen:
    • - ein Trainingsverfahren für ein künstliches neuronales Netzwerk mit den folgenden Schritten: Speisen des KNN mit Eingangstrainingsdaten, um Ausgangsdaten zu den Eingangstrainingsdaten zu ermitteln; Ermitteln einer Konfidenz der Ausgangsdaten; Trainieren des KNN, indem eine Verlustfunktion, die von der Konfidenz der Ausgangsdaten abhängt, optimiert wird.
  • Ein künstliches neuronales Netzwerk (KNN, englisch artificial neural network - ANN) ist ein in einem Rechenprogramm nachgebildetes Netzwerk aus vernetzten künstlichen Neuronen. Die künstlichen Neuronen sind dabei typischerweise auf verschiedenen Schichten (layers) angeordnet. Üblicherweise umfasst das künstliche neuronale Netzwerk eine Eingangsschicht und eine Ausgabeschicht (output layer), deren Neuronenausgabe als einzige des künstlichen neuronalen Netzwerks sichtbar wird. Zwischen der Eingangsschicht und der Ausgabeschicht liegende Schichten werden typischerweise als verdeckte Schichten (hidden layer) bezeichnet. Typischerweise wird zunächst eine Architektur bzw. Topologie eines künstlichen neuronalen Netzwerks initiiert und dann in einer Trainingsphase für eine spezielle Aufgabe oder für mehrere Aufgaben in einer Trainingsphase trainiert.
  • Ein KNN legt eine Abbildung von einem (beispielhaft zweidimensionalen) Eingangsdatenraum auf einen Ergebnisdatenraum fest. Die Abbildung hängt maßgeblich vom Zweck der künstlichen Intelligenz ab, beispielsweise ist es denkbar, Datenpunkte des Eingangsdatenraums hinsichtlich ihrer Eigenschaften zu klassifizieren. In diesem Fall wird den Datenpunkten aus dem Eingangsdatenraum ein Klassifikationsergebnis, wie beispielsweise „Baum“ oder „Haus“, aus dem Ergebnisdatenraum zugeordnet und man spricht von einem klassifizierenden KNN.
  • Der Begriff „Topologie eines KNN“ umfasst sämtliche Aspekte bezüglich des Aufbaus eines KNN. Hierunter fallen beispielsweise die Anzahl der Neuronen des KNN, die Aufteilung der Neuronen auf die einzelnen Schichten des KNN, die Anzahl der Schichten eines KNN, die Vernetzung der Neuronen und die Gewichtung der Vernetzung.
  • Das Training des künstlichen neuronalen Netzwerks umfasst dabei typischerweise eine Veränderung eines Gewichts einer Verbindung zwischen zwei künstlichen Neuronen des künstlichen neuronalen Netzwerks. Das Gewicht enthält Information zur Stärke der Berücksichtigung eines Eingangs eines Neurons. Das Training des künstlichen neuronalen Netzwerks kann auch eine Entwicklung von neuen Verbindungen zwischen künstlichen Neuronen, ein Löschen von bestehenden Verbindungen zwischen künstlichen Neuronen, ein Anpassen von Schwellwerten der künstlichen Neuronen und/oder ein Hinzufügen oder ein Löschen von künstlichen Neuronen umfassen.
  • Das Ziel beim Training künstlicher neuronaler Netze besteht darin, den Verlust im Verlauf des Trainings zu minimieren. Je niedriger der Verlust am Ende unseres Trainings, desto besser sind die Vorhersagen unseres Netzes.
  • Als Methode zur Bewertung eines KNN wird eine Verlustfunktion verwendet. Sie zeigt die Performance des Algorithmus bei der Modellierung der Daten. Eine solche Verlustfunktion im supervised learning kann z.B. wie folgt aussehen: l o s s ( D ) = m i n θ 1 N i = 1 N l o s s ( X i , Y i )
    Figure DE102022203045A1_0001
  • Bei Supervised Learning, also dem Training mit gelabelten Trainingsdaten, gibt es für jedes Xi aus einem Trainingsdatensatz X einen entsprechenden gekennzeichneten Wert Yi aus einem Datensatz Y. Weichen die Vorhersagen des KNN sehr von den Ergebnissen Yi ab, würde das Ergebnis der Verlustfunktion einen hohen Wert ausgeben und zeigen, dass das Modell schlecht abgeschnitten hat. Im Umkehrschluss bedeutet dies, dass ein Modell gut abschneidet, wenn das Ergebnis der Verlustfunktion einen niedrigen Wert annimmt. Nach Optimierungen kann der Supervised Learning Algorithmus die Abweichungen reduzieren und das Ergebnis der Verlustfunktion würde sinken. Im unsupervised learning sind Verlustfunktionen anders aufgebaut, da Yi unbekannt ist. loss(D) ist ein Beispiel für einen bzw. mehrere Fehlerterme, die konfidenzunabhängig sind.
  • In dieser Patentanmeldung ist vorgesehen, dass die Verlustfunktion einen Konfidenzterm, der von der Konfidenz der Ausgangsdaten abhängt, enthält. Dies kann bedeuten, dass der Term eine direkte Abhängigkeit von einem Konfidenzwert aufweist. Es ist jedoch auch denkbar, dass die Abhängigkeit durch die Auswahl oder Gewichtung von Datenbeispielen, welchen ein bestimmter Konfidenzwert zugeordnet wurde, indirekt vorgegeben ist.
  • Ein Training umfasst in der Regel mehrere Iterationen. Eine iterationsabhängige Verlustfunktion ändert sich also im Verlauf des Trainings.
  • Typischerweise werden Verlustfunktionen minimiert. Abhängig von den Trainingsdaten und abhängig von der Parametrisierung der Verlustfunktion kann jedoch auch die Maximierung oder eine bestimmte Zielfunktion oder ein bestimmter Zielwert sinnvoll sein.
  • Aus diesem Grund spricht die vorliegende Patentanmeldung von einer Optimierung der Verlustfunktion, da der Begriff Optimierung in dieser Anmeldung nicht nur die Minimierung sondern auch die Maximierung und andere Zielfunktionen und Zielwerte umfasst.
  • Trainingsdaten sind in dieser Anmeldung Datenpaare aus Eingangsdaten, die von dem KNN zu verarbeiten sind, sowie Soll-Ausgangsdaten, die von dem KNN zu ermitteln sind. Während des Trainings wird das KNN aufgrund eines Vergleichs von Soll-Ausgangsdaten, der in einer Verlustfunktion abgebildet ist, mit dem von dem KNN ermittelten Ist- Ausgangsdaten angepasst, wodurch sich ein Trainingseffekt einstellt.
  • Ein Eingangsdatenraum ist eine Menge an Daten, die alle denkbaren bzw. wohldefinierten Eingangsdaten für ein KNN enthält. Ein Ergebnisdatenraum ist eine Menge, die alle denkbaren Ergebnisdaten eines KNN enthält. Dieser Patentanmeldung liegt die Annahme zugrunde, dass sich ein Eingangsdatenraum in Teilmengen oder Datenpunkte partitionieren lässt, wobei jedes Element, also eine Teilmenge oder ein Datenpunkt, der Partition auf ein anderes Abbildungsergebnis aus dem Ergebnisdatenraum abgebildet wird. Grenzen der Teilmengen werden anschaulich auch als Entscheidungsgrenzen bezeichnet. Typische Eingangsdaten sind z.B. n-dimensionale Vektoren.
  • Gestörte Eingangsdaten sind in dieser Patentanmeldung Eingangsdaten, die künstlich mit einer Störung verknüpft worden sind.
  • Unter Rauschen versteht man eine Störgröße mit breitem unspezifischem Frequenzspektrum. Es kann daher als eine Überlagerung vieler harmonischer Schwingungen oder Wellen mit unterschiedlicher Amplitude und Frequenz beziehungsweise Wellenlänge interpretiert werden. Es gibt Rauschprozesse verschiedener Eigenschaften, z.B. weißes Rauschen, rosa Rauschen oder braunes Rauschen.
  • Die Amplitude einer eindimensionalen Störung bezeichnet man auch als dessen Intensität. Handelt es sich um einen mehrdimensionalen Störungsvektor kann die Störungsintensität unterschiedlich definiert werden, z.B. als Betrag eines Störungsvektors oder als Maximum seiner Komponenten.
  • Die Konfidenz bezeichnet eine Wahrscheinlichkeit für die Korrektheit einer Aussage. Dementsprechend beträgt die Konfidenz zwischen 0 und 1. Im gebräuchlichen Sprachgebrauch werden auch Begriffe wie Zuverlässigkeit oder Verlässlichkeit verwendet. Die Konfidenz kann beispielsweise über die Umgebungskonfidenz abgeschätzt werden.
  • Die Umgebungskonfidenz approximiert die Entfernung eines Datenpunkts im Eingangsdatenraum zu den nächsten Entscheidungsgrenzen. Somit kann beurteilt werden, wie nah ein Datenpunkt an einer anderen Entscheidungsgrenze liegt. Stellt sich heraus, dass der Abstand des Datenpunkts im Eingangsdatenraum zu einer anderen Entscheidungsgrenze gering ist, ergibt sich daraus eine niedrige Konfidenz des Klassifikationsergebnisses, da bereits eine geringe Variation der Eingangsdaten zu einem anderen Klassifikationsergebnis führen würde.
  • Reale Eingangsdaten sind Eingangsdaten, die zum Ziel haben, die Realität bestmöglich abzubilden, oder die aus der Realität gewonnen wurden.
  • Konstruierte Eingangsdaten sind Eingangsdaten, die zu einem bestimmten Zweck konstruiert wurden. Verrauschte Eingangsdaten oder Eingangsdaten, die einer sogenannten Adversarial Attack dienen, können konstruierte Eingangsdaten sein.
  • Unter einer Adversarial Attack (zu Deutsch „feindlicher Angriff“) versteht man im Kontext von Künstlicher Intelligenz (KI) bzw. Deep Learning die Verwendung von Adversarial Examples (zu Deutsch „feindliche Beispiele“) zur Manipulation der Klassifikationsergebnisse. Ein Adversarial Example ist ein speziell manipuliertes EingangsSignal in ein künstliches Neuronales Netzwerk, welches dieses absichtlich zu Fehlklassifikationen verleitet. Die Manipulation wird so vorgenommen, dass ein menschlicher Beobachter diese nicht bemerkt oder nicht als solche erkennt. Beispielsweise bei einem zur Objekterkennung trainierten neuronalen Netzwerk könnten die Pixel eines Bildes leicht verändert werden, sodass diese Veränderungen für Menschen nicht sichtbar sind, das Netzwerk die Objekte auf dem Bild jedoch falsch zuordnet.
  • Ein anderes Beispiel für konstruierte Eingangsdaten sind solche Eingangsdaten, die sich an einer Entscheidungsgrenze befinden sollen.
  • Die Kullback-Leibler-Divergenz (kurz KL-Divergenz) ist ein Maß für die Unterschiedlichkeit zweier Wahrscheinlichkeitsverteilungen. Typischerweise repräsentiert dabei eine der Verteilungen empirische Beobachtungen oder eine präzise Wahrscheinlichkeitsverteilung, während die andere ein Modell oder eine Approximation darstellt.
  • Die KL-Divergenz wird auch relative Entropie genannt.
  • Computerprogrammprodukte umfassen in der Regel eine Folge von Befehlen, durch die die Hardware bei geladenem Programm veranlasst wird, ein bestimmtes Verfahren durchzuführen, das zu einem bestimmten Ergebnis führt.
  • Die grundliegende Idee der Erfindung ist es, die Konfidenz als einen Parameter während des Trainings zu benutzen. Dadurch kann das KNN lernen, eine hohe Klassifikationssicherheit zu erreichen und es kann für sicherheitskritische Anwendungen eingesetzt werden.
  • Um die Konfidenz während des Trainings zu optimieren, ist die Verlustfunktion derart zu formulieren, dass diese eine direkte oder indirekte Abhängigkeit der Konfidenz aufweist.
  • Anstatt die Konfidenz direkt in die Verlustfunktion einzubetten, ist es alternativ denkbar, Trainingsdaten konfidenzabhängig auszuwählen, um eine Abhängigkeit der Verlustfunktion von der Konfidenz zu schaffen.
  • Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den weiteren Unteransprüchen sowie aus der Beschreibung unter Bezugnahme auf die Figuren der Zeichnung.
  • Gemäß einer bevorzugten Weiterbildung der Erfindung geht wenigstens ein Fehlerterm, der von der Konfidenz unabhängig ist, und ein Konfidenzterm, der von der Konfidenz abhängig ist, in die optimierte Verlustfunktion ein.
  • Durch die Einbettung der Konfidenz in die Verlustfunktion ist es möglich, während des Trainings das Lernen einer sicheren Klassifikation zu bevorzugen.
  • Angenommen L C E ( )
    Figure DE102022203045A1_0002
    ist eine konfidenzunabhängige Verlustfunktion, so ergibt sich beispielsweise die folgende konfidenzabhängige Verlustfunktion: L ( x , y ^ , ƒ ( ) ) = L C E ( ƒ p r o b ( x ) , y ^ ) + ε ( 1 ξ )
    Figure DE102022203045A1_0003
  • Dabei ist ξ ist die Konfidenz und ∈ ein einstellbarer Skalierungsfaktor, um den Einfluss der Konfidenz zu variieren.
  • ŷ bezeichnet die korrekten Ausgangsdaten, also Soll-Ausgangsdaten zu einem Eingangsdatenbeispiel. Handelt es sich bei den Eingangstrainingsdaten um gelabelte Eingangsdaten, ist ŷ bekannt. Alternativ kann ŷ approximiert werden.
  • Die Konfidenz kann beispielsweise mittels der Umgebungskonfidenz geschätzt werden. In diesem Fall kommt folgende Vorgehensweise in Betracht:
    • Generierung von N Rauschdaten n0,... , nN-1 ∈ ℝd durch Ziehen aus einer Zufallsvariablen;
    • Generierung von N verrauschten Datenbeispielen x 0 ' ,   ,  x N 1 '
      Figure DE102022203045A1_0004
      mit x i ' = x + λ  n i ;
      Figure DE102022203045A1_0005
    • Klassifikation der Daten y = [ y ^ ,   ƒ t o p ( x 0 ' ) ,   ,   ƒ t o p ( x N 1 ' ) ]
      Figure DE102022203045A1_0006
      wobei ftop(·) die ermittelten Ist-Ausgangsdaten des KNN sind;
    • Berechnung der Umgebungskonfidenz ξ= 1 N i = 1 N [ y 0 = = y i ] ;
      Figure DE102022203045A1_0007
    • In diesem vereinfachten Beispiel wird die Verlustfunktion nur für ein einziges Datenbeispiel x (+ zugehörige wahre Klasse ŷ) bestimmt, sodass auch die Umgebungskonfidenz nur für ein einziges Datenbeispiel gleichzeitig bestimmt wird.
  • Bei einem realen Trainingsprozess würde hingegen ein Trainingsdatensatz aus mehreren Datenbeispielen X (+ zugehörige wahre Klasse Ŷ') bestehen, sodass auch die Umgebungskonfidenz auf mehreren Datenbeispielen parallel berechnet werden würde.
  • Gemäß einer bevorzugten Weiterbildung der Erfindung werden der Konfidenzterm und der Fehlerterm in der Verlustfunktion iterationsabhängig gewichtet.
  • Sei L ( x , y ^ , ƒ ( ) ) = L C E ( ƒ p r o b ( x ) ,   y ^ ) + ε ( 1 ξ )
    Figure DE102022203045A1_0008
    eine konfidenzabhängige Verlustfunktion nach vorstehendem Beispiel. Dann ist es vorteilhaft, eine iterationsabhängige Funktion ∈(j), wobei j die Anzahl vorangehender Iterationen bezeichnet, vorzugeben. Somit kann während des Trainings der Einfluss der Konfidenz in dem gesamten Verlustwert eingestellt werden. Beispielsweise kann während initialer Epochen des Trainings ∈=0 gewählt werden, sodass am Anfang der Fokus darauf liegt die Genauigkeit der Klassifikation in die richtige Richtung zu bewegen und die Entscheidungsgrenzen der Klassen grundlegend zu lernen.
  • Für spätere Epochen, also ansteigende j, kann ∈ wachsen, sodass der Einfluss in späteren Epochen größer ist. Durch diese Strategie wird es ermöglicht, das KNN zuerst grob für eine gute Klassifikationsgenauigkeit zu trainieren und anschließend das Training darauf zu fokussieren, dass die Entscheidungsgrenzen der verschiedenen Klassen einen möglichst großen Abstand zueinander haben.
  • ∈ kann beliebig eingestellt werden, um ein möglichst gutes Training zu ermöglichen und einen möglichst guten Kompromiss zwischen Genauigkeit der Klassifikation und Sicherheit der Klassifikation zu finden.
  • Gemäß einer bevorzugten Weiterbildung der Erfindung wird das KNN mit ersten Eingangstrainingsdaten und/oder mit zweiten Eingangstrainingsdaten gespeist, wobei die ersten Eingangstrainingsdaten reale Trainingsdaten sind und die zweiten Eingangstrainingsdaten konstruierte Trainingsdaten sind, wobei sich die optimierte Verlustfunktion der ersten und zweiten Eingangstrainingsdaten unterscheidet.
  • Demnach ist es denkbar Trainingsdaten zu konstruieren, indem Rauschdaten durch Ziehung aus einer Zufallsvariablen generiert werden.
  • Alternativ ist es denkbar Trainingsdaten zu konstruieren, indem Trainingsdaten für sogenannte adversarial attacks ermittelt werden. Adversarial Attacks haben zum Ziel, die Umgebungskonfidenz des KNNs während des Trainings zu minimieren. So werden die Eingangsdaten x' gezielt so berechnet, dass das KNN eine geringe Umgebungskonfidenz auf ihnen hat. Im Training werden daraufhin die Entscheidungsgrenzen so verändert, dass diese wieder weiter auseinander liegen, sodass die Umgebungskonfidenz wieder erhöht wird. Dieser iterative Prozess ermöglicht ein optimales Training und die Steigerung der Umgebungskonfidenz, da das KNN jeweils sein Verhalten auf Eingangsdaten, denen Ausgangsdaten mit geringer Umgebungskonfidenz zugeordnet werden, verbessert.
  • Eine weitere Methode die Umgebungskonfidenz in die Verlustfunktion zu integrieren, besteht darin, die Distanz zur nächsten Entscheidungsgrenze zu approximieren. Anschließend werden geringe Distanzen mit einem höheren Verlustwert bestraft, sodass der Abstand zu anderen Entscheidungsregionen während des Trainings erhöht wird.
  • In diesem Fall werden die Rauschdaten x' also für eine Reichweite von Stärken [λ0, ..., λmax] generiert, wobei für jede Stärke mehrere Rauschdaten genutzt werden. Nun werden alle generierten Rauschdaten mit dem aktuell trainierten KNN klassifiziert und anschließend überprüft bis welche Stärke die Rauschdaten noch der tatsächlich wahren Klasse ŷ zugeordnet werden. Die Stärke der Rauschdaten, bei denen zuerst eine Abweichung zwischen den ausgegebenen Klassen und der wahren Klasse auftritt, wird als Distanz ζ zur nächsten Entscheidungsregion angesehen.
  • Somit ist es möglich die Distanz zur nächsten Entscheidungsregion sukzessive zu erhöhen. Anfangs wird ζ eher bei geringeren Werten liegen, da bei einer normalen Optimierung kein Fokus auf die Distanz zu anderen Klassen gelegt wird, solange die ausgegebene Klasse korrekt ist. Für diese geringeren Werte führt log (ζ) zu einer stärkeren Bestrafung, sodass ζ über die Zeit erhöht wird, um den gesamten Verlustwert zu verringern. Nach mehreren Iterationen wird ζ bei größeren Werten liegen, sodass die Entscheidungsregionen weiter entfernt sind und die Sicherheit der Klassifikation verbessert wurde.
  • Gemäß einer bevorzugten Weiterbildung der Erfindung wird eine Konfidenz der Verlustfunktion für erste Eingangstrainingsdaten maximiert, wenn die Konfidenz zwischen 0 und 1 beträgt, wobei Konfidenzen nahe 1 bedeuten, dass die Ausgangsdaten eine hohe Zuverlässigkeit aufweisen.
  • Es versteht sich, dass Konfidenzen auch durch Werte, die außerhalb des Wertebereichs von 0 bis 1 liegen, ausgedrückt werden können. In diesem Fall sollte dieses Maß für die Konfidenz zunächst auf den Wertebereich zwischen 0 und 1 transformiert werden, so dass Konfidenzen nahe 1 bedeuten, dass die Ausgangsdaten eine hohe Zuverlässigkeit aufweisen.
  • Es versteht sich deshalb, dass die Erfindung nicht durch die Verwendung eines anderen Maßes für die Konfidenz umgangen werden kann.
  • In den bisher beschriebenen Möglichkeiten zur Einbringung der Umgebungskonfidenz in die Verlustfunktion ist das Ziel ξ(bzw. die Distanz ζ) zu maximieren, um den aktuellen Verlustwert möglichst zu minimieren. Dieses Vorgehen ist sinnvoll, wenn das jeweilige Datenbeispiel x ein reales Beispiel aus den Trainingsdaten ist. Bei solchen ist es das Ziel, dass diese sicher in einer Entscheidungsregion klassifiziert werden und eine möglichst hohe Sicherheit in die Klassifikation haben.
  • Gemäß einer bevorzugten Weiterbildung der Erfindung wird ein Konfidenzterm der Verlustfunktion für zweite Eingangstrainingsdaten minimiert, wenn die Konfidenz zwischen 0 und 1 beträgt, wobei Konfidenzen nahe 1 bedeuten, dass die Ausgangsdaten eine hohe Zuverlässigkeit aufweisen.
  • Umgekehrt ist es aber auch möglich „schlechte“ Datenbeispiele zu wählen. Solche Datenbeispiele können bspw. (stark) verrauschte Daten, Daten bei denen die Klasse nicht zweifelsfrei erkennbar ist, Daten mit sehr schlechter Auflösung, Daten mit ungewöhnlichen Merkmalen, Daten die aus adversarial attacks resultieren, etc. sein.
  • Exemplarisch sind Datenbeispiele, die ein menschlicher Experte nicht bewerten/annotieren kann, als schlechte und normalerweise nicht nützliche Daten anzusehen. Solche Datenbeispiele sind in einem normalen Trainingsdatensatz nicht zu finden, da sie für das Training nicht hilfreich wären.
  • Dementsprechend ist es sinnvoll, genau solche Datenbeispiele zu verwenden, indem das KNN trainiert wird, diesen Datenbeispielen eine niedrige Konfidenz zuzuordnen.
  • Dazu werden entsprechende Datenbeispiele in den Trainingsdatensatz eingeführt und eine andere Verlustfunktion für diese Daten gewählt. Anstatt die typische Verlustfunktion für normale Trainingsdaten zu optimieren, wird nur die Konfidenz minim iert: L ( x ,   ƒ ( ) ) = ε ξ
    Figure DE102022203045A1_0009
  • In diesem Fall wird die Verlustfunktion also minimal, wenn die Umgebungskonfidenz ξ = 0 ist. Das Ziel ist es also die Datenbeispiele möglichst unsicher (an den Grenzen von Entscheidungsregionen) zu klassifizieren. Dadurch wird die Konfidenz minimiert, wodurch auch der Verlust minimiert wird. Dieses Vorgehen ist für „schlechte“ Datenbeispiele sinnvoll, da diese keiner der Klassen sicher zugeordnet werden können. Sie sollten also an den Rändern liegen, da dort die Sicherheit der Klassifikation am geringsten ist.
  • Gemäß einer bevorzugten Weiterbildung der Erfindung beruht die Konfidenz auf dem Abstand der Eingangstrainingsdaten zu einer Entscheidungsgrenze. Dieser Abstand wird auch als Umgebungskonfidenz bezeichnet.
  • Dadurch wird gewährleistet, dass die Entscheidungsgrenzen möglichst weit entfernt von typischen Klassifikationen verlaufen, sodass das KNN eine möglichst hohe Klassifikationssicherheit hat. Dazu wird auch die Robustheit der Klassifikation erhöht, da die Entscheidungsgrenzen verschiedener Klassen möglichst weit voneinander entfernt liegen und typische Datenbeispiele eher in der Mitte von Entscheidungsregionen liegen. Diese erhöhte Sicherheit zeigt sich nach dem Ende des Trainings auch während der realen Nutzung des KNNs.
  • Gemäß einer bevorzugten Weiterbildung der Erfindung wird die Konfidenz mittels einer Kullback-Leibler-Divergenz ermittelt, indem das KNN mit ungestörten Eingangstrainingsdaten und mit gestörten Eingangstrainingsdaten gespeist wird, wobei für alle Ausgangsdaten eine Wahrscheinlichkeitsverteilung über dem Ausgangsdatenraum ermittelt wird und zu diesen Wahrscheinlichkeitsverteilungen die Kullback-Leibler-Divergenz ermittelt wird. Die Wahrscheinlichkeitsverteilung eines Eingangsdatenbeispiels auf dem Ausgangsdatenraum enthält für jedes Element im Ausgangsdatenraum die Wahrscheinlichkeit, dass den Eingangsdaten die jeweiligen Soll-Ausgangsdaten zuzuordnen sind.
  • Dabei ist die KL-Divergenz prinzipiell ein Maß, um den Unterschied bzw. die Ähnlichkeit zwischen zwei Wahrscheinlichkeitsverteilungen zu bestimmen. Folglich nutzt diese Methode der Integration nicht nur die ausgegebene Klasse des KNNs ftop(·), sondern auch die zugehörige Wahrscheinlichkeit fprob(·) über alle vorhandenen Klassen. Dementsprechend wird für die KL-Divergenz das KNN fprob(·) benutzt, da dieses den gesamten Wahrscheinlichkeitsvektor ausgibt. Dies ermöglicht es, die Wahrscheinlichkeitsverteilung des ungestörten Eingangsdatenbeispiels x mit der Wahrscheinlichkeitsverteilung der verrauschten Eingangsdaten x` zu vergleichen. Weicht nun die Wahrscheinlichkeitsverteilung der verrauschten Eingangsdaten von der Wahrscheinlichkeitsverteilung der ungestörten Eingangsdaten deutlich ab, zeigt dies, dass das KNN durch die verrauschten Eingangsdaten verwirrt wurde und nun eine andere Ausgabe trifft.
  • Es ist jedoch wünschenswert, dass das KNN auf den verrauschten Eingangsdaten eine identische oder ähnliche Ausgabe trifft. Dies würde bedeuten, dass die Entscheidungsregion des KNNs ausreichend groß ist, um selbst verrauschte Eingangsdaten sicher zu klassifizieren. Daher wird die Abweichung in der KL-Divergenz bestraft, wodurch dieses Verfahren die Konfidenz während des Trainings indirekt optimiert ohne ξ direkt zu benutzen.
  • Beispielsweise kann fprob(·) für drei Datenbeispiele wie folgt aussehen:
    Klassifikation x: Klassifikation x Fall1 ' :
    Figure DE102022203045A1_0010
    Klassifikation x Fall2 ' :
    Figure DE102022203045A1_0011
    Klasse Wsk. Klasse Wsk. Klasse Wsk.
    Auto 0.02 Auto 0.63 Auto 0.03
    Fußgänger 0.87 Fußgänger 0.2 Fußgänger 0.83
    ... ... ... ... ... ...
    Fahrrad 0.05 Fahrrad 0.12 Fahrrad 0.09
  • Da die KL-Divergenz nur den Unterschied zwischen zwei einzelnen Wahrscheinlichkeitsverteilungen bestimmt, sind unterschiedliche Vorgehensweisen möglich, um den Vektor der verrauschten Eingangsdaten x' zu benutzen.
  • Beispielsweise ist folgende Berücksichtigung der KL-Divergenz denkbar: L ( x , y ^ , ƒ ( ) ) = L C E ( ƒ p r o b ( x ) , y ^ ) + ε 1 N i = 0 N 1 KL ( ƒ p r o b ( x ) , ƒ p r o b ( x i ' ) )
    Figure DE102022203045A1_0012
  • Alternativ kann über die vom KNN ausgegebenen Wahrscheinlichkeitsverteilungen gemittelt werden, anstatt über alle KL-Divergenz Werte. Folglich wird die KL-Divergenz nur einmalig für die gemittelte Wahrscheinlichkeitsverteilung berechnet: L ( x , y ^ , ƒ ( ) ) = L C E ( ƒ p r o b ( x ) , y ^ ) + ε  KL ( ƒ p r o b ( x ) , 1 N i = 0 N 1 ƒ p r o b ( x i ' ) )
    Figure DE102022203045A1_0013
  • In beiden Berechnungsbeispielen ist es außerdem denkbar, Rauschdaten unterschiedlicher Stärken zu benutzen. Dazu kann beispielsweise die KL-Divergenz nur für die Rauschdaten ab einer gewissen Stärke des Rauschens berechnet werden oder nur die Rauschdaten genutzt werden, die eine Mindestanzahl an Abweichungen generieren.
  • Alternativ wird eine Gewichtung der Rauschdaten im Hinblick auf die Stärke des Rauschens vorgenommen, sodass nicht mehr alle Rauschdaten das gleiche Gewicht 1 N
    Figure DE102022203045A1_0014
    haben. Bspw. haben Rauschdaten mit einer höheren Stärke ein stärkeres Gewicht (und damit einen stärkeren Einfluss) für die Berechnung der KL-Divergenz.
  • Weitere Möglichkeiten die Konfidenz in das Training eines KNNs zu berücksichtigen, basieren darauf, die vorhandenen Trainingsdaten zu erweitern/anzupassen. Dies hat den Vorteil, dass die Einstellungen des bisherigen Trainingsprozesses nicht angepasst werden müssen, da die Konfidenz nun über die Auswahl der Datenbeispiele in die Verlustfunktion eingeht und die Verlustfunktion somit nicht geändert werden muss.
  • Gemäß einer bevorzugten Weiterbildung der Erfindung werden Datenbeispiele in der Verlustfunktion konfidenzabhängig berücksichtigt, insbesondere mittels einer konfidenzabhängigen Gewichtung.
  • Die grundlegende Idee hierbei ist es, dass der Einfluss der Eingangsdaten, auf welchen die Konfidenz des KNNs gering ist, für die folgenden Trainingsiterationen höher gewichtet wird. Folglich werden während jeder Trainingsiteration die Daten gemerkt, auf welchen das aktuelle KNN einen geringen Konfidenzwert hat. Diese Eingangsdaten werden dann in der nächsten Trainingsiteration höher gewichtet. Um diese höhere Gewichtung durchzuführen, existieren verschiedene Möglichkeiten.
  • Eine Möglichkeit ist es, die betreffenden Datenbeispiele in der Verlustfunktion höher zu gewichten. In einem normalen Trainingsprozess ist der Einfluss jedes Datenbeispiels für den Verlust pro Datenbeispiel eines Trainingsdatensatzes (engl. Batch) gleich, nämlich 1 b a t c h s i z e .
    Figure DE102022203045A1_0015
    Um nun zu erreichen, dass die Klassifikationssicherheit des KNNs insgesamt erhöht wird, kann die Gewichtung der Datenbeispiele mit einer geringen Konfidenz in der letzten Iteration vergrößert werden und die Gewichtung der anderen Beispiele verringert werden. Dadurch wird erreicht, dass der Verlustwert vor allem von den bisher unsicher klassifizierten Datenbeispielen beeinflusst wird.
  • Als Folge werden diese Datenbeispiele typischerweise eher in Richtung der Mitte einer Entscheidungsregion gedrängt, sodass sie in jedem Fall richtig klassifiziert werden, um den Verlustwert gering zu halten.
  • Folglich wird die Konfidenz indirekt optimiert, ohne dass die Verlustfunktion einen konfidenzabhängigen Term enthält. In dieser Variante der Nutzung der Konfidenz ist also kein Eingriff in die Hyperparameter des Trainings erforderlich, lediglich die Gewichtung der Datenbeispiele muss angepasst werden.
  • Gemäß einer bevorzugten Weiterbildung der Erfindung werden Datenbeispiele deren Ausgangsdaten eine Konfidenz aufweisen, die einen vorbestimmten Schwellwert unterschreitet, modifiziert und/oder vervielfältigt, um das KNN mit modifizierten und/oder vervielfältigten Eingangstrainingsdaten zu speisen.
  • Eine weitere Möglichkeit die Konfidenz indirekt zu optimieren, besteht darin, den Trainingsdatensatz zu augmentieren. Dazu wird der Trainingsdatensatz mit Datenbeispielen erweitert, auf welchen das aktuelle KNN eine geringe Konfidenz und damit eine geringe Sicherheit in die Klassifikation aufweist. Folglich wird der Anteil der Datenbeispiele erhöht, welche das KNN nicht sicher klassifiziert und diese werden in der nächsten Iteration einen höheren Einfluss auf den Verlustwert haben, da die Anzahl solcher Datenbeispiele gestiegen ist. Um den Verlustwert auf dem neuen, augmentierten Datensatz möglichst zu minimieren, wird mehr Fokus auf die korrekte Klassifikation der hinzugefügten Daten gelegt. Damit wird sichergestellt, dass diese Datenbeispiele sicher klassifiziert werden und die Entscheidungsregionen verschieben sich zugunsten dieser Beispiele, sodass die vorher unsicheren Datenbeispiele eher in Richtung des Zentrums einer Region verschoben werden.
  • Das beschriebene Vorgehen kann dynamisch über den Verlauf des Trainings angepasst werden, um ein bestmögliches Trainingsergebnis zwischen Korrektheit (Accuracy) der Aussage und Sicherheit in die Ausgabe zu erreichen. Sobald die Konfidenz ausreichend gestiegen ist, wird daher die Anzahl der augmentierten Datenbeispiele wieder verringert. Die Anzahl der augmentierten Datenbeispiele wird im Verlauf des Trainings folglich immer wieder angepasst.
  • Die Augmentation, um neue Daten zu generieren, welche nicht Teil der bisherigen Trainingsdaten sind, und zusätzlich eine geringe Konfidenz aufweisen, kann dabei auf unterschiedliche Arten erfolgen. Beispielsweise können die Datenbeispiele, welche in der letzten Iteration eine geringe Konfidenz aufweisen, geringfügig verändert werden und dann dem Trainingsdatensatz hinzugefügt werden.
  • Eine mögliche Alternative ist auch Rauschen mit geringer Stärke auf die Daten zu addieren, sodass sich das Verständnis der Daten für einen Menschen nicht ändert. Das KNN wird hingegen mit hoher Wahrscheinlichkeit auf den verrauschten Daten noch unsicherer sein, wie auf den ursprünglichen Daten, da diese in der letzten Iteration einen geringen Konfidenzwert hatten. Dieses Vorgehen stellt eine einfache Variante dar, Datenbeispiele zu generieren, um den originalen Trainingsdatensatz mit unsicheren Daten zu erweitern.
  • Alternativ können andere geringfügige Transformationen durchgeführt werden, beispielsweise Rotation, Skalierung, Helligkeit, Kontrast, etc. Mit allen Methoden gelingt es, den originalen Datensatz mit unsicheren Datenbeispielen zu erweitern.
  • Mit den beschriebenen Methoden ist es außerdem auch möglich, ein KNN nachzutrainieren. In diesem Fall existiert bereits ein trainiertes KNN mit einer möglichst hohen Klassifikationsgenauigkeit. Jedoch hat dieses KNN nur eine schwache Sicherheit in der Klassifikation. Es ist möglich dieses KNN nun nachzutrainieren, sodass es lernt die Sicherheit in die Klassifikation zu steigern.
  • Es versteht sich, dass ein Computerprogrammprodukt mit Programmcode-Mitteln, um das Verfahren wie es vorstehend beschrieben wurde, durchzuführen, vorteilhaft ist.
  • Ein Computerprogrammprodukt gemäß einem Verfahren einer Ausführungsform der Erfindung führt die Schritte eines Verfahrens gemäß der vorangehenden Beschreibung aus, wenn das Computerprogrammprodukt auf einem Computer, insbesondere einem fahrzeuginternen Computer, läuft. Wenn das betreffende Programm auf einem Computer zum Einsatz kommt, ruft das Computerprogrammprodukt einen Effekt hervor, nämlich die Verbesserung der Konfidenz eines KNN.
  • Im Folgenden sollen Anwendungsbeispiele der Erfindung beschrieben werden.
  • Beispielsweise sind ADAS-KNN mit unterschiedlichen Komplexitätsgraden bekannt, d.h. eine initiale Bewertung der Eingangsdaten wird von einem eher kleineren und einfachen KNN durchgeführt. Wenn dieses KNN sich auf den aktuellen Eingangsdaten unsicher ist, wird ein größeres KNN befragt, welches die Daten zuverlässiger klassifizieren kann, aber aufgrund des erhöhten Ressourcenbedarfs nicht dauerhaft betrieben werden kann. Um möglichst viele Ressourcen zu schonen, ist es vorteilhaft, möglichst nur das kleinere KNN zu nutzen.
  • Dazu ist es erforderlich, dass das kleinere KNN sicher auf den meisten Klassifikationen ist, da ansonsten das große KNN zu oft genutzt werden würde.
  • Daher soll das kleinere KNN für eine möglichst hohe Klassifikationssicherheit mit dem beschriebenen Trainingsverfahren trainiert werden, sodass dessen Ausgangsdaten zu überwiegenden Teilen eine hohe Konfidenz aufweisen.
  • Ein derart trainiertes KNN weist eine hohe Klassifikationssicherheit auf, sodass die komplexeren Bestandteile weniger oft befragt werden müssen. Zudem wird das auf diese Art trainierte KNN auch eine höhere Robustheit gegen unbekannte Daten und hier speziell gegen Adversarial Attacks aufweisen.
  • INHALTSANGABE DER ZEICHNUNGEN
  • Die vorliegende Erfindung wird nachfolgend anhand der in den schematischen Figuren der Zeichnungen angegebenen Ausführungsbeispiele näher erläutert. Es zeigen dabei:
    • 1 eine Prinzipskizze zur Erläuterung einer Ausführungsform der Erfindung;
    • 2 eine Prinzipskizze zur Erläuterung einer Ausführungsform der Erfindung;
    • 3 ein schematisches Blockdiagramm einer Ausführungsform der Erfindung.
  • Die beiliegenden Zeichnungen sollen ein weiteres Verständnis der Ausführungsformen der Erfindung vermitteln. Sie veranschaulichen Ausführungsformen und dienen im Zusammenhang mit der Beschreibung der Erklärung von Prinzipien und Konzepten der Erfindung. Andere Ausführungsformen und viele der genannten Vorteile ergeben sich im Hinblick auf die Zeichnungen. Die Elemente der Zeichnungen sind nicht notwendigerweise maßstabsgetreu zueinander gezeigt.
  • In den Figuren der Zeichnungen sind gleiche, funktionsgleiche und gleichwirkende Elemente, Merkmale und Komponenten - sofern nicht anders ausgeführt ist - jeweils mit denselben Bezugszeichen versehen.
  • BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN
  • 1 zeigt den Trainingseffekt der Umgebungskonfidenz in einer Prinzipskizze. Bevor ein KNN mit einer konfidenzabhängigen Verlustfunktion trainiert wurde, liegt der Datenpunkt 101 und die verrauschten Datenpunkte bzw. Rauschdaten 102 am Rand mehrerer Entscheidungsgrenzen. Das KNN bestimmt die Konfidenz des Klassifikationsergebnisses anhand der Umgebungskonfidenz des Datenpunkts 101 und der Rauschdaten 102.
  • Die Konfidenz wird 1, wenn alle Rauschdaten x' in der wahren Klasse klassifiziert werden. Nur wenn diese Bedingung erfüllt ist, wird der Term (1-ξ) = 0, sodass keine zusätzliche Bestrafung in der Verlustfunktion durch die Konfidenz stattfindet. Zu Beginn des Trainings wird ein Datenpunkt 101 unsicher klassifiziert (ξ=2/5), jedoch wird während des Trainings die Repräsentation des KNNs so angepasst, dass der Datenpunkt und die Rauschdaten bzgl. der Entscheidungsgrenzen verschoben werden. Alternativ lässt sich feststellen, dass die Entscheidungsgrenzen bzgl. des Datenpunkts 101 und der Rauschdaten 102 durch das Training verschoben wurden. Dementsprechend wurden der Datenpunkt 101 und die Rauschdaten 102 in den Datenpunkt 101' und die Rauschdaten 102' verschoben. Somit werden der Datenpunkt 101' und die Rauschdaten 102' nach Abschluss des Trainings sicher klassifiziert (ξ=1). Das KNN hat gelernt, die Klassifikation sicher durchzuführen und den Abstand zu anderen Entscheidungsregionen zu maximieren, sodass die Umgebungskonfidenz zu keiner Erhöhung des Verlustwertes im Training führt.
  • In 2 ist das Vorgehen für einen Datenpunkt 101 und verschiedene Rauschintensitäten λ0, λ1, λ2, die die Rauschdaten 102 für λ0, 103 für λ1, 104 für λ2 ergeben, dargestellt. In diesem Beispiel ergibt sich ζ = λ1, da dies die geringste Rauschintensität, für welche eine Abweichung der Klassifikation aufgetreten ist, ist. Durch Berücksichtigung der Umgebungskonfidenz in der Verlustfunktion, ist es möglich die Distanz zur nächsten Entscheidungsregion sukzessive zu erhöhen.
  • Weiterhin ist es möglich, bei der Berechnung der Distanz ζ ein Schwellwertverfahren einzusetzen, sodass einzelne Ausreißer keinen Einfluss auf die Beurteilung haben. Dies ist möglich, indem einzelne (oder auch mehrere) Abweichungen von der wahren Klasse ŷ bei der Klassifikation von Datenbeispielen mit einer gemeinsamen Rauschstärke toleriert werden. Folglich müssen für jede Rauschintensität erst mehrere Fehlklassifikationen auftreten, bis eine gesamte Rauschstärke als optimierungswürdig bewertet wird.
  • Folglich wird die Distanz erst festgelegt, wenn ein Hauptteil der Datenbeispiele, bzw. einer Anzahl Datenbeispiele, die einen vorbestimmten Schwellwert übersteigt, einer Stärke fehlschlagen, sodass Ausreißer keine Beachtung mehr finden. Dies ist hilfreich, um die Optimierung insgesamt fortschreiten zu lassen und den Fokus nicht auf einzelne (im Gesamtkontext) eher unwichtige Artefakte zu legen.
  • Für das Beispiel in Fehler! Verweisquelle konnte nicht gefunden werden. bedeutet dies, dass bei Anwendung des Schwellwertverfahrens ζ = λ2 ist, da bei der Stärke λ1 nur ein einzelnes Datenbeispiel fehlschlägt. Dieses ist als Artefakt zu sehen und für den Fortschritt der Optimierung im Gesamtkontext eher hinderlich. Daher ist es sinnvoller die höhere Stärke λ2 als aktuelle Distanz zur Entscheidungsgrenze anzusehen.
  • 3 zeigt ein Blockdiagramm eines Trainingsverfahrens für ein künstliches neuronales Netzwerk. In dem Schritt S1 wird das KNN mit Eingangstrainingsdaten gespeist, um Ausgangsdaten zu den Eingangstrainingsdaten zu ermitteln. In dem Schritt S2 wird eine Konfidenz der Ausgangsdaten ermittelt. In dem Schritt S3 wird das KNN trainiert, indem eine Verlustfunktion, die von der Konfidenz der Ausgangsdaten abhängt, optimiert wird.
  • Bezugszeichen
  • S1-S3
    Verfahrensschritte
    101
    Datenpunkt
    101'
    Datenpunkt
    102-104
    Rauschdaten
    102'
    Rauschdaten

Claims (11)

  1. Trainingsverfahren für ein künstliches neuronales Netzwerk mit den folgenden Schritten: - Speisen (S1) des KNN mit Eingangstrainingsdaten, um Ausgangsdaten zu den Eingangstrainingsdaten zu ermitteln; - Ermitteln (S2) einer Konfidenz der Ausgangsdaten; - Trainieren (S3) des KNN, indem eine Verlustfunktion, die von der Konfidenz der Ausgangsdaten abhängt, optimiert wird.
  2. Trainingsverfahren nach Anspruch 1, wobei wenigstens ein Fehlerterm, der von der Konfidenz unabhängig ist, und ein Konfidenzterm, der von der Konfidenz abhängig ist, in die optimierte Verlustfunktion eingeht.
  3. Trainingsverfahren nach Anspruch 2, wobei der Konfidenzterm und der Fehlerterm in der Verlustfunktion iterationsabhängig gewichtet werden.
  4. Trainingsverfahren nach einem der vorstehenden Ansprüche, wobei das KNN mit ersten Eingangstrainingsdaten und/oder mit zweiten Eingangstrainingsdaten gespeist wird, wobei die ersten Eingangstrainingsdaten reale Trainingsdaten sind und die zweiten Eingangstrainingsdaten konstruierte Trainingsdaten sind, wobei sich die optimierte Verlustfunktion der ersten und zweiten Eingangstrainingsdaten unterscheidet.
  5. Trainingsverfahren nach Anspruch 4, wobei ein Konfidenzterm der Verlustfunktion für erste Eingangstrainingsdaten maximiert wird, wenn die Konfidenz zwischen 0 und 1 beträgt, wobei Konfidenzen nahe 1 bedeuten, dass die Ausgangsdaten eine hohe Zuverlässigkeit aufweisen.
  6. Trainingsverfahren nach Anspruch 4 oder Anspruch 5, wobei eine Konfidenz der Verlustfunktion für zweite Eingangstrainingsdaten minimiert wird, wenn die Konfidenz zwischen 0 und 1 beträgt, wobei Konfidenzen nahe 1 bedeuten, dass die Ausgangsdaten eine hohe Zuverlässigkeit aufweisen.
  7. Trainingsverfahren nach einem der vorstehenden Ansprüche, wobei die Konfidenz auf dem Abstand der Eingangstrainingsdaten zu einer Entscheidungsgrenze beruht.
  8. Trainingsverfahren nach einem der vorstehenden Ansprüche, wobei die Konfidenz mittels einer Kullback-Leibler-Divergenz ermittelt wird, indem das KNN mit ungestörten Eingangstrainingsdaten und mit gestörten Eingangstrainingsdaten gespeist wird, wobei für alle Ausgangsdaten eine Wahrscheinlichkeitsverteilung über dem Ausgangsdatenraum ermittelt wird und zu diesen Wahrscheinlichkeitsverteilungen die Kullback-Leibler-Divergenz ermittelt wird.
  9. Trainingsverfahren nach einem der vorstehenden Ansprüche, wobei Datenbeispiele in der Verlustfunktion konfidenzabhängig berücksichtigt werden, insbesondere mittels einer konfidenzabhängigen Gewichtung.
  10. Trainingsverfahren nach einem der vorstehenden Ansprüche, wobei Datenbeispiele deren Ausgangsdaten eine Konfidenz aufweisen, die einen vorbestimmten Schwellwert unterschreitet, modifiziert und/oder vervielfältigt werden, um das KNN mit modifizierten und/oder vervielfältigten Eingangstrainingsdaten zu speisen.
  11. Computerprogrammprodukt mit Programmcode-Mitteln, um das Verfahren nach einem der vorstehenden Ansprüche durchzuführen.
DE102022203045.1A 2022-03-29 2022-03-29 Konfidenzbetrachtung während dem Training eines KNN Pending DE102022203045A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102022203045.1A DE102022203045A1 (de) 2022-03-29 2022-03-29 Konfidenzbetrachtung während dem Training eines KNN
PCT/EP2023/053027 WO2023186388A1 (de) 2022-03-29 2023-02-08 Konfidenzbetrachtung während dem training eines knn

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022203045.1A DE102022203045A1 (de) 2022-03-29 2022-03-29 Konfidenzbetrachtung während dem Training eines KNN

Publications (1)

Publication Number Publication Date
DE102022203045A1 true DE102022203045A1 (de) 2023-10-05

Family

ID=85221779

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022203045.1A Pending DE102022203045A1 (de) 2022-03-29 2022-03-29 Konfidenzbetrachtung während dem Training eines KNN

Country Status (2)

Country Link
DE (1) DE102022203045A1 (de)
WO (1) WO2023186388A1 (de)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11150663B2 (en) * 2018-01-26 2021-10-19 Nvidia Corporation Detection of hazardous driving using machine learning

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
DEVRIES, Terrance; TAYLOR, Graham W. Learning confidence for out-of-distribution detection in neural networks. arXiv preprint arXiv:1802.04865, 2018
Kullback-Leibler-Divergenz. In: Wikipedia, Die freie Enzyklopädie. Bearbeitungsstand: 5. Dezember 2021. URL: https://de.wikipedia.org/wiki/Kullback-Leibler-Divergenz [abgerufen am 21.11.2022]

Also Published As

Publication number Publication date
WO2023186388A1 (de) 2023-10-05

Similar Documents

Publication Publication Date Title
DE69333811T2 (de) Verfahren und Gerät zur Erzeugung und Einstellung eines Neurones
DE112016006360T5 (de) Verbessern eines lernens einer abstandsmetrik mit einem n-paar-verlust
DE102014212556A1 (de) Verfahren und system zur gewinnung einer verbesserten struktur eines neuronalen zielnetzes
DE102005046747B3 (de) Verfahren zum rechnergestützten Lernen eines neuronalen Netzes und neuronales Netz
DE10296704T5 (de) Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten
WO2021130340A1 (de) System und verfahren zur qualitätszusicherung von datenbasierten modellen
EP0901658B1 (de) Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner
DE112021006212T5 (de) Modulation auf Gewichtungsgrundlage in neuronalen Netzwerken
DE102022203045A1 (de) Konfidenzbetrachtung während dem Training eines KNN
EP0777881B1 (de) Verfahren zur festlegung des gültigkeitsbereichs für ein künstliches neuronales netzwerk
WO1997036248A1 (de) Verfahren zur ermittlung von zur entfernung geeigneten gewichten eines neuronalen netzes mit hilfe eines rechners
WO2001086585A1 (de) Verfahren und anordnung zum ermitteln eines objekts in einem bild
DE102019127622B4 (de) Abwehrgenerator, Verfahren zur Verhinderung eines Angriffs auf eine KI-Einheit und computerlesbares-Speichermedium
DE112020007371T5 (de) Verfahren und Einrichtung für ein neuronales Netzwerk basierend auf energiebasierten Modellen einer latenten Variable
DE102020211596A1 (de) Verfahren zum Generieren eines trainierten neuronalen Faltungs-Netzwerks mit invarianter Integrationsschicht zum Klassifizieren von Objekten
DE102020116013A1 (de) Verfahren zum Bereitstellen eines komprimierten künstlichen neuronalen Netzes mittels eines Autoencoders
DE102019216973A1 (de) Lernverfahren für neuronale netze basierend auf evolutionären algorithmen
DE102020132591A1 (de) Auswählen von rechenkernvarianten unter verwendung neuronaler netzwerke
EP0978052A1 (de) Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz
DE102019214308B4 (de) Schnelles quantisiertes Training trainierbarer Module
DE102022115101A1 (de) Automatisierter entwurf von architekturen künstlicher neuronaler netze
DE202023104383U1 (de) Ein rechnerisch effizientes Klassifizierungssystem zur Klassifizierung nichtlinearer zeitlicher Muster ohne versteckte Schicht
DE102020127185A1 (de) Verfahren und Vorrichtung zum Trainieren eines neuronalen Netzes
WO2022122307A1 (de) Vergleichen eines ersten knn mit einem zweiten knn
DE102022205547A1 (de) Verfahren zum Trainieren eines Convolutional Neural Networks

Legal Events

Date Code Title Description
R163 Identified publications notified