DE102020202282A1 - Verfahren und Vorrichtung zum automatisierten Entwickeln eines Daten getriebenen Modells - Google Patents

Verfahren und Vorrichtung zum automatisierten Entwickeln eines Daten getriebenen Modells Download PDF

Info

Publication number
DE102020202282A1
DE102020202282A1 DE102020202282.8A DE102020202282A DE102020202282A1 DE 102020202282 A1 DE102020202282 A1 DE 102020202282A1 DE 102020202282 A DE102020202282 A DE 102020202282A DE 102020202282 A1 DE102020202282 A1 DE 102020202282A1
Authority
DE
Germany
Prior art keywords
measure
candidate
determined
model
quality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020202282.8A
Other languages
English (en)
Inventor
Laura Beggel
Andres Mauricio Munoz Delgado
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020202282.8A priority Critical patent/DE102020202282A1/de
Publication of DE102020202282A1 publication Critical patent/DE102020202282A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Abstract

Vorrichtung und computerimplementiertes Verfahren zum automatisierten Entwickeln eines Modells (104), wobei ein Kandidat (10) für das Modell bereitgestellt wird, der einem Muster (12, 32) eine Ausgabe (14, 34) und eine Erklärung (16, 36) für die Ausgabe (14, 34) zuordnet, die auf dem Muster (12, 32) basiert, wobei abhängig von einem Vergleich der Erklärung (16, 36) mit einer Referenz (18, 38) für die Erklärung (16, 36) ein Maß (20, 40) für eine Güte der Erklärung (16, 36) bestimmt wird, wobei abhängig vom Maß (20, 40) entweder das Modell (104) abhängig vom Kandidaten (10) bestimmt wird, oder wenigstens ein Parameter und/oder eine Architektur des Kandidaten (10) für das Modell (104) bestimmt wird.

Description

  • Stand der Technik
  • Ein Daten getriebenes Modell ist mit automatisierten Verfahren trainierbar, indem das Modell mit Trainingsdaten trainiert und mit Validierungsdaten validiert wird.
  • Für einen Nutzer eines Daten getriebenen Modells ist es wichtig, einschätzen zu können, wie gut das Modell auf unbekannte Daten anwendbar ist. Mit Testdaten kann beispielsweise überprüft werden, ob oder wie gut das trainierte Modell auch auf zuvor unbekannte Daten anwendbar ist. Die Testdaten umfassen dazu Eingaben und erwartete Ausgaben. Sofern eine tatsächliche Ausgabe des Modells für eine Eingabe hinreichend gut mit der erwarteten Ausgabe für diese Eingabe übereinstimmt, wird beispielsweise davon ausgegangen, dass das Modell ausreichend gut auf unbekannte Daten anwendbar ist.
  • Allerdings ist es nicht immer für den Nutzer des Modells nachvollziehbar, warum das Modell die Ausgabe für die Eingabe bestimmt. Für eine Modellverifikation ist daher eine gute Erklärbarkeit der Ausgabe wünschenswert.
  • Offenbarung der Erfindung
  • In einem Verfahren und einer Vorrichtung gemäß der unabhängigen Ansprüche wird eine Metrik verwendet, die eine Güte der Erklärbarkeit quantifiziert und damit eine Modellverifikation ermöglicht.
  • Ein computerimplementiertes Verfahren zum automatisierten Entwickeln eines Daten getriebenen Modells sieht vor, dass ein Kandidat für das Modell bereitgestellt wird, der einem Muster eine Ausgabe und eine Erklärung für die Ausgabe zuordnet, die auf dem Muster basiert, wobei abhängig von einem Vergleich der Erklärung mit einer Referenz für die Erklärung ein Maß für eine Güte der Erklärung bestimmt wird, wobei abhängig vom Maß entweder das Modell abhängig vom Kandidaten bestimmt wird, oder wenigstens ein Parameter und/oder eine Architektur des Kandidaten für das Modell bestimmt wird. Dadurch wird in einem automatisierten Entwicklungsablauf eine Güte der Erklärung der Ausgabe quantifiziert und für ein Training des Modells eingesetzt. Das Modell ist beispielweise ein künstliches neuronales Netz. Das Maß basiert beispielsweise auf einer Saliency-Heat Map und das Training verwendet diese in der Backpropagation für das Training des künstlichen neuronalen Netzes.
  • Bevorzugt wird abhängig vom Maß und abhängig von einem Erfolgsmaß ein Gütemaß für den Kandidaten bestimmt, wobei das Erfolgsmaß eine Güte einer Vorhersage durch den Kandidaten basierend auf einer Summe einer Spezifität und einer Sensitivität der Vorhersage durch den Kandidaten definiert, wobei abhängig vom Gütemaß entweder das Modell abhängig vom Kandidaten oder wenigstens ein Parameter und/oder die Architektur des Kandidaten bestimmt wird. Das Erfolgsmaß quantifiziert die Güte der Vorhersage durch das Modell. Das Modell wird damit abhängig von der Güte der Vorhersage selbst und der Güte der Erklärung für diese Vorhersage trainiert.
  • In einer ersten Phase kann wenigstens ein Parameter und/oder die Architektur des Kandidaten abhängig vom Gütemaß bestimmt werden, wobei in einer zweiten Phase wenigstens ein Parameter und/oder die Architektur des Kandidaten entweder abhängig vom Maß und unabhängig vom Erfolgsmaß oder abhängig vom Maß und unabhängig vom Gütemaß oder abhängig vom Maß und unabhängig sowohl vom Erfolgsmaß als auch vom Gütemaß bestimmt wird. In der zweiten Phase wird damit ein Ergebnis für einen bereits in der ersten Phase vortrainierten Kandidat dazu verwendet, einen hinsichtlich der Erklärung der Ausgabe optimierten Kandidaten zu bestimmen.
  • In der ersten Phase kann überprüft werden, ob das Gütemaß ein Kriterium erfüllt, wobei die zweite Phase ausgeführt wird, wenn das Gütemaß das Kriterium erfüllt und wobei anderenfalls wenigstens ein Parameter und/oder die Architektur des Kandidaten abhängig vom Gütemaß bestimmt wird. Das Gütemaß kann eine Loss-Funktion sein. Das Kriterium ist in diesem Fall erfüllt, wenn alle Elemente der Loss-Funktion kleiner als ein jeweiliger Schwellwert sind. Die jeweiligen Schwellwerte können von einem Nutzer vorgegeben sein.
  • Das Maß kann in der ersten Phase abhängig von wenigstens einem Muster aus Trainingsdaten bestimmt werden, wobei das Maß in der zweiten Phase abhängig von wenigstens einem Muster aus Testdaten bestimmt wird, die von den Trainingsdaten verschieden sind und/oder dass das Maß in der ersten Phase abhängig von wenigstens einem Muster aus Validierungsdaten bestimmt wird, wobei das Maß in der zweiten Phase abhängig von wenigstens einem Muster aus Testdaten bestimmt wird, die von den Validierungsdaten verschieden sind. In der ersten Phase wird eine erste Referenz für ein erstes Muster aus ersten Erklärungen bestimmt. Jedem ersten Muster ist im Beispiel eine der ersten Erklärungen zugeordnet. Eine zweite Referenz für das Muster wird in der zweiten Phase aus zweiten Erklärungen bestimmt. Jedem Muster ist im Beispiel eine der zweiten Erklärungen zugeordnet. Dadurch wird anhand zuvor nicht verwendeter Daten geprüft, wie gut sich die Erklärungen, die der Kandidat liefert, generalisieren lassen.
  • Bevorzugt wird geprüft, ob das in der zweiten Phase für den Kandidaten bestimmte Maß einen Schwellwert erreicht oder unterschreitet, wobei, wenn das für den Kandidaten bestimmte Maß den Schwellwert erreicht oder unterschreitet, wenigstens ein Parameter und/oder die Architektur des Kandidaten abhängig vom Maß bestimmt wird, und die erste Phase für den Kandidaten ausgeführt wird. Dadurch wird ein Kandidat der keine ausreichend gute Erklärung liefert, gezielt hinsichtlich der Erklärung verbessert.
  • In der zweiten Phase kann für den Kandidaten ein Kriterium für eine Qualität des Kandidaten bestimmt werden, wobei das Modell abhängig vom Kandidaten aus einer Vielzahl Kandidaten bestimmt wird der bezüglich des Kriteriums Pareto-optimal zu dem oder den anderen Kandidaten der Vielzahl Kandidaten ist. Damit wird ein Kandidat ausgewählt, der auf der Pareto Front hinsichtlich der Konsistenz der Erklärbarkeit liegt. Ein Kandidat, der nicht Pareto-optimal ist wird verworfen.
  • Das Muster lamm durch Daten eines digitalen Bildes definiert sein, wobei die Referenz für das Muster durch Daten eines digitalen Referenzbildes definiert ist.
  • Für ein iteratives Training kann ein Trainingsdatensatz, ein Validierungsdatensatz und/oder ein Testdatensatz bereitgestellt werden, der eine Vielzahl Muster umfasst.
  • Eine Vorrichtung zum automatisierten Entwickeln eines Daten getriebenen Modells umfasst eine Recheneinrichtung und einen Speicher für das Modell und Instruktionen für die Recheneinrichtung. Die Vorrichtung ist ausgebildet, das Verfahren durchzuführen, wenn die Recheneinrichtung die Instruktionen ausführt.
  • Weitere vorteilhafte Ausführungsformen ergeben sich aus der folgenden Zeichnung und der Beschreibung. In der Zeichnung zeigt
    • 1 eine Vorrichtung zur Entwicklung eines Daten getriebenen Modells,
    • 2 einen Signalfluss für die Entwicklung des Modells,
    • 3 Schritte in einem Verfahren zur Entwicklung des Modells.
  • In 1 ist eine Vorrichtung 100 mit einer Recheneinrichtung 102 schematisch dargestellt. Die Vorrichtung 100 ist zum automatisierten Entwickeln eines Daten getriebenen Modells 104 ausgebildet.
  • Die Vorrichtung 100 umfasst die Recheneinrichtung 102 und einen Speicher 106 für das Modell 104 und Instruktionen für die Recheneinrichtung 102. Im Beispiel kommunizieren die Recheneinrichtung 102 und der Speicher 106 über einen Datenbus 108. Die Vorrichtung 100 ist ausgebildet ein im Folgenden beschriebenes Verfahren durchzuführen, wenn die Recheneinrichtung 102 die Instruktionen ausführt.
  • Das Modell 104 ist im Beispiel ein künstliches neuronales Netz. Es kann sich beispielsweise um ein tiefes künstliches neuronales Netz handeln, insbesondere ein Multi Layer Perzeptron oder ein Convolutional Neural Network. Es kann auch ein anderes Verfahren des maschinellen Lernens vorgesehen sein, das entsprechend entwickelt wird.
  • Die Vorrichtung 100 ist beispielsweise ausgebildet, einen Arbeitsablauf für eine Erstellung des Modells 104 auszuführen.
  • Beispielsweise ist die Vorrichtung für ein Training des Modell 104 mit Trainingsdaten ausgebildet.
  • Die Vorrichtung 100 kann ausgebildet sein, das Modell 104 aus einer Vielzahl von Modellen auszuwählen. Beispielsweise ist die Vorrichtung 100 ausgebildet, ein Pareto-optimales Modell 104 auszuwählen. Die Vorrichtung 100 kann ausgebildet sein, einen Erklärbarkeitstest für das Modell 104 auszuführen, und ein Resultat des Erklärbarkeitstests dazu benutzen, um das Modell 104 weiter und besser hinsichtlich der Erklärbarkeit zu trainieren.
  • Die Vorrichtung 100 ist ausgebildet, zusätzlich oder anstelle von Sensitivität oder Sensibilität das im Folgenden beschriebene Qualitätskriterium hinsichtlich der Erklärbarkeit zu verwenden.
  • Die Vorrichtung 100 kann ausgebildet sein, abhängig von der Erklärbarkeit ein Modell gegenüber einem anderen Modell vorzuziehen. Die Vorrichtung 100 kann ausgebildet sein einen quantifizierbaren Vergleich mit einer vorgegebenen Referenz durchzuführen. Eine Metrik dafür wird im Folgenden beschrieben.
  • Das Modell 104 kann ausgebildet sein für eine Eingabe, die Daten eines digitalen Bildes, Audiodaten oder Videodaten umfasst, eine Ausgabe zu bestimmen. Die Ausgabe kann die Eingabe Klassifizieren oder eine Regression für diese Eingabe darstellen. Die Eingabe kann von einem Sensor stammen, beispielsweise einem Bild- oder Videosensor, einem Mikrophon, einem Radar oder LiDAR System, einem Bewegungssensor oder einem Ultraschallsensor.
  • Es kann ein Vorverarbeitungsschritt vorgesehen sein, der zum Beispiel aus digitalen Audiodaten mittels Fourier Transformation ein digitales Bild eines Frequenzspektrums erzeugt, das anschließend die Eingabe definiert.
  • Die Ausgabe kann ein Signal für eine Ansteuerung eines Fahrzeugs, eines Roboters, einer Fertigungsmaschine, einer Zugangskontrolle für ein Gebäude oder Fahrzeug, ein persönliches Assistenzsystem, eines Haushaltsgeräts oder Elektrowerkzeugs verwendet werden.
  • Die folgende Beschreibung bezieht sich auf ein Bilderkennungssystem das ausgebildet wird, digitale Bilder zu klassifizieren. Beispielsweise wird abhängig vom digitalen Bild als Eingabe, basierend auf der Ausgabe eine sichtbare Repräsentation der Entscheidung des Modells 104 ausgegeben. Die sichtbare Repräsentation kann eine Saliency oder Attribution Map sein, auf der Information dargestellt wird, die einem Betrachter das Verhalten des Modells 104 erklärt.
  • Es kann vorgesehen sein, dass zu einem unerwarteten oder fehlerhaften Verhalten des Modells 104 eine Rückmeldung an den Nutzer oder zur Verbesserung des Modells 104 ausgeben wird.
  • Die Vorrichtung 100 ist ausgebildet für ein erstes digitales Bild 110 abhängig vom Modell 104 ein zweites digitales Bild 112 mit einer Erklärung 114 zu bestimmen.
  • Im Beispiel ist das künstliche neuronale Netz dazu ausgebildet, Daten des ersten digitalen Bildes 110 an einer Eingangsschicht des künstlichen neuronalen Netzes zu einer Ausgabe des künstlichen neuronalen Netzes zu verarbeiten, die Daten des zweiten digitalen Bildes 112 repräsentiert. Das künstliche neuronale Netz, ist in diesem Beispiel zudem ausgebildet, abhängig von den Daten des ersten digitalen Bildes 110 die Erklärung 114 zu bestimmen. Eine Erklärung 114 ist für ein digitales Bild beispielsweise durch die Saliency oder Attribution Map definiert.
  • Das zweite digitale Bild 112 stellt beispielsweise eine Saliency Map dar und wird beispielsweise abhängig von den Pixeln des ersten digitalen Bilds 110 und abhängig von einer Maske erzeugt. Das im Folgenden beschriebene Verfahren ist nur eine von vielen Möglichkeiten, so eine Saliency Map zu erzeugen. Die Maske hat im Beispiel dieselbe Dimension wie das erste digitale Bild 110 und Werte aus einem Wertebereich [0,1]. Durch eine iterative Optimierung wird in jeder Iteration die Maske auf das erste digitale Bild 110 angewandt und eine Version des zweiten digitalen Bildes 112 erzeugt. Beispielsweise werden Pixel dann aus dem ersten digitalen Bild 110 in das zweite digitale Bild unverändert übernommen, wenn der Wert der Maske für dieses Pixel 0 ist. Beispielsweise werden Pixel aus dem ersten digitalen Bild 110 in das zweite digitale Bild verändert, wenn der Wert der Maske für dieses Pixel 1 ist. Beispielsweise werden diese Pixel aus einem vorgegebenen Zielbild übernommen. Für ein Pixelwert u des zweiten digitalen Bildes 112 wird beispielsweise für eine Maske m und den Pixeln x0 des ersten digitalen Bildes 110 der Perturbation Operator ϕ(x0; m) bestimmt durch [ ϕ ( x 0 ; m ) ] ( u ) = m ( u ) x 0 ( u ) + ( 1 m ( u ) ) η ( u )
    Figure DE102020202282A1_0001
    wobei mit η(u) pixelweise ein Rauschen eingeführt wird. Statt Rauschen kann auch eine andere Perturbation, wie z.B. ein Bild, das nur schwarz ist, oder nur weiß ist verwendet werden. Durch ein iteratives Gradientenabstiegsverfahren, beispielsweise ADAM, wird dieses Optimierungsproblem gelöst.
  • Anstelle dieser Darstellung kann auch eine Darstellung erzeugt werden, die einen Zustand oder eine Ausgabe einer verborgenen Schicht des künstlichen neuronalen Netzes visualisiert.
  • Die Vorrichtung 100 kann ausgebildet sein, das erste digitale Bild 110 und das zweite digitale Bild 112 gemeinsam oder nacheinander auf einer Benutzerschnittstelle 116 darzustellen. Die Benutzerschnittstelle 116 kann mit einem ersten berührungsempfindlichen Bereich 118 und einem zweiten berührungsempfindlichen Bereich 120 ausgebildet sein, um eine Nutzereingabe zu erfassen, mit der beispielsweise entweder durch berühren des ersten berührungsempfindlichen Bereichs 118 angegeben werden kann, dass die Erklärung 114 zutreffend ist, oder durch berühren des zweiten berührungsempfindlichen Bereichs 120 angegeben werden kann, dass die Erklärung 114 unzutreffend ist. Die Vorrichtung 100 kann ausgebildet sein, eine Berührung im ersten berührungsempfindlichen Bereich 118 zu detektieren und in Erwiderung darauf ein Muster zu erzeugen, das Daten des ersten digitalen Bilds 110, des zweiten digitale Bilds 112 und eine Klassifizierung als zutreffend umfasst. Die Vorrichtung 100 kann ausgebildet sein, eine Berührung im zweiten berührungsempfindlichen Bereich 120 zu detektieren und in Erwiderung darauf ein Muster zu erzeugen, das Daten des ersten digitalen Bilds 110, des zweiten digitale Bilds 112 und eine Klassifizierung als unzutreffend umfasst.
  • Die Vorrichtung 100 ist im Beispiel ausgebildet, abhängig von einer Vielzahl digitaler Bilder eine Vielzahl Muster zu erzeugen. Die Vorrichtung 100 ist im Beispiel ausgebildet, einen Trainingsdatensatz mit einem ersten Teil der Muster zu erzeugen, einen Validierungsdatensatz mit einem zweiten Teil der Muster zu erzeugen und einen Testdatensatz mit einem dritten Teil der Muster zu erzeugen. Diese Datensätze enthalten im Beispiel voneinander verschiedene Muster. Die Muster können stattdessen auch im Speicher 106 gespeichert oder durch einen externen Server oder Speicher bereitgestellt werden, der mit der Vorrichtung verbunden ist.
  • Das zweite digitale Bild 112 stellt in einem Aspekt eine Referenz für ein Training des Modells dar. Die Vorrichtung 100 kann derart ausgebildet sein, dass das zweite digitale Bild 112 durch einen Menschen mittels Bildbearbeitung erzeugt werden kann.
  • Dadurch werden in einem ersten Schritt zusätzliche Annotierungen der Trainingsdaten-, Validierungsdaten- und Testdatensätze bereitgestellt, die Muster enthalten. Jedes der Muster umfasst im Beispiel Daten des ersten digitalen Bildes 110 und Daten des zugehörigen zweiten digitalen Bildes 112 als Referenz. Diese Muster sind im Falle der zutreffend erkannten Erklärung 114 als Grundwissen, d.h. ground truth, verwendbar.
  • Außer den Trainingsdaten-, Validierungsdaten- und Testdatensätzen können auch Datensätze für vom Modell 104 fehlerhaft klassifizierte Muster oder für Randfälle separat vorgesehen sein.
  • Für eine optische Inspektion, beispielsweise an einem Ende eines Förderbandes einer Fertigungsmaschine, kann eine Kamera vorgesehen sein, mit der die Vorrichtung 100 zumindest zeitweise verbindbar ist, und die die digitalen Bilder erzeugen kann. Die Vorrichtung 100 kann ausgebildet sein, diese Bilder zu erfassen, anzuzeigen und abhängig von einer Nutzereingabe die Muster zu erzeugen. Beispielsweise wird ein Riss oder eine Delle in einer hergestellten Komponente auf dem zweiten digitalen Bild 112 mit „NOK“ als der Erklärung 114 für nicht OK oder „OK“ als Erklärung 114 für OK dargestellt. Es ist auch möglich, Pixel im zweiten digitalen Bild 112 als dieselben Pixel zu bestimmen, wie im ersten digitalen Bild 110 und die Pixel des zweiten digitalen Bildes 112, die als Riss oder die Delle im ersten digitalen Bild 110 erkannt wurden mit farblich verändern Pixeln als Erklärung 114 zu bestimmen.
  • Das Ziel des Verfahrens ist es, zum einen schnell und zuverlässig iterative Änderungen der Parameter, z.B. der Hyperparameter, und/oder der Architektur des Modells 104 zu entwickeln.
  • Dazu wird eine Anforderung an eine Güte der Erklärung 114, die das Modell 104 liefert, definiert. Die Güte der Erklärung 114 ist beispielsweise ein Wert P(x) zwischen 0 und 1, der für ein Muster x angibt, wie gut eine Erklärung 114 ist.
  • Bevorzugt wird die Güte in Form einer Heatmap oder als eine Verteilung von Zuschreibungen von Eigenschaften zu den Mustern durch das Modell 104 im Vergleich zum Grundwissen definiert.
  • Für die digitalen Bilder wird beispielsweise ein Grad der Übereinstimmung IOU definiert: I O U ( X , G ) = ( X   i n t e r s e c t   G ) ( X   u n i o n   G )
    Figure DE102020202282A1_0002
    wobei X durch eine Menge Pixel definiert ist, die für das erste digitale Bild 110 aus einem der Muster vom Modell 104 als Erklärung 114 vorhergesagt werden; wobei G durch eine Menge der Pixel definiert ist, die gemäß der Referenz, d.h. der oben beschriebene „Ground Truth, aus diesem Muster, d.h. dem zweiten digitalen Bild, als Erklärung 114 zutreffend sind. Der Zähler definiert beispielsweise für Pixel des ersten digitalen Bildes 110 als Schnittmenge von X und G die Pixel, die sowohl in der vom Modell 104 bestimmten Erklärung 114 als auch in der Referenz für das erste digitale Bild 110 aktiviert sind. Der Nenner definiert als Vereinigungsmenge alle Pixel die entweder in der Erklärung 114 oder in der Referenz als zur Erklärung 114 zugehörig definiert sind. Der Wert des IOU ist in diesem Fall als Quotient von Anzahl der Pixel in der Schnittenge und Anzahl der Pixel in der Vereinigungsmenge als Wert P(x) für das Muster x definiert. Der Wert des IOU quantifiziert eine Qualität der Positionsvorhersage durch das Modell 104 für die Pixel, die zur Erklärung 114 gehören.
  • Ein Pixel ist beispielsweise als zur Erklärung 114 zugehörig definiert, wenn es mit einer bestimmten Intensität aktiviert ist. Dazu kann ein Attribut für das Pixel binär definiert sein. Beispielweise definiert ein Wert Null des Attributs, dass das Pixel nicht zur Erklärung gehört. Beispielsweise definiert ein Attribut Eins, dass das Pixel zur Erklärung gehört. Anstelle binärer Attribute können auch gewichtet, nicht binäre Attribute vorgesehen sein.
  • In einem zweiten Schritt wird Erklärbarkeitsfaktor E für den Grad der Übereinstimmung für eine Vielzahl Muster x bestimmt. Im Beispiel wird ein Mittel- oder Medianwert als Erklärbarkeitsfaktor E verwendet: E = 1 n x P ( x )
    Figure DE102020202282A1_0003
    wobei n die Anzahl der Muster und P der Wert aus dem ersten Schritt, im Beispiel der IOU ist.
  • Der Erklärbarkeitsfaktor E kann mit einem Schwellwert Es verglichen werden, um ein Maß ELoss für die Güte der Erklärung 114 durch das Modell 104 zu bestimmen. Beispielsweise wird der Erklärbarkeitsfaktor E und der Schwellwert Es durch eine Lp Norm, insbesondere eine L1 norm, d.h. E - ES verglichen. Das Maß ELoss für die Güte der Erklärung kann gewichtet oder ungewichtet in ein Gütemaß Ltotal für das Modell 104 eingehen: L t o t a l = λ S P C S P C + λ S N S S N S + λ E E L O S S
    Figure DE102020202282A1_0004
    wobei λSPC, λSNS, λE Gewichte sind und wobei
    SPC eine Spezifität definiert und
    SNS eine Sensitivität definiert.
  • Die Sensitivität SNS misst einen Anteil von ersten digitalen Bildern 110 für die zutreffend eine Erklärung 114 ausgegeben wird.
  • Die Spezifität SPC misst einen Anteil von ersten digitalen Bildern 110 für die zutreffend keine Erklärung 114 ausgegeben wird.
  • Im Beispiel wird das Gütemaß Ltotal maxmiert. Das Maximum für alle Terme des Gütemaßes Ltotal entspricht der beste Lösung. Um aus dem Gütemaß Ltotal weiter lernen zu können, müssten die individuelle Terme auch differenzierbar sein. In dem beschriebenen Kontext können die Saliency Methoden verwendet werden, die auf eine differenzierbare Weise ihre Ergebnisse produzieren. Für eine Saliency Methode, die nicht in differenzierbarer Weise ihre Ergebnisse produziert, kann ein Zusatzmodell trainiert werden, das differenzierbar ist und das die Ergebnisse dieser Saliency-Methode approximiert.
  • Eine Erklärung 114 wird im Beispiel immer dann ausgegeben, wenn für ein Pixel des ersten digitalen Bildes 110 ein von Null verschiedener Wert für das Attribut dieses Pixels bestimmt wird.
  • In einem dritten Schritt wird ein Parameter des Modells 104 oder seine Architektur abhängig vom Gütemaß Ltotal bestimmt. Bei dem künstlichen neuronalen Netz wird im Beispiel eine Backpropagation insbesondere mit einem Gradientenabstiegsverfahren vorgenommen, um die Parameter des Modells 104 anzupassen. Wenn das Gütemaß Ltotal nicht ableitbar ist, kann eine Näherung durch das beschriebene Zusatzmodell oder eine andere Optimierungsmethode verwendet werden, beispielsweise um das Gütemaß Ltotal ableitbar zu machen, und dann das Gradientenabstiegsverfahren anzuwenden. Wenn die Erklärungen 114, die das Modell 104 erzeugt, zu viele hochfrequente Komponenten aufweisen, d.h. beispielsweise die Pixel im zweiten digitalen Bild 112 beispielsweise durch hochfrequente Änderungen der Farbe der Pixel aus dem ersten digitalen Bild 110 keine sinnvolle Information enthalten, kann vorgesehen sein, das Modell 104, d.h. seine Architektur, zu vereinfachen. Dazu können vorgegebene Regeln eingesetzt werden, die in einem Regelbuch definiert sein können.
  • Für Randfälle oder fehlerhaft Klassifizierte digitale Bilder können zudem Attribute definiert sein, die zusätzliche Erklärungen enthalten, d.h. diese Bilder als fehlerhaft Klassifiziert oder als Randfall erkennbar machen. Dazu kann eine Distanz zwischen Pixeln,
  • Sowohl das Maß ELoss als auch das Gütemaß Ltotal kann diese zusätzlichen Erklärungen als Summanden ebenfalls enthalten, gewichtet oder ungewichtet.
  • Im Folgenden werden ein Signalfluss und Schritte des Verfahrens anhand der 2 und 3 beschrieben.
  • In 2 ist ein Kandidat 10 für das Modell 104 schematisch dargestellt. Der Kandidat 10 ist im Beispiel ein künstliches neuronales Netz das durch seine Parameter und seine Architektur das Modell 104 definiert. Der Kandidat 10 ist ausgebildet einem ersten Muster 12 eine erste Ausgabe 14 und eine erste Erklärung 16 für die erste Ausgabe 14 zuordnet, die auf dem ersten Muster 12 basieren. Das erste Muster 12 umfasst im Beispiel ein digitales Bild, das wie für das erste digitale Bild 110 beschrieben definiert ist. Die erste Ausgabe 14 ist im Beispiel eine Klassifikation des digitalen Bildes, beispielsweise als fehlerhaft oder als fehlerfrei. Die erste Erklärung 16 ist im Beispiel wie für die Erklärung 114 beschrieben definiert.
  • Abhängig von einem Vergleich der ersten Erklärung 16 mit einer ersten Referenz 18 für die erste Erklärung 16 ist ein erstes Maß 20 für eine Güte der ersten Erklärung 16 definiert. Das erste Maß 20 ist beispielsweise der Erklärbarkeitsfaktor E, der als Maß für die Güte der Erklärung 114 definiert ist.
  • Abhängig vom ersten Maß 20 und abhängig von einem Erfolgsmaß 22 ist ein Gütemaß 24 für den Kandidaten 10 definiert. Das Erfolgsmaß 22 quantifiziert die Güte der Vorhersage durch den Kandidaten 10 für das Modell 104. Das Erfolgsmaß 22 ist beispielsweise basierend auf der Spezifität SPC und Sensitivität SNS als Summe dieser definiert. Im Beispiel wird dazu abhängig vom ersten Muster 12 und der Ausgabe 14 für das erste Muster 12 festgestellt, ob die Ausgabe 14 zutreffend fehlerfrei, unzutreffend fehlerfrei, unzutreffend fehlerhaft oder zutreffend fehlerhaft ist. Beispielsweise ist das digitale Bild aus dem Muster 12 mit einem Attribut versehen, dass eine erwartete Klassifikation durch das Modell 104 kennzeichnet.
  • Das Gütemaß 24 ist im Beispiel das Gütemaß Ltotal.
  • Im Beispiel sind eine erste Vielzahl erster Muster 12 durch Trainingsdaten 26 und eine zweite Vielzahl erster Muster 12 durch Validierungsdaten 28 vorgegeben. Diese Muster sind wie zuvor beschrieben definiert und unterscheiden sich voneinander. Jedem dieser Muster 12 ist im Beispiel eine erste Referenz 18 aus einer Vielzahl erster Erklärungen 30 zugeordnet. Die erste Referenz 18 ist beispielsweise wie zuvor für das zweite digitale Bild 114 beschrieben definiert. Jeder ersten Erklärung 30 ist eine erste Referenz 18 und ein erstes Muster 12 zugeordnet.
  • Der Kandidat 10 ist ausgebildet einem zweiten Muster 32 eine zweite Ausgabe 34 und eine zweite Erklärung 36 für die zweite Ausgabe 34 zuordnet, die auf dem zweiten Muster 32 basieren. Das zweite Muster 32 umfasst im Beispiel ein digitales Bild, das wie für das erste digitale Bild 110 beschrieben definiert ist. Die zweite Ausgabe 34 ist im Beispiel eine Klassifikation des digitalen Bildes, beispielsweise als fehlerhaft oder als fehlerfrei. Die zweite Erklärung 36 ist im Beispiel wie für die Erklärung 114 beschrieben definiert.
  • Abhängig von einem Vergleich der zweiten Erklärung 36 mit einer zweiten Referenz 38 für die zweite Erklärung 36 ist ein zweites Maß 40 für eine Güte der zweiten Erklärung 36 definiert. Das zweite Maß 40 ist im Beispiel wie zuvor beschrieben der Erklärbarkeitsfaktor E, der als Maß für die Güte der Erklärung 114 definiert ist.
  • Im Beispiel sind eine erste Vielzahl zweiter Muster 32 durch Testdaten 42 definiert. Diese Muster sind wie zuvor beschrieben definiert und unterscheiden sich voneinander. Jedem zweiten Muster 32 ist im Beispiel eine zweite Referenz 38 aus einer Vielzahl zweiter Erklärungen 44 zugeordnet.
  • Die zweite Referenz 38 ist beispielsweise wie zuvor für das zweite digitale Bild 114 beschrieben definiert. Jeder zweiten Erklärung 44 ist eine zweite Referenz 38 und ein zweites Muster 22 zugeordnet.
  • Das Verfahren umfasst eine erste Phase 1 und eine zweite Phase 2. In der ersten Phase werden erste Muster 12 verwendet, die wie für den zuvor beschriebenen Mustern definiert sind. In der zweiten Phase 2 werden zweite Muster 32 verwendet, die wie für die zuvor beschriebenen Muster definiert sind. Im Beispiel werden ein Trainingsdatensatz, ein Validierungsdatensatz und/oder ein Testdatensatz bereitgestellt, die eine Vielzahl Muster umfassen. Jedes der Muster ist im Beispiel durch Daten eines ersten digitalen Bildes 110 definiert, wobei die Referenz für das Muster durch Daten eines digitalen Referenzbildes definiert ist, d.h. durch ein dem ersten digitalen Bild zugeordnetes zweites digitales Bild 114 aus dem Grundwissen.
  • Für eine Qualität des Kandidaten 10 ist ein Kriterium 46 definiert. Das Kriterium 46 kann beispielsweise eine Spezifität, eine Sensitivität einer Ausgabe 34 des Kandidaten 10 umfassen, die zu der zweiten Erklärung 40 führte. Diese Güte kann beispielsweise abhängig von einer Vielzahl der Ausgaben 34 für eine Vielzahl der Muster 32 definiert sein. Wenn das Modell eine Klassifikation durchführt, kann das Kriterium abhängig von wenigstens einem falsch klassifizierten Muster 48 aus einer Menge falsch klassifizierter Muster 50 definiert sein. Wenn für das Modell Randfälle definiert sind, kann ein Kriterium abhängig von wenigstens einem Randfall 52 aus einer Menge Randfällen 54 definiert sein. Das Kriterium kann eine Rechendauer, einen Speicherplatzbedarf oder andere nicht funktionale Kriterien umfassen.
  • Das Verfahren ist im Beispiel computerimplementiert und dient zum automatisierten Entwickeln eines Daten getriebenen Modells 104.
  • In einem Schritt 302 wird der Kandidat 10 für das Modell 104 bereitgestellt.
  • Anschließend wird ein Schritt 304 ausgeführt.
  • Im Schritt 304 wird abhängig von wenigstens einem ersten Muster 12 aus Trainingsdaten 26 wenigstens eine erste Ausgabe 14 und wenigstens eine erste Erklärung 16 bestimmt.
  • Anschließend wird ein Schritt 306 ausgeführt.
  • Im Schritt 306 wird abhängig von einem Vergleich der wenigstens einen ersten Erklärung 16 mit der wenigstens einen ersten Referenz 18 für die wenigstens eine erste Erklärung 16 das erste Maß 20 für die Güte der ersten Erklärung 16 bestimmt. Das erste Maß 20 wird im Beispiel wie zuvor beschrieben als Maß für die Güte der Erklärung 114 bestimmt. In der ersten Phase 1 wird die wenigstens eine erste Referenz 18 für das wenigstens eine erste Muster 12 aus den ersten Erklärungen 30 bestimmt. Jedem ersten Muster 12 ist im Beispiel eine der ersten Erklärungen 14 und eine der ersten Referenzen 18 zugeordnet.
  • Das erste Maß 20 wird in einem Aspekt in der ersten Phase 1 abhängig von wenigstens einem Muster 12 aus Trainingsdaten 26 bestimmt. Das erste Maß 20 wird in einem anderen Aspekt in der ersten Phase 1 abhängig von wenigstens einem Muster 12 aus Validierungsdaten 28 bestimmt.
  • Anschließend wird ein Schritt 308 ausgeführt.
  • Im Schritt 308 wird abhängig vom ersten Maß 20 und abhängig von einem Erfolgsmaß 22 das Gütemaß 24 für den Kandidaten 10 bestimmt. Das Erfolgsmaß quantifiziert die Güte der Vorhersage durch den Kandidaten 10 für das Modell 104. Das Erfolgsmaß 22 ist beispielsweise basierend auf der Spezifität SPC und Sensitivität SNS als Summe dieser definiert. Das Gütemaß 24 ist im Beispiel das Gütemaß Ltotal.
  • Anschließend wird ein Schritt 310 ausgeführt.
  • Im Schritt 310 wird geprüft, ob das Gütemaß 24 ein Kriterium erfüllt. Wenn das Gütemaß 24 das Kriterium erfüllt, wird ein Schritt 314 ausgeführt. Anderenfalls wird ein Schritt 312 ausgeführt. Das Kriterium ist im Beispiel erfüllt, wenn das Gütemaß Ltotal. den Schwellwert überschreitet.
  • Im Schritt 312 wird abhängig vom Gütemaß 24 wenigstens ein Parameter und/oder die Architektur des Kandidaten 10 bestimmt. Das bedeutet, dass abhängig vom ersten Maß 20 wenigstens ein Parameter und/oder die Architektur des Kandidaten 10 für das Modell 104 bestimmt wird. Im Beispiel wird eine Backpropagation wie zuvor beschrieben für das Training des künstlichen neuronalen Netzes durchgeführt. Das Modell wird damit abhängig von der Güte der Vorhersage selbst und der Güte der Erklärung für diese Vorhersage trainiert.
  • Anschließend wird der Schritt 302 ausgeführt.
  • Im Schritt 314 wird abhängig von wenigstens einem zweiten Muster 32 aus Testdaten 42 wenigstens eine zweite Ausgabe 34 und wenigstens eine zweite Erklärung 36 bestimmt.
  • Anschließend wird ein Schritt 316 ausgeführt.
  • Im Schritt 316 wird abhängig von einem Vergleich der wenigstens einen zweiten Erklärung 36 mit der wenigstens einen zweiten Referenz 38 für die wenigstens eine zweite Erklärung 36 ein zweites Maß 40 für eine Güte der zweiten Erklärung 36 bestimmt. Das zweite Maß 40 wird im Beispiel wie zuvor beschrieben als Maß für die Güte der Erklärung 114 bestimmt. In der zweiten Phase 2 wird die wenigstens eine zweite Referenz 38 für das wenigstens eine zweite Muster 32 aus den zweiten Erklärungen 44 bestimmt. Jedem zweiten Muster 32 ist im Beispiel eine der zweiten Erklärungen 44 und eine der zweiten Referenzen 38 zugeordnet.
  • Das zweite Maß 40 wird in einem Aspekt in der zweiten Phase 2 abhängig von wenigstens einem Muster 32 aus Testdaten 42 bestimmt, die von den Trainingsdaten 26 verschieden sind. In einem Aspekt wird das Maß 40 in der zweiten Phase 2 abhängig von wenigstens einem Muster 32 aus Testdaten 42 bestimmt, die von den Validierungsdaten 28 verschieden sind.
  • Dadurch wird anhand zuvor nicht verwendeter Daten geprüft, wie gut sich die Erklärungen, die der Kandidat liefert, generalisieren lassen.
  • Anschließend wird ein Schritt 318 ausgeführt.
  • Im Schritt 318 wird wenigstens ein Parameter und/oder die Architektur des Kandidaten 10 bestimmt.
  • Der wenigstens eine Parameter und/oder die Architektur des Kandidaten 10 wird im Beispiel abhängig vom Maß 40 und unabhängig vom Erfolgsmaß 22 bestimmt. Vorzugsweise wird Parameter und/oder die Architektur des Kandidaten 10 abhängig vom Maß 40 und unabhängig vom Gütemaß 24 oder abhängig vom Maß 40 und unabhängig sowohl vom Erfolgsmaß 22 als auch vom Gütemaß 24 bestimmt.
  • In der zweiten Phase 2 wird damit ein Ergebnis für einen bereits in der ersten Phase vortrainierten Kandidat 10 dazu verwendet, einen hinsichtlich der Erklärung der Ausgabe optimierten Kandidaten zu bestimmen.
  • Anschließend wird ein Schritt 320 ausgeführt.
  • Im Schritt 320 wird geprüft, ob das in der zweiten Phase 2 für den Kandidaten 10 bestimmte zweite Maß 40 einen Schwellwert erreicht oder unterschreitet. Wenn das für den Kandidaten 10 bestimmte zweite Maß 40 den Schwellwert erreicht oder unterschreitet wird ein Schritt 322 ausgeführt. Anderenfalls wird ein Schritt 324 ausgeführt.
  • Im Schritt 322 wird wenigstens ein Parameter und/oder die Architektur des Kandidaten 10 abhängig vom zweiten Maß 40 bestimmt. Anschließend wird der Schritt 302 ausgeführt. Das bedeutet, die erste Phase 1 wird für den Kandidaten 10 mit geänderten Parametern und/oder einer geänderten Architektur ausgeführt wird. Dadurch wird ein Kandidat der keine ausreichend gute Erklärung liefert, gezielt hinsichtlich der Erklärung verbessert.
  • Im Schritt 324 wird für den Kandidaten 10 das Kriterium 46 für die Qualität des Kandidaten 10 bestimmt, und im Vergleich mit einem oder mehreren Kandidaten aus der Vielzahl Kandidaten 10 ein Kandidat 10 bestimmt, der bezüglich des Kriteriums 46 Pareto-optimal zu dem oder den anderen Kandidaten 10 der Vielzahl Kandidaten 10 ist. Diese Güte wird beispielsweise abhängig von einer Vielzahl der Ausgaben 34 für eine Vielzahl der Muster 32 bestimmt. Wenn das Modell eine Klassifikation durchführt, kann das Kriterium abhängig von wenigstens einem falsch klassifizierten Muster 48 aus einer Menge falsch klassifizierter Muster 50 bestimmt werden. Wenn für das Modell Randfälle definiert sind, kann das Kriterium abhängig von wenigstens einem Randfall 52 aus einer Menge Randfällen 54 bestimmt werden. Das Kriterium kann eine Rechendauer, einen Speicherplatzbedarf oder andere nicht funktionale Kriterien umfassen. Damit wird ein Kandidat ausgewählt, der auf der Pareto Front hinsichtlich der Konsistenz der Erklärbarkeit liegt.
  • Anschließend wird ein Schritt 326 ausgeführt.
  • Im Schritt 326 wird geprüft, ob alle Kandidaten 10 aus der Vielzahl Kandidaten 10 die erste Phase 1 bereits durchlaufen haben und ob ein Pareto-optimaler Kandidat 10 ermittelt wurde. Wenn diese der Fall ist, wird ein Schritt 328 ausgeführt. Anderenfalls wird der Schritt 302 für einen anderen Kandidaten 10 ausgeführt. Ein Kandidat, der nicht Pareto-optimal ist wird verworfen.
  • Im Schritt 328 wird das Modell 104 abhängig vom Kandidaten 10 bestimmt. Im Beispiel wird das Modell 104 mit den Parametern und der Architektur des Kandidaten 10 bestimmt und/oder abgespeichert.
  • Anschließend endet das Verfahren.

Claims (12)

  1. Computerimplementiertes Verfahren zum automatisierten Entwickeln Modells (104), dadurch gekennzeichnet, dass ein Kandidat (10) für das Modell bereitgestellt wird (302), der einem Muster (12, 32) eine Ausgabe (14, 34) und eine Erklärung (16, 36) für die Ausgabe (14, 34) zuordnet, die auf dem Muster (12, 32) basiert, wobei abhängig von einem Vergleich der Erklärung (16, 36) mit einer Referenz (18, 38) für die Erklärung (16, 36) ein Maß (20, 40) für eine Güte der Erklärung (16, 36) bestimmt wird (306, 316), wobei abhängig vom Maß (20, 40) entweder das Modell (104) abhängig vom Kandidaten (10) bestimmt wird (328), oder wenigstens ein Parameter und/oder eine Architektur des Kandidaten (10) für das Modell (104) bestimmt wird (312, 322).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass abhängig vom Maß (20, 40) und abhängig von einem Erfolgsmaß (22) ein Gütemaß (24) für den Kandidaten (10) bestimmt wird (308), wobei das Erfolgsmaß (22) eine Güte einer Vorhersage durch den Kandidaten (10) basierend auf einer Summe einer Spezifität (SPC) und einer Sensitivität (SNS) der Vorhersage durch den Kandidaten (10) definiert, wobei abhängig vom Gütemaß (24) entweder das Modell (104) abhängig vom Kandidaten (10) oder wenigstens ein Parameter und/oder die Architektur des Kandidaten (10) bestimmt wird (312).
  3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass in einer ersten Phase (1) wenigstens ein Parameter und/oder die Architektur des Kandidaten (10) abhängig vom Gütemaß (24) bestimmt wird (312), wobei in einer zweiten Phase (2) wenigstens ein Parameter und/oder die Architektur des Kandidaten (10) entweder abhängig vom Maß (40) und unabhängig vom Erfolgsmaß (22) oder abhängig vom Maß (40) und unabhängig vom Gütemaß (24) oder abhängig vom Maß (40) und unabhängig sowohl vom Erfolgsmaß (22) als auch vom Gütemaß (24) bestimmt wird (322).
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass in der ersten Phase (1) überprüft wird, ob das Gütemaß (24) ein Kriterium erfüllt, wobei die zweite Phase (2) ausgeführt wird, wenn das Gütemaß (24) das Kriterium erfüllt und wobei anderenfalls wenigstens ein Parameter und/oder die Architektur des Kandidaten (10) abhängig vom Gütemaß (24) bestimmt wird.
  5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, dass das Maß (20) in der ersten Phase (1) abhängig von wenigstens einem Muster (12) aus Trainingsdaten (26) bestimmt wird (306), wobei das Maß (40) in der zweiten Phase (2) abhängig von wenigstens einem Muster (32) aus Testdaten (42) bestimmt wird (316), die von den Trainingsdaten (26) verschieden sind und/oder dass das Maß (20) in der ersten Phase (1) abhängig von wenigstens einem Muster (12) aus Validierungsdaten (28) bestimmt wird (306), wobei das Maß (40) in der zweiten Phase (2) abhängig von wenigstens einem Muster (32) aus Testdaten (42) bestimmt wird (316), die von den Validierungsdaten (28) verschieden sind.
  6. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass geprüft wird (320), ob das in der zweiten Phase (2) für den Kandidaten (10) bestimmte Maß (40) einen Schwellwert erreicht oder unterschreitet, wobei, wenn das für den Kandidaten (10) bestimmte Maß (40) den Schwellwert erreicht oder unterschreitet, wenigstens ein Parameter und/oder die Architektur des Kandidaten (10) abhängig vom Maß (40) bestimmt wird (322), und die erste Phase (1) für den Kandidaten (10) ausgeführt wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass in der zweiten Phase (2) für den Kandidaten (10) ein Kriterium (46) für eine Qualität des Kandidaten (10) bestimmt wird (324), wobei das Modell abhängig von dem Kandidaten (10)9 aus einer Vielzahl Kandidaten (10) bestimmt wird (324) der bezüglich des Kriteriums (46) Pareto-optimal zu dem oder den anderen Kandidaten (10) der Vielzahl Kandidaten (10) ist.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Muster (12, 32) durch Daten eines digitalen Bildes definiert ist, wobei die Referenz (18, 38) für das Muster (12, 32) durch Daten eines digitalen Referenzbildes definiert ist.
  9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass ein Trainingsdatensatz (26), ein Validierungsdatensatz (28) und/oder ein Testdatensatz (30) bereitgestellt wird, der eine Vielzahl Muster (12, 32) umfasst.
  10. Vorrichtung (100) zum automatisierten Entwickeln eines Daten getriebenen Modells (104), dadurch gekennzeichnet, dass die Vorrichtung (100) eine Recheneinrichtung (102) und einen Speicher (106) für das Modell (104) und Instruktionen für die Recheneinrichtung (102) umfasst, und ausgebildet ist, das Verfahren nach einem der Ansprüche 1 bis 9 durchzuführen, wenn die Recheneinrichtung (102) die Instruktionen ausführt.
  11. Computerprogramm, dadurch gekennzeichnet, dass das Computerprogramm computerlesbare Instruktionen umfasst, bei deren Ausführung durch einen Computer ein Verfahren nach einem der Ansprüche 1 bis 9 abläuft.
  12. Computerprogrammprodukt, dadurch gekennzeichnet, dass das Computerprogrammprodukt ein computerlesbares Speichermedium umfasst, auf dem das Computerprogramm nach Anspruch 11 gespeichert ist.
DE102020202282.8A 2020-02-21 2020-02-21 Verfahren und Vorrichtung zum automatisierten Entwickeln eines Daten getriebenen Modells Pending DE102020202282A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020202282.8A DE102020202282A1 (de) 2020-02-21 2020-02-21 Verfahren und Vorrichtung zum automatisierten Entwickeln eines Daten getriebenen Modells

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020202282.8A DE102020202282A1 (de) 2020-02-21 2020-02-21 Verfahren und Vorrichtung zum automatisierten Entwickeln eines Daten getriebenen Modells

Publications (1)

Publication Number Publication Date
DE102020202282A1 true DE102020202282A1 (de) 2021-08-26

Family

ID=77175954

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020202282.8A Pending DE102020202282A1 (de) 2020-02-21 2020-02-21 Verfahren und Vorrichtung zum automatisierten Entwickeln eines Daten getriebenen Modells

Country Status (1)

Country Link
DE (1) DE102020202282A1 (de)

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KÖNIG, Jacob, [et al.]: A convolutional neural network for pavement surface crack segmentation using residual connections and attention gating. In: 2019 IEEE International Conference on Image Processing (ICIP). IEEE, 2019. S. 1460-1464.DOI: https://doi.org/10.1109/ICIP.2019.8803060
ZOU, Qin, [et al.]: Deepcrack: Learning hierarchical convolutional features for crack detection. IEEE Transactions on Image Processing, 2018, 28. Jg., Nr. 3, S. 1498-1512.DOI: https://doi.org/10.1109/TIP.2018.2878966

Similar Documents

Publication Publication Date Title
DE102018111905A1 (de) Domänenspezifische Sprache zur Erzeugung rekurrenter neuronaler Netzarchitekturen
DE102018006962A1 (de) Regelfestlegung für Black-Box-Maschinenlernmodelle
DE102018108779A1 (de) Schätzvorrichtung eines maschinellen Bearbeitungsfehlerfaktors
DE102014223226A1 (de) Diskriminator, Unterscheidungsprogramm und Unterscheidungsverfahren
WO2004090807A2 (de) Verfahren zum trainieren von neuronalen netzen
DE102017209262A1 (de) Verfahren und Vorrichtung zur automatischen Gestenerkennung
DE112019000093T5 (de) Diskriminierungsvorrichtung und Maschinenlernverfahren
DE102019209644A1 (de) Verfahren zum Trainieren eines neuronalen Netzes
DE102019204139A1 (de) Training für künstliche neuronale Netzwerke mit besserer Ausnutzung der Lern-Datensätze
DE102018122019A1 (de) Computer implementiertes Verfahren zur Bewertung von Objektbilddaten eines Objektes
DE112020003343T5 (de) System und verfahren mit einem robusten tiefen generativen modell
DE102019206720B4 (de) Überwachung eines KI-Moduls einer Fahrfunktion eines Fahrzeugs
DE102020202282A1 (de) Verfahren und Vorrichtung zum automatisierten Entwickeln eines Daten getriebenen Modells
EP4047316A1 (de) Verfahren zum bewerten einer bekanntheit einer fahrstrecke und elektronische recheneinrichtung
DE112021000251T5 (de) Verfahren zum auswählen von datensätzen zum aktualisieren eines moduls mit künstlicher intelligenz
DE102020204140A1 (de) Vorrichtung und automatisiertes Verfahren zur Auswertung von Sensormesswerten und Verwendung der Vorrichtung
WO2020233992A1 (de) Verfahren zum funktionsspezifischen robustifizieren eines neuronalen netzes
DE102019207575A1 (de) Verfahren zum Beurteilen einer funktionsspezifischen Robustheit eines Neuronalen Netzes
DE102019206047A1 (de) Training trainierbarer Module mit Lern-Daten, deren Labels verrauscht sind
DE102019220615A1 (de) Verfahren und Vorrichtung zum Erkennen und Klassifizieren von Objekten
DE102019209463A1 (de) Verfahren zur Bestimmung eines Vertrauenswertes eines Objektes einer Klasse
EP3716058A1 (de) Verfahren zum ansteuern eines geräts mit einem neuen programmcode
DE102019206049A1 (de) Erkennung und Behebung von Rauschen in Labels von Lern-Daten für trainierbare Module
DE102022206892A1 (de) Verfahren zum Bestimmen einer optimalen Architektur eines künstlichen neuronalen Netzes
DE202022103792U1 (de) Vorrichtung zum Bestimmen einer optimalen Architektur eines künstlichen neuronalen Netzes

Legal Events

Date Code Title Description
R163 Identified publications notified