DE102022203834A1 - Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung - Google Patents

Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung Download PDF

Info

Publication number
DE102022203834A1
DE102022203834A1 DE102022203834.7A DE102022203834A DE102022203834A1 DE 102022203834 A1 DE102022203834 A1 DE 102022203834A1 DE 102022203834 A DE102022203834 A DE 102022203834A DE 102022203834 A1 DE102022203834 A1 DE 102022203834A1
Authority
DE
Germany
Prior art keywords
machine learning
inequality condition
learning algorithm
hyperparameters
inequality
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022203834.7A
Other languages
English (en)
Inventor
Frank Hutter
Suhei Watanabe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022203834.7A priority Critical patent/DE102022203834A1/de
Priority to US18/299,213 priority patent/US20230334371A1/en
Priority to JP2023067748A priority patent/JP2023159051A/ja
Priority to CN202310416857.0A priority patent/CN116912613A/zh
Priority to KR1020230051247A priority patent/KR20230149261A/ko
Publication of DE102022203834A1 publication Critical patent/DE102022203834A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/10Interfaces, programming languages or software development kits, e.g. for simulating neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/0985Hyperparameter optimisation; Meta-learning; Learning-to-learn
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Feedback Control In General (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung, wobei jede der wenigstens einen Ungleichheitsbedingung jeweils eine Nebenbedingung repräsentiert, wobei das Verfahren (1) folgende Schritte aufweist: Optimieren von Hyperparametern für den Algorithmus des maschinellen Lernens durch Anwendung eines baumstrukturierten Parzen-Schätzers, wobei der baumstrukturierte Parzen-Schätzer auf einer basierend auf der wenigstens eine Ungleichheitsbedingung angepassten Akquisitionsfunktion basiert (2); und Trainieren des Algorithmus des maschinellen Lernens basierend auf den optimierten Hyperparametern (3).

Description

  • Die Erfindung betrifft ein Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung, wobei jede der wenigstens einen Ungleichheitsbedingungen eine Nebenbedingung repräsentiert, und insbesondere ein Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens basierend auf Hyperparametern, wobei die Hyperparameter unter Berücksichtigung wenigstens einer Ungleichheitsbedingung optimiert wurden.
  • Algorithmen des maschinellen Lernens basieren allgemein darauf, dass Verfahren der Statistik verwendet werden, um eine Datenverarbeitungsanlage derart zu trainieren, dass diese eine bestimmte Aufgabe ausführen kann, ohne dass diese ursprünglich explizit hierzu programmiert wurde. Das Ziel des maschinellen Lernens besteht dabei darin, Algorithmen zu konstruieren, die aus Daten lernen und Vorhersagen treffen können.
  • Vor dem Einsatz beziehungsweise der Anwendung derartiger Algorithmen des maschinellen Lernens werden diese dabei basierend auf den jeweiligen Anwendungsfall kennzeichnenden Trainingsdaten trainiert, wobei automatisch Gewichte innerhalb des Algorithmus des maschinellen Lernens derart angepasst werden, dass der Algorithmus des maschinellen Lernens zunehmend in der Lage ist, Beziehungen zwischen Features und Vorhersagen beziehungsweise Eingabedaten und entsprechenden Ausgabedaten abzubilden.
  • Durch das Trainieren des Algorithmus des maschinellen Lernens nicht beeinflusst werden jedoch die Struktur, beispielsweise die Architektur des Algorithmus des Algorithmus des maschinellen Lernens, welche über sogenannte Hyperparameter definiert wird. Hyperparameter sind die Parameter eines Algorithmus des maschinellen Lernens, welche nicht direkt durch die Trainingsdaten angepasst werden bzw. vor dem Training gesetzt werden müssen, zum Beispiel die Anzahl der Schichten eines neuronalen Netzes.
  • Da jedoch die Güte beziehungsweise Performanz eines Algorithmus des maschinellen Lernens auch durch dessen Hyperparameter bestimmt wird, ist es wichtig, diese vor dem eigentlichen Trainieren des Algorithmus des maschinellen Lernens zu optimieren.
  • Wichtig beim Optimieren von Hyperparametern ist dabei ferner, Randbeziehungsweise Nebenbedingungen, beispielsweise Vorgaben bezüglich zur Verfügung stehender Computerressourcen zu berücksichtigen. Derartige Nebenbedingungen liegen dabei häufig in Form von Ungleichheitsbedingungen vor.
  • Aus der Druckschrift US 11,093,833 B1 ist ein Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens bekannt, wobei das Trainieren des Algorithmus des maschinellen Lernens auf abgestimmten Hyperparameterwerten basiert. Dabei wird, wenn eine ausgewählte Hyperparameterkonfiguration eine lineare Beschränkung nicht erfüllt, bestimmt, ob eine Projektion der ausgewählten Hyperparameterkonfiguration in einem ersten Cache enthalten ist, der zuvor berechnete Projektionen speichert. Wenn die Projektion im ersten Cache enthalten ist, wird die Projektion unter Verwendung der ausgewählten Hyperparameterkonfiguration aus dem ersten Cache extrahiert, und wird die ausgewählte Hyperparameterkonfiguration durch die extrahierte Projektion ersetzt. Wenn die Projektion nicht im ersten Cache enthalten ist, wird einer Sitzung eine berechnete Projektion für die ausgewählte Hyperparameterkonfiguration zugewiesen. Eine berechnete Projektion wird von der Sitzung für die ausgewählte Hyperparameterkonfiguration empfangen. Die berechnete Projektion und die ausgewählte Hyperparameterkonfiguration werden im ersten Cache gespeichert, und die ausgewählte Hyperparameterkonfiguration wird durch die berechnete Projektion ersetzt.
  • Der Erfindung liegt somit die Aufgabe zugrunde, ein verbessertes Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von in Form von Ungleichheitsbedingungen vorliegenden Nebenbedingungen anzugeben.
  • Die Aufgabe wird gelöst durch ein Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung gemäß den Merkmalen des Patentanspruchs 1.
  • Die Aufgabe wird zudem auch gelöst durch ein Steuergerät zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung gemäß den Merkmalen des Patentanspruchs 6.
  • Offenbarung der Erfindung
  • Gemäß einer Ausführungsform der Erfindung wird diese Aufgabe gelöst durch ein Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung, wobei jede der wenigstens einen Ungleichheitsbedingung jeweils eine Nebenbedingung repräsentiert, und wobei das Verfahren ein Optimieren von Hyperparametern für den Algorithmus des maschinellen Lernens durch Anwendung eines baumstrukturierten Parzen-Schätzers, wobei der baumstrukturierte Parzen-Schätzer auf einer basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion basiert, und ein Trainieren des Algorithmus des maschinellen Lernens basierend auf den optimierten Hyperparametern aufweist.
  • Unter baumstrukturierten Parzen-Schätzer wird dabei ein Verfahren verstanden, welches kategoriale Hyperparameter baumstrukturiert behandelt, beziehungsweise ein Verfahren, welches Parzen-Schätzer in einem bedingte Hyperparameter aufweisenden Suchraum erzeugt. Beispielsweise erfordern die Auswahl der Anzahl der Schichten eines neuronalen Netzes und die die Auswahl der Anzahl der Neuronen in den einzelnen Schichten eine Baumstruktur. Weiter werden zwei Verteilungen für die Hyperparameter beziehungsweise Dichten definiert, insbesondere eine, bei der Ausgabewerte einer Zielfunktion kleiner als ein Schwellwert sind, und eine, bei der die Ausgabewerte der Zielfunktion größer oder gleich dem Schwellwert sind.
  • Beispielsweise werden die Hyperparameter dabei in gute und in schlechte Werte eingeteilt. Die Zielfunktion ist dabei ferner eine Funktion, welche Hyperparameter in einen reellen Wert umwandelt, wobei dieser reelle Wert im Rahmen der Hyperparameteroptimierung zu minimieren ist. Die beiden Dichten werden anschließend unter Verwendung von Parzen-Schätzern beziehungsweise Kernel-Dichtenschätzern modelliert, die einen einfachen Durchschnitt von Kerneln darstellen, die auf vorhandenen Datenpunkten zentriert sind. Dabei wird eine Menge an Hyperparametern entsprechend der größten erwarteten Verbesserung ausgegeben beziehungsweise das Verbesserungspotential einzelner Auswahlen von Hyperparametern geschätzt.
  • Baumstrukturierte Parzen-Schätzer zeichnen sich dabei, verglichen mit anderen gängigen Verfahren zur Optimierung von Hyperparametern, beispielsweise Evolutionsstrategie, durch ihre Vielseitigkeit und stabile Performanz aus, zumal diese auf Verteilungen basieren.
  • Unter Akquisitionsfunktion beziehungsweise Auswahlfunktion wird dabei weiter eine Funktion angegeben, welche das Kriterium definiert, nach dem der nächste Satz von Hyperparametern ausgewählt wird. Bei dem Kriterium kann es sich dabei beispielsweise um eine erwartete Verbesserung handeln.
  • Dass die Akquisitionsfunktion dabei basierend auf der wenigstens eine Ungleichheitsbedingung angepasst ist, hat dabei den Vorteil, dass die Hyperparameter auch bei Vorliegen wenigstens einer Ungleichheitsbedingung, beispielsweise Vorgaben bezüglich der zur Optimierung der Hyperparameter beziehungsweise zum Trainieren des Algorithmus des maschinellen Lernens zur Verfügung stehenden Computerressourcen, gut optimiert werden können und die optimierten Hyperparameter robust gegenüber der wenigstens einen Ungleichheitsbedingung sind.
  • Insgesamt wird somit ein verbessertes Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von in Form von Ungleichheitsbedingungen vorliegenden Nebenbedingungen angegeben.
  • In einer Ausführungsform weist das Verfahren dabei weiter einen Schritt eines Ermittelns der basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion auf, wobei das Ermitteln der basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion ein Faktorisieren von jeder der wenigstens einen Ungleichheitsbedingung aufweist.
  • Unter Faktorisieren wird dabei ein Zerlegen eines Objektes in mehrere nicht triviale Faktoren verstanden. Insbesondere können die Ungleichheitsbedingungen beziehungsweise eine mathematische Definition der Nebenbedingungen dabei wiederum jeweils in zwei Verteilungen, welche anschließend durch den baumstrukturierten Parzen-Schätzer und insbesondere die entsprechende Akquisitionsfunktion weiter verarbeitet werden können, zerlegt werden, insbesondere eine, bei der Ausgabewerte der entsprechenden Zielfunktion kleiner als ein Schwellwert sind, und eine, bei der die Ausgabewerte der Zielfunktion größer oder gleich dem Schwellwert sind.
  • Somit kann insgesamt eine gemeinsame, kombinierte Verteilung für das Modell und die wenigstens eine Ungleichheitsbedingung beziehungsweise Nebenbedingung als Grundlage für die Optimierung der Hyperparameter gewählt werden, so dass gewährleistet werden kann, dass die optimierten Hyperparameter anschließend auch robust gegenüber der wenigstens einen Ungleichheitsbedingung sind. Dass nur Verteilungen hinsichtlich der wenigstens einen Ungleichheitsbedingung betrachtet werden, hat dabei zudem den Vorteil, dass insgesamt vergleichsweise wenig Computerressourcen zur Optimierung der Hyperparameter benötigt werden. Durch die Faktorisierung beziehungsweise die verschiedenen Verteilungen bezüglich der wenigstens einen Ungleichheitsbedingung können zudem verschiedene Beobachtungen bezüglich jeder der wenigstens einen Ungleichheitsbedingung in die Optimierung der Hyperparameter mit einfließen.
  • Dabei kann das Ermitteln der basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion weiter ein Multiplizieren einer Akquisitionsfunktion für eine Zielfunktion mit jeweils einer Akquisitionsfunktion für jeder der wenigstens einen Ungleichheitsbedingungen aufweisen. Somit kann die gemeinsame, kombinierte Verteilung für das Modell und die wenigstens eine Ungleichheitsbedingung auf einfache Art und Weise und mit vergleichsweise wenig Computerressourcen ermittelt werden.
  • Bei der wenigstens einen Ungleichheitsbedingung kann es sich ferner um wenigstens eine Vorgabe bezüglich zur Verfügung stehender Computerressourcen handeln. Folglich fließen auch Gegebenheiten der Datenverarbeitungsanlage, auf welcher die Optimierung der Hyperparameter ausgeführt wird, beziehungsweise erfolgt, selber in die Optimierung der Hyperparameter mit ein.
  • Mit einer weiteren Ausführungsform der Erfindung wird auch ein Verfahren zum Klassifizieren von Bilddaten angegeben, wobei Bilddaten unter Verwendung eines Algorithmus des maschinellen Lernens, welcher trainiert ist, Bilddaten zu klassifizieren, klassifiziert werden, und wobei der Algorithmus des maschinellen Lernens unter Verwendung eines obenstehend beschriebenen Verfahrens zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheits-Bedingung trainiert wurde.
  • Somit wird ein Verfahren zum Klassifizieren von Bilddaten angegeben, welches auf einem durch ein verbessertes Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von in Form von Ungleichheitsbedingungen vorliegenden Nebenbedingungen trainierten Algorithmus des maschinellen Lernens basiert. Dass die Optimierung der Hyperparameter dabei auf einer Akquisitionsfunktion, welche basierend auf der wenigstens einen Ungleichheitsbedingung angepasst ist, basiert, hat dabei den Vorteil, dass die Hyperparameter auch bei Vorliegen wenigstens einer Ungleichheitsbedingung, beispielsweise Vorgaben bezüglich der zur Optimierung der Hyperparameter beziehungsweise zum Trainieren des Algorithmus des maschinellen Lernens zur Verfügung stehenden Computerressourcen, gut optimiert werden können und die optimierten Hyperparameter robust gegenüber der wenigstens einen Ungleichheitsbedingung sind.
  • Insbesondere kann der entsprechende Algorithmus des maschinellen Lernens dabei verwendet werden, um Bilddaten, insbesondere digitale Bilddaten auf der Grundlage von Low-level-Merkmalen, beispielsweise Kanten oder Pixelattributen, zu klassifizieren. Dabei kann weiter ein Bildverarbeitungsalgorithmus verwendet werden, um ein Klassifizierungsergebnis, welches sich auf entsprechende Low-level Merkmale konzentriert, zu analysieren.
  • Mit einer weiteren Ausführungsform der Erfindung wird weiter auch ein Steuergerät zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung angegeben, wobei jede der wenigstens einen Ungleichheitsbedingung jeweils eine Nebenbedingung repräsentiert, und wobei das Steuergerät eine Optimierungseinheit, welche ausgebildet ist, Hyperparameter für den Algorithmus des maschinellen Lernens durch Anwendung eines baumstrukturierten Parzen-Schätzers zu optimieren, wobei der baumstrukturierte Parzen-Schätzer auf einer basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion basiert, und eine Trainingseinheit, welche ausgebildet ist, den Algorithmus des maschinellen Lernens basierend auf den optimierten Hyperparametern zu trainieren, aufweist.
  • Somit wird ein verbessertes Steuergerät zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von in Form von Ungleichheitsbedingungen vorliegenden Nebenbedingungen angegeben. Dass Steuergerät ist dabei ausgebildet, die Hyperparameter basierend auf einer Akquisitionsfunktion, welche basierend auf der wenigstens einen Ungleichheitsbedingung angepasst ist, zu optimieren, was den Vorteil hat, dass die Hyperparameter auch bei Vorliegen wenigstens einer Ungleichheitsbedingung, beispielsweise Vorgaben bezüglich der zur Optimierung der Hyperparameter beziehungsweise zum Trainieren des Algorithmus des maschinellen Lernens zur Verfügung stehenden Computerressourcen, gut optimiert werden können und die optimierten Hyperparameter robust gegenüber der wenigstens einen Ungleichheitsbedingung sind.
  • In einer Ausführungsform weist das Steuergerät dabei weiter eine Ermittlungseinheit auf, welche ausgebildet ist, die basierend auf der wenigstens einen Ungleichheitsbedingung angepasste Akquisitionsfunktion zu ermitteln, wobei das Ermitteln der basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion ein Faktorisieren von jeder der wenigstens einen Ungleichheitsbedingung aufweist. Somit kann insgesamt eine gemeinsame, kombinierte Verteilung für das Modell und die wenigstens eine Ungleichheitsbedingung beziehungsweise Nebenbedingung als Grundlage für die Optimierung der Hyperparameter gewählt werden, so dass gewährleistet werden kann, dass die optimierten Hyperparameter anschließend auch robust gegenüber der wenigstens einen Ungleichheitsbedingung sind. Dass nur Verteilungen hinsichtlich der wenigstens einen Ungleichheitsbedingung betrachtet werden, hat dabei zudem den Vorteil, dass insgesamt vergleichsweise wenig Computerressourcen zur Optimierung der Hyperparameter benötigt werden. Durch die Faktorisierung beziehungsweise die verschiedenen Verteilungen bezüglich der wenigstens einen Ungleichheitsbedingung können zudem verschiedene Beobachtungen bezüglich jeder der wenigstens einen Ungleichheitsbedingung in die Optimierung der Hyperparameter mit einfließen.
  • Dabei kann die Ermittlungseinheit weiter ausgebildet sein, die basierend auf der wenigstens eine Ungleichheitsbedingung angepasste Akquisitionsfunktion durch Multiplizieren einer Akquisitionsfunktion für eine Zielfunktion mit jeweils einer Akquisitionsfunktionen für jede der wenigstens einen Ungleichheitsbedingung zu ermitteln. Somit kann die gemeinsame, kombinierte Verteilung für das Modell und die wenigstens eine Ungleichheitsbedingung auf einfache Art und Weise und mit vergleichsweise wenig Computerressourcen ermittelt werden.
  • Bei der wenigstens einen Ungleichheitsbedingung kann es sich ferner wiederum um wenigstens eine Vorgabe bezüglich zur Verfügung stehender Computerressourcen handeln. Folglich fließen auch Gegebenheiten der Datenverarbeitungsanlage, auf welcher die Optimierung der Hyperparameter ausgeführt wird, beziehungsweise erfolgt, selber in die Optimierung der Hyperparameter mit ein.
  • Mit einer weiteren Ausführungsform der Erfindung wird außerdem auch ein Steuergerät zum Klassifizieren von Bilddaten angegeben, wobei das Steuergerät ausgebildet ist, Bilddaten unter Verwendung eines Algorithmus des maschinellen Lernens, welcher trainiert ist, Bilddaten zu klassifizieren, zu klassifizieren, und wobei der Algorithmus des maschinellen Lernens durch ein obenstehend beschriebenes Steuergerät zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheits-Bedingung trainiert wurde.
  • Somit wird ein Steuergerät zum Klassifizieren von Bilddaten angegeben, welches auf einem durch ein verbessertes Steuergerät zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von in Form von Ungleichheitsbedingungen vorliegenden Nebenbedingungen trainierten Algorithmus des maschinellen Lernens basiert. Dass die Optimierung der Hyperparameter dabei auf einer Akquisitionsfunktion, welche basierend auf Vorgaben für die wenigstens eine Ungleichheitsbedingung angepasst ist, basiert, hat dabei den Vorteil, dass die Hyperparameter auch bei Vorliegen wenigstens einer Ungleichheitsbedingung, beispielsweise Vorgaben bezüglich der zur Optimierung der Hyperparameter beziehungsweise zum Trainieren des Algorithmus des maschinellen Lernens zur Verfügung stehenden Computerressourcen, gut optimiert werden können und die optimierten Hyperparameter robust gegenüber der wenigstens einen Ungleichheitsbedingung sind.
  • Insbesondere kann der entsprechende Algorithmus des maschinellen Lernens dabei verwendet werden, um Bilddaten, insbesondere digitale Bilddaten auf der Grundlage von Low-level-Merkmalen, beispielsweise Kanten oder Pixelattributen, zu klassifizieren. Dabei kann weiter ein Bildverarbeitungsalgorithmus verwendet werden, um ein Klassifizierungsergebnis, welches sich auf entsprechende Low-level Merkmale konzentriert, zu analysieren.
  • Zusammenfassend ist festzustellen, dass mit der vorliegenden Erfindung ein Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens basierend auf Hyperparametern, wobei die Hyperparameter unter Berücksichtigung wenigstens einer Ungleichheitsbedingung optimiert wurden, angegeben wird.
  • Die beschriebenen Ausgestaltungen und Weiterbildungen lassen sich beliebig miteinander kombinieren.
  • Weitere mögliche Ausgestaltungen, Weiterbildungen und Implementierungen der Erfindung umfassen auch nicht explizit genannte Kombinationen von zuvor oder im Folgenden bezüglich der Ausführungsbeispiele beschriebenen Merkmalen der Erfindung.
  • Kurze Beschreibung der Zeichnungen
  • Die beiliegenden Zeichnungen sollen ein weiteres Verständnis der Ausführungsformen der Erfindung vermitteln. Sie veranschaulichen Ausführungsformen und dienen im Zusammenhang mit der Beschreibung der Erklärung von Prinzipien und Konzepten der Erfindung.
  • Andere Ausführungsformen und viele der genannten Vorteile ergeben sich im Hinblick auf die Zeichnungen. Die dargestellten Elemente der Zeichnungen sind nicht notwendigerweise maßstabsgetreu zueinander gezeigt.
  • Es zeigen:
    • 1 ein Flussdiagramm eines Verfahrens zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung gemäß Ausführungsformen der Erfindung; und
    • 2 ein schematisches Blockschaltbild eines Steuergerätes zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung gemäß Ausführungsformen der Erfindung.
  • In den Figuren der Zeichnungen bezeichnen gleiche Bezugszeichen gleiche oder funktionsgleiche Elemente, Bauteile oder Komponenten, soweit nichts Gegenteiliges angegeben ist.
  • 1 zeigt ein Flussdiagramm eines Verfahrens zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung 1 gemäß Ausführungsformen der Erfindung.
  • Dabei repräsentiert jede der wenigstens einen Ungleichheitsbedingung jeweils eine Nebenbedingung.
  • Algorithmen des maschinellen Lernens basieren auf zwei Arten von Parametern, insbesondere Hyperparametern sowie Modellparametern beziehungsweise Gewichten. Während die Modellparameter beispielsweise während des Trainierens des Algorithmus des maschinellen Lernens mit gelabelten Trainingsdaten erlernt werden können, müssen die Hyperparameter dabei vor dem Trainieren des Algorithmus des maschinellen Lernens festgelegt werden.
  • Eine Möglichkeit, die Hyperparameter vor dem Trainieren des Algorithmus des maschinellen Lernens auszuwählen, stellt dabei die manuelle Suche nach optimalen Hyperparametern dar, wobei möglichst optimale Hyperparameter beispielsweise basierend auf Erfahrungswerten ausgewählt werden und/oder verschiedene Hyperparameter manuell getestet werden. Ferner können die Hyperparameter auch zufällig ausgewählt beziehungsweise durch eine zufällige Suche gewählt werden, wobei der Algorithmus des maschinellen Lernens anschließend basierend auf den zufällig ausgewählten Hyperparametern trainiert wird.
  • Beispielsweise aufgrund der zunehmenden Anzahl und Komplexität von Algorithmen des maschinellen Lernens wurden zudem auch Verfahren zur automatischen Auswahl von Hyperparametern beziehungsweise zur automatischen Optimierung von Hyperparametern entwickelt. Ein Beispiel eines derartigen Verfahrens ist die Bayesianische Optimierung. Die Bayesianische Optimierung verfolgt frühere Bewertungsversuche beziehungsweise frühere Auswahlen an Hyperparametern, anhand derer ein probabilistisches Modell gebildet wird, welches Hyperparameter auf eine Wahrscheinlichkeit einer Bewertung einer Zielfunktion abbildet. Die Hyperparameter werden dabei durch Optimierung der Zielfunktion ausgewählt.
  • Eine Weiterbildung der Bayesianischen Optimierung bilden weiter baumstrukturierte Parzen-Schätzer. Unter baumstrukturierten Parzen-Schätzer wird dabei ein Verfahren verstanden, welches kategoriale Hyperparameter baumstrukturiert behandelt, beziehungsweise ein Verfahren, welches Parzen-Schätzer in einem bedingte Hyperparameter aufweisenden Suchraum erzeugt. Beispielsweise erzeugen die Auswahl der Anzahl der Schichten eines neuronalen Netzes und die Auswahl der Anzahl der Neuronen in den einzelnen Schichten eine Baumstruktur. Weiter werden zwei Verteilungen für die Hyperparameter beziehungsweise Dichten definiert, insbesondere eine, bei der Ausgabewerte einer Zielfunktion kleiner als ein Schwellwert sind, und eine, bei der die Ausgabewerte der Zielfunktion größer oder gleich dem Schwellwert sind. Beispielsweise werden die Hyperparameter dabei in gute und in schlechte Werte eingeteilt. Die Zielfunktion ist dabei ferner eine Funktion, welche Hyperparameter in einen reellen Wert umwandelt, wobei dieser reelle Wert im Rahmen der Hyperparameteroptimierung zu minimieren ist. Die beiden Dichten werden anschließend unter Verwendung von Parzen-Schätzern beziehungsweise Kernel-Dichtenschätzern modelliert, die einen einfachen Durchschnitt von Kerneln darstellen, die auf vorhandenen Datenpunkten zentriert sind. Dabei wird eine Menge an Hyperparametern entsprechend der größten erwarteten Verbesserung ausgegeben beziehungsweise das Verbesserungspotential einzelner Auswahlen von Hyperparametern geschätzt.
  • Baumstrukturierte Parzen-Schätzer zeichnen sich dabei, verglichen mit anderen gängigen Verfahren zur Optimierung von Hyperparametern, beispielsweise Evolutionsstrategien, durch ihre Vielseitigkeit und stabile Performanz aus, zumal diese auf Verteilungen basieren.
  • Als nachteilig bei baumstrukturierten Parzen-Schätzer erweist es sich jedoch, dass diese bisher nicht an in der Praxis für gewöhnlich auftretende Modelle angepasst wurden. So sind bei in der Praxis für gewöhnlich auftretenden Modellen häufig Rand- beziehungsweise Nebenbedingungen, beispielsweise Vorgaben bezüglich zur Verfügung stehender Computerressourcen zu berücksichtigen. Derartige Nebenbedingungen liegen häufig in Form von Ungleichheitsbedingungen vor.
  • 1 zeigt dabei ein Verfahren 1, welches einen Schritt 2 eines Optimierens von Hyperparametern für den Algorithmus des maschinellen Lernens durch Anwendung eines baumstrukturierten Parzen-Schätzers, wobei der baumstrukturierte Parzen-Schätzer auf einer basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion basiert, und einen Schritt 3 eines Trainierens des Algorithmus des maschinellen Lernens basierend auf den optimierten Hyperparametern aufweist.
  • Dass die Akquisitionsfunktion basierend auf der wenigstens einen Ungleichheitsbedingung angepasst ist, hat dabei den Vorteil, dass die Hyperparameter auch bei Vorliegen wenigstens einer Ungleichheitsbedingung, beispielsweise Vorgaben bezüglich der zur Optimierung der Hyperparameter beziehungsweise zum Trainieren des Algorithmus des maschinellen Lernens zur Verfügung stehenden Computerressourcen, gut optimiert werden können und die optimierten Hyperparameter robust gegenüber der wenigstens einen Ungleichheitsbedingung sind.
  • Insgesamt wird somit ein verbessertes Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von in Form von Ungleichheitsbedingungen vorliegenden Nebenbedingungen 1 angegeben.
  • Insbesondere wird dabei ein Verfahren 1 angegeben, welches eine Erweiterung von baumstrukturierten Parzen-Schätzern darstellt und bei dem die Akquisitionsfunktion basierend auf der wenigstens einen Ungleichbedingung angepasst beziehungsweise erweitert ist.
  • Dabei kann der Algorithmus des maschinellen Lernens insbesondere auf den Hyperparametern trainiert werden, welche in einer Konfiguration, für die ein basierend auf dem baumstrukturierten Parzen-Schätzer berechneter Wert der Akquisitionsfunktion maximal ist, enthalten sind.
  • Bei dem Algorithmus des maschinellen Lernens kann es sich ferner beispielsweise um ein durch Deep Learning beziehungsweise tiefgehendes Lernen trainiertes neuronales Netz handeln. Bei den zu optimierenden Hyperparametern kann es sich dabei beispielsweise um die Anzahl der Schichten des neuronalen Netzes und die Anzahl der Neuronen pro Schicht handeln.
  • Ferner ist das Verfahren aber auch allgemein auf Black-Box-Funktionen, das heißt Funktionen, deren innere Beziehungen nicht bekannt sind, sondern nur deren Input-Output-Beziehungen, beziehungsweise welche rein durch Zuordnungen zwischen Eingabe- und Ausgabewerten definiert sind, anwendbar.
  • Wie 1 zeigt, weist das dargestellte Verfahren 1 weiter einen Schritt 4 eines Ermittelns der basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion auf, wobei das Ermitteln der basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion ein Faktorisieren von jeder der wenigstens einen Ungleichheitsbedingung aufweist.
  • Insbesondere kann dabei für jede der wenigstens einen Ungleichheitsbedingung jeweils eine Akquisitions- beziehungsweise Auswahlfunktion für die entsprechende Ungleichheitsbedingung faktorisiert werden, das heißt beispielsweise jeweils eine Verteilung für die guten und eine Verteilung für die schlechten Werte gebildet werden.
  • Gemäß den Ausführungsformen der 1 weist der Schritt 4 des Ermittelns der basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion weiter ein Multiplizieren einer Akquisitionsfunktion für eine Zielfunktion mit jeweils einer Akquisitionsfunktion für jeder der wenigstens einen Ungleichheitsbedingungen auf, wobei das Produkt aus der Akquisitionsfunktion für die Zielfunktion und den Akquisitionsfunktionen für die einzelnen Ungleichheitsbedingungen die basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion bildet.
  • Die basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion kann somit an das Setup beziehungsweise die Vorgaben der einzelnen Ungleichheitsbedingungen beziehungsweise Nebenbedingungen angepasst werden. Ferner werden die Hyperparameter mit derselben Performanz wie bei einem gewöhnlichen baumstrukturierten Parzen-Schätzer ausgewählt, falls keine durch Ungleichheitsbedingungen repräsentierten Nebenbedingungen vorliegen sollten.
  • Bei der wenigstens einen Ungleichheitsbedingung handelt es sich ferner um wenigstens eine Vorgabe bezüglich zur Verfügung stehenden Computerressource, beispielswiese Prozessorkapazitäten, Speicherkapazitäten, oder Latenzen.
  • Ein basierend auf entsprechend ausgewählten beziehungsweise optimierten Hyperparametern trainierter Algorithmus des maschinellen Lernens kann anschließend beispielsweise zur Klassifizierung von Bilddaten verwendet werden. Dabei kann der Algorithmus des maschinellen Lernens ferner basierend auf gelabelten Vergleichsbilddaten trainiert worden sein.
  • Ferner kann der entsprechend trainierte Algorithmus des maschinellen Lernens basierend auf entsprechend gelabelten Vergleichsbilddaten aber auch trainiert sein, autonom fahrende Kraftfahrzeuge basierend auf Lidar- und/oder RADAR-Modellen zu steuern, wobei autonom fahrende Fahrzeuge für gewöhnlich begrenzte Ressourcen aufweisen, Motorsteuergeräte oder ABS-Steuergeräte zu optimieren, oder Prozessparameter bei der Fertigung von Bauteilen, beispielsweise beim Widerstandsschweißen, beim Injection-Molding oder bei der Wärmebehandlung von Metall, zu optimieren.
  • 2 zeigt ein schematisches Blockschaltbild eines Steuergerätes zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung 10 gemäß Ausführungsformen der Erfindung.
  • Dabei repräsentiert jede der wenigstens einen Ungleichheitsbedingung jeweils wiederum eine Nebenbedingung.
  • Wie 2 zeigt, weist das Steuergerät 10 dabei eine Optimierungseinheit 11, welche ausgebildet ist, Hyperparameter für den Algorithmus des maschinellen Lernens durch Anwendung eines baumstrukturierten Parzen-Schätzers zu optimieren, wobei der baumstrukturierte Parzen-Schätzer auf einer basierend auf der wenigstens eine Ungleichheitsbedingung angepassten Akquisitionsfunktion basiert, und eine Trainingseinheit 12, welche ausgebildet ist, den Algorithmus des maschinellen Lernens basierend auf den optimierten Hyperparametern zu trainieren, auf.
  • Die Optimierungseinheit und die Trainingseinheit können dabei beispielsweise jeweils basierend auf einem in einem Speicher hinterlegten und durch einen Prozessor ausführbaren Code realisiert werden.
  • Gemäß den Ausführungsformen der 2 weist das Steuergerät 10 dabei das Steuergerät weiter eine Ermittlungseinheit 13 auf, welche ausgebildet ist, die basierend auf der wenigstens einen Ungleichheitsbedingung angepasste Akquisitionsfunktion zu ermitteln, wobei das Ermitteln der basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion ein Faktorisieren von jeder der wenigstens einen Ungleichheitsbedingung aufweist.
  • Die Ermittlungseinheit kann dabei wiederum beispielsweise basierend auf einem in einem Speicher hinterlegten und durch einen Prozessor ausführbaren Code realisiert werden.
  • Gemäß den Ausführungsformen der 2 ist die Ermittlungseinheit weiter ausgebildet, die basierend auf der wenigstens einen Ungleichheitsbedingung angepasste Akquisitionsfunktion durch Multiplizieren einer Akquisitionsfunktion für eine Zielfunktion mit jeweils einer Akquisitionsfunktion von jeder der wenigstens einen Ungleichheitsbedingung zu ermitteln.
  • Bei der wenigstens einen Ungleichheitsbedingung handelt es sich ferner wiederum um wenigstens eine Vorgabe bezüglich zur Verfügung stehender Computerressourcen handeln.
  • Das Steuergerät 10 ist dabei insbesondere ausgebildet, ein obenstehend beschriebenes Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung auszuführen. Ferner können ein die Optimierungseinheit realisierender Code, ein die Trainingseinheit realisierender Code und ein die Ermittlungseinheit realisierender Code auch in einem Computerprogrammprodukt zusammengefasst sein.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 11093833 B1 [0007]

Claims (10)

  1. Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung, wobei jede der wenigstens einen Ungleichheitsbedingung jeweils eine Nebenbedingung repräsentiert, wobei das Verfahren (1) folgende Schritte aufweist: - Optimieren von Hyperparametern für den Algorithmus des maschinellen Lernens durch Anwendung eines baumstrukturierten Parzen-Schätzers, wobei der baumstrukturierte Parzen-Schätzer auf einer basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion basiert (2); und - Trainieren des Algorithmus des maschinellen Lernens basierend auf den optimierten Hyperparametern (3).
  2. Verfahren nach Anspruch 1, wobei das Verfahren (1) weiter einen Schritt eines Ermittelns der basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion (4) aufweist, und wobei das Ermitteln der basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion (4) ein Faktorisieren von jeder der wenigstens einen Ungleichheits-Bedingung aufweist.
  3. Verfahren nach Anspruch 2, wobei das Ermitteln der basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion (4) ein Multiplizieren einer Akquisitionsfunktion für eine Zielfunktion mit jeweils einer Akquisitionsfunktion für jede der wenigstens einen Ungleichheitsbedingung aufweist.
  4. Verfahren nach einem der Ansprüche 1 bis 3, wobei es sich bei der wenigstens einen Ungleichheitsbedingung um wenigstens eine Vorgabe bezüglich zur Verfügung stehender Computerressourcen handelt.
  5. Verfahren zum Klassifizieren von Bilddaten, wobei Bilddaten unter Verwendung eines Algorithmus des maschinellen Lernens, welcher trainiert ist, Bilddaten zu klassifizieren, klassifiziert werden, und wobei der Algorithmus des maschinellen Lernens unter Verwendung eines Verfahrens zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheits-Bedingung nach einem der Ansprüche 1 bis 4 trainiert wurde.
  6. Steuergerät zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung, wobei jede der wenigstens einen Ungleichheitsbedingung jeweils eine Nebenbedingung repräsentiert, und wobei das Steuergerät (10) eine Optimierungseinheit (11), welche ausgebildet ist, Hyperparameter für den Algorithmus des maschinellen Lernens durch Anwendung eines baumstrukturierten Parzen-Schätzers zu optimieren, wobei der baumstrukturierte Parzen-Schätzer auf einer basierend auf der wenigstens einen Ungleichheitsbedingung angepassten Akquisitionsfunktion basiert, und eine Trainingseinheit (12), welche ausgebildet ist, den Algorithmus des maschinellen Lernens basierend auf den optimierten Hyperparametern zu trainieren, aufweist.
  7. Steuergerät nach Anspruch 6, wobei das Steuergerät weiter eine Ermittlungseinheit (13) aufweist, welche ausgebildet ist, die basierend auf der wenigstens einen Ungleichheitsbedingung angepasste Akquisitionsfunktion zu ermitteln, und wobei das Ermitteln der basierend auf der wenigstens eine Ungleichheitsbedingung angepassten Akquisitionsfunktion ein Faktorisieren von jeder der wenigstens einen Ungleichheitsbedingung aufweist.
  8. Steuergerät nach Anspruch 7, wobei die Ermittlungseinheit (13) weiter ausgebildet ist, die basierend auf der wenigstens einen Ungleichheitsbedingung angepasste Akquisitionsfunktion durch Multiplizieren einer Akquisitionsfunktion für eine Zielfunktion mit jeweils einer Akquisitionsfunktion für jede der wenigstens einen Ungleichheitsbedingung zu ermitteln.
  9. Steuergerät nach einem der Ansprüche 6 bis 8, wobei es sich bei der wenigstens einen Ungleichheitsbedingung um wenigstens eine Vorgabe bezüglich zur Verfügung stehender Computerressourcen handelt.
  10. Steuergerät zum Klassifizieren von Bilddaten, wobei das Steuergerät ausgebildet ist, Bilddaten unter Verwendung eines Algorithmus des maschinellen Lernens, welcher trainiert ist, Bilddaten zu klassifizieren, zu klassifizieren, und wobei der Algorithmus des maschinellen Lernens durch ein Steuergerät zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheits-Bedingung nach einem der Ansprüche 6 bis 9 trainiert wurde.
DE102022203834.7A 2022-04-19 2022-04-19 Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung Pending DE102022203834A1 (de)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE102022203834.7A DE102022203834A1 (de) 2022-04-19 2022-04-19 Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung
US18/299,213 US20230334371A1 (en) 2022-04-19 2023-04-12 Method for training a machine learning algorithm taking into account at least one inequality constraint
JP2023067748A JP2023159051A (ja) 2022-04-19 2023-04-18 少なくとも1つの不等式条件を考慮して機械学習アルゴリズムをトレーニングする方法
CN202310416857.0A CN116912613A (zh) 2022-04-19 2023-04-18 在考虑不等式条件的情况下训练机器学习算法的方法
KR1020230051247A KR20230149261A (ko) 2022-04-19 2023-04-19 적어도 하나의 부등 조건의 고려 하에 기계 학습의 알고리즘을 트레이닝하기 위한 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022203834.7A DE102022203834A1 (de) 2022-04-19 2022-04-19 Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung

Publications (1)

Publication Number Publication Date
DE102022203834A1 true DE102022203834A1 (de) 2023-10-19

Family

ID=88191872

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022203834.7A Pending DE102022203834A1 (de) 2022-04-19 2022-04-19 Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung

Country Status (5)

Country Link
US (1) US20230334371A1 (de)
JP (1) JP2023159051A (de)
KR (1) KR20230149261A (de)
CN (1) CN116912613A (de)
DE (1) DE102022203834A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11093833B1 (en) 2020-02-17 2021-08-17 Sas Institute Inc. Multi-objective distributed hyperparameter tuning system

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11093833B1 (en) 2020-02-17 2021-08-17 Sas Institute Inc. Multi-objective distributed hyperparameter tuning system

Also Published As

Publication number Publication date
JP2023159051A (ja) 2023-10-31
CN116912613A (zh) 2023-10-20
KR20230149261A (ko) 2023-10-26
US20230334371A1 (en) 2023-10-19

Similar Documents

Publication Publication Date Title
EP3785177B1 (de) Verfahren und vorrichtung zum ermitteln einer netzkonfiguration eines neuronalen netzes
DE112020000537T5 (de) Verbesserung von fairness durch bestärkendes lernen
DE112021006280T5 (de) Generieren von daten auf grundlage von vorab trainierten modellen unter verwendung generierender konkurrierender modelle
DE102019213061A1 (de) Klassifizierung von KI-Modulen
DE102022203834A1 (de) Verfahren zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung
DE202022102072U1 (de) Vorrichtung zum Trainieren eines Algorithmus des maschinellen Lernens unter Berücksichtigung von wenigstens einer Ungleichheitsbedingung
DE102021204550A1 (de) Verfahren zum Erzeugen wenigstens eines Datensatzes zum Trainieren eines Algorithmus maschinellen Lernens
EP4115337A1 (de) Verfahren und vorrichtung zum komprimieren eines neuronalen netzes
DE112021000251T5 (de) Verfahren zum auswählen von datensätzen zum aktualisieren eines moduls mit künstlicher intelligenz
DE102020132591A1 (de) Auswählen von rechenkernvarianten unter verwendung neuronaler netzwerke
EP3507943B1 (de) Verfahren zur kommunikation in einem kommunikationsnetzwerk
DE202019103046U1 (de) Vorrichtung zur Vorhersage einer Lernkurve
DE102019130484A1 (de) Verfahren und Vorrichtung zum Anlernen eines Ensembles von neuronalen Netzen
DE202021102084U1 (de) Vorrichtung zum Ermitteln von Netzkonfigurationen eines neuronalen Netzes unter Erfüllung einer Mehrzahl von Nebenbedingungen
DE102021109169A1 (de) Verfahren zum Trainieren eines neuronalen Netzes
DE102021207274A1 (de) Verfahren zum Trainieren eines neuronalen Netz-Ensembles
DE102021204343A1 (de) Steuergerät zum Erzeugen von Trainingsdaten zum Trainieren eines Algorithmus des maschinellen Lernens
DE102021109754A1 (de) Verfahren und Vorrichtung zum Ermitteln von Netzkonfigurationen eines neuronalen Netzes unter Erfüllung einer Mehrzahl von Nebenbedingungen
DE102022212902A1 (de) Verfahren zum Trainieren eines künstlichen neuronalen Netzes
DE202021102086U1 (de) Vorrichtung zum Ermitteln von Netzkonfigurationen eines neuronalen Netzes unter Erfüllung einer Mehrzahl von Nebenbedingungen
DE102022207072A1 (de) Verfahren zum Ermitteln einer optimalen Architektur eines künstlichen neuronalen Netzes
DE102021207275A1 (de) Verfahren zum Erzeugen eines künstlichen neuronalen Netzes
DE202021102338U1 (de) Steuergerät zum Erzeugen von Trainingsdaten zum Trainieren eines Algorithmus des maschinellen Lernens
DE202021103700U1 (de) Vorrichtung zum Erzeugen eines künstlichen neuronalen Netzes
DE102022209787A1 (de) Verfahren zum Trainieren eines Generative Adversarial Network

Legal Events

Date Code Title Description
R163 Identified publications notified