DE112019005048T5 - Hyperparameteroptimierungsverfahren, -vorrichtung und -programm - Google Patents

Hyperparameteroptimierungsverfahren, -vorrichtung und -programm Download PDF

Info

Publication number
DE112019005048T5
DE112019005048T5 DE112019005048.6T DE112019005048T DE112019005048T5 DE 112019005048 T5 DE112019005048 T5 DE 112019005048T5 DE 112019005048 T DE112019005048 T DE 112019005048T DE 112019005048 T5 DE112019005048 T5 DE 112019005048T5
Authority
DE
Germany
Prior art keywords
hyperparameter
user program
request
hyperparameters
program
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112019005048.6T
Other languages
English (en)
Inventor
Takuya Akiba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Preferred Networks Inc
Original Assignee
Preferred Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Preferred Networks Inc filed Critical Preferred Networks Inc
Publication of DE112019005048T5 publication Critical patent/DE112019005048T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Stored Programmes (AREA)

Abstract

Ein Hyperparameteroptimierungsschema zum Vereinfachen der Programmierung durch einen Anwender wird beschrieben. Ein Merkmal der vorliegenden Beschreibung betrifft ein Hyperparameteroptimierungsverfahren mit durch einen oder mehrere Prozessoren ausgeführten Schritten. Die Schritte enthalten einen Schritt des Empfangens einer Anforderung zum Gewinnen eines Hyperparameters, wobei die Anforderung entsprechend einem Hyperparametergewinnungscode generiert ist, der in einem Anwenderprogramm angegeben ist, und einen Schritt des Bereitstellens des Hyperparameters für das Anwenderprogramm auf Basis des Anwendungsverlaufs von für das Anwenderprogramm eingesetzten Hyperparametern.

Description

  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft eine Technologie zum Verarbeiten von Informationen.
  • STAND DER TECHNIK
  • Bei Ausführung eines Programmes werden häufig Betriebsbedingungen des Programmes definierende Parameter extern gesetzt. Da die in den Parametern eingestellten Werte die Ausführungsergebnisse oder die Leistung des Programms beeinflussen, müssen passende Parameter eingestellt werden. Derartige, extern eingestellte Parameter können als Hyperparameter bezeichnet werden, um die extern eingestellten Parameter von Parametern zu unterscheiden, die innerhalb des Programmes eingestellt oder aktualisiert werden.
  • Bei maschinellem Lernen, wie dem Deep Learning („tiefes Lernen“), werden Parameter von maschinellen Lernmodellen, welche zu erlernende Probleme kennzeichnen, auf Basis von Lernalgorithmen erlernt. Getrennt von derartigen zu lernenden Parametern werden Hyperparameter eingestellt (gesetzt) bei Auswahl eines maschinellen Lernmodells oder bei Ausführung eines Lernalgorithmus. Spezielle Beispiele für Hyperparameter für maschinelles Lernen sind Parameter, die eingesetzt werden in einem bestimmten maschinellen Lernmodell (z.B. eine Lernrate, eine Lernperiode, eine Rauschrate, ein Wichtungsabnahmekoeffizient und dergleichen in einem neuronalen Netzwerk). Werden mehrere maschinelle Lernmodelle eingesetzt, dann umfassen spezifische Beispiele von Parametern einen Typ des maschinellen Lernmodells, Parameter, die eingesetzt werden zum Aufbau von verschiedenen Typen von maschinellen Lernmodellen, z.B. die Anzahl der Layer (Schichten) in einem neuronalen Netzwerk, die Tiefe (Verzweigungstiefe eines Entscheidungsbaums und dergleichen) und dergleichen. Durch Einstellung passender Hyperparameter können die Vorhersagegenauigkeit, die Verallgemeinerungsfähigkeit, die Lerneffizienz und dergleichen verbessert werden.
  • Im Allgemeinen werden Hyperparameter durch den Anwender von Hand eingestellt oder sie werden automatisch durch eine Hyperparameteroptimierungssoftware oder dergleichen eingestellt. Beispielsweise sind als Hyperparameteroptimierungssoftware folgende bekannt: HyperOpt, SigOpt, Vizier, MOE, MetaOpt, SMAC, Spearmint und dergleichen.
  • Referenzliste
  • Patentdokument
  • Patentdokument 1: offengelegte japanische Patentanmeldung 2017 - 49677 ; Patentdokument 2: offengelegte japanische Patentanmeldung 2017-228068 .
  • KURZBESCHREIBUNG DER ERFINDUNG
  • Zu lösendes Problem
  • Bei der vorhandenen Hyperparameteroptimierungssoftware, wie oben genannt, definiert ein Anwender zu optimierende Hyperparameter und einen Bereich für jeweilige Hyperparameterwerte in der Hyperparameteroptimierungssoftware. Die Hyperparameteroptimierungssoftware stellt auf Basis der seitens des Anwenders vorgegebenen Hyperparameter und des Bereichs der jeweiligen Hyperparameterwerte definierte Hyperparameterwerte in die Hyperparameteroptimierungssoftware für ein Anwenderprogramm zum Erlernen eines maschinellen Lernmodells, welches durch Einsatz einer maschinellen Lernbibliothek („Library“) gegeben ist, wie beispielsweise „Chainer“ und „TensorFlow“, wobei das maschinelle Lernmodell entsprechend den eingestellten Hyperparametern trainiert wird.
  • Bei der bekannten Hyperparameteroptimierungssoftware werden aber die zu optimierenden Hyperparameter an einer Stelle bestimmt, die verschieden ist vom Anwenderprogramm, welches das Training des maschinellen Lernmodells oder dergleichen ausführt, und die eingestellten Hyperparameter werden durch das Anwenderprogramm verwendet, welches das Training des maschinellen Lernmodells ausführt. Das heißt: ein Programm, in dem die Hyperparameter definiert werden, ist getrennt von einem Programm, in dem die Hyperparameter verwendet werden, wodurch der Wartungsaufwand bezüglich des Programms für den Anwender erheblich ist.
  • Weiterhin müssen dann, wenn der Typ des maschinellen Lernmodells, wie ein neuronales Netzwerk und ein Entscheidungsbaum, durch die Hyperparameteroptimierungssoftware als Hyperparameter eingestellt sind, weitere Hyperparameter eingestellt werden entsprechend dem eingestellten maschinellen Lernmodell. Beispielsweise werden bei einem neuronalen Netzwerk Wichtungsabnahmekoeffizienten, eine „Drop-Out“-Rate und dergleichen als Hyperparameter eingestellt, während diese nicht als Hyperparameter verwendet werden bei einem Entscheidungsbaum. Wie gesagt, werden entsprechend einem bestimmten Hyperparametereinstellwert andere Hyperparameter zu ändern sein; jedoch kann bekannte Hyperparameteroptimierungssoftware nicht mit einer Hyperparametereinstellung mit einer Kontrollstruktur umgehen, welche eine derartige bedingte Verzweigung ermöglicht. Auch kann bei bekannter Hyperparameteroptimierungssoftware ein Quellcode für die Hyperparameteroptimierung nicht modularisiert werden.
  • Angesicht der obigen, zu überwindenden Probleme liegt der vorliegenden Beschreibung die Aufgabe zugrunde, eine Hyperparameteroptimierungstechnik bereitzustellen, die für den Anwender die Programmierung erleichtert.
  • Mittel zum Lösen des Problems
  • Um obige Probleme zu lösen, betrifft eine Ausführung der vorliegenden Beschreibung ein Hyperparameteroptimierungsverfahren mit Schritten, die durch einen oder mehrere Prozessoren ausgeführt werden, wobei das Hyperparameteroptimierungsverfahren einen Schritt beinhaltet zum Empfangen einer Anforderung zum Gewinnen eines Hyperparameters, wobei die Anforderung erzeugt wird entsprechend einem Hyperparametergewinnungscode, der in einem Anwenderprogramm beschrieben ist, und einem Schritt der Bereitstellung des Hyperparameters für das Anwenderprogramm entsprechend einem Anwendungsverlauf (Anwendungshistorie) von im Anwenderprogramm verwendeten Hyperparametern.
  • Figurenliste
    • 1 ist eine schematische Darstellung zur Erläuterung von Hyperparametereinstellungen gemäß einem sogenannten „Define-by-Run“-Schema (dynamische Definition des Netzwerkes über Vorwärtsberechnung) entsprechend der vorliegenden Beschreibung;
    • 2 ist ein Blockdiagramm zur Erläuterung einer Hardware-Konfiguration einer Hyperparameteroptimierungsvorrichtung gemäß einem Ausführungsbeispiel der vorliegenden Beschreibung;
    • 3 ist ein Flussdiagramm zur Erläuterung eines Hyperparameteroptimierungsverfahrens gemäß einem Ausführungsbeispiel der vorliegenden Beschreibung;
    • 4 ist ein Sequenzdiagramm zur Erläuterung des Hyperparameteroptimierungsverfahrens gemäß einem Ausführungsbeispiel der vorliegenden Beschreibung;
    • 5 zeigt einen Hyperparameteroptimierungscode gemäß einem Ausführungsbeispiel der vorliegenden Beschreibung; und
    • 6 zeigt einen Hyperparameteroptimierungscode gemäß einem weiteren Ausführungsbeispiel der vorliegenden Beschreibung.
  • BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN
  • Nachfolgend werden Ausführungsbeispiele für eine Hyperparameteroptimierungsvorrichtung und ein Verfahren zum Einstellen von Hyperparametern zur Verwendung bei Ausführung eines Programms näher beschrieben.
  • Kurz gesagt betrifft die vorliegende Beschreibung eine Hyperparameteroptimierungsvorrichtung, die implementiert ist mit einem Hyperparameteroptimierungsprogramm oder mit Software, wobei bei Empfang einer Anforderung von einem Anwenderprogramm zum Gewinnen eines Hyperparameters die Hyperparameteroptimierungsvorrichtung entsprechend einem Anwendungsverlauf (Anwendungshistorie) von im Anwenderprogramm eingesetzten Hyperparametern den Hyperparameter für das Anwenderprogramm liefert. Das Anwenderprogramm erzeugt eine Hyperparametergewinnungsanforderung zum Gewinnen eines Hyperparameters, der zu gewinnen ist entsprechend einem Hyperparametergewinnungscode, der in das Anwenderprogramm geschrieben ist, wobei der mit dem Hyperparameteroptimierungsprogramm zu gewinnende Hyperparameter entsprechend der erzeugten Hyperparametergewinnungsanforderung sequenziell angefordert wird.
  • Das nachfolgende Ausführungsbeispiel stellt ab auf Hyperparameter, die eingesetzt werden in einem Trainingsprozess eines maschinellen Lernmodells. Allerdings sind die Hyperparameter gemäß der vorliegenden Beschreibung nicht hierauf beschränkt und können jegliche Hyperparameter sein, welche die Ausführungsergebnisse oder die Leistungsfähigkeit eines Anwenderprogrammes beeinflussen können.
  • Der Hyperparametergewinnungscode gemäß der vorliegenden Beschreibung kann geschrieben werden unter Einsatz einer Kontrollstruktur, bei der eine bedingte Verzweigung, wie eine bedingte Anweisung, und ein Wiederholungsprozess, wie eine sogenannte For-Anweisung, ausgeführt werden. Insbesondere fordert gemäß 1 ein Anwenderprogramm 10 zunächst von einem Hyperparameteroptimierungsprogramm 20 einen „Typ eines maschinellen Lernmodells“ als Hyperparameter an und in Antwort auf die Hyperparametergewinnungsanforderung seitens des Anwenderprogrammes 10 erwidert das Hyperparameteroptimierungsprogramm 20 beispielsweise: „ein neuronales Netzwerk“ als „Typ des maschinellen Lernmodells“. Ist das „neuronale Netzwerk“ als „Typ des maschinellen Lernmodells“ ausgewählt, fordert das Anwenderprogramm 10 verschiedene Hyperparameter für das „neuronale Netzwerk“ an (z.B. die Anzahl der Schichten (Layer), eine Lernrate und so weiter), entsprechend der Steuerstruktur des Hyperparametergewinnungscodes. Wie beschrieben, werden gemäß der vorliegenden Beschreibung die Hyperparameter eingestellt mit einem „Define-by-Run“-Schema.
  • Wird eine Kombination von Hyperparametern, die für den Trainingsprozess erforderlich sind, eingestellt, wendet das Anwenderprogramm 10 die gewonnene Kombination von Hyperparametern an, um das maschinelle Lernmodell zu trainieren und vermittelt eine Genauigkeit für das Hyperparameteroptimierungsprogramm 20, wie die Vorhersageleistungsfähigkeit des trainierten maschinellen Lernmodells. Der vorstehend beschriebene Prozess wird wiederholt, bis ein vorgegebene Abschlussbedingung erfüllt ist.
  • Zunächst wird mit Blick auf die 2 bis 4 ein Hyperparameteroptimierungsprogramm gemäß einem Ausführungsbeispiel der vorliegenden Beschreibung näher beschrieben. Beim vorliegenden Ausführungsbeispiel führt eine Hyperparameteroptimierungsvorrichtung 100 den Prozess aus, insbesondere führt ein Prozessor der Hyperparameteroptimierungsvorrichtung 100 das Hyperparameteroptimierungsprogramm 20 aus, um das Verfahren auszuführen.
  • Entsprechend 2 kann die Hyperparameteroptimierungsvorrichtung 100 eine Konfiguration aufweisen, in der ein Prozessor 101, wie eine zentrale Prozessoreinheit (CPU) und eine Grafik-Prozessoreinheit (GPU), ein Speicher 102, wie ein Speicher mit wahlfreiem Zugriff (RAM) und ein Flash-Speicher, eine Festplatte 103 und eine Eingabe-/Ausgabeeinheit (I/O) als Schnittstelle 104 vorgesehen sind.
  • Der Prozessor 101 führt verschiedene Prozesse der Hyperparameteroptimierungsvorrichtung 100 aus und er führt weiterhin das Anwenderprogramm 10 und/oder das Hyperparameteroptimierungsprogramm 20 aus.
  • Der Speicher 102 speichert verschiedene Daten und ein Programm für die Hyperparameteroptimierungsvorrichtung 100 und das Anwenderprogramm 10 und/oder dem Hyperparameteroptimierungsprogramm 20, wobei er als Arbeitsspeicher eingesetzt ist, insbesondere bezüglich der Arbeitsdaten, des Ablaufprogrammes und dergleichen. Insbesondere speichert der Speicher 102 das Anwenderprogramm 10 und/oder das Hyperparameteroptimierungsprogramm 20, welches aus der Festplatte 103 geladen ist, und er arbeitet als Arbeitsspeicher bei Ausführung des Programmes durch den Prozessor 101.
  • Die Festplatte 103 speichert das Anwenderprogramm 10 und/oder das Hyperparameteroptimierungsprogramm 20.
  • Die I/O-Schnittstelle 104 dient der Eingabe von Daten in eine externe Einrichtung und der Ausgabe von Daten aus der externen Einrichtung. Beispielsweise dient die I/O-Schnittstelle 104 der Eingabe und Ausgabe von Daten mittels eines universellen seriellen Busses (USB), einer Kommunikationsleitung, einer Tastatur, einer Maus und einer Anzeigeeinrichtung.
  • Die Hyperparameteroptimierungsvorrichtung 100 gemäß der vorliegenden Beschreibung ist nicht auf die oben beschriebene Hardware-Konfiguration beschränkt und kann eine jegliche geeignete Hardware-Konfiguration aufweisen. Beispielsweise können einige oder alle der mit der Hyperparameteroptimierungsvorrichtung ausgeführten Hyperparameteroptimierungsprozesse, wie oben beschrieben, durch eine Prozessorschaltung oder eine elektronische Schaltung ausgeführt werden, die so verdrahtet ist, dass einige oder alle der Hyperparameteroptimierungsprozesse ausgeführt werden.
  • 3 erläutert mit einem Flussdiagramm ein Hyperparameteroptimierungsverfahren gemäß einem Ausführungsbeispiel der vorliegenden Beschreibung. Das Hyperparameteroptimierungsverfahren wird implementiert durch die Hyperparameteroptimierungsvorrichtung 100, die das Hyperparameteroptimierungsprogramm 20 ausführt entsprechend dem Anwenderprogramm 10, welches geschrieben ist unter beispielsweise Verwendung einer Bibliothek für maschinelles Lernen, beispielsweise Chainer oder TensorFlows.
  • Entsprechend 3 empfängt in Schritt S101 das Hyperparameteroptimierungsprogramm 20 eine Hyperparametergewinnungsanforderung.
  • Insbesondere bestimmt das Anwenderprogramm 10 einen Hyperparameter, der entsprechend einem in dem Anwenderprogramm beschriebenen Hyperparametergewinnungscode zu gewinnen ist, erzeugt weiterhin die Hyperparametergewinnungsanforderung bezüglich des Hyperparameters und überträgt die gewonnene Hyperparametergewinnungsanforderung an das Hyperparameteroptimierungsprogramm 20, woraufhin das Hyperparameteroptimierungsprogramm 20 die Hyperparametergewinnungsanforderung vom Anwenderprogramm 10 empfängt.
  • Beim Ausführungsbeispiel kann der Hyperparametergewinnungscode geschrieben sein unter Verwendung einer Kontrollstruktur, die beispielsweise eine Sequenzstruktur, eine Auswahlstruktur und/oder eine Wiederholungsstruktur haben kann. Insbesondere kann der Hyperparametergewinnungscode geschrieben sein unter Einsatz von bedingten Anweisungen oder von For-Anweisungen. Stellt beispielsweise das Hyperparameteroptimierungsprogramm 20 den „Typ des maschinellen Lernmodells“ auf ein „neuronales Netzwerk“ als Hyperparameter ein, bestimmt das Anwenderprogramm 10 einen Hyperparameter, der spezifisch ist für das „neuronale Netzwerk“ (z.B. die Anzahl der Schichten, die Anzahl der Schicht-Knoten, einen Wichtungsabnahmekoeffizienten, und so weiter) als Hyperparameter, die als nächstes zu gewinnen sind, entsprechend der Kontrollstruktur des Hyperparametergewinnungscodes. Wenn andererseits das Hyperparameteroptimierungsprogramm 20 den „Typ des maschinellen Lernmodells“ auf „einen Entscheidungsbaum“ als Hyperparameter einstellt, bestimmt das Anwenderprogramm 10 einen Hyperparameter, der spezifisch ist für den „Entscheidungsbaum“ (z.B. die Baumtiefe, die Anzahl der aus einem Knoten verzweigten Kanten und so weiter) als dann zu gewinnenden Hyperparameter entsprechend der Kontrollstruktur des Hyperparametergewinnungscodes. Wie beschrieben kann das Anwenderprogramm 10 die als nächstes zu gewinnenden Hyperparameter bestimmen auf Basis der Kontrollstruktur, gemäß der das Anwenderprogramm 10 beschrieben ist, und kann eine Hyperparametergewinnungsanforderung erzeugen für den bestimmten Hyperparameter.
  • In Schritt S102 liefert das Hyperparameteroptimierungsprogramm 20 den Hyperparameter auf Basis des Anwendungsverlaufs (der Anwendungshistorie) der Hyperparameter.
  • Insbesondere bestimmt das Hyperparameteroptimierungsprogramm 20 bei Empfang der Hyperparametergewinnungsanforderung für einen Hyperparameter vom Anwenderprogramm 10 einen Wert des angeforderten Hyperparameters auf Basis des Anwendungsverlaufs der Hyperparameter, die zuvor im Anwenderprogramm 10 eingesetzt worden sind, und gibt den so bestimmten Wert des Hyperparameters an das Anwenderprogramm 10. Betrifft die Hyperparametergewinnungsanforderung beispielsweise eine Lernrate, greift das Hyperparameteroptimierungsprogramm 20 auf die Werte der Lernraten und/oder andere Hyperparameterwerte, die zuvor für das Anwenderprogramm 10 eingestellt worden sind, um so einen Wert für die Lernrate, die als nächstes einzusetzen ist zu ermitteln, und es gibt den so ermittelten Wert der Lernrate an das Anwenderprogramm 10. Bei Gewinnung des Wertes der Lernrate bestimmt das Anwenderprogramm 10, ob ein zusätzlicher Hyperparameter erforderlich ist zum Ausführen des Trainingsprozesses mit dem maschinellen Lernmodell entsprechend dem Hyperparametergewinnungscode. Ist ein zusätzlicher Hyperparameter (z.B. eine Lernperiode, eine Rauschrate und so weiter) erforderlich, erzeugt das Anwenderprogramm 10 eine Hyperparametergewinnungsanforderung für den Hyperparameter und überträgt die erzeugte Hyperparametergewinnungsanforderung an das Hyperparameteroptimierungsprogramm 20. Das Anwenderprogramm 10 fährt fort mit der Übertragung der Hyperparametergewinnungsanforderung, bis die geforderte Kombination von Hyperparametern gewonnen ist und das Hyperparameteroptimierungsprogramm 20 wiederholt die Schritte S101 und S102, wie oben beschrieben, entsprechend der empfangenen Hyperparametergewinnungsanforderung.
  • Bei dem Ausführungsbeispiel kann das Hyperparameteroptimierungsprogramm 20 einen Hyperparameter bereitstellen, der entsprechend einem vorgegebenen Hyperparameterauswahlalgorithmus ausgewählt ist.
  • Insbesondere kann der Hyperparameterauswahlalgorithmus auf einer Bayes'schen Optimierung basieren unter Verwendung der Genauigkeit des maschinellen Lernmodells, welches gewonnen ist gemäß der Anwendungshistorie der Hyperparameter. Wie später noch näher beschrieben ist, setzt das Anwenderprogramm 10 zum Trainieren des maschinellen Lernmodells bei Erhalt der Kombination von für den Trainingsprozess erforderlichen Hyperparametern die Kombination von Hyperparametern ein, die durch das Hyperparameteroptimierungsprogramm 20 gesetzt sind. Das Anwenderprogramm 10 bestimmt die Genauigkeit, wie die Vorhersageleistung des maschinellen Lernmodells, welches mit der gesetzten Kombination von Hyperparametern trainiert ist, und liefert die ermittelte Genauigkeit an das Hyperparameteroptimierungsprogramm 20. Das Hyperparameteroptimierungsprogramm 20 kann zuvor eingestellte Kombinationen von Hyperparametern und die für die jeweiligen Kombinationen gewonnene Genauigkeit als Anwendungsverlauf (Anwendungshistorie) abspeichern und den abgespeicherten Anwendungsverlauf als Vorinformationen verwenden zum Bestimmen des als nächstes einzusetzenden Hyperparameters entsprechend einer Bayes'schen Optimierung oder einer Bayes'schen Folgerung. Durch Einsatz einer Bayes'schen Optimierung kann eine passendere Kombination von Hyperparametern eingestellt werden unter Einsatz des Anwendungsverlaufs als Vorinformation.
  • Andererseits kann der vorgegebene Hyperparameterauswahlalgorithmus auch auf eine Zufallssuche basiert werden. In diesem Fall setzt das Hyperparameteroptimierungsprogramm 20 eine Kombination von Hyperparametern ein, welche zuvor nicht angewendet worden ist unter Bezug auf den Anwendungsverlauf. Durch Einsatz der Zufallssuche können die Hyperparameter eingestellt werden durch einen einfachen Hyperparameterauswahlalgorithmus.
  • Das Hyperparameteroptimierungsprogramm 20 kann auch die Bayes'sche Optimierung kombinieren mit der Zufallssuche, wie oben beschrieben, um so die Kombination von Hyperparametern zu ermitteln. Wird beispielsweise nur die Bayes'sche Optimierung eingesetzt, kann die Kombination zu einer lokalen optimalen Kombination konvergieren und wird nur die Zufallssuche eingesetzt, dann kann eine Kombination ausgewählt werden, die signifikant von der optimalen Kombination abweicht. Eine Kombination aus zwei Hyperparameterauswahlalgorithmen, wie der Bayes'schen Optimierung und der Zufallssuche, kann eingesetzt werden zum Vermindern der oben beschriebenen Nachteile.
  • Der Hyperparameterauswahlalgorithmus entsprechend der vorliegenden Beschreibung ist nicht auf die Bayes'sche Optimierung oder die Zufallssuche beschränkt; vielmehr können andere geeignete Hyperparameterauswahlalgorithmen eingesetzt werden, einschließlich der sogenannten evolutionären Berechnung, einer Rastersuche und dergleichen.
  • In Schritt S103 gewinnt das Hyperparameteroptimierungsprogramm 20 ein Bewertungsergebnis des Anwenderprogramms auf Basis der eingesetzten Hyperparameter. Bei Gewinnung der Kombination von Hyperparametern seitens des Anwenderprogramms 10, welche erforderlich sind zur Ausführung des Trainingsprozesses, setzt das Anwenderprogramm 10 die Kombination von Hyperparametern ein zur Ausführung des Trainingsprozesses am maschinellen Lernmodell. Bei Abschluss des Trainingsprozesses berechnet das Anwenderprogramm 10 die Genauigkeit, wie die Vorhersageleistungsfähigkeit des maschinellen Lernmodells, welches als Ergebnis gewonnen ist, und liefert die berechnete Genauigkeit als Bewertungsergebnis an das Hyperparameteroptimierungsprogramm 20.
  • In Schritt S104 wird ermittelt, ob die Abschlussbedingung erfüllt ist und wenn die Abschlussbedingung erfüllt ist (S104: JA), wird der Hyperparameteroptimierungsprogramm abgeschlossen. Wird die Abschlussbedingung nicht erfüllt (S104: NEIN), geht der Hyperparameteroptimierungsprogramm zurück zu den Schritten S101 und S102 und das Anwenderprogramm 10 gewinnt eine neue Kombination von Hyperparametern. Dabei kann die Abschlussbedingung beispielsweise sein, dass die Anzahl der Anwendungen der Kombination von Hyperparametern einen vorgegebenen Schwellenwert erreicht hat. Das Verfahren gemäß Schritt S104 kann auch typischerweise in ein Hauptprogramm eingeschrieben sein, welches das Anwenderprogramm 10 und das Hyperparameteroptimierungsprogramm 20 steuert.
  • 4 zeigt ein Sequenzdiagramm zur Erläuterung des Hyperparameteroptimierungsverfahrens gemäß einem Ausführungsbeispiel der vorliegenden Beschreibung. Dabei wird das oben mit Bezug auf 3 beschriebene Hyperparameteroptimierungsverfahren beschrieben unter dem Gesichtspunkt des Datenaustauschs zwischen dem Anwenderprogramm 10 und dem Hyperparameteroptimierungsprogramm 20.
  • Entsprechend 4 wird in Schritt S201 das Anwenderprogramm 10 gestartet und in dem maschinellen Lernmodell zu aktualisierende Parameter werden initialisiert.
  • In Schritt S202 bestimmt das Anwenderprogramm 10 einen Hyperparameter P1, der zu gewinnen ist entsprechend dem Hyperparametergewinnungscode, welcher in das Anwenderprogramm 10 geschrieben ist, und das Anwenderprogramm 10 überträgt eine Hyperparametergewinnungsanforderung für den Hyperparameter P1 an das Hyperparameteroptimierungsprogramm 20. Bei Empfang der Hyperparametergewinnungsanforderung ermittelt das Hyperparameteroptimierungsprogramm 20 einen Wert des Hyperparameters P1 und gibt den ermittelten Wert des Hyperparameters P1 zurück an das Anwenderprogramm 10. Beim Gewinnen des Wertes des Hyperparameters P1 ermittelt in ähnlicher Weise das Anwenderprogramm 10 einen Hyperparameter P2, der auch zu gewinnen ist entsprechend der Kontrollstruktur des Hyperparametergewinnungscodes und es überträgt die Hyperparametergewinnungsanforderung für den Hyperparameter P2 an das Hyperparameteroptimierungsprogramm 20. Beim Empfang der Hyperparametergewinnungsanforderung ermittelt das Hyperparameteroptimierungsprogramm 20 einen Wert des Hyperparameters P2 und gibt den ermittelten Wert des Hyperparameters P2 an das Anwenderprogramm 10. In ähnlicher Weise wiederholen das Anwenderprogramm 10 und das Hyperparameteroptimierungsprogramm 20 den vorstehend beschriebenen Austausch, bis eine Kombination von Hyperparametern (P1, P2, ..., PN) gewonnen ist, die erforderlich ist zum Trainieren des maschinellen Lernmodells.
  • Zwar fordert jede Hyperparametergewinnungsanforderung gemäß der Figur einen einzigen Hyperparameter, jedoch ist die Hyperparametergewinnungsanforderung gemäß der vorliegenden Beschreibung nicht hierauf beschränkt. Jede der Hyperparametergewinnungsanforderungen kann mehrere Hyperparameter anfordern. Da beispielsweise Hyperparameter, wie eine Lernrate, eine Lernperiode, eine Rauschrate und dergleichen unabhängig voneinander einstellbar sind, können diese Hyperparameter zusammen durch eine einzige Hyperparametergewinnungsanforderung angefordert werden. Entsprechend wird ein Hyperparameter, wie der Typ des maschinellen Lernmodells, ein Lernalgorithmus oder dergleichen durch eine einzige Hyperparametergewinnungsanforderung angefordert, weil ein Hyperparameter die Auswahl des anderen Hyperparameters beeinflusst.
  • In Schritt S203 setzt das Anwenderprogramm 10 die gewonnene Kombination von Hyperparametern ein zum Trainieren des maschinellen Lernmodells. Bei Vervollständigung des Trainingsprozesses berechnet das Anwenderprogramm 10 die Genauigkeit des maschinellen Lernmodells, wie die Vorhersageleistungsfähigkeit, die als Ergebnis gewonnen wird.
  • In Schritt S204 liefert das Anwenderprogramm 10 die berechnete Genauigkeit als Bewertungsergebnis an das Hyperparameteroptimierungsprogramm 20. Das Hyperparameteroptimierungsprogramm 20 speichert die zuvor gewonnene Genauigkeit als Anwendungsverlauf in Verknüpfung mit der eingesetzten Kombination von Hyperparametern und der Anwendungsverlauf wird verwendet zum Auswählen von nachfolgenden Hyperparametern.
  • Die Schritte S202 bis S204 werden wiederholt, bis die Abschlussbedingung erfüllt ist, beispielsweise, dass die Schritte gemäß einer vorgegebenen Anzahl ausgeführt worden sind.
  • Bei diesem Ausführungsbeispiel kann die Hyperparametergewinnungsanforderung den Typ des maschinellen Lernmodells anfordern sowie einen Hyperparameter, der spezifisch ist für den Typ des maschinellen Lernmodells entsprechend der Kontrollstruktur.
  • Beispielsweise kann die Hyperparametergewinnungsanforderung generiert werden entsprechend einem Hyperparametergewinnungscode, der in 5 dargestellt ist. Zunächst werden „ein Typ des maschinellen Lernmodells“ oder „ein Typ des Classifiers (Klassifizierer)“ als Hyperparameter gewonnen. Beim in der Figur dargestellten Beispiel fragt das Anwenderprogramm 10 im Hyperparameteroptimierungsprogramm 20, ob „eine „Support Vector Classification (Stützvektor-Klassifizierung (SVC))“ oder das „Random Forest“-Verfahren (Klassifikationsverfahren mit unkorrelierten Entscheidungsbäumen) eingesetzt werden soll.
  • Wählt das Hyperparameteroptimierungsprogramm 20 „SVC“, dann überträgt das Anwenderprogramm 10 eine Hyperparametergewinnungsanforderung für „svc_c“ als zusätzlichen Hyperparameter an das Hyperparameteroptimierungsprogramm 20. Wählt das Hyperparameteroptimierungsprogramm 20 „Random Forest“, überträgt das Anwenderprogramm 10 eine Hyperparametergewinnungsanforderung für „rf_max_depth“ für einen weiteren Hyperparameter an das Hyperparameteroptimierungsprogramm 20.
  • Anschließend wendet das Anwenderprogramm 10 die gewonnenen Hyperparameter an, um den Trainingsprozess mit dem maschinellen Lernmodell auszuführen, berechnet die Genauigkeit oder den Fehler des im Ergebnis gewonnenen maschinellen Lernmodells und überträgt die Genauigkeit oder den Fehler an das Hyperparameteroptimierungsprogramm 20. Die Anzahl der Versuche (n_trial) ist definiert im Hauptprogramm und bei dem in der Figur dargestellten Beispiel wird der vorstehende Prozess 100 Mal wiederholt.
  • Mit dem Gegenstand der vorliegenden Beschreibung wird im Vergleich mit der Hyperparameteroptimierungssoftware gemäß dem Stand der Technik die Wartung des Programms für den Anwender verbessert durch Einschreiben des Hyperparametergewinnungscodes, welcher die zu gewinnenden Hyperparameter definiert, in das Anwenderprogramm 10, welches die Hyperparameter einsetzt, an Stelle der Hyperparameteroptimierungssoftware. Weiterhin kann eine komplexe Kontrollstruktur, mit z.B. bedingten Verzweigungen, eingesetzt werden für die Anforderung und die Gewinnung von passenden Hyperparametern entsprechend den sequenziell ausgewählten Hyperparametern.
  • Bei dem Ausführungsbeispiel kann der Hyperparametergewinnungscode ein Modul enthalten zum Einstellen von Hyperparametern, welche eine Struktur des maschinellen Lernmodells bestimmen, und eines Moduls zum Einstellen von Hyperparametern, welche einen Trainingsprozess des maschinellen Lernmodells bestimmen. Bei dem in 6 dargestellten Hyperparametergewinnungscode sind beispielsweise ein Modul bezüglich des Aufbaus des maschinellen Lernmodells (def create_model) und ein Modul für die Einstellung von Hyperparametern des maschinellen Lernmodells (def create_optimizer) getrennt geschrieben.
  • Wie beschrieben, kann gemäß der vorliegenden Beschreibung der Hyperparametergewinnungscode in verschiedene Module modularisiert werden, wodurch die Zusammenarbeit von mehreren Programmierern bei der Erzeugung des Hyperparametergewinnungscodes erleichtert wird.
  • Beim oben beschriebenen Ausführungsbeispiel wurde eine Hyperparameteroptimierungstechnik zum Einstellen von Hyperparametern in das Anwenderprogramm zum Trainieren eines maschinellen Lernmodells näher beschrieben. Jedoch ist das Anwenderprogramm gemäß der vorliegenden Beschreibung nicht hierauf beschränkt, es kann sich um ein jegliches Programm handeln. Das heißt: die Hyperparameteroptimierungstechnik gemäß der vorliegenden Beschreibung kann eingesetzt werden zum Einstellen von jeglichen Hyperparametern, welche die Ausführungsergebnisse oder die Leistungsfähigkeit des Anwenderprogramms beeinflussen. Beispiele hierfür, die verschieden sind vom maschinellen Lernen, sind die Steigerung der Geschwindigkeit eines Programms und die Verbesserung einer Nutzerschnittstelle. Beispielsweise kann bezüglich der Geschwindigkeit des Programms ein Wert bezüglich des eingesetzten Algorithmus und eine Puffergröße für die Hyperparameter eingesetzt werden und die Geschwindigkeit des Programms kann verbessert werden durch Optimierung der Hyperparameter zur Erhöhung der Geschwindigkeit. Bei Entwurf einer Nutzerschnittstelle kann die Anordnung und Größe der Tasten für die Hyperparameter eingesetzt werden und die Nutzerschnittstelle kann verbessert werden durch Optimierung der Hyperparameter, um damit das Verhalten des Nutzers zu verbessern.
  • Zwar wurde das Ausführungsbeispiel der vorliegenden Erfindung oben näher im Einzelnen beschrieben, jedoch ist die vorliegende Erfindung nicht auf das spezielle, oben beschriebene Ausführungsbeispiel beschränkt; es sind verschiedene Abwandlungen und Änderungen möglich, ohne den Umfang des beanspruchten Gegenstandes der vorliegenden Erfindung zu verlassen.
  • Diese internationale Patentanmeldung basiert auf der japanischen Patentanmeldung 2018-191250 , angemeldet am 9. Oktober 2018, und beansprucht deren Priorität; der gesamte Inhalt dieser Anmeldung ist in die vorliegende Anmeldung im Wege der Bezugnahme eingeschlossen.
  • Bezugszeichenliste
  • 10
    Anwenderprogramm
    20
    Hyperparameteroptimierungsprogramm
    100
    Hyperparameteroptimierungsvorrichtung
    101
    Prozessor
    102
    Speicher
    103
    Festplatte
    104
    Eingabe-/Ausgabeschnittstelle
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2017 [0005]
    • JP 49677 [0005]
    • JP 2017228068 [0005]
    • JP 2018191250 [0052]

Claims (20)

  1. Hyperparameteroptimierungsverfahren mit durch einen oder mehrere Prozessoren ausgeführten Schritten, wobei die Schritte enthalten: einen Schritt des Empfangens einer Anforderung zum Gewinnen eines Hyperparameters, wobei die Anforderung gemäß einem Hyperparametergewinnungscode generiert ist und der Hyperparametergewinnungscode in ein Anwenderprogramm geschrieben ist; und einen Schritt des Bereitstellens des Hyperparameters für das Anwenderprogramm auf Basis des Anwendungsverlaufs von Hyperparametern, die in dem Anwenderprogramm eingesetzt sind.
  2. Hyperparameteroptimierungsverfahren gemäß Anspruch 1, wobei der Hyperparametergewinnungscode unter Einsatz einer Kontrollstruktur geschrieben ist.
  3. Hyperparameteroptimierungsverfahren gemäß Anspruch 2, wobei das Anwenderprogramm einen Hyperparameter ermittelt, der im Anschluss an den bereitgestellten Hyperparameter zu gewinnen ist entsprechend der geschriebenen Kontrollstruktur, und wobei das Anwenderprogramm eine Anforderung generiert zum Gewinnen des ermittelten Hyperparameters.
  4. Hyperparameteroptimierungsverfahren gemäß einem der Ansprüche 1 bis 3, wobei das Anwenderprogramm zum Trainieren eines maschinellen Lernmodells eingerichtet ist.
  5. Hyperparameteroptimierungsverfahren gemäß Anspruch 4, wobei die Anforderung zum Gewinnen des Hyperparameters einen Typ für das maschinelle Lernmodell und einen Hyperparameter spezifisch für den Typ des maschinellen Lernmodells entsprechend der Kontrollstruktur anfordert.
  6. Hyperparameteroptimierungsverfahren gemäß einem der Ansprüche 4 oder 5, wobei der Hyperparametergewinnungscode ein Modul beinhaltet zum Einstellen eines Hyperparameters, welcher eine Struktur des maschinellen Lernmodells bestimmt, und ein Modul zum Einstellen eines Hyperparameters, der einen Trainingsprozess des maschinellen Lernmodells bestimmt.
  7. Hyperparameteroptimierungsverfahren gemäß einem der Ansprüche 1 bis 6, wobei der Schritt der Bereitstellung des Hyperparameters einen Hyperparameter bereitstellt, der ausgewählt ist auf Basis eines vorgegebenen Hyperparameterauswahlalgorithmus.
  8. Hyperparameteroptimierungsverfahren gemäß Anspruch 7, wobei der vorgegebene Hyperparameterauswahlalgorithmus auf einer Bayes'schen Optimierung beruht unter Einsatz der Genauigkeit eines maschinellen Lernmodells, wobei die Genauigkeit aus dem Anwendungsverlauf des Hyperparameters gewonnen wird.
  9. Hyperparameteroptimierungsverfahren gemäß Anspruch 7, wobei der vorgegebene Hyperparameterauswahlalgorithmus auf einer Zufallssuche beruht.
  10. Hyperparameteroptimierungsverfahren gemäß einem der Ansprüche 1 bis 9, weiterhin einen Schritt aufweisend des Gewinnens eines Bewertungsergebnisses des Anwenderprogramms, in dem der Hyperparameter eingesetzt wird.
  11. Hyperparameteroptimierungsverfahren gemäß Anspruch 10, wobei das Bewertungsergebnis des Anwenderprogramms eine Genauigkeit des maschinellen Lernmodells enthält.
  12. Hyperparameteroptimierungsverfahren gemäß einem der Ansprüche 1 bis 11, weiterhin einen Schritt aufweisend des Wiederholens des Empfangsschrittes und des Bereitstellungsschrittes, bis eine Abschlussbedingung erfüllt ist.
  13. Hyperparameteroptimierungsverfahren mit durch einen oder mehrere Prozessoren ausgeführten Schritten, wobei die Schritte enthalten: einen Schritt des Empfangens einer Anforderung zum Gewinnen eines Hyperparameters, wobei die Anforderung generiert wird entsprechend einem Hyperparametergewinnungscode, wobei der Hyperparametergewinnungscode in ein Anwenderprogramm geschrieben ist; und einen Schritt des Bereitstellens des Hyperparameters für ein Anwenderprogramm auf Basis der Anforderung zum Gewinnen des Hyperparameters.
  14. Hyperparameteroptimierungsverfahren gemäß Anspruch 13, wobei der Empfangsschritt und der Bereitstellungsschritt ausgeführt werden, bis das Anwenderprogramm einen Hyperparameter gewinnt, der für eine Bewertung erforderlich ist.
  15. Hyperparameteroptimierungsverfahren gemäß Anspruch 13, wobei der Hyperparametergewinnungscode einen zu optimierenden Hyperparameter und einen Bereich eines Wertes des zu optimierenden Hyperparameters definiert.
  16. Verfahren zum Generieren eines maschinellen Lernmodells unter Einsatz des Hyperparameteroptimierungsverfahrens gemäß einem der Ansprüche 1 bis 15.
  17. Hyperparameteroptimierungsvorrichtung mit einem oder mehreren Prozessoren, wobei der eine oder die mehreren Prozessoren eingerichtet sind zum: Empfangen einer Anforderung zum Gewinnen eines Hyperparameters, wobei die Anforderung gemäß einem Hyperparametergewinnungscode generiert ist und der Hyperparametergewinnungscode in ein Anwenderprogramm geschrieben ist; und Bereitstellen des Hyperparameters für das Anwenderprogramm auf Basis eines Anwendungsverlaufs von Hyperparametern, die in dem Anwenderprogramm eingesetzt sind.
  18. Hyperparameteroptimierungsvorrichtung mit einem oder mehreren Prozessoren, wobei der eine oder die mehreren Prozessoren eingerichtet sind zum: Empfangen einer Anforderung zum Gewinnen eines Hyperparameters, wobei die Anforderung gemäß einem Hyperparametergewinnungscode generiert ist und der Hyperparametergewinnungscode in ein Anwenderprogramm geschrieben ist; und Bereitstellen des Hyperparameters für das Anwenderprogramm auf Basis der Anforderung zum Gewinnen des Hyperparameters.
  19. Hyperparameteroptimierungsprogramm, welches bewirkt, dass ein oder mehrere Prozessoren ein Verfahren ausführen, welches folgende Schritte aufweist: Empfangen einer Anforderung zum Gewinnen eines Hyperparameters, wobei die Anforderung gemäß einem Hyperparametergewinnungscode generiert ist und der Hyperparametergewinnungscode in ein Anwenderprogramm geschrieben ist; und Bereitstellen des Hyperparameters für das Anwenderprogramm auf Basis des Anwendungsverlaufs von Hyperparametern, die für das Anwenderprogramm eingesetzt worden sind.
  20. Hyperparameteroptimierungsprogramm, um einen oder mehrere Prozessoren zu veranlassen, einen Prozess auszuführen, der aufweist: Empfangen einer Anforderung zum Gewinnen eines Hyperparameters, wobei die Anforderung generiert ist entsprechend einem Hyperparametergewinnungscode und der Hyperparametergewinnungscode in ein Anwenderprogramm geschrieben ist; und Bereitstellen des Hyperparameters für das Anwenderprogramm auf Basis der Anforderung zum Gewinnen des Hyperparameters.
DE112019005048.6T 2018-10-09 2019-10-04 Hyperparameteroptimierungsverfahren, -vorrichtung und -programm Pending DE112019005048T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018-191250 2018-10-09
JP2018191250A JP6892424B2 (ja) 2018-10-09 2018-10-09 ハイパーパラメータチューニング方法、装置及びプログラム
PCT/JP2019/039338 WO2020075644A1 (ja) 2018-10-09 2019-10-04 ハイパーパラメータチューニング方法、装置及びプログラム

Publications (1)

Publication Number Publication Date
DE112019005048T5 true DE112019005048T5 (de) 2021-07-01

Family

ID=70165176

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112019005048.6T Pending DE112019005048T5 (de) 2018-10-09 2019-10-04 Hyperparameteroptimierungsverfahren, -vorrichtung und -programm

Country Status (5)

Country Link
US (1) US20210224692A1 (de)
JP (1) JP6892424B2 (de)
CN (1) CN112823362A (de)
DE (1) DE112019005048T5 (de)
WO (1) WO2020075644A1 (de)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7059214B2 (ja) * 2019-01-31 2022-04-25 株式会社日立製作所 演算装置
US11657118B2 (en) * 2019-05-23 2023-05-23 Google Llc Systems and methods for learning effective loss functions efficiently
CN112015749B (zh) * 2020-10-27 2021-02-19 支付宝(杭州)信息技术有限公司 基于隐私保护更新业务模型的方法、装置及系统
CN112561082A (zh) * 2020-12-22 2021-03-26 北京百度网讯科技有限公司 生成模型的方法、装置、设备以及存储介质
CN112862107A (zh) * 2021-01-26 2021-05-28 贝式计算(天津)信息技术有限公司 自动建模运行系统及运行方法
KR102314847B1 (ko) * 2021-03-30 2021-10-19 주식회사 솔리드웨어 최적모델탐색방법 및 그 장치

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6555015B2 (ja) * 2015-08-31 2019-08-07 富士通株式会社 機械学習管理プログラム、機械学習管理装置および機械学習管理方法

Also Published As

Publication number Publication date
US20210224692A1 (en) 2021-07-22
WO2020075644A1 (ja) 2020-04-16
JP2020060922A (ja) 2020-04-16
CN112823362A (zh) 2021-05-18
JP6892424B2 (ja) 2021-06-23

Similar Documents

Publication Publication Date Title
DE112019005048T5 (de) Hyperparameteroptimierungsverfahren, -vorrichtung und -programm
DE202017007641U1 (de) Training von maschinellen Lernmodellen auf mehrere maschinelle Lernaufgaben
DE112018002822T5 (de) Klassifizieren neuronaler netze
DE102018221413A1 (de) Effektive baustein-ausgestaltung für tiefe konvolutionelle neuronale netzwerke unter verwendung einer suche
DE102017120588A1 (de) Befehlssatzarchitektur für neuronale Netze
DE202016107436U1 (de) Neuronaler Netzwerkprozessor
DE202017105184U1 (de) Tiefes Maschinenlernen zum Ausführen einer Berührungsbewegungsvorhersage
DE112022000106T5 (de) Verfahren zur Getriebefehlerdiagnose und Signalerfassung, eine Vorrichtung und ein elektronisches Gerät
DE112012000628T5 (de) Systeme und Verfahren zur Verarbeitung von maschinellen Lernalgorithmen in einer Mapreduce-Umgebung
DE202017007528U1 (de) Differenzmetrik für auf maschinellem Lernen basierende Verarbeitungssysteme
DE102019004300A1 (de) Verwendung eines dynamischen speichernetzwerks zum verfolgen digitaler dialogzustände und erzeugen von antworten
DE102020121775A1 (de) Künstliches neuronales netz mit trainierbaren aktivierungsfunktionen und fraktionalen ableitungswerten
DE102022119386A1 (de) Verfahren und einrichtung zum durchführen einer dichten vorhersage unter verwendung von transformatorblöcken
DE202017107393U1 (de) Vorhersagen eines Suchmaschinen-Einordnungssignalwerts
DE102009038454A1 (de) System und Verfahren zum Reduzieren einer Ausführungsdivergenz in Parallelverarbeitungsarchitekturen
DE19814422A1 (de) System zur Lösung eines Randbedingungsproblems und Aufbau eines derartigen Systems
DE112020004031T5 (de) Systembezogene selektive quantisierung für in der leistungsfähigkeit optimiertes verteiltes deep learning
DE112019000676T5 (de) Zentraler scheduler und anweisungszuteiler für einen neuronalen inferenzprozessor
DE102019109631A1 (de) Tiefes komprimiertes netzwerk
DE112020000545T5 (de) Deep-forest-modell-entwicklung und -training
DE102016222814A1 (de) Verfahren zum berechnen einer ausgabe eines neuronalen netzes
DE102021107510A1 (de) Training eines neuronalen netzwerks unter speicherbeschränkung
DE102021127244A1 (de) Künstliche Intelligenz Optimierungsplattform
DE112021004234T5 (de) Einsetzen von metalernen zum optimieren der automatischen auswahl von pipelinesdes maschinellen lernens
DE112021001767T5 (de) Rationalisieren von datenverarbeitungsoptimierungen für arbeitslasten mit maschinellem lernen