DE202022106154U1 - Vorrichtung zur Optimierung eines Hyperparameters für Meta-Lernen - Google Patents
Vorrichtung zur Optimierung eines Hyperparameters für Meta-Lernen Download PDFInfo
- Publication number
- DE202022106154U1 DE202022106154U1 DE202022106154.8U DE202022106154U DE202022106154U1 DE 202022106154 U1 DE202022106154 U1 DE 202022106154U1 DE 202022106154 U DE202022106154 U DE 202022106154U DE 202022106154 U1 DE202022106154 U1 DE 202022106154U1
- Authority
- DE
- Germany
- Prior art keywords
- data set
- init
- computer
- learning
- task
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/0985—Hyperparameter optimisation; Meta-learning; Learning-to-learn
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
Vorrichtung zur Optimierung eines Hyperparameters für Meta-Lernen, bei der ein neuronales Netzwerk über Meta-Lernen zur Klassifizierung von Eingangssignalen trainiert wird, die von einem Sensor (30) stammen, wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirken, dass der Computer ein Verfahren mit folgenden Schritten ausführt:
Erhalt einer Anzahl von Erstmustern (Ninit), die Datenpunkte aus früheren Trainingsaufgaben des Meta-Lernens sind, eine Anzahl von Kandidaten für jede Iteration (Ns), ein Quantil (γ) zur Aufteilung des Hauptdatensatzes (D) und ein Verhältnis von Stichproben (ε);
Einen leeren Hauptdatensatz (D) und einen leeren ersten Datensatz (Dinit) initialisieren;
Durchführung einer ersten Schleife über die Anzahl der verschiedenen Meta-Lernaufgaben (T):
Die in einem aufgabenspezifischen Datensatz (Dm) enthaltenen Top-Performance-Datenpunkte der Erstmuster (Ninit) zum ersten Datensatz (Dinit) hinzufügen;
Den aufgabenspezifischen Datensatz (Dm) sortieren und KDEs erstellen;
Durchführung einer zweiten Schleife über die Anzahl der Erstmuster Ninit:
Nach dem Zufallsprinzip Datenpunkte x aus dem ersten Datensatz (Dinit) auswählen und in den Hauptdatensatz (D) übertragen;
Durchführung einer dritten Schleife bis zum Verbrauch eines bestimmten Budgets:
V. Den Hauptdatensatz (D) sortieren und erstellen
VI. Ermittlung eines aufgabenspezifischen Kernels (kt)
VII. Entweder stichprobenartig neuen Datenpunkt (xneu) ziehen oder durch Optimierung einer Akquisitionsfunktion neuen Datenpunkt (xneu) bestimmen, wobei die Akquisitionsfunktion (EIfγ) wie folgt definiert ist:
VIII. Neuer Datenpunkt gemäß Schritt VII. (xneu) zum Hauptdatensatz hinzufügen; Wählen Sie das optimale Muster aus dem Hauptdatensatz aus und verwenden dessen Wert als Hyperparameter für das Training des neuronalen Netzes.
Erhalt einer Anzahl von Erstmustern (Ninit), die Datenpunkte aus früheren Trainingsaufgaben des Meta-Lernens sind, eine Anzahl von Kandidaten für jede Iteration (Ns), ein Quantil (γ) zur Aufteilung des Hauptdatensatzes (D) und ein Verhältnis von Stichproben (ε);
Einen leeren Hauptdatensatz (D) und einen leeren ersten Datensatz (Dinit) initialisieren;
Durchführung einer ersten Schleife über die Anzahl der verschiedenen Meta-Lernaufgaben (T):
Die in einem aufgabenspezifischen Datensatz (Dm) enthaltenen Top-Performance-Datenpunkte der Erstmuster (Ninit) zum ersten Datensatz (Dinit) hinzufügen;
Den aufgabenspezifischen Datensatz (Dm) sortieren und KDEs
Durchführung einer zweiten Schleife über die Anzahl der Erstmuster Ninit:
Nach dem Zufallsprinzip Datenpunkte x aus dem ersten Datensatz (Dinit) auswählen und in den Hauptdatensatz (D) übertragen;
Durchführung einer dritten Schleife bis zum Verbrauch eines bestimmten Budgets:
V. Den Hauptdatensatz (D) sortieren und
VI. Ermittlung eines aufgabenspezifischen Kernels (kt)
VII. Entweder stichprobenartig neuen Datenpunkt (xneu) ziehen oder durch Optimierung einer Akquisitionsfunktion neuen Datenpunkt (xneu) bestimmen, wobei die Akquisitionsfunktion (EIfγ) wie folgt definiert ist:
VIII. Neuer Datenpunkt gemäß Schritt VII. (xneu) zum Hauptdatensatz hinzufügen; Wählen Sie das optimale Muster aus dem Hauptdatensatz aus und verwenden dessen Wert als Hyperparameter für das Training des neuronalen Netzes.
Description
- Stand der Technik
- Hyperparameter-Optimierung (HPO) ist für die bessere Leistung von Deep Learning unerlässlich, und Praktiker müssen oft den Kompromiss zwischen mehreren Metriken wie Fehlerrate, Latenz, Speicheranforderungen, Robustheit und algorithmischer Fairness berücksichtigen. Aufgrund dieses Bedarfs und der hohen Rechenleistung von Deep Learning wird die Beschleunigung der Multi-Ziel (MO)-Optimierung immer wichtiger. Obwohl Meta-Lernen zur Beschleunigung von HPO umfassend untersucht wurde, sind bestehende Methoden nicht auf den MO-Baum-strukturierten Parzen-Schätzer (MO-TPE), einen einfachen, aber leistungsstarken MO-HPO-Algorithmus, anwendbar. In dieser Anwendung erweitern wir die Akquisitionsfunktion von TPE auf das Meta-Lernsetting, indem wir eine Aufgabenähnlichkeit verwenden, die durch die Überschneidung in vielversprechenden Regionen jeder Aufgabe definiert wird.
- Vorteile der Erfindung
- Deep Learning hat zwar verschiedene bahnbrechende Erfolge erzielt, seine Leistung hängt jedoch stark von den richtigen Einstellungen seiner Hyperparameter (HP) ab. Darüber hinaus werden in der Praxis häufig wichtige Metriken zur Optimierung der Fehlerrate wie Latenz der Inferenz, Speicheranforderungen, Robustheit und algorithmische Fairness vorgeschrieben. Die Erforschung des Pareto vor mehreren Zielen ist jedoch komplexer als die Einzelzieloptimierung, weshalb es besonders wichtig ist, die MO-Optimierung zu beschleunigen.
- Um die HP-Optimierung (HPO) zu beschleunigen, wurde das Meta-Lernen aktiv untersucht, wie z. B. von J. Vanschoren. Meta-Lernen untersucht. In Automated Machine Learning, Seite 35-61. Springer, 2019. Im Kontext von HPO konzentriert sich Meta-Learning vor allem auf den Wissenstransfer von Metadaten in der Bayes'schen Optimierung (BO). Diese Methoden verwenden Meta-Informationen im Gauß-Prozess (GP)-Regression, um besser informierte Surrogate für den Zieldatensatz zu erhalten, wodurch sie auf bestehende MO-BO-Methoden wie ParEGO anwendbar sind (J. Knowles. ParEGO: Hybrid-Algorithmus mit Online-Landscape-Approximation für teure Mehrzieloptimierungsprobleme Evolutionary Computation, 10, 2006.) und SMS-EGO (W. Ponweiser, T. Wagner, D. Biermann, M. Vincze. Mehrzieloptimierung auf begrenztem Budget von Auswertungen mittels modellgestützter S-metrischer Auswahl. In International Conference on Parallel Problem Solving from Nature, 2008).
- Neuere Arbeiten berichten jedoch, dass eine Variante der BO namens MO treestructured Parzen estimator (MO-TPE) (J. Bergstra, R. Bardenet, Y. Bengio, and B. Kegl. Algorithms for hyper-parameter optimization. In Advances in Neural Information Processing Systems, 2011 oder J. Bergstra, D. Yamins, and D. Cox. Making a science of model search: Hyperparameter-Optimierung in Hunderten von Dimensionen für Vision-Architekturen. In der International Conference on Machine Learning, 2013.) ist stärker als diese Methoden in teuren MO-Einstellungen. Da diese Methode Kernel Density Estimators (KDEs) anstelle von GPs verwendet, sind die bestehenden Meta-Lernverfahren nicht direkt anwendbar
- Um dieses Problem anzugehen, schlagen wir eine Meta-Lernmethode für TPE mit einem neuen Aufgabenähnlichkeitsmaß vor. Unsere Methode modelliert die gemeinsame Wahrscheinlichkeitsdichtefunktion (PDF) einer HP-Konfiguration und einer Aufgabe unter der Annahme bedingter Verschiebung (z. B. K. Zhang, B. Schölkopf, K. Muandet, und Z. Wang. Domänenadaption unter Ziel- und bedingter Verschiebung. In International Conference on Machine Learning, 2013.). Da das gemeinsame PDF ein Ähnlichkeitsmaß zwischen Aufgaben erfordert, führen wir ein Ähnlichkeitsmaß für Aufgaben ein, indem wir den Schnittpunkt über der Vereinigung verwenden (was wir γ-set similarity nennen).
- Weitergabe der Erfindung
- In einem ersten Aspekt wird eine computerimplementierte Methode zur Optimierung eines Hyperparameters für Meta-Lernen vorgestellt. Ein neuronales Netzwerk kann dann über Meta-Learning trainiert werden, um Eingangssignale eines Sensors zu klassifizieren.
- Die Methode beginnt mit einem Schritt des Empfangens einer Anzahl von Erstmustern, die Datenpunkte aus früheren Trainingsaufgaben des Meta-Lernens sind, einer Anzahl von Kandidaten für jede Iteration, einer Menge zur Aufteilung des Hauptdatensatzes und eines Verhältnisses von Stichproben.
- Anschließend folgt ein Schritt der Initialisierung eines leeren Hauptdatensatzes (D) und eines leeren ersten Datensatzes (Dinit).
- Anschließend erfolgt die Durchführung einer ersten Schleife über die Anzahl der verschiedenen Meta-Lernaufgaben (T):
- Die in einem aufgabenspezifischen Datensatz (Dm) enthaltenen Top-Performance-Datenpunkte der Erstmuster zum ersten Datensatz (Dinit) hinzufügen;
- Den aufgabenspezifischen Datensatz (Dm) sortieren und KDEs
- Durchführung einer zweiten Schleife über die Anzahl der Erstmuster Ninit:
- Nach dem Zufallsprinzip aus dem ersten Datensatz (Dinit) auswählen und in den Hauptdatensatz (D) übertragen.
- Anschließend wird eine dritte Schleife durchgeführt, bis ein bestimmtes Budget verbraucht ist:
- I. Den Hauptdatensatz (D) sortieren und KDEs p (x|D1 (l) , p (x|D1 (g)) erstellen
- II. Ermittlung eines aufgabenspezifischen Kernels (kt)
- III. Entweder stichprobenartig ziehen eines neuen Datenpunkte sx oder durch Optimierung einer Akquisitionsfunktion einen neuen Datenpunkt x bestimmen, wobei die Akquisitionsfunktion (EIf γ) wie folgt definiert ist:
- IV. Den neuen Datenpunkt zum Hauptdatensatz hinzufügen. Genauer gesagt, bei der neuen Probe wird ein beobachteter Datenpunkt erzeugt, z. B. durch Verwendung der neuen Probe und Beobachtung ihrer Leistung.
- Das Budget kann ein Energie- oder Zeitbudget sein.
- Anschließend wird das optimale Muster aus dem Hauptdatensatz ausgewählt und dessen Wert für die Hyperparameter zum Trainieren des neuronalen Netzes verwendet.x
- Bevorzugte Fortschritte des ersten Aspekts der Erfindung sind durch die abhängigen Ansprüche gegeben.
- In einem zweiten Aspekt betrifft die Erfindung ein Verfahren zum:
- Empfang eines Sensorsignals mit Daten eines Sensors,
- - Ermittlung eines von diesem Sensorsignal abhängigen Eingangssignals und
- - Einspeisung des Eingangssignals in den Klassifikator, um ein Ausgangssignal zu erhalten, das eine Klassifizierung des Eingangssignals charakterisiert.
- Dieser Klassifikator, z. B. ein neuronales Netz, kann mit einer solchen Struktur ausgestattet sein, dass es trainiert werden kann, z. B. Fußgänger und/oder Fahrzeuge und/oder Verkehrszeichen und/oder Ampeln und/oder Fahrbahnoberflächen und/oder menschliche Gesichter und/oder medizinische Anomalien in bildgebenden Sensorbildern zu erkennen und zu unterscheiden. Alternativ kann dieser Klassifikator, z. B. ein neuronales Netzwerk, mit einer Struktur ausgestattet sein, die in der Lage ist, gesprochene Befehle in Audiosensorsignalen zu erkennen.
- In einem dritten Aspekt betrifft die Erfindung eine Vorrichtung zum Ausführen der vorhergehenden Aspekte der Erfindung.
- Ausführungsbeispiele der Erfindung werden anhand der folgenden Abbildungen näher erläutert. Die Abbildungen zeigen:
-
-
-
-
-
-
- In diesem Abschnitt erklären wir kurz die TPE-Formulierung und beschreiben dann die Formulierung der Akquisitionsfunktion (AF) für das Meta-Lernsetting. Beachte, dass unsere Methode leicht auf MO-Einstellungen erweitert werden kann. Zur Vereinfachung besprechen wir zunächst die Einstellung für einzelne Ziele und beschreiben nur, wie sie später auf die MO-Einstellung erweitert werden kann. Es wird darauf hingewiesen, dass das TPE als Klassifizierungsmodell gesehen werden kann, das vorhersagt, ob eine nächste Beobachtung gut oder schlecht ist.
- In dieser Abhandlung bezeichnen wir Metadaten als
- TPE (siehe z. B. J. Bergstra, R. Bardenet, Y. Bengio, und B. Kegl. Algorithmen zur Optimierung von Hyperparametern. In Advances in Neural Information Processing Systems, 2011.) teilt einen Satz von Beobachtungen
-
- Diese Formulierung überträgt das Wissen von gut arbeitenden Regionen und gewichtet das Wissen von ähnlichen Aufgaben mehr.
- Um AF zu berechnen, müssen wir die gemeinsamen PDFs p(x, t|D(l))
p(x, t|D(g)) modellieren, die wir daher im nächsten Abschnitt besprechen. - Um die Ähnlichkeit kt(ti, tj) zwischen Aufgaben zu messen, verwenden wir die γ-set Ähnlichkeit.
- Es hat sich herausgestellt, dass
- Beachte, dass dtv(pi, pj) über das Monte-Carlo-Sampling angenähert wird.
-
- Wir definieren den Kernel so, dass er symmetrisch ist und die Summe über alle Aufgaben 1 ist. Mit diesem Kernel bauen wir KDEs wie folgt:
-
-
-
-
- Der Algorithmus 2 stellt den gesamten Pseudocode unseres meta-lernenden TPE dar, und die Farbcodierung zeigt unsere Vorschläge. Um die Näherung der Aufgabenähnlichkeit zu stabilisieren, verwenden wir die im Algorithmus 1 gezeigte Maßreduzierung und den ε-gierigen Algorithmus bei der Optimierung des AF in Zeile 15 des Algorithmus 2. Des Weiteren Wir verwenden die Warmstart-Initialisierung wie in den Zeilen 3 - 8 des Algorithmus 2. Der Warmstart beschleunigt die Optimierungen weiter.
- Abschließend wird noch kurz erwähnt, wie wir unsere Methode auf MO-Einstellungen erweitern können. Da sowohl TPE als auch MO-TPE die Rangfolge unter den Beobachtungen berücksichtigen, müssen wir nur eine Sortiermethode anwenden, so dass wir Beobachtungen in zwei Teile aufteilen können, d. h. das Top-Quantil und das andere. Danach ist die frühere Diskussion auch direkt auf die MO-Einstellungen anwendbar. Es kann eine bekannte Sortiermethode nach dem Stand der Technik verwendet werden.γ
- Vorzugsweise wird in der Zeile 18 von Algortihm 2 die Optimierung durch triviale Optimierung durchgeführt, z. B. durch zufälliges Stichproben einiger Werte für und Auswahl des, die die höchsten Werte für den AF liefert. Alternativ können weitergehende Optimierungsmethoden eingesetzt werden.xx
- Generell kann die oben beschriebene Methode auf Meta-Lernaufgaben angewendet werden. Bevorzugt wird Meta-Lernen auf ein neuronales Netzwerk angewendet, wobei das neuronale Netzwerk zum Klassifikator trainiert werden kann, z. B. für Bild-, Audio- oder andere Sensordaten. Die obigen Beobachtungen sind dann z. B. Hyperparameterpaare des neuronalen Netzes oder Hyperparameter der für frühere Aufgaben gewählten Trainingsmethode und eine erreichte Leistung des neuronalen Netzes mit seiner entsprechenden Hyperparameter. Es wird darauf hingewiesen, dass die Beobachtungen auch mehr als einen Hyperparameter umfassen können, z. B. eine Lernrate und eine Chargengröße. Anschließend wird die oben diskutierte Methode angewendet, um optimale Hyperparameter zu bestimmen, um das neuronale Netz für eine neue (Ziel-)Aufgabe zu trainieren. Nachdem das neuronale Netz mit den optimalen Hyperparametern(en) trainiert wurde, kann das trainierte neuronale Netz wie nachfolgend beschrieben genutzt werden.
- In
- Dabei empfängt das Regelsystem 40 einen Strom von Sensorsignalen S. Es berechnet dann eine Reihe von Stellgliedsteuerbefehlen A in Abhängigkeit vom Strom der Sensorsignale S, die dann an die Aktoreinheit 10 übertragen werden, die die Steuerbefehle A in mechanische Bewegungen oder Änderungen physikalischer Größen umwandelt. Beispielsweise kann die Aktoreinheit 10 den Steuerbefehl A in eine elektrische, hydraulische, pneumatische, thermische, magnetische und/oder mechanische Bewegung oder Änderung umwandeln. Spezifische, aber nicht einschränkende Beispiele sind Elektromotoren, elektroaktive Polymere, Hydraulikzylinder, piezoelektrische Aktuatoren, pneumatische Aktuatoren, Servomechanismen, Elektromagnete, Schrittmotoren usw.
- Die Steuerung 40 empfängt den Strom der Sensorsignale S des Sensors 30 in einer optionalen Empfangseinheit 50. Die Empfangseinheit 50 wandelt die Sensorsignale S x in Eingangssignale um. Alternativ kann bei keiner Empfangseinheit 50 jedes Sensorsignal S direkt als Eingangssignal x. Eingangssignal x, z. B. als Auszug aus dem Sensorsignal S angegeben werden. Alternativ kann das Sensorsignal S zu einem Eingangssignal verarbeitet werden x. Das Eingangssignal x umfasst Bilddaten, die einem vom Sensor 30 aufgezeichneten Bild entsprechen. Mit anderen Worten, Eingangssignal x wird gemäß Sensorsignal S bereitgestellt.
- Das Eingangssignal x wird dann an einen Bildklassifikator 60 weitergeleitet, der z. B. durch ein künstliches neuronales Netz gegeben werden kann und nach dem obigen Pseudoalgorithmus 2 trainiert wurde.
- Klassifikator 60 ermittelt Ausgangssignale y aus Eingangssignalen. Das Ausgangssignal besteht aus Informationen, die dem Eingangssignal einen oder mehrere Labels zuordnen. Ausgangssignale werden an eine optionale Wandlereinheit 80 übertragen, die die Ausgangssignale y in die Steuerbefehle A umwandelt. Stellgliedsteuerbefehle A werden dann an die Stellgliedeinheit 10 zur Ansteuerung der Stellgliedeinheit 10 übertragen. Alternativ können Ausgangssignale y direkt als Steuerbefehle A übernommen werden.
- Stellglied 10 empfängt Stellglied-Steuerbefehle A, wird entsprechend gesteuert und führt eine den Stellgliedsteuerbefehlen A entsprechende Handlung aus. Stellglied 10 kann eine Steuerlogik umfassen, die den Stellgliedsteuerbefehl A in einen weiteren Steuerbefehl umwandelt, Mit diesem wird dann das Stellglied 10 angesteuert.
- In weiteren Ausführungsbeispielen kann die Steuerung 40 den Sensor 30 umfassen. In noch weiteren Ausführungsformen kann das Regelsystem 40 alternativ oder zusätzlich das Stellglied 10 umfassen.
- Die Komponente Anhand eines Ausgangs eines Navigationssystems kann dann eine geeignete Fahrspur zur Verfolgung eines gewählten Weges gewählt werden und in Abhängigkeit von einer vorhandenen Fahrspur und der Zielspur kann dann entschieden werden, ob das Fahrzeug 60 die Spur wechseln oder in der vorhandenen Fahrspur bleiben soll. Der Steuerbefehl A kann dann berechnet werden, indem z. B. ein vordefiniertes Bewegungsmuster aus einer Datenbank abgerufen wird, die der identifizierten Aktion entspricht.
- Ebenso können bei der Erkennung von Verkehrszeichen oder Ampeln, abhängig von einer identifizierten Art von Verkehrszeichen oder einem identifizierten Zustand dieser Ampeln, entsprechende Einschränkungen für mögliche Bewegungsmuster des Fahrzeugs 60 aus z. B. einer Datenbank abgerufen werden, Die Komponente
- Ebenso kann bei der Identifizierung von Fußgängern und/oder Fahrzeugen ein projiziertes zukünftiges Verhalten dieser Fußgänger und/oder Fahrzeuge abgeschätzt werden, und zwar basierend auf dem geschätzten zukünftigen Verhalten, Die Komponente
- In noch weiteren Ausführungsbeispielen kann vorgesehen sein, dass die Steuerung 40 anstelle eines Stellglieds 10 eine Anzeige 10a steuert, wobei die Anzeige 10a den Steuerbefehl oder ähnliches anzeigen kann.
In anderen Ausführungsformen kann die Anzeige 10a eine Ausgabeschnittstelle zu einem Wiedergabegerät sein, wie z. B. einer Anzeige, einer Lichtquelle, einem Lautsprecher, einem Vibrationsmotor, usw., mit deren Hilfe ein sensorisch wahrnehmbares Ausgangssignal erzeugt werden kann, das auf Basis der vom Video-Feature-Extractor extrahierten Feature-Darstellung erzeugt werden kann. Das sensorisch wahrnehmbare Ausgangssignal kann direkt auf die extrahierten Merkmale hinweisen, aber auch ein abgeleitetes sensorisch wahrnehmbares Ausgangssignal darstellen, z. B. zur Verwendung in der Führung, Navigation oder anderen Arten der Steuerung eines computergesteuerten Systems. - Des Weiteren kann die Steuerung 40 einen Prozessor 45 (oder mehrere Prozessoren) und mindestens ein maschinenlesbares Speichermedium 46 umfassen, auf dem Anweisungen gespeichert sind, die Falls durchgeführt, Regelsystem 40 veranlassen, ein Verfahren nach einem Aspekt der Erfindung durchzuführen.
- In einer bevorzugten Ausführungsform aus
- Sensor 30 kann aus einem oder mehreren Videosensoren und/oder einem oder mehreren Radarsensoren und/oder einem oder mehreren Ultraschallsensoren und/oder einem oder mehreren LiDAR-Sensoren und oder einem oder mehreren Positionssensoren (z. B. GPS) bestehen. Einige oder alle dieser Sensoren sind vorzugsweise, aber nicht unbedingt im Fahrzeug 100 integriert.
Alternativ oder zusätzlich Sensor 30 kann ein Informationssystem zur Bestimmung eines Zustands des Aktorsystems enthalten. Ein Beispiel für ein solches Informationssystem ist ein Wetterinformationssystem, das einen aktuellen oder zukünftigen Wetterzustand in der Umgebung 20 bestimmt. - Beispielsweise kann der Klassifikator 60 mittels Eingangssignal beispielsweise Objekte in der Nähe des mindestens teilautonomen Roboters erkennen. Ausgangssignal y kann eine Information umfassen, die charakterisiert, wo sich Objekte in der Nähe des mindestens teilautonomen Roboters befinden. Anschließend kann der Steuerbefehl A entsprechend dieser Information ermittelt werden, um z. B. Kollisionen mit den erkannten Objekten zu vermeiden.
- Die vorzugsweise in das Fahrzeug 100 integrierte Stelleinheit 10 kann durch eine Bremse, ein Antriebssystem, einen Motor, einen Antriebsstrang oder eine Lenkung des Fahrzeugs 100 gegeben sein. Stellglied-Steuerbefehle A können so festgelegt werden, dass Stellglied (oder Stellglied) Einheit 10 so angesteuert wird/werden, dass Fahrzeug 100 Kollisionen mit den erkannten Objekten vermeidet. Erkannte Objekte können auch nach der vom Klassifikator 60 als wahrscheinlichsten erachteten Klassifizierung klassifiziert werden, z. B. Fußgänger oder Bäume, und Stellgliedsteuerbefehle A können je nach Klassifizierung festgelegt werden.
- In weiteren Ausführungsbeispielen kann der mindestens teilweise autonome Roboter durch einen anderen mobilen Roboter gegeben werden (nicht dargestellt), der sich z. B. durch Fliegen, Schwimmen, Tauchen oder Treten bewegen kann. Der mobile Roboter kann unter anderem ein mindestens teilautonomer Rasenmäher oder ein mindestens teilautonomer Reinigungsroboter sein. In allen oben genannten Ausführungsformen kann die Stellgliedsteuerung A so festgelegt werden, dass Antriebseinheit und/oder Lenkung und/oder Bremse des mobilen Roboters so gesteuert werden, dass der mobile Roboter Kollisionen mit den identifizierten Objekten vermeiden kann.
- In einer weiteren Ausführungsform kann der mindestens teilweise autonome Roboter von einem Gartenroboter (nicht dargestellt) vorgegeben werden, der mit Sensor 30, vorzugsweise einem optischen Sensor, einen Zustand der Pflanzen in der Umgebung 20 ermittelt. Stellglied 10 kann eine Düse zum Sprühen von Chemikalien sein. Abhängig von einer identifizierten Art und/oder einem identifizierten Zustand der Anlagen kann ein Stellgliedsteuerbefehl A festgelegt werden, der bewirkt, dass die Stelleinheit 10 die Anlagen mit einer geeigneten Menge geeigneter Chemikalien besprüht.
- In noch weiteren Ausführungsformen kann der mindestens teilweise autonome Roboter durch ein Haushaltsgerät (nicht dargestellt) gegeben werden, wie z. B. eine Waschmaschine, ein Herd, ein Backofen, eine Mikrowelle oder eine Spülmaschine. Sensor 30, z. B. ein optischer Sensor, kann einen Zustand eines Gegenstandes erkennen, der durch das Haushaltsgerät bearbeitet werden soll. Wenn das Haushaltsgerät beispielsweise eine Waschmaschine ist, kann der Sensor 30 einen Zustand der Wäsche in der Waschmaschine erkennen. Abhängig von einem erkannten Material der Wäsche kann dann das Stellglied-Steuersignal A ermittelt werden.
- In
- Sensor 30 kann durch einen optischen Sensor gegeben werden, der Eigenschaften z. B. eines gefertigten Produkts erfasst. Klassifikator 60 kann aus diesen erfassten Eigenschaften einen Zustand des gefertigten Erzeugnisses 12 bestimmen. Die Stelleinheit 10, die die Fertigungsmaschine 11 steuert, kann dann abhängig vom ermittelten Zustand des gefertigten Erzeugnisses 12 für einen nachfolgenden Fertigungsschritt des gefertigten Erzeugnisses 12 angesteuert werden. Oder es kann vorgesehen sein, dass die Aktoreinheit 10 bei der Herstellung eines späteren gefertigten Erzeugnisses 12 in Abhängigkeit vom ermittelten Zustand des gefertigten Erzeugnisses 12 angesteuert wird.
- In
- In
- In
- Die Steuerung 40 ermittelt dann die Stellgliedsteuerbefehle A zur Steuerung des automatisierten Personenassistenten 250. Die Stellgliedsteuerbefehle A werden entsprechend dem Sensorsignal S des Sensors 30 ermittelt. Sensorsignal S wird an die Steuerung 40 übertragen. Beispielsweise kann der Klassifikator 60 so konfiguriert sein, dass z. B. ein Gestenerkennungsalgorithmus zur Identifizierung einer Gestik des Benutzers 249 durchgeführt wird. Die Steuerung 40 kann dann einen Stellgliedsteuerbefehl A zur Übertragung an den automatisierten Personenassistenten 250 festlegen. Dieser überträgt dann den Stellgliedsteuerbefehl A an den automatisierten Personenassistenten 250.
- Beispielsweise kann der Stellgliedsteuerbefehl A entsprechend der identifizierten Benutzergestik ermittelt werden, die vom Klassifikator 60 erkannt wird. Es kann dann Informationen enthalten, die den automatisierten persönlichen Assistenten 250 dazu veranlassen, Informationen aus einer Datenbank abzurufen und diese abgerufenen Informationen in einer für den Benutzer geeigneten Form 249 auszugeben.
- In weiteren Ausführungsformen kann vorgesehen sein, dass anstelle des automatisierten persönlichen Assistenten 250 ein Haushaltsgerät (nicht dargestellt) gesteuert wird, das entsprechend der identifizierten Benutzergestik gesteuert wird. Das Haushaltsgerät kann eine Waschmaschine, ein Herd, ein Backofen, eine Mikrowelle oder ein Geschirrspüler sein.
- In
Claims (8)
- Vorrichtung zur Optimierung eines Hyperparameters für Meta-Lernen, bei der ein neuronales Netzwerk über Meta-Lernen zur Klassifizierung von Eingangssignalen trainiert wird, die von einem Sensor (30) stammen, wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirken, dass der Computer ein Verfahren mit folgenden Schritten ausführt: Erhalt einer Anzahl von Erstmustern (Ninit), die Datenpunkte aus früheren Trainingsaufgaben des Meta-Lernens sind, eine Anzahl von Kandidaten für jede Iteration (Ns), ein Quantil (γ) zur Aufteilung des Hauptdatensatzes (D) und ein Verhältnis von Stichproben (ε); Einen leeren Hauptdatensatz (D) und einen leeren ersten Datensatz (Dinit) initialisieren; Durchführung einer ersten Schleife über die Anzahl der verschiedenen Meta-Lernaufgaben (T): Die in einem aufgabenspezifischen Datensatz (Dm) enthaltenen Top-Performance-Datenpunkte der Erstmuster (Ninit) zum ersten Datensatz (Dinit) hinzufügen; Den aufgabenspezifischen Datensatz (Dm) sortieren und KDEs
- Vorrichtung nach
Anspruch 1 , wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass das neuronale Netz mit dem ausgewählten optimalen Hyperparameter trainiert wird. - Vorrichtung nach
Anspruch 1 oder2 , wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass die KDEs wie folgt ermittelt werden: - Vorrichtung nach
Anspruch 3 , wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass dtv(pi, pj) über Monte-Carlo-Probenahmen angenähert wird. - Vorrichtung nach einem der oben genannten Ansprüche, wobei der Hyperparameter mindestens einen der folgenden Hyperparameter umfasst: Chargengröße, Lernrate, Momentum, Aktivierungsfunktion, Netzwerkgewicht-Initialisierung, Dropout-Regularisierung, Anzahl der Einheiten (Neuronen) pro Schicht und Anzahl der Schichten, Epochen, Optimierungsalgorithmus und/oder Regularisierung.
- Vorrichtung zur Verwendung des trainierten neuronalen Netzes nach
Anspruch 2 als Klassifikator (60) zur Klassifizierung von Sensorsignalen, wobei der Klassifikator (60) mit dem Verfahren nach einem derAnsprüche 1 bis5 trainiert wurde, wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirken, dass der Computer ein Verfahren mit den folgenden Schritte ausführt: - Empfang eines Sensorsignals (S) bestehend aus Daten eines Sensors (30), - Ermittlung eines von diesem Sensorsignal (S) abhängigen Eingangssignals (x) und - Einspeisung des Eingangssignals (x) in den Klassifikator (60), um ein Ausgangssignal (y) zu erhalten, das eine Klassifizierung des Eingangssignals (x) charakterisiert. - Vorrichtung zur Verwendung des trainierten neuronalen Netzes nach
Anspruch 2 als Klassifikator (60), trainiert nach einem derAnsprüche 2 bis5 zur Bereitstellung eines Stellgliedsteuersignals (A) zur Steuerung eines Stellglieds (10), wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirken, dass der Computer ein Verfahren das den Schritt ausführt: Ermittlung des Stellglied-Steuersignals (A) in Abhängigkeit des Ausgangssignals (y). - Vorrichtung nach den
Ansprüchen 7 , bei dem das Stellglied (10) einen mindestens teilautonomen Roboter (100) und/oder eine Fertigungsmaschine (200)) und/oder ein Zutrittskontrollsystem (300) steuert.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202022106154.8U DE202022106154U1 (de) | 2022-11-02 | 2022-11-02 | Vorrichtung zur Optimierung eines Hyperparameters für Meta-Lernen |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202022106154.8U DE202022106154U1 (de) | 2022-11-02 | 2022-11-02 | Vorrichtung zur Optimierung eines Hyperparameters für Meta-Lernen |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202022106154U1 true DE202022106154U1 (de) | 2022-11-14 |
Family
ID=84283220
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202022106154.8U Active DE202022106154U1 (de) | 2022-11-02 | 2022-11-02 | Vorrichtung zur Optimierung eines Hyperparameters für Meta-Lernen |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE202022106154U1 (de) |
-
2022
- 2022-11-02 DE DE202022106154.8U patent/DE202022106154U1/de active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102020210352A1 (de) | Verfahren und Vorrichtung zum Transferlernen zwischen modifizierten Aufgaben | |
DE202019105282U1 (de) | Vorrichtung zum Optimieren eines System für das maschinelle Lernen | |
DE102021116436A1 (de) | Verfahren und Vorrichtung zur datenfreien Posttraining-Netzwerkquantisierung und Generierung von synthetischen Daten auf Grundlage eines vortrainierten Modells maschinellen Lernens | |
DE102021205722A1 (de) | System und verfahren für mehrskalenmodelle mit tiefem gleichgewicht | |
DE102019209457A1 (de) | Verfahren zum Trainieren eines künstlichen neuronalen Netzes, künstliches neuronales Netz, Verwendung eines künstlichen neuronalen Netzes sowie entsprechendes Computerprogramm, maschinenlesbares Speichermedium und entsprechende Vorrichtung | |
DE102021213118A1 (de) | Verfahren und ein system für black-box-universalangriffe mit geringer abfrage | |
DE102021102748A1 (de) | 3d-posenschätzung des menschlichen körpers unter verwendung eines modells, das ausgehend von ungelabelten multi-view-daten trainiert wurde | |
DE102020200499A1 (de) | Verfahren zum Generieren von gelabelten Daten, insbesondere für das Training eines neuronalen Netzes, unter Verwendung ungelabelter, partitionierter Stichproben | |
WO2021165077A1 (de) | Verfahren und vorrichtung zur bewertung eines bildklassifikators | |
DE102020215200A1 (de) | System und verfahren eines verfahrens für robustes aktives lernen unter verwendung von verrauschten labels und domänenadaption | |
DE102023109072A1 (de) | Datenaugmentierung für domänenverallgemeinerung | |
DE202020104238U1 (de) | Vorrichtung zum Lernen einer Strategie und Betreiben der Strategie | |
EP3741518A1 (de) | Verfahren und vorrichtung für eine automatisierte beeinflussung eines aktuators | |
DE202022106154U1 (de) | Vorrichtung zur Optimierung eines Hyperparameters für Meta-Lernen | |
DE102019135294A1 (de) | Positionsbestimmung mittels neuronaler Netzwerke | |
DE102022206060A1 (de) | Verteidigung von multimodalen fusionsmodellen gegen angreifer mit nur einer quelle | |
DE102021210721A1 (de) | Verfahren und system zum adversarischen training unter verwendung metagelernter initialisierung | |
DE202022101997U1 (de) | Vorrichtung zum gemeinsamen Ermitteln einer optimalen Architektur eines neuronalen Netzes und optimalen Hyperparametern zum Anlernen des neuronalen Netzes | |
DE102020216188A1 (de) | Vorrichtung und Verfahren zum Trainieren eines Klassifizierers | |
DE102022211592A1 (de) | Vorrichtung und Verfahren zum Optimieren eines Hyperparameters für Metalernen | |
DE102021204943A1 (de) | Meta-gelehrte evolutionsstrategie-blackbox-optimierungsklassifizierer | |
DE102020213527A1 (de) | Verfahren zum Optimieren einer Strategie für einen Roboter | |
DE102020208828A1 (de) | Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems | |
DE102019220615A1 (de) | Verfahren und Vorrichtung zum Erkennen und Klassifizieren von Objekten | |
DE102019202747A1 (de) | Verfahren und Vorrichtung zur Klassifizierung von Eingangsdaten |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification |