DE102022211592A1 - Vorrichtung und Verfahren zum Optimieren eines Hyperparameters für Metalernen - Google Patents

Vorrichtung und Verfahren zum Optimieren eines Hyperparameters für Metalernen Download PDF

Info

Publication number
DE102022211592A1
DE102022211592A1 DE102022211592.9A DE102022211592A DE102022211592A1 DE 102022211592 A1 DE102022211592 A1 DE 102022211592A1 DE 102022211592 A DE102022211592 A DE 102022211592A DE 102022211592 A1 DE102022211592 A1 DE 102022211592A1
Authority
DE
Germany
Prior art keywords
dataset
task
sensor
actuator
init
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022211592.9A
Other languages
English (en)
Inventor
Shuhei Watanabe
Noor Awad
Frank Hutter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102022211592.9A priority Critical patent/DE102022211592A1/de
Publication of DE102022211592A1 publication Critical patent/DE102022211592A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

Ein computer-implementiertes Verfahren zur Optimierung eines Hyperparameters für Metalernen umfasst die folgenden Schritte:Initialisieren einer leeren Hauptdatenmenge (D) und einer leeren ersten Datenmenge (Dinit);Ausführen einer ersten Schleife über die Anzahl verschiedener Metalernaufgaben (T):Hinzufügen der am besten funktionierenden Datenpunkte der anfänglichen Samples Ninit, die in einer aufgabenspezifischen Datenmenge (Dm) enthalten sind, zu der ersten Datenmenge (Dinit);Sortieren der aufgabenspezifischen Datenmenge (Dm) und Aufbauen von KDEp(x|Dm(l)),p(x|Dm(g));Ausführen einer zweiten Schleife über die Anzahl anfänglicher Samples Ninit:zufälliges Entnehmen von x aus der ersten Datenmenge (Dinit) und Transferieren dieses zur Hauptdatenmenge (D);Ausführen einer dritten Schleife, bis ein gegebenes Budget aufgebraucht ist:IX. Sortieren der Hauptdatenmenge (D) und Aufbauen von KDEp(x|D1(l)),p(x|D1(g))X. Bestimmen eines aufgabespezifischen Kernels (kt)XI. Entweder zufälliges Sampeln neuer x oder Bestimmen des neuen x durch Optimieren einer Aquisitionsfunktion, wobei die Aquisitionsfunktion (Elfγ) folgendermaßen definiert ist:EIfγ[x|t,D]∝γp(x,t|D(l))γp(x,t|D(l))+(1−γ)p(x,t|D(g))XII. Hinzufügen des neuen Samples x zur Hauptdatenmenge.

Description

  • Stand der Technik
  • HPO (Hyperparameter-Optimierung) ist entscheidend für die bessere Leistungsfähigkeit des tiefen Lernens, und Praktiker müssen oft den Kompromiss zwischen mehreren Metriken, wie etwa Fehlerrate, Latenz, Speicheranforderungen, Robustheit und algorithmische Fairness, berücksichtigen. Aufgrund dieser Anforderung und der schweren Berechnung beim tiefen Lernen wird die Beschleunigung der Mehrfach-Ziel- bzw. MO-Optimierung immer wichtiger. Obwohl Metalernen extensive zum Beschleunigen von HPO untersucht wurde, sind existierende Verfahren nicht auf den MO-TPE (MO-Baum-strukturierten-Parzen-Schätzer), einen simplen, aber dennoch leistungsstarken MO-HPO-Algorithmus, anwendbar. In der vorliegenden Anmeldung wird die Aquisitionsfunktion von TPE auf die Metalern-Umgebung erweitert, unter Verwendung einer Aufgabenähnlichkeit, die durch die Überlappung in vielversprechenden Regionen jeder Aufgabe definiert ist.
  • Vorteile der Erfindung
  • Während tiefes Lernen verschiedene bahnbrechende Erfolge erzielt hat, hängt seine Leistungsfähigkeit stark von richtigen Einstellungen seiner HP (Hyperparameter) ab. Bei praktischen Anwendungen sind neben der Fehlerquote oft auch andere wichtige Parameter zu optimieren, wie etwa Latenz der Schlussfolgerung, Speicheranforderungen, Robustheit und algorithmische Fairness. Die Erkundung der Pareto-Front mehrerer Ziele ist jedoch komplexer als Einzel-Ziel-Optimierung, wodurch es besonders wichtig wird, die MO-Optimierung zu beschleunigen.
  • Zur Beschleunigung der HPO (HP-Optimierung) wurde Metalernen aktiv untersucht, wie z. B. in der Studie von J. Vanschoren. Meta-learning. In Automated Machine Learning, Seiten 35-61. Springer, 2019. Im Kontext der HPO konzentriert sich das Metalernen hauptsächlich auf Wissenstransfer von Metadaten bei der BO (Bayesischen Optimierung). Diese Verfahren verwenden Metainformationen bei der Gaußscher-Prozess- bzw. GP-Regression, um besser informierte Surrogate für die Zieldatenmenge zu erzielen, wodurch diese auf existierende MO-BO-Verfahren anwendbar werden, wie etwa ParEGO (J. Knowles. ParEGO: A hybrid algorithm with on-line landscape approximation for expensive multi-objective optimization problems. Evolutionary Computation, 10, 2006) und SMS-EGO (W. Ponweise, T. Wagner, D. Biermann und M. Vincze. Multi-objective optimization on a limited budget of evaluations using model-assisted S-metric selection. In International Conference on Parallel Problem Solving from Nature, 2008).
  • Neuere Arbeiten berichten jedoch, dass eine Variante von BO mit der Bezeichnung MO-TPE (MO-baumstrukturierter Parzen-Schätzer) (J. Bergstra, R. Bardenet, Y. Bengio und B. Kegl. Algorithms for hyper-parameter optimization. In Advances in Neural Information Processing Systems, 2011 oder J. Bergstra, D. Yamins und D. Cox. Making a science of model search: Hyperparameter optimization in hundreds of dimensions for vision architectures. In International Conference on Machine Learning, 2013.) stärker ist als die Verfahren in kostspieligen MO-Umgebungen. Da dieses Verfahren KDE (Kerneldichteschätzer) anstelle von GP verwendet, sind die existierenden Metalernverfahren nicht direkt anwendbar.
  • Um dieses Problem anzugehen, soll hier ein Metalernverfahren für TPE unter Verwendung eines neuen Aufgaben-Ähnlichkeitsmaßes vorgeschlagen werden. Das Verfahren modelliert die gemeinsame PDF (Wahrscheinlichkeitsdichtefunktion) einer HP-Konfiguration x und einer Aufgabe t unter der Annahme konditionaler Verschiebung (z. B. K. Zhang, B. Schölkopf, K. Muandet und Z. Wang. Domain adaptation under target and conditional shift. In International Conference on Machine Learning, 2013.). Da die gemeinsame PDF ein Ähnlichkeitsmaß zwischen Aufgaben kt (ti, tj) erfordert, wird ein Aufgaben-Ähnlichkeitsmaß eingeführt, das die Schnittmenge über Vereinigung verwendet (das als γ-Mengenähnlichkeit bezeichnet werden soll).
  • Offenbarung der Erfindung
  • In einem ersten Aspekt wird ein computer-implementiertes Verfahren zum Optimieren eines Hyperparameters für Metalernen vorgestellt. Ein neuronales Netz kann dann über Metalernen zum Klassifizieren von Eingangssignalen, die von einem Sensor erhalten werden, trainiert werden.
  • Das Verfahren beginnt mit einem Schritt des Empfangens einer Anzahl anfänglicher Samples Ninit, die beobachtete Datenpunkte aus vorherigen Trainingsaufgaben des Metalernens sind, einer Anzahl von Kandidaten für jede Iteration Ns, eines Quantils (γ) zur Aufteilung der Hauptdatenmenge D und eines Verhältnisses des Zufalls-Samplings (ε).
  • Dann folgt ein Schritt des Initialisierens einer leeren Hauptdatenmenge (D) und einer leeren ersten Datenmenge (Dinit).
  • Danach wird Ausführen einer ersten Schleife über die Anzahl verschiedener Metalernaufgaben (T) ausgeführt:
    • Hinzufügen der am besten funktionierenden Datenpunkte der anfänglichen Samples Ninit, die in einer aufgabenspezifischen Datenmenge (Dm) enthalten sind, zu der ersten Datenmenge (Dinit); Sortieren der aufgabenspezifischen Datenmenge (Dm) und Aufbauen von KDE p ( x | D m ( l ) ) ,   p ( x | D m ( g ) ) ;
      Figure DE102022211592A1_0004
    • Ausführen einer zweiten Schleife über die Anzahl anfänglicher Samples Ninit: zufälliges Entnehmen von x aus der ersten Datenmenge (Dinit) und Transferieren dieses zur Hauptdatenmenge (D).
  • Danach wird eine dritte Schleife ausgeführt, bis ein gegebenes Budget aufgebraucht ist:
    1. I. Sortieren der Hauptdatenmenge (D) und Aufbauen von KDE p ( x | D 1 ( l ) ) ,   p ( x | D 1 ( g ) )
      Figure DE102022211592A1_0005
    2. II. Bestimmen eines aufgabespezifischen Kernels (kt)
    3. III. Entweder zufälliges Sampeln des neuen Datenpunkts x oder Bestimmen des neuen Datenpunkts x durch Optimieren einer Aquisitionsfunktion, wobei die Aquisitionsfunktion (El) folgendermaßen definiert ist: I ƒ γ [ x | t ,   D ] γ p ( x ,   t | D ( l ) ) γ p ( x ,   t | D ( l ) + ( 1 γ ) p ( x ,   t | D ( g ) ) )
      Figure DE102022211592A1_0006
    4. IV. Hinzufügen des neuen Datenpunkts x zur Hauptdatenmenge. Genauer gesagt wird, wenn das neue Sample x gegeben ist, ein beobachteter Datenpunkt z. B. durch Verwendung des neuen Samples und Beobachten seiner Leistungsfähigkeit erzeugt.
  • Das Budget kann ein Energie- oder Zeitbudget sein.
  • Danach wird das optimale Sample x aus der Hauptdatenmenge ausgewählt und sein Wert als der Hyperparameter zum Trainieren des neuronalen Netzes verwendet.
  • Bevorzugte Erweiterungen des ersten Aspekts der Erfindung werden durch die abhängigen Ansprüche gegeben.
  • In weiteren Aspekten der Erfindung wird in Betracht gezogen, einen trainierten Klassifizierer zu verwenden, der mit dem obigen ersten Aspekt trainiert wird, durch ein Verfahren, das die folgenden Schritte umfasst:
    • - Empfangen eines Sensorsignals, das Daten von einem Sensor umfasst,
    • - Bestimmen eines Eingangssignals, das von dem Sensorsignal abhängt, und
    • - Leiten des Eingangssignals in den Klassifizierer, um ein Ausgangssignal zu erhalten, das eine Klassifikation des Eingangssignals charakterisiert.
  • Der Klassifizierer, z. B. ein neuronales Netz, kann mit einer solchen Struktur versehen werden, dass er trainierbar ist, um z. B. Fußgänger und/oder Fahrzeuge und/oder Straßenschilder und/oder Ampeln und/oder Straßenoberflächen und/oder menschliche Gesichter und/oder medizinische Anomalien in Bildgebungssensor-Bildern zu identifizieren und zu unterscheiden. Als Alternative kann der Klassifizierer, z. B. ein neuronales Netz, mit einer solchen Struktur versehen werden, dass er trainierbar ist, um gesprochene Befehle in Audio-SensorSignalen zu identifizieren.
  • Solche robuste Klassifizierer können dann zur Bereitstellung eines Aktorsteuersignals zur Steuerung eines Aktors verwendet werden, mit allen Schritten des obigen Verfahrens und ferner mit dem folgenden Schritt:
    • - Bestimmen des Aktorsteuersignals abhängig von dem Ausgangssignal. Der Aktor steuert vorzugsweise einen mindestens teilweise autonomen Roboter und/oder eine Produktionsmaschine und/oder ein Zugangskontrollsystem.
  • Ausführungsformen der Erfindung werden unter Bezugnahme auf die folgenden Figuren ausführlicher beschrieben. Es zeigen:
    • 1 ein Steuersystem, das einen mindestens teilweise autonomen Roboter steuert;
    • 2 ein Steuersystem, das eine Produktionsmaschine steuert;
    • 3 ein Steuersystem, dass ein Zugangskontrollsystem steuert;
    • 4 ein Steuersystem, das ein Überwachungssystem steuert;
    • 5 ein Steuersystem, das einen automatisierten persönlichen Assistenten steuert;
    • 6 ein Steuersystem, das ein Bildgebungssystem steuert.
  • In diesem Abschnitt wird kurz die TPE-Formulierung erläutert und dann die Formulierung der AF (Akquisitionsfunktion) für die Metalernumgebung beschrieben. Man beachte, dass, da dieses Verfahren leicht auf MO-Umgebungen erweitert werden kann, der Einfachheit halber zuerst die Einzel-Ziel-Umgebung beschrieben wird und später nur beschrieben wird, wie sie auf die MO-Umgebung zu erweitern ist. Es wird angemerkt, dass die TPE als ein Klassifikationsmodell angesehen werden kann, das vorhersagt, ob eine nächste Beobachtung gut oder schlecht ist.
  • In der vorliegenden Arbeit werden Metadaten als D ; = { D m } m = 1 T
    Figure DE102022211592A1_0007
    bezeichnet, wobei T ∈ N die Anzahl der Aufgaben ist und Dm die Menge der Beobachtungen an der m-ten Aufgabe der Größe Nm := |Dm|. ist. Es wird das Konzept einer γ-Menge verwendet, die grob gesagt die Subniveaumenge aller Konfigurationen x ∈ X mit f(x) ≤ fγ ist, wobei fγ das γ-Quantil von f über den Raum X ist.
  • TPE (siehe z. B. J. Bergstra, R. Bardenet, Y. Bengio und B. Kegl. Algorithms for hyper-parameter optimization. In Advances in Neural Information Processing Systems, 2011.) teilt eine Menge von Beobachtungen D = { ( x n ,   ƒ ( x n ) ) } n = 1 N
    Figure DE102022211592A1_0008
    auf dem obersten γ-Quantil zuerst in D(l) und D(g) auf und baut dann die KDE p(x|D(l) und p(x|D(g)) auf. Es wird angemerkt, dass die Notation hier an diese Schrift von Bergstra et al. angepasst ist.
  • TPE berechnet dann seine AF über γp(x|D(l)/(γp(x|D(l)) + (1 - γ)p(x|D(g)). In gleicher Weise wird die aufgabenkonditionierte AF berechnet als: E I ƒ γ [ x | t ,   D ] γ p ( x ,   t | D ( l ) ) γ p ( x ,   t | D ( l ) ) + ( 1 γ ) p ( x ,   t | D ( g ) )
    Figure DE102022211592A1_0009
  • Diese Formulierung transferiert das Wissen gut funktionierender Regionen und gewichtet das Wissen aus ähnlichen Aufgaben höher.
  • Um die AF zu berechnen, muss man die gemeinsamen PDF p(x,t|D(l)), p(x,t|D(g)) modellieren, was im nächsten Abschnitt besprochen werden soll.
  • Um die Ähnlichkeit kt (ti, tj) zwischen Aufgaben zu messen, wird die γ-MengenÄhnlichkeit benutzt.
  • Es hat sich gezeigt, dass s ^ ( D i ( l ) ,   D j ( l ) ) : = 1 d t v ( p i p j ) 1 + d t v ( p i p j )
    Figure DE102022211592A1_0010
    fast sicher auf die γ-Mengen-Ähnlichkeit s ( X i γ ,   X j γ )
    Figure DE102022211592A1_0011
    konvergiert, wenn man die starke Stimmigkeit von p ( x | D m ( l ) )
    Figure DE102022211592A1_0012
    für alle m = 1,..., T garantieren kann, mit der Definition p m : = ( x | D m ( l ) ) ,   t m
    Figure DE102022211592A1_0013
    als Meta-Aufgabe fürm = 2,..., T und t1 als Zielaufgabe, wobei dtv (pi, pj) die Gesamtvariationsdistanz 1 2 x X | p ( x | D i ( l ) ) p ( x | D j ( l ) ) | μ ( d x )
    Figure DE102022211592A1_0014
    ist und p ( x | D i ( l ) )
    Figure DE102022211592A1_0015
    durch KDE geschätzt wird. Man beachte, dass dtv (pi, pj) über Monte-Carlo-Sampling approximiert wird. Dann wird der Aufgabenkernel folgendermaßen definiert: k t ( t i , t j ) = { 1 T S ^ ( D i ( ι ) , D j ( ι ) )   f ü r   ( i j ) 1 1 T k i s ^ ( D i ( ι ) , D j ( ι ) )   f ü r   ( i = j )
    Figure DE102022211592A1_0016
  • Der Kernel wird so definiert, dass er symmetrisch ist und die Summierung über alle Aufgaben 1 ist. Unter Verwendung dieses Kernels werden KDE folgendermaßen aufgebaut: p ( x , t | D ) = 1 N a l l m = 1 T N m k t ( t , t m ) p ( x | D m )
    Figure DE102022211592A1_0017
    wobei D : = { D m } m = 1 T
    Figure DE102022211592A1_0018
    eine Menge von Teilmengen der Beobachtungen an der m-ten Aufgabe D m = { ( x m , n , f m ( x m , n ) ) } n 1 N m , N a l l = m = 1 T N m
    Figure DE102022211592A1_0019
    und αm eine Menge von Steuerparametern der Kernelfunktion kx für die m-te Aufgabe ist. Die Vorteile dieser Formulierung sind (1) nicht von den Informationen von einer anderen Aufgabe tm beeinflusst zu werden, wenn die Aufgabe der Zielaufgabe t1 nicht ähnlich ist, d.h. ŝ(t1, tm) = 0, und (2) asymptotische Konvergenz auf die ursprüngliche Formulierung, wenn die Sample-Größe nach unendlich geht, d.h. lim_ ( N 1 )   p ( x , t | D ) = p ( x | D 1 ) .
    Figure DE102022211592A1_0020
  • Der Pseudoalgorithmus 1 zeigt beispielhaft, wie die Aufgabenähnlichkeit zu bestimmen ist:
    Figure DE102022211592A1_0021
    Figure DE102022211592A1_0022
  • Zeile 5 von Algorithmus 1 kann folgendermaßen bestimmt werden: d tv ( p i , p j ) : = 1 2 x X | p ( x | D i ( ι ) ) ( x | D j ( ι ) ) | μ ( d x )
    Figure DE102022211592A1_0023
  • Es wird angemerkt, dass die mittlere Wichtigkeit folgendermaßen bestimmt werden kann: V d , m : = γ 2 x d X d ( p d ( x d | D m ( l ) ) 1 / μ ( X d ) 1 ) 2 μ ( d x d ) μ ( X d )
    Figure DE102022211592A1_0024
    V ¯ d : = 1 T m = 1 T V d , m
    Figure DE102022211592A1_0025
  • Es wird angemerkt, dass Zeile 3 von Algorithmus 1 folgendermaßen bestimmt werden kann: p DR ( x | D ) = 1 N n = 1 N d S k d ( x d , x d , n ) .
    Figure DE102022211592A1_0026
  • Algorithmus 2 zeigt den gesamten Pseudocode des vorliegenden Metalern-TPE, und die Farbcodierung zeigt die vorliegenden Vorschläge. Um die Approximation der Aufgabenähnlichkeit zu stabilisieren, wird die in Algorithmus 1 gezeigte Dimensionsreduktion und der ε-Greedy-Algorithmus bei der Optimierung der AF in Zeile 15 von Algorithmus 2 verwendet. Ferner wird die Warmstart-Initialisierung verwendet, sowie sie in den Zeilen 3-8 von Algorithmus 2 zu sehen ist. Der Warmstart beschleunigt Optimierungen weiter.
    Figure DE102022211592A1_0027
  • Als Letztes soll kurz erwähnt werden, wie dieses Verfahren auf MO-Umgebungen zu erweitern ist. Da sowohl TPE als auch MO-TPE die Einstufung unter Beobachtungen betrachten, muss man nur ein Sortierverfahren dergestalt verwenden, dass man Beobachtungen in zwei Teile aufteilen kann, d.h., das obere γ-Quantil und das andere. Die frühere Besprechung gilt direkt auch für MO-Umgebungen. Es können wohlbekannte Sortierverfahren des Stands der Technik verwendet werden.
  • Vorzugsweise wird in Zeile 18 von Algorithmus 2 die Optimierung durch triviale Optimierung ausgeführt, z. B. zufälliges Samplen einiger Werte für x und Auswählen des x, das die höchsten Werte für die AF zurückgibt. Als Alternative können fortschrittlichere Optimierungsverfahren verwendet werden.
  • Im Allgemeinen kann das oben beschriebene Verfahren auf Metalernaufgaben angewandt werden. Metalernen wird vorzugsweise auf ein neuronales Netz angewandt, wobei das neuronale Netz dafür trainiert werden kann, ein Klassifizierer zu sein, z. B. für Bild-, Audio- oder andere Sensordaten. Die obigen Beobachtungen sind dann z. B. Paare aus Hyperparametern des neuronalen Netzes oder Hyperparametern des Trainingsverfahrens, das für vorherige Aufgaben gewählt wurde, und einer erreichten Leistungsfähigkeit des neuronalen Netzes mit seinem entsprechenden Hyperparameter. Es wird angemerkt, dass die Beobachtungen auch mehr als einen Hyperparameter umfassen können, z. B. eine Lernrate und eine Chargengröße. Dann wird das oben besprochene Verfahren angewandt, um optimale Hyperparameter zum Trainieren des neuronalen Netzes für eine neue (Ziel-) Aufgabe zu bestimmen. Nachdem das neuronale Netz mit dem bzw. den optimalen Hyperparameter(n) trainiert wurde, kann das trainierte neuronale Netz wie im Folgenden offenbart benutzt werden.
  • 1 zeigt eine Ausführungsform eines Aktors mit einem Steuersystem 40. Der Aktor und seine Umgebung werden zusammen als Aktorsystem bezeichnet. In vorzugsweise gleichmäßig beabstandeten Distanzen erfasst ein Sensor 30 einen Zustand des Aktorsystems. Der Sensor 30 kann mehrere Sensoren umfassen. Vorzugsweise ist der Sensor 30 ein optischer Sensor, der Bilder der Umgebung aufnimmt. Ein Ausgangssignal S des Sensors 30 (oder falls der Sensor 30 mehrere Sensoren umfasst, ein Ausgangssignal S für jeden der Sensoren), das den erfassten Zustand codiert, wird zu dem Steuersystem 40 gesendet.
  • Dadurch erhält Steuersystem 40 einen Strom von Sensorsignalen S. Es berechnet dann eine Reihe von Aktorsteuerbefehlen A abhängig von dem Strom von Sensorsignalen S, die dann zu der Aktoreinheit 10 gesendet werden, die die Steuerbefehle A in mechanische Bewegungen oder Änderungen von physikalischen Größen umsetzt. Zum Beispiel kann die Aktoreinheit 10 den Steuerbefehl A in eine elektrische, hydraulische, pneumatische, thermische, magnetische und/oder mechanische Bewegung oder Änderung umsetzen. Spezifische, aber nicht einschränkende Beispiele, wären Elektromotoren, elektroaktive Polymere, Hydraulikzylinder, piezoelektrische Aktoren, pneumatische Aktoren, Servomechanismen, Elektromagnete, Schrittmotoren usw.
  • Das Steuersystem 40 empfängt den Strom von Sensorsignalen S des Sensors 30 in einer optionalen Empfangseinheit 50. Die Empfangseinheit 50 transformiert die Sensorsignale S in Eingangssignale. Als Alternative kann, falls keine Empfangseinheit 50 vorliegt, jedes Sensorsignal S direkt als Eingangssignal genommen werden. Eingangssignal kann zum Beispiel als Auszug aus dem Sensorsignal S gegeben sein. Als Alternative kann das Sensorsignal S verarbeitet werden, um Eingangssignal zu ergeben. Eingangssignal umfasst Bilddaten entsprechend einem durch den Sensor 30 aufgezeichneten Bild. Anders ausgedrückt, wird Eingangssignal gemäß dem Sensorsignal S bereitgestellt.
  • Eingangssignal wird dann zu einem Bildklassifizierer 60 weitergeleitet, der zum Beispiel durch ein künstliches neuronales Netz gegeben werden kann und gemäß dem obigen Pseudoalgorithmus 2 trainiert wurde.
  • Der Klassifizierer 60 bestimmt Ausgangssignale y aus Eingangssignalen. Das Ausgangssignal umfasst Informationen, die dem Eingangssignal eine oder mehrere Kennzeichnungen zuweisen. Ausgangssignale werden zu einer optionalen Umsetzungseinheit 80 gesendet, die die Ausgangssignale y in die Steuerbefehle A umsetzt. Die Aktorsteuerbefehle A werden dann zu der Aktoreinheit 10 gesendet, um die Aktoreinheit 10 entsprechend zu steuern. Als Alternative können Ausgangssignale y direkt als Steuerbefehle A genommen werden.
  • Die Aktoreinheit 10 empfängt Aktorsteuerbefehle A, wird entsprechend gesteuert und führt eine den Aktorsteuerbefehlen A entsprechende Aktion aus. Die Aktoreinheit 10 kann eine Steuerlogik umfassen, die den Aktorsteuerbefehl A in einen weiteren Steuerbefehl transformiert, der dann zum Steuern des Aktors 10 verwendet wird.
  • Bei weiteren Ausführungsformen kann das Steuersystem 40 den Sensor 30 umfassen. Bei noch weiteren Ausführungsformen kann das Steuersystem 40 als Alternative oder zusätzlich den Aktor 10 umfassen.
  • Bei einer Ausführungsform kann der Klassifizierer 60 dafür ausgelegt sein, Spuren auf einer vorne liegenden Straße zu identifizieren, z. B. durch Klassifizieren einer Straßenoberfläche und von Markierungen auf der Straße und Identifizieren von Spuren als Flecken der Straßenoberfläche zwischen den Markierungen. Auf der Basis einer Ausgabe eines Navigationssystems kann dann eine geeignete Spur zum Befolgen eines gewählten Pfads ausgewählt werden, und abhängig von einer vorliegenden Spur und der Zielspur kann dann entschieden werden, ob das Fahrzeug 60 Spuren wechseln oder in der vorliegenden Spur bleiben soll. Der Steuerbefehl A kann dann z. B. durch Abrufen eines vordefinierten Bewegungsmusters aus einer Datenbank entsprechend der identifizierten Aktion berechnet werden.
  • Ähnlich können dann nach Identifizierung von Straßenschildern oder Ampeln abhängig von einer identifizierten Art von Straßenschild oder einem identifizierten Zustand der Ampel entsprechende Beschränkungen bezüglich möglicher Bewegungsmuster des Fahrzeugs 60 z. B. aus einer Datenbank abgerufen werden, ein zukünftiger Pfad des Fahrzeugs 60 gemäß den Beschränkungen kann berechnet werden, und der Aktorsteuerbefehl A kann berechnet werden, um das Fahrzeug so zu lenken, dass die Trajektorie ausgeführt wird.
  • Ähnlich kann nach Identifizierung von Fußgängern und/oder Fahrzeugen ein vorhergesagtes zukünftiges Verhalten der Fußgänger und/oder Fahrzeuge geschätzt werden, und auf der Basis des geschätzten zukünftigen Verhaltens kann dann eine Trajektorie so ausgewählt werden, dass Kollisionen mit dem Fußgänger und/oder dem Fahrzeug vermieden werden, und der Aktorsteuerbefehl A kann berechnet werden, um das Fahrzeug so zu lenken, dass die Trajektorie ausgeführt wird.
  • Bei noch weiteren Ausführungsformen kann in Betracht gezogen werden, dass das Steuersystem 40 eine Anzeige 10a anstelle eines Aktors 10 steuert, wobei die Anzeige 10a den Steuerbefehl oder dergleichen anzeigen kann.
  • Bei anderen Ausführungsformen kann die Anzeige 10a eine Ausgabeschnittstelle zu einer Wiedergabevorrichtung, wie etwa eine Anzeige, einer Lichtquelle, einem Lautsprecher, einem Vibrationsmotor usw. sein, mit der ein sensorisches wahrnehmbares Ausgangssignal erzeugt werden kann, das auf der Basis der durch den Videomerkmalextraktor extrahierten Merkmalrepräsentation erzeugt werden kann. Das sensorische wahrnehmbare Ausgangssignal kann direkt die extrahierten Merkmale angeben, kann aber auch ein abgeleitetes sensorisches wahrnehmbares Ausgangssignal, z. B. zur Verwendung bei der Anleitung, Navigation oder anderen Arten der Steuerung eines computergesteuerten Systems repräsentieren.
  • Ferner kann das Steuersystem 40 einen Prozessor 45 (oder mehrere Prozessoren) und mindestens ein maschinen-lesbares Speicherungsmedium 46 umfassen, worauf Anweisungen gespeichert werden, die, wenn sie ausgeführt werden, bewirken, dass das Steuersystem 40 ein Verfahren nach einem Aspekt der Erfindung ausführt.
  • Bei einer bevorzugten Ausführungsform von 1 wird das Steuersystem 40 zur Steuerung des Aktors verwendet, der ein mindestens teilweise autonomer Roboter ist, z. B. ein mindestens teilweise autonomes Fahrzeug 100.
  • Der Sensor 30 kann einen oder mehrere Videosensoren und/oder einen oder mehrere Radarsensoren und/oder einen oder mehrere Ultraschallsensoren und/oder einen oder mehrere LiDAR-Sensoren und/oder einen oder mehrere Positionssensoren (wie z. B. GPS) umfassen. Einige oder alle dieser Sensoren werden vorzugsweise, aber nicht notwendigerweise, in das Fahrzeug 100 integriert.
  • Als Alternative oder zusätzlich kann der Sensor 30 ein Informationssystem zur Bestimmung eines Zustands des Aktorsystems umfassen. Ein Beispiel für ein solches Informationssystem ist ein Wetterinformationssystem, das einen derzeitigen oder zukünftigen Zustand des Wetters in der Umgebung 20 bestimmt.
  • Zum Beispiel kann der Klassifizierer 60 unter Verwendung von Eingangssignal Objekte in der Nähe des mindestens teilweise autonomen Roboters detektieren. Das Ausgangssignal y kann Informationen umfassen, die charakterisieren, wo sich Objekte in der Nähe des mindestens teilweise autonomen Roboters befinden. Der Steuerbefehl A kann dann gemäß diesen Informationen bestimmt werden, zum Beispiel, um Kollisionen mit den detektierten Objekten zu vermeiden.
  • Die Aktoreinheit 10, die vorzugsweise in das Fahrzeug 100 integriert ist, kann durch eine Bremse, ein Antriebssystem, einen Motor, einen Antriebsstrang oder eine Lenkung des Fahrzeugs 100 gegeben sein. Die Aktorsteuerbefehle A können so bestimmt werden, dass die Einheit 10 des Aktors (oder der Aktoren) so gesteuert wird/werden, dass das Fahrzeug 100 Kollisionen mit den detektierten Objekten vermeidet. Detektierte Objekte können auch danach klassifiziert werden, was der Klassifizierer 60 als am wahrscheinlichsten ansieht, z. B. Fußgänger oder Bäume, und die Aktorsteuerbefehle A können abhängig von der Klassifikation bestimmt werden.
  • Bei weiteren Ausführungsformen kann der mindestens teilweise autonome Roboter durch einen (nicht gezeigten) anderen mobilen Roboter gegeben sein, der sich zum Beispiel durch Fliegen, Schwimmen, Tauchen oder Schreiten bewegen kann. Der mobile Roboter kann unter anderem ein mindestens teilweise autonomer Rasenmäher oder ein mindestens teilweise autonomer Reinigungsroboter sein. Bei allen der obigen Ausführungsformen kann der Aktorsteuerbefehl A so bestimmt werden, dass Antriebseinheit und/oder Lenkung und/oder Bremse des mobilen Roboters so gesteuert werden, dass der mobile Roboter Kollisionen mit den identifizierten Objekten vermeiden kann.
  • Bei einer weiteren Ausführungsform kann der mindestens teilweise autonome Roboter durch einen (nicht gezeigten) Gartenroboter gegeben sein, der den Sensor 30, vorzugsweise einen optischen Sensor, zur Bestimmung eines Zustands von Pflanzen in der Umgebung 20 verwendet. Die Aktoreinheit 10 kann eine Düse zum Sprühen von chemischen Mitteln sein. Abhängig von einer identifizierten Spezies und/oder einem identifizierten Zustand der Pflanzen kann der Aktorsteuerbefehl A so bestimmt werden, dass bewirkt wird, dass die Aktoreinheit 10 die Pflanzen mit einer geeigneten Menge geeigneter chemischer Mittel besprüht.
  • Bei noch weiteren Ausführungsformen kann der wenigstens teilweise autonome Roboter durch ein Haushaltsgerät (nicht gezeigt), wie z. B. eine Waschmaschine, einen Herd, einen Backofen, einen Mikrowellenherd oder einen Geschirrspüler, gegeben sein. Der Sensor 30, z. B. ein optischer Sensor, kann einen Zustand eines vom Haushaltsgerät zu verarbeitenden Objekts erfassen. Handelt es sich bei dem Haushaltsgerät beispielsweise um eine Waschmaschine, kann der Sensor 30 einen Zustand der Wäsche in der Waschmaschine erfassen. Das Steuersignal kann dann in Abhängigkeit von einem erkannten Material der Wäsche bestimmt werden.
  • In 2 ist eine Ausführungsform gezeigt, bei der das Steuersystem 40 zum Steuern einer Fertigungsmaschine 11, z. B. Einer Lötvorrichtung, einer Stanze, eines Fräsers, einer Bohrmaschine eines Fertigungssystems 200, z. B. als Teil einer Produktionslinie, verwendet wird. Das Steuersystem 40 steuert einen Aktuator 10, der wiederum die Fertigungsmaschine 11 steuert.
  • Der Sensor 30 kann durch einen optischen Sensor gegeben sein, der Eigenschaften z. B. eines gefertigten Produkts 12 erfasst. Der Klassifizierer 60 kann aus diesen erfassten Eigenschaften einen Zustand des gefertigten Produkts 12 bestimmen. Die Aktoreinheit 10, die die Fertigungsmaschine 11 steuert, kann dann abhängig von dem bestimmten Zustand des gefertigten Produkts 12 für einen nachfolgenden Fertigungsschritt des gefertigten Produkts 12 gesteuert werden. Oder es kann in Betracht gezogen werden, dass die Aktoreinheit 10 während der Fertigung eines nachfolgenden gefertigten Produkts 12 abhängig von dem bestimmten Zustand des gefertigten Produkts 12 gesteuert wird.
  • 3 zeigt eine Ausführungsform, bei der das Steuersystem ein Zugangskontrollsystem 300 steuert. Das Zugangskontrollsystem kann dafür ausgelegt sein, physisch Zugang zu kontrollieren. Es kann zum Beispiel eine Tür 401 umfassen. Der Sensor 30 ist ausgelegt zum Detektieren einer Szene, die für die Entscheidung, ob Zugang zu gewähren ist oder nicht, relevant ist. Er kann zum Beispiel ein optischer Sensor zum Bereitstellen von Bild- oder Videodaten zur Detektion des Gesichts einer Person sein. Der Klassifizierer 60 kann dafür ausgelegt sein, diese Bild- oder Videodaten z. B. durch Abgleichen von Identitäten mit bekannten in einer Datenbank gespeicherten Personen zu deuten, um dadurch eine Identität der Person zu bestimmen. Das Aktorsteuersignal A kann dann abhängig von der Deutung des Klassifizierers 60, z. B. gemäß der bestimmten Identität, bestimmt werden. Die Aktoreinheit 10 kann ein Schloss sein, das abhängig von dem Aktorsteuersignal A Zugang gewährt oder nicht. Es ist auch eine nichtphysische logische Zugangskontrolle möglich.
  • 4 zeigt eine Ausführungsform, bei der das Steuersystem 40 ein Überwachungssystem 400 steuert. Diese Ausführungsform ist größtenteils mit der in 5 gezeigten Ausführungsform identisch. Daher werden nur die sich unterscheidenden Aspekte ausführlich beschrieben. Der Sensor 30 ist dazu ausgelegt, eine überwachte Szene zu detektieren. Das Steuersystem steuert nicht notwendigerweise einen Aktor 10, sondern eine Anzeige 10a. Beispielsweise kann das maschinelle Lernsystem 60 eine Klassifizierung einer Szene bestimmen, z. B. ob die durch den optischen Sensor 30 detektierte Szene verdächtig ist. Das Aktorsteuersignal A, das zu der Anzeige 10a übertragen wird, kann dann z. B. dazu ausgelegt sein, zu bewirken, dass die Anzeige 10a den angezeigten Inhalt in Abhängigkeit von der bestimmten Klassifizierung anpasst, um z. B. ein Objekt hervorzuheben, das durch das maschinelle Lernsystem 60 als verdächtig erachtet wird.
  • In 5 ist eine Ausführungsform gezeigt, in der das Steuersystem 40 verwendet wird, um einen automatisierten persönlichen Assistenten 250 zu steuern. Der Sensor 30 kann ein optischer Sensor sein, um z. B. Videobilder von Gesten eines Benutzers 249 zu empfangen. Alternativ kann der Sensor 30 auch ein Audiosensor sein, um z. B. einen Sprachbefehl des Benutzers 249 zu empfangen.
  • Das Steuersystem 40 bestimmt dann die Aktorsteuerbefehle A zum Steuern des automatisierten persönlichen Assistenten 250. Die Aktorsteuerbefehle A werden gemäß dem Sensorsignal S des Sensors 30 bestimmt. Das Sensorsignal S wird zu dem Steuersystem 40 übertragen. Beispielsweise kann der Klassifizierer 60 dazu ausgelegt sein, z. B. einen Gestenerkennungsalgorithmus auszuführen, um eine durch den Benutzer 249 vorgenommene Geste zu identifizieren. Das Steuersystem 40 kann dann einen Aktorsteuerbefehl A zur Übertragung zu dem automatisierten persönlichen Assistenten 250 bestimmen. Es überträgt dann den Aktorsteuerbefehl A zu dem automatisierten persönlichen Assistenten 250.
  • Beispielsweise kann der Aktorsteuerbefehl A gemäß der identifizierten Benutzergeste, die durch den Klassifizierer 60 erkannt wird, bestimmt werden. Er kann dann Informationen umfassen, die bewirken, dass der automatisierte persönliche Assistent 250 Informationen aus einer Datenbank abruft und diese abgerufenen Informationen in einer für den Empfang durch den Benutzer 249 geeigneten Form ausgibt.
  • In weiteren Ausführungsformen kann sich vorgestellt werden, dass anstelle des automatisierten persönlichen Assistenten 250 das Steuersystem 40 ein Haushaltsgerät (nicht gezeigt) steuert, das gemäß der identifizierten Benutzergeste gesteuert wird. Das Haushaltsgerät kann eine Waschmaschine, ein Herd, ein Ofen, eine Mikrowelle oder eine Spülmaschine sein.
  • In 6 ist eine Ausführungsform eines Steuersystems 40 zum Steuern eines Bildgebungssystems 500 gezeigt, zum Beispiel einer MRT-Einrichtung, einer Röntgenbildgebungseinrichtung oder einer Ultraschallbildgebungseinrichtung. Der Sensor 30 kann zum Beispiel ein Bildgebungssensor sein. Das maschinelle Lernsystem 60 kann dann eine Klassifizierung des gesamten oder eines Teils des erfassten Bildes bestimmen. Das Aktorsteuersignal A kann dann gemäß dieser Klassifizierung gewählt werden, wodurch die Anzeige 10a gesteuert wird. Beispielsweise kann das maschinelle Lernsystem 60 ein Gebiet des erfassten Bildes als potenziell anomal interpretieren. In diesem Fall kann das Aktorsteuersignal A bestimmt werden, um zu bewirken, dass die Anzeige 10a das Bild anzeigt und das potenziell anomale Gebiet hervorhebt.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • J. Vanschoren. Meta-learning. In Automated Machine Learning, Seiten 35-61. Springer, 2019 [0003]

Claims (10)

  1. Computer-implementiertes Verfahren zum Optimieren eines Hyperparameters für Metalernen, wobei ein neuronales Netz über Metalernen zum Klassifizieren von Eingangssignalen, die von einem Sensor (30) erhalten werden, trainiert wird, mit den folgenden Schritten: Empfangen einer Anzahl anfänglicher Samples Ninit, die beobachtete Datenpunkte aus vorherigen Trainingsaufgaben des Metalernens sind, einer Anzahl von Kandidaten für jede Iteration (NS), eines Quantils (γ) zur Aufteilung der Hauptdatenmenge (D) und eines Verhältnisses des Zufalls-Samplings (ε); Initialisieren einer leeren Hauptdatenmenge (D) und einer leeren ersten Datenmenge (Dinit); Ausführen einer ersten Schleife über die Anzahl verschiedener Metalernaufgaben (T): Hinzufügen der am besten funktionierenden Datenpunkte der anfänglichen Samples Ninit, die in einer aufgabenspezifischen Datenmenge (Dm) enthalten sind, zu der ersten Datenmenge (Dinit); Sortieren der aufgabenspezifischen Datenmenge (Dm) und Aufbauen von KDE p ( x | D m ( l ) ) , p ( x | D m ( g ) ) ;
    Figure DE102022211592A1_0028
    Ausführen einer zweiten Schleife über die Anzahl anfänglicher Samples Ninit: zufälliges Entnehmen von x aus der ersten Datenmenge (Dinit) und Transferieren dieses zur Hauptdatenmenge (D); Ausführen einer dritten Schleife, bis ein gegebenes Budget aufgebraucht ist: V. Sortieren der Hauptdatenmenge (D) und Aufbauen von KDE p ( x | D 1 ( l ) ) , p ( x | D 1 ( g ) )
    Figure DE102022211592A1_0029
    VI. Bestimmen eines aufgabespezifischen Kernels (kt) VII. Entweder zufälliges Sampeln des neuen Datenpunkts (xnew) oder Bestimmen des neuen Datenpunkts (xnew) durch Optimieren einer Aquisitionsfunktion, wobei die Aquisitionsfunktion (El) folgendermaßen definiert ist: E I f γ [ x | t , D ] γ p ( x , t | D ( l ) ) γ p ( x , t | D ( l ) ) + ( 1 γ ) p ( x , t | D ( g ) )
    Figure DE102022211592A1_0030
    VIII. Hinzufügen des neuen Datenpunkts (xnew) zur Hauptdatenmenge; Auswählen des optimalen Datenpunkts aus der Hauptdatenmenge und Bereitstellen seines Werts als Hyperparameter zum Trainieren des neuronalen Netzes.
  2. Verfahren nach Anspruch 1, wobei das neuronale Netz mit dem ausgewählten optimalen Hyperparameter trainiert wird.
  3. Verfahren nach Anspruch 1 oder 2, wobei die KDE folgendermaßen bestimmt werden: p ( x , t | D ) = 1 N a l l m = 1 T N m k t ( t , t m ) p ( x | D m ) ,  wobei  D : = { D m } m = 1 T  eine Men-
    Figure DE102022211592A1_0031
    ge von Teilmengen der Beobachtungen an der m-ten Aufgabe D m = { ( x m , n , f m ( x m , n ) ) } n = 1 N m
    Figure DE102022211592A1_0032
    ist, N a l l = m = 1 T N m
    Figure DE102022211592A1_0033
    ist und αm eine Menge von Steuerparametern für die Kernelfunktion kx für die m-te Aufgabe ist, wobei der Aufgabenkernel kt folgendermaßen bestimmt wird: k t ( t i , t j ) = { 1 T s ^ ( D i ( l ) , D j ( l ) )   f ü r   ( i j ) 1 1 T k i s ^ ( D i ( l ) , D k ( l ) )   f ü r   ( i = j )
    Figure DE102022211592A1_0034
    wobei s ^ ( D i ( l ) , D j ( l ) ) : = 1 d tv ( p i , p j ) 1 + d tv ( p i , p j )
    Figure DE102022211592A1_0035
    ist und dtv(pi, pj) die Gesamtvariationsdistanz ist, die definiert ist durch 1 2 x X | p ( x | D i ( l ) ) p ( x | D j ( l ) ) | μ ( d x ) .
    Figure DE102022211592A1_0036
  4. Verfahren nach Anspruch 3, wobei dtv(pi, pj) über Monte-Carlo-Sampling approximiert wird.
  5. Verfahren nach einem der obigen Ansprüche, wobei der Hyperparameter mindestens einen der folgenden Hyperparameter umfasst: Chargengröße, Lernrate, Moment, Aktivierungsfunktion, Initialisierung der Netzgewichte, Dropout-Regularisierung, Anzahl der Einheiten (Neuronen) pro Schicht und Anzahl der Schichten, Epochen, Optimierungsalgorithmus und/oder Regularisierung.
  6. Computer-implementiertes Verfahren zur Verwendung des trainierten neuronalen Netzes nach Anspruch 2 als Klassifizierer (60) zum Klassifizieren von Sensorsignalen, wobei der Klassifizierer (60) mit dem Verfahren nach einem der Ansprüche 2 bis 5 trainiert wird, mit den folgenden Schritten: - Empfangen eines Sensorsignals (S), das Daten von einem Sensor (30) umfasst, - Bestimmen eines Eingangssignals (x), das von dem Sensorsignal (S) abhängt, und - Leiten des Eingangssignals (x) in den Klassifizierer (60), um ein Ausgangssignal (y) zu erhalten, das eine Klassifikation des Eingangssignals (x) charakterisiert.
  7. Computer-implementiertes Verfahren zur Verwendung des trainierten neuronalen Netzes nach Anspruch 2 als Klassifizierer (60), das mit dem Verfahren nach einem der Ansprüche 2 bis 5 zum Bereitstellen eines Aktorsteuersignals (A) zum Steuern eines Aktors (10) trainiert wird, das alle Schritte des Verfahrens nach Anspruch 8 umfasst und ferner den folgenden Schritt umfasst: - Bestimmen des Aktorsteuersignals (A) abhängig von dem Ausgangssignal (y).
  8. Verfahren nach Anspruch 7, wobei der Aktor (10) einen mindestens teilweise autonomen Roboter (100) und/oder eine Produktionsmaschine (200) und/oder ein Zugangskontrollsystem (300) steuert.
  9. Computerprogramm, das dafür ausgelegt ist, zu bewirken, dass ein Computer das Verfahren nach einem der Ansprüche 1 bis 8 mit allen seinen Schritten ausführt, wenn das Computerprogramm durch einen Prozessor (45, 145) ausgeführt wird.
  10. Maschinen-lesbares Speicherungsmedium (46, 146), auf dem das Computerprogramm nach Anspruch 9 gespeichert ist.
DE102022211592.9A 2022-11-02 2022-11-02 Vorrichtung und Verfahren zum Optimieren eines Hyperparameters für Metalernen Pending DE102022211592A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102022211592.9A DE102022211592A1 (de) 2022-11-02 2022-11-02 Vorrichtung und Verfahren zum Optimieren eines Hyperparameters für Metalernen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022211592.9A DE102022211592A1 (de) 2022-11-02 2022-11-02 Vorrichtung und Verfahren zum Optimieren eines Hyperparameters für Metalernen

Publications (1)

Publication Number Publication Date
DE102022211592A1 true DE102022211592A1 (de) 2024-05-02

Family

ID=90628985

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022211592.9A Pending DE102022211592A1 (de) 2022-11-02 2022-11-02 Vorrichtung und Verfahren zum Optimieren eines Hyperparameters für Metalernen

Country Status (1)

Country Link
DE (1) DE102022211592A1 (de)

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
J. Vanschoren. Meta-learning. In Automated Machine Learning, Seiten 35-61. Springer, 2019

Similar Documents

Publication Publication Date Title
DE112020000688T5 (de) Kombinierte vorhersage und pfadplanung für autonome objekte unter verwendung neuronaler netze
DE102017127592A1 (de) Verfahren zum Klassifizieren von Bildszenen in einem Fahrunterstützungssystem
DE102021116436A1 (de) Verfahren und Vorrichtung zur datenfreien Posttraining-Netzwerkquantisierung und Generierung von synthetischen Daten auf Grundlage eines vortrainierten Modells maschinellen Lernens
DE202019105282U1 (de) Vorrichtung zum Optimieren eines System für das maschinelle Lernen
DE102018008685A1 (de) Verfahren zum Trainieren eines künstlichen neuronalen Netzes, künstliches neuronales Netz, Verwendung eines künstlichen neuronalen Netzes sowie entsprechendes Computerprogramm maschinenlesbares Speichermedium und entsprechende Vorrichtung
DE112020005663T5 (de) Objekterkennung mit training aus mehreren datensätzen
DE102021205722A1 (de) System und verfahren für mehrskalenmodelle mit tiefem gleichgewicht
DE102021102748A1 (de) 3d-posenschätzung des menschlichen körpers unter verwendung eines modells, das ausgehend von ungelabelten multi-view-daten trainiert wurde
DE102022211512A1 (de) Verbesserungen in einem umschaltenden rekurrenten kalman-netz
DE102021210721A1 (de) Verfahren und system zum adversarischen training unter verwendung metagelernter initialisierung
DE102023207516A1 (de) Systeme und Verfahren zur Experten-geführten Halbüberwachung mit Contrastive Loss für Maschinenlernmodelle
DE102021201178A1 (de) Computerimplementiertes verfahren zum erzeugen von zuverlässigkeitsangaben für computervision
DE102021200348A1 (de) Computerimplementiertes verfahren zum trainieren eines computervisionsmodells
DE102017128082A1 (de) Meta-Architektur-Design für ein CNN-Netzwerk
DE102020200499A1 (de) Verfahren zum Generieren von gelabelten Daten, insbesondere für das Training eines neuronalen Netzes, unter Verwendung ungelabelter, partitionierter Stichproben
DE102023109072A1 (de) Datenaugmentierung für domänenverallgemeinerung
DE102022211592A1 (de) Vorrichtung und Verfahren zum Optimieren eines Hyperparameters für Metalernen
DE202022101997U1 (de) Vorrichtung zum gemeinsamen Ermitteln einer optimalen Architektur eines neuronalen Netzes und optimalen Hyperparametern zum Anlernen des neuronalen Netzes
DE102018216078A1 (de) Verfahren und Vorrichtung zum Betreiben eines Steuerungssystems
DE102021204943A1 (de) Meta-gelehrte evolutionsstrategie-blackbox-optimierungsklassifizierer
DE102022109385A1 (de) Belohnungsfunktion für Fahrzeuge
DE102020213527A1 (de) Verfahren zum Optimieren einer Strategie für einen Roboter
DE102020216188A1 (de) Vorrichtung und Verfahren zum Trainieren eines Klassifizierers
EP3879461A1 (de) Vorrichtung und verfahren zum trainieren eines neuronalen netzwerks
DE202022106154U1 (de) Vorrichtung zur Optimierung eines Hyperparameters für Meta-Lernen