DE202020104005U1 - Vorrichtung zum Erstellen eines Systems zum automatisierten Erstellen von maschinellen Lernsystemen - Google Patents

Vorrichtung zum Erstellen eines Systems zum automatisierten Erstellen von maschinellen Lernsystemen Download PDF

Info

Publication number
DE202020104005U1
DE202020104005U1 DE202020104005.7U DE202020104005U DE202020104005U1 DE 202020104005 U1 DE202020104005 U1 DE 202020104005U1 DE 202020104005 U DE202020104005 U DE 202020104005U DE 202020104005 U1 DE202020104005 U1 DE 202020104005U1
Authority
DE
Germany
Prior art keywords
training data
meta
data sets
computer
machine learning
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202020104005.7U
Other languages
English (en)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Leibniz Universitaet Hannover
Albert Ludwigs Universitaet Freiburg
Original Assignee
Robert Bosch GmbH
Leibniz Universitaet Hannover
Albert Ludwigs Universitaet Freiburg
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH, Leibniz Universitaet Hannover, Albert Ludwigs Universitaet Freiburg filed Critical Robert Bosch GmbH
Priority to DE202020104005.7U priority Critical patent/DE202020104005U1/de
Publication of DE202020104005U1 publication Critical patent/DE202020104005U1/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Mathematics (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Algebra (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Image Analysis (AREA)

Abstract

Vorrichtung zum Erstellen eines Systems, welches geeignet ist, automatisiert ein maschinelles Lernsystems für computerbasiertes Sehen (engl. Computer Vision) zu erstellen, wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirken, dass der Computer ein Verfahren umfassend folgende Schritte ausführt:
Bereitstellen von vorgegebenen Hyperparametern, wobei die Hyperparameter umfassen zumindest einen ersten Parameter, welcher charakterisiert, welches Optimierungsverfahren verwendet wird, und einen zweiten Parameter, welcher charakterisiert, von welchem Typ das maschinelle Lernsystem ist;
Bestimmen einer optimalen Parametrisierung der Hyperparameter mittels BOHB (Abk. Bayesian optimization (BO) and Hyperband (HB)) (11) für einen jeden Trainingsdatensatz einer Mehrzahl von unterschiedlichen Trainingsdatensätzen (10) für computerbasiertes Sehen; Bewerten aller optimalen Parametrisierung auf allen Trainingsdatensätzen der Mehrzahl von unterschiedlichen Trainingsdatensätzen mittels einer normalisierten Metrik;
Erstellen einer Matrix (13), wobei die Matrix (13) die ausgewertete normalisierte Metrik für jede Parametrisierung und jeden Trainingsdatensatz aufweist; Bestimmen von Meta-Merkmalen (engl. meta-features) (14) für jeden der Trainingsdatensätze, wobei die Meta-Merkmale (14) zumindest eine der folgenden Eigenschaften der Trainingsdatensätze charakterisieren: Bildauflösung, Anzahl von Klassen, Anzahl von Trainings-/Testdatenpunkte und Anzahl von Videoframes;
Initialisieren eines Systems umfassend einen Entscheidungsbaum; und
Optimieren des Entscheidungsbaums abhängig von den Meta-Merkmalen (10) und der Matrix (13), sodass der Entscheidungsbaum ausgibt, welche der bestimmten optimalen Parametrisierung mittels BOHB für die gegebenen Meta-Merkmalen eine geeignete Parametrisierung (16) ist.

Description

  • Die Erfindung betrifft eine Vorrichtung zum Erstellen eines Systems, welches geeignet ist, automatisiert ein maschinelles Lernsystems für computerbasiertes Sehen zu erstellen.
  • Stand der Technik
  • Eine gegenwärtige Herausforderung bei maschinellem Lernen ist, dass für jeden Trainingsdatensatz eine Hyperparametrisierung des maschinellen Lernalgorithmus neu und auf Basis von Vermutungen und Erfahrungen von Experten eingestellt werden müssen. Denn ohne eine derartige Einstellung wird der Lernalgorithmus zu einer nicht-optimalen Lösung konvergieren oder gar keine Lösung auffinden können. Dies ist äußerst nachteilig, da darüber hinaus durch die manuelle Einstellung selten eine optimale Parametrisierung der Hyperparameter erreicht werden kann. Hierdurch treten deutliche Leitungseinbußen der damit angelernten maschinellen Lernsystemen auf.
  • Es gibt Ansätze, die diese Nachteile versuchen zu überwinden und z.B. mittels maschinellen Lernverfahren die optimalen Hyperparameter für einen gegebenen Trainingsdatensatz zu bestimmen, wie z.B. von Falkner, Stefan, Aaron Klein, and Frank Hutter. „BOHB: Robust and efficient hyperparameter optimization at scale.“ arXiv preprint arXiv:1807.01774 (2018), online abrufbar: https://arxiv.org/abs/1807.01774.
  • Diese Ansätze haben jedoch den Nachteil, dass deren aufgefundene Hyperparametrisierungen nur sehr bedingt und auch nicht optimal oder zuverlässig für ähnliche Datensätze bspw. mit einer unterschiedlichen Anzahl von Klassen oder z.B. die Bilder einer ähnlichen Domäne oder eines ähnlichen Klassifikationsproblems enthalten, anwendbar sind.
  • Vorteile der Erfindung
  • Die Erfindung hat demgegenüber den Vorteil, dass diese ein Verfahren bereitstellt, um domänenunabhängig einen maschinellen Lernalgorithmus automatisiert und optimal zu parametrisieren sowie zugehörige maschinelle Lernsystem. Es also möglich ist mit der Erfindung automatisiert maschinelle Lernsysteme zu trainieren, wobei dieser Lernalgorithmus für eine Vielzahl von unterschiedlichen Datensätzen zuverlässig anwendbar ist und bspw. optimale Ergebnisse unabhängig von der Anzahl von Objektklassen und/oder ob Trainingsbilder oder Trainingsvideos erreicht werden.
  • Offenbarung der Erfindung
  • In einem ersten Aspekt betrifft die Erfindung ein computerimplementiertes Verfahren zum Erstellen eines Systems, welches geeignet ist, automatisiert ein maschinelles Lernsystems für computerbasiertes Sehen (engl. Computer Vision, CV) zu erstellen.
  • Unter computerbasiertes Sehen kann verstanden werden, dass die maschinellen Lernsysteme eingerichtet sind, von jeglicher Art von Kameras aufgenommenen Bilder, Videos o.ä. auf unterschiedlichste Art und Weise zu verarbeiten und zu analysieren. Dabei kann es sich z.B. um eine Klassifikation der Bilder oder um eine Objektdetektion oder um eine semantische Segmentierung handeln.
  • Das Verfahren umfasst folgende Schritte:
    • Bereitstellen, insbesondere definieren jeweils eines Wertebereiches, von vorgegebenen Hyperparametern. Die Hyperparameter können unterschiedlichste Parameter sein und parametrisieren üblicherweise einen Optimierungsalgorithmus, insbesondere Trainingsalgorithmus, oder deren Werte sind jeweils einem Optimierungsalgorithmus aus einer Mehrzahl unterschiedlichster Optimierungsalgorithmen zugeordnet. Die Hyperparameter umfassen zumindest einen ersten Parameter, welcher charakterisiert, welches Optimierungsverfahren verwendet wird. Die Optimierungsverfahren können stochastischer Optimierer (engl. stochastic optimizer) sein, wie bspw. Adam, AdamW oder Nesterov accelerated gradient sein.
  • Die Hyperparameter umfassen ferner einen zweiten Parameter, welcher charakterisiert, von welchem Typ das maschinelle Lernsystem ist, insbesondere welchen Funktionsapproximator das maschinelle Lernsystem verwendet. Es können z.B. folgende Typen verwendet werden: (vorzugsweise vortrainiertes) EfficientNet oder einfache Klassifizierer wie SVM, unkorrelierte Entscheidungswälder (engl. random forest), ein tiefes neuronales Netz oder eine logistische Regression.
  • Daraufhin folgt ein Bestimmen einer optimalen Parametrisierung der Hyperparameter mittels BOHB für einen jeden Trainingsdatensatz einer Mehrzahl von unterschiedlichen Trainingsdatensätzen für computerbasiertes Sehen. Die Datensätze können als Meta-Trainingsdatensätze bezeichnet werden und sind dadurch charakterisiert, dass diese Eingangsgrößen mit zugeordneten Labeln umfassen. Die Eingangsgrößen können jeweils 4D Tensoren (Zeit/Spalte/Zeile/Kanal) sein. Die Label sind vorzugweise Vektoren, die eine Klasse über einen binären Wert charakterisieren oder semantische Segmentierungen. Vorzugsweise sind die Datensätze komplementär zueinander und besonders bevorzugt werden folgende, öffentlich zugängliche Datensätze verwendet: Chucky, Hammer, Munster, caltech birds2010, cifar100, cifar10, colorectal histology and eurosat. Unter komplementär kann hier verstanden werden, dass diese unterschiedlichste Anzahl von Klassen aufweisen und/oder Bilder sowie Videos enthalten, usw.
  • Daraufhin folgt ein Bewerten aller optimalen Parametrisierung auf allen Trainingsdatensätzen der Mehrzahl von unterschiedlichen Trainingsdatensätzen mittels einer normalisierten Metrik. Eine normalisierte Metrik kann z.B. eine Klassifikationsgenauigkeit oder eine Laufzeit (engl. runtime) oder eine normalisierte Kostenfunktion (engl. loss function) sein.
  • Daraufhin folgt ein Erstellen einer Matrix, wobei die Matrix als Einträge die ausgewertete normalisierte Metrik für jede Parametrisierung und jeden Trainingsdatensatz enthält.
  • Daraufhin folgt ein Bestimmen von Meta-Merkmalen (engl. meta-features) für jeden der Trainingsdatensätze, wobei die Meta-Merkmale zumindest folgende Eigenschaften der Trainingsdatensätze charakterisieren: Bildauflösung, Anzahl von Klassen, Anzahl von Trainings-/Testdatenpunkte, Anzahl von Videoframes. Es sei angemerkt, dass das Meta-Merkmal Anzahl von Videoframes' für Bilder auf den Wert 1 gesetzt werden kann.
  • Schlussendlich folgt ein Optimieren eines Entscheidungsbaums, welcher abhängig von den Meta-Merkmalen und der Matrix ausgibt, welche der optimalen Parametrisierung mittels BOHB für die gegebenen Meta-Merkmalen eine geeignete Parametrisierung ist. Der Entscheidungsbaum wird derart optimiert, bzw. dessen Parameter derart eingestellt, dass dieser anhand der bereitgestellten Meta-Merkmalen und der Matrix bestimmt, welche der bestimmten Parametrisierungen mittels BOHB die geeignete Parametrisierung für die vorliegenden Meta-Merkmalen ist. Es sei angemerkt, dass der Entscheidungsbaum ein Selektionsmodell ist.
  • Die Erfinder haben herausgefunden, dass die Kombination aus meta-learning und Hyperparameter-Optimierung zu einem hochgradig domainunabhängigen Lernen führt. Ferner ist die Methode in Lage eine überdurchschnittliche Vielzahl von Meta-Trainingsdatensätzen zu handhaben und daraus mit sehr geringen Aufwand (durch den Entscheidungsbaum) eine geeignete Parametrisierung für gegebene Meta-Merkmale zu extrahieren. Der Vorteil des Entscheidungsbaums ist, dass dieser schnell ist und geringere Datenmengen benötigt. Folglich ist der Meta-Lerner relativ klein und kann innerhalb sowohl innerhalb weniger Sekunden trainiert als auch betrieben werden.
  • Es kann daraufhin das System initialisiert werden, welches geeignet ist, das maschinelle Lernsystem zu erstellen. Das System umfasst dann den Entscheidungsbaum, wobei das System dann abhängig von der Ausgabe des Entscheidungsbaums ein maschinelles Lernsystem sowie einen Optimierungsalgorithmus zum Anlernen des maschinellen Lernsystems initialisiert. Das System kann dann auch das maschinelle Lernsystem mit diesem Optimierungsalgorithmus anlernen.
  • Es wird vorgeschlagen, dass die Parameter des Entscheidungsbaums mittels AutoFolio optimiert werden. AutoFolio ist ein Algorithmus, welcher ein Selektionsmodell trainiert, das sowohl einen geeigneten Optimierungsalgorithmus als auch dessen optimale Konfiguration auswählt und von den Autoren M. Lindauer, H. Hoos, F. Hutter and T. Schaub in ihrer Veröffentlichung AutoFolio: An Automatically Configured Algorithm Selector. Journal of Artificial Intelligence 53 (2015): 745-778 beschrieben wird, online abrufbar: http://ml.informatik.uni-freiburg.de/papers/17-IJCAI-AutoFolio.pdf. Denn es hat sich herausgestellt, dass mittels AutoFolio besonders effizient und wirkungsvoll der Entscheidungsbaum für maschinelle Lernsysteme für computerbasiertes Sehen anwendbar ist.
  • Weiterhin wird vorgeschlagen, dass über die Mehrzahl der Trainingsdatensätze und insbesondere für alle optimalen Hyperparametrisierungen ein Durchschnittswert der normalisierten Metrik bestimmt wird, wobei einer der bestimmten Parametrisierung der Hyperparameter mittels BOHB ausgewählt wird, welche für die normalisierte Metrik am nächsten zu dem Durchschnittwert kommt, wobei die ausgewertete normalisierte Metrik dieser Konfiguration für alle Trainingsdatensätze zu der Matrix hinzugefügt wird. Zusätzlich oder alternativ kann eine der bestimmten Parametrisierung der Hyperparameter mittels BOHB ausgewählt werden, welche für die normalisierte Metrik im Mittel für alle Trainingsdatensätze die höchste Verbesserung der normalisierten Metrik gegenüber dem Durchschnittswert der normalisierten Metrik aufweist.
  • Dieses Vorgehen hat den Vorteil, dass eine robuste Parametrisierung hinzugefügt wird, für die zwar keine besonders überragende Performance hinsichtlich der ausgewerteten normalisierten Metrik zu erwarten ist, aber diese dennoch eine gute Performance über alle Meta-Trainingsdatensätze erzielt. Dem Entscheidungsbaum steht hiermit also eine Parametrisierung zur Verfügung, wenn keine der anderen optimalen Parametrisierungen geeignet sind.
  • Weiterhin wird vorgeschlagen, dass aus der Mehrzahl der Meta-Merkmalen eine Untermenge von Meta-Merkmalen mittels eines Greedy-Algorithmus bestimmt werden. Diese Auswahl einer geeigneten Untermenge der Meta-Merkmale hat den Vorteil, dass redundante oder gar negativ beeinflussende Meta-Merkmale entfernt werden, wodurch das Selektionsmodell zuverlässiger wird. Es kann dabei iterativ geprüft werden, ob die Entscheidung des Modells mit der jeweils ausgewählten Untermenge der Meta-Merkmalen sich verschlechtert.
  • Weiterhin wird vorgeschlagen, dass nach dem Erstellen des Selektionsmodells ein weiterer Trainingsdatensatz bereitgestellt wird. Vorzugsweise ist dies ein unbekannter Trainingsdatensatz, welcher nicht für das Erstellen des Selektionsmodells verwendet wurde, also nicht in den Meta-Trainingsdatensätzen enthalten war. Daraufhin werden die Meta-Merkmale für den weiteren Trainingsdatensatz bestimmt, wobei daraufhin mit dem Selektionsmodell abhängig von den Meta-Merkmalen und der Matrix eine geeignete Parametrisierung bestimmt wird. Basierend auf dieser geeigneten Parametrisierung kann dann ein maschinelles Lernsystem erstellt werden und auf dem weiteren Trainingsdatensatz angelernt werden, z.B. mittels des oben genannten Systems.
  • Weiterhin wird vorgeschlagen, dass das maschinelle Lernsystem basierend auf dem ersten Parameter der Hyperparameter erstellt wird und ein Optimierungsalgorithmus für das maschinelle Lernsystem basieren auf dem zweiten Parameter der Hyperparameter ausgewählt und entsprechend der ausgewählten Konfiguration parametrisiert wird.
  • Alternativ kann die ausgegebene geeignete Parametrisierung mittels des Entscheidungsbaums wiederum mit einem Hyperparameter-Optimierer, vorzugsweise BOHB, optimiert werden und erst dann damit das maschinelle Lernsystem und/oder den Optimierungsalgorithmus entsprechend parametrisieren.
  • Alternativ kann auch zufällig eine Konfiguration aus dem Set der Konfigurationen gezogen, oder es wird immer die weitere Parametrisierung verwendet, welche im Mittel für alle Trainingsdatensätze die höchste Verbesserung der normalisierten Metrik gegenüber dem Durchschnittswert der normalisierten Metrik erzielt.
  • Es sei angemerkt, dass aus der geeigneten Parametrisierung nicht alle Hyperparameter verwendet werden müssen. Denn es kann sein, dass die Hyperparameter teilweise voneinander abhängen, z.B. benötigt nicht jeder Typ von maschinellen Lernsystemen ein Gewichtsabfall (engl. weight decay).
  • In weiteren Aspekten betrifft die Erfindung eine Vorrichtung sowie ein Computerprogramm, die eingerichtet sind, die obigen Verfahren auszuführen und ein maschinenlesbares Speichermedium, auf dem dieses Computerprogramm gespeichert ist.
  • Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Zeichnungen zeigen:
    • 1 schematisch einen Workflow eines Ausführungsbeispiels der Erfindung;
    • 2 schematisch ein Flussdiagramm einer Ausführungsform der Erfindung;
    • 3 schematisch ein Ausführungsbeispiel zur Steuerung eines wenigstens teilautonomen Roboters;
    • 4 schematisch ein Ausführungsbeispiel zur Steuerung eines Fertigungssystems;
    • 5 schematisch ein Ausführungsbeispiel zur Steuerung eines Zugangssystems;
    • 6 schematisch ein Ausführungsbeispiel zur Steuerung eines Überwachungssystems;
    • 7 schematisch ein Ausführungsbeispiel zur Steuerung eines persönlichen Assistenten;
    • 8 schematisch ein Ausführungsbeispiel zur Steuerung eines medizinisch bildgebenden Systems;
    • 9 einen möglichen Aufbau einer ersten Trainingsvorrichtung 141.
  • Beschreibung der Ausführungsbeispiele
  • 1 zeigt schematisch einen Workflow eine Ausführungsform der Erfindung. Zuerst werden bereitgestellte, unterschiedliche (Meta-)Trainingsdatensätze 10 zur Verfügung gestellt. Daraufhin wird mittels eines Hyperparameter-Optimierers 11, der vorzugsweise BOHB ist, für jeden der unterschiedlichen Trainingsdatensätze 10 ein Set von Hyperparameter optimiert. Die optimalen Hyperparameter 12 werden daraufhin auf alle Trainingsdatensätze 10 angewendet und mittels einer normalisierten Metrik bewertet. Die Werte der normalisierten Metrik für jeden der optimalen Hyperparameter 12 und für jeden der Trainingsdatensätze 10 werden daraufhin in eine Matrix 13 eingetragen.
  • Für jeden der Trainingsdatensätze 10 wird ein Set von Meta-Merkmalen 14 extrahiert, die vorzugsweise eindeutig den jeweiligen Trainingsdatensatz 10 charakterisieren. Daraufhin werden dann die Meta-Merkmale 14 sowie die Matrix 13 einem Meta-Lerner (AutoFolio) 15 bereitgestellt. Dieser Meta-Lerner 15 erstellt daraufhin ein Entscheidungsbaum, der eingerichtet ist, abhängig von den Meta-Merkmalen 14 und der Matrix 13 diejenigen optimierten Hyperparameter 12 auszuwählen 16, die am geeignetsten für die vorliegenden Meta-Merkmale 14 sind.
  • 2 zeigt schematisch ein Flussdiagramm 20 eine Ausführungsform des erfindungsgemäßen Verfahrens.
  • Das Verfahren beginnt mit Schritt S21. Hierin wird mittels BOHB 11 optimale Hyperparameter 12 für jeweils eine Mehrzahl von unterschiedlichen Trainingsdatensätze 10 bestimmt.
  • In dem darauffolgenden Schritt S22 werden dann die bestimmten optimalen Hyperparameter 12 auf alle verwendeten Trainingsdatensätze 10 angewendet. Hierbei werden diese dann mittels einer normalisierten Metrik bewertet.
  • Die Bewertungen mittels der normalisierten Metrik werden daraufhin in Schritt S23 in eine Matrix 13 eingetragen. Folglich enthält die Matrix 13 für jeden Datensatz 10 und für die optimalen Hyperparameter 12 einen Eintrag, der dem Wert der ausgewerteten normalisierten Metrik für den jeweiligen Datensatz und die jeweiligen optimalen Hyperparameter entspricht.
  • Im darauffolgenden Schritt S24 werden dann die Meta-Merkmale 14 zu den Trainingsdatensätzen bestimmt. Die Meta-Merkmale 14 und die Matrix 13 werden daraufhin von einem Meta-Lerner 15, vorzugsweise AutoFolio, verwendet, um damit einen Entscheidungsbaum zu trainieren, der dann in der Lage ist, abhängig von den Meta-Merkmale 14 und der Matrix 13 geeignete Hyperparameter 16 aus den optimalen Hyperparameter 12, die z.B. mittels BOHB bestimmt wurden, auszuwählen.
  • Nachdem der Entscheidungsbaum fertig trainiert wurde, folgt Schritt S25. Hierin wird für einen neuen, bisher nicht gesehenen Trainingsdatensatz, dessen Meta-Merkmale 14 bestimmt, die daraufhin dem Entscheidungsbaum zugefügt werden. Der Entscheidungsbaum entscheidet daraufhin abhängig von diesen zugeführten Meta-Merkmale 14 welche der optimalen Hyperparameter 12 für diesen nicht gesehenen Trainingsdatensatz am geeignetsten sind. Daraufhin kann dann abhängig von diesen ausgewählten Hyperparametern mittels des Entscheidungsbaums ein maschinelles Lernsystem initialisiert werden, und zusätzlich ein Optimierung Algorithmus ebenso abhängig von den ausgewählten Hyperparametern initialisiert werden. Daraufhin kann dann der Optimierungsalgorithmus das initialisierte maschinelle Lernsystem anhand den nicht gesehenen Trainingsdaten anlernen.
  • Die Trainingsdaten sind vorzugsweise Aufnahmen einer Kamera, wobei das maschinelle Lernsystem für eine Objektklassifikation, oder Objektdetektion oder semantische Segmentierung angelernt wird.
  • 3 zeigt einen Aktor 10 in seiner Umgebung in Interaktion mit einem Steuerungssystem 40. In vorzugsweise regelmäßigen zeitlichen Abständen wird die Umgebung in einem Sensor 30, insbesondere einem bildgebenden Sensor wie einem Videosensor, erfasst, der auch durch eine Mehrzahl von Sensoren gegeben sein kann, beispielsweise eine Stereokamera. Auch andere bildgebende Sensoren sind denkbar, wie beispielsweise Radar, Ultraschall oder Lidar. Auch eine Wärmebildkamera ist denkbar. Das Sensorsignal S - bzw. im Fall mehrerer Sensoren je ein Sensorsignal S - des Sensors 30 wird an das Steuerungssystem 40 übermittelt. Das Steuerungssystem 40 empfängt somit eine Folge von Sensorsignalen S. Das Steuerungssystem 40 ermittelt hieraus Ansteuersignale A, welche an den Aktor 10 übertragen werden.
  • Das Steuerungssystem 40 empfängt die Folge von Sensorsignalen S des Sensors 30 in einer optionalen Empfangseinheit, die die Folge von Sensorsignalen S in eine Folge von Eingangsbildern x umwandelt (alternativ kann auch unmittelbar je das Sensorsignal S als Eingangsbild x übernommen werden). Das Eingangsbild x kann beispielsweise ein Ausschnitt oder eine Weiterverarbeitung des Sensorsignals S sein. Das Eingangsbild x umfasst einzelne Frames einer Videoaufzeichnung. Mit anderen Worten wird Eingangsbild x abhängig von Sensorsignal S ermittelt. Die Folge von Eingangsbildern x wird dem angelernten maschinellen Lernsystem aus Schritt S25, im Ausführungsbeispiel einem künstlichen neuronalen Netz 60, zugeführt.
  • Das künstliche neuronale Netz 60 wird vorzugsweise parametriert durch Parameter ϕ, die in einem Parameterspeicher P hinterlegt sind und von diesem bereitgestellt werden.
  • Das künstliche neuronale Netz 60 ermittelt aus den Eingangsbildern x Ausgangsgrößen y. Diese Ausgangsgrößen y können insbesondere eine Klassifikation und/oder semantische Segmentierung der Eingangsbilder x umfassen. Ausgangsgrößen y werden einer optionalen Umformeinheit zugeführt, die hieraus Ansteuersignale A ermittelt, welche dem Aktor 10 zugeführt werden, um den Aktor 10 entsprechend anzusteuern. Ausgangsgröße y umfasst Informationen über Objekte, die der Sensor 30 erfasst hat.
  • Der Aktor 10 empfängt die Ansteuersignale A, wird entsprechend angesteuert und führt eine entsprechende Aktion aus. Der Aktor 10 kann hierbei eine (nicht notwendigerweise baulich integrierte) Ansteuerlogik umfassen, welches aus dem Ansteuersignal A ein zweites Ansteuersignal ermittelt, mit dem dann der Aktor 10 angesteuert wird.
  • In weiteren Ausführungsformen umfasst das Steuerungssystem 40 den Sensor 30. In noch weiteren Ausführungsformen umfasst das Steuerungssystem 40 alternativ oder zusätzlich auch den Aktor 10.
  • In weiteren bevorzugten Ausführungsformen umfasst das Steuerungssystem 40 eine Ein- oder Mehrzahl von Prozessoren 45 und wenigstens ein maschinenlesbares Speichermedium 46, auf den Anweisungen gespeichert sind, die dann, wenn sie auf den Prozessoren 45 ausgeführt werden, das Steuerungssystem 40 veranlassen, das erfindungsgemäße Verfahren auszuführen.
  • In alternativen Ausführungsformen ist alternativ oder zusätzlich zum Aktor 10 eine Anzeigeeinheit vorgesehen.
  • 2 zeigt, wie das Steuerungssystem 40 zur Steuerung eines wenigstens teilautonomen Roboters, hier eines wenigstens teilautonomen Kraftfahrzeugs 100, eingesetzt werden kann.
  • Bei dem Sensor 30 kann es sich beispielsweise um einen vorzugsweise im Kraftfahrzeug 100 angeordneten Videosensor handeln.
  • Das künstliche neuronale Netz 60 ist eingerichtet, aus den Eingangsbildern x Objekte sicher zu identifizieren.
  • Bei dem vorzugsweise im Kraftfahrzeug 100 angeordneten Aktor 10 kann es sich beispielsweise um eine Bremse, einen Antrieb oder eine Lenkung des Kraftfahrzeugs 100 handeln. Das Ansteuersignal A kann dann derart ermittelt werden, dass der Aktor oder die Aktoren 10 derart angesteuert wird, dass das Kraftfahrzeug 100 beispielsweise eine Kollision mit den vom künstlichen neuronalen Netz 60 sicher identifizierten Objekte verhindert, insbesondere, wenn es sich um Objekte bestimmter Klassen, z.B. um Fußgänger, handelt.
  • Alternativ kann es sich bei dem wenigstens teilautonomen Roboter auch um einen anderen mobilen Roboter (nicht abgebildet) handeln, beispielsweise um einen solchen, der sich durch Fliegen, Schwimmen, Tauchen oder Schreiten fortbewegt. Bei dem mobilen Roboter kann es sich beispielsweise auch um einen wenigstens teilautonomen Rasenmäher oder einen wenigstens teilautonomen Putzroboter handeln. Auch in diesen Fällen kann das Ansteuersignal A derart ermittelt werden, dass Antrieb und/oder Lenkung des mobilen Roboters derart angesteuert werden, dass der wenigstens teilautonome Roboter beispielsweise eine Kollision mit vom künstlichen neuronalen Netz 60 identifizierten Objekten verhindert.
  • Alternativ oder zusätzlich kann mit dem Ansteuersignal A die Anzeigeeinheit angesteuert werden, und beispielsweise die ermittelten sicheren Bereiche dargestellt werden. Auch ist es beispielsweise beim einem Kraftfahrzeug 100 mit nicht automatisierter Lenkung möglich, dass die Anzeigeeinheit 10a mit dem Ansteuersignal A derart angesteuert wird, dass sie ein optisches oder akustisches Warnsignal ausgibt, wenn ermittelt wird, dass das Kraftfahrzeug 100 droht, mit einem der sicher identifizierten Objekte zu kollidieren.
  • 4 zeigt ein Ausführungsbeispiel, in dem das Steuerungssystem 40 zur Ansteuerung einer Fertigungsmaschine 11 eines Fertigungssystems 200 verwendet wird, indem ein diese Fertigungsmaschine 11 steuernder Aktor 10 angesteuert wird. Bei der Fertigungsmaschine 11 kann es sich beispielsweise um eine Maschine zum Stanzen, Sägen, Bohren und/oder Schneiden handeln.
  • Bei dem Sensor 30 kann es sich dann beispielsweise um einen optischen Sensor handeln, der z.B. Eigenschaften von Fertigungserzeugnissen 12a, 12b erfasst. Es ist möglich, dass diese Fertigungserzeugnisse 12a, 12b beweglich sind. Es ist möglich, dass der die Fertigungsmaschine 11 steuernde Aktor 10 abhängig von einer Zuordnung der erfassten Fertigungserzeugnisse 12a, 12b angesteuert wird, damit die Fertigungsmaschine 11 entsprechend einen nachfolgenden Bearbeitungsschritt des richtigen der Fertigungserzeugnisses 12a, 12b ausführt. Es ist auch möglich, dass durch Identifikation der richtigen Eigenschaften desselben der Fertigungserzeugnisse 12a, 12b (d.h. ohne eine Fehlzuordnung) die Fertigungsmaschine 11 entsprechend den gleichen Fertigungsschritt für eine Bearbeitung eines nachfolgenden Fertigungserzeugnisses anpasst.
  • 5 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines Zugangssystems 300 eingesetzt wird. Das Zugangssystem 300 kann eine physische Zugangskontrolle, beispielsweise eine Tür 401 umfassen. Videosensor 30 ist eingerichtet ist, eine Person zu erfassen. Mittels des Objektidentifikationssystem 60 kann dieses erfasste Bild interpretiert werden. Sind mehrere Personen gleichzeitig erfasst, kann durch eine Zuordnung der Personen (also der Objekte) zueinander beispielweise die Identität der Personen besonders zuverlässig ermittelt werden, beispielsweise durch eine Analyse ihrer Bewegungen. Der Aktor 10 kann ein Schloss sein, dass abhängig vom Ansteuersignal A die Zugangskontrolle freigibt, oder nicht, beispielsweise die Tür 401 öffnet, oder nicht. Hierzu kann das Ansteuersignal A abhängig von der der Interpretation des Objektidentifikationssystem 60 gewählt werden, beispielsweise abhängig von der ermittelten Identität der Person. An Stelle der physischen Zugangskontrolle kann auch eine logische Zugangskontrolle vorgesehen sein.
  • 6 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines Überwachungssystems 400 verwendet wird. Von dem in 5 dargestellten Ausführungsbeispiel unterscheidet sich dieses Ausführungsbeispiel dadurch, dass an Stelle des Aktors 10 die Anzeigeeinheit 10a vorgesehen ist, die vom Steuerungssystem 40 angesteuert wird. Beispielsweise kann vom künstlichen neuronalen Netz 60 zuverlässig eine Identität der vom Videosensor 30 aufgenommenen Gegenstände ermittelt werden, um abhängig davon z.B. darauf zu schließen, welche verdächtig werden, und das Ansteuersignal A dann derart gewählt werden, dass dieser Gegenstand von der Anzeigeeinheit 10a farblich hervorgehoben dargestellt wird.
  • 7 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines persönlichen Assistenten 250 eingesetzt wird. Der Sensor 30 ist bevorzugt ein optischer Sensor, der Bilder einer Geste eines Nutzers 249 empfängt.
  • Abhängig von den Signalen des Sensors 30 ermittelt das Steuerungssystem 40 ein Ansteuersignal A des persönlichen Assistenten 250, beispielsweise, indem das neuronale Netz eine Gestenerkennung durchführt. Dem persönlichen Assistenten 250 wird dann dieses ermittelte Ansteuersignal A übermittelt und er somit entsprechend angesteuert. Dieses ermittelte Ansteuersignal A ist kann insbesondere derart gewählt werden, dass es einer vermuteten gewünschten Ansteuerung durch den Nutzer 249 entspricht. Diese vermutete gewünschte Ansteuerung kann abhängig von der vom künstlichen neuronalen Netz 60 erkannten Geste ermittelt werden. Das Steuerungssystem 40 kann dann abhängig von der vermuteten gewünschten Ansteuerung das Ansteuersignal A zur Übermittlung an den persönlichen Assistenten 250 wählen und/oder das Ansteuersignal A zur Übermittlung an den persönlichen Assistenten entsprechend der vermuteten gewünschten Ansteuerung 250 wählen.
  • Diese entsprechende Ansteuerung kann beispielsweise beinhalten, dass der persönliche Assistent 250 Informationen aus einer Datenbank abruft und sie für den Nutzer 249 rezipierbar wiedergibt.
  • Anstelle des persönlichen Assistenten 250 kann auch ein Haushaltsgerät (nicht abgebildet), insbesondere eine Waschmaschine, ein Herd, ein Backofen, eine Mikrowelle oder eine Spülmaschine vorgesehen sein, um entsprechend angesteuert zu werden.
  • 8 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem 40 zur Steuerung eines medizinischen bildgebenden System 500, beispielsweise eines MRT-, Röntgen- oder Ultraschallgeräts, verwendet wird. Der Sensor 30 kann beispielsweise durch einen bildgebenden Sensor gegeben sein, durch das Steuerungssystem 40 wird die Anzeigeeinheit 10a angesteuert. Beispielsweise kann vom neuronalen Netz 60 ermittelt werden, ob ein vom bildgebenden Sensor aufgenommener Bereich auffällig ist, und das Ansteuersignal A dann derart gewählt werden, dass dieser Bereich von der Anzeigeeinheit 10a farblich hervorgehoben dargestellt wird.
  • 9 zeigt einen möglichen Aufbau einer Trainingsvorrichtung 141 zum Trainieren des maschinellen Lernsystems nach Schritt S25 oder des Entscheidungsbaums nach Schritt S23. Diese wird mit Parametern θ parametriert, die von Parameterspeicher P bereitgestellt werden.
  • Trainingsvorrichtung 141 umfasst einen Bereitsteller 71, der aus einem Trainingsdatensatz Eingangsbilder e bereitstellt. Eingangsbilder e werden dem zu trainierenden maschinellen Lernsystem oder Entscheidungsbaum 61 zugeführt, die hieraus Ausgangsgrößen a ermittelt. Ausgangsgrößen a und Eingangsbilder e werden einem Beurteiler 74 zugeführt, der hieraus über ein Optimierungsverfahren, wie in den entsprechenden Schritten S25/S23 beschrieben neue Parameter θ' ermittelt, die dem Parameterspeicher P übermittelt werden und dort Parameter θ ersetzen.
  • Die vom Trainingsvorrichtung 141 ausgeführten Verfahren können als Computerprogramm implementiert auf einem maschinenlesbaren Speichermedium 146 hinterlegt sein und von einem Prozessor 145 ausgeführt werden.
  • Der Begriff „Computer“ umfasst beliebige Geräte zur Abarbeitung vorgebbarer Rechenvorschriften. Diese Rechenvorschriften können in Form von Software vorliegen, oder in Form von Hardware, oder auch in einer Mischform aus Software und Hardware.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • M. Lindauer, H. Hoos, F. Hutter and T. Schaub in ihrer Veröffentlichung AutoFolio: An Automatically Configured Algorithm Selector. Journal of Artificial Intelligence 53 (2015): 745-778 [0017]

Claims (8)

  1. Vorrichtung zum Erstellen eines Systems, welches geeignet ist, automatisiert ein maschinelles Lernsystems für computerbasiertes Sehen (engl. Computer Vision) zu erstellen, wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirken, dass der Computer ein Verfahren umfassend folgende Schritte ausführt: Bereitstellen von vorgegebenen Hyperparametern, wobei die Hyperparameter umfassen zumindest einen ersten Parameter, welcher charakterisiert, welches Optimierungsverfahren verwendet wird, und einen zweiten Parameter, welcher charakterisiert, von welchem Typ das maschinelle Lernsystem ist; Bestimmen einer optimalen Parametrisierung der Hyperparameter mittels BOHB (Abk. Bayesian optimization (BO) and Hyperband (HB)) (11) für einen jeden Trainingsdatensatz einer Mehrzahl von unterschiedlichen Trainingsdatensätzen (10) für computerbasiertes Sehen; Bewerten aller optimalen Parametrisierung auf allen Trainingsdatensätzen der Mehrzahl von unterschiedlichen Trainingsdatensätzen mittels einer normalisierten Metrik; Erstellen einer Matrix (13), wobei die Matrix (13) die ausgewertete normalisierte Metrik für jede Parametrisierung und jeden Trainingsdatensatz aufweist; Bestimmen von Meta-Merkmalen (engl. meta-features) (14) für jeden der Trainingsdatensätze, wobei die Meta-Merkmale (14) zumindest eine der folgenden Eigenschaften der Trainingsdatensätze charakterisieren: Bildauflösung, Anzahl von Klassen, Anzahl von Trainings-/Testdatenpunkte und Anzahl von Videoframes; Initialisieren eines Systems umfassend einen Entscheidungsbaum; und Optimieren des Entscheidungsbaums abhängig von den Meta-Merkmalen (10) und der Matrix (13), sodass der Entscheidungsbaum ausgibt, welche der bestimmten optimalen Parametrisierung mittels BOHB für die gegebenen Meta-Merkmalen eine geeignete Parametrisierung (16) ist.
  2. Vorrichtung nach Anspruch 1, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass Parameter des Entscheidungsbaums mittels AutoFolio (15) optimiert werden.
  3. Vorrichtung nach Anspruch 1 oder 2, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass ein Durchschnittswert der normalisierten Metrik über die Mehrzahl der Trainingsdatensätze bestimmt wird, wobei einer der bestimmten Parametrisierung der Hyperparameter mittels BOHB (11) ausgewählt wird, deren normalisierte Metrik am nächsten zu dem Durchschnittwert kommt, wobei die ausgewertete normalisierte Metrik dieser Parametrisierung für alle Trainingsdatensätze zu der Matrix (13) hinzugefügt wird.
  4. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei ein Durchschnittswert der normalisierten Metrik über die Mehrzahl der Trainingsdatensätze bestimmt wird, wobei einer der bestimmten Parametrisierung der Hyperparameter mittels BOHB (11) ausgewählt wird, welche für die normalisierte Metrik im Mittel für alle Trainingsdatensätze (10) die höchste Verbesserung der normalisierten Metrik gegenüber dem Durchschnittswert der normalisierten Metrik aufweist, wobei die ausgewertete normalisierte Metrik dieser Konfiguration für alle Trainingsdatensätze zu der Matrix (13) hinzugefügt werden.
  5. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass aus der Mehrzahl der Meta-Merkmalen (14) eine Untermenge von Meta-Merkmalen mittels eines Greedy-Algorithmus bestimmt werden und der Entscheidungsbaum die geeignete Parametrisierung abhängig von der Untermenge der Meta-Merkmalen und der Matrix (13) bestimmt.
  6. Vorrichtung nach einem der vorhergehenden Ansprüche, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass ein weiterer Trainingsdatensatz bereitgestellt wird, wobei die Meta-Merkmale (14) für den weiteren Trainingsdatensatz bestimmt werden, wobei daraufhin mit dem Entscheidungsbaum abhängig von den Meta-Merkmalen (14) und der Matrix (13) eine geeignete Parametrisierung bestimmt wird, wobei ein maschinelles Lernsystem basierend auf der geeigneten Parametrisierung erstellt wird und auf dem weiteren Trainingsdatensatz angelernt wird.
  7. Vorrichtung nach dem vorherigen Anspruch, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass das maschinelle Lernsystem basierend auf dem ersten Parameter erstellt wird und ein Optimierungsalgorithmus für das maschinelle Lernsystem basieren auf dem zweiten Parameter ausgewählt und entsprechend der ausgewählten Konfiguration parametrisiert wird.
  8. Vorrichtung nach dem vorherigen Anspruch, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass die Hyperparameter ferner Parameter umfassen, welche eine Stapelgröße (engl. batch size), eine Anzahl von zu verwendende Datenpunkte für das Training, eine Lernrate, Anzahl von Datenpunkten nach welchen eine Leistungsfähigkeit des maschinellen Lernsystems evaluiert werden soll, Verhältnis von Parametern des maschinellen Lernsystems, welche beim Anlernen des maschinellen Lernsystems unverändert bleiben und/oder einen Gewichtsabfall (engl. weight decay) charakterisieren.
DE202020104005.7U 2020-07-10 2020-07-10 Vorrichtung zum Erstellen eines Systems zum automatisierten Erstellen von maschinellen Lernsystemen Active DE202020104005U1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202020104005.7U DE202020104005U1 (de) 2020-07-10 2020-07-10 Vorrichtung zum Erstellen eines Systems zum automatisierten Erstellen von maschinellen Lernsystemen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202020104005.7U DE202020104005U1 (de) 2020-07-10 2020-07-10 Vorrichtung zum Erstellen eines Systems zum automatisierten Erstellen von maschinellen Lernsystemen

Publications (1)

Publication Number Publication Date
DE202020104005U1 true DE202020104005U1 (de) 2020-07-30

Family

ID=72146971

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202020104005.7U Active DE202020104005U1 (de) 2020-07-10 2020-07-10 Vorrichtung zum Erstellen eines Systems zum automatisierten Erstellen von maschinellen Lernsystemen

Country Status (1)

Country Link
DE (1) DE202020104005U1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114462167A (zh) * 2022-03-02 2022-05-10 中车大连机车研究所有限公司 一种铁路用双列圆锥滚子轴承轴向游隙合套评估方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114462167A (zh) * 2022-03-02 2022-05-10 中车大连机车研究所有限公司 一种铁路用双列圆锥滚子轴承轴向游隙合套评估方法
CN114462167B (zh) * 2022-03-02 2022-08-26 中车大连机车研究所有限公司 一种铁路用双列圆锥滚子轴承轴向游隙合套评估方法

Similar Documents

Publication Publication Date Title
DE102019209565A1 (de) Verfahren und Vorrichtung zum Überprüfen der Robustheit eines künstlichen neuronalen Netzes
DE102018218586A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Erzeugen robuster automatisch lernender Systeme und Testen trainierter automatisch lernender Systeme
DE202020101012U1 (de) Vorrichtung zum Vorhersagen einer geeigneten Konfiguration eines maschinellen Lernsystems für einen Trainingsdatensatz
DE102020210352A1 (de) Verfahren und Vorrichtung zum Transferlernen zwischen modifizierten Aufgaben
EP3853778B1 (de) Verfahren und vorrichtung zum betreiben eines steuerungssystems
DE202019105282U1 (de) Vorrichtung zum Optimieren eines System für das maschinelle Lernen
DE102020212515A1 (de) Verfahren und Vorrichtung zum Trainieren eines maschinellen Lernsystems
WO2020260016A1 (de) Verfahren und vorrichtung zum trainieren eines maschinellen lernsystems
DE102019214625A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Erstellen eines künstlichen neuronalen Netzes
DE102018218834A1 (de) Verfahren und Vorrichtung zum Ermitteln eines Ansteuersignals
EP3899808A1 (de) Verfahren zum trainieren eines neuronalen netzes
DE102020208828A1 (de) Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems
DE202020104005U1 (de) Vorrichtung zum Erstellen eines Systems zum automatisierten Erstellen von maschinellen Lernsystemen
DE202020104238U1 (de) Vorrichtung zum Lernen einer Strategie und Betreiben der Strategie
DE102020216188A1 (de) Vorrichtung und Verfahren zum Trainieren eines Klassifizierers
DE102019202523A1 (de) Verfahren und Vorrichtung zum Betreiben eines Steuerungssystems
DE202019105304U1 (de) Vorrichtung zum Erstellen eines künstlichen neuronalen Netzes
DE102020212108A1 (de) Verfahren und Vorrichtung zum Anlernen eines maschinellen Lernsystems
DE102021208724A1 (de) Verfahren und Vorrichtung zum automatisierten Erstellen eines maschinellen Lernsystems zur Multi-Sensor-Datenfusion
DE202022101997U1 (de) Vorrichtung zum gemeinsamen Ermitteln einer optimalen Architektur eines neuronalen Netzes und optimalen Hyperparametern zum Anlernen des neuronalen Netzes
DE102020208671A1 (de) Verfahren und Vorrichtung zum Erstellen eines Systems zum automatisierten Erstellen von maschinellen Lernsystemen
DE102020208309A1 (de) Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems
DE102020212514A1 (de) Verfahren zur Ermittlung eines Ausgabesignals mittels eines maschinellen Lernsystems
EP3899809A1 (de) Verfahren und vorrichtung zum klassifizieren von sensordaten und zum ermitteln eines ansteuersignals zum ansteuern eines aktors
DE202020105509U1 (de) Vorrichtung zum Anlernen eines maschinellen Lernsystems

Legal Events

Date Code Title Description
R207 Utility model specification
R150 Utility model maintained after payment of first maintenance fee after three years