DE202020105509U1 - Vorrichtung zum Anlernen eines maschinellen Lernsystems - Google Patents
Vorrichtung zum Anlernen eines maschinellen Lernsystems Download PDFInfo
- Publication number
- DE202020105509U1 DE202020105509U1 DE202020105509.7U DE202020105509U DE202020105509U1 DE 202020105509 U1 DE202020105509 U1 DE 202020105509U1 DE 202020105509 U DE202020105509 U DE 202020105509U DE 202020105509 U1 DE202020105509 U1 DE 202020105509U1
- Authority
- DE
- Germany
- Prior art keywords
- hyperparameters
- machine learning
- learning system
- regularization
- teaching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000010801 machine learning Methods 0.000 title claims abstract description 75
- 238000000034 method Methods 0.000 claims abstract description 90
- 230000006870 function Effects 0.000 claims abstract description 11
- 238000003860 storage Methods 0.000 claims abstract description 4
- 238000013528 artificial neural network Methods 0.000 claims description 17
- 238000005457 optimization Methods 0.000 claims description 11
- 238000010606 normalization Methods 0.000 claims description 5
- 240000008005 Crotalaria incana Species 0.000 claims description 4
- 230000008859 change Effects 0.000 claims description 2
- 238000012549 training Methods 0.000 description 27
- 230000001276 controlling effect Effects 0.000 description 12
- 238000004519 manufacturing process Methods 0.000 description 11
- 230000008901 benefit Effects 0.000 description 7
- 238000003384 imaging method Methods 0.000 description 4
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 description 3
- 230000000875 corresponding effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000001419 dependent effect Effects 0.000 description 2
- 238000002059 diagnostic imaging Methods 0.000 description 2
- 230000009187 flying Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 208000032484 Accidental exposure to product Diseases 0.000 description 1
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 description 1
- 101150082208 DIABLO gene Proteins 0.000 description 1
- 102100033189 Diablo IAP-binding mitochondrial protein Human genes 0.000 description 1
- 244000024873 Mentha crispa Species 0.000 description 1
- 235000014749 Mentha crispa Nutrition 0.000 description 1
- 231100000818 accidental exposure Toxicity 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004140 cleaning Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000009189 diving Effects 0.000 description 1
- 238000005553 drilling Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000004080 punching Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 230000001429 stepping effect Effects 0.000 description 1
- 230000009182 swimming Effects 0.000 description 1
- 238000001931 thermography Methods 0.000 description 1
- 238000005406 washing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Feedback Control In General (AREA)
Abstract
Vorrichtung (01) zum Anlernen eines maschinellen Lernsystems (60), wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirkten, dass der Computer ein Verfahren mit folgenden Schritte ausführt:
Bestimmen (S21) einer Mehrzahl von Regularisierungsmethoden, welche zum Anlernen des maschinellen Lernsystems (60) verwendet werden können;
Definieren (S22) von ersten Hyperparametern, welche ein Anlernverfahren für das maschinelle Lernsystem parametrisieren, und zweite Hyperparameter, welche jeweils einer der Mehrzahl der Regularisierungsmethoden zugeordnet sind,
wobei die zweiten Hyperparameter charakterisieren, ob ihre zugeordnete Regularisierungsmethode beim Anlernen des maschinellen Lernsystems (60) verwendet wird oder nicht;
Optimieren (S23) der Hyperparameter mittels eines Hyperparameteroptimierers,
wobei beim Optimieren der Hyperparameter mehrmals ein Anlernen des maschinellen Lernsystems (60) mittels des Anlernverfahrens, welches jeweils mit unterschiedlichen Werten der ersten Hyperparameter parametrisiert ist, unter Verwendung der Regularisierungsmethoden abhängig von den zweiten Hyperparametern, durchgeführt wird und jeweils eine Leistungsfähigkeit des unterschiedlich angelernten maschinellen Lernsystems (60) ermittelt wird,
wobei dann abhängig von den ermittelten Leistungsfähigkeiten mittels des Hyperparameteroptimierers optimierte Werte der ersten und zweiten Hyperparameter ermittelt werden; und
Anlernen (S24) des maschinellen Lernsystems (60) mittels des Anlernverfahrens, welches mit den optimierten Werten der ersten Hyperparameter parametrisiert ist, unter Verwendung der Regularisierungsmethoden abhängig von den zweiten Hyperparametern.
Bestimmen (S21) einer Mehrzahl von Regularisierungsmethoden, welche zum Anlernen des maschinellen Lernsystems (60) verwendet werden können;
Definieren (S22) von ersten Hyperparametern, welche ein Anlernverfahren für das maschinelle Lernsystem parametrisieren, und zweite Hyperparameter, welche jeweils einer der Mehrzahl der Regularisierungsmethoden zugeordnet sind,
wobei die zweiten Hyperparameter charakterisieren, ob ihre zugeordnete Regularisierungsmethode beim Anlernen des maschinellen Lernsystems (60) verwendet wird oder nicht;
Optimieren (S23) der Hyperparameter mittels eines Hyperparameteroptimierers,
wobei beim Optimieren der Hyperparameter mehrmals ein Anlernen des maschinellen Lernsystems (60) mittels des Anlernverfahrens, welches jeweils mit unterschiedlichen Werten der ersten Hyperparameter parametrisiert ist, unter Verwendung der Regularisierungsmethoden abhängig von den zweiten Hyperparametern, durchgeführt wird und jeweils eine Leistungsfähigkeit des unterschiedlich angelernten maschinellen Lernsystems (60) ermittelt wird,
wobei dann abhängig von den ermittelten Leistungsfähigkeiten mittels des Hyperparameteroptimierers optimierte Werte der ersten und zweiten Hyperparameter ermittelt werden; und
Anlernen (S24) des maschinellen Lernsystems (60) mittels des Anlernverfahrens, welches mit den optimierten Werten der ersten Hyperparameter parametrisiert ist, unter Verwendung der Regularisierungsmethoden abhängig von den zweiten Hyperparametern.
Description
- Die Erfindung betrifft eine Vorrichtung zum Anlernen eines maschinellen Lernsystems.
- Stand der Technik
- In den letzten Jahren hat maschinelles Lernen, insbesondere Deep Learning, dazu beigetragen, die technischen Grenzen in vielen Bereichen voranzubringen. Neue Architekturen von neuronalen Netzen und Regularisierungsmethoden entwickeln sich in rasantem Tempo und tragen zu immer besseren Ergebnissen auf vielen unterschiedlichen technischen Gebieten, wie der Bildklassifikation oder Objektdetektion, bei.
- Ein Problem bei maschinellem Lernen, insbesondere Deep Learning, ist, dass diese Verfahren große Trainingsdatensätze benötigen, um ihre Lernaufgabe, z.B. Klassifikation von Bildern, zuverlässig zu lösen und nicht einfach die Trainingsdaten auswendig zu lernen.
- Regularisierungsmethoden sind Verfahren, die die Überanpassung reduzieren und die Generalisierung von maschinellen Lernsystemen, insbesondere neuronalen Netzen, verbessern.
- Vorteile der Erfindung
- Die Erfindung mit den Merkmalen des unabhängigen Anspruchs 1 hat den Vorteil, dass beim Anlernen des maschinellen Lernsystems eine Kombination von Regularisierungsmethoden automatisch optimiert wird, um eine besonders gute Leistungsfähigkeit des maschinellen Lernsystems, insbesondere mit kleinen Trainingsdatensätzen, zu erreichen, da eine besonders gute Generalisierung erzielt werden kann. Folglich können die maschinellen Lernsysteme mit kleineren Trainingsdatensätzen angelernt oder bei Verwendung mit großen Trainingsdatensätzen noch bessere Leistungsfähigkeiten erzielt werden. Folglich werden beim Ausführen der Erfindung auf einem Computer gegeben den eingeschränkten Ressourcen des Computers, weniger Ressourcen wie Speicher/Energieverbrauch/Rechenleistung verbraucht. Darüber hinaus lässt sich somit der CO2 Ausstoß reduzieren, um maschinelle Lernsysteme zu erhalten, die eine hohe Generalisierung aufweisen aber mit weniger Trainingsdaten angelernt wurden.
- Offenbarung der Erfindung
- In einem ersten Aspekt betrifft die Erfindung ein computerimplementiertes Verfahren zum Anlernen eines maschinellen Lernsystems.
- Das Verfahren beginnt mit einem Bestimmen, insbesondere Auswählen, einer Mehrzahl von Regularisierungsmethoden, welche zum Anlernen des maschinellen Lernsystems verwendet werden können.
- Daraufhin folgt ein Definieren von ersten Hyperparametern, welche ein Anlernverfahren für das maschinelle Lernsystem parametrisieren, und zweiten Hyperparameter, welche jeweils einer der Mehrzahl der Regularisierungsmethoden zugeordnet ist. Die zweiten Hyperparameter charakterisieren, ob ihre jeweils zugeordnete Regularisierungsmethode beim Anlernen des maschinellen Lernsystems verwendet wird oder nicht.
- Daraufhin folgt ein Optimieren der Hyperparameter mittels eines Hyperparameteroptimierers, insbesondere auf einem bereitgestellten Trainingsdatensatz unter Verwendung des Anlernverfahrens. Hierfür wird mehrmals ein Anlernen des maschinellen Lernsystems mittels des Anlernverfahrens, welches jeweils mit unterschiedlichen Werten die Hyperparameter parametrisiert ist unter Verwendung der Regularisierungsmethoden abhängig von den zweiten Hyperparametern, durchgeführt und jeweils eine Leistungsfähigkeit des unterschiedlich angelernten maschinellen Lernsystems ermittelt. Dann wird abhängig von den ermittelten Leistungsfähigkeiten mittels des Hyperparameteroptimierers optimierte Werte der Hyperparameter ermittelt.
- Daraufhin folgt ein Anlernen des maschinellen Lernsystems mittels des Anlernverfahrens, welches mit den optimierten Werten der Hyperparameter parametrisiert ist.
- Im Allgemeinen kann gesagt werden, dass durch Verwenden einer Regularisierungsmethode beim Anlernen des maschinellen Lernsystems eine künstliche Verkomplizierung der Lernaufgabe des maschinellen Lernsystems durchgeführt wird. Die Verkomplizierung kann darin liegen, dass z.B. Teile des maschinellen Lernsystems zeitweise zufällig entfernt werden oder die Verkomplizierung kann darin liegen, dass die Lernaufgabe künstlich erschwert wird, indem z.B. die Trainingsdaten augmentiert werden, wodurch beides Mal das maschinelle Lernsystem weniger dazu neigt, die Trainingsdaten auswendig zu lernen. Folglich besser generalisiert.
- Die Regularisierungsmethoden können das maschinelle Lernsystem betreffen und/oder die Trainingsdaten und/oder das Anlernverfahren. Wenn die Regularisierungsmethode das Anlernverfahren betrifft, dann können diese z.B. eine Kostenfunktion (engl. loss function) des Anlernverfahrens modifizieren, bspw. durch Hinzufügen eines Regularisierungsterms. Wenn die Regularisierungsmethode das maschinelle Lernsystem betrifft, dann kann die Regularisierungsmethode gezielt eine Architektur des maschinellen Lernsystems modifizieren, bspw. durch Entfernen von Teilen des maschinellen Lernsystems. Wenn die Regularisierungsmethode die Trainingsdaten betrifft, dann kann diese Regularisierungsmethode die Trainingsdaten modifizieren, bspw. durch Hinzufügen von rotierten, verzerrten, interpolierten und/oder skalierten Trainingsdaten, die aus bereits vorhandenen Trainingsdaten erstellt werden.
- Da durch eine Regularisierung eine verbesserte Generalisierung des maschinellen Lernsystem erzielt werden kann, hat die Erfindung den Vorteil, dass durch die automatische Auswahl, insbesondere Optimierung einer Kombination aus mehreren Regularisierungsmethoden, eine besonders gute Kombination der Regularisierungsmethoden gefunden und schlussendlich eine besonders gute Generalisierung erreicht wird.
- Unter einer Leistungsfähigkeit (engl. performance) eines maschinellen Lernsystemes kann eine Abweichung der ermittelten Ausgangsgrößen des maschinellen Lernsystems zu Trainingsausgangsgrößen, die im Trainingsdatensatz enthalten sind, verstanden werden. Wenn das maschinelle Lernsystem ein Bildklassifikator ist, ist vorzugsweise die Leistungsfähigkeit eine Bildklassifikationsgenauigkeit.
- Es wird vorgeschlagen, dass mehrmals nacheinander die Schritte des Optimierens der Werte der Hyperparameter und Anlernen des maschinellen Lernsystems mit den optimierten Hyperparametern ausgeführt wird, bis eine Veränderung der Leistungsfähigkeit kleiner als ein vorgebbarer Wert oder ein Budget aufgebraucht ist. Der Vorteil hierbei ist, dass der Hyperparameteroptimierer abhängig von Erfahrungen die neuen Werte vorschlägt und damit iterativ eine Verbesserung der Leistungsfähigkeit erzielt. Das Budget kann ein Rechenleistungs- oder Zeitbudget sein.
- Es wird weiterhin vorgeschlagen, dass der Hyperparameteroptimierer BOHB (Bayesian Optimization and Hyperband) ist. Für mehr Details, siehe Falkner et al. BOHB: Robust and Efficient Hyperparameter Optimization at Scale, online abrufbar: https://arxiv.org/pd1/1807.01774.pdf. Alternativ zu BOHB kann auch ,Grid Search` oder,Random Search‘ oder andere Hyperparameteroptimierer verwendet werden. BOBH hat den Vorteil, dass mit wenigen Stichproben eine Konvergenz eintritt, wodurch das Verfahren besonders computerressourceneffizient wird.
- Es wird weiterhin vorgeschlagen, dass die Regularisierungsmethoden wiederum parametrisierbar sind, wobei zu den zweiten Hyperparametern jeweils weitere Hyperparameter zugeordnet sind, die dem jeweiligen zweiten Hyperparameter zugeordnete Regularisierungsmethode parametrisieren. Der Vorteil hierbei ist, dass neben der Optimierung über die Regularisierungsmethoden auch die Regularisierungsmethoden als solche optimiert werden.
- Es wird weiterhin vorgeschlagen, dass die Mehrzahl der Regularisierungsmethoden aus einer Liste umfassend die folgenden Regularisierungsmethoden ausgewählt werden: Dropout, Weight Decay, Batch Normalization, Mixup, Shake-Shake und ähnlichem Methoden.
- Besonderes bevorzugt wird zumindest Weight Decay und Batch Normalization als Regularisierungsmethoden verwendet. Denn es hat sich herausgestellt, dass diese Kombination aus Regularisierungsmethoden besonders zuverlässig gute Ergebnisse bei Anwendung auf unterschiedlichste Trainingsdatensätze geliefert hat.
- Es wird weiterhin vorgeschlagen, dass das maschinelle Lernsystem ein neuronales Netz, insbesondere residuales neuronales Netz (engl. residual neural network) ist.
- Vorteilhaft hierbei ist, dass anhand dieses Verfahrens es erstmals ermöglicht wird, dass eine Generalisierung auf kleinen Trainingsdatensätzen für neuronale Netze zu erreichen. Denn üblicherweise benötigen neuronale Netze sehr große Datensätze.
- Weiterhin wird vorgeschlagen, dass das angelernte maschinelle Lernsystem nach dem ersten Aspekt für computerbasiertes Sehen (engl. computer vision), insbesondere für Bildklassifikationen, verwendet wird
- Weiterhin wird vorgeschlagen, dass das angelernte maschinelle Lernsystem abhängig von einer erfassten Sensorgröße eines Sensors eine Ausgangsgröße ermittelt, die daraufhin zum Ermitteln einer Steuergröße mittels einer Steuereinheit verwendet werden kann.
- Die Steuergröße kann zum Steuern eines Aktors eines technischen Systems verwendet werden. Das technische System kann zum Beispiel eine zumindest teilautonome Maschine, ein zumindest teilautonomes Fahrzeug, ein Roboter, ein Werkzeug, eine Werkmaschine oder ein Flugobjekt wie eine Drohne sein. Die Eingangsgröße kann bspw. abhängig von erfassten Sensordaten ermittelt und dem maschinellen Lernsystem bereitgestellt werden. Die Sensordaten können von einem Sensor, wie z.B. einer Kamera, des technischen Systems erfasst oder alternativ von extern empfangen werden.
- In weiteren Aspekten betrifft die Erfindung eine Vorrichtung sowie ein Computerprogramm, die jeweils eingerichtet sind, die obigen Verfahren auszuführen und ein maschinenlesbares Speichermedium, auf dem dieses Computerprogramm gespeichert ist.
- Nachfolgend werden Ausführungsformen der Erfindung unter Bezugnahme auf die beiliegenden Zeichnungen näher erläutert. In den Zeichnungen zeigen:
-
1 schematisch ein Flussdiagramm einer Ausführungsform der Erfindung; -
2 schematisch ein Ausführungsbeispiel zur Steuerung eines wenigstens teilautonomen Roboters; -
3 schematisch ein Ausführungsbeispiel zur Steuerung eines Fertigungssystems; -
4 schematisch ein Ausführungsbeispiel zur Steuerung eines Zugangssystems; -
5 schematisch ein Ausführungsbeispiel zur Steuerung eines Überwachungssystems; -
6 schematisch ein Ausführungsbeispiel zur Steuerung eines persönlichen Assistenten; -
7 schematisch ein Ausführungsbeispiel zur Steuerung eines medizinisch bildgebenden Systems; - Beschreibung der Ausführungsbeispiele
- Aus dem Stand der Technik sind folgende Regularisierungsmethoden bekannt:
- - Dropout: Hierbei werden Teile des maschinellen Lernsystems, z.B. bei einem neuronalen Netz seine Neuronen, zufällig deaktiviert. Es hilft bei der Reduzierung der Überanpassung durch zufälliges Aussetzen von z.B. Neuronen mit einer Aussetzwahrscheinlichkeit pl.
- - Weight Decay: Hierbei wird eine Skalierung von Parametern des maschinellen Lernsystems skaliert. Für ein neuronales Netz können dessen Gewichte W wie folgt angepasst werden:
- Weight Decay benachteiligt damit effektiv Parameter mit großen Werten und zwingt damit das neuronale Netz zur Verwendung von kleinen Werten für seine Parameter.
- - Batch Normalization: hierfür werden mehrere Trainingseingangsgrößen zusammengefasst und innerhalb des maschinellen Lernsystems werden abhängig von diesen mehr Trainingseingangsgrößen statistische Verschiebungen der Zwischenergebnisse des maschinellen Lernsystems durchgeführt.
- - Mixup: hierbei werden die Trainingsdaten interpoliert. Diese Regularisierungsmethode basiert darauf, dass linear zwischen einzelnen Trainingseingangsdaten sowie deren zugeordneten Trainingsausgangsdaten interpoliert wird:
- - Shake-shake: Diese Regularisierungsmethode erweitert die internen Darstellungen des maschinellen Lernsystems mit mehreren Verzweigungen, z.B. residuale neurale Netze. Es ersetzt die Standardsummierung paralleler Zweige durch eine stochastische affine Kombination wie folgt:
- Shake-Shake kann als eine Methode zur Datenvergrößerung aufgefasst werden, die verkleinerte interne Darstellungen kombiniert.
- Ferner sind aus dem Stand der Technik Hyperparameteroptimierer für maschinelles Lernen bekannt. Hyperparameter können sein: eine Lernrate α, Batch-Größe, Optimizer (SGD, ADAM, usw.). Im nachfolgenden wird vorgeschlagen, dass jeweils die einzelnen Regularisierungsmethoden sowie deren Parameter jeweils auch als Hyperparameter definiert werden. Die Hyperparameter für die Regularisierungstechniken sind vorzugsweise binär.
- Um eine gute Hyperparameterkonfiguration zu finden, müssen die Hyperparameter optimiert werden. Die Hyperparameter-Optimierung kann unter Verwendung verschiedener Verfahren durchgeführt werden, die als Hyperparameter-Optimierungsalgorithmen, kurz: Hyperparameteroptimierer, bezeichnet werden. Die einfachsten Verfahren unter allen sind ,Grid Search‘ und ,Random Search‘, wobei letztere den Suchraum effizienter erkundet. Darüber hinaus hat sich gezeigt, dass Bayes'sche Optimierungsansätze wie SMAC und Spearmint bei Hyperparameter-Konfigurations-Benchmarks bessere Ergebnisse erzielen. Schließlich hat eine von Falkner et al. vorgeschlagene Kombination von Hyperband- und Bayes'scher Optimierung zu signifikanten Verbesserungen und guten Ergebnissen zu jeder Zeit geführt. Für diese Erfindung wird vorzugsweise BOHB verwendet. Für mehr Details zu BOBH, siehe Publikation von Stefan Falkner, Aaron Klein und Frank Hutter. BOBH: Robuste und effiziente Hyperparameter-Optimierung, arXiv preprint arXiv:1807.01774, 2018.
- Im Folgenden wird nun ein Verfahren vorgeschlagen, bei welchem die Regularisierungsmethode automatisiert mittels des Hyperparameteroptimierers ausgewählt werden, um effizient eine Überanpassung des maschinellen Lernsystems auf seine Trainingsdaten zu vermeiden und damit eine besonders gute Generalisierung zu erzielen.
- Wie bereits erwähnt, werden die Regularisierungsmethoden jeweils als Hyperparameter beim Anlernen dargestellt. Vorzugsweise sind diese Hyperparameter binär und geben an, ob die jeweilige Regelarisierungsmethode verwendet oder nicht verwendet wird.
- Dieses Verfahren (
20 ) ist schematisch in1 gezeigt. - Das Verfahren beginnt mit Schritt S21. In diesem Schritt wird eine Mehrzahl von Regularisierungsmethoden bestimmt, welche zum Anlernen des maschinellen Lernsystems verwendet werden können.
- Daraufhin folgt Schritt S21. Hierin werden erste Hyperparameter definiert, welche ein Anlernverfahren für das maschinelle Lernsystem parametrisieren, und zweite Hyperparameter definiert, welche jeweils einer der Mehrzahl der Regularisierungsmethoden zugeordnet sind. Die zweiten Hyperparameter charakterisieren, ob ihre jeweils zugeordnete Regularisierungsmethode beim Anlernen des maschinellen Lernsystems verwendet wird oder nicht und sind wie bereits erwähnt vorzugsweise binär.
- Daraufhin folgt Schritt S22. Hierin werden die Hyperparameter mittels eines Hyperparameteroptimierers optimiert.
In Schritt S22 kann zuerst mehrmals ein Anlernen des maschinellen Lernsystems mittels des Anlernverfahrens, welches jeweils mit unterschiedlichen Werten für die Hyperparameter parametrisiert ist, unter Verwendung der Regularisierungsmethoden abhängig von den zweiten Hyperparametern, durchgeführt werden und jeweils eine Leistungsfähigkeit des unterschiedlich angelernten maschinellen Lernsystems ermittelt werden. Dann kann abhängig von den ermittelten Leistungsfähigkeiten mittels des Hyperparameteroptimierers optimierte Werte der ersten und zweiten Hyperparameter ermittelt werden. Vorzugsweise wird das mehrmalige Anlernen mit unterschiedlichen Hyperparameter nacheinander oder parallel ausgeführt, wobei das gleiche maschinelle Lernsystem angelernt wird, ggf. jedes Mal neu initialisiert. - Für das Anlernen kann ein Lernraten-Scheduler verwendet werden, wobei ein zusätzlicher Hyperparameter hinzugefügt werden kann, der den Lernraten-Scheduler charakterisiert. Für den Fall, dass ein Kosinusabfall mit/ohne Neustarts und exponentiellen Zerfall für den Lernraten-Scheduler verwendet wird, kann der Kosinusabfall als zusätzlicher Hyperparameter herangezogen werden.
- Daraufhin folgt Schritt S23. In diesem Schritt wird das maschinelle Lernsystem abschließend angelernt, vorzugsweise wird das Anlernen des maschinellen Lernsystems mittels des Anlernverfahrens, welches mit den optimierten Werten der Hyperparametern parametrisiert ist, unter Verwendung der Regularisierungsmethoden abhängig von den zweiten Hyperparametern durchgeführt.
- Nachdem Schritt S22 oder S23 beendet wurde, kann das angelernte maschinelle Lernsystem beispielsweise zum Steuern eines Aktors eines technischen Systems verwendet werden. Der Aktor kann dann abhängig von einer ermittelten Ausgangsgröße des angelernten maschinellen Lernsystem gesteuert werden. Hierfür kann das maschinelle Lernsystem Sensorsignale als Eingangsgröße erhalten. Hierfür wird vorzugsweise in regelmäßigen zeitlichen Abständen eine Umgebung mit einem Sensor, insbesondere einem bildgebenden Sensor wie einem Videosensor, erfasst, der auch durch eine Mehrzahl von Sensoren gegeben sein kann, beispielsweise eine Stereokamera. Auch andere bildgebende Sensoren sind denkbar, wie beispielsweise Radar, Ultraschall oder Lidar. Auch eine Wärmebildkamera ist denkbar. Das Sensorsignal S - bzw. im Fall mehrerer Sensoren je ein Sensorsignal S - des Sensors (in
2 : Sensor30 ), wird an ein Steuerungssystem (in2 : Steuerungssystem40 ) übermittelt. Das Steuerungssystem empfängt somit eine Folge von Sensorsignalen. Das Steuerungssystem ermittelt abhängig von der ermittelten Ausgangsgröße des maschinellen Lernsystems (in2 : maschinelle Lernsystem60 ) hieraus Ansteuersignale, welche an den Aktor (in2 : Aktor10 ) übertragen werden. - Hierfür kann das maschinelle Lernsystem aus den Eingangsbildern x Ausgangsgrößen y ermitteln. Diese Ausgangsgrößen y können insbesondere eine Klassifikation und/oder semantische Segmentierung der Eingangsbilder x umfassen. Ausgangsgrößen y werden einer optionalen Umformeinheit zugeführt, die hieraus Ansteuersignale ermittelt, welche dem Aktor zugeführt werden, um den Aktor
10 entsprechend anzusteuern. Ausgangsgröße y umfasst Informationen über Objekte, die der Sensor30 erfasst hat. - Der Aktor empfängt die Ansteuersignale, wird entsprechend angesteuert und führt eine entsprechende Aktion aus. Der Aktor kann hierbei eine (nicht notwendigerweise baulich integrierte) Ansteuerlogik umfassen, welches aus dem Ansteuersignal A ein zweites Ansteuersignal ermittelt, mit dem dann der Aktor angesteuert wird.
- In weiteren Ausführungsformen umfasst das Steuerungssystem den Sensor. In noch weiteren Ausführungsformen umfasst das Steuerungssystem alternativ oder zusätzlich auch den Aktor.
-
2 zeigt, wie das Steuerungssystem40 zur Steuerung eines wenigstens teilautonomen Roboters, hier eines wenigstens teilautonomen Kraftfahrzeugs100 , eingesetzt werden kann. - Bei dem Sensor
30 kann es sich beispielsweise um einen vorzugsweise im Kraftfahrzeug100 angeordneten Videosensor handeln. - Das maschinelle Lernsystem
60 ist eingerichtet, aus den Eingangsbildern x Objekte sicher zu identifizieren. - Bei dem vorzugsweise im Kraftfahrzeug
100 angeordneten Aktor10 kann es sich beispielsweise um eine Bremse, einen Antrieb oder eine Lenkung des Kraftfahrzeugs100 handeln. Das Ansteuersignal kann dann derart ermittelt werden, dass der Aktor oder die Aktoren10 derart angesteuert wird, dass das Kraftfahrzeug100 beispielsweise eine Kollision mit den vom maschinellen Lernsystem60 sicher identifizierten Objekte verhindert, insbesondere, wenn es sich um Objekte bestimmter Klassen, z.B. um Fußgänger, handelt. - Alternativ kann es sich bei dem wenigstens teilautonomen Roboter auch um einen anderen mobilen Roboter (nicht abgebildet) handeln, beispielsweise um einen solchen, der sich durch Fliegen, Schwimmen, Tauchen oder Schreiten fortbewegt. Bei dem mobilen Roboter kann es sich beispielsweise auch um einen wenigstens teilautonomen Rasenmäher oder einen wenigstens teilautonomen Putzroboter handeln. Auch in diesen Fällen kann das Ansteuersignal A derart ermittelt werden, dass Antrieb und/oder Lenkung des mobilen Roboters derart angesteuert werden, dass der wenigstens teilautonome Roboter beispielsweise eine Kollision mit vom maschinellen Lernsystem
60 identifizierten Objekten verhindert. - Alternativ oder zusätzlich kann mit dem Ansteuersignal A die Anzeigeeinheit
10a angesteuert werden, und beispielsweise die ermittelten sicheren Bereiche dargestellt werden. Auch ist es beispielsweise beim einem Kraftfahrzeug100 mit nicht automatisierter Lenkung möglich, dass die Anzeigeeinheit10a mit dem Ansteuersignal A derart angesteuert wird, dass sie ein optisches oder akustisches Warnsignal ausgibt, wenn ermittelt wird, dass das Kraftfahrzeug100 droht, mit einem der sicher identifizierten Objekte zu kollidieren. - In weiteren bevorzugten Ausführungsformen umfasst das Steuerungssystem
40 eine Ein- oder Mehrzahl von Prozessoren45 und wenigstens ein maschinenlesbares Speichermedium46 , auf dem Anweisungen gespeichert sind, die dann, wenn sie auf den Prozessoren45 ausgeführt werden, das Steuerungssystem40 veranlassen, das erfindungsgemäße Verfahren auszuführen. - In alternativen Ausführungsformen ist alternativ oder zusätzlich zum Aktor
10 eine Anzeigeeinheit10a vorgesehen. -
3 zeigt ein Ausführungsbeispiel, in dem das Steuerungssystem40 zur Ansteuerung einer Fertigungsmaschine11 eines Fertigungssystems200 verwendet wird, indem ein diese Fertigungsmaschine11 steuernder Aktor10 angesteuert wird. Bei der Fertigungsmaschine11 kann es sich beispielsweise um eine Maschine zum Stanzen, Sägen, Bohren und/oder Schneiden handeln. - Bei dem Sensor
30 kann es sich dann beispielsweise um einen optischen Sensor handeln, der z.B. Eigenschaften von Fertigungserzeugnissen12a ,12b erfasst. Es ist möglich, dass diese Fertigungserzeugnisse12a ,12b beweglich sind. Es ist möglich, dass der die Fertigungsmaschine11 steuernde Aktor10 abhängig von einer Zuordnung der erfassten Fertigungserzeugnisse12a ,12b angesteuert wird, damit die Fertigungsmaschine11 entsprechend einen nachfolgenden Bearbeitungsschritt des richtigen der Fertigungserzeugnisses12a ,12b ausführt. Es ist auch möglich, dass durch Identifikation der richtigen Eigenschaften desselben der Fertigungserzeugnisse12a ,12b (d.h. ohne eine Fehlzuordnung) die Fertigungsmaschine11 entsprechend den gleichen Fertigungsschritt für eine Bearbeitung eines nachfolgenden Fertigungserzeugnisses anpasst. -
4 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem40 zur Steuerung eines Zugangssystems300 eingesetzt wird. Das Zugangssystem300 kann eine physische Zugangskontrolle, beispielsweise eine Tür401 umfassen. Videosensor30 ist eingerichtet ist, eine Person zu erfassen. Mittels des Objektidentifikationssystem60 kann dieses erfasste Bild interpretiert werden. Sind mehrere Personen gleichzeitig erfasst, kann durch eine Zuordnung der Personen (also der Objekte) zueinander beispielweise die Identität der Personen besonders zuverlässig ermittelt werden, beispielsweise durch eine Analyse ihrer Bewegungen. Der Aktor10 kann ein Schloss sein, dass abhängig vom Ansteuersignal A die Zugangskontrolle freigibt, oder nicht, beispielsweise die Tür401 öffnet, oder nicht. Hierzu kann das Ansteuersignal A abhängig von der der Interpretation des Objektidentifikationssystem60 gewählt werden, beispielsweise abhängig von der ermittelten Identität der Person. An Stelle der physischen Zugangskontrolle kann auch eine logische Zugangskontrolle vorgesehen sein. -
5 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem40 zur Steuerung eines Überwachungssystems400 verwendet wird. Von dem in5 dargestellten Ausführungsbeispiel unterscheidet sich dieses Ausführungsbeispiel dadurch, dass an Stelle des Aktors10 die Anzeigeeinheit10a vorgesehen ist, die vom Steuerungssystem40 angesteuert wird. Beispielsweise kann vom künstlichen neuronalen Netz60 zuverlässig eine Identität der vom Videosensor30 aufgenommenen Gegenstände ermittelt werden, um abhängig davon z.B. darauf zu schließen, welche verdächtig werden, und das Ansteuersignal A dann derart gewählt werden, dass dieser Gegenstand von der Anzeigeeinheit10a farblich hervorgehoben dargestellt wird. -
6 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem40 zur Steuerung eines persönlichen Assistenten250 eingesetzt wird. Der Sensor30 ist bevorzugt ein optischer Sensor, der Bilder einer Geste eines Nutzers249 empfängt. - Abhängig von den Signalen des Sensors
30 ermittelt das Steuerungssystem40 ein Ansteuersignal A des persönlichen Assistenten250 , beispielsweise, indem das neuronale Netz eine Gestenerkennung durchführt. Dem persönlichen Assistenten250 wird dann dieses ermittelte Ansteuersignal A übermittelt und er somit entsprechend angesteuert. Dieses ermittelte Ansteuersignal A ist kann insbesondere derart gewählt werden, dass es einer vermuteten gewünschten Ansteuerung durch den Nutzer249 entspricht. Diese vermutete gewünschte Ansteuerung kann abhängig von der vom künstlichen neuronalen Netz60 erkannten Geste ermittelt werden. Das Steuerungssystem40 kann dann abhängig von der vermuteten gewünschten Ansteuerung das Ansteuersignal A zur Übermittlung an den persönlichen Assistenten250 wählen und/oder das Ansteuersignal A zur Übermittlung an den persönlichen Assistenten entsprechend der vermuteten gewünschten Ansteuerung250 wählen. - Diese entsprechende Ansteuerung kann beispielsweise beinhalten, dass der persönliche Assistent
250 Informationen aus einer Datenbank abruft und sie für den Nutzer249 rezipierbar wiedergibt. - Anstelle des persönlichen Assistenten
250 kann auch ein Haushaltsgerät (nicht abgebildet), insbesondere eine Waschmaschine, ein Herd, ein Backofen, eine Mikrowelle oder eine Spülmaschine vorgesehen sein, um entsprechend angesteuert zu werden. -
7 zeigt ein Ausführungsbeispiel, bei dem das Steuerungssystem40 zur Steuerung eines medizinischen bildgebenden System500 , beispielsweise eines MRT-, Röntgen- oder Ultraschallgeräts, verwendet wird. Der Sensor30 kann beispielsweise durch einen bildgebenden Sensor gegeben sein, durch das Steuerungssystem40 wird die Anzeigeeinheit10a angesteuert. Beispielsweise kann vom neuronalen Netz60 ermittelt werden, ob ein vom bildgebenden Sensor aufgenommener Bereich auffällig ist, und das Ansteuersignal A dann derart gewählt werden, dass dieser Bereich von der Anzeigeeinheit10a farblich hervorgehoben dargestellt wird.
Claims (10)
- Vorrichtung (01) zum Anlernen eines maschinellen Lernsystems (60), wobei die Vorrichtung ein maschinenlesbares Speichermedium umfasst, auf dem Befehle gespeichert sind, die beim Ausführen durch einen Computer bewirkten, dass der Computer ein Verfahren mit folgenden Schritte ausführt: Bestimmen (S21) einer Mehrzahl von Regularisierungsmethoden, welche zum Anlernen des maschinellen Lernsystems (60) verwendet werden können; Definieren (S22) von ersten Hyperparametern, welche ein Anlernverfahren für das maschinelle Lernsystem parametrisieren, und zweite Hyperparameter, welche jeweils einer der Mehrzahl der Regularisierungsmethoden zugeordnet sind, wobei die zweiten Hyperparameter charakterisieren, ob ihre zugeordnete Regularisierungsmethode beim Anlernen des maschinellen Lernsystems (60) verwendet wird oder nicht; Optimieren (S23) der Hyperparameter mittels eines Hyperparameteroptimierers, wobei beim Optimieren der Hyperparameter mehrmals ein Anlernen des maschinellen Lernsystems (60) mittels des Anlernverfahrens, welches jeweils mit unterschiedlichen Werten der ersten Hyperparameter parametrisiert ist, unter Verwendung der Regularisierungsmethoden abhängig von den zweiten Hyperparametern, durchgeführt wird und jeweils eine Leistungsfähigkeit des unterschiedlich angelernten maschinellen Lernsystems (60) ermittelt wird, wobei dann abhängig von den ermittelten Leistungsfähigkeiten mittels des Hyperparameteroptimierers optimierte Werte der ersten und zweiten Hyperparameter ermittelt werden; und Anlernen (S24) des maschinellen Lernsystems (60) mittels des Anlernverfahrens, welches mit den optimierten Werten der ersten Hyperparameter parametrisiert ist, unter Verwendung der Regularisierungsmethoden abhängig von den zweiten Hyperparametern.
- Vorrichtung (01) nach
Anspruch 1 , wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass mehrmals nacheinander die Schritte des Optimierens der Werte der Hyperparameter und des Anlernens des maschinellen Lernsystem mit den optimierten ersten und zweiten Hyperparametern ausgeführt wird, bis eine Veränderung der Leistungsfähigkeit kleiner als ein vorgebbarer Wert oder ein Budget aufgebraucht ist. - Vorrichtung (01) nach einem der vorhergehenden Ansprüche, wobei der Hyperparameteroptimierer BOHB (Bayesian Optimization and Hyperband) ist.
- Vorrichtung (01) nach einem der vorhergehenden Ansprüche, wobei die Regularisierungsmethoden parametrisiert sind, wobei zu den zweiten Hyperparametern jeweils weitere Hyperparameter zugeordnet sind, die dem jeweiligen zweiten Hyperparameter zugeordnete Regularisierungsmethode parametrisieren.
- Vorrichtung (01) nach einem der vorhergehenden Ansprüche, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass die Mehrzahl der Regularisierungsmethoden aus einer Liste von Regularisierungsmethoden bestimmt wird: Dropout, Weight Decay, Batch Normalization, Mixup, Shake-Shake, L1/L2-Regularisierung.
- Vorrichtung (01) nach
Anspruch 5 , wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass zumindest Weight Decay, Batch Normalization als Regularisierungsmethoden bestimmt werden. - Vorrichtung (01) nach einem der vorhergehenden Ansprüche, wobei das maschinelle Lernsystem ein neuronales Netz.
- Vorrichtung (01) nach einem der vorhergehenden Ansprüche, wobei das neuronale Netz ein insbesondere residuales neurales Netz ist.
- Vorrichtung (01) nach einem der vorhergehenden Ansprüche, wobei das maschinelle Lernsystem ein Bildklassifikator ist.
- Vorrichtung (01) nach einem der vorhergehenden Ansprüche, wobei die gespeicherten Befehle derart ausgebildet sind, dass das Verfahren, das der Computer ausführt, wenn diese Befehle auf dem Computer ausgeführt werden, derart abläuft, dass das Anlernverfahren zum Ermitteln einer Kostenfunktion (engl. loss function) entweder eine One-Hot Kodierung oder ein Embedding der ermittelten Ausgangsgrößen des maschinellen Lernsystems (60) verwendet.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202020105509.7U DE202020105509U1 (de) | 2020-09-25 | 2020-09-25 | Vorrichtung zum Anlernen eines maschinellen Lernsystems |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE202020105509.7U DE202020105509U1 (de) | 2020-09-25 | 2020-09-25 | Vorrichtung zum Anlernen eines maschinellen Lernsystems |
Publications (1)
Publication Number | Publication Date |
---|---|
DE202020105509U1 true DE202020105509U1 (de) | 2020-10-16 |
Family
ID=73052728
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE202020105509.7U Active DE202020105509U1 (de) | 2020-09-25 | 2020-09-25 | Vorrichtung zum Anlernen eines maschinellen Lernsystems |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE202020105509U1 (de) |
-
2020
- 2020-09-25 DE DE202020105509.7U patent/DE202020105509U1/de active Active
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102019209565A1 (de) | Verfahren und Vorrichtung zum Überprüfen der Robustheit eines künstlichen neuronalen Netzes | |
DE102020210352A1 (de) | Verfahren und Vorrichtung zum Transferlernen zwischen modifizierten Aufgaben | |
DE102020212515A1 (de) | Verfahren und Vorrichtung zum Trainieren eines maschinellen Lernsystems | |
DE102019214625A1 (de) | Verfahren, Vorrichtung und Computerprogramm zum Erstellen eines künstlichen neuronalen Netzes | |
DE102020211262A1 (de) | Verfahren und Vorrichtung zum Komprimieren eines neuronalen Netzes | |
DE202020104238U1 (de) | Vorrichtung zum Lernen einer Strategie und Betreiben der Strategie | |
WO2020260016A1 (de) | Verfahren und vorrichtung zum trainieren eines maschinellen lernsystems | |
DE202019105304U1 (de) | Vorrichtung zum Erstellen eines künstlichen neuronalen Netzes | |
DE102019202523A1 (de) | Verfahren und Vorrichtung zum Betreiben eines Steuerungssystems | |
DE202020104005U1 (de) | Vorrichtung zum Erstellen eines Systems zum automatisierten Erstellen von maschinellen Lernsystemen | |
DE102018218834A1 (de) | Verfahren und Vorrichtung zum Ermitteln eines Ansteuersignals | |
DE102022201679A1 (de) | Verfahren und Vorrichtung zum Trainieren eines neuronalen Netzes | |
DE202020105509U1 (de) | Vorrichtung zum Anlernen eines maschinellen Lernsystems | |
DE202022101997U1 (de) | Vorrichtung zum gemeinsamen Ermitteln einer optimalen Architektur eines neuronalen Netzes und optimalen Hyperparametern zum Anlernen des neuronalen Netzes | |
DE102018211875A1 (de) | Verfahren und Vorrichtung zum Betreiben eines Steuerungssystems | |
DE202021105192U1 (de) | Vorrichtung zum maschinellen Lernen aus einer geringen Anzahl von Trainingsdatenbeispielen | |
DE102020212108A1 (de) | Verfahren und Vorrichtung zum Anlernen eines maschinellen Lernsystems | |
DE102021204040A1 (de) | Verfahren, Vorrichtung und Computerprogramm zur Erstellung von Trainingsdaten im Fahrzeug | |
DE102020212514A1 (de) | Verfahren zur Ermittlung eines Ausgabesignals mittels eines maschinellen Lernsystems | |
DE102020208828A1 (de) | Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems | |
DE102020208309A1 (de) | Verfahren und Vorrichtung zum Erstellen eines maschinellen Lernsystems | |
DE102020203998A1 (de) | Verfahren und Vorrichtung zum Betreiben eines Klassifikators | |
DE202020104727U1 (de) | Vorrichtung zum Transferlernen zwischen modifizierten Aufgaben | |
DE102018216078A1 (de) | Verfahren und Vorrichtung zum Betreiben eines Steuerungssystems | |
WO2020126379A1 (de) | Verfahren und vorrichtung zum klassifizieren von sensordaten und zum ermitteln eines ansteuersignals zum ansteuern eines aktors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R207 | Utility model specification | ||
R150 | Utility model maintained after payment of first maintenance fee after three years |