DE102021126378A1 - Method and control arrangement for the combined training of a vehicle fleet - Google Patents
Method and control arrangement for the combined training of a vehicle fleet Download PDFInfo
- Publication number
- DE102021126378A1 DE102021126378A1 DE102021126378.6A DE102021126378A DE102021126378A1 DE 102021126378 A1 DE102021126378 A1 DE 102021126378A1 DE 102021126378 A DE102021126378 A DE 102021126378A DE 102021126378 A1 DE102021126378 A1 DE 102021126378A1
- Authority
- DE
- Germany
- Prior art keywords
- vehicles
- sub
- model parameters
- module
- fleet
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/098—Distributed learning, e.g. federated learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Traffic Control Systems (AREA)
Abstract
Die vorliegende Offenbarung schlägt ein Verfahren und eine Steueranordnung für das Verbundtraining einer Flotte 100 von Fahrzeugen 1 vor. Das Verfahren umfasst das Unterteilen S1, S3 von Fahrzeugen der Flotte 100 in mehrere erste Teilmengen VA, VB und zweite Teilmengen DA, DB. Das Verfahren umfasst auch das Empfangen S4 von angepassten Modellparametern und das Aggregieren S6 von angepassten Modellparametern des ersten Untermoduls unter Fahrzeugen, die zu derselben ersten Teilmenge gehören, und das Aggregieren S7 von angepassten Modellparametern des zweiten Untermoduls unter Fahrzeugen, die zu derselben zweiten Teilmenge gehören. Das Verfahren umfasst ferner das Versehen S8 einzelner Fahrzeuge mit ersten aggregierten angepassten Modellparametern p31xdes ersten Untermoduls 31 auf der Grundlage einer ersten Teilmenge VX, zu der die jeweiligen Fahrzeuge gehören, und zweiten aggregierten angepassten Modellparametern p32ydes zweiten Untermoduls 32 auf der Grundlage einer zweiten Teilmenge DY, zu der die jeweiligen Fahrzeuge 1 ebenfalls gehören.The present disclosure proposes a method and control arrangement for federated training of a fleet 100 of vehicles 1 . The method includes the subdivision S1, S3 of vehicles of the fleet 100 into several first subsets VA, VB and second subsets DA, DB. The method also includes receiving S4 adjusted model parameters and aggregating S6 adjusted model parameters of the first sub-module among vehicles belonging to the same first subset, and aggregating S7 adjusted model parameters of the second sub-module among vehicles belonging to the same second subset. The method further includes providing S8 individual vehicles with first aggregated customized model parameters p31x of the first sub-module 31 based on a first subset VX to which the respective vehicles belong, and second aggregated customized model parameters p32y of the second sub-module 32 based on a second subset DY, to which the respective vehicles 1 also belong.
Description
Technisches Gebiettechnical field
Die vorliegende Offenbarung betrifft maschinelles Lernen. Insbesondere betrifft die Offenbarung ein Verfahren und eine Steueranordnung für das Verbundtraining einer Fahrzeugflotte. Die Offenbarung betrifft ferner ein Computerprogramm, ein computerlesbares Medium und ein Fahrzeug.The present disclosure relates to machine learning. In particular, the disclosure relates to a method and a control arrangement for collaborative training of a fleet of vehicles. The disclosure further relates to a computer program, a computer-readable medium, and a vehicle.
Hintergrundbackground
Verbund- oder kollaboratives Lernen ist ein verteiltes maschinelles Lernverfahren, bei dem ein Algorithmus oder ein Modell durch mehrere Geräte trainiert wird, während die Daten auf jedem einzelnen Gerät verbleiben. Der Artikel „Communication-Efficient Learning of Deep Networks from Decentralized Data“ von H. Brendan McMahan, Eider Moore, Daniel Ramage, Seth Hampson, Blaise Agüera y Arcas, 2017 prägte den Begriff des Verbundlernens und zeigte große Erfolge bei der Anwendung dieses Verfahrens mit tiefen neuronalen Netzen (deep neural network, DNN). Verbundlernen wird auf IoT-Geräten (Internet of Things, Internet der Dinge), auch Randgeräte genannt, eingesetzt. In einem Fahrzeug könnte ein Randgerät ein Steuergerät (Electronic Control Unit, ECU) sein.Federated or collaborative learning is a distributed machine learning technique in which an algorithm or model is trained by multiple devices while the data resides on each individual device. The article "Communication-Efficient Learning of Deep Networks from Decentralized Data" by H. Brendan McMahan, Eider Moore, Daniel Ramage, Seth Hampson, Blaise Agüera y Arcas, 2017 coined the term of collaborative learning and showed great success in the application of this method deep neural networks (DNN). Federated learning is deployed on Internet of Things (IoT) devices, also known as edge devices. In a vehicle, an edge device could be an electronic control unit (ECU).
Ein grundlegender Algorithmus für Verbundlernen ist FedAvg (Federated Averaging). Bei der föderierten Mittelwertbildung initiiert ein zentraler Server ein Modell und sendet dieses an eine Vielzahl von Randgeräten. Jedes Randgerät trainiert sein jeweiliges Modell und sendet die angepassten Modellparameter aus dem Training zurück an einen zentralen Server. Der zentrale Server mittelt alle eingehenden Modellparameter und sendet diese dann zurück an alle beteiligten Geräte zur Verwendung in den jeweiligen Randgeräten. Ein häufiges Problem besteht darin, dass die Daten eines einzelnen Randgeräts eine andere Datenverteilung aufweisen als die anderer Randgeräte, d. h. nicht identisch und nicht unabhängig sind (non-identical and non-independent, non-IID), was zu einer schlechten Leistung des Durchschnittsmodells führt. Um das Problem der non-IID-Daten zwischen Randgeräten zu lösen, schlagen die Autoren in dem Artikel „Federated Learning with Personalization Layers“, 2019, M.G. Arivazhagan, V. Aggarwal, A.K. Singh und S. Choudhary, ein Verfahren vor, bei dem nur ein Teil der DNN-Gewichte föderiert wird. In der Regel werden die Eingabeschicht und einige verborgene Schichten föderal trainiert, während die Endschichten und die Ausgabeschicht (von den Autoren als Personalisierungsschicht bezeichnet) nur in dem Randgerät trainiert werden. Das bedeutet, dass die grundlegenden Merkmale gemeinsam gelernt werden, während die komplexeren Merkmale auf jedes Gerät zugeschnitten und einzeln gelernt werden.A basic algorithm for federated learning is FedAvg (Federated Averaging). In federated averaging, a central server initiates a model and sends it to a variety of edge devices. Each edge device trains its respective model and sends the adjusted model parameters from the training back to a central server. The central server averages all incoming model parameters and then sends them back to all devices involved for use in the respective edge devices. A common problem is that the data from a single edge device has a different data distribution than that of other edge devices; H. are non-identical and non-independent (non-IID), resulting in poor performance of the average model. To solve the problem of non-IID data between edge devices, in the article "Federated Learning with Personalization Layers", 2019, M.G. Arivazhagan, V. Aggarwal, A.K. Singh and S. Choudhary propose a method in which only part of the DNN weights are federated. Typically, the input layer and some hidden layers are trained federally, while the tail layers and the output layer (called the personalization layer by the authors) are only trained in the edge device. This means that the basic features are learned together, while the more complex features are tailored to each device and learned individually.
Ein Problem beim Einsatz von Verbundtraining in Fahrzeugen besteht jedoch darin, Unterschiede sowohl in der Konfiguration, wie z. B. unterschiedlich gebaute Fahrzeuge, als auch in der Nutzung und im Betrieb der Fahrzeuge (d. h. unterschiedliche Datenverteilung) zu bewältigen und dabei trotzdem die Vorteile des Verbundtrainings zu nutzen.A problem with the use of compound training in vehicles, however, is that differences in both the configuration, e.g. B. differently built vehicles, as well as in the use and operation of the vehicles (i.e. different data distribution) and still use the advantages of the network training.
ZusammenfassungSummary
Aufgabe der Offenbarung ist es, wenigstens einige der Nachteile des Standes der Technik zu beseitigen. Es ist also Aufgabe dieser Offenbarung, Verbundtrainingsverfahren bereitzustellen, die sowohl mit unterschiedlich gebauten Fahrzeugen als auch mit unterschiedlicher Nutzung und unterschiedlichem Betrieb der Fahrzeuge (d. h. unterschiedlicher Datenverteilung) umgehen können.The object of the disclosure is to eliminate at least some of the disadvantages of the prior art. Thus, it is an object of this disclosure to provide federated training methods that can handle vehicles of different builds as well as different uses and operations of the vehicles (i.e., different data distribution).
Gemäß einem ersten Aspekt betrifft die Offenbarung ein Verfahren für das Verbundtraining einer Fahrzeugflotte. Das Verfahren umfasst das Unterteilen von Fahrzeugen der Flotte in mehrere erste Teilmengen von Fahrzeugen und das Unterteilen von Fahrzeugen der Flotte in mehrere sich von den ersten Teilmengen unterscheidenden zweite Teilmengen von Fahrzeugen. Das Verfahren umfasst ferner das Versehen von Fahrzeugen der Flotte mit jeweiligen maschinellen Lernmodellen, die die einzelnen Fahrzeuge repräsentieren, wobei jedes maschinelle Lernmodell ein erstes Untermodul und ein von dem ersten Untermodul unabhängiges zweites Untermodul umfasst und wobei das erste und das zweite Untermodul jeweilige Modellparameter umfassen, die angepasst werden, wenn das maschinelle Lernen in den Fahrzeugen fortschreitet. Das Verfahren umfasst ferner das Empfangen von angepassten Modellparametern des ersten und des zweiten Untermoduls, die in den jeweiligen Fahrzeugen erhalten wurden, von den Fahrzeugen der Flotte und das Aggregieren von angepassten Modellparametern des ersten Untermoduls bei Fahrzeugen, die zu derselben ersten Teilmenge gehören, und das Aggregieren von angepassten Modellparametern des zweiten Untermoduls bei Fahrzeugen, die zu derselben zweiten Teilmenge gehören. Das Verfahren umfasst ferner das Versehen einzelner Fahrzeuge der Flotte mit ersten aggregierten angepassten Modellparametern des ersten Untermoduls auf der Grundlage einer ersten Teilmenge, zu der die jeweiligen Fahrzeuge gehören, und mit zweiten aggregierten angepassten Modellparametern des zweiten Untermoduls auf der Grundlage einer zweiten Teilmenge, zu der die jeweiligen Fahrzeuge ebenfalls gehören. Dies ermöglicht effizientes maschinelles Lernen auch in einer Flotte mit einer Vielzahl von Fahrzeugen, die sich beispielsweise individuell in Konfiguration und Nutzung unterscheiden. Das vorgeschlagene Verfahren steigert die Leistung des maschinellen Lernens, das auf die Konfiguration und den Betrieb des einzelnen Fahrzeugs zugeschnitten werden kann. Mit der vorgeschlagenen Lösung wird ein modulares System für den Aufbau eines maschinellen Lernmodells in Abhängigkeit von dem Anwendungsfall eingeführt. Maschinelles Lernen hat viele Anwendungen in Fahrzeugen, und das vorgeschlagene Verfahren ist nicht auf einen bestimmten Bereich oder Anwendungsfall beschränkt.According to a first aspect, the disclosure relates to a method for collaborative training of a fleet of vehicles. The method includes dividing vehicles in the fleet into a plurality of first subsets of vehicles and dividing vehicles in the fleet into a plurality of second subsets of vehicles that differ from the first subsets. The method further includes providing vehicles in the fleet with respective machine learning models that represent the individual vehicles, each machine learning model comprising a first sub-module and a second sub-module independent of the first sub-module, and the first and second sub-modules comprising respective model parameters, which will be adjusted as machine learning progresses in vehicles. The method further includes receiving adjusted model parameters of the first and second sub-modules obtained in the respective vehicles from the vehicles of the fleet and aggregating adjusted model parameters of the first sub-module for vehicles belonging to the same first subset, and that Aggregating adjusted model parameters of the second sub-module at vehicles belonging to the same second subset. The method further includes providing individual vehicles of the fleet with first aggregated customized model parameters of the first sub-module based on a first subset to which the respective vehicles belong and second aggregated customized model parameters of the second sub-module based on a second subset to which the respective vehicles also belong. This enables efficient machine learning even in a fleet with a A large number of vehicles that differ individually, for example in terms of configuration and use. The proposed method increases the power of machine learning, which can be tailored to the configuration and operation of the individual vehicle. The proposed solution introduces a modular system for building a machine learning model depending on the use case. Machine learning has many applications in vehicles, and the proposed method is not limited to any particular area or use case.
In einigen Ausführungsformen umfasst das Verfahren das Unterteilen von Fahrzeugen der Flotte in mehrere erste Teilmengen auf der Grundlage der Ähnlichkeit der physikalischen Eigenschaften der Fahrzeuge. Dadurch kann die Leistung des maschinellen Lernens gesteigert werden, das auf die Konfiguration des einzelnen Fahrzeugs zugeschnitten ist. Das ist normalerweise machbar, da der Server, der das maschinelle Lernen durchführt, in der Regel die Konfigurationen der Fahrzeuge kennt.In some embodiments, the method includes dividing vehicles of the fleet into a plurality of first subsets based on the similarity in physical characteristics of the vehicles. This can increase the performance of machine learning tailored to the configuration of each vehicle. This is usually doable as the server running the machine learning usually knows the configurations of the vehicles.
In einigen Ausführungsformen umfasst das Verfahren das Unterteilen der Fahrzeuge der Flotte in mehrere zweite Teilmengen auf der Grundlage der Ähnlichkeit der derzeitigen Nutzung der Fahrzeuge. Dadurch kann das maschinelle Lernen bei Fahrzeugen mit ähnlicher Nutzung erfolgen, was von Vorteil ist, da die Nutzung lokale Minima der maschinellen Lernmodelle beeinflussen kann.In some embodiments, the method includes dividing the vehicles of the fleet into a plurality of second subsets based on the similarity of the vehicles' current usage. This allows machine learning to occur on vehicles with similar usage, which is beneficial as usage can affect local minima of the machine learning models.
In einigen Ausführungsformen basiert das Unterteilen der Fahrzeuge in zweite Teilmengen auf einem Ähnlichkeitsmaß der empfangenen angepassten Modellparameter. Auf diese Weise können Fahrzeuge mit ähnlicher Nutzung mit vertretbarem Aufwand identifiziert werden.In some embodiments, dividing the vehicles into second subsets is based on a similarity measure of the received adjusted model parameters. In this way, vehicles with similar use can be identified with reasonable effort.
In einigen Ausführungsformen umfassen die Modellparameter eines oder mehrere der folgenden Elemente: Gewichte und Eingabeparameter, Cluster, Koeffizienten und Moduldaten. Dies sind Beispiele für Parameter, die durch maschinelles Lernen angepasst werden können.In some embodiments, the model parameters include one or more of the following: weights and input parameters, clusters, coefficients, and modulus data. These are examples of parameters that can be adjusted using machine learning.
In einigen Ausführungsformen werden die angepassten Modellparameter des ersten und des zweiten Untermoduls von den Fahrzeugen in separate Blöcke aufgeteilt empfangen. Diesen Vorgang muss also nicht der Server durchführen, was den Prozess erleichtern kann.In some embodiments, the adjusted model parameters of the first and second sub-modules are received from the vehicles in separate blocks. The server does not have to do this, which can make the process easier.
In einigen Ausführungsformen werden die angepassten Modellparameter des ersten und des zweiten Untermoduls gemeinsam empfangen, wobei das Verfahren das Unterteilen der angepassten Modellparameter pro Untermodul umfasst. Für das Verfahren ist es daher nicht erforderlich, dass die Fahrzeuge die Meldung der angepassten Parameter pro Untermodul unterstützen.In some embodiments, the adjusted model parameters of the first and second sub-modules are received together, the method comprising dividing the adjusted model parameters per sub-module. The method therefore does not require the vehicles to support the reporting of the adjusted parameters per sub-module.
In einigen Ausführungsformen umfasst das Aggregieren die Berechnung von föderierten Mittelwerten der angepassten Modellparameter. Die Bildung föderierter Mittelwerte ist ein kommunikationseffizienter Algorithmus für das verteilte Training mit vielen Randgeräten.In some embodiments, aggregating includes calculating federated means of the fitted model parameters. Federated averaging is a communication-efficient algorithm for distributed training with many edge devices.
In einigen Ausführungsformen umfassen die Untermodule unabhängige Untermodelle mit strukturierten Schnittstellen dazwischen. Daher führen die Untermodule unabhängig voneinander Funktionen aus, ohne mit anderen Untermodulen zu interagieren.In some embodiments, the sub-modules comprise independent sub-models with structured interfaces between them. Therefore, the sub-modules perform functions independently without interacting with other sub-modules.
In einigen Ausführungsformen werden für die einzelnen Fahrzeuge der Flotte unterschiedliche maschinelle Lernmodelle bereitgestellt, je nachdem, zu welchen Teilmengen die einzelnen Fahrzeuge gehören. Dies ermöglicht maschinelles Lernen, während die Flexibilität bei der Gestaltung erhalten bleibt.In some embodiments, different machine learning models are provided for each vehicle in the fleet depending on which subset each vehicle belongs to. This enables machine learning while maintaining design flexibility.
Gemäß einem zweiten Aspekt betrifft die Offenbarung ein Verfahren zur Verwendung in einem Fahrzeug, um ein Verbundtraining einer Fahrzeugflotte zu ermöglichen. Das Verfahren umfasst das Empfangen eines maschinellen Lernmodells, das das Fahrzeug repräsentiert, von einem Server, wobei das maschinelle Lernmodell ein erstes Untermodul und ein von dem ersten Untermodul unabhängiges zweites Untermodul umfasst, wobei das erste und das zweite Untermodul jeweilige Modellparameter umfassen, die angepasst werden, wenn das maschinelle Lernen in dem Fahrzeug fortschreitet. Das Verfahren umfasst ferner das Trainieren des maschinellen Lernmodells in dem Fahrzeug und das Bereitstellen angepasster Modellparameter des ersten und des zweiten Untermoduls, die durch das Training erhalten wurden, an den Server. Das Verfahren umfasst ferner das Empfangen erster aggregierter aktualisierter Modellparameter von dem Server, die durch Aggregieren angepasster Modellparameter des ersten Untermoduls in einer ersten Teilmenge von Fahrzeugen erhalten werden, und zweiter aggregierter aktualisierter Modellparameter, die durch Aggregieren angepasster Modellparameter des zweiten Untermoduls in einer zweiten Teilmenge von Fahrzeugen erhalten werden.In a second aspect, the disclosure relates to a method for use in a vehicle to enable collaborative training of a fleet of vehicles. The method includes receiving a machine learning model representing the vehicle from a server, the machine learning model including a first sub-module and a second sub-module independent of the first sub-module, the first and second sub-modules including respective model parameters that are adjusted , as machine learning progresses in the vehicle. The method further includes training the machine learning model in the vehicle and providing adjusted model parameters of the first and second sub-modules obtained through the training to the server. The method further includes receiving from the server first aggregated updated model parameters obtained by aggregating adjusted model parameters of the first sub-module in a first subset of vehicles, and second aggregated updated model parameters obtained by aggregating adjusted model parameters of the second sub-module in a second subset of vehicles are obtained.
In einigen Ausführungsformen umfasst das Verfahren das Unterteilen der angepassten Modellparameter pro Untermodul und das Bereitstellen des ersten und des zweiten Untermoduls an den Server getrennt für die einzelnen Untermodule.In some embodiments, the method includes dividing the adjusted model parameters per sub-module and providing the first and second sub-modules to the server separately for each sub-module.
Gemäß einem dritten Aspekt betrifft die Offenbarung eine Steueranordnung, die derart konfiguriert ist, dass sie die Verfahren gemäß dem ersten und oder dem zweiten Aspekt durchführt.According to a third aspect, the disclosure relates to a control arrangement configured in such a way is guaranteed that it carries out the methods according to the first and/or the second aspect.
Gemäß einem vierten Aspekt betrifft die Offenbarung ein Computerprogramm, das Anweisungen enthält, die, wenn das Programm von einem Computer ausgeführt wird, den Computer veranlassen, das Verfahren gemäß dem ersten und/oder zweiten Aspekt auszuführen.According to a fourth aspect, the disclosure relates to a computer program containing instructions which, when the program is executed by a computer, cause the computer to carry out the method according to the first and/or second aspect.
Gemäß einem fünften Aspekt betrifft die Offenbarung ein computerlesbares Medium, das Anweisungen enthält, die, wenn sie von einem Computer ausgeführt werden, den Computer veranlassen, das Verfahren gemäß dem ersten und/oder zweiten Aspekt auszuführen.According to a fifth aspect, the disclosure relates to a computer-readable medium containing instructions which, when executed by a computer, cause the computer to carry out the method according to the first and/or second aspect.
Figurenlistecharacter list
-
1 zeigt eine Fahrzeugflotte, die in eine erste und eine zweite Teilmenge unterteilt ist.1 shows a fleet of vehicles divided into a first and a second subset. -
2 zeigt ein Fahrzeug 1, in dem das vorgeschlagene Verfahren implementiert werden kann.2 shows avehicle 1 in which the proposed method can be implemented. -
3 zeigt ein neuronales Netz mit unabhängigen Modulen.3 shows a neural network with independent modules. -
4 zeigt Steueranordnungen, die zur Durchführung der vorgeschlagenen Verfahren konfiguriert sind.4 shows control arrangements configured to perform the proposed methods. -
5 zeigt das Konzept der Zusammenführung von Modellparametern für jedes Untermodul bei Fahrzeugen, die zu derselben Teilmenge gehören.5 shows the concept of merging model parameters for each sub-module in vehicles belonging to the same subset. -
6 ist ein Flussdiagramm des vorgeschlagenen Verfahrens für Verbundtraining.6 Figure 12 is a flow chart of the proposed method for composite training. -
7 ist ein Flussdiagramm des vorgeschlagenen Verfahrens zur Ermöglichung des Verbundtrainings.7 Figure 12 is a flow chart of the proposed method for enabling federated training.
Detaillierte BeschreibungDetailed description
Zum besseren Verständnis des vorgeschlagenen Verfahrens werden zunächst die Probleme in Zusammenhang mit dem maschinellen Lernen in einer Fahrzeugflotte erörtert. Erschwert wird das Verbundtraining bei Fahrzeugen durch die Tatsache, dass Fahrzeuge oft auf der Grundlage eines modularen Systems gebaut werden, bei dem z. B. der Motor eines Lastkraftwagens gegen einen beliebigen anderen Motor ausgetauscht werden kann, der noch passt und funktioniert. Bei einem solchen Motorwechsel kann der neue Motor eine andere Leistung haben und/oder mit anderen Sensoren ausgestattet sein als der vorherige, was sich in der Regel in den vom Motor erzeugten Daten widerspiegelt. Wenn in dem Motorsystem eine intelligente Logik eingebaut ist, z. B. die Erkennung von Anomalien mithilfe von maschinellem Lernen, dann sollte das maschinelle Lernmodell für die verschiedenen Motortypen unterschiedlich sein, um gute Ergebnisse zu erzielen. Haben die Fahrzeuge unterschiedliche Motoren, wird es also schwierig sein, Verbundlernen oder dergleichen zu verwenden, um gemeinsam von anderen Fahrzeugen zu lernen.For a better understanding of the proposed method, the problems related to machine learning in a vehicle fleet are first discussed. Compound training in vehicles is made more difficult by the fact that vehicles are often built on the basis of a modular system, in which e.g. For example, a truck engine can be swapped out for any other engine that still fits and works. With such an engine change, the new engine may have different performance and/or be equipped with different sensors than the previous one, which is usually reflected in the data generated by the engine. If intelligent logic is built into the motor system, e.g. B. detecting anomalies using machine learning, then the machine learning model should be different for different motor types to get good results. Therefore, if the vehicles have different engines, it will be difficult to use compound learning or the like to learn from other vehicles together.
Darüber hinaus kann ein Fahrzeug je nach Einsatzbereich in unterschiedlichen Betriebsarten eingesetzt werden, z. B. im Stadtverkehr oder auf der Autobahn. Dies könnte zu unterschiedlichen lokalen Minimallösungen der maschinellen Lernmodelle für verschiedene Betriebsarten führen, was zu einem schlechteren aggregierten Modell führen würde, wenn Verbundtraining verwendet wird. Dies ist ein ähnliches Problem wie bei dem oben erwähnten non-IID-Teil, bei dem die Datenverteilung nicht ähnlich ist und mit Personalisierungsschichten gelöst werden kann. Mit anderen Worten: Wir wissen, dass z. B. ein Lastkraftwagen im Fernverkehr nicht immer wie vorgesehen auf der Autobahn eingesetzt wird oder dass sich der Betrieb bei einem Eigentümerwechsel ändern kann.In addition, a vehicle can be used in different operating modes depending on the area of application, e.g. B. in city traffic or on the highway. This could lead to different local minimum solutions of the machine learning models for different modes of operation, which would result in a poorer aggregated model when using compound training. This is a similar problem to the non-IID part mentioned above, where the data distribution is not similar and can be solved with personalization layers. In other words, we know that e.g. For example, a long-distance truck is not always used on the motorway as intended, or that operations can change if there is a change of ownership.
Hier wird ein Verfahren für Verbundlernen vorgeschlagen, bei dem die Module eines Modellnetzes für maschinelles Lernen in wenigstens zwei Teile, hier Untermodule genannt, aufgeteilt werden. In einigen Ausführungsformen berücksichtigt das erste Untermodul die Konfiguration und wird mit Fahrzeugen mit ähnlicher Konfiguration zusammengefasst. Die Fahrzeugkonfiguration ist dem Server in der Regel im Voraus bekannt, sodass Fahrzeuge mit einer gemeinsamen Konfiguration relativ einfach gruppiert werden können. In einigen Ausführungsformen berücksichtigt das zweite Untermodul den Betrieb und wird mit Fahrzeugen mit einem ähnlichen Betrieb zusammengefasst. Der Betrieb kann dynamischer und daher schwieriger zu bestimmen sein als die Konfiguration, da ein Fahrzeug nicht immer wie vorgesehen eingesetzt wird. Die Modellparameter werden jedoch in der Regel auf der Grundlage von Daten gebildet (d. h. durch Training angepasst) und können daher indirekt die Verteilung der Daten aufzeigen. Durch die Verwendung eines Ähnlichkeitsmaßes ist es möglich, das zweite Untermodul der neuronalen Netze entsprechend dem Betrieb der Fahrzeuge zu gruppieren. Nach dem Training werden die beiden Untermodule des föderierten zentralen Modells an die entsprechenden Fahrzeuge zurückgemeldet. Die einzelnen Schritte des vorgeschlagenen Verfahrens werden nun anhand von
Dieselben Fahrzeuge 1 (d. h. die Busse und die Lastkraftwagen) werden basierend auf der Fahrzeugnutzung auch in zweite Teilmengen D unterteilt. In diesem vereinfachten Beispiel gibt es zwei zweite Teilmengen: den als DA bezeichneten Stadtverkehr (links) und den als DB bezeichneten Fernverkehr (oder Autobahnverkehr) (rechts). In dem veranschaulichten Beispiel gehört jedes Fahrzeug 1 zu einer ersten Teilmenge VX und einer zweiten Teilmenge DY (wobei die Buchstaben „X“ und „Y“ eine bestimmte Teilmenge bezeichnen, z. B. A oder B im Beispiel, also VA und VB). Die Fahrzeuge einer Teilmenge gelten als „Peers“ (gleichranging), was bedeutet, dass sie in gewissem Sinne ähnlich sind. Im Beispiel von
Der Einfachheit halber ist in
Das vorgeschlagene Verfahren basiert auf der Idee, maschinelle Lernmodelle in zwei unabhängige Teile - hier als Untermodule bezeichnet - zu unterteilen und jedes Untermodul entsprechend seinen Peers zu föderieren. Die Idee ist, dass die Peers für die jeweiligen Untermodule unterschiedlich sein können. Mit anderen Worten: Das Verbundtraining erfolgt unter verschiedenen Fahrzeugen für die verschiedenen Untermodule.The proposed method is based on the idea of dividing machine learning models into two independent parts - here referred to as sub-modules - and federating each sub-module according to its peers. The idea is that the peers can be different for the respective sub-modules. In other words, the composite training is done under different vehicles for the different sub-modules.
Ein NN basiert auf Knoten 34 - als künstliche Neuronen bezeichnet - mit dazwischen liegenden Verbindungen 33. Ein Knoten 34 empfängt ein oder mehrere Eingangssignale, verarbeitet die Eingangssignale und kann an die verbundenen Knoten Signale geben. Die Knoten 34 sind in der Regel in Schichten angeordnet, und jede Schicht hat ihren Zweck, wobei die erste Schicht als Eingabeschicht und die letzte Schicht als Ausgabeschicht bezeichnet wird. Ein tiefes neuronales Netz (DNN) ist ein ANN mit mehreren Schichten zwischen der Eingabe- und der Ausgabeschicht.A NN is based on nodes 34 - referred to as artificial neurons - with
Neuronale Netze lernen durch die Verarbeitung von Beispielen, die bekannte Eingaben und bekannte Ausgaben umfassen. Durch das Training werden die Modellparameter, wie z. B. die wahrscheinlichkeitsgewichteten Verbindungen zwischen den Knoten 34, angepasst und in dem NN gespeichert. Im gezeigten Beispiel werden die Modellparameter des ersten Untermoduls 31 als p31 und die Modellparameter des ersten Untermoduls 32 als p32 bezeichnet.Neural networks learn by processing examples that involve known inputs and known outputs. Through the training, the model parameters, such as B. the probability-weighted connections between the
In einem DNN sind die frühen Schichten (hier auch als erstes Untermodul 31 bezeichnet) in der Regel für die grundlegenden Merkmale zuständig, während die späteren Schichten (hier auch als zweites Untermodul 32 bezeichnet) komplexere Merkmale verarbeiten. Die Schichten umfassen unabhängige Untermodelle mit strukturierten Schnittstellen dazwischen. Jede Schicht kann daher in der Regel unabhängig von den anderen Schichten ausgeführt werden.In a DNN, the early layers (also referred to herein as the first sub-module 31) are typically responsible for the basic features, while the later layers (also referred to herein as the second sub-module 32) process more complex features. The layers comprise independent sub-models with structured interfaces between them. Each layer can therefore usually be executed independently of the other layers.
In einem Beispiel werden die frühen Schichten 31 an die Fahrzeugkonfiguration angepasst, um die Art der Daten zu verarbeiten, die das Fahrzeug generieren kann, während die späteren Schichten 32 die Verteilung der Daten in Abhängigkeit von der Nutzung des Fahrzeugs 1 während der Zeit des Verbundtrainings verarbeiten. Bei dem DNN handelt es sich in der Regel um ein reguläres vorwärts gerichtetes NN, es kann aber auch eine andere Art von DNN sein, wie z. B. ein faltendes NN oder ein rekurrentes NN oder eine beliebige Mischung je nach Anwendungsfall. Auch andere Voraussetzungen sind möglich, und es können sogar noch mehr Untermodule vorhanden sein.In one example, the
Einige der Fahrzeuge 1 fahren hauptsächlich in der Stadt und haben daher aufgrund der vielen Stopp-and-Go-Fahrten einen schwankenden Kraftstoffverbrauch, während andere Fahrzeuge hauptsächlich auf der Autobahn fahren und einen gleichmäßigen Kraftstoffverbrauch haben. Die Fahrzeuge 1 werden dann ebenfalls je nach Nutzung in zwei Teilmengen DA (Stadtfahrt) und DB (Autobahnfahrt) unterteilt.Some of the
Nehmen wir an, dass ein DNN mit 8 Schichten in allen Fahrzeugen 1 verwendet wird. Die Eingänge des DNN sind jedoch für die 11-l- und 13-l-Motoren unterschiedlich, z. B. hat das DNN je nach Motorgröße 10 bzw. 11 Eingangssignale. Die Ausgabe ist nur ein Parameter, der anzeigt, ob ein Anomalieproblem vorliegt oder nicht. Das DNN wird dann in zwei Untermodule 31, 32 aufgeteilt, sodass jedes Untermodul z. B. 4 Schichten umfasst (wie in
Zum Zeitpunkt des Zusammenschlusses werden die aktualisierten Parameter p31,p32 aller Fahrzeuge an einen zentralen Server 2 gesendet (
Hinsichtlich des ersten Untermoduls 31 weiß der Server, welche Fahrzeuge 1 mit einem 11-l- und welche mit einem 13-l-Motor ausgestattet sind, also nur zusammengeführte Parameter p31 des ersten Untermoduls 31 bei Fahrzeugen mit denselben Motoren. Mit anderen Worten: Modellparameter p31 des ersten Untermoduls 31 werden mit Fahrzeugen derselben ersten Teilmenge VX zusammengeführt. In diesem Beispiel kann VX eines einzelnen Fahrzeugs entweder VA oder VB sein. Die Pfeile 51 in
Hinsichtlich des zweiten Untermoduls 32 kann der Server 2 zunächst die angepassten Parameter p32 verschiedener Fahrzeuge 1 miteinander vergleichen und dann nur diejenigen innerhalb von Gruppen von Fahrzeugen 1 zusammenführen, die einander ähnlich sind (z. B. unter Verwendung eines Ähnlichkeitsmaßes). Mit anderen Worten: Angepasste Modellparameter p32 des zweiten Untermoduls 32 werden mit Fahrzeugen in derselben ersten Teilmenge DY zusammengeführt. In diesem Beispiel ist DY eines einzelnen Fahrzeugs entweder DA oder DB. Die Pfeile 52 in
Sobald der Server die angepassten Modellparameter p in jeder Teilmenge DA, DB, VA, VB zusammengeführt hat, sendet er die aggregierten angepassten Modellparameter p31a, p31b, p32a, p32b an die Fahrzeuge 1 zurück, je nachdem, zu welcher Teilmenge V, D das jeweilige Fahrzeug gehört. In einigen Ausführungsformen werden die aggregierten Modellparameter p31x, p32y eines Fahrzeugs zusammengeführt, bevor sie zurückgesendet werden.Once the server has merged the adjusted model parameters p in each subset DA, DB, VA, VB, it sends back the aggregated adjusted model parameters p 31a , p 31b , p 32a, p 32b to the
Das vorgeschlagene Verfahren für ein Verbundtraining einer Flotte 100 von Fahrzeugen 1 wird nun unter Bezugnahme auf das Flussdiagramm von
Das Verfahren kann als Computerprogramm implementiert werden, das Anweisungen umfasst, die, wenn das Programm von einem Computer (z. B. einem Prozessor in der Steueranordnung 20 (
Der Server 2 ist so eingerichtet, dass er eine Flotte 100 von Fahrzeugen 1 überwacht, verwaltet und/oder steuert. Der Server 2 kennt in der Regel die Konfigurationen der Fahrzeuge 1, da er normalerweise von einem Eigentümer oder Hersteller der Flotte 100 betrieben wird. Konfiguration kann sich hier je nach Anwendung auf eine beliebige physikalische Eigenschaft des Fahrzeugs 1 beziehen. Die Konfiguration ist üblicherweise eine statische oder halbstatische Hardwarekonfiguration. Vor Beginn des Verfahrens prüft der Server 2, genauer gesagt die Steueranordnung 20, welche Fahrzeuge verfügbar sind.The
Wie in Zusammenhang mit
Die Teilmengen können auf unterschiedliche Weise definiert sein, in der Regel werden jedoch physikalische Eigenschaften der Fahrzeuge berücksichtigt. Daher umfasst das Verfahren in einigen Ausführungsformen das Unterteilen von Fahrzeugen 1 der Flotte 100 in mehrere erste Teilmengen VA, VB basierend auf der Ähnlichkeit der physikalischen Eigenschaften der Fahrzeuge.The subsets can be defined in different ways, but usually physical properties of the vehicles are taken into account. Therefore, in some embodiments, the method includes dividing
Eine weitere Unterteilung in Teilmengen erfolgt anhand von nicht physikalischen Eigenschaften, die in gewisser Weise auch das maschinelle Lernen beeinflussen, wie z. B. Eigenschaften in Zusammenhang mit der Datenverteilung aufgrund der Nutzung. In einigen Ausführungsformen umfasst das Verfahren daher das Unterteilen der Fahrzeuge der Flotte in mehrere zweite Teilmengen DA, DB basierend auf der Ähnlichkeit der derzeitigen Nutzung der Fahrzeuge. Die Nutzung kann jede mit dem Betrieb und/oder dem Laden verbundene Aktivität betreffen. In einigen Ausführungsformen basiert das Unterteilen der Fahrzeuge in zweite Teilmengen DA, DB auf einem Ähnlichkeitsmaß der empfangenen angepassten Modellparameter. Jedes Fahrzeug 1 wird nun einer ersten Teilmenge VX und einer zweiten Teilmenge DY zugewiesen.A further division into subsets is based on non-physical properties that also influence machine learning in some way, such as e.g. B. Properties related to data distribution based on usage. In some embodiments, the method therefore comprises dividing the vehicles of the fleet into a plurality of second subsets DA, DB based on the similarity of the current usage of the vehicles. Use can relate to any activity related to operation and/or charging. In some embodiments, the subdivision of the vehicles into second subsets DA, DB is based on a similarity measure of the received adjusted model parameters. Each
Die Fahrzeuge 1 der Flotte 100 werden ebenfalls mit entsprechenden maschinellen Lernmodellen versehen. Mit anderen Worten: Das Verfahren umfasst ferner das Versehen S3 von Fahrzeugen der Flotte 100 mit entsprechenden maschinellen Lernmodellen 30, die die einzelnen Fahrzeuge repräsentieren. Es ist darauf hinzuweisen, dass viele verschiedene Arten von maschinellen Lernmodellen durch das vorgeschlagene Verfahren trainiert werden können. In einigen Ausführungsformen umfasst das bereitgestellte maschinelle Lernmodell 30 einen maschinellen Lernalgorithmus, ein neuronales Netz, ein statistisches Modell und/oder ein Modell der künstlichen Intelligenz.The
Die maschinellen Lernmodelle können für unterschiedlich konfigurierte Fahrzeuge 1 der Flotte 100 unterschiedlich sein. Zum Beispiel kann die Anzahl der Eingabeparameter je nach Konfiguration variieren. Mit anderen Worten: In einigen Ausführungsformen werden für einzelne Fahrzeuge der Flotte 100 unterschiedliche maschinelle Lernmodelle 30 bereitgestellt, die darauf basieren, zu welchen Teilmengen VX-DY (
Wie in
Verschiedene Modellparameter p31,p32 können durch Verbundtraining angepasst werden. In einigen Ausführungsformen umfassen die Modellparameter p31,p32 eines oder mehrere der Gewichte und Eingabeparameter. In einem probabilistischen grafischen Modell können die Modellparameter p31,p32 eine Wahrscheinlichkeitsverteilung umfassen. In einem anderen Beispiel können die Parameter p31, p32 Clusterschwerpunkte und Kovarianzen eines Clustering-Algorithmus umfassen.Various model parameters p 31 , p 32 can be adjusted by compound training. In some embodiments, the model parameters p 31 , p 32 include one or more of the weights and input parameters. In a probabilistic graphical model, the model parameters p 31 , p 32 may include a probability distribution. In another example, the parameters p 31 , p 32 may include cluster centroids and covariances of a clustering algorithm.
Der Server 2 wartet dann darauf, dass die Fahrzeuge 1 ihre jeweiligen maschinellen Lernmodelle trainieren und angepasste (d. h. neue oder aktualisierte) Modellparameter zurücksenden. In einigen Ausführungsformen ist der Server 2 derart konfiguriert, dass er die Fahrzeuge dazu veranlasst, mit dem Training zu beginnen. Daher umfasst das Verfahren ferner das Empfangen S4 angepasster Modellparameterp31, p32 des ersten und des zweiten Untermoduls 31, 32, die in den jeweiligen Fahrzeugen 1 erhalten wurden, von den Fahrzeugen 1 der Flotte 100.The
Die Fahrzeuge 1 können die angepassten Parameter entweder nach Untermodulen aufgeteilt oder in einem Datenblock zusammengeführt an den Server 2 zurücksenden. Anders ausgedrückt: In einigen Ausführungsformen werden die angepassten Modellparameter p31, p32 des ersten und des zweiten Untermoduls 31, 32 von den Fahrzeugen in getrennten Blöcken empfangen. In einigen anderen Ausführungsformen werden die angepassten Modellparameter p31,p32 des ersten und des zweiten Untermoduls 31, 32 gemeinsam empfangen (d. h. zusammengeführt), und das Verfahren umfasst dann das Unterteilen S5 der angepassten Modellparameter p31, p32 pro Untermodul.The
Wenn der Server 2 die angepassten Parameter von allen (oder wenigstens von einigen oder den meisten) Fahrzeugen 1 erhalten hat, wird die Zusammenführung eingeleitet. Die Parameter des ersten Untermoduls 31 werden dann bei den Fahrzeugen, die zu derselben ersten Teilmenge gehören, z. B. bei denen mit derselben (oder ähnlichen) Konfiguration, zusammengeführt, um erste aggregierte angepasste Modellparameter des ersten Untermoduls 31 zu erhalten. Mit anderen Worten: Das Verfahren umfasst ferner das Aggregieren S6 angepasster Modellparameter des ersten Untermoduls p31 bei Fahrzeugen, die zu derselben ersten Teilmenge VA, VB gehören. Die ersten aggregierten angepassten Modellparameter werden hier als p31x bezeichnet, wobei sich der Buchstabe „x“ auf die Teilmenge DX für den Verbund bezieht.When the
Die Parameter des zweiten Untermoduls 32 werden bei den Fahrzeugen, die zu derselben zweiten Teilmenge 32 gehören, z. B. bei denen mit ähnlicher Nutzung oder ähnlichem Betrieb, zusammengeführt, um zweite aggregierte angepasste Modellparameter des zweiten Untermoduls 32 zu erhalten. Mit anderen Worten: Das Verfahren umfasst ferner das Aggregieren S7 angepasster Modellparameter des zweiten Untermoduls p32 bei Fahrzeugen, die zu derselben zweiten Teilmenge DA, DB gehören. Die zweiten aggregierten angepassten Modellparameter werden hier als p32y bezeichnet, wobei sich der Buchstabe „y“ auf die Teilmenge DY für den Verbund bezieht.The parameters of the second sub-module 32 are in the vehicles that belong to the same
Zum Aggregieren S6, S7 können verschiedene Verfahren angewandt werden, die dem Stand der Technik im Bereich Verbundlernen entsprechen, wie z. B. föderierter stochastischer Gradientenabstieg oder föderierte Mittelwertbildung. In einigen Ausführungsformen umfasst das Aggregieren S6 die Berechnung föderierter Mittelwerte p31x der angepassten Modellparameter p31 des ersten Moduls für einzelne Fahrzeuge, die zu derselben ersten Teilmenge VX gehören. In einigen Ausführungsformen umfasst das Aggregieren S7 die Berechnung föderierter Mittelwerte p32y angepasster Modellparameter p32 des zweiten Untermoduls 32 für einzelne Fahrzeuge, die zu derselben zweiten Teilmenge DY gehören.For aggregation S6, S7, various methods can be used that correspond to the state of the art in the field of collaborative learning, such as e.g. federated stochastic gradient descent or federated averaging. In some embodiments, the aggregating S6 comprises the calculation of federated mean values p 31x of the fitted model parameters p 31 of the first module for individual vehicles belonging to the same first subset VX. In some embodiments, the aggregating S7 includes the calculation of federated mean values p 32y of fitted model parameters p 32 of the second sub-module 32 for individual vehicles belonging to the same second subset DY.
Bevor die aggregierten aktualisierten Modellparameter p31x, p32y an die Fahrzeuge zurückgesendet werden, können sie je nach Implementierung für die einzelnen Fahrzeuge zusammengeführt werden, je nachdem, zu welchen Teilmengen VX, DY ein einzelnes Fahrzeug gehört. Alternativ können die angepassten Modellparameter p31, p32 auch separat, d. h. pro Untermodul 31, 32, an die Fahrzeuge zurückgesendet werden.Depending on the implementation, before the aggregated updated model parameters p 31x , p 32y are sent back to the vehicles, they can be merged for the individual vehicles, depending on which subsets VX, DY an individual vehicle belongs to. Alternatively, the adapted model parameters p 31 , p 32 can also be sent back to the vehicles separately, ie per
Für jedes Fahrzeug 1 werden dann die aggregierten angepassten Modellparameter p31x, p32y des ersten und/oder des zweiten Untermoduls 31, 32 bereitgestellt. Für ein einzelnes Fahrzeug werden aggregierte angepasste Modellparameter bereitgestellt, die den Teilmengen VX-DY entsprechen, denen das Fahrzeug zugeordnet ist. Anders ausgedrückt: Das Verfahren umfasst dann das Bereitstellen S8 von aggregierten angepassten Modellparametern des ersten Untermoduls p31x auf der Grundlage einer ersten Teilmenge VX, zu der die jeweiligen Fahrzeuge gehören, und von aggregierten angepassten Modellparametern des zweiten Untermoduls p31y auf der Grundlage einer zweiten Teilmenge DY, zu der die jeweiligen Fahrzeuge ebenfalls gehören (wobei X und Y = A oder B) für einzelne Fahrzeuge 1 der Flotte 100. Die Parameter eines einzelnen Fahrzeugs werden also nur mit den Peers des Fahrzeugs 1 zusammengeführt, wobei die Peers für die jeweiligen Untermodule 31, 32 unterschiedlich sind. Beispielsweise wird ein Fahrzeug der Teilmengen VB-DA mit aggregierten angepassten Modellparametern p31b, p32a versorgt.The aggregated, adapted model parameters p 31x , p 32y of the first and/or the second sub-module 31 , 32 are then provided for each
Wird das Training als zufriedenstellend angesehen, kann es beendet werden, andernfalls kann das Verfahren ab Schritt S4 wiederholt werden. Das Training wird z. B. als zufriedenstellend angesehen, wenn die Modellparameter konvergiert haben, d. h. einen Fehler in der Nähe der lokalen/globalen Minima aufweisen. Mit anderen Worten: In einigen Ausführungsformen umfasst das Verfahren die Wiederholung der Schritte Empfangen S4, Aggregieren S6, S7 und Bereitstellen S8.If the training is considered satisfactory, it can be ended, otherwise the process can be repeated from step S4. The training will B. considered satisfactory when the model parameters have converged, i. H. have an error near the local/global minima. In other words: In some embodiments, the method includes repeating the steps receiving S4, aggregating S6, S7 and providing S8.
Vor dem Start des Verbundtrainings senden Fahrzeuge 1 der Flotte 100 üblicherweise eine Verfügbarkeitsbestätigung an den Server 2. Das Verfahren umfasst das Empfangen S11 eines maschinellen Lernmodells, das das Fahrzeug 1 repräsentiert, von einem Server 2, wobei das maschinelle Lernmodell ein erstes Untermodul 31 und ein von dem ersten Untermodul 31 unabhängiges zweites Untermodul 32 umfasst, wobei das erste und das zweite Untermodul 31, 32 entsprechende Modellparameter p31, p32 umfassen, die angepasst werden, wenn das maschinelle Lernen in dem Fahrzeug fortschreitet.Before the start of the network training,
Das Fahrzeug 1 führt dann das maschinelle Lernmodell aus und trainiert es anhand der verfügbaren Daten. Dies kann während des Betriebs, des Ladens usw. erfolgen. Mit anderen Worten: Das Verfahren umfasst ferner das Trainieren S12 des maschinellen Lernmodells in dem Fahrzeug.The
Nach dem Training sendet das Fahrzeug 1 angepasste Modellparameter p31,p32 an den Server 2. In einigen Ausführungsformen werden die Modellparameter vor dem Senden auf die einzelnen Untermodule aufgeteilt. Mit anderen Worten: In einigen Ausführungsformen umfasst das Verfahren ferner das Unterteilen S13 der angepassten Modellparameter p31, p32 pro Untermodul und das Bereitstellen S14 des ersten und des zweiten Untermoduls 31, 32 an den Server getrennt für die einzelnen Untermodule. Alternativ werden die angepassten Modellparameter p31,p32 des ersten und des zweiten Moduls 31, 32 zusammen gesendet.After the training, the
Daher umfasst das Verfahren ferner das Bereitstellen S14 angepasster Modellparameter p31,p32 der ersten und zweiten Untermodule 31, 32, die durch das Training 1 erhalten wurden, an den Server 2.The method therefore also includes providing S14 adapted model parameters p 31 , p 32 of the first and
Das Fahrzeug wartet dann darauf, dass föderierte Parameter von dem Server 2 eintreffen, und ersetzt die aktuellen Parameter durch die empfangenen aggregierten angepassten Modellparameter, wenn sie eintreffen. Somit umfasst das Verfahren ferner das Empfangen S15 erster aggregierter aktualisierter Modellparameter p31x, die durch Aggregation angepasster Modellparameter p31 des ersten Untermoduls 31 bei einer ersten Teilmenge VX von Fahrzeugen erhalten wurden, und zweiter aggregierter aktualisierter Modellparameter p32x, die durch Aggregation angepasster Modellparameter p32 des zweiten Untermoduls 32 bei einer zweiten Teilmenge DY von Fahrzeugen erhalten wurden, von dem Server 2. Wenn der Server mit der Qualität der aggregierten angepassten Modellparameter zufrieden ist, wird das Verfahren gestoppt, andernfalls wird das Verfahren ab Schritt S11 wiederholt.The vehicle then waits for federated parameters to arrive from the
Die Steueranordnung 20 ist zum Beispiel in einem Server 2 angeordnet. Die Steueranordnung umfasst einen Prozessor 201 und einen Speicher 202. Die Steueranordnung 20, oder genauer gesagt der Prozessor 201 der Steueranordnung 20, ist derart konfiguriert, dass die Steueranordnung 20 alle Aspekte des Verfahrens für ein Verbundtraining einer Flotte 100 von Fahrzeugen 1 ausführt. Dies geschieht in der Regel durch Ausführen eines Computerprogrammcodes, der in dem Datenspeicher oder Speicher 202 in dem Prozessor 201 der Steueranordnung 20 gespeichert ist. Der Datenspeicher 202 kann auch derart konfiguriert sein, dass er semistatische Fahrzeugparameter wie Fahrzeugabmessungen speichert.The
Die Steueranordnung 20 kann auch eine Kommunikationsschnittstelle 203 zum Kommunizieren mit einer Steueranordnung 10 des Fahrzeugs 1 umfassen.The
Die Steueranordnung 10 ist in einem Fahrzeug 1 angeordnet. Die Steueranordnung umfasst einen Prozessor 101 und einen Speicher 102.The
Die Steueranordnung 10 oder genauer gesagt der Prozessor 101 der Steueranordnung 10 ist derart konfiguriert, dass er die Steueranordnung 10 veranlasst, alle Aspekte des Verfahrens zur Ermöglichung eines Verbundtrainings für eine Flotte 100 von Fahrzeugen 1 durchzuführen. Dies geschieht in der Regel durch Ausführen eines Computerprogrammcodes, der in dem Datenspeicher oder Speicher 102 in dem Prozessor 101 der Steueranordnung 10 gespeichert ist. Der Datenspeicher 102 kann auch derart konfiguriert sein, dass er semistatische Fahrzeugparameter wie Fahrzeugabmessungen speichert.The
Die Steueranordnung 10 kann auch eine Kommunikationsschnittstelle 103 zum Kommunizieren mit anderen Steuereinheiten des Fahrzeugs und/oder mit externen Systemen, wie z. B. mit einem Server 2, umfassen.The
Die Terminologie, die in der Beschreibung der in den beigefügten Zeichnungen dargestellten Ausführungsformen verwendet wird, ist nicht als Einschränkung des beschriebenen Verfahrens, der Steueranordnung oder des Computerprogramms zu verstehen. Es können verschiedene Änderungen, Ersetzungen und/oder Abwandlungen vorgenommen werden, ohne dass von den in den beigefügten Ansprüchen definierten Ausführungsformen abgewichen wird.The terminology used in the description of the embodiments illustrated in the accompanying drawings should not be construed as limiting the method, control arrangement or computer program described. Various changes, substitutions and/or modifications can be made without departing from the embodiments defined in the appended claims.
Sofern nicht ausdrücklich anders angegeben, ist der Begriff „oder“, wie hier verwendet, als mathematisches ODER zu verstehen, d. h. als einschließende Disjunktion, nicht als mathematisches ausschließendes ODER (XOR). Sofern nicht ausdrücklich anders angegeben, sind darüber hinaus die Singularformen „ein/eine“ und „der/die/das“ als „wenigstens ein/e“ zu verstehen, sodass sie auch eine Vielzahl gleichartiger Einheiten umfassen können. Es versteht sich ferner, dass die Begriffe „umfasst“ und/oder „umfassend“ das Vorhandensein der genannten Merkmale, Maßnahmen, ganzen Zahlen, Schritte, Operationen, Elemente und/oder Komponenten angeben, aber das Vorhandensein oder Hinzufügen von einem oder mehreren anderen Merkmalen, Maßnahmen, ganzen Zahlen, Schritten, Operationen, Elementen, Komponenten und/oder Gruppen davon nicht ausschließen. Eine einzige Einheit, wie z. B. ein Prozessor, kann die Funktionen mehrerer in den Ansprüchen aufgeführter Punkte erfüllen.Unless expressly stated otherwise, the term "or" as used herein shall be understood as a mathematical OR, i.e. H. as an inclusive disjunction, not as a mathematical exclusive OR (XOR). Furthermore, unless expressly stated otherwise, the singular forms "a" and "the" shall be understood as "at least one" and may also include a plurality of similar entities. It is further understood that the terms "comprises" and/or "comprising" indicate the presence of the recited features, measures, integers, steps, operations, elements and/or components, but the presence or addition of one or more other features , measures, integers, steps, operations, elements, components and/or groups thereof. A single entity such as B. a processor, can fulfill the functions of several items listed in the claims.
Claims (13)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021126378.6A DE102021126378A1 (en) | 2021-10-12 | 2021-10-12 | Method and control arrangement for the combined training of a vehicle fleet |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102021126378.6A DE102021126378A1 (en) | 2021-10-12 | 2021-10-12 | Method and control arrangement for the combined training of a vehicle fleet |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102021126378A1 true DE102021126378A1 (en) | 2023-04-13 |
Family
ID=85705653
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102021126378.6A Pending DE102021126378A1 (en) | 2021-10-12 | 2021-10-12 | Method and control arrangement for the combined training of a vehicle fleet |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102021126378A1 (en) |
-
2021
- 2021-10-12 DE DE102021126378.6A patent/DE102021126378A1/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021121695A1 (en) | Method, apparatus and system for detecting abnormal operating states of a device | |
DE102017213247A1 (en) | Knowledge transfer between different deep-learning architectures | |
DE102019217613A1 (en) | METHOD OF DIAGNOSING AN ENGINE CONDITION AND DIAGNOSTIC MODELING METHOD FOR THEREOF | |
DE102019218613A1 (en) | Object classification method, object classification circuit, motor vehicle | |
EP4193135A1 (en) | Computer-implemented method for providing a test process for traffic scenarios to be tested | |
DE102018209595A1 (en) | Method for automatically determining a road condition | |
DE102021129697A1 (en) | Machine learning method and machine learning system | |
DE102021114514A1 (en) | VEHICLE, MODEL TRAINING SYSTEM AND SERVER | |
EP3460727A1 (en) | Method for examining a functional behaviour of a technical system and evaluation unit | |
DE102021118615A1 (en) | Learning device and model learning system | |
WO2021037911A1 (en) | Classification of ai modules | |
DE102021126378A1 (en) | Method and control arrangement for the combined training of a vehicle fleet | |
DE102022132111A1 (en) | SYSTEMS AND METHODS FOR DETECTING DEEP NEURAL NETWORK INFERENCE QUALITY USING IMAGE/DATA MANIPULATION WITHOUT GROUND TRUTH INFORMATION | |
DE102022123358A1 (en) | FREQUENCY-BASED FEATURE RESTRICTION FOR A NEURAL NETWORK | |
DE102022112358A1 (en) | Method and control arrangement for asynchronous network training of a vehicle fleet | |
DE102021122094A1 (en) | Method for operating a motor vehicle | |
EP3901713A1 (en) | Method and device for operating a technical system with optimal model | |
DE102019217951A1 (en) | Method and apparatus for determining a domain distance between at least two data domains | |
DE102022208250B3 (en) | System for managing various vehicle components in an electric-electronic vehicle architecture and vehicle architecture | |
DE102022202990B4 (en) | Method and apparatus for distributed machine learning for a vehicle-related machine learning problem | |
DE102018215017A1 (en) | Method for determining an operating strategy for a vehicle, system, control device for a vehicle and a vehicle | |
DE102020213058A1 (en) | Method and device for partially automated or fully automated control of a vehicle | |
DE102022204862A1 (en) | Update of a vehicle's software based on vehicle field data | |
DE102018219996A1 (en) | Training procedure for a neural network with reduced runtime | |
DE102021208610B4 (en) | Method, computer program and device for processing signals in a process of continuous data provision |