DE102019125578B3 - Method and device for controlling a modular multilevel converter by means of a self-learning neural network - Google Patents

Method and device for controlling a modular multilevel converter by means of a self-learning neural network Download PDF

Info

Publication number
DE102019125578B3
DE102019125578B3 DE102019125578.3A DE102019125578A DE102019125578B3 DE 102019125578 B3 DE102019125578 B3 DE 102019125578B3 DE 102019125578 A DE102019125578 A DE 102019125578A DE 102019125578 B3 DE102019125578 B3 DE 102019125578B3
Authority
DE
Germany
Prior art keywords
neural network
state vector
multilevel converter
modular multilevel
multiplexer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019125578.3A
Other languages
German (de)
Inventor
Jan Kacetl
Tomas Kacetl
Christian Korte
Stefan Götz
Eduard Specht
David Kraus
Daniel Simon
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dr Ing HCF Porsche AG
Original Assignee
Dr Ing HCF Porsche AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dr Ing HCF Porsche AG filed Critical Dr Ing HCF Porsche AG
Priority to DE102019125578.3A priority Critical patent/DE102019125578B3/en
Application granted granted Critical
Publication of DE102019125578B3 publication Critical patent/DE102019125578B3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02MAPPARATUS FOR CONVERSION BETWEEN AC AND AC, BETWEEN AC AND DC, OR BETWEEN DC AND DC, AND FOR USE WITH MAINS OR SIMILAR POWER SUPPLY SYSTEMS; CONVERSION OF DC OR AC INPUT POWER INTO SURGE OUTPUT POWER; CONTROL OR REGULATION THEREOF
    • H02M7/00Conversion of ac power input into dc power output; Conversion of dc power input into ac power output
    • H02M7/42Conversion of dc power input into ac power output without possibility of reversal
    • H02M7/44Conversion of dc power input into ac power output without possibility of reversal by static converters
    • H02M7/48Conversion of dc power input into ac power output without possibility of reversal by static converters using discharge tubes with control electrode or semiconductor devices with control electrode
    • H02M7/483Converters with outputs that each can have more than two voltages levels
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02MAPPARATUS FOR CONVERSION BETWEEN AC AND AC, BETWEEN AC AND DC, OR BETWEEN DC AND DC, AND FOR USE WITH MAINS OR SIMILAR POWER SUPPLY SYSTEMS; CONVERSION OF DC OR AC INPUT POWER INTO SURGE OUTPUT POWER; CONTROL OR REGULATION THEREOF
    • H02M7/00Conversion of ac power input into dc power output; Conversion of dc power input into ac power output
    • H02M7/42Conversion of dc power input into ac power output without possibility of reversal
    • H02M7/44Conversion of dc power input into ac power output without possibility of reversal by static converters
    • H02M7/48Conversion of dc power input into ac power output without possibility of reversal by static converters using discharge tubes with control electrode or semiconductor devices with control electrode
    • H02M7/483Converters with outputs that each can have more than two voltages levels
    • H02M7/4835Converters with outputs that each can have more than two voltages levels comprising two or more cells, each including a switchable capacitor, the capacitors having a nominal charge voltage which corresponds to a given fraction of the input voltage, and the capacitors being selectively connected in series to determine the instantaneous output voltage
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]

Landscapes

  • Engineering & Computer Science (AREA)
  • Power Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Supply And Distribution Of Alternating Current (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zu einer Steuerung eines modularen Multilevelkonverters mittels eines selbstlernenden neuronalen Netzes, bei dem zu einem jeweiligen Zeitpunkt vorliegende Schaltzustände der Module des modularen Multilevelkonverters als ein jeweiliger Zustandsvektor dargestellt werden, bei dem durch den jeweiligen Zustandsvektor mindestens ein Istspannungslevel des modularen Multilevelkonverters zu dem jeweiligen Zeitpunkt realisiert wird, bei dem von dem neuronalen Netz als eine Ausgangsgröße der für einen nächsten Zeitpunkt auf dem modularen Multilevelkonverter zu schaltende nächste Zustandsvektor gebildet wird, wobei das neuronale Netz mit einem ersten Eingang eines Multiplexers verbunden wird, wobei ein kausaler Scheduler, der für jeden Schaltwechsel ausgehend von einem jeweiligen Zeitpunkt gemäß mindestens einer vorgegebenen Einflussgröße einen nächsten Ersatzzustandsvektor für einen jeweils nächsten Zeitpunkt bereitstellt, mit einem zweiten Eingang des Multiplexers verbunden wird, wobei ein Ausgang des Multiplexers mit der Hardware verbunden wird, wobei der Multiplexer durch eine Bewertungseinheit des von dem neuronalen Netz bereitgestellten nächsten Zustandsvektors gesteuert wird, wobei bei einer Konsistenz des nächsten Zustandsvektors dieser von dem Multiplexer an die Hardware weitergegeben wird und bei einer Inkonsistenz der von dem kausalen Scheduler gebildete nächste Ersatzzustandsvektor von dem Multiplexer an die Hardware weitergegeben wird, und wobei durch eine asynchrone Optimierung, in der eine von der Bewertungseinheit vorgenommene Bewertung der Konsistenz des von dem neuronalen Netz bereitgestellten nächsten Zustandsvektors eingeht, eine Anpassung der Netzparameter durchgeführt wird. Ferner wird eine Vorrichtung zu dieser Steuerung beansprucht.The invention relates to a method for controlling a modular multilevel converter by means of a self-learning neural network, in which the switching states of the modules of the modular multilevel converter present at a particular point in time are represented as a respective state vector, in which at least one actual voltage level of the modular multilevel converter is increased by the respective state vector the respective point in time at which the next state vector to be switched on the modular multilevel converter for a next point in time is formed by the neural network as an output variable, the neural network being connected to a first input of a multiplexer, a causal scheduler, the for each switching change, starting from a respective point in time according to at least one predetermined influencing variable, provides a next equivalent state vector for a respective next point in time, with a second input of the Multipl exers is connected, wherein an output of the multiplexer is connected to the hardware, the multiplexer being controlled by an evaluation unit of the next state vector provided by the neural network, with a consistency of the next state vector, this is passed from the multiplexer to the hardware and at an inconsistency, the next substitute state vector formed by the causal scheduler is passed on by the multiplexer to the hardware, and with an adaptation of the network parameters through an asynchronous optimization in which an evaluation of the consistency of the next state vector provided by the neural network is made by the evaluation unit is carried out. A device for this control is also claimed.

Description

Die vorliegende Erfindung betrifft ein Verfahren zu einer Steuerung eines modularen Multilevelkonverters mittels eines selbstlernenden neuronalen Netzes. Es besteht eine Absicherung gegen falsche Ergebnisse des neuronalen Netzes, die zu unzulässigen Betriebszuständen des modularen Multilevelkonverters führen würden. Ferner wird eine Vorrichtung zu dieser Steuerung mit dem selbstlernenden neuronalen Netz beansprucht.The present invention relates to a method for controlling a modular multilevel converter by means of a self-learning neural network. There is a safeguard against incorrect results of the neural network, which would lead to impermissible operating states of the modular multilevel converter. Furthermore, a device for this control with the self-learning neural network is claimed.

Ein modularer Multilevelkonverter, insbesondere ein modularer Multilevelkonverter mit serieller und paralleler Konnektivität, aber bspw. auch eine Wechselstrombatterie verfügt meist über eine hohe Anzahl von Freiheitsgraden. Dies bedeutet, dass zur Steuerung eines Stroms oder einer Spannung eine Vielzahl alternativer Schaltzustände bzw. Modulzustände mit auf den ersten Blick gleichem Ergebnis zur Verfügung stehen. Allerdings unterscheiden sich die Schaltzustände und/oder deren Abfolge erheblich in anderen Eigenschaften, wie bspw. Verluste (Schaltverluste, Durchlassverluste, etc.), unterschiedliches lokales Erwärmungsverhalten, Ladungsausgleich, oder Stromwelligkeit in den Modulen. Eine Gesamtheit der Modulzustände legt die Spannungen an den Abgriffen des jeweiligen Konverters fest. In einem Betrieb muss eine Steuerung für jeden Zeitpunkt die Schaltzustände aller Module festlegen und aktiv steuern. Dabei ermittelt die Steuerung die Schaltzustände der Module bspw. 1 Million Mal je Sekunde neu und weist sie den Modulen zu.A modular multilevel converter, in particular a modular multilevel converter with serial and parallel connectivity, but also, for example, an AC battery, usually has a high number of degrees of freedom. This means that a large number of alternative switching states or module states are available for controlling a current or a voltage, with the same result at first glance. However, the switching states and / or their sequence differ considerably in other properties, such as, for example, losses (switching losses, conduction losses, etc.), different local heating behavior, charge equalization, or current ripple in the modules. A set of module states defines the voltages at the taps of the respective converter. In a company, a controller must define and actively control the switching states of all modules for each point in time. The control system determines the switching status of the modules, for example 1 million times per second, and assigns them to the modules.

Oft wird das Zuweisen von Schaltzuständen an die einzelnen Module einer modularen Leistungselektronik in der Steuerung einem sogenannten Scheduler aufgetragen und damit von anderen Regelungsteilen, bspw. einer Motorregelung oder einer Netzstromregelung abgetrennt. Bereits ein einzelnes Modul verfügt über mehrere Schaltzustände, wobei sich eine Zahl an Möglichkeiten durch Wechselwirkungen bei einer elektrischen Verbindung vieler aneinandergereihter Module vervielfacht. Die Zuweisung von Schaltzuständen an jedes Modul zu jeder Zeit ist daher nicht mehr trivial.Often the assignment of switching states to the individual modules of a modular power electronics in the control is assigned to a so-called scheduler and thus separated from other control parts, e.g. a motor control or a mains current control. Even a single module has several switching states, whereby a number of possibilities are multiplied by interactions in an electrical connection of many modules in a row. The assignment of switching states to each module at any time is therefore no longer trivial.

Hierzu wurde bspw. in Goetz, S.M.; Peterchev, A.V.; Weyh, T.: Modular Multilevel Converter with Series and Parallel Module Connectivity: Topology and Control, In: Power Electronics, IEEE Transactions on, Vol. 30, No.1, S.203-215, 2015. doi: 10.1109/TPEL.2014.2310225 ein online-optimierendes prädiktives Scheduling vorgeschlagen. Ein Problem derartiger prädiktiver optimierender Scheduler ist allerdings ein enormer Rechenbedarf des Steuerungssystems, der einem automotiven oder industriellen Steuergerät nicht zur Verfügung steht.For example, in Goetz, SM; Peterchev, AV; Weyh, T .: Modular Multilevel Converter with Series and Parallel Module Connectivity: Topology and Control, In: Power Electronics, IEEE Transactions on, Vol. 30, No.1, S.203-215, 2015. doi: 10.1109 / TPEL. 2014.2310225 an online optimizing predictive scheduling was proposed. One problem with such predictive optimizing schedulers, however, is the enormous computing requirement of the control system, which is not available to an automotive or industrial control device.

Die US-amerikanische Druckschrift US 2005/0065901 A1 offenbart einen mehrstufigen Wechselrichter, der mittels eines neuronalen Netzes gesteuert wird. Dabei werden alle vom neuronalen Netz gelieferten Ausgaben verwendet.The American pamphlet US 2005/0065901 A1 discloses a multi-stage inverter controlled by means of a neural network. All the outputs supplied by the neural network are used.

In der Druckschrift US 2017/0117841 A1 wird ein Wechselrichter mit einer Lerneinheit, die ein neuronales Netz verwendet, beschrieben. Das offenbarte Verfahren greift auf Methoden des bestärkenden Lernens zurück.In the pamphlet US 2017/0117841 A1 describes an inverter with a learning unit that uses a neural network. The method disclosed makes use of reinforcement learning methods.

Ein Steuerungsansatz wird in David Kraus; Eduard Specht; Tobias Merz; Marc Hiller: Optimized Real-Time Control for Modular Multilevel Converters using Adaptive Neural Networks. In: 2019 21st European Conference on Power Electronics and Applications (EPE ’19 ECCE Europe), 2019, Conference Paper, Publisher: IEEE, Datum der Konferenz: 3.-5. September 2019 vorgestellt, bei dem ein neuronales Netzwerk und Verstärkungslernen für modulare Multilevelkonverter mit serieller und paralleler Konnektivität verwendet werden. Indem zur Maximierung einer Nutzenfunktion der Zustandsraum aller möglichen Aktionen erkundet wird, kann das neuronale Netz ohne Trainingsdaten autonom trainiert werden.A control approach is used in David Kraus; Eduard Specht; Tobias Merz; Marc Hiller: Optimized Real-Time Control for Modular Multilevel Converters using Adaptive Neural Networks. In: 2019 21st European Conference on Power Electronics and Applications (EPE '19 ECCE Europe), 2019, Conference Paper, Publisher: IEEE, Conference date: 3-5. September 2019 is presented using a neural network and reinforcement learning for modular multilevel converters with serial and parallel connectivity. By exploring the state space of all possible actions to maximize a utility function, the neural network can be trained autonomously without training data.

Ebenfalls ein neuronales Netz wird in Rachid Taleb; Abdelkader Meroufel, Patrice Wira: Neural Network Control of Asymmetrical Multilevel Converters. In: Leonardo Journal of Sciences, ISSN 1583-0233, Ausgabe 15, Juli-Dezember 2009, S. 53- 70 bemüht, um eine neuronale Umsetzung einer harmonischen Eliminierungsstrategie zur Steuerung eines asymmetrischen Multilevelinverters vorzuschlagen. Als neuronales Netz wird ein vielschichtiges Multilayer-Perzeptron trainiert, um die Abbildung zwischen der Modulationsrate und den erforderlichen Schaltwinkeln zu approximieren.A neural network is also used in Rachid Taleb; Abdelkader Meroufel, Patrice Wira: Neural Network Control of Asymmetrical Multilevel Converters. In: Leonardo Journal of Sciences, ISSN 1583-0233, Issue 15, July-December 2009, pp. 53-70 endeavored to propose a neural implementation of a harmonic elimination strategy for controlling an asymmetrical multilevel inverter. A multi-layered multilayer perceptron is trained as a neural network in order to approximate the mapping between the modulation rate and the required switching angles.

Die Druckschrift EP 0 708 936 B1 offenbart eine Anordnung zur Modellierung eines nichtlinearen Prozesses mit mindestens einer Eingangsgröße und mindestens einer Ausgangsgröße zur Anwendung in Reglern. Die Anordnung weist ein neuronales Netz auf, welches einerseits mit Messdaten trainiert wird, andererseits auf eine empirisch basierte Vorgabe von Funktionswerten, vorzugsweise durch ein Fuzzy-System, zurückgreift.The pamphlet EP 0 708 936 B1 discloses an arrangement for modeling a nonlinear process with at least one input variable and at least one output variable for use in controllers. The arrangement has a neural network which, on the one hand, is trained with measurement data, and, on the other hand, makes use of an empirically based specification of function values, preferably by means of a fuzzy system.

Vor diesem Hintergrund ist es eine Aufgabe der vorliegenden Erfindung, ein Verfahren zu einer Steuerung eines modularen Multilevelkonverters bereitzustellen, welches mit möglichst wenig Rechenaufwand zu jedem Zeitpunkt auf der Basis aktueller Anforderungen an Leistung oder Ladezustand einen Schaltzustand für den oder die nächsten Zeitpunkte generiert und eine Leistungsfähigkeit des Systems optimal einsetzt. Unsinnige Steuerbefehle sollen abgefangen werden. Ferner soll eine Vorrichtung zu dieser Steuerung vorgestellt werden.Against this background, it is an object of the present invention to provide a method for controlling a modular multilevel converter which generates a switching state for the next point in time (s) and a performance at any point in time on the basis of current requirements for power or state of charge with as little computing effort as possible of the system. Nonsensical control commands are supposed to be intercepted. A device for this control is also to be presented.

Zur Lösung der voranstehend genannten Aufgabe wird ein Verfahren zu einer Steuerung eines modularen Multilevelkonverters mittels eines selbstlernenden neuronalen Netzes vorgeschlagen, bei dem der modulare Multilevelkonverter als eine Hardware und auf ein numerisches Modell abgebildet als eine Software vorliegt. Zu einem jeweiligen Zeitpunkt vorliegende Schaltzustände der Module des modularen Multilevelkonverters werden als ein jeweiliger Zustandsvektor dargestellt, wobei durch den jeweiligen Zustandsvektor mindestens ein Istspannungslevel des modularen Multilevelkonverters zu dem jeweiligen Zeitpunkt realisiert wird. Mindestens eine Eingangsgröße bzw. Input des neuronalen Netzes wird von mindestens einer vorgegebenen Betriebsgröße des modularen Multilevelkonverters zu dem jeweiligen Zeitpunkt gebildet. Das neuronale Netz ist dabei von mehreren Netzparametern, wie bspw. Gewichte von Knoten mindestens einer sog. Hidden Layer oder Schwellenwerte zur Aktivierung eines jeweiligen Knotens, bestimmt. Als eine Ausgangsgröße bzw. Output wird der für einen nächsten Zeitpunkt auf dem modularen Multilevelkonverter zu schaltende nächste Zustandsvektor von dem neuronalen Netz gebildet. Zu Beginn des Verfahrens liegt das neuronale Netz in einem untrainierten Zustand vor. Dies bedeutet bspw. eine initiale Belegung aller Netzparameter mit einem numerischen Wert, z. B. 1. Das neuronale Netz wird für ein Scheduling, das für jeden Schaltwechsel ausgehend von einem jeweiligen Zeitpunkt einen nächsten Zustandsvektor für einen nächsten Zeitpunkt bereitstellt, mit einem ersten Eingang eines Multiplexers verbunden. Ein kausaler Scheduler, der für jeden Schaltwechsel ausgehend von einem jeweiligen Zeitpunkt gemäß mindestens einer vorgegebenen Einflussgröße einen nächsten Ersatzzustandsvektor für einen jeweils nächsten Zeitpunkt bereitstellt, wird mit einem zweiten Eingang des Multiplexers verbunden. Ein Ausgang des Multiplexers wird mit der Hardware verbunden. Der Multiplexer wird durch eine Bewertung des von dem neuronalen Netz bereitgestellten nächsten Zustandsvektors gesteuert, wobei bei einer Konsistenz des nächsten Zustandsvektors dieser von dem Multiplexer an die Hardware weitergegeben wird und bei einer Inkonsistenz der von dem kausalen Scheduler gebildete nächste Ersatzzustandsvektor von dem Multiplexer an die Hardware weitergegeben wird. Schließlich wird durch eine asynchrone Optimierung, in der eine von der Bewertungseinheit vorgenommene Bewertung der Konsistenz des von dem neuronalen Netz bereitgestellten nächsten Zustandsvektors eingeht, eine Anpassung der Netzparameter vorgenommen.To solve the above-mentioned object, a method for controlling a modular multilevel converter by means of a self-learning neural network is proposed, in which the modular multilevel converter is available as hardware and mapped to a numerical model as software. Switching states of the modules of the modular multilevel converter present at a particular point in time are represented as a respective state vector, with at least one actual voltage level of the modular multilevel converter being implemented at the respective point in time through the respective state vector. At least one input variable or input of the neural network is formed from at least one predefined operating variable of the modular multilevel converter at the respective point in time. The neural network is determined by several network parameters, such as the weights of nodes of at least one so-called hidden layer or threshold values for activating a respective node. The next state vector to be switched on the modular multilevel converter for a next point in time is formed by the neural network as an output variable. At the beginning of the process, the neural network is in an untrained state. This means, for example, an initial assignment of all network parameters with a numerical value, e.g. B. 1. The neural network is connected to a first input of a multiplexer for a scheduling which provides a next state vector for a next point in time for each switching change based on a respective point in time. A causal scheduler, which, starting from a respective point in time and according to at least one predetermined influencing variable, provides a next equivalent state vector for a respective next point in time is connected to a second input of the multiplexer. One output of the multiplexer is connected to the hardware. The multiplexer is controlled by evaluating the next state vector provided by the neural network, with the multiplexer passing it on to the hardware if the next state vector is consistent, and the next substitute state vector formed by the causal scheduler is passed from the multiplexer to the hardware in the event of an inconsistency is passed on. Finally, an adaptation of the network parameters is carried out by an asynchronous optimization, in which an evaluation made by the evaluation unit of the consistency of the next state vector provided by the neural network is included.

Bei dem modularen Multilevelkonverter kann es sich generell um eine modulare Leistungselektronik handeln, welche eine Mehrzahl gleichartiger Leistungselektronikmodule umfasst, die wiederum untereinander elektrisch verbunden sind. Beispiele für solche modulare Leistungselektroniken, für die das erfindungsgemäße Verfahren eingesetzt werden kann, sind in folgender Liste aufgeführt: Marquardt'scher modularen Multilevelkonverter (MMC), kaskadierte H-Brücken, modulare Matrix-Umrichter, modularer Seriell-Parallel-Multilevelumrichter (MMSPC) (bspw. beschrieben in Goetz, S.M.; Peterchev, A.V.; Weyh, T.: Modular Multilevel Converter With Series and Parallel Module Connectivity: Topology and Control. In: Power Electronics, IEEE Transactions on , Vol. 30, No.1, S.203-215, 2015. doi: 10.1109/TPEL.2014.2310225 ”).The modular multilevel converter can generally be a modular power electronics which comprises a plurality of similar power electronics modules, which in turn are electrically connected to one another. Examples of such modular power electronics for which the method according to the invention can be used are given in the following list: Marquardt modular multilevel converter (MMC), cascaded H-bridges, modular matrix converter, modular serial-parallel multilevel converter (MMSPC) ( e.g. described in Goetz, SM; Peterchev, AV; Weyh, T .: Modular Multilevel Converter With Series and Parallel Module Connectivity: Topology and Control. In: Power Electronics, IEEE Transactions on, Vol. 30, No.1, S.203-215, 2015. doi: 10.1109 / TPEL.2014.2310225 ”).

Eine Summe aller Zustände der Module wird als der Zustandsvektor bezeichnet und beschreibt eindeutig die (Schalt-)Zustände aller Module für einen Schalttakt.A sum of all states of the modules is called the state vector and clearly describes the (switching) states of all modules for a switching cycle.

In einer Ausführungsform des erfindungsgemäßen Verfahrens wird jedem möglichen Schaltzustand eines Moduls des modularen Multilevelkonverters ein One-Hot-Vektor, d.h. eine Binärzahl mit lauter Nullen und einer „1“ an dezidierter Stelle, zugeordnet. Dadurch wird eine binäre Darstellung für jeden möglichen Modulzustand erzeugt, was aus der Aufgabe, eine geeignete Parametrisierung des neuronalen Netzes zu finden, ein Klassifizierungsproblem mit diskret zu klassifizierenden Zuständen macht, anstatt ein Regressionsproblem kontinuierlicher Variablen vorliegen zu haben. Nachdem ebenfalls eine Raumvektornotation zur Darstellung eines Schaltzustandes von diskreter Natur ist, werden so vorteilhaft nicht nur Schaltverluste reduziert, sondern auch eine Überwachung bzw. ein Monitoring von Entscheidungsvorgängen vereinfacht.In one embodiment of the method according to the invention, a one-hot vector is generated for each possible switching state of a module of the modular multilevel converter, i.e. a binary number with all zeros and a "1" in a dedicated place. As a result, a binary representation is generated for every possible module state, which turns the task of finding a suitable parameterization of the neural network into a classification problem with states to be classified discretely instead of having a regression problem of continuous variables. Since a space vector notation for representing a switching state is also of a discrete nature, this not only reduces switching losses, but also simplifies the monitoring or monitoring of decision-making processes.

Es ist denkbar, dass durch einen jeweiligen Zustandsvektor zusätzlich zu dem Istspannungslevel des modularen Multilevelkonverters auch eine Stromstärke und/oder ein Leistungsfluss realisiert werden. Sind die Module in mehreren Strängen angeordnet, ist auch eine mehrphasige Wechselspannung oder ein mehrphasiger Wechselstrom darstellbar.It is conceivable that, in addition to the actual voltage level of the modular multilevel converter, a current intensity and / or a power flow can also be realized by a respective state vector. If the modules are arranged in several strings, a multi-phase alternating voltage or a multi-phase alternating current can also be displayed.

In einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens wird die mindestens eine vorgegebene Betriebsgröße aus folgender Liste gewählt: Sollspannungslevel, Modulbelastung, Entladung von Energiespeichern, Verluste im System, Reduktion von Stromwelligkeit. In dem modularen Multilevelkonverter sind in der Regel jeweilige Messsensoren angeordnet, die zu der jeweiligen mindestens einen vorgegebenen Betriebsgröße zu jedem Zeitpunkt jeweilige Messwerte liefern. Diese Messwerte bzw. Werte gehen als Input in das neuronale Netz ein. Zu den voranstehend genannten Betriebsgrößen ergeben sich Optimierungskriterien, die besonders vorteilhaft sind. So ist eine Modulbelastung aller Module besonders vorteilhaft, wenn alle Module gleichmäßig belastet werden, da damit eine Alterung möglichst verteilt und daher nicht für ein einzelnes Modul verstärkt stattfindet. Weiter soll eine Entladung von Energiespeichern, bspw. Batterien oder auch Zwischenkreiskondensatoren, möglichst gleichmäßig sein, damit ein Balancing unter den Modulen vermieden wird. Verluste, bspw. Schaltverluste oder auch Widerstandsverluste durch unterschiedliche Leitungswege oder auch Parallelisierungsverluste (Verluste je nachdem ob ein Strompfad seriell oder parallel gestaltet werden kann) sollten möglichst gering ausfallen. Eine Reduktion von Stromwelligkeit bedeutet einen zeitlich möglichst gleichmäßigen Stromfluss in oder aus einem jeweiligen Modul.In a further embodiment of the method according to the invention, the at least one predetermined operating variable is selected from the following list: setpoint voltage level, module load, discharge of energy stores, losses in the system, reduction of current ripple. In the modular multilevel converter, respective measuring sensors are usually arranged, which deliver respective measured values for the respective at least one predetermined operating variable at any point in time. These measured values or values enter the neural network as input. There are optimization criteria that are particularly advantageous for the above-mentioned operating parameters. Such is a module load of all modules, it is particularly advantageous if all modules are loaded evenly, since this means that aging is distributed as much as possible and therefore does not increase for a single module. Furthermore, the discharge of energy stores, for example batteries or also intermediate circuit capacitors, should be as uniform as possible so that balancing among the modules is avoided. Losses, for example switching losses or resistance losses due to different conduction paths or parallelization losses (losses depending on whether a current path can be designed in series or in parallel) should be as low as possible. A reduction in current ripple means that the current flow into or out of a respective module is as uniform as possible over time.

In einer noch weiteren Ausführungsform des erfindungsgemäßen Verfahrens wird die Überprüfung der Konsistenz mindestens für ein Sollspannungslevel durchgeführt, indem ein aus dem vom neuronalen Netz bereitgestellten nächsten Zustandsvektor resultierendes Istspannungslevel mit dem Sollspannungslevel verglichen wird und bei einer Abweichung eine Inkonsistenz vorliegt.In yet another embodiment of the method according to the invention, the consistency check is carried out for at least one target voltage level by comparing an actual voltage level resulting from the next state vector provided by the neural network with the target voltage level and, if there is a deviation, there is an inconsistency.

Durch die bei Ausführung des erfindungsgemäßen Verfahrens stattfindende Überwachung der Konsistenz des jeweils nächsten Zustandsvektors, d. h. eine Überprüfung, ob dieser jeweils nächste Zustandsvektor bspw. ein Istspannungslevel zur Folge hat, welches dem Sollspannungslevel entspricht oder nur wenig abweicht, wird vorteilhaft dafür gesorgt, dass derjenige Output des neuronalen Netzes abgefangen wird, welcher etwa einen Wertebereich der Trainingsphase verlässt oder zu anderweitigen Singularitäten wie divergierenden oder unsinnigen Resultaten führen würde. Ein Umschalten in der Ausgabe für einen inkonsistenten nächsten Zustandsvektor im Multiplexer auf den kausalen Scheduler erzwingt damit, dass ausschließlich korrekte und geeignete Zustandsvektoren auf der Hardware umgesetzt werden. Dadurch wird der modulare Multilevelkonverter zeitweise, d. h. jeweils für den einen als inkonsistent festgestellten Zustandsvektor zwischen zwei Schaltwechseln, durch den alternativen, kausalen Scheduler, der verlässliche nächste Zustandsvektoren bereitstellt, betrieben und der Scheduler bekommt zusätzliche Redundanz, um kritische Schalterstellungen zu verhindern. Primär wird das Scheduling jedoch durch das neuronale Netz gesteuert, da gemeinhin das neuronale Netz besser geeignet ist, für jeweilige Anforderungen eine Betriebsführung des modularen Multilevelkonverters mit optimalem Wirkungsgrad durchzuführen.As a result of the monitoring of the consistency of the respective next state vector, which takes place when the method according to the invention is carried out, H. a check as to whether this next state vector, for example, results in an actual voltage level that corresponds to the target voltage level or deviates only slightly, it is advantageously ensured that that output of the neural network is intercepted which leaves a value range of the training phase or to other singularities how diverging or nonsensical results would lead. Switching the output for an inconsistent next state vector in the multiplexer to the causal scheduler thus forces that only correct and suitable state vectors are implemented on the hardware. As a result, the modular multilevel converter is temporarily, i. H. in each case for the one state vector found to be inconsistent between two switching changes, operated by the alternative, causal scheduler, which provides reliable next state vectors, and the scheduler is given additional redundancy to prevent critical switch positions. However, the scheduling is primarily controlled by the neural network, since the neural network is generally better suited to carry out operational management of the modular multilevel converter with optimal efficiency for the respective requirements.

Es ist auch denkbar, sollte der vom neuronalen Netz ausgegebene nächste Zustandsvektor inkonsistent sein, dass die Bewertungseinheit gleich für mehrere Zeitpunkte hintereinander den Multiplexer anweist, den jeweils nächsten Zustandsvektor von dem kausalen Scheduler an die Hardware weiterzugeben. Dies kann insbesondere dann hilfreich sein, wenn das neuronale Netz bei solch einem Ereignis zunächst eine Neuanpassung seiner Netzparameter erfahren soll oder gewartet werden soll, dass eine Betriebsgröße ein Regime verlässt, in welchem das neuronale Netz (noch) nicht trainiert ist bzw. unsinnige Zustandsvektoren ausgibt.It is also conceivable, should the next state vector output by the neural network be inconsistent, that the evaluation unit instructs the multiplexer for several times in succession to forward the next state vector from the causal scheduler to the hardware. This can be particularly helpful if the neural network should first experience a readjustment of its network parameters in the event of such an event or it should be waited for an operating variable to leave a regime in which the neural network has not (yet) been trained or outputs nonsensical state vectors .

In einer fortgesetzt weiteren Ausführungsform des erfindungsgemäßen Verfahrens wird die mindestens eine vorgegebene Einflussgröße für den kausalen Scheduler aus folgender Liste gewählt: Spannungsanforderung, Amplitudenverlauf, Schalthistorie der einzelnen Module, insbesondere die in naheliegender Vergangenheit durch viele Schaltvorgänge stark belasteten Module, Modultemperatur, gleichmäßige Entladung von Energiespeichern in den Modulen wie bspw. Batterien oder Zwischenkreiskondensatoren, Look-Up Tables. Der alternativ vom Multiplexer anwählbare kausale Scheduler kann damit weitere Einflussgrößen heranziehen, die nicht notwendigerweise Grundlage des Trainings des neuronalen Netzes waren. Gegebenenfalls kann eine solche Einflussgröße jedoch eine schnellere, heuristische Ausgabe eines Zustandsvektors ermöglichen.In a further further embodiment of the method according to the invention, the at least one predefined influencing variable for the causal scheduler is selected from the following list: voltage requirement, amplitude curve, switching history of the individual modules, in particular the modules that have been heavily loaded in the near past by many switching operations, module temperature, uniform discharge of energy stores in the modules such as batteries or intermediate circuit capacitors, look-up tables. The causal scheduler, which can alternatively be selected by the multiplexer, can thus use further influencing variables that were not necessarily the basis for training the neural network. However, if necessary, such an influencing variable can enable a faster, heuristic output of a state vector.

In einer noch weiter fortgesetzten Ausführungsform des erfindungsgemäßen Verfahrens wird zur asynchronen Optimierung eine Methode des bestärkenden Lernens, vom Fachmann auch englisch als reinforcement learning bezeichnet, verwendet. Hierzu kann eine wie in R. S. Sutton and A. G. Barto: Reinforcement learning: An introduction. In: MIT press, 2018 oder auch R. S. Sutton, D. A. McAllester, S. P. Singh, and Y. Mansour: Policy gradient methods for reinforcement learning with function approximation. In: Advances in neural information processing systems, 2000, S. 1057–1063 beschriebene Methode eingesetzt werden. Dabei kann ein sogenanntes „Monte Carlo Policy Gradient“-Methode verwendet werden, welche einerseits eine Bewertung der jeweiligen Ausgangsgröße des neuronalen Netzes, die hier durch den Zustandsvektor gebildet wird, benötigt, andererseits die Bewertungseinheit zur Steuerung des Multiplexers genau eine solche Bewertung bereits liefert. Bei einem neuronalen Netz im Zusammenhang mit einem Bewertungssystem spricht man auch von einem Agenten. Ein jeweiliger zeitlicher Abschnitt, in dem Daten zu einer asynchronen Optimierung herangezogen werden, wird als eine Episode bezeichnet. Es können dabei auch bereits bekannte Zustandsvektoren aus einem wohl erprobten, bekannten Scheduler herangezogen werden. Für die asynchrone Optimierung können die Daten in beliebig lange Episoden aufgeteilt werden, wobei für die jeweilige Episode eine Evaluation der jeweiligen Ausgangsgrößen bzw. Zustandsvektoren stattfindet. Am Ende einer oder mehrerer Episoden werden dann die Netzparameter des neuronalen Netzes aktualisiert. Eine hierfür notwendige Loss- und Reward-Funktion wird asynchron zur Laufzeit berechnet. Als Beispiel für den Loss kann bspw. ein Mittelwert einer Pulsweitenmodulation herangezogen werden. Durch die asynchron, also nicht zu jedem Schalttakt stattfindenden Optimierungen und optionalen Updates des neuronalen Netzes können einfache Systemschwankungen, die ansonsten zu einem Driften aus einem optimalen Betriebsbereich führen, kompensiert werden.In an even further embodiment of the method according to the invention, a method of reinforcement learning is used for asynchronous optimization, also called reinforcement learning by the person skilled in the art. For this purpose, a like in RS Sutton and AG Barto: Reinforcement learning: An introduction. In: MIT press, 2018 or RS Sutton, DA McAllester, SP Singh, and Y. Mansour: Policy gradient methods for reinforcement learning with function approximation. In: Advances in neural information processing systems, 2000, pp. 1057-1063 described method can be used. A so-called “Monte Carlo Policy Gradient” method can be used, which on the one hand requires an evaluation of the respective output variable of the neural network, which is formed here by the state vector, and on the other hand the evaluation unit for controlling the multiplexer already delivers precisely such an evaluation. In the case of a neural network in connection with an evaluation system, one also speaks of an agent. A particular time segment in which data is used for an asynchronous optimization is referred to as an episode. State vectors that are already known from a well-tried, known scheduler can also be used. For asynchronous optimization, the data can be divided into episodes of any length, with an evaluation of the respective output variables or state vectors taking place for the respective episode. At the end of one or more episodes, the network parameters of the neural network are then updated. A loss and reward function required for this is calculated asynchronously at runtime. An average value of a pulse width modulation can be used as an example for the loss. The optimizations and optional updates of the neural network that take place asynchronously, i.e. not at every switching cycle, make it possible to compensate for simple system fluctuations that would otherwise lead to a drift out of an optimal operating range.

In einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens wird das neuronale Netz vor Inbetriebnahme der Hardware trainiert, indem das neuronale Netz in einem ersten Schritt an einen Trainingsaufbau angeschlossen wird und mit Trainingsdaten, gebildet aus mehreren Werten der mindestens einen vorgegebenen Betriebsgröße und zugehörigen Zustandsvektoren, und dem numerischen Modell des modularen Multilevelkonverters für einen Backpropagation-Algorithmus trainiert wird. Es ist denkbar, dass die Zustandsvektoren bspw. von einem bereits getesteten Scheduler erzeugt worden sind und die zugehörigen Messwerte an einer Hardware als Reaktion auf den jeweiligen Zustandsvektor gemessen wurden. In einem zweiten Schritt wird das trainierte neuronale Netz von dem Trainingsaufbau getrennt und nach Inbetriebnahme der Hardware für das Scheduling herangezogen.In a further embodiment of the method according to the invention, the neural network is trained before the hardware is put into operation in that the neural network is connected to a training structure in a first step and with training data, formed from several values of the at least one specified operating variable and associated state vectors, and the numerical Model of the modular multilevel converter for a backpropagation algorithm is trained. It is conceivable that the state vectors have been generated, for example, by a scheduler that has already been tested and the associated measured values were measured on hardware as a reaction to the respective state vector. In a second step, the trained neural network is separated from the training structure and used for scheduling after the hardware has been commissioned.

Das neuronale Netz umfasst zwischen Input und Output eine sogenannte Hidden Layer, die mindestens eine, in der Regel jedoch zwei Ebenen mit mehreren Knoten aufweist, wobei eine Zahl an Knoten in der Regel größer ist als eine Zahl an Inputknoten. Die jeweiligen Knoten der Hidden Layer weisen in der Regel ein und dieselbe Aktivierungsfunktion mit jeweilig unterschiedlichen Parametern auf, wobei Eingaben an einen jeweiligen Knoten an mit variablen Gewichten versehen sind, Diese jeweiligen Parameter bzw. Gewichte werden In der Trainingsphase bestimmt. Da jedoch ein untrainiertes neuronales Netz auch Zustandsvektoren bilden kann, die eine Hardware schädigen können, ist es vorteilhaft, in der Trainingsphase das numerische Model des modularen Multilevelkonverters, und nicht die Hardware selbst, heranzuziehen. Dies wird mittels des sogenannten Backpropagation-Algorithmus so lange durchgeführt, bis der erzeugte Output für alle Trainingsdaten in dem numerischen Modell des modularen Multilevelkonverters bspw. in denjenigen Istspannungsleveln resultiert, welche insgesamt einen geringsten Unterschied zu einer Gesamtheit aus den den jeweiligen Zustandsvektoren der Trainingsdaten zugeordneten Spannungsleveln bilden. Dabei ist es vorteilhaft, wenn die Trainingsdaten möglichst zahlreich über einen weiten und unterschiedlichen Anwendungsbereich bzw. Betriebsbereich verteilt sind. Sind die Parameter bzw. Variablen bestimmt, ist das neuronale Netz vorteilhaft in der Lage, zwischen zwei Schaltwechseln, den jeweils nächsten Zustandsvektor mit hoher Rechengeschwindigkeit auszugeben, so dass das Scheduling in Echtzeit ausgeführt werden kann. Weiter vorteilhaft ist, dass hierzu weniger Ressourcen erforderlich sind, da ein für die Trainingsphase bzw. den Backpropagation-Algorithmus notwendige Simulationsumgebung wegfällt.The neural network comprises a so-called hidden layer between input and output, which has at least one, but usually two levels with several nodes, with a number of nodes generally being greater than a number of input nodes. The respective nodes of the hidden layer generally have one and the same activation function with respectively different parameters, inputs to a respective node being provided with variable weights. These respective parameters or weights are determined in the training phase. However, since an untrained neural network can also form state vectors that can damage hardware, it is advantageous to use the numerical model of the modular multilevel converter and not the hardware itself in the training phase. This is carried out using the so-called backpropagation algorithm until the output generated for all training data in the numerical model of the modular multilevel converter results, for example, in those actual voltage levels which, overall, have the slightest difference to a total of the voltage levels assigned to the respective state vectors of the training data form. It is advantageous if the training data are distributed as numerous as possible over a wide and different application area or operating area. Once the parameters or variables have been determined, the neural network is advantageously able to output the next state vector between two switching changes at high computing speed so that the scheduling can be carried out in real time. It is also advantageous that fewer resources are required for this, since a simulation environment required for the training phase or the backpropagation algorithm is no longer necessary.

In einer anderen Ausführungsform des erfindungsgemäßen Verfahrens werden die vorgegebenen Trainingsdaten durch einen prädiktiven Scheduler generiert, wobei der prädiktive Scheduler mindestens ein Optimierungskriterium verwendet, welches mindestens einer vorgegebenen Betriebsgröße entspricht. Das Optimierungskriterium kann bspw. durch eine besonders genaue Darstellung eines Sollspannungslevels gebildet sein, woraufhin der prädiktive Scheduler mindestens einen Zustandsvektor berechnet, der diesem Optimierungskriterium am besten nachkommt. Eine solche Berechnung ist in der Regel keinesfalls in Echtzeit, also innerhalb eines Zeitraums zwischen zwei Schaltwechseln, möglich. Hierzu können dann weitere Optimierungskriterien kommen, die schließlich in mindestens einem Zustandsvektor resultieren, der ein technisch möglichst optimales Verhalten des numerischen Modells repräsentiert, bspw. ausgeglichene Energiespeicher, geringste EMV, keine Schaltverluste, etc.
In einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens wird insgesamt eine ASIL-D-Einstufung der Steuerung des modularen Multilevelkonverters mittels des selbstlernenden neuronalen Netzes erreicht, in dem mindestens in folgender Liste genannte Komponenten nach ASIL-D-Einstufung ausgelegt werden: kausaler Scheduler, Bewertungseinheit, Multiplexer. Mit einer ASIL-Einstufung, Akronym für englisch „automotive safety integrity level“, wird nach ISO 26262 eine Aussage über eine Ausfallwahrscheinlichkeit im Verhältnis zur Betriebsdauer getroffen. Die ASIL-D-Einstufung der Steuerung wird durch die erfindungsgemäße Anordnung des Multiplexers bzw. einer jeweiligen von dem kausalen Scheduler bereitgestellten ASIL-D-Alternative selbst dann erreicht, wenn das neuronale Netz nicht höher als bspw. ASIL-B eingestuft werden kann. Obwohl der selbstlernende Teil der Steuerung bzw. das neuronale Netz selbst mit hohem Qualitätsmanagement und Kosten auf Grund der geringen Redundanz des jeweiligen Outputs meist nur mit ASIL-B-Level implementiert werden kann, übertragen die daran angeschlossenen Komponenten wie Bewertungseinheit, kausaler Scheduler und Multiplexer ihre ASIL-D-Einstufung auf die Steuerung des modularen Multilevelkonverters.
In another embodiment of the method according to the invention, the predetermined training data are generated by a predictive scheduler, the predictive scheduler using at least one optimization criterion which corresponds to at least one predetermined operating variable. The optimization criterion can be formed, for example, by a particularly precise representation of a setpoint voltage level, whereupon the predictive scheduler calculates at least one state vector that best meets this optimization criterion. Such a calculation is usually not possible in real time, i.e. within a period between two switching changes. Additional optimization criteria can then be added to this, which ultimately result in at least one state vector that represents a technically optimal behavior of the numerical model, e.g. balanced energy storage, lowest EMC, no switching losses, etc.
In a further embodiment of the method according to the invention, an overall ASIL-D classification of the control of the modular multilevel converter is achieved by means of the self-learning neural network, in which at least the components mentioned in the following list are designed according to ASIL-D classification: causal scheduler, evaluation unit, multiplexer . With an ASIL classification, acronym for “automotive safety integrity level”, a statement is made about the probability of failure in relation to the operating time according to ISO 26262. The ASIL-D classification of the controller is achieved by the inventive arrangement of the multiplexer or a respective ASIL-D alternative provided by the causal scheduler even if the neural network cannot be classified higher than, for example, ASIL-B. Although the self-learning part of the control or the neural network itself with high quality management and costs can usually only be implemented with ASIL-B level due to the low redundancy of the respective output, the components connected to it, such as evaluation unit, causal scheduler and multiplexer, transmit theirs ASIL-D classification for the control of the modular multilevel converter.

Weiter ist es denkbar, dass die Bewertung bzw. die Bewertungseinheit zur Gewährleitung einer hohen ASIL-Sicherheit auch mehrfach ausgelegt sein kann. So kann eine Anzahl von Bewertungseinheiten implementiert sein, wobei die jeweilige Bewertung nach unterschiedlichen Maßstäben ausgeführt sein kann. Sobald dann bspw. eine Mindestanzahl bzw. Mindestanteil dieser Bewertungseinheiten den von dem neuronalen Netz bereitgestellten nächsten Zustandsvektor als nicht erlaubt deklariert, wird der Multiplexer umgeschaltet und die Ausgabe des kausalen Scheduler an die Hardware weitergegeben.It is also conceivable that the evaluation or the evaluation unit can also be designed multiple times to ensure a high ASIL security. A number of evaluation units can thus be implemented, the respective evaluation being carried out according to different standards can be. As soon as, for example, a minimum number or minimum proportion of these evaluation units declares the next state vector provided by the neural network as not allowed, the multiplexer is switched over and the output of the causal scheduler is passed on to the hardware.

Ein nach ASIL-D-Level ausgelegter kausaler Scheduler kann im einfachsten Fall durch eine Lookup-Tabelle, die jeder Amplitudenanforderung eine oder mehrere alternative Modulzustände zuweist, dargestellt sein. Diese Tabelle ist dem Wesen nach somit schlicht ein Speicher, vorzugsweise ein ROM-Speicher, der in Hardware ausgeführt werden kann. Optional kann der Speicher ferner Checksummen mit abspeichern (ECC-Speicher), um Speicherfehler bei fortgeschrittener Lebensdauer bzw. Betriebsdauer erkennen oder korrigieren zu können, so dass auch ein solches System mit minimalem Aufwand ASIL-D-fähig werden kann. Das angeforderte Spannungslevel kann beispielsweise direkt eine Speicheradresse des Speichers sein, während der oder die möglichen Zustände ein Speicherinhalt sind. Damit wird automatisch auf Angabe des gewünschten Spannungslevels (durch Regelung und/oder Schaltmodulator) der Speicherinhalt an den Multiplexer und/oder die Bewertungseinheit weitergegeben.A causal scheduler designed according to the ASIL-D level can in the simplest case be represented by a lookup table which assigns one or more alternative module states to each amplitude requirement. In essence, this table is thus simply a memory, preferably a ROM memory, which can be implemented in hardware. Optionally, the memory can also store checksums (ECC memory) in order to be able to recognize or correct memory errors with an advanced service life or operating time, so that such a system can also become ASIL-D capable with minimal effort. The requested voltage level can, for example, directly be a memory address of the memory, while the possible state or states are a memory content. In this way, the memory content is automatically passed on to the multiplexer and / or the evaluation unit when the desired voltage level is specified (by regulation and / or switching modulator).

Ferner wird eine Vorrichtung zu einer Steuerung eines modularen Multilevelkonverters mittels eines selbstlernenden neuronalen Netzes, welche eine Recheneinheit, einen modularen Multilevelkonverter als eine Hardware und auf ein numerisches Modell abgebildet als eine Software, mindestens einen Messsensor zu einer Messung einer Betriebsgröße der Hardware, eine Bewertungseinheit, einen kausalen Scheduler, der dazu ausgelegt ist für jeden Schaltwechsel gemäß mindestens einer vorgegebenen Einflussgröße einen nächsten Ersatzzustandsvektor bereitzustellen, einen Multiplexer und einen asynchronen Optimierer umfasst. Die Vorrichtung ist dazu konfiguriert, zu einem jeweiligen Zeitpunkt vorliegende Schaltzustände der Module des modularen Multilevelkonverters als einen jeweiligen Zustandsvektor, der mindestens ein Istspannungslevel des modularen Multilevelkonverters zu dem jeweiligen Zeitpunkt realisiert, darzustellen, mindestens eine Eingangsgröße des neuronalen Netzes von mindestens einer vorgegebenen Betriebsgröße des modularen Multilevelkonverters zu dem jeweiligen Zeitpunkt zu bilden und für ein Scheduling mit dem neuronalen Netz als eine Ausgangsgröße den für einen nächsten Zeitpunkt auf dem modularen Multilevelkonverter zu schaltenden nächsten Zustandsvektor zu bilden. Das neuronale Netz weist dabei mehrere Netzparameter auf. Die Ausgangsgröße des neuronalen Netzes ist der Bewertungseinheit und dem Multiplexer zugeleitet, wobei ein Ausgang des Multiplexers mit der Hardware verbunden ist. Schließlich ist die Vorrichtung dazu konfiguriert, mit der Bewertungseinheit den Multiplexer zu steuern, indem bei einer Konsistenz des von dem neuronalen Netz bereitgestellten nächsten Zustandsvektors der Multiplexer diesen an die Hardware weitergibt und bei einer Inkonsistenz der Multiplexer den von dem kausalen Scheduler gebildeten nächsten Ersatzzustandsvektor an die Hardware weitergibt, und mit dem asynchronen Optimierer, dem eine von der Bewertungseinheit vorgenommene Bewertung der Konsistenz des von dem neuronalen Netz bereitgestellten nächsten Zustandsvektors vorliegt, eine Anpassung der Netzparameter durchzuführen.Furthermore, a device for controlling a modular multilevel converter by means of a self-learning neural network, which includes a computing unit, a modular multilevel converter as hardware and mapped onto a numerical model as software, at least one measuring sensor for measuring an operating variable of the hardware, an evaluation unit, a causal scheduler, which is designed to provide a next substitute state vector for each switching change according to at least one predetermined influencing variable, comprises a multiplexer and an asynchronous optimizer. The device is configured to present switching states of the modules of the modular multilevel converter at a particular point in time as a respective state vector that realizes at least one actual voltage level of the modular multilevel converter at the respective point in time, at least one input variable of the neural network of at least one predetermined operating variable of the modular To form multilevel converter at the respective point in time and to form the next state vector to be switched for a next point in time on the modular multilevel converter for a scheduling with the neural network as an output variable. The neural network has several network parameters. The output variable of the neural network is fed to the evaluation unit and the multiplexer, one output of the multiplexer being connected to the hardware. Finally, the device is configured to control the multiplexer with the evaluation unit, in that if the next state vector provided by the neural network is consistent, the multiplexer passes this on to the hardware and, if the multiplexer is inconsistent, the next substitute state vector formed by the causal scheduler to the Hardware passes on, and with the asynchronous optimizer, which has an evaluation made by the evaluation unit of the consistency of the next state vector provided by the neural network, to carry out an adaptation of the network parameters.

In einer weiteren Ausgestaltung der erfindungsgemäßen Vorrichtung ist die mindestens eine vorgegebene Betriebsgröße aus folgender Liste gewählt: Sollspannungslevel, gleichmäßige Modulbelastung, gleichmäßige Entladung von Energiespeichern, minimale Verluste im System, Reduktion von Stromwelligkeit.In a further embodiment of the device according to the invention, the at least one predetermined operating variable is selected from the following list: nominal voltage level, uniform module load, uniform discharge of energy storage devices, minimal losses in the system, reduction of current ripple.

In einer noch weiteren Ausgestaltung der erfindungsgemäßen Vorrichtung ist die Bewertungseinheit dazu ausgelegt, die Überprüfung der Konsistenz mindestens für ein Sollspannungslevel durchzuführen, indem es ein aus dem vom neuronalen Netz bereitgestellten nächsten Zustandsvektor resultierendes Istspannungslevel mit dem Sollspannungslevel vergleicht, wobei bei einer Abweichung eine Inkonsistenz vorliegt.In yet another embodiment of the device according to the invention, the evaluation unit is designed to check the consistency of at least one target voltage level by comparing an actual voltage level resulting from the next state vector provided by the neural network with the target voltage level, an inconsistency being present in the event of a deviation.

In einer fortgesetzt weiteren Ausgestaltung der erfindungsgemäßen Vorrichtung ist die mindestens eine vorgegebene Einflussgröße für den kausalen Scheduler aus folgender Liste gewählt: Spannungsanforderung, Amplitudenverlauf, Schalthistorie, Modultemperatur, gleichmäßige Entladung, Look-Up Tables.In a continued further embodiment of the device according to the invention, the at least one predefined influencing variable for the causal scheduler is selected from the following list: voltage requirement, amplitude curve, switching history, module temperature, uniform discharge, look-up tables.

In einer weiteren Ausgestaltung der erfindungsgemäßen Vorrichtung weist die Vorrichtung zusätzlich einen Trainingsaufbau für das neuronale Netz auf, wobei der Trainingsaufbau einen prädiktiven Scheduler, das numerische Modell des modularen Multilevelkonverters und eine Trainingsbewertungseinheit umfasst und der prädiktive Scheduler mindestens ein Optimierungskriterium verwendet, das mindestens einer vorgegebenen Betriebsgröße entspricht. Dabei ist die Vorrichtung dazu konfiguriert, in einem ersten Schritt das neuronale Netz vor Inbetriebnahme der Hardware zu trainieren, indem für das Training Trainingsdaten, gebildet aus mehreren Werten der mindestens einen Betriebsgröße und zugehörige Zustandsvektoren, und das numerische Modell des modularen Multilevelkonverters für einen Backpropagation-Algorithmus herangezogen werden, und in einem zweiten Schritt das trainierte neuronale Netz nach Inbetriebnahme der Hardware für das Scheduling heranzuziehen.In a further embodiment of the device according to the invention, the device also has a training structure for the neural network, the training structure including a predictive scheduler, the numerical model of the modular multilevel converter and a training evaluation unit, and the predictive scheduler using at least one optimization criterion that includes at least one predetermined operating variable corresponds. The device is configured to train the neural network in a first step before the hardware is put into operation by using training data for the training, formed from several values of the at least one operating variable and associated state vectors, and the numerical model of the modular multilevel converter for a backpropagation Algorithm can be used and, in a second step, the trained neural network is used for scheduling after the hardware has been commissioned.

Die vorgegebenen Trainingsdaten können entweder bekannte Zustandsvektoren mit zugehörige aufgezeichnete Messwerten sein, oder aus einem prädiktiven Scheduler, stammen, wobei der prädiktive Scheduler mindestens ein Optimierungskriterium verwendet, welches mindestens einer vorgegebenen Betriebsgröße entspricht. Für den zweiten Schritt wird das trainierte neuronale Netz von einem Trainingsaufbau getrennt, d. h. der gegebenenfalls angeordnete prädiktive Scheduler wird abgetrennt, und stattdessen die Hardware, der Multiplexer und der kausaler Scheduler eingefügt bzw. angebunden.The predetermined training data can either be known state vectors with associated recorded measured values, or come from a predictive scheduler, the predictive scheduler using at least one optimization criterion which corresponds to at least one predetermined operating variable. For the second step, the trained neural network is separated from a training structure, ie the possibly arranged predictive scheduler is separated and instead the hardware, the multiplexer and the causal scheduler are inserted or connected.

Das trainierte neuronale Netz kann bspw. auf einem Field Programmable Gate Array, abgekürzt FPGA, realisiert sein. Durch eine Implementierung des neuronalen Netzes auf dem FPGA ist es vorteilhaft ermöglicht, ein von dieser Implementierung getrenntes weiteres Trainieren des neuronalen Netzes gegebenenfalls mit neu hinzugekommenen Trainingsdaten stattfinden zu lassen, und das durch das erweiterte Training verbesserte neuronale Netz zu einem späteren Zeitpunkt, bspw. bei einem Wartungstermin, „aufzuspielen“ und dadurch das ursprünglich verwendete neuronale Netz zu ersetzen.The trained neural network can be implemented, for example, on a field programmable gate array, or FPGA for short. Implementing the neural network on the FPGA advantageously enables further training of the neural network to take place separately from this implementation, if necessary with newly added training data, and the neural network improved by the extended training at a later point in time, for example at a maintenance appointment to "play up" and thereby replace the neural network originally used.

Generell weist ein Programmablauf des neuronalen Netzes auf der Recheneinheit vorteilhaft parallelisierbare algorithmische Strukturen auf, die auf einer ebenfalls mit Möglichkeiten zu einer parallelen Ausführung ausgestatteten Recheneinheit zu einer Vervielfachung einer Rechengeschwindigkeit führen und daher gestatten, dass die zur Ausgabe eines jeweilig nächsten Zustandsvektors notwendigen Rechenoperationen zu einer Laufzeit bzw. in Echtzeit abgeschlossen werden, um eine Betriebsführung mit optimalem Wirkungsgrad durchführen zu können.In general, a program run of the neural network on the arithmetic unit has algorithmic structures that can advantageously be parallelized, which lead to a multiplication of a computation speed on a computation unit that is also equipped with options for parallel execution and therefore allow the computation operations necessary for outputting a respective next state vector to become one Run time or in real time to be able to carry out an operational management with optimal efficiency.

Schließlich wird ein nichtflüchtiges computerlesbares Medium beansprucht, das ein Computerprogramm mit Programmcodemitteln umfasst, die dazu ausgelegt sind, wenn das Computerprogramm auf einer Recheneinheit, insbesondere auf der Recheneinheit der voranstehend beschriebenen erfindungsgemäßen Vorrichtung, sequentiell oder parallelisiert abläuft, einen oder mehrere Schritte des voranstehend beschriebenen erfindungsgemäßen Verfahrens auszuführen.Finally, a non-transitory computer-readable medium is claimed which comprises a computer program with program code means which are designed for when the computer program runs sequentially or in parallel on a computing unit, in particular on the computing unit of the inventive device described above, one or more steps of the inventive apparatus described above Procedure.

Aufgrund eines begrenzt zur Verfügung stehenden Raumes und einer begrenzten rechentechnischer Ausstattungsmöglichkeit bei einem Elektrofahrzeug, welches mindestens einen modularen Multilevelkonverter umfasst ist es vorteilhaft, hier eine Ausgestaltung der erfindungsgemäßen Vorrichtung anzuordnen.Due to the limited space available and a limited computational equipment option in an electric vehicle which includes at least one modular multilevel converter, it is advantageous to arrange an embodiment of the device according to the invention here.

Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und den beiliegenden Zeichnungen.Further advantages and configurations of the invention emerge from the description and the accompanying drawings.

Es versteht sich, dass die voranstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.It goes without saying that the features mentioned above and those yet to be explained below can be used not only in the respectively specified combination, but also in other combinations or on their own, without departing from the scope of the present invention.

Die Figuren werden zusammenhängend und übergreifend beschrieben, gleichen Komponenten sind dieselben Bezugszeichen zugeordnet.

  • 1 zeigt ein Steuerungsschema zu einer Ausführungsform des erfindungsgemäßen Verfahrens.
  • 2 zeigt schematisch einen Trainingsaufbau zu einer Ausführungsform des erfindungsgemäßen Verfahrens.
  • 3 zeigt schematisch eine Abtrennung vom Trainingsaufbau zu einer Ausführungsform des erfindungsgemäßen Verfahrens.
The figures are described coherently and comprehensively; the same components are assigned the same reference symbols.
  • 1 shows a control scheme for an embodiment of the method according to the invention.
  • 2 shows schematically a training structure for an embodiment of the method according to the invention.
  • 3 shows schematically a separation from the training structure for an embodiment of the method according to the invention.

In 1 wird ein Steuerungsschema 100 zu einer Ausführungsform des erfindungsgemäßen Verfahrens gezeigt. Eine Motorsteuerung 9 übermittelt an einen Input-Datenpool 3 ein Sollspannungslevel 938, welches beim nächsten Schalttakt an einem Elektromotor 10 vorliegen soll. Der Input-Datenpool 3 übermittelt dieses sowie unbehandelte Rohdaten 32 bzw. Messwerte 32 an ein Preprocessing 2 für ein neuronales Netz (NN) 1. Die Rohdaten 32 bzw. Messwerte 32 kommen aus Sensoren bspw. aus einer Leistungselektronik 7 oder einem Elektromotor 10, und beschreiben bspw. einen Ladezustand von Energiespeichern (SoC), oder Modulströme, Spannungen, gegenwärtige Modulzustände, und/oder ein gegenwärtig von der Leistungselektronik 7 dargestelltes Spannungslevel. Nach dem Preprocessing 2 werden diese dem neuronalen Netz 1 zugeleitet, welches als Ausgangsgröße einen nächsten Zustandsvektor 156, der alle Schaltzustände der modularen Leistungselektronik 7 umfasst, erzeugt und an eine Bewertungseinheit 5 bzw. ein Rating System 5 und einen Multiplexer 6 weitergibt. Zusätzlich liegen der Bewertungseinheit 5 auch ein auf einfachen Abschätzungen beruhender, aber für die Leistungselektronik 7 betriebssicherer Zustandsvektor 856 aus einem kausalen Scheduler 8 vor. Das neuronale Netz 1 weist lediglich ASIL-B Level auf, da bspw. kaum oder nur mit sehr großem Aufwand Redundanz für dessen Entscheidungen vorliegt, oder auch Normvorgaben ( ISO 26262 ), wie bspw. unterschiedliche Entwickler- und Reviewteams für eine Softwareprogrammierung des NN 1 ggfs. nicht erfüllt sind, und es durch numerische Eigenheiten des neuronalen Netzes 1 auch zu unsinnigen bzw. die Leistungselektronik 7 gefährdenden Zustandsvektoren 156 kommen kann. Demgegenüber ist für den kausalen Scheduler 8, die Bewertungseinheit 5 und den Multiplexer 6 ein ASIL-D Level einfach zu verwirklichen. Je nach Bewertung des vom neuronalen Netz ausgegebenen nächsten Zustandsvektors 156, erhält der Multiplexer 6 von der Bewertungseinheit 5 eine binäre Entscheidung 56, welcher der beiden Zustandsvektoren 156 oder 856 der Leistungselektronik 7 zu übermitteln ist. Die modulare Leistungselektronik 7 setzt zum nächsten Schalttakt die dem übermittelten Zustandsvektor entsprechenden Schaltzustände um und erzeugt damit einen zum Elektromotor 10 weitergeleiteten Strom 710, der bspw. ein Drei-Phasen-Wechselstrom zum Betrieb eines Traktionsmotors 10 eines Elektrofahrzeuges sein kann. Vom Elektromotor 10 erhält die Motorsteuerung wiederum ein Feedback bzw. ein Rückmeldesignal 109 bzgl. der im Elektromotor 10 fließenden Ströme, einer Rotorwinkelposition, vorliegender Spannungen, etc. Weiter übermittelt der Elektromotor 10 an den Input-Datenpool 3 und den kausalen Scheduler 8 zusätzliche Daten 1038, bspw. zur Rotorwinkelposition oder eine Drehzahl des Rotors. Auch die Leistungselektronik übermittelt zusätzliche Daten 738 an den Input-Datenpool 3 und den kausalen Scheduler 8, bspw. zu einer Schätzung des Ladezustandes der Energiespeicher. Schließlich wird in der gezeigten Ausführungsform des erfindungsgemäßen Verfahrens von dem asynchronen Optimierer ein reinforcement learning bzw. bestärkendes Lernen zum neuronalen Netz 1 durchgeführt. Hierzu erhält der asynchrone Optimierer 4 von der Bewertungseinheit 5 eine jeweilige Bewertung 54 des jeweils nächsten Zustandsvektors 156 und wie gut dieser vorgegebene Ziele, bspw. eine Sollspannung 938 umsetzen konnte. Daraus werden für mehrere solche, in Episoden unterteilte Daten bspw. mittels einer „Monte Carlo Policy Gradient“-Methode verbesserte Netzparameter berechnet und als ein Update 41 auf das neuronale Netz 1 übertragen.In 1 becomes a control scheme 100 shown for an embodiment of the method according to the invention. An engine control 9 transmitted to an input data pool 3 a target voltage level 938 , which at the next switching cycle on an electric motor 10 should be present. The input data pool 3 transmits this as well as untreated raw data 32 or measured values 32 to preprocessing 2 for a neural network (NN) 1 . The raw data 32 or measured values 32 come from sensors, for example from power electronics 7th or an electric motor 10 , and describe, for example, a state of charge of energy storage devices (SoC), or module currents, voltages, current module states, and / or a current state of power electronics 7th shown voltage level. After preprocessing 2 these become the neural network 1 supplied, which as an output variable is a next state vector 156 , which shows all switching states of the modular power electronics 7th includes, generated and sent to an evaluation unit 5 or a rating system 5 and a multiplexer 6th passes on. Additionally lie the valuation unit 5 also one based on simple estimates, but for power electronics 7th operationally reliable state vector 856 from a causal scheduler 8th in front. The neural network 1 only has ASIL-B level, for example, because there is hardly any redundancy for its decisions, or only with a great deal of effort, or also standard specifications ( ISO 26262 ), such as different developer and review teams for software programming of the NN 1 possibly not fulfilled, and it is due to numerical peculiarities of the neural network 1 also too nonsensical or the power electronics 7th endangering state vectors 156 can come. In contrast, for the causal scheduler 8th , the valuation unit 5 and the multiplexer 6th an ASIL-D level is easy to achieve. Depending on the evaluation of the next state vector output by the neural network 156 the multiplexer receives 6th from the evaluation unit 5 a binary choice 56 which of the two state vectors 156 or 856 of power electronics 7th is to be transmitted. The modular power electronics 7th converts the switching states corresponding to the transmitted state vector at the next switching cycle and thus generates one for the electric motor 10 forwarded electricity 710 , the e.g. a three-phase alternating current for the operation of a traction motor 10 of an electric vehicle. From the electric motor 10 the motor control in turn receives a feedback or a feedback signal 109 regarding the one in the electric motor 10 flowing currents, a rotor angle position, existing voltages, etc. The electric motor also transmits 10 to the input data pool 3 and the causal scheduler 8th additional data 1038 , for example the rotor angle position or a speed of the rotor. The power electronics also transmit additional data 738 to the input data pool 3 and the causal scheduler 8th , for example to estimate the state of charge of the energy storage. Finally, in the embodiment of the method according to the invention shown, the asynchronous optimizer performs reinforcement learning or reinforcement learning for the neural network 1 carried out. To do this, the asynchronous optimizer receives 4th from the evaluation unit 5 a respective rating 54 of the next state vector 156 and how well these predetermined goals, e.g. a target voltage 938 could implement. From this, improved network parameters are calculated for several such data, divided into episodes, for example using a "Monte Carlo Policy Gradient" method, and as an update 41 on the neural network 1 transfer.

In 2 wird schematisch ein Trainingsaufbau 2000 zu einer Ausführungsform des erfindungsgemäßen Verfahrens gezeigt. Der Trainingsaufbau 2000 ist aufgeteilt in einen Simulationsteil 2010 und ein Steuerungsteil 2020 mit neuronalem Netz 2025. Das zu trainierende neuronale Netz 2025 umfasst eine Ebene aus Inputknoten 2026, gegebenenfalls mehrere Ebenen aus Knoten einer Hidden Layer 2027, und eine Outputebene 2028. Einem jeweiligen Inputknoten 2026 wird durch ein Preprocessing 2021 ein jeweiliger Messwert einer Betriebsgröße 2022, 2023, 2024 zugewiesen. Bei der jeweiligen Betriebsgröße 2022, 2023, 2024 kann es sich bspw. um einen Ladezustand 2022 eines jeweiligen Energiespeichers, vom Fachmann mit SoC bezeichnet (abgekürzt für englisch State of Charge), und/oder um ein Spannungslevel 2023, und/oder um Modulströme 2024 handeln. Weitere Betriebsgrößen und entsprechend zugewiesene Inputknoten sind denkbar, in der 2 angedeutet durch Punkte 2029. Das Preprocessing 2021 erhält Trainingsdaten, die hier simulierte Daten 2011 aus einem numerischen Modell 2015 eines modularen Multilevelkonverters sind. Als Ausgabe des neuronalen Netzes 2025 wird ein nächster Zustandsvektor einer Bewertung bzw. einem Evaluierer 2014, der auch als eine Bewertungseinheit innerhalb des Trainingsaufbaus verstanden werden kann, zugeführt. Der Evaluierer errechnet mit dem numerischen Modell des modularen Multilevelkonverters 2015 eine Istspannung, welche sich durch die von dem nächsten Zustandsvektor bewirkten Schaltzustände ergeben würde, und gleicht diese mit einer Spannung ab, die der Evaluierer 2014 aus einem von einem Offline Scheduler 2012 erhaltenen Zustandsvektor zu den simulierten Daten 2011 errechnet hat. Eine jeweilige Abweichung zwischen den beiden Spannungswerten führt der Evaluierer 2014 einem Optimierer 2013 zu, der Parameter und Gewichte für das neuronale Netz 2025 geeignet anpasst und dem neuronalen Netz 2025 zuführt.In 2 is a schematic of a training structure 2000 shown for an embodiment of the method according to the invention. The training structure 2000 is divided into a simulation part 2010 and a control part 2020 with neural network 2025 . The neural network to be trained 2025 comprises a level of input nodes 2026 , possibly several levels from nodes of a hidden layer 2027 , and an output level 2028 . A respective input node 2026 is done by preprocessing 2021 a respective measured value of a company variable 2022 , 2023 , 2024 assigned. With the respective company size 2022 , 2023 , 2024 it can be, for example, a state of charge 2022 of a respective energy store, referred to by the person skilled in the art as SoC (abbreviated for State of Charge), and / or around a voltage level 2023 , and / or module currents 2024 act. Other company sizes and correspondingly assigned input nodes are conceivable in the 2 indicated by dots 2029 . The preprocessing 2021 receives training data, the data simulated here 2011 from a numerical model 2015 of a modular multilevel converter. As the output of the neural network 2025 becomes a next state vector of an assessment or an evaluator 2014 , which can also be understood as an evaluation unit within the training structure. The evaluator calculates with the numerical model of the modular multilevel converter 2015 an actual voltage, which would result from the switching states caused by the next state vector, and compares this with a voltage that the evaluator 2014 from one from an offline scheduler 2012 obtained state vector for the simulated data 2011 has calculated. The evaluator records a respective deviation between the two voltage values 2014 an optimizer 2013 zu, the parameters and weights for the neural network 2025 suitably adapts and the neural network 2025 feeds.

In 3 wird schematisch eine Abtrennung 3000 vom Trainingsaufbau zu einer Ausführungsform des erfindungsgemäßen Verfahrens gezeigt. Ist das neuronale Netz 2025 trainiert, erfolgt eine Trennung 3001 von Simulationsteil 2010 und Steuerungsteil 2020. Anstatt der simulierten Daten 2011 werden dem Preprocessing 2021 nun reale Messwerte 3031 zugeführt. Für einen vom neuronalen Netz 3025 ausgegebenen nächsten Zustandsvektor wird in einer Bewertungseinheit bzw. einem Überwachungsmodul 3033 die Istspannung berechnet, mit einer Sollspannung verglichen, und bei zu großer Abweichung oder unphysikalischen Werten auf einen von einem alternativen einfachen Scheduler 3032 simultan bereitgestellten Ersatzzustandsvektor zurückgegriffen. Der sich aus diesem Vorgang ergebende Zustandsvektor wird schließlich einer Hardware 3035 bzw. einem modularen Multilevelkonverter übermittelt. Ebenfalls werden der letztlich durch die Bewertungseinheit 3033 der Hardware 3035 übermittelte Zustandsvektor und zugehörige Messwerte einem Optimierer 3034 mitgeteilt, der die Netzparameter bspw. mit Methoden des bestärkenden Lernens gegebenenfalls asynchron anpasst.In 3 is schematically a separation 3000 shown from the training structure to an embodiment of the method according to the invention. Is the neural network 2025 trained, there is a separation 3001 of simulation part 2010 and control part 2020 . Instead of the simulated data 2011 are the preprocessing 2021 now real measured values 3031 fed. For someone from the neural network 3025 output next state vector is in an evaluation unit or a monitoring module 3033 the actual voltage is calculated, compared with a target voltage, and if the deviation is too great or unphysical values, to one of an alternative simple scheduler 3032 simultaneously provided substitute state vector is used. The state vector resulting from this process ultimately becomes hardware 3035 or a modular multilevel converter. They are also ultimately determined by the evaluation unit 3033 the hardware 3035 transmitted state vector and associated measured values to an optimizer 3034 communicated, which adapts the network parameters, for example, asynchronously using methods of reinforcement learning.

Claims (15)

Verfahren zu einer Steuerung (100, 3000) eines modularen Multilevelkonverters (7, 3035) mittels eines selbstlernenden neuronalen Netzes (1, 2025), bei dem der modulare Multilevelkonverter (7, 3035) als eine Hardware (7, 3035) und auf ein numerisches Modell (2015) abgebildet als eine Software (2015) vorliegt, bei dem zu einem jeweiligen Zeitpunkt vorliegende Schaltzustände der Module des modularen Multilevelkonverters (7, 3035) als ein jeweiliger Zustandsvektor dargestellt werden, bei dem durch den jeweiligen Zustandsvektor mindestens ein Istspannungslevel des modularen Multilevelkonverters (7, 3035) zu dem jeweiligen Zeitpunkt realisiert wird, bei dem mindestens eine Eingangsgröße (2026) des neuronalen Netzes (1, 2025) von mindestens einer vorgegebenen Betriebsgröße (2022, 2023, 2024) des modularen Multilevelkonverters(7, 3035) zu dem jeweiligen Zeitpunkt gebildet wird, bei dem das neuronale Netz (1, 2025) von mehreren Netzparametern bestimmt wird, bei dem von dem neuronalen Netz (1, 2025) als eine Ausgangsgröße (156, 2028) der für einen nächsten Zeitpunkt auf dem modularen Multilevelkonverter (7, 3035) zu schaltende nächste Zustandsvektor (156) gebildet wird, wobei zu Beginn des Verfahrens das neuronale Netz (1, 2025) in einem untrainierten Zustand vorliegt, wobei das neuronale Netz (1, 2025) für ein Scheduling, das für jeden Schaltwechsel ausgehend von einem jeweiligen Zeitpunkt einen nächsten Zustandsvektor (156) für einen nächsten Zeitpunkt bereitstellt, mit einem ersten Eingang eines Multiplexers (6) verbunden wird, wobei ein kausaler Scheduler (8, 3032), der für jeden Schaltwechsel ausgehend von einem jeweiligen Zeitpunkt gemäß mindestens einer vorgegebenen Einflussgröße (938, 2023) einen nächsten Ersatzzustandsvektor (856) für einen jeweils nächsten Zeitpunkt bereitstellt, mit einem zweiten Eingang des Multiplexers (6) verbunden wird, wobei ein Ausgang des Multiplexers (6) mit der Hardware (7, 3035) verbunden wird, wobei der Multiplexer (6) durch eine Bewertungseinheit (5, 3033) des von dem neuronalen Netz (1) bereitgestellten nächsten Zustandsvektors (156) gesteuert wird, wobei bei einer Konsistenz des nächsten Zustandsvektors (156) dieser von dem Multiplexer (6) an die Hardware (7, 3035) weitergegeben wird und bei einer Inkonsistenz der von dem kausalen Scheduler (8, 3032) gebildete nächste Ersatzzustandsvektor (856) von dem Multiplexer (6) an die Hardware (7, 3035) weitergegeben wird, und wobei durch eine asynchrone Optimierung (4, 3034), in der eine von der Bewertungseinheit (5, 3033) vorgenommene Bewertung (54) der Konsistenz des von dem neuronalen Netz (1, 2025) bereitgestellten nächsten Zustandsvektors (156) eingeht, eine Anpassung (41) der Netzparameter durchgeführt wird.Method for a control (100, 3000) of a modular multilevel converter (7, 3035) by means of a self-learning neural network (1, 2025), in which the modular multilevel converter (7, 3035) as a hardware (7, 3035) and a numerical Model (2015) mapped as software (2015) is available in which the switching states of the modules of the modular multilevel converter (7, 3035) present at a particular point in time are represented as a respective state vector, in which at least one actual voltage level of the modular multilevel converter (7, 3035) is implemented at the respective point in time at which at least one input variable (2026) of the neural network (1, 2025) of at least one predetermined operating variable (2022, 2023, 2024) of the modular multilevel converter (7, 3035) is formed at the respective point in time at which the neural network (1, 2025) is determined by several network parameters, in which the neural network (1, 2025) as an output variable (156, 2028) for the next point in time on the modular Multilevel converter (7, 3035) to be switched next state vector (156) is formed, the neural network (1, 2025) being in an untrained state at the beginning of the method, the neural network (1, 2025) for a scheduling that is for provides a next state vector (156) for a next point in time, starting from a respective point in time, is connected to a first input of a multiplexer (6), a causal Scheduler (8, 3032), which provides a next substitute state vector (856) for a respective next time, starting from a respective point in time according to at least one predetermined influencing variable (938, 2023), is connected to a second input of the multiplexer (6) wherein an output of the multiplexer (6) is connected to the hardware (7, 3035), the multiplexer (6) being controlled by an evaluation unit (5, 3033) of the next state vector (156) provided by the neural network (1) , with a consistency of the next state vector (156) this is passed on by the multiplexer (6) to the hardware (7, 3035) and in the case of an inconsistency the next substitute state vector (856) formed by the causal scheduler (8, 3032) is passed on from the Multiplexer (6) is passed on to the hardware (7, 3035), and with an asynchronous optimization (4, 3034) in which an evaluation (5, 3033) carried out by the evaluation unit (5, 3033) 4) the consistency of the next state vector (156) provided by the neural network (1, 2025) is received, an adaptation (41) of the network parameters is carried out. Verfahren nach Anspruch 1, bei dem jedem möglichen Schaltzustand eines Moduls des modularen Multilevelkonverters (7, 3035) ein One-Hot-Vektor, d.h. eine Binärzahl mit lauter Nullen und einer „1“ an dezidierter Stelle, zugeordnet wird.Procedure according to Claim 1 , in which every possible switching state of a module of the modular multilevel converter (7, 3035) is assigned a one-hot vector, ie a binary number with all zeros and a “1” in a dedicated place. Verfahren nach einem der voranstehenden Ansprüche, bei dem die mindestens eine vorgegebene Betriebsgröße (938, 2022, 2023, 2024) aus folgender Liste gewählt wird: Sollspannungslevel (938, 2023), gleichmäßige Modulbelastung (2022), gleichmäßige Entladung von Energiespeichern, minimale Verluste im System, Reduktion von Stromwelligkeit (2024).Method according to one of the preceding claims, in which the at least one predetermined operating variable (938, 2022, 2023, 2024) is selected from the following list: nominal voltage level (938, 2023), uniform module load (2022), uniform discharge of energy storage devices, minimum losses in the System, reduction of current ripple (2024). Verfahren nach einem der voranstehenden Ansprüche, bei dem die Überprüfung (5, 3033) der Konsistenz mindestens für ein Sollspannungslevel (938, 2023) durchgeführt wird, indem ein aus dem vom neuronalen Netz (1, 2025) bereitgestellten nächsten Zustandsvektor (156) resultierendes Istspannungslevel mit dem Sollspannungslevel (938, 2023) verglichen wird und bei einer Abweichung eine Inkonsistenz vorliegt.Method according to one of the preceding claims, in which the checking (5, 3033) of the consistency is carried out for at least one target voltage level (938, 2023) by using an actual voltage level resulting from the next state vector (156) provided by the neural network (1, 2025) is compared with the nominal voltage level (938, 2023) and there is an inconsistency in the event of a deviation. Verfahren nach einem der voranstehenden Ansprüche, bei dem die mindestens eine vorgegebene Einflussgröße (938, 2023) für den kausalen Scheduler (8, 3032) aus folgender Liste gewählt wird: Spannungsanforderung (938), Amplitudenverlauf, Schalthistorie, Modultemperatur, gleichmäßige Entladung, Look-Up Tables.Method according to one of the preceding claims, in which the at least one predetermined influencing variable (938, 2023) for the causal scheduler (8, 3032) is selected from the following list: voltage requirement (938), amplitude curve, switching history, module temperature, uniform discharge, look Up tables. Verfahren nach einem der voranstehenden Ansprüche, bei dem zur asynchronen Optimierung (4, 3034) eine Methode des bestärkenden Lernens verwendet wird.Method according to one of the preceding claims, in which a method of reinforcement learning is used for asynchronous optimization (4, 3034). Verfahren nach einem der voranstehenden Ansprüche, bei dem das neuronale Netz (1, 2025) vor Inbetriebnahme der Hardware (7, 3035) trainiert wird, indem das neuronale Netz (1, 2025) in einem ersten Schritt an einen Trainingsaufbau (2010) angeschlossen wird und mit Trainingsdaten (2011), gebildet aus mehreren Werten der mindestens einen vorgegebenen Betriebsgröße (2022, 2023, 2024) und zugehörigen Zustandsvektoren, und dem numerische Modell (2015) des modularen Multilevelkonverters (7, 3035) mit Hilfe eines Backpropagation-Algorithmus trainiert wird, wobei in einem zweiten Schritt das trainierte neuronale Netz (1, 2025) von dem Trainingsaufbau (2010) wieder getrennt wird und nach Inbetriebnahme der Hardware (7, 3035) für das Scheduling herangezogen wird.Method according to one of the preceding claims, in which the neural network (1, 2025) is trained before the hardware (7, 3035) is put into operation by connecting the neural network (1, 2025) to a training structure (2010) in a first step and with training data (2011), formed from several values of the at least one predetermined operating variable (2022, 2023, 2024) and associated state vectors, and the numerical model (2015) of the modular multilevel converter (7, 3035) using a backpropagation algorithm , wherein in a second step the trained neural network (1, 2025) is separated again from the training structure (2010) and is used for the scheduling after the hardware (7, 3035) has been put into operation. Verfahren nach Anspruch 7, bei dem die Trainingsdaten (2011) durch einen prädiktiven Scheduler (2011) generiert werden, wobei der prädiktive Scheduler (2011) mindestens ein Optimierungskriterium verwendet, welches mindestens einer vorgegebenen Betriebsgröße (2022, 2023, 2024) entspricht.Procedure according to Claim 7 , in which the training data (2011) are generated by a predictive scheduler (2011), the predictive scheduler (2011) using at least one optimization criterion which corresponds to at least one predetermined operating variable (2022, 2023, 2024). Verfahren nach einem der voranstehenden Ansprüche, bei dem insgesamt eine ASIL-D-Einstufung der Steuerung (100, 3000) des modularen Multilevelkonverters (7, 3035) mittels des selbstlernenden neuronalen Netzes (1, 2025) erreicht wird, in dem mindestens in folgender Liste genannte Komponenten nach ASIL-D-Einstufung ausgelegt werden: kausaler Scheduler (8), Bewertungseinheit (5, 3033), Multiplexer (6).Method according to one of the preceding claims, in which an ASIL-D classification of the controller (100, 3000) of the modular multilevel converter (7, 3035) is achieved by means of the self-learning neural network (1, 2025), in the at least the following list components mentioned are designed according to ASIL-D classification: causal scheduler (8), evaluation unit (5, 3033), multiplexer (6). Vorrichtung (100, 3000) zu einer Steuerung eines modularen Multilevelkonverters (7, 3035) mittels eines selbstlernenden neuronalen Netzes (1, 2025), welche eine Recheneinheit, einen modularen Multilevelkonverter (7, 3035) als eine Hardware (7, 3035) und auf ein numerisches Modell (2015) abgebildet als eine Software (2015), mindestens einen Messsensor zu einer Messung einer Betriebsgröße (2022, 2023, 2024) der Hardware (7, 3035), eine Bewertungseinheit (5, 3033), einen kausalen Scheduler (8, 3032), der dazu ausgelegt ist, für jeden Schaltwechsel gemäß mindestens einer vorgegebenen Einflussgröße (938, 2023) einen nächsten Ersatzzustandsvektor (856) bereitzustellen, einen Multiplexer (6) und einen asynchronen Optimierer (4, 3034) umfasst, bei der die Vorrichtung (100, 3000) dazu konfiguriert ist, zu einem jeweiligen Zeitpunkt vorliegende Schaltzustände der Module des modularen Multilevelkonverters (7, 3035) zu einem Zeitpunkt als einen jeweiligen Zustandsvektor (156), der mindestens ein Istspannungslevel des modularen Multilevelkonverters (7, 3035) zu dem jeweiligen Zeitpunkt realisiert, darzustellen, mindestens eine Eingangsgröße (2026) des neuronalen Netzes (2025) von mindestens einer vorgegebenen Betriebsgröße (2022, 2023, 2024) des modularen Multilevelkonverters (7, 3035) zu dem jeweiligen Zeitpunkt zu bilden und für ein Scheduling mit dem neuronalen Netz (1, 2025) als eine Ausgangsgröße (156, 2028) den für einen nächsten Zeitpunkt auf dem modularen Multilevelkonverter (7, 3035) zu schaltenden nächsten Zustandsvektor (156) zu bilden, wobei das neuronale Netz (1, 2025) mehrere Netzparameter aufweist und die Ausgangsgröße (156, 2028) des neuronalen Netzes (1, 2025) der Bewertungseinheit (5, 3033) und dem Multiplexer zugeleitet ist, wobei ein Ausgang des Multiplexers (334) mit der Hardware (235) verbunden ist, und wobei die Vorrichtung (100, 200, 300) schließlich dazu konfiguriert ist, mit der Bewertungseinheit (5, 3033) den Multiplexer (6) zu steuern, indem bei einer Konsistenz des von dem neuronalen Netz (1, 2025) bereitgestellten nächsten Zustandsvektors (156) der Multiplexer (6) diesen an die Hardware (7, 3035) weitergibt und bei einer Inkonsistenz der Multiplexer (6) den von dem kausalen Scheduler (8, 3032) gebildeten nächsten Ersatzzustandsvektor (856) an die Hardware (7, 3035) weitergibt, und mit dem asynchronen Optimierer (4, 3034), dem eine von der Bewertungseinheit (5, 3033) vorgenommene Bewertung (54) der Konsistenz des von dem neuronalen Netz (1, 2025) bereitgestellten nächsten Zustandsvektors (156) vorliegt, eine Anpassung (41) der Netzparameter durchzuführen.Device (100, 3000) for controlling a modular multilevel converter (7, 3035) by means of a self-learning neural network (1, 2025), which has a computing unit, a modular multilevel converter (7, 3035) as hardware (7, 3035) and on a numerical model (2015) mapped as software (2015), at least one measuring sensor for measuring an operating variable (2022, 2023, 2024) of the hardware (7, 3035), a Evaluation unit (5, 3033), a causal scheduler (8, 3032), which is designed to provide a next substitute state vector (856) for each switching change according to at least one predefined influencing variable (938, 2023), a multiplexer (6) and an asynchronous one Optimizer (4, 3034), in which the device (100, 3000) is configured to record the switching states of the modules of the modular multilevel converter (7, 3035) present at a given point in time as a respective state vector (156) that contains at least an actual voltage level of the modular multilevel converter (7, 3035) realized at the respective point in time, to represent at least one input variable (2026) of the neural network (2025) of at least one predetermined operating variable (2022, 2023, 2024) of the modular multilevel converter (7, 3035) at the respective point in time and for a scheduling with the neural network (1, 2025) as an output variable (156, 2028) for one next time on the modular multilevel converter (7, 3035) to be switched next state vector (156), the neural network (1, 2025) having several network parameters and the output variable (156, 2028) of the neural network (1, 2025) of the Evaluation unit (5, 3033) and the multiplexer is fed, wherein an output of the multiplexer (334) is connected to the hardware (235), and wherein the device (100, 200, 300) is finally configured to be connected to the evaluation unit (5 , 3033) to control the multiplexer (6) by, if the next state vector (156) provided by the neural network (1, 2025) is consistent, the multiplexer (6) forwards it to the hardware (7, 3035) and if there is an inconsistency the multiplexer (6) forwards the next substitute state vector (856) formed by the causal scheduler (8, 3032) to the hardware (7, 3035), and with the asynchronous optimizer (4, 3034), to which one of the evaluation unit (5, 3033) Assessment (54) of the consistency of the next state vector (156) provided by the neural network (1, 2025) is available, so that an adaptation (41) of the network parameters is carried out. Vorrichtung (100, 3000) nach Anspruch 10, bei der die mindestens eine vorgegebene Betriebsgröße (938, 2022, 2023, 2024) aus folgender Liste gewählt ist: Sollspannungslevel (938, 2023), gleichmäßige Modulbelastung (2022), gleichmäßige Entladung von Energiespeichern, minimale Verluste im System, Reduktion von Stromwelligkeit (2024).Device (100, 3000) according to Claim 10 , for which the at least one specified operating variable (938, 2022, 2023, 2024) is selected from the following list: target voltage level (938, 2023), uniform module load (2022), uniform discharge of energy storage devices, minimal losses in the system, reduction of current ripple ( 2024). Vorrichtung (100, 3000) nach einem der Ansprüche 10 oder 11, bei der die Bewertungseinheit (5, 3033) dazu ausgelegt ist, die Bewertung (54) der Konsistenz mindestens für ein Sollspannungslevel (938, 2023) durchzuführen, indem es ein aus dem vom neuronalen Netz (1, 2025) bereitgestellten nächsten Zustandsvektor (156) resultierendes Istspannungslevel mit dem Sollspannungslevel (938, 2023) vergleicht, wobei bei einer Abweichung eine Inkonsistenz vorliegt.Device (100, 3000) according to one of the Claims 10 or 11 , in which the evaluation unit (5, 3033) is designed to carry out the evaluation (54) of the consistency at least for one setpoint voltage level (938, 2023) by using a next state vector (156.) provided by the neural network (1, 2025) ) compares the resulting actual voltage level with the target voltage level (938, 2023), with an inconsistency in the event of a deviation. Vorrichtung (100, 3000) nach einem der Ansprüche 10 bis 12, bei dem die mindestens eine vorgegebene Einflussgröße für den kausalen Scheduler (8, 3032) aus folgender Liste gewählt ist: Spannungsanforderung (938), Amplitudenverlauf, Schalthistorie, Modultemperatur, gleichmäßige Entladung, Look-Up Tables.Device (100, 3000) according to one of the Claims 10 to 12 , for which the at least one predefined influencing variable for the causal scheduler (8, 3032) is selected from the following list: voltage requirement (938), amplitude curve, switching history, module temperature, uniform discharge, look-up tables. Vorrichtung (2000, 3000) nach einem der Ansprüche 10 bis 13, welche zusätzlich einen Trainingsaufbau (2010) für das neuronale Netz (1, 2025) aufweist, wobei der Trainingsaufbau (2010) einen prädiktiven Scheduler (2012), das numerische Modell (2015) des modularen Multilevelkonverters (7, 3035) und eine Trainingsbewertungseinheit (2014) umfasst und der prädiktive Scheduler (2012) mindestens ein Optimierungskriterium verwendet, das mindestens einer vorgegebenen Betriebsgröße (2022, 2023, 2024) entspricht, wobei die Vorrichtung (2000, 3000) dazu konfiguriert ist, in einem ersten Schritt das neuronale Netz (1, 2025) vor Inbetriebnahme der Hardware (7, 3035) zu trainieren, indem für das Training (2000) Trainingsdaten (2011), gebildet aus mehreren Werten der mindestens einen Betriebsgröße (2022, 2023, 2024) und zugehörige Zustandsvektoren, und das numerische Modell (2015) des modularen Multilevelkonverters (7, 3035) für einen Backpropagation-Algorithmus herangezogen werden, und in einem zweiten Schritt das trainierte neuronale Netz (1, 2025) nach Inbetriebnahme der Hardware (7, 3035) für das Scheduling heranzuziehen.Device (2000, 3000) according to one of the Claims 10 to 13 , which additionally has a training structure (2010) for the neural network (1, 2025), the training structure (2010) having a predictive scheduler (2012), the numerical model (2015) of the modular multilevel converter (7, 3035) and a training evaluation unit ( 2014) and the predictive scheduler (2012) uses at least one optimization criterion that corresponds to at least one predetermined operating variable (2022, 2023, 2024), the device (2000, 3000) being configured to use the neural network (1 , 2025) before the hardware (7, 3035) is put into operation, by using training data (2011) for the training (2000), formed from several values of the at least one operating variable (2022, 2023, 2024) and associated state vectors, and the numerical model (2015) of the modular multilevel converter (7, 3035) can be used for a backpropagation algorithm, and in a second step the trained neural network (1, 2025) according to Inb Use the hardware (7, 3035) for scheduling. Nichtflüchtiges computerlesbares Medium, das ein Computerprogramm mit Programmcodemitteln umfasst, die dazu ausgelegt sind, wenn das Computerprogramm auf einer Recheneinheit, insbesondere auf der Recheneinheit der Vorrichtung (100, 200, 300) nach einem der Ansprüche 10 bis 14, sequentiell oder parallelisiert abläuft, einen oder mehrere Schritte des Verfahrens nach einem der Ansprüche 1 bis 9 auszuführen.Non-transitory computer-readable medium which comprises a computer program with program code means which are designed to be used when the computer program is run on a computing unit, in particular on the computing unit of the device (100, 200, 300) according to one of the Claims 10 to 14th , runs sequentially or in parallel, one or more steps of the method according to one of the Claims 1 to 9 execute.
DE102019125578.3A 2019-09-24 2019-09-24 Method and device for controlling a modular multilevel converter by means of a self-learning neural network Active DE102019125578B3 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019125578.3A DE102019125578B3 (en) 2019-09-24 2019-09-24 Method and device for controlling a modular multilevel converter by means of a self-learning neural network

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019125578.3A DE102019125578B3 (en) 2019-09-24 2019-09-24 Method and device for controlling a modular multilevel converter by means of a self-learning neural network

Publications (1)

Publication Number Publication Date
DE102019125578B3 true DE102019125578B3 (en) 2020-11-12

Family

ID=72943190

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019125578.3A Active DE102019125578B3 (en) 2019-09-24 2019-09-24 Method and device for controlling a modular multilevel converter by means of a self-learning neural network

Country Status (1)

Country Link
DE (1) DE102019125578B3 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11135923B2 (en) 2019-03-29 2021-10-05 Tae Technologies, Inc. Module-based energy systems capable of cascaded and interconnected configurations, and methods related thereto
US20210316621A1 (en) 2020-04-14 2021-10-14 Tae Technologies, Inc. Systems, devices, and methods for charging and discharging module-based cascaded energy systems
CN114506247A (en) * 2022-03-16 2022-05-17 中国科学技术大学 Power battery active heat management system based on cloud cooperative control
US11626791B2 (en) 2017-06-16 2023-04-11 Tae Technologies, Inc. Multi-level hysteresis voltage controllers for voltage modulators and methods for control thereof
US11794599B2 (en) 2020-05-14 2023-10-24 Tae Technologies, Inc. Systems, devices, and methods for rail-based and other electric vehicles with modular cascaded energy systems
US11840149B2 (en) 2018-03-22 2023-12-12 Tae Technologies, Inc. Systems and methods for power management and control
US11845356B2 (en) 2020-09-30 2023-12-19 Tae Technologies, Inc. Systems, devices, and methods for intraphase and interphase balancing in module-based cascaded energy systems
US11888320B2 (en) 2021-07-07 2024-01-30 Tae Technologies, Inc. Systems, devices, and methods for module-based cascaded energy systems configured to interface with renewable energy sources
US11894781B2 (en) 2020-09-28 2024-02-06 Tae Technologies, Inc. Multi-phase module-based energy system frameworks and methods related thereto
US11973436B2 (en) 2017-06-12 2024-04-30 Tae Technologies, Inc. Multi-level multi-quadrant hysteresis current controllers and methods for control thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0708936B1 (en) * 1993-07-13 1997-03-19 Siemens Aktiengesellschaft Arrangement for modelling a non-linear process

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0708936B1 (en) * 1993-07-13 1997-03-19 Siemens Aktiengesellschaft Arrangement for modelling a non-linear process

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KRAUS David; SPECHT Eduard ; MERZ Tobias ; HILLER Marc:Optimized Real-Time Control for Modular Multilevel Converters using Adaptive Neural NetworksIn: 2019 21st European Conference on Power Electronics and Applications (EPE '19 ECCE Europe)Jahr: 2019 | Conference Paper | Publisher: IEEE Datum der Konferenz: 3.5. September 201910 2019 *
TALEB Rachid, MEROUFEL Abdelkader, WIRA Patrice:Neural Network Control of Asymmetrical Multilevel Converters.In: Leonardo Journal of Sciences ,ISSN 1583-0233Ausgabe 15, July-December 2009Seiten: 53-70 *

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11973436B2 (en) 2017-06-12 2024-04-30 Tae Technologies, Inc. Multi-level multi-quadrant hysteresis current controllers and methods for control thereof
US11626791B2 (en) 2017-06-16 2023-04-11 Tae Technologies, Inc. Multi-level hysteresis voltage controllers for voltage modulators and methods for control thereof
US11881761B2 (en) 2017-06-16 2024-01-23 Tae Technologies, Inc. Multi-level hysteresis voltage controllers for voltage modulators and methods for control thereof
US11840150B2 (en) 2018-03-22 2023-12-12 Tae Technologies, Inc. Systems and methods for power management and control
US11840149B2 (en) 2018-03-22 2023-12-12 Tae Technologies, Inc. Systems and methods for power management and control
US11603001B2 (en) 2019-03-29 2023-03-14 Tae Technologies, Inc. Module-based energy systems having converter-source modules and methods related thereto
US11597284B2 (en) 2019-03-29 2023-03-07 Tae Technologies, Inc. Module-based energy systems capable of cascaded and interconnected configurations, and methods related thereto
US11135923B2 (en) 2019-03-29 2021-10-05 Tae Technologies, Inc. Module-based energy systems capable of cascaded and interconnected configurations, and methods related thereto
US11964573B2 (en) 2019-03-29 2024-04-23 Tae Technologies, Inc. Module-based energy systems having converter-source modules and methods related thereto
US11884167B2 (en) 2019-03-29 2024-01-30 Tae Technologies, Inc. Module-based energy systems having converter-source modules and methods related thereto
US11897347B2 (en) 2020-04-14 2024-02-13 Tae Technologies, Inc. Systems, devices, and methods for charging and discharging module-based cascaded energy systems
US20210316621A1 (en) 2020-04-14 2021-10-14 Tae Technologies, Inc. Systems, devices, and methods for charging and discharging module-based cascaded energy systems
US11794599B2 (en) 2020-05-14 2023-10-24 Tae Technologies, Inc. Systems, devices, and methods for rail-based and other electric vehicles with modular cascaded energy systems
US11827115B2 (en) 2020-05-14 2023-11-28 Tae Technologies, Inc. Systems, devices, and methods for rail-based and other electric vehicles with modular cascaded energy systems
US11894781B2 (en) 2020-09-28 2024-02-06 Tae Technologies, Inc. Multi-phase module-based energy system frameworks and methods related thereto
US11923782B2 (en) 2020-09-28 2024-03-05 Tae Technologies, Inc. Multi-phase module-based energy system frameworks and methods related thereto
US11845356B2 (en) 2020-09-30 2023-12-19 Tae Technologies, Inc. Systems, devices, and methods for intraphase and interphase balancing in module-based cascaded energy systems
US11942788B2 (en) 2021-07-07 2024-03-26 Tae Technologies, Inc. Systems, devices, and methods for module-based cascaded energy systems configured to interface with renewable energy sources
US11888320B2 (en) 2021-07-07 2024-01-30 Tae Technologies, Inc. Systems, devices, and methods for module-based cascaded energy systems configured to interface with renewable energy sources
CN114506247B (en) * 2022-03-16 2024-02-09 中国科学技术大学 Active thermal management system of power battery controlled cooperatively by cloud
CN114506247A (en) * 2022-03-16 2022-05-17 中国科学技术大学 Power battery active heat management system based on cloud cooperative control

Similar Documents

Publication Publication Date Title
DE102019125578B3 (en) Method and device for controlling a modular multilevel converter by means of a self-learning neural network
DE102019125577B3 (en) Method and device for controlling a modular multilevel converter by means of neural networks
AT512251B1 (en) Method of designing a nonlinear controller for non-linear processes
EP3526891B1 (en) Control device for a dc converter, dc converter, and method for controlling a dc converter
WO2019081241A1 (en) Method, device and computer program for developing a deep neural network
AT522290B1 (en) Method and control unit for controlling a non-linear technical process
DE102020107001A1 (en) Method and device for determining the status of an on-board electrical system of a vehicle
EP3376026B1 (en) Method for controlling the power output of a wind farm and corresponding wind farm
DE102015114497A1 (en) METHOD FOR OPERATING A VEHICLE DRIVE TRAIN ON THE BASIS OF A PREDICTION OF HOW PARALLEL SWITCHED BATTERIES USE DIFFERENT CHEMICALS TO PUBLISH A REQUIRED ELECTRICITY
EP3542229B1 (en) Device and method for determining the parameters of a control device
EP3759785A1 (en) Method for real-time control of a power supply and distribution system
DE102019206541A1 (en) Method for performing computer-aided XiL simulations
WO2021180428A1 (en) Method and device for monitoring an on-board electrical system of a vehicle
WO2021037648A1 (en) Control device for a dc-dc converter, dc-dc converter, and method for controlling a dc-dc converter
EP3269573B1 (en) Method for regulating a cooling system
EP4175155A1 (en) Converter and method for configuring and controlling an electrical converter and converter controller
EP4099036B1 (en) Simulation of the performance of an energy storage device
BE1030866B1 (en) Computer program and method for the analysis of inhomogeneities as well as anomaly detection and prediction of electrical energy storage systems
AT522520B1 (en) Method for a control of a protection method for protecting an electrode of a battery device
DE102022104313A1 (en) Method, system and computer program product for autonomously calibrating an electric powertrain
WO2013182176A1 (en) Method for training an artificial neural network, and computer program products
WO2021063565A1 (en) Charger and method for charging an electrical energy store
DE102020203863A1 (en) Methods and techniques for minimizing component degradation by load balancing on a multiprocessor motor vehicle control unit
WO2023194492A1 (en) Method for monitoring an electrochemical system, and an electrochemical system
DE102021209582A1 (en) Method and controller for the automated optimization of adjustable parameters of a controllable system for executing a process based on correspondingly adjusted parameters

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final