DE102019125577B3 - Method and device for controlling a modular multilevel converter by means of neural networks - Google Patents

Method and device for controlling a modular multilevel converter by means of neural networks Download PDF

Info

Publication number
DE102019125577B3
DE102019125577B3 DE102019125577.5A DE102019125577A DE102019125577B3 DE 102019125577 B3 DE102019125577 B3 DE 102019125577B3 DE 102019125577 A DE102019125577 A DE 102019125577A DE 102019125577 B3 DE102019125577 B3 DE 102019125577B3
Authority
DE
Germany
Prior art keywords
neural network
state vector
time
multilevel converter
modular multilevel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102019125577.5A
Other languages
German (de)
Inventor
Stefan Götz
Eduard Specht
Christian Korte
David Kraus
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dr Ing HCF Porsche AG
Original Assignee
Dr Ing HCF Porsche AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dr Ing HCF Porsche AG filed Critical Dr Ing HCF Porsche AG
Priority to DE102019125577.5A priority Critical patent/DE102019125577B3/en
Application granted granted Critical
Publication of DE102019125577B3 publication Critical patent/DE102019125577B3/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • HELECTRICITY
    • H02GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
    • H02MAPPARATUS FOR CONVERSION BETWEEN AC AND AC, BETWEEN AC AND DC, OR BETWEEN DC AND DC, AND FOR USE WITH MAINS OR SIMILAR POWER SUPPLY SYSTEMS; CONVERSION OF DC OR AC INPUT POWER INTO SURGE OUTPUT POWER; CONTROL OR REGULATION THEREOF
    • H02M7/00Conversion of ac power input into dc power output; Conversion of dc power input into ac power output
    • H02M7/42Conversion of dc power input into ac power output without possibility of reversal
    • H02M7/44Conversion of dc power input into ac power output without possibility of reversal by static converters
    • H02M7/48Conversion of dc power input into ac power output without possibility of reversal by static converters using discharge tubes with control electrode or semiconductor devices with control electrode
    • H02M7/483Converters with outputs that each can have more than two voltages levels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Power Engineering (AREA)
  • Supply And Distribution Of Alternating Current (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zu einer Steuerung eines modularen Multilevelkonverters mittels eines neuronalen Netzes, bei dem der modulare Multilevelkonverter als eine Hardware und auf ein numerisches Modell abgebildet als eine Software vorliegt, bei dem zu einem jeweiligen Zeitpunkt vorliegende Schaltzustände der Module des modularen Multilevelkonverters als ein jeweiliger Zustandsvektor dargestellt werden, bei dem durch einen jeweiligen Zustandsvektor mindestens ein Istspannungslevel des modularen Multilevelkonverters zu dem jeweiligen Zeitpunkt realisiert wird, bei dem mindestens eine Eingangsgröße des neuronalen Netzes von mindestens einer vorgegebenen Betriebsgröße des modularen Multilevelkonverters zu dem jeweiligen Zeitpunkt gebildet wird, bei dem von dem neuronalen Netz als eine Ausgangsgröße der für einen nächsten Zeitpunkt auf dem modularen Multilevelkonverter zu schaltende nächste Zustandsvektor gebildet wird, wobei in einem ersten Schritt das neuronale Netz trainiert wird und in einem zweiten Schritt für ein Scheduling, das für jeden Schaltwechsel ausgehend von einem jeweiligen Zeitpunkt einen nächsten Zustandsvektor für einen nächsten Zeitpunkt bereitstellt, mit einem Überwachungsmodul verbunden wird, dem von einem kausalen Scheduler ein nächster Ersatzzustandsvektor für einen jeweils nächsten Zeitpunkt bereitgestellt wird, und wobei ein Ausgang des Überwachungsmoduls mit der Hardware verbunden wird, und das Überwachungsmoduls entweder einen konsistenten nächsten Zustandsvektor oder einen Ersatzvektor an die Hardware weiterleitet. Ferner wird eine Vorrichtung zu dieser Steuerung beansprucht.The invention relates to a method for controlling a modular multilevel converter by means of a neural network, in which the modular multilevel converter is available as hardware and mapped onto a numerical model as software, in which the switching states of the modules of the modular multilevel converter present at a particular point in time as a respective state vector are represented in which by a respective state vector at least one actual voltage level of the modular multilevel converter is realized at the respective point in time at which at least one input variable of the neural network is formed from at least one predetermined operating variable of the modular multilevel converter at the respective point in time at which from the neural network is formed as an output variable of the next state vector to be switched on the modular multilevel converter for a next point in time, the neural network training in a first step t is and in a second step for a scheduling, which provides a next state vector for a next point in time for each switching change based on a respective point in time, is connected to a monitoring module to which a next substitute state vector is provided for a respective next point in time by a causal scheduler , and wherein an output of the monitoring module is connected to the hardware, and the monitoring module forwards either a consistent next state vector or a substitute vector to the hardware. A device for this control is also claimed.

Description

Die vorliegende Erfindung betrifft ein Verfahren zu einer Steuerung eines modularen Multilevelkonverters mittels eines neuronalen Netzes, welches in eine Lernphase und eine realzeitfähige Anwendungsphase unterteilt ist. Ferner wird eine Vorrichtung zu dieser Steuerung beansprucht.The present invention relates to a method for controlling a modular multilevel converter by means of a neural network, which is divided into a learning phase and a real-time application phase. A device for this control is also claimed.

Ein modularer Multilevelkonverter, insbesondere ein modularer Multilevelkonverter mit serieller und paralleler Konnektivität, aber bspw. auch eine Wechselstrombatterie verfügt meist über eine hohe Anzahl von Freiheitsgraden. Dies bedeutet, dass zur Steuerung eines Stroms oder einer Spannung eine Vielzahl alternativer Schaltzustände bzw. Modulzustände mit auf den ersten Blick gleichem Ergebnis zur Verfügung stehen. Allerdings unterscheiden sich die Schaltzustände und/oder deren Abfolge erheblich in anderen Eigenschaften, wie bspw. Verluste (Schaltverluste, Durchlassverluste, etc.), unterschiedliches lokales Erwärmungsverhalten, Ladungsausgleich, oder Stromwelligkeit in den Modulen. Eine Gesamtheit der Modulzustände legt die Spannungen an den Abgriffen des jeweiligen Konverters fest. In einem Betrieb muss eine Steuerung für jeden Zeitpunkt die Schaltzustände aller Module festlegen und aktiv steuern. Dabei ermittelt die Steuerung die Schaltzustände der Module bspw. 1 Million Mal je Sekunde neu und weist sie den Modulen zu.A modular multilevel converter, in particular a modular multilevel converter with serial and parallel connectivity, but also, for example, an AC battery, usually has a high number of degrees of freedom. This means that a large number of alternative switching states or module states are available for controlling a current or a voltage, with the same result at first glance. However, the switching states and / or their sequence differ considerably in other properties, such as, for example, losses (switching losses, conduction losses, etc.), different local heating behavior, charge equalization, or current ripple in the modules. A set of module states defines the voltages at the taps of the respective converter. In a company, a controller must define and actively control the switching states of all modules for each point in time. The control system determines the switching status of the modules, for example 1 million times per second, and assigns them to the modules.

Oft wird das Zuweisen von Schaltzuständen an die einzelnen Module einer modularen Leistungselektronik in der Steuerung einem sogenannten Scheduler aufgetragen und damit von anderen Regelungsteilen, bspw. einer Motorregelung oder einer Netzstromregelung abgetrennt. Bereits ein einzelnes Modul verfügt über mehrere Schaltzustände, wobei sich eine Zahl an Möglichkeiten durch Wechselwirkungen bei einer elektrischen Verbindung vieler aneinandergereihter Module vervielfacht. Die Zuweisung von Zuständen an jedes Modul zu jeder Zeit ist daher nicht mehr trivial.Often the assignment of switching states to the individual modules of a modular power electronics in the control is assigned to a so-called scheduler and thus separated from other control parts, e.g. a motor control or a mains current control. Even a single module has several switching states, whereby a number of possibilities are multiplied by interactions in an electrical connection of many modules in a row. The assignment of states to each module at any time is therefore no longer trivial.

Hierzu wurde bspw. in „Goetz, S.M.; Peterchev, A.V.; Weyh, T. : Modular Multilevel Converter With Series and Parallel Module Connectivity: Topology and Control.For example, in “Goetz, S.M .; Peterchev, A.V .; Weyh, T.: Modular Multilevel Converter With Series and Parallel Module Connectivity: Topology and Control.

In: Power Electronics, IEEE Transactions on , Vol.30, no.1, pp.203,215, 2015. doi: 10.1109/TPEL.2014.2310225 ein online-optimierendes prädiktives Scheduling vorgeschlagen. Ein Problem derartiger prädiktiver optimierender Scheduler ist allerdings ein enormer Rechenbedarf des Steuerungssystems, der einem automotiven oder industriellen Steuergerät nicht zur Verfügung steht.In: Power Electronics, IEEE Transactions on, Vol.30, no.1, pp.203,215, 2015. doi: 10.1109 / TPEL.2014.2310225 an online optimizing predictive scheduling was proposed. One problem with such predictive optimizing schedulers, however, is the enormous computing requirement of the control system, which is not available to an automotive or industrial control device.

Die US-amerikanische Druckschrift US 2004/0095111 A1 beschreibt ein Verfahren zum Steuern eines mehrstufigen modularen Umrichters, der von einem Multiplexer gesteuert werden kann. Hierbei wir ein Scheduler verwendet.The American pamphlet US 2004/0095111 A1 describes a method of controlling a multi-stage modular converter that can be controlled by a multiplexer. A scheduler is used here.

Ein anderweitiges Verfahren zu einer fehlertoleranten Steuerung eines mehrstufigen modularen Umrichters wird in der Druckschrift US 2018/0217902 A1 offenbart. Zu einer Vorbestimmung von Schaltzuständen wird dabei ein neuronales Netz eingesetzt.Another method for a fault-tolerant control of a multi-stage modular converter is described in the publication US 2018/0217902 A1 disclosed. A neural network is used to predetermine switching states.

Ebenfalls ein neuronales Netz wird in Rachid Taleb; Abdelkader Meroufel, Patrice Wira: Neural Network Control of Asymmetrical Multilevel Converters. In: Leonardo Journal of Sciences, ISSN 1583-0233, Vol.15, Juli-Dezember 2009, S. 53-70 bemüht, um eine neuronale Umsetzung einer harmonischen Eliminierungsstrategie zur Steuerung eines asymmetrischen Multilevelinverters vorzuschlagen. Als neuronales Netz wird ein vielschichtiges Multilayer-Perzeptron trainiert, um die Abbildung zwischen der Modulationsrate und den erforderlichen Schaltwinkeln zu approximieren.A neural network is also used in Rachid Taleb; Abdelkader Meroufel, Patrice Wira: Neural Network Control of Asymmetrical Multilevel Converters. In: Leonardo Journal of Sciences, ISSN 1583-0233, Vol.15, July-December 2009, pp. 53-70 endeavored to propose a neural implementation of a harmonic elimination strategy for controlling an asymmetrical multilevel inverter. A multi-layered multilayer perceptron is trained as a neural network in order to approximate the mapping between the modulation rate and the required switching angles.

Ein Steuerungsansatz wird in David Kraus; Eduard Specht; Tobias Merz; Marc Hiller: Optimized Real-Time Control for Modular Multilevel Converters using Adaptive Neural Networks. In: 2019 21st European Conference on Power Electronics and Applications (EPE ’19 ECCE Europe), Jahr 2019, Conference Paper, IEEE, Datum der Konferenz: 3. – 5. September 2019 vorgestellt, bei dem ein neuronales Netzwerk und Verstärkungslernen für modulare Multilevelkonverter mit serieller und paralleler Konnektivität verwendet werden. Indem zur Maximierung einer Nutzenfunktion der Zustandsraum aller möglichen Aktionen erkundet wird, kann das neuronale Netz ohne Trainingsdaten autonom trainiert werden. A control approach is used in David Kraus; Eduard Specht; Tobias Merz; Marc Hiller: Optimized Real-Time Control for Modular Multilevel Converters using Adaptive Neural Networks. In: 2019 21st European Conference on Power Electronics and Applications (EPE '19 ECCE Europe), Year 2019, Conference Paper, IEEE, Conference Date: September 3-5, 2019 is presented using a neural network and reinforcement learning for modular multilevel converters with serial and parallel connectivity. By exploring the state space of all possible actions to maximize a utility function, the neural network can be trained autonomously without training data.

Die Druckschrift EP 0 708 936 B1 offenbart eine Anordnung zur Modellierung eines nichtlinearen Prozesses mit mindestens einer Eingangsgröße und mindestens einer Ausgangsgröße zur Anwendung in Reglern. Die Anordnung weist ein neuronales Netz auf, welches einerseits mit Messdaten trainiert wird, andererseits auf eine empirisch basierte Vorgabe von Funktionswerten, vorzugsweise durch ein Fuzzy-System, zurückgreift.The pamphlet EP 0 708 936 B1 discloses an arrangement for modeling a nonlinear process with at least one input variable and at least one output variable for use in controllers. The arrangement has a neural network which, on the one hand, is trained with measurement data, and, on the other hand, makes use of an empirically based specification of function values, preferably by means of a fuzzy system.

Vor diesem Hintergrund ist es eine Aufgabe der vorliegenden Erfindung, ein Verfahren zu einer Steuerung eines modularen Multilevelkonverters bereitzustellen, welches mit möglichst wenig Rechenaufwand zu jedem Zeitpunkt auf der Basis aktueller Anforderungen anderer Regelungsteile, gemessener Daten des Konverters und ggf. einer bisherigen Schalthistorie einen Schaltzustand für den oder die nächsten Zeitpunkte generiert. Ferner soll eine Vorrichtung zu dieser Steuerung vorgestellt werden.Against this background, it is an object of the present invention to provide a method for controlling a modular multilevel converter which, with as little computational effort as possible, at any time based on current requirements of other control parts, measured data of the converter and possibly a previous switching history, a switching state for the next point in time is generated. A device for this control is also to be presented.

Zur Lösung der voranstehend genannten Aufgabe wird ein Verfahren zu einer Steuerung eines modularen Multilevelkonverters mittels eines neuronalen Netzes vorgeschlagen, bei dem der modulare Multilevelkonverter als eine Hardware und auf ein numerisches Modell abgebildet als eine Software vorliegt. Zu einem jeweiligen Zeitpunkt vorliegende Schaltzustände der Module des modularen Multilevelkonverters werden als ein jeweiliger Zustandsvektor dargestellt, wobei durch einen jeweiligen Zustandsvektor mindestens ein Istspannungslevel des modularen Multilevelkonverters zu dem jeweiligen Zeitpunkt realisiert wird. Mindestens eine Eingangsgröße bzw. Input des neuronalen Netzes wird von mindestens einer vorgegebenen Betriebsgröße des modularen Multilevelkonverters zu dem jeweiligen Zeitpunkt gebildet. Als eine Ausgangsgröße bzw. Output wird der für einen nächsten Zeitpunkt auf dem modularen Multilevelkonverter zu schaltende nächste Zustandsvektor von dem neuronalen Netz gebildet. Zu Beginn des Verfahrens liegt das neuronale Netz in einem untrainierten Zustand vor. In einem ersten Schritt wird das neuronale Netz trainiert, indem in einem Trainingsaufbau vorgegebene Trainingsdaten, gebildet aus mehreren Werten der mindestens einen vorgegebenen Betriebsgröße und zugehörigen Zustandsvektoren, und das numerische Modell des modularen Multilevelkonverters für einen Backpropagation-Algorithmus herangezogen werden. In einem zweiten Schritt wird das trainierte neuronale Netz von dem Trainingsaufbau getrennt und für ein Scheduling, das für jeden Schaltwechsel ausgehend von einem jeweiligen Zeitpunkt einen nächsten Zustandsvektor für einen nächsten Zeitpunkt bereitstellt, mit einem ersten Eingang eines Multiplexers verbunden. Ein kausaler Scheduler, der für jeden Schaltwechsel ausgehend von einem jeweiligen Zeitpunkt gemäß mindestens einer vorgegebenen Einflussgröße einen nächsten Ersatzzustandsvektor für einen jeweils nächsten Zeitpunkt bereitstellt, wird mit einem zweiten Eingang des Multiplexers verbunden. Ein Ausgang des Multiplexers wird mit der Hardware verbunden. Der Multiplexer wird durch eine Überwachung des von dem neuronalen Netz bereitgestellten nächsten Zustandsvektors gesteuert, wobei bei einer Konsistenz des nächsten Zustandsvektors dieser von dem Multiplexer an die Hardware weitergegeben wird und bei einer Inkonsistenz der von dem kausalen Scheduler gebildete nächste Ersatzzustandsvektor von dem Multiplexer an die Hardware weitergegeben wird.To solve the above-mentioned object, a method for controlling a modular multilevel converter by means of a neural network is proposed, in which the modular multilevel converter is available as hardware and mapped to a numerical model as software. Switching states of the modules of the modular multilevel converter present at a particular point in time are represented as a respective state vector, with at least one actual voltage level of the modular multilevel converter being implemented at the respective point in time by means of a respective state vector. At least one input variable or input of the neural network is formed from at least one predefined operating variable of the modular multilevel converter at the respective point in time. The next state vector to be switched on the modular multilevel converter for a next point in time is formed by the neural network as an output variable. At the beginning of the process, the neural network is in an untrained state. In a first step, the neural network is trained by using predetermined training data, formed from several values of the at least one predetermined operating variable and associated state vectors, and the numerical model of the modular multilevel converter for a backpropagation algorithm in a training structure. In a second step, the trained neural network is separated from the training structure and connected to a first input of a multiplexer for a scheduling that provides a next state vector for a next point in time for each switching change based on a respective point in time. A causal scheduler, which, starting from a respective point in time and according to at least one predetermined influencing variable, provides a next equivalent state vector for a respective next point in time is connected to a second input of the multiplexer. One output of the multiplexer is connected to the hardware. The multiplexer is controlled by monitoring the next state vector provided by the neural network, with the multiplexer passing it on to the hardware if the next state vector is consistent and the next substitute state vector formed by the causal scheduler is passed from the multiplexer to the hardware in the event of an inconsistency is passed on.

Es ist denkbar, dass durch einen jeweiligen Zustandsvektor zusätzlich zu dem Istspannungslevel des modularen Multilevelkonverters auch eine Stromstärke und/oder ein Leistungsfluss realisiert werden. Sind die Module in mehreren Strängen angeordnet, ist auch eine mehrphasige Wechselspannung oder ein mehrphasiger Wechselstrom darstellbar.It is conceivable that, in addition to the actual voltage level of the modular multilevel converter, a current intensity and / or a power flow can also be realized by a respective state vector. If the modules are arranged in several strings, a multi-phase alternating voltage or a multi-phase alternating current can also be displayed.

In dem modularen Multilevelkonverter sind in der Regel jeweilige Messsensoren angeordnet, die zu der jeweiligen mindestens einen vorgegebenen Betriebsgröße zu jedem Zeitpunkt jeweilige Messwerte liefern. Diese Messwerte bzw. Werte gehen als Input in das neuronale Netz ein. Das neuronale Netz umfasst zwischen Input und Output eine sogenannte Hidden Layer, die mindesten eine, in der Regel jedoch zwei Ebenen mit mehreren Knoten aufweist, wobei eine Zahl an Knoten in der Regel größer ist als eine Zahl an Inputknoten. Die jeweiligen Knoten der Hidden Layer weisen in der Regel ein und dieselbe Aktivierungsfunktion mit jeweilig unterschiedlichen Parametern auf, wobei Eingaben an einen jeweiligen Knoten an mit variablen Gewichten versehen sind, Diese jeweiligen Parameter bzw. Gewichte werden In der Trainingsphase bestimmt. Da jedoch ein untrainiertes neuronales Netz auch Zustandsvektoren bilden kann, die eine Hardware schädigen können, ist es vorteilhaft, in der Trainingsphase das numerische Model des modularen Multilevelkonverters, und nicht die Hardware selbst, heranzuziehen. Dies wird mittels des sogenannten Backpropagation-Algorithmus so lange durchgeführt, bis der erzeugte Output für alle Trainingsdaten in dem numerischen Modell des modularen Multilevelkonverters bspw. in denjenigen Istspannungsleveln resultiert, welche insgesamt einen geringsten Unterschied zu einer Gesamtheit aus den den jeweiligen Zustandsvektoren der Trainingsdaten zugeordneten Spannungsleveln bilden. Dabei ist es vorteilhaft, wenn die Trainingsdaten möglichst zahlreich über einen weiten und unterschiedlichen Anwendungsbereich bzw. Betriebsbereich verteilt sind. Sind die Parameter bzw. Variablen bestimmt, ist das neuronale Netz vorteilhaft in der Lage, zwischen zwei Schaltwechseln, den jeweils nächsten Zustandsvektor mit hoher Rechengeschwindigkeit auszugeben, so dass das Scheduling in Echtzeit ausgeführt werden kann. Weiter vorteilhaft ist, dass hierzu weniger Ressourcen erforderlich sind, da ein für die Trainingsphase bzw. den Backpropagation-Algorithmus notwendige Simulationsumgebung wegfällt.In the modular multilevel converter, respective measuring sensors are usually arranged, which deliver respective measured values for the respective at least one predetermined operating variable at any point in time. These measured values or values enter the neural network as input. The neural network comprises a so-called hidden layer between input and output, which has at least one, but usually two levels with several nodes, with a number of nodes usually being greater than a number of input nodes. The respective nodes of the hidden layer generally have one and the same activation function with respectively different parameters, inputs to a respective node being provided with variable weights. These respective parameters or weights are determined in the training phase. However, since an untrained neural network can also form state vectors that can damage hardware, it is advantageous to use the numerical model of the modular multilevel converter and not the hardware itself in the training phase. This is carried out using the so-called backpropagation algorithm until the output generated for all training data in the numerical model of the modular multilevel converter results, for example, in those actual voltage levels which, overall, have the slightest difference to a total of the voltage levels assigned to the respective state vectors of the training data form. It is advantageous if the training data are distributed as numerous as possible over a wide and different application area or operating area. Once the parameters or variables have been determined, the neural network is advantageously able to output the next state vector between two switching changes at high computing speed so that the scheduling can be carried out in real time. It is also advantageous that fewer resources are required for this, since a simulation environment required for the training phase or the backpropagation algorithm is no longer necessary.

In einer Ausführungsform des erfindungsgemäßen Verfahrens werden für die vorgegebenen Trainingsdaten bekannte Zustandsvektoren und zugehörige aufgezeichnete Messwerte herangezogen. Die Zustandsvektoren können bspw. von einem bereits getesteten Scheduler erzeugt worden sein, die zugehörigen Messwerte an einer Hardware als Reaktion auf den jeweiligen Zustandsvektor gemessen worden sein.In one embodiment of the method according to the invention, known state vectors and associated recorded measured values are used for the predetermined training data. The state vectors can, for example, have been generated by a scheduler that has already been tested, and the associated measured values can have been measured on hardware as a reaction to the respective state vector.

In einer anderen Ausführungsform des erfindungsgemäßen Verfahrens werden die vorgegebenen Trainingsdaten durch einen prädiktiven Scheduler generiert, wobei der prädiktive Scheduler mindestens ein Optimierungskriterium verwendet, welches mindestens einer vorgegebenen Betriebsgröße entspricht. Das Optimierungskriterium kann bspw. durch eine besonders genaue Darstellung eines Sollspannungslevels gebildet sein, woraufhin der prädiktive Scheduler mindestens einen Zustandsvektor berechnet, der diesem Optimierungskriterium am besten nachkommt. Eine solche Berechnung ist in der Regel keinesfalls in Echtzeit, also innerhalb eines Zeitraums zwischen zwei Schaltwechseln, möglich. Hierzu können dann weitere Optimierungskriterien kommen, die schließlich in mindestens einem Zustandsvektor resultieren, der ein technisch möglichst optimales Verhalten des numerischen Modells repräsentiert, bspw. ausgeglichene Energiespeicher, geringste EMV, keine Schaltverluste, etc.In another embodiment of the method according to the invention, the predetermined training data are generated by a predictive scheduler, the predictive scheduler using at least one optimization criterion which is at least one predetermined operating variable corresponds. The optimization criterion can be formed, for example, by a particularly precise representation of a setpoint voltage level, whereupon the predictive scheduler calculates at least one state vector that best meets this optimization criterion. Such a calculation is usually not possible in real time, i.e. within a period between two switching changes. Additional optimization criteria can then be added to this, which ultimately result in at least one state vector that represents a technically optimal behavior of the numerical model, e.g. balanced energy storage, lowest EMC, no switching losses, etc.

In einer weiteren Ausführungsform des erfindungsgemäßen Verfahrens wird die mindestens eine vorgegebene Betriebsgröße aus folgender Liste gewählt: Sollspannungslevel, gleichmäßige Modulbelastung, gleichmäßige Entladung von Energiespeichern, minimale Verluste im System, Reduktion von Stromwelligkeit.In a further embodiment of the method according to the invention, the at least one predefined operating variable is selected from the following list: nominal voltage level, uniform module load, uniform discharge of energy stores, minimal losses in the system, reduction of current ripple.

Erfindungsgemäß wird die Überprüfung der Konsistenz mindestens für ein Sollspannungslevel durchgeführt, indem ein aus dem vom neuronalen Netz bereitgestellten nächsten Zustandsvektor resultierendes Istspannungslevel mit dem Sollspannungslevel verglichen wird und bei einer Abweichung eine Inkonsistenz vorliegt.According to the invention, the consistency check is carried out for at least one target voltage level by comparing an actual voltage level resulting from the next state vector provided by the neural network with the target voltage level and, if there is a deviation, there is an inconsistency.

Durch die bei Ausführung des erfindungsgemäßen Verfahrens stattfindende Überwachung der Konsistenz des jeweils nächsten Zustandsvektors, d. h. eine Überprüfung, ob dieser jeweils nächste Zustandsvektor bspw. ein Istspannungslevel zur Folge hat, welches dem Sollspannungslevel entspricht oder nur wenig abweicht, wird vorteilhaft dafür gesorgt, dass derjenige Output des neuronalen Netzes abgefangen wird, welcher etwa einen Wertebereich der Trainingsphase verlässt oder zu anderweitigen Singularitäten wie divergierenden oder unsinnigen Resultaten führen würde. Ein Umschalten in der Ausgabe für einen inkonsistenten nächsten Zustandsvektor im Multiplexer auf den kausalen Scheduler erzwingt damit, dass ausschließlich korrekte und geeignete Zustandsvektoren auf der Hardware umgesetzt werden. Dadurch wird der modulare Multilevelkonverter zeitweise, d. h. jeweils für den einen als inkonsistent festgestellten Zustandsvektor zwischen zwei Schaltwechseln, durch den alternativen, kausalen Scheduler, der verlässliche nächste Zustandsvektoren bereitstellt, betrieben und der Scheduler bekommt zusätzliche Redundanz, um kritische Schalterstellungen zu verhindern. Primär wird das Scheduling jedoch durch das neuronale Netz gesteuert, da gemeinhin das neuronale Netz besser geeignet ist, für jeweilige Anforderungen eine Betriebsführung des modularen Multilevelkonverters mit optimalem Wirkungsgrad durchzuführen.As a result of the monitoring of the consistency of the respective next state vector, which takes place when the method according to the invention is carried out, H. a check as to whether this next state vector, for example, results in an actual voltage level that corresponds to the target voltage level or deviates only slightly, it is advantageously ensured that that output of the neural network is intercepted which leaves a value range of the training phase or to other singularities how diverging or nonsensical results would lead. Switching the output for an inconsistent next state vector in the multiplexer to the causal scheduler thus forces that only correct and suitable state vectors are implemented on the hardware. As a result, the modular multilevel converter is temporarily, i. H. in each case for the one state vector found to be inconsistent between two switching changes, operated by the alternative, causal scheduler, which provides reliable next state vectors, and the scheduler is given additional redundancy to prevent critical switch positions. However, the scheduling is primarily controlled by the neural network, since the neural network is generally better suited to carry out operational management of the modular multilevel converter with optimal efficiency for the respective requirements.

In einer fortgesetzt weiteren Ausführungsform des erfindungsgemäßen Verfahrens wird die mindestens eine vorgegebene Einflussgröße für den kausalen Scheduler aus folgender Liste gewählt: Spannungsanforderung, Amplitudenverlauf, Schalthistorie der einzelnen Module, insbesondere die in naheliegender Vergangenheit durch viele Schaltvorgänge stark belasteten Module, Modultemperatur, gleichmäßige Entladung von Energiespeichern in den Modulen wie bspw. Batterien oder Zwischenkreiskondensatoren, Look-Up Tables. Der alternativ vom Multiplexer anwählbare kausale Scheduler kann damit weitere Einflussgrößen heranziehen, die nicht notwendigerweise Grundlage des Trainings des neuronalen Netzes waren. Gegebenenfalls kann eine solche Einflussgröße jedoch eine schnellere, heuristische Ausgabe eines Zustandsvektors ermöglichen.In a further further embodiment of the method according to the invention, the at least one predefined influencing variable for the causal scheduler is selected from the following list: voltage requirement, amplitude curve, switching history of the individual modules, in particular the modules that have been heavily loaded in the near past by many switching operations, module temperature, uniform discharge of energy stores in the modules such as batteries or intermediate circuit capacitors, look-up tables. The causal scheduler, which can alternatively be selected by the multiplexer, can thus use further influencing variables that were not necessarily the basis for training the neural network. However, if necessary, such an influencing variable can enable a faster, heuristic output of a state vector.

In einer fortgesetzt noch weiteren Ausführungsform des erfindungsgemäßen Verfahrens wird zu einem jeweiligen Zeitpunkt mindestens eine vorgegebene Betriebsgröße als mindestens eine Eingangsgröße für das neuronale Netz mit ihrem Wert aus einem jeweiligen vorangegangenen Zeitpunkt rückgekoppelt. Außerdem wird ein von dem neuronalen Netz für einen jeweiligen Zeitpunkt ausgegebener Zustandsvektor mit dem vom Multiplexer an die Hardware zum jeweiligen vorangegangenen Zeitpunkt weitergeleiteten Zustandsvektor oder Ersatzzustandsvektor rückgekoppelt. Dies bedeutet, dass das neuronale Netz als mindestens eine Eingangsgröße ein Ausgangssignal eines vorangegangen bzw. vorherigen Schalttaktes erhält, und zwar unabhängig davon, ob der Multiplexer für diesen vorangegangenen Schalttakt den Zustandsvektor des neuronalen Netzes oder den Ersatzzustandsvektor des kausalen Schedulers gewählt hatte. Wählte der Multiplexer beispielsweise den Zustandsvektor des kausalen Schedulers, etwa aufgrund geringer Qualität des Zustandsvektors des neuronalen Netzes, Inkonsistenz, Verletzen von Nebenbedingungen, Divergenz oder Instabilitäten, erhält mindestens eine Eingangsgröße des neuronalen Netzes ein Ausgangssignal das direkt einer Teilmenge des Zustandsvektor oder einer von der Zustandsgröße direkt festgelegten physikalischen Größe entspricht. Auf diese Weise wird ein zusätzliches stabilisierendes Element in das erfindungsgemäße Verfahren für einen Fall eingebracht, bei dem das neuronale Netz keinen konsistenten Zustandsvektor erzeugt bzw. sich dies über mehrere Zeitschritte fortsetzen würde. Der Multiplexer bzw. der kausale Scheduler durch seinen Ersatzzustandsvektor sorgt in diesem Fall dafür, dass das neuronale Netz, welches zu diesem Zeitpunkt divergiert ist, wieder in den darauffolgenden Zeitpunkten zu konsistenten Zustandsvektoren zurückkehren kann. Zudem sorgt die Rückkopplung des vorangegangen Zustandsvektors bzw. der vorangegangenen Betriebsgröße dafür, dass das ansonsten statisch, d. h. unabhängig von zuvor erzeugten Zustandsvektoren, agierende neuronale Netz Dynamiken abbilden kann. Für diesen Zweck kann das mindestens eine Ausgangssignal bei der Übermittlung als Eingangsgröße zeitlich mit einer festgelegten Dauer, beispielsweise einem oder mehreren Taktzeiten, verzögert werden. Damit kann das neuronale Netz Historie und Entwicklungen, bspw. einen Stromanstieg oder einen Temperaturanstieg, in die Erzeugung eines nächsten Zustandsvektors miteinbeziehen.In a still further embodiment of the method according to the invention, at a respective point in time at least one predetermined operating variable is fed back as at least one input variable for the neural network with its value from a respective previous point in time. In addition, a state vector output by the neural network for a particular point in time is fed back to the state vector or equivalent state vector forwarded by the multiplexer to the hardware at the respective previous point in time. This means that the neural network receives as at least one input variable an output signal of a preceding or previous switching cycle, regardless of whether the multiplexer had selected the state vector of the neural network or the substitute state vector of the causal scheduler for this preceding switching cycle. For example, if the multiplexer selected the state vector of the causal scheduler, for example due to poor quality of the state vector of the neural network, inconsistency, violation of secondary conditions, divergence or instabilities, at least one input variable of the neural network receives an output signal that is directly a subset of the state vector or one of the state variable directly defined physical quantity. In this way, an additional stabilizing element is introduced into the method according to the invention for a case in which the neural network does not generate a consistent state vector or this would continue over several time steps. In this case, the multiplexer or the causal scheduler, through its substitute state vector, ensures that the neural network, which has diverged at this point in time, can return to consistent state vectors again in the subsequent points in time. In addition, the feedback of the previous state vector or the previous operating variable ensures that the otherwise static, ie independent of previously generated State vectors, acting neural network dynamics can map. For this purpose, the at least one output signal can be delayed in time with a fixed duration, for example one or more cycle times, when it is transmitted as an input variable. In this way, the neural network can include history and developments, for example a current rise or a temperature rise, in the generation of the next state vector.

Ferner wird eine Vorrichtung zu einer Steuerung eines modularen Multilevelkonverters mittels eines neuronalen Netzes, welche eine Recheneinheit, einen modularen Multilevelkonverter als eine Hardware und auf ein numerisches Modell abgebildet als eine Software, mindestens einen Messsensor zu einer Messung einer Betriebsgröße der Hardware, ein Überwachungsmodul, einen Multiplexer und einen kausalen Scheduler, der dazu ausgelegt ist für jeden Schaltwechsel gemäß mindestens einer vorgegebenen Einflussgröße einen nächsten Ersatzzustandsvektor bereitzustellen, umfasst. Die Vorrichtung ist dazu konfiguriert, zu einem jeweiligen Zeitpunkt vorliegende Schaltzustände der Module des modularen Multilevelkonverters als einen jeweiligen Zustandsvektor, der mindestens ein Istspannungslevel des modularen Multilevelkonverters zu dem jeweiligen Zeitpunkt realisiert, darzustellen, mindestens eine Eingangsgröße des neuronalen Netzes von mindestens einer vorgegebenen Betriebsgröße des modularen Multilevelkonverters zu dem jeweiligen Zeitpunkt zu bilden und von dem neuronalen Netz als eine Ausgangsgröße den für einen nächsten Zeitpunkt auf dem modularen Multilevelkonverter zu schaltenden nächsten Zustandsvektor zu bilden. Weiter ist die Vorrichtung dazu konfiguriert, in einem ersten Schritt das zunächst untrainierte neuronale Netz zu trainieren, indem in einem Trainingsaufbau vorgegebene Trainingsdaten, gebildet aus mehreren Werten der mindestens einen Betriebsgröße und zugehörigen Zustandsvektoren, und das numerisches Modell des modularen Multilevelkonverters für einen Backpropagation-Algorithmus herangezogen werden, in einem zweiten Schritt das trainierte neuronale Netz von dem Trainingsaufbau zu trennen und das trainierte neuronale Netz für ein Scheduling, das für jeden Schaltwechsel ausgehend von einem jeweiligen Zeitpunkt einen nächsten Zustandsvektor für einen nächsten Zeitpunkt bereitstellt, mit einem ersten Eingang des Multiplexer zu verbinden und den kausalen Scheduler mit einem zweiten Eingang des Multiplexers zu verbinden. Ein Ausgang des Multiplexers ist mit der Hardware verbunden. Das Überwachungsmodul steuert den Multiplexer, indem bei einer Konsistenz des von dem neuronalen Netz bereitgestellten nächsten Zustandsvektors der Multiplexer diesen an die Hardware weitergibt und bei einer Inkonsistenz der Multiplexer den von dem kausalen Scheduler gebildeten nächsten Ersatzzustandsvektor an die Hardware weitergibt.Furthermore, a device for controlling a modular multilevel converter by means of a neural network, which has a computing unit, a modular multilevel converter as hardware and mapped onto a numerical model as software, at least one measuring sensor for measuring an operating variable of the hardware, a monitoring module, a Multiplexer and a causal scheduler, which is designed to provide a next equivalent state vector for each switching change according to at least one predefined influencing variable. The device is configured to present switching states of the modules of the modular multilevel converter at a particular point in time as a respective state vector that realizes at least one actual voltage level of the modular multilevel converter at the respective point in time, at least one input variable of the neural network of at least one predetermined operating variable of the modular To form multilevel converter at the respective point in time and to form the next state vector to be switched on the modular multilevel converter for a next point in time as an output variable by the neural network. Furthermore, the device is configured to train the initially untrained neural network in a first step by using predetermined training data, formed from several values of the at least one operating variable and associated state vectors, and the numerical model of the modular multilevel converter for a backpropagation algorithm in a training structure can be used to separate the trained neural network from the training structure in a second step and to assign the trained neural network to a first input of the multiplexer for a scheduling that provides a next state vector for each switching change based on a respective point in time connect and connect the causal scheduler to a second input of the multiplexer. One output of the multiplexer is connected to the hardware. The monitoring module controls the multiplexer in that, if the next state vector provided by the neural network is consistent, the multiplexer passes it on to the hardware and, if there is an inconsistency, the multiplexer passes the next substitute state vector formed by the causal scheduler to the hardware.

In einer Ausgestaltung der erfindungsgemäßen Vorrichtung sind die vorgegebenen Trainingsdaten entweder bekannte Zustandsvektoren und zugehörige aufgezeichnete Messwerte, oder die vorgegebenen Trainingsdaten stammen aus einem prädiktiven Scheduler, wobei der prädiktive Scheduler mindestens ein Optimierungskriterium verwendet, welches mindestens einer vorgegebenen Betriebsgröße entspricht. Für den zweiten Schritt wird das trainierte neuronale Netz von einem Trainingsaufbau getrennt, d. h. der gegebenenfalls angeordnete prädiktive Scheduler wird abgetrennt, und stattdessen die Hardware, der Multiplexer und der kausaler Scheduler eingefügt bzw. angebunden.In one embodiment of the device according to the invention, the predetermined training data are either known state vectors and associated recorded measured values, or the predetermined training data originate from a predictive scheduler, the predictive scheduler using at least one optimization criterion which corresponds to at least one predetermined operating variable. For the second step, the trained neural network is separated from a training structure, i. H. the possibly arranged predictive scheduler is disconnected, and instead the hardware, the multiplexer and the causal scheduler are inserted or connected.

In einer weiteren Ausgestaltung der erfindungsgemäßen Vorrichtung ist die mindestens eine vorgegebene Betriebsgröße aus folgender Liste gewählt: Sollspannungslevel, gleichmäßige Modulbelastung, gleichmäßige Entladung von Energiespeichern, minimale Verluste im System, Reduktion von Stromwelligkeit.In a further embodiment of the device according to the invention, the at least one predetermined operating variable is selected from the following list: nominal voltage level, uniform module load, uniform discharge of energy storage devices, minimal losses in the system, reduction of current ripple.

Erfindungsgemäß ist das Überwachungsmodul dazu ausgelegt, die Überprüfung der Konsistenz mindestens für ein Sollspannungslevel durchzuführen, indem es ein aus dem vom neuronalen Netz bereitgestellten nächsten Zustandsvektor resultierendes Istspannungslevel mit dem Sollspannungslevel vergleicht, wobei bei einer Abweichung eine Inkonsistenz vorliegt.According to the invention, the monitoring module is designed to check the consistency of at least one target voltage level by comparing an actual voltage level resulting from the next state vector provided by the neural network with the target voltage level, an inconsistency being present in the event of a deviation.

In einer fortgesetzt weiteren Ausgestaltung der erfindungsgemäßen Vorrichtung ist die mindestens eine vorgegebene Einflussgröße für den kausalen Scheduler aus folgender Liste gewählt: Spannungsanforderung, Amplitudenverlauf, Schalthistorie, Modultemperatur, gleichmäßige Entladung, Look-Up Tables.In a continued further embodiment of the device according to the invention, the at least one predefined influencing variable for the causal scheduler is selected from the following list: voltage requirement, amplitude curve, switching history, module temperature, uniform discharge, look-up tables.

In einer fortgesetzt noch weiteren Ausgestaltung der erfindungsgemäßen Vorrichtung ist das trainierte neuronale Netz mit einem Field Programmable Gate Array, abgekürzt FPGA, realisiert. Durch eine Implementierung mittels eines solchen FPGA ist vorteilhaft ermöglicht, ein von dieser Implementierung getrenntes weiteres Trainieren des neuronalen Netzes gegebenenfalls mit neu hinzugekommenen Trainingsdaten stattfinden zu lassen, und das durch das erweiterte Training verbesserte neuronale Netz zu einem späteren Zeitpunkt, bspw. bei einem Wartungstermin, „aufzuspielen“ und dadurch das ursprünglich verwendete neuronale Netz zu ersetzen.In yet another embodiment of the device according to the invention, the trained neural network is implemented with a field programmable gate array, abbreviated FPGA. Implementation by means of such an FPGA advantageously enables further training of the neural network to take place separately from this implementation, if necessary with newly added training data, and the neural network improved by the extended training at a later point in time, for example during a maintenance appointment. "To play" and thereby replace the neural network originally used.

In einer noch weiter fortgesetzten Ausgestaltung der erfindungsgemäßen Vorrichtung läuft in einem Betrieb das neuronale Netz auf einer Recheneinheit parallelisiert ab. Ein Programmablauf des neuronalen Netzes auf der Recheneinheit weist parallelisierbare algorithmische Strukturen auf, die auf einer ebenfalls mit Möglichkeiten zu einer parallelen Ausführung ausgestatteten Recheneinheit zu einer Vervielfachung einer Rechengeschwindigkeit führen und daher gestatten, dass die zur Ausgabe eines jeweilig nächsten Zustandsvektors notwendigen Rechenoperationen zu einer Laufzeit bzw. in Echtzeit abgeschlossen werden, um eine Betriebsführung mit optimalem Wirkungsgrad durchführen zu können.In an even further refinement of the device according to the invention, the neural network runs in parallel on a computing unit in an operation. A program run of the neural network on the processing unit has algorithmic structures that can be parallelized A computing unit also equipped with options for a parallel execution lead to a multiplication of a computing speed and therefore allow the computing operations necessary to output a respective next state vector to be completed at a runtime or in real time in order to be able to carry out operational management with optimal efficiency.

Schließlich wird ein nichtflüchtiges computerlesbares Medium beansprucht, das ein Computerprogramm mit Programmcodemitteln umfasst, die dazu ausgelegt sind, wenn das Computerprogramm auf einer Recheneinheit, insbesondere auf der Recheneinheit der voranstehend beschriebenen erfindungsgemäßen Vorrichtung, abläuft, einen oder mehrere Schritte des voranstehend beschriebenen erfindungsgemäßen Verfahrens auszuführen.Finally, a non-transitory computer-readable medium is claimed which comprises a computer program with program code means which are designed to execute one or more steps of the above-described method when the computer program runs on a computing unit, in particular on the computing unit of the inventive device described above.

Aufgrund eines begrenzt zur Verfügung stehenden Raumes und einer begrenzten rechentechnischer Ausstattungsmöglichkeit bei einem Elektrofahrzeug, welches mindestens einen modularen Multilevelkonverter umfasst ist es vorteilhaft, hier eine Ausgestaltung der erfindungsgemäßen Vorrichtung anzuordnen.Due to the limited space available and a limited computational equipment option in an electric vehicle which includes at least one modular multilevel converter, it is advantageous to arrange an embodiment of the device according to the invention here.

Weitere Vorteile und Ausgestaltungen der Erfindung ergeben sich aus der Beschreibung und den beiliegenden Zeichnungen.Further advantages and configurations of the invention emerge from the description and the accompanying drawings.

Es versteht sich, dass die voranstehend genannten und die nachstehend noch zu erläuternden Merkmale nicht nur in der jeweils angegebenen Kombination, sondern auch in anderen Kombinationen oder in Alleinstellung verwendbar sind, ohne den Rahmen der vorliegenden Erfindung zu verlassen.It goes without saying that the features mentioned above and those yet to be explained below can be used not only in the respectively specified combination, but also in other combinations or on their own, without departing from the scope of the present invention.

Die Figuren werden zusammenhängend und übergreifend beschrieben, gleichen Komponenten sind dieselben Bezugszeichen zugeordnet.

  • 1 zeigt schematisch einen Trainingsaufbau zu einer Ausführungsform des erfindungsgemäßen Verfahrens.
  • 2 zeigt schematisch eine Abtrennung vom Trainingsaufbau zu einer Ausführungsform des erfindungsgemäßen Verfahrens.
  • 3 zeigt schematisch einen Schedulingsaufbau zu einer Ausführungsform des erfindungsgemäßen Verfahrens.
The figures are described coherently and comprehensively; the same components are assigned the same reference symbols.
  • 1 shows schematically a training structure for an embodiment of the method according to the invention.
  • 2 shows schematically a separation from the training structure for an embodiment of the method according to the invention.
  • 3 shows schematically a scheduling structure for an embodiment of the method according to the invention.

In 1 wird schematisch ein Trainingsaufbau 100 zu einer Ausführungsform des erfindungsgemäßen Verfahrens gezeigt. Der Trainingsaufbau 100 ist aufgeteilt in einen Simulationsteil 110 und ein Steuerungsteil 120 mit neuronalem Netz 125. Das zu trainierende neuronale Netz 125 umfasst eine Ebene aus Inputknoten 126, gegebenenfalls mehrere Ebenen aus Knoten einer Hidden Layer 127, und eine Outputebene 128. Einem jeweiligen Inputknoten 126 wird durch ein Preprocessing 121 ein jeweiliger Messwert einer Betriebsgröße 122, 123, 124 zugewiesen. Bei der jeweiligen Betriebsgröße 122, 123, 124 kann es sich bspw. um einen Ladezustand 122 eines jeweiligen Energiespeichers, vom Fachmann mit SoC bezeichnet (abgekürzt für englisch State of Charge), und/oder um ein Spannungslevel 123, und/oder um Modulströme 124 handeln. Weitere Betriebsgrößen und entsprechend zugewiesene Inputknoten sind denkbar, in der 1 angedeutet durch Punkte 129. Das Preprocessing 121 erhält Trainingsdaten, die hier simulierte Daten 111 aus einem numerischen Modell 115 eines modularen Multilevelkonverters sind. Als Ausgabe des neuronalen Netzes 125 wird ein nächster Zustandsvektor einem Evaluierer 114 zugeführt. Der Evaluierer errechnet mit dem numerischen Modell des modularen Multilevelkonverters 115 eine Istspannung, welche sich durch die von dem nächsten Zustandsvektor bewirkten Schaltzustände ergeben würde, und gleicht diese mit einer Spannung ab, die der Evaluierer 114 aus einem von einem Offline Scheduler 112 erhaltenen Zustandsvektor zu den simulierten Daten 111 errechnet hat. Eine jeweilige Abweichung zwischen den beiden Spannungswerten führt der Evaluierer 114 einem Optimierer 113 zu, der Parameter und Gewichte für das neuronale Netz 125 geeignet anpasst und dem neuronalen Netz 125 zuführt.In 1 is a schematic of a training structure 100 shown for an embodiment of the method according to the invention. The training structure 100 is divided into a simulation part 110 and a control part 120 with neural network 125 . The neural network to be trained 125 comprises a level of input nodes 126 , possibly several levels from nodes of a hidden layer 127 , and an output level 128 . A respective input node 126 is done by preprocessing 121 a respective measured value of a company variable 122 , 123 , 124 assigned. With the respective company size 122 , 123 , 124 it can be, for example, a state of charge 122 of a respective energy store, referred to by the person skilled in the art as SoC (abbreviated for State of Charge), and / or around a voltage level 123 , and / or module currents 124 act. Other company sizes and correspondingly assigned input nodes are conceivable in the 1 indicated by dots 129 . The preprocessing 121 receives training data, the data simulated here 111 from a numerical model 115 of a modular multilevel converter. As the output of the neural network 125 becomes a next state vector to an evaluator 114 fed. The evaluator calculates with the numerical model of the modular multilevel converter 115 an actual voltage, which would result from the switching states caused by the next state vector, and compares this with a voltage that the evaluator 114 from one from an offline scheduler 112 obtained state vector for the simulated data 111 has calculated. The evaluator records a respective deviation between the two voltage values 114 an optimizer 113 zu, the parameters and weights for the neural network 125 suitably adapts and the neural network 125 feeds.

In 2 wird schematisch eine Abtrennung 200 vom Trainingsaufbau zu einer Ausführungsform des erfindungsgemäßen Verfahrens gezeigt. Ist das neuronale Netz 125 trainiert, erfolgt eine Trennung 201 von Simulationsteil 110 und Steuerungsteil 120. Anstatt der simulierten Daten 111 werden dem Preprocessing 121 nun Messwerte 231 zugeführt. Für einen vom neuronalen Netz 125 ausgegebenen nächsten Zustandsvektor wird in einem Überwachungsmodul 233 die Istspannung berechnet, mit einer Sollspannung verglichen, und bei zu großer Abweichung oder unphysikalischen Werten auf einen von einem alternativen Scheduler 232 simultan bereitgestellten Ersatzzustandsvektor zurückgegriffen. Der sich aus diesem Vorgang ergebende Zustandsvektor wird schließlich einer Hardware 235 bzw. einem modularen Multilevelkonverter übermittelt.In 2 is schematically a separation 200 shown from the training structure to an embodiment of the method according to the invention. Is the neural network 125 trained, there is a separation 201 of simulation part 110 and control part 120 . Instead of the simulated data 111 are the preprocessing 121 now readings 231 fed. For someone from the neural network 125 The next state vector is output in a monitoring module 233 the actual voltage is calculated, compared with a target voltage, and if the deviation is too great or unphysical values, to one of an alternative scheduler 232 simultaneously provided substitute state vector is used. The state vector resulting from this process ultimately becomes hardware 235 or a modular multilevel converter.

In 3 wird schematisch ein Schedulingsaufbau 300 zu einer Ausführungsform des erfindungsgemäßen Verfahrens gezeigt. Gegenüber 2 ist hier genauer ausgeführt, dass das dortige Überwachungsmodul 233 hier durch ein Rating System 333 und einen Multiplexer 334 realisiert ist bzw. ein Rating System 333 und einen Multiplexer 334 umfasst. Das Rating System 333 bewertet den von dem neuronalen Netz 125 bereitgestellten nächsten Zustandsvektor auf Konsistenz und weist den Multiplexer 334 an, bei einer Inkonsistenz den von einem kausalen Scheduler 332 aus einfachen Abschätzungen aufgrund der jeweiligen Messwerte 231 bereitgestellten Zustandsvektor an die Hardware 235 weiterzuleiten.In 3 is a schematic of a scheduling structure 300 shown for an embodiment of the method according to the invention. Across from 2 is detailed here that the monitoring module there 233 here through a rating system 333 and a multiplexer 334 is implemented or a rating system 333 and a multiplexer 334 includes. The rating system 333 evaluates the one from the neural network 125 provided next state vector for consistency and assigns the multiplexer 334 on, in the event of an inconsistency, that of a causal scheduler 332 from simple estimates based on the respective measured values 231 provided state vector to the hardware 235 forward.

Claims (13)

Verfahren zu einer Steuerung eines modularen Multilevelkonverters (235) mittels eines neuronalen Netzes (125), bei dem der modulare Multilevelkonverter (235) als eine Hardware (235) und auf ein numerisches Modell (115) abgebildet als eine Software (115) vorliegt, bei dem zu einem jeweiligen Zeitpunkt vorliegende Schaltzustände der Module des modularen Multilevelkonverters (235) als ein jeweiliger Zustandsvektor dargestellt werden, bei dem durch einen jeweiligen Zustandsvektor mindestens ein Istspannungslevel des modularen Multilevelkonverters (235) zu dem jeweiligen Zeitpunkt realisiert wird, bei dem mindestens eine Eingangsgröße des neuronalen Netzes (125) von mindestens einer vorgegebenen Betriebsgröße (122, 123, 124) des modularen Multilevelkonverters (235) zu dem jeweiligen Zeitpunkt gebildet wird, bei dem von dem neuronalen Netz (125) als eine Ausgangsgröße der für einen nächsten Zeitpunkt auf dem modularen Multilevelkonverter (235) zu schaltende nächste Zustandsvektor gebildet wird, wobei zu Beginn des Verfahrens das neuronale Netz (125) in einem untrainierten Zustand vorliegt, wobei in einem ersten Schritt das neuronale Netz (125) trainiert wird, indem in einem Trainingsaufbau (100) vorgegebene Trainingsdaten (111), gebildet aus mehreren Werten der mindestens einen vorgegebenen Betriebsgröße (122, 123, 124) und zugehörigen Zustandsvektoren, und das numerische Modell (115) des modularen Multilevelkonverters (235) für einen Backpropagation-Algorithmus herangezogen werden, wobei in einem zweiten Schritt das trainierte neuronale Netz (125) von dem Trainingsaufbau (100) getrennt wird und für ein Scheduling (300), das für jeden Schaltwechsel ausgehend von einem jeweiligen Zeitpunkt einen nächsten Zustandsvektor für einen nächsten Zeitpunkt bereitstellt, mit einem ersten Eingang eines Multiplexers (334) verbunden wird, wobei ein kausaler Scheduler (232, 332), der für jeden Schaltwechsel ausgehend von einem jeweiligen Zeitpunkt gemäß mindestens einer vorgegebenen Einflussgröße (123) einen nächsten Ersatzzustandsvektor für einen jeweils nächsten Zeitpunkt bereitstellt, mit einem zweiten Eingang des Multiplexers (334) verbunden wird, wobei ein Ausgang des Multiplexers (334) mit der Hardware (235) verbunden wird, und wobei der Multiplexer (334) durch eine Überwachung (233) des von dem neuronalen Netz (125) bereitgestellten nächsten Zustandsvektors gesteuert wird, indem zur Überwachung (233) die Überprüfung einer Konsistenz mindestens für ein Sollspannungslevel (123) durchgeführt wird, indem ein aus dem vom neuronalen Netz (125) bereitgestellten nächsten Zustandsvektor resultierendes Istspannungslevel mit dem Sollspannungslevel (123) verglichen wird und bei einer Abweichung eine Inkonsistenz vorliegt, wobei bei der Konsistenz des nächsten Zustandsvektors dieser von dem Multiplexer (334) an die Hardware (235) weitergegeben wird und bei einer Inkonsistenz der von dem kausalen Scheduler (232, 332) gebildete nächste Ersatzzustandsvektor von dem Multiplexer (334) an die Hardware (235) weitergegeben wird.Method for controlling a modular multilevel converter (235) by means of a neural network (125), in which the modular multilevel converter (235) is available as hardware (235) and mapped to a numerical model (115) as software (115), at the switching states of the modules of the modular multilevel converter (235) present at a particular point in time are represented as a respective state vector in which at least one actual voltage level of the modular multilevel converter (235) is realized at the respective point in time at which at least one input variable of the neural network (125) of at least one predetermined operating variable (122, 123, 124) of the modular multilevel converter (235) is formed at the respective point in time at which the neural network (125) as an output variable for a next point in time on the modular Multilevel converter (235) next state vector to be switched is formed wi rd, with the neural network (125) being in an untrained state at the beginning of the method, with the neural network (125) being trained in a first step by using training data (111), which are predetermined in a training structure (100) and formed from several values the at least one predetermined operating variable (122, 123, 124) and associated state vectors, and the numerical model (115) of the modular multilevel converter (235) are used for a backpropagation algorithm, with the trained neural network (125) from in a second step the training structure (100) is separated and for a scheduling (300), which provides a next state vector for a next point in time for each switching change based on a respective point in time, is connected to a first input of a multiplexer (334), a causal scheduler ( 232, 332), which for each switching change based on a respective point in time according to at least one predetermined on flow variable (123) provides a next equivalent state vector for a respective next point in time, is connected to a second input of the multiplexer (334), an output of the multiplexer (334) being connected to the hardware (235), and the multiplexer (334) by monitoring (233) the next state vector provided by the neural network (125) is controlled by checking a consistency for at least one setpoint voltage level (123) for monitoring (233) by carrying out a check from the neural network (125) provided next state vector, the resulting actual voltage level is compared with the nominal voltage level (123) and if there is a discrepancy there is an inconsistency, with the consistency of the next state vector being passed on by the multiplexer (334) to the hardware (235) and in the case of an inconsistency of the causal scheduler (232, 332) formed next substitute state vector from the multiplex r (334) is passed on to the hardware (235). Verfahren nach Anspruch 1, bei dem für die vorgegebenen Trainingsdaten (111) bekannte Zustandsvektoren und zugehörige aufgezeichnete Messwerte herangezogen werden.Procedure according to Claim 1 , in which known state vectors and associated recorded measured values are used for the specified training data (111). Verfahren nach Anspruch 1, bei dem die vorgegebenen Trainingsdaten (111) durch einen prädiktiven Scheduler generiert werden, wobei der prädiktive Scheduler mindestens ein Optimierungskriterium verwendet, welches mindestens einer vorgegebenen Betriebsgröße entspricht.Procedure according to Claim 1 , in which the predetermined training data (111) are generated by a predictive scheduler, the predictive scheduler using at least one optimization criterion which corresponds to at least one predetermined operating variable. Verfahren nach einem der voranstehenden Ansprüche, bei dem die mindestens eine vorgegebene Betriebsgröße (122, 123, 124) aus folgender Liste gewählt wird: Sollspannungslevel (123), gleichmäßige Modulbelastung, gleichmäßige Entladung von Energiespeichern, minimale Verluste im System, Reduktion von Stromwelligkeit.Method according to one of the preceding claims, in which the at least one predetermined operating variable (122, 123, 124) is selected from the following list: target voltage level (123), uniform module load, uniform discharge of energy stores, minimal losses in the system, reduction of current ripple. Verfahren nach einem der voranstehenden Ansprüche, bei dem die mindestens eine vorgegebene Einflussgröße für den kausalen Scheduler (232, 332) aus folgender Liste gewählt wird: Spannungsanforderung, Amplitudenverlauf, Schalthistorie, Modultemperatur, gleichmäßige Entladung, Look-Up Tables.Method according to one of the preceding claims, in which the at least one predetermined influencing variable for the causal scheduler (232, 332) is selected from the following list: voltage requirement, amplitude curve, switching history, module temperature, uniform discharge, look-up tables. Verfahren nach einem der voranstehenden Ansprüche, bei dem zu einem jeweiligen Zeitpunkt mindestens eine vorgegebene Betriebsgröße als Eingangsgröße für das neuronale Netz rückgekoppelt wird mit ihrem Wert aus einem jeweiligen vorangegangenen Zeitpunkt und ein von dem neuronalen Netz für einen jeweiligen Zeitpunkt ausgegebener Zustandsvektor rückgekoppelt wird mit dem vom Multiplexer an die Hardware zum jeweiligen vorangegangenen Zeitpunkt weitergeleiteten Zustandsvektor oder Ersatzzustandsvektor.Method according to one of the preceding claims, in which at a respective point in time at least one predetermined operating variable is fed back as an input variable for the neural network with its value from a respective previous point in time and a state vector output by the neural network for a respective point in time is fed back with the from Multiplexer to the hardware at the respective previous point in time forwarded state vector or substitute state vector. Vorrichtung (100, 200, 300) zu einer Steuerung eines modularen Multilevelkonverters (235) mittels eines neuronalen Netzes (125), welche eine Recheneinheit, einen modularen Multilevelkonverter (235) als eine Hardware (125) und auf ein numerisches Modell abgebildet als eine Software (115), mindestens einen Messsensor zu einer Messung einer Betriebsgröße (122, 123, 124) der Hardware (125), ein Überwachungsmodul (233), einen Multiplexer (334) und einen kausalen Scheduler (232, 332), der dazu ausgelegt ist, für jeden Schaltwechsel gemäß mindestens einer vorgegebenen Einflussgröße einen nächsten Ersatzzustandsvektor bereitzustellen, umfasst, bei der die Vorrichtung (100, 200, 300) dazu konfiguriert ist, zu einem jeweiligen Zeitpunkt vorliegende Schaltzustände der Module des modularen Multilevelkonverters (235) zu einem Zeitpunkt als einen jeweiligen Zustandsvektor, der mindestens ein Istspannungslevel des modularen Multilevelkonverters (235) zu dem jeweiligen Zeitpunkt realisiert, darzustellen, mindestens eine Eingangsgröße des neuronalen Netzes (125) von mindestens einer vorgegebenen Betriebsgröße (122, 123, 124) des modularen Multilevelkonverters (235) zu dem jeweiligen Zeitpunkt zu bilden und von dem neuronalen Netz (125) als eine Ausgangsgröße den für einen nächsten Zeitpunkt auf dem modularen Multilevelkonverter (235) zu schaltenden nächsten Zustandsvektor zu bilden, wobei die Vorrichtung (100, 200, 300) weiter dazu konfiguriert ist, in einem ersten Schritt das zunächst untrainierte neuronale Netz (125) zu trainieren, indem in einem Trainingsaufbau (110) vorgegebene Trainingsdaten (111), gebildet aus mehreren Werten der mindestens einen Betriebsgröße (122, 123, 124) und zugehörigen Zustandsvektoren, und das numerisches Modell (115) des modularen Multilevelkonverters (235) für einen Backpropagation-Algorithmus herangezogen werden, in einem zweiten Schritt das trainierte neuronale Netz (125) von dem Trainingsaufbau (110) zu trennen und für ein Scheduling, das für jeden Schaltwechsel ausgehend von einem jeweiligen Zeitpunkt einen nächsten Zustandsvektor für einen nächsten Zeitpunkt bereitstellt, mit einem ersten Eingang des Multiplexer (334) zu verbinden und den kausalen Scheduler mit einem zweiten Eingang des Multiplexers zu verbinden, wobei ein Ausgang des Multiplexers (334) mit der Hardware (235) verbunden ist, bei der das Überwachungsmodul (233) dazu ausgelegt ist, die Überprüfung der Konsistenz mindestens für ein Sollspannungslevel durchzuführen, indem es ein aus dem vom neuronalen Netz (125) bereitgestellten nächsten Zustandsvektor resultierendes Istspannungslevel mit dem Sollspannungslevel vergleicht, wobei bei einer Abweichung eine Inkonsistenz vorliegt, und bei der das Überwachungsmodul (233) den Multiplexer (334) steuert, indem bei einer Konsistenz des von dem neuronalen Netz (125) bereitgestellten nächsten Zustandsvektors der Multiplexer (334) diesen an die Hardware (235) weitergibt und bei einer Inkonsistenz der Multiplexer (334) den von dem kausalen Scheduler (232, 332) gebildeten nächsten Ersatzzustandsvektor an die Hardware (235) weitergibt.Device (100, 200, 300) for controlling a modular multilevel converter (235) by means of a neural network (125) which has a computing unit, a modular multilevel converter (235) as hardware (125) and mapped onto a numerical model as software (115), at least one measuring sensor for measuring an operating variable (122, 123, 124) of the hardware (125), a monitoring module (233), a multiplexer (334) and a causal scheduler (232, 332) which is designed for this purpose , one for each switching change according to at least one predetermined influencing variable to provide the next substitute state vector, in which the device (100, 200, 300) is configured to present switching states of the modules of the modular multilevel converter (235) at a given point in time as a respective state vector that contains at least one actual voltage level of the modular multilevel converter (235) realized at the respective point in time, to form at least one input variable of the neural network (125) of at least one predetermined operating variable (122, 123, 124) of the modular multilevel converter (235) at the respective point in time and from the neural network ( 125) to form the next state vector to be switched on the modular multilevel converter (235) for a next point in time as an output variable, the device (100, 200, 300) further being configured to, in a first step, the initially untrained neural network (125 ) to train by pre-given in a training structure (110) ene training data (111), formed from several values of the at least one operating variable (122, 123, 124) and associated state vectors, and the numerical model (115) of the modular multilevel converter (235) for a backpropagation algorithm are used in a second step to separate the trained neural network (125) from the training structure (110) and to connect it to a first input of the multiplexer (334) for a scheduling that provides a next state vector for a next point in time for each switching change based on a respective point in time and to connect the causal scheduler to a second input of the multiplexer, an output of the multiplexer (334) being connected to the hardware (235) in which the monitoring module (233) is designed to check the consistency at least for one target voltage level, in that it results from a next state vector provided by the neural network (125) compares the actual voltage level with the nominal voltage level, with an inconsistency being present in the event of a deviation, and in which the monitoring module (233) controls the multiplexer (334) by the multiplexer (334) being provided by the next state vector provided by the neural network (125) forwards this to the hardware (235) and, in the event of an inconsistency, the multiplexer (334) forwards the next substitute state vector formed by the causal scheduler (232, 332) to the hardware (235). Vorrichtung (100) nach Anspruch 7, bei der die vorgegebenen Trainingsdaten entweder bekannte Zustandsvektoren und zugehörige aufgezeichnete Messwerte sind, oder aus einem prädiktiven Scheduler stammen, wobei der prädiktive Scheduler mindestens ein Optimierungskriterium verwendet, welches mindestens einer vorgegebenen Betriebsgröße entspricht.Device (100) after Claim 7 , in which the specified training data are either known state vectors and associated recorded measured values, or come from a predictive scheduler, the predictive scheduler using at least one optimization criterion which corresponds to at least one specified operating variable. Vorrichtung (100, 200, 300) nach einem der Ansprüche 7 oder 8, bei der die mindestens eine vorgegebene Betriebsgröße (122, 123, 124) aus folgender Liste gewählt ist: Sollspannungslevel (123), gleichmäßige Modulbelastung, gleichmäßige Entladung von Energiespeichern, minimale Verluste im System, Reduktion von Stromwelligkeit.Device (100, 200, 300) according to one of the Claims 7 or 8th , in which the at least one specified operating variable (122, 123, 124) is selected from the following list: target voltage level (123), uniform module load, uniform discharge of energy storage devices, minimal losses in the system, reduction of current ripple. Vorrichtung (200, 300) nach einem der Ansprüche 7 bis 9, bei dem die mindestens eine vorgegebene Einflussgröße für den kausalen Scheduler (232, 332) aus folgender Liste gewählt ist: Spannungsanforderung, Amplitudenverlauf, Schalthistorie, Modultemperatur, gleichmäßige Entladung, Look-Up Tables.Device (200, 300) according to one of the Claims 7 to 9 , in which the at least one predefined influencing variable for the causal scheduler (232, 332) is selected from the following list: voltage requirement, amplitude curve, switching history, module temperature, uniform discharge, look-up tables. Vorrichtung (200, 300) nach einem der Ansprüche 7 bis 10, bei dem das trainierte neuronale Netz (125) mit einem Field Programmable Gate Array (FPGA) realisiert ist.Device (200, 300) according to one of the Claims 7 to 10 , in which the trained neural network (125) is implemented with a field programmable gate array (FPGA). Vorrichtung (200, 300) nach einem der Ansprüche 7 bis 11, bei dem in einem Betrieb das neuronale Netz auf einer Recheneinheit parallelisiert abläuft.Device (200, 300) according to one of the Claims 7 to 11 , in which the neural network runs in parallel on a computing unit in a company. Nichtflüchtiges computerlesbares Medium, das ein Computerprogramm mit Programmcodemitteln umfasst, die dazu ausgelegt sind, wenn das Computerprogramm auf einer Recheneinheit, insbesondere auf der Recheneinheit der Vorrichtung (100, 200, 300) nach einem der Ansprüche 7 bis 12, abläuft, einen oder mehrere Schritte des Verfahrens nach einem der Ansprüche 1 bis 6 auszuführen.Non-transitory computer-readable medium which comprises a computer program with program code means which are designed to be used when the computer program is run on a computing unit, in particular on the computing unit of the device (100, 200, 300) according to one of the Claims 7 to 12 , expires, one or more steps of the method according to one of the Claims 1 to 6th execute.
DE102019125577.5A 2019-09-24 2019-09-24 Method and device for controlling a modular multilevel converter by means of neural networks Active DE102019125577B3 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102019125577.5A DE102019125577B3 (en) 2019-09-24 2019-09-24 Method and device for controlling a modular multilevel converter by means of neural networks

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102019125577.5A DE102019125577B3 (en) 2019-09-24 2019-09-24 Method and device for controlling a modular multilevel converter by means of neural networks

Publications (1)

Publication Number Publication Date
DE102019125577B3 true DE102019125577B3 (en) 2020-11-12

Family

ID=72943688

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019125577.5A Active DE102019125577B3 (en) 2019-09-24 2019-09-24 Method and device for controlling a modular multilevel converter by means of neural networks

Country Status (1)

Country Link
DE (1) DE102019125577B3 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11135923B2 (en) 2019-03-29 2021-10-05 Tae Technologies, Inc. Module-based energy systems capable of cascaded and interconnected configurations, and methods related thereto
US20210316621A1 (en) 2020-04-14 2021-10-14 Tae Technologies, Inc. Systems, devices, and methods for charging and discharging module-based cascaded energy systems
US11626791B2 (en) 2017-06-16 2023-04-11 Tae Technologies, Inc. Multi-level hysteresis voltage controllers for voltage modulators and methods for control thereof
US11794599B2 (en) 2020-05-14 2023-10-24 Tae Technologies, Inc. Systems, devices, and methods for rail-based and other electric vehicles with modular cascaded energy systems
US11840149B2 (en) 2018-03-22 2023-12-12 Tae Technologies, Inc. Systems and methods for power management and control
US11845356B2 (en) 2020-09-30 2023-12-19 Tae Technologies, Inc. Systems, devices, and methods for intraphase and interphase balancing in module-based cascaded energy systems
US11888320B2 (en) 2021-07-07 2024-01-30 Tae Technologies, Inc. Systems, devices, and methods for module-based cascaded energy systems configured to interface with renewable energy sources
US11894781B2 (en) 2020-09-28 2024-02-06 Tae Technologies, Inc. Multi-phase module-based energy system frameworks and methods related thereto
US11973436B2 (en) 2017-06-12 2024-04-30 Tae Technologies, Inc. Multi-level multi-quadrant hysteresis current controllers and methods for control thereof

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0708936B1 (en) * 1993-07-13 1997-03-19 Siemens Aktiengesellschaft Arrangement for modelling a non-linear process

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0708936B1 (en) * 1993-07-13 1997-03-19 Siemens Aktiengesellschaft Arrangement for modelling a non-linear process

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
KRAUS David ; SPECHT Eduard ; MERZ Tobias ; HILLER Marc :Optimized Real-Time Control for Modular Multilevel Converters using Adaptive Neural Networks.In: 2019 21st European Conference on Power Electronics and Applications (EPE '19 ECCE Europe), 2019 | Conference Paper | Publisher: IEEE Datum der Konferenz: 3.5. September 2019 *
TALEB Rachid , MEROUFEL Abdelkader, WIRA Patrice: Neural Network Control of Asymmetrical Multilevel ConvertersIn: Leonardo Journal of Sciences , ISSN 1583-0233Ausgabe 15, July-December 2009Seiten: 53-70 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11973436B2 (en) 2017-06-12 2024-04-30 Tae Technologies, Inc. Multi-level multi-quadrant hysteresis current controllers and methods for control thereof
US11626791B2 (en) 2017-06-16 2023-04-11 Tae Technologies, Inc. Multi-level hysteresis voltage controllers for voltage modulators and methods for control thereof
US11881761B2 (en) 2017-06-16 2024-01-23 Tae Technologies, Inc. Multi-level hysteresis voltage controllers for voltage modulators and methods for control thereof
US11840150B2 (en) 2018-03-22 2023-12-12 Tae Technologies, Inc. Systems and methods for power management and control
US11840149B2 (en) 2018-03-22 2023-12-12 Tae Technologies, Inc. Systems and methods for power management and control
US11597284B2 (en) 2019-03-29 2023-03-07 Tae Technologies, Inc. Module-based energy systems capable of cascaded and interconnected configurations, and methods related thereto
US11964573B2 (en) 2019-03-29 2024-04-23 Tae Technologies, Inc. Module-based energy systems having converter-source modules and methods related thereto
US11135923B2 (en) 2019-03-29 2021-10-05 Tae Technologies, Inc. Module-based energy systems capable of cascaded and interconnected configurations, and methods related thereto
US11603001B2 (en) 2019-03-29 2023-03-14 Tae Technologies, Inc. Module-based energy systems having converter-source modules and methods related thereto
US11884167B2 (en) 2019-03-29 2024-01-30 Tae Technologies, Inc. Module-based energy systems having converter-source modules and methods related thereto
US20210316621A1 (en) 2020-04-14 2021-10-14 Tae Technologies, Inc. Systems, devices, and methods for charging and discharging module-based cascaded energy systems
US11897347B2 (en) 2020-04-14 2024-02-13 Tae Technologies, Inc. Systems, devices, and methods for charging and discharging module-based cascaded energy systems
US11794599B2 (en) 2020-05-14 2023-10-24 Tae Technologies, Inc. Systems, devices, and methods for rail-based and other electric vehicles with modular cascaded energy systems
US11827115B2 (en) 2020-05-14 2023-11-28 Tae Technologies, Inc. Systems, devices, and methods for rail-based and other electric vehicles with modular cascaded energy systems
US11894781B2 (en) 2020-09-28 2024-02-06 Tae Technologies, Inc. Multi-phase module-based energy system frameworks and methods related thereto
US11923782B2 (en) 2020-09-28 2024-03-05 Tae Technologies, Inc. Multi-phase module-based energy system frameworks and methods related thereto
US11845356B2 (en) 2020-09-30 2023-12-19 Tae Technologies, Inc. Systems, devices, and methods for intraphase and interphase balancing in module-based cascaded energy systems
US11942788B2 (en) 2021-07-07 2024-03-26 Tae Technologies, Inc. Systems, devices, and methods for module-based cascaded energy systems configured to interface with renewable energy sources
US11888320B2 (en) 2021-07-07 2024-01-30 Tae Technologies, Inc. Systems, devices, and methods for module-based cascaded energy systems configured to interface with renewable energy sources

Similar Documents

Publication Publication Date Title
DE102019125577B3 (en) Method and device for controlling a modular multilevel converter by means of neural networks
DE102019125578B3 (en) Method and device for controlling a modular multilevel converter by means of a self-learning neural network
DE10197407B4 (en) Adaptive feedback / feedforward PID controller
EP2059999B1 (en) Method for control of inverters
EP2534748B1 (en) Control of a modular multilevel converter with an observer for the currents and an estimator for the energy of the intermediate circuit
DE102004019352B4 (en) State-based adaptive feedback / feedforward PID controller (PID control unit)
AT511520B1 (en) Method and device for testing the drive train of at least partially electrically operated vehicles
DE102017118610A1 (en) DC conversion for electrified distributed control vehicles
DE102016015017A1 (en) Control device with learning function for detecting a cause of noise
DE102018220494A1 (en) Method for monitoring an energy store in an electrical system
DE102004053608A1 (en) Vehicle energy management system using predictions
EP2487499A1 (en) Real-time-capable battery cells simulation
EP3526891B1 (en) Control device for a dc converter, dc converter, and method for controlling a dc converter
EP3329575B1 (en) Method and apparatus for operating an electrical system, electrical system
WO2020201092A1 (en) Switchgear cabinet configuration system
DE102013106120A1 (en) Method and device for testing a component of an aircraft
AT522290B1 (en) Method and control unit for controlling a non-linear technical process
EP3376026B1 (en) Method for controlling the power output of a wind farm and corresponding wind farm
DE102015114497A1 (en) METHOD FOR OPERATING A VEHICLE DRIVE TRAIN ON THE BASIS OF A PREDICTION OF HOW PARALLEL SWITCHED BATTERIES USE DIFFERENT CHEMICALS TO PUBLISH A REQUIRED ELECTRICITY
EP3542229B1 (en) Device and method for determining the parameters of a control device
DE102019206541A1 (en) Method for performing computer-aided XiL simulations
EP3252549A1 (en) Method for operating an automation device and automation device
WO2019211034A1 (en) Method for real-time control of a power supply and distribution system
DE4029117A1 (en) Digitally regulating electric welding device - using data storage device to adjust inverter in response to voltage and current instantaneous values
DE4439505A1 (en) Process for designing a fuzzy controller

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final