DE102020210148A1 - Vorrichtung und Verfahren zur lokalen Bestimmung von Kennwerten einer Akku-Zelle - Google Patents

Vorrichtung und Verfahren zur lokalen Bestimmung von Kennwerten einer Akku-Zelle Download PDF

Info

Publication number
DE102020210148A1
DE102020210148A1 DE102020210148.5A DE102020210148A DE102020210148A1 DE 102020210148 A1 DE102020210148 A1 DE 102020210148A1 DE 102020210148 A DE102020210148 A DE 102020210148A DE 102020210148 A1 DE102020210148 A1 DE 102020210148A1
Authority
DE
Germany
Prior art keywords
neural network
cell
indicator
time
battery cell
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020210148.5A
Other languages
English (en)
Inventor
Weihan Li
Neil Sengupta
Dirk Uwe Sauer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Rheinisch Westlische Technische Hochschuke RWTH
Original Assignee
Rheinisch Westlische Technische Hochschuke RWTH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Rheinisch Westlische Technische Hochschuke RWTH filed Critical Rheinisch Westlische Technische Hochschuke RWTH
Priority to DE102020210148.5A priority Critical patent/DE102020210148A1/de
Publication of DE102020210148A1 publication Critical patent/DE102020210148A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/36Arrangements for testing, measuring or monitoring the electrical condition of accumulators or electric batteries, e.g. capacity or state of charge [SoC]
    • G01R31/367Software therefor, e.g. for battery testing using modelling or look-up tables
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01RMEASURING ELECTRIC VARIABLES; MEASURING MAGNETIC VARIABLES
    • G01R31/00Arrangements for testing electric properties; Arrangements for locating electric faults; Arrangements for electrical testing characterised by what is being tested not provided for elsewhere
    • G01R31/36Arrangements for testing, measuring or monitoring the electrical condition of accumulators or electric batteries, e.g. capacity or state of charge [SoC]
    • G01R31/392Determining battery ageing or deterioration, e.g. state of health

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Secondary Cells (AREA)

Abstract

Die Erfindung betrifft ein Die Erfindung betrifft ein Verfahren zur lokalen Bestimmung von zumindest einem Kennwert einer Akku-Zelle, wobei Zeitreihen von Spannungen und Zeit oder ein anderes Maß eines State-of-health-Indikators (SOH) einer Zelle einem weiteren neuronalen Netzwerk (NN2) zugeführt (600) werden, wobei das weitere neuronale Netzwerk (NN2) ein Netzwerk ist, das zum Sequence to Sequence deep learning ausgestaltet ist, Erhalten (800) eines zweiten Indikators von dem weiteren neuronalen Netzwerk, wobei der zweite Indikator ein weiteres Maß für die zu erwartende Degradation der Zelle ist. Weiterhin betrifft die Erfindung eine Vorrichtung zur Ausführung des Verfahrens.

Description

  • Technisches Gebiet
  • Die Erfindung betrifft das Gebiet der Bestimmung eines Kennwertes einer Akku-Zelle.
  • Stand der Technik
  • Lithium-Ionen-Batterien finden nunmehr eine weite Verwendung im Bereich der Elektromobilität. Dies ist unter anderem darin begründet, dass die Kosten in Bezug zur Energiespeicherdichte gering sind. Auch im Bereich der dezentralisierten Energieerzeugung finden Speichersysteme zunehmend Einzug. Soweit nachfolgend Bezug auf Lithium-basierte Batterien genommen wird, ist dies nur exemplarisch.
  • Es ist jedoch bekannt, dass elektrische Speichermedien wie die Lithium-Ionen-Batterien einen Leistungsverlust in Abhängigkeit unterschiedlicher Fakturen erleiden. Dieser Leistungsverlust ist hauptsächlich durch die Lagerung als auch die Verwendung bedingt.
  • Es besteht daher ein Bedarf an einer Möglichkeit die Einsetzbarkeit und Zuverlässigkeit solcher Speichermedien im Betrieb abzuschätzen.
  • Daher wäre es wünschenswert, aus Daten eines Batterie-Management-Systems den Zustand der Speichermedien ableiten zu können. Dies ist sowohl für den aktuellen Besitzer als auch für den Hersteller von besonderem Interesse.
  • Als ein Maß für den Alterungsstatus einer Lithium-Ionen-Batterie wird gegenwärtig ein sogenannter „State-of-Health“ Indikator (abgek. SOH) verwendet. Dieser „State-of-Health“ Indikator kann auf Basis der verbleibenden Zellenkapazität als auch dem internen Widerstand bestimmt werden.
  • Ein weiteres Maß ist die erwartete Lebensdauer bzw. das erwartete Lebensdauerende (engl. end-of-life, abgek. EOL). Das Lebensdauerende wird in aller Regel so definiert, dass der „State-of-Health“ Indikator einen bestimmten Wert erreicht oder unterschreitet, z.B. 80 % des ursprünglichen Wertes der verbleibenden (nominalen) Kapazität oder 200 % des ursprünglichen internen Widerstandes. Zum Lebensdauerende korrespondiert die verbleibende Restlebensdauer (engl. remaining useful lifetime, abgek. RUL). Die verbleibende Restlebensdauer bezeichnet dabei die Zeit, in der die Zelle einen Normalbetrieb erlaubt.
  • Nachfolgend wird von einer verbleibenden Kapazität ausgegangen.
  • Die präzise Abschätzung eines „State-of-Health“ Indikators ist ein wesentliches Element für den Betrieb, die Wartung und die Optimierung von Zellen.
  • Allerdings ist die Abschätzung auf Grund der komplexen und nichtlinearen Mechanismen, die zur Alterung einer Zelle beitragen, äußerst schwierig. Die Schriften „Ageing mechanisms in lithium-ion batteries“ der Autoren J. Vetter, P. Novák, M. R. Wagner, C. Veit, K.-C. Möller, J. O. Besenhard, M. Winter, M. Wohlfahrt-Mehrens, C. Vogler, A. Hammouche, veröffentlicht in Journal of Power Sources 147 (1-2) (2005) 269-281, als auch „Review and performance comparison of mechanical-chemical degradation models for lithium-ion batteries“ der Autoren J. M. Reniers, G. Mulder, D. A. Howey, veröffentlicht in Journal of the Electrochemical Society 166 (14) (2019) A3189-A3200 zeigen solche Mechanismen, z.B. die Beschreibung der Grenzschicht (Solid Electrolyte Interface) oder aber die Ausbildung von metallischem Lithium (lithium plating) oder die Stromkollektordegradation (current collector degradation) auf. Dabei ist anzumerken, dass diese individuellen Alterungsmechanismen untereinander in Beziehung stehen und zu unterschiedlichen Alterungsmodi beitragen.
  • Aus dem Stand der Technik sind Verfahren zur Abschätzung von SOH einer Zelle bekannt. Ein kontrollierter experimenteller Ansatz stellt dabei einen trivialen Ansatz dar. Solche Ansätze basieren auf Ladungszählung (coulomb counting), der elektrochemischen Impedanzspektroskopie, der inkrementellen Kapazitäts- (engl. Incremental Capacity, abgek. IC) und Differenzspannungsanalyse (engl. Differential Voltage, abgek. DV).
  • Diese Verfahren sind durch das Erfordernis eines einzigartigen Stromprofils im Verlauf des Entladens gekennzeichnet. Ein solches Entladungsprofil ist jedoch in einem tatsächlichen Einsatz nur schwer zu reproduzieren. So verwendet beispielsweise die sogenannte IC/DV Analyse Ladungs-Spannungskurven (Q-V), die beispielsweise durch einen geringen Strom durch die Zelle erhalten werden, um einen Gleichgewichtsbetrieb (equilibrium operation) zu simulieren. Aus den erhaltenen Kurven wird durch Ableiten IC bzw. DV Kurven erhalten. Allerdings verstärkt das Ableiten Störungen, selbst wenn dem durch glättende Filterung begegnet wird. Zudem müssen Daten über eine große Spanne von Spannungen gesammelt werden, was eine anspruchsvolle, zeitaufwändige und kostenintensive Arbeit darstellt.
  • Der in der Industrie am häufigsten anzutreffenden Ansatz einer SOH Abschätzung basiert auf einer Parametrisierung eines Batterie-Modelles. Ein solches Batterie-Modell kann z.B. online in einer rekursiven Implementierung, wie z.B. als Kalman-Filter ausgestaltet sein. Die Modelle können dabei auf dem äquivalenten Schaltkreis oder einem elektrochemischen Modell aufbauen.
  • Äquivalente-Schaltkreis-Modelle beschreiben zahlreiche Komponenten, um die elektrische Zelldynamik abzubilden. Elektrochemische Modelle basieren auf einer Verteilung der Lithium-Ionen-Konzentration und Spannung innerhalb der Zelle auf Basis von gekoppelten partiellen Differentialgleichungen.
  • Dabei ist die Genauigkeit stark abhängig von der Wahl des verwendeten Modells. Zudem stellt die Identifikation und Einstellung der Parameter eine große Herausforderung dar, die häufig sehr rechenintensiv ist. Weiterhin muss bei diesen Ansätzen auch simultan ein State-of-Charge ermittelt werden, was zu einer zusätzlichen Komplexität beiträgt.
  • In der nahen Vergangenheit haben sich auch datenbasierte Lernansätze als Alternative gezeigt. Diese sind nicht an die Wahl eines bestimmten physikalischen Models gebunden.
  • Z.B. sind Verfahren auf Basis der Gaußprozess-Regression (GPR) bekannt. Dabei wird eine mittlere Kapazitätsschätzung ebenso wie probabilistische Grenzen bereitgestellt, die auf Merkmale wie Spannung, Strom, Entladezeit beruhen, welche wiederum aus den Lade- und Entladekurven der Zellen berechnet werden.
  • Ebenso haben sogenannte Support Vector Machines (SVMs) ähnliche Ergebnisse unter Verwendung im Wesentlichen gleichartiger Parameter bereitgestellt.
  • Neuronale Netzwerke auf Basis von Autoencodern, wie sie z.B. aus „Li-ion battery health estimation based on multi-layer characteristic fusion and deep learning“ der Autoren Y. Ding, C. Lu, J. Ma, veröffentlicht in: 2017 IEEE Vehicle Power and Propulsion Conference (VPPC), IEEE, 2017, pp. 1-5, als auch „Remaining useful life prediction for lithium-ion battery: A deep learning approach“ der Autoren L. Ren, L. Zhao, S. Hong, S. Zhao, H. Wang, L. Zhang, veröffentlicht in IEEE Access 6 (2018) 50587-50598 bekannt sind, verwenden die Autoencoder, um übergeordnete Merkmale aus rohen Ladekurvendaten zu extrahieren, um diese dann an ein Deep-Neuronal-Network weiterzugeben, um hieraus einen SOH-Wert zu ermitteln.
  • Aus dem Artikel „An online method for lithium-ion battery remaining useful life estimation using importance sampling and neural networks“ der Autoren J. Wu, C. Zhang, Z. Chen, veröffentlicht in Applied Energy 173 (2016) 134-140 ist ein weiteres Verfahren bekannt, bei dem ein Deep-Neuronal-Network für eine Kapazitäts-Abschätzung trainiert wird. Dabei wird eine Stichprobenentnahme nach Wichtigkeit aus einem breiten Eingabewertesatz von Ladekurven vorgenommen.
  • Ebenso schlagen die Autoren H. Chaoui, C. C. Ibe-Ekeocha in ihrem Artikel „State of charge and state of health estimation for lithium batteries using recurrent neural networks“, veröffentlicht in IEEE Transactions on Vehicular Technology 66 (10) (2017) 8773-8783 und die Autoren A. Eddahech, O. Briat, N. Bertrand, J.-Y. Del'etage, J.-M. Vinassa in ihrem Artikel „Behavior and state-of-health monitoring of li-ion batteries using impedance spectroscopy and recurrent neural networks“, veröffentlicht in International Journal of Electrical Power & Energy Systems 42 (1) (2012) 487-494, die Verwendung von rückgekoppelten neuronalen Netzwerken (engl. Recurrent neural networks, abgek. RNNs) vor.
  • Nachteilig an den bisherigen datenbasierten Verfahren ist, dass sie in aller Regel eine externe Vorverarbeitung und feature engineering Schritte benötigen. Diese benötigen umfangreiches domänenspezifisches Wissen. Zudem zeigt sich, dass Ansätze aus dem Maschinenlernen wie z.B. Gaußprozess-Regression und SVMs mit der Menge an zu prozessierenden Daten an rechnerischer Komplexität ansteigen. Daher sind sie nicht geeignet in rechenleistungs- und speicherleistungsbegrenzten Systemen, wie z. embedded Systems (z.B. in einem Batteriemanagement-System), verwendet zu werden.
  • Zwar haben die oben aufgeführten Ansätze neuronaler Netzwerke keine Größenbeschränkung, jedoch benötigen sie dennoch feature extraction Schritte.
  • Ansätze auf Basis der oben aufgezeigten rekursiven neuronalen Netzwerke haben jedoch auf Basis des Kurzzeitgedächtnischarakters (short term memory) die Eigenschaft, dass der Lerngradient nach wenigen (Zeit-) Schritten wieder verschwindet. Um dies zu umgehen verwenden diese rekursiven neuronalen Netzwerke eine geringe Anzahl von Eingangsmerkmalen innerhalb weniger Zeitschritte, um das Netzwerk zu trainieren. Eine geringe Anzahl von Eingangsmerkmalen als auch eine Beschränkung auf wenige Zeitschritte führt jedoch dazu, dass die Präzision abnimmt.
  • Es ist zudem festzustellen, dass parametrisierte Modelle dynamische Variationen der Zelldegradation außerhalb von Laborbedingungen, d.h. unter realen Bedingungen, nicht erfassen können.
  • Insbesondere bedürfen solche Modelle Eingaben, die in realen Bedingungen nicht oder nur äußerst schwer zu erhalten sind.
  • Data-getriebene Ansätze für eine Modellierung der Degradation stellen eine Lösung für ein Parametrisierungsproblem dar, da diese Ansätze vordergründig weder auf einem mathematischen noch elektrischen/elektrochemischen Modell beruhen, sondern Parameter aus der Beziehung von Eingabedaten zu gewünschten Zieldaten erzeugen.
  • Hierzu wurden in der Vergangenheit einige Ansätze entwickelt.
  • Ein Ansatz besteht darin, zunächst mit einem Modell den gegenwärtigen State-of-Health der Zelle aus den verfügbaren Eingaben zu ermitteln und anschließend diesen gegenwärtigen State-of-Health Indikator mit einem vorbestimmten EOL Wert zu vergleichen, um hieraus ein Maß für die verfügbare Restlebensdauer zu ermitteln.
  • Diesen Ansätzen ist jedoch gemein, dass sie zunächst ein vollsändiges Backend für die Ermittlung eines SOH benötigen. Zudem stellt der ermittelte Wert lediglich eine Abschätzung der verfügbaren Restlebensdauer dar, ohne jedoch eine Aussage darüber bereitzustellen, wie sich die Kapazität in der verbleibenden Lebensdauer entwickeln wird. D.h. die langfristige Vorhersage solcher bekannten Modelle ist schlecht. Dies könnte darin begründet sein, dass diese Modelle jeweils nur beschränkt auf ihren eigenen Datensätzen operieren.
  • Andere Ansätze basieren darauf, dass von einem bestimmten Punkt der Ladakapazitätsentwicklung (capacity-cycle progression) an die Zukunft einer Zelle iterativ vorhergesagt werden soll. Zwar haben diese Modelle den Vorteil, dass der Vorhersagemechanismus auf zuvor ermittelten Daten ermittelt werden kann. Jedoch erfordern diese Modelle, dass sie iterativ ausgeführt werden bis ein Überprüfungsmechanismus bestätigt, dass das EOL Kriterium erfüllt ist. Zudem sind die Modelle nur dazu geeignet Beziehungen zwischen seinen Eingabe- und Ausgabedaten aus den Trainingsdaten abzuleiten. D.h., eine Bearbeitung der Parameter basierend auf zukünftig verfügbaren Daten ist nicht möglich. Daher kann ein solcher Ansatz nur in solchen Fällen sinnvoll Verwendung finden, in denen die Degradationsentwicklung als gleich über die gesamte Zeit angenommen werden kann.
  • Vor diesem Hintergrund ist es eine Aufgabe der Erfindung eine kostengünstige, sichere und schnelle Möglichkeit zu schaffen, mit der ein oder mehrere Kennwerte einer Akku-Zelle bereitgestellt werden können.
  • Kurzbeschreibung der Erfindung
  • Die Aufgabe der Erfindung wird gelöst durch eine Verfahren gemäß Anspruch 1.
  • Weiterhin wird die Aufgabe durch eine Vorrichtung zur Ausführung eines erfindungsgemäßen Verfahrens nach Anspruch 9 gelöst.
  • Weitere vorteilhafte Ausgestaltungen sind Gegenstand der abhängigen Ansprüche, der Beschreibung und der Figuren.
  • Figurenliste
  • Nachfolgend wird die Erfindung näher unter Bezug auf die Figuren erläutert. In diesen zeigt:
    • 1 eine Kurvenschar aufzeigend die Entwicklung der nominalen Kapazität über die Anzahl von Ladezyklen,
    • 2 eine schematische Darstellung eines Systems in dem Ausführungsformen der Erfindung zur Verwendung kommen können,
    • 3 eine schematische Darstellung eines neuronalen Netzwerkes gemäß Aspekten der Erfindung,
    • 4 eine schematische Darstellung in Bezug einer Vorrichtung gemäß Ausführungsformen der Erfindung,
    • 5 ein schematisches Flussdiagramm von exemplarischen Schritten zur Bestimmung eines Kennwertes gemäß Aspekten der Erfindung,
    • 6 ein schematisches Flussdiagramm von exemplarischen Schritten zur Bestimmung eines weiteren Kennwertes gemäß Aspekten der Erfindung,
    • 7 eine schematische Darstellung einer beispielhaften Architektur eines Netzwerkes gemäß einem Aspekt der Erfindung und
    • 8 eine beispielhafte Netzwerkschichtstruktur eines Netzwerkes gemäß 7.
  • Beschreibung der Ausführungsarten
  • Nachfolgend wird die Erfindung eingehender unter Bezugnahme auf die Figuren dargestellt. Dabei ist anzumerken, dass unterschiedliche Aspekte beschrieben werden, die jeweils einzeln oder in Kombination zum Einsatz kommen können. D.h. jeglicher Aspekt kann mit unterschiedlichen Ausführungsformen der Erfindung verwendet werden, soweit nicht explizit als reine Alternative dargestellt.
  • Weiterhin wird nachfolgend der Einfachheit halber in aller Regel immer nur auf eine Entität Bezug genommen werden. Soweit nicht explizit vermerkt, kann die Erfindung aber auch jeweils mehrere der betroffenen Entitäten aufweisen. Insofern ist die Verwendung der Wörter „ein“, „eine“ und „eines“ nur als Hinweis darauf zu verstehen, dass in einer einfachen Ausführungsform zumindest eine Entität verwendet wird.
  • Soweit nachfolgend Verfahren beschrieben werden, sind die einzelnen Schritte eines Verfahrens in beliebiger Reihenfolge anordbar und/oder kombinierbar, soweit sich durch den Zusammenhang nicht explizit etwas Abweichendes ergibt. Weiterhin sind die Verfahren - soweit nicht ausdrücklich anderweitig gekennzeichnet - untereinander kombinierbar.
  • Angaben mit Zahlenwerten sind in aller Regel nicht als exakte Werte zu verstehen, sondern beinhalten auch eine Toleranz von +/- 1% bis zu +/-10%.
  • Bezugnahme auf Standards oder Spezifikationen oder Normen sind als Bezugnahme auf Standards bzw. Spezifikationen bzw. Normen, die zum Zeitpunkt der Anmeldung und/oder soweit eine Priorität beansprucht wird - zum Zeitpunkt der Prioritätsanmeldung gelten/galten zu verstehen. Hiermit ist jedoch kein genereller Ausschluss der Anwendbarkeit auf nachfolgende oder ersetzende Standards oder Spezifikationen oder Normen zu verstehen.
  • In einem Aspekt der Erfindung wird ein Verfahren zur lokalen Bestimmung von zumindest einem Kennwert einer Akku-Zelle gemäß 5 bereitgestellt.
  • Das in 5 skizierte Verfahren weist zunächst einen Ladevorgang einer Akku-Zelle auf. Die Akku Zelle kann dabei aus einer Vielzahl von Zellen zusammengesetzt sein. Die Akkuzelle kann in einem Fahrzeug oder stationär bereitgestellt sein. Die Akku-Zelle kann auf einer Vielzahl von Technologien basieren. Insbesondere kann die Akku-Zelle eine Lithium-basierte Akkuzelle sein. Beispielhaft - ohne beschränkend zu sein, kann die Lithiumzelle ein Lithium-Cobaltdioxid-Akkumulator, ein Lithium-Mangandioxid-Akkumulator, ein Lithium-Eisenphosphat-Akkumulator, ein Lithium-Titanat-Akkumulator oder ein Zinn-Schwefel-Lithium-Ionen-Akkumulator sein. Insbesondere kann die Akkuzelle ein Lithium-Polymer-Akkumulator sein. Andere Akkumulatoren-Technologien, wie z.B. Nickel-, Blei-, Zink-, Zinn-, Silizium- oder natriumbasierte Akku-Zellen können jedoch in gleicher Weise auch von der Erfindung profitieren.
  • Während eines Ladevorganges der Akku-Zelle wir nun in einem Schritt 100 wiederholte eine anliegende Spannung ermittelt. Dieser Spannung, bzw. einem Wert, der diese Spannung repräsentiert, wird eine Zeitmarke in Schritt 200 zugeordnet.
  • Nunmehr können fortlaufend oder aber auch erst nach Erreichen eines Abbruchkriteriums so gewonnene Spannungen und zugeordnete Zeitmarken einem neuronales Netzwerk NN1 In Schritt 400 zugeführt werden.
  • Als Ergebnis stellt das Neuronale Netzwerk NN1 auf Basis der in Schritt 400 erhaltenen Spannungen und zugeordnete Zeitmarken in Schritt 500 einen (ersten) Indikator SOH bereit, wobei der (erste) Indikator SOH ein Maß für die nominale Kapazität zum Ende der letzten anliegend gemessenen Spannung ist.
  • D.h. basierend auf der Zeitreihe und den Spannungen aus Schritt 300 wird ein State-of-Health Indikator in Bezug auf die nominale Kapazität erstellt.
  • Dabei wird lediglich während des Ladevorganges gemessen, da dieser nach Erkenntnis der Erfinder bereits wesentliche Informationen zur Verfügung stellen kann, die für die Lebensdauerabschätzung, d.h. für den Entladevorgang, relevant sein können. Dabei macht sich die Erfindung zu Nutze, dass der Ladevorgang in aller Regel kontrolliert abläuft und somit einem vorgegebenen Schema folgt.
  • In einer Ausführungsform des Aspektes weist der Ladevorgang einen vorbestimmten konstanten Strom auf. Bei Erreichen einer vorbestimmten Zielspannung, kann der Ladevorgang mit einer vorbestimmten Spannung fortgesetzt werden, wobei der Ladevorgang endet, wenn ein vorbestimmter Mindestladestrom unterschritten wird.
  • D.h. das Verfahren kann in klassische Ladevorgänge nahtlos integriert werden.
  • In einer Ausführungsform des Aspektes erfolgt die Ermittlung einer anliegenden Spannung 100 und das Zuordnen 200 zu einer Zeitmarke während eines konstanten Ladestroms.
  • Hierdurch kann der Trainingsaufwand reduziert werden. Zudem ist ein konstanter Ladestrom besonders gut geeignet eine Akku-Zelle so aufzuladen, dass sie langlebig ist.
  • In einer Ausführungsform des Aspektes ist das neuronale Netzwerk NN1 ein long short-term memory (abgek. LSTM) network basiertes neuronales Netzwerk.
  • Bevor nachfolgend weiter auf das neuronale Netzwerk NN1 eingegangen werden wird, soll nachfolgend zunächst die Vorrichtung 1 in einen größeren systemischen Blickwinkel beleuchtet werden.
  • Im Rahmen der Erfindung kann das Kapazitätsschätzungsmodell auch in zwei logische Teile separiert werden, ein initiales Training als auch die Bereitstellung des Modells an Vorrichtungen 1 gemäß der Erfindung.
  • In 2 können diese zwei Teile und eine mögliche Interaktion in einem System erkannt werden.
  • Das System in 2 weist zumindest eine Vorrichtung 1 gemäß einem Aspekt der Erfindung auf. Weiterhin weist das System eine hiervon entfernte Berechnungseinrichtung BE auf. Typischerweise befindet sich die Vorrichtung 1 in der (unmittelbaren) Nachbarschaft zur Akku-Zelle, z.B. in einem Fahrzeug. Die entfernte Berechnungseinrichtung BE, die z.B. über mehr Rechenleistung als die Vorrichtung 1 verfügen kann, kann z.B. ein (Cloud-) Server sein.
  • In aller Regel verfügt die die entfernte Berechnungseinrichtung BE über ein gleichartiges neuronales Netzwerk NN1, NN2.
  • Das neuronale Netzwerk NN1, NN2 der entfernte Berechnungseinrichtung BE erhält z.B. Daten von Alterungstests zumindest einer gleichartigen (LTSM-) Zelle. Mit diesen kann das neuronale Netzwerk NN1 bzw. NN2 trainiert werden.
  • Weiterhin kann das neuronale Netzwerk NN1, NN2 der entfernte Berechnungseinrichtung BE auch ermittelte Spannungen und Zeitmarken von der zumindest einen Vorrichtung 1 erhalten.
  • Hierdurch kann jeweils das neuronale Netzwerk NN1 bzw. NN2 auf der entfernten Berechnungseinrichtung BE trainiert werden.
  • Das so trainierte Modell der entfernten Berechnungseinrichtung BE kann dann an ein neuronale Netzwerk NN1, NN2 einer oder mehrerer Vorrichtungen 1 zur weiteren Verwendung zur Verfügung gestellt werden.
  • Die Kommunikation zwischen der entfernten Berechnungseinrichtung BE, der Vorrichtung 1 / den Vorrichtungen 1 und eventuellen Alterungsdaten kann bidirektional ausgestaltet sein.
  • Die genaue Form der Kommunikation, d.h., ob Daten / Modelle abgefragt oder unangefragt zur Verfügung gestellt werden, kann geeignet gewählt werden. D.h., die Kommunikation kann unidirektional (z.B. Alterungsdaten zur entfernten Berechnungseinrichtung BE) oder bidirektional (entfernte Berechnungseinrichtung BE zur Vorrichtung 1) ausgestaltet sein. Dabei können auch unterschiedliche Schnittstellen Verwendung finden.
  • Typischerweise werden Alterungsdaten zunächst experimentell erhoben. Mit diesen wird ein neuronales Netzwerk NN1, NN2 auf einer entfernten Berechnungseinrichtung BE trainiert. Das trainierte (beste) Modell wird dann an die Vorrichtung(en) 1 zur Verfügung gestellt. Jede Vorrichtung 1 kann gleichfalls ihre Daten, die letztendlich auch Alterungsdaten sind wiederum der entfernten Berechnungseinrichtung BE zur Verfügung stellen, sodass auf der entfernten Berechnungseinrichtung BE das neuronale Netzwerk NN1 bzw. NN2 weiter trainiert werden kann. Somit wird die Datenbasis für das neuronale Netzwerk NN1 bzw. NN2 immer größer und das neuronale Netzwerk NN1, NN2 kann weiter verbessert werden. Ein so verbessertes Modell des neuronalen Netzwerk NN1, NN2 kann dann wiederum bei Bedarf an eine oder mehrere Vorrichtungen 1 weitergereicht werden bzw. von dort angefragt werden.
  • D.h. während die Hardware-Anforderungen an eine entfernte Berechnungseinrichtung BE eher hoch sind können die Hardware und Leistungsanforderungen an die Vorrichtungen 1 sehr gering sein, sodass auch embedded devices zum Einsatz kommen können bzw. auch bestehende Hardware, wie sie z.B. in Batteriemanagementsystemen vorhanden ist, mitbenutzt werden kann.
  • Das neuronale Netzwerk NN1 ist bevorzugt ein sogenanntes long short-term memory network basiertes neuronales Netzwerk, das in Verfahren der Erfindung zur Bestimmung von zumindest einem Kennwert einer Akku-Zelle, insbesondere einer Kapazität, eingesetzt werden kann. Solche long short-term memory network basierte neuronale Netzwerke werden auch als LSTM abgekürzt.
  • Anders als regressionsbasierte Verfahren, lineare Verfahren oder Gauss-Verfahren, die eine Merkmalsextraktion (feature extraction) und damit ein erhebliches Maß an domänenspezifischem Wissen benötigen, sind sogenannte Deep-Iearning Modelle geeignet, die aus den rohen Daten die entsprechenden Merkmale direkt und effizient zu extrahieren.
  • Dabei ist ein großer Vorteil, dass LSTM basierte neuronale Netzwerke NN1 auch mit unterschiedlichen Eingabegrößen, d.h. Eingabevektoren unterschiedlicher Größe arbeiten können, während z.B. bei anderen Verfahren diese auf eine feste Größe limitiert sind. Mit zunehmender Alterung / Anzahl von Lade-/Entladezyklen nimmt jedoch die Anzahl der Werte ab.
  • Das Training eines neuronalen Netzwerkes NN1, NN2 basiert auf der sogenannten Rückwärtspropagation (engl. Backpropagation). Neuronale Netzwerkschichten beinhalten eine nicht-lineare Aktivierungsfunktion, die eine Ausgabe für jeden versteckten Knoten den Schichten des neuronalen Netzwerkes erzeugen, nachdem sie die Gewichtswerte, die mit den Knoten verbunden sind und die Eingabe erhalten haben.
  • Das neuronale Netzwerk NN1, NN2 lernt während der Trainingsphase dadurch, dass diese Knotengewichte so verändert werden, dass die Aktivierungsfunktion Werte bereitstellt, die mit den zur Verfügung gestellten Trainingsdaten gut übereinstimmen. Für die Übereinstimmung kann eine bestimmbare Grenze vorgesehen sein.
  • Diese Veränderung der Knotengewichte wird mittels Rückwärtspropagation bewerkstelligt, bei dem die Ausgabe des neuronalen Netzwerkes NN1, NN2 mit dem Zielwert verglichen und ein Fehler bestimmt wird. Typischerweise wird hierfür eine Kostenfunktion verwendet, die auch als Verlust bezeichnet wird. Die Kostenfunktion kann geeignet gewählt werden. Der Fehlerwert / der Fehlervektor wird dann rückwärts durch alle Knoten des neuronalen Netzwerkes NN1, NN2 propagiert. Eine sogenannte Optimierer-Funktion verwendet den Fehler, um die Gewichtung des neuronalen Netzwerkes NN1, NN2 zu verbessern, sodass nach jedem erfolgreichen Trainingsschritt das neuronale Netzwerk NN1, NN2 bessere Ergebnisse zur Verfügung stellt.
  • Bei rekursiven neuronalen Netzwerken wird die Rückpropagation als Rückpropagation in der Zeit bezeichnet wird. Bei diesen wird das neuronale Netzwerk in der Vorwärtsrichtung in der Zeit entfaltet und der Verlust für jeden Zeitschritt bestimmt. Anschließend werden die Verlustgradienten in Bezug auf jeden Parameter in Rückwärtsrichtung gesendet. Die Gradienten werden dann verwendet, um den geteilten Vektor w über alle Zeitschritte unter Verwendung der Optimierer-Funktion zu verbessern. LSTM basierte neuronale Netzwerke stellen Modifikationen von Standardzellen eines rekursiven neuronalen Netzwerkes dar. Sie besitzen zusätzlich zu jedem Zellenstatus für jeden Zeitschritt einen „versteckten“ Speicherstatus, wodurch sie ein längeres Gedächtnis zur Verfügung stellen.
  • In 3 wird ein Überblick über die Architektur einer LSTM Zelle gezeigt. Dies kann als ein Netzwerk betrachtet werden, die Eingaben erhält und diese über die Zeit entfaltet, wobei in jedem Schritt der Eingabereihe gelernt wird. Nachfolgend werden σ und tanh für die sigmoidale bzw. hyperbolische Tangenten Aktivierungsfunktion verwendet. Mit w werden die unterschiedlichen Gewichtungsmatrizen bezeichnet. Mit xt wird die Eingabe / der Eingabevektor zu einem Zeitschritt t bezeichnet. Mit ht und ht-1 werden die „versteckten“ Speicherstati einer Zelle zum dem Zeitschritt t bzw. dem vorhergehenden Zeitschritt t-1 bezeichnet. Ct-1 bezeichnet den vorherigen Speicherstauts der Zelle, Cet den gerade erzeugten neuen Speicherstauts der Zelle und Ct bezeichnet den gegenwärtigen Speicherstauts der Zelle. Mit dem (*) Operator wird eine elementbezogene Multiplikation bezeichnet. Es werden drei Tore zur Verfügung gestellt: Das Eingangstor it, das Vergessenstor ft, und das Ausgangstor ot. Es werden weiterhin zwei Generatorkreise zur Verfügung gestellt, der neue Speicher Cet Generator und der „versteckte“ Speicherstatus ht. f t = σ ( w f [ h t 1 , x t ] + b f )
    Figure DE102020210148A1_0001
    i t = σ ( w i [ h t 1 , x t ] + b i )
    Figure DE102020210148A1_0002
    o t = σ ( w o [ h t 1 , x t ] + b o )
    Figure DE102020210148A1_0003
    C e t = tanh ( w C [ h t 1 , x t ] + b C )
    Figure DE102020210148A1_0004
    C t = f t C t 1 + i t C e t
    Figure DE102020210148A1_0005
    h t = o t tanh ( C t )
    Figure DE102020210148A1_0006
  • Die LSTM Zelle nimmt den Speicherstatus Ct-1 und den Ausgangszustand ht-1 aus den vorhergehenden Zeitschritt / -1 und den Eingangsvektor xt aus dem gegenwärtigen Zeitschritt t als Eingabe.
  • Das Vergessenstor entscheidet welchen Teil des alten Speichers vergessen werden soll und schiebt einen entsprechenden Vergessensvektor ft in die Pipeline der Zelle.
  • An der Erzeugung des neuen Speichers für den gegenwärtigen Zeitschritt sind drei Unternetzwerke beteiligt: Das Eingangstor it verarbeitet die Eingabe für den gegenwärtigen Zeitschritt. Das zweite Unternetzwerk agiert als ein Generator Cet, dass den neuen Speicher für den gegenwärtigen Zeitschritt erzeugt. Das dritte Unternetzwerk agiert als eine Speicherwähler, der die Ausgaben des Vergessenstors ft und des Eingangstor it verwendet, um zu entscheiden, welche Teile / welcher Teil des alten und neuen Speichers als finaler Zellenstatus Ct gehalten werden soll.
  • Das Ausgangstor erzeugt den gegenwärtigen Ausgangsstatusvektor ot, der dann in Übereinstimmung mit dem neuen Speicherstatus Ct in dem versteckten Status Generator aktualisiert wird. Anschließend wird der neue Ausgangsstatus erhalten, der die Ausgabe für den gegenwärtigen Zeitschritt darstellt.
  • Eine exemplarische Umgebung kann wie folgt aufgebaut sein, ohne jedoch auf diese spezielle Implementierung beschränkt zu sein:
  • Eine beispielhafte Architektur kann z. B. mit der Programmiersprache Python 3 mit TensorFlow 1.14 als ein Backend und der Keras deep learning Bibliothek für die Layer-Erstellung bereitgestellt werden. Die LSTM-RNN Zelle kann dabei in einem bidirektionalen Wrapper eingebunden sein, welcher es erlaubt, dass das Netzwerk zweimal zu bearbeiten ist, einmal in Vorwärtsrichtung und einmal in Rückwärtsrichtung. Die Rückwärtsrichtung kann für eine zusätzliche Kontext- und Merkmalserkennung während des Trainings verwendet werden.
  • Der Optimierer „Adam“ (siehe D. P. Kingma, J. Ba, Adam: A method for stochastic optimization (2014), URL http://arxiv.org/pdf/1412.6980v9) der zum Training des Netzwerkes genutzt werden kann, ist eine adaptive Lernmethode, die für jeden Parameter im Netzwerk eine individuelle Lernrate berechnet.
  • Adam stellt dabei einen sehr effizienten Trainingsprozess zur Verfügung. Dies ist besonders ausgeprägt, wenn er mit einem (oder mehreren) Impulsparametern (momentum parameter) gekoppelt wird. Beispielsweise kann das erste und zweite Momentum des Fehlergradienten benutzt werden, um die Lernraten jedes Parameters des Netzwerkes individuell zu aktualisieren. Hierdurch wird das Training noch effizienter.
  • Der Netzwerkverlust kann z.B. als mittlerer absoluter Fehler definiert sein. Dieser stellt bei regressionsbasierten Netzwerken eine gute Performance zur Verfügung.
  • Andere sogenannte Hyperparamter können geeignet gewählt sein. Beispielsweise kann die Anzahl der Zeitschritte (initial) 250 betragen. Die Lernrate kann beispielsweise 0.0001 betragen. Der Validation split kann beispielsweise mit 20 % und der DropOut mit 30 % angesetzt werden. Die Minibatch-Size kann beispielsweise 1900 Samples betragen.
  • Regularisation kann in den neuronalen Netzwerken einer dropout Schicht implementiert sein. Hierdurch kann eine bestimmte Wahrscheinlichkeit für jeden Konten zugeordnet werden, mit der ein Konten aus dem Training für den gegenwärtigen Zeitschritt ausgenommen wird. Dies erlaubt eine Verbesserung der Allgemeingültigkeit des Netzwerkes während es die Wahrscheinlichkeit einer Überanpassung des Netzwerkes in die Trainingsdaten vermindert.
  • Als ein gutes Beispiel eines trainierten Netzwerkes hat sich ein bidirectional LSTM Netzwerk mit 4 Schichten und 50 Knoten pro Schicht herausgestellt. Dabei konnte ein Training loss von etwa 0,94 % realisiert werden.
  • Zur Validierung wurde ein processor-in-the-loop System auf Basis eines Nvidia Jetson Nano realisiert (siehe auch 4). Dieser stellt eine Vorrichtung 1 gemäß der Erfindung dar. Damit wird ein kleiner on-board Computer zur Verfügung gestellt, der sich für Maschinenlernen und deep learning Anwendungen eignet. Wie in 4 dargestellt können Sensorwerte, z.B. von einem Batteriemanagementsystem (eines Fahrzeuges), erhalten werden.
  • Gemäß einem weiteren Aspekt der Erfindung wird auch ein weiteres Verfahren zur Verfügung gestellt. Dieses basiert z.B. auf Zeitreihen von Spannungen und Zeit, wie zuvor in Zusammenhang mit dem ersten Verfahren (Schritte 100-500) beschrieben, und/oder einem anderen Maß eines State-of-health-Indikators SOH einer Zelle. Diese Zeitreihen von Spannungen und Zeit, wie zuvor in Zusammenhang mit dem ersten Verfahren beschrieben, oder einem anderen Maß eines State-of-health-Indikators SOH einer Zelle wird einem weiteren neuronalen Netzwerk NN2 in einem Schritt 600 zugeführt.
  • Das weitere neuronale Netzwerk NN2 ist ein neuronales Netzwerk, das zum Sequence to Sequence deep learning ausgestaltet ist.
  • Ein solches neuronales Netzwerk NN2 ist beispielhaft in 7 bzw. in den Netzwerkschichten in 8 dargestellt.
  • Das neuronale Netzwerk NN2 kann z.B. aus n=4 Zellen (sowohl für den Decoder als auch den Encoder) bestehen. Die Zellen können dabei als verborgene Dimensionsgröße von der Größe der gewünschten Ausgangssequenz aufweisen, z.B. 108 Knoten für den Encoder und 78 Konten für den Decoder. Das neuronale Netzwerk NN2 kann wiederum wie zuvor beschreiben mit einem Optimier, z.B. Adam, z.B. unter Verwendung des mittleren absoluten Fehlers trainiert werden. Die Eingangssequenz stellt dabei eine vergangen Kapazitätsreihe dar, während die Ausgangssequenz eine zukünftige Kapazitätsreihe darstellt.
  • Optional kann vorgesehen sein, dass eine Maskierungsschicht eingefügt ist, um ein anfügen von Nullwerten zu verschleiern. Ebenso kann optional eine Skalierungsschicht vorgesehen sein, um die Größe der Ausgabesequenz an die Eingabesequenz anzupassen.
  • Von dem weiteren neuronale Netzwerk NN2 wird ein zweiter Indikator in Schritt 800 erhalten, wobei der zweite Indikator ein weiteres Maß für die zu erwartende Degradation der Zelle ist.
  • In einer Ausführungsform des Aspektes sind ermittelte Spannungen und Zeitmarken eines Ladevorganges jeweils als Zeitreihe gespeichert, wobei die Vielzahl von Zeitreihen unterschiedlicher Ladevorgänge dem weiteren neuronalen Netzwerk NN2 zugeführt werden.
  • In einer Ausführungsform des Aspektes ist der zweite Indikator der Knickpunkt in der Degradation. Aus der Bestimmung des Knickpunktes kann zuverlässig bestimmt werden, wann die Alterung sich beschleunigt. Nimmt die nominale Kapazität bis zum Knickpunkt (bei circa EOL80 entsprechend einer 80% Nennkapazität) nur langsam ab, wird der Kapazitätsverlust ab dem Knickpunkt stärker. Bei dem in 1 gezeigten Kurven ist z.B. das Lebensdauerende EOL bei circa 65 % der Nennkapazität (in der Figur als EOL65 verdeutlicht) erreicht. Je nach Beginn der stärkeren Alterung (Knickpunkt) ergeben sich daraus circa 1300-1800 Zyklen.
  • Alternativ oder zusätzlich kann aber auch der zweite Indikator unmittelbar ein Maß für das erwartete Lebenszeitende EOL der Zelle sein.
  • Ohne Beschränkung der Allgemeinheit kann die Erfindung auch in einer Vorrichtung 1 zur Durchführung eines oder mehrerer der vorbeschriebenen Verfahren verkörpert sein. Dabei kann die Vorrichtung 1 ein embedded system sein, wie oben beschrieben, es kann aber auch unmittelbar in ein Batteriemanagementsystem oder in ein Fahrzeug integriert sein. Ohne Beschränkung der Allgemeinheit kann das System aber auch auf einer höher-performanten (Cloud-)Server, z.B. einer entfernten Berechnungseinrichtung BE, bereitgestellt werden, auf dem das Training des / der neuronalen Netze(s) NN1, NN2 bereitgestellt wird, dass z.B. dann einer Vorrichtung 1 in der Nähe der Zelle zur Verfügung gestellt wird.
  • Insbesondere kann die Erfindung mit einer Lithium- basierten Akku-Zelle verwendet werden.
  • Von besonderem Vorteil ist, dass zum Trainieren des Models nur Eingangsdaten benötigt werden, die keiner weiteren Parametrisierung, Filterung, Merkmalsextraktion, etc. bedürfen.
  • Weiterhin kann die Erfindung ohne Weiteres in leistungssparende Vorrichtungen 1 zur Verfügung gestellt werden. Dabei können Berechnungszeiten von weniger als 2 Sekunden erzielt werden.
  • Weiterhin können unterschiedliche Eingabelängen von Zeit-Spannungs-Reihen verarbeitet werden, was die Flexibilität als auch die Robustheit vergrößert. Insbesondere ist es auch möglich mit unvollständigen Zeit-Spannungs-Reihen zu arbeiten, ohne dass dies die Präzision nachhaltig beeinflusst. Ebenso sind die Verfahren robust gegen Störungen.

Claims (12)

  1. Verfahren zur lokalen Bestimmung von zumindest einem Kennwert einer Akku-Zelle, wobei Zeitreihen von Spannungen und Zeit oder ein anderes Maß eines State-of-health-Indikators (SOH) einer Zelle einem weiteren neuronalen Netzwerk (NN2) zugeführt (600) werden, wobei das weitere neuronale Netzwerk (NN2) ein Netzwerk ist, das zum Sequence to Sequence deep learning ausgestaltet ist, Erhalten (800) eines zweiten Indikators von dem weiteren neuronalen Netzwerk, wobei der zweite Indikator ein weiteres Maß für die zu erwartende Degradation der Zelle ist.
  2. Verfahren nach Anspruch 1, wobei ermittelte Spannungen und Zeitmarken eines Ladevorganges jeweils als Zeitreihe gespeichert werden, wobei die Vielzahl von Zeitreihen unterschiedlicher Ladevorgänge dem weiteren neuronalen Netzwerk zugeführt werden.
  3. Verfahren nach Anspruch 1 oder 2, wobei der zweite Indikator der Knickpunkt in der Degradation ist.
  4. Verfahren nach einem der vorhergehenden Ansprüche, wobei der zweite Indikator ein Maß für das erwartete Lebenszeitende (EOL) der Zelle ist.
  5. Verfahren nach einem der vorhergehenden Ansprüche, weiterhin aufweisend die Schritte: Während eines Ladevorganges der Akku-Zelle wiederholtes Ermitteln (100) einer anliegenden Spannung und Zuordnen (200) zu einer Zeitmarke, Zuführen (400) der ermittelten Spannungen und Zeitmarken an ein neuronales Netzwerk, erhalten (500) eines Indikators (SOH) von dem neuronalen Netzwerk (NN1), wobei der Indikator (SOH) ein Maß für die nominale Kapazität zum Ende der letzten anliegend gemessenen Spannung ist.
  6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass der Ladevorgang einen vorbestimmten konstanten Strom aufweist, wobei bei Erreichen einer vorbestimmten Zielspannung der Ladevorgang mit einer vorbestimmten Spannung fortgesetzt wird, wobei der Ladevorgang endet, wenn ein vorbestimmter Mindestladestrom unterschritten wird.
  7. Verfahren nach Anspruch 5 oder 6, wobei die Ermittlung einer anliegenden Spannung (100) und Zuordnen (200) zu einer Zeitmarke während eines konstanten Ladestroms erfolgt.
  8. Verfahren nach einem der vorhergehenden Ansprüche, wobei das neuronale Netzwerk (NN1) ein long short-term memory network basiertes neuronales Netzwerk ist.
  9. Vorrichtung zur Durchführung eines Verfahrens nach einem der vorhergehenden Ansprüche.
  10. System aufweisend zumindest eine Vorrichtung (1) nach Anspruch 9 und eine entfernte Berechnungseinrichtung (BE), wobei die entfernte Berechnungseinrichtung ein gleichartiges neuronales Netzwerk (NN1, NN2) aufweist, wobei das neuronale Netzwerk (NN1, NN2) Daten von Alterungstests zumindest einer gleichartigen Zelle und von ermittelten Spannungen und Zeitmarken der zumindest einen Vorrichtung nach Anspruch 9 erhält, wobei ein hierdurch trainiertes Modell der entfernten Berechnungseinrichtung (BE) an ein neuronale Netzwerk (NN1, NN2) der zumindest einen Vorrichtung (1) nach Anspruch 9 zur weiteren Verwendung zur Verfügung gestellt wird.
  11. Verwendung einer Vorrichtung nach Anspruch 10 mit einer Lithiumbasierten Akku-Zelle.
  12. Verwendung eines ein neuronales Netzwerk, das zum Sequence to Sequence deep learning ausgestaltet ist, in einem Verfahren zur Bestimmung von zumindest einem Kennwert einer Akku-Zelle.
DE102020210148.5A 2020-08-11 2020-08-11 Vorrichtung und Verfahren zur lokalen Bestimmung von Kennwerten einer Akku-Zelle Pending DE102020210148A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020210148.5A DE102020210148A1 (de) 2020-08-11 2020-08-11 Vorrichtung und Verfahren zur lokalen Bestimmung von Kennwerten einer Akku-Zelle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020210148.5A DE102020210148A1 (de) 2020-08-11 2020-08-11 Vorrichtung und Verfahren zur lokalen Bestimmung von Kennwerten einer Akku-Zelle

Publications (1)

Publication Number Publication Date
DE102020210148A1 true DE102020210148A1 (de) 2022-02-17

Family

ID=80000398

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020210148.5A Pending DE102020210148A1 (de) 2020-08-11 2020-08-11 Vorrichtung und Verfahren zur lokalen Bestimmung von Kennwerten einer Akku-Zelle

Country Status (1)

Country Link
DE (1) DE102020210148A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024037915A1 (de) * 2022-08-16 2024-02-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum überwachen von batteriezellen einer batterie eines kraftfahrzeugs, computerprogramm, datenverarbeitungsvorrichtung und kraftfahrzeug
CN117637044A (zh) * 2023-10-07 2024-03-01 武汉理工大学 一种电池电压预测方法、装置、电子设备及存储介质

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024037915A1 (de) * 2022-08-16 2024-02-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum überwachen von batteriezellen einer batterie eines kraftfahrzeugs, computerprogramm, datenverarbeitungsvorrichtung und kraftfahrzeug
DE102022120558A1 (de) 2022-08-16 2024-02-22 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Überwachen von Batteriezellen einer Batterie eines Kraftfahrzeugs, Computerprogramm, Datenverarbeitungsvorrichtung und Kraftfahrzeug
CN117637044A (zh) * 2023-10-07 2024-03-01 武汉理工大学 一种电池电压预测方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
LU101984B1 (de) Verfahren zur lokalen Bestimmung von zumindest einem Kennwert einer Akku-Zelle
DE102013208046B4 (de) Schätzvorrichtung für einen Batterieladezustand, die einen robusten H∞-Beobachter verwendet
EP1590679B1 (de) Zustandsgrössen- und parameterschätzer mit mehreren teilmodellen für einen elektrischen energiespeicher
DE69324052T2 (de) Neuronalnetzwerk-Lernsystem
DE102020117609B4 (de) Verarbeitung von Zustandsdaten einer Batterie zur Alterungsschätzung
EP3766120B1 (de) Charakterisierung von lithium-plating bei wiederaufladbaren batterien
DE112016000834T5 (de) Vorrichtung zum einschätzen eines batteriestatus
DE102019111976A1 (de) Kapazitätsbestimmung bei Batterien
DE102015011745B3 (de) Ladezustandsbestimmung bei einer Kraftfahrzeug-Batterie
DE102006008482A1 (de) Eingangsvektorbildungsverfahren bei neuronalen Netzwerken zur Auto-Identifikation einer partiellen Entladungsquelle
DE102020210148A1 (de) Vorrichtung und Verfahren zur lokalen Bestimmung von Kennwerten einer Akku-Zelle
DE102020210147A1 (de) Vorrichtung und Verfahren zur lokalen Bestimmung von Kennwerten einer Akku-Zelle
WO2021105071A1 (de) Verfahren zur abschätzung des zustands eines energiespeichers
DE102020206272A1 (de) Batterieverwaltungssystem mit gemischter elektrode
DE102022208932A1 (de) Verfahren und Vorrichtung zur prädiktiven Diagnose einer Gerätebatterie eines technischen Geräts mithilfe eines Transformer-Modells
WO2023052521A1 (de) Bestimmung eines alterungswerts für batterien mit strom-spannungs-zeitreihen in zeitdomäne und belastungsdomäne
EP4123319B1 (de) Verfahren, vorrichtung und computerprogrammprodukt zur lebensdauerabschätzung von batteriespeichern
DE10103848A1 (de) Verfahren und Vorrichtung zur Bestimmung und/oder Beurteilung der Alterung oder zumindest eines vorgewählten Anteils der Alterung einer Batterie
DE112016001065B4 (de) Batteriezustandsschätzvorrichtung
DE102022208930A1 (de) Verfahren und Vorrichtung zum initialen Bereitstellen eines Alterungszustandsmodells für Energiespeicher auf Basis von Active Learning Algorithmen und zeitdiskontierter Informations-Bewertung
DE10328055A1 (de) Zustandsgrößen- und Parameterschätzer mit mehreren Teilmodellen für einen elektrischen Energiespeicher
DE102022203343A1 (de) Verfahren und Vorrichtung zum Betreiben eines Systems zum Erkennen einer Anomalie eines elektrischen Energiespeichers für ein Gerät mithilfe von maschinellen Lernverfahren
DE102021213948A1 (de) Verfahren und Vorrichtung zum Bereitstellen eines datenbasierten Alterungszustandsmodells zum Bestimmen eines Alterungszustands eines elektrischen Energiespeichers für ein Gerät mithilfe von maschinellen Lernverfahren
DE102013203809A1 (de) Verfahren und Vorrichtung zum Bestimmen einer elektrischen Kapazität einer Energiespeichereinheit
DE102021207467A1 (de) Verfahren und Vorrichtung zum Betreiben eines Systems zum Bereitstellen von prädizierten Konfidenzintervallen von Alterungszuständen von elektrischen Energiespeichern für mindestens ein Gerät mithilfe von maschinellen Lernverfahren

Legal Events

Date Code Title Description
R163 Identified publications notified