DE102020207613A1 - Verfahren zur Bewertung einer Schnittkante eines Körpers - Google Patents

Verfahren zur Bewertung einer Schnittkante eines Körpers Download PDF

Info

Publication number
DE102020207613A1
DE102020207613A1 DE102020207613.8A DE102020207613A DE102020207613A1 DE 102020207613 A1 DE102020207613 A1 DE 102020207613A1 DE 102020207613 A DE102020207613 A DE 102020207613A DE 102020207613 A1 DE102020207613 A1 DE 102020207613A1
Authority
DE
Germany
Prior art keywords
image
course
cutting edge
neural network
convolutional neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020207613.8A
Other languages
English (en)
Inventor
Mathias Kraken
Erik Rohkohl
Malte SCHÖNEMANN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Volkswagen AG
Original Assignee
Volkswagen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Volkswagen AG filed Critical Volkswagen AG
Priority to DE102020207613.8A priority Critical patent/DE102020207613A1/de
Publication of DE102020207613A1 publication Critical patent/DE102020207613A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/06Recognition of objects for industrial automation

Landscapes

  • Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren zur Bewertung mindestens einer Schnittkante (1) eines flächigen Körpers (2); zumindest umfassend die folgenden Schritte:a) Herstellen von ersten Bildern (3) einer Vielzahl der die mindestens eine Schnittkante (1) aufweisenden flächigen Körper (2);b) Auswertung der ersten Bilder (3) mit einem Convolutional Neural Network (4), um eine mathematische erste Abbildung (5) der tatsächlich vorliegenden Geometrie eines Verlaufs (6) der mindestens einen Schnittkante (1) der ersten Bilder (3) zu lernen, bis das trainierte Convolutional Neural Network (4) geeignet ist, in einem neu erstellten, also nicht durch das Convolutional Neural Network (4) trainierten, zweiten Bild (7) eines Körpers (2) die mindestens eine Schnittkante (1) zu erkennen und eine mathematische zweite Abbildung (8) des zweiten Bildes (7) zu erzeugen;c) Verwenden des Convolutional Neural Networks (4) bei der Herstellung einer Vielzahl der Körper (2), wobei zumindest eine Vielzahl der hergestellten Körper (2) anhand der jeweilig durch das Convolutional Neural Network (4) erzeugten zweiten Abbildung (8) hinsichtlich der Qualität des Verlaufs (6) der mindestens einen Schnittkante (1) bewertet wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Bewertung einer Schnittkante eines Körpers, insbesondere eines flächigen Körpers, bevorzugt eines Elektrodenblattes. Insbesondere sollen durch das Verfahren alle Schnittkanten des Körpers bewertet werden.
  • Für den Antrieb von Kraftfahrzeugen werden vermehrt Batterien, insbesondere Lithium-Ionen-Batterien eingesetzt. Batterien werden üblicherweise aus Zellen zusammengesetzt, wobei jede Zelle einen Stapel von Anoden-, Kathoden- und Separator-Blättern aufweist. Die Anoden- und Kathoden-Blätter werden im Folgenden als Elektrodenblätter bezeichnet.
  • Die Elektrodenblätter werden üblicherweise durch Stanzen oder Schneiden, z. B. Laserschneiden, hergestellt.
  • Die Ablagegenauigkeit der einzelnen Elektrodenblätter beim Stapeln in der Batteriezell-Fertigung hat einen signifikanten Einfluss auf sicherheitsrelevante Qualitätskriterien von Lithium-Ionen Batteriezellen. Eine möglichst genaue und reproduzierbare Positionierung der einzelnen Elektrodenblätter während des Stapels wäre möglich, wenn alle Elektrodenblätter eine gerade Schnittkante aufweisen. Eine entsprechende Sortierung der Elektrodenblätter bzw. ein Verfahren zur Aussortierung fehlerhafter Elektrodenblätter wäre dafür erforderlich.
  • Eine etablierte inlinefähige Methode für die Bewertung der Schnittkanten von Elektrodenblättern nach dem Laservereinzeln oder Stanzen ist aber nicht bekannt. Insbesondere müsste diese Methode jedes einzelne Elektrodenblatt bewerten können und dabei für die hohen Prozessgeschwindigkeiten bei der Herstellung bzw. beim Schneiden bzw. Stanzen der Elektrodenblätter von einem Endlosmaterial (Coil) geeignet sein.
  • Eine automatische Schnittkanten-Bewertung ist nötig, um Wechselwirkungen zwischen Prozessparametern bei der Herstellung (also dem Stanzen oder Schneiden) und Produkteigenschaften (also der Elektrodenblätter) zu analysieren. Ferner ermöglicht eine automatisierte Bewertung der Schnittkanten eine I.O/N.I.O Klassifikation der Schnittkanten (steht auch für Stanzkanten) der Elektrodenblätter sowie eine Vorhersage der Schnittkantenqualität auf Basis von vorher definierten Schneidparametern.
  • Es sind derzeit keine Verfahren zur Bewertung der Schnittkantenqualität von z. B. Laservereinzelten (also lasergeschnittenen) bzw. gestanzten Elektrodenblättern bekannt. Lediglich bekannt ist eine unzureichende Methode zum Erkennen der Elektrodenblatt-Geometrie. Mittels eines visuellen Messverfahrens wird dabei eine hochaufgelöste Pixel-Matrix des vereinzelten Elektrodenblatts aufgenommen. Anschließend wird der grobe Verlauf der Schnittkanten mit Algorithmen aus der digitalen Bildverarbeitung erkannt, insbesondere mithilfe von Trendkantenerkennung.
  • Folgende Nachteile haben die bekannten Lösungen:
    • • Bestehende Methoden erfordern eine manuelle Auswahl des Prüfbereiches, was eine inlinefähige Anwendung verhindert;
    • • die ermittelte Elektrodenblatt-Geometrie ist zu ungenau für eine Anwendung in der sicherheitskritischen Lithium-Ionen Batteriezellen-Fertigung;
    • • bekannte Methoden interpretieren Artefakte auf dem Elektrodenblatt-Förderband, z. B. Löcher im Vakuumband, fälschlicherweise als Elektrodenblatt-Kanten. Dieses Fehlverhalten verhindert eine exakte Bestimmung der Elektrodenblatt-Geometrie;
    • • keine Methode bietet eine spezifische Berechnung von Kennzahlen für die Bewertung der Schnittkantenqualität von Elektrodenblättern an;
    • • die Kantenerkennung mit diesen Algorithmen ist stark abhängig von der Bildqualität, z. B. unterschiedliche Helligkeitsstufen.
  • Aus der CN 110135521 A ist ein Verfahren zur Erkennung eines Oberflächenfehlers an einem Ableiter eines Elektrodenblattes bekannt.
  • Aufgabe der vorliegenden Erfindung ist es, die mit Bezug auf den Stand der Technik angeführten Probleme zumindest teilweise zu lösen. Insbesondere soll ein Verfahren zur Schnittkantenbewertung von Elektrodenblättern vorgeschlagen werden, dass insbesondere eine Beurteilung jedes einzelnen Elektrodenblatts bei den vorherrschenden hohen Prozessgeschwindigkeiten ermöglicht.
  • Zur Lösung dieser Aufgaben trägt ein Verfahren mit den Merkmalen gemäß Patentanspruch 1 bei. Vorteilhafte Weiterbildungen sind Gegenstand der abhängigen Patentansprüche. Die in den Patentansprüchen einzeln aufgeführten Merkmale sind in technologisch sinnvoller Weise miteinander kombinierbar und können durch erläuternde Sachverhalte aus der Beschreibung und/oder Details aus den Figuren ergänzt werden, wobei weitere Ausführungsvarianten der Erfindung aufgezeigt werden.
  • Es wird ein Verfahren zur Bewertung mindestens einer Schnittkante eines flächigen Körpers vorgeschlagen; zumindest umfassend die folgenden Schritte:
    1. a) Herstellen von ersten Bildern einer Vielzahl der die mindestens eine Schnittkante aufweisenden flächigen Körper;
    2. b) Auswerten der ersten Bilder mit einem Convolutional Neural Network oder einer anderen maschinellen bzw. automatisiert durchführbaren Lernmethode, um eine mathematische erste Abbildung der tatsächlich vorliegenden Geometrie eines Verlaufs der mindestens einen Schnittkante der ersten Bilder zu lernen, bis das trainierte Convolutional Neural Network geeignet ist, in einem neu erstellten, also nicht durch das Convolutional Neural Network trainierten, zweiten Bild eines Körpers die mindestens eine Schnittkante zu erkennen und eine mathematische zweite Abbildung des zweiten Bildes zu erzeugen;
    3. c) Verwenden des Convolutional Neural Networks bei der Herstellung einer Vielzahl der Körper, wobei zumindest eine Vielzahl der hergestellten Körper anhand der jeweilig durch das Convolutional Neural Network erzeugten zweiten Abbildung hinsichtlich der Qualität des Verlaufs der mindestens einen Schnittkante bewertet wird.
  • Die obige (nicht abschließende) Einteilung der Verfahrensschritte in a) bis c) soll vorrangig nur zur Unterscheidung dienen und keine Reihenfolge und/oder Abhängigkeit erzwingen. Auch die Häufigkeit der Verfahrensschritte z. B. während der Durchführung des Verfahrens kann variieren. Ebenso ist möglich, dass Verfahrensschritte einander zumindest teilweise zeitlich überlagern. Ganz besonders bevorzugt finden die Verfahrensschritte a) und b) zeitlich vor Schritt c) statt. Insbesondere werden die Schritte a) bis c) in der angeführten Reihenfolge durchgeführt.
  • Ein flächiger Körper ist insbesondere nach Art eines Quaders gestaltet, wobei eine Länge und Breite jeweils deutlich größer als eine Dicke sind, insbesondere mindestens um einen Faktor 10, bevorzugt mindestens um einen Faktor 100.
  • Der Körper weist mindestens eine Schnittkante auf, die durch ein Trennverfahren erzeugt wurde, z. B. durch ein Stanzen oder Schneiden, insbesondere ein Laserschneiden. Insbesondere weist der Körper mehrere Schnittkanten auf. Insbesondere weist der Körper vollumfänglich Schnittkanten auf, ist also an allen Seiten durch Abtrennen von Material hergestellt worden.
  • Das Herstellen von ersten Bildern umfasst insbesondere das Erzeugen von Fotografien, insbesondere digitalen Fotografien, der Vielzahl von Körpern.
  • Insbesondere wird von jedem Körper ein erstes Bild erzeugt, wobei diese ersten Bilder dann in Schritt b) weiterverwendet werden.
  • Insbesondere werden in Schritt a) mit einer Digitalkamera, bevorzugt einer Zeilenkamera, hochaufgelöste Bilder der Körper, die insbesondere Elektrodenblätter sind, nach dem Erzeugen der mindestens einen Schnittkante, z. B. durch Laservereinzeln bzw. Laserschneiden, aufgezeichnet.
  • In Schritt b) erfolgt eine Auswertung der ersten Bilder mit einem Convolutional Neural Network (CNN) oder einer anderen maschinellen bzw. automatisiert durchführbaren Lernmethode, bevorzugt aber mit einem Convolutional Neural Network. Im Folgenden wird auf das Convolutional Neural Network und die dabei verwendeten Abläufe und Begriffe abgestellt.
  • Die Anwendung derartiger CNN für die Auswertung von Bildern ist grundsätzlich bekannt. Vorliegend wird erstmals deren Verwendung für die Qualitätsbewertung von Schnittkanten vorgeschlagen, insbesondere im Rahmen einer Herstellung von Batteriekomponenten.
  • Im Rahmen der Auswertung mit CNN kann, um eine automatisierte und inlinefähige Bewertung der Schnittkanten zu implementieren, insbesondere zunächst ein Trainingsdatensatz, also eine Menge von Elektrodenblatt-Aufnahmen bzw. ersten Bildern mit Pixelwerten zwischen 0 und 255, erzeugt werden. Auf jeder Elektrodenblatt-Aufnahme bzw. auf jedem ersten Bild dieses Trainingsdatensatzes kann mit einem Polygonwerkzeug die Elektrodenblatt-Geometrie bzw. Geometrie des Körpers, also der Verlauf der mindestens einen Schnittkante, manuell markiert werden. Im Anschluss erfolgt ein manueller Export dieser manuellen Markierung, also des markierten Verlaufs der Schnittkante, aus dem Polygonwerkzeug. Dieses Polygon, kodiert als Pixelmatrix, bildet die Elektrodenblatt-Geometrie bzw. die Geometrie des Körpers für den Trainingsdatensatz, den sogenannten Ground Truth, ab.
  • Bilder in dieser Menge enthalten lediglich Pixel mit dem Wert null („0“) oder eins („1“), für keine Kante (z. B. Wert null) oder Kante (z. B. Wert eins) an der entsprechenden Stelle in der Elektrodenblatt-Aufnahme bzw. des ersten Bildes.
  • Im Folgenden wird ein CNN verwendet, um eine mathematische erste Abbildung der im ersten Bild dargestellten Schnittkante des Körpers auf ihre entsprechende Geometrie zu lernen. Das so trainierte CNN kann anschließend für zuvor nicht gelernte zweite Bilder bzw. Elektrodenblatt-Aufnahmen die Geometrie erkennen. Aufgrund der geringen Varianz der ersten und zweiten Bilder von im Wesentlichen gleichartigen Körpern, hier z. B. von Elektrodenblättern mit festgelegter Soll-Geometrie der Schnittkanten, und der statistischen Signifikanz großer Datenmengen ist diese Erkennung genauer als vergleichbare Methoden, z. B. einer Trendkantenerkennung.
  • Das CNN besteht bekannterweise aus einer Reihe von sogenannten Convolutional-Schichten, die eine fixierte Anzahl von Filtern mit Bildausschnitten diskret falten. Für jeden ihrer Filter berechnet diese Schicht eine sogenannte Feature-Map. Diese Feature-Map beschreibt, ob ein Muster, definiert durch die Filter-Parameter, an der entsprechenden Stelle in dem jeweiligen zweiten Bild bzw. in der Elektrodenblatt-Aufnahme erkannt wurde. Die Größe dieser Feature-Maps wird mithilfe von sogenannten Max-Pooling-Schichten oder Average-Pooling-Schichten reduziert, um eine Berechnungskomplexität zu verringern. Die Max-Pooling- bzw. Average-Pooling-Schicht schiebt ein n x n Fenster über die Feature-Map und überträgt insbesondere nur den maximalen Wert aus einem Ausschnitt in die nächste Schicht.
  • Die Reihenfolge und Anzahl von Convolutional- und Max-Pooling- bzw. Average-Pooling-Schichten sowie die Größe der jeweiligen Fenster und Filter sind sogenannte Hyper-Parameter. Die Optimierung dieser Hyper-Parameter erfolgt insbesondere durch einen Validierungsdatensatz, der keinen Einfluss auf die Optimierung von Modell-Parametern hat.
  • Im letzten Schritt werden die Werte aller Feature-Maps untereinander zu einem Vektor verkettet, das sogenannte Flatten, und dienen damit als Eingabe in ein Feed-Forward Neural Network. Dieses Netzwerk ist wiederum durch eine variable Anzahl von verdeckten Schichten und einer variablen Anzahl von Neuronen in den jeweiligen verdeckten Schichten gekennzeichnet. Diese Anzahlen bilden weitere Hyper-Parameter.
  • Alternativ zum Flatten können mittels transponierter Convolution die kondensierten Feature-Maps zunächst wieder in die ursprüngliche Größe transformiert und ihre Anzahl mit Convolutional Schichten dann wieder bis auf eins reduziert werden.
  • In seiner Ausgabeschicht versucht das Netz, die manuell erzeugte Schnittkantengeometrie des Ground Truth des Körpers zu approximieren, indem es jedem Pixel eine null oder eine eins („1“) zuordnet.
  • Zu Beginn des Trainings können die Filterparameter und die Parameter des Feed-Forward Neural Network (beide zusammen bilden das CNN) zufällig initialisiert werden, wobei dies zunächst zu einer ungenauen Geometrie-Vorhersage führt. Im Verlauf des Trainings werden alle Modell-Parameter mit einem sogenannten Gradientenabstiegsverfahren so angepasst, dass die Anzahl falsch klassifizierter Pixel über alle Trainingsbeispiele hinweg minimal ist.
  • Nach dem Training kann das CNN eingesetzt werden, um z. B. im Rahmen des Schrittes c) für unbekannte Körper bzw. neu erstellte zweite Bilder den Verlauf mindestens einer Schnittkante zu erkennen.
  • Auf Basis dieses durch das CNN identifizierten Verlaufs der mindestens einen Schnittkante können insbesondere Kennzahlen bestimmt werden, die die Qualität der mindestens einen Schnittkante quantifiziert.
  • Insbesondere ist der Körper ein Elektrodenblatt einer Batterie.
  • Insbesondere weisen zumindest die ersten Bilder eine Auflösung von mindestens 100 Pixel / Zentimeter, bevorzugt von mindestens 150 Pixel / Zentimeter, besonders bevorzugt von mindestens 200 Pixel / Zentimeter, auf.
  • Insbesondere ermöglicht erst diese hohe Auflösung der ersten Bilder die Verwendung des CNN für die hier bevorzugt herzustellenden Elektrodenblätter. Damit kann insbesondere ein Verlauf der Schnittkanten mit einer Genauigkeit im Submillimeter-Bereich, bzw. mit einer Abweichung von weniger als einem Millimeter, insbesondere höchstens 0,1 Millimetern oder sogar höchstens 0,05 Millimetern, bestimmt werden.
  • Insbesondere weist das zweite Abbild ausschließlich Pixel mit den Werten „1“ und „null“ auf und stellt den Verlauf der mindestens einen Schnittkante in dem zweiten Bild als Pixel mit dem Wert „1“ dar.
  • Insbesondere ist der Körper bei der Erzeugung des zweiten Bildes auf einem Förderband angeordnet, das den Körper mit einer Geschwindigkeit von mindestens einem Meter / Sekunde, bevorzugt von mindestens 2 Meter / Sekunde, besonders bevorzugt von mindestens 5 Meter / Sekunde an der Einrichtung zur Erzeugung des zweiten Bildes vorbeibewegt.
  • Insbesondere erfolgt Schritt c) unmittelbar nach dem Trennen des jeweiligen Körpers von z. B. einem Endlosmaterial (Coil). Alternativ kann Schritt c) aber auch erfolgen, wenn bereits eine Vielzahl von bereits vereinzelten Körpern vorliegt.
  • Insbesondere weisen die Körper in der Förderrichtung eine größte Erstreckung von höchstens 50 Zentimetern, insbesondere von höchstens 30 Zentimetern, auf. Insbesondere weisen die Körper eine Breite von höchstens 30 Zentimetern, insbesondere von höchstens 20 Zentimetern auf.
  • Insbesondere weisen die Körper eine Dicke von höchstens 1 Millimeter, bevorzugt von höchstens 0,5 Millimetern, auf.
  • Insbesondere wird die Qualität des Verlaufs der mindestens einen Schnittkante in der zweiten Abbildung anhand von mindestens einer Kennzahl bestimmt.
  • Mit der Kennzahl kann für jede Abbildung entschieden werden, ob der der zweiten Abbildung zugeordnete Körper z. B. den Anforderungen hinsichtlich Qualität entspricht (I.O.) oder nicht (N.I.O. bzw. Ausschuss).
  • Insbesondere weist der Körper eine ausschließlich rechtwinklige Schnittkanten-Geometrie auf, d. h. die Schnittkanten sind rechtwinklig zueinander angeordnet. Insbesondere ist der Körper ein Elektrodenblatt und weist eine rechteckige Form (Länge mal Breite) bei geringer Dicke auf. Insbesondere weist das Elektrodenblatt an mindestens einer Seite (also der Länge oder der Breite) einen rechteckigen Fortsatz auf. Dieser Fortsatz wird bei Elektrodenblättern als Ableiter oder Ableiterfahne bezeichnet.
  • Insbesondere wird die Qualität des Verlaufs der mindestens einen Schnittkante in der zweiten Abbildung anhand von mindestens einer Kennzahl bestimmt. Die Kennzahl wird zumindest anhand einer Zeilensumme oder Spaltensumme einer Vielzahl von die mindestens eine Schnittkante in der zweiten Abbildung abbildenden Pixeln ermittelt.
  • Insbesondere können zunächst entlang einer x-Achse (z. B. parallel zu einer Länge des Körpers) die Spaltensummen und entlang einer y-Achse (z. B. parallel zu einer Breite des Körpers) die Zeilensummen der binären (Werte von null und eins) Pixelwerte-Matrix gebildet werden.
  • Der Verlauf der Zeilensummen und der Spaltensummen kann durch eine Funktion beschrieben werden, deren (lokale) Maxima eine Annäherung an die in der zweiten Abbildung vorliegenden Schnittkanten darstellt.
  • Der Verlauf eines (lokalen) Maximums kann insbesondere jeweils einer Schnittkante zugeordnet und zur Bestimmung von jeweils einer Kennzahl verwendet werden.
  • Ein mittlerer und/ oder ein maximaler Abstand zwischen jeder Schnittkante der zweiten Abbildung und einer Soll-Geometrie bzw. eines Soll-Verlaufs der Schnittkanten des Körpers können als weitere Kennzahlen verwendet werden.
  • Weiter kann eine Standardabweichung der mindestens einen Schnittkante von der Soll-Geometrie des Körpers als Kennzahl verwendet werden.
  • Die (lokalen) Maxima der Zeilensummen und der Spaltensummen können als eine bestmögliche Annäherung an die in der zweiten Abbildung dargestellte Ist-Geometrie des Körpers angesehen werden. Diese bestmögliche Annäherung über die lokalen Maxima ergibt eine ausschließlich durch Geraden gebildete Umrandung bzw. Schnittkanten des in der zweiten Abbildung gezeigten Körpers. Diese bestmögliche Annäherung kann dazu verwendet werden, einen Flächeninhalt der bestmöglichen Annährung bzw. die Längen der einzelnen Schnittkanten der bestmöglichen Annäherung zu bestimmen und mit dem Soll-Flächeninhalt des Körpers oder den Soll-Längen der Schnittkanten des Körpers zu vergleichen und somit weitere Kennzahlen zu erzeugen.
  • Die Soll-Werte des hier betrachteten Körpers sind die Soll-Maße des herzustellenden Körpers und können z. B. aus einer Produktzeichnung entnommen werden.
  • Insbesondere wird in Schritt c) ein Endlosmaterial bereitgestellt, wobei die einzelnen Körper aus dem Endlosmaterial herausgetrennt werden und danach von zumindest einer Vielzahl der Körper, insbesondere von jedem Körper, jeweils mindestens ein zweites Bild erzeugt wird.
  • Insbesondere wird von jedem zweiten Bild eine zweite Abbildung erzeugt.
  • Insbesondere wird anhand der zweiten Abbildung des zweiten Bildes die Qualität des Verlaufs der mindestens einen Schnittkante bewertet.
  • Insbesondere ist die Kennzahl zumindest definiert als
    • • ein Wert eines lokalen Maximums einer Funktion einer Zeilensumme oder einer Spaltensumme im Verhältnis zu einer Pixelzahl der jeweiligen Zeile oder Spalte; wobei die Funktion den Verlauf der Zeilensummen oder den Verlauf der Spaltensummen abbildet; oder
    • • eine Anzahl einer benachbart zum lokalen Maximum angeordneten Zeilen oder Spalten, deren Zeilensumme oder Spaltensumme eine Mindestwert überschreitet; oder
    • • ein maximaler Abstand eines die Schnittkante in der zweiten Abbildung darstellenden Pixels von einer Sollgeometrie des Verlaufs der Schnittkante des Körpers; oder
    • • ein arithmetisches Mittel der Abstände der die Schnittkante in der zweiten Abbildung darstellenden Pixel von einer Sollgeometrie des Verlaufs der Schnittkante des Körpers oder von der vorstehend beschriebenen bestmöglichen Annäherung; oder
    • • ein Verhältnis zwischen einem Soll-Flächeninhalt des Körpers und einem Ist-Flächeninhalt der zweiten Abbildung oder einem Flächeninhalt der bestmöglichen Annäherung; oder
    • • ein Verhältnis zwischen einer Soll-Distanz zweier erster Endpunkte einer Schnittkante des Körpers und einer Ist-Distanz zweier zweiter Endpunkte einer Schnittkante der zweiten Abbildung; oder
    • • ein Verhältnis zwischen einer Soll-Länge des Verlaufs einer Schnittkante des Körpers und einer Ist-Länge des Verlaufs einer Schnittkante der zweiten Abbildung oder der Länge (des geradlinigen Verlaufs) einer Schnittkante der bestmöglichen Annäherung.
  • Das Verfahren wird insbesondere bei der Herstellung von Elektrodenblättern eingesetzt. Dabei können die Elektrodenblätter als Endlosmaterial bereitgestellt und unmittelbar vor der Durchführung von Schritt c) vereinzelt werden. Insbesondere kann mit dem Verfahren eine Beurteilung der Qualität (aller) Schnittkanten jedes einzelnen Elektrodenblatts bei den vorherrschenden hohen Prozessgeschwindigkeiten ermöglicht werden.
  • Insbesondere wird in einem weiteren Schritt d) die Qualität des Verlaufs der mindestens einen Schnittkante mit mindestens einem Prozessparameter korreliert, der für die Erzeugung des jeweiligen Körpers verwendet wird. Infolge der Korrelation kann der mindestens eine Prozessparameter so verändert bzw. eingestellt werden, dass eine geforderte Qualität des Körpers, also ein Verlauf der mindestens einen Schnittkante, herstellbar ist bzw. hergestellt werden kann.
  • Der Schritt d) wird insbesondere nachfolgend zu den Schritten a) bis c), bevorzugt parallel zu Schritt c), durchgeführt. Die Korrelation erfolgt mit mindestens einem oder allen Prozessparametern, die für die Erzeugung des jeweiligen Körpers verwendet werden. Als Prozessparameter gelten z. B. Laserfokus, Pulsfrequenz des Lasers, Schnittgeschwindigkeit, usw. Insbesondere kann so eine Kombination von Parametern bestimmt werden, durch die die, z. B. im Rahmen eines Lastenhefts, geforderte Qualität des Körpers bzw. des Verlaufs der Schnittkante erreicht werden kann.
  • Das Verfahren ist insbesondere durch ein Steuergerät, das zur Durchführung des beschriebenen Verfahrens ausgestattet, konfiguriert oder programmiert ist, durchführbar.
  • Weiter kann das Verfahren auch von einem Computer bzw. mit einem Prozessor einer Steuereinheit ausgeführt werden.
  • Es wird demnach auch ein System zur Datenverarbeitung vorgeschlagen, das einen Prozessor umfasst, der so angepasst/konfiguriert ist, dass er das Verfahren bzw. einen Teil der Schritte des vorgeschlagenen Verfahrens durchführt.
  • Es kann ein computerlesbares Speichermedium vorgesehen sein, das Befehle umfasst, die bei der Ausführung durch einen Computer/Prozessor diesen veranlassen, das Verfahren bzw. mindestens einen Teil der Schritte des vorgeschlagenen Verfahrens auszuführen.
  • Die Ausführungen zu dem Verfahren sind insbesondere auf das computerimplementierte Verfahren (also den Computer bzw. den Prozessor, das System zur Datenverarbeitung, das computerlesbare Speichermedium) übertragbar und umgekehrt.
  • Die Verwendung unbestimmter Artikel („ein“, „eine“, „einer“ und „eines“), insbesondere in den Patentansprüchen und der diese wiedergebenden Beschreibung, ist als solche und nicht als Zahlwort zu verstehen. Entsprechend damit eingeführte Begriffe bzw. Komponenten sind somit so zu verstehen, dass diese mindestens einmal vorhanden sind und insbesondere aber auch mehrfach vorhanden sein können.
  • Vorsorglich sei angemerkt, dass die hier verwendeten Zahlwörter („erste“, „zweite“, ...) vorrangig (nur) zur Unterscheidung von mehreren gleichartigen Gegenständen, Größen oder Prozessen dienen, also insbesondere keine Abhängigkeit und/oder Reihenfolge dieser Gegenstände, Größen oder Prozesse zueinander zwingend vorgeben. Sollte eine Abhängigkeit und/oder Reihenfolge erforderlich sein, ist dies hier explizit angegeben oder es ergibt sich offensichtlich für den Fachmann beim Studium der konkret beschriebenen Ausgestaltung. Soweit ein Bauteil mehrfach vorkommen kann („mindestens ein“), kann die Beschreibung zu einem dieser Bauteile für alle oder ein Teil der Mehrzahl dieser Bauteile gleichermaßen gelten, dies ist aber nicht zwingend.
  • Die Erfindung sowie das technische Umfeld werden nachfolgend anhand der beiliegenden Figuren näher erläutert. Es ist darauf hinzuweisen, dass die Erfindung durch die angeführten Ausführungsbeispiele nicht beschränkt werden soll. Insbesondere ist es, soweit nicht explizit anders dargestellt, auch möglich, Teilaspekte der in den Figuren erläuterten Sachverhalte zu extrahieren und mit anderen Bestandteilen und Erkenntnissen aus der vorliegenden Beschreibung zu kombinieren. Insbesondere ist darauf hinzuweisen, dass die Figuren und insbesondere die dargestellten Größenverhältnisse nur schematisch sind. Es zeigen:
    • 1: eine Übersicht über das Verfahren;
    • 2: eine Erläuterung eines Convolutional Neural Networks; und
    • 3: eine Darstellung von Kennzahlen an einer zweiten Abbildung eines Körpers.
  • Die 1 zeigt eine Übersicht über das Verfahren. Gemäß Schritt a) erfolgt ein Herstellen von ersten Bildern 3 einer Vielzahl der die mindestens eine Schnittkante 1 aufweisenden flächigen Körper 2 (hier Elektrodenblätter, die auf einem Förderband 9 angeordnet sind). In Schritt b) erfolgt eine Auswertung der ersten Bilder 3 mit einem Convolutional Neural Network 4, um eine mathematische erste der tatsächlich vorliegenden Geometrie eines Verlaufs 6 der mindestens einen Schnittkante 1 der ersten Bilder 3 zu lernen, bis das trainierte Convolutional Neural Network 4 geeignet ist, in einem neu erstellten, also nicht durch das Convolutional Neural Network 4 trainierten, zweiten Bild 7 eines Körpers 2 die mindestens eine Schnittkante 1 zu erkennen und eine mathematische zweite des zweiten Bildes 7 zu erzeugen.
  • Die ersten Bilder 3 sind Pixel-Matrizen mit Pixelwerten z. B. zwischen 0 und 255.
  • Die ersten sind Pixel-Matrizen, wobei die Pixelwerte nur die Werte 0 oder 1 betragen (Schnittkante 1 weist den Wert 1 auf, andere Bereiche weisen den Wert 0 auf).
  • Die Qualität des Verlaufs 6 der mindestens einen Schnittkante 1 in der ersten (und später in den zweiten ) kann anhand von mindestens einer Kennzahl 27 bestimmt werden.
  • 2 zeigt eine Erläuterung eines Convolutional Neural Networks 4. Im Rahmen der Auswertung mit CNN 4 kann, um eine automatisierte und inlinefähige Bewertung der Schnittkanten 1 zu implementieren, zunächst ein Trainingsdatensatz, also eine Menge von Elektrodenblatt-Aufnahmen bzw. ersten Bildern 3 mit Pixelwerten zwischen 0 und 255, erzeugt werden. Auf jeder Elektrodenblatt-Aufnahme bzw. auf jedem ersten Bild 3 dieses Trainingsdatensatzes kann mit einem Polygonwerkzeug die Elektrodenblatt-Geometrie bzw. Geometrie des Körpers, also der Verlauf 6 der mindestens einen Schnittkante 1, manuell markiert werden. Im Anschluss erfolgt ein manueller Export dieser manuellen Markierung, also des markierten Verlaufs 6 der Schnittkante 1, aus dem Polygonwerkzeug. Dieses Polygon, kodiert als Pixelmatrix, bildet die Elektrodenblatt-Geometrie bzw. die Geometrie des Körpers 2 für den Trainingsdatensatz, den sogenannten Ground Truth 28, ab.
  • Bilder in dieser Menge enthalten lediglich Pixel mit dem Wert null („0“) oder eins („1“), für keine Schnittkante 1 (z. B. Wert null) oder Schnittkante 1 (z. B. Wert eins) an der entsprechenden Stelle in der Elektrodenblatt-Aufnahme bzw. des ersten Bildes 3.
  • Im Folgenden wird ein CNN 4 verwendet, um eine mathematische erste der im ersten Bild 3 dargestellten Schnittkante 1 des Körpers 2 auf ihre entsprechende Geometrie zu lernen. Das so trainierte CNN 4 kann anschließend für zuvor nicht gelernte zweite Bilder 7 bzw. Elektrodenblatt-Aufnahmen die Geometrie erkennen. Aufgrund der geringen Varianz der ersten Bilder 3 und zweiten Bilder 7 von im Wesentlichen gleichartigen Körpern 2, hier z. B. von Elektrodenblättern mit festgelegter Soll-Geometrie der Schnittkanten 1, und der statistischen Signifikanz großer Datenmengen ist diese Erkennung genauer als vergleichbare Methoden, z. B. einer Trendkantenerkennung.
  • Das CNN 4 besteht bekannterweise aus einer Reihe von sogenannten Convolutional-Schichten, die eine fixierte Anzahl von Filtern 29 mit Bildausschnitten diskret falten (Convolution 30). Für jeden ihrer Filter 29 berechnet diese Schicht eine sogenannte Feature-Map 31. Diese Feature-Map 31 beschreibt, ob ein Muster, definiert durch die Filter-Parameter, an der entsprechenden Stelle in dem jeweiligen zweiten Bild 7 bzw. in der Elektrodenblatt-Aufnahme erkannt wurde. Die Größe dieser Feature-Maps 31 wird mithilfe von sogenannten Max-Pooling-Schichten 32 reduziert, um eine Berechnungskomplexität zu verringern. Die Max-Pooling Schicht 32 schiebt ein n x n Fenster über die Feature-Map 31 und überträgt insbesondere nur den maximalen Wert aus einem Ausschnitt in die nächste Schicht.
  • Die Reihenfolge und Anzahl von Convolutional- und Max-Pooling-Schichten 30, 32 sowie die Größe der jeweiligen Fenster und Filter 29 sind sogenannte Hyper-Parameter. Die Optimierung dieser Hyper-Parameter erfolgt insbesondere durch einen Validierungsdatensatz, der keinen Einfluss auf die Optimierung von Modell-Parametern hat.
  • Im letzten Schritt werden die Werte aller Feature-Maps 31 untereinander zu einem Vektor verkettet, das sogenannte Flatten 33, und dienen damit als Eingabe in ein Feed-Forward Neural Network 34. Dieses Netzwerk 34 ist wiederum durch eine variable Anzahl von verdeckten Schichten und einer variablen Anzahl von Neuronen in den jeweiligen verdeckten Schichten gekennzeichnet. Diese Anzahlen bilden weitere Hyper-Parameter.
  • In seiner Ausgabeschicht 35 versucht das Netz, die manuell erzeugte Schnittkantengeometrie des Ground Truth 29 des Körpers 2 zu approximieren, indem es jedem Pixel eine null („0“) oder eine eins („1“) zuordnet.
  • Zu Beginn des Trainings können die Filterparameter und die Parameter des Feed-Forward Neural Network 34 (beide zusammen bilden das CNN 4) zufällig initialisiert werden, wobei dies zunächst zu einer ungenauen Geometrie-Vorhersage (zweite in 2) führt. Im Verlauf des Trainings werden alle Modell-Parameter (insbesondere also Filtergewichte und Parameter) mit einem sogenannten Gradientenabstiegsverfahren 36 so angepasst, dass die Anzahl falsch klassifizierter Pixel über alle Trainingsbeispiele hinweg minimal ist.
  • Nach dem Training kann das CNN 4 benutzt werden, um z. B. im Rahmen des Schrittes c) für unbekannte Körper 2 bzw. neu erstellte zweite Bilder 7 den Verlauf 6 mindestens einer Schnittkante 1 zu erkennen und in einer zweiten darzustellen.
  • Auf Basis dieses durch das CNN 4 identifizierten Verlaufs 6 der mindestens einen Schnittkante 1 können Kennzahlen 27 bestimmt werden, die die Qualität der mindestens einen Schnittkante 1 quantifiziert.
  • 3 zeigt eine Darstellung von Kennzahlen 27 an einer zweiten eines Körpers 2.
  • Der flächige Körper 2 ist nach Art eines Quaders gestaltet, wobei eine Länge 37 und Breite 38 jeweils deutlich größer als eine Dicke sind. Der Körper 2 weist eine Mehrzahl von Schnittkanten 1 (hier acht) auf, die durch ein Trennverfahren erzeugt wurde, z. B. durch ein Stanzen oder Schneiden, insbesondere ein Laserschneiden. Der Körper 2 weist vollumfänglich Schnittkanten 1 auf, ist also an allen Seiten durch Abtrennen von Material hergestellt worden.
  • In Schritt a) werden mit einer Zeilenkamera hochaufgelöste Bilder der Körper 2, die wie hier dargestellt, Elektrodenblätter sind, nach dem Erzeugen der Schnittkanten 1, z. B. durch Laservereinzeln bzw. Laserschneiden, aufgezeichnet.
  • In Schritt b) erfolgt eine Auswertung der ersten Bilder 3 mit einem Convolutional Neural Network 4 um eine mathematische erste der tatsächlich vorliegenden Geometrie eines Verlaufs 6 der Schnittkanten 1 der ersten Bilder 3 zu lernen, bis das trainierte Convolutional Neural Network 4 geeignet ist, in einem neu erstellten, also nicht durch das Convolutional Neural Network 4 trainierten, zweiten Bild 7 eines Körpers 2 die Schnittkanten 1 zu erkennen und eine mathematische zweite des zweiten Bildes 7 zu erzeugen
  • Die hier dargestellte zweite umfasst ausschließlich Pixel mit den Werten „1“ und „null“ auf und stellt den Verlauf 6 der Schnittkanten 1 in dem zweiten Bild 7 (in 3 angedeutet, allerdings zeigt 3 die durch das CNN 4 erzeugte zweite des zweiten Bildes 7 des hergestellten Körpers 2) als Pixel mit dem Wert „1“ dar.
  • Der Körper 2 ist bei der Erzeugung des zweiten Bildes 7 auf einem Förderband 9 angeordnet, das den Körper 2 mit einer Geschwindigkeit 10 (in 3 angedeutet) an der Einrichtung zur Erzeugung des zweiten Bildes 7 vorbeibewegt.
  • Die Körper 2 weisen in der Förderrichtung eine größte Erstreckung (Länge 37) und quer dazu eine Breite 38 auf.
  • Die Qualität des Verlaufs 6 der Schnittkanten 1 in der zweiten kann anhand von Kennzahlen 27 bestimmt werden. Mit den Kennzahlen 27 kann für jede zweite entschieden werden, ob der der zweiten zugeordnete Körper 2 z. B. den Anforderungen hinsichtlich Qualität entspricht (I.O.) oder nicht (N.I.O. bzw. Ausschuss).
  • Der Körper 2 weist eine ausschließlich rechtwinklige (Soll-)Schnittkanten-Geometrie auf, d. h. die Schnittkanten 1 sind (bzw. sollen) rechtwinklig zueinander angeordnet (sein). Der Körper 2 weist als Elektrodenblatt an einer Seite (hier an der Seite mit der Breite 38) einen rechteckigen Fortsatz auf. Dieser Fortsatz wird bei Elektrodenblättern als Ableiter oder Ableiterfahne bezeichnet.
  • Die Kennzahlen 27 werden zumindest teilweise anhand einer Zeilensumme 11 oder Spaltensumme 12 einer Vielzahl von jeder Schnittkante 1 in der zweiten abbildenden Pixeln ermittelt.
  • Es werden zunächst entlang einer x-Achse (hier parallel zu einer Länge 37 des Körpers 2) die Spaltensummen 12 und entlang einer y-Achse (hier parallel zu einer Breite 38 des Körpers 2) die Zeilensummen 11 der binären (Werte von null und eins) Pixelwerte-Matrix gebildet.
  • Der Verlauf der Zeilensummen 11 und der Spaltensummen 12 kann durch eine Funktion beschrieben werden, deren (lokale) Maxima 13 eine Annäherung an die in der zweiten vorliegenden Schnittkanten 1 darstellt.
  • Der Verlauf eines (lokalen) Maximums 13 kann jeweils einer Schnittkante 1 zugeordnet und zur Bestimmung von jeweils einer Kennzahl 27 verwendet werden.
  • Ein mittlerer und/ oder ein maximaler Abstand 15 kann zwischen jeder Schnittkante 1 der zweiten und einer Soll-Geometrie 16 (hier der gestrichelt dargestellte, ausschließlich rechtwinklige Verlauf 6 der Schnittkanten 1) bzw. eines Soll-Verlaufs der Schnittkanten 1 des Körpers 2 können als weitere Kennzahlen 27 verwendet werden.
  • Die (lokalen) Maxima 13 der Zeilensummen 11 und der Spaltensummen 12 können als eine bestmögliche Annährung 26 an die in der zweiten dargestellte Ist-Geometrie des Körpers 2 angesehen werden. Diese bestmögliche Annäherung 26 über die lokalen Maxima 13 ergibt eine ausschließlich durch Geraden gebildete Umrandung bzw. Schnittkanten 1 des in der zweiten gezeigten Körpers 2 (hier dargestellt durch die gestrichelten Linien). Diese bestmögliche Annäherung 26 kann dazu verwendet werden, einen Flächeninhalt der bestmöglichen Annährung 26 bzw. die Längen der einzelnen Schnittkanten der bestmöglichen Annäherung 26 zu bestimmen und mit dem Soll-Flächeninhalt 18 des Körpers 2 oder den Soll-Längen 24 der Schnittkanten 1 des Körpers 2 zu vergleichen und somit weitere Kennzahlen 27 zu erzeugen.
  • Die Soll-Werte des hier betrachteten Körpers 2 sind die Soll-Maße des herzustellenden Körpers 2 und können z. B. aus einer Produktzeichnung entnommen werden.
  • Die Kennzahlen 27 sind hier definiert als
    • • ein Wert eines lokalen Maximums 13 einer Funktion einer Zeilensumme 11 und einer Spaltensumme 12 im Verhältnis zu einer Pixelzahl der jeweiligen Zeile oder Spalte; wobei die Funktion den Verlauf der Zeilensummen 11 und den Verlauf der Spaltensummen 12 abbildet; und
    • • eine Anzahl einer benachbart zum lokalen Maximum 13 angeordneten Zeilen oder Spalten, deren Zeilensumme 11 oder Spaltensumme 12 einen Mindestwert 14 überschreitet; und
    • • ein maximaler Abstand 15 eines die Schnittkanten 1 in der zweiten darstellenden Pixels von einer Sollgeometrie 16 des Verlaufs der Schnittkante 1 des Körpers 2; und
    • • ein arithmetisches Mittel der Abstände 17 (hier angedeutet, als jeweils ein Abstand 17 je Schnittkante 1) der die Schnittkanten 1 in der zweiten darstellenden Pixel von einer Sollgeometrie 16 des Verlaufs der Schnittkanten 1 des Körpers 2 bzw. von der bestmöglichen Annährung 26; und
    • • ein Verhältnis zwischen einem Soll-Flächeninhalt 18 des Körpers 2 und einem Ist-Flächeninhalt 19 (Fläche innerhalb der durch die zweite angezeigten Schnittkanten 1) der zweiten oder einem Flächeninhalt der bestmöglichen Annäherung 26 (rechtwinkliger Verlauf 6 der Schnittkanten 1 durch Lage der Maxima 13 approximiert); und
    • • ein Verhältnis zwischen einer Soll-Distanz 20 zweier erster Endpunkte 21 einer Schnittkante 1 des Körpers 2 und einer Ist-Distanz 22 zweier zweiter Endpunkte 23 einer Schnittkante 1 der zweiten ; und
    • • ein Verhältnis zwischen einer Soll-Länge 24 des Verlaufs 6 einer Schnittkante 1 des Körpers 2 (üblicherweise entlang einer Geraden zwischen zwei ersten Endpunkten 21) und einer Ist-Länge 25 des Verlaufs 6 einer Schnittkante 1 der zweiten (entlang des Verlaufs 6 der Pixel zwischen zwei zweiten Endpunkten 23 in der zweiten ) oder der Länge (des geradlinigen Verlaufs 6) einer Schnittkante 1 der bestmöglichen Annäherung 26.
  • Bezugszeichenliste
  • 1
    Schnittkante
    2
    Körper
    3
    erstes Bild
    4
    Convolutional Neural Network
    5
    erste Abbildung
    6
    Verlauf
    7
    zweites Bild
    8
    zweite Abbildung
    9
    Förderband
    10
    Geschwindigkeit
    11
    Zeilensumme
    12
    Spaltensumme
    13
    Maximum
    14
    Mindestwert
    15
    maximaler Abstand
    16
    Soll-Geometrie
    17
    Abstand
    18
    Soll-Flächeninhalt
    19
    Ist-Flächeninhalt
    20
    Soll-Distanz
    21
    erster Endpunkt
    22
    Ist-Distanz
    23
    zweiter Endpunkt
    24
    Soll-Länge
    25
    Ist-Länge
    26
    bestmögliche Annäherung
    27
    Kennzahl
    28
    Ground Truth
    29
    Filter
    30
    Convolution
    31
    Feature-Map
    32
    Max-Pooling Schicht
    33
    Flatten
    34
    Feed-Forward Neural Network
    35
    Ausgabeschicht
    36
    Gradientenabstiegsverfahren
    37
    Länge
    38
    Breite
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • CN 110135521 A [0009]

Claims (11)

  1. Verfahren zur Bewertung mindestens einer Schnittkante (1) eines flächigen Körpers (2); zumindest umfassend die folgenden Schritte: a) Herstellen von ersten Bildern (3) einer Vielzahl der die mindestens eine Schnittkante (1) aufweisenden flächigen Körper (2); b) Auswerten der ersten Bilder (3) mit einem Convolutional Neural Network (4), um eine mathematische erste Abbildung (5) der tatsächlich vorliegenden Geometrie eines Verlaufs (6) der mindestens einen Schnittkante (1) der ersten Bilder (3) zu lernen, bis das trainierte Convolutional Neural Network (4) geeignet ist, in einem neu erstellten, also nicht durch das Convolutional Neural Network (4) trainierten, zweiten Bild (7) eines Körpers (2) die mindestens eine Schnittkante (1) zu erkennen und eine mathematische zweite Abbildung (8) des zweiten Bildes (7) zu erzeugen; c) Verwenden des Convolutional Neural Networks (4) bei der Herstellung einer Vielzahl der Körper (2), wobei zumindest eine Vielzahl der hergestellten Körper (2) anhand der jeweilig durch das Convolutional Neural Network (4) erzeugten zweiten Abbildung (8) hinsichtlich der Qualität des Verlaufs (6) der mindestens einen Schnittkante (1) bewertet wird.
  2. Verfahren nach Patentanspruch 1, wobei der Körper (2) ein Elektrodenblatt einer Batterie ist.
  3. Verfahren nach einem der vorhergehenden Patentansprüche, wobei zumindest die ersten Bilder (3) eine Auflösung von mindestens 100 Pixel / Zentimeter aufweisen.
  4. Verfahren nach einem der vorhergehenden Patentansprüche, wobei die zweite Abbildung (8) ausschließlich Pixel mit den Werten „1“ und „null“ aufweist und den Verlauf (6) der mindestens einen Schnittkante (1) in dem zweiten Bild (7) als Pixel mit dem Wert „1“ darstellt.
  5. Verfahren nach einem der vorhergehenden Patentansprüche, wobei in Schritt c) ein Endlosmaterial bereitgestellt wird, wobei die einzelnen Körper (2) aus dem Endlosmaterial herausgetrennt werden und danach von zumindest einer Vielzahl der Körper (2) jeweils mindestens ein zweites Bild (7) erzeugt wird; wobei anhand der zweiten Abbildung (8) des zweiten Bildes (7) die Qualität des Verlaufs (6) der mindestens einen Schnittkante (1) bewertet wird.
  6. Verfahren nach Patentanspruch 4, wobei der Körper (2) bei der Erzeugung des zweiten Bildes (7) auf einem Förderband (9) angeordnet ist, das den Körper (2) mit einer Geschwindigkeit (10) von mindestens 1 Meter / Sekunde an der Einrichtung zur Erzeugung des zweiten Bildes (7) vorbeibewegt.
  7. Verfahren nach einem der vorhergehenden Patentansprüche, wobei die Qualität des Verlaufs (6) der mindestens einen Schnittkante (1) in der zweiten Abbildung (8) anhand von mindestens einer Kennzahl (27) bestimmt wird.
  8. Verfahren nach einem der vorhergehenden Patentansprüche, wobei der Körper (2) eine ausschließlich rechtwinklige Schnittkanten-Geometrie aufweist.
  9. Verfahren nach Patentanspruch 7, wobei die Qualität des Verlaufs (6) der mindestens einen Schnittkante (1) in der zweiten Abbildung (8) anhand von mindestens einer Kennzahl (27) bestimmt wird; wobei die Kennzahl (27) zumindest anhand einer Zeilensumme (11) oder Spaltensumme (12) einer Vielzahl von die mindestens eine Schnittkante (1) in der zweiten Abbildung (8) abbildenden Pixeln ermittelt wird.
  10. Verfahren nach Patentanspruch 8, wobei die Kennzahl (27) zumindest wie folgt definiert ist: • Wert eines lokalen Maximums (13) einer Funktion einer Zeilensumme (11) oder einer Spaltensumme (12) im Verhältnis zu einer Pixelzahl der jeweiligen Zeile oder Spalte; wobei die Funktion den Verlauf der Zeilensummen (11) oder den Verlauf der Spaltensummen (12) abbildet; oder • Anzahl einer benachbart zum lokalen Maximum (13) angeordneten Zeilen oder Spalten, deren Zeilensumme (11) oder Spaltensumme (12) einen Mindestwert (14) überschreitet; oder • maximaler Abstand (15) eines die Schnittkante (1) in der zweiten Abbildung (8) darstellenden Pixels von einer Sollgeometrie (16) des Verlaufs (6) der Schnittkante (1) des Körpers (2); oder • arithmetisches Mittel der Abstände (17) der die Schnittkante (1) in der zweiten Abbildung (8) darstellenden Pixeln von einer Soll-Geometrie (16) des Verlaufs (6) der Schnittkante (1) des Körpers (2); oder • Verhältnis zwischen einem Soll-Flächeninhalt (18) des Körpers (2) und einem Ist-Flächeninhalt (19) der zweiten Abbildung (8); oder • Verhältnis zwischen einer Soll-Distanz (20) zweier erster Endpunkte (21) einer Schnittkante (1) des Körpers (2) und einer Ist-Distanz (22) zweier zweiter Endpunkte (23) einer Schnittkante (1) der zweiten Abbildung (8); oder • Verhältnis zwischen einer Soll-Länge (24) des Verlaufs (6) einer Schnittkante (1) des Körpers (2) und einer Ist-Länge (25) des Verlaufs (6) einer Schnittkante (1) der zweiten Abbildung (8).
  11. Verfahren nach einem der vorhergehenden Patentansprüche, wobei in einem weiteren Schritt d) die Qualität des Verlaufs (6) der mindestens einen Schnittkante (1) mit mindestens einem Prozessparameter, der für die Erzeugung des jeweiligen Körpers (2) verwendet wird, korreliert wird, so dass der mindestens eine Prozessparameter so verändert wird, dass eine geforderte Qualität des Körpers (2), also ein Verlauf (6) der mindestens einen Schnittkante (1), herstellbar ist.
DE102020207613.8A 2020-06-19 2020-06-19 Verfahren zur Bewertung einer Schnittkante eines Körpers Pending DE102020207613A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020207613.8A DE102020207613A1 (de) 2020-06-19 2020-06-19 Verfahren zur Bewertung einer Schnittkante eines Körpers

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020207613.8A DE102020207613A1 (de) 2020-06-19 2020-06-19 Verfahren zur Bewertung einer Schnittkante eines Körpers

Publications (1)

Publication Number Publication Date
DE102020207613A1 true DE102020207613A1 (de) 2021-12-23

Family

ID=78822936

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020207613.8A Pending DE102020207613A1 (de) 2020-06-19 2020-06-19 Verfahren zur Bewertung einer Schnittkante eines Körpers

Country Status (1)

Country Link
DE (1) DE102020207613A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117067112A (zh) * 2023-10-17 2023-11-17 杭州泓芯微半导体有限公司 一种水切割机及其控制方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112013001165T5 (de) 2012-02-27 2014-11-13 Kabushiki Kaisha Toyota Jidoshokki Energiespeichervorrichtung und Fahrzeug mit einer daran angebrachten Energiespeichervorrichtung
WO2017174374A1 (en) 2016-04-08 2017-10-12 Lithium Energy and Power GmbH & Co. KG Energy storage device
CN110135521A (zh) 2019-05-28 2019-08-16 陕西何止网络科技有限公司 基于卷积神经网络的极片极耳缺陷检测模型、检测方法及系统

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE112013001165T5 (de) 2012-02-27 2014-11-13 Kabushiki Kaisha Toyota Jidoshokki Energiespeichervorrichtung und Fahrzeug mit einer daran angebrachten Energiespeichervorrichtung
WO2017174374A1 (en) 2016-04-08 2017-10-12 Lithium Energy and Power GmbH & Co. KG Energy storage device
CN110135521A (zh) 2019-05-28 2019-08-16 陕西何止网络科技有限公司 基于卷积神经网络的极片极耳缺陷检测模型、检测方法及系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
SCHLOSSER, T., et al.: A novel visual fault detection and classification system for semiconductor manufacturing using stacked hybrid convolutional neural networks. In: 2019 24th IEEE International Conference on Emerging Technologies and Factory Automation (ETFA). IEEE, 2019. S. 1511-1514. doi: 10.1109/ETFA.2019.8869311 (URL: https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8869311)
ZHU, B., et al.: Seam detection of inhomogeneously textured fabrics based on wavelet transform. In: Textile Research Journal, 2015, 85. Jg., Nr. 13, S. 1381-1393. doi: 10.1177/0040517514555796 (URL: https://journals.sagepub.com/doi/pdf/10.1177/0040517514555796?casa_token=BXn_OOqSnGQAAAAA:lUFYYy4ypMpLdofOOUzSUdDU68xH3DWJhb8TXTcHn0t2QQGN2I1FKyiT5g1L6QjDvqcfc81VE8FL)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117067112A (zh) * 2023-10-17 2023-11-17 杭州泓芯微半导体有限公司 一种水切割机及其控制方法
CN117067112B (zh) * 2023-10-17 2024-01-16 杭州泓芯微半导体有限公司 一种水切割机及其控制方法

Similar Documents

Publication Publication Date Title
DE112017005651T5 (de) Vorrichtung zur Klassifizierung von Daten
EP3788552B1 (de) Verfahren und vorrichtung zum ermitteln eines tiefeninformationsbilds aus einem eingangsbild
DE112017005640T5 (de) Informationsverarbeitungsvorrichtung und Informationsverarbeitungsverfahren
DE102019209644A1 (de) Verfahren zum Trainieren eines neuronalen Netzes
DE102017209262A1 (de) Verfahren und Vorrichtung zur automatischen Gestenerkennung
DE19633693C1 (de) Verfahren und Vorrichtung zur Erfassung von Targetmustern in einer Textur
EP4113107A1 (de) Verfahren zur bestimmung einer ablagegenauigkeit einer mehrzahl von elektrodenblättern in einem stapel
DE3508400A1 (de) Vorrichtung und verfahren zur mustererkennung
DE102005025220B4 (de) Gerät, Verfahren und Programm zum Beseitigen von Poren
WO2008034599A2 (de) Verfahren und vorrichtung zur bildverarbeitung
DE102020207613A1 (de) Verfahren zur Bewertung einer Schnittkante eines Körpers
DE102021204550A1 (de) Verfahren zum Erzeugen wenigstens eines Datensatzes zum Trainieren eines Algorithmus maschinellen Lernens
EP1989662B1 (de) Verfahren zum erkennen von objekten und objekterkennungssystem
EP2622540A1 (de) Verfahren zur klassifizierung von mustern in bilddatensätzen
DE112016007447T5 (de) Verfahren zum Vergleichen einer ersten Zeichnung mit einer zweiten Zeichnung durch Vergleichen ihrer Zeichnungselemente
DE102019130930A1 (de) Mikroskop und Verfahren mit Ausführen eines faltenden neuronalen Netzes
DE102013225768A1 (de) Verfahren und Vorrichtung zum Ermitteln eines LOLIMOT-Modells
DE102020215031A1 (de) Computerimplementiertes Verfahren zur Auswertung von Magnetresonanzdaten, Magnetresonanzeinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
EP2642749B1 (de) Vorrichtung und Verfahren zur Optimierung der Bestimmung von Aufnahmebereichen
DE102020208765A1 (de) Bildklassifikator mit variablen rezeptiven Feldern in Faltungsschichten
DE102020213253A1 (de) Computerimplementierte konsistente klassifikationsverfahren
DE102019220615A1 (de) Verfahren und Vorrichtung zum Erkennen und Klassifizieren von Objekten
DE202022106319U1 (de) Ein System zur Bestimmung der Art des Rauschens in Microarray-Bildern
DE102018126826A1 (de) Verfahren zum Bestimmen eines Konfidenzwerts für eine Erfassungsqualität einer Fahrbahnmarkierungsgrenze, Fahrerassistenzsystem sowie Kraftfahrzeug
AT526596B1 (de) Verfahren für eine Bestimmung eines Alterungszustands einer Brennstoffzelle, eines Brennstoffzellenstapels und/oder eines Brennstoffzellensystems

Legal Events

Date Code Title Description
R163 Identified publications notified
R012 Request for examination validly filed
R016 Response to examination communication
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009620000

Ipc: G06V0030190000

R016 Response to examination communication