DE102020200998A1 - Verarbeiten von Sensordaten - Google Patents

Verarbeiten von Sensordaten Download PDF

Info

Publication number
DE102020200998A1
DE102020200998A1 DE102020200998.8A DE102020200998A DE102020200998A1 DE 102020200998 A1 DE102020200998 A1 DE 102020200998A1 DE 102020200998 A DE102020200998 A DE 102020200998A DE 102020200998 A1 DE102020200998 A1 DE 102020200998A1
Authority
DE
Germany
Prior art keywords
artificial neural
neural network
sensor data
processing
data set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020200998.8A
Other languages
English (en)
Inventor
Mark Schutera
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZF Friedrichshafen AG
Original Assignee
ZF Friedrichshafen AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZF Friedrichshafen AG filed Critical ZF Friedrichshafen AG
Priority to DE102020200998.8A priority Critical patent/DE102020200998A1/de
Publication of DE102020200998A1 publication Critical patent/DE102020200998A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/285Selection of pattern recognition techniques, e.g. of classifiers in a multi-classifier system

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren zum Verarbeiten von Sensordaten, welche sich hinsichtlich eines oder mehrerer sensorumgebungsbedingter Charakteristika unterscheiden, mit den folgenden Schritten: Verarbeiten der Sensordaten mittels eines ersten künstlichen neuronalen Netzwerks zu verarbeiteten Sensordaten; Klassifizieren der Sensordaten oder der verarbeiteten Sensordaten hinsichtlich sensorumgebungsbedingter Charakteristika; Auswählen eines zweiten künstlichen neuronalen Netzwerks aufgrund der klassifizierten sensorumgebungsbedingten Charakteristika; Verarbeiten der verarbeiteten Sensordaten mittels des zweiten künstlichen neuronalen Netzwerks, um eine Schlussfolgerung aus den Sensordaten zu generieren.

Description

  • GEBIET DER ERFINDUNG
  • Die vorliegende Erfindung betrifft ein Verfahren zum Verarbeiten von Sensordaten mittels eines künstlichen neuronalen Netzwerks sowie eine Datei mit mehreren Topologien für eine Vielzahl künstlicher Neuronaler Netzwerke.
  • TECHNISCHER HINTERGRUND
  • Die Patentanmeldung DE 10 2019 211 672 A1 beschreibt ein Verfahren, um ein künstliches neuronales Netzwerk, welches auf das Verarbeiten von Sensordaten erster Art, beispielsweise Tageslicht-Kameradaten, trainiert ist auf das Verarbeiten von Sensordaten zweiter Art, beispielsweise Nacht-Kameradaten, zu trainieren.
  • Hierbei kommt es häufig zu einem Effekt, der im Fachjargon auch mit „Catastrophic Forgetting“ bezeichnet wird. Hierunter versteht man, dass ein künstliches neuronales Netzwerk Fähigkeiten, auf welche es ursprünglich trainiert war, im obigen Beispiel das Verarbeiten von Tageslicht-Kameradaten, verlernt, wenn das neuronale Netzwerk andere Fähigkeiten erlernt.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Vor diesem Hintergrund liegt der Erfindung die Aufgabe zugrunde, ein Verfahren zum Verarbeiten von Sensordaten zu schaffen, welches „Catastrophic Forgetting“ vermeidet.
  • Erfindungsgemäß wird diese Aufgabe durch ein Verfahren zum Verarbeiten von Sensordaten mittels eines künstlichen neuronalen Netzwerks mit den Merkmalen des Patentanspruchs 1 gelöst.
  • Demgemäß ist vorgesehen:
    • - ein Verfahren zum Verarbeiten von Sensordaten, welche sich hinsichtlich eines oder mehrerer sensorumgebungsbedingter Charakteristika unterscheiden, mit den folgenden Schritten: Verarbeiten der Sensordaten mittels eines ersten künstlichen neuronalen Netzwerks zu verarbeiteten Sensordaten; Klassifizieren der Sensordaten oder der verarbeiteten Sensordaten hinsichtlich sensorumgebungsbedingter Charakteristika; Auswählen eines zweiten künstlichen neuronalen Netzwerks aufgrund der klassifizierten sensorumgebungsbedingten Charakteristika; Verarbeiten der verarbeiteten Sensordaten mittels des zweiten künstlichen neuronalen Netzwerks, um eine Schlussfolgerung aus den Sensordaten zu generieren; sowie
    • - eine Datei umfassend eine Topologie eines ersten künstlichen neuronalen Netzwerks, welches eingerichtet ist Sensordaten zu verarbeiten, jeweils eine Topologie einer Vielzahl zweiter künstlicher neuronaler Netzwerke, wobei jedes der zweiten künstlichen neuronalen Netzwerke eingerichtet ist, die verarbeiteten Sensordaten weiterzuverarbeiten, wenn ein bestimmtes zweites künstliches neuronales Netzwerk aus der Vielzahl der zweiten künstlichen neuronalen Netzwerke ausgewählt wurde.
  • Ein Sensor, auch als Detektor, (Messgrößen- oder Mess-)Aufnehmer oder (Mess-)Fühler bezeichnet, ist ein technisches Bauteil, das bestimmte physikalische, chemische Eigenschaften oder Zustände, z. B. Temperatur, Feuchtigkeit, Druck, Geschwindigkeit, Helligkeit, Beschleunigung, pH-Wert, Ionenstärke, elektrochemisches Potential und/oder die stoffliche Beschaffenheit seiner Umgebung qualitativ oder als Messgröße quantitativ erfassen kann. Diese Größen werden mittels physikalischer oder chemischer Effekte erfasst und als Sensordaten in ein weiterverarbeitbares elektrisches Signal umgeformt. Fahrzeugsensoren sind an einem Fahrzeug montiert, um eine Fahrzeugumgebung zu erfassen. Sensordaten, die von Fahrzeugsensoren erfasst werden, sind fahrzeugumgebungsbezogene Sensordaten.
  • Sensorumgebungsbedingte Charakteristika sind Merkmale von Sensordaten, die sich auf die Umgebung des erfassenden Sensors beziehen. Hierunter fallen beispielsweise Helligkeitswerte der Sensorumgebung, die einen Verlauf von Tageslicht zu Nacht charakterisieren, optische oder akustische Merkmale von erfassten Objekten, wie z.B. abgerundete Ecken, Drehwinkel von erfassten Objekten und dergleichen. Diese Patentanmeldung betrifft Charakteristika in von einem KNN zu verarbeitenden Sensordaten, die Änderungen unterliegen.
  • Klassifizieren der Sensordaten bedeutet in dieser Patentanmeldung, dass die Sensordaten hinsichtlich der sensorumgebungsbedingten Charakteristik klassifiziert werden. Ist die Charakteristik ein Helligkeitswert von Bilddaten kann vorgesehen sein, die Bilddaten in Tageslicht, Dämmerung, Nacht usw. zu klassifizieren. Es versteht sich, dass die Klassifizierung typischerweise anhand von Zahlenwerten bzw. Wertebereichen erfolgen dürfte.
  • Das Auswählen eines KNN umfasst das Auswählen und Laden eines KNN aus einem Datenspeicher.
  • Ein künstliches neuronales Netzwerk (KNN, englisch artificial neural network - ANN) ist insbesondere ein in einem Rechenprogramm nachgebildetes Netzwerk aus vernetzten künstlichen Neuronen. Die künstlichen Neuronen sind dabei typischerweise auf verschiedenen Schichten (layers) angeordnet. Üblicherweise umfasst das künstliche neuronale Netzwerk eine Eingangsschicht und eine Ausgabeschicht (output layer), deren Neuronenausgabe als einzige des künstlichen neuronalen Netzwerks sichtbar wird. Zwischen der Eingangsschicht und der Ausgabeschicht liegende Schichten werden typischerweise als verdeckte Schichten (hidden layer) bezeichnet. Typischerweise wird zunächst eine Architektur bzw. Topologie eines künstlichen neuronalen Netzwerks initiiert und dann in einer Trainingsphase für eine spezielle Aufgabe oder für mehrere Aufgaben in einer Trainingsphase trainiert.
  • Der Begriff „Topologie eines KNN“ umfasst sämtliche Aspekte bezüglich des Aufbaus eines KNN. Hierunter fallen beispielsweise die Anzahl der Neuronen des KNN, die Aufteilung der Neuronen auf die einzelnen Schichten des KNN, die Anzahl der Schichten eines KNN, die Vernetzung der Neuronen und die Gewichtung der Vernetzung.
  • Es versteht sich, dass jede Topologie mit künstlichen Neuronen in zumindest einer Schicht ein KNN bilden, wobei die Eingangs- bzw. Ausgangsschicht eines KNN mit einem weiteren KNN verknüpft sein können, so dass diese beiden KNN zwei Subnetze eines übergeordneten KNN bilden.
  • Eine Bilddatei ist eine Datei, in der ein digitales Bild gespeichert wird. Der Inhalt der Datei wurde entweder digital errechnet oder durch Analog-Digital-Wandlung digitalisiert und kann daher vom menschlichen Betrachter unmittelbar weder als Bild erkannt noch als Text gelesen werden. Zur Visualisierung wird ein Gerät benötigt, das den Inhalt wieder in analoge Daten zurückwandelt. Man unterscheidet zwischen einer Rastergrafik, die aus Bildpunkten (Pixeln) zusammengesetzt ist, und einer Vektorgrafik, die mit grafischen Primitiven beschrieben wird.
  • Intensitätswerte können zu beliebigen gemessenen Zahlenwerten angegeben werden. Grauwerte sind auch Intensitätswerte. Helligkeitswerte sind z.B. Lichtstärkewerte und geben den auf den Raumwinkel bezogenen Lichtstrom an.
  • Ein Kantenbild wird aus einem digitalen Bild durch sogenannte Kantendetektion berechnet, indem benachbarte Bildelemente (Pixel) auf Änderungen ihrer Farbwerte oder Grauwerte analysiert werden.
  • Computerprogrammprodukte umfassen in der Regel eine Folge von Befehlen, durch die die Hardware bei geladenem Programm veranlasst wird, ein bestimmtes Verfahren durchzuführen, das zu einem bestimmten Ergebnis führt.
  • Das Verarbeiten von Sensordaten mittels eines KNN wird auch mit „Speisen“ des KNN mit den Sensordaten bezeichnet. Hierbei kann es sich um Sensorrohdaten oder um vorprozessierte Sensordaten handeln.
  • Die Erfindung sowie weitere Ausführungsformen davon werden im Folgenden anhand einer zeitveränderlichen Charakteristik beschrieben. Es versteht sich, dass die Erfindung auch auf Charakteristika, die nicht von der Zeit, sondern von einem anderen Parameter abhängig sind bzw. sich in Abhängigkeit dessen ändern, anwendbar ist.
  • Die Erfindung geht davon aus, dass sich auszuwertende Eingangsdaten für ein künstliches neuronales Netzwerk kontinuierlich ändern. Häufig sind auszuwertende Eingangsdaten auf eine Umgebung eines Menschen, eines Gegenstands oder eines Geräts bezogen. Dementsprechend ist die vorliegende Erfindung, beispielsweise für sich kontinuierlich ändernde Umgebungen bzw. Umgebungsdaten anwendbar.
  • Ein Beispiel für ein sich kontinuierlich änderndes Umgebungsmerkmal ist die Helligkeit. Die Helligkeit nimmt von der Morgendämmerung bis zum Mittag kontinuierlich zu, bis diese mit der Abenddämmerung und dem Sonnenuntergang kontinuierlich abnimmt.
  • Ein weiteres Beispiel für sich kontinuierlich ändernde Eingangsdaten für ein künstliches neuronales Netzwerk sind Dialekte bzw. gesprochene Mundarten, die von einer Spracherkennungssoftware zu analysieren sind, da sich Trainingsdaten mit verschiedenen gesprochenen Dialekten in eine bestimmte Reihenfolge bringen lassen, sodass sich zu analysierende Sprachaufnahmen von einem Trainingsdatensatz zu einem nächsten Trainingsdatensatz kontinuierlich ändern. Beispielsweise ist es denkbar, dass ein Ausgangstrainingsdatensatz zum Trainieren eines künstlichen neuronalen Netzwerks in Hochdeutsch gesprochen ist und ein Zieldatensatz in tirolerischer Mundart gesprochen ist. Es ist denkbar einen oder mehrere Zwischendatensätze, die einen schrittweise Übergang vom Hochdeutschen ins Tirolerische darstellen, bereitzustellen.
  • An dem Aspekt des kontinuierlichen Übergangs zwischen Trainingsdaten setzt die Erfindung an.
  • Die grundlegende Idee der Erfindung ist es, Sensordaten hinsichtlich sensorumgebungsbedingter Charakteristika zu klassifizieren.
  • Parameter eines künstlichen neuronalen Netzwerks, die sich mit den sensorumgebungsbedingten Charakteristika ändern, lassen sich ermitteln. An dem Tag-Nacht-Beispiel bedeutet dies, dass ein künstliches neuronales Netzwerk K1 darauf trainiert sein kann, Tageslicht-Kameradaten zu verarbeiten und ein weiteres künstliches neuronales Netzwerk K2 darauf trainiert sein kann, Nacht-Kameradaten zu verarbeiten.
  • Werden die künstlichen neuronale Netzwerke K1 und K2 miteinander verglichen, so lassen sich deren Gemeinsamkeiten, in der Regel gemeinsame Parameter, d. h. Knoten mit gleichen Gewichten bzw. Schichten der Netzwerke mit einer identischen Topologie, erkennen.
  • Da sich das Verarbeiten von Tageslicht-Kameradaten von dem Verarbeiten von Nacht-Kameradaten nicht fundamental unterscheidet, ist davon auszugehen, dass die künstlichen neuronalen Netzwerke K1 und K2 zu Teilen identisch sind.
  • Die Erfindung sieht vor, die identischen Teile dieser künstlichen neuronalen Netzwerke als erstes neuronales Netzwerk zu speichern und Sensordaten mittels dieses ersten künstlichen neuronalen Netzwerks zu verarbeiten.
  • Anhand der Klassifizierung der Sensordaten oder der verarbeiteten Sensordaten wird ein weiteres künstliches neuronales Netzwerk ausgewählt, welches spezifisch auf das Verarbeiten von Sensordaten, die die klassifizierten sensorumgebungsbedingten Charakteristika aufweisen, trainiert ist.
  • Somit kann ein anwendungsspezifisches künstliches neuronales Netzwerk ausgewählt werden, wobei zugleich die Gesamtlaufzeit der künstlichen neuronalen Netzwerke gegenüber der Summe der Einzellaufzeiten der künstlichen neuronalen Netzwerke kaum verlängert ist und lediglich geringfügig mehr Speicherkapazität erforderlich ist.
  • Es versteht sich, dass die vorliegende Erfindung auf zahlreiche Beispiele von Sensordaten mit schrittweisen oder kontinuierlichen Abstufungen anwendbar ist und das vorstehend erläuterte Tag-Nacht-Beispiel lediglich beispielhafter Natur ist.
  • Vorteilhafte Ausgestaltungen und Weiterbildungen ergeben sich aus den weiteren Unteransprüchen sowie aus der Beschreibung unter Bezugnahme auf die Figuren der Zeichnung.
  • Es versteht sich, dass das erste und das zweite künstliche neuronale Netzwerk auch Teil eines übergeordneten (veränderlichen) dritten künstlichen neuronalen Netzwerks sein können. In diesem Fall bilden das erste und das zweite künstliche neuronale Netzwerk jeweils ein Subnetz des dritten künstlichen neuronalen Netzwerkes. Dem dritten neuronalen Netzwerk kommt demnach ein Baukasten-Charakter zu.
  • Wenngleich in diesem Fall das erste und das zweite künstliche neuronale Netzwerk kein eigenständiges neuronales Netzwerk bilden, soll in dieser Patentanmeldung der Einfachheit halber nicht zwischen eigenständigen neuronalen Netzwerken und neuronalen Subnetzen unterschieden werden.
  • Dabei ist es auch zweckmäßig, wenn das erste künstliche neuronale Netzwerk eine Eingangsschicht des dritten künstlichen neuronalen Netzwerks bildet. Somit lassen sich die zu verarbeitenden Sensordaten anwendungsspezifisch vorprozessieren. Abhängig von einer spezifischen Aufgabe des künstlichen neuronalen Netzwerks, beispielsweise einer Objektdetektion, ist davon auszugehen, dass die Topologie einer Eingangsschicht bzw. mehrere eingangsnahe Schichten unabhängig von den sensorumgebungsbedingten Charakteristika ist, da die Sensordaten zunächst unabhängig von deren charakteristischen Merkmalen verarbeitet werden.
  • Beispielsweise ist es für optische Sensordaten denkbar, dass zunächst eine Detektion bestimmter grafischer Merkmale in den optischen Sensordaten durchgeführt wird. Hierfür kommt insbesondere eine Kantendetektion in Betracht.
  • Alternativ oder zusätzlich ist es auch denkbar, dass das zweite künstliche neuronale Netzwerk eine Ausgangsschicht des dritten künstlichen neuronalen Netzwerks aufweist. Dementsprechend kann vorgesehen sein, dass lediglich die tieferen, also ausgangsnahen Schichten des übergeordneten künstlichen neuronalen Netzwerks anwendungsspezifisch verändert bzw. ausgewählt werden. Dementsprechend lassen sich geeignete Ausgangsschichten auswählen, wenn bestimmte sensorumgebungsbedingte Charakteristika in den Sensordaten erkannt wurden.
  • Im Folgenden werden weitere Anwendungsbeispiele der Erfindung erläutert.
  • Beispielsweise kann das künstliche neuronale Netzwerk auf die Erkennung von Fahrzeugen trainiert sein, wobei als sensorumgebungsbedingte Charakteristik zwischen dem Alter der Fahrzeuge unterschieden wird, da davon auszugehen ist, dass sich Fahrzeugmodelle über einen Zeitraum von mehreren Jahren in deren optischer Erscheinung verändern. Dementsprechend kann ein Klassifikator eingesetzt werden, um das Alter eines Fahrzeugs in einer Sensorumgebung zu schätzen. Somit kann das zweite künstliche neuronale Netzwerk die unterschiedlichen charakteristischen Eigenschaften von älteren und neueren Fahrzeugen berücksichtigen. Diese können beispielsweise unterschiedliche technische Funktionalitäten oder bestimmte Reflexionseigenschaften aufgrund von altersbedingten typischen Designmerkmalen sein.
  • Auf das MNIST-Beispiel bezogen kann in einer praxisbezogenen Anwendung auch vorgesehen sein, dass Bilddaten anhand eines Rotationswinkels eines erfassten Objekts klassifiziert werden und das zweite KNN anhand des klassifizierten Rotationswinkels ausgewählt wird.
  • Das Computerprogrammprodukt gemäß einer Ausführungsform der Erfindung führt die Schritte eines Verfahrens gemäß der vorangehenden Beschreibung aus, wenn das Computerprogrammprodukt auf einem Computer, insbesondere einem fahrzeuginternen Computer, läuft. Wenn das betreffende Programm auf einem Computer zum Einsatz kommt, ruft das Computerprogrammprodukt einen Effekt hervor, nämlich das Schlussfolgern aufgrund von Sensordaten mittels eins künstlichen neuronalen Netzwerks.
  • Figurenliste
  • Die vorliegende Erfindung wird nachfolgend anhand der in den schematischen Figuren der Zeichnungen angegebenen Ausführungsbeispiele näher erläutert. Es zeigen dabei:
    • 1 mehrere Trainingsdatensätze zum Trainieren eines künstlichen neuronalen Netzwerks mittels einer Ausführungsform der Erfindung;
    • 2 mehrere Performanzdiagramme zu verschiedenen zweiten künstlichen neuronalen Netzwerken;
    • 3 ein schematisches Blockdiagramm gemäß einer Ausführungsform der Erfindung.
  • Die beiliegenden Zeichnungen sollen ein weiteres Verständnis der Ausführungsformen der Erfindung vermitteln. Sie veranschaulichen Ausführungsformen und dienen im Zusammenhang mit der Beschreibung der Erklärung von Prinzipien und Konzepten der Erfindung. Andere Ausführungsformen und viele der genannten Vorteile ergeben sich im Hinblick auf die Zeichnungen. Die Elemente der Zeichnungen sind nicht notwendigerweise maßstabsgetreu zueinander gezeigt.
  • In den Figuren der Zeichnungen sind gleiche, funktionsgleiche und gleichwirkende Elemente, Merkmale und Komponenten - sofern nicht anders ausgeführt ist - jeweils mit denselben Bezugszeichen versehen.
  • BESCHREIBUNG VON AUSFÜHRUNGSBEISPIELEN
  • Die MNIST-Datenbank (Modified National Institute of Standards and Technology) ist eine große Datenbank mit Datensätzen handgeschriebener Ziffern, die üblicherweise zum Trainieren verschiedener Bildverarbeitungssysteme verwendet wird. Ein Beispiel aus der MNIST-Datenbank ist in 1 zu sehen.
  • 1 zeigt Trainingsdatensätze 101, 103, 105 und 107 zum Trainieren eines künstlichen neuronalen Netzwerks. Der Trainingsdatensatz 101 bildet einen gelabelten Ausgangstrainingsdatensatz, der handgeschriebene Zahlen des MNIST-Datensatz enthält. Der Datensatz 107 bildet einen Zieldatensatz und enthält Zahlen des MNIST-Datensatz, die gegenüber dem Ausgangstrainingsdatensatz 101 um 90° gedreht sind. Die Datensätze 103 und 105 bilden Zwischendatensätze, wobei der Datensatz 103 gegenüber dem Ausgangstrainingsdatensatz um 30° gedreht ist und der Trainingsdatensatz 105 gegenüber dem Ausgangstrainingsdatensatz um 60° gedreht ist.
  • Ziel eines Trainingsverfahrens ist es, ein künstliches neuronales Netzwerk, welches auf die Erkennung der Zahlen des Ausgangstrainingsdatensatz 101 trainiert ist, hinsichtlich der Erkennung von rotierten Zahlen aus dem Zieldatensatz und aus den Zwischendatensätzen anzulernen. Hierfür wird das künstliche neuronale Netzwerk schrittweise, ausgehend von den Zwischendatensätzen, trainiert, bis die Drehung des Zieldatensatzes erreicht wurde.
  • Für das Training lassen sich mehrere Koeffizienten festlegen, die sich auf die Performanz des Verfahrens auswirken. Der Einfluss der verschiedenen Koeffizienten ist in 2 erläutert.
  • Mit diesem Trainingsverfahren lassen sich also mehrere KNN generieren, die auf die Erkennung von Zahlen mit einer spezifischen Rotation trainiert sind. Dabei kommt es jedoch zu einer Verschlechterung des Erkennungsergebnisses, wenn ein KNN mit Bilddaten gespeist wird, die einen Rotationswinkel aufweisen der sich von dem spezifischen Rotationswinkel, auf den das KNN trainiert ist, unterscheidet.
  • 2 zeigt drei Diagramme 201, 203, 205 zur Performanz jeweils eines Verfahrens, welches auf die Erkennung von Zahlen aus dem MNIST-Datensatz trainiert ist. Die Zahlen aus dem MNIST-Datensatz werden von einem trainierten künstlichen neuronalen Netzwerk erkannt.
  • Das künstliche neuronale Netzwerk, dessen Performanz in dem Diagramm 201 gezeigt ist, wurde 50-mal auf den MNIST-Ausgangstrainingsdatensatz trainiert. Zudem wurde das künstliche neuronale Netzwerk, dessen Performanz in dem Diagramm 201 gezeigt ist, zweimal auf jeden Zwischendatensatz trainiert. Ferner wurde das künstliche neuronale Netzwerk in jedem Zwischenschritt einmal auf den Ausgangstrainingsdatensatz 101 nachtrainiert. In dem Diagramm 201 beträgt die Schrittweite zwischen Trainingsdatensätzen 1°.
  • Die Kurven 21 der Diagramme 201, 203, 205 zeigen jeweils die Performanz des künstlichen neuronalen Netzwerks in dem Ausgangstrainingsdatensatz, der nicht rotiert ist. Auf der X-Achse ist die Drehung in Grad angetragen, auf die das KNN trainiert wurde. Die Kurven 22 zeigen jeweils die Performanz des künstlichen neuronalen Netzwerks für den Zwischendatensatz, der gegenüber dem Ausgangstrainingsdatensatz um 10° gedreht ist. Die Kurven 23 zeigen jeweils die Performanz des künstlichen neuronalen Netzwerks für den Zwischendatensatz, der gegenüber dem Ausgangstrainingsdatensatz um 20° gedreht ist. Die Kurven 24 zeigen jeweils die Performanz des künstlichen neuronalen Netzwerks für den Zwischendatensatz, der gegenüber dem Ausgangstrainingsdatensatz um 30° gedreht ist. Die Kurven 25 zeigen jeweils die Performanz des künstlichen neuronalen Netzwerks für den Zwischendatensatz, der gegenüber dem Ausgangstrainingsdatensatz um 40° gedreht ist. Die Kurven 26 zeigen jeweils die Performanz des künstlichen neuronalen Netzwerks für den Zwischendatensatz, der gegenüber dem Ausgangstrainingsdatensatz um 50° gedreht ist. Die Kurven 27 zeigen jeweils die Performanz des künstlichen neuronalen Netzwerks für den Zwischendatensatz, der gegenüber dem Ausgangstrainingsdatensatz um 60° gedreht ist. Die Kurven 28 zeigen jeweils die Performanz des künstlichen neuronalen Netzwerks für den Zwischendatensatz, der gegenüber dem Ausgangstrainingsdatensatz um 70° gedreht ist. Die Kurven 29 zeigen jeweils die Performanz des künstlichen neuronalen Netzwerks für den Zwischendatensatz, der gegenüber dem Ausgangstrainingsdatensatz um 80° gedreht ist. Die Kurven 30 zeigen jeweils die Performanz des künstlichen neuronalen Netzwerks für den Zwischendatensatz, der gegenüber dem Ausgangstrainingsdatensatz um 90° gedreht ist.
  • Alle Diagramme 201, 203 und 205 zeigen, dass sich die Performanz eines künstlichen neuronalen Netzwerks so lange verbessert, bis das Netzwerk auf die Drehung des Datensatzes, auf welchem die Performanz geplottet ist, trainiert wurde. Danach verschlechtert sich die Performanz wieder. Beispielsweise steigt die Performanz der Kurven 25 in jeder Konfiguration so lange an bis das künstliche neuronale Netzwerk auf 40° trainiert wurde. Danach nimmt die Performanz in allen Konfigurationen wieder ab.
  • Folglich geht aus dem Diagramm 201 hervor, dass sich die Performanz auf dem Ausgangstrainingsdatensatz durch das Trainieren weiterer Zwischendatensätze etwas verschlechtert. Im Gegenzug wird für alle Zwischendatensätze und auch für den Zieldatensatz eine signifikante Verbesserung erreicht, jedoch ist auch ersichtlich, dass die Performanz auf den stärker gedrehten Zwischendatensätzen bzw. auf den Zieldatensatz nicht annähernd die gleiche Güte wie jene des Ausgangstrainingsdatensatz erreicht. Dieser Effekt kann in dem Diagramm 201 durch das Training allenfalls abgemildert werden.
  • Die Erfindung sieht stattdessen vor, diesen nachteiligen Effekt durch die Auswahl eines geeigneten KNN zu beheben.
  • Die künstlichen neuronalen Netzwerke, deren Performanz in dem Diagramm 203 gezeigt ist, wurden 50-mal auf den MNIST-Ausgangstrainingsdatensatz trainiert. Zudem wurden die künstlichen neuronalen Netzwerke, deren Performanz in dem Diagramm 203 gezeigt ist, sechsmal auf jeden Zwischendatensatz trainiert. Ferner wurden die künstlichen neuronalen Netzwerke in jedem Zwischenschritt dreimal auf den Ausgangstrainingsdatensatz 101 nachtrainiert. In dem Diagramm 203 beträgt die Schrittweite zwischen Trainingsdatensätzen 1°.
  • Im Gegensatz zu dem Diagramm 201 wird in dem Diagramm 203, die Performanz auf dem Ausgangstrainingsdatensatz bzw. auf den frühen Zwischentrainingsdatensätzen mit zunehmender Drehung der Zwischendatensätze, auf die das KNN trainiert wird, deutlich schlechter. Im Gegenzug dazu ist die erreichte Performanz jedoch auf den Zwischendatensätzen bis ca. 70° gegenüber dem Diagramm 201 deutlich verbessert.
  • Die künstlichen neuronalen Netzwerke, deren Performanz in dem Diagramm 205 gezeigt ist, wurden 50-mal auf den MNIST-Ausgangstrainingsdatensatz trainiert. Zudem wurden die künstlichen neuronalen Netzwerke einmal auf jeden Zwischendatensatz trainiert. Während des Trainings auf die Zwischendatensätze wurden die künstlichen neuronalen Netzwerke nicht auf den Ausgangstrainingsdatensatz nachtrainiert. Die Schrittweite beträgt 0,1°.
  • Dementsprechend ist die Performanz der künstlichen neuronalen Netzwerke zwischen den einzelnen Trainingsdatensätzen symmetrisch. D. h., das künstliche neuronale Netzwerk, welches auf den Ausgangstrainingsdatensatz trainiert ist, startet mit einer sehr guten Performanz für den Ausgangstrainingsdatensatz bzw. mit einer schlechten Performanz für den Zieldatensatz. Am Ende des Trainings ist die Performanz gespiegelt, d. h. die Performanz auf dem Zieldatensatz ist sehr gut, entsprechend der Performanz auf dem Ausgangstrainingsdatensatz, bevor das künstliche neuronale Netzwerk auf die Zwischendatensätze trainiert wurde. Im Gegenzug ist die Performanz auf dem Ausgangstrainingsdatensatz, nachdem das künstliche neuronale Netzwerk auf die Zwischendatensätze und den Zieldatensatz trainiert wurde entsprechend der Performanz auf dem Zieldatensatz, bevor das künstliche neuronale Netzwerk auf den Zieldatensatz und auf die Zwischendatensätze trainiert wurde.
  • 3 zeigt ein Blockdiagramm gemäß einer Ausführungsform eines Verfahrens zum Verarbeiten von Sensordaten gemäß einer Ausführungsform der Erfindung. In dem Schritt S1 werden Sensordaten mittels eines ersten künstlichen neuronalen Netzwerks verarbeitet. In dem Schritt S2 werden die Sensordaten oder die verarbeiteten Sensordaten hinsichtlich sensorumgebungsbedingter Charakteristika klassifiziert. In dem Schritt S3 wird ein zweites künstliches neuronales Netzwerk aufgrund der klassifizierten sensorumgebungsbedingten Charakteristika ausgewählt. In dem Schritt S4 werden die verarbeiteten Sensordaten mittels des zweiten künstlichen neuronalen Netzwerks verarbeitet, um eine Schlussfolgerung aus den Sensordaten zu generieren.
  • Bezugszeichenliste
  • 21
    Performanzkurve
    22
    Performanzkurve
    23
    Performanzkurve
    24
    Performanzkurve
    25
    Performanzkurve
    26
    Performanzkurve
    27
    Performanzkurve
    28
    Performanzkurve
    29
    Performanzkurve
    30
    Performanzkurve
    101
    Trainingsdatensatz.
    103
    Trainingsdatensatz.
    105
    Trainingsdatensatz.
    107
    Trainingsdatensatz
    201
    Diagramm
    203
    Diagramm
    205
    Diagramm
    S1-S4
    Verfahrensschritte
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102019211672 A1 [0002]

Claims (7)

  1. Verfahren zum Verarbeiten von Sensordaten, welche sich hinsichtlich eines oder mehrerer sensorumgebungsbedingter Charakteristika unterscheiden, mit den folgenden Schritten: - Verarbeiten (S1) der Sensordaten mittels eines ersten künstlichen neuronalen Netzwerks zu verarbeiteten Sensordaten; - Klassifizieren (S2) der Sensordaten oder der verarbeiteten Sensordaten hinsichtlich sensorumgebungsbedingter Charakteristika; - Auswählen (S3) eines zweiten künstlichen neuronalen Netzwerks aufgrund der klassifizierten sensorumgebungsbedingten Charakteristika; - Verarbeiten (S4) der verarbeiteten Sensordaten mittels des zweiten künstlichen neuronalen Netzwerks, um eine Schlussfolgerung aus den Sensordaten zu generieren.
  2. Verfahren zum Verarbeiten von Sensordaten nach Anspruch 1, wobei das erste künstliche neuronale Netzwerk und das zweite künstliche neuronale Netzwerk jeweils ein Subnetz eines dritten künstlichen neuronalen Netzwerks bilden.
  3. Verfahren zum Verarbeiten von Sensordaten nach Anspruch 2, wobei das erste künstliche neuronale Netzwerk eine Eingangsschicht des dritten künstlichen neuronalen Netzwerks aufweist.
  4. Verfahren zum Verarbeiten von Sensordaten nach Anspruch 2 oder 3, wobei das zweite künstliche neuronale Netzwerk eine Ausgangsschicht des dritten künstlichen neuronalen Netzwerks aufweist.
  5. Verfahren zum Verarbeiten von Sensordaten nach Anspruch 3 oder 4, wobei die Sensordaten als optische Sensordaten ausgebildet sind und das erste künstliche neuronale Netzwerk eine Detektion grafischer Merkmale, insbesondere Kantendetektion, gewährleistet.
  6. Datei umfassend eine Topologie eines ersten künstlichen neuronalen Netzwerks, welches eingerichtet ist Sensordaten zu verarbeiten, und jeweils eine Topologie einer Vielzahl zweiter künstlicher neuronaler Netzwerke, wobei jedes der zweiten künstlichen neuronalen Netzwerke eingerichtet ist, die verarbeiteten Sensordaten weiterzuverarbeiten, wenn ein bestimmtes zweites künstliches neuronales Netzwerk aus der Vielzahl der zweiten künstlichen neuronalen Netzwerke ausgewählt wurde.
  7. Computerprogrammprodukt, das ausgeführt ist, in einen Speicher eines Computers geladen zu werden und das Softwarecodeabschnitte umfasst, mit denen die Schritte des Verfahrens nach einem der vorstehenden Ansprüche 1-5 ausgeführt werden, wenn das Computerprogrammprodukt auf dem Computer läuft.
DE102020200998.8A 2020-01-28 2020-01-28 Verarbeiten von Sensordaten Pending DE102020200998A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102020200998.8A DE102020200998A1 (de) 2020-01-28 2020-01-28 Verarbeiten von Sensordaten

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020200998.8A DE102020200998A1 (de) 2020-01-28 2020-01-28 Verarbeiten von Sensordaten

Publications (1)

Publication Number Publication Date
DE102020200998A1 true DE102020200998A1 (de) 2021-07-29

Family

ID=76753407

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020200998.8A Pending DE102020200998A1 (de) 2020-01-28 2020-01-28 Verarbeiten von Sensordaten

Country Status (1)

Country Link
DE (1) DE102020200998A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022201702A1 (de) 2022-02-18 2023-08-24 Zf Friedrichshafen Ag Computerimplementiertes Verfahren zum Absichern eines Maschinenlernmodells gegen eine Einsatzverlagerung, Computerprogramm, Datenträgersignal und automatisiertes Transportsystem zum Transportieren von Personen und/oder Gegenständen

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019211672A1 (de) 2019-08-02 2021-02-04 Zf Friedrichshafen Ag Trainingsverfahren für ein künstliches neuronales Netzwerk

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019211672A1 (de) 2019-08-02 2021-02-04 Zf Friedrichshafen Ag Trainingsverfahren für ein künstliches neuronales Netzwerk

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102022201702A1 (de) 2022-02-18 2023-08-24 Zf Friedrichshafen Ag Computerimplementiertes Verfahren zum Absichern eines Maschinenlernmodells gegen eine Einsatzverlagerung, Computerprogramm, Datenträgersignal und automatisiertes Transportsystem zum Transportieren von Personen und/oder Gegenständen

Similar Documents

Publication Publication Date Title
DE202017102238U1 (de) Aktorsteuerungssystem
DE202017102235U1 (de) Trainingssystem
DE3937950C2 (de)
EP0523407B1 (de) Verfahren zur Klassifikation von Signalen
WO2005048195A2 (de) Verfahren zur korrespondenzanalyse in bilddatensätzen
DE102017218889A1 (de) Unscharf parametriertes KI-Modul sowie Verfahren zum Betreiben
CH627571A5 (de) Vorrichtung und verfahren zur bestimmung charakteristischer einzelheiten in einem elektronisch abgetasteten bildmuster.
DE102019127282A1 (de) System und Verfahren zum Analysieren einer dreidimensionalen Umgebung durch tiefes Lernen
DE102017006155A1 (de) Verfahren zum Betreiben eines Sensorsystems eines Fahrzeugs
DE102019211672A1 (de) Trainingsverfahren für ein künstliches neuronales Netzwerk
EP3291172A1 (de) Verfahren zur ermittlung von ergebnisbilddaten
DE102018109276A1 (de) Bildhintergrundsubtraktion für dynamische beleuchtungsszenarios
DE3939621C2 (de) Verfahren und Vorrichtung zur Erfassung von Markendaten in Bilddaten
DE102020200998A1 (de) Verarbeiten von Sensordaten
EP2064672A2 (de) Verfahren und vorrichtung zur bildverarbeitung
DE102019204602B4 (de) Verfahren und Vorrichtung zur Maskierung von in einem Bild enthaltenen Objekten
DE102020208474A1 (de) Messung der Empfindlichkeit von Klassifikatoren anhand zusammenwirkender Störungen
DE102019213009A1 (de) Aufbereitung von Radarsignalen mit Unterdrückung von Bewegungsartefakten
EP0978052B1 (de) Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz
EP0693200B1 (de) Verfahren zur klassifizierung von objekten
DE102021204040A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erstellung von Trainingsdaten im Fahrzeug
DE19834718C2 (de) Digitale Bildverarbeitung für ein Qualitätskontrollsystem
DE102021201833A1 (de) Vorrichtung zur Verarbeitung von mindestens einem Eingangsdatensatz unter Verwendung eines neuronalen Netzes sowie Verfahren
DE102020212366A1 (de) Transformieren von Messdaten zwischen verschiedenen Konfigurationen von Messsystemen
DE102007025620A1 (de) Vorrichtung zur Bestimmung einer Objekt- und/oder Existenzwahrscheinlichtkeit eines Suchobjekts in einem Auslesefenster eines Bildes, Verfahren sowie Computerprogramm

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R081 Change of applicant/patentee

Owner name: ZF FRIEDRICHSHAFEN AG, DE

Free format text: FORMER OWNER: ZF FRIEDRICHSHAFEN AG, 88046 FRIEDRICHSHAFEN, DE

R016 Response to examination communication