DE102018203092A1 - Verfahren, Vorrichtung und Computerprogramm zum Anlernen eines maschinellen Lernsystems - Google Patents

Verfahren, Vorrichtung und Computerprogramm zum Anlernen eines maschinellen Lernsystems Download PDF

Info

Publication number
DE102018203092A1
DE102018203092A1 DE102018203092.8A DE102018203092A DE102018203092A1 DE 102018203092 A1 DE102018203092 A1 DE 102018203092A1 DE 102018203092 A DE102018203092 A DE 102018203092A DE 102018203092 A1 DE102018203092 A1 DE 102018203092A1
Authority
DE
Germany
Prior art keywords
machine learning
learning system
activation
characterizing
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018203092.8A
Other languages
English (en)
Inventor
Christoph Schorn
Stefan GEHRER
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102018203092.8A priority Critical patent/DE102018203092A1/de
Priority to CN201910151665.5A priority patent/CN110222845A/zh
Publication of DE102018203092A1 publication Critical patent/DE102018203092A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Abstract

Die Erfindung betrifft ein Verfahren zum Anlernen eines maschinellen Lernsystems (12). Das maschinelle Lernsystem (12) ermittelt eine Ausgangsgröße mittels Propagation einer Eingangsgröße des maschinellen Lernsystems entlang einer Mehrzahl von Pfaden durch das maschinelle Lernsystem (12) abhängig von Aktivierungen einer Mehrzahl von Abschnitten der jeweiligen Pfade. Die Aktivierung eines jeden Abschnittes wird abhängig von einer diesem Abschnitt zugeordneten das maschinelle Lernsystem charakterisierenden Größe und abhängig von einer diesem Abschnitt zugeordneten Aktivierungsfunktion ermittelt. Das Verfahren umfasst die Schritte: Ermitteln von Ausgangsgrößen des maschinellen Lernsystems (12). Anpassen wenigstens einer der das maschinelle Lernsystem charakterisierenden Größen (23) in Abhängigkeit von einer den Lernfortschritt charakterisierenden Kostenfunktion. Die Erfindung betrifft ferner ein Computerprogramm und eine Vorrichtung zum Ausführen des Verfahrens und ein maschinenlesbares Speicherelement (12), auf dem das Computerprogramm gespeichert ist.

Description

  • Technisches Gebiet
  • Die Erfindung betrifft ein Verfahren und eine Vorrichtung zum Anlernen eines maschinellen Lernsystems. Ebenso betrifft die Erfindung ein Computerprogramm und ein maschinenlesbares Speicherelement.
  • Stand der Technik
  • Die DE 10 2005 050 577 A1 offenbart ein Verfahren zum Prüfen eines neuronalen Netzes für eine Steuerungsvorrichtung. Das neuronale Netz weist eine Mehrzahl von ersten Neuronen in einer ersten Schicht und ein zweites Neuron in einer zweiten Schicht auf. Aus einer vorgegebenen Mehrzahl von Testsignalkombinationen wird jede Testsignalkombination ausgewählt. Die Testsignalkombination wird an die ersten Neuronen angelegt und das Ausgangssignal des zweiten Neurons wird erfasst. Ein Gesamtprüfsignal wird ausgegeben, nachdem jede der Testsignalkombinationen angelegt wurde.
  • Vorteile der Erfindung
  • Während des Betriebes eines neuronalen Netzes können Signalstörungen innerhalb des neuronalen Netzes auftreten, die zu einer Falschklassifikation führen können. Dies kann bei sicherheitskritischen Anwendungen schwerwiegende Folgen haben, beispielsweise wenn die Anwesenheit eines Fahrzeuges in einer Verkehrsszene mittels des durch eine Signalstörung beeinträchtigten neuronalen Netzes nicht realitätsgemäß detektiert werden kann. Das Verfahren mit den Merkmalen des unabhängigen Anspruchs 1 hat demgegenüber den Vorteil, dass das neuronale Netz während des Trainings angelernt wird, mit Signalstörungen während des Betriebes des neuronalen Netzes umgehen zu können. Ein weiterer Vorteil ist, dass das neuronale Netz in Umgebungen mit hoher Strahlenexposition betrieben werden kann, da dieses mit hervorgerufenen Störungen durch hochenergetischer Strahlung umgehen kann.
  • Vorteilhafte Weiterbildungen sind Gegenstand der unabhängigen Ansprüche.
  • Offenbarung der Erfindung
  • In einem ersten Aspekt betrifft die Erfindung ein Verfahren zum Anlernen eines maschinellen Lernsystems. Das maschinelle Lernsystem ermittelt eine Ausgangsgröße mittels Propagation einer Eingangsgröße des maschinellen Lernsystems entlang einer Mehrzahl von Pfaden durch das maschinelle Lernsystem abhängig von Aktivierungen einer Mehrzahl von Abschnitten der jeweiligen Pfade. Die Aktivierung eines jeden Abschnittes wird abhängig von einer diesem Abschnitt zugeordneten das maschinelle Lernsystem charakterisierenden Größe und abhängig von einer diesem Abschnitt zugeordneten Aktivierungsfunktion ermittelt. Das Verfahren umfasst die Schritte:
    • Ermitteln von Ausgangsgrößen des maschinellen Lernsystems abhängig von bereitgestellten Trainingseingangsgrößen. Beim Ermitteln zumindest einer der Ausgangsgrößen wird zumindest eine Aktivierung einer der Abschnitte abhängig von einer Störgröße verändert, insbesondere erhöht oder gedämpft.
    • Anpassen wenigstens einer der das maschinelle Lernsystem charakterisierenden Größen in Abhängigkeit von einer den Lernfortschritt charakterisierenden Kostenfunktion.
  • Unter einer Störgröße kann eine Größe verstanden werden, die verwendet wird, um z.B. die Aktivierung des maschinellen Lernsystems abhängig von dieser Größe zu verändern. Die Veränderung der Aktivierung kann zu einer unerwünschten Beeinträchtigung oder zu einem fehlerhaften Verhalten, insbesondere Ermitteln einer falschen Ausgangsgröße, des maschinellen Lernsystems führen. Es sei angemerkt, dass das Verändern der Aktivierung abhängig von der Störgröße nicht zu einer Änderung der Struktur des maschinellen Lernsystems führt, sondern Signalveränderungen herbeiführt, wie zum Beispiel eine Verstärkung oder Dämpfung einer Aktivierung des maschinellen Lernsystems. Unter einer Dämpfung wird im Folgenden verstanden, dass sie zu einer Verminderung einer Aktivierung des maschinellen Lernsystems führt, ohne dass die gesamte Information der Aktivierung durch die Verminderung der Aktivierung verloren geht.
  • Dieses Verfahren weist den Vorteil auf, dass das maschinelle Lernsystem während des Anlernens lernt, mit Störungen innerhalb des maschinellen Lernsystems umzugehen. Denn während des Anlernens kann sich das maschinelle Lernsystem Strategien aneignen, um mit Fehlern im Betrieb besser umgehen zu können. Ein weiterer Vorteil dieses Verfahrens ist, dass mittels der verwendeten Störgröße während des Anlernens eine Überanpassung des maschinellen Lernsystems auf die Trainingsdaten vermieden werden kann. Ein weiterer Vorteil ist, dass das Verfahren mit Ansätzen des (un-)überwachten maschinellen Lernens, insbesondere mit unterschiedlichen Zusammensetzungen der den Lernfortschritt charakterisierenden Kostenfunktion dieser Ansätze, kompatibel ist.
  • In einer Weiterentwicklung des Verfahrens wird dann, wenn eine der Aktivierungen einen Wert kleiner als ein vorgebbarer Wert aufweist, diese Aktivierung abhängig von der Störgröße erhöht. Ferner wird dann, wenn eine der Aktivierungen einen Wert größer als ein weiterer vorgebbarer Wert aufweist, diese Aktivierung abhängig von der Störgröße gedämpft. Der vorgebbare Wert ist kleiner als der weitere vorgebbare Wert.
  • Die Störgröße kann mittels dieser Weiterentwicklung gezielt bei kleinen Aktivierungen, insbesondere kleinen der das maschinelle Lernsystem charakterisierenden Größen, platziert werden, da diese anfälliger gegenüber Störungen sind und sobald bei diesen eine Störung auftritt, Falschklassifikationen hervorgerufen werden können. Der Vorteil dieser Weiterentwicklung ist daher, dass durch das Anlernen des maschinellen Lernsystems an seinen empfindlichen Stellen, das maschinelle Lernsystem besonders robust gegenüber Störungen wird.
  • Vorzugsweise kann ein Wert der Störgröße zufällig gewählt werden, beispielsweise abhängig von einer vorgebbaren Wahrscheinlichkeitsverteilung. Dadurch liegt keine statische Störung vor, welche sich das maschinelle Lernsystem beim Anlernen als Muster merken könnte und damit nicht robust gegenüber zufällig auftretende Störungen wird.
  • Ferner wird vorgeschlagen, das beim Ermitteln zumindest einer der Ausgangsgrößen die Aktivierung mittels einer Bitkipper-Operation verändert wird. Unter einer Bitkipper-Operation kann verstanden werden, dass im Binärsystem ein vorgebbarer Stellenwert, bevorzugt ein zufällig gewähltes Bit, des Wertes der Aktivierung verändert wird. Dies ermöglicht es, dass mittels der Bitkipper-Operation auch Störungen in der Hardware, insbesondere auf binärer Ebene, nachgebildet und zum Anlernen des maschinellen Lernsystem verwendet werden können.
  • In einem weiteren Aspekt betrifft die Erfindung ein Computerprogramm, welches eingerichtet ist, eines der vorherigen genannten Verfahren auszuführen, also Anweisungen umfasst, die einen Computer veranlassen, eines dieser genannten Verfahren mit all seinen Schritten auszuführen, wenn das Computerprogramm auf dem Computer abläuft, ein maschinenlesbares Speichermodul, auf welchem das Computerprogramm gespeichert ist und eine Vorrichtung, insbesondere den Computer, die eingerichtet ist, eines der genannten Verfahren auszuführen.
  • Ausführungsbeispiele der vorliegenden Erfindung sind in den beiliegenden Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Dabei zeigen:
  • Figurenliste
    • 1 eine schematische Darstellung eines zumindest teilautonomen Fahrzeuges;
    • 2 eine schematische Darstellung eines tiefen neuronalen Netzes, mit eingetragenem Ausbreitungspfad eines Signals innerhalb des tiefen neuronalen Netzes und eine schematische Darstellung eines tiefen neuronalen Netzes mit einer Störung und einem Ausbreitungspfad dieser Störung;
    • 3 eine schematische Darstellung einer Ausführungsform des erfindungsgemäßen Verfahrens;
    • 4 eine schematische Darstellung einer Vorrichtung zum Anlernen eines maschinellen Lernsystems.
  • 1 zeigt eine schematische Darstellung eines zumindest teilautonomen Roboters, der im Ausführungsbeispiel gegeben ist durch ein zumindest teilautonomes Fahrzeug (10). In einem weiteren Ausführungsbeispiel kann der zumindest teilautonome Roboter ein Service-, Montage- oder stationärer Produktionsroboter sein. Das zumindest teilautonome Fahrzeug (10) kann eine Erfassungseinheit (11) umfassen. Die Erfassungseinheit (11) kann zum Beispiel eine Kamera sein, welche eine Umgebung des Fahrzeugs (10) erfasst. Die Erfassungseinheit (11) kann mit einem maschinellen Lernsystem (12) verbunden sein. Das maschinelle Lernsystem (12) ermittelt abhängig von einer bereitgestellten Eingangsgröße, z.B. mittels der Erfassungseinheit (11), und in Abhängigkeit einer Mehrzahl von das maschinelle Lernsystem charakterisierenden Größen eine Ausgangsgröße. Die Ausgangsgröße kann an eine Aktorsteuerungseinheit (13) weitergeleitet werden. Die Aktorsteuerungseinheit (13) kann in Abhängigkeit der Ausgangsgröße des maschinellen Lernsystems (12) einen Aktor ansteuern. Der Aktor kann beispielsweise ein Motor des Fahrzeugs (10) sein.
  • In einem weiteren Ausführungsbeispiel umfasst die Aktorsteuerungseinheit (13) ein Freigabesystem. Das Freigabesystem entscheidet, ob ein Objekt, z.B. ein erfasster Roboter oder eine erfasste Person, Zugang zu einem Bereich hat, abhängig von der Ausgangsgröße des maschinellen Lernsystems (12). Vorzugsweise kann der Aktor abhängig von einer Entscheidung des Freigabesystems angesteuert werden.
  • Ferner umfasst das Fahrzeug (10) eine Recheneinheit (14) und ein maschinenlesbares Speicherelement (15).
  • Auf dem Speicherelement (15) kann ein Computerprogramm gespeichert sein, welches Befehle umfasst, die beim Ausführen der Befehle auf der Recheneinheit (14) dazu führen, dass die Recheneinheit (14) das erfindungsgemäße Verfahren ausführt. Denkbar ist auch, dass ein Downloadprodukt oder ein künstlich generiertes Signal, die jeweils das Computerprogramm umfassen können, nach Empfangen an einem Empfänger des Fahrzeugs (10) die Recheneinheit (14) veranlassen, das erfindungsgemäße Verfahren auszuführen.
  • In einer weiteren Ausführungsform wird das maschinelle Lernsystem (12) in einem Messsystem verwendet, welches nicht in den Figuren dargestellt ist. Das Messsystem unterscheidet sich zu dem Roboter nach 1 dahingehend, dass das Messsystem keine Aktorsteuerungseinheit (13) umfasst. Das Messsystem kann die Ausgangsgröße des maschinellen Lernsystems (12) statt sie an die Aktorsteuerungseinheit (13) zu weiterzuleiten abspeichern oder darstellen, beispielsweise mittels visueller oder auditiver Darstellungen.
  • Es ist auch denkbar, dass in einer Weiterentwicklung des Messsystems die Erfassungseinheit (11) ein Bild eines menschlichen oder tierischen Körpers oder eines Teils davon erfasst. Beispielsweise kann dies mittels eines optischen Signals erfolgen, oder mittels eines Ultraschallsignals, oder mittels eines MRT/CT-Verfahrens. Das Messsystem kann in dieser Weiterentwicklung ein maschinelle Lernsystem umfassen, das derart angelernt ist, abhängig von der Eingangsgröße eine Klassifikation auszugeben, z.B. welches Krankheitsbild auf Basis diese Eingangsgröße möglicherweise vorliegt.
  • Das maschinelle Lernsystem (12) kann ein tiefes neuronales Netz (20a) umfassen.
  • 2 zeigt eine schematische Darstellung eines solchen tiefen neuronalen Netzes (20a). Das tiefe neuronale Netz (20a) umfasst eine Mehrzahl von Schichten, wobei eine jede Schicht aus einer Mehrzahl von Neuronen (22) besteht. Die Schichten sind wenigstens mittelbar mittels einer Mehrzahl von Verbindungen (23) miteinander verknüpft. Die Verbindung (23) kann einen Abschnitt eines Pfades durch das tiefe neuronale Netz darstellen und kann mit einem Neuron einer nachfolgenden Schicht oder einer vorhergehenden Schicht verbunden sein. Das tiefe neuronale Netz (20a) ermittelt abhängig von einer Eingangsgröße (21) und einer einer jeden Verbindung (23) zugeordneten charakteristischen Größe, insbesondere den das maschinelle Lernsystem charakterisierenden Größen, eine Ausgangsgröße (25). Die Verbindungen weisen Aktivierungen auf, die jeweils abhängig von der jeweiligen der Verbindung zugeordneten charakteristischen Größe ermittelt werden können.
  • Das tiefe neuronale Netz (20a) zeigt beispielhaft einen Signalverlaufpfad (24), der große Aktivierungen an unterschiedlichen Abschnitten aufweist, einer Eingangsgröße (21), die durch das tiefe neuronale Netz (20a) propagiert wird. Typischerweise weisen in einem tiefen neuronalen Netz (20a) nur sehr wenige Signalverlaufpfade (24) große Aktivierungen auf. Deshalb können Pfade mit kleinen Aktivierungen durch eine Störung häufiger betroffen sein. Darüber hinaus beeinflussen Störungen von Signalverlaufpfaden mit kleineren Signalwerten die Ausgangsgröße (25) des tiefen neuronalen Netzes (20a) stärker, insbesondere wenn die Störungen die Signalwerte wesentlich erhöhen. Dies kann zu einer fehlerhaft ermittelten Ausgangsgröße (25) führen. Dieser Fall ist beispielhaft in dem tiefen neuronalen Netz (20b) dargestellt.
  • Beispielhaft kann in einem der Neuronen der vorletzten Schicht eine Signalstörung (26), z.B. ein Hardwarefehler durch Umwelteinwirkungen auftreten. Die Signalstörung (26) kann dazu führen, dass das gestörte Neuron eine große Ausgangsgröße ausgibt, die eine weitere große Aktivierung der nachfolgenden Schicht hervorruft und damit einen zusätzlichen die Ausgangsgröße (25) beeinflussenden Signalverlaufpfad (27) in dem tiefen neuronalen Netz (20b) entstehen lässt. Dieser zusätzliche Signalverlaufpfad (27) kann die Ausgangsgröße (25) negativ beeinflussen.
  • Es sei angemerkt, dass die schematische Signalstörung (26) in 2 nicht auf eine Signalstörung in einem Neuron oder einer Aktivierung beschränkt ist. Zusätzlich oder alternativ können die Störungen auch in der Eingangsgröße der Neuronen (22), in einer der abgespeicherten Werte, die jeweils einer Verbindung (23) zugeordnet sind, oder in der Eingangsgröße (21) des tiefen neuronalen Netzes auftreten.
  • 3 zeigt eine schematische Darstellung des Verfahrens (30) zum Betreiben eines maschinellen Lernsystem (12), welches robust gegenüber den oben genannten Signalstörungen ist.
  • Das Verfahren (30) beginnt mit Schritt 31. In Schritt 31 werden dem maschinellen Lernsystem (12) Trainingsdaten, beispielsweise gelabelte Bilder, bereitgestellt. Im anschließenden Schritt 32, werden abhängig von den Trainingsdaten Ausgangsgrößen zu den jeweiligen Trainingsdaten mittels des maschinellen Lernsystems (12) abhängig von den das maschinelle Lernsystem charakterisierenden Größen ermittelt. Während des Ermittelns der Ausgangsgrößen (25) wird in Schritt 32 eine Störgröße innerhalb des maschinellen Lernsystems (12) platziert, insbesondere eine Aktivierung einer der Pfade durch das maschinelle Lernsystem (12) abhängig von der Störgröße verändert.
  • Vorzugsweise wird die Störgröße bei einer der das maschinelle Lernsystem charakterisierenden Größen platziert, welche einen Wert kleiner als ein vorgebbaren Wert aufweist, da diese im Falle einer Störung einen starken Einfluss auf die Ausgangsgröße des maschinellen Lernsystems (12) haben kann. Bevorzugt wird die Störgröße innerhalb des maschinellen Lernsystems (12) an einer zufällig gewählten Position platziert.
  • Vorteilhafterweise wird die Aktivierung oder die das maschinelle Lernsystem charakterisierende Größe, bei der die Störgröße platziert wird, mit der Störgröße additiv oder multiplikativ beaufschlagt. Alternativ kann die das maschinelle Lernsystem charakterisierende Größe oder die Aktivierung auf den Wert der Störgröße gesetzt werden.
  • In einer weiteren Ausführungsform kann ein Wert der Störgröße ein vorher definierter oder ein maximal möglicher Wert oder ein zufällig gewählter Wert sein.
  • Ferner ist denkbar, dass die Aktivierung durch eine Bitkipper-Operation verändert wird. Eine Bitkipper-Operation kann beispielsweise derart realisiert werden, dass als Störgröße ein Bitstrom erzeugt wird, der nur an dem zu kippenden Bit den Wert „1“ aufweist. Die Aktivierung kann dann durch eine logische XOR-Verknüpfung mit dem Bitstrom verändert werden. Selbstverständlich ist es gleichwertig, unmittelbar den Wert des zu kippenden Bits in der Aktivierung zu ändern, also zu invertieren.
  • Wenn das maschinelle Lernsystem wenigstens ein tiefes neuronales Netz umfasst, kann zufällig gewählt werden, bei welchen Neuronen oder welchen Verbindungen die Störgröße platziert wird, insbesondere abhängig von der Störgröße verändert wird. Optional kann die Störgröße ausschließlich in vorgebbaren Abschnitten, insbesondere Schichten, des maschinellen Lernsystems (12) platziert werden, wodurch dem maschinellen Lernsystem (12) eine schichtweise Robustheit gegenüber Störungen angelernt werden kann. Zusätzlich oder alternativ kann die Anzahl der Störgrößen proportional zu der Anzahl der Neuronen (22) sein.
  • In einem zusätzlichen oder alternativen Ausführungsbeispiel kann das tiefe neuronale Netz eine Faltungsschicht (engl. Convolutional Layer) aufweisen. Die Aktivierungen der Faltungsschicht werden abhängig von zumindest einem Faltungskern und einer Eingangsgröße der Faltungsschicht ermittelt. Denkbar ist daher, dass abhängig von der Störgröße ein Element des Faltungskerns oder eine der ermittelten Aktivierungen verändert wird.
  • In einer weiteren Ausführungsform, in der das maschinelle Lernsystem wenigstens ein tiefes neuronales Netz umfasst, wird die Störgröße bevorzugt in einer Schicht platziert, welche den hinteren Teil des tiefen neuronalen Netzes bildet. Unter den hinteren Sichten können die Schichten verstanden werden, die unmittelbar mit dem Ausgang des tiefen neuronalen Netz verbunden sind. Das tiefe neuronale Netz ist hier besonders empfindlich gegenüber Störungen, da hier die Störungen durch weitere nachfolgende Schichten nicht kompensiert werden können.
  • Es sei angemerkt, dass diese Störungen nicht nur auf Hardwareebene beim Anlernen in Schritt 32 eingefügt werden können, sondern auch mittels Software beim Anlernen durch eine Störgröße simuliert werden können.
  • Nachdem Schritt 32 abgeschlossen wurde, folgt Schritt 33. In Schritt 33 wird in Abhängigkeit von einer Kostenfunktion eine Mehrzahl wenigstens eine der das maschinelle Lernsystem charakterisierenden Größen derart angepasst, dass das maschinelle Lernsystem (12) eine vorgebbare Aufgabe löst. Die Kostenfunktion kann abhängig von den Trainingsdaten und der dazugehörigen ermittelten Ausgangsgrößen (25) des maschinellen Lernsystems (12) sein. Vorzugsweise charakterisiert die Kostenfunktion den Lernfortschritt des maschinellen Lernsystems (12), in wie weit die ermittelten Ausgangsgrößen des maschinellen Lernsystems mit den Trainingsdaten übereinstimmen. Die vorgebbare Aufgabe kann zum Beispiel sein, die Eingangsgröße, insbesondere Kamerabilder der Erfassungseinheit (11), zu klassifizieren oder zu segmentieren. Vorzugsweise wird für das Anpassen der das maschinelle Lernsystem charakterisierenden Größen ein Optimierungsverfahren angewendet. Das Optimierungsverfahren kann zum Beispiel ein Gradientenabstiegsverfahren sein, welches die Kostenfunktion durch Anpassen der das maschinelle Lernsystem charakterisierenden Größen minimiert.
  • Optional können die das maschinelle Lernsystem charakterisierenden Größen, bei welchen die Störgröße platziert wurde, beim Anpassen vernachlässigt werden, sodass diese nicht unter dem Einfluss der Störgröße angepasst werden. Alternativ kann die Störgröße im Optimierungsverfahren berücksichtigt werden. Dies hat den vorteilhaften Effekt, dass die das maschinelle Lernsystem charakterisierenden Größen anschließend nicht abhängig von der Störgröße angepasst werden.
  • Nachdem das Anpassen der das maschinelle Lernsystem charakterisierenden Größen in Schritt 33 abgeschlossen wurde, folgt Schritt 34. In Schritt 34 wird abhängig von einer erfassten Eingangsgröße, die beispielsweise mittels der Erfassungseinheit (11) erfasst wurde, und in Abhängigkeit der angepassten der das maschinelle Lernsystem charakterisierenden Größen des angelernten maschinellen Lernsystems (12) eine Ausgangsgröße ermittelt. Abhängig von der Ausgangsgröße kann ein Aktor, insbesondere einen Motor des Fahrzeugs (10) mittels der Aktorsteuerungseinheit (13), angesteuert werden.
  • Damit endet das Verfahren (30). In einer zusätzlichen oder alternativen Ausführungsform kann das Verfahren (30) mit Schritt 32 oder 33 erneut durchgeführt werden, optional können diese Schritte mehrfach hintereinander wiederholt werden bis ein vorgebbares Abbruchkriterium erfüllt ist. Es versteht sich, dass das Verfahren nicht nur wie beschrieben vollständig in Software, sondern auch in Hardware oder in einer Mischform aus Software und Hardware implementiert sein kann.
  • 4 zeigt eine schematische Darstellung einer Vorrichtung (40) zum Anlernen des maschinellen Lernsystems (12), insbesondere zum Ausführen des Verfahrens (30). Die Vorrichtung (40) umfasst ein Trainingsmodul (41), das abhängig von Ausgangsgrößen des maschinellen Lernsystems (12) und bevorzugt mit vorgebbaren Trainingsdaten das maschinelle Lernsystem (12) anlernt. Während des Anlernens werden die das maschinelle Lernsystem charakterisierenden Größen, die in einem Speicher (42) hinterlegt sind, angepasst.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102005050577 A1 [0002]

Claims (10)

  1. Verfahren zum Anlernen eines maschinellen Lernsystems (12), wobei das maschinelle Lernsystem (12) eine Ausgangsgröße mittels Propagation einer Eingangsgröße des maschinellen Lernsystems entlang einer Mehrzahl von Pfaden durch das maschinelle Lernsystem (12) abhängig von Aktivierungen einer Mehrzahl von Abschnitten der jeweiligen Pfade ermittelt, wobei die Aktivierung eines jeden Abschnittes abhängig von einer diesem Abschnitt zugeordneten das maschinelle Lernsystem charakterisierenden Größe und abhängig von einer diesem Abschnitt zugeordneten Aktivierungsfunktion ermittelt wird, umfassend die Schritte: - Ermitteln von Ausgangsgrößen des maschinellen Lernsystems (12) abhängig von bereitgestellten Trainingseingangsgrößen, wobei beim Ermitteln zumindest einer der Ausgangsgrößen zumindest eine Aktivierung einer der Abschnitte abhängig von einer Störgröße verändert, insbesondere erhöht oder gedämpft, wird; - Anpassen wenigstens einer der das maschinelle Lernsystem charakterisierenden Größen (23) in Abhängigkeit von einer den Lernfortschritt charakterisierenden Kostenfunktion.
  2. Verfahren nach Anspruch 1, wobei dann, wenn eine der Aktivierungen einen Wert kleiner als ein vorgebbarer Wert aufweist, diese Aktivierung abhängig von der Störgröße erhöht wird, und wobei dann, wenn eine der Aktivierungen einen Wert größer als ein weiterer vorgebbarer Wert aufweist, diese Aktivierung abhängig von der Störgröße gedämpft wird, wobei der vorgebbare Wert kleiner als der weitere vorgebbare Wert ist.
  3. Verfahren nach einem der vorherigen Ansprüche, wobei ein Wert der Störgröße zufällig gewählt wird.
  4. Verfahren nach einem der vorherigen Ansprüche, wobei die Aktivierung mittels einer Bitkipper-Operation verändert wird.
  5. Verfahren nach einem der vorherigen Ansprüche, wobei das Anlernen des maschinellen Lernsystems (12) mehrmals wiederholt wird, wobei die Störgröße abhängig von der den Lernfortschritt charakterisierenden Kostenfunktion gewählt wird.
  6. Verfahren zum Ansteuern eines Aktors (10), umfassend die Schritte: - Anlernen eines maschinellen Lernsystems (12) nach einem der Ansprüche 1 bis 5, und - Ansteuern des Aktors (10) abhängig von einer ermitteln Ausgangsgröße des angelernten maschinellen Lernsystems (12).
  7. Verfahren nach Anspruch 6, wobei der Aktor (10) zumindest ein teilautonomer Roboter oder ein zumindest teilautonomes Fahrzeug ist.
  8. Computerprogramm, welches Befehle umfasst, die beim Ausführen des Computerprogramms auf einem Computer bewirken, dass das Verfahren nach einem der Ansprüche 1 bis 7 ausgeführt wird.
  9. Maschinenlesbares Speichermedium (15), auf dem das Computerprogramm nach Anspruch 8 gespeichert ist.
  10. Vorrichtung (40,14) die eingerichtet ist, eines der Verfahren nach Anspruch 1 bis 7 auszuführen.
DE102018203092.8A 2018-03-01 2018-03-01 Verfahren, Vorrichtung und Computerprogramm zum Anlernen eines maschinellen Lernsystems Pending DE102018203092A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102018203092.8A DE102018203092A1 (de) 2018-03-01 2018-03-01 Verfahren, Vorrichtung und Computerprogramm zum Anlernen eines maschinellen Lernsystems
CN201910151665.5A CN110222845A (zh) 2018-03-01 2019-02-28 用于训练机器学习系统的方法、设备和计算机程序

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018203092.8A DE102018203092A1 (de) 2018-03-01 2018-03-01 Verfahren, Vorrichtung und Computerprogramm zum Anlernen eines maschinellen Lernsystems

Publications (1)

Publication Number Publication Date
DE102018203092A1 true DE102018203092A1 (de) 2019-09-05

Family

ID=67622861

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018203092.8A Pending DE102018203092A1 (de) 2018-03-01 2018-03-01 Verfahren, Vorrichtung und Computerprogramm zum Anlernen eines maschinellen Lernsystems

Country Status (2)

Country Link
CN (1) CN110222845A (de)
DE (1) DE102018203092A1 (de)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005050577A1 (de) 2005-10-21 2007-05-03 Robert Bosch Gmbh Verfahren zum automatischen Überprüfen eines neuronalen Netzes für eine Steuerungsvorrichtung

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5777178B2 (ja) * 2013-11-27 2015-09-09 国立研究開発法人情報通信研究機構 統計的音響モデルの適応方法、統計的音響モデルの適応に適した音響モデルの学習方法、ディープ・ニューラル・ネットワークを構築するためのパラメータを記憶した記憶媒体、及び統計的音響モデルの適応を行なうためのコンピュータプログラム
US10289962B2 (en) * 2014-06-06 2019-05-14 Google Llc Training distilled machine learning models
US20160034814A1 (en) * 2014-08-01 2016-02-04 University Of Southern California Noise-boosted back propagation and deep learning neural networks
CN104966097B (zh) * 2015-06-12 2019-01-18 成都数联铭品科技有限公司 一种基于深度学习的复杂文字识别方法
CN106778583B (zh) * 2016-12-07 2019-12-17 北京理工大学 基于卷积神经网络的车辆属性识别方法与装置
CN106845487B (zh) * 2016-12-30 2020-04-17 佳都新太科技股份有限公司 一种端到端的车牌识别方法
CN107247949B (zh) * 2017-08-02 2020-06-19 智慧眼科技股份有限公司 基于深度学习的人脸识别方法、装置和电子设备

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005050577A1 (de) 2005-10-21 2007-05-03 Robert Bosch Gmbh Verfahren zum automatischen Überprüfen eines neuronalen Netzes für eine Steuerungsvorrichtung

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
KAMIURA, Naotake [et al.]: On a weight limit approach for enhancing fault tolerance of feedforward neural networks. In: IEICE Transactions on Information and Systems, 83-D, 2000, 11, S. 1931-1939. - ISSN 0916-8532. https://search.ieice.org/bin/summary.php?id=e83-d_11_1931 [abgerufen am 24.09.2018] *
Murray, Alan F.; Edwards, Peter J.: Synaptic Weight Noise During MLP Learning Enhances Fault-Tolerance, Generalization and Learning Trajectory. In: Advances in Neural Information Processing Systems 5, 1993, S. 491-498. http://papers.nips.cc/paper/682-synaptic-weight-noise-during-mlp-learning-enhances-fault-tolerance-generalization-and-learning-trajectory [abgerufen am 24.09.2018] *
Schmidhuber, Jürgen: Deep learning in neural networks: An overview. In: Neural Networks, 61, 2015, S. 85-117. - ISSN 0893-6080. https://doi.org/10.1016/j.neunet.2014.09.003 [abgerufen am 24.09.2018] *
Sum, John: Fault tolerant learning for neural networks: Survey, framework and future work. In: International Journal of Advanced Information Technologies, 2008, S. 1-19. http://citeseerx.ist.psu.edu/viewdoc/summary?doi=10.1.1.414.7850 [abgerufen am 24.09.2018] *
Sum, John; Ho, Kevin; Horejsi, Jaromir: Brief survey on online injecting fault / noise-based fault tolerant learning algorithms, 2009. URL: https://www.semanticscholar.org/paper/Brief-survey-on-online-injecting-fault-%2F-fault-Sum-Ho/cff122de009c30559fa17568a46ddbf37b61dabc [abgerufen am 24.09.2018] *

Also Published As

Publication number Publication date
CN110222845A (zh) 2019-09-10

Similar Documents

Publication Publication Date Title
DE102018128289A1 (de) Verfahren und vorrichtung für eine autonome systemleistung und zur einstufung
DE102019209462A1 (de) Verfahren zur Bestimmung eines Vertrauens-Wertes eines detektierten Objektes
DE102018208763A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines maschinellen Lernsystems
DE102017006260A1 (de) Verfahren zum Bestimmen von Detektionseigenschaften wenigstens eines Umgebungssensors in einem Fahrzeug und Fahrzeug, eingerichtet zur Durchführung eines solchen Verfahrens
DE102016206077A1 (de) Verfahren und Vorrichtung zum Bestimmen einer sicherheitskritischen Gierbewegung eines Fahrzeugs
DE102017201796A1 (de) Steuervorrichtung zum Ermitteln einer Eigenbewegung eines Kraftfahrzeugs sowie Kraftfahrzeug und Verfahren zum Bereitstellen der Steuervorrichtung
DE102019209463A1 (de) Verfahren zur Bestimmung eines Vertrauenswertes eines Objektes einer Klasse
DE102018203092A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Anlernen eines maschinellen Lernsystems
DE102018207220A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Detektieren eines Berechnungsfehlers oder einer Fehlfunktion
DE102021109126A1 (de) Verfahren zum Testen eines Produkts
DE102021202813A1 (de) Verfahren, Vorrichtung und Computerprogramm für eine Unsicherheitsbewertung einer Bildklassifikation
DE102021204040A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Erstellung von Trainingsdaten im Fahrzeug
DE102020212921A1 (de) Verfahren, Computerprogramm und Vorrichtung zum Bewerten einer Verwendbarkeit von Simulationsdaten
DE102021200789A1 (de) Computer-implementiertes Verfahren und Vorrichtung zur Manipulationserkennung für Abgasnachbehandlungssysteme mithilfe Verfahren künstlicher Intelligenz
DE102018203137A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Betreiben eines zumindest teilautonomen Fahrzeugs
EP3973466A1 (de) Verfahren zum funktionsspezifischen robustifizieren eines neuronalen netzes
DE102019207575A1 (de) Verfahren zum Beurteilen einer funktionsspezifischen Robustheit eines Neuronalen Netzes
DE102018205869A1 (de) Verfahren, Computersystem und Computerprogramm zum Steuern eines Aktors
EP3701428A1 (de) Verfahren und vorrichtung zum verbessern der robustheit eines maschinellen lernsystems
DE102021202782A1 (de) Verfahren zur Bestimmung zumindest einer Auffälligkeit in einem Bild einer Umgebung
DE102022209403A1 (de) Verfahren zum Überprüfen der Durchführung einer Prädiktionsaufgabe durch ein neuronales Netzwerk
DE102021132542A1 (de) Verfahren zum bereitstellen eines bit-flip-fehlerrobusten; perturbationsrobusten und komprimierten neuronalen netzes; computerprogramm; fahrerassistenzsystem
DE102021109128A1 (de) Verfahren zum Testen eines Produkts
DE102022205824A1 (de) Verfahren und Vorrichtung zum Trainieren eines neuronalen Netzes
DE102021212727A1 (de) Verfahren zum Erzeugen von Trainingsdaten zum Trainieren eines Algorithmus des maschinellen Lernens

Legal Events

Date Code Title Description
R163 Identified publications notified