DE19917957A1 - Neuronales Netzwerk - Google Patents

Neuronales Netzwerk

Info

Publication number
DE19917957A1
DE19917957A1 DE19917957A DE19917957A DE19917957A1 DE 19917957 A1 DE19917957 A1 DE 19917957A1 DE 19917957 A DE19917957 A DE 19917957A DE 19917957 A DE19917957 A DE 19917957A DE 19917957 A1 DE19917957 A1 DE 19917957A1
Authority
DE
Germany
Prior art keywords
weighting factors
neural network
neurons
connections
values
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19917957A
Other languages
English (en)
Inventor
Gebhard Thierer
Michael Trompf
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SEL Verteidigungssysteme GmbH
Original Assignee
SEL Verteidigungssysteme GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SEL Verteidigungssysteme GmbH filed Critical SEL Verteidigungssysteme GmbH
Priority to DE19917957A priority Critical patent/DE19917957A1/de
Publication of DE19917957A1 publication Critical patent/DE19917957A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • G01S7/417Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Remote Sensing (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Klassifizierung von Signalen oder symbolischen Informationen mittels eines neutonalen Netzwerks (1). Um eine einfache Wartung und Aktualisierung und eine einfache Variation der Struktur des neuronalen Netzwerks (1) zu ermöglichen, schlägt die Erfindung vor, dass DOLLAR A - die Struktur des neuronalen Netzwerks (1) von mindestens einem äußeren Parameter abhängt und an den äußeren Parameter während der Laufzeit durch Laden von Gewichtsfaktoren (w¶ij¶, w¶jk¶) angepasst wird; DOLLAR A - das neuronale Netzwerk (1) die Größe der maximal benötigten Struktur aufweist; DOLLAR A - zeitweise nicht benötigte Teile des neuronalen Netzwerks (1) inaktiviert werden, indem DOLLAR A È die Gewichtsfaktoren (w¶ij¶) von Verbindungen (8) zwischen Eingangsneuronen (2) und verborgenen Neuronen (6) des nicht benötigten Teils des neuronalen Netzwerks (1) auf Null gesetzt werden und/oder DOLLAR A È die Gewichtsfaktoren (w¶jk¶) von Verbindungen (8) zwischen den verborgenen Neuronen (6) und Ausgangsneuronen (4) des nicht benötigten Teils des neuronalen Netzwerks (1) auf Null gesetzt werden und/oder DOLLAR A È die Gewichtsfaktoren (w¶jk¶) der Verbindungen (8) zwischen den verborgenen Neuronen (6) und den Ausgangsneuronen (4) des nicht benötigten Teils des neuronalen Netzwerks (1) auf einen hohen negativen Wert gesetzt werden.

Description

Die vorliegende Erfindung betrifft ein neuronales Netzwerk.
Neuronale Netzwerke finden häufig Anwendung, um Signale oder symbolische Informationen zu klassifizieren. Ein neuronales Netzwerk weist in der Regel einen oder mehrere Eingangsneuronen auf, die in einer Eingangsschicht angeordnet sind. Über neuronale Verbindungen sind die Eingangsneuronen mit verborgenen Neuronen verbunden, die in einer oder mehreren der Eingangsschicht nachgeordneten verborgenen Schichten angeordnet sind. Die verborgenen Neuronen wiederum sind über weitere neuronale Verbindungen mit einem oder mehreren Ausgangsneuronen verbunden, die in einer der verborgenen Schicht nachgeordneten Ausgangsschicht angeordnet sind.
Die Struktur des neuronalen Netzes kann nahezu beliebig variiert und dem gewünschten Anwendungsfall (d. h. bestimmten äußeren Parametern) angepasst werden. Dem neuronalen Netzwerk können unterschiedliche Klassifizierungseigenschaften gegeben werden, indem die Verbindungen zwischen den Eingangsneuronen und den verborgenen Neuronen und die Verbindungen zwischen den verborgenen Neuronen und den Ausgangsneuronen durch Gewichtungsfaktoren gewichtet werden. In Abhängigkeit von den Werten der Gewichtungsfaktoren ändert sich die Klassifizierungseigenschaft des neuronalen Netzwerks.
Es ist denkbar, ein neuronales Netzwerk hardwaremäßig zu realisieren. In der Regel erfolgt die Implementierung von neuronalen Netzwerken jedoch mittels entsprechender Software. Um den Ablauf des Softwareprogramms während der Laufzeit des Klassifizierungsvorgangs steuern zu können, ist es erforderlich, dass neuronale Netzwerke der gleichen Art (z. B. Mehrschicht-Perceptron), aber mit unterschiedlichen Strukturen im Echtzeitbetrieb laufen können. In Abhängigkeit von äußeren Parametern wird dann eines der unterschiedlich strukturierten neuronalen Netzwerke ausgewählt.
Es ist bekannt, unterschiedlich strukturierte neuronale Netzwerke in verschiedenen Programmodulen zu codieren. Während der Laufzeit des Klassifizierungsvorgangs wird zwischen den einzelnen Programmodulen umgeschaltet und das entsprechende Programmodul ausgewählt. Die Wartung und die Aktualisierung einer solchen Gruppe unterschiedlicher Programmodule ist sehr aufwendig und schwierig. Das liegt insbesondere daran, dass die einzelnen Programmodule nicht isoliert aktualisiert werden können, sondern stets in Zusammenhang mit den anderen Programmodulen gesehen und auf diese abgestimmt werden müssen (z. B. im Hinblick auf die Schnittstellen zwischen den einzelnen Programmodulen).
Es ist des Weiteren bekannt, dass unterschiedlich strukturierte neuronale Netzwerke in einem einzigen Programm mit einer Vielzahl von Wenn-Dann-Abfragen (if- then-Abfragen), Verzweigungen und Schleifen codiert sind. Eine derartige Codierung ist sehr kompliziert und aufwendig. Die Verarbeitung eines derart komplizierten Programms ist sehr langsam im Vergleich zu einer sequentiellen, d. h. einer starr fortlaufenden, Programmierung mit möglichst wenig Wenn-Dann-Abfragen, Verzweigungen und Schleifen.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein neuronales Netzwerk für die Klassifizierung von Signalen oder symbolischen Informationen zu schaffen, das eine einfache Wartung und Aktualisierung und gleichzeitig eine relativ schnelle Verarbeitung ermöglicht.
Zur Lösung dieser Aufgabe schlägt die Erfindung ein Verfahren zur Klassifizierung von Signalen oder symbolischen Informationen mittels eines neuronalen Netzwerks vor,
  • - wobei die Struktur des neuronalen Netzwerks von mindestens einem äußeren Parameter abhängt und an den äußeren Parameter während der Laufzeit durch Laden von Gewichtungsfaktoren angepasst wird;
  • - wobei das neuronale Netzwerk die Größe der maximal benötigten Struktur aufweist;
  • - wobei zeitweise nicht benötigte Teile des neuronalen Netzwerks inaktiviert werden, indem
    • - die Gewichtungsfaktoren von Verbindungen zwischen Eingangsneuronen und verborgenen Neuronen des nicht benötigten Teils des neuronalen Netzwerks auf Null gesetzt werden und/oder
    • - die Gewichtungsfaktoren von Verbindungen zwischen den verborgenen Neuronen und Ausgangsneuronen des nicht benötigten Teils des neuronalen Netzwerks auf Null gesetzt werden und/oder
    • - die Gewichtungsfaktoren der Verbindungen zwischen den verborgenen Neuronen und den Ausgangsneuronen des nicht benötigten Teils des neuronalen Netzwerks auf einen hohen negativen Wert gesetzt werden.
Erfindungsgemäß ist erkannt worden, dass durch die Gewichtungsfaktoren der Verbindungen zwischen den Neuronen der einzelnen Schichten des neuronalen Netzwerks nicht nur die Klassifizierungseigenschaften des neuronalen Netzwerks beeinflusst werden können, sondern dass durch eine geeignete Wahl der Werte der Gewichtungsfaktoren auch die Struktur des neuronalen Netzwerks verändert werden kann. Erfindungsgemäß können bestimmte Teile des neuronalen Netzwerks aktiviert und andere Teile inaktiviert werden, indem die Gewichtungsfaktoren der Verbindungen auf bestimmte Werte gesetzt werden.
Zur Inaktivierung von bestimmten Eingangsneuronen des nicht benötigten Teils des neuronalen Netzwerks werden die Gewichtungsfaktoren der Verbindungen zwischen diesen Eingangsneuronen und den verborgenen Neuronen auf Null gesetzt. Zur Inaktivierung von bestimmten verborgenen Neuronen des nicht benötigten Teils des neuronalen Netzwerks werden die Gewichtungsfaktoren der Verbindungen zwischen diesen verborgenen Neuronen und den Ausgangsneuronen auf Null gesetzt. Zur Inaktivierung von bestimmten Ausgangsneuronen des nicht benötigten Teils des neuronalen Netzwerks werden die Gewichtungsfaktoren der Verbindungen zwischen den verborgenen Neuronen und diesen Ausgangsneuronen auf einen hohen negativen Wert, vorzugsweise -∞, gesetzt. Durch gezielte Inaktivierung bestimmter Neuronen des neuronalen Netzwerks kann die Struktur des aktivierten Teils des neuronalen Netzwerks während der Laufzeit des Klassifizierungsvorgangs gezielt, einfach und schnell bestimmten äußeren Parametern angepasst werden.
Das neuronale Netzwerk des erfindungsgemäßen Verfahrens ist als ein einziges Netzwerk ausgebildet, das so groß dimensioniert ist, dass es die Größe der möglicherweise benötigten größten Netzwerkstruktur umfasst. Die maximal benötigte Größe des neuronalen Netzwerks kann entweder abgeschätzt oder im Rahmen eines vorbereitenden Probelaufs bestimmt werden. Der Probelauf wird während einer Erprobungsphase vor der Laufzeit des Klassifizierungsvorgangs im Voraus durchlaufen. Innerhalb dieses einzigen neuronalen Netzwerks kann die Struktur des aktivierten Teils des Netzwerks nahezu beliebig variiert werden, indem bestimmte Teile des Netzwerks aktiviert und andere Teile inaktiviert werden.
Das neuronale Netzwerk des erfindungsgemäßen Verfahrens ermöglicht trotz seiner variablen Struktur eine Programmierung in lediglich einem einzigen Programm. Die Struktur des neuronalen Netzwerks kann durch einfaches Verändern der Werte der Gewichtungsfaktoren variiert werden. Zum Verändern der Struktur des neuronalen Netzwerks muss somit nicht zwischen verschiedenen Programmodulen umgeschaltet werden, in denen neuronale Netzwerke mit unterschiedlichen Strukturen realisiert sind. Das neuronale Netzwerk des erfindungsgemäßen Verfahrens kann auf einfache Weise gewartet und aktualisiert werden, indem für einen bestimmten äußeren Parameter einfach andere, aktualisierte Werte für die Gewichtungsfaktoren vorgesehen und bei Bedarf gesetzt werden.
Darüber hinaus kann das neuronale Netzwerk des erfindungsgemäßen Verfahrens in dem Programm sequentiell codiert werden, mit wenigen bzw. sogar keinen Wenn-Dann- Abfragen, Schleifen und Verzweigungen. Dadurch wird eine besonders schnelle Verarbeitung der zu klassifizierenden Signale oder symbolischen Informationen ermöglicht.
Die Funktion eines neuronalen Netzwerks hängt grundsätzlich von den Werten der Gewichtungsfaktoren der Verbindungen zwischen den Neuronen der einzelnen Schichten ab, die in einer Lernphase vor der Laufzeit des Klassifizierungsvorgangs im Voraus bestimmt werden. Indem die Gewichtungsfaktoren in dem aktivierten Teil des neuronalen Netzwerks auf bestimmte endliche Werte gesetzt werden, kann die Klassifizierungseigenschaft des neuronalen Netzwerks gezielt beeinflusst werden. Während der Laufzeit des Klassifizierungsvorgangs können die im Voraus bestimmten Werte der Gewichtungsfaktoren dann je nach gewünschter oder geforderter Klassifizierungseigenschaft gesetzt werden.
Gemäß einer vorteilhaften Weiterbildung der vorliegenden Erfindung wird vorgeschlagen, dass die Gewichtungsfaktoren der neuronalen Verbindungen des aktivierten Teils des neuronalen Netzwerks auf endliche Werte gesetzt werden.
Vorteilhafterweise werden die endlichen Werte der Gewichtungsfaktoren für verschiedene Klassifizierungseigenschaften in einer Lernphase vor der Laufzeit des Klassifizierungsvorgangs im Voraus bestimmt werden.
Gemäß einer bevorzugten Ausführungsform der Erfindung wird vorgeschlagen, dass die im Voraus bestimmten endlichen Werte in einem Speicher abgelegt, während der Laufzeit in Abhängigkeit von den geforderten Klassifizierungseigenschaften geladen und die Gewichtungsfaktoren der Verbindungen auf die geladen Werte gesetzt werden.
Gemäß einer anderen vorteilhaften Weiterbildung der vorliegenden Erfindung wird vorgeschlagen, dass die Werte der Gewichtungsfaktoren der Verbindungen in Abhängigkeit von den äußeren Parametern in einer Erprobungsphase vor der Lernphase und vor der Laufzeit des Klassifizierungsvorgangs im Voraus bestimmt werden.
Vorteilhafterweise werden die im Voraus bestimmten Werte in einem Speicher abgelegt, während der Laufzeit in Abhängigkeit von den äußeren Parametern geladen und die Gewichtungsfaktoren der Verbindungen auf die geladenen Werte gesetzt.
Die Vorteile des erfindungsgemäßen Verfahrens zur Klassifizierung von Signalen oder symbolischen Informationen mittels eines neuronalen Netzwerks kommen insbesondere beim Einsatz des Verfahrens zur Klassifizierung von Radarzielen zum Tragen. Die Klassifizierung von Radarzielen spielt insbesondere in der Verteidigungstechnik eine bedeutende Rolle. Dort ist es besonders wichtig, dass auf einem Radarschirm detektierte Ziele zuverlässig und schnell klassifiziert werden können. Als Zielklassen können dabei bspw. Fußgänger, Radfahrzeuge, Kettenfahrzeuge und Luftfahrzeuge vorgesehen werden. Diese Zielklassen sind die äußeren Parameter, von denen die Struktur des neuronalen Netzwerks abhängt. Ändern sich die äußeren Parameter während der Laufzeit des Klassifizierungsvorgangs bspw. weil die bestehenden Zielklassen um die Zielklasse Tiere erweitert werden sollen, kann die Struktur des neuronalen Netzwerks durch Laden neuer Werte für die Gewichtungsfaktoren auf einfache Weise und schnell verändert werden, indem bspw. der aktivierte Teil des neuronalen Netzwerks um einen vorher inaktivierten Teil des Netzwerks erweitert wird.
Ein bevorzugtes Ausführungsbeispiel der vorliegenden Erfindung wird im Folgenden anhand der Zeichnung näher erläutert. Es zeigt:
Fig. 1 ein neuronales Netzwerk für den Einsatz in einem erfindungsgemäßen Verfahren.
In Fig. 1 ist ein neuronales Netzwerk für den Einsatz in einem erfindungsgemäßen Verfahren zur Klassifikation von Signalen oder symbolischen Informationen 9 in seiner Gesamtheit mit dem Bezugszeichen 1 bezeichnet. Das neuronale Netzwerk 1 weist fünf Eingangsneuronen 2 auf, die in einer Eingangsschicht 3 angeordnet sind. Sieben Ausgangsneuronen 4 sind in einer Ausgangsschicht 5 angeordnet. Zwischen der Eingangsschicht 3 und der Ausgangsschicht 5 ist eine verborgene Schicht 7 mit acht verborgenen Neuronen 6 angeordnet. Den Eingangsneuronen 2 werden die zu klassifizierenden Signale oder symbolischen Informationen 9 zugeführt. Die Ausgangsneuronen 4 stehen jeweils für eine Klasse A, B, C, D, E, F und G, der die Signale oder die symbolischen Informationen 9 zugeordnet werden.
Bei dem neuronalen Netzwerk 1 gemäß dem vorliegenden Ausführungsbeispiel ist jedes Neuron 2; 4; 6 einer Schicht 3; 5; 7 mit allen Neuronen 2; 4; 6 der benachbarten Schichten 3; 5; 7 über neuronale Verbindungen 8 verbunden. Um die Klassifizierungseigenschaften des neuronalen Netzwerks 1 beeinflussen zu können sind die Verbindungen 8 mit Gewichtungsfaktoren gewichtet. Die Gewichtungsfaktoren der Verbindungen 8 zwischen einem Eingangsneuron 2 und einem verborgenen Neuron 6 werden mit wie bezeichnet. Die Gewichtungsfaktoren der Verbindungen 8 zwischen einem verborgenen Neuron 6 und einem Ausgangsneuron 4 werden mit wjk bezeichnet.
Das dargestellte neuronale Netzwerk 1 weist einen aktivierten Teil (mit durchgezogenen Linien gezeichnet) und einen inaktivierten Teil (mit gestrichelten Linien gezeichnet) auf. Der aktivierte Teil umfasst drei der fünf Eingangsneuronen 2, vier verborgene Neuronen 6 und drei Ausgangsneuronen 4. Die Klassifizierung der Signale und/oder der symbolischen Informationen 9 erfolgt nur in dem aktivierten Teil des neuronalen Netzwerks 1. Das Signal oder die symbolischen Informationen 9 werden nur den Klassen C, D oder E zugeordnet. Durch die Wahl des aktivierten Teils kann die Struktur des neuronalen Netzwerks 1 gezielt variiert und das neuronale Netzwerk 1 an äußere Parameter angepasst werden.
Bestimmte Teile des neuronalen Netzwerks 1 werden inaktiviert, indem einige oder alle Neuronen 2, 4, 6 in dem inaktivierten Teil des neuronalen Netzwerks 1 inaktiviert werden. Bestimmte Ausgangsneuronen 4 werden inaktiviert, indem die Gewichtungsfaktoren wjk der Verbindungen 8 zwischen den verborgenen Neuronen 6 und diesen Ausgangsneuronen 4 auf einen sehr hohen negativen Wert, vorzugsweise auf -∞, gesetzt werden. Um die bestimmten Ausgangsneuronen 4 zu inaktivieren, ist es nicht notwendig, dass bestimmte verborgene Neuronen 6 oder bestimmte Eingangsneuronen 2 inaktiviert sind. Bestimmte verborgene Neuronen 6 werden inaktiviert, indem die Gewichtungsfaktoren wjk der Verbindungen 8 zwischen diesen verborgenen Neuronen 6 und den Ausgangsneuronen 4 auf Null gesetzt werden. Um die bestimmten verborgene Neuronen 6 zu inaktivieren, ist es nicht notwendig, dass bestimmte Eingangsneuronen 2 inaktiviert sind. Bestimmte Eingangsneuronen 2 werden inaktiviert, indem die Gewichtungsfaktoren wij der Verbindungen 8 zwischen diesen Eingangsneuronen 2 und den verborgenen Neuronen 6 auf Null gesetzt werden. Die Struktur des neuronalen Netzwerks 1 kann demnach einfach dadurch verändert werden, dass verschiedene Gewichtungsfaktoren wij, wjk auf die Werte Null bzw. -∞ gesetzt werden.
In einem Speicher sind vorzugsweise Sätze von Werten für die Gewichtungsfaktoren wij, wjk abgelegt, die jeweils bestimmten äußeren Parametern zugeordnet sind. Aus diesem Speicher können die neuen Werte dann bei Bedarf geladen werden und die Gewichtungsfaktoren wij, wjk entsprechend dieser Werte gesetzt werden. Die Struktur des neuronalen Netzwerks 1, mit dem bei bestimmten äußeren Parametern die besten (zuverlässigsten und schnellsten) Klassifizierungsergebnisse erzielt werden, d. h. Angaben darüber, ob eine neuronale Verbindung 8 und/oder bestimmte Neuronen 2, 4, 6 zu dem aktivierten oder inaktivierten Teil des neuronalen Netzwerks 1 gehören, wird vor der Laufzeit des eigentlichen Klassifizierungsvorgangs im Rahmen einer Erprobungsphase bestimmt. Diese Angaben liegen in Form der Werte für die Gewichtungsfaktoren wij, wjk (Null bzw. -∞ oder ein endlicher Wert) vor.
Die Klassifizierungseigenschaften des neuronalen Netzwerks 1, genauer gesagt, des aktivierten Teils des neuronalen Netzwerks 1, hängen von den endlichen Werten der Gewichtungsfaktoren wij, wjk der Verbindungen 8 in dem aktivierten Teil des neuronalen Netzwerks 1 ab. Die Gewichtungsfaktoren wij, wjk in dem aktivierten Teil des neuronalen Netzwerks 1 weisen endliche Werte auf. Die endlichen Werte der Gewichtungsfaktoren wij, wjk in dem aktivierten Teil des neuronalen Netzwerks 1 werden vor der Laufzeit des eigentlichen Klassifizierungsvorgangs in einer Lernphase ermittelt. Es ist denkbar, in einem Speicher die Gewichtungsfaktoren wij, wjk für bestimmte Klassifizierungseigenschaften abzulegen und diese vor oder während des eigentlichen Klassifizierungsvorgangs bei Bedarf zu laden.
Bei dem erfindungsgemäßen Verfahren kann die Struktur des neuronalen Netzwerks 1 somit durch die Wahl der Werte der Gewichtungsfaktoren wij, wjk, entweder Null bzw. -∞ für die inaktivierten Teile des Netzwerks 1 oder einen endlichen Wert für die aktivierten Teile des Netzwerks 1, bestimmt werden. Die Klassifizierungseigenschaften des aktivierten Teils des neuronalen Netzwerks 1 können durch die Wahl geeigneter endlicher Werte für die Gewichtungsfaktoren wij, wjk bestimmt werden.
Das erfindungsgemäße Verfahren wird vorzugsweise zur Klassifizierung von Radarzielen eingesetzt. Dabei ist es besonders wichtig, dass die Ziele auf dem Radar zuverlässig und schnell klassifiziert werden können. Die Ziele auf dem Radar können bspw. in die Zielklassen Fußgänger, Radfahrzeuge, Kettenfahrzeuge und Luftfahrzeuge unterteilt werden. Diese Zielklassen sind die äußeren Parameter, von denen die Struktur des neuronalen Netzwerks 1 abhängt. Ändern sich die äußeren Parameter während der Laufzeit des Klassifizierungsvorgangs bspw. weil die Zielklassen um die Zielklasse Tiere (z. B. Kühe) erweitert werden soll, kann die Struktur des neuronalen Netzwerks 1 durch Laden eines Satzes neuer Werte für die Gewichtungsfaktoren wij, wjk auf einfache Weise und schnell verändert werden, indem bspw. der aktivierte Teil des neuronalen Netzwerks 1 um einen zuvor inaktiven Teil des Netzwerks 1 erweitert wird.

Claims (8)

1. Verfahren zur Klassifizierung von Signalen oder symbolischen Informationen mittels eines neuronalen Netzwerks (1);
  • - wobei die Struktur des neuronalen Netzwerks (1) von mindestens einem äußeren Parameter abhängt und an den äußeren Parameter während der Laufzeit durch Laden von Gewichtungsfaktoren (wij, wjk) angepasst wird;
  • - wobei das neuronale Netzwerk (1) die Größe der maximal benötigten Struktur aufweist;
  • - wobei zeitweise nicht benötigte Teile des neuronalen Netzwerks (1) inaktiviert werden, indem
  • - die Gewichtungsfaktoren (wij) von Verbindungen (8) zwischen Eingangsneuronen (2) und verborgenen Neuronen (6) des nicht benötigten Teils des neuronalen Netzwerks (1) auf Null gesetzt werden und/oder
  • - die Gewichtungsfaktoren (wjk) von Verbindungen (8) zwischen den verborgenen Neuronen (6) und Ausgangsneuronen (4) des nicht benötigten Teils des neuronalen Netzwerks (1) auf Null gesetzt werden und/oder
  • - die Gewichtungsfaktoren (wjk) der Verbindungen (8) zwischen den verborgenen Neuronen (6) und den Ausgangsneuronen (4) des nicht benötigten Teils des neuronalen Netzwerks (1) auf einen hohen negativen Wert gesetzt werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Gewichtungsfaktoren (wjk) der Verbindungen (8) zu zeitweise nicht benötigten Ausgangsneuronen (4) auf -∞ gesetzt werden.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Gewichtungsfaktoren (wij, wjk) der Verbindungen (8) des aktivierten Teils des neuronalen Netzwerks (1) auf endliche Werte gesetzt werden.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die endlichen Werte der Gewichtungsfaktoren (wij, wjk) für verschiedene Klassifizierungseigenschaften in einer Lernphase vor der Laufzeit des Klassifizierungsvorgangs im Voraus bestimmt werden.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass die im Voraus bestimmten endlichen Werte in einem Speicher abgelegt, während der Laufzeit in Abhängigkeit von den geforderten Klassifizierungseigenschaften geladen und die Gewichtungsfaktoren (wij, wjk) auf die geladenen Werte gesetzt werden.
6. Verfahren nach einem der Ansprüche 3 bis 5, dadurch gekennzeichnet, dass die Werte der Gewichtungsfaktoren (wij, wjk) in Abhängigkeit von den äußeren Parametern in einer Erprobungsphase vor der Lernphase und vor der Laufzeit des Klassifizierungsvorgangs im Voraus bestimmt werden.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die im Voraus bestimmten Werte in einem Speicher abgelegt, während der Laufzeit in Abhängigkeit von den äußeren Parametern geladen und die Gewichtungsfaktoren (wij, wjk) auf die geladenen Werte gesetzt werden.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch gekennzeichnet, dass das Verfahren zur Klassifizierung von Radarzielen eingesetzt wird.
DE19917957A 1999-04-21 1999-04-21 Neuronales Netzwerk Withdrawn DE19917957A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19917957A DE19917957A1 (de) 1999-04-21 1999-04-21 Neuronales Netzwerk

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19917957A DE19917957A1 (de) 1999-04-21 1999-04-21 Neuronales Netzwerk

Publications (1)

Publication Number Publication Date
DE19917957A1 true DE19917957A1 (de) 2000-10-26

Family

ID=7905273

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19917957A Withdrawn DE19917957A1 (de) 1999-04-21 1999-04-21 Neuronales Netzwerk

Country Status (1)

Country Link
DE (1) DE19917957A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110109059A (zh) * 2019-03-27 2019-08-09 西安电子科技大学 一种基于深度学习网络的雷达辐射源信号识别方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5568590A (en) * 1993-12-17 1996-10-22 Xaos Tools Image processing using genetic mutation of neural network parameters
US5668717A (en) * 1993-06-04 1997-09-16 The Johns Hopkins University Method and apparatus for model-free optimal signal timing for system-wide traffic control
US5745653A (en) * 1996-02-05 1998-04-28 Ford Global Technologies, Inc. Generic neural network training and processing system
DE19649563A1 (de) * 1996-11-29 1998-06-04 Alsthom Cge Alcatel Vorrichtung und Verfahren zur automatischen Klassifikation von Objekten

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5668717A (en) * 1993-06-04 1997-09-16 The Johns Hopkins University Method and apparatus for model-free optimal signal timing for system-wide traffic control
US5568590A (en) * 1993-12-17 1996-10-22 Xaos Tools Image processing using genetic mutation of neural network parameters
US5745653A (en) * 1996-02-05 1998-04-28 Ford Global Technologies, Inc. Generic neural network training and processing system
DE19649563A1 (de) * 1996-11-29 1998-06-04 Alsthom Cge Alcatel Vorrichtung und Verfahren zur automatischen Klassifikation von Objekten

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110109059A (zh) * 2019-03-27 2019-08-09 西安电子科技大学 一种基于深度学习网络的雷达辐射源信号识别方法

Similar Documents

Publication Publication Date Title
DE202017102238U1 (de) Aktorsteuerungssystem
DE202017102235U1 (de) Trainingssystem
DE102005046747B3 (de) Verfahren zum rechnergestützten Lernen eines neuronalen Netzes und neuronales Netz
DE3938645C1 (de)
WO2019081241A1 (de) Verfahren, vorrichtung und computerprogramm zur erstellung eines tiefen neuronalen netzes
DE69815390T2 (de) Neuronale netzwerke
DE10139682B4 (de) Verfahren zum Generieren von neuronalen Netzen
EP3785178B1 (de) Verfahren und vorrichtung zum ermitteln einer netzkonfiguration eines neuronalen netzes
DE19917957A1 (de) Neuronales Netzwerk
DE102019213009A1 (de) Aufbereitung von Radarsignalen mit Unterdrückung von Bewegungsartefakten
EP3467722A1 (de) Konfiguration einer kraftfahrzeug-fahrerassistenzvorrichtung mit einem neuronalen netzwerk im laufenden betrieb
WO2021245151A1 (de) Unüberwachtes lernen einer gemeinsamen darstellung von daten von sensoren unterschiedlicher modalität
EP0548127B1 (de) Neuronales Netzwerk und Schaltungsanordnung zur Bool'schen Realisierung neuronaler Netze vom ADALINE-Typ
DE3609925C2 (de)
EP3918528A1 (de) Verfahren zum trainieren und zum betrieb eines multitaskingfähigen künstlichen neuronalen netz, multitaskingfähiges künstliches neuronales netz und vorrichtung
WO2021004741A1 (de) Robusteres training für künstliche neuronale netzwerke
DE4330847A1 (de) Vorrichtung und Verfahren zur Datenverarbeitung
EP3748574A1 (de) Adaptive bereinigung von messdaten um unterschiedliche arten von störungen
DE102005045120A1 (de) Vorrichtung und Verfahren zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes
Lernen TECHNOLOGIE
DE102021109756A1 (de) Verfahren und Vorrichtung zum Ermitteln von Netzkonfigurationen eines neuronalen Netzes unter Erfüllung einer Mehrzahl von Nebenbedingungen
DE102021109754A1 (de) Verfahren und Vorrichtung zum Ermitteln von Netzkonfigurationen eines neuronalen Netzes unter Erfüllung einer Mehrzahl von Nebenbedingungen
DE202021102084U1 (de) Vorrichtung zum Ermitteln von Netzkonfigurationen eines neuronalen Netzes unter Erfüllung einer Mehrzahl von Nebenbedingungen
DE202021102085U1 (de) Vorrichtung zum Ermitteln von Netzkonfigurationen eines neuronalen Netzes unter Erfüllung einer Mehrzahl von Nebenbedingungen
DE102019205842A1 (de) Verfahren, Vorrichtung und Computerprogramm zum Quantisieren von neuronalen Netzen

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8110 Request for examination paragraph 44
8125 Change of the main classification

Ipc: G06N 3/04

8139 Disposal/non-payment of the annual fee