DE19917957A1 - Neuronales Netzwerk - Google Patents
Neuronales NetzwerkInfo
- Publication number
- DE19917957A1 DE19917957A1 DE19917957A DE19917957A DE19917957A1 DE 19917957 A1 DE19917957 A1 DE 19917957A1 DE 19917957 A DE19917957 A DE 19917957A DE 19917957 A DE19917957 A DE 19917957A DE 19917957 A1 DE19917957 A1 DE 19917957A1
- Authority
- DE
- Germany
- Prior art keywords
- weighting factors
- neural network
- neurons
- connections
- values
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Radar, Positioning & Navigation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Remote Sensing (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
Die Erfindung betrifft ein Verfahren zur Klassifizierung von Signalen oder symbolischen Informationen mittels eines neutonalen Netzwerks (1). Um eine einfache Wartung und Aktualisierung und eine einfache Variation der Struktur des neuronalen Netzwerks (1) zu ermöglichen, schlägt die Erfindung vor, dass DOLLAR A - die Struktur des neuronalen Netzwerks (1) von mindestens einem äußeren Parameter abhängt und an den äußeren Parameter während der Laufzeit durch Laden von Gewichtsfaktoren (w¶ij¶, w¶jk¶) angepasst wird; DOLLAR A - das neuronale Netzwerk (1) die Größe der maximal benötigten Struktur aufweist; DOLLAR A - zeitweise nicht benötigte Teile des neuronalen Netzwerks (1) inaktiviert werden, indem DOLLAR A È die Gewichtsfaktoren (w¶ij¶) von Verbindungen (8) zwischen Eingangsneuronen (2) und verborgenen Neuronen (6) des nicht benötigten Teils des neuronalen Netzwerks (1) auf Null gesetzt werden und/oder DOLLAR A È die Gewichtsfaktoren (w¶jk¶) von Verbindungen (8) zwischen den verborgenen Neuronen (6) und Ausgangsneuronen (4) des nicht benötigten Teils des neuronalen Netzwerks (1) auf Null gesetzt werden und/oder DOLLAR A È die Gewichtsfaktoren (w¶jk¶) der Verbindungen (8) zwischen den verborgenen Neuronen (6) und den Ausgangsneuronen (4) des nicht benötigten Teils des neuronalen Netzwerks (1) auf einen hohen negativen Wert gesetzt werden.
Description
Die vorliegende Erfindung betrifft ein neuronales Netzwerk.
Neuronale Netzwerke finden häufig Anwendung, um Signale
oder symbolische Informationen zu klassifizieren. Ein
neuronales Netzwerk weist in der Regel einen oder mehrere
Eingangsneuronen auf, die in einer Eingangsschicht
angeordnet sind. Über neuronale Verbindungen sind die
Eingangsneuronen mit verborgenen Neuronen verbunden, die in
einer oder mehreren der Eingangsschicht nachgeordneten
verborgenen Schichten angeordnet sind. Die verborgenen
Neuronen wiederum sind über weitere neuronale Verbindungen
mit einem oder mehreren Ausgangsneuronen verbunden, die in
einer der verborgenen Schicht nachgeordneten
Ausgangsschicht angeordnet sind.
Die Struktur des neuronalen Netzes kann nahezu beliebig
variiert und dem gewünschten Anwendungsfall (d. h.
bestimmten äußeren Parametern) angepasst werden. Dem
neuronalen Netzwerk können unterschiedliche
Klassifizierungseigenschaften gegeben werden, indem die
Verbindungen zwischen den Eingangsneuronen und den
verborgenen Neuronen und die Verbindungen zwischen den
verborgenen Neuronen und den Ausgangsneuronen durch
Gewichtungsfaktoren gewichtet werden. In Abhängigkeit von
den Werten der Gewichtungsfaktoren ändert sich die
Klassifizierungseigenschaft des neuronalen Netzwerks.
Es ist denkbar, ein neuronales Netzwerk hardwaremäßig zu
realisieren. In der Regel erfolgt die Implementierung von
neuronalen Netzwerken jedoch mittels entsprechender
Software. Um den Ablauf des Softwareprogramms während der
Laufzeit des Klassifizierungsvorgangs steuern zu können,
ist es erforderlich, dass neuronale Netzwerke der gleichen
Art (z. B. Mehrschicht-Perceptron), aber mit
unterschiedlichen Strukturen im Echtzeitbetrieb laufen
können. In Abhängigkeit von äußeren Parametern wird dann
eines der unterschiedlich strukturierten neuronalen
Netzwerke ausgewählt.
Es ist bekannt, unterschiedlich strukturierte neuronale
Netzwerke in verschiedenen Programmodulen zu codieren.
Während der Laufzeit des Klassifizierungsvorgangs wird
zwischen den einzelnen Programmodulen umgeschaltet und das
entsprechende Programmodul ausgewählt. Die Wartung und die
Aktualisierung einer solchen Gruppe unterschiedlicher
Programmodule ist sehr aufwendig und schwierig. Das liegt
insbesondere daran, dass die einzelnen Programmodule nicht
isoliert aktualisiert werden können, sondern stets in
Zusammenhang mit den anderen Programmodulen gesehen und
auf diese abgestimmt werden müssen (z. B. im Hinblick auf
die Schnittstellen zwischen den einzelnen Programmodulen).
Es ist des Weiteren bekannt, dass unterschiedlich
strukturierte neuronale Netzwerke in einem einzigen
Programm mit einer Vielzahl von Wenn-Dann-Abfragen (if-
then-Abfragen), Verzweigungen und Schleifen codiert sind.
Eine derartige Codierung ist sehr kompliziert und
aufwendig. Die Verarbeitung eines derart komplizierten
Programms ist sehr langsam im Vergleich zu einer
sequentiellen, d. h. einer starr fortlaufenden,
Programmierung mit möglichst wenig Wenn-Dann-Abfragen,
Verzweigungen und Schleifen.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein
neuronales Netzwerk für die Klassifizierung von Signalen
oder symbolischen Informationen zu schaffen, das eine
einfache Wartung und Aktualisierung und gleichzeitig eine
relativ schnelle Verarbeitung ermöglicht.
Zur Lösung dieser Aufgabe schlägt die Erfindung ein
Verfahren zur Klassifizierung von Signalen oder
symbolischen Informationen mittels eines neuronalen
Netzwerks vor,
- - wobei die Struktur des neuronalen Netzwerks von mindestens einem äußeren Parameter abhängt und an den äußeren Parameter während der Laufzeit durch Laden von Gewichtungsfaktoren angepasst wird;
- - wobei das neuronale Netzwerk die Größe der maximal benötigten Struktur aufweist;
- - wobei zeitweise nicht benötigte Teile des neuronalen
Netzwerks inaktiviert werden, indem
- - die Gewichtungsfaktoren von Verbindungen zwischen Eingangsneuronen und verborgenen Neuronen des nicht benötigten Teils des neuronalen Netzwerks auf Null gesetzt werden und/oder
- - die Gewichtungsfaktoren von Verbindungen zwischen den verborgenen Neuronen und Ausgangsneuronen des nicht benötigten Teils des neuronalen Netzwerks auf Null gesetzt werden und/oder
- - die Gewichtungsfaktoren der Verbindungen zwischen den verborgenen Neuronen und den Ausgangsneuronen des nicht benötigten Teils des neuronalen Netzwerks auf einen hohen negativen Wert gesetzt werden.
Erfindungsgemäß ist erkannt worden, dass durch die
Gewichtungsfaktoren der Verbindungen zwischen den Neuronen
der einzelnen Schichten des neuronalen Netzwerks nicht nur
die Klassifizierungseigenschaften des neuronalen Netzwerks
beeinflusst werden können, sondern dass durch eine
geeignete Wahl der Werte der Gewichtungsfaktoren auch die
Struktur des neuronalen Netzwerks verändert werden kann.
Erfindungsgemäß können bestimmte Teile des neuronalen
Netzwerks aktiviert und andere Teile inaktiviert werden,
indem die Gewichtungsfaktoren der Verbindungen auf
bestimmte Werte gesetzt werden.
Zur Inaktivierung von bestimmten Eingangsneuronen des nicht
benötigten Teils des neuronalen Netzwerks werden die
Gewichtungsfaktoren der Verbindungen zwischen diesen
Eingangsneuronen und den verborgenen Neuronen auf Null
gesetzt. Zur Inaktivierung von bestimmten verborgenen
Neuronen des nicht benötigten Teils des neuronalen
Netzwerks werden die Gewichtungsfaktoren der Verbindungen
zwischen diesen verborgenen Neuronen und den
Ausgangsneuronen auf Null gesetzt. Zur Inaktivierung von
bestimmten Ausgangsneuronen des nicht benötigten Teils des
neuronalen Netzwerks werden die Gewichtungsfaktoren der
Verbindungen zwischen den verborgenen Neuronen und diesen
Ausgangsneuronen auf einen hohen negativen Wert,
vorzugsweise -∞, gesetzt. Durch gezielte Inaktivierung
bestimmter Neuronen des neuronalen Netzwerks kann die
Struktur des aktivierten Teils des neuronalen Netzwerks
während der Laufzeit des Klassifizierungsvorgangs gezielt,
einfach und schnell bestimmten äußeren Parametern angepasst
werden.
Das neuronale Netzwerk des erfindungsgemäßen Verfahrens ist
als ein einziges Netzwerk ausgebildet, das so groß
dimensioniert ist, dass es die Größe der möglicherweise
benötigten größten Netzwerkstruktur umfasst. Die maximal
benötigte Größe des neuronalen Netzwerks kann entweder
abgeschätzt oder im Rahmen eines vorbereitenden Probelaufs
bestimmt werden. Der Probelauf wird während einer
Erprobungsphase vor der Laufzeit des
Klassifizierungsvorgangs im Voraus durchlaufen. Innerhalb
dieses einzigen neuronalen Netzwerks kann die Struktur des
aktivierten Teils des Netzwerks nahezu beliebig variiert
werden, indem bestimmte Teile des Netzwerks aktiviert und
andere Teile inaktiviert werden.
Das neuronale Netzwerk des erfindungsgemäßen Verfahrens
ermöglicht trotz seiner variablen Struktur eine
Programmierung in lediglich einem einzigen Programm. Die
Struktur des neuronalen Netzwerks kann durch einfaches
Verändern der Werte der Gewichtungsfaktoren variiert
werden. Zum Verändern der Struktur des neuronalen Netzwerks
muss somit nicht zwischen verschiedenen Programmodulen
umgeschaltet werden, in denen neuronale Netzwerke mit
unterschiedlichen Strukturen realisiert sind. Das neuronale
Netzwerk des erfindungsgemäßen Verfahrens kann auf einfache
Weise gewartet und aktualisiert werden, indem für einen
bestimmten äußeren Parameter einfach andere, aktualisierte
Werte für die Gewichtungsfaktoren vorgesehen und bei Bedarf
gesetzt werden.
Darüber hinaus kann das neuronale Netzwerk des
erfindungsgemäßen Verfahrens in dem Programm sequentiell
codiert werden, mit wenigen bzw. sogar keinen Wenn-Dann-
Abfragen, Schleifen und Verzweigungen. Dadurch wird eine
besonders schnelle Verarbeitung der zu klassifizierenden
Signale oder symbolischen Informationen ermöglicht.
Die Funktion eines neuronalen Netzwerks hängt grundsätzlich
von den Werten der Gewichtungsfaktoren der Verbindungen
zwischen den Neuronen der einzelnen Schichten ab, die in
einer Lernphase vor der Laufzeit des
Klassifizierungsvorgangs im Voraus bestimmt werden. Indem
die Gewichtungsfaktoren in dem aktivierten Teil des
neuronalen Netzwerks auf bestimmte endliche Werte gesetzt
werden, kann die Klassifizierungseigenschaft des neuronalen
Netzwerks gezielt beeinflusst werden. Während der Laufzeit
des Klassifizierungsvorgangs können die im Voraus
bestimmten Werte der Gewichtungsfaktoren dann je nach
gewünschter oder geforderter Klassifizierungseigenschaft
gesetzt werden.
Gemäß einer vorteilhaften Weiterbildung der vorliegenden
Erfindung wird vorgeschlagen, dass die Gewichtungsfaktoren
der neuronalen Verbindungen des aktivierten Teils des
neuronalen Netzwerks auf endliche Werte gesetzt werden.
Vorteilhafterweise werden die endlichen Werte der
Gewichtungsfaktoren für verschiedene
Klassifizierungseigenschaften in einer Lernphase vor der
Laufzeit des Klassifizierungsvorgangs im Voraus bestimmt
werden.
Gemäß einer bevorzugten Ausführungsform der Erfindung wird
vorgeschlagen, dass die im Voraus bestimmten endlichen
Werte in einem Speicher abgelegt, während der Laufzeit in
Abhängigkeit von den geforderten
Klassifizierungseigenschaften geladen und die
Gewichtungsfaktoren der Verbindungen auf die geladen Werte
gesetzt werden.
Gemäß einer anderen vorteilhaften Weiterbildung der
vorliegenden Erfindung wird vorgeschlagen, dass die Werte
der Gewichtungsfaktoren der Verbindungen in Abhängigkeit
von den äußeren Parametern in einer Erprobungsphase vor der
Lernphase und vor der Laufzeit des Klassifizierungsvorgangs
im Voraus bestimmt werden.
Vorteilhafterweise werden die im Voraus bestimmten Werte in
einem Speicher abgelegt, während der Laufzeit in
Abhängigkeit von den äußeren Parametern geladen und die
Gewichtungsfaktoren der Verbindungen auf die geladenen
Werte gesetzt.
Die Vorteile des erfindungsgemäßen Verfahrens zur
Klassifizierung von Signalen oder symbolischen
Informationen mittels eines neuronalen Netzwerks kommen
insbesondere beim Einsatz des Verfahrens zur
Klassifizierung von Radarzielen zum Tragen. Die
Klassifizierung von Radarzielen spielt insbesondere in der
Verteidigungstechnik eine bedeutende Rolle. Dort ist es
besonders wichtig, dass auf einem Radarschirm detektierte
Ziele zuverlässig und schnell klassifiziert werden können.
Als Zielklassen können dabei bspw. Fußgänger, Radfahrzeuge,
Kettenfahrzeuge und Luftfahrzeuge vorgesehen werden. Diese
Zielklassen sind die äußeren Parameter, von denen die
Struktur des neuronalen Netzwerks abhängt. Ändern sich die
äußeren Parameter während der Laufzeit des
Klassifizierungsvorgangs bspw. weil die bestehenden
Zielklassen um die Zielklasse Tiere erweitert werden
sollen, kann die Struktur des neuronalen Netzwerks durch
Laden neuer Werte für die Gewichtungsfaktoren auf einfache
Weise und schnell verändert werden, indem bspw. der
aktivierte Teil des neuronalen Netzwerks um einen vorher
inaktivierten Teil des Netzwerks erweitert wird.
Ein bevorzugtes Ausführungsbeispiel der vorliegenden
Erfindung wird im Folgenden anhand der Zeichnung näher
erläutert. Es zeigt:
Fig. 1 ein neuronales Netzwerk für den Einsatz in einem
erfindungsgemäßen Verfahren.
In Fig. 1 ist ein neuronales Netzwerk für den Einsatz in
einem erfindungsgemäßen Verfahren zur Klassifikation von
Signalen oder symbolischen Informationen 9 in seiner
Gesamtheit mit dem Bezugszeichen 1 bezeichnet. Das
neuronale Netzwerk 1 weist fünf Eingangsneuronen 2 auf, die
in einer Eingangsschicht 3 angeordnet sind. Sieben
Ausgangsneuronen 4 sind in einer Ausgangsschicht 5
angeordnet. Zwischen der Eingangsschicht 3 und der
Ausgangsschicht 5 ist eine verborgene Schicht 7 mit acht
verborgenen Neuronen 6 angeordnet. Den Eingangsneuronen 2
werden die zu klassifizierenden Signale oder symbolischen
Informationen 9 zugeführt. Die Ausgangsneuronen 4 stehen
jeweils für eine Klasse A, B, C, D, E, F und G, der die
Signale oder die symbolischen Informationen 9 zugeordnet
werden.
Bei dem neuronalen Netzwerk 1 gemäß dem vorliegenden
Ausführungsbeispiel ist jedes Neuron 2; 4; 6 einer Schicht
3; 5; 7 mit allen Neuronen 2; 4; 6 der benachbarten
Schichten 3; 5; 7 über neuronale Verbindungen 8 verbunden.
Um die Klassifizierungseigenschaften des neuronalen
Netzwerks 1 beeinflussen zu können sind die Verbindungen 8
mit Gewichtungsfaktoren gewichtet. Die Gewichtungsfaktoren
der Verbindungen 8 zwischen einem Eingangsneuron 2 und
einem verborgenen Neuron 6 werden mit wie bezeichnet. Die
Gewichtungsfaktoren der Verbindungen 8 zwischen einem
verborgenen Neuron 6 und einem Ausgangsneuron 4 werden mit
wjk bezeichnet.
Das dargestellte neuronale Netzwerk 1 weist einen
aktivierten Teil (mit durchgezogenen Linien gezeichnet) und
einen inaktivierten Teil (mit gestrichelten Linien
gezeichnet) auf. Der aktivierte Teil umfasst drei der fünf
Eingangsneuronen 2, vier verborgene Neuronen 6 und drei
Ausgangsneuronen 4. Die Klassifizierung der Signale
und/oder der symbolischen Informationen 9 erfolgt nur in
dem aktivierten Teil des neuronalen Netzwerks 1. Das Signal
oder die symbolischen Informationen 9 werden nur den
Klassen C, D oder E zugeordnet. Durch die Wahl des
aktivierten Teils kann die Struktur des neuronalen
Netzwerks 1 gezielt variiert und das neuronale Netzwerk 1
an äußere Parameter angepasst werden.
Bestimmte Teile des neuronalen Netzwerks 1 werden
inaktiviert, indem einige oder alle Neuronen 2, 4, 6 in dem
inaktivierten Teil des neuronalen Netzwerks 1 inaktiviert
werden. Bestimmte Ausgangsneuronen 4 werden inaktiviert,
indem die Gewichtungsfaktoren wjk der Verbindungen 8
zwischen den verborgenen Neuronen 6 und diesen
Ausgangsneuronen 4 auf einen sehr hohen negativen Wert,
vorzugsweise auf -∞, gesetzt werden. Um die bestimmten
Ausgangsneuronen 4 zu inaktivieren, ist es nicht notwendig,
dass bestimmte verborgene Neuronen 6 oder bestimmte
Eingangsneuronen 2 inaktiviert sind. Bestimmte verborgene
Neuronen 6 werden inaktiviert, indem die
Gewichtungsfaktoren wjk der Verbindungen 8 zwischen diesen
verborgenen Neuronen 6 und den Ausgangsneuronen 4 auf Null
gesetzt werden. Um die bestimmten verborgene Neuronen 6 zu
inaktivieren, ist es nicht notwendig, dass bestimmte
Eingangsneuronen 2 inaktiviert sind. Bestimmte
Eingangsneuronen 2 werden inaktiviert, indem die
Gewichtungsfaktoren wij der Verbindungen 8 zwischen diesen
Eingangsneuronen 2 und den verborgenen Neuronen 6 auf Null
gesetzt werden. Die Struktur des neuronalen Netzwerks 1
kann demnach einfach dadurch verändert werden, dass
verschiedene Gewichtungsfaktoren wij, wjk auf die Werte Null
bzw. -∞ gesetzt werden.
In einem Speicher sind vorzugsweise Sätze von Werten für
die Gewichtungsfaktoren wij, wjk abgelegt, die jeweils
bestimmten äußeren Parametern zugeordnet sind. Aus diesem
Speicher können die neuen Werte dann bei Bedarf geladen
werden und die Gewichtungsfaktoren wij, wjk entsprechend
dieser Werte gesetzt werden. Die Struktur des neuronalen
Netzwerks 1, mit dem bei bestimmten äußeren Parametern die
besten (zuverlässigsten und schnellsten)
Klassifizierungsergebnisse erzielt werden, d. h. Angaben
darüber, ob eine neuronale Verbindung 8 und/oder bestimmte
Neuronen 2, 4, 6 zu dem aktivierten oder inaktivierten Teil
des neuronalen Netzwerks 1 gehören, wird vor der Laufzeit
des eigentlichen Klassifizierungsvorgangs im Rahmen einer
Erprobungsphase bestimmt. Diese Angaben liegen in Form der
Werte für die Gewichtungsfaktoren wij, wjk (Null bzw. -∞
oder ein endlicher Wert) vor.
Die Klassifizierungseigenschaften des neuronalen Netzwerks
1, genauer gesagt, des aktivierten Teils des neuronalen
Netzwerks 1, hängen von den endlichen Werten der
Gewichtungsfaktoren wij, wjk der Verbindungen 8 in dem
aktivierten Teil des neuronalen Netzwerks 1 ab. Die
Gewichtungsfaktoren wij, wjk in dem aktivierten Teil des
neuronalen Netzwerks 1 weisen endliche Werte auf. Die
endlichen Werte der Gewichtungsfaktoren wij, wjk in dem
aktivierten Teil des neuronalen Netzwerks 1 werden vor der
Laufzeit des eigentlichen Klassifizierungsvorgangs in einer
Lernphase ermittelt. Es ist denkbar, in einem Speicher die
Gewichtungsfaktoren wij, wjk für bestimmte
Klassifizierungseigenschaften abzulegen und diese vor oder
während des eigentlichen Klassifizierungsvorgangs bei
Bedarf zu laden.
Bei dem erfindungsgemäßen Verfahren kann die Struktur des
neuronalen Netzwerks 1 somit durch die Wahl der Werte der
Gewichtungsfaktoren wij, wjk, entweder Null bzw. -∞ für die
inaktivierten Teile des Netzwerks 1 oder einen endlichen
Wert für die aktivierten Teile des Netzwerks 1, bestimmt
werden. Die Klassifizierungseigenschaften des aktivierten
Teils des neuronalen Netzwerks 1 können durch die Wahl
geeigneter endlicher Werte für die Gewichtungsfaktoren wij,
wjk bestimmt werden.
Das erfindungsgemäße Verfahren wird vorzugsweise zur
Klassifizierung von Radarzielen eingesetzt. Dabei ist es
besonders wichtig, dass die Ziele auf dem Radar zuverlässig
und schnell klassifiziert werden können. Die Ziele auf dem
Radar können bspw. in die Zielklassen Fußgänger,
Radfahrzeuge, Kettenfahrzeuge und Luftfahrzeuge unterteilt
werden. Diese Zielklassen sind die äußeren Parameter, von
denen die Struktur des neuronalen Netzwerks 1 abhängt.
Ändern sich die äußeren Parameter während der Laufzeit des
Klassifizierungsvorgangs bspw. weil die Zielklassen um die
Zielklasse Tiere (z. B. Kühe) erweitert werden soll, kann
die Struktur des neuronalen Netzwerks 1 durch Laden eines
Satzes neuer Werte für die Gewichtungsfaktoren wij, wjk auf
einfache Weise und schnell verändert werden, indem bspw.
der aktivierte Teil des neuronalen Netzwerks 1 um einen
zuvor inaktiven Teil des Netzwerks 1 erweitert wird.
Claims (8)
1. Verfahren zur Klassifizierung von Signalen oder
symbolischen Informationen mittels eines neuronalen
Netzwerks (1);
- - wobei die Struktur des neuronalen Netzwerks (1) von mindestens einem äußeren Parameter abhängt und an den äußeren Parameter während der Laufzeit durch Laden von Gewichtungsfaktoren (wij, wjk) angepasst wird;
- - wobei das neuronale Netzwerk (1) die Größe der maximal benötigten Struktur aufweist;
- - wobei zeitweise nicht benötigte Teile des neuronalen Netzwerks (1) inaktiviert werden, indem
- - die Gewichtungsfaktoren (wij) von Verbindungen (8) zwischen Eingangsneuronen (2) und verborgenen Neuronen (6) des nicht benötigten Teils des neuronalen Netzwerks (1) auf Null gesetzt werden und/oder
- - die Gewichtungsfaktoren (wjk) von Verbindungen (8) zwischen den verborgenen Neuronen (6) und Ausgangsneuronen (4) des nicht benötigten Teils des neuronalen Netzwerks (1) auf Null gesetzt werden und/oder
- - die Gewichtungsfaktoren (wjk) der Verbindungen (8) zwischen den verborgenen Neuronen (6) und den Ausgangsneuronen (4) des nicht benötigten Teils des neuronalen Netzwerks (1) auf einen hohen negativen Wert gesetzt werden.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet,
dass die Gewichtungsfaktoren (wjk) der Verbindungen
(8) zu zeitweise nicht benötigten Ausgangsneuronen (4)
auf -∞ gesetzt werden.
3. Verfahren nach Anspruch 1 oder 2, dadurch
gekennzeichnet, dass die Gewichtungsfaktoren (wij, wjk)
der Verbindungen (8) des aktivierten Teils des
neuronalen Netzwerks (1) auf endliche Werte gesetzt
werden.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet,
dass die endlichen Werte der Gewichtungsfaktoren (wij,
wjk) für verschiedene Klassifizierungseigenschaften in
einer Lernphase vor der Laufzeit des
Klassifizierungsvorgangs im Voraus bestimmt werden.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet,
dass die im Voraus bestimmten endlichen Werte in einem
Speicher abgelegt, während der Laufzeit in
Abhängigkeit von den geforderten
Klassifizierungseigenschaften geladen und die
Gewichtungsfaktoren (wij, wjk) auf die geladenen Werte
gesetzt werden.
6. Verfahren nach einem der Ansprüche 3 bis 5, dadurch
gekennzeichnet, dass die Werte der Gewichtungsfaktoren
(wij, wjk) in Abhängigkeit von den äußeren Parametern
in einer Erprobungsphase vor der Lernphase und vor der
Laufzeit des Klassifizierungsvorgangs im Voraus
bestimmt werden.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet,
dass die im Voraus bestimmten Werte in einem Speicher
abgelegt, während der Laufzeit in Abhängigkeit von den
äußeren Parametern geladen und die Gewichtungsfaktoren
(wij, wjk) auf die geladenen Werte gesetzt werden.
8. Verfahren nach einem der Ansprüche 1 bis 7, dadurch
gekennzeichnet, dass das Verfahren zur Klassifizierung
von Radarzielen eingesetzt wird.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19917957A DE19917957A1 (de) | 1999-04-21 | 1999-04-21 | Neuronales Netzwerk |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19917957A DE19917957A1 (de) | 1999-04-21 | 1999-04-21 | Neuronales Netzwerk |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19917957A1 true DE19917957A1 (de) | 2000-10-26 |
Family
ID=7905273
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19917957A Withdrawn DE19917957A1 (de) | 1999-04-21 | 1999-04-21 | Neuronales Netzwerk |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE19917957A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110109059A (zh) * | 2019-03-27 | 2019-08-09 | 西安电子科技大学 | 一种基于深度学习网络的雷达辐射源信号识别方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5568590A (en) * | 1993-12-17 | 1996-10-22 | Xaos Tools | Image processing using genetic mutation of neural network parameters |
US5668717A (en) * | 1993-06-04 | 1997-09-16 | The Johns Hopkins University | Method and apparatus for model-free optimal signal timing for system-wide traffic control |
US5745653A (en) * | 1996-02-05 | 1998-04-28 | Ford Global Technologies, Inc. | Generic neural network training and processing system |
DE19649563A1 (de) * | 1996-11-29 | 1998-06-04 | Alsthom Cge Alcatel | Vorrichtung und Verfahren zur automatischen Klassifikation von Objekten |
-
1999
- 1999-04-21 DE DE19917957A patent/DE19917957A1/de not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5668717A (en) * | 1993-06-04 | 1997-09-16 | The Johns Hopkins University | Method and apparatus for model-free optimal signal timing for system-wide traffic control |
US5568590A (en) * | 1993-12-17 | 1996-10-22 | Xaos Tools | Image processing using genetic mutation of neural network parameters |
US5745653A (en) * | 1996-02-05 | 1998-04-28 | Ford Global Technologies, Inc. | Generic neural network training and processing system |
DE19649563A1 (de) * | 1996-11-29 | 1998-06-04 | Alsthom Cge Alcatel | Vorrichtung und Verfahren zur automatischen Klassifikation von Objekten |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110109059A (zh) * | 2019-03-27 | 2019-08-09 | 西安电子科技大学 | 一种基于深度学习网络的雷达辐射源信号识别方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE202017102238U1 (de) | Aktorsteuerungssystem | |
DE202017102235U1 (de) | Trainingssystem | |
DE102005046747B3 (de) | Verfahren zum rechnergestützten Lernen eines neuronalen Netzes und neuronales Netz | |
EP3701433B1 (de) | Verfahren, vorrichtung und computerprogramm zur erstellung eines tiefen neuronalen netzes | |
DE69719058T2 (de) | Verbessertes neuronales netzwerk | |
DE69815390T2 (de) | Neuronale netzwerke | |
EP3782081B1 (de) | Verfahren zur erzeugung eines testdatensatzes, verfahren zum testen, verfahren zum betreiben eines systems, vorrichtung, steuerungssystem, computerprogrammprodukt, computerlesbares medium, erzeugung und verwendung | |
DE10139682B4 (de) | Verfahren zum Generieren von neuronalen Netzen | |
EP3918528A1 (de) | Verfahren zum trainieren und zum betrieb eines multitaskingfähigen künstlichen neuronalen netz, multitaskingfähiges künstliches neuronales netz und vorrichtung | |
EP3748574A1 (de) | Adaptive bereinigung von messdaten um unterschiedliche arten von störungen | |
DE19917957A1 (de) | Neuronales Netzwerk | |
DE102019213009A1 (de) | Aufbereitung von Radarsignalen mit Unterdrückung von Bewegungsartefakten | |
EP3785178A1 (de) | Verfahren und vorrichtung zum ermitteln einer netzkonfiguration eines neuronalen netzes | |
DE102021201833A1 (de) | Vorrichtung zur Verarbeitung von mindestens einem Eingangsdatensatz unter Verwendung eines neuronalen Netzes sowie Verfahren | |
EP3467722A1 (de) | Konfiguration einer kraftfahrzeug-fahrerassistenzvorrichtung mit einem neuronalen netzwerk im laufenden betrieb | |
WO2021245151A1 (de) | Unüberwachtes lernen einer gemeinsamen darstellung von daten von sensoren unterschiedlicher modalität | |
EP0548127B1 (de) | Neuronales Netzwerk und Schaltungsanordnung zur Bool'schen Realisierung neuronaler Netze vom ADALINE-Typ | |
DE3609925C2 (de) | ||
WO2021004741A1 (de) | Robusteres training für künstliche neuronale netzwerke | |
DE4330847A1 (de) | Vorrichtung und Verfahren zur Datenverarbeitung | |
DE102005045120A1 (de) | Vorrichtung und Verfahren zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes | |
Lernen | TECHNOLOGIE | |
DE102021109756A1 (de) | Verfahren und Vorrichtung zum Ermitteln von Netzkonfigurationen eines neuronalen Netzes unter Erfüllung einer Mehrzahl von Nebenbedingungen | |
DE102021109754A1 (de) | Verfahren und Vorrichtung zum Ermitteln von Netzkonfigurationen eines neuronalen Netzes unter Erfüllung einer Mehrzahl von Nebenbedingungen | |
DE102019205842A1 (de) | Verfahren, Vorrichtung und Computerprogramm zum Quantisieren von neuronalen Netzen |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
8110 | Request for examination paragraph 44 | ||
8125 | Change of the main classification |
Ipc: G06N 3/04 |
|
8139 | Disposal/non-payment of the annual fee |