DE102005045120A1 - Vorrichtung und Verfahren zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes - Google Patents

Vorrichtung und Verfahren zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes Download PDF

Info

Publication number
DE102005045120A1
DE102005045120A1 DE102005045120A DE102005045120A DE102005045120A1 DE 102005045120 A1 DE102005045120 A1 DE 102005045120A1 DE 102005045120 A DE102005045120 A DE 102005045120A DE 102005045120 A DE102005045120 A DE 102005045120A DE 102005045120 A1 DE102005045120 A1 DE 102005045120A1
Authority
DE
Germany
Prior art keywords
neuron
neural network
background signal
groups
activities
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102005045120A
Other languages
English (en)
Inventor
Martin Dr. Stetter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE102005045120A priority Critical patent/DE102005045120A1/de
Publication of DE102005045120A1 publication Critical patent/DE102005045120A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Abstract

Die Erfindung betrifft eine Vorrichtung zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes, das umfasst:
- eine Mehrzahl von miteinander vernetzten, durch Aktivitäten (υ1, ..., υN) gekennzeichneten Neuronengruppen (1, ..., N) mit einem oder mehreren Neuronen, wobei in wenigstens einen Teil der Neuronengruppen (1, ..., N) jeweils ein Eingabesignal (IS,1, ... IS,N) eingebbar ist;
- wobei wenigstens einem Teil der Neuronengruppen (1, ..., N) ein globales Hintergrundsignal (Ib) zuführbar ist;
- wobei das Hintergrundsignal (Ib) auf eine Mehrzahl von Einstellwerten einstellbar ist.

Description

  • Die Erfindung betrifft eine Vorrichtung sowie ein Verfahren zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes.
  • Neuronale Netze werden zur Verarbeitung von Informationen, insbesondere zur Selektion von Informationen verwendet, wobei Eingabeinformationen in der Form von Eingabesignalen verschiedenen Neuronengruppen des Netzes zugeführt werden. Die Eingabesignale stellen Eingabeinformationen dar, die in dem neuronalen Netz nach bestimmten Kriterien aufbereitet und ausgegeben werden, wobei aus den Eingabeinformationen insbesondere eine Handlung abgeleitet oder ausgeführt wird.
  • Neuronale Netze werden in einer Vielzahl von technischen Gebieten eingesetzt. Anwendungsfälle sind beispielsweise Klassifikationsverfahren zur Einordnung von technischen Parametern. Im medizinischen Bereich kann mit solchen Klassifikationsverfahren die Einteilung von Patienten in Gruppen mit verschiedenen Diagnosen und Medikamentenverträglichkeiten vorgenommen werden. Eine andere Anwendung ist beispielsweise die Verkehrstechnik, bei der Sensormesswerte in verschiedene Kategorien eingestuft werden. Ferner werden Klassifikationsverfahren in der industriellen Automation verwendet, um beispielsweise eine zu erwartende Produktqualität auf der Basis von Sensorwerten des industriellen Prozesses zu klassifizieren.
  • Eine besondere Bedeutung kommt neuronalen Netzen bei der Lösung von kontextabhängigen Problemen zu. Bei diesen Problemen variiert die Lösung in Abhängigkeit von einer zugrunde liegenden Regel (so genannter Kontext), die sich verändern kann. Da das menschliche Gehirn bei der Behandlung von komplexen kontextabhängigen Problemen sehr leistungsfähig ist, basieren neuronale Netze auf den biophysikalischen Eigenschaften des menschlichen Gehirns und versuchen dessen Abläufe nachzubilden.
  • Zur Lösung von kontextabhängigen Problemen sind aus dem Stand der Technik maschinelle Lernverfahren bekannt, welche selbsttätig Zusammenhänge aus Beispielen derart lernen, dass ihre Fähigkeit zur Anpassung an neue Situationen ständig wächst. Für das Lernen werden jedoch viele Beispiele benötigt, und solche Systeme können in der Regel nur den stationären Anteil der Zusammenhänge lernen. Ändert sich beispielsweise ein solcher Zusammenhang in bestimmten Zeitabständen, kann ein solches lernendes System die relevanten Zusammenhänge nicht repräsentieren.
  • Aufgabe der Erfindung ist es deshalb, eine Vorrichtung zur dynamischen Informationsselektion zu schaffen, welche eine schnelle und flexible Anpassung der Informationsselektion an verschiedene Aufgabenstellungen bzw. Kontexte ermöglicht.
  • Diese Aufgabe wird durch die unabhängigen Patentansprüche gelöst. Weiterbildungen der Erfindung sind in den abhängigen Ansprüchen definiert.
  • Die erfindungsgemäße Vorrichtung beruht auf der Informationsselektion mit Hilfe eines neuronalen Netzes, wobei dieses Netz miteinander vernetzte, durch Aktivitäten gekennzeichnete Neuronengruppen mit einem oder mehreren Neuronen aufweist und in wenigstens einen Teil der Neuronengruppen jeweils ein Eingabesignal eingebbar ist. Dieses Eingabesignal ist insbesondere ein Stimulationssignal, welches eine bestimmte Eingabeinformation repräsentiert. Auf der Basis der Eingabeinformationen werden im neuronalen Netz Verarbeitungen zur Selektion von Informationen durchgeführt, um beispielsweise eine vorgegebene Aufgabe zu lösen. In dem Netz wird ferner wenigstens einem Teil der Neuronengruppen und insbesondere im Wesentlichen allen Neuronengruppen ein globales Hintergrundsignal bereitgestellt, wobei die Verwendung des Hintergrundsignals biologisch motiviert ist, da auch im menschlichen Gehirn solche Hintergrundsignale den Neuronen bereitgestellt werden. Die Anpassung der Eigenschaften des neuronalen Netzes erfolgt in der erfindungsgemäßen Vorrichtung dadurch, dass das Hintergrundsignal auf eine Mehrzahl von Einstellwerten einstellbar ist.
  • Der Erfindung liegt die Erkenntnis zugrunde, dass dem Hintergrundsignal eine wesentliche Bedeutung in neuronalen Netzen zukommt. Gemäß den biophysikalischen Vorgängen im menschlichen Gehirn besteht ca. 90% der gesamten Hirnaktivität in einer globalen und unspezifischen Hintergrundaktivität, welche in der vorliegenden Erfindung durch ein Hintergrundsignal modelliert wird. Nur etwa 10% der Aktivität des menschlichen Gehirns codiert die eigentliche sensorische, motorische und kognitive Information.
  • Der Erfinder hat insbesondere erkannt, dass die globale Hintergrundaktivität eine wichtige funktionelle Rolle im menschlichen Gehirn spielen muss, da die Evolution einen derartig hohen Energieverbrauch im menschlichen Körper höchstwahrscheinlich eliminiert hätte. Der Erfinder konnte durch Simulationen nachweisen, dass in einem künstlichen neuronalen Netz sich die Verhaltensweise und Dynamik des Netzes stark durch Variation des Hintergrundsignals verändert. Durch die Veränderung des Hintergrundsignals kann eine flexible Anpassung des neuronalen Netzes an verschiedene Kontexte erreicht werden. Hier unterscheidet sich die Erfindung von klassischen neuronalen Netzen, bei denen das Verhalten des Netzes vollständig nur über die synaptischen Gewichte zwischen den Neuronengruppen gesteuert wird.
  • Die Erfindung schafft somit eine Vorrichtung zur dynamischen Informationsselektion, bei der auf einfache Weise durch Verstellung des globalen Hintergrundsignals zwischen verschiedenen Verhaltensweisen des Netzes hin- und hergeschaltet werden kann. Eine Verhaltensweise ist hierbei insbesondere definiert als die Dynamik der Repräsentation von Stimulationssignalen oder als die Einspeicherung von Gedächtnisinhalten in der Form von persistenter Aktivität, was bedeutet, dass die Aktivität in den einzelnen Neuronengruppen die Stimulationssignale überdauert.
  • In einer Variante der Erfindung ist das globale Hintergrundsignal für verschiedene Teile des neuronalen Netzes auf unterschiedliche Einstellwerte einstellbar. Hierdurch kann eine besonders flexible Anpassung der Eigenschaften des neuronalen Netzes erreicht werden.
  • In einer bevorzugten Ausführungsform der erfindungsgemäßen Vorrichtung weist das Hintergrundsignal für zumindest einen Teil seiner Einstellwerte und insbesondere für jeden seiner Einstellwerte eine Stärke auf, die größer als die Stärke jedes eingebbaren Eingabesignals ist. Vorzugsweise beträgt die Stärke des Hintergrundsignals zumindest das Doppelte der Stärke jedes Eingabesignals, insbesondere mehr als das Fünffache der Stärke jedes Eingabesignals und besonders bevorzugt mehr als das 10-fache der Stärke jedes Eingabesignals. Durch eine derartige Wahl des Hintergrundsignals können sehr gut die Aktivitäten des menschlichen Gehirns nachgebildet werden, bei dem ein großer Anteil der Hirnaktivität nur auf das Hintergrundsignal zurückzuführen ist. Es hat sich gezeigt, dass die Vorrichtung sehr gute Ergebnisse liefert, wenn die Stärke des Hintergrundsignals wesentlich größer als die Stärke des Eingabesignals ist. Es ist jedoch ggf. auch möglich, dass das Hintergrundsignal für zumindest einen Teil seiner Einstellwerte und insbesondere für jeden Einstellwert eine Stärke aufweist, die kleiner oder gleich der Stärke jedes eingebbaren Eingabesignals ist.
  • Zur Beschreibung der Aktivitäten der Neuronengruppen wird in einer besonders bevorzugten Ausführungsform der Erfindung die Mean-Field-Approximation verwendet, die hinlänglich aus dem Stand der Technik bekannt ist und beispielsweise in der Druckschrift [1] beschrieben ist. Mit der Mean-Field-Approximation kann sehr gut das Verhalten des neuronalen Netzes im stationären Zustand, das heißt ohne Eingaben von außen, ermittelt werden. Insbesondere können sehr gut stabile Fixpunkte (auch als Attraktoren bezeichnet) ermittelt werden, wobei diese Fixpunkte Zustände mit zeitlich konstanten Aktivitäten in den Neuronengruppen beschreiben. Vorzugsweise verwendet die Mean-Field-Approximation hierbei eine von dem Hintergrundsignal und wenigstens einem Teil der Aktivitäten der Neuronengruppen abhängige Transferfunktion, welche einen beschleunigenden Abschnitt umfasst, in dem der Wert der Ableitung der Transferfunktion ansteigt, sowie einen sättigenden Abschnitt, in dem der Wert der Ableitung der Transferfunktion abnimmt. Es hat sich gezeigt, dass mit einer solchen Transferfunktion sehr gut neuronale Netze mit Attraktorzuständen ermöglicht werden, wodurch in der Vorrichtung Vorgänge simuliert werden können, bei denen im Netz Gedächtnisinhalte gespeichert werden.
  • Vorzugsweise kann das Hintergrundsignal in der erfindungsgemäßen Vorrichtung derart eingestellt werden, dass das neuronale Netz wenigstens einen stabilen ersten Fixpunkt aufweist, bei dem sich die Aktivitäten der Neuronengruppen – abgesehen von kleinen, durch Rauschen verursachten Veränderungen – im Wesentlichen nicht verändern und im Wesentlichen alle Neuronengruppen im Wesentlichen die gleiche Aktivität aufweisen. Diese ersten Fixpunkte werden in der detaillierten Beschreibung als DC-Fixpunkte bezeichnet. Darüber hinaus ist das Hintergrundsignal vorzugsweise auch derart einstellbar, dass das neuronale Netz wenigstens einen zweiten stabilen Fixpunkt aufweist, bei dem sich die Aktivitäten der Neuronengruppen im Wesentlichen nicht verändern und die Neuronengruppen zumindest teilweise unterschiedliche Aktivitäten aufweisen. Dieser zweite stabile Fixpunkt kann beispielsweise durch eine vorangegangene Stimulation erreicht werden. Ein neuronales Netz, welches die Einstellung auf derartige Fixpunkte ermöglicht, gewährleistet insbesondere die Implementierung von Arbeitsgedächtnis in der Form von persistenter Aktivität der Neuronengruppen in dem neuronalen Netz.
  • Vorzugsweise ist das Hintergrundsignal auch auf wenigstens einen Einstellwert einstellbar, bei dem das neuronale Netz ausschließlich wenigstens einen zweiten stabilen Fixpunkt aufweist. Ferner ist in einer bevorzugten Ausführungsform des Netzes ein Rauschen erzeugbar, mit dem ein Übergang von einem zweiten stabilen Fixpunkt zu einem anderen zweiten stabilen Fixpunkt ermöglicht wird. Hierdurch können ggf. kreative Denkvorgänge des menschlichen Gehirns modelliert werden.
  • In einer weiteren Ausführungsform der erfindungsgemäßen Vorrichtung wird das globale Hintergrundsignal durch einen effektiven Hintergrundstrom repräsentiert, der eine globale Hemmung in dem neuronalen Netz durch eine Neuronengruppe aus hemmenden Neuronen berücksichtigt. Hierdurch wird eine einfache Modellierung des Netzes geschaffen, da eine in einem neuronalen Netz vorliegende Hemmung bereits durch ein effektives Hintergrundsignal sowie entsprechende effektive synaptische Gewichte berücksichtigt wird, so dass nicht separat mit den Gewichten von hemmenden Neuronen gerechnet werden muss.
  • Neben der oben beschriebenen Vorrichtung umfasst die Erfindung ferner ein Verfahren zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes, bei dem in wenigstens einen Teil von einer Mehrzahl von miteinander vernetzten, durch Aktivitäten gekennzeichneten Neuronengruppen mit einem oder mehreren Neuronen Eingabesignale eingegeben werden und bei dem wenigstens einem Teil der Neuronengruppen und vorzugsweise im Wesentlichen allen Neuronengruppen ein globales Hintergrundsignal zugeführt wird, das in Abhängigkeit von den erwünschten Eigenschaften des neuronalen Netzes auf einen entsprechenden Einstellwert eingestellt wird. Analog zu der oben beschriebenen erfindungsgemäßen Vorrichtung hat das Verfahren den Vorteil, dass nur durch die Veränderung eines einzigen Parameters, nämlich der Einstellung des Hintergrundsignals, die Eigenschaften des neuronalen Netzes verändert werden können.
  • Ausführungsbeispiele der Erfindung werden nachfolgend anhand der beigefügten Figuren detailliert beschreiben.
  • Es zeigen:
  • 1 eine schematische Darstellung einer Ausführungsform eines in der Erfindung verwendeten neuronalen Netzes;
  • 2 eine graphische Darstellung einer in der Erfindung verwendeten Transferfunktion;
  • 3 ein Diagramm, das die Abhängigkeit der Ausbildung von stabilen Bereichen in dem neuronalen Netz vom Hintergrundstrom wiedergibt;
  • 4 eine dreidimensionale Darstellung, welche nochmals die Abhängigkeit der Aktivitäten der Neuronengruppen vom Hintergrundstrom wiedergibt;
  • 5 ein Diagramm, welches verdeutlicht, in welchen Fällen sich in dem erfindungsgemäßen neuronalen Netz stabile Fixpunkte ausbilden;
  • 6 ein Diagramm ähnlich zu 3, welches eine detailliertere Aufteilung der Stabilitätszustände des Netzes in Abhängigkeit von dem Hintergrundstrom wiedergibt;
  • 7 Diagramme, welche die Abhängigkeit der Antwort eines Neuronenpools auf ein Stimulationssignal von dem globalen Hintergrundstrom zeigen;
  • 8 Diagramme, welche die Abhängigkeit der Sensitivität eines neuronalen Netzes von dem globalen Hintergrundstrom zeigen; und
  • 9 Diagramme, welche die Abhängigkeit der Antwort von zwei Neuronenpools auf zwei Stimulationssignale von dem globalen Hintergrundstrom verdeutlichen.
  • 1 zeigt ein in einer Ausführungsform der erfindungsgemäßen Vorrichtung verwendetes neuronales Netz aus künstlichen Neuronen. Dieses Netz umfasst eine Vielzahl von Neuronenpools 1, 2,..., N aus erregenden Neuronen. Jeder Pool ist durch eine über alle Neuronen im Pool gemittelte Spiking-Rate ν1, ν2, ..., νN charakterisiert. Die Spiking-Rate ist eine hinlänglich aus dem Stand der Technik bekannte Größe und beschreibt die Aktivität von Neuronen. Jeder Pool zeichnet sich dadurch aus, dass er ähnliche Eingaben empfängt und sich alle künstlichen Neuronen des jeweiligen Pools ähnlich verhalten. Die spezifischen Eingaben für jeden der Pools 1 bis N entsprechen Eingabeströmen Is,1, Is,2, ..., Is,N zu den jeweiligen Pools 1, 2, ..., N. Die lokalen Verbindungen der künstlichen Neuronen in einem Pool werden durch ein starkes lokales synaptisches Gewicht w+ charakterisiert. Demgegenüber weisen die Neuronen zwischen den einzelnen Pools schwächere laterale synaptische Gewichte mit dem Wert w_ auf. Neben den Pools aus erregenden Neuronen existiert ferner ein so genannter Pool aus hemmenden Neuronen INH mit der Spiking-Rate νI. Dieser hemmende Pool INH weist eine lokale Erregung mit dem Wert –wII auf und wird über einen globalen hemmenden Strom II gespeist. Ferner ist dieser Pool an die Pools der erregenden Neuronen gekoppelt, um eine globale Hemmung auf diese erregenden Neuronen auszuüben. Die Kopplung erfolgt über entsprechende Gewichte von dem hemmenden Pool zu den erregenden Pools mit dem Wert –wEI und von den erregenden Pools hin zu dem hemmenden Pool mit dem Wert wIE. In dem neuronalen Netz werden Eingabeinformationen, welche beispielsweise in dem Netz kategorisiert werden sollen, nur über die erregenden Pools durch entsprechende Stimuli IS,1, IS,2, ..., IS,N zugeführt. Den erregenden Pools des Netzes wird ferner ein globaler, veränderbarer Eingabestrom I0 zugeführt.
  • In der hier beschriebenen Ausführungsform der Erfindung wird die Dynamik des Netzes über die hinlänglich aus dem Stand der Technik bekannte Mean-Field-Approximation beschrieben (siehe Dokument [1]). Die Dynamik der Pools wird dabei durch folgende Gleichung approximiert:
    Figure 00090001
  • Hierbei ist ν(t) die gemittelte Spiking-Rate über den jeweiligen Pool, g(I) stellt eine so genannte Transferfunktion des mittleren Eingangsstroms I(t) dar, und τ bezeichnet eine Zeitkonstante des Netzes.
  • Die Dynamik des neuronalen Netzes, das in der hier beschriebenen Ausführungsform verwendet wird, entspricht der in der Druckschrift [2] beschriebenen Dynamik. Diese wird durch folgende Gleichungen beschrieben:
    Figure 00090002
  • Hierbei ist I0 der globale Eingabestrom zu den Pools der erregenden Neuronen, II ist der globale Eingabestrom zu dem hemmenden Pool, Is,k (k = 1, ..., N) ist der spezifische Eingabestrom zu dem jeweiligen Pool k, und gI ist die Steigung einer hemmenden Transferfunktion.
  • Der Erfindung liegt die Erkenntnis zugrunde, dass der globale Eingabestrom I0 wesentlich die Eigenschaften des neuronalen Netzes beeinflusst. Deshalb zeichnet sich die hier beschriebene Ausführungsform der Erfindung dadurch aus, dass dieser globale Eingabestrom zur Veränderung der Eigenschaften des neuronalen Netzes verstellt werden kann. Insbesondere können hierdurch die Verarbeitungseigenschaft des Netzes je nach Er fordernissen auf einfache Weise verändert und der gestellten Aufgabe, z.B. einer gestellten Kategorisierungsaufgabe, effektiv angepasst werden.
  • Der Erfinder hat insbesondere erkannt, dass der globale Hintergrundstrom, der in einem menschlichen Gehirn einen großen Anteil des Energieverbrauchs ausmacht, eine funktionelle Rolle spielen muss. Der Erfinder konnte nachweisen, dass eine Veränderung des Hintergrundstroms einen sehr starken Einfluss auf das neuronale Netz hat. Im folgenden wird in dem neuronalen Netz gemäß der 1 mit der Dynamik der Gleichungen (2) und (3) der Einfluss des Stroms auf das Netz nachgewiesen.
  • Die Gleichung (3) kann wie folgt umgeformt werden:
    Figure 00100001
  • Mit dieser Umformung kann die Dynamik gemäß Gleichung (2) wie folgt geschrieben werden:
    Figure 00100002
  • Hieraus ergibt sich folgendes Differentialgleichungssystem:
    Figure 00100003
    wobei
    Figure 00100004
    der so genannte globale effektive Hintergrundstrom ist; WS = w+ – w_die überschüssige lokale Erregung ist (meist größer bzw. gleich Null); und WL = N(w – WI)die effektive laterale Verbindungsstärke ist (die ihr Vorzeichen ändern kann).
  • Das Netzwerk wird nun im folgenden auf der Basis der in der Gleichung (6) angegebenen Variablen analysiert. Hierbei wird insbesondere das Verhalten des Hintergrundstroms Ib untersucht, der bis auf eine Verschiebungskonstante dem globalen Eingabestrom I0 entspricht. Die wesentlichen Beschreibungsgrößen in einem neuronalen Netz sind die so genannten stabilen Fixpunkte, welche Attraktoren des neuronalen Netzes darstellen. Je nachdem, welche Attraktoren das neuronale Netz aufweist, unterscheidet sich dessen Verhaltensweise.
  • Es wird der folgende Fixpunktvektor im Vektorraum aller erregenden Pools 1 bis N betrachtet: νFP =:νFP(1, 1, ..., 1)T ≡ νFP1 (7)
  • Dieser Vektor weist gleiche Aktivitäten für alle erregenden Pools auf und wird im folgenden auch als DC-Zustand/DC-Fixpunkt bezeichnet. Er stellt unter konstanten Eingabebedingungen eine Fixpunktlösung des Gleichungssystems (6) dar, wenn gilt:
    Figure 00110001
  • Ein Fixpunkt νFP liegt somit unter folgender Bedingung vor: νFP = g(Ib + (WS + WLFP) (9)
  • Im Falle eines so genannten "balancierten Netzwerks", bei dem die effektive laterale Verbindungsstärke der Negativbetrag der überschüssigen lokalen Erregung ist (das heißt WL = –WS), gilt folglich: νFP = g(Ib)
  • 2 zeigt qualitativ die Ausbildung von stabilen Fixpunkten FP in Abhängigkeit vom Hintergrundstrom Ib. In 2 ist auf der Abszisse die Spiking-Rate ν und auf der Ordinate die Transferfunktion g aufgetragen. Es sind hierbei drei Beispielfunktionen g für unterschiedliche Werte des Hintergrundstroms Ib,1, Ib,2 und Ib,3 dargestellt. Hierbei gilt: Ib,1 < Ib,2 < Ib,3. Mit der strich-punktierten Linie ist die Funktion für Ib,1 wiedergegeben. Mit der gepunkteten Linie 2 ist die Funktion für Ib,2 wiedergegeben. Mit der durchgezogenen Linie ist die Funktion für Ib,3 wiedergegeben. An den Stellen, an denen die gestrichelte Gerade h mit der Steigung 1 die einzelnen Funktionen g schneidet, liegen Fixpunkte vor. Man erkennt, dass für den Hintergrundstrom Ib,1 ein einziger unterer Fixpunkt FP1 vorliegt. Demgegenüber führt der Hintergrundstrom Ib,2 zu einem bistabilen Zustand mit zwei stabilen Fixpunkten FP2 und FP3. Es existiert zwar noch ein weiterer Punkt FP' für Ib,2, jedoch ist dieser Punkt kein stabiler Fixpunkt. Das Kriterium für die Stabilität eines Fixpunkts wird weiter unten noch näher erläutert. Für den Hintergrundstrom Ib,3 existiert auch ein einzelner Fixpunkt, der, im Gegensatz zu Ib,1, im oberen Bereich der entsprechenden Funktion g liegt.
  • In einer bevorzugten Ausführungsform des erfindungsgemäßen Netzes sind die Parameter in dem Netz derart gewählt, dass wenigstens ein stabiler Fixpunkt vorliegt. Um dies zu erreichen, kann die Funktion g beispielsweise derart ausgestaltet sein, dass sie einen beschleunigenden Anteil, das heißt einen Anteil mit steigender Ableitung, sowie einen Sättigungsanteil, das heißt einen Teil mit einer fallenden Ableitung, aufweist. Ein Beispiel einer solchen Funktion ist die in der Druckschrift [2] verwendete Funktion, welche wie folgt lautet:
    Figure 00130001
  • Diese Funktion approximiert sehr gut die über die Mean-Field-Analyse hergeleitete Funktion für verschiedene neuronale Netzwerkmodelle mit spikenden Neuronen.
  • Im folgenden wird untersucht, unter welchen Bedingungen die DC-Fixpunkte des neuronalen Netzes stabil sind, das heißt, dass sich die Aktivitäten der Pools nach kleinen ε-Veränderungen wieder zu den Fixpunkten zurückbewegen.
  • Um eine kleine beliebige Veränderung εk der Aktivität νk in einem Pool k des neuronalen Netzes zu beschreiben, wird folgender Ansatz gewählt: νk = νFP + εk, k = 1, ..., N, mit εk sehr klein, aber beliebig (11)
  • Ein Fixpunkt ist dann – und nur dann – stabil, wenn εk über die Zeit auf Null abfällt.
  • Es gilt.
  • Figure 00130002
  • Diese Gleichung kann wie folgt umgeformt werden:
    Figure 00140001
  • Unter Verwendung einer Vektornotation für das Gleichungssystem lässt sich dieses wie folgt schreiben:
    Figure 00140002
  • Hierbei ist ε = (ε1, ..., εN)T der Vektor der ε-Veränderung der Aktivität und es gilt ferner: 1 = (1, 1, 1, ..., 1)T
  • Hieraus ergibt sich, dass die Stabilität des Fixpunktes dann vorliegt, wenn gilt:
    Figure 00140003
  • Aus dieser Gleichung folgt, dass ein stabiler Fixpunkt unter folgenden Bedingungen vorliegt:
    Figure 00140004
  • Stabilität liegt somit dann vor, wenn entweder die Steigung der Funktion g am Fixpunkt oder die überschüssige Selbsterre gung WS nicht zu groß ist und ferner entweder die Steigung der Funktion g am Fixpunkt oder die gesamte Erregung (WS + WL) nicht zu groß ist.
  • Aus den vorangegangenen Gleichungen ergibt sich insbesondere, dass unter der Bedingung g'(IFP)WS > 1 kein stabiler DC-Fixpunkt vorliegt. Die Bedingung ist für den Punkt FP' der 2 erfüllt, so dass dieser Fixpunkt nicht stabil ist.
  • Für die in Gleichung (10) beschriebene Funktion aus der Druckschrift [2] lässt sich für WS ≥ 1 die Grenze zwischen stabilem DC-Fixpunkt und instabilem Fixpunkt bzw. spontaner Musterbildung wie folgt angeben:
    Figure 00150001
  • Dieser Zusammenhang ist graphisch in 3 dargestellt, wobei der Bereich mit stabilem DC-Fixpunkt als R1 und der Bereich mit instabilen DC-Fixpunkten bzw. spontaner Musterbildung mit R2 bezeichnet ist.
  • 4 zeigt nochmals anschaulich in einer 3D-Graphik den Zusammenhang zwischen dem Hintergrundstrom Ib und den Aktivitäten ν der Pools für ein simuliertes Beispielnetz. Die Achse NP bezeichnet hierbei die Nummer des Pools, wohingegen die beiden anderen Achsen die Größe des Hintergrundstroms Ib bzw. die Aktivität ν darstellen. Man erkennt, dass ein Bereich B1 existiert, in dem stabile DC-Fixpunkte vorliegen, bei denen alle Pools die gleichen Aktivitäten aufweisen. Der Bereich B1 erstreckt sich bis etwa zu einem Hintergrundstrom von Ib = 0,8. Es folgt schließlich ein Bereich B2, der der spontanen Ausbildung von Mustern entspricht, bei denen die Pools jeweils unterschiedliche Aktivitäten ν aufweisen. Der Bereich erstreckt sich ca. von Ib = 1 bis Ib = 1,14. Anschließend folgt ein Bereich B3, der wiederum stabile DC-Fixpunkte mit wesentlich höheren Aktivitäten als im Bereich B1 aufweist. Aus der 4 wird sehr anschaulich erkenntlich, dass durch eine Variation des Hintergrundstroms gemäß der Erfindung eine starke Variation der Eigenschaften des neuronalen Netzes erreicht werden kann.
  • Im folgenden wird analysiert, unter welchen Bedingungen so genannte gemusterte Zustände, welche Zustände mit unterschiedlichen Aktivitäten der Pools sind, Attraktorzustände mit persistenter Aktivität bilden. Falls beispielsweise jeder Neuronenpool ein Merkmal repräsentiert, kann seine stabile persistente Aktivität ohne einen Stimulus als Speicherzustand für dieses Merkmal betrachtet werden. Hierbei ist jedoch auch die Stabilität des DC-Zustands zu berücksichtigen. Ansonsten könnten die gemusterten Zustände spontan auftreten und ein Korrelat von so genannten Halluzinationen bilden. Es ist deshalb entscheidend, dass der Hintergrundstrom Ib so gewählt ist, dass sowohl wenigstens ein stabiler gemusterter Zustand als auch wenigstens ein stabiler DC-Zustand vorliegt. Dies wird als so genannte Multistabilität bezeichnet.
  • Zur Ermittlung, ob eine solche Multistabilität vorliegt, werden wiederum die Gleichungen im Fixpunkt betrachtet. Im Fixpunkt gilt:
    Figure 00160001
  • Diese Gleichungen faktorisieren in k, das heißt jede kann separat betrachtet werden: ν = g([Ib + WL ν] + WSν) = g([Ib + (WS + WL)ν] + WS(ν – ν)) (16)
  • Im Falle eines balancierten Netzwerks (das heißt WS = –WL) erhält man: νk = g(Ib + WSk – ν)) (17)
  • Zur Ermittlung, ob es gemusterte Fixpunktzustände gibt, wird folgender Ansatz gemacht:
  • Jeder Neuronenpool 1 bis N kann in einem von zwei Aktivitätszuständen sein, was mathematisch wie folgt ausgedrückt werden kann: ν ∊ (νa, νs), νa > νs ν1, ν2, ..., νM = νa; νM+1, ..., νN = νs
  • Der Mittelwert der Aktivität ν kann somit wie folgt ausgedrückt werden:
    Figure 00170001
  • Hieraus ergibt sich für die beiden Aktivitätszustände νa und νs folgende Beziehung, wobei x den Anteil an Pools mit der Aktivität νa bezeichnet
    Figure 00170002
  • Eine Lösung für die Gleichungen gemäß (18) liegt dann vor, wenn eine lineare Funktion mit der Steigung 1/WS vorliegt, welche die Funktion g wenigstens zweimal derart schneidet, dass das Verhältnis der Distanzen zwischen dem jeweiligen Schnittpunkt und dem Punkt Ib x/(1 – x) ist.
  • 5 zeigt ein Beispiel für eine entsprechende Funktion g sowie einen entsprechend gewählten Hintergrundstrom Ib, so dass die Gleichungen gemäß (18) erfüllt ist. In 5 ist ferner die untere Grenze I1 für den Hintergrundstrom Ib angedeutet. Die Grenze ergibt sich durch die Tangente mit der Steigung 1/WS an dem Graphen g in Punkt I2.
  • Für die Transferfunktion gemäß der Gleichung (10) können I1 und I2 analytisch berechnet werden. Es ergeben sich folgende Funktionen:
    Figure 00180001
  • 6 zeigt eine graphische Darstellung, welche die Ausbildung verschiedener Eigenschaftsbereiche des neuronalen Netzes für die Transferfunktion gemäß Gleichung (10) in Abhängigkeit von dem Hintergrundstroms Ib und der Selbsterregung WS zeigt. Die Graphik gemäß 6 entspricht im Wesentlichen der Graphik der 3, wobei der Bereich R1 nunmehr jedoch eingeteilt ist in die Bereiche R1' und R1''. Der Bereich R1'' zeigt hierbei Zustände des neuronalen Netzes, bei denen sowohl ein stabiler DC-Fixpunkt als auch stabile gemusterte Fixpunktzustände vorliegen.
  • Aus der vorangegangenen Beschreibung ergibt sich, dass abhängig von der Größe des Hintergrundstromes flexibel und dynamisch eingestellt werden kann, welche Attraktoren, das heißt Gedächtnisinhalte des Modells, stabil sind. Dazu wird jeder der Neuronenpools 1 bis N als Repräsentant einer Größe (Wahrnehmungsinhalt, Aktionsplan oder Gedanken) identifiziert. Ist der entsprechende Pool auch ohne externe Stimulation aktiv, handelt es sich um Gedächtnisinhalt. Man erkennt insbesondere, dass über den Hintergrundstrom Ib eingestellt werden kann, ob und gegebenenfalls wie viele Gedächtnisinhalte gleichzeitig gespeichert werden können. Insbesondere können Inhalte bei Bedarf dynamisch gelöscht werden, was einen wichtigen Mechanismus zur Informationsselektion darstellt.
  • Es wird im folgenden ein balanciertes Netzwerk betrachtet, das heißt WS = –WL. Zunächst wird beschrieben, wie mit Hilfe des Hintergrundstroms Ib die Antwort des Netzwerks auf neue Stimuli dynamisch eingestellt werden kann. Dies kann in Anlehnung an das biologische Vorbild des neuronalen Netzes als Mechanismus der Wachheit bzw. Aufmerksamkeit gedeutet werden.
  • 7 zeigt für unterschiedliche Hintergrundströme, nämlich für Ib = 0,52, für Ib = 0,54 und für Ib = 0,56, die Aktivität eines ausgewählten Neuronenpools in einem simulierten neuronalen Netz, wobei der Neuronenpool für die Zeitperiode ts mit einem Stimulus erregt wird. Mann erkennt, dass sich nur durch geringe Variationen des Hintergrundstroms Ib sehr unterschiedliche Antworten des ausgewählten Pools im simulierten Netz ergeben. Insbesondere erkennt man, dass die Aktivitäten des Pools für Ib = 0,54 und Ib = 0,56 wesentlich stärker sind und wesentlich länger anhalten als im Falle von Ib = 0,52.
  • 8 zeigt drei Diagramme, welche die Sensitivität eines simulierten neuronalen Netzes für variierten Hintergrundstrom Ib auf einen Stimulationsstrom Is wiedergeben. Die Sensitivität kann in Anlehnung an das biologische Vorbild des neuronalen Netzes als Mechanismus der Wachheit bzw. Aufmerksamkeit gedeutet werden. In jedem Diagramm ist hierbei der Wert für WS unterschiedlich gewählt. Im obersten Diagramm gilt WS = 0,9, im mittleren Diagramm ist WS = 1,10 und im unteren Diagramm ist WS = 1,25. Auch hier erkennt man, dass der Wert des Hintergrundstroms, der in jedem Diagramm für drei unterschiedliche Werte dargestellt ist, einen starken Einfluss auf das Verhalten des Netzes hat. Insbesondere aus dem mittleren und dem unteren Diagramm wird ersichtlich, dass bei zunehmendem Ib die Sensitivität, das heißt die Verstärkung des Netzes heraufgesetzt wird, das heißt das Netz reagiert schon bei einem geringeren Stimulus IS. Somit kann auf einfache Weise durch Variationen des Hintergrundstroms eine dynamische Anpassung der Sensitivität des Netzes erreicht werden.
  • 9 zeigt fünf Diagramme D1 bis D5, welche das Verhalten von zwei Neuronenpools P1 und P2 in einem simulierten neuronalen Netz zeigen, wobei beide Neuronenpools mit dem gleichen Stimulus während der Zeitperiode ts erregt werden. Man erkennt wiederum, dass die Neuronenpools in Abhängigkeit von der Größe des Hintergrundstroms Ib ihr Verhalten verändern. Im Diagramm D1 ist die Reaktion der Pools P1 und P2 auf den Stimulus sehr klein. Die Reaktion des Pools P2 bei ansteigen dem Hintergrundstrom nimmt von Diagramm D1 bis D4 stark zu. Insbesondere liegt in Diagramm D4 nach Stimulation eine persistente Aktivität des Pools P2 vor. Bei noch weiterer Erhöhung des Hintergrundstroms Ib erfolgt ferner auch eine starke Antwort des anderen Pools P1, der in den Diagrammen davor im Wesentlichen keine Veränderung zeigte. Im Diagramm D5 zeigt auch dieser Pool eine persistente Aktivität, was somit zu einem neuronalen Netz mit Arbeitsgedächtnis führt.
  • Die Diagramme der 9 zeigen sehr anschaulich, dass die Eigenschaften des neuronalen Netzes in Abhängigkeit von dem Hintergrundstrom stark verändert werden können. Es konnte ferner gezeigt werden, dass das neuronale Netz in Abhängigkeit von dem Hintergrundstrom auch Sequenzen von Stimuli ganz unterschiedlich verarbeitet. Insbesondere kann beispielsweise ein späterer Stimulus, der auf einen früheren Stimulus folgt, ignoriert werden (so genanntes nicht-störbares Arbeitsgedächtnis). Es kann jedoch auch der Fall auftreten, dass in dem Netz statt einem ersten Stimulus ein nachfolgender zweiter Stimulus repräsentiert wird (so genanntes störbares Arbeitsgedächtnis). Ferner können beide Stimuli zusammen in dem neuronalen Netz repräsentiert werden (so genannte Sequenzspeicherung). Darüber hinaus kann ein globaler schwacher Zusatzstrom in dem neuronalen Netz auch als Gating-Signal dienen, um bereits bestehende Arbeitsgedächtnisinhalte zu stabilisieren.
  • Wie sich aus dem vorangegangenen Ausführungen ergibt, kann durch die Variation des Hintergrundstroms ein neuronales Netz flexibel unterschiedliche Signalverarbeitungen ausführen und seine dynamischen Verarbeitungseigenschaften ändern sowie unterschiedliche Attraktoren im Netz stabilisieren bzw. destabilisieren. Der Hintergrundstrom kann hierbei generell globaler Natur sein, das heißt es wird keine signalspezifische Information benötigt, um mit diesem Hintergrundstrom eine Schaltfunktion auszuführen. Der Hintergrundstrom stellt somit einen zusätzlichen Freiheitsgrad in der Einstellung eines neuronalen Netzes dar. Wird er immer konstant gehalten, redu ziert sich das Netzwerk auf ein klassisches neuronales Attraktor-Netzwerk.
  • Zitierte Literatur
    • [1] Brunel, N. und Wang, X. J. (2001) : "Effects of neuromodulation in a cortical network model of object working memory dominated by recurrent inhibition", Comput. Neurosci. 11: 63–85.
    • [2] Mongillo, G., Amit, D. J. und Brunel, N. (2003): "Retrospective and prospective persistent activity induced by Hebbian learning in a recurrent cortical network", Eur. J. Neurosci. 18: 2011–2024.

Claims (14)

  1. Vorrichtung zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes, das umfasst: – eine Mehrzahl von miteinander vernetzten, durch Aktivitäten (ν1, ..., νN) gekennzeichneten Neuronengruppen (1, ..., N) mit einem oder mehreren Neuronen, wobei in wenigstens einen Teil der Neuronengruppen (1, ..., N) jeweils ein Eingabesignal (Is,1, ..., Is,N) eingebbar ist; – wobei wenigstens einem Teil der Neuronengruppen (1, ..., N) ein globales Hintergrundsignal (Ib) zuführbar ist; – wobei das Hintergrundsignal (Ib) auf eine Mehrzahl von Einstellwerten einstellbar ist.
  2. Vorrichtung nach Anspruch 1, bei der das globale Hintergrundsignal (Ib) im Wesentlichen allen Neuronengruppen zuführbar ist.
  3. Vorrichtung nach Anspruch 1 oder 2, bei der das globale Hintergrundsignal (Ib) für verschiedene Teile des neuronalen Netzes auf unterschiedliche Einstellwerte einstellbar ist.
  4. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der das Hintergrundsignal (Ib) für zumindest einen Teil seiner Einstellwerte und insbesondere für jeden Einstellwert eine Stärke aufweist, die größer als die Stärke jedes eingebbaren Eingabesignals (Is,1, ..., Is,N) ist.
  5. Vorrichtung nach Anspruch 4, bei der die Stärke des Hintergrundsignals (Ib) zumindest das Doppelte der Stärke jedes Eingabesignals (Is,1, ..., Is,N), vorzugsweise mehr als das Fünffache der Stärke jedes Eingabesignals (Is,1, ..., Is,N) und besonders bevorzugt mehr als das 10-fache der Stärke jedes Eingabesignals (Is,1, ..., Is,N), beträgt.
  6. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der das Hintergrundsignal (Ib) für zumindest einen Teil seiner Einstellwerte und insbesondere für jeden Einstellwert ei ne Stärke aufweist, die kleiner oder gleich der Stärke jedes eingebbaren Eingabesignals (Is,1, ..., Is,N) ist.
  7. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der die Aktivitäten der Neuronengruppen (1, ..., N) in dem neuronalen Netz mit einer Mean-Field-Approximation ermittelt werden.
  8. Vorrichtung nach Anspruch 7, bei der in der Mean-Field-Approximation eine von dem Hintergrundsignal (Ib) und wenigstens einem Teil der Aktivitäten (ν1, ..., νN) der Neuronengruppen (1, ..., N) abhängige Transferfunktion (g(I)) verwendet wird, welche einen beschleunigenden Abschnitt umfasst, in dem der Wert der Ableitung (g'(I)) der Transferfunktion (g(I)) ansteigt, sowie einen sättigenden Abschnitt, in dem der Wert der Ableitung (g'(I)) der Transferfunktion (g(I)) abnimmt.
  9. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der das Hintergrundsignal (Ib) auf wenigstens einen Einstellwert einstellbar ist, bei dem das neuronale Netz wenigstens einen ersten stabilen Fixpunkt aufweist, bei dem sich die Aktivitäten (ν1, ..., νN) der Neuronengruppen (1, ..., N) im Wesentlichen nicht verändern und im Wesentlichen alle Neuronengruppen im Wesentlichen die gleiche Aktivität aufweisen.
  10. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der das Hintergrundsignal (Ib) auf wenigstens einen Einstellwert einstellbar ist, bei dem das neuronale Netz wenigstens einen zweiten stabilen Fixpunkt aufweist, bei dem sich die Aktivitäten (ν1, ..., νN) der Neuronengruppen (1, ..., N) im Wesentlichen nicht verändern und die Neuronengruppen (1, ..., N) zumindest teilweise unterschiedliche Aktivitäten (ν1, ..., νN) aufweisen.
  11. Vorrichtung nach Anspruch 10, bei der das Hintergrundsignal (Ib) auf wenigstens einen Einstellwert einstellbar ist, bei dem das neuronale Netz ausschließlich wenigstens einen zweiten stabilen Fixpunkt aufweist.
  12. Vorrichtung nach Anspruch 10 oder 11, bei der in dem neuronalen Netz ein Rauschen erzeugbar ist, mit dem ein Übergang von einem zweiten stabilen Fixpunkt zu einem anderen zweiten stabilen Fixpunkt ermöglicht wird.
  13. Vorrichtung nach einem der vorhergehenden Ansprüche, bei der das globale Hintergrundsignal (Ib) durch einen effektiven Hintergrundstrom repräsentiert ist, der eine globale Hemmung in dem neuronalen Netz durch eine Neuronengruppe (INH) aus hemmenden Neuronen berücksichtigt.
  14. Verfahren zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes, bei dem: – in wenigstens einen Teil von einer Mehrzahl von miteinander vernetzten, durch Aktivitäten (ν1, ..., νN) gekennzeichneten Neuronengruppen (1, ..., N) mit einem oder mehreren Neuronen Eingabesignale (Is,1, ..., Is,N) eingegeben werden; – zumindest einem Teil der Neuronengruppen (1, ..., N) ein globales Hintergrundsignal (Ib) zugeführt wird, das in Abhängigkeit von den erwünschten Eigenschaften des neuronalen Netzes auf einen entsprechenden Einstellwert eingestellt wird.
DE102005045120A 2005-09-21 2005-09-21 Vorrichtung und Verfahren zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes Withdrawn DE102005045120A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102005045120A DE102005045120A1 (de) 2005-09-21 2005-09-21 Vorrichtung und Verfahren zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102005045120A DE102005045120A1 (de) 2005-09-21 2005-09-21 Vorrichtung und Verfahren zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes

Publications (1)

Publication Number Publication Date
DE102005045120A1 true DE102005045120A1 (de) 2007-03-29

Family

ID=37832502

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102005045120A Withdrawn DE102005045120A1 (de) 2005-09-21 2005-09-21 Vorrichtung und Verfahren zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes

Country Status (1)

Country Link
DE (1) DE102005045120A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1975857A2 (de) 2007-03-27 2008-10-01 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Verarbeitung von in einem Sensornetzwerk erfassten Messwerten
US11568267B2 (en) 2020-03-12 2023-01-31 International Business Machines Corporation Inducing creativity in an artificial neural network

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5764856A (en) * 1993-09-11 1998-06-09 Alcatel N.V. Parallel neural networks having one neural network providing evaluated data to another neural network

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5764856A (en) * 1993-09-11 1998-06-09 Alcatel N.V. Parallel neural networks having one neural network providing evaluated data to another neural network

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
WARREN S. SARLE: Neural Networks and Statistical Models, Proceed. of the 19th Annual SAS Users Group Internat. Conf., April 1994, 1-10 *
WEN YU: Chemical Process Identification with multiple Neural Networks, Int. Journal Enginee- ring Science, Imperial College Press, Vol. 3, No. 4, (2002), 385-407 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1975857A2 (de) 2007-03-27 2008-10-01 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Verarbeitung von in einem Sensornetzwerk erfassten Messwerten
EP1975857A3 (de) * 2007-03-27 2009-03-25 Siemens Aktiengesellschaft Verfahren zur rechnergestützten Verarbeitung von in einem Sensornetzwerk erfassten Messwerten
US11568267B2 (en) 2020-03-12 2023-01-31 International Business Machines Corporation Inducing creativity in an artificial neural network

Similar Documents

Publication Publication Date Title
DE102007001025B4 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102005046747B3 (de) Verfahren zum rechnergestützten Lernen eines neuronalen Netzes und neuronales Netz
DE102007001026B4 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
WO2000063788A2 (de) Situationsabhängig operierendes semantisches netz n-ter ordnung
AT521647A1 (de) Verfahren und System zur Datenaufbereitung, zum Trainieren eines künstlichen neuronalen Netzes und zum Analysieren von Sensordaten
DE102005045120A1 (de) Vorrichtung und Verfahren zur dynamischen Informationsselektion mit Hilfe eines neuronalen Netzes
DE10139682B4 (de) Verfahren zum Generieren von neuronalen Netzen
DE19537010C2 (de) Lernverfahren und -anordnung zur Nachbildung eines dynamischen Prozesses
EP0782729B1 (de) Verfahren und anordnung zur aufbereitung einer eingangsgrösse eines neuronalen netzes
EP2832599B1 (de) Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs, Computerprogramm, Computer-Programmprodukt
DE102004013924B3 (de) Vorrichtung zur kontextabhängigen Datenanalyse
DE102005046946B3 (de) Vorrichtung zur rechnergestützten Ermittlung von Assoziationen zwischen Informationen auf der Basis eines neuronalen Netzes
EP1145190A2 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
EP4032030A1 (de) Schnelles quantisiertes training trainierbarer module
DE102023106248A1 (de) Spurstangenkraftschätzung bei Steer-by-Wire-Systemen mittels intelligentem Modellübergang
EP1194882B1 (de) Mustersuche
EP3712823A1 (de) Verfahren und vorrichtung zur steuerung eines technischen geräts mittels einem programmcode
DE4416465C1 (de) Verfahren zur Defuzzifizierung für signalverarbeitende Fuzzy-Baueinheiten und Filtereinrichtungen hierfür
WO2024067902A1 (de) Spurstangenkraftschätzung bei steer-by-wire-systemen mittels intelligentem modellübergang
EP3710992A1 (de) Künstliches neuronales netz und verfahren hierzu
WO2020169416A1 (de) Quantisiertes training trainierbarer module
DE102022126747A1 (de) Verfahren zu einer Generierung von Szenariomodellen bei autonomen Fahrvorgängen
DE102020209900A1 (de) Verfahren und Analysiereinrichtung zum Verarbeiten von Umfeldsensordaten
DE102022204369A1 (de) Computerimplementiertes Verfahren und Computerprogramm zum Regeln einer zweiten Verteilungsfunktion in einem generativen kontradiktorischen Netzwerk, neuronale Prozessoreinheit zum Trainieren eines generativen kontradiktorischen Netzwerks und computerimplementiertes Verfahren zum Trainieren, Validieren und/oder Testen von Maschinenlernmodellen für die Umfeldwahrnehmung eines automatisierten Fahrsystems
WO2003079285A2 (de) Verfahren und anordnung sowie computerprogramm mit programmcode-mitteln und computerprogramm-produkt zur gewichtung von eingangsgrössen für eine neuronale struktur sowie neuronale struktur

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8139 Disposal/non-payment of the annual fee