WO2019096881A1 - Künstliches neuronales netz und verfahren hierzu - Google Patents

Künstliches neuronales netz und verfahren hierzu Download PDF

Info

Publication number
WO2019096881A1
WO2019096881A1 PCT/EP2018/081323 EP2018081323W WO2019096881A1 WO 2019096881 A1 WO2019096881 A1 WO 2019096881A1 EP 2018081323 W EP2018081323 W EP 2018081323W WO 2019096881 A1 WO2019096881 A1 WO 2019096881A1
Authority
WO
WIPO (PCT)
Prior art keywords
neurons
output
neural network
input
artificial neural
Prior art date
Application number
PCT/EP2018/081323
Other languages
English (en)
French (fr)
Inventor
Bodo Rosenhahn
Original Assignee
Gottfried Wilhelm Leibniz Universität Hannover
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gottfried Wilhelm Leibniz Universität Hannover filed Critical Gottfried Wilhelm Leibniz Universität Hannover
Priority to EP18807029.6A priority Critical patent/EP3710992A1/de
Publication of WO2019096881A1 publication Critical patent/WO2019096881A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks

Definitions

  • the invention relates to an artificial neural network for a computer-aided knowledge management with a plurality of neurons, which are interconnected via weighted edges.
  • the invention also relates to a method for carrying out such a neural network and to a method for training such a neural network.
  • Computer-aided knowledge management in the sense of the present invention is the retrieval and / or derivation of knowledge with the aid of a computer-modeled knowledge base.
  • corresponding knowledge is generated in the form of output values, whereby these output values either directly represent the learned knowledge or generate new knowledge by a corresponding generalization depending on the input values of the knowledge base.
  • the knowledge base and associated data structure are suitable as an artificial neural network consisting of a large number of artificial neurons which are connected to one another via weighted edges.
  • the learned knowledge of this artificial neural network is contained in the respective weights of the individual edges, whereby the individual artificial neurons can be stimulated or inhibited in relation to the respective input.
  • an artificial neural network is highly networked such that an artificial neuron receives as inputs the outputs of the respective preceding layer of neurons, which inputs are affected by the weights of the weighted edges between these artificial neurons and the artificial neurons of the previous layer , From these weighted inputs (also Called net input) then the artificial neuron calculates an output or activity level (also called output), which is then provided to the following neurons as input taking into account the respective weighting of the edge.
  • an output or activity level also called output
  • the input of a neuron from a previous neuron thus depends on two essential values, namely the output of the previous neuron and the weight of the edge between the two neurons.
  • the artificial neuron has a transfer function with which the network input for the artificial neuron is then calculated from the individual input values of the artificial neuron. With the aid of the transfer function, all input values of the neuron are thus converted to a single network input value, with this network input then being supplied with an activation function of the artificial neuron.
  • the activation function calculates the output or network output of the artificial neuron taking into account a threshold value.
  • Known activation functions are, for example, linear activation functions, binary threshold functions or sigmoid activation functions. A threshold may or may not be considered.
  • an artificial neural network consists of several layers, each of which has one or more artificial neurons.
  • the artificial neurons of the first layer are connected via the weighted edges with the artificial neurons of the subsequent layer, resulting in the network-like structure and the corresponding interweaving.
  • an input layer is provided, which contains one or more input neurons, via which the input values are entered into the artificial neural network.
  • these input neurons may, for example, be such that, based on the input values, they forward them directly without change as output values to the nearest neuron layer.
  • the activation function is linear.
  • an output layer consisting of one or more output neurons, which then terminate. could output the corresponding output values which the artificial neural network is to calculate.
  • a meaning content is assigned to both the individual input neurons and the individual output neurons, so that each input neuron has a semantic meaning with regard to the input values, while each output value also has a semantic meaning with regard to the respective output neuron.
  • the processing neurons using the weighted edges, connecting the input neurons to the output neurons.
  • the artificial neuron consists of an input neuron, two processing neurons, and one output neuron
  • there are two weighted edges from the input neuron which extend to the first processing neuron with the second processing neuron.
  • another weighted edge then extends to the output neuron, while from the second processing neuron a weighted edge also extends to the output neuron.
  • the weights are adjusted such that they ultimately store the knowledge contained therein based on the training data and then, by inputting corresponding input values, the knowledge stored in the artificial neural network is calculated by calculating the output value or retrieve the output values.
  • an artificial neural network can be referred to as a data structure containing computer-aided learned knowledge and which can retrieve this knowledge through a predetermined calculation rule inherent in the data structure by inputting input values and calculating output values. Accordingly, an artificial neural network transfers corresponding input values, each of which has a meaning content, depending on the given data structure of the artificial neural network and the respective values of the individual weights of the weighted edges in output values, which also has a meaning content related to knowledge management.
  • An artificial neural network is thus an information-processing system or computer-aided model in which data storage in the form of learned knowledge and processing rules is usually stored in one. Such an artificial neural network is stored computationally as an associative data structure dynamically in a memory area of a data processing system.
  • a conventional artificial neural network in this case has a deterministic behavior, i. at the same input values, the artificial neural network always produces the same output values.
  • knowledge can be generalized by means of an artificial neuronal network, i. With the help of the artificial neural network, knowledge can be generated that can not be directly and uniquely taken from the training data. However, due to the unique data paths within the neural network and the learned weights, a deterministic behavior is always generated, which, depending on the application, appears to be less intuitive, non-spontaneous and less varied for the artificial neuronal network.
  • the strict deterministic behavior of such an artificial neural network leads to a very monotonous response behavior, especially for simple input values, and thus appears less human.
  • an artificial neural network is claimed to have computer-assisted knowledge management with a plurality of neurons which are connected to one another via weighted edges.
  • such an artificial neural network is a data structure present in a data memory of a data processing system, with which corresponding output values are calculated based on input values to which a meaning content is assigned and the knowledge base stored in the weights, which also have meaning content - is ordered.
  • the data processing system with the aid of the artificial neural network is prepared such that it simulates the data processing of input values similar to those of a human brain and the neural connections contained therein. Consequently, the artificial neural network is computed dynamically as an associative data structure in the memory area of a data processing system and is executed there by the data processing system when input values are input to the neural network or when the artificial neural network is learned from training data.
  • the artificial neural network according to claim 1 has one or more input neurons, to each of which an input meaning content is assigned and transmitted by means of their input values to the artificial neural network.
  • the artificial neural network according to claim 1 further comprises one or more output neurons, each associated with an output meaning content and are output by means of their output values of the artificial neural network. These output values are the result of the calculations from the artificial neural network based on the input values of the input neurons.
  • the artificial neural network generically further comprises one or more processing neurons, which connect the input neurons with the output neurons via the weighted edges, so that those at the input neurons entered input values are converted by the processing neurons according to the output values.
  • the weights of the edges from the input neurons to the processing neurons and finally from the processing neurons to the output neurons are set such that by inputting appropriate ones Input values and the associated output values associated with these input values are correspondingly output from the artificial neural network.
  • the learned knowledge ie the knowledge base of the artificial neural network, thus lies in appropriately adjusted weights of the edges.
  • this artificially known artificial neural network is expanded to include one or more additional switch neurons connected to one or more processing neurons via weighted or unweighted edges, the at least one switch neuron transmitting a pseudo-random number outputs the weighted or unweighted edges as additional input to the connected processing neurons.
  • Such a pseudo-random number can be generated and provided, for example, by the Heidelbergereuron itself.
  • the switch neuron receives from the outside such a pseudo-random number as an input value, this pseudo-random number then being output directly as an output value to the weighted or unweighted edges to the processing neurons.
  • Such an artificial neural network was trained with respect to the input values and the one or more pseudorandom numbers to vary the output values in dependence on the pseudorandom number or pseudorandom numbers. This means that for the same input values the output values vary depending on the pseudorandom number output by the at least one switch neuron, so that the artificial neural network becomes quasi non-deterministic or pseudo-nondeterministic since the output values now depend on the pseudo-random number.
  • the pseudo-random variability is added to the artificial neural network, whereby the response behavior of one such artificial neural network acts more spontaneously and also more humanly depending on the assigned input meaning content with output meaning contents.
  • switch neurons derives from the fact that, given identical input values, the output ultimately depends solely on the pseudo-random number output by the switch neuron, whereby the output of the artificial neural network is virtually non-deterministic due to the output of the artificial neural network Wegerneurons is determined.
  • the artificial neural network can be switched between different output values with respect to the same input values, this being done pseudo-randomly.
  • the artificial neural network was further trained in such a way with the aid of the training data that a set of output values is assigned to a set of input values, wherein the set of input values additionally has a value for the pseudorandom number which also belongs to the Set of output values is assigned.
  • the training data are created such that different output values are also assigned to the same input values but different pseudo-random numbers, so that the artificial neural network learns the output of the correspondingly assigned output values for the same input values depend on the pseudo-random number.
  • At least one switch rerouter outputs a pseudorandom number from a predetermined number range, for example in a numerical range from 0 to 1, wherein the artificial neural network is set up such that at the same input values the output values at pseudo Random numbers do not vary within a common subrange of the specified number range.
  • the number range of the pseudorandom number is subdivided into a finite number of subareas, wherein pseudo-random numbers that are within a common subarea lead to the same output values always being output for the same input values.
  • the artificial neural network is thus deterministic.
  • the probability for the occurrence of particular output values can be controlled, whereby the behavior of the neural network can be set with regard to its pseudo-nonde terminology.
  • At least one processing layer is provided, which has the processing neurons, wherein the at least one switch neuron is connected to each processing neuron of the processing layer via the weighted or unweighted edges.
  • the artificial neural network it is conceivable for the artificial neural network to have a plurality of processing layers which are applied one after the other, wherein each processing layer of the artificial neural network has one or more processing neurons, it being possible for the at least one switch neuron to be provided with each Processing neuron is connected to each processing layer.
  • the at least one switch neuron is connected only to certain processing neurons of particular processing layers.
  • each switch neuron being connected to the processing neurons of precisely one processing layer, whereby each of these switch neurons can only influence one processing layer at a time.
  • the concrete connection of the artificial neural network with respect to the switch neurons depends on the requirements and the output behavior.
  • the object is also achieved with a method for calculating output values based on input values by means of an artificial neural network according to claim 5 for a computer-aided knowledge management, wherein initially an artificial neural network is provided which contains the features and properties of the artificial neural network as written above has.
  • the artificial neural network thus extended was trained with the aid of training data, the training data having an assignment of the input values and one or more pseudo-random numbers to corresponding output values, whereupon the artificial neural network is trained accordingly.
  • one or more input values are now transferred or input to such an artificial neural network by means of the input neurons and a corresponding pseudorandom number of the at least one additional switch neuron is generated.
  • This pseudo-random number can be generated by the switch neuron itself or can be provided accordingly as an input value to the switch master.
  • the output values are then calculated by means of the processing neurons, the output values being dependent on the input values entered and the one or more pseudo-random numbers. The output values are then output via the output neurons.
  • the output values are calculated in such a way that, for the same input values, the output values depend on the pseudorandom number output by the at least one switch neuron.
  • the pseudo-random number is generated from a predetermined number range and the output values are calculated such that, given the same input values, the output values for pseudorandom numbers do not vary within a common subarea of the predetermined number range.
  • the calculation of the output values with the aid of such an artificial neural network takes place in such a way that not only the weighted result of the preceding neurons is provided in at least one processing neuron, but also the weighted or unweighted output of the one or more switch neurons, so that one Such processing neuron just one or more pseudo-random numbers are provided as input.
  • the network input to the respective processing neuron then becomes then calculate the output of the processing neuron using the activation function and, if necessary, a threshold value function. It is also conceivable that the added pseudo-random number influences the threshold value in the activation function by the additional switch neurons, as a result of which such a processing neuron can be more inhibited or more excited as a function of the pseudorandom number.
  • such a pseudorandom number which is input as an additional element of the network input of such a processing neuron, affects the output of the processing neuron to the nearest layer, such that such a pseudorandom number influences the overall output and behavior of the artificial neural network.
  • the object is also achieved with a method for training an artificial neural network according to claim 10 for a computer-aided knowledge management, wherein initially also an artificial neural network is provided, which provides the features and properties of the previously described artificial neural network Has.
  • the artificial neural network has a switch neuron so as to provide a pseudo-random number of the processing of the artificial neural network.
  • training data are provided with which the artificial neural network is to be trained, wherein the training data contains a plurality of training sets, with which the artificial neural network is to be trained on the input-output behavior.
  • such a training set consists of an assignment of input values to corresponding output values, wherein each training set additionally has one or more pseudorandom numbers in the input values, which are assigned to the respective output values together with the input values.
  • the artificial neural network is to be trained in such a way that, when a combination of the input values and the pseudorandom number is present, it outputs the output values assigned to this combination in each case.
  • the artificial neural network is trained by adjusting the weights of the weighted edges such that at the same input values, the output values depend on the pseudo-random number issuing through the at least one switch neuron.
  • the HEBB rule For the training of such a neural network, there are a variety of learning rules, such as the HEBB rule, the delta rule, for example, backpropagation.
  • Figure 1 - schematic representation of the artificial neuronal network according to the invention
  • Figure 2 Representation of an embodiment of an artificial neural
  • FIG. 1 shows the artificial neural network 10 having a first input layer 11, a second processing layer 12 and a third output layer 13.
  • Each of the layers 11, 12 and 13 in this case has an artificial neuron 14 in order to calculate the output values based on the corresponding input values.
  • the first input layer 11 in this case has three input neurons Ei, E2 and E3, which are each connected via weighted edges to the following processing neurons V1 and V2 of the second processing layer 12. This means that the input echo Ei is connected to the processing neuron V1 via an edge having a weight W.
  • the indices i and j stand for the respective layer of the artificial neural network 10 and the respective node in this layer.
  • the processing nodes V1 and V2 of the second processing layer 12 are in this case connected to the output neurons Ai and A2 of the third output layer 13, the edges in each case also being weighted again.
  • the weights Wy contain the learned knowledge which has been trained by appropriate training data to the artificial neural network 10.
  • an additional switch neuron S1 is now provided which is connected by respective edges to each of the processing neurons V1 and V2 of the second processing layer 12.
  • the switch neuron S1 generates a pseudorandom number, which is then provided as an input to the respective processing neuron V1 and V2.
  • the processing neuron V1 receives as input the weighted output of the input neurons Ei, E2 and E3 as well as additionally the output of the switch neuron S1, which outputs a corresponding pseudorandom number.
  • the processing neuron Vi receives a total of four inputs, namely an additional input by the switch neuron Si.
  • Figure 2 shows schematically an artificial neural network having four input neurons and four output neurons and two processing layers, each of the processing layers having four processing neurons each.
  • the artificial neural network of Fig. 2 has a switch neuron connected to all the processing neurons of the first processing layer.
  • a "random walk” also called random movement or random walk
  • a neural network due to the deterministic behavior.
  • the random walk depicted using the artificial neural network shown in FIG. 2 has four states, namely the transition to the left, to the right, to the top or to the bottom.
  • the input neurons Ei to E 4 indicate the current state, ie in which direction the rotor has run last.
  • the output Ai to A4 is expected to be the next state, ie whether the runner should run to the left, to the right, to the top or to the bottom.
  • the next condition to be taken is to be random. This is finally realized with the switch neuron Si.
  • the neural network is trained in Figure 2 using training data, wherein the training data in addition to the input values Ei to E 4 also include the switch neuron Si, while the output include the output values Ai to A 4 .
  • the training data can be defined schematically as follows:
  • This table shows schematically that for the same input values, namely an input value 1 for the input echo Ei and otherwise an input value 0 for the other input neurons, the output varies.
  • the artificial neural network now learns for the same input values as the output values depend on the pseudo-random number at the beginning. For a pseudorandom number of 0.5, the output neuron A3 is activated, while for a pseudorandom number 0.1 and 0.2, the second output neuron A2 is activated.
  • the artificial neural network can thus map a random walk based on the pseudorandom number, the four states being mapped by corresponding subareas of the random number range.
  • the number range is subdivided into four equally sized subregions, with a corresponding state being assigned to each subarea.
  • Such a trained neural network can also generalize a randomness, ie also output output values, even if there are no training data templates for the corresponding combination of input values and output values. For example, suppose that the set of training data was not included in the training data, so would the learned artificial neuronal network at a random number of 0.15 and input values of (1, 0, 0, 0) just activate the second output neuron A2.
  • Other applications that can be mapped using such a pseudo-nondeterministic neural network to allow for more random variability, without sacrificing the benefits of a neural network in terms of learning and generalizability, are Chat Bots, Artificial Intelligence, for example in the field of computer games or automated computer-generated text synthesis.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

Die Erfindung betrifft ein künstliches Neuronales Netz für ein computergestütztes Wissensmanagement mit einer Mehrzahl von Neuronen, die über gewichtete Kanten miteinander verbunden sind, wobei ein oder mehrere Eingabeneuronen vorgesehen sind, denen jeweils ein Ein gabe-Bedeutungsinhalt zugeordnet ist und mittels derer Eingabewerte an das künstliche Neuronale Netz übergeben werden, - ein oder mehrere Ausgabeneuronen vorgesehen sind, denen jeweils ein Aus gabe-Bedeutungsinhalt zugeordnet sind und mittels derer Ausgabewerte des künstlichen Neuronalen Netzes ausgegeben werden, und ein oder mehrere Verarbeitungsneuronen vorgesehen sind, die über die ge wichteten Kanten die Eingabeneuronen mit den Ausgabeneuronen verbinden, wobei das künstliche Neuronale Netz mindestens ein zusätzliches Schalterneuron hat, das mit einem oder mehreren Verarbeitungsneuronen über gewichtete oder ungewichtete Kanten verbunden ist, wobei das wenigstens eine Schalterneuron eine Pseudo-Zufallszahl über die gewichteten oder ungewichteten Kanten als zusätzliche Eingabe an die verbundenen Verarbeitungsneuronen ausgibt.

Description

Künstliches Neuronales Netz und Verfahren hierzu
Die Erfindung betrifft ein künstliches Neuronales Netz für ein com putergestütztes Wissensmanagement mit einer Mehrzahl von Neuronen, die über gewichtete Kanten miteinander verbunden sind. Die Erfindung betrifft ebenso ein Verfahren zum Ausfüh- ren eines solchen Neuronalen Netzes sowie ein Verfahren zum Trainieren eines der- artigen Neuronalen Netzes.
Ein computergestütztes Wissensmanagement im Sinne der vorliegenden Erfindung ist das Abrufen und/oder Ableiten von Wissen mit Hilfe einer computermodellierten Wissensbasis. Dabei wird mit Hilfe von Eingabewerten und der Wissensbasis ent- sprechendes Wissen in Form von Ausgabewerten generiert, wobei diese Ausgabe- werte entweder das gelernte Wissen direkt abbilden oder neues Wissen generieren, indem in Abhängigkeit von den Eingabewerten der Wissensbasis eine entspre- chende Generalisierung stattfindet.
Insbesondere für den Aspekt der Generalisierung eignen sich als Wissensbasis und dazugehörige Datenstruktur ein künstliches Neuronales Netz, das aus einer Vielzahl von künstlichen Neuronen besteht, die über gewichtete Kanten miteinander verbun- den sind. Das gelernte Wissen dieses künstlichen Neuronalen Netzes steckt dabei in den entsprechenden Gewichten der einzelnen Kanten, wodurch die einzelnen künst- lichen Neuronen in Bezug auf die jeweilige Eingabe angeregt oder gehemmt werden können.
In der Regel ist ein künstliches Neuronales Netz stark vernetzt, sodass ein künstli ches Neuron als Eingabewerte die Ausgaben der jeweils vorhergehenden Schicht von Neuronen erhält, wobei diese Eingaben durch die Gewichte der gewichteten Kanten zwischen diesen künstlichen Neuronen und den künstlichen Neuronen der vorherigen Schicht beeinflusst werden. Aus diesen gewichteten Eingaben (auch Netzeingabe bzw. Netinput genannt) berechnet das künstliche Neuron dann eine Ausgabe bzw. Aktivitätslevel (auch Output genannt), das dann den folgenden Neuro- nen als Eingabe unter Berücksichtigung der jeweiligen Gewichtung der Kante bereit- gestellt wird.
Die Eingabe eines Neurons von einem vorhergehenden Neuron hängt somit von zwei wesentlichen Werten ab, nämlich der Ausgabe des vorhergehenden Neurons und dem Gewicht der Kante zwischen den beiden Neuronen. Das künstliche Neuron weist darüber hinaus eine Übertragungsfunktion auf, mit der aus den einzelnen Ein- gabewerten des künstlichen Neurons dann die Netzeingabe für das künstliche Neu- ron berechnet wird. Mit Hilfe der Übertragungsfunktion werden somit sämtliche Ein- gabewerte des Neurons auf einen einzelnen Netzeingabewert umgewandelt, wobei diese Netzeingabe dann eine Aktivierungsfunktion des künstlichen Neurons zuge- führt wird. Die Aktivierungsfunktion berechnet dabei die Ausgabe bzw. Netzausgabe des künstlichen Neurons unter Berücksichtigung eines Schwellenwertes. Bekannte Aktivierungsfunktionen sind beispielsweise lineare Aktivierungsfunktionen, binäre Schwellenfunktionen oder sigmoide Aktivierungsfunktionen. Ein Schwellenwert kann, muss aber nicht dabei berücksichtigt werden.
Ein solches künstliches Neuronales Netz besteht dabei in der Regel aus mehreren Schichten, die jeweils ein oder mehrere künstliche Neuronen aufweisen. Die künstli chen Neuronen der ersten Schicht sind dabei über die gewichteten Kanten mit den künstlichen Neuronen der nachfolgenden Schicht verbunden, wodurch sich der netz- förmige Aufbau und die entsprechende Verflechtung ergeben. Am Anfang eines künstlichen Neuronales Netzes ist dabei eine Eingabeschicht vorgesehen, die ein o- der mehrere Eingabeneuronen enthält, über die die Eingabewerte in das künstliche Neuronale Netz eingegeben werden. Diese Eingabeneuronen können dabei bei- spielsweise dergestalt sein, dass sie basierend auf den Eingabewerten diese ohne Veränderung direkt als Ausgabewerte an die nächstliegende Neuronenschicht wei- terleiten. In einem solchen Fall ist die Aktivierungsfunktion linear.
Am Ende eines solchen künstlichen Neuronalen Netzes befindet sich eine Ausgabe- schicht, die aus einem oder mehreren Ausgabeneuronen besteht, die dann schließ- lieh die entsprechenden Ausgabewerte, die das künstliche Neuronale Netz berech- nen soll, ausgeben. Sowohl den einzelnen Eingabeneuronen als auch den einzelnen Ausgabeneuronen ist dabei ein Bedeutungsinhalt zugeordnet, sodass jede Eingabe- neuron hinsichtlich der Eingabewerte eine semantische Bedeutung hat, während je- der Ausgabewert hinsichtlich des jeweiligen Ausgabeneurons ebenfalls eine semanti- sche Bedeutung hat. Durch Interpretation dieser semantischen Bedeutung bzw. des Bedeutungsinhaltes wird somit ein entsprechender Wissensabruf bzw. eine entspre- chende Generierung von Wissen abgeleitet.
Zwischen der Schicht aus Eingabeneuronen und der Schicht aus Ausgabeneuronen befinden sich ein oder mehrere Schichten von Verarbeitungsneuronen, wobei die Verarbeitungsneuronen mit Hilfe der gewichteten Kanten die Eingabeneuronen mit den Ausgabeneuronen verbinden. Besteht das künstliche Neuron beispielsweise aus einem Eingabeneuron, zwei Verarbeitungsneuronen und einem Ausgabeneuron, so existieren ausgehend von dem Eingabeneuron zwei gewichtete Kanten, die zu dem ersten Verarbeitungsneuron mit dem zweiten Verarbeitungsneuron verlaufen. Von dem ersten Verarbeitungsneuron verläuft dann eine weitere gewichtete Kante zu dem Ausgabeneuron, während von dem zweiten Verarbeitungsneuron ebenfalls eine gewichtete Kante zu dem Ausgabeneuron verläuft. Durch das Trainieren des künstli chen Neuronalen Netzes werden dabei die Gewichte so angepasst, dass sie letzt- endlich basierend auf den Trainingsdaten das darin enthaltene Wissen speichern und durch Eingaben von entsprechenden Eingabewerten dann das in dem künstli chen Neuronalen Netz gespeicherte Wissen durch Berechnen des Ausgabewertes oder der Ausgabewerte abrufen.
Demzufolge kann ein künstliches Neuronales Netz als eine Datenstruktur bezeichnet werden, die computergestütztes gelerntes Wissen enthält und die dieses Wissen durch eine vorgegebene Berechnungsvorschrift, die der Datenstruktur immanent ent- halten ist, durch Eingabe von Eingabewerten und berechnet von Ausgabewerten ab- rufen kann. Demzufolge überführt ein künstliches Neuronales Netz entsprechende Eingabewerte, denen jeweils ein Bedeutungsinhalt zugeordnet ist, in Abhängigkeit von der vorgegebenen Datenstruktur des künstlichen Neuronalen Netzes und den je- weiligen Werten der einzelnen Gewichte der gewichteten Kanten in Ausgabewerte, denen ebenfalls ein Bedeutungsinhalt in Bezug auf das Wissensmanagement zuge- ordnet ist. Es handelt sich bei einem künstlichen Neuralen Netz somit um ein Infor- mationsverarbeitenden System oder computergestütztes Modell, bei dem in der Re- gel die Datenspeicherung in Form vom gelernten Wissen und Verarbeitungsregeln in einem abgespeichert sind. Ein solches künstliches Neuronales Netz ist dabei rechen- technisch als assoziative Datenstruktur dynamisch in einem Speicherbereich eine Datenverarbeitungsanlage abgelegt.
Ein herkömmliches künstliches Neuronales Netz weist dabei ein deterministisches Verhalten auf, d.h. bei denselben Eingabewerten erzeugt das künstliche Neuronale Netz immer dieselben Ausgabewerte. Zwar kann mit Hilfe eines künstlichen Neuro- nalen Netzes auch Wissen generalisiert werden, d.h. es kann mit Hilfe des künstli chen Neuronalen Netzes Wissen erzeugt werden, das nicht direkt und eindeutig den Trainingsdaten entnehmbar ist. Allerdings wird aufgrund der eindeutigen Datenpfade innerhalb des Neuronalen Netzes und den gelernten Gewichten immer ein determi- nistisches Verhalten erzeugt, was je nach Anwendungsfall für das künstliche Neuro- nale Netz wenig intuitiv, nicht spontan und wenig abwechslungsreich erscheint. Ins- besondere dann, wenn mit Hilfe von künstlichen Neuronalen Netzen menschliches Verhalten in Teilbereichen abgebildet werden soll, führt das strenge deterministische Verhalten eines solchen künstlichen Neuronalen Netzes gerade bei einfachen Einga- bewerten zu einem sehr monotonen Antwortverhalten und erscheint gerade dadurch weniger menschlich.
Es ist daher Aufgabe der vorliegenden Erfindung ein verbessertes künstliches Neuro- nales Netz, ein verbessertes Verhalten eines solchen künstlichen Neuronalen Netzes sowie ein verbessertes Verfahren zum Trainieren eines solchen künstlichen Neuro- nalen Netzes anzugeben, das gerade kein deterministisches Antwortverhalten mehr aufweist.
Die Aufgabe wird mit dem künstlichen Neuronalen Netz gemäß Anspruch 1 , ein Ver- fahren zum Berechnen von Ausgabewerten basierend auf Eingabewerten mittels ei- nes solchen künstlichen Neuronalen Netzes gemäß Anspruch 5 sowie ein Verfahren zum Trainieren eines solchen künstlichen Neuronalen Netzes gemäß Anspruch 10 gelöst. Gemäß Anspruch 1 wird ein künstliches Neuronales Netz computergestütztes Wis- sensmanagement mit einer Mehrzahl von Neuronen beansprucht, die über gewich- tete Kanten miteinander verbunden sind. Ein solches künstlichen Neuronales Netz ist dabei eine in einem Datenspeicher einer Datenverarbeitungsanlage vorliegenden Datenstruktur, mit der basierend auf Eingabewerte, denen jeweils ein Bedeutungsin- halt zugeordnet ist, und der in den Gewichten gespeicherten Wissensbasis entspre- chende Ausgabewerte berechnet werden, denen ebenfalls ein Bedeutungsinhalt zu- geordnet ist. Hierdurch wird es möglich, eine Datenverarbeitungsanlage durch Ein- gabe von Eingabewerten mit Hilfe des künstlichen Neuronalen Netzes so herzurich- ten, dass sie in Abhängigkeit von den in dem künstlichen Neuronalen Netz anhand der Gewichte gespeicherten Wissen dieses Wissen abruft und je nach Eingabewerte generalisiert. Hierdurch wird die Datenverarbeitungsanlage mit Hilfe des künstlichen Neuronalen Netzes so hergerichtet, dass es die Datenverarbeitung von Eingabewer- ten ähnlich dem eines menschlichen Gehirns und den darin enthaltenen Neuronalen Verknüpfungen simuliert. Demzufolge ist das künstliche Neuronale Netz rechentech- nisch als assoziative Datenstruktur dynamisch im Speicherbereich einer Datenverar- beitungsanlage angelegt und wird dort durch die Datenverarbeitungsanlage ausge- führt, wenn Eingabewerte in das Neuronale Netz eingegeben werden oder wenn das künstliche Neuronale Netz anhand von Trainingsdaten gelernt wird.
Gattungsgemäß weist das künstliche Neuronale Netz gemäß Anspruch 1 ein oder mehrere Eingabeneuronen auf, denen jeweils ein Eingabe-Bedeutungsinhalt zuge- ordnet ist und mittels deren Eingabewerte an das künstliche Neuronale Netz überge- ben werden. Gattungsgemäß weist das künstliche Neuronale Netz gemäß Anspruch 1 des Weiteren ein oder mehrere Ausgabeneuronen auf, denen jeweils ein Ausgabe- Bedeutungsinhalt zugeordnet sind und mittels deren Ausgabewerte des künstlichen Neuronalen Netzes ausgegeben werden. Diese Ausgabewerte sind dabei das Ergeb- nis der Berechnungen aus dem künstlichen Neuronalen Netz basierend auf den Ein- gabewerten der Eingabeneuronen.
Hierzu weist das künstliche Neuronale Netz gattungsgemäß des Weiteren ein oder mehrere Verarbeitungsneuronen auf, die über die gewichteten Kanten die Eingabe- neuronen mit den Ausgabeneuronen verbinden, sodass die an den Eingabeneuronen eingegebenen Eingabewerte durch die Verarbeitungsneuronen entsprechend in die Ausgabewerte überführt werden. Ist das künstliche Neuronale Netz, sowie es gat- tungsgemäß beschrieben wurde, mit Hilfe von Trainingsdaten entsprechend trainiert, so sind die Gewichte der Kanten von den Eingabeneuronen zu den Verarbeitungs- neuronen und von den Verarbeitungsneuronen schließlich zu den Ausgabeneuronen so eingestellt, dass durch Eingabe entsprechender Eingabewerte auch die damit zu- sammenhängen und diesen Eingabewerten zugeordneten Ausgabewerten entspre- chend von dem künstlichen Neuronellen Netz ausgegeben werden. Das gelernte Wissen, d.h. die Wissensbasis des künstlichen Neuronalen Netzes, steckt somit in entsprechend angepassten Gewichten der Kanten.
Erfindungsgemäß wird dieses an und für sich gattungsgemäß bekannte künstliche Neuronale Netz dahingehend erweitert, dass ein oder mehrere zusätzliche Schalter- neuronen vorgesehen sind, die mit einem oder mehreren Verarbeitungsneuronen über gewichtete oder ungewichtete Kanten verbunden sind, wobei das wenigstens eine Schalterneuron eine Pseudo-Zufallszahl über die gewichteten oder ungewichte- ten Kanten als zusätzliche Eingabe an die verbundenen Verarbeitungsneuronen aus- gibt.
Eine solche Pseudo-Zufallszahl kann dabei beispielsweise durch das Schalterneuron selber generiert und bereitgestellt werden. Denkbar ist aber auch, dass das Schalter- neuron von außen eine solche Pseudo-Zufallszahl als Eingabewert bekommt, wobei diese Pseudo-Zufallszahl dann direkt als Ausgabewert an die gewichtete oder unge- wichteten Kanten zu den Verarbeitungsneuronen ausgegeben wird.
Ein derartiges künstliches Neuronales Netz wurde dabei in Bezug auf die Eingabe- werte und die ein oder mehreren Pseudo-Zufallszahlen so trainiert, dass es in Ab- hängigkeit von der oder den Pseudo-Zufallszahlen die Ausgabewerte variiert. Dies bedeutet, dass bei denselben Eingabewerten die Ausgabewerte in Abhängigkeit von der durch das mindestens eine Schalterneuron ausgegebenen Pseudo-Zufallszahl variieren, sodass das künstliche Neuronale Netz quasi nicht deterministisch bzw. pseudo-nichtdeterministisch wird, da die Ausgabewerte nunmehr von der Pseudo- Zufallszahl abhängen. Hierdurch wird dem künstlichen Neuronalen Netz eine pseu- dozufällige Variabilität hinzugefügt, wodurch das Antwortverhalten eines solchen künstlichen Neuronalen Netzes je nach den zugeordneten Eingabe-Bedeutungsinhalt mit Ausgabe-Bedeutungsinhalten spontaner und auch menschlicher wirkt.
Der Begriff„Schalterneuronen“ leitet sich dabei von der Tatsache ab, dass bei identi- schen Eingabewerten die Ausgabe schließlich einzig und allein von der von dem Schalterneuron ausgegebenen Pseudo-Zufallszahl abhängt, wodurch die Ausgabe des künstlichen Neuronalen Netzes quasi nicht deterministisch durch die Ausgabe des Schalterneurons bestimmt wird. Damit kann das künstliche Neuronale Netz zwi- schen verschiedenen Ausgabewerten in Bezug auf denselben Eingabewerten umge- schaltet werden, wobei dies pseudozufällig erfolgt.
Mit Hilfe eines solchen künstlichen Neuronalen Netzes lässt sich darüber hinaus auch das Verhalten einer einfachen Markov-Kette abbilden, da nunmehr die Ausgabe des Neuronalen Netzes auch durch den Zufall bestimmt ist und je nach Trainingsda- ten entsprechend eine solche Markov-Kette abbilden kann.
Das künstliche Neuronale Netz wurde dabei des Weiteren so mit Hilfe der Trainings- daten trainiert, dass einem Satz Eingabewerte ein entsprechender Satz von Ausga- bewerten zugeordnet wird, wobei der Satz von Eingabewerten zusätzlich noch einen Wert für die Pseudo-Zufallszahl hat, der ebenfalls dem Satz der Ausgabewerte zuge- ordnet ist. Dabei sind die Trainingsdaten so angelegt, dass für dieselben Eingabe- werte, aber jeweils unterschiedlichen Pseudo-Zufallszahlen auch jeweils andere Aus- gabewerte zugeordnet sind, sodass das künstliche Neuronale Netz für dieselben Ein- gabewerte jeweils die Ausgabe der entsprechend zugeordneten Ausgabewerte lernt, die von der Pseudo-Zufallszahl abhängen.
Dabei kann es erfindungsgemäß vorgesehen sein, dass mindestens ein Schalterneu- ron eine Pseudo-Zufallszahl aus einem vorgegebenen Zahlenbereich, beispielsweise in einem Zahlenbereich von 0 bis 1 , ausgibt, wobei das künstliche Neuronale Netz derart eingerichtet ist, dass bei denselben Eingabewerten die Ausgabewerte bei Pseudo-Zufallszahlen innerhalb eines gemeinsamen Teilbereiches des vorgegebe- nen Zahlenbereiches nicht variieren. So ist beispielsweise denkbar, dass der Zahlen- bereich der Pseudo-Zufallszahl in eine endliche Anzahl von Teilbereichen unterteilt wird, wobei Pseudo-Zufallszahlen, die innerhalb eines gemeinsamen Teilbereiches liegen, dazu führen, dass bei denselben Eingabewerten auch immer dieselben Aus- gabewerte ausgegeben werden. Innerhalb dieses Teilbereiches des vorgegebenen Zahlenbereiches ist somit das künstliche Neuronale Netz insoweit deterministisch.
Über die Größe der Teilbereiche innerhalb des Zahlenbereiches kann dabei die Wahrscheinlichkeit für das Auftreten bestimmter Ausgabewerte gesteuert werden, wodurch das Verhalten des Neuronalen Netzes hinsichtlich seiner Pseudo-Nichtde- terministik einstellbar ist.
In einer weiteren vorteilhaften Ausführungsform ist vorgesehen, dass zumindest eine Verarbeitungsschicht vorgesehen ist, welche die Verarbeitungsneuronen aufweist, wobei das mindestens eine Schalterneuron mit jedem Verarbeitungsneuron der Ver- arbeitungsschicht über die gewichteten oder ungewichteten Kanten verbunden ist. Hierdurch wird die Beeinflussung des Verhaltens des künstlichen Neuronalen Netzes durch die Ausgabe des Schalterneurons an jedem Verarbeitungsneuron sicherge- stellt. Dabei ist es denkbar, dass das künstliche Neuronale Netz mehrere Verarbei- tungsschichten, die nacheinander angelegt sind, aufweist, wobei jede Verarbeitungs- schicht des künstlichen Neuronalen Netzes ein oder mehrere Verarbeitungsneuronen hat, wobei hier vorgesehen sein kann, dass das mindestens eine Schalterneuron mit jedem Verarbeitungsneuron jeder Verarbeitungsschicht verbunden ist. Denkbar ist allerdings auch, dass das mindestens eine Schalterneuron nur mit bestimmten Verar- beitungsneuronen bestimmter Verarbeitungsschichten verbunden ist. So ist es bei spielsweise auch denkbar, dass mehrere Schalterneuronen vorgesehen sind, wobei jedes Schalterneuron mit den Verarbeitungsneuronen genau einer Verarbeitungs- schicht verbunden ist, wodurch jedes dieser Schalterneuronen immer nur eine Verar- beitungsschicht beeinflussen kann. Letztendlich hängt die konkrete Verbindung des künstlichen Neuronalen Netzes in Bezug auf die Schalterneuronen von den Anforde- rungen und dem Ausgabeverhalten ab.
Die Aufgabe wird im Übrigen auch mit einem Verfahren zum Berechnen von Ausga- bewerten basierend auf Eingabewerten mittels eines künstlichen Neuronalen Netzes gemäß Anspruch 5 für ein computergestütztes Wissensmanagement gelöst, wobei zunächst ein künstliches Neuronales Netz bereitgestellt wird, das die Merkmale und Eigenschaften des künstlichen Neuronalen Netzes wie oben geschrieben, hat. Das so breitgestellte künstliche Neuronale Netz wurde dabei mit Hilfe von Trainingsdaten trainiert, wobei die Trainingsdaten eine Zuordnung der Eingabewerte und eine oder mehrere Pseudo-Zufallszahlen zu entsprechenden Ausgabewerten haben, worauf das künstliche Neuronale Netz entsprechend trainiert wird.
Erfindungsgemäß wird nun einem solchen künstlichen Neuronalen Netz ein oder mehrere Eingabewerte mittels der Eingabeneuronen übergeben bzw. eingegeben und eine entsprechende Pseudo-Zufallszahl des mindestens einen zusätzlichen Schalterneurons erzeugt. Diese Pseudo-Zufallszahl kann dabei durch das Schalter- neuron selber erzeugt werden oder entsprechend als Eingabewert dem Schalterneu- ron bereitgestellt werden. Anschließend wird dann mit Hilfe des künstlichen Neurona- len Netzes und den entsprechenden gelernten Gewichten der einzelnen Kanten dann die Ausgabewerte mittels der Verarbeitungsneuronen berechnet, wobei die Ausgabe- werte von den eingegebenen Eingabewerten und den ein oder mehreren Pseudo-Zu- fallszahlen abhängen. Die Ausgabewerte werden dann über die Ausgabeneuronen entsprechend ausgegeben.
Die Ausgabewerte werden dabei derart berechnet, dass bei denselben Eingabewer- ten die Ausgabewerte von der durch das mindestens eine Schalterneuron ausgege- benen Pseudo-Zufallszahl abhängen. Dabei kann unter anderem vorgesehen sein, dass die Pseudo-Zufallszahl aus einem vorgegebenen Zahlenbereich erzeugt wird und die Ausgabewerte derart berechnet werden, dass bei denselben Eingabewerten die Ausgabewerte bei Pseudo-Zufallszahlen innerhalb eines gemeinsamen Teilberei- ches des vorgegebenen Zahlenbereiches nicht variieren.
Das Berechnen der Ausgabewerte mit Hilfe eines solchen künstlichen Neuronalen Netzes erfolgt dabei derart, dass bei zumindest einem Verarbeitungsneuron nicht nur das gewichtete Ergebnis der vorhergehenden Neuronen bereitgestellt werden, son- dern auch die gewichtete oder ungewichtete Ausgabe des ein oder mehreren Schal- terneurons, sodass einem solchen Verarbeitungsneuron eben auch ein oder mehrere Pseudo-Zufallszahlen als Input bereitgestellt werden. Aus den gewichteten Ausga- ben der vorhergehenden Neuronen sowie der Ausgabe des ein oder mehreren Schalterneurons wird dann die Netzeingabe an dem jeweiligen Verarbeitungsneuron berechnet und anschließend über die Aktivierungsfunktion und ggf. einer Schwell- wertfunktion dann die Ausgabe des Verarbeitungsneurons berechnet. Denkbar ist auch, dass durch die zusätzlichen Schalterneuronen die eingegebenen Pseudo-Zu- fallszahl den Schwellenwert bei der Aktivierungsfunktion beeinflusst, wodurch ein sol- ches Verarbeitungsneuron in Abhängigkeit von der Pseudo-Zufallszahl mehr ge- hemmt oder mehr angeregt werden kann.
Demzufolge beeinflusst eine solche Pseudo-Zufallszahl, die als zusätzliches Element der Netzeingabe eines solchen Verarbeitungsneurons eingegeben wird, die Ausgabe des Verarbeitungsneurons an die nächstliegende Schicht, sodass eine solche Pseudo-Zufallszahl Einfluss auf die Gesamtausgabe und das Verhalten des künstli chen Neuronalen Netzes hat.
Die Aufgabe wird im Übrigen auch mit einem Verfahren zum Trainieren eines künstli chen Neuronalen Netzes gemäß Anspruch 10 für ein computergestütztes Wissens- management gelöst, wobei ebenfalls zunächst ein künstliches Neuronales Netz be- reitgestellt wird, das die Merkmale und Eigenschaften des vorher beschriebenen künstlichen Neuronalen Netzes hat. Das künstliche Neuronale Netz hat insbesondere ein Schalterneuron, um so eine Pseudo-Zufallszahl der Verarbeitung des künstlichen Neuronalen Netzes bereitzustellen. Des Weiteren werden Trainingsdaten bereitge- stellt, mit denen das künstliche Neuronale Netz trainiert werden soll, wobei die Trai- ningsdaten eine Mehrzahl von Trainingssätzen enthalten, mit denen das künstliche Neuronale Netz das Eingabe-Ausgabe-Verhalten antrainiert werden soll. Ein solcher Trainingssatz besteht dabei aus einer Zuordnung von Eingabewerten zu entspre- chenden Ausgabewerten, wobei jeder Trainingssatz bei den Eingabewerten zusätz- lich ein oder mehrere Pseudo-Zufallszahlen hat, die zusammen mit den Eingabewer- ten den jeweiligen Ausgabewerten zugeordnet werden. Hierdurch soll das künstliche Neuronale Netz so trainiert werden, dass es beim Vorliegen einer Kombination aus den Eingabewerten und Pseudo-Zufallszahl jeweils die dieser Kombination zugeord- neten Ausgabewerte ausgibt.
Anschließend wird basierend auf den so bereitgestellten Trainingsdaten das künstli- che Neuronale Netz durch Anpassen der Gewichte der gewichteten Kanten derart trainiert, dass bei denselben Eingabewerten die Ausgabewerte in Abhängigkeit von der durch das mindestens eine Schalterneuron ausgebende Pseudo-Zufallszahl vari- ieren.
Für das Trainieren eines solchen Neuronalen Netzes gibt es dabei eine Vielzahl von Lernregeln, wie beispielsweise die HEBB-Regel, die Delta-Regel, beispielsweise backpropagation.
Die Erfindung wird anhand der beigefügten Figuren beispielhaft erläutert. Es zeigen:
Figur 1 - schematische Darstellung des erfindungsgemäßen künstlichen Neuro- nalen Netzes;
Figur 2 - Darstellung eines Ausführungsbeispiels eines künstlichen Neuronalen
Netzes für einen konkreten Anwendungszweck.
Figur 1 zeigt das künstliche Neuronale Netz 10, das eine erste Eingabeschicht 11 , eine zweite Verarbeitungsschicht 12 und eine dritte Ausgabeschicht 13 hat. Jede der Schichten 11 , 12 und 13 weist dabei ein künstliches Neuron 14 auf, um basierend auf die entsprechenden Eingabewerten die Ausgabewerte zu berechnen. Die erste Eingabeschicht 11 weist dabei drei Eingabeneuronen Ei, E2 und E3 auf, die über ge- wichtete Kanten jeweils mit den nachfolgenden Verarbeitungsneuronen V1 und V2 der zweiten Verarbeitungsschicht 12 verbunden sind. Das bedeutet, dass das Einga- beneuron Ei mit dem Verarbeitungsneuron V1 über eine Kante verbunden ist, die ein Gewicht W hat. Die Indizes i und j stehen dabei für die jeweilige Schicht des künstli chen Neuronalen Netzes 10 sowie dem jeweiligen Knoten in dieser Schicht.
Die Verarbeitungsknoten V1 und V2 der zweiten Verarbeitungsschicht 12 sind dabei mit den Ausgabenneuronen Ai und A2 der dritten Ausgabeschicht 13 verbunden, wobei auch hier die Kanten jeweils wieder gewichtet sind.
In den Gewichten Wy ist dabei das gelernte Wissen enthalten, das durch entspre- chende Trainingsdaten dem künstlichen Neuronalen Netz 10 antrainiert wurde.
Erfindungsgemäß ist nun ein zusätzliches Schalterneuron S1 vorgesehen, das durch entsprechende Kanten mit jedem der Verarbeitungsneuronen V1 und V2 der zweiten Verarbeitungsschicht 12 verbunden ist. Das Schalterneuron S1 erzeugt dabei eines Pseudo-Zufallszahl, die dann dem jeweiligen Verarbeitungsneuron V1 und V2 als Ein- gabe bereitgestellt wird.
So erhält das Verarbeitungsneuron V1 beispielsweise als Eingabe die gewichtete Ausgabe der Eingabeneuronen Ei, E2 und E3 sowie zusätzlich als Eingabe die Aus- gabe des Schalterneuronens S1, die eine entsprechende Pseudo-Zufallszahl ausgibt. Demzufolge erhält das Verarbeitungsneuron Vi an Stelle von drei Eingabe, die den Eingabewerten und der Anzahl der Eingabeneuronen der Eingabeschicht 11 entspre- chen, insgesamt vier Eingaben, nämlich eine zusätzliche Eingabe durch das Schal- terneuron Si.
Figur 2 zeigt schematisch ein künstliches Neuronales Netz, das vier Eingabeneuro- nen und vier Ausgabeneuronen aufweist und zwei Verarbeitungsschichten hat, wobei jede der Verarbeitungsschicht jeweils vier Verarbeitungsneuronen hat. Darüber hin aus weist das künstliche Neuronale Netz der Figur 2 ein Schalterneuron auf, das mit allen Verarbeitungsneuronen der ersten Verarbeitungsschicht verbunden ist. Mit Hilfe eines solchen künstlichen Neuronalen Netzes kann beispielsweise ein„random walk“ (auch Zufallsbewegung oder Irrfahrt genannt) abgebildet werden, was theoretisch mit einem Neuronalen Netz aufgrund des deterministischen Verhaltens nicht möglich wäre.
Das mit Hilfe des in Figur 2 gezeigten künstlichen Neuronalen Netzes abgebildeten random walk hat dabei vier Zustände, nämlich der Übergang nach links, nach rechts, nach oben oder nach unten. Die Eingabeneuronen Ei bis E4 zeigen dabei den aktuel- len Zustand an, d.h. in welche Richtung der Läufer zuletzt gelaufen ist. Als Ausgabe Ai bis A4 wird dabei erwartet, was der nächste Zustand sein soll, d.h. ob der Läufer nach links, nach rechts, nach oben oder nach unten laufen soll. Dabei soll der nächste Zustand, der eingenommen werden soll, zufällig sein. Dies wird schließlich mit dem Schalterneuron Si realisiert.
Hierfür wird das Neuronale Netz in Figur 2 mit Hilfe von Trainingsdaten trainiert, wo- bei die Trainingsdaten neben den Eingabewerten Ei bis E4 auch das Schalterneuron Si beinhalten, während die Ausgabe die Ausgabewerte Ai bis A4 beinhalten. Demzu- folge können die Trainingsdaten schematisch wie folgt definiert werden:
(Z, Ei, i, E3, E4) -> ( Ai, A2, A3, A4)
Z steht dabei für die Zufallszahl, während Ei bis E4für die Eingabewerte an den Ein- gabeneuronen steht. Basierend darauf wird dann definiert, welche Ausgabe Ai bis A4 basierend auf der Eingabe genannt werden soll. Wie zu erkennen ist, beinhaltet die Eingabe ebenfalls die Zufallszahl, sodass hierauf das Netz entsprechend trainiert werden kann.
Ein möglicher Satz Trainingsdaten könnte dabei wie folgt aussehen:
Input Output
Figure imgf000016_0001
(0.1 , 1 , 0, 0, 0) ^ (0, 1 , 0, 0)
Diese Tabelle zeigt schematisch, dass für dieselbe Eingabewerte, nämlich einen Ein- gabewert 1 für das Eingabeneuron Ei und ansonsten einen Eingabewert 0 für die üb- rigen Eingabeneuronen, dass die Ausgabe variiert. Das künstliche Neuronale Netz lernt nun für dieselben Eingabewerte, wie die Ausgabewerte von der Pseudo-Zufalls- zahl am Anfang abhängen. Für eine Pseudo-Zufallszahl von 0,5 wird dabei das Aus- gabeneuron A3 aktiviert, während für eine Pseudo-Zufallszahl 0,1 und 0,2 das zweite Ausgabeneuron A2 aktiviert wird.
Bei einer hinreichend großen Anzahl von Trainingsdaten kann somit das künstliche Neuronale Netz basierend auf der Pseudo-Zufallszahl einen random walk abbilden, wobei die vier Zustände durch entsprechende Teilbereiche des Zahlenbereiches der Zufallszahl abgebildet werden. Demzufolge wird der Zahlenbereich in vier gleich- große Teilbereiche unterteilt, wobei jedem Teilbereich dann ein entsprechender Zu- stand zugeordnet wird.
Ein solches gelerntes Neuronales Netz kann dabei auch eine Zufälligkeit generalisie- ren, d.h. auch Ausgabewerte ausgeben, auch wenn für die entsprechende Kombina- tion von Eingabewerten und Ausgabewerten gerade keine Trainingsdaten Vorlagen. Sei beispielsweise angenommen, dass der Satz von Trainingsdaten
Figure imgf000016_0002
nicht in den Trainingsdaten enthalten war, so würde das gelernte künstliche Neuro- nale Netz bei einer Zufallszahl von 0,15 und Eingabewerten von (1 , 0, 0, 0) eben auch das zweite Ausgabeneuron A2 aktivieren. Andere Anwendungsfälle, die mit Hilfe eines solchen pseudo-nichtdeterministischen Neuronalen Netzes abgebildet werden können, um mehr zufällige Variabilität ein- streuen zu können, ohne auf die Vorteile eines Neuronalen Netzes hinsichtlich der Lernfähigkeit und Generalisierungsfähigkeit verzichten zu müssen, sind Chat Bots, Künstliche Intelligenz, bspw. im Bereich von Computerspielen, oder automatisierte computergenerierte Text-Synthese.

Claims

Patentansprüche
1. Künstliches Neuronales Netz (10) für ein computergestütztes Wissensmanage- ment mit einer Mehrzahl von Neuronen (14), die über gewichtete Kanten mitei- nander verbunden sind, wobei
ein oder mehrere Eingabeneuronen (Ei, E2, E3) vorgesehen sind, denen je- weils ein Eingabe-Bedeutungsinhalt zugeordnet ist und mittels derer Einga- bewerte an das künstliche Neuronale Netz (10) übergeben werden, ein oder mehrere Ausgabeneuronen (Ai, A2) vorgesehen sind, denen je- weils ein Ausgabe-Bedeutungsinhalt zugeordnet sind und mittels derer Aus- gabewerte des künstlichen Neuronalen Netzes (10) ausgegeben werden, und
ein oder mehrere Verarbeitungsneuronen (V1, V2) vorgesehen sind, die über die gewichteten Kanten die Eingabeneuronen mit den Ausgabeneuronen verbinden,
dadurch gekennzeichnet, dass das künstliche Neuronale Netz (10) mindes- tens ein zusätzliches Schalterneuron (S1) hat, das mit einem oder mehreren Verarbeitungsneuronen (V1, V2) über gewichtete oder ungewichtete Kanten ver- bunden ist, wobei das wenigstens eine Schalterneuron (S1) eine Pseudo-Zu- fallszahl (Z) über die gewichteten oder ungewichteten Kanten als zusätzliche Eingabe an die verbundenen Verarbeitungsneuronen (V1, V2) ausgibt.
2. Künstliches Neuronales Netz (10) nach Anspruch 1 , dadurch gekennzeichnet, dass das künstliches Neuronales Netz (10) derart eingerichtet ist, dass bei den- selben Eingabewerten die Ausgabewerte in Abhängigkeit von der durch das mindestens eine Schalterneuron (S1) ausgegebenen Pseudo-Zufallszahl (Z) va- riieren.
3. Künstliches Neuronales Netz (10) nach Anspruch 2, dadurch gekennzeichnet, dass das mindestens eine Schalterneuron (Si) eine Pseudo-Zufallszahl (Z) aus einem vorgegebenen Zahlenbereich ausgibt und das künstliche Neuronale Netz derart eingerichtet ist, dass bei denselben Eingabewerten die Ausgabewerte bei Pseudo-Zufallszahlen (Z) innerhalb eines gemeinsamen Teilbereiches des vor- gegebenen Zahlenbereiches nicht variieren.
4. Künstliches Neuronales Netz (10) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass zumindest eine Verarbeitungsschicht (12) vorge- sehen ist, welche die Verarbeitungsneuronen (Vi, V2) aufweist, wobei das min- destens eine Schalterneuron S1 mit jedem Verarbeitungsneuron (V1, V2) der Verarbeitungsschicht (12) über die gewichteten oder ungewichteten Kanten ver- bunden ist.
5. Verfahren zum Berechnen von Ausgabewerten basierend auf Eingabewerten mittels eines künstlichen Neuronalen Netzes für ein computergestütztes Wis- sensmanagement, mit den Schritten:
Bereitstellen eines trainierten, künstlichen Neuronalen Netzes, das eine Mehrzahl von Neuronen (14) hat, die über gewichtete Kanten miteinander verbunden sind, wobei ein oder mehrere Eingabeneuronen (Ei, E2, E3) vor- gesehen sind, denen jeweils ein Eingabe-Bedeutungsinhalt zugeordnet ist und mittels derer Eingabewerte an das künstliche Neuronale Netz (10) übergeben werden, ein oder mehrere Ausgabeneuronen (Ai, A2) vorgese- hen sind, denen jeweils ein Ausgabe-Bedeutungsinhalt zugeordnet sind und mittels derer Ausgabewerte des künstlichen Neuronalen Netzes ausgege- ben werden, und ein oder mehrere Verarbeitungsneuronen (V1, V2) vorgese- hen sind, die über die gewichteten Kanten die Eingabeneuronen (Ei, E2, E3) mit den Ausgabeneuronen verbinden, und wobei mindestens ein zusätzli- ches Schalterneuron S1 vorgesehen ist, das mit einem oder mehreren Ver- arbeitungsneuronen (V1, V2) über gewichtete oder ungewichtete Kanten ver- bunden ist und eine Pseudo-Zufallszahl (Z) über die gewichteten oder un- gewichteten Kanten als zusätzliche Eingabe an die verbundenen Verarbei- tungsneuronen (Vi, V2) ausgibt,
Eingeben von Eingabewerten mittels der Eingabeneuronen (Ei, E2, E3), Erzeugen einer Pseudo-Zufallszahl (Z) und Eingeben der Pseudo-Zufalls- zahl (Z) mittels des mindestens einen zusätzlichen Schalterneurons Si, und Berechnen der Ausgabewerte mittels der Verarbeitungsneuronen (Vi, V2) in Abhängigkeit von den Eingabewerten und den Gewichten der gewichteten Kanten sowie der Pseudo-Zufallszahl (Z) des mindestens einen zusätzli- chen Schalterneurons S1.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die Ausgabewerte derart berechnet werden, dass bei denselben Eingabewerten die Ausgabewerte von der durch das mindestens eine Schalterneuron S1 ausgegebenen Pseudo- Zufallszahl (Z) abhängen.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Pseudo-Zufalls- zahl (Z) aus einem vorgegebenen Zahlenbereich erzeugt wird und die Ausgabe- werte derart berechnet werden, dass bei denselben Eingabewerten die Ausga- bewerte bei Pseudo-Zufallszahlen (Z) innerhalb eines gemeinsamen Teilberei- ches des vorgegebenen Zahlenbereiches nicht variieren.
8. Verfahren nach einem der Ansprüche 5 bis 7, dadurch gekennzeichnet, dass ein künstliches Neuronales Netz nach einem der Ansprüche 1 bis 4 bereitge- stellt wird.
9. Computerprogramm mit Programmcodemitteln, eingerichtet zur Durchführung des Verfahrens nach einem der Ansprüche 5 bis 8, wenn das Computerpro- gramm auf einer Datenverarbeitungsanlage ausgeführt wird.
10. Verfahren zum Trainieren eines künstlichen Neuronalen Netzes für ein compu- tergestütztes Wissensmanagement mit den Schritten:
Bereitstellen eines künstlichen Neuronalen Netzes, das eine Mehrzahl von Neuronen hat, die über gewichtete Kanten miteinander verbunden sind, wo- bei ein oder mehrere Eingabeneuronen (Ei, E2, E3) vorgesehen sind, denen jeweils ein Eingabe-Bedeutungsinhalt zugeordnet ist und mittels derer Ein- gabewerte an das künstliche Neuronale Netz (10) übergeben werden, ein oder mehrere Ausgabeneuronen vorgesehen sind, denen jeweils ein Aus- gabe-Bedeutungsinhalt zugeordnet sind und mittels derer Ausgabewerte des künstlichen Neuronalen Netzes ausgegeben werden, und ein oder mehrere Verarbeitungsneuronen (Vi, V2) vorgesehen sind, die über die ge- wichteten Kanten die Eingabeneuronen (Ei, E2, E3) mit den Ausgabeneuro- nen verbinden, und wobei mindestens ein zusätzliches Schalterneuron S1 vorgesehen ist, das mit einem oder mehreren Verarbeitungsneuronen (V1, V2) über gewichtete oder ungewichtete Kanten verbunden ist und eine Pseudo-Zufallszahl (Z) über die gewichteten oder ungewichteten Kanten als zusätzliche Eingabe an die verbundenen Verarbeitungsneuronen (V1, V2) ausgibt,
Bereitstellen von Trainingsdaten, mit denen das künstliche Neuronale Netz trainiert werden soll, wobei die Trainingsdaten den Eingabewerten und min- destens einer Pseudo-Zufallszahl (Z) entsprechende Ausgabewerte zuord- nen, und
Trainieren des künstlichen Neuronalen Netzes basierend auf den Trainings- daten durch Anpassen der Gewichte der gewichteten Kanten derart, dass bei denselben Eingabewerten die Ausgabewerte in Abhängigkeit von der durch das mindestens eine Schalterneuron S1 ausgegebenen Pseudo-Zu- fallszahl (Z) variieren.
1 1. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass ein künstliches Neuronales Netz (10) nach einem der Ansprüche 1 bis 4 bereitgestellt wird.
1 2. Computerprogramm mit Programmcodemitteln, eingerichtet zur Durchführung des Verfahrens nach einem der Ansprüche 10 oder 11 , wenn das Computerpro- gramm auf einer Datenverarbeitungsanlage ausgeführt wird.
PCT/EP2018/081323 2017-11-15 2018-11-15 Künstliches neuronales netz und verfahren hierzu WO2019096881A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
EP18807029.6A EP3710992A1 (de) 2017-11-15 2018-11-15 Künstliches neuronales netz und verfahren hierzu

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102017126846.4A DE102017126846A1 (de) 2017-11-15 2017-11-15 Künstliches Neuronales Netz und Verfahren hierzu
DE102017126846.4 2017-11-15

Publications (1)

Publication Number Publication Date
WO2019096881A1 true WO2019096881A1 (de) 2019-05-23

Family

ID=64402194

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2018/081323 WO2019096881A1 (de) 2017-11-15 2018-11-15 Künstliches neuronales netz und verfahren hierzu

Country Status (3)

Country Link
EP (1) EP3710992A1 (de)
DE (1) DE102017126846A1 (de)
WO (1) WO2019096881A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013182176A1 (de) * 2012-06-06 2013-12-12 Kisters Ag Verfahren zum trainieren eines künstlichen neuronalen netzes und computerprogrammprodukte
US20150286924A1 (en) * 2012-07-30 2015-10-08 International Business Machines Corporation Scalable neural hardware for the noisy-or model of bayesian networks

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013182176A1 (de) * 2012-06-06 2013-12-12 Kisters Ag Verfahren zum trainieren eines künstlichen neuronalen netzes und computerprogrammprodukte
US20150286924A1 (en) * 2012-07-30 2015-10-08 International Business Machines Corporation Scalable neural hardware for the noisy-or model of bayesian networks

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
G.-B. HUANG ET AL: "Universal Approximation Using Incremental Constructive Feedforward Networks With Random Hidden Nodes", IEEE TRANSACTIONS ON NEURAL NETWORKS, vol. 17, no. 4, 1 July 2006 (2006-07-01), pages 879 - 892, XP055083863, ISSN: 1045-9227, DOI: 10.1109/TNN.2006.875977 *
HYEONWOO NOH ET AL: "Regularizing Deep Neural Networks by Noise: Its Interpretation and Optimization", 9 November 2017 (2017-11-09), pages 1 - 10, XP055553156, Retrieved from the Internet <URL:https://arxiv.org/pdf/1710.05179.pdf> [retrieved on 20190207] *
MAREN AWISZUS ET AL: "Markov Chain Neural Networks", 2 May 2018 (2018-05-02), pages 1 - 8, XP055552833, Retrieved from the Internet <URL:https://arxiv.org/pdf/1805.00784.pdf> [retrieved on 20190206] *
YALI ZHAO ET AL: "Study Markov Neural Network by Stochastic Graph", 30 May 2005, ADVANCES IN NEURAL NETWORKS ? ISNN 2005, SPRINGER BERLIN HEIDELBERG, BERLIN, HEIDELBERG, PAGE(S) 552 - 557, ISBN: 978-3-540-25912-1, XP019129638 *

Also Published As

Publication number Publication date
EP3710992A1 (de) 2020-09-23
DE102017126846A1 (de) 2019-05-16

Similar Documents

Publication Publication Date Title
WO2013170843A1 (de) Verfahren zum trainieren eines künstlichen neuronalen netzes
WO2000063788A2 (de) Situationsabhängig operierendes semantisches netz n-ter ordnung
DE102007001025A1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102008020379A1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
EP3701433B1 (de) Verfahren, vorrichtung und computerprogramm zur erstellung eines tiefen neuronalen netzes
DE10296704T5 (de) Fuzzy-Inferenznetzwerk zur Klassifizierung von hochdimensionalen Daten
DE60125536T2 (de) Anordnung zur generierung von elementensequenzen
DE112020002186T5 (de) Dnn-training mit asymmetrischen rpu-einheiten
EP1934895A2 (de) Verfahren zum rechnergestützten lernen eines neuronalen netzes und neuronales netz
WO2019121206A1 (de) Verfahren zur realisierung eines neuronalen netzes
EP1021793A2 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
DE10139682B4 (de) Verfahren zum Generieren von neuronalen Netzen
DE10201018B4 (de) Neuronales Netz, Opimierungsverfahren zur Einstellung der Verbindungsgewichte eines neuronalen Netzes sowie Analyseverfahren zur Überwachung eines Optimierungsverfahrens
DE112020005613T5 (de) Neuromorphe Einheit mit Kreuzschienen-Array-Struktur
WO2019096881A1 (de) Künstliches neuronales netz und verfahren hierzu
EP0548127B1 (de) Neuronales Netzwerk und Schaltungsanordnung zur Bool&#39;schen Realisierung neuronaler Netze vom ADALINE-Typ
EP0978052B1 (de) Rechnergestütztes verfahren zur auswahl von trainingsdaten für ein neuronales netz
DE3607241C2 (de)
WO2000003355A2 (de) Neuronales netz und verfahren und anordnung zum trainieren eines neuronalen netzes
DE102019113958A1 (de) Verfahren zur Leistungssteigerung eines Fahrzeugsystems mit einem neuronalen Netz zum Steuern einer Fahrzeugkomponente
EP1145190A2 (de) Anordnung miteinander verbundener rechenelemente, verfahren zur rechnergestützten ermittlung einer dynamik, die einem dynamischen prozess zugrunde liegt und verfahren zum rechnergestützten trainieren einer anordnung miteinander verbundener rechenelemente
DE3609925A1 (de) Einrichtung zur simulation von neuronensystemen
DE102004059684B3 (de) Verfahren und Anordnung sowie Computerprogramm mit Programmmcode-Mitteln und Computerprogramm-Produkt zur Ermittlung eines zukünftigen Systemzustandes eines dynamischen Systems
DE10356655B4 (de) Verfahren und Anordnung sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Ermittlung eines zukünftigen Systemzustandes eines dynamischen Systems
DE102016113310A1 (de) Verfahren zur Bewertung von Aussagen einer Mehrzahl von Quellen zu einer Mehrzahl von Fakten

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 18807029

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2018807029

Country of ref document: EP

Effective date: 20200615