DE102016113310A1 - A method for evaluating statements of a plurality of sources about a plurality of facts - Google Patents
A method for evaluating statements of a plurality of sources about a plurality of facts Download PDFInfo
- Publication number
- DE102016113310A1 DE102016113310A1 DE102016113310.8A DE102016113310A DE102016113310A1 DE 102016113310 A1 DE102016113310 A1 DE 102016113310A1 DE 102016113310 A DE102016113310 A DE 102016113310A DE 102016113310 A1 DE102016113310 A1 DE 102016113310A1
- Authority
- DE
- Germany
- Prior art keywords
- layer
- artificial
- neuron
- sources
- neurons
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/042—Knowledge-based neural networks; Logical representations of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
Abstract
Die Erfindung betrifft ein Computer-implementiertes Verfahren zur Bewertung von Aussagen einer Mehrzahl von Quellen zu einer Mehrzahl von Fakten durch ein künstliches, neuronales Netz, mit einer ersten Menge künstlicher Neuronen in einer ersten Schicht und wenigstens einem künstliches Neuron in einer zweiten Schicht. Alle künstlichen Neuronen der ersten Schicht sind dabei mit dem künstlichen Neuron der zweiten Schicht verbunden, wobei jeder Verbindung zwischen einem künstlichen Neuron der ersten Schicht und dem künstlichen Neuron der zweiten Schicht ein Verbindungsgewicht zugeordnet ist. Den Quellen ist jeweils wenigstens ein Zuverlässigkeitsmaß zugeordnet, welches die Zuverlässigkeit von Aussagen der Quelle bezeichnet. Zunächst werden die Zuverlässigkeitsmaße der Quellen ermittelt und den Verbindungen des neuronalen Netzes basierend auf den Zuverlässigkeitsmaßen Verbindungsgewichte zugeordnet. Dann werden die Ausgangszustände der künstlichen Neuronen der ersten Schicht auf Grundlage der Aussagen wenigstens einer Quelle aus der Mehrzahl von Quellen zu einem ersten Faktum initialisiert. Durch wiederholtes Sampling der Ausgabezustände der Neuronen der ersten und zweiten Schicht, werden die Verbindungsgewichte sukzessive angepasst, bis die Veränderung der Verbindungsgewichte auf Grundlage des Samplings unterhalb eines definierten Grenzwerts liegt.The invention relates to a computer-implemented method for evaluating statements of a plurality of sources from a plurality of facts by an artificial neural network comprising a first set of artificial neurons in a first layer and at least one artificial neuron in a second layer. All artificial neurons of the first layer are connected to the artificial neuron of the second layer, wherein each connection between an artificial neuron of the first layer and the artificial neuron of the second layer is assigned a connection weight. The sources are each assigned at least one reliability measure, which designates the reliability of statements of the source. First, the reliability measures of the sources are determined and associated with the connections of the neural network based on the reliability measures connection weights. Then, the initial states of the artificial neurons of the first layer are initialized to a first fact based on the statements of at least one source from the plurality of sources. By repetitively sampling the output states of the neurons of the first and second layers, the connection weights are successively adjusted until the change in the connection weights based on the sampling is below a defined threshold.
Description
Die Erfindung betrifft ein Verfahren zur Bewertung von Aussagen einer Mehrzahl von Quellen zu einer Mehrzahl von Fakten durch ein künstliches, neuronales Netz gemäß dem Oberbegriff von Anspruch 1, sowie ein entsprechendes Computerprogrammprodukt nach Anspruch 8 und eine Vorrichtung nach Anspruch 9. The invention relates to a method for evaluating statements of a plurality of sources for a plurality of facts by an artificial neural network according to the preamble of
Zur Analyse und Verwertung von Fakten werden üblicherweise Informationen nicht nur von einer einzigen Quelle bezogen. Vielmehr wird häufig eine Vielzahl von Quellen zur Beschaffung von Fakten bzw. Informationen konsultiert. Dabei kommt es jedoch mit einer steigenden Anzahl von Quellen immer häufiger zu Widersprüchen zwischen den Aussagen der unterschiedlichen Quellen zu ein und demselben Faktum. In dieser Situation gilt es zu entscheiden, welcher Quelle zu einem bestimmten Faktum die höchste Relevanz eingeräumt wird, oder in anderen Worten, welcher Quelle man am ehesten zutraut, dass sie die korrekten Fakten bereitstellt. Im Stand der Technik bekannte Verfahren zur Bewertung der Zuverlässigkeit einer Quelle sind dabei häufig nicht auf große Datenmengen aus einer Vielzahl von Quellen anwendbar, da die beschriebenen Lösungen nicht ausreichend skalierbar sind. Ferner ist häufig zunächst zu einem bestimmten Faktum nicht allgemein bekannt, ob das Faktum tatsächlich wahr oder tatsächlich falsch ist. Somit fehlt häufig für die Beurteilung der Zuverlässigkeit einer Quelle die Grundwahrheit, was die Bewertung von Quellen bezüglich deren Zuverlässigkeit häufig weiter erschwert. To analyze and exploit facts, information is usually obtained not just from a single source. Rather, a variety of sources for obtaining facts or information is often consulted. However, an increasing number of sources increasingly leads to contradictions between the statements of the different sources about one and the same fact. In this situation, it is important to decide which source is given the highest relevance to a particular fact or, in other words, which source is most likely to provide the correct facts. Prior art methods of evaluating the reliability of a source are often not applicable to large amounts of data from a variety of sources because the described solutions are not sufficiently scalable. Furthermore, it is often not known at first for a particular fact whether the fact is actually true or actually false. Thus, the fundamental truth is often lacking in assessing the reliability of a source, which often further complicates the evaluation of sources for their reliability.
Der Erfindung liegt daher die Aufgabe zugrunde ein verbessertes und insbesondere hoch skalierbares Verfahren zur Bewertung von Aussagen einer Mehrzahl von Quellen zu einer Mehrzahl von Fakten, sowie eine entsprechende Vorrichtung bereitzustellen. The invention is therefore based on the object of providing an improved and, in particular, highly scalable method for evaluating statements from a plurality of sources about a plurality of facts, as well as a corresponding apparatus.
Hauptmerkmale der Erfindung sind in Anspruch 1, sowie in den Ansprüchen 8 und 9 angegeben. Ausgestaltungen sind Gegenstand der Ansprüche 2 bis 7. Main features of the invention are set forth in
In einem ersten Aspekt betrifft die Erfindung ein computer-implementiertes Verfahren zur Bewertung von Aussagen einer Mehrzahl von Quellen zu einer Mehrzahl von Fakten durch ein künstliches, neuronales Netz. Das künstliche, neuronale Netz weist dabei eine erste Menge künstlicher Neuronen in einer ersten Schicht und wenigstens ein künstliches Neuron in einer zweiten Schicht auf. Alle künstlichen Neuronen der ersten Schicht sind dabei mit dem künstlichen Neuron der zweiten Schicht verbunden, wobei jeder Verbindung zwischen einem künstlichen Neuron der ersten Schicht und dem künstlichen Neuron der zweiten Schicht ein Verbindungsgewicht zugeordnet ist. Eine solche Anordnung ist auch als beschränkte Boltzmann-Maschine (Restricted Boltzmann Machine, RBM) bekannt. Den einzelnen Quellen der Mehrzahl von Quellen ist ferner jeweils wenigstens ein Zuverlässigkeitsmaß zugeordnet, welches die Zuverlässigkeit von Aussagen der Quelle bezeichnet. In a first aspect, the invention relates to a computer-implemented method for evaluating statements of a plurality of sources to a plurality of facts through an artificial neural network. The artificial neural network has a first set of artificial neurons in a first layer and at least one artificial neuron in a second layer. All artificial neurons of the first layer are connected to the artificial neuron of the second layer, wherein each connection between an artificial neuron of the first layer and the artificial neuron of the second layer is assigned a connection weight. Such an arrangement is also known as a limited Boltzmann machine (Restricted Boltzmann Machine, RBM). The individual sources of the plurality of sources are also each assigned at least one reliability measure, which designates the reliability of statements of the source.
Das Verfahren weist dabei die folgenden Schritte auf:
- a) Ermitteln der Zuverlässigkeitsmaße der Quellen,
- b) Zuordnen eines Satzes von Verbindungsgewichten zu den Verbindungen des neuronalen Netzes basierend auf den geschätzten Zuverlässigkeitsmaßen der Quellen,
- c) Initialisieren der Ausgangszustände der künstlichen Neuronen der ersten Schicht auf Grundlage der Aussagen wenigstens einer Quelle aus der Mehrzahl von Quellen zu einem ersten Faktum,
- d) Durchführen eines Samplings des Ausgangszustandes des künstlichen Neurons der zweiten Schicht basierend auf den Ausgangszuständen der künstlichen Neuronen der ersten Schicht und den jeweiligen Verbindungsgewichten,
- e) Durchführen eines Samplings der Ausgangszustände aller künstlichen Neuronen der ersten Schicht basierend auf dem Ausgangszustand des künstlichen Neurons der zweiten Schicht und den jeweiligen Verbindungsgewichten,
- f) Durchführen eines Samplings des Ausgangszustands des künstlichen Neurons der zweiten Schicht basierend auf den Ausgangszuständen der künstlichen Neuronen der ersten Schicht und den jeweiligen Verbindungsgewichten, und
- g) Anpassen des Satzes von Verbindungsgewichten auf Grundlage der Veränderung der Ausgangszustände der künstlichen Neuronen der ersten Schicht und der zweiten Schicht in den Schritten d), e) und f).
- a) determining the reliability measures of the sources;
- b) assigning a set of connection weights to the connections of the neural network based on the estimated reliability measures of the sources,
- c) initializing the initial states of the artificial neurons of the first layer based on the statements of at least one source from the plurality of sources to a first fact,
- d) performing a sampling of the initial state of the second layer artificial neuron based on the initial states of the first layer artificial neurons and the respective compound weights,
- e) performing a sampling of the output states of all artificial neurons of the first layer based on the initial state of the artificial neuron of the second layer and the respective connection weights,
- f) performing a sampling of the output state of the artificial second-layer neuron based on the initial states of the first-layer artificial neurons and the respective compound weights, and
- g) adjusting the set of connection weights based on the change of the initial states of the first layer and second layer artificial neurons in steps d), e) and f).
Dabei werden die Schritte c), d), e), f) und g) so oft für die jeweiligen Aussagen der Mehrzahl von Quellen zu der Mehrzahl von Fakten wiederholt, bis die Veränderung der Verbindungsgewichte in Schritt g) unterhalb eines definierten Grenzwerts liegt. The steps c), d), e), f) and g) are repeated so often for the respective statements of the plurality of sources to the plurality of facts until the change in the connection weights in step g) is below a defined limit.
Unter einer „Quelle“ kann im Kontext der vorliegenden Erfindung beispielsweise eine Sensorvorrichtung verstanden werden, welche dazu ausgebildet ist zu überwachen, ob eine Mehrzahl von Messwerten aus Messungen an einem Werkstück innerhalb oder außerhalb eines definierten Toleranzbereichs liegt. Die “Aussage“ einer solchen Sensorvorrichtung wäre dabei, ob der Messwert im Toleranzbereich, oder außerhalb des Toleranzbereichs liegt. Das zugehörige Faktum wäre dann „Toleranzbereich XY wird eingehalten“, wobei die Sensorvorrichtung hierzu die Aussage „Faktum stimmt“, oder „Faktum stimmt nicht“ ausgibt. In einer konkreten Implementierung würde beispielsweise die Aussage „Faktum stimmt“ mit einer logischen 1 übersetzt, während die Aussage „Faktum stimmt nicht“ eine logische 0 wäre. Hieraus ergeben sich Datensätze zu jeder Quelle, welche für eine Mehrzahl von Fakten jeweils angeben, ob das jeweilige Faktum stimmt, oder nicht. In the context of the present invention, a "source" may, for example, be understood as a sensor device which is designed to monitor whether a plurality of measured values from measurements on a workpiece lie within or outside a defined tolerance range. The "statement" of such a sensor device would be whether the measured value is in the tolerance range or outside the tolerance range. The corresponding fact would then be "Tolerance range XY is complied with", the sensor device to the statement "fact true", or "fact is true" outputs. In a concrete implementation, for example, the statement "fact is true" would be translated with a logical 1, while the statement "fact is not true" would be a logical 0. This results in records for each source, which indicate for a plurality of facts, respectively, whether the respective fact is true or not.
Dabei kann neben einer zweistufigen Unterscheidung, ob eine Information zutrifft, oder nicht, eine Aussage auch mehrstufig sein. Beispielsweise kann so aufgrund von ermittelten Messwerten eine bestimmte Messgröße stufenweise bewertet werden. Eine Oberflächengüte könnte so beispielsweise mit einer Notenskala von 1 für eine sehr gute Oberflächengüte bis zu einer 6 für eine sehr schlechte Oberflächengüte bewertet werden. Eine mehrstufige Bewertung kann dabei beispielsweise so realisiert sein, dass jeweils zu den einzelnen Bewertungsstufen eine zweistufige Unterscheidung vorgenommen wird, welche für eine bestimmte Bewertungsstufe angibt, ob die Messgröße in dieser Bewertungsstufe liegt, oder nicht. In diesem Fall wäre ein Faktum beispielsweise „Oberflächengüte ist 5“ und die Aussage einer Quelle zu diesem Faktum wäre „richtig“ oder „falsch“. In addition to a two-step distinction as to whether information applies or not, a statement can also be multilevel. For example, it is thus possible to evaluate a specific measured variable in stages based on measured values determined. A surface finish could thus be rated, for example, with a grading scale of 1 for a very good surface quality up to a 6 for a very poor surface finish. A multi-level evaluation can be realized, for example, in such a way that a two-step distinction is made in each case for the individual evaluation stages, which indicates for a particular evaluation stage whether or not the measured variable lies in this evaluation stage. In this case, for example, one fact would be "surface quality is 5" and the source's statement about this fact would be "right" or "wrong".
Erfindungsgemäß ist dabei vorgesehen, dass wenigstens zu einem großen Teil der Fakten, idealerweise sogar zu jedem Faktum Aussagen von wenigstens zwei Quellen existieren, sodass aus den Aussagen der Quellen zu einer Mehrzahl von Fakten eine Korrelation zwischen den Fakten und den Aussagen der Quellen zu den Fakten abgeleitet werden kann. So kann im obigen Beispiel vorgesehen sein, dass mehrere Sensorvorrichtungen unabhängig voneinander eine Oberflächengüte, eine Porosität oder einer Druck- und Zugfestigkeit eines Werkstücks überwachen und den dabei aufgenommen Messwerten entsprechende Aussagen ausgeben. According to the invention, it is provided that statements of at least two sources exist for at least a large part of the facts, ideally even for every fact, so that from the statements of the sources to a plurality of facts a correlation between the facts and the statements of the sources about the facts can be derived. Thus, in the above example, it can be provided that a plurality of sensor devices independently monitor a surface quality, a porosity or a compressive and tensile strength of a workpiece and output corresponding statements to the measured values.
Neben dem beschriebenen Ausführungsbeispiel einer Quelle kann unter dem Begriff „Quelle“ jedoch auch jede andere beliebig geartete Entität verstanden werden, welche im obigen Sinne Aussagen zu Fakten bereitstellt. Beispielsweise kann es sich bei einer Quelle auch um eine textbasierte Ressource handeln, welche auf bestimmte Fakten geprüft wird. So können aus einer Textquelle beispielsweise ebenfalls Datensätze generiert werden, welche zu einer Vielzahl von Fakten Aussagen machen. Ein Datensatz einer solchen Quelle könnte dabei beispielsweise aus einer Vielzahl von Vornamen, Nachnamen und Adressen genau bei einer bestimmten Kombination eines Vornamens, Nachnamens und einer Adresse die Aussage „Stimmt“, also eine logische 1 enthalten, während für alle anderen Auswahlmöglichkeiten die Aussage „Stimmt nicht“, also eine logische 0 wäre. In addition to the described exemplary embodiment of a source, however, the term "source" can also be understood to mean any other entity of any kind which provides statements on facts in the above sense. For example, a source may also be a text-based resource that is checked for specific facts. For example, from a text source, records can also be generated which make statements on a large number of facts. A record of such a source could, for example, from a variety of first names, last names and addresses exactly in a particular combination of a first name, last name and an address the statement "Votes", ie a logical 1 included, while for all other choices the statement "True not ", so a logical 0 would be.
Zur Analyse solcher Aussagen einer möglicherweise sehr großen Anzahl von Quellen wird erfindungsgemäß ein neuronales Netz in Form einer RBM eingesetzt. Dabei wird zunächst für alle Quellen jeweils ein Zuverlässigkeitsmaß ermittelt. Die „Zuverlässigkeit“ einer Quelle kann dabei beispielsweise als Wahrscheinlichkeit verstanden werden, mit der die Aussage einer Quelle zutreffend ist. In Zahlen ausgedrückt würde beispielsweise ein Zuverlässigkeitsmaß von 0,5 bedeuten, dass statistisch die Hälfte aller Aussagen einer Quelle tatsächlich korrekt ist. Bei einem Zuverlässigkeitsmaß einer Quelle von 0,8 geht man davon aus, dass 80% aller Aussagen dieser Quelle korrekt sind. Das Zuverlässigkeitsmaß einer Quelle kann dabei zunächst anhand von Erfahrungswerten abgeschätzt, oder zufällig bestimmt werden. To analyze such statements of possibly very large number of sources, a neural network in the form of an RBM is used according to the invention. In each case, a reliability measure is first determined for all sources. The "reliability" of a source can be understood, for example, as a probability with which the statement of a source is correct. Expressed in numbers, for example, a confidence measure of 0.5 would mean that, statistically, half of all the statements in a source are actually correct. With a reliability measure of a source of 0.8, it is assumed that 80% of all statements of this source are correct. The reliability measure of a source can be estimated on the basis of empirical values, or determined randomly.
Die Zuverlässigkeit einer Quelle kann jedoch neben einer Wahrscheinlichkeit, mit der die Quelle korrekte Aussagen trifft, auch weitere statistische Größen umfassen, welche eine differenzierte Beurteilung der Aussagen einer Quelle erlauben. Beispielsweise kann bei der Zuverlässigkeit einer Quelle auch berücksichtigt werden, wie oft eine positive Aussage der Quelle sich auch tatsächlich als korrekt herausstellt und wie oft eine positive Aussage einer Quelle falsch ist. Bei dem nachfolgenden exemplarischen Formelwerk wird jedoch die Zuverlässigkeit einer Quelle i, sofern nicht anders angegeben, lediglich durch die Wahrscheinlichkeit pi ausgedrückt, mit der eine Quelle eine korrekte Aussage macht. However, the reliability of a source can include, in addition to a probability with which the source makes correct statements, also other statistical quantities which allow a differentiated assessment of the statements of a source. For example, the reliability of a source can also take into account how often a positive statement of the source actually turns out to be correct and how often a positive statement from a source is wrong. However, in the following example formula work, the reliability of a source i, unless otherwise specified, is expressed only by the probability p i with which a source makes a correct statement.
Nachdem die Zuverlässigkeitsmaße der einzelnen Quellen ermittelt wurden, werden anschließend den Verbindungen zwischen den künstlichen Neuronen der ersten Schicht und dem künstlichen Neuron der zweiten Schicht Verbindungsgewichte zugeordnet. Die Verbindungsgewichte werden dabei basierend auf den zuvor ermittelten Zuverlässigkeitsmaßen bestimmt. Beispielsweise kann unter der Annahme, dass alle Quellen i dieselbe Zuverlässigkeit pi aufweisen, das Verbindungsgewicht wi1 der Verbindung zwischen dem der Quelle i zugeordneten künstlichen Neuron der ersten Schicht und dem künstlichen Neuron der zweiten Schicht anhand des Logit-Wertes zu der Zuverlässigkeit pi ermittelt werden. Das Verbindungsgewicht wi1 ist dann definiert durch: After the reliability measures of the individual sources have been determined, connection weights are subsequently assigned to the connections between the artificial neurons of the first layer and the artificial neuron of the second layer. The connection weights are determined based on the previously determined reliability measures. For example, assuming that all sources i have the same reliability p i , the connection weight w i1 of the connection between the first layer artificial neuron associated with the source i and the second layer artificial neuron may be determined the logit value are determined to be its reliability p i. The connection weight w i1 is then defined by:
Neben den künstlichen Neuronen für die Vielzahl von Quellen in der ersten Schicht und dem einzelnen künstlichen Neuron in der zweiten Schicht kann nach einer Ausführungsform in der ersten Schicht jeweils ein weiteres künstliches Neuron als Bias-Neuron vorgesehen sein, durch das ein Bias für die Neuronen der ersten Schicht und das Neuron der zweiten Schicht erzeugt wird. Unter einem „Bias-Neuron“ ist dabei ein künstliches Neuron zu verstehen, welches eine konstante Netzeingabe liefert, unabhängig von den Ausgaben der weiteren Neuronen des neuronalen Netzes. Beispielsweise kann der Ausgabewert eines solchen Bias-Neurons eine konstante 1 sein. Das Bias-Neuron der ersten Schicht ist dabei nur mit dem künstlichen Neuron der zweiten Schicht verbunden, während das Bias-Neuron der zweiten Schicht mit den künstlichen Neuronen der ersten Schicht verbunden ist. Dabei ist den Verbindungen zwischen den Bias-Neuronen und den weiteren Neuronen des künstlichen neuronalen Netzes ebenfalls ein Verbindungsgewicht zugeordnet, wodurch sich eine zusätzliche Netzeingabe für die künstlichen Neuronen der ersten und zweiten Schicht ergibt. In addition to the artificial neurons for the plurality of sources in the first layer and the single artificial neuron in the second layer may be provided according to an embodiment in the first layer in each case a further artificial neuron as a bias neuron, by a bias for the neurons of the first layer and the neuron of the second layer is generated. By a "bias neuron" is meant an artificial neuron which provides a constant network input, independent of the outputs of the other neurons of the neural network. For example, the output value of such a bias neuron may be a constant 1. The bias neuron of the first layer is connected only to the artificial neuron of the second layer, while the bias neuron of the second layer is connected to the artificial neurons of the first layer. In this case, the connection between the bias neurons and the other neurons of the artificial neural network is also assigned a connection weight, which results in an additional network input for the artificial neurons of the first and second layer.
Die Verbindungsgewichte der Verbindungen der Bias-Neuronen können dabei analog zu den obigen Ausführungen unter Annahme abgeschätzt werden, dass alle Quellen i dieselbe Zuverlässigkeit pi aufweisen. In diesem Fall können beispielsweise die Verbindungsgewichte wi2 der der Verbindungen zwischen dem Bias-Neuron der zweiten Schicht und den künstlichen Neuronen i der ersten Schicht abgeschätzt werden durch:
Unter derselben Annahme kann das Verbindungsgewicht wb1 der Verbindung zwischen dem Bias-Neuron der ersten Schicht und dem künstlichen Neuron der zweiten Schicht abgeschätzt werden durch: wobei m die Zahl der künstlichen Neuronen in der ersten Schicht angibt und pi das Zuverlässigkeitsmaß angibt, welches der Quelle i zugeordnet wurde. Under the same assumption, the connection weight w b1 of the connection between the first layer bias neuron and the second layer artificial neuron can be estimated by: where m is the number of artificial neurons in the first layer and p i is the reliability measure assigned to the source i.
Bei der erfindungsgemäß nachfolgenden Initialisierung der künstlichen Neuronen der ersten Schicht werden alle vorhandenen Datensätze der Quellen zu einem Faktum, also mindestens ihre Aussagen zu dem Faktum, wie sie zuvor beschrieben wurden, auf die künstlichen Neuronen der ersten Schicht übertragen. Die Zahl der künstlichen Neuronen entspricht dabei vorzugsweise wenigstens der Anzahl der betrachteten Quellen. Die Zustände der künstlichen Neuronen können dabei in einem „Eingabevektor“ zusammengefasst werden, wobei ein Vektoreintrag den Ausgangszustand eines entsprechenden Neurons repräsentiert. Der Eingabevektor hat dabei genauso viele Einträge, wie künstliche Neuronen in der ersten Schicht vorhanden sind. Für jede Quelle, die aussagt, dass das Faktum stimmt, enthält dieser Eingabevektor der RBM an der entsprechenden Stelle eine 1, während alle anderen Stellen jeweils eine 0 enthalten. In the initialization according to the invention of the artificial neurons of the first layer, all existing data sets of the sources are transferred to a fact, ie at least their statements on the fact, as described above, to the artificial neurons of the first layer. The number of artificial neurons preferably corresponds at least to the number of sources considered. The states of the artificial neurons can be summarized in an "input vector", wherein a vector entry represents the initial state of a corresponding neuron. The input vector has the same number of entries as there are artificial neurons in the first layer. For each source that states that the fact is true, this RBM input vector contains a 1 at the appropriate location, while all other digits contain a 0.
Jeder Quelle ist dabei jeweils wenigstens ein künstliches Neuron in der ersten Schicht zugeordnet. Bei der Initialisierung der Neuronen wird dann der Ausgangszustand genau jener künstlicher Neuronen auf 1 gesetzt, welche einer Quelle entsprechen, zu der die Aussage des gerade untersuchten Faktums ebenfalls ein „stimmt“, also eine logische 1 ist. In analoger Art und Weise wird der Ausgangszustand genau jener künstlicher Neuronen auf 0 gesetzt, welche einer Quelle entsprechen, deren Aussage zu dem grade untersuchten Faktum ein „stimmt nicht“, also eine logische 0 ist. Each source is assigned in each case at least one artificial neuron in the first layer. During the initialization of the neurons, the initial state of exactly those artificial neurons is then set to 1, which correspond to a source to which the statement of the fact just examined is likewise a "true", ie a logical 1. In an analogous manner, the initial state of exactly those artificial neurons is set to 0, which correspond to a source whose statement on the fact just examined is a "not true", ie a logical 0.
Die Zahl der künstlichen Neuronen der ersten Schicht kann dabei durchaus auch größer als die Zahl der betrachteten Quellen sein. In diesem Fall werden die Ausgangszustände der künstlichen Neuronen, welche einer Quelle entsprechen, die zu dem aktuell betrachteten Faktum keine Aussage macht, nicht verändert bzw. bei Durchführung der Schritte c)–g) nicht berücksichtigt. Dies kann beispielsweise mittels eines „Drop-Out“-Verfahrens erfolgen. The number of artificial neurons of the first layer may well be greater than the number of sources considered. In this case, the initial states of the artificial neurons, which correspond to a source that does not make any statement about the currently considered fact, are not changed or are not taken into account when performing steps c) -g). This can be done for example by means of a "drop-out" method.
Ausgehend von den so initialisierten künstlichen Neuronen der ersten Schicht wird anschließend ein Sampling des Ausgangszustandes des Neurons der zweiten Schicht durchgeführt. Unter einem „Sampling“ kann dabei allgemein ein näherungsweises Bestimmen der jeweiligen Zustände der Neuronen der einen Schicht ausgehend von den Zuständen der Neuronen der anderen Schicht und den jeweiligen Verbindungsgewichten verstanden werden. Nachdem der Ausgangszustand des Neurons der zweiten Schicht gesampelt wurde, werden anschließend ausgehend von dem so ermittelten Ausgangszustand des Neurons der zweiten Schicht und den Verbindungsgewichten die Ausgangszustände der Neuronen der ersten Schicht durch ein Sampling ermittelt. Anschließend wird der Ausgangszustand des Neurons der zweiten Schicht erneut gesamplet. Die Ausgangszustände der in der ersten und zweiten Schicht vorgesehenen Bias-Neuronen werden dabei nicht gesampelt, da sie den konstanten Wert 1 haben. Jedoch werden die Ausgangszustände der Bias-Neuronen bei einem Sampling der übrigen künstlichen Neuronen des künstlichen neuronalen Netzes berücksichtigt. Starting from the artificial neurons of the first layer thus initialized, a sampling of the initial state of the neuron of the second layer is then carried out. Under a "sampling" In this case, an approximate determination of the respective states of the neurons of the one layer can generally be understood on the basis of the states of the neurons of the other layer and the respective connection weights. After the initial state of the neuron of the second layer has been sampled, the output states of the neurons of the first layer are then determined by sampling on the basis of the thus determined initial state of the neuron of the second layer and the connection weights. Subsequently, the initial state of the neuron of the second layer is resampled. The output states of the bias neurons provided in the first and second layers are not sampled since they have the constant value of 1. However, the output states of the bias neurons are taken into account in a sampling of the remaining artificial neurons of the artificial neural network.
Ausgehend von der dabei möglicherweise auftretenden Veränderung der Ausgangszustände der Neuronen der ersten und zweiten Schicht vor und nach Durchführung des Samplings werden dann die Verbindungsgewichte angepasst. Dabei ist das Ziel der Anpassung der Verbindungsgewichte, dass sich bei weiteren Durchläufen des beschriebenen Samplings die Ausgangszustände der Neuronen der ersten und zweiten Schicht weniger stark ändern. Bei der Anpassung der Verbindungsgewichte werden insbesondere auch die Verbindungsgewichte der Verbindungen der Bias-Neuronen angepasst, um die durch die Bias-Neuronen erzeugte, konstante Netzeingabe der künstlichen Neuronen anzupassen. Based on the possibly occurring change of the output states of the neurons of the first and second layer before and after the sampling has been carried out, the connection weights are then adjusted. In this case, the goal of adaptation of the connection weights is that the output states of the neurons of the first and second layer change less strongly during further runs of the described sampling. In the adaptation of the connection weights, in particular, the connection weights of the connections of the bias neurons are adjusted in order to adapt the constant network input of the artificial neurons generated by the bias neurons.
Die vorgenannte Abfolge von Initialisierung der Neuronen der ersten Schicht, Sampling der Ausganszustände der Neuronen der ersten und zweiten Schicht und Anpassen der Verbindungsgewichte wird erfindungsgemäß für eine Mehrzahl von Aussagen einer Mehrzahl von Quellen zu einer Mehrzahl von Fakten so lange wiederholt, bis bei der Anpassung der Verbindungsgewichte die Veränderung der Verbindungsgewichte unter einem definierten Grenzwert liegt. Der Grenzwert gibt dabei an, wie genau das neuronale Netz die Aussagen der Quellen lernen soll. Somit kann der Grenzwert je nach Anwendungsfall unterschiedlich gewählt werden. The above sequence of initialization of the neurons of the first layer, sampling of the output states of the neurons of the first and second layers and adaptation of the connection weights is repeated according to the invention for a plurality of statements of a plurality of sources to a plurality of facts until the adaptation of the Connection weights, the change in connection weights is below a defined threshold. The limit value indicates how exactly the neural network should learn the statements of the sources. Thus, the limit can be chosen differently depending on the application.
Das vorgenannte Verfahren hat nun mehrere Vorteile. Bei der Durchführung des Verfahrens wurden die Verbindungsgewichte des neuronalen Netzes sukzessive so angepasst, dass nach Abschluss des Verfahrens Aussagen von Quellen genau dann durch das neuronale Netz reproduziert werden, wenn sie mit den Aussagen der gewichteten Mehrheit der eingelernten Quellen übereinstimmen. Unter einer „gewichteten Mehrheit“ ist dabei eine Mehrheit zu verstehen, welche sich aus einer Menge von Quellen, gewichtet mit deren jeweiligem Zuverlässigkeitsmaß zusammensetzt. Dabei ist zu beachten, dass es sich bei der gewichteten Mehrheit nicht zwingend um eine nominale Mehrheit handelt. Vielmehr ist es auch möglich, dass eine einzelne sehr zuverlässige Quelle eine Vielzahl von unzuverlässigen Quellen überstimmt. So würden beispielsweise zwei Quellen mit den Zuverlässigkeitsmaßen 0,7 und 0,9 eine gewichtete Mehrheit gegenüber einer Menge von fünf Quellen bilden, deren Zuverlässigkeitsmaß jeweils nur 0,3 beträgt. Bei der Verwendung eines feiner differenzierten Zuverlässigkeitsmaßes, wie es zuvor beschrieben wurde, kann bei der Definition einer „Mehrheit“ zusätzlich auch die Art der statistischen Information berücksichtigt werden. So kann beispielsweise die Gewichtung der Quellen deren Statistik bezüglich ihrer wahr-richtigen Aussagen und falsch-richtigen Aussagen berücksichtigen. The aforementioned method now has several advantages. In carrying out the method, the connection weights of the neural network were successively adjusted so that, after completion of the method, statements from sources are reproduced by the neural network if and only if they match the weighted majority of the learned sources. By a "weighted majority" is meant a majority, which consists of a set of sources, weighted with their respective reliability measure. It should be noted that the weighted majority is not necessarily a nominal majority. Rather, it is also possible that a single very reliable source overrules a variety of unreliable sources. For example, two sources with reliability measures 0.7 and 0.9 would form a weighted majority against a set of five sources each having a reliability measure of only 0.3. When using a finer differentiated reliability measure, as described above, the definition of a "majority" can additionally take into account the type of statistical information. For example, the weighting of the sources may take into account their statistics regarding their true-to-truth statements and false-correct statements.
Somit erlaubt das neuronale Netz bei einer Vielzahl von unterschiedlichen Aussagen der Quellen zu einem Faktum eine Aussage darüber, welche Aussage zu dem Faktum unter Berücksichtigung der vorhandenen Gesamtinformation, also den gegenwärtigen Aussagen und den historischen, eingelernten Aussagen, wahrscheinlich korrekt ist. Thus, in a variety of different sources' statements about a fact, the neural network allows a statement as to which statement about the fact is likely to be correct, taking into account the existing overall information, that is, the current statements and the historical taught-in statements.
Neben der direkten Überprüfung von konkreten Aussagen erlaubt das neuronale Netz ferner als Resultat des Lernprozesses eine Einschätzung, ob eine Quelle grundsätzlich zuverlässig ist oder nicht. Hierzu kann ausgehend von einem festen Zustand des Neurons der zweiten Schicht die entsprechende Ausgabe der Aktivierungsfunktion eines künstlichen Neurons der ersten Schicht ermittelt werden. Die so ermittelte Ausgabe des künstlichen Neurons der ersten Schicht ist dann gleichbedeutend mit der Wahrscheinlichkeit, dass Aussagen der Quelle, der das betrachtete künstliche Neuron zugeordnet ist, korrekt sind. Eine Quelle deren Aussagen sich mit hoher Wahrscheinlichkeit mit dem Zustand des Neurons der zweiten Schicht deckt, hat demnach ein hohes Zuverlässigkeitsmaß, während eine Quelle, deren Aussagen sich nicht oder nur zu einem geringen Prozentsatz mit dem Zustand des Neurons der zweiten Schicht deckt, ein niedriges Zuverlässigkeitsmaß hat. In addition to the direct verification of concrete statements, the neural network also allows an assessment as to whether a source is fundamentally reliable or not as a result of the learning process. For this purpose, starting from a fixed state of the neuron of the second layer, the corresponding output of the activation function of an artificial neuron of the first layer can be determined. The thus determined output of the artificial neuron of the first layer is then equivalent to the probability that statements of the source, which is associated with the considered artificial neuron, are correct. A source whose statements are likely to coincide with the state of the neuron of the second layer, therefore, has a high degree of reliability, while a source whose statements do not or only to a small extent coincides with the state of the neuron of the second layer, a low Reliability measure has.
In dem zuvor beschriebenen Fall, dass Zuverlässigkeitsmaß auch eine Rate von wahr-positiven Aussagen und eine Rate von falsch-positiven Aussagen berücksichtigt, kann als Resultat des Lernprozesses auch eine Ausgabe der jeweiligen Werte für die Rate der falsch-positiven Aussagen und der richtig-positiven Aussagen für eine Quelle erfolgen. Hierzu kann zur Ausgabe des der jeweiligen Werte für die Rate der wahr-positiven Antworten der Quellen der Ausgangszustand des künstlichen Neurons der zweiten Schicht auf den Wert 1 gesetzt werden. Anschließend werden die Ausgangszustände der künstlichen Neuronen der ersten Schicht berechnet. Die so bestimmten Ausgangszustände der künstlichen Neuronen der ersten Schicht entsprechen dann gerade den jeweiligen Werten für die Rate der wahr-positiven Antworten der dem entsprechenden künstlichen Neuron zugeordneten Quelle. In the case described above, that reliability measure also takes into account a rate of true-positive statements and a rate of false-positive statements, as a result of the learning process, an output of the respective values for the rate of false-positive statements and the true-positive Statements made for a source. For this purpose, to output the respective values for the rate of true-positive responses of the sources, the initial state of the artificial neuron of the second layer may be set to the
In analoger Art und Weise kann die Rate der falsch-positiven Aussagen bestimmt werden, indem der Ausgangszustand des künstlichen Neurons der zweiten Schicht auf den Wert 0 gesetzt wird und anschließend die Ausgangszustände der künstlichen Neuronen der zweiten Schicht ermittelt werden. Diese Ausgangszustände entsprechen dann in analoger Art und Weise jeweils den Raten der falsch-positiven Aussagen der den entsprechenden künstlichen Neuronen zugeordneten Quellen. In an analogous manner, the rate of false positives can be determined by setting the initial state of the second layer artificial neuron to zero and then determining the initial states of the second layer artificial neurons. These output states then correspond in an analogous manner in each case to the rates of the false-positive statements of the sources associated with the corresponding artificial neurons.
Somit erlaub das neuronale Netz nach Durchführung des erfindungsgemäßen Verfahrens sowohl eine Überprüfung konkreter Aussagen der Quellen bezüglich der wahrscheinlich korrekten Aussage, als auch eine generelle Abschätzung der Zuverlässigkeit einer Quelle. Dabei werden im Zuge der Anpassung der Verbindungsgewichte implizit die Zuverlässigkeitsmaße für die verschiedenen betrachteten Quellen ermittelt, während das neuronale Netz anhand der Aussagen der Quellen lernt, welche Korrelationen zwischen der Vielzahl von Fakten bzw. den möglichen Systemreizen bestehen. Thus, after carrying out the method according to the invention, the neural network permits both a checking of concrete statements of the sources with regard to the probably correct statement, as well as a general estimation of the reliability of a source. In the course of adjusting the connection weights, the reliability measures for the various sources considered are implicitly determined, while the neural network uses the statements of the sources to learn which correlations exist between the multiplicity of facts or the possible system stimuli.
Sollen, wie zuvor beschrieben wurde, die Zuverlässigkeitsmaße der Quellen neben der relativen Häufigkeiten korrekter Antworten der Quellen pi auch weitere statistische Informationen enthalten, nämlich die Rate der wahr-positiven Antworten (true positive rate, tpri) und die Rate der falsch-positiven Antworten (false positive rate, fpri) ändern sich die Formeln zur Bestimmung der initialen Verbindungsgewichte, wie so zuvor beschrieben wurden. In diesem Fall wäre das initiale Verbindungsgewicht wi1 zwischen den künstlichen Neuronen der ersten Schicht, welche den Quellen i zugeordnet sind und dem künstlichen Neuron der zweiten Schicht definiert durch: As described above, the reliability measures of the sources should include, in addition to the relative frequencies of correct responses of sources p i, also other statistical information, namely the rate of true positive responses (tpr i ) and the rate of false positives Responses (false positive rate, fpr i ) change the formulas for determining the initial connection weights, as previously described. In this case, the initial connection weight w i1 between the first layer artificial neurons associated with the sources i and the second layer artificial neuron would be defined by:
Die initialen Verbindungsgewichte wi2 zwischen den künstlichen Neuronen der ersten Schicht, welche den Quellen i zugeordnet sind und dem Bias-Neuron der zweiten Schicht sind dann gegen durch während das initiale Verbindungsgewicht wb1 zwischen dem Bias-Neuron der ersten Schicht und dem künstlichen Neuron der zweiten Schicht gegen ist durch The initial connection weights w i2 between the artificial neurons of the first layer which are assigned to the sources i and the bias neuron of the second layer are then counteracted by while the initial connection weight w b1 between the first-layer bias neuron and the second-layer artificial neuron is opposite
Die Berücksichtigung der jeweiligen Raten der wahr-positiven Aussagen und der falschpositiven Aussagen erlauben dann eine Unterscheidung der Wahrscheinlichkeiten für Fehler 1. Art und Fehler 2. Art. Die initialen Werte für fpri und tpri können dabei zunächst abgeschätzt werden, oder sie können aus historischen Daten bekannt sein. The consideration of the respective rates of the true-positive statements and the false-positive statements then allow a differentiation of the probabilities for
Nach einer bevorzugten Ausführungsform wird bei dem Ermitteln der Zuverlässigkeitsmaße der Quellen allen Quellen derselbe Wert für das jeweilige Zuverlässigkeitsmaß zugeordnet. Beispielsweise kann davon ausgegangen werden, dass grundsätzlich alle Quellen tendenziell versuchen werden, korrekte Aussagen zu treffen und daher eine Mehrzahl der Aussagen einer Quelle korrekt sein werden, sodass alle Zuverlässigkeitsmaße mit einem Wert initialisiert werden, welcher größer als 0,5 ist. Da im Folgenden die initialen Verbindungsgewichte ausgehend von den jeweiligen Zuverlässigkeitsmaßen der Quellen ermittelt werden, kann sämtlichen Verbindungen des neuronalen Netzes dasselbe Verbindungsgewicht zugeordnet werden. Eine individuelle Ermittlung der initialen Verbindungsgewichte je Neuron der ersten Schicht ist dann nicht mehr notwendig, was den Rechenaufwand bei der Initialisierung des neuronalen Netzes reduziert. In a preferred embodiment, in determining the reliability measures of the sources, the same value is assigned to all sources for the respective reliability measure. For example, it can be assumed that in principle all sources will tend to attempt to make correct statements and therefore a majority of the statements of a source will be correct, so that all reliability measures are initialized with a value which is greater than 0.5. Since, in the following, the initial connection weights are determined on the basis of the respective reliability measures of the sources, all connections of the neural network can be assigned the same connection weight. An individual determination of the initial connection weights per neuron of the first layer is then no longer necessary, which reduces the computational effort during the initialization of the neural network.
Dabei können nach einer Ausführungsform bei der Initialisierung der Neuronen neben den konkreten Aussagen der Quellen zu einem Faktum auch weitere Informationen zu den Quellen oder zu den Aussagen berücksichtigt werden. So kann beispielsweise durch die entsprechende Initialisierung weiterer künstlicher Neuronen das Alter einer Information berücksichtigt werden, oder auch die Art der Quelle. According to one embodiment, upon initialization of the neurons, in addition to the concrete statements of the sources about a fact, further information about the sources or the statements can also be provided be taken into account. Thus, for example, by the corresponding initialization of further artificial neurons, the age of an information can be taken into account, or also the type of source.
Nach einer Ausführungsform erfolgt das Sampling des Ausgangszustands des künstlichen Neurons der zweiten Schicht durch Bestimmen einer ersten Zufallszahl zwischen 0 und 1, berechnen der Aktivierungsfunktion des künstlichen Neurons der zweiten Schicht für die Ausgangszustände der künstlichen Neuronen der ersten Schicht und die jeweiligen Verbindungsgewichte und Vergleichen der Zufallszahl mit der Aktivierungsfunktion, wobei der Ausgangszustand des künstlichen Neurons auf 0 gesetzt wird, wenn die Zufallszahl größer als die Ausgabe der Aktivierungsfunktion ist und wobei der Ausgangszustand des künstlichen Neurons auf 1 gesetzt wird, wenn die Zufallszahl kleiner oder gleich der Aktivierungsfunktion ist. According to one embodiment, the sampling of the output state of the second layer artificial neuron is performed by determining a first random number between 0 and 1, calculating the second layer artificial neuron activation function for the first layer artificial neuron activation states and the respective connection weights and random number comparisons with the activation function, wherein the initial state of the artificial neuron is set to 0 if the random number is greater than the output of the activation function and the initial state of the artificial neuron is set to 1 if the random number is less than or equal to the activation function.
Nach einer hierzu analogen Ausführungsform erfolgt das Sampling der Ausgangszustände der künstlichen Neuronen der ersten Schicht jeweils für jedes künstliche Neuron der ersten Schicht durch Bestimmen einer zweiten Zufallszahl zwischen 0 und 1, berechnen der Aktivierungsfunktion eines künstlichen Neurons der ersten Schicht für den aktuellen Ausgangszustand des künstlichen Neurons der zweiten Schicht und die jeweiligen Verbindungsgewichte und Vergleichen der Zufallszahl mit der Aktivierungsfunktion, wobei der Ausgangszustand des künstlichen Neurons auf 0 gesetzt wird, wenn die Zufallszahl größer als die Aktivierungsfunktion ist und wobei der Ausgangszustand des künstlichen Neurons auf 1 gesetzt wird, wenn die Zufallszahl kleiner oder gleich der Aktivierungsfunktion ist. According to an embodiment analogous thereto, the sampling of the output states of the artificial neurons of the first layer is performed for each artificial neuron of the first layer by determining a second random number between 0 and 1, calculating the activation function of an artificial neuron of the first layer for the current initial state of the artificial neuron the second layer and the respective connection weights and comparing the random number with the activation function, wherein the initial state of the artificial neuron is set to 0 if the random number is greater than the activation function and the initial state of the artificial neuron is set to 1 if the random number is smaller or equal to the activation function.
Beispielsweise würde bei dem künstlichen Neuron der zweiten Schicht, welches beispielsweise mit fünf künstlichen Neuronen der ersten Schicht verbunden ist, das Sampling nach der beschriebenen Ausführungsform folgendermaßen ablaufen: Zunächst würde eine Zufallszahl zwischen 0 und 1 bestimmt. Beispielsweise könnte die Zufallszahl 0,7 sein. Anschließend werden die Ausgangszustände der fünf künstlichen Neuronen der ersten Schicht mit den jeweiligen Verbindungsgewichten der Verbindungen zu dem künstlichen Neuron der zweiten Schicht multipliziert und die jeweiligen Produkte aufsummiert. Zu der so bestimmten Netzeingabe wird dann noch ein Bias addiert, welcher sich aus dem Ausgabewert des Bias-Neurons der ersten Schicht von 1, multipliziert mit dem Verbindungsgewicht der Verbindung zwischen Bias-Neuron und dem betrachteten Neuron ergibt. Beispielsweise können die Ausgangszustände der künstlichen Neuronen der ersten Schicht die Werte {0; 1; 0; 0; 1} haben, während die Verbindungsgewichte die Werte {0,1; –0,05; 0,2; 0,1; –0,15} haben. Das Bias-Neuron hat ferner den Ausgabewert 1 und das Verbindungsgewicht der Verbindung zwischen Bias-Neuron und betrachtetem Neuron wird exemplarisch als 0,3 angenommen. Die Netzeingabe für das betrachtete künstliche Neuron verursacht durch die künstlichen Neuronen der ersten Schicht ist in diesem Fall –0,2, zuzüglich der Eingabe des Bias-Neurons von 0,3, sodass sich insgesamt eine Netzeingabe von 0,1 ergibt. Nimmt man als Aktivierungsfunktion eine stückweise lineare Funktion an, welche im Bereich zwischen den Eingabewerten –0,5 und 0,5 von einem Funktionswert 0 zu einem Funktionswert 1 linear ansteigt, wäre der Wert der Aktivierungsfunktion für die Netzeingabe 0,1 bei 0,6 und somit kleiner als die Zufallszahl 0,7. Der Ausgangszustand des betrachteten künstlichen Neurons der zweiten Schicht würde in diesem Fall auf 0 gesetzt. For example, in the artificial neuron of the second layer, which is connected, for example, to five artificial neurons of the first layer, the sampling according to the described embodiment would proceed as follows: First, a random number between 0 and 1 would be determined. For example, the random number could be 0.7. Subsequently, the output states of the five artificial neurons of the first layer are multiplied by the respective connection weights of the connections to the artificial neuron of the second layer, and the respective products are summed up. To the thus-determined network input, a bias is then added, which results from the output value of the bias neuron of the first layer of FIG. 1 multiplied by the connection weight of the connection between the bias neuron and the considered neuron. For example, the initial states of the artificial neurons of the first layer may be {0; 1; 0; 0; 1} while the connection weights have the values {0,1; -0.05; 0.2; 0.1; -0,15}. The bias neuron also has the
Mit den zuvor beschriebenen Verfahren zur Durchführung eines Samplings der Ausgangszustände der künstlichen Neuronen der ersten und zweiten Schicht kann mit geringem Aufwand eine statistische Abtastung des Transformationsverhaltens des neuronalen Netzes erfolgen. Anhand der dabei ermittelten Veränderungen der Ausgangszustände der künstlichen Neuronen vor und nach dem Sampling kann wiederum, wie nachfolgend noch beschrieben wird, abgeschätzt werden, wie die Verbindungsgewichte des neuronalen Netzes verändert werden müssen, sodass sich das neuronale Netz in seinem Transformationsverhalten bei weiterer Durchführung eines Samplings auf einen stabilen Zustand einpendelt. With the methods described above for performing a sampling of the initial states of the artificial neurons of the first and second layer, a statistical sampling of the transformation behavior of the neural network can be carried out with little effort. On the basis of the changes of the initial states of the artificial neurons before and after the sampling determined in turn, it can be estimated, as will be described below, how the connection weights of the neural network have to be changed, so that the neural network undergoes its transformation behavior on further execution of a sampling stabilized to a stable state.
Dabei kann es sich nach Ausführungsformen bei den Aktivierungsfunktionen der künstlichen Neuronen jeweils um sigmoide Funktionen handeln. Eine sigmoide Funktion ist im Allgemeinen dadurch gekennzeichnet, dass sie genau einen Wendepunkt hat, welcher die Funktion in zwei Bereiche zerteilt, wobei ein erster Bereich ausschließlich eine positive erste Ableitung aufweist, während der zweite Bereich ausschließlich eine negative erste Ableitung aufweist. Der Wertebereich einer solchen sigmoiden Funktion, welche als Aktivierungsfunktion eines künstlichen Neurons verwendet werden kann, ist dabei vorzugsweise durch die Funktionswerte 0 und 1 nach unten und oben beschränkt. Eine solche sigmoide Funktion ist beispielsweise eine Funktion der Form According to embodiments, the activation functions of the artificial neurons may each be sigmoid functions. A sigmoid function is generally characterized by having exactly one inflection point dividing the function into two regions, a first region having only a positive first derivative, while the second region having only a negative first derivative. The range of values of such a sigmoidal function, which can be used as an activation function of an artificial neuron, is preferably limited by the function values 0 and 1 downwards and upwards. Such a sigmoidal function is, for example, a function of the shape
Diese wird auch als logistische Funktion bezeichnet und erlaubt aufgrund ihres stetig differenzierbaren Verlaufs einerseits eine fein differenzierte Verarbeitung von Eingangsdaten durch das neuronale Netz, während gleichzeitig eine Analyse der Funktion des Netzes an sich durch Verfahren, wie beispielsweise Backpropagation möglich wird. This is also referred to as a logistical function and, on the one hand, permits a finely differentiated processing of input data by the neural network on the one hand because of its continuously differentiable course, while at the same time an analysis of the function of the network per se by methods such as backpropagation is possible.
Bei dem Anpassen des Satzes von Verbindungsgewichten nach Durchführung der Schritte c), d), e) und f) des oben beschriebenen Verfahrens ist nach einer weiteren Ausführungsform vorgesehen, dass die Änderung der Verbindungsgewichte proportional ist zu der Differenz zwischen dem äußeren Produkt der Ausgangszustände der künstlichen Neuronen der ersten und zweiten Schicht vor dem Durchführen eines Samplings der Ausgangszustände der künstlichen Neuronen der ersten und zweiten Schicht und dem äußeren Produkt der Ausgangszustände der künstlichen Neuronen der ersten und zweiten Schicht nach dem Durchführen eines Samplings der Ausgangszustände der künstlichen Neuronen der ersten und zweiten Schicht. In adjusting the set of connection weights after performing steps c), d), e) and f) of the method described above, according to a further embodiment, it is provided that the change in the connection weights is proportional to the difference between the outer product of the output states artificial neurons of the first and second layers before performing sampling of the output states of the artificial neurons of the first and second layers and the outer product of the output states of the artificial neurons of the first and second layers after sampling the output states of the artificial neurons of the first and second Layer.
Unter dem „äußeren Produkt der Ausgangszustände“ ist dabei allgemein folgendes zu verstehen: Die Ausgangszustände der jeweiligen künstlichen Neuronen der ersten und zweiten Schicht können wie zuvor bereits angedeutet in einem Vektor zusammengefasst werden. Beispielsweise kann ein neuronales Netz 5 künstliche Neuronen und ein Bias-Neuron in der ersten Schicht aufweisen, während in der zweiten Schicht 1 künstliches Neuron und ein Bias-Neuron angeordnet sind. Der Gesamtzustand der künstlichen Neuronen der ersten Schicht kann dann als Vektor mit 6 Zeilen dargestellt werden, während der Gesamtzustand der künstlichen Neuronen der zweiten Schicht durch einen Vektor mit 2 Zeilen darstellbar ist. Ferner existieren in einem solchen neuronalen Netz mit N künstlichen Neuronen in der ersten Schicht und M künstlichen Neuronen in der zweiten Schicht genau N·M Verbindungen zwischen den künstlichen Neuronen, da in einer RBM jedes künstliche Neuron der ersten Schicht mit allen künstlichen Neuronen der zweiten Schicht verbunden ist. Die entsprechenden Verbindungsgewichte können dann in einer Matrix mit N Zeilen und M Spalten zusammengefasst werden. Für den zuvor beschriebenen Fall würde man eine Matrix mit 6 Zeilen und 2 Spalten erhalten. The "outer product of the initial states" generally means the following: The initial states of the respective artificial neurons of the first and second layers can be summarized in a vector as already indicated above. For example, a
Das äußere Produkt der Ausgangszustände ist in diesem Kontext als das Matrixprodukt (Dyadische Produkt) des Vektors der ersten Schicht mit dem transponierten Vektor der zweiten Schicht zu verstehen, woraus sich wiederum eine Matrix mit 6 Zeilen und 2 Spalten ergibt. Bildet man diese Matrix einmal aus den Ausgangszuständen der künstlichen Neuronen der ersten und zweiten Schicht vor der Durchführung des Samplings und einmal nach der Durchführung des Samplings, lässt sich die Differenz dieser beiden äußeren Produkte bestimmen, welche wiederum eine 6×2-Matrix ist. Die so erhaltene Matrix gibt Aufschluss darüber, wie sehr sich die Zustände der künstlichen Neuronen bei Durchführung des Samplings verändert haben und welche Verbindungsgewichte demnach wie stark verändert werden müssen. Dabei kann mittels eines verwendeten Proportionalitätsfaktors, welcher eine Lernrate widerspiegelt, festgelegt werden, wie sensitiv die Anpassung der Verbindungsgewichte auf eine Veränderung der Ausgangszustände der künstlichen Neuronen in Folge des Samplings ist. Hierauf wird im Folgenden noch näher eingegangen werden. The outer product of the initial states is to be understood in this context as the matrix product (dyadic product) of the vector of the first layer with the transposed vector of the second layer, which in turn results in a matrix with 6 rows and 2 columns. Forming this matrix once from the initial states of the artificial neurons of the first and second layers before performing the sampling and once after performing the sampling, the difference of these two outer products can be determined, which in turn is a 6 × 2 matrix. The matrix obtained in this way provides information about how much the states of the artificial neurons have changed when sampling is performed, and which connection weights have to be changed accordingly. It can be determined by means of a proportionality factor used, which reflects a learning rate, how sensitive the adaptation of the connection weights to a change in the output states of the artificial neurons as a result of sampling is. This will be discussed in more detail below.
In einem weiteren Aspekt betrifft die Erfindung ein Computerprogrammprodukt, mit auf einem Computersystem ausführbaren Programminstruktionen, welches bei Ausführung der Programminstruktionen auf dem Computersystem das Computersystem dazu veranlasst, das zuvor beschriebene Verfahren durchzuführen. In a further aspect, the invention relates to a computer program product having program instructions executable on a computer system, which upon execution of the program instructions on the computer system causes the computer system to perform the method described above.
In noch einem weiteren Aspekt betrifft die Erfindung eine Vorrichtung zur Bewertung von Aussagen einer Mehrzahl von Quellen zu einer Mehrzahl von Fakten, wobei die Vorrichtung ein Computersystem mit einem künstlichen, neuronalen Netz aufweist. Das künstliche, neuronale Netz weist dabei eine erste Menge künstlicher Neuronen in einer ersten Schicht und wenigstens ein künstliches Neuron in einer zweiten Schicht auf, wobei alle künstlichen Neuronen der ersten Schicht mit dem künstlichen Neuron der zweiten Schicht verbunden sind. Jeder Verbindung zwischen einem künstlichen Neuron der ersten Schicht und einem künstlichen Neuron der zweiten Schicht ist dabei ein Verbindungsgewicht zugeordnet, während den Quellen jeweils ein Zuverlässigkeitsmaß zugeordnet ist, welches die Zuverlässigkeit von Aussagen der Quelle bezeichnet. Die Vorrichtung ist erfindungsgemäß dazu ausgebildet:
- a) die Zuverlässigkeitsmaße der Quellen zu ermitteln,
- b) den Verbindungen des neuronalen Netzes einen Satz von Verbindungsgewichten basierend auf den geschätzten Zuverlässigkeitsmaßen zuzuordnen,
- c) die Ausgangszustände der künstlichen Neuronen der ersten Schicht auf Grundlage der Aussagen wenigstens einer Quelle aus der Mehrzahl von Quellen zu einem ersten Faktum zu initialisieren,
- d) ein Sampling des Ausgangszustands des künstlichen Neurons der zweiten Schicht basierend auf den Ausgangszuständen der künstlichen Neuronen der ersten Schicht und den jeweiligen Verbindungsgewichten durchzuführen,
- e) ein Sampling der Ausgangszustände aller künstlichen Neuronen der ersten Schicht basierend auf dem Ausgangszustand des künstlichen Neurons der zweiten Schicht und den jeweiligen Verbindungsgewichte durchzuführen,
- f) ein Sampling des Ausgangszustands des künstlichen Neurons der zweiten Schicht basierend auf den Ausgangszuständen der künstlichen Neuronen der ersten Schicht und den jeweiligen Verbindungsgewichten durchzuführen, und
- g) den Satz von Verbindungsgewichten auf Grundlage der Veränderung der Ausgangszustände der künstlichen Neuronen der ersten Schicht und der zweiten Schicht in den Schritten d), e) und f) anzupassen.
- a) to determine the reliability measures of the sources,
- b) associating the neural network connections with a set of connection weights based on the estimated reliability measures;
- c) initializing the initial states of the artificial neurons of the first layer based on the statements of at least one source from the plurality of sources to a first fact,
- d) performing a sampling of the initial state of the artificial second-layer neuron based on the initial states of the first-layer artificial neurons and the respective compound weights;
- e) performing a sampling of the output states of all artificial neurons of the first layer based on the initial state of the artificial neuron of the second layer and the respective connection weights,
- f) performing a sampling of the output state of the artificial second-layer neuron based on the initial states of the first-layer artificial neurons and the respective compound weights, and
- g) adjust the set of connection weights based on the change of the initial states of the first layer and second layer artificial neurons in steps d), e) and f).
Die Vorrichtung ist dabei ferner dazu ausgebildet, die Schritte c), d), e), f) und g) so oft für die jeweiligen Aussagen der Mehrzahl von Quellen zu der Mehrzahl von Fakten zu wiederholen, bis die Veränderung der Verbindungsgewichte in Schritt g) unterhalb eines definierten Grenzwerts liegt. The device is further configured to repeat steps c), d), e), f) and g) as often as necessary for the respective statements of the plurality of sources for the plurality of facts until the change in the connection weights in step g ) is below a defined limit.
Weitere Merkmale, Einzelheiten und Vorteile der Erfindung ergeben sich aus dem Wortlaut der Ansprüche sowie aus der folgenden Beschreibung von Ausführungsbeispielen anhand der Zeichnungen. Es zeigen: Further features, details and advantages of the invention will become apparent from the wording of the claims and from the following description of exemplary embodiments with reference to the drawings. Show it:
Im Folgenden werden einander ähnliche oder identische Elemente mit denselben Bezugszeichen gekennzeichnet. Hereinafter, similar or identical elements will be denoted by the same reference numerals.
Die
Ferner ist sowohl in der ersten Schicht
Die Ausgangszustände der künstlichen Neuronen
Den Verbindungen zwischen den künstlichen Neuronen
Wie zuvor bereits ausgeführt wurde, dient das erfindungsgemäße Verfahren dazu, Aussagen von Quellen zu Fakten zu überprüfen und eine Bewertung der Zuverlässigkeit von Quellen vorzunehmen. Eine Quelle könnte hierbei beispielsweise eine Sensorvorrichtung sein, welche Messungen an Werkstücken zur Qualitätssicherung durchführt. Beispielsweise kann eine solche Sensorvorrichtung zur Qualitätssicherung die Oberflächengüte, die Porosität, die Abmessungen bestimmter Geometrien des Werkstücks oder ähnliches überwachen und zu jeder Messgröße eine Information ausgeben, ob definierte Toleranzgrenzen bei einem untersuchten Werkstück eingehalten sind, oder nicht. Dabei kann eine Sensorvorrichtung i eine Mehrzahl j von Aussagen zu den untersuchten Größen (Fakten) erzeugen, welche jeweils in einem Vektor vij zusammengefasst werden können. Für all jene Messgrößen, bei denen die Toleranzgrenzen eingehalten werden, würde ein entsprechender Vektor eine 1 enthalten, während für Messgrößen, bei denen die Toleranzen nicht eingehalten werden, eine 0 im Vektor enthalten ist. As already stated above, the method according to the invention serves to verify statements from sources to facts and to make an assessment of the reliability of sources. A source could be, for example, a sensor device, which performs measurements on workpieces for quality assurance. For example, such a sensor device for quality assurance, the surface quality, the porosity, the dimensions of certain geometries of the workpiece or the like monitor and output to each measurand information whether defined tolerance limits are met in a tested workpiece or not. In this case, a sensor device i can generate a plurality j of statements relating to the examined variables (facts), which can each be summarized in a vector v ij . For all those metrics where the tolerance limits are met, a corresponding vector would contain a 1, while for metrics that do not meet the tolerances, a 0 is in the vector.
In einer Produktionsumgebung werden dabei oftmals Prüfsysteme redundant ausgeführt, sodass eine Messgröße von mehreren Sensoren oder Sensorvorrichtungen parallel überwacht wird. Dabei besteht zwischen den Aussagen der einzelnen Sensoren, bzw. den von den Sensoren ausgegebenen Aussagen zu Fakten eine bestimmte Korrelation. Auf der Grundlage solcher Korrelationen können Aussagen der Sensorvorrichtungen dahingehend bewertet werden, welche Aussagen wahrscheinlich korrekt sind und welche nicht. So kann es durchaus vorkommen, dass bestimmte Sensorvorrichtungen zur Bestimmung einer bestimmten Messgröße weniger gut geeignet sind als andere. Somit sind deren Aussagen zu den Informationen weniger zuverlässig bzw. weniger relevant. Sollten dabei die Sensoren unterschiedliche Aussagen zu ein und demselben Faktum liefern, kann durch das erfindungsgemäße Verfahren eine Abschätzung erfolgen, welcher Aussage geglaubt werden sollte. Die Analyse solcher Korrelationen ist im Allgemein jedoch aufgrund der großen Zahl von Informationen, welche dabei beachtet werden müssen sehr aufwändig. In a production environment, test systems are often executed redundantly, so that a measured variable is monitored in parallel by several sensors or sensor devices. There is a certain correlation between the statements of the individual sensors, or the statements on facts issued by the sensors. Based on such correlations, statements of the sensor devices can be evaluated as to which statements are likely to be correct and which are not. Thus, it may well happen that certain sensor devices are less suitable for determining a particular measured variable than others. Thus, their statements about the information are less reliable or less relevant. If the sensors provide different statements about one and the same fact, the method according to the invention makes it possible to estimate which statement should be believed. However, the analysis of such correlations is generally very costly due to the large amount of information that needs to be considered.
Durch das erfindungsgemäße Verfahren werden hingegen die Eigenschaften neuronaler Netze und insbesondere von RBMs genutzt, um solche Korrelationen effektiv für eine Bewertung der Zuverlässigkeit von Aussagen nutzbar zu machen. Das Verfahren ermöglicht dabei einerseits, einem zunächst unbestimmten neuronalen Netz beizubringen, Aussagen von Quellen zu überprüfen, während gleichzeitig eine allgemeine Bewertung der Zuverlässigkeit von Quellen vorgenommen wird. By contrast, the method according to the invention makes use of the properties of neural networks and in particular of RBMs in order to effectively make such correlations usable for evaluating the reliability of statements. On the one hand, the method makes it possible to teach an initially indefinite neural network to check statements from sources, while at the same time undertaking a general evaluation of the reliability of sources.
Ausgehend von einem künstlichen, neuronalen Netz
Den Verbindungen zwischen den künstlichen Neuronen
Für ein bestimmtes Faktum j werden anschließend die Aussagen der Quellen zu dem Faktum j, dargestellt durch einen Vektor xj, gesammelt. Die Einträge dieses Vektors werden anschließend auf die künstlichen Neuronen
Ausgehend von diesem Eingangsvektor vj und den Anfangsgewichten W0 der Verbindungen des neuronalen Netzes
Ist der dabei ermittelte Wert der Aktivierungsfunktion kleiner als der Zufallswert von 0,6, wird der Ausgangszustand des betrachteten Neurons auf 0 gesetzt. Ist der ermittelte Wert der Aktivierungsfunktion hingegen größer oder gleich der Zufallszahl, wird der Ausgangszustand des Neurons
Ausgehend von diesem Vektor h, sowie den Verbindungsgewichten W0 wird dann in analoger Art und Weise ein Sampling der Ausgangszustände der künstlichen Neuronen
Anschließend werden zu einem weiteren Faktum j die Aussagen der betrachteten Quellen untersucht, indem die künstlichen Neuronen
Hierzu werden die Aussagen der Quellen in die künstlichen Neuronen
Ferner werden ab diesem Zeitpunkt die Zuverlässigkeitsmaße der Quellen als repräsentativ für alle Aussagen der Quelle angenommen, sodass eine Bewertung möglich wird, ob die Aussage einer Quelle tatsächlich zutreffend sein wird, oder nicht. Hierdurch können unterschiedliche Aussagen verschiedener Quellen zu einer bestimmten Information gegeneinander abgewogen werden. Zur Ausgabe der jeweiligen Zuverlässigkeitsmaße der Quellen kann dabei der Ausgangszustand des künstlichen Neurons
Die
Diese Ausgabewerte werden dann von den Sensorvorrichtungen
Die Erfindung ist nicht auf eine der vorbeschriebenen Ausführungsformen beschränkt, sondern in vielfältiger Weise abwandelbar. The invention is not limited to one of the above-described embodiments, but can be modified in many ways.
Sämtliche aus den Ansprüchen, der Beschreibung und der Zeichnung hervorgehenden Merkmale und Vorteile, einschließlich konstruktiver Einzelheiten, räumlicher Anordnungen und Verfahrensschritten, können sowohl für sich als auch in den verschiedensten Kombinationen erfindungswesentlich sein. All of the claims, the description and the drawings resulting features and advantages, including design details, spatial arrangements and method steps may be essential to the invention both in itself and in various combinations.
Claims (9)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016113310.8A DE102016113310A1 (en) | 2016-07-19 | 2016-07-19 | A method for evaluating statements of a plurality of sources about a plurality of facts |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102016113310.8A DE102016113310A1 (en) | 2016-07-19 | 2016-07-19 | A method for evaluating statements of a plurality of sources about a plurality of facts |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102016113310A1 true DE102016113310A1 (en) | 2018-01-25 |
Family
ID=60890130
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102016113310.8A Withdrawn DE102016113310A1 (en) | 2016-07-19 | 2016-07-19 | A method for evaluating statements of a plurality of sources about a plurality of facts |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102016113310A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11562046B2 (en) * | 2018-11-26 | 2023-01-24 | Samsung Electronics Co., Ltd. | Neural network processor using dyadic weight matrix and operation method thereof |
-
2016
- 2016-07-19 DE DE102016113310.8A patent/DE102016113310A1/en not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11562046B2 (en) * | 2018-11-26 | 2023-01-24 | Samsung Electronics Co., Ltd. | Neural network processor using dyadic weight matrix and operation method thereof |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE112022000106T5 (en) | Transmission fault diagnosis and signal acquisition method, apparatus and electronic device | |
DE60007772T2 (en) | RECURSIVE STATUS ASSESSMENT BY MATRIX FACTORIZATION | |
DE102012009502A1 (en) | Method for training an artificial neural network | |
DE10316381A1 (en) | Procedure for training neural networks | |
DE102016216945A1 (en) | A method and apparatus for performing a function based on a model value of a data-based function model based on a model validity indication | |
DE102018220941A1 (en) | Evaluation of measured variables with AI modules taking into account measurement uncertainties | |
EP2854045B1 (en) | Method and system for the evaluation of recorded measured values of a system | |
EP1021793A2 (en) | Assembly of interconnected computing elements, method for computer-assisted determination of a dynamics which is the base of a dynamic process, and method for computer-assisted training of an assembly of interconnected elements | |
EP2433185B1 (en) | Apparatus and method for editing a process simulation database for a process | |
DE102013206291A1 (en) | Method and apparatus for creating a non-parametric, data-based function model | |
DE102016113310A1 (en) | A method for evaluating statements of a plurality of sources about a plurality of facts | |
DE102016124205A1 (en) | Computer-implemented process for optimizing a manufacturing process | |
DE102020200051A1 (en) | Method for determining remaining usage cycles, remaining usage cycle determining circuit, remaining usage cycle determining device | |
DE19530647C1 (en) | Input parameter preparation for neural network | |
DE102017219269A1 (en) | Classification with automatic selection of promising learning data | |
DE102021200789A1 (en) | Computer-implemented method and device for manipulation detection for exhaust aftertreatment systems using artificial intelligence methods | |
EP1248095A2 (en) | Method for the determination of strain-stress relations by means of spline interpolation on the basis of characteristic points and by employing neural networks | |
DE102020205394A1 (en) | Computer-implemented method and apparatus for creating a knowledge graph | |
DE102005028252A1 (en) | Method for the computer-aided processing of digital data | |
DE19948569C2 (en) | Process and arrangement for computer-aided determination and selection of significant measured variables | |
DE102019214546A1 (en) | Computer-implemented method and device for optimizing an architecture of an artificial neural network | |
EP1071999B1 (en) | Method and arrangement for computer-assisted determination of a representation specification | |
DE102013206285A1 (en) | Method and apparatus for creating a non-parametric, data-based function model | |
DE102021205097A1 (en) | Computer-implemented method and system for determining a cost function | |
DE102022207482B4 (en) | Computer-implemented method for determining a data quality index, computer program and control unit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R005 | Application deemed withdrawn due to failure to request examination |