DE19828528A1 - Expertensystem - Google Patents

Expertensystem

Info

Publication number
DE19828528A1
DE19828528A1 DE19828528A DE19828528A DE19828528A1 DE 19828528 A1 DE19828528 A1 DE 19828528A1 DE 19828528 A DE19828528 A DE 19828528A DE 19828528 A DE19828528 A DE 19828528A DE 19828528 A1 DE19828528 A1 DE 19828528A1
Authority
DE
Germany
Prior art keywords
facts
expert system
schema
fact
variables
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE19828528A
Other languages
English (en)
Inventor
Eike Prof Dr Ing Muehlenfeld
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE19828528A priority Critical patent/DE19828528A1/de
Publication of DE19828528A1 publication Critical patent/DE19828528A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Description

Die Erfindung ist einzuordnen in das technische Gebiet der Künstlichen Intelligenz und betrifft ein Expertensystem. Expertensysteme werden zur Beratung bei der Projektierung, Diagnose und Führung von Systemen, sowie zur Automatisierung technischer Prozeßabläufe eingesetzt. Übliche Experten­ systeme enthalten in ihrer Wissensbasis Regeln, deren Bedingung in Form logisch verknüpfter Fakten erfüllt sein muß, damit die in der Regel spezifizierte Aktion ausgeführt wird. Für übliche regelbasierte Expertensysteme muß Wissen in Form von Regeln durch Experten formuliert werden, was eine aufwendige Zusammenarbeit von Prozeß- und Wissensingenieuren erfordert. [Herrmann, J.: Maschinelles Lernen und wissensbasierte Systeme. Springer 1997] [Hepper, R.: Entwicklung von Expertensystemen zur Führung verfahrenstechnischer Prozesse am Beispiel von Mahlanlagen der Zementindustrie. Diss. TU Clausthal 1995].
Fallbasierte Expertensysteme erwerben ihr Wissens durch Eingabe von Beispielen, gelegentlich auch als Training oder "Vormachen" bezeichnet. Das fallbasierte Schließen wird im Englischen "case-based reasoning (CBR)" ganannt oder "inductive logic programming (ILP)", wenn der Wissenserwerb durch Trainieren von Beispielen betont werden soll. [Puppe, Gappa, Poeck, Bamberger: Wissensbasierte Diagnose- und Informationssysteme. Springer 1996], [Leake, D.R.(ed): Case-based reasoning. MIT-Press 1996].
Während die formale Logik Grundlage üblicher Expertensysteme ist, werden beim probabilistischen Schließen Wahrscheinlichkeiten berücksichtigt. Damit wird der Tatsache Rechnung getragen, daß Meßdaten über die reale Welt mit Unsicherheiten behaftet sind und nur Schlüsse in Form von Wahrscheinlichkeitsaussagen zulassen. Dies wird gelegentlich etwas unscharf als "fuzzy" bezeichnet. [SHAFER, G.: The art of causal conjecture. MIT-Press 1996], [Boelow, Th; Mühlenfeld, E; Nicolaou, M.: Fallbasierte Automatisierung am Beispiel von Verbrennungsprozessen, Bildverarbeitung und Auge-Hand-Koordination. Automatisierungstechnische Praxis atp 38 1996) 2, S. 50-67].
Alle bekannten Expertensysteme können Schlüsse nur aus Fakten ziehen, die im Kontext der formulierten Regeln oder der trainierten Fallbeispiele erlernt worden sind. Beispielsweise für die Automatisierung zeitvarianter Prozesse und für die Sprach- oder Textverarbeitung läßt sich das erforderliche Wissen jedoch nicht für alle möglichen Fakten in allen möglichen Fällen formulieren oder trainieren. Dieses Problem wird durch die in Patentanspruch 1 angegebenen Merkmale gelöst, indem das Expertensystem semantische Relationen ermittelt und sich darauf bei seinem Schlüssen stützt.
Das semantikgestützte Expertensystem erwirbt sein Wissen vorzugsweise, indem Beispiele durch Experten eingegeben und automatisch in Form von Schemata in der Wissensbasis gespeichert werden. Erfindungsgemäß besteht ein Schema aus einer Folge von Fakten und Faktvariablen, zwischen denen durch Analyse der Schnittmengen von Variablenmengen semantische Relationen ermittelt und genutzt werden, um auch Fakten als schemakonform zu behandeln, für die das Schema nicht formuliert oder trainiert wurde. Wenn die eingegebenen Fakten schemakonform sind, kann eine eingegebene Kette von Fakten erfindungsgemäß autonom schemakonform fortgesetzt werden, um eine trainierte Aktionsfolge zu reproduzieren.
Da das semantikgestützte Expertensystems sein Wissen durch Training erwerben kann und erfindungsgemäß semantische Relationen nutzt, konnte es bereits für die Übersetzung von nicht erlernten Texten und die Beantwortung von nicht erlernten Fragen eingesetzt werden. Die mit der Erfindung erzielten Vorteile liegen generell darin, daß Wissen nicht vollständig formuliert oder trainiert werden muß, weil dies in vielen Anwendungen nicht mit vertretbarem Aufwand möglich ist.
Ein Ausführungsbeispiel des erfundenen Systems und seiner Komponenten, sowie seine Realisierung werden im folgenden beschrieben. Die Zeichnungen zeigen die Systemstruktur, die von den Systemkomponenten verwendeten Datenstrukturen und ein Realisierungsbeispiel durch ein neuronales Koppelnetz:
Fig. 1 Systemstruktur
Fig. 2 Definition von Fakten und Metafakten
Fig. 3 Einfaches Schema
Fig. 4 Schema mit Variablen
Fig. 5 Mengendarstellung einer semantischen Relation
Fig. 6 Schema mit zweistelligen Prädikaten
Fig. 7 Ablauf der Inferenz mit zweistelligen Prädikaten
Fig. 8 Schemahierarchien
Fig. 9 Realisierung durch ein neuronales Koppelnetz.
1. Systemstruktur
Fig. 1 zeigt die Systemstruktur. Ein- und Ausgaben von Terminals, Sensoren und Stellgliedern werden in einer Datenbasis (Kurzzeitgedächtnis) zwischengespeichert. Die Inferenzkomponente arbeitet nach dem Prinzip eines nichttrivialen Automaten, dessen Zustand durch probabilistisches Schließen nach einer Überführungsfunktion akkumulierend aktualisiert wird. Das logische Schließen berücksichtigt Kontext und Variable im Schema. Das semantische Schließen nutzt semantische Relationen zwischen Variablen von Schemata. Die Ausgabefunktion trifft bei rein cognitiven Aufgaben diskrete Entscheidungen, während sie bei der Zuordnung kontinuierlicher Stellgrößen gewichtet interpoliert. Die Wissenserwerbskomponente bildet in Trainingsphasen Schemata, Variable und Hierarchien von Schemata und speichert diese in der Wissensbasis (Langzeitgedächtnis). Eine nicht näher erläuterte Erklärungskomponente zeigt dem Bediener, welche Schemata mit welcher Wichtung bei der Inferenz benutzt wurden. Die Realisierung erfolgt erfindungsgemäß durch Koppelnetzwerke mit elektronischer oder elektromagnetischer Kopplung.
2. Inferenzkomponente 2.1 Probabilistisch-fallbasiertes Schließen 2.1.1 Syntaktische Mustererkennung: Objekterkennung
Im Rahmen der optischen Mustererkennung sei der konkrete Fall [in Lage y a ein Objekt Aa zu erkennen, um fallspezifische Aktionen zur Weichenstellung für gut/schlecht oder zur Steuerung eines Roboters zuzuordnen. Bei der Analyse eines Bildausschnitts segmentiere die Bildsensorik ein Bildelement und ermittle dazu einen Meßvektor x der Merkmale der Leuchtdichteverteilung des Bildelements enthält.
Die Klassifizierung von x, z. B. durch ein Neuronales Netz, einen Abstandsklassifikator oder, wenn ein hinreichend großes Kollektiv von Lernrepräsentanten verfügbar ist, durch einen nichtlinearen Bayes- Klassifikator liefere die a-posteriori-Wahrscheinlichkeit p(bk/x) dafür, daß das Bildelement zur Formklasse bk gehört, und die Lage Y k {Ort und Richtung} des Bildelements. Y k ist der Stellvektor der Sensormotorik, wenn der Bildsensor das Bildelement erfaßt. Gespeichert wird y k = Y k - y a die Lage des Bildelements bk relativ zur Objektlage y a. Das Sensorsystem liefert also über ein Bildelement die Meldung [y k,bk], die besagt: Die Handlung y k ergibt die Wahrnehmung bk mit p(bk/x).
Im Training werden diese Meldungen als Fakten zu jedem Fall in einer Baumstruktur nach Fig. 2 gespeichert. Eine Meldung über Form bk und Lage y k eines einzigen Bildelements identifiziert i.a. ein Objekt Aa nicht. Daher ist ein nicht trivialer Automat erforderlich, der im Folgenden definiert wird:
  • - Zustandsvariablen p([y a,Aa]) für alle Fälle [y a,Aa]
  • - Überführungsfunktion: akkumulierende Hypothesenbildung bottom-up:
    p([y a, Aa]): = s p([y a,Aa]) + (1-s) p([y a,Aa])/[bk, y k]) p(bk/x), y a: = s y a + (1-s) (Y k - y k). s ist ein Schwächungsfaktor mit 0 < s < 1, der zusammen mit der Abtastzeit die Zeitkonstante der Adaption an die Variabilität des Prozesses bestimmt.
  • - Ausgabefunktion: Hypothesengesteuerter Test top-down: Auswahl und Test des Bildelements, von dessen Verifizierung die stärkste Verringerung der Entropie von p([y a,Aa]) erwartet wird.
    Der Test wird gesteuert durch Y k = y a + y k.
  • - Abbruch: Wenn die Entropie als Gütemaß eine Schwelle unterschreitet, dann wird für die Hypothese [y a,Aa] mit Max {p([y a,Aa])} entschieden.
In der KI beginnt sich die Erkenntnis durchzusetzen, daß im Gehirn verarbeitbares Wissen durch Interaktion mit der Welt entsteht. Auch ein Erkennungsprozeß ist eine Handlungs/Wahrnehmungs-Kette. Rein sensormotorische Handlungen verändern die Welt nicht, ihre Reihenfolge ist daher beliebig, die Sprache des Automaten ist kontextfrei, und die Datenstruktur ist ein Baum.
Mit geeigneter Bildvorverarbeitung erkennt das Expertensystem durch probabilistisches Schließen beliebig geformte Gußteile auf der ebenen Fläche von Förderbändern oder Paletten mit einer Fehlerrate < 0,03% auch bei Berührung von Teilen, wenn sich bei Überlagerungen keine Schräglagen von mehr als 8° ergeben.
2.1.2 Prozeßsteuerung: Verfahrenstechnik
Viele verfahrenstechnischen Prozesse werden durch zeitvariante Parameter von Rohstoffen, Werkzeugen und Betriebsmitteln bestimmt. Das probabilistische Schließen wurde im Labor bereits eingesetzt, um dynamische Prozesse adaptiv zu regeln. Im Folgenden wird aber vorausgesetzt, daß der zu steuernde Prozeß, z. B. die Ausspeicherung aus einem Erdgas-Untertage-Speicher, quasistatisch zu behandeln sei. Das Abklingen von Einschwingvorgängen kann also abgewartet werden.
Alle Stellgrößen eines Teilprozessen werden zu einem Stellvektor y k zusammengefaßt, der generell eine Handlung spezifiziert, während Meßvektoren x k als Wahrnehmungen bk klassifiziert werden. Fälle Aa sind gekennzeichnet durch die fallspezifisch optimalen Prozeßdaten [y a,ba]. Zu den Fällen liegen Erfahrungen p([y a,Aa]/[yk,bk]) nicht nur für die optimalen Prozeßdaten vor.
Die Struktur des Trainierbaren Automaten unterscheidet sich von Abschnitt 2.1.1 nur in der Ausgabefunktion: Zwischen optimalen y a wird mit p([y a,Aa]) gewichtet interpoliert.
2.1.3 Fuzzy Inferenz
Zur Berücksichtigung von Unschärfen werden Wahrscheinlichkeiten ermittelt, und die Inferenz erfolgt in Anlehnung an die Dempster-Shafer Theorie probabilistisch. Zur Sprachverarbeitung akkumuliert die Überführungsfunktion während des Parsens eines Satzes Hypothesenwichtungen ohne die alten Wichtungen vorher zu schwächen. Eine andere Möglichkeit bieten fuzzy Methoden, die kontinuierliche Größen fuzzyfizieren, indem sie ihnen nach vorgegebenen Zugehörigkeitsfunktionen Zugehörigkeitsmaße zu Fuzzy Sets zuordnen, die bei der Inferenz durch Fuzzy Logik sowie bei der Interpolation von Ausgangsgrößen durch Defuzzyfizierung berücksichtigt werden. Dieses sind Beispiele für die vielen aus der Literatur bekannten Verfahren, die Wahrscheinlichkeiten, Ähnlichkeits- oder Zugehörigkeitsmaße berücksichtigen, um unsicheren, unscharfen Eingangsdaten geeignete Entscheidungen, Handlungen oder andere Ausgangsdaten zu assoziieren. Verallgemeinernd ist hierfür der Begriff "fuzzy" üblich geworden.
Entsprechend vielfältig sind die Möglichkeiten, zum probabilistischen Schließen in neuronalen Netzwerken Wahrscheinlichkeiten durch die Stärke neuronaler Erregungen zu repräsentieren und über wichtende Synapsen zu akkumulierten.
2.2 Kontextsensitiv-fallbasiertes Schließen 2.2.1 Auge-Hand-Koordination: Robotersteuerung
Durch Auge-Hand-Koordination sei folgender Ablauf zu steuern: Aus der Endbehandlung (Trocknung, Härtung, Reinigung) kommen unsortiert und ungeordnet Teile, z. B. Glas1, und müssen von einem Roboter teilespezifisch in einen Karton oder auf Palette abgelegt werden.
Das probabilistische Schließen und die dafür berücksichtigten und akkumulierten Wahrscheinlichkeiten werden erfindungsgemäß gemeinsam mit den im Folgenden beschriebenen Inferenzkomponenten benutzt, werden aber zur Vereinfachung der Darstellung im Folgenden nur noch ausnahmsweise erwähnt. p([y a,Aa]) wird dann zu einer Aussage, die Handlung und Wahrnehmung umfaßt, z. B.: "sehe (Glas1)", also: bewege das Auge in Lage1 und erkenne das Objekt Glas1, die als Weisung an die Sensor-Motorik übergeben, von der Sensormotorik als Meldung an die Realität angepaßt zurückgegeben wird und als Fakt eines Schemas in der Wissensbasis gespeichert wird.
2.2.2 Kontextsensitive Schemata: Handlung/Wahrnehmungs-Ketten
Da Roboterhandlungen die Welt verändern, ist ihre Reihenfolge wichtig, und Aussagen müssen als Kette, Schema genannt, gespeichert und kontextsensitiv gespart werden. Die trainierten Schemata bestehen aus einer Nummer si, die das Schema identifiziert, und einer Handlung/Wahrnehmungs-Kette. Für die Steuerungsaufgabe aus 2.2.1 wird das Schema in Fig. 3 dargestellt.
Die Inferenz erfolgt zyklisch: Der Nachfolger des gegenwärtigen Fakts im wahrscheinlichsten Schema wird als Weisung an die Sensor-Motorik übergeben. Wenn nach Ausführung der Weisung die Meldung genannte Aussage weisungskonform ist, wird die Wahrscheinlichkeit des bestätigten Schemas im Automatenzustand erhöht, wofür vereinfachend p(si): = p(si) + p(si/Meldung) geschrieben werden kann.
Die Auge-Hand-Koordination wurde am Beispiel der Handhabung von Steckergehäusen auf einer Hannover-Messe vorgeführt.
2.3 Semantisch-fallbasiertes Schließen 2.3.1 Schemata mit Variablen
Nachdem das Schema s1 für Glas1 trainiert wurde, sei für Glas2, das visuell und taktil anders wahrgenommen wird, das gleiche Schema zu trainieren. In Fig. 4 wird das Objekt Glas1 in s1 zu einem Element einer Menge G1 von Variablen:
s1: sehe(g1) greife(g1) sehe(Karton) lege(0);
g1 ⊃ G1 = {Glas1, Glas2}.
Um Gläser auf Paletten zu stellen, wird ein neues Schema trainiert:
s2: sehe(g2) greife(g2) sehe(Palette) lege(0);
g2 ⊃ G2 = {Glas1, Glas2, Glas3, Glas4}.
So weit trainiert wurde gilt s1(g) → s2(g) und wahrscheinlich auch s2(g) → s1(g). Daher kann wahrscheinlich Glas3 und Glas4 nach s1 in Kartons eingelegt werden, ohne dies trainiert zu haben. Diese Schlußweise wird im Folgenden generalisiert und quantifiziert.
2.3.2 Korrespondenzprinzip
Wenn für eine Menge das Schema s1 gilt und für p % dieser Menge auch das Schema s2 gilt, dann ist p die Wahrscheinlichkeit dafür, daß s2 für ein beliebiges Element dieser Menge gilt.
Es werde s(g) geschrieben wird, wenn das Schema s für g gilt, bzw. s(G), wenn s für die Menge G von Werten einer Variablen gilt. Damit lautet das Korrespondenzprinzip: Wenn s1(G1) und für p % aller g1 ⊃ G1 auch s2(g1),
dann ist für ein beliebiges g ⊃ G1 die Wahrscheinlichkeit p(s2(g)/s1(g)) = p.
In Fig. 5 ist dargestellt, daß das Korrespondenzprinzip auf der Analyse von Schnittmengen der Fakt­ variablen beruht. Glas3 kann aufgrund des Korrespondenzprinzips mit der Wahrscheinlichkeit p = 50% nach Schema s1 in Kartons gelegt werden. Wenn diese Korrespondenz genannte Wahrscheinlichkeit größer als eine vorgegebene Schwelle ist, "korrespondiert" g mit der Variablenmenge Gk, und wird wie ein Element dieser Menge behandelt. Dies ist auf mehrere Variable eines Schemas anwendbar. Die Korrespondenz kann bei der Inferenz auf verschiedene Weise wichtend berücksichtigt werden. Zu einer Variablen lassen sich mit negativer Wichtung auch Werte trainieren, für die sich das Schema als nicht geeignet oder nicht gültig erwiesen hat.
Ein Beispiel zur Realisierung des Korrespondenzprinzips mit einem neuronalen Koppelnetz wird in Abschnitt 7 beschrieben und in Fig. 9 dargestellt. Im Folgenden werden Anwendungsbeispiele beschrieben.
2.3.3 Semantische Relationen
Zu Demonstrationszwecken wurde trainiert, in Anlehnung an Schlüsse der syllogistischen Logik auf Fragen zu antworten:
"wenn Du gefragt wirst . . . ,
dann antworte . . .".
ist {Sokrates, Plato} ein Mensch? ja {Sokrates, er} ist ein Mensch
muß {Sokrates, Xantippe} sterben? ja {Sokrates, sie} muß sterben
ist {Zeus, Hera} ein Mensch? nein {Zeus, sie} ist ein Gott
muß {Zeus, Apollo} sterben? nein {Zeus, er} ist unsterblich
Unter Nutzung des obigen Korrespondenzprinzips antwortet das Expertensystem auch auf die Fragen, die für die Objekte der Fragen nicht erlernt worden sind:
muß Plato sterben? ja er muß sterben
ist Xantippe ein Mensch? ja sie ist ein Mensch
muß Hera sterben? nein sie ist unsterblich
ist Apollo ein Mensch ? nein er ist ein Gott
Wird nachträglich trainiert
ist {Fritz} ein Mensch? ja {er} ist ein Mensch
so beantwortet der Automat die Frage
muß Fritz sterben? ja er muß sterben.
Das Schema legt die Syntax fest; auch die Syntax der Antwort. Durch die Korrespondenz zwischen den Objekten der Prädikate "ist ein Mensch" und "muß sterben" wird eine semantische Relation zwischen diesen Prädikaten hergestellt.
Generalisierungen, wie "alle s1 sind s2" und andere Aussagen der Scholastik sind in der Wissensbasis des Trainierbaren Automaten statistisch enthalten und sind bei der Inferenz nutzbar. Damit diese Aussagen explizit kommunizierbar werden, muß das Schema einer expliziten Formulierung von Generalisierungen trainiert werden. Damit können generalisierende Aussagen generiert und einem anderen System, das man als Schüler bezeichnen könnte, statt Einzelerfahrungen verbal übergeben werden. Der Schüler kann dann diese Aussagen nutzen, ohne die zugrunde liegenden Erfahrungen selbst machen zu müssen.
3. Wissenserwerb
Es ist noch zu erläutern, wie im Training Faktvariablen eines vorhandenen Schemas gebildet werden. Dazu wurde bereits gesagt, daß eine Aussage, z. B. "sehe(Glas1)", Handlung und Wahrnehmung umfaßt. Sie wird als Weisung an die Sensor-Motorik übergeben, von der Sensor-Motorik als Meldung an die Realität angepaßt zurückgegeben und als Fakt eines Schemas in der Wissensbasis gespeichert.
3.1 Trainieren einstelliger Prädikate
Unterscheidet sich eine zu erlernende Meldungskette von einem vorhandenen Schema s nur in einer Meldung, so wird dieses Fakt im Schema zur Variablen. Die neue Meldung wird mit dem im Schema bereits vorhandenen Fakt verzeigert bzw. in einen Ring bereits verzeigerter Werte der Variablen aufgenommen. In konnektionistischer Implementierung werden die den Fakten zugeordneten Neuronen verkoppelt.
Unterscheidet sich eine zu erlernende Meldungskette von einem vorhandenen Schema s nur durch eine zusätzliche Meldung, so wird diese als zusätzliche Variable in das Schema aufgenommen und in der eben geschilderten Weise verzeigert (Fig. 6). Im allgemeinen wird man zulassen, daß keiner oder mehrere Werte einer zusätzlichen Variablen in einer Meldungskette auftreten. Entsprechendes gilt für Partnervariablen nach 3.2. Die folgenden Beschreibung betrachtet nur alternative Variablen und keine zusätzlichen Variablen.
3.2 Trainieren mehrstelliger Prädikate
Unterscheidet sich eine zu erlernende Meldungskette von einem vorhandenen Schema s in 2 Meldungen unterschiedlicher Organe {z. B. Auge, Hand}, so wird jede der beiden Meldungen in einen Variablenring aufgenommen. Außerdem werden beide Meldungen mit einander als Partner verkoppelt bzw. verzeigert, wie auch die beiden zugehörigen Fakten im Schema.
Bei Einführung des Korrespondenzprinzips wurde das Schema gebildet:
s1: sehe(g1) greife(g1) sehe(Karton) lege(0);
g ⊃ G1 = {Glas1, Glas2}.
Die eine Aussage über g1 beeinhaltet eine Meldung des Auges, die andere eine Meldung der Hand, wobei visuelle und taktile Wahrnehmungen des gleichen Objekts natürlich durch verschiedene Symbole repräsentiert werden, so daß sich die beiden Meldungen unterscheiden und als Variablen entsprechend zu verzeigern sind. Ein Schema kann beliebig viele Partnervariablen enthalten.
3.3 Trainierte Logik
Wenn eine Meldung ein Fakt eines Schemas bestätigt hat, wird die im darauf folgenden Fakt des Schemas enthaltene Weisung aktiviert. Mit fortschreitender Abarbeitung des Schemas müssen also immer mehr logische Relationen erfüllt sein, damit eine schemakonforme Weisung produziert wird. Wird die logische Verknüpfung durch Junktoren beschrieben, so ergibt sich in dem Beispielschema
nach 1. Meldung: WENN sehe(Glas1), DANN greife(Glas1); WENN sehe(Glas2), DANN greife(Glas2);
nach 3. Meldung: WENN [(sehe(Glas1) UND greife(Glas1)) ODER (sehe(Glas2) UND greife(Glas2))] UND sehe(Karton), DANN lege(0).
Generell sind alle Meldungen eines Schemas durch UND verknüpft, alle Variablen einer Meldung durch ODER, wobei Partnervariablen ggf. mit einander UND-verknüpft sind. Schemata mit gleichem Aktionsteil sind disjunktiv verknüpft.
4. Inferenz mit mehrstelligen Prädikaten 4.1 Inferenz mit logischen Relationen
Ist eine Meldung Variable eines Schemas, so werden die Partner der Meldung und des Fakts im Schema in eine Substitutionsliste eingetragen, und der Meldungspartner wird substituiert, sobald der Schemapartner erwartet wird. Nach visueller Wahrnehmung in sehe(g) wird also zur Steuerung des Greifvorgangs die taktile Partnervariable in greife(g) substituiert. Dies geschieht auch, wenn die Meldung keine Variable des Schemas ist, aber mit dem Fakt im Schema korrespondiert.
Fig. 7 zeigt das Parsen von Schema s10 nach der 3. Meldung, formuliert mit Junktoren:
wenn ((k1 und k2 und k3) oder (k5 und k2 und k6), dann k4.
4.2 Inferenz mit logischen und semantischen Relationen
Eine Meldung, die mit der Variablenmenge eines Fakts im Schema korrespondiert, wird bei der Inferenz wie ein Element dieser Menge behandelt, wobei ggf. der Partner dieser korrespondierenden Meldung substituiert wird.
Beispiel: Es wurde Schema e1 bis e4 trainiert:
Eingabe hören:
Ausgabe sagen:
e1 the {market, station} der {Markt, Bahnhof}
e2 the {church, opera} die {Kirche, Oper}
e3 to the {port, station} zum {Hafen, Bahnhof}
e4 to the {church, city} zur {Kirche, Stadt}
Danach werden auch nicht erlernte Artikel richtig zugeordnet:
the port der Hafen
to the opera zur Oper
Wird nachträglich trainiert
+e3 to the {airport} zum {Flughafen},
so übersetzt der trainierbare Automat auch
the airport der Flughafen
5. Schema-Hierarchien
In e3 der Fig. 8 sind Fakten des gleichen Organs zu Subschemata zusammengefaßt. Treten Ketten eines Subschemas in einem neu zu erlernenden Schema auf, so werden sie durch dessen Metafakt substituiert. Diese Hierarchiebildung kann zu mehreren Ebenen fortgesetzt werden. MetaFakten werden auf gleiche Weise zu Variablen, wie terminale Fakten, und ihre Korrespondenz wird ebenso genutzt.
Wenn ein bisher unbekannter Satz eingegeben wird, ergeben sich in den vielen Hierarchieebenen vielfältige Möglichkeiten zur Bildung neuer Variablen. Daher wird in einem Suchbaum das konformste Schema gesucht, und ggF. durch Variable oder neue Werten von Variablen ergänzt. Der Suchbaum gestattet die Verarbeitung alternativer Meldungen, z. B. von mehr oder weniger wahrscheinlichen Phonemen bei der Spracherkennung.
6. Anwendungsbeispiele 6.1 Textübersetzung
Die Nutzung von Korrespondenzen zweistelliger Relationen wird am Beispiel der Textübersetzung verdeutlicht. Die sprachliche Vielfalt wird dadurch begrenzt, daß nur "Fragen nach dem Weg" in Form reiner Hauptsätze zugelassen werden. Nachdem die Übersetzungen verschieden formulierter "Fragen nach dem Weg" trainiert worden waren, wurde die Übersetzung der Frage "komme ich hier {zum Hafen, zur Stadt}" nur für die beiden genannten Metavariablen trainiert, wird aber auch für andere Variablen {zu einem Friseur, zu einer Toilette, zum nächsten Arzt, zum Eaton Place, zur Liverpool Street}, die im Kontext anderer Schemata erlernt worden sind, richtig übersetzt. Die beiden letzten Metavariablen des Beispiels enthalten Variable, die in Deutsch und Englisch identisch sind, so daß hier beliebigen Variablen identische Partner zugeordnet werden.
6.2 Auskunftssystem
Ein Auskunftssystem kann als Auge-Hand-System betrachtet werden, bei der die Hand über Tastatur Texte und Steuerzeichen eingibt, woraufhin die Datenbank dem Auge Texte darbietet. Der Trainierbare Automat transformiert natürlichsprachliche Anfragen für das Auskunftssystem in formatierte Eingaben und wandelt dessen Antwort wiederum in natürliche Sprache.
Hier wurde die sprachliche Vielfalt auf Fragen nach Abflügen vom Flughafen Hannover begrenzt. Auf die Frage "wie komme ich bis 20 Uhr 30 nach London?" antwortet der Automat "um 18 Uhr 35 startet Lufthansa Flug 4570 nach London". Zusatzfragen, z. B. nach der Ankunftszeit sind möglich. Zahlen werden als identische Partner verarbeitet.
7. Technische Realisierung
Fig. 9 zeigt eine konnektionistische Realisierung durch ein neuronales Koppelnetz. Die eingegebene Meldung, bestehend aus Handlung und Wahrnehmung, wird durch ein übliches Neuronales Netz klassifiziert und Fakt genannt. Das Neuronale Netz wurde dazu nach dem Backpropagation-Algorithmus trainiert. Die Erregung seiner Ausgangsneuronen repräsentiert im 1-aus-n-Code die a-posteriori- Wahrscheinlichkeiten ähnlicher Fakten. In dem anschließenden Koppelnetz sind die einzelnen Neuronen durch Kreise dargestellt, die je 1 Fakt repräsentieren und die entsprechend ihrer Erregung und der Stärke der neuronalen Kopplung das in Fig. 9 durch einen Pfeil angeschlossene Neuron erregen.
In Fig. 9 wird die Aktivierung nur eines Neurons, das eines der dem Eingang zugeordneten Fakten repräsentiert, verfolgt. Seine Erregung aktiviert die Neuronen, die das gleiche Fakt in anderen Schemata repräsentieren, so daß diese Neuronen alle feuern. Jedes dieser Neuronen verstärkt durch direkte Kopplung akkumulierend die Aktivierung des jeweils zum Schema gehörenden Metafakts und adaptiert dadurch unmittelbar den Automatenzustand.
Jedes Neuron, das die dem Eingang zugeordneten gleichen Fakten in verschiedenen Schemata repräsentiert, aktiviert außerdem ggf. die Neuronen der Variablenmenge, zu der es gehört. Diese erregen die Neuronen gleicher Fakten in anderen, korrespondierenden Variablenmengen, die wiederum akkumulierend das Metafakt des korrespondierenden Schemas aktivieren und damit indirekt zur Adaption des Automatenzustands beitragen.
In einem neuronalen Koppelnetz laufen viele Vorgänge parallel ab, so daß die gesamte Verarbeitungszeit niedrig bleibt. Die elektronische Realisierung wird jedoch mit wachsender Zahl von Neuronen und Kopplungen sehr aufwendig und erfordert dann technologische Fortentwicklungen. Solche Fortentwicklungen können auf verschiedenen technologischen Grundlagen basieren. Neben Fortschritten in der Integrationstechnik von Halbleitern erscheinen Kopplungen durch elektromagnetische Wellenfelder aussichtsreich.
Ein Ausführungsbeispiel mit wenigen Neuronen und Kopplungen ist durch ein elektronisches Koppelnetz realisiert worden, stieß aber sehr bald an Aufwandsgrenzen. Daraufhin wurde auch deshalb eine programmtechnische Realisierung gewählt, weil sie in der Entwicklungsphase strukturelle Veränderungen erleichtert und schnelle Erprobungen und Erfolgsnachweise ermöglicht. Diese Implementierung kann als Modell einer gerätetechnischen Realisierung angesehen werden, in der Zeiger durch elektronische, elektrochemische oder elektrooptische Kopplungen ersetzt werden. Die erfindungsgemäße Realisierung des Expertensystems durch solche Koppelnetzwerke wird einem Fachmann aufgrund dieser Patentbeschreibung keine Schwierigkeiten bereiten. Es ist aber davon auszugehen, daß ein Fachmann dieses Expertensystem beim gegenwärtigen Stand der Technik noch ebenso programmtechnisch realisieren wird, wie übliche Neuronale Netze.
Das in folgenden beschriebene Ausführungsbeispiel wurde daher durch sequentiell ablaufende Algorithmen in Pascal programmiert und auf einem PC implementiert. Es arbeitet mit diskreten Symbolen, die zur Speicheradressierung genutzt werden. Bedeutung erhalten diese Symbole durch ihre Verknüpfung mit anderen Symbolen über eine Vielfalt von Zeigern, die der Kopplung von Neuronen in einer konnektionistischen Implementierung durch Koppelnetzwerke oder elektromagnetische Wellenfelder entspricht. Die Frage der künstlichen Intelligenz, ob Wissen durch Symbole zu repräsentieren ist, oder nicht, erscheint funktionell ebenso zweitrangig, wie die Frage, ob Daten mit ihren Kopplungen lokal oder holographisch gestreut zu speichern sind.
8. Definitionen
In den Patentansprüchen werden einige Begriffe definiert. Diese Definitionen werden hier kurz zusammengefaßt.
Erfindungsgemäß beschreiben die Aus- und Eingabedaten des Expertensystems sowohl Handlungen, als auch Wahrnehmungen, umfassen daher sowohl Stell-, als auch Meßdaten, haben gleiches Datenformat und werden Fakt genannt. Ein Fakt kann nach Art eines Konzepts beliebige Daten, z. B. mehrere Symbole, kontinuierliche Größen und Zeiger umfassen. Werden Fakten zu Variablen, so können sie mehrere Werte haben, also verschiedene Daten enthalten. Eine eingegebene Folge von Fakten wird Kette genannt. Eine erlernte, in der Wissensbasis gespeicherte Folge von Fakten und Faktvariablen heißt Schema und wird durch ein Metafakt gekennzeichnet. Die Konformität, also die Ähnlichkeit oder Gleichheit von Fakten ist aufgabenspezifisch durch ein Ähnlichkeits- oder Zugehörigkeitsmaß quantifizierbar. Ein Kettenfakt kann mit Fakten mehrerer Schemata hinreichend konform sein, also in mehreren Schemata auftreten.
Das Lernen, also der Wissenserwerb, erfolgt vorzugsweise durch Trainieren von Beispielen. Die Verarbeitung einer Kette zum Erkennen oder zum Assoziieren von Aktionen heißt Inferenz oder Parsen. Parsen und Lernen können im Ablauf integriert sein.

Claims (23)

1. Expertensystem, das eine eingegebene ungeordnete oder geordnete Folge, Kette genannt, von Datenpaketen, Fakten genannt, durch Vergleich mit gespeicherten Faktfolgen, Schemata genannt, erkennt und geeignete Aktionen assoziieren kann, indem es diese Kette schemakonform fortsetzt, dadurch gekennzeichnet, daß einige Fakten in Schemata zu Faktvariablen werden, für die in Lernvorgängen eine Menge möglicher Fakten, Variablenmenge genannt, gespeichert wird, und daß beim Erkennen oder Assoziieren geprüft wird, ob ein Fakt der eingegebenen Kette zu Fakten aus Variablenmengen konform bzw. ähnlich ist, die bei schemakonformer Fortsetzung der Kette nicht erwartet werden, und wie groß die Schnittmenge dieser nicht erwarteten Variablenmengen mit den erwarteten Variablenmengen ist, um bei hinreichender Größe dieser Schnittmengen die zugehörigen Schemata in ähnlicher Weise zu behandeln, als sei das Fakt der Kette zu Faktvariablen dieser Schemata konform, obwohl nur von einer semantischen Relation gesprochen werden kann. Hierbei können die relativen oder absoluten Größen der jeweiligen Schnittmengen und, durch ein Ähnlichkeits- oder Zugehörigkeitsmaß, auch Konformitäten quantitativ berücksichtigt werden.
2. Expertensystem nach Anspruch 1, dadurch gekennzeichnet, daß Fakten einer Kette, die in einem Schema fehlen, als zusätzliche Faktvariable in das Schema aufgenommen werden, wenn die Anzahl dieser fehlenden Fakten auf wenige, vorzugsweise auf 1 oder 2 Fakten begrenzt ist.
3. Expertensystem nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß die Fakten eines Schemas, die nicht mit den entsprechenden Fakten einer zu erlernenden Kette konform sind, zu Faktvariablen des Schemas werden oder in bereits vorhandene Variablenmengen aufgenommen werden, wenn die Anzahl dieser nicht konformen Fakten auf wenige, vorzugsweise auf 1 oder 2 Fakten begrenzt ist.
4. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß Fakten, die gemeinsam in einer Kette auftreten und zu verschiedenen Variablenmengen des gleichen Schemas gehören, im Lernvorgang in diesem Schema als Partner verzeigert oder verkoppelt werden. Tritt beim Parsen in der Kette ein bestimmtes Fakt einer Variablenmenge auf, so wird erwartet, daß dessen Partner als Werte der anderen Faktvariablen des Schemas auftreten.
5. Expertensystem nach Anspruch 4, dadurch gekennzeichnet, daß beim Auftreten des ersten Partners die Werte der übrigen Partner für die jeweiligen Faktvariablen des Schemas festgelegt werden, so daß beim Parsen ohne weitere Eingaben eine bis dahin schemakonforme Kette stets mit dem passenden Partner fortgesetzt werden kann.
6. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß Teile einer Kette, die bereits als selbständiges Schema erlernt worden sind, in einem Schema durch das Metafakt substituiert werden, welches das Teilschema repräsentiert, und/oder daß Teile einer Kette, die nicht in ein Schema passen, beim Lernen zu einem eigenständigen Schema zusammengefaßt werden, dessen Metafakt in das Schema aufgenommen wird.
7. Expertensystem nach Anspruch 6 oder einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß durch Iteration der Repräsentation von Teilschemata, auch wenn diese bereits Metafakte in ihrer terminalen Ebene enthalten, durch deren Metafakte eine hierarchische Graphenstruktur generiert wird.
8. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß semantische Relationen nach Anspruch 1 auch für Partner nach Anspruch 4 oder 5 und/oder in hierarchischen Graphenstrukturen nach Anspruch 6 oder 7 genutzt werden.
9. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß im Verlauf der Eingabe von Fakten einer Kette für alle oder mehrere der hierzu passenden bzw. konformen Schemahypothesen Datenbasen gebildet und verwaltet werden, die Angaben zum bisherigen Verlauf und zur weiteren Steuerung des Parsens enthalten, um das optimal passende Schema beispielsweise in einer Baumsuche zu finden und assoziativ fortzusetzen.
10. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß für Partner gemäß Anspruch 4, die in zwei oder mehr Fakten einer Folge den gleichen Wert haben, ein beliebiger Wert eingesetzt werden kann, der dann für alle Partner stets gleich sein muß und beim Parsen nach Anspruch 5 festgelegt werden kann.
11. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß Fakten mit Wahrscheinlichkeiten oder Zugehörigkeitsmaßen gewichtet und hieraus Wichtungen für Schemahypothesen berechnet werden, die den Ablauf des Parsens steuern und/oder zur gewichteten Interpolation bei der Ausgabe kontinuierlicher Aktionen sowie zur Selektion diskreter Aktionen genutzt werden, wobei zur Steuerung kognitive Prozesse vorzugsweise eine Minimierung der Entropie der Hypothesenwahrscheinlichkeiten angestrebt wird.
12. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß eingegeben Prozeßdaten durch einen Klassifikator, beispielsweise ein Neuronales Netz, und eingegeben Textdaten oder anderen Symbolen durch Tabellen oder einen Algorithmus, z. B. Hash, eine Kennung zugewiesen wird, die in einer konnektionistischen Realisierung Neuronen kennzeichnet, während sie in einer algorithmischen (progammtechnischen) Implementierung zur Adressierung des Fakts in der Wissensbasis dient.
13. Expertensystem nach Anspruch 12 oder einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß zu den Fakten Zeiger auf gleiche Fakten in anderen Schemata, auf im Schema vorangehende, nachfolgende, übergeordnete, untergeordnete Fakten und/oder Partner des Fakts, sowie auf andere Fakten der gleichen Variablenmenge vorhanden sind, wobei diese Verzeigerungen in Ketten oder Ringen erfolgen können.
14. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß in einer konnektionistischen Realisierung, z. B. durch neuronale Netzwerke oder holographische Interferenzen, Kopplungen vorhanden sind, die der Verzeigerung nach Anspruch 13 entsprechen.
15. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die terminalen Fakten Daten über Form und Lage von Konturelementen eines Bildes enthalten, wobei die Reihenfolge der Fakten in den Schemata unerheblich sein kann (kontextfrei), und hieraus durch erfindungsgemäßes Parsen hypothesengesteuert Art und Lage von Objekten oder anderen Bildmustern ermittelt wird.
16. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die terminalen Fakten Meß- und/oder Stelldaten enthalten, womit Schemata durch Trainieren von Beispielen einer Prozeßführung kontextfrei oder kontextsensitiv gebildet und entsprechend geparst werden, um Hypothesen über den aktuellen Betriebsfall des Prozesses zu bilden und ihn automatisch in ähnlicher Weise zu führen, wie dies in ähnlichen Fällen trainiert worden ist.
17. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die terminalen Fakten Wahrnehmungen und Handlungen verschiedener Sensor-Motor-Systeme enthalten, um beispielsweise die Auge-Hand-Koordination zur Robotersteuerung zu trainieren und zu automatisieren, wobei semantische Relationen nach Anspruch 1 genutzt werden können, um Objekte, für die eine bestimmte Handhabung nicht trainiert worden ist, dennoch nach einem hierfür mit anderen Objekten trainierten Schema zu handhaben.
18. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die terminalen Fakten Daten über Phoneme enthalten, um die Erkennung natürlicher Sprache zu trainieren und zu automatisieren.
19. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die terminalen Fakten Textworte repräsentieren, die im Kontext von Sätzen erfindungsgemäß trainiert und geparst werden, was beispielsweise die Fortsetzung eingegebener Fragen, Sätze oder Satzteile durch eine Antwort oder die Übersetzung in eine andere Sprache unter Nutzung semantischer Relationen nach Anspruch 1 auch dann ermöglicht, wenn die Eingabe Teile enthält, die nicht im Kontext der als passend erkannten Schemata erlernt worden sind.
20. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die terminalen Fakten Ein- und Ausgaben verschiedener peripherer Systeme enthalten, um Sprach- bzw. Text-Ein-/Ausgabe, Datenbanken (z. B. Auskunftssysteme), die Bedienung von Computern oder kommerzieller Elektronik (z. B. Videorecorder), Bilderkennung und/oder Prozeßsteuerungen zu integrieren und zu koordinieren.
21. Expertensystem nach Anspruch 2 oder einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß ein zusätzliches Fakt, durch das sich eine zu erlernende Kette von einem vorhandenen Schema unterscheidet, als zusätzliche Faktvariable in das Schema aufgenommen und entsprechend verzeigert wird, wobei zugelassen wird, daß keiner oder mehrere Werte einer zusätzlichen Faltvariablen in einer Kette auftreten; mehrere zusätzliche Fakten werden gegebenen, falls nach Anspruch 4 und 5 als Partnervariablen behandelt.
22. Expertensystem nach einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß zur einer Faktvariablen außer den Mengen zugelassener Fakten auch Mengen nicht zugelassener Fakten trainiert werden, für die das Schema nicht gültig ist.
23. Expertensystem nach Anspruch 1, 22 oder einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, daß die quantitative Ermittlung der Konformität eines Fakts auf einer mathematisch­ logischen Verknüpfung relativer oder absoluter Größen der Schnittmengen zugelassener bzw. nicht zugelassen er Wertemengen von Faktvariablen basiert.
DE19828528A 1998-06-26 1998-06-26 Expertensystem Ceased DE19828528A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19828528A DE19828528A1 (de) 1998-06-26 1998-06-26 Expertensystem

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19828528A DE19828528A1 (de) 1998-06-26 1998-06-26 Expertensystem

Publications (1)

Publication Number Publication Date
DE19828528A1 true DE19828528A1 (de) 1998-12-17

Family

ID=7872117

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19828528A Ceased DE19828528A1 (de) 1998-06-26 1998-06-26 Expertensystem

Country Status (1)

Country Link
DE (1) DE19828528A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010034430A1 (de) * 2010-08-16 2012-02-16 Siemens Aktiengesellschaft Verfahren zur Konfiguration einer Bildgebungsvorrichtung
US9934470B2 (en) 2015-09-30 2018-04-03 Fanuc Corporation Production equipment including machine learning system and assembly and test unit
DE102021208368A1 (de) 2020-08-18 2022-02-24 Volkswagen Aktiengesellschaft Computerimplementiertes Verfahren zur Entwicklung eines Produkts in einem vernetzten System und Anwendersystem zur computergestützten Entwicklung eines Produkts

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102010034430A1 (de) * 2010-08-16 2012-02-16 Siemens Aktiengesellschaft Verfahren zur Konfiguration einer Bildgebungsvorrichtung
US8838506B2 (en) 2010-08-16 2014-09-16 Siemens Aktiengesellschaft Method to configure an imaging device
US9934470B2 (en) 2015-09-30 2018-04-03 Fanuc Corporation Production equipment including machine learning system and assembly and test unit
DE102016011520B4 (de) 2015-09-30 2018-05-09 Fanuc Corporation Produktionsausrüstung mit Maschinenlernsystem und Montage-und Prüfeinheit
DE102021208368A1 (de) 2020-08-18 2022-02-24 Volkswagen Aktiengesellschaft Computerimplementiertes Verfahren zur Entwicklung eines Produkts in einem vernetzten System und Anwendersystem zur computergestützten Entwicklung eines Produkts

Similar Documents

Publication Publication Date Title
DE102017007729B4 (de) Maschinenlerneinrichtung, Robotersystem und Maschinenlernverfahren zum Lernen einer Bewegung eines Roboters, der an einer gemeinsam durch einen Menschen und einen Roboter ausgeführten Aufgabe beteiligt ist
DE212020000731U1 (de) Kontrastives Vortraining für Sprachaufgaben
DE102020005646A1 (de) Slot-Filling mit kontextbezogenen Informationen
WO2000063788A2 (de) Situationsabhängig operierendes semantisches netz n-ter ordnung
WO2005055134A2 (de) Inferenzmaschine
EP0901658A1 (de) Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner
DE19828528A1 (de) Expertensystem
DE202022104461U1 (de) Syntaxgeleitetes Erkennungssystem für mathematische Termini
EP2712429A1 (de) Ansteuerung eines technischen systems
DE202021102099U1 (de) Vorrichtung zum Verarbeiten einer Wissensgrapheneinbettung
DE10047172C1 (de) Verfahren zur Sprachverarbeitung
DE19626142A1 (de) Computer-Aided-Text-Design-System
WO2006114299A2 (de) Graphischer regeleditor
WO2024008232A1 (de) Verfahren zur dynamischen erkennung von ratcheting bei einem kollaborativen roboter mittels künstlicher intelligenz und dynamischer kompensation der trajektorien
Behnen et al. Word-Embedding Benchmarking.
EP3907574A1 (de) Verfahren zur generierung von einer erklärung zu einer vorgenommenen entscheidung eines fertigungssteuerungssystems
DE102007033019B4 (de) Methoden und Datenverarbeitungssysteme für computerisiertes Schlußfolgern
EP4332704A1 (de) Computer-implementiertes verfahren und system zur herstellung eines produkts
Les et al. Machine Understanding-a new area of research aimed at building thinking/understanding machines
Andrew Toward A Practice Of Autonomous Systems: Proceedings Of The First European Conference On Artificial Life edited by Francisco J. Varela and Paul Bourgine, MIT Press (Bradford), Cambridge, Mass. 1992, large–format softcover, xvii+ 515 pp.(£ 49.50).
Tamosiunaite et al. Bootstrapping Concept Formation in Small Neural Networks
Stephens et al. Behavior analysis and the quest for machine intelligence
DE102018009004A1 (de) Verfahren zum Einsatz neuronaler Netzwerke im Matching von Verfahrensanforderungen
DE3911666A1 (de) Verfahren zur kontextsensitiven informationsverarbeitung
DE60121445T2 (de) Speicherverwaltung für Sprachdialogsystem

Legal Events

Date Code Title Description
OAV Applicant agreed to the publication of the unexamined application as to paragraph 31 lit. 2 z1
OR8 Request for search as to paragraph 43 lit. 1 sentence 1 patent law
8105 Search report available
8110 Request for examination paragraph 44
8125 Change of the main classification

Ipc: G06N 5/00

8131 Rejection