DE102020206135A1 - Vorrichtung und Verfahren zum Bestimmen wenigstens eines Teils eines Knowledge Graphs - Google Patents

Vorrichtung und Verfahren zum Bestimmen wenigstens eines Teils eines Knowledge Graphs Download PDF

Info

Publication number
DE102020206135A1
DE102020206135A1 DE102020206135.1A DE102020206135A DE102020206135A1 DE 102020206135 A1 DE102020206135 A1 DE 102020206135A1 DE 102020206135 A DE102020206135 A DE 102020206135A DE 102020206135 A1 DE102020206135 A1 DE 102020206135A1
Authority
DE
Germany
Prior art keywords
sentence
classifier
input
word
function
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102020206135.1A
Other languages
English (en)
Inventor
Heike Adel-Vu
Johannes Christoph Hingerl
Annemarie Friedrich
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102020206135.1A priority Critical patent/DE102020206135A1/de
Priority to US17/314,972 priority patent/US11947910B2/en
Priority to CN202110526840.1A priority patent/CN113672738A/zh
Priority to JP2021082179A priority patent/JP2021179991A/ja
Publication of DE102020206135A1 publication Critical patent/DE102020206135A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/284Lexical analysis, e.g. tokenisation or collocates
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Vorrichtung und Verfahren zum Bestimmen wenigstens eines Teils eines Knowledge Graphs (102), wobei ein Textkorpus (110) bereitgestellt wird, wobei für einen Satz (112) aus dem Textkorpus (110) ein erster Eingang für einen ersten Klassifizierer (104) bestimmt wird, ein zweiter Eingang für einen zweiten Klassifizierer (106) bestimmt wird, und ein dritter Eingang für einen dritten Klassifizierer (108) bestimmt wird, wobei der erste Eingang eine numerische Repräsentation wenigstens eines Teils des Satzes (112) umfasst, wobei der zweite Eingang eine numerische Repräsentation wenigstens eines Teils eines Wortes aus dem Satz (112) umfasst, wobei der dritte Eingang eine numerische Repräsentation wenigstens eines Teils des Wortes aus dem Satz (112) umfasst, wobei mit dem ersten Klassifizierer (104) abhängig vom ersten Eingang eine numerische Repräsentation einer ersten Wahrscheinlichkeit bestimmt wird, die angibt, ob der Satz (112) den Knowledge Graph (102) betrifft oder nicht, wobei wenn die numerische Repräsentation der ersten Wahrscheinlichkeit eine erste Bedingung erfüllt, mit dem zweiten Klassifizierer (106) abhängig vom zweiten Eingang eine numerische Repräsentation einer zweiten Wahrscheinlichkeit bestimmt wird, die einen ersten Typ für das Wort aus dem Satz (112) definiert, wobei mit dem dritten Klassifizierer (108) abhängig vom dritten Eingang eine numerische Repräsentation einer dritte Wahrscheinlichkeit bestimmt wird (214), die einen zweiten Typ für eine Kante für das Wort definiert, wobei das Wort aus dem Satz (112) einem Knoten des Knowledge Graphs (102) des ersten Typs zugeordnet und mit einer Kante des zweiten Typs mit einem anderen Knoten des Knowledge Graphs verbunden wird.

Description

  • Stand der Technik
  • Luan et al. 2018: Yi Luan et al.: Multi-Task Identification of Entities, Relations, and Coreference for Scientific Knowledge Graph Construction. Conference on Empirical Methods in Natural Language Processing, 2018 offenbart eine Möglichkeit zum Bestimmen eines Knowledge Graph aus einem Textkorpus.
  • Offenbarung der Erfindung
  • Ein Knowledge Graph umfasst Knoten und Kanten. Eine Kante beginnt und endet in einem Knoten. Eine Repräsentation des Knowledge Graphs umfasst beispielsweise Tripel wobei jedes Tripel eine Kante und den Knoten, an dem die Kante beginnt und den Knoten, an dem die Kante endet, umfasst. Ein Knoten oder eine Kante definiert einen Teil des Knowledge Graphs. Durch eine Vorrichtung und ein Verfahren nach den unabhängigen Ansprüchen wird eine Möglichkeit geschaffen, wenigstens einen Teil des Knowledge Graphs automatisch aus einem Textkorpus zu bestimmen.
  • Das Verfahren zum Bestimmen wenigstens des Teils des Knowledge Graphs, sieht vor, dass ein Textkorpus bereitgestellt wird, wobei für einen Satz aus dem Textkorpus ein erster Eingang für einen ersten Klassifizierer bestimmt wird, ein zweiter Eingang für einen zweiten Klassifizierer bestimmt wird, und ein dritter Eingang für einen dritten Klassifizierer bestimmt wird, wobei der erste Eingang eine numerische Repräsentation wenigstens eines Teils des Satzes umfasst, wobei der zweite Eingang eine numerische Repräsentation wenigstens eines Teils eines Wortes aus dem Satz umfasst, wobei der dritte Eingang eine numerische Repräsentation wenigstens eines Teils des Wortes aus dem Satz umfasst, wobei mit dem ersten Klassifizierer abhängig vom ersten Eingang eine numerische Repräsentation einer ersten Wahrscheinlichkeit bestimmt wird, die angibt, ob der Satz den Knowledge Graph betrifft oder nicht, wobei wenn die numerische Repräsentation der ersten Wahrscheinlichkeit eine erste Bedingung erfüllt, mit dem zweiten Klassifizierer abhängig vom zweiten Eingang eine numerische Repräsentation einer zweiten Wahrscheinlichkeit bestimmt wird, die einen ersten Typ für das Wort aus dem Satz definiert, wobei mit dem dritten Klassifizierer abhängig vom dritten Eingang eine numerische Repräsentation einer dritten Wahrscheinlichkeit bestimmt wird, die einen zweiten Typ für eine Kante für das Wort definiert, wobei das Wort aus dem Satz einem Knoten des Knowledge Graphs des ersten Typs zugeordnet und mit einer Kante des zweiten Typs mit einem anderen Knoten des Knowledge Graphs verbunden wird. Damit wird eine automatische Extraktion von Informationen aus Freitext, d.h. Text ohne manuelle Annotation, beispielsweise aus materialwissenschaftlichen Publikationen ermöglicht, die es ermöglicht einen Knowledge Graphen zu bauen. Dabei wird eine Relation interpretiert, die meist nicht explizit im Text gegeben ist. Eine der Relation entsprechende Kante wird dadurch vorherhergesagt, dass der Knoten, bei dem die Kante endet, dem Wort eines bestimmten ersten Typs und eines bestimmten zweiten Typs entspricht. Letzterer definiert im Beispiel die Kante. Der Startknoten der Kante entspricht im Beispiel einem anderen Wort aus dem Satz, beispielsweise einem Wort das einem bestimmten ersten Typ zugeordnet ist. Die Kante wird den beiden Wörtern, an denen sie anfängt und endet zugeordnet.
  • Vorzugsweise wird ein erstes Wort des Satzes mit einer ersten Funktion auf eine erste numerische Repräsentation abgebildet, wobei das erste Wort mit einer von der ersten Funktion verschiedenen zweiten Funktion auf eine zweite numerische Repräsentation abgebildet wird, wobei ein zweites Wort des Satzes mit der ersten Funktion auf eine dritte numerische Repräsentation abgebildet wird, wobei das zweite Wort mit der zweiten Funktion auf eine vierte numerische Repräsentation abgebildet wird, wobei die erste numerische Repräsentation, die zweite numerische Repräsentation, die dritte numerische Repräsentation und die vierte numerische Repräsentation mit einer dritten Funktion auf einen ersten Tensor abgebildet werden, der den ersten Eingang und/oder den zweiten Eingang definiert. Dadurch werden mehrere Worte aus dem Satz für die Klassifikation des Satzes verwendet, wobei für jedes der Worte wenigstens zwei unterschiedliche numerische Repräsentationen, d.h. Embeddings bestimmt werden. Dies verbessert die Klassifikation des Satzes.
  • Vorzugsweise werden Trainingsdaten bereitgestellt, die eine Vielzahl Tupel umfassen wobei in jedem Tupel einem Satz des Textkorpus ein Wert einer insbesondere binären Größe zugeordnet ist, die definiert, ob der Satz den Knowledge Graph betrifft, eine erste Bezeichnung zugeordnet ist, die den ersten Typ definiert eine zweite Bezeichnung zugeordnet ist, die den zweiten Typ definiert, und wobei wenigstens ein Parameter der ersten Funktion, der zweiten Funktion der dritten Funktion, des ersten Klassifizierers, des zweiten Klassifizierers und/oder des dritten Klassifizierers abhängig von den Trainingsdaten trainiert wird. Diese Tupel können von Experten annotierte Worte aus dem Textkorpus umfassen.
  • Es kann vorgesehen sein, dass Trainingsdaten bereitgestellt werden, die eine Vielzahl Tupel umfassen wobei in jedem Tupel einem Satz des Textkorpus eine numerische Repräsentation der ersten Wahrscheinlichkeit für diesen Satz, eine numerische Repräsentation der zweiten Wahrscheinlichkeit für ein Wort aus dem Satz, und eine numerische Repräsentation der dritten Wahrscheinlichkeit für das Wort aus dem Satz zugeordnet ist, und wobei wenigstens ein Parameter der ersten Funktion, der zweiten Funktion der dritten Funktion, des ersten Klassifizierers, des zweiten Klassifizierers und/oder des dritten Klassifizierers abhängig von den Trainingsdaten trainiert wird. Diese Tupel können Positionen von Worten umfassen, die von Experten annotierte Worte aus dem Textkorpus definieren.
  • Der erste Klassifizierer kann eine erste Schicht umfassen, die abhängig vom ersten Eingang einen Vektor für den Satz bestimmt, wobei der erste Klassifizierer eine zweite Schicht umfasst, die abhängig vom Vektor die numerische Repräsentation der ersten Wahrscheinlichkeit insbesondere binär bestimmt. Dies ermöglicht eine satzweise Klassifikation.
  • Der zweite Klassifizierer kann eine erste Schicht umfassen, die abhängig vom zweiten Eingang einen Vektor für das Wort aus dem Satz bestimmt, wobei der zweite Klassifizierer eine zweite Schicht umfasst, die abhängig vom Vektor eine Vielzahl numerischer Repräsentation der zweiten Wahrscheinlichkeit bestimmt, wobei jede numerische Repräsentation der Vielzahl numerischer Repräsentationen einem Typ eines Knoten für den Knowledge Graph zugeordnet wird. Dies ermöglicht ein Sequenz-Tagging mit einem vorgegebenen Wortschatz, der diese Typen definiert.
  • Es kann vorgesehen sein, dass ein Wort aus dem Satz aus dem Textkorpus dann einem Knoten des Knowledge Graphs zugeordnet wird, wenn das Wort einem Typ eines Knoten des Knowledge Graphs zugeordnet ist. Dadurch kann eine Menge Knoten für den Knowledge Graph erzeugt werden.
  • Der dritte Klassifizierer kann eine erste Schicht umfassen, die abhängig vom dritten Eingang einen Vektor für das Wort aus dem Satz bestimmt, wobei der dritte Klassifizierer eine zweite Schicht umfasst, die abhängig vom Vektor eine Vielzahl numerischer Repräsentation der dritten Wahrscheinlichkeit bestimmt, wobei jede numerische Repräsentation der Vielzahl numerischer Repräsentationen einem Typ einer Kante für den Knowledge Graph zugeordnet wird. Der Knowledge Graph repräsentiert beispielsweise ein Experiment dadurch, dass einem Experiment-Knoten andere Knoten zugeordnet sind, die beispielsweise Materialien oder Geräte repräsentieren, welche im Experiment vorgesehen sind. Der dritte Klassifizierer identifiziert für eine Kante zwischen dem Experiment-Knoten und einem der anderen Knoten einen Typ der Kante. Der Typ der Kante kann eine Verwendung des Materials im Experiment definieren. Dies ermöglicht ein Sequenz-Tagging mit einem vorgegebenen Wortschatz, der diese Typen definiert.
  • Vorzugsweise ist vorgesehen, dass der erste Eingang, der zweite Eingang und/oder der dritte Eingang für den Satz abhängig von einer Mehrzahl Worte aus diesem Satz bestimmt wird. Die Berücksichtigung nur der Worte aus demselben Satz erleichtert die Bestimmung des Knowledge Graphs, da weniger Eingangsdaten verarbeitet werden müssen.
  • Eine Vorrichtung zum Bestimmen wenigstens eines Teils eines Knowledge Graphs ist ausgebildet, das Verfahren auszuführen.
  • Weitere vorteilhafte Ausführungsformen ergeben sich aus der folgenden Beschreibung und der Zeichnung. In der Zeichnung zeigt:
    • 1 eine schematische Darstellung einer Vorrichtung zum Bestimmen wenigstens eines Teils eines Knowledge Graphs,
    • 2 Schritte in einem Verfahren zum Bestimmen wenigstens eines Teils eines Knowledge Graphs,
    • 3 eine schematische Darstellung von Funktionen für verschiedene numerische Repräsentationen.
  • 1 stellt eine Vorrichtung 100 zum Bestimmen wenigstens eines Teils eines Knowledge Graphs 102 schematisch dar. Der Knowledge Graph 102 ist durch Tripel definiert, die eine Kante, eine Knoten an dem die Kante beginnt und einen Koten an dem die Kante endet definieren. Ein Teil des Knowledge Graphs ist ein Knoten oder eine Kante.
  • Ein Vorgehen mit den im Folgenden beschriebenen Klassifizierer wird an folgendem Satz beschrieben:
    • The SOFC with Pt / SmNiO3 demonstrated dramatic power output.
  • Ein erster Klassifizierer 104 erkennt, dass der Satz relevant ist, d.h. dass der Satz Informationen enthält, die in den Knowledge Graphen geschrieben werden sollen.
  • Ein zweiter Klassifizierer 106 erkennt Konzepte. Konzepte können von unterschiedlichem Typ sein. Im Satz wird beispielsweise erkannt, dass SOFC vom Typ Gerät, Pt vom Typ Material, SmNiO3 vom Typ Material und demonstrated vom Typ Experiment beschreibendes Verb ist. Ein Wort vom Typ Experiment beschreibendes Verb wird als Knoten im Knowledge Graph definiert, von dem Kanten ausgehen können. Derartige, das Experiment beschreibende Knoten, werden im Folgenden als Experiment-Knoten bezeichnet.
  • Im Beispiel werden alle vom zweite Klassifizierer erkannten Konzepte als Knoten in den Knowledge Graphen aufgenommen.
  • Ein dritter Klassifizierer 108 erkennt, dass SOFC vom Typ Device des Experiments ist, Pt vom Typ Anodenmaterial des Experiments und SmNiO3 vom Typ verwendeter Kraftstoff für das Experiment. Diese Worte definieren einen Knoten an dem eine Kante, die vom Experiment-Knoten ausgeht, endet. Der erkannte Typ definiert die Bezeichnung der Kante.
  • Im Knowledge Graphen werden der SOFC-Knoten mit dem Experiment-Knoten verbunden und auf die Kante „Device“ geschrieben, analog wird der Pt Knoten mit dem Experiment-Knoten verbunden und auf die Kante „Anodenmaterial“ geschrieben.
  • Die Vorrichtung 100 umfasst den ersten Klassifizierer 104, den zweiten Klassifizierer 106 und den dritten Klassifizierer 108.
  • Die Vorrichtung 100 ist ausgebildet, einen Textkorpus 110 bereitzustellen. Der Textkorpus umfasst eine Vielzahl Sätze 112. Jeder Satz 112 umfasst eine Vielzahl Worte 112-1, ..., 112-n. Eine Anzahl n der Worte kann in jedem Satz 112 unterschiedlich sein. Die Vorrichtung 100 ist ausgebildet, für einen Satz 112 aus dem Textkorpus 110 einen ersten Eingang für den ersten Klassifizierer 104, einen zweiten Eingang für den zweiten Klassifizierer 106 und einen dritten Eingang für den dritten Klassifizierer 108 bereitzustellen.
  • Der erste Klassifizierer 104 umfasst eine erste Schicht 104-1, die ausgebildet ist, abhängig vom ersten Eingang einen Vektor für den Satz 112 zu bestimmen. Der erste Klassifizierer 104 umfasst eine zweite Schicht 104-2, die ausgebildet ist, abhängig vom Vektor eine numerische Repräsentation einer ersten Wahrscheinlichkeit zu bestimmen. Im Beispiel unterscheidet die Klassifikation binär, d.h. sie unterscheidet zwischen zwei Klassen. Die Wahrscheinlichkeit selbst ist im Beispiel nicht binär, d.h. nicht 0 oder 1, sondern ein numerischer Wahrscheinlichkeitswert.
  • Die Vorrichtung 100 ist ausgebildet, ein erstes Wort des Satzes 112 mit einer ersten Funktion auf eine erste numerische Repräsentation abzubilden. Die Vorrichtung 100 kann ausgebildet sein, das erste Wort mit einer von der ersten Funktion verschiedenen zweiten Funktion auf eine zweite numerische Repräsentation abzubilden. Die erste Funktion bildet ein Wort abhängig von Parametern der ersten Funktion beispielsweise auf eine der folgenden Embeddings ab:
    • word2vec, mat2vec, bpe, BERT, SciBERT.
  • Die zweite Funktion bildet ein Wort abhängig von Parametern der zweiten Funktion beispielsweise auf eine demgegenüber andere der folgenden Embeddings ab:
    • word2vec, mat2vec, bpe, BERT, SciBERT.
  • Im Beispiel ist dazu in der Vorrichtung 100 eine Einbettungsschicht angeordnet, mit der Worte des Satzes 112 abbildbar sind.
  • Im Beispiel werden mehrere vortrainierte Einbettungsschicht-Typen kombiniert, nämlich word2vec, mat2vec, byte-pair-encoding Embeddings und BERT Embeddings und SciBERT Embeddings.
  • word2vec ist beispielsweise beschrieben in Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. 2013. Efficient estimation of word representations in vector space. In ICLR Workshop.
  • mat2vec ist beispielsweise beschrieben in Vahe Tshitoyan, John Dagdelen, Leigh Weston, Alexander Dunn, Ziqin Rong, Olga Kononova, Kristin A. Persson, Gerbrand Ceder, and Anubhav Jain. 2019. Unsupervised word embeddings capture latent knowledge from materials science literature. Nature, 571:95 - 98.
  • byte-pair-encoding ist beispielsweise beschrieben in Benjamin Heinzerling and Michael Strube. 2018. BPEmb: Tokenization-free Pre-trained Subword Embeddings in 275 Languages. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan. European Language Resources Association (ELRA).
  • BERT Embeddings sind beispielsweise beschrieben in Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2019. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics.
  • SciBERT Embeddings sind beispielsweise beschrieben in Iz Beltagy, Kyle Lo, and Arman Cohan. 2019. Scibert: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 3606-3611.
  • Die letzten drei sind subword-basierte Embeddings, weshalb sie besonders gut geeignet sind, komplizierte lange Wörter zu repräsentieren. Mat2vec sind Embeddings, die mit Hilfe des word2vec Algorithmus auf materialwissenschaftlichen Texten trainiert wurden, weshalb sie besonders gut geeignet sind, domänenspezifische Wörter zu repräsentieren.
  • Die Vorrichtung 100 ist ausgebildet, ein zweites Wort mit der ersten Funktion auf eine dritte numerische Repräsentation abzubilden. Das zweite Wort ist ein anderes Wort desselben Satzes 112.
  • Die Vorrichtung 100 kann ausgebildet sein, das zweite Wort mit der zweiten Funktion auf eine vierte numerische Repräsentation abzubilden.
  • Die erste numerische Repräsentation und die dritte numerische Repräsentation können mit einer dritten Funktion auf einen ersten Tensor abgebildet werden, der den ersten Eingang und/oder den zweiten Eingang definiert. Es kann vorgesehen sein, dass die erste numerische Repräsentation, die zweite numerische Repräsentation, die dritte numerische Repräsentation und die vierte numerische Repräsentation mit der dritten Funktion auf den ersten Tensor abgebildet werden, der den ersten Eingang und/oder den zweiten Eingang definiert.
  • Die dritte Funktion kann eine Konkatenation der numerischen Repräsentationen umfassen, durch die der erste Tensor gebildet wird.
  • Der zweite Klassifizierer 106 umfasst eine erste Schicht 106-1, die ausgebildet ist, abhängig vom zweiten Eingang einen Vektor für das Wort aus dem Satz 112 zu bestimmen. Der zweite Klassifizierer 106 umfasst eine zweite Schicht 106-2, die ausgebildet ist, abhängig vom Vektor eine Vielzahl numerischer Repräsentation einer zweiten Wahrscheinlichkeit zu bestimmen.
  • Der dritte Klassifizierer 108 umfasst eine erste Schicht 108-1, die ausgebildet ist, abhängig vom dritten Eingang einen Vektor für das Wort aus dem Satz 112 zu bestimmen. Der dritte Klassifizierer 108 umfasst eine zweite Schicht 108-2, die ausgebildet ist, abhängig vom Vektor eine Vielzahl numerischer Repräsentation einer dritten Wahrscheinlichkeit zu bestimmen.
  • Die Vorrichtung 100 ist ausgebildet, das Wort aus dem Satz 112 dann einem Knoten des Knowledge Graphs 102 zuzuordnen, wenn das Wort einem ersten Typ zugeordnet ist.
  • Die Vorrichtung 100 ist ausgebildet, das Wort aus dem Satz 112 dann einem Knoten, an dem eine Kante des Knowledge Graphs 102 endet, zuzuordnen, wenn das Wort einem zweiten Typ zugeordnet ist.
  • Die Vorrichtung 100 ist ausgebildet, aus dem Textkorpus 110 einen Satz 112 dahingehend zu klassifizieren, ob der Satz 112 für die Bestimmung des Knowledge Graphs relevant ist.
  • Die Vorrichtung 100 ist dafür dazu ausgebildet, das im Folgenden beschriebene Verfahren zum Bestimmen wenigstens eines Teils des Knowledge Graphs auszuführen.
  • Die Vorrichtung 100 kann wenigstens einen Prozessor und wenigstens einen Speicher umfassen, die ausgebildet sind dazu das im Folgenden beschriebene Verfahren zum Bestimmen wenigstens eines Teils des Knowledge Graphs auszuführen.
  • Der erste Klassifizierer 104 kann als BiLSTM Modell ausgeführt sein, d.h. als Bidirektionales Long short-term memory.
  • Der zweite Klassifizierer 106 kann als BiLSTM-CRF Modell ausgeführt sein, d.h. als Bidirektionales Long short-term memory mit einer Conditional Random Field Schicht.
  • Der dritte Klassifizierer 108 kann als BiLSTM-CRF Modell ausgeführt sein, d.h. als Bidirektionales Long short-term memory mit einer Conditional Random Field Schicht.
  • Das Verfahren zum Bestimmen wenigstens eines Teils eines Knowledge Graphs 102 wird im Beispiel nach einem Training der Klassifizierer ausgeführt. Nach dem Training kann das Verfahren auch unabhängig vom Trainingsschritt ausgeführt werden.
  • In einem Schritt 200 werden Trainingsdaten bereitgestellt. Die Trainingsdaten umfassen im Beispiel eine Vielzahl Tupel.
  • In einem Aspekt ist in jedem Tupel einem Satz 112 des Textkorpus 110 ein Wert einer insbesondere binären Größe zugeordnet, die definiert, ob der Satz den Knowledge Graph betrifft, eine erste Bezeichnung zugeordnet, die den ersten Typ definiert, eine zweite Bezeichnung zugeordnet, die den zweiten Typ definiert.
  • In einem anderen Aspekt ist in jedem Tupel einem Satz 112 des Textkorpus 110 eine numerische Repräsentation der ersten Wahrscheinlichkeit für diesen Satz 112, eine numerische Repräsentation der zweiten Wahrscheinlichkeit für den ersten Typ, und eine numerische Repräsentation der dritten Wahrscheinlichkeit für den zweiten Typ zugeordnet.
  • Im Training wird wenigstens ein Parameter der ersten Funktion, der zweiten Funktion, der dritten Funktion, des ersten Klassifizierers 104, des zweiten Klassifizierers 106 und/oder des dritten Klassifizierers 108 abhängig von den Trainingsdaten trainiert.
  • Im Beispiel ist vorgesehen, mit einem Gradientenabstiegsverfahren die Parameter für die erste Funktion, die zweite Funktion, die dritte Funktion, den ersten Klassifizierer 104, den zweiten Klassifizierer 106 und den dritten Klassifizierers 108 zu bestimmen, für die eine Summe einer ersten Abweichung für den ersten Klassifizierer, einer zweiten Abweichung für den zweiten Klassifizierer und einer dritten Abweichung für den dritten Klassifizierer eine Bedingung erfüllt. Im Beispiel ist die Bedingung für Parameter erfüllt, für die ein Wert der Summe gegenüber anderen Werten für die Summe, die mit anderen Parametern bestimmt werden, kleiner oder der kleinste Wert ist.
  • Die erste Abweichung ist im Beispiel durch eine erste Differenz zwischen der ersten numerischen Repräsentation, die für das Wort aus einem Tupel bestimmt wird, und dem Wert dafür aus dem Tupel definiert.
  • Die zweite Abweichung ist im Beispiel durch eine zweite Differenz zwischen der zweiten numerischen Repräsentation, die für das Wort aus dem Tupel bestimmt wird, und dem Wert dafür aus dem Tupel definiert.
  • Die dritte Abweichung ist im Beispiel durch eine dritte Differenz zwischen der dritten numerischen Repräsentation, die für das Wort aus dem Tupel bestimmt wird, und dem Wert dafür aus dem Tupel definiert.
  • Die Trainingsdaten können in Teile unterteilt sein. Der Schritt 200 kann in Iterationen für einzelne Teile der Trainingsdaten wiederholt werden.
  • In einem Schritt 202 wird ein Textkorpus 110 bereitgestellt.
  • In einem Schritt 204 wird für einen Satz 112 aus dem Textkorpus 110 der erste Eingang für den ersten Klassifizierer 104 bestimmt. Der erste Eingang umfasst eine numerische Repräsentation wenigstens eines Teils des Satzes 112.
  • Im Beispiel wird in einem Schritt 204-11 ein erstes Wort des Satzes 112 mit der ersten Funktion auf eine erste numerische Repräsentation abgebildet. Das erste Wort kann in einem Schritt 204-21 mit der zweiten Funktion auf eine zweite numerische Repräsentation abgebildet werden.
  • Im Beispiel wird in einem Schritt 204-21 ein zweites Wort des Satzes 112 mit der ersten Funktion auf eine dritte numerische Repräsentation abgebildet. Das zweite Wort kann in einem Schritt 204-22 mit der zweiten Funktion auf eine vierte numerische Repräsentation abgebildet werden.
  • Die erste numerische Repräsentation, die zweite numerische Repräsentation, die dritte numerische Repräsentation und die vierte numerische Repräsentation können in einem Schritt 204-3 mit der dritten Funktion auf den ersten Tensor abgebildet werden, der den ersten Eingang definiert. Der erste Tensor kann auch abhängig von allen n Worten oder mehreren Worten des Satzes bestimmt werden. Es können eine Anzahl m Funktionen vorgesehen sein mit denen m verschiedene numerische Repräsentationen für wenigsten seinen Teil eines Wortes bestimmt werden. Dies ist in 3 schematisch dargestellt.
  • In einem Schritt 206 wird der zweite Eingang für den zweiten Klassifizierer 106 bestimmt. Der zweite Eingang umfasst eine numerische Repräsentation wenigstens eines Teils eines Wortes aus dem Satz 112.
  • Im Beispiel definiert der erste Tensor den zweiten Eingang für den zweiten Klassifizierer 106.
  • In einem Schritt 208 wird der dritte Eingang für einen dritten Klassifizierer 108 bestimmt.
  • Der dritte Eingang ist im Beispiel identisch mit dem zweiten Eingang.
  • In einem Schritt 210 wird mit dem ersten Klassifizierer 104 abhängig vom ersten Eingang eine numerische Repräsentation einer ersten Wahrscheinlichkeit bestimmt, die angibt, ob der Satz 112 den Knowledge Graphs 102 betrifft oder nicht.
  • Im Beispiel wird ein Wert der numerischen Repräsentation der ersten Wahrscheinlichkeit zwischen 0 und 1 bestimmt.
  • Der erste Klassifizierer 104 bestimmt im Beispiel mit der ersten Schicht 104-1 abhängig vom ersten Eingang einen Vektor für den Satz 112 und mit der zweiten Schicht 104-2 abhängig vom Vektor die numerische Repräsentation der ersten Wahrscheinlichkeit.
  • Für diese Satzklassifikation kann eine Attention-Schicht eines künstlichen neuronalen Netzwerks mit BiLSTM Struktur eine Satzrepräsentation als gewichtete Repräsentation der BiLSTM Hidden-States berechnen und eine Softmax-Schicht in einer binären Klassifikation klassifizieren, ob der Satz eine für den Knowledge Graph relevante Information beschreibt oder nicht.
  • In einem Schritt 212 wird geprüft, ob die numerische Repräsentation der ersten Wahrscheinlichkeit eine erste Bedingung erfüllt. Im Beispiel ist die Bedingung erfüllt, wenn der Wert der numerischen Repräsentation einen Schwellwert übersteigt. Das bedeutet, wenn festgestellt wird, dass der Satz den Knowledge Graph betrifft.
  • Wenn die numerische Repräsentation der ersten Wahrscheinlichkeit die erste Bedingung erfüllt, wird ein Schritt 214 ausgeführt. Anderenfalls wird der Schritt 204 für einen anderen Satz aus dem Textkorpus 110 ausgeführt.
  • Im Schritt 214 wird mit dem zweiten Klassifizierer 106 abhängig vom zweiten Eingang eine numerische Repräsentation einer zweiten Wahrscheinlichkeit bestimmt, die den ersten Typ angibt.
  • Der zweite Klassifizierer 106 bestimmt mit der ersten Schicht 106-1 abhängig vom zweiten Eingang einen Vektor für das Wort aus dem Satz 112. Der zweite Klassifizierer 106 bestimmt im Beispiel mit der zweiten Schicht 106-2 abhängig vom Vektor eine Vielzahl numerischer Repräsentation der zweiten Wahrscheinlichkeit, wobei jede numerische Repräsentation der Vielzahl numerischer Repräsentationen einem Typ eines Knoten für den Knowledge Graph 102 zugeordnet wird.
  • Beispiele für Typen eines Knoten sind für einen Knowledge Graph, der ein materialwissenschaftliches Experiment oder eine Vielzahl materialwissenschaftlicher Experimente beschreibt, MATERIAL, WERT, GERÄT.
  • Worte vom Typ MATERIAL enthalten beispielsweise eine chemische Formel oder den Namen einer chemischen Verbindung wie Oxid oder Kohlenwasserstoff.
  • Worte vom Typ WERT enthalten beispielsweise eine Wertangabe wie 750°C oder Komparative wie größer, gleich, zwischen.
  • Worte vom Typ GERÄT enthalten beispielsweise eine Bezeichnung für ein Gerät wie Maschine, Apparat oder eine domänenspezifische Abkürzung für ein Gerät.
  • Mit dem dritten Klassifizierer 108 wird abhängig vom dritten Eingang eine numerische Repräsentation einer dritten Wahrscheinlichkeit bestimmt, die den zweiten Typ angibt.
  • Der dritte Klassifizierer 108 bestimmt mit der ersten Schicht 108-1 abhängig vom dritten Eingang einen Vektor für das Wort aus dem Satz 112. Der dritte Klassifizierer 108 bestimmt mit der zweiten Schicht 108-2 abhängig vom Vektor eine Vielzahl numerischer Repräsentationen der dritten Wahrscheinlichkeit. Jede numerische Repräsentation der Vielzahl numerischer Repräsentationen wird im Beispiel einem Typ einer Kante für den Knowledge Graph 102 zugeordnet.
  • Beispiele für Typen von Kanten sind für diesen Knowledge Graph Anodenmaterial, Kathodenmaterial, Treibstoff.
  • Worte vom Typ Anodenmaterial enthalten beispielsweise Wortbestandteile, die ein als Anode verwendbares Material bezeichnen.
  • Worte vom Typ Treibstoff enthalten beispielsweise Wortbestandteile, die eine Komponente eines Treibstoffs bezeichnet.
  • In einem Schritt 216 wird das erste Wort aus dem Satz 112 einem Knoten des Knowledge Graphs 102 zugeordnet. Es kann vorgesehen sein, dass das zweite Wort aus dem Satz 112 einem Knoten zugeordnet wird. Das erste Wort bezeichnet zum Beispiel ein Material, das im Satz beschrieben wird. Das zweite Wort bezeichnet zum Beispiel ein Gerät, das im Experiment verwendet wird.
  • In einem optionalen Schritt 218 kann geprüft werden, ob der Knoten ein Experiment-Knoten ist oder nicht. Wenn der Knoten ein Experiment-Knoten ist, wird der Schritt 204 für ein anderes Wort aus dem Satz ausgeführt. Anderenfalls wird ein Schritt 220 ausgeführt.
  • Im Knowledge Graph wird in diesem Beispiel in einem Schritt 220 eine Kante zwischen dem Knoten und dem Experiment-Knoten eingefügt. Die Kante kann mit einer Bezeichnung bezeichnet werden, die durch den erkannten Typ der Kante definiert ist. Anschließend wird der Schritt 204 für einen anderen Satz aus dem Textkorpus 110 ausgeführt.
  • Ein Wort aus dem Satz 112 aus dem Textkorpus 110 wird im Beispiel dann einem Knoten des Knowledge Graphs 102 zugeordnet, wenn das Wort einem dem entsprechenden ersten Typ zugeordnet ist. Der Knoten wird in diesem Fall mit einer Kante des zweiten Typs mit dem Experiment-Knoten verbunden.
  • Das Verfahren endet im Beispiel, wenn alle Sätze aus dem Textkorpus 110 verarbeitet wurden. Es kann auch vorgesehen sein, das Verfahren nur für eine Vielzahl von Sätzen aus dem Textkorpus 110 auszuführen, die zuvor definiert werden.
  • Damit wird eine automatische Extraktion von Informationen aus nicht annotierten beispielsweise materialwissenschaftlichen Publikationen ermöglicht, die es ermöglicht einen Knowledge Graphen zu bauen. Dazu ist eine automatische Erkennung von relevanten Sätzen aus dem Textkorpus vorgesehen. Ein Satz ist beispielweise relevant, wenn der Satz ein beispielsweise materialwissenschaftliches Experiment beschreibt. Zudem ist eine automatische Erkennung von Worten aus dem Satz vorgesehen, die als Knoten im Knowledge Graph relevant sind. Ein Wort ist beispielsweise für einen Knoten relevant, wenn es ein Konzept für das insbesondere materialwissenschaftliche Experiment beschreibt. Beispiele für Konzepte aus dem Bereich der Materialwissenschaft sind ein Material oder eine Maßeinheit. Zudem ist eine automatische Erkennung von Worten aus dem Textkorpus vorgesehen, die durch eine Kante im Knowledge Graph mit dem Experiment-Knoten zu verbinden sind. Eine Kante wird beispielsweise im Knowledge Graph mit einer Bezeichnung eingetragen, die angibt, welche Rolle ein Konzept im insbesondere Materialwissenschaftlichen Experiment beschreibt. Beispiele für Rollen aus dem Bereich der Materialwissenschaft sind Anodenmaterial, Kathodenmaterial. Der Ansatz ist auch auf andere Domänen außerhalb der Materialwissenschaften anwendbar. Die Klassifizierer können als ein oder mehrere Modelle insbesondere künstliche neuronale Netzwerke ausgebildet sein, die dazu trainiert sind, automatisch Informationen über Experimente aus wissenschaftlichen Publikationen zu extrahieren, damit diese in einen Knowledge Graph geschrieben werden können. Der erste Klassifizierer kann als insbesondere binäres Klassifikationsmodell ausgebildet sein, das trainiert ist, für einen Satz binär anzugeben, ob er für das Experiment relevant ist oder nicht. Der zweite Klassifizierer und der dritte Klassifizierer können je als ein Sequenz-Tagging-Modell implementiert sein. Ein Sequenz-Tagging-Modell verwendet eine Vielzahl vorgegebener Bezeichnungen und klassifiziert Worte dahingehend, welcher der Bezeichnungen das Wort mit größter Wahrscheinlichkeit zuzuordnen ist. Die Bezeichnungen für den zweiten Klassifizierer können Typen sein, die mögliche Konzepte definieren. Die Bezeichnungen für den dritten Klassifizierer können Typen sein, die mögliche Rollen definieren. Mögliche Rollen und mögliche Konzepte können Worte aus einer Wortsammlung sein, die für die Domäne, der der Textkorpus zugeordnet ist, definiert sind. Durch Wiederholen der Schritte für beispielsweise alle Wörter aus dem Textkorpus werden eine erste Menge von Konzepten, d.h. Worten aus dem Textkorpus, die als Knoten relevant sind, und eine zweite Menge von Rollen, d.h. Wörter aus dem Textkorpus, die als Knoten, an denen Kanten enden, relevant sind, bestimmt. Die damit gefundenen Worte für Knoten können in den Knowledge Graph aufgenommen und durch eine Kante mit dem Experiment-Knoten verbunden werden. Der Knowledge Graph kann dann von Domänenexperten verwendet werden, um gezielt nach Informationen und verwandten Arbeiten zu einem bestimmten Experiment zu suchen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • Luan et al. 2018: Yi Luan et al.: Multi-Task Identification of Entities, Relations, and Coreference for Scientific Knowledge Graph Construction. Conference on Empirical Methods in Natural Language Processing, 2018 [0001]
    • Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. 2013 [0028]
    • Vahe Tshitoyan, John Dagdelen, Leigh Weston, Alexander Dunn, Ziqin Rong, Olga Kononova, Kristin A. Persson, Gerbrand Ceder, and Anubhav Jain. 2019. Unsupervised word embeddings capture latent knowledge from materials science literature. Nature, 571:95 - 98 [0029]
    • Benjamin Heinzerling and Michael Strube. 2018. BPEmb: Tokenization-free Pre-trained Subword Embeddings in 275 Languages. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan. European Language Resources Association (ELRA) [0030]
    • BERT Embeddings sind beispielsweise beschrieben in Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2019. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics [0031]
    • Iz Beltagy, Kyle Lo, and Arman Cohan. 2019. Scibert: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 3606-3611 [0032]

Claims (11)

  1. Verfahren zum Bestimmen wenigstens eines Teils eines Knowledge Graphs (102), dadurch gekennzeichnet, dass ein Textkorpus (110) bereitgestellt wird (202), wobei für einen Satz (112) aus dem Textkorpus (110) ein erster Eingang für einen ersten Klassifizierer (104) bestimmt wird (204), ein zweiter Eingang für einen zweiten Klassifizierer (106) bestimmt wird (206), und ein dritter Eingang für einen dritten Klassifizierer (108) bestimmt wird (208), wobei der erste Eingang eine numerische Repräsentation wenigstens eines Teils des Satzes (112) umfasst, wobei der zweite Eingang eine numerische Repräsentation wenigstens eines Teils eines Wortes aus dem Satz (112) umfasst, wobei der dritte Eingang eine numerische Repräsentation wenigstens eines Teils des Wortes aus dem Satz (112) umfasst, wobei mit dem ersten Klassifizierer (104) abhängig vom ersten Eingang eine numerische Repräsentation einer ersten Wahrscheinlichkeit bestimmt wird (210), die angibt, ob der Satz (112) den Knowledge Graph (102) betrifft oder nicht, wobei wenn die numerische Repräsentation der ersten Wahrscheinlichkeit eine erste Bedingung erfüllt (212), mit dem zweiten Klassifizierer (106) abhängig vom zweiten Eingang eine numerische Repräsentation einer zweiten Wahrscheinlichkeit bestimmt wird (214), die einen ersten Typ für das Wort aus dem Satz (112) definiert, wobei mit dem dritten Klassifizierer (108) abhängig vom dritten Eingang eine numerische Repräsentation einer dritte Wahrscheinlichkeit bestimmt wird (214), die einen zweiten Typ für eine Kante für das Wort definiert, wobei das Wort aus dem Satz (112) einem Knoten des Knowledge Graphs (102) des ersten Typs zugeordnet und mit einer Kante des zweiten Typs mit einem anderen Knoten des Knowledge Graphs verbunden wird (220).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass ein erstes Wort des Satzes (112) mit einer ersten Funktion auf eine erste numerische Repräsentation abgebildet wird (204-11), wobei das erste Wort mit einer von der ersten Funktion verschiedenen zweiten Funktion auf eine zweite numerische Repräsentation abgebildet wird (204-21), wobei ein zweites Wort des Satzes (112) mit der ersten Funktion auf eine dritte numerische Repräsentation abgebildet wird (204-12), wobei das zweite Wort mit der zweiten Funktion auf eine vierte numerische Repräsentation abgebildet wird (204-22), wobei die erste numerische Repräsentation, die zweite numerische Repräsentation, die dritte numerische Repräsentation und die vierte numerische Repräsentation mit einer dritten Funktion auf einen ersten Tensor abgebildet werden (204-3), der den ersten Eingang und/oder den zweiten Eingang definiert.
  3. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass Trainingsdaten bereitgestellt werden, die eine Vielzahl Tupel umfassen wobei in jedem Tupel einem Satz (112) des Textkorpus (110) ein Wert einer insbesondere binären Größe zugeordnet ist, die definiert, ob der Satz den Knowledge Graph betrifft, eine erste Bezeichnung zugeordnet ist, die den ersten Typ definiert, eine zweite Bezeichnung zugeordnet ist, die den zweiten Typ definiert, und wobei wenigstens ein Parameter der ersten Funktion, der zweiten Funktion der dritten Funktion, des ersten Klassifizierers (104), des zweiten Klassifizierers (106) und/oder des dritten Klassifizierers (108) abhängig von den Trainingsdaten trainiert wird (200).
  4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass Trainingsdaten bereitgestellt werden, die eine Vielzahl Tupel umfassen wobei in jedem Tupel einem Satz (112) des Textkorpus (110) eine numerische Repräsentation der ersten Wahrscheinlichkeit für diesen Satz (112), eine numerische Repräsentation der zweiten Wahrscheinlichkeit für ein Wort aus dem Satz, und eine numerische Repräsentation der dritten Wahrscheinlichkeit für das Wort aus dem Satz (110) zugeordnet ist, und wobei wenigstens ein Parameter der ersten Funktion, der zweiten Funktion der dritten Funktion, des ersten Klassifizierers (104), des zweiten Klassifizierers (106) und/oder des dritten Klassifizierers (108) abhängig von den Trainingsdaten trainiert wird (200).
  5. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der erste Klassifizierer (104) eine erste Schicht (104-1) umfasst, die abhängig vom ersten Eingang einen Vektor für den Satz (112) bestimmt, wobei der erste Klassifizierer (104) eine zweite Schicht (104-2) umfasst, die abhängig vom Vektor die numerische Repräsentation der ersten Wahrscheinlichkeit bestimmt.
  6. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der zweite Klassifizierer (106) eine erste Schicht (106-1) umfasst, die abhängig vom zweiten Eingang einen Vektor für das Wort aus dem Satz (112) bestimmt (214-1), wobei der zweite Klassifizierer (106) eine zweite Schicht (106-2) umfasst, die abhängig vom Vektor eine Vielzahl numerischer Repräsentation der zweiten Wahrscheinlichkeit bestimmt (214-2), wobei jede numerische Repräsentation der Vielzahl numerischer Repräsentationen einem Typ eines Knoten für den Knowledge Graph (102) zugeordnet wird.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass ein Wort aus dem Satz (112) aus dem Textkorpus (110) dann einem Knoten des Knowledge Graphs (102) zugeordnet wird (218), wenn das Wort einem Typ eines Knoten des Knowledge Graphs (102) zugeordnet ist.
  8. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der dritte Klassifizierer (108) eine erste Schicht (108-1) umfasst, die abhängig vom dritten Eingang einen Vektor für das Wort aus dem Satz (112) bestimmt, wobei der dritte Klassifizierer (108) eine zweite Schicht (108-2) umfasst, die abhängig vom Vektor eine Vielzahl numerischer Repräsentation der dritten Wahrscheinlichkeit bestimmt, wobei jede numerische Repräsentation der Vielzahl numerischer Repräsentationen einem Typ einer Kante für den Knowledge Graph (102) zugeordnet wird.
  9. Verfahren nach einem der vorherigen Ansprüche, dadurch gekennzeichnet, dass der erste Eingang, der zweite Eingang und/oder der dritte Eingang für den Satz (112) abhängig von einer Mehrzahl Worte aus diesem Satz (112) bestimmt wird (208).
  10. Vorrichtung (100) zum Bestimmen wenigstens eines Teils eines Knowledge Graphs (102), dadurch gekennzeichnet, dass die Vorrichtung (100) ausgebildet ist, ein Verfahren nach einem der Ansprüche 1 bis 9 auszuführen.
  11. Computerprogramm, dadurch gekennzeichnet, dass das Computerprogramm computerlesbare Instruktionen umfasst bei deren Ausführung durch einen Computer ein Verfahren nach einem der Ansprüche 1 bis 9 abläuft.
DE102020206135.1A 2020-05-15 2020-05-15 Vorrichtung und Verfahren zum Bestimmen wenigstens eines Teils eines Knowledge Graphs Pending DE102020206135A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102020206135.1A DE102020206135A1 (de) 2020-05-15 2020-05-15 Vorrichtung und Verfahren zum Bestimmen wenigstens eines Teils eines Knowledge Graphs
US17/314,972 US11947910B2 (en) 2020-05-15 2021-05-07 Device and method for determining at least one part of a knowledge graph
CN202110526840.1A CN113672738A (zh) 2020-05-15 2021-05-14 用于确定知识图谱的至少一部分的设备和方法
JP2021082179A JP2021179991A (ja) 2020-05-15 2021-05-14 ナレッジグラフの少なくとも一部分を決定するための装置及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102020206135.1A DE102020206135A1 (de) 2020-05-15 2020-05-15 Vorrichtung und Verfahren zum Bestimmen wenigstens eines Teils eines Knowledge Graphs

Publications (1)

Publication Number Publication Date
DE102020206135A1 true DE102020206135A1 (de) 2021-11-18

Family

ID=78280329

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102020206135.1A Pending DE102020206135A1 (de) 2020-05-15 2020-05-15 Vorrichtung und Verfahren zum Bestimmen wenigstens eines Teils eines Knowledge Graphs

Country Status (4)

Country Link
US (1) US11947910B2 (de)
JP (1) JP2021179991A (de)
CN (1) CN113672738A (de)
DE (1) DE102020206135A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4216099A1 (de) * 2022-01-24 2023-07-26 Robert Bosch GmbH Vorrichtung und computerimplementiertes verfahren zur analyse eines hierarchischen dokuments insbesondere zum befüllen eines wissensgraphen

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102508131B1 (ko) * 2021-12-20 2023-03-09 (주)씨어스테크놀로지 지식그래프에 대한 그래프 연결강화 시스템 및 방법
EP4310727A1 (de) 2022-07-20 2024-01-24 Thesee Verbesserte online-bewertung

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005084436A (ja) * 2003-09-09 2005-03-31 Advanced Telecommunication Research Institute International 音声認識装置及びコンピュータプログラム
JP4453377B2 (ja) * 2004-01-30 2010-04-21 株式会社デンソー 音声認識装置、プログラム及びナビゲーション装置
CN116362247A (zh) * 2023-02-23 2023-06-30 浙江大学 一种基于mrc框架的实体抽取方法

Non-Patent Citations (9)

* Cited by examiner, † Cited by third party
Title
Benjamin Heinzerling and Michael Strube. 2018. BPEmb: Tokenization-free Pre-trained Subword Embeddings in 275 Languages. In Proceedings of the Eleventh International Conference on Language Resources and Evaluation (LREC 2018), Miyazaki, Japan. European Language Resources Association (ELRA)
BERT Embeddings sind beispielsweise beschrieben in Jacob Devlin, Ming-Wei Chang, Kenton Lee, and Kristina Toutanova. 2019. BERT: Pre-training of deep bidirectional transformers for language understanding. In Proceedings of the 2019 Conference of the North American Chapter of the Association for Computational Linguistics: Human Language Technologies, pages 4171-4186, Minneapolis, Minnesota. Association for Computational Linguistics
EBERTS, Markus; ULGES, Adrian. Span-based joint entity and relation extraction with transformer pre-training. arXiv preprint Version 3, 19.11.2019, https://arxiv.org/abs/1909.07755v3
Iz Beltagy, Kyle Lo, and Arman Cohan. 2019. Scibert: A pretrained language model for scientific text. In Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing and the 9th International Joint Conference on Natural Language Processing (EMNLP-IJCNLP), pages 3606-3611
Luan et al. 2018: Yi Luan et al.: Multi-Task Identification of Entities, Relations, and Coreference for Scientific Knowledge Graph Construction. Conference on Empirical Methods in Natural Language Processing, 2018
Tomas Mikolov, Kai Chen, Greg Corrado, and Jeffrey Dean. 2013
Vahe Tshitoyan, John Dagdelen, Leigh Weston, Alexander Dunn, Ziqin Rong, Olga Kononova, Kristin A. Persson, Gerbrand Ceder, and Anubhav Jain. 2019. Unsupervised word embeddings capture latent knowledge from materials science literature. Nature, 571:95 - 98
WANG, Quan, et al. Knowledge graph embedding: A survey of approaches and applications. IEEE Transactions on Knowledge and Data Engineering, 2017, 29. Jg., Nr. 12, S. 2724-2743. - DOI: 10.1109/TKDE.2017.2754499
XIA, Congying, et al. Multi-grained named entity recognition. In: Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. Florence/Italy, July 28 - August 2, 2019; Seiten1430–1440. - DOI: 10.18653/v1/P19-1138, auch arXiv:1906.08449.

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4216099A1 (de) * 2022-01-24 2023-07-26 Robert Bosch GmbH Vorrichtung und computerimplementiertes verfahren zur analyse eines hierarchischen dokuments insbesondere zum befüllen eines wissensgraphen

Also Published As

Publication number Publication date
US20210357588A1 (en) 2021-11-18
JP2021179991A (ja) 2021-11-18
US11947910B2 (en) 2024-04-02
CN113672738A (zh) 2021-11-19

Similar Documents

Publication Publication Date Title
DE102020206135A1 (de) Vorrichtung und Verfahren zum Bestimmen wenigstens eines Teils eines Knowledge Graphs
DE112018000334T5 (de) System und Verfahren zur domänenunabhängigen Aspektebenen-Stimmungserkennung
DE202017106532U1 (de) Suche nach einer neuronalen Architektur
DE112013004082T5 (de) Suchsystem der Emotionsentität für das Microblog
DE112018005894T5 (de) Maschinenlernen zum integrieren von wissens- und natürlicher sprachverarbeitung
EP3798922A1 (de) Vorrichtung und verfahren zum maschinenlernen und ansteuern einer maschine
DE112018006345T5 (de) Abrufen von unterstützenden belegen für komplexe antworten
DE112016005266T5 (de) Schnelle Musterentdeckung für Protokollanalyse
DE102019212421A1 (de) Verfahren und Vorrichtung zur Ermittlung ähnlicher Dokumente
DE112013002654T5 (de) Verfahren zum Klassifizieren von Text
DE102021004562A1 (de) Abwandlung von Szenengraphen auf Grundlage von Befehlen in natürlicher Sprache
DE102022201753A1 (de) Erweiterung Graph- basierter Kennzeichnungsregeln für schwach überwachtesTraining von auf maschinellem Lernen basierender Eigennamenerkennung
DE112007000051T5 (de) Dreiteiliges-Modell-basiertes Verfahren zur Informationsgewinnung und -verarbeitung
DE602004003609T2 (de) Lösung der Segmentierungsmehrdeutigkeit bei der Grammatikerstellung
CN112905796B (zh) 基于再注意力机制的文本情绪分类方法及系统
DE112021006602T5 (de) Verfeinern von abfrage-erzeugungsmustern
DE112019006005T5 (de) Semantische-Beziehungen-Lerneinrichtung, Semantische-Beziehungen-Lernverfahren und Semantische-Beziehungen-Lernprogramm
EP3905097A1 (de) Vorrichtung und verfahren zum bestimmen eines knowledge graph
CN114065770A (zh) 一种基于图神经网络构建语义知识库的方法及系统
DE102007044380A1 (de) Verfahren zum rechnergestützten Lernen eines probabilistischen Netzes
DE102019210994A1 (de) Vorrichtung und Verfahren zum Verarbeiten eines digitalen Datenstroms
DE102016125162B4 (de) Verfahren und Vorrichtung zum maschinellen Verarbeiten von Texten
CN110888996A (zh) 一种基于范围卷积神经网络的文本分类方法
EP3716058A1 (de) Verfahren zum ansteuern eines geräts mit einem neuen programmcode
DE102018222156A1 (de) Verfahren, Anordnung und Verwendung zum Erzeugen einer Antwortausgabe in Reaktion auf eine Spracheingabeinformation

Legal Events

Date Code Title Description
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0040300000

Ipc: G06F0016360000

R163 Identified publications notified