DE202021102099U1 - Apparatus for processing a knowledge graph embedding - Google Patents

Apparatus for processing a knowledge graph embedding Download PDF

Info

Publication number
DE202021102099U1
DE202021102099U1 DE202021102099.7U DE202021102099U DE202021102099U1 DE 202021102099 U1 DE202021102099 U1 DE 202021102099U1 DE 202021102099 U DE202021102099 U DE 202021102099U DE 202021102099 U1 DE202021102099 U1 DE 202021102099U1
Authority
DE
Germany
Prior art keywords
embedding
knowledge graph
subject
instance
relation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE202021102099.7U
Other languages
German (de)
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE202021102099.7U priority Critical patent/DE202021102099U1/en
Publication of DE202021102099U1 publication Critical patent/DE202021102099U1/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Image Processing (AREA)

Abstract

Vorrichtung (100) zum Verarbeiten einer Wissensgrapheneinbettung (102) eines Wissensgraphen (200), gekennzeichnet durch mindestens einen Prozessor (104), der für folgende Vorgänge ausgelegt ist: Bestimmen einer ersten Einbettung, wobei die erste Einbettung ein Subjekt in einer ersten Instanz repräsentiert, wobei der Wissensgraph (200) eine Entität für das Subjekt umfasst, Abrufen einer zweiten Einbettung aus der Wissensgrapheneinbettung (102), wobei die zweite Einbettung ein Objekt im Wissensgraphen (200) repräsentiert, wobei der Wissensgraph (200) eine Entität für das Objekt umfasst, Abrufen mindestens einer dritten Einbettung aus der Wissensgrapheneinbettung (102), wobei die mindestens eine dritte Einbettung Kontext repräsentiert, wobei der Wissensgraph (200) mindestens eine Entität für den Kontext umfasst, Bestimmen einer vierten Einbettung, wobei die vierte Einbettung eine Relation im Wissensgraphen (200) zwischen dem Subjekt und dem Objekt repräsentiert, Abbilden der ersten Einbettung, der zweiten Einbettung, der mindestens einen dritten Einbettung und der vierten Einbettung mit einem Encoder (106) auf eine fünfte Einbettung, wobei die fünfte Einbettung das Subjekt in einer zweiten Instanz repräsentiert, Bestimmen eines Scores in Abhängigkeit von der zweiten Einbettung, der vierten Einbettung und der fünften Einbettung, wobei der Score eine Plausibilität für die Relation des Subjekts mit dem Objekt im Kontext bei der zweiten Instanz repräsentiert.Device (100) for processing a knowledge graph embedding (102) of a knowledge graph (200), characterized by at least one processor (104) which is designed for the following processes: determining a first embedding, the first embedding representing a subject in a first instance, wherein the knowledge graph (200) comprises an entity for the subject, retrieving a second embedding from the knowledge graph embedding (102), the second embedding representing an object in the knowledge graph (200), the knowledge graph (200) comprising an entity for the object, Retrieving at least one third embedding from the knowledge graph embedding (102), the at least one third embedding representing context, the knowledge graph (200) comprising at least one entity for the context, determining a fourth embedding, the fourth embedding being a relation in the knowledge graph (200 ) represents between the subject and the object, depicting the first embedding processing, the second embedding, the at least one third embedding and the fourth embedding with an encoder (106) on a fifth embedding, the fifth embedding representing the subject in a second instance, determining a score depending on the second embedding, the fourth Embedding and the fifth embedding, the score representing a plausibility for the relation of the subject with the object in the context of the second instance.

Description

Hintergrundbackground

Verfahren zur Wissensgrapheneinbettung (engl. „Knowledge Graph Embedding“, KGE) erzeugen eine einzige Vektorrepräsentation für Entitätsinstanzen und Relationstypen im entsprechenden Wissensgraphen (engl. „Knowledge Graph“, KG). Eine Einbettung erfasst eine globale Verteilungssemantik des KG in Bezug auf eine Entität und ist für die Vorhersage allgemeingültiger Fakten optimiert. Dies ist eine Wissensgraphenaufgabe (engl. „Knowledge Graph Task“, KGT), die als Link-Vorhersage bezeichnet wird. Diese Annahme der Allgemeingültigkeit gilt jedoch nur selten in realen Inferenzaufgaben, da der situative Kontext entscheidend ist, um nuancierte Vorhersagen zu treffen.Processes for knowledge graph embedding ("Knowledge Graph Embedding", KGE) generate a single vector representation for entity instances and relation types in the corresponding knowledge graph ("Knowledge Graph", KG). Embedding captures global distribution semantics of the KG in relation to an entity and is optimized for the prediction of generally applicable facts. This is a knowledge graph task (KGT) known as link prediction. However, this assumption of general validity only rarely applies in real inference tasks, since the situational context is decisive in order to make nuanced predictions.

Eine einzige statische KGE pro Entität und Relation ist für viele KGTs nicht ausreichend. Stattdessen müssen Entitäten und Relationen durch situationsbedingte Faktoren und ihre subjektive Historie in einen Kontext gebracht werden. Dies erfordert für jede Situation eine andere Entitätseinbettung, nicht nur eine, die versucht, allgemeingültig zu sein.A single static KGE per entity and relation is not sufficient for many KGTs. Instead, entities and relations have to be brought into context through situation-related factors and their subjective history. This requires a different entity embedding for each situation, not just one that tries to be general.

Folglich besteht die Notwendigkeit, statische KGEs an situative und subjektive Kontexte anzupassen.As a result, there is a need to adapt static KGEs to situational and subjective contexts.

Beschreibung der ErfindungDescription of the invention

Die Beschreibung offenbart ein Modell, das Relationseinbettungen erzeugt, die einen situationsspezifischen Relationskontext erfassen, und Entitätseinbettungen, die die Historie eines Subjekts von verwandten Beobachtungen enthalten.The description discloses a model that generates relational embeddings that capture a situation-specific relational context, and entity embeddings that contain a subject's history of related observations.

Das insbesondere computerimplementierte Verfahren zum Verarbeiten einer Wissensgrapheneinbettung eines Wissensgraphen umfasst das Bestimmen einer ersten Einbettung, wobei die erste Einbettung ein Subjekt bei einer ersten Instanz repräsentiert, wobei der Wissensgraph eine Entität für das Subjekt umfasst, das Abrufen einer zweiten Einbettung aus der Wissensgrapheneinbettung, wobei die zweite Einbettung ein Objekt im Wissensgraphen repräsentiert, wobei der Wissensgraph eine Entität für das Objekt umfasst, das Abrufen mindestens einer dritten Einbettung aus der Wissensgrapheneinbettung, wobei die mindestens eine dritte Einbettung Kontext repräsentiert, wobei der Wissensgraph mindestens eine Entität für den Kontext umfasst, das Bestimmen einer vierten Einbettung, wobei die vierte Einbettung eine Relation im Wissensgraphen zwischen dem Subjekt und dem Objekt repräsentiert, das Abbilden der ersten Einbettung, der zweiten Einbettung, der mindestens einen dritten Einbettung und der vierten Einbettung mit einem Encoder auf eine fünfte Einbettung, wobei die fünfte Einbettung das Subjekt bei einer zweiten Instanz repräsentiert, das Bestimmen eines Scores in Abhängigkeit von der zweiten Einbettung, der vierten Einbettung und der fünften Einbettung, wobei der Score eine Plausibilität für die Relation des Subjekts mit dem Objekt im Kontext bei der zweiten Instanz repräsentiert.The particularly computer-implemented method for processing a knowledge graph embedding of a knowledge graph comprises determining a first embedding, the first embedding representing a subject at a first instance, the knowledge graph comprising an entity for the subject, retrieving a second embedding from the knowledge graph embedding, the second embedding represents an object in the knowledge graph, wherein the knowledge graph comprises an entity for the object, retrieving at least one third embedding from the knowledge graph embedding, wherein the at least one third embedding represents context, wherein the knowledge graph comprises at least one entity for the context, determining a fourth embedding, the fourth embedding representing a relation in the knowledge graph between the subject and the object, the mapping of the first embedding, the second embedding, the at least one third embedding and the fourth embedding embedding with an encoder to a fifth embedding, whereby the fifth embedding represents the subject in a second instance, determining a score depending on the second embedding, the fourth embedding and the fifth embedding, the score being a plausibility for the relation of the subject represented with the object in context at the second instance.

Das Verfahren kann das Betreiben einer Vorrichtung in Abhängigkeit von der Relation des Subjekts zum Objekt im Kontext bei der zweiten Instanz umfassen, wenn der Score eine Bedingung erfüllt, und andernfalls das Nicht-Betreiben der Vorrichtung in Abhängigkeit von der Relation des Subjekts zum Objekt im Kontext bei der zweiten Instanz, wobei die Vorrichtung eine computergesteuerte Maschine ist, insbesondere ein Roboter, ein Fahrzeug, ein Haushaltsgerät, ein Elektrowerkzeug, eine Fertigungsmaschine, ein persönlicher Assistent oder ein Zugangskontrollsystem. Die zweite bis fünfte Einbettung repräsentieren einen zeitlichen kontextualisierten Wissensgraphenfakt für das Subjekt bei der zweiten Instanz in einer Folge von kontextualisierten Wissensgraphenfakten. Der Score gibt die Plausibilität der Existenz des zeitlich kontextualisierten Wissensgraphenfakts an. Der Score gibt also die Plausibilität an, dass das Objekt oder die Relation im Kontext existiert. Der Score erfüllt die Bedingung zum Beispiel dann, wenn er einen Schwellenwert überschreitet. Der Schwellenwert kann ein Referenzscore sein, der für einen anderen zeitlich kontextualisierten Wissensgraphenfakt für das Subjekt bestimmt wurde.The method may include operating a device as a function of the relation of the subject to the object in context at the second instance if the score meets a condition, and otherwise not operating the device as a function of the relation of the subject to the object in context in the second instance, the device being a computer-controlled machine, in particular a robot, a vehicle, a household appliance, an electric tool, a manufacturing machine, a personal assistant or an access control system. The second through fifth embeddings represent a temporal contextualized knowledge graph fact for the subject at the second instance in a sequence of contextualized knowledge graph facts. The score indicates the plausibility of the existence of the temporally contextualized knowledge graph fact. The score therefore indicates the plausibility that the object or the relation exists in the context. The score fulfills the condition, for example, if it exceeds a threshold value. The threshold may be a reference score determined for another temporally contextualized knowledge graph fact for the subject.

Das Betreiben der Vorrichtung kann umfassen: Empfangen von Daten, insbesondere Sensordaten, umfassend Audiodaten, Bilddaten, Videodaten, Radardaten, Lidardaten und/oder Metadaten, wobei die Daten Informationen über das Subjekt, das Objekt und den Kontext in der ersten Instanz umfassen, und Bestimmen einer Klassifizierung der Daten, insbesondere für Ortsempfehlung, Ereignisvorhersage und/oder eine Fahrszenenklassifizierung, in Abhängigkeit von der Relation des Subjekts zum Objekt im Kontext bei der zweiten Instanz, wenn der Score die Bedingung erfüllt, oder andernfalls Nicht-Klassifizieren der Daten in Abhängigkeit von der Relation des Subjekts zum Objekt im Kontext bei der zweiten Instanz, und dann Betreiben der Vorrichtung in Abhängigkeit von der Klassifizierung.Operating the device can include: receiving data, in particular sensor data, including audio data, image data, video data, radar data, lidar data and / or metadata, the data including information about the subject, the object and the context in the first instance, and determining a classification of the data, in particular for location recommendation, event prediction and / or a driving scene classification, depending on the relation of the subject to the object in the context of the second instance, if the score meets the condition, or otherwise non-classification of the data depending on the Relation of the subject to the object in the context at the second instance, and then operating the device as a function of the classification.

Das Verfahren kann das Abrufen der ersten Einbettung aus der Wissensgrapheneinbettung umfassen. Die Einbettungen, die aus der Wissensgrapheneinbettung in der ersten Instanz abgerufen werden, werden zur Vorhersage für die zweite Instanz oder zum Training des Encoders für diese Vorhersage verwendet.The method may include retrieving the first embedding from the knowledge graph embedding. The embeddings retrieved from the knowledge graph embedding in the first instance are used for prediction for the second instance or for training the encoder for this prediction.

Das Bestimmen der ersten Einbettung kann das Bestimmen einer Einbettung, die das Subjekt in einer Instanz vor der ersten Instanz repräsentiert, und das Abbilden einer Einbettung aus der Wissensgrapheneinbettung, die ein Objekt im Wissensgraphen repräsentiert, mindestens einer Einbettung aus der Wissensgrapheneinbettung, die Kontext repräsentiert, und einer Einbettung, die eine Relation im Wissensgraphen zwischen dem Subjekt und dem Objekt repräsentiert, mit einem Encoder auf die erste Einbettung umfassen. Die erste Einbettung wird aus einer Einbettung bestimmt, die das Subjekt repräsentiert. Die erste Einbettung umfasst also die Historie für das Subjekt.Determining the first embedding may include determining an embedding that the subject represents in an instance before the first instance, and the mapping of an embedding from the knowledge graph embedding, which represents an object in the knowledge graph, at least one embedding from the knowledge graph embedding, which represents the context, and an embedding, which a relation in the knowledge graph between the subject and the Object represented, with an encoder to encompass the first embedding. The first embedding is determined from an embedding that represents the subject. The first embedding therefore includes the history for the subject.

Das Verfahren kann entweder das Abrufen der Einbettung, die das Subjekt in der Instanz vor der ersten Instanz repräsentiert, aus der Wissensgrapheneinbettung oder das Bestimmen der Einbettung, die das Subjekt in einer Instanz vor der ersten Instanz repräsentiert, in Abhängigkeit von einer Einbettung, die das Subjekt repräsentiert und die aus der Wissensgrapheneinbettung abgerufen wird, umfassen. In einem ersten Schritt wird die erste Einbettung, die das Subjekt repräsentiert, aus der Wissensgrapheneinbettung abgerufen.The method can either retrieve the embedding that the subject represents in the instance before the first instance from the knowledge graph embedding or determine the embedding that the subject represents in an instance before the first instance, depending on an embedding that the Subject represented and which is retrieved from the knowledge graph embedding. In a first step, the first embedding, which represents the subject, is retrieved from the knowledge graph embedding.

Das Verfahren kann das Bereitstellen von Trainingsdaten, die das Subjekt, ein Referenzobjekt und eine Referenzrelation umfassen, wobei die Referenzrelation das Subjekt und das Referenzobjekt in einem Referenzkontext in Relation setzt, und das Trainieren des Encoders mit einer Backpropagation einer Abweichung zwischen dem Objekt und dem Referenzobjekt und/oder einer Abweichung zwischen der Relation und der Referenzrelation umfassen. Dies ermöglicht es dem Encoder, eine globale Wissensgrapheneinbettung in eine benutzerdefinierte Einbettung zu transformieren, unter Berücksichtigung von situationsspezifischen Faktoren der Relation und der subjektiven Historie der Entität, die das Subjekt repräsentiert.The method can provide training data comprising the subject, a reference object and a reference relation, the reference relation relating the subject and the reference object in a reference context, and training the encoder with a backpropagation of a deviation between the object and the reference object and / or a discrepancy between the relation and the reference relation. This enables the encoder to transform a global knowledge graph embedding into a user-defined embedding, taking into account situation-specific factors of the relation and the subjective history of the entity that the subject represents.

Das Verfahren kann das Abbilden der ersten Einbettung, der zweiten Einbettung, der mindestens einen dritten Einbettung und der vierten Einbettung in einem ersten Teil des Encoders auf eine Repräsentation der ersten Einbettung, eine Repräsentation der zweiten Einbettung, eine Repräsentation der mindestens einen dritten Einbettung und eine Repräsentation der vierten Einbettung und das Abbilden der Repräsentation der ersten Einbettung, der Repräsentation der zweiten Einbettung, der Repräsentation der mindestens einen dritten Einbettung und der Repräsentation der vierten Einbettung in einem zweiten Teil des Encoders auf die fünfte Einbettung umfassen.The method can map the first embedding, the second embedding, the at least one third embedding and the fourth embedding in a first part of the encoder to a representation of the first embedding, a representation of the second embedding, a representation of the at least one third embedding and a Representation of the fourth embedding and the mapping of the representation of the first embedding, the representation of the second embedding, the representation of the at least one third embedding and the representation of the fourth embedding in a second part of the encoder on the fifth embedding.

Das Verfahren kann das Abbilden der ersten Einbettung, der zweiten Einbettung, der mindestens einen dritten Einbettung und der vierten Einbettung mit mindestens einer Self-Attention-Schicht im ersten Teil des Encoders umfassen.The method can include mapping the first embedding, the second embedding, the at least one third embedding and the fourth embedding with at least one self-attention layer in the first part of the encoder.

Das Verfahren kann das Abbilden der Repräsentation der ersten Einbettung, der Repräsentation der zweiten Einbettung, der Repräsentation der mindestens einen dritten Einbettung und der Repräsentation der vierten Einbettung mit mindestens einer Attention-Schicht im zweiten Teil des Encoders umfassen.The method can include mapping the representation of the first embedding, the representation of the second embedding, the representation of the at least one third embedding and the representation of the fourth embedding with at least one attention layer in the second part of the encoder.

Die Vorrichtung zum Verarbeiten einer Wissensgrapheneinbettung eines Wissensgraphen umfasst mindestens einen Prozessor, der für folgende Vorgänge ausgelegt ist: Bestimmen einer ersten Einbettung, wobei die erste Einbettung ein Subjekt in einer ersten Instanz repräsentiert, wobei der Wissensgraph eine Entität für das Subjekt umfasst, Abrufen einer zweiten Einbettung aus der Wissensgrapheneinbettung, wobei die zweite Einbettung ein Objekt im Wissensgraphen repräsentiert, wobei der Wissensgraph eine Entität für das Objekt umfasst, Abrufen mindestens einer dritten Einbettung aus der Wissensgrapheneinbettung, wobei die mindestens eine dritte Einbettung Kontext repräsentiert, wobei der Wissensgraph mindestens eine Entität für den Kontext umfasst, Bestimmen einer vierten Einbettung, wobei die vierte Einbettung eine Relation im Wissensgraphen zwischen dem Subjekt und dem Objekt repräsentiert, Abbilden der ersten Einbettung, der zweiten Einbettung, der mindestens einen dritten Einbettung und der vierten Einbettung mit einem Encoder auf eine fünfte Einbettung, wobei die fünfte Einbettung das Subjekt bei einer zweiten Instanz repräsentiert, Bestimmen eines Scores in Abhängigkeit von der zweiten Einbettung, der vierten Einbettung und der fünften Einbettung, wobei der Score eine Plausibilität für die Relation des Subjekts mit dem Objekt im Kontext bei der zweiten Instanz repräsentiert.The device for processing a knowledge graph embedding of a knowledge graph comprises at least one processor which is designed for the following processes: determining a first embedding, the first embedding representing a subject in a first instance, the knowledge graph comprising an entity for the subject, retrieving a second Embedding from the knowledge graph embedding, the second embedding representing an object in the knowledge graph, the knowledge graph comprising an entity for the object, retrieving at least one third embedding from the knowledge graph embedding, the at least one third embedding representing context, the knowledge graph including at least one entity for comprises the context, determining a fourth embedding, the fourth embedding representing a relation in the knowledge graph between the subject and the object, mapping the first embedding, the second embedding, the at least one third embedding and de r fourth embedding with an encoder on a fifth embedding, whereby the fifth embedding represents the subject in a second instance, determining a score depending on the second embedding, the fourth embedding and the fifth embedding, the score being a plausibility for the relation of the Subject represented with the object in context at the second instance.

Vorteilhafterweise ist der mindestens eine Prozessor dazu ausgelegt, eine Vorrichtung in Abhängigkeit von der Relation des Subjekts zum Objekt im Kontext bei der zweiten Instanz zu betreiben, wenn der Score eine Bedingung erfüllt, und andernfalls die Vorrichtung in Abhängigkeit von der Relation des Subjekts zum Objekt im Kontext bei der zweiten Instanz nicht zu betreiben, wobei die Vorrichtung eine computergesteuerte Maschine ist, insbesondere ein Roboter, ein Fahrzeug, ein Haushaltsgerät, ein Elektrowerkzeug, eine Fertigungsmaschine, ein persönlicher Assistent oder ein Zugangskontrollsystem.The at least one processor is advantageously designed to operate a device as a function of the relation of the subject to the object in the context of the second instance if the score fulfills a condition, and otherwise the device as a function of the relation of the subject to the object in the Context not to operate at the second instance, wherein the device is a computer-controlled machine, in particular a robot, a vehicle, a household appliance, an electric tool, a manufacturing machine, a personal assistant or an access control system.

Die Vorrichtung stellt zeitlich kontextualisierte Wissensgraphenfakten als eine Modellierungsvorlage für situationsspezifische Informationen in einem Wissensgraphen zur Verfügung. Dies fügt einem bestehenden statischen Wissensgraphen eine zeitliche Abfolge von Hyper-Edges hinzu, das heißt zeitgestempelte Subjekt-Relation-Objekt-Tripel, wobei die Relation n-är ist, um n kontextualisierende Faktoren zu erfassen. Die Vorrichtung stellt ein Deep-Learning-Framework zur Verfügung, das statische globale Entitäts- und Relationseinbettungen in zeitlich kontextualisierte Einbettungen transformiert, wenn entsprechende zeitlich kontextualisierte Wissensgraphenfakten vorliegen.The device provides temporally contextualized knowledge graph facts as a modeling template for situation-specific information in a knowledge graph. This adds a time sequence of hyper-edges to an existing static knowledge graph, i.e. time-stamped subject-relation-object triples, the relation being n-ary in order to capture n contextualizing factors. The device provides a deep learning framework that static global entity and relation embeddings are transformed into temporally contextualized embeddings, if corresponding temporally contextualized knowledge graph facts are available.

Die Vorrichtung kann mindestens einen Sensor und/oder eine Schnittstelle für Sensordaten umfassen, wobei zum Betreiben der Vorrichtung der mindestens eine Prozessor dafür ausgelegt ist, Daten, insbesondere Sensordaten, die Audiodaten, Bilddaten, Videodaten, Radardaten, Lidardaten und/oder Metadaten umfassen, zu empfangen, wobei die Daten Informationen über das Subjekt, das Objekt und den Kontext in der ersten Instanz umfassen, und in Abhängigkeit von der Relation des Subjekts zum Objekt im Kontext bei der zweiten Instanz eine Klassifizierung der Daten insbesondere für eine Ortsempfehlung, eine Ereignisvorhersage und/oder eine Fahrszenenklassifizierung zu bestimmen, wenn der Score die Bedingung erfüllt, oder andernfalls die Daten in Abhängigkeit von der Relation des Subjekts zum Objekt im Kontext bei der zweiten Instanz nicht zu klassifizieren, und dann die Vorrichtung in Abhängigkeit von der Klassifizierung zu betreiben.The device can comprise at least one sensor and / or an interface for sensor data, the at least one processor being designed to operate the device to supply data, in particular sensor data, which include audio data, image data, video data, radar data, lidar data and / or metadata received, wherein the data includes information about the subject, the object and the context in the first instance, and depending on the relation of the subject to the object in the context in the second instance a classification of the data in particular for a location recommendation, an event prediction and / or to determine a driving scene classification if the score meets the condition, or otherwise not to classify the data depending on the relation of the subject to the object in the context at the second instance, and then to operate the device depending on the classification.

Der mindestens eine Prozessor kann zum Abrufen der ersten Einbettung aus der Wissensgrapheneinbettung ausgelegt sein.The at least one processor can be designed to retrieve the first embedding from the knowledge graph embedding.

Zum Bestimmen der ersten Einbettung kann der mindestens eine Prozessor dafür ausgelegt sein, eine Einbettung zu bestimmen, die das Subjekt in einer Instanz vor der ersten Instanz repräsentiert, und eine Einbettung aus der Wissensgrapheneinbettung, die ein Objekt im Wissensgraphen repräsentiert, mindestens eine Einbettung aus der Wissensgrapheneinbettung, die den Kontext repräsentiert, und eine Einbettung, die eine Relation im Wissensgraphen zwischen dem Subjekt und dem Objekt repräsentiert, mit einem Encoder auf die erste Einbettung abzubilden.To determine the first embedding, the at least one processor can be designed to determine an embedding that represents the subject in an instance before the first instance, and an embedding from the knowledge graph embedding that represents an object in the knowledge graph, at least one embedding from the Knowledge graph embedding, which represents the context, and an embedding, which represents a relation in the knowledge graph between the subject and the object, to be mapped onto the first embedding with an encoder.

Der mindestens eine Prozessor kann dafür ausgelegt sein, entweder die Einbettung, die das Subjekt in der Instanz vor der ersten Instanz repräsentiert, aus der Wissensgrapheneinbettung abzurufen oder indem er die Einbettung, die das Subjekt in einer Instanz vor der ersten Instanz repräsentiert, in Abhängigkeit von einer Einbettung bestimmt, die das Subjekt repräsentiert und die aus der Wissensgrapheneinbettung abgerufen wird.The at least one processor can be designed to either retrieve the embedding that the subject represents in the instance before the first instance from the knowledge graph embedding or by retrieving the embedding that the subject represents in an instance before the first instance, depending on an embedding determined which represents the subject and which is retrieved from the knowledge graph embedding.

Der mindestens eine Prozessor kann dafür ausgelegt sein, Trainingsdaten bereitzustellen, die das Subjekt, ein Referenzobjekt und eine Referenzrelation umfassen, wobei die Referenzrelation das Subjekt und das Referenzobjekt in einem Referenzkontext in Relation setzt, und den Encoder mit einer Backpropagation einer Abweichung zwischen dem Objekt und dem Referenzobjekt und/oder einer Abweichung zwischen der Relation und der Referenzrelation zu trainieren.The at least one processor can be designed to provide training data that include the subject, a reference object and a reference relation, the reference relation relating the subject and the reference object in a reference context, and the encoder with a backpropagation of a deviation between the object and to train the reference object and / or a deviation between the relation and the reference relation.

Der mindestens eine Prozessor kann dafür ausgelegt sein, die erste Einbettung, die zweite Einbettung, die mindestens eine dritte Einbettung und die vierte Einbettung in einem ersten Teil des Encoders auf eine Repräsentation der ersten Einbettung, eine Repräsentation der zweiten Einbettung, eine Repräsentation der mindestens einen dritten Einbettung und eine Repräsentation der vierten Einbettung abzubilden und die Repräsentation der ersten Einbettung, die Repräsentation der zweiten Einbettung, die Repräsentation der mindestens einen dritten Einbettung und die Repräsentation der vierten Einbettung in einem zweiten Teil des Encoders auf die fünfte Einbettung abzubilden.The at least one processor can be designed to set the first embedding, the second embedding, the at least one third embedding and the fourth embedding in a first part of the encoder to a representation of the first embedding, a representation of the second embedding, a representation of the at least one to map the third embedding and a representation of the fourth embedding and to map the representation of the first embedding, the representation of the second embedding, the representation of the at least one third embedding and the representation of the fourth embedding in a second part of the encoder on the fifth embedding.

Der mindestens eine Prozessor kann dafür ausgelegt sein, die erste Einbettung, die zweite Einbettung, die mindestens eine dritte Einbettung und die vierte Einbettung mit mindestens einer Self-Attention-Schicht im ersten Teil des Encoders abzubilden.The at least one processor can be designed to map the first embedding, the second embedding, the at least one third embedding and the fourth embedding with at least one self-attention layer in the first part of the encoder.

Der mindestens eine Prozessor kann dafür ausgelegt sein, die Repräsentation der ersten Einbettung, die Repräsentation der zweiten Einbettung, die Repräsentation der mindestens einen dritten Einbettung und die Repräsentation der vierten Einbettung mit mindestens einer Attention Layer im zweiten Teil des Encoders abzubilden.The at least one processor can be designed to map the representation of the first embedding, the representation of the second embedding, the representation of the at least one third embedding and the representation of the fourth embedding with at least one attention layer in the second part of the encoder.

Weitere vorteilhafte Ausführungsformen ergeben sich aus der folgenden Beschreibung und den Zeichnungen. Zeichnungen:

  • 1 stellt zumindest einen Teil einer Vorrichtung zum Verarbeiten einer Wissensgrapheneinbettung schematisch dar,
  • 2 stellt schematisch einen Wissensgraphen dar,
  • 3 stellt schematisch eine Abfolge von Encodern dar,
  • 4 zeigt Schritte in einem Verfahren zum Verarbeiten der Wissensgrapheneinbettung.
Further advantageous embodiments emerge from the following description and the drawings. Drawings:
  • 1 represents at least part of a device for processing a knowledge graph embedding schematically,
  • 2 shows schematically a knowledge graph,
  • 3 shows schematically a sequence of encoders,
  • 4th Figure 12 shows steps in a method for processing knowledge graph embedding.

1 zeigt schematisch zumindest einen Teil einer Vorrichtung 100 zum Verarbeiten einer Wissensgrapheneinbettung 102. Die Vorrichtung 100 umfasst mindestens einen Prozessor 104 und mindestens einen Encoder 106. Der mindestens eine Prozessor 104 und der mindestens eine Encoder 106 sind zum Ausführen von Schritten in einem nachfolgend beschriebenen Verfahren ausgelegt. Die Vorrichtung 100 ist für den Betrieb einer Vorrichtung 108 ausgelegt. 1 shows schematically at least part of a device 100 for processing a knowledge graph embedding 102 . The device 100 includes at least one processor 104 and at least one encoder 106 . The at least one processor 104 and the at least one encoder 106 are designed to perform steps in a method described below. The device 100 is for the operation of a device 108 designed.

Die Vorrichtung 108 im nachfolgend beschriebenen Beispiel ist eine computergesteuerte Maschine. In einem nachfolgend beschriebenen Beispiel ist die Vorrichtung 108 ein Fahrzeug.The device 108 the example described below is a computer controlled Machine. In an example described below, the device is 108 a vehicle.

Die Vorrichtung 108 kann ein Roboter, ein Haushaltsgerät, ein Elektrowerkzeug, eine Fertigungsmaschine, ein persönlicher Assistent oder auch ein Zugangskontrollsystem sein.The device 108 can be a robot, a household appliance, a power tool, a production machine, a personal assistant or an access control system.

Die Vorrichtung 108 in diesem Beispiel umfasst mindestens einen Sensor 110. Die Vorrichtung 100 im Beispiel umfasst eine Schnittstelle 112 für Sensordaten, die vom mindestens einen Sensor 110 empfangen werden. Die Vorrichtung 108 in diesem Beispiel umfasst mindestens einen Aktuator 114. Die Schnittstelle 112 im Beispiel ist für das Empfangen der Sensordaten und für das Senden von Anweisungen zum Betreiben des mindestens einen Aktuators 114 ausgelegt.The device 108 in this example comprises at least one sensor 110 . The device 100 in the example includes an interface 112 for sensor data received from at least one sensor 110 be received. The device 108 in this example comprises at least one actuator 114 . the interface 112 in the example is for receiving the sensor data and for sending instructions for operating the at least one actuator 114 designed.

Die Vorrichtung 100 umfasst eine Datenverbindung 116, die zumindest zeitweise den mindestens einen Prozessor 104 mit dem Speicher der Wissensgrapheneinbettung 102, den mindestens einen Encoder 106 und die Schnittstelle 112 verbindet. Die Schnittstelle 112 im Beispiel ist über eine Datenverbindung 118 mit dem Sensor 110 und über eine Datenverbindung 120 mit dem Aktuator 114 verbunden.The device 100 includes a data connection 116 that at least temporarily use the at least one processor 104 with the memory of the knowledge graph embedding 102 , the at least one encoder 106 and the interface 112 connects. the interface 112 in the example is via a data connection 118 with the sensor 110 and via a data connection 120 with the actuator 114 tied together.

Ein Wissensgraph 200, der in der Wissensgrapheneinbettung 102 codiert ist, wird mit Bezug auf 2 beschrieben.A knowledge graph 200 , which is embedded in the knowledge graph 102 is coded is with reference to 2 described.

Der Wissensgraph 200 umfasst eine Entität 202 für ein Subjekt. Das Subjekt im Beispiel ist das Fahrzeug. Der Wissensgraph 200 umfasst eine Entität 204 für ein Objekt. Das Objekt im Beispiel ist ein Fußgänger. Der Wissensgraph 200 umfasst mindestens eine Entität 206, die Kontext repräsentiert. Der Kontext im Beispiel umfasst ein oder mehrere Verkehrszeichen. In einer ersten Instanz 208, die auf der linken Seite von 2 dargestellt ist, umfasst der Wissensgraph 200 eine erste Relation 210 zwischen dem Subjekt und dem Objekt. In einer zweiten Instanz 212, die auf der rechten Seite von 2 dargestellt ist, umfasst der Wissensgraph 200 eine zweite Relation 214 zwischen dem Subjekt und dem Objekt.The knowledge graph 200 includes an entity 202 for a subject. The subject in the example is the vehicle. The knowledge graph 200 includes an entity 204 for an object. The object in the example is a pedestrian. The knowledge graph 200 includes at least one entity 206 that represents context. The context in the example includes one or more traffic signs. In a first instance 208 that are on the left of 2 is illustrated includes the knowledge graph 200 a first relation 210 between the subject and the object. In a second instance 212 that are to the right of 2 is illustrated includes the knowledge graph 200 a second relation 214 between the subject and the object.

Die erste Relation 210 im Wissensgraphen 200 ist eine zeitliche Instanz eines kontextualisierten Wissensgraphenfakts, der eine erste Situation erfasst, in der sich das Subjekt zu einem Zeitpunkt t=1 befindet. Die zweite Relation 214 im Wissensgraphen 200 ist eine zeitliche Instanz eines kontextualisierten Wissensgraphenfakts, der eine zweite Situation erfasst, in der sich das Subjekt zu einem anderen Zeitpunkt t=2 befindet. The first relation 210 in the knowledge graph 200 is a temporal instance of a contextualized knowledge graph fact that captures a first situation in which the subject is at a point in time t = 1. The second relation 214 in the knowledge graph 200 is a temporal instance of a contextualized knowledge graph fact that captures a second situation in which the subject is at a different point in time t = 2.

Die zweite Situation zum Zeitpunkt t=2 ist ein Ergebnis eines Betriebs der Vorrichtung 108 in der ersten Situation zum Zeitpunkt t=1. Im Beispiel repräsentiert die erste Relation 210 die erste Situation des Fahrzeugs und des Fußgängers im Kontext in der ersten Instanz zum Zeitpunkt t=1. Die zweite Relation 214 repräsentiert die zweite Situation des Fahrzeugs und des Fußgängers im Kontext bei der zweiten Instanz zum Zeitpunkt t=2.The second situation at time t = 2 is a result of operating the device 108 in the first situation at time t = 1. In the example represents the first relation 210 the first situation of the vehicle and the pedestrian in context in the first instance at time t = 1. The second relation 214 represents the second situation of the vehicle and the pedestrian in the context of the second instance at time t = 2.

Die erste Situation und die zweite Situation können in einem Training dazu verwendet werden, den Encoder 106 dafür zu trainieren, die zweite Situation in Abhängigkeit von der ersten Situation vorherzusagen. Die erste Situation kann als Eingabe an einen bereits trainierten Encoder zum Vorhersagen der zweiten Situation gegeben werden.The first situation and the second situation can be used in a training to use the encoder 106 to train to predict the second situation depending on the first situation. The first situation can be given as input to an already trained encoder for predicting the second situation.

Die Vorrichtung 108 kann dazu betrieben werden, Trainingsdaten zu sammeln, die das Subjekt, ein Referenzobjekt und eine Referenzrelation umfassen, wobei die Referenzrelation das Subjekt und das Referenzobjekt in einem Referenzkontext in Relation setzt.The device 108 can be operated to collect training data comprising the subject, a reference object and a reference relation, the reference relation relating the subject and the reference object in a reference context.

Die Vorrichtung 108 kann in der ersten Situation gemäß einer Vorhersage der zweiten Situation betrieben werden, die die Relation zwischen dem Subjekt und dem Objekt im Kontext zum zweiten Zeitpunkt t=2 umfasst.The device 108 can be operated in the first situation according to a prediction of the second situation, which includes the relation between the subject and the object in the context at the second point in time t = 2.

Im Beispiel kann die Vorhersage ein Objekt im Wissensgraphen 200 bereitstellen, das angibt, in welche zweite Situation sich das Fahrzeug bewegen soll, unter der Voraussetzung, dass sich das Fahrzeug in der ersten Situation befindet.In the example, the prediction can be an object in the knowledge graph 200 provide that indicates the second situation in which the vehicle is to move, provided that the vehicle is in the first situation.

Im Beispiel kann die Vorhersage ein Objekt im Wissensgraphen 200 bereitstellen, das angibt, ob die zweite Situation eine gefährliche Situation ist oder nicht, unter der Voraussetzung, das sich das Fahrzeug in der ersten Situation befindet.In the example, the prediction can be an object in the knowledge graph 200 provide that indicates whether the second situation is a dangerous situation or not, provided that the vehicle is in the first situation.

Im Beispiel kann die Vorhersage ein Objekt im Wissensgraphen 200 bereitstellen, das angibt, ob das Fahrzeug Vorrang gewähren oder fahren soll, um in der zweiten Situation anzukommen, unter der Voraussetzung, dass sich das Fahrzeug in der ersten Situation befindet.In the example, the prediction can be an object in the knowledge graph 200 that indicates whether the vehicle should give priority or drive to arrive in the second situation, provided that the vehicle is in the first situation.

Die Wissensgrapheneinbettung 102 umfasst eine erste Einbettung e^s, die das Subjekt repräsentiert. Die Wissensgrapheneinbettung 102 umfasst eine zweite Einbettung e^o, die das Objekt repräsentiert. Die Wissensgrapheneinbettung 102 umfasst mindestens eine dritte Einbettung e^c1, ..., e^cnc, die Kontext repräsentiert. Die Wissensgrapheneinbettung 102 umfasst eine vierte Einbettung r, die eine Relation im Wissensgraphen 200 zwischen dem Subjekt und dem Objekt repräsentiert.The knowledge graph embedding 102 includes a first embedding e ^ s, which represents the subject. The knowledge graph embedding 102 includes a second embedding e ^ o, which represents the object. The knowledge graph embedding 102 includes at least a third embedding e ^ c1, ..., e ^ cnc, which represents context. The knowledge graph embedding 102 includes a fourth embedding r, which is a relation in the knowledge graph 200 represented between the subject and the object.

Im Beispiel ist das Subjekt das gleiche, in einer Folge von Zeitinstanzen ti. Das Objekt, die Relation und der Kontext können sich von einer Zeitinstanz ti zu einer anderen Zeitinstanz ti+1 ändern.In the example the subject is the same, in a sequence of time instances ti. The object that Relation and context can change from one time instance ti to another time instance ti + 1.

Der mindestens eine Prozessor 104 ist dafür ausgelegt, die erste Einbettung e^s, die zweite Einbettung e^o, die mindestens eine dritte Einbettung e^c1, ..., e^cnc und die vierte Einbettung r mit dem mindestens einen Encoder 106 auf eine fünfte Einbettung abzubilden, die das Subjekt repräsentiert. Die fünfte Einbettung umfasst Historie.The at least one processor 104 is designed for the first embedding e ^ s, the second embedding e ^ o, the at least one third embedding e ^ c1, ..., e ^ cnc and the fourth embedding r with the at least one encoder 106 to be mapped onto a fifth embedding that represents the subject. The fifth embedding includes history.

3 stellt zumindest einen Teil einer Abfolge von Encodern 106 schematisch dar. Der Encoder 106 kann eine rekurrente Architektur und eine eingeschränkte mehrköpfige Self-Attention-Schicht umfassen. Diese können dazu genutzt werden, eine relationale Struktur von zeitlich kontextualisierten Wissensgraphenfakten während der Trainingszeit zu erzwingen. Der Encoder 106 umfasst einen neuronalen Encoder-Stack mit einer Rückkopplungsschleife und eingeschränkten mehrköpfigen Self-Attention-Schichten. Der Encoder 106 ist dafür ausgelegt ist, globale Wissensgrapheneinbettung in benutzerdefinierte Einbettungen zu transformieren, unter Berücksichtigung von situationsspezifischen Faktoren der Relation und der subjektiven Historie der Entität, die das Subjekt repräsentiert. 3 represents at least part of a sequence of encoders 106 schematically. The encoder 106 may include a recurrent architecture and a restricted multi-person self-attention layer. These can be used to enforce a relational structure of temporally contextualized knowledge graph facts during the training period. The encoder 106 comprises a neural encoder stack with a feedback loop and limited multi-headed self-attention layers. The encoder 106 is designed to transform global knowledge graph embeddings into user-defined embeddings, taking into account situation-specific factors of the relation and the subjective history of the entity that the subject represents.

Der Encoder 106 ist für kontextualisierte Einbettungen für nachgelagerte Wissensgraphaufgaben wie Link-Vorhersage für Ortsempfehlungen, Ereignisvorhersage oder Fahrszenenklassifizierung ausgelegt.The encoder 106 is designed for contextualized embedding for downstream knowledge graph tasks such as link prediction for location recommendations, event prediction or driving scene classification.

Der mindestens eine Prozessor 104 ist dafür ausgelegt, die erste Einbettung e^s, die zweite Einbettung e^o, die mindestens eine dritte Einbettung e^c1, ..., e^cnc und die vierte Einbettung r in einem ersten Teil des Encoders auf eine Repräsentation der ersten Einbettung, eine Repräsentation der zweiten Einbettung, eine Repräsentation der mindestens einen dritten Einbettung und eine Repräsentation der vierten Einbettung abzubilden.The at least one processor 104 is designed for the first embedding e ^ s, the second embedding e ^ o, the at least one third embedding e ^ c1, ..., e ^ cnc and the fourth embedding r in a first part of the encoder on a representation of the first Embedding, a representation of the second embedding, a representation of the at least one third embedding and a representation of the fourth embedding to be mapped.

Der mindestens eine Prozessor 104 ist dafür ausgelegt, die Repräsentation der ersten Einbettung, die Repräsentation der zweiten Einbettung, die Repräsentation der mindestens einen dritten Einbettung und die Repräsentation der vierten Einbettung in einem zweiten Teil des Encoders auf die fünfte Einbettung abzubilden.The at least one processor 104 is designed to map the representation of the first embedding, the representation of the second embedding, the representation of the at least one third embedding and the representation of the fourth embedding in a second part of the encoder on the fifth embedding.

Der mindestens eine Prozessor 104 ist dafür ausgelegt, bei einer Instanz ti+1 mit mindestens einer Self-Attention-Schicht 302 im ersten Teil des Encoders 106 einen ersten Eingang 302-1 des Encoders 106, der die erste Einbettung e^s_ti einer vorherigen Instanz ti umfasst, einen zweiten Eingang 302-2 des Encoders 106, der die zweite Einbettung e^o_ti+1 umfasst, einen dritten Eingang 302-3 des Encoders 106, der die mindestens eine dritte Einbettung e^c1, ..., e^cnc; e^c1_ti+1, ..., e^cnc_ti+1 umfasst, und einen vierten Eingang 302-4 des Encoders 106, der die vierte Einbettung r^c_ti+1 dieser Instanz ti+1 umfasst, abzubilden. Im Beispiel werden der erste Eingang 302-1, der zweite Eingang 302-2, der dritte Eingang 302-3 und der vierte Eingang 302-4 auf einen ersten Ausgang 302-5, einen zweiten Ausgang 302-6, den dritten Ausgang 302-7 und einen vierten Ausgang 302-8 abgebildet.The at least one processor 104 is designed for an instance ti + 1 with at least one self-attention layer 302 in the first part of the encoder 106 a first entrance 302-1 of the encoder 106 , which includes the first embedding e ^ s_ti of a previous instance ti, a second input 302-2 of the encoder 106 , which comprises the second embedding e ^ o_ti + 1, a third input 302-3 of the encoder 106 , which contains the at least one third embedding e ^ c1, ..., e ^ cnc; e ^ c1_ti + 1, ..., e ^ cnc_ti + 1, and a fourth input 302-4 of the encoder 106 , which includes the fourth embedding r ^ c_ti + 1 of this instance ti + 1. In the example the first input 302-1 , the second entrance 302-2 , the third entrance 302-3 and the fourth entrance 302-4 to a first exit 302-5 , a second exit 302-6 , the third exit 302-7 and a fourth exit 302-8 pictured.

Der mindestens eine Prozessor 104 ist dafür ausgelegt, bei der Instanz ti+1 mit mindestens einer Attention-Schicht 304 im zweiten Teil des Encoders 106 die Repräsentation der ersten Einbettung an einem ersten Eingang 304-1 der mindestens einen Attention-Schicht 304, die Repräsentation der zweiten Einbettung an einem zweiten Eingang 304-2 der mindestens einen Attention-Schicht 304, die Repräsentation der mindestens einen dritten Einbettung an einem dritten Eingang 304-3 der mindestens einen Attention-Schicht 304 und die Repräsentation der vierten Einbettung an einem vierten Eingang 304-4 der mindestens einen Attention-Schicht 304 auf einen ersten Ausgang 304-5 des Encoders 106, der die fünfte Einbettung umfasst, abzubilden.The at least one processor 104 is designed for the instance ti + 1 with at least one attention layer 304 in the second part of the encoder 106 the representation of the first embedding at a first input 304-1 the at least one attention layer 304 , the representation of the second embedding at a second input 304-2 the at least one attention layer 304 , the representation of the at least one third embedding at a third input 304-3 the at least one attention layer 304 and the representation of the fourth embedding at a fourth input 304-4 the at least one attention layer 304 to a first exit 304-5 of the encoder 106 , which includes the fifth embedding.

Der mindestens eine Prozessor 104 kann dafür ausgelegt sein, einen Score f in Abhängigkeit vom ersten Ausgang 304-5 und dem zweiten Eingang 302-2 und dem vierten Eingang 302-4 des Encoders 106 zu bestimmen. Das heißt, der Score f wird aus der Repräsentation des Subjekts e^s_ti+1 der Instanz ti+1 und der Einbettung des Objekts e^o_ti+1, die für die Instanz ti+1 eingegeben wird, und der Relation r des Subjekts e^s und des Objekts e^o_ti+1 im Wissensgraphen 200 bestimmt.The at least one processor 104 can be designed to have a score f depending on the first outcome 304-5 and the second entrance 302-2 and the fourth entrance 302-4 of the encoder 106 to determine. That is, the score f is derived from the representation of the subject e ^ s_ti + 1 of the instance ti + 1 and the embedding of the object e ^ o_ti + 1, which is entered for the instance ti + 1, and the relation r of the subject e ^ s and the object e ^ o_ti + 1 in the knowledge graph 200 certainly.

Optional ist der mindestens eine Prozessor 104 dafür ausgelegt, bei der Instanz ti+1 mit der mindestens einen Attention-Schicht 304 im zweiten Teil des Encoders 106 die Repräsentation der ersten Einbettung am ersten Eingang 304-1 der mindestens einen Attention-Schicht 304, die Repräsentation der zweiten Einbettung am zweiten Eingang 304-2 der mindestens einen Attention-Schicht 304, die Repräsentation der mindestens einen dritten Einbettung am dritten Eingang 304-3 der mindestens einen Attention-Schicht 304 und die Repräsentation der vierten Einbettung am vierten Eingang 304-4 der mindestens einen Attention-Schicht 304 auf einen zweiten Ausgang 304-6 des Encoders 106, der eine kontextualisierte Relation umfasst, abzubilden.The at least one processor is optional 104 designed for the instance ti + 1 with the at least one attention layer 304 in the second part of the encoder 106 the representation of the first embedding at the first entrance 304-1 the at least one attention layer 304 , the representation of the second embedding at the second input 304-2 the at least one attention layer 304 , the representation of the at least one third embedding at the third input 304-3 the at least one attention layer 304 and the representation of the fourth embedding at the fourth input 304-4 the at least one attention layer 304 to a second exit 304-6 of the encoder 106 , which includes a contextualized relation.

Der mindestens eine Prozessor 104 kann dafür ausgelegt sein, den Score f in Abhängigkeit vom zweiten Ausgang 304-6 des Encoders 106 anstelle des vierten Eingangs 302-4 des Encoders 106 zu bestimmen. Das bedeutet, dass der Score f aus der kontextualisierten Relation r^c_ti+1 zwischen dem Subjekt e^s und dem Objekt e^o_ti+1 der Instanz ti+1 bestimmt wird.The at least one processor 104 can be designed to determine the score f as a function of the second outcome 304-6 of the encoder 106 instead of the fourth entrance 302-4 of the encoder 106 to determine. This means that the score f from the contextualized relation r ^ c_ti + 1 between the Subject e ^ s and the object e ^ o_ti + 1 of the instance ti + 1 is determined.

Eine Abfolge von Encodern 106 kann zum Vorhersagen verwendet werden.A sequence of encoders 106 can be used for forecasting.

Der erste Eingang 302-1 des Encoders 106, der zum Abbilden bei der Instanz ti+1 verwendet wird, kann aus dem ersten Ausgang 304-5 des Encoders bestimmt werden, der zum Abbilden bei der vorherigen Instanz ti verwendet wird. Die erste Eingabe 302-1 des Encoders 106, der zum Abbilden bei der Instanz ti verwendet wird, kann die Einbettung des Subjekts sein, die aus der Wissensgrapheneinbettung 102 abgerufen wird, oder kann die erste Ausgabe eines anderen Encoders 106 sein. Im Beispiel ist die erste Eingabe 302-1 für den ersten Encoder 106, der in der Abfolge der Encoder 106 verwendet wird, die Codierung des Subjekts, die aus der Wissensgrapheneinbettung abgerufen wird.The first entrance 302-1 of the encoder 106 , which is used for mapping in the instance ti + 1, can be obtained from the first output 304-5 of the encoder used for mapping at the previous instance ti. The first input 302-1 of the encoder 106 , which is used for mapping in the instance ti, can be the embedding of the subject that is derived from the knowledge graph embedding 102 or can be the first output of another encoder 106 be. In the example, the first entry is 302-1 for the first encoder 106 that is in the sequence of the encoder 106 is used, the coding of the subject obtained from the knowledge graph embedding.

Der mindestens eine Prozessor 104 kann dafür ausgelegt sein, den Score für den letzten Encoder 106 in der Abfolge zu bestimmen. Für das Training der Encoder 106 der Abfolge kann der Score f für die einzelnen Encoder 106 bestimmt werden.The at least one processor 104 can be designed to get the score for the final encoder 106 to be determined in the sequence. For training the encoder 106 the sequence can be the score f for the individual encoder 106 to be determined.

Der Wissensgraph 200 umfasst KG-Fakten, die im Beispiel als ein Tripel (e^s, r, e^o) definiert sind, wobei e^s, e^o ∈ {e^1, ..., e^ne} Einbettungen für eine Menge von ne Entitätsinstanzen und r ∈ {r1, ..., m} Einbettungen für eine Menge von m Relationstypen sind.The knowledge graph 200 includes KG facts that are defined as a triple (e ^ s, r, e ^ o) in the example, where e ^ s, e ^ o ∈ {e ^ 1, ..., e ^ ne} embeddings for a Set of ne entity instances and r ∈ {r1, ..., m} embeddings for a set of m relation types.

KG-Fakten stellen Subjekt-Prädikat-Objekt-Aussagen dar, die als statisches und stabiles Hintergrundwissen vorausgesetzt werden.KG facts represent subject-predicate-object statements that are assumed as static and stable background knowledge.

Im Beispiel sind tKG-Fakten als Quadrupel (e^s, r, e^o, ti) definiert, wobei ti ∈ N einen Punkt in einer Folge t1, ..., tn angibt, an dem der Fakt aufgetreten ist. In einem exemplarischen Szenario wird ti aus der Diskretisierung von Zeitstempeln gewonnen und erzeugt so eine global geordnete Menge von Fakten, wobei n die Gesamtzahl der Zeitpunkte ist.In the example, tKG facts are defined as quadruples (e ^ s, r, e ^ o, ti), where ti ∈ N indicates a point in a sequence t1, ..., tn at which the fact occurred. In an exemplary scenario, ti is obtained from the discretization of time stamps and thus generates a globally ordered set of facts, where n is the total number of times.

KG-Fakten ohne zeitliche Dimension werden für beliebige t als wahr angesehen.KG facts without a time dimension are considered true for any t.

Im Beispiel sind cKG-Fakten als (n + 1)-Tupel (e^s, r^c, e^o, e^c1 , ..., e^c_nc) definiert, die es erlauben, Kontext als nc-äre Relation zu modellieren, wobei e^c1 , ..., e^c_nc Einbettungen von nc Kontextentitäten sind, die eine Relation zwischen einem durch die Einbettung e^s repräsentierten Subjekt und einem durch die Einbettung e^o repräsentierten Objekt beeinflussen. Die Relation wird durch eine Einbettung r^c repräsentiert.In the example, cKG facts are defined as (n + 1) tuples (e ^ s, r ^ c, e ^ o, e ^ c1, ..., e ^ c_nc), which allow context to be nc-are To model relation, where e ^ c1, ..., e ^ c_nc are embeddings of nc context entities which influence a relation between a subject represented by the embedding e ^ s and an object represented by the embedding e ^ o. The relation is represented by an embedding r ^ c.

Wie bei KG-Fakten werden cKG-Fakten als nicht-dynamisches Hintergrundwissen zu einer aktuellen Situation betrachtet.As with KG facts, cKG facts are viewed as non-dynamic background knowledge of a current situation.

Im Beispiel sind tcKG-Fakten (n+2)-Tupel (e^s, r^c, e^o, ti, e^c_1, ..., e^c_nc), die sequentiell kontextualisierte KG-Fakten repräsentieren, indem sie die Merkmale von tKGs und cKGs kombinieren. tcKG-Fakten erfassen eine spezifische Situation, in der sich das durch die Einbettung e^s repräsentierte Subjekt zum Zeitpunkt ti befindet. Die Einbettungen e^c_1, ..., e^c_nc repräsentieren Einflussfaktoren, das heißt Kontext, auf die Relation des durch die Einbettung e^s repräsentierten Subjekts auf das durch die Einbettung e^o repräsentierte Objekt.In the example, tcKG facts are (n + 2) tuples (e ^ s, r ^ c, e ^ o, ti, e ^ c_1, ..., e ^ c_nc) that represent sequentially contextualized KG facts by they combine the features of tKGs and cKGs. tcKG facts capture a specific situation in which the subject represented by the embedding e ^ s is at the time ti. The embeddings e ^ c_1, ..., e ^ c_nc represent influencing factors, i.e. context, on the relation of the subject represented by the embedding e ^ s to the object represented by the embedding e ^ o.

4 zeigt Schritte in einem Verfahren zum Verarbeiten der Wissensgrapheneinbettung. Im Beispiel ist die Vorrichtung 100 zum Ausführen des Verfahrens ausgelegt. 4th Figure 12 shows steps in a method for processing knowledge graph embedding. In the example is the device 100 designed to carry out the method.

Das Verfahren wird zum Beispiel in Instanzen ti wiederholt, die während des Betriebs der Vorrichtung 108 ausgeführt werden. Das Verfahren umfasst das Empfangen von Daten. Im Beispiel werden Sensordaten empfangen, die Audiodaten, Bilddaten, Videodaten, Radardaten, Lidardaten und/oder Metadaten umfassen. Die Daten umfassen Informationen über das Subjekt, das Objekt und den Kontext in Instanzen ti.The method is repeated, for example, in instances ti that occur during the operation of the device 108 are executed. The method includes receiving data. In the example, sensor data is received that includes audio data, image data, video data, radar data, lidar data and / or metadata. The data includes information about the subject, the object and the context in instances ti.

Das Verfahren umfasst einen Schritt 402. Im Schritt 402 wird die erste Einbettung e^s_t1 in der ersten Instanz t1 aus der Wissensgrapheneinbettung 102 abgerufen.The method comprises one step 402 . In step 402 becomes the first embedding e ^ s_t1 in the first instance t1 from the knowledge graph embedding 102 retrieved.

Die Einbettungen, die aus der Wissensgrapheneinbettung 102 in der ersten Instanz abgerufen werden, können zur Vorhersage für die zweite Instanz oder zum Training des Encoders 106 für diese Vorhersage verwendet werden. Im Beispiel wird eine bereits trainierte Abfolge von Encodern 106 beschrieben. Das Training wird im Folgenden beschrieben.The embeddings that result from the knowledge graph embedding 102 retrieved in the first instance can be used for prediction for the second instance or to train the encoder 106 can be used for this prediction. In the example, an already trained sequence of encoders 106 described. The training is described below.

Bei einer nc-ären Relation r^c ist eine an r^c beteiligte Entität im Beispiel definiert als das durch die Einbettung e^s repräsentierte Subjekt, dessen Perspektive in Bezug auf ein durch die Einbettung e^o repräsentiertes Objekt repräsentiert wird.In the case of an nc-ary relation r ^ c, an entity involved in r ^ c is defined in the example as the subject represented by the embedding e ^ s, whose perspective is represented in relation to an object represented by the embedding e ^ o.

Die Kontexte sind durch die übrigen an der nc-ären Relation r^c beteiligten Entitäten gegeben und werden durch Einbettungen c^1, ..., c^nc repräsentiert.The contexts are given by the other entities involved in the nc-ary relation r ^ c and are represented by embeddings c ^ 1, ..., c ^ nc.

Der Kontext definiert die Einflussfaktoren in einer konkreten Situation.The context defines the influencing factors in a specific situation.

Danach umfasst das Verfahren das Verarbeiten der Wissensgrapheneinbettung 102 mit der Abfolge von Encodern 106 in n-1 Instanzen t2, ..., tn. Eine Instanz wird im Folgenden beschrieben, die anderen Instanzen werden auf die gleiche Weise unter Verwendung der Ausgabe der vorherigen Instanz verarbeitet.Thereafter, the method includes processing the knowledge graph embedding 102 with the Sequence of encoders 106 in n-1 instances t2, ..., tn. One instance is described below, the other instances are processed in the same way using the output of the previous instance.

Ein Schritt 404 umfasst das Bestimmen der ersten Einbettung e^s_ti, wobei die erste Einbettung e^s_ti das Subjekt bei einer ersten Instanz ti repräsentiert.A step 404 comprises determining the first embedding e ^ s_ti, the first embedding e ^ s_ti representing the subject at a first instance ti.

Das Bestimmen der ersten Einbettung e^s_ti kann das Bestimmen einer Einbettung e^s_ti-1 umfassen, die das Subjekt in einer Instanz ti-1 vor der ersten Instanz ti repräsentiert. Das Bestimmen der ersten Einbettung e^s_ti kann das Abbilden einer Einbettung aus der Wissensgrapheneinbettung 102, die ein Objekt im Wissensgraphen 200 repräsentiert, mindestens einer Einbettung aus der Wissensgrapheneinbettung 102, die Kontext repräsentiert, und einer Einbettung, die eine Relation im Wissensgraphen 200 zwischen dem Subjekt und dem Objekt repräsentiert, mit dem Encoder 106 auf die erste Einbettung e^s_ti umfassen.Determining the first embedding e ^ s_ti can include determining an embedding e ^ s_ti-1 which represents the subject in an instance ti-1 before the first instance ti. The determination of the first embedding e ^ s_ti can be the mapping of an embedding from the knowledge graph embedding 102 that is an object in the knowledge graph 200 represents, at least one embedding from the knowledge graph embedding 102 , which represents context, and an embedding, which is a relation in the knowledge graph 200 represented between the subject and the object, with the encoder 106 on the first embedding include e ^ s_ti.

Ein Schritt 406 umfasst das Abrufen einer zweiten Einbettung aus der Wissensgrapheneinbettung 102, wobei die zweite Einbettung ein Objekt im Wissensgraphen 200 repräsentiert.A step 406 includes retrieving a second embedding from the knowledge graph embedding 102 , the second embedding an object in the knowledge graph 200 represents.

Je nach Anwendungsfall kann die gleiche Einbettung e^o in den Instanzen t1, ..., tn verwendet werden oder es können unterschiedliche Einbettungen e^o_ti in mehreren oder einer beliebigen der Instanzen t1, ..., tn abgerufen werden. Im Beispiel repräsentiert die Einbettung e^s für das Subjekt das Fahrzeug und die Einbettung e^o für das Objekt den Fußgänger. Im Beispiel wird die gleiche Einbettung e^o für das gleiche Objekt in den Instanzen t1, ..., tn verwendet.Depending on the application, the same embedding e ^ o can be used in the instances t1, ..., tn or different embeddings e ^ o_ti can be called up in several or any of the instances t1, ..., tn. In the example, the embedding e ^ s for the subject represents the vehicle and the embedding e ^ o for the object represents the pedestrian. In the example, the same embedding e ^ o is used for the same object in the instances t1, ..., tn.

Ein Schritt 408 umfasst das Abrufen von mindestens einer dritten Einbettung aus der Wissensgrapheneinbettung 102, wobei die mindestens eine dritte Einbettung Kontext repräsentiert.A step 408 comprises retrieving at least a third embedding from the knowledge graph embedding 102 , wherein the at least one third embedding represents context.

Je nach Anwendungsfall können die gleichen Einbettungen e^c1, ..., e^cnc in den Instanzen t1, ..., tn verwendet werden oder es können unterschiedliche Einbettungen e^c1_ti, ..., e^cnc_ti in mehreren oder einer beliebigen der Instanzen t1, ..., tn abgerufen werden. Im Beispiel ändert sich der Kontext in den Instanzen.Depending on the application, the same embeddings e ^ c1, ..., e ^ cnc can be used in the instances t1, ..., tn or different embeddings e ^ c1_ti, ..., e ^ cnc_ti can be used in several or one any of the instances t1, ..., tn can be called up. In the example, the context changes in the instances.

Falls vorhanden, kann der Kontext um Entitäten erweitert werden, die deterministisch von dem durch die Einbettung e^o repräsentierten Objekt abhängen. Nicht-deterministisch abhängiger Kontext des durch die Einbettung e^o repräsentierten Objekts oder Kontext oder Fakten, die nicht nur für einen gewissen Zeitpunkt ti spezifisch sind, dürfen nicht explizit modelliert werden.If present, the context can be expanded to include entities that depend deterministically on the object represented by the embedding e ^ o. Non-deterministically dependent context of the object represented by the embedding e ^ o or context or facts that are not only specific for a certain point in time ti must not be explicitly modeled.

Ein Schritt 410 umfasst das Bestimmen einer vierten Einbettung, wobei die vierte Einbettung eine Relation im Wissensgraphen 200 zwischen dem Subjekt und dem Objekt repräsentiert. Im Beispiel wird die gleiche Einbettung r in den Instanzen t1, ..., tn verwendet.A step 410 comprises determining a fourth embedding, the fourth embedding being a relation in the knowledge graph 200 represented between the subject and the object. In the example, the same embedding r is used in the instances t1, ..., tn.

Der zeitliche Kontext wird im Encoder 106 durch nc Relationsinstanzen von Relationen berücksichtigt, die durch verschiedene Einbettungen r^c repräsentiert werden und das durch die Einbettung e^s repräsentierte Subjekt betreffen.The time context is in the encoder 106 taken into account by nc relation instances of relations, which are represented by different embeddings r ^ c and concern the subject represented by the embedding e ^ s.

Nach Zeitstempel t sortiert, definieren die durch verschiedene Einbettungen r^c repräsentierten Relationen einen sequenziellen Kontext im Encoder 106 aus der Perspektive des durch die Einbettung e^s repräsentierten Subjekts zu seiner Relation zu dem durch die Einbettung e^o repräsentierten Objekt.Sorted by time stamp t, the relations represented by different embeddings r ^ c define a sequential context in the encoder 106 from the perspective of the subject represented by the embedding e ^ s to its relation to the object represented by the embedding e ^ o.

Danach wird ein Schritt 412 ausgeführt.After that is a step 412 executed.

Der Schritt 412 umfasst das Abbilden der ersten Einbettung e^s_ti, der zweiten Einbettung e^o, der mindestens einen dritten Einbettung e^c1_ti+1, ..., e^cnc_ti und der vierten Einbettung r mit dem Encoder 106 auf die fünfte Einbettung e^s_ti+1.The step 412 comprises the mapping of the first embedding e ^ s_ti, the second embedding e ^ o, the at least one third embedding e ^ c1_ti + 1, ..., e ^ cnc_ti and the fourth embedding r with the encoder 106 on the fifth embedding e ^ s_ti + 1.

Die fünfte Einbettung e^s_ti+1 repräsentiert das Subjekt bei der zweiten Instanz ti+1.The fifth embedding e ^ s_ti + 1 represents the subject in the second instance ti + 1.

Im Beispiel werden die erste Einbettung e^s_ti, die zweite Einbettung e^o, die mindestens eine dritte Einbettung e^c1_ti+1, ..., e^cnc_ti+1 und die vierte Einbettung r in einem ersten Teil des Encoders (106) auf eine Repräsentation der ersten Einbettung, eine Repräsentation der zweiten Einbettung, eine Repräsentation der mindestens einen dritten Einbettung und eine Repräsentation der vierten Einbettung abgebildet.In the example, the first embedding e ^ s_ti, the second embedding e ^ o, the at least one third embedding e ^ c1_ti + 1, ..., e ^ cnc_ti + 1 and the fourth embedding r in a first part of the encoder ( 106 ) mapped onto a representation of the first embedding, a representation of the second embedding, a representation of the at least one third embedding and a representation of the fourth embedding.

Im Beispiel werden die Repräsentation der ersten Einbettung, die Repräsentation der zweiten Einbettung, die Repräsentation der mindestens einen dritten Einbettung und die Repräsentation der vierten Einbettung im zweiten Teil des Encoders 106 auf die fünfte Einbettung e^s_ti+1 abgebildet.In the example, the representation of the first embedding, the representation of the second embedding, the representation of the at least one third embedding and the representation of the fourth embedding are in the second part of the encoder 106 mapped to the fifth embedding e ^ s_ti + 1.

Im Beispiel werden die erste Einbettung e^s_ti, die zweite Einbettung e^o_ti+1, die mindestens eine dritte Einbettung e^c1_ti+1, ..., e^cnc_ti+1 und die vierte Einbettung r mit mindestens einer Self-Attention-Schicht 302 im ersten Teil des Encoders 106 abgebildet.In the example, the first embedding e ^ s_ti, the second embedding e ^ o_ti + 1, the at least one third embedding e ^ c1_ti + 1, ..., e ^ cnc_ti + 1 and the fourth embedding r with at least one self-attention -Layer 302 in the first part of the encoder 106 pictured.

Im Beispiel werden die Repräsentation der ersten Einbettung, die Repräsentation der zweiten Einbettung, die Repräsentation der mindestens einen dritten Einbettung und die Repräsentation der vierten Einbettung mit mindestens einer Attention-Schicht 304 im zweiten Teil des Encoders 106 abgebildet.In the example, the representation of the first embedding, the representation of the second Embedding, the representation of the at least one third embedding and the representation of the fourth embedding with at least one attention layer 304 in the second part of the encoder 106 pictured.

Der Encoder 106 empfängt vortrainierte statische Einbettungen e^s, r, e^o, e^c1_ti, ..., e^cnc_ti und gibt eine kontextualisierte Einbettung r^c aus. Zusätzlich wird das vorherige subjektive Gedächtnis des Subjekts, die erste Einbettung e^s_ti, weitergegeben, um die zeitlich kontextualisierte Einbettung e^s_ti+1 für die nächste Instanz ti+1 zu erzeugen. Somit ist die einzige nicht vortrainierte Einbettung, die an die nächste Instanz ti+1 weitergegeben wird, e^s_ti+1.The encoder 106 receives pre-trained static embeddings e ^ s, r, e ^ o, e ^ c1_ti, ..., e ^ cnc_ti and outputs a contextualized embedding r ^ c. In addition, the previous subjective memory of the subject, the first embedding e ^ s_ti, is passed on in order to generate the temporally contextualized embedding e ^ s_ti + 1 for the next instance ti + 1. Thus the only untrained embedding that is passed on to the next instance ti + 1 is e ^ s_ti + 1.

Innerhalb des Encoders 106 wird die Einbettung der Relation r in eine kontextualisierte Relation r^c transformiert. Innerhalb des Encoders 106 wird die erste Einbettung e^s_ti in die fünfte Einbettung e^s_ti+1 transformiert. Im Beispiel umfasst der Encoder 106 einen Stapel von Encoderschichten, die jeweils aus einer Self-Attention-Schicht gefolgt von einem Feed-Forward-Netzwerk bestehen.Inside the encoder 106 the embedding of the relation r is transformed into a contextualized relation r ^ c. Inside the encoder 106 the first embedding e ^ s_ti is transformed into the fifth embedding e ^ s_ti + 1. In the example, the encoder includes 106 a stack of encoder layers, each consisting of a self-attention layer followed by a feed-forward network.

Die Attention-Köpfe in jeder Self-Attention-Schicht sind dafür ausgelegt, der Struktur der Relationen zu ähneln, die durch einen temporär kontextualisierten Wissensgraphen mit tcKG-Fakten definiert sind. Anstatt paarweise Attention für alle Eingänge des Encoders 106 zu berechnen, kann das Verfahren umfassen, die kontextualisierte Einbettung r^c den Eingangseinbettungen {e^s, r, e^o, e^c1_ti, ..., e^cnc_ti} zuzuordnen.The attention heads in each self-attention layer are designed to resemble the structure of the relations, which are defined by a temporarily contextualized knowledge graph with tcKG facts. Instead of pairwise attention for all inputs of the encoder 106 To calculate, the method can include assigning the contextualized embedding r ^ c to the input embeddings {e ^ s, r, e ^ o, e ^ c1_ti, ..., e ^ cnc_ti}.

Die Attention-Schichten 302 und 304 können die Attention der Einbettung e^s_ti+1 auf Eingabeeinbettungen {e^s_ti, r^c_ti, e^o_ti} beschränken. The attention layers 302 and 304 can limit the attention of the embedding e ^ s_ti + 1 to input embeddings {e ^ s_ti, r ^ c_ti, e ^ o_ti}.

Danach wird ein Schritt 414 ausgeführt. Der Schritt 414 umfasst das Bestimmen des Scores f in Abhängigkeit von der zweiten Einbettung e^o, der vierten Einbettung r und der fünften Einbettung e^s_ti+1.After that is a step 414 executed. The step 414 comprises determining the score f as a function of the second embedding e ^ o, the fourth embedding r and the fifth embedding e ^ s_ti + 1.

Der Score f repräsentiert die Plausibilität für die Relation des Subjekts mit dem Objekt im Kontext bei der zweiten Instanz ti+1.The score f represents the plausibility for the relation of the subject with the object in the context for the second instance ti + 1.

Der Encoder 106 kann gestapelten Encoderschichten umfassen, jede mit eingeschränkter mehrköpfiger Self-Attention, gefolgt von einer Scoring-Funktion, die einen skalaren Score f für ein (e^s, r, e^o)-Triple zurückgibt.The encoder 106 may include stacked encoder layers, each with limited multi-headed self-attention, followed by a scoring function that returns a scalar score f for an (e ^ s, r, e ^ o) triple.

Danach wird ein Schritt 416 ausgeführt. Der Schritt 416 umfasst das Bestimmen einer Klassifizierung der Daten in Abhängigkeit von der Relation des Subjekts mit dem Objekt im Kontext bei der zweiten Instanz ti+1. Im Beispiel ist die Klassifizierung eine Fahrszenenklassifizierung, z. B. die Klassifizierung der aktuellen Situation als eine Situation, in der das Fahrzeug dem Fußgänger Vorrang gewähren oder fahren soll. In einem anderen Beispiel kann die Klassifizierung eine Ortsempfehlung, z. B. für eine Route des Fahrzeugs, oder eine Ereignisvorhersage, z. B. ob eine Situation gefährlich ist oder nicht, oder im Hinblick auf ein Verhalten des Fußgängers, bereitstellen. Die Ortsempfehlung kann sich auf ein Navigationsziel oder auf eine Trajektorie zum Vermeiden einer Gefahrensituation beziehen.After that is a step 416 executed. The step 416 comprises determining a classification of the data as a function of the relation of the subject with the object in the context at the second instance ti + 1. In the example, the classification is a driving scene classification, e.g. B. the classification of the current situation as a situation in which the vehicle should give priority to the pedestrian or drive. In another example, the classification can be a location recommendation, e.g. B. for a route of the vehicle, or an event prediction, e.g. B. whether a situation is dangerous or not, or with regard to a behavior of the pedestrian. The location recommendation can relate to a navigation destination or to a trajectory for avoiding a dangerous situation.

Im Beispiel umfasst der Schritt 416 das Bestimmen der Klassifizierung, wenn der Score f die Bedingung erfüllt, oder andernfalls das Nicht-Klassifizieren der Daten in Abhängigkeit von der Relation des Subjekts mit dem Objekt im Kontext bei der zweiten Instanz ti+1. Der Score stellt im Beispiel eine Plausibilität bereit. Die Klassifizierung wird zum Beispiel bestimmt, wenn der Score die Bedingung erfüllt. Die Bedingung ist zum Beispiel erfüllt, wenn der Score angibt, dass die Plausibilität einen Schwellenwert überschreitet.In the example, the step includes 416 determining the classification if the score f meets the condition, or otherwise not classifying the data as a function of the relation of the subject with the object in the context in the case of the second instance ti + 1. In the example, the score provides plausibility. The classification is determined, for example, if the score meets the condition. The condition is fulfilled, for example, if the score indicates that the plausibility exceeds a threshold value.

Der Schwellenwert kann ein Referenzscore sein, der für einen anderen zeitlich kontextualisierten Wissensgraphenfakt für das Subjekt bestimmt wurde. Die Schritte 402 bis 414 können für mehrere unterschiedliche Objekte oder unterschiedliche Kontexte durchgeführt werden, um individuelle Scores zu bestimmen. In diesem Fall kann der zeitlich kontextualisierte Wissensgraphenfakt für das Subjekt mit dem höchsten Score zum Bestimmen der Klassifizierung ausgewählt werden.The threshold value may be a reference score determined for another temporally contextualized knowledge graph fact for the subject. The steps 402 until 414 can be performed for several different objects or different contexts in order to determine individual scores. In this case, the temporally contextualized knowledge graph fact for the subject with the highest score can be selected to determine the classification.

Danach wird ein Schritt 418 ausgeführt. Der Schritt 418 umfasst das Betreiben der Vorrichtung 108 in Abhängigkeit von der Relation des Subjekts mit dem Objekt im Kontext bei der zweiten Instanz ti+1, wenn der Score f die Bedingung erfüllt, und andernfalls das Nicht-Betreiben in Abhängigkeit von der Relation des Subjekts mit dem Objekt im Kontext bei der zweiten Instanz ti+1.After that is a step 418 executed. The step 418 includes operating the device 108 depending on the relation of the subject with the object in the context in the case of the second instance ti + 1, if the score f meets the condition, and otherwise not operating depending on the relation of the subject with the object in the context in the case of the second instance ti + 1.

Im Beispiel wird das Fahrzeug betrieben. Der Betrieb des Fahrzeugs im Beispiel hängt von der Klassifizierung ab, wenn die Plausibilität der Klassifizierung den Schwellenwert überschreitet. Andernfalls kann der Betrieb des Fahrzeugs vom Ergebnis der Verarbeitung der Wissensgrapheneinbettung unverändert oder unbeeinflusst bleiben.In the example, the vehicle is being operated. The operation of the vehicle in the example depends on the classification if the plausibility of the classification exceeds the threshold value. Otherwise, the operation of the vehicle can remain unchanged or unaffected by the result of the processing of the knowledge graph embedding.

Der Encoder 106 kann mit Trainingsdaten trainiert werden, die das Subjekt, ein Referenzobjekt und eine Referenzrelation umfassen.The encoder 106 can be trained with training data comprising the subject, a reference object and a reference relation.

Die Referenzrelation setzt das Subjekt und das Referenzobjekt in einen Referenzkontext.The reference relation places the subject and the reference object in a reference context.

Das Training des Encoders 106 kann eine Backpropagation einer Abweichung zwischen dem Objekt und dem Referenzobjekt und/oder einer Abweichung zwischen der Relation und der Referenzrelation umfassen.The training of the encoder 106 may include back propagation of a discrepancy between the object and the reference object and / or a discrepancy between the relation and the reference relation.

Der Score wird mit einer Scoring-Funktion bestimmt. Die Abweichung wird mit einer Verlustfunktion bestimmt. Die Backpropagation zielt darauf ab, ein Trainingsziel zu erreichen.The score is determined with a scoring function. The deviation is determined with a loss function. Backpropagation aims to achieve a training goal.

Der Encoder 106 kann ein künstliches neuronales Netz umfassen. Zur Optimierung der Gewichtsmatrizen in den Feed-Forward- und Self-Attention-Schichten des Netzes verwendet die Backpropagation die Scoring-Funktion als Maß für die Plausibilität der vorhergesagten KG-Fakten und eine Verlustfunktion, die eine Abweichung von vorhergesagten KG-Fakten von bekannten KG-Fakten aus den Trainingsdaten misst. Der Encoder 106 ist unabhängig von der Wahl der Scoring-Funktion und der Verlustfunktion. Es kann eine beliebige Scoring-Funktion, eine beliebige Verlustfunktion und ein beliebiges Trainingsziel verwendet werden, solange es die Berechnung eines Gradienten ermöglicht.The encoder 106 may comprise an artificial neural network. To optimize the weight matrices in the feed-forward and self-attention layers of the network, the backpropagation uses the scoring function as a measure of the plausibility of the predicted KG facts and a loss function that shows a deviation from the predicted KG facts from known KG facts -Measures facts from the training data. The encoder 106 is independent of the choice of the scoring function and the loss function. Any scoring function, loss function, and training goal can be used as long as it allows a gradient to be calculated.

Im Beispiel wird Link-Vorhersage als Trainingsziel verwendet. Das Trainingsziel ist in einem Beispiel die korrekte Vorhersage von e^o_t+1 bei gegebenem e^s_t und r^c_t, wobei e^o_t+1 ausmaskiert wird.In the example link prediction is used as the training goal. In one example, the training goal is the correct prediction of e ^ o_t + 1 for a given e ^ s_t and r ^ c_t, where e ^ o_t + 1 is masked out.

Die Gewichte passen sich also beim Training an, derart, dass eine Scoring-Funktion f(e^s_t, r^c_t, e^o_t) einen hohen Score für das richtige e^o_t+1 aus den Trainingsdaten und einen niedrigen Score für alle anderen Entitäten ausgibt. Die Verwendung einer Soft-Max-Funktion auf den vorhergesagten Scores für das verwendete e^o ermöglicht die Berechnung des Cross-Entropie-Verlustes gegen ein korrektes Tripel und Backpropagation des Fehlers.The weights adapt during training in such a way that a scoring function f (e ^ s_t, r ^ c_t, e ^ o_t) has a high score for the correct e ^ o_t + 1 from the training data and a low score for all other entities. The use of a soft max function on the predicted scores for the e ^ o used enables the calculation of the cross-entropy loss against a correct triple and backpropagation of the error.

Claims (10)

Vorrichtung (100) zum Verarbeiten einer Wissensgrapheneinbettung (102) eines Wissensgraphen (200), gekennzeichnet durch mindestens einen Prozessor (104), der für folgende Vorgänge ausgelegt ist: Bestimmen einer ersten Einbettung, wobei die erste Einbettung ein Subjekt in einer ersten Instanz repräsentiert, wobei der Wissensgraph (200) eine Entität für das Subjekt umfasst, Abrufen einer zweiten Einbettung aus der Wissensgrapheneinbettung (102), wobei die zweite Einbettung ein Objekt im Wissensgraphen (200) repräsentiert, wobei der Wissensgraph (200) eine Entität für das Objekt umfasst, Abrufen mindestens einer dritten Einbettung aus der Wissensgrapheneinbettung (102), wobei die mindestens eine dritte Einbettung Kontext repräsentiert, wobei der Wissensgraph (200) mindestens eine Entität für den Kontext umfasst, Bestimmen einer vierten Einbettung, wobei die vierte Einbettung eine Relation im Wissensgraphen (200) zwischen dem Subjekt und dem Objekt repräsentiert, Abbilden der ersten Einbettung, der zweiten Einbettung, der mindestens einen dritten Einbettung und der vierten Einbettung mit einem Encoder (106) auf eine fünfte Einbettung, wobei die fünfte Einbettung das Subjekt in einer zweiten Instanz repräsentiert, Bestimmen eines Scores in Abhängigkeit von der zweiten Einbettung, der vierten Einbettung und der fünften Einbettung, wobei der Score eine Plausibilität für die Relation des Subjekts mit dem Objekt im Kontext bei der zweiten Instanz repräsentiert.Device (100) for processing a knowledge graph embedding (102) of a knowledge graph (200), characterized by at least one processor (104) which is designed for the following processes: determining a first embedding, the first embedding representing a subject in a first instance, wherein the knowledge graph (200) comprises an entity for the subject, retrieving a second embedding from the knowledge graph embedding (102), the second embedding representing an object in the knowledge graph (200), the knowledge graph (200) comprising an entity for the object, Retrieving at least one third embedding from the knowledge graph embedding (102), the at least one third embedding representing context, the knowledge graph (200) comprising at least one entity for the context, determining a fourth embedding, the fourth embedding being a relation in the knowledge graph (200 ) is represented between the subject and the object, depicting the first embedding processing, the second embedding, the at least one third embedding and the fourth embedding with an encoder (106) on a fifth embedding, the fifth embedding representing the subject in a second instance, determining a score depending on the second embedding, the fourth Embedding and the fifth embedding, the score representing a plausibility for the relation of the subject with the object in the context of the second instance. Vorrichtung nach Anspruch 1, dadurch gekennzeichnet, dass der mindestens eine Prozessor (104) dafür ausgelegt ist, eine Vorrichtung (108) in Abhängigkeit von der Relation des Subjekts zum Objekt im Kontext bei der zweiten Instanz zu betreiben, wenn der Score eine Bedingung erfüllt, und andernfalls die Vorrichtung (108) in Abhängigkeit von der Relation des Subjekts zum Objekt im Kontext bei der zweiten Instanz nicht zu betreiben, wobei die Vorrichtung (108) eine computergesteuerte Maschine ist, insbesondere ein Roboter, ein Fahrzeug, ein Haushaltsgerät, ein Elektrowerkzeug, eine Fertigungsmaschine, ein persönlicher Assistent oder ein Zugangskontrollsystem.Device according to Claim 1 characterized in that the at least one processor (104) is designed to operate a device (108) as a function of the relation of the subject to the object in the context at the second instance, if the score meets a condition, and otherwise the device (108) not to be operated in the context of the second instance depending on the relation of the subject to the object, the device (108) being a computer-controlled machine, in particular a robot, a vehicle, a household appliance, an electric tool, a manufacturing machine personal assistant or an access control system. Vorrichtung (100) nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die Vorrichtung (100) mindestens einen Sensor (110) und/oder eine Schnittstelle (112) für Sensordaten umfasst, wobei zum Betreiben der Vorrichtung (108) der mindestens eine Prozessor (104) dafür ausgelegt ist, Daten, insbesondere Sensordaten, die Audiodaten, Bilddaten, Videodaten, Radardaten, Lidardaten und/oder Metadaten umfassen, zu empfangen, wobei die Daten Informationen über das Subjekt, das Objekt und den Kontext in der ersten Instanz umfassen, und in Abhängigkeit von der Relation des Subjekts zum Objekt im Kontext bei der zweiten Instanz eine Klassifizierung der Daten, insbesondere für Ortsempfehlung, Ereignisvorhersage und/oder Fahrszenenklassifizierung, zu bestimmen, wenn der Score die Bedingung erfüllt, oder andernfalls die Daten in Abhängigkeit von der Relation des Subjekts zum Objekt im Kontext bei der zweiten Instanz nicht zu klassifizieren, und dann die Vorrichtung in Abhängigkeit von der Klassifizierung zu betreiben.Device (100) according to Claim 1 or 2 , characterized in that the device (100) comprises at least one sensor (110) and / or an interface (112) for sensor data, wherein for operating the device (108) the at least one processor (104) is designed to transmit data, in particular To receive sensor data comprising audio data, image data, video data, radar data, lidar data and / or metadata, the data comprising information about the subject, the object and the context in the first instance, and depending on the relation of the subject to the object to determine a classification of the data in the context at the second instance, in particular for location recommendation, event prediction and / or driving scene classification, if the score meets the condition, or otherwise the data depending on the relation of the subject to the object in the context at the second instance not to be classified, and then to operate the device depending on the classification. Vorrichtung (100) nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass der mindestens eine Prozessor (104) zum Abrufen der ersten Einbettung aus der Wissensgrapheneinbettung (102) ausgelegt ist.Device (100) according to Claim 1 , 2 or 3 , characterized in that the at least one processor (104) is designed to retrieve the first embedding from the knowledge graph embedding (102). Vorrichtung (100) nach Anspruch 1, 2 oder 3, dadurch gekennzeichnet, dass zum Bestimmen der ersten Einbettung der mindestens eine Prozessor (104) dafür ausgelegt ist, eine Einbettung zu bestimmen, die das Subjekt in einer Instanz vor der ersten Instanz repräsentiert, und eine Einbettung aus der Wissensgrapheneinbettung (102), die ein Objekt im Wissensgraphen (200) repräsentiert, mindestens eine Einbettung aus der Wissensgrapheneinbettung (102), die Kontext repräsentiert, und eine Einbettung, die eine Relation in dem Wissensgraphen (200) zwischen dem Subjekt und dem Objekt repräsentiert, mit einem Encoder (106) auf die erste Einbettung abzubilden.Device (100) according to Claim 1 , 2 or 3 , characterized in that for determining the first embedding, the at least one processor (104) is designed to determine an embedding that represents the subject in an instance before the first instance, and an embedding from the knowledge graph embedding (102) that represents an object in the knowledge graph (200) to map at least one embedding from the knowledge graph embedding (102), which represents context, and an embedding, which represents a relation in the knowledge graph (200) between the subject and the object, onto the first embedding with an encoder (106). Vorrichtung (100) nach Anspruch 5, dadurch gekennzeichnet, dass der mindestens eine Prozessor (104) dafür ausgelegt ist, entweder die Einbettung, die das Subjekt in der Instanz vor der ersten Instanz repräsentiert, aus der Wissensgrapheneinbettung (102) abzurufen oder indem er die Einbettung, die das Subjekt in einer Instanz vor der ersten Instanz repräsentiert, in Abhängigkeit von einer Einbettung bestimmt, die das Subjekt repräsentiert und die aus der Wissensgrapheneinbettung (102) abgerufen wird.Device (100) according to Claim 5 , characterized in that the at least one processor (104) is designed to either retrieve the embedding that represents the subject in the instance before the first instance from the knowledge graph embedding (102) or by retrieving the embedding that the subject in a Instance represented before the first instance, determined as a function of an embedding which represents the subject and which is retrieved from the knowledge graph embedding (102). Vorrichtung (100) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der mindestens eine Prozessor (104) dafür ausgelegt ist, Trainingsdaten bereitzustellen, die das Subjekt, ein Referenzobjekt und eine Referenzrelation umfassen, wobei die Referenzrelation das Subjekt und das Referenzobjekt in einem Referenzkontext in Relation setzt, und den Encoder mit einer Backpropagation einer Abweichung zwischen dem Objekt und dem Referenzobjekt und/oder einer Abweichung zwischen der Relation und der Referenzrelation zu trainieren.Device (100) according to one of the preceding claims, characterized in that the at least one processor (104) is designed to provide training data that include the subject, a reference object and a reference relation, the reference relation being the subject and the reference object in a reference context in relation, and to train the encoder with a backpropagation of a deviation between the object and the reference object and / or a deviation between the relation and the reference relation. Vorrichtung (100) nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der mindestens eine Prozessor (104) dafür ausgelegt ist, die erste Einbettung, die zweite Einbettung, die mindestens eine dritte Einbettung und die vierte Einbettung in einem ersten Teil des Encoders (106) auf eine Repräsentation der ersten Einbettung, eine Repräsentation der zweiten Einbettung, eine Repräsentation der mindestens einen dritten Einbettung und eine Repräsentation der vierten Einbettung abzubilden und die Repräsentation der ersten Einbettung, die Repräsentation der zweiten Einbettung, die Repräsentation der mindestens einen dritten Einbettung und die Repräsentation der vierten Einbettung in einem zweiten Teil des Encoders (106) auf die fünfte Einbettung abzubilden.Device (100) according to one of the preceding claims, characterized in that the at least one processor (104) is designed to process the first embedding, the second embedding, the at least one third embedding and the fourth embedding in a first part of the encoder (106 ) to a representation of the first embedding, a representation of the second embedding, a representation of the at least one third embedding and a representation of the fourth embedding and the representation of the first embedding, the representation of the second embedding, the representation of the at least one third embedding and the Representation of the fourth embedding in a second part of the encoder (106) to be mapped onto the fifth embedding. Vorrichtung (100) nach Anspruch 8, dadurch gekennzeichnet, dass der mindestens eine Prozessor (104) dafür ausgelegt ist, die erste Einbettung, die zweite Einbettung, die mindestens eine dritte Einbettung und die vierte Einbettung mit mindestens einer Self-Attention-Schicht (302) im ersten Teil des Encoders (106) abzubilden.Device (100) according to Claim 8 , characterized in that the at least one processor (104) is designed to process the first embedding, the second embedding, the at least one third embedding and the fourth embedding with at least one self-attention layer (302) in the first part of the encoder ( 106). Vorrichtung (100) nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass der mindestens eine Prozessor (104) dafür ausgelegt ist, die Repräsentation der ersten Einbettung, die Repräsentation der zweiten Einbettung, die Repräsentation der mindestens einen dritten Einbettung und die Repräsentation der vierten Einbettung mit mindestens einer Attention-Schicht (304) im zweiten Teil des Encoders (106) abzubilden.Device (100) according to Claim 8 or 9 , characterized in that the at least one processor (104) is designed for the representation of the first embedding, the representation of the second embedding, the representation of the at least one third embedding and the representation of the fourth embedding with at least one attention layer (304) to be mapped in the second part of the encoder (106).
DE202021102099.7U 2021-04-20 2021-04-20 Apparatus for processing a knowledge graph embedding Active DE202021102099U1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE202021102099.7U DE202021102099U1 (en) 2021-04-20 2021-04-20 Apparatus for processing a knowledge graph embedding

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE202021102099.7U DE202021102099U1 (en) 2021-04-20 2021-04-20 Apparatus for processing a knowledge graph embedding

Publications (1)

Publication Number Publication Date
DE202021102099U1 true DE202021102099U1 (en) 2021-09-29

Family

ID=78267881

Family Applications (1)

Application Number Title Priority Date Filing Date
DE202021102099.7U Active DE202021102099U1 (en) 2021-04-20 2021-04-20 Apparatus for processing a knowledge graph embedding

Country Status (1)

Country Link
DE (1) DE202021102099U1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116401380A (en) * 2023-06-07 2023-07-07 湖北工业大学 Heterogeneous knowledge graph-oriented contrast learning prediction method and system

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116401380A (en) * 2023-06-07 2023-07-07 湖北工业大学 Heterogeneous knowledge graph-oriented contrast learning prediction method and system
CN116401380B (en) * 2023-06-07 2023-08-11 湖北工业大学 Heterogeneous knowledge graph-oriented contrast learning prediction method and system

Similar Documents

Publication Publication Date Title
DE112017005651T5 (en) Device for classifying data
DE112020000584T5 (en) PROCEDURE FOR UNSUITIZED PICTURE-TO-PICTURE TRANSLATION WITH FEW IMAGES
DE102007001025A1 (en) Method for computer aided control and regulation of technical system, involves carrying out characterization of dynamic behavior of technical systems multiple times by state and action of system
DE102020204351A1 (en) DEVICE AND METHOD FOR PLANNING A MULTIPLE ORDERS FOR A VARIETY OF MACHINERY
DE102020207085A1 (en) METHOD OF CONTROLLING A ROBOT AND ROBOT CONTROL UNIT
DE102019216560B4 (en) Method and device for training manipulation skills of a robot system
DE102019124018A1 (en) Method for optimizing tests of control systems for automated vehicle dynamics systems
DE102020205315A1 (en) Process for the classification of critical driving situations, selection of data similar to the critical driving situation and retraining of the automatic system
DE102020210352A1 (en) Method and device for transfer learning between modified tasks
DE102018008685A1 (en) Method for training an artificial neural network, artificial neural network, use of an artificial neural network and corresponding computer program, machine-readable storage medium and corresponding device
DE112017002468T5 (en) Reasoning and learning based on sensorimotor input data
DE102019209457A1 (en) Method for training an artificial neural network, artificial neural network, use of an artificial neural network and a corresponding computer program, machine-readable storage medium and corresponding device
DE102019203634A1 (en) Method and device for controlling a robot
EP4000010A1 (en) Device and computer-implemented method for the processing of digital sensor data and training method for same
DE202021102099U1 (en) Apparatus for processing a knowledge graph embedding
EP3557490A1 (en) Training method
DE102020210376A1 (en) Apparatus and method for controlling a hardware agent in a multiple hardware agent control situation
DE102019207410A1 (en) Method and device for an automated influencing of an actuator
DE102021133977A1 (en) Method and system for classifying virtual test scenarios and training methods
DE102019128223A1 (en) Methods, devices and computer programs
WO2020126217A1 (en) Method, arrangement and use for producing a response output in reply to voice input information
EP3637354A1 (en) Method for operating an electronic apparatus having an optimum program code
DE102021208472B3 (en) Computer-implemented method for training a machine learning model for a vehicle or robot
DE102018210003A1 (en) Method and device for teaching a machine learning model
DE102021132025A1 (en) Method for determining similar scenarios, training method and training controller

Legal Events

Date Code Title Description
R081 Change of applicant/patentee

Owner name: ROBERT BOSCH GMBH, DE

Free format text: FORMER OWNER: ROBERT BOSCH GMBH, 70469 STUTTGART, DE

Owner name: ROBERT BOSCH GMBH, DE

Free format text: FORMER OWNER: ROBERT BOSCH GESELLSCHAFT MIT BESCHRAENKTER HAFTUNG, 70469 STUTTGART, DE

R207 Utility model specification
R163 Identified publications notified
R150 Utility model maintained after payment of first maintenance fee after three years