-
Gebiet der Technik
-
Die vorliegende Erfindung betrifft loT (Internet of Things).
-
Technischer Hintergrund
-
Im loT kann es sein, dass eine Mehrzahl von Anwendungsprogrammen (im Folgenden auch einfach als Anwendungen bezeichnet) über einer Mehrzahl von Domänen gemeinsam Informationen über verschiedene Arten von Dingen (Sensoren) nutzen, die als Big Data in einem Cloud-System (im Folgenden einfach als Cloud bezeichnet) angehäuft sind. In einem solchen Fall ist die Nutzung einer Anwendung erstrebenswert, ohne auf Sensordomänenwissen (einen Installationsort, eine Art von zu erhebenden Daten, eine Genauigkeit und dergleichen) achten zu müssen.
oneM2M, eine Normungsorganisation in Bezug auf loT, hat Normen ausgearbeitet für eine loT-Plattform des horizontal integrierten Typs, die eine semantische Frage von einer Anwendung annimmt und auf die Frage antwortet (zum Beispiel Patentdokument 1). Die loT-Plattform des horizontal integrierten Typs verwaltet ontologisch annotierte Sensordaten. Ferner wird bei der loT-Plattform des horizontal integrierten Typs eine Beantwortung der semantischen Frage von der Anwendung durch eine Inferenzvorrichtung verwirklicht. Dies ermöglicht der Anwendung, die Daten ohne das Sensordomänenwissen zu verwenden.
-
Ferner wird auch eine Technik vorgeschlagen, bei der Metadaten einer Sensorseite und einer Anwendungsseite hinzugefügt werden, einzelne Metadaten ontologisch miteinander abgeglichen werden und ein in Frage kommender Sensor extrahiert wird, der Sensordaten bereitstellen kann, die eine Anwendungsanforderung erfüllen (siehe zum Beispiel Patentdokument 2).
-
Liste der Entgegenhaltungen
-
Patentliteratur
-
- Patentdokument 1: JP2018-503905A
- Patentdokument 2: JP2018-81377A
-
Abriss
-
Technische Aufgabe
-
Es wird davon ausgegangen, dass eine herkömmliche loT-Plattform des horizontal integrierten Typs Verarbeitungen intensiv in der Cloud durchführt. Wenn die Zahl der Anwendungen, von denen die loT-Plattform des horizontal integrierten Typs verwendet wird, deutlich steigt, besteht daher ein Risiko dafür, dass eine Verarbeitungslast steigen kann und eine Beantwortungsleistung schlechter wird. Auch in einem Fall, wo ein Skalieren nach oben oder ein Skalieren nach außen bzw. ein vertikales Skalieren angewendet wird, muss die Anwendung Kosten gleichmäßig tragen. Ferner bewirkt eine intensive Durchführung von Verarbeitungen in der Cloud eine Kommunikations- bzw. Übermittlungsverzögerung, daher kann es sein, dass eine Anforderung von der Anwendung, von der die Übermittlungsverzögerung nicht akzeptiert werden kann, nicht erfüllt wird.
-
Es wird außerdem davon ausgegangen, dass ein Edge-System verwendet wird, um die Lastkonzentration in der Cloud zu verringern und um die Übermittlungsverzögerung zu überwinden. Jedoch sind Rechenressourcen und eine Speicherkapazität des Edge-Systems begrenzt. Daher ist es notwendig, unter Verwendung der begrenzten Rechenressource und Speicherkapazität des Edge-Systems die Frage von der Anwendung angemessen zu beantworten.
-
Die vorliegende Erfindung wurde in Anbetracht dieser Umstände gemacht. Genauer zielt die vorliegende Erfindung hauptsächlich darauf ab, ein Edge-System in die Lage zu versetzen, auf eine Frage von einer Anwendung in einer loT-Plattform des horizontal integrierten Typs zu antworten.
-
Lösung der Aufgabe
-
Ein Edge-System gemäß der vorliegenden Erfindung, das einer loT(lnternet of Things)-Plattform der horizontal integrierten Art entspricht, weist auf:
- eine Semantic-Engine;
- eine Tiefenerfassungseinheit zum Erfassen einer Beantwortungstiefe, das heißt einer Forderung nach der Tiefe einer Suche mit der Semantic-Engine; und
- eine Suchsteuereinheit, um die Semantic-Engine zu veranlassen, die Suche zu wiederholen, bis die Tiefe der Suche mit der Semantic-Engine die Beantwortungstiefe erreicht.
-
Vorteilhafte Wirkungen der Erfindung
-
Ein Edge-System gemäß der vorliegenden Erfindung veranlasst eine Semantic-Engine, eine Suche zu wiederholen, bis die Tiefe der Suche mit der Semantic-Engine eine Beantwortungstiefe erreicht. Daher kann das Edge-System eine Frage von einer Anwendung angemessen beantworten.
-
Figurenliste
-
- 1 ist ein Diagramm, das ein Beispiel für eine Konfiguration eines loT-Systems gemäß einer ersten Ausführungsform darstellt;
- 2 ist ein Diagramm, das ein Beispiel für eine funktionale Konfiguration eines Edge-Systems gemäß der ersten Ausführungsform darstellt;
- 3 ist ein Flussdiagramm zur Darstellung eines Beispiels für die Funktionsweise des Edge-Systems gemäß der ersten Ausführungsform;
- 4 ist ein Flussdiagramm, das Details eines Beantwortungstiefen-Bestimmungsprozesses gemäß der ersten Ausführungsform darstellt;
- 5 ist ein Diagramm, das ein Beispiel für eine Konfiguration eines loT-Systems gemäß einer zweiten Ausführungsform darstellt;
- 6 ist ein Diagramm, das Beispiele für eine funktionale Konfiguration eines Edge-Systems (Hauptsystems), eines Edge-Systems (Untersystems) und eines Netzspeichers gemäß der zweiten Ausführungsform darstellt;
- 7 ist ein Flussdiagramm zur Darstellung eines Beispiels für die Funktionsweise des Edge-Systems (Hauptsystems) gemäß der zweiten Ausführungsform;
- 8 ist ein Flussdiagramm, das Details eines Semantic-Engine-Auswahlprozesses gemäß der zweiten Ausführungsform darstellt;
- 9 ist ein Flussdiagramm zur Darstellung eines Beispiels für die Funktionsweise des Edge-Systems (Untersystems) gemäß der zweiten Ausführungsform;
- 10 ist ein Diagramm, das ein Beispiel für eine funktionale Konfiguration eines Edge-Systems und eines Cloud-Systems gemäß einer dritten Ausführungsform darstellt;
- 11 ist ein Diagramm, das ein Beispiel für eine funktionale Konfiguration eines Edge-Systems gemäß einer vierten Ausführungsform darstellt;
- 12 ist ein Flussdiagramm zur Darstellung eines Beispiels für die Funktionsweise des Edge-Systems gemäß der vierten Ausführungsform;
- 13 ist ein Flussdiagramm, das Details eines Relevanzbestimmungsprozesses (eine Frage) gemäß der vierten Ausführungsform darstellt;
- 14 ist ein Flussdiagramm, das Details eines Relevanzbestimmungsprozesses (ein Ausführungsergebnis) gemäß der vierten Ausführungsform darstellt;
- 15 ist ein Diagramm, das ein Beispiel für eine funktionale Konfiguration eines Edge-Systems gemäß einer fünften Ausführungsform darstellt;
- 16 ist ein Flussdiagramm zur Darstellung eines Beispiels für die Funktionsweise des Edge-Systems gemäß der fünften Ausführungsform;
- 17 ist ein Flussdiagramm, das Details eines Ergebniserweiterungsprozesses gemäß der fünften Ausführungsform darstellt;
- 18 ist ein Diagramm, das ein Beispiel für eine funktionale Konfiguration eines Edge-Systems und eines Cloud-Systems gemäß einer sechsten Ausführungsform darstellt;
- 19 ist ein Flussdiagramm zur Darstellung eines Beispiels für die Funktionsweise des Edge-Systems gemäß der sechsten Ausführungsform;
- 20 ist ein Flussdiagramm zur Darstellung eines Beispiels für die Funktionsweise des Cloud-Systems gemäß der sechsten Ausführungsform;
- 21 ist ein Diagramm, das ein Beispiel für eine funktionale Konfiguration eines Edge-Systems gemäß einer siebten Ausführungsform darstellt;
- 22 ist ein Diagramm, das ein Beispiel für verknüpfte Daten bzw. Linked Data gemäß der siebten Ausführungsform darstellt;
- 23 ist ein Diagramm, das eine Tiefenspezifizierungstabelle gemäß der ersten Ausführungsform darstellt; und
- 24 ist ein Diagramm, das eine Endpunktspezifizierungstabelle gemäß der zweiten Ausführungsform darstellt.
-
Beschreibung von Ausführungsformen
-
Im Folgenden werden Ausführungsformen der vorliegenden Erfindung unter Bezugnahme auf die Zeichnungen beschrieben. In der folgenden Beschreibung der Ausführungsformen und in den Zeichnungen geben gleiche Bezugszahlen gleiche oder entsprechende Teile an.
-
Erste Ausführungsform.
-
*** Beschreibung der Konfiguration ***
-
1 stellt ein Beispiel für eine Konfiguration eines loT-Systems 1 gemäß der vorliegenden Ausführungsform dar.
-
In der vorliegenden Ausführungsform ist ein Cloud-System 11 mit dem Internet 13 verbunden. Ferner sind eine Mehrzahl von Edge-Systemen 10 mit dem Internet 13 und mit Intranets 14 verbunden. Ferner sind eine Mehrzahl von Sensoren 12 mit den Intranets 14 verbunden.
-
In der vorliegenden Ausführungsform beantworten anstelle des Cloud-Systems 11 die einzelnen Edge-Systeme 10 eine semantische Frage von einer Anwendung. Eine Rechenressource und eine Speicherkapazität der einzelnen Edge-Systeme 10 sind geringer als eine Rechenressource und eine Speicherkapazität des Cloud-Systems 11. Jedoch kann das Edge-System 10 anhand eines Prozesses, der nachstehend beschrieben wird, die semantische Frage von der Anwendung angemessen beantworten. Infolgedessen ist es möglich, eine Lastkonzentration an dem Cloud-System 11 zu verringern und eine Übermittlungsverzögerung zu überwinden.
-
Man beachte, dass Operationen, die von dem Edge-System 10 durchgeführt werden, einem Informationsverarbeitungsverfahren und einem Informationsverarbeitungsprogramm entsprechen.
-
2 stellt ein Beispiel für eine funktionale Konfiguration des Edge-Systems 10 dar.
-
Das Edge-System 10 beschafft sich über das Intranet 14 Daten, die von dem Sensor 12 gemessen wurden, oder verarbeitete Daten, nachdem der Sensor 12 einen statistischen Prozess oder dergleichen durchgeführt hat. Ferner greift das Edge-System 10 gegebenenfalls über das Internet 13 auf das Cloud-System 11 zu und akkumuliert die Daten in dem Cloud-System 11. Ferner kann das Edge-System 10 das Cloud-System 11 auch auffordern, einen Teil des Prozesses durchzuführen.
-
Im Folgenden werden die Daten, die von dem Sensor 12 gemessen werden, oder die verarbeiteten Daten, nachdem der Sensor 12 den statistischen Prozess oder dergleichen durchgeführt hat, als Messdaten bezeichnet.
-
Das Edge-System 10 ist ein Computer mit einer Kommunikationsvorrichtung 900, einem Prozessor 901 und einer Speichervorrichtung 902 als Hardware-Einheiten.
-
Ferner weist das Edge-System 10 eine Kommunikationseinheit 100, eine Datenbeschaffungseinheit 101, einen Data Lake 102, Anwendungen 103, eine Beantwortungstiefen-Steuereinheit 104, eine Semantic-Engine 105 und eine Ontologie 106 als funktionale Konfigurationen auf.
-
Die Kommunikationseinheit 100 empfängt die Messdaten von dem Sensor 12.
-
Die Datenbeschaffungseinheit 101 fügt zu den Messdaten Metadaten hinzu, wie etwa eine Erhebungszeit. Falls nötig, implementiert die Datenbeschaffungseinheit 101 ferner einen statistischen Prozess oder eine Normalisierung an den Messdaten. Dann speichert die Datenbeschaffungseinheit 101 die Messdaten (oder die Messdaten nach dem statistischen Prozess oder der Normalisierung), die an der Kommunikationseinheit 100 empfangen worden sind, in dem Data Lake 102.
-
Die Anwendung 103 gibt Anwendungsmetadaten einschließlich einer Frage und einer Beantwortungstiefe an die Beantwortungstiefen-Steuereinheit 104 aus.
-
Hier ist die Beantwortungstiefe ein Parameter zur Erlangung eines Ergebnisses, das von der Anwendung angefordert wird. Das heißt, die Beantwortungstiefe ist eine Anforderung einer Tiefe (im Folgenden auch als Ausführungstiefe bezeichnet) einer Suche mit der Semantic-Engine 105. Zum Beispiel ist die Ausführungstiefe die Häufigkeit der Ausführungen (die Zahl der Rekursionen) der Semantic-Engine 105. Das heißt, die Anwendung 103 kann eine Anforderung einer Zahl von Rekursionen als die Beantwortungstiefe spezifizieren. Ferner kann die Ausführungstiefe eine Tiefe einer Parent-Child-Beziehung der Ontologie sein (die Zahl von Kanten bzw. Edges von einem Knoten bzw. Node zu einem Wurzelknoten, wenn die Ontologie eine Baumkonstitution ist). Die Tiefe in der Parent-Child-Beziehung wird beispielsweise als Grad einer Abstraktion ausgedrückt, die in einer in 23 dargestellten Tiefenspezifizierungstabelle 1000 vorgeschrieben ist. Das heißt, die Anwendung 103 kann als Beantwortungstiefe die Anforderung einer Höhe (1, 2, 3 oder dergleichen) des Grades der Abstraktion spezifizieren, wie in 23 dargestellt.
-
Die Beantwortungstiefen-Steuereinheit 104 erfasst die Anwendungsmetadaten einschließlich der Frage und der Beantwortungstiefe.
-
Ferner fordert die Beantwortungstiefen-Steuereinheit 104 die Semantic-Engine 105 auf, eine Suche durchzuführen. Ferner veranlasst die Beantwortungstiefen-Steuereinheit 104 die Semantic-Engine 105, die Suche zu wiederholen, bis die Tiefe der Suche mit der Semantic-Engine 105 die Beantwortungstiefe erreicht. Zum Beispiel passt die Beantwortungstiefen-Steuereinheit 104 die Häufigkeit der Ausführung der Semantic-Engine 105 an.
-
Die Beantwortungstiefen-Steuereinheit 104 entspricht einer Tiefenerfassungseinheit und einer Suchsteuereinheit. Ferner entspricht ein Prozess, der durch die Beantwortungstiefen-Steuereinheit 104 durchgeführt wird, einem Tiefenerfassungsprozess und einem Suchsteuerungsprozess.
-
Genauer ist die Semantic-Engine 105 eine Inferenzvorrichtung oder dergleichen, die maschinelles Lernen und/oder ein RDF (Resource Description Framework) nutzt. Die Semantic-Engine 105 könnte auch nur einen Teil des maschinellen Lernens und des RDF nutzen. Ferner kann die Semantic-Engine 105 auch das maschinelle Lernen und den RDF parallel oder nacheinander nutzen.
-
Die Datenbeschaffungseinheit 101, die Anwendung 103, die Beantwortungstiefen-Steuereinheit 104 und die Semantic-Engine 105 werden von einem Programm verwirklicht. Das Programm, das die Datenbeschaffungseinheit 101, die Anwendung 103, die Beantwortungstiefen-Steuereinheit 104 und die Semantic-Engine 105 verwirklicht, wird von dem Prozessor 901 ausgeführt.
-
Ferner können die Datenbeschaffungseinheit 101, die Beantwortungstiefen-Steuereinheit 104 und die Semantic-Engine 105 von jeweils eigener Hardware verwirklicht werden.
-
1 stellt ein Beispiel dar, in dem die Datenbeschaffungseinheit 101, die Anwendung 103, die Beantwortungstiefen-Steuereinheit 104 und die Semantic-Engine 105 von dem Programm verwirklicht werden und der Prozessor 901 das Programm ausführt.
-
Die Kommunikationseinheit 100 wird von der Kommunikationsvorrichtung 900 verwirklicht.
-
Der Data Lake 102 und die Ontologie 106 werden in der Speichervorrichtung 902 (die einen Hauptspeicher und eine Hilfsspeichervorrichtung einschließt) bereitgestellt. Man beachte, dass der Data Lake 102 und die Ontologie 106 durch jeweils eigene Hardware verwirklicht werden können.
-
*** Beschreibung der Funktionsweise***
-
3 stellt ein Beispiel für die Funktionsweise des Edge-Systems 10 gemäß der vorliegenden Ausführungsform dar.
-
Zuerst erfasst die Beantwortungstiefen-Steuereinheit 104 die Anwendungsmetadaten einschließlich der Frage und der Beantwortungstiefe aus der Anwendung 103 (Schritt S01).
-
Dann erfasst die Beantwortungstiefen-Steuereinheit 104 die Messdaten, die für das maschinelle Lernen erforderlich sind, und Linked Data, die für die Inferenzvorrichtung erforderlich sind, aus dem Data Lake 102 und der Ontologie 106 (Schritt S02).
-
Dann gibt die Beantwortungstiefen-Steuereinheit 104 die Eingangsdaten an die Semantic-Engine 105 aus.
-
Dann führt die Semantic-Engine 105 die Suche gemäß der Frage aus, die in den Anwendungsmetadaten enthalten ist (Schritt S03).
-
Man beachte, dass die Semantic-Engine 105 die Suche unter Verwendung der Anwendungsmetadaten und der Metadaten der Messdaten, die in dem Data Lake 102 gespeichert sind, durchführen kann. Genauer kann die Semantic-Engine 105 die Daten gemäß einem Zeitraum, einem Installationsort des Sensors oder dergleichen eingrenzen. Ferner kann die Semantic-Engine 105 die Suche unter Verwendung eines letzten Ausführungsergebnisses rekursiv durchführen.
-
Wenn der RDF in der Semantic-Engine 105 verwendet wird, kann die Beantwortungstiefen-Steuereinheit 104 die Linked Data beim Starten des Edge-Systems 10 vorab lesen, um die Last wegen des Ladens der Linked Data zu verringern.
-
Nach der Ausführung der Semantic-Engine 105 führt die Beantwortungstiefen-Steuereinheit 104 einen Beantwortungstiefen-Bestimmungsprozess durch (Schritt S04). Das heißt, die Beantwortungstiefen-Steuereinheit 104 bestimmt, ob oder ob nicht die Tiefe (die Zahl der Rekursionen und der Grad der Abstraktion) der Suche mit der Semantic-Engine 105 die Beantwortungstiefe erreicht. Als Folge des Beantwortungstiefen-Bestimmungsprozesses werden bei Fortsetzung des Prozesses (JA in Schritt S05) Prozesse während und nach der Eingangsdatenerfassung (S02) wiederholt. Wenn der Prozess dagegen nicht fortgesetzt wird (NEIN in Schritt S05), schickt die Beantwortungstiefen-Steuereinheit 104 der Anwendung 103 ein Ausführungsergebnis bzw. ein Ergebnis der Ausführung der Semantic-Engine 105 zurück (Schritt S06).
-
4 stellt Details des Beantwortungstiefen-Bestimmungsprozesses dar (Schritt S04 in 3).
-
Die Beantwortungstiefen-Steuereinheit 104 erfasst die Beantwortungstiefe, die von der Anwendung gefordert wird, aus den Anwendungsmetadaten (Schritt S601).
-
Dann spezifiziert die Beantwortungstiefen-Steuereinheit 104 die Ausführungstiefe auf Basis des Ausführungsergebnisses der Semantic-Engine 105 oder der Tiefe in der Parent-Child-Beziehung der Ontologie (Schritt S602). Wie oben beschrieben, ist die Ausführungstiefe beispielsweise die Zahl der Rekursionen mit der Semantic-Engine 105 oder der Grad der Abstraktion, wie in 23 als Beispiel dargestellt ist.
-
Wenn die Ausführungstiefe geringer ist als die Beantwortungstiefe (JA in Schritt S603), entscheidet die Beantwortungstiefen-Steuereinheit 104, den Prozess der Semantic-Engine 105 fortzusetzen (Schritt S604).
-
Wenn die Ausführungstiefe mindestens so groß ist wie die Beantwortungstiefe (NEIN in Schritt S603), entscheidet die Beantwortungstiefen-Steuereinheit 104, den Prozess der Semantic-Engine 105 zu beenden (Schritt S605).
-
Man beachte, dass der Beantwortungstiefen-Bestimmungsprozess (Schritt S04 in 3) für jedes der Ausführungsergebnisse einzeln implementiert wird, auch wenn eine Mehrzahl von Ausführungsergebnissen der Semantic-Engine 105 vorhanden sind.
-
*** Beschreibung der Wirkung der Ausführungsform ***
-
Wie oben beschrieben, veranlasst die Beantwortungstiefen-Steuereinheit 104 die Semantic-Engine 105, die Suche zu wiederholen, bis die Ausführungstiefe der Semantic-Engine 105 die Beantwortungstiefe erreicht. Daher kann sogar das Edge-System 10, dessen Rechenressourcen und Speicherkapazität begrenzt sind, die Frage von der Anwendung 103 angemessen beantworten, wie bei dem Cloud-System 11. Das heißt, in der vorliegenden Ausführungsform ist es möglich, auf einer beliebigen Beantwortungstiefe (einem beliebigen Grad der Abstraktion) gemäß der Anforderung von der Anwendung 103 zu antworten.
-
Ferner werden in der vorliegenden Ausführungsform die meisten Funktionen des loT-Systems an dem Edge-System 10 im Intranet 14 ausgeführt. Daher können gemäß der vorliegenden Ausführungsform die Funktionen des loT-Systems auch in einer Situation, wo das Cloud-System 11 nicht nutzbar ist, weil das Internet 13 nicht nutzbar ist, an der Anwendung 103 bereitgestellt werden (verbesserte Verfügbarkeit).
-
Ferner ist es in der vorliegenden Ausführungsform nicht notwendig, für jede Anwendung 103 ein jeweils eigenes loT-System zu konstruieren (Verringerung von Kosten und Verbesserung der Entwicklungseffizienz).
-
Man beachte, dass in der vorliegenden Ausführungsform eine Bedingung zum Beenden eines Rekursionsprozesses zwar auf Basis der Gesamtzahl von Rekursionen oder des Grades der Abstraktion bestimmt wird, die Bedingung zum Beenden des Rekursionsprozesses aber auch auf Basis der Gesamtzahl von Ergebnissen, die im Verlaufe einer Rekursionsausführung erhalten werden, bestimmt werden kann. Ferner kann die Bedingung zum Beenden des Rekursionsprozesses auf Basis dessen bestimmt werden, ob oder ob nicht in einem Bewertungsergebnis von oben n (n ist eine natürliche Zahl) erhalten werden, was in einer siebten Ausführungsform beschrieben wird. Man beachte, dass die Anwendungsmetadaten beschreiben, welche Bedingung verwendet wird, um den Rekursionsprozess zu beenden.
-
Zweite Ausführungsform.
-
In der vorliegenden Ausführungsform wird eine Konfiguration beschrieben, die ein horizontales Skalieren oder ein Abwärts-Skalieren des Edge-Systems ermöglicht.
-
In der vorliegenden Ausführungsform werden vor allem Unterschiede zur ersten Ausführungsform beschrieben.
-
Man beachte, dass Dinge, die im Folgenden nicht beschrieben werden, denen in der ersten Ausführungsform gleich sind.
-
*** Beschreibung der Konfiguration ***
-
5 stellt ein Beispiel für eine Konfiguration des loT-Systems 1 gemäß der vorliegenden Ausführungsform dar.
-
In 5 wird ein Master-Slave-Modell übernommen, das leicht zu verwirklichen ist.
-
In der vorliegenden Ausführungsform sind ein Netzspeicher 15 und ein Edge-System (Untersystem) 16 neu an dem Intranet 14 installiert. Ferner wird es in der vorliegenden Ausführungsform als Edge-System (Hauptsystem) bezeichnet.
-
Der Netzspeicher 15 ist nicht unbedingt erforderlich. Jedoch erleichtert die Speicherung der von dem Edge-System (Hauptsystem) 10 und dem Edge-System (Untersystem) 16 gemeinsam verwendeten Messdaten in dem Netzspeicher 15 eine Verwaltung der Messdaten.
-
Man beachte, dass eine Mehrzahl von Edge-Systemen (Untersystemen) 16 vorhanden sein können.
-
6 stellt Beispiele für eine funktionale Konfiguration des Netzspeichers 15, des Edge-Systems (Hauptsystems) 10 und des Edge-Systems (Untersystems) 16 dar.
-
In der vorliegenden Ausführungsform sind die Datenbeschaffungseinheit 101 und der Data Lake 102, die in der ersten Ausführungsform beschrieben sind, in dem Netzspeicher 15 und nicht in dem Edge-System (Hauptsystems) 10 installiert. Dagegen ist eine Semantic-Engine-Auswahleinheit 107 zu dem Edge-System (Hauptsystem) 10 hinzugefügt worden.
-
Die Semantic-Engine-Auswahleinheit 107 wählt die Semantic-Engine gemäß einer Domäne der Frage von der Anwendung oder einer Frage zu einer Zeit der Ausführung der Rekursion aus. Genauer wählt die Semantic-Engine-Auswahleinheit 107 aus der Semantic-Engine 105, die in dem Edge-System (Hauptsystem) 10 enthalten ist, und einer Semantic-Engine 401, die in dem Edge-System (Untersystem) 16 enthalten ist, eine Semantic-Engine aus, die veranlasst wird, die Suche durchzuführen. Dann veranlasst die Semantic-Engine-Auswahleinheit 107 die ausgewählte Semantic-Engine, die Suche durchzuführen.
-
Die Semantic-Engine-Auswahleinheit 107 wählt beispielsweise von der Semantic-Engine 105 des Edge-Systems (Hauptsystems) 10 und der Semantic-Engine 401 des Edge-Systems (Untersystems) 16 eine auf Basis einer Endpunktspezifizierungstabelle 2000 aus, die in 24 dargestellt ist. In 24 ist ein Endpunkt-URI (Uniform Resource Identifier) der auszuwählenden Semantic-Engine für jede Domäne (eine Art der Suche) der Frage definiert. Die Semantic-Engine-Auswahleinheit 107 wählt die Semantic-Engine, die der Domäne der Frage von der Anwendung 103 entspricht, unter Bezugnahme auf die Endpunktspezifizierungstabelle 2000 in 24 aus. Man beachte, dass die Endpunktspezifizierungstabelle 2000 in 24 Auswahlkriteriumsinformationen entspricht.
-
Die Semantic-Engine-Auswahleinheit 107 wird beispielsweise von einem Programm verwirklicht und von dem Prozessor 901 ausgeführt. Ferner kann die Semantic-Engine-Auswahleinheit 107 von eigener Hardware verwirklicht werden.
-
In dem Netzspeicher 15 beschafft sich die Datenbeschaffungseinheit 101 die Messdaten des Sensors 12 über das Intranet 14 und eine Kommunikationseinheit 300. Die Datenbeschaffungseinheit 101 speichert die beschafften Messdaten in dem Data Lake 102, wie bei der ersten Ausführungsform.
-
Eine Datenerfassungseinheit 301 ruft die Daten aus dem Data Lake 102 ab, um eine Anforderung von dem Edge-System (Hauptsystem) 10 oder dem Edge-System (Untersystem) 16 zu beantworten. Ferner sendet die Datenerfassungseinheit 301 die abgerufenen Daten an das Edge-System (Hauptsystem) 10 oder das Edge-System (Untersystem) 16.
-
Die Datenbeschaffungseinheit 101 und die Datenerfassungseinheit 301 werden von einem Programm verwirklicht. Das Programm, das die Datenbeschaffungseinheit 101 und die Datenerfassungseinheit 301 verwirklicht, wird von einem Prozessor 701 ausgeführt.
-
Ferner können die Datenbeschaffungseinheit 101 und die Datenerfassungseinheit 301 von jeweils eigener Hardware verwirklicht werden.
-
6 stellt ein Beispiel dar, in dem die Datenbeschaffungseinheit 101 und die Datenerfassungseinheit 301 von dem Programm verwirklicht werden und der Prozessor 701 das Programm ausführt.
-
Die Kommunikationseinheit 300 wird von einer Kommunikationsvorrichtung 700 verwirklicht.
-
Der Data Lake 102 wird in einer Speichervorrichtung 702 (die einen Hauptspeicher und eine Hilfsspeichervorrichtung aufweist) bereitgestellt. Man beachte, dass der Data Lake 102 durch eigene Hardware verwirklicht werden kann.
-
Das Edge-System (Untersystem) 16 führt die Semantic-Engine 401 auf Basis der Frage von dem Edge-System (Hauptsystem) 10 aus. Dann schickt das Edge-System (Untersystem) 16 das Ausführungsergebnis der Semantic-Engine 401 an das Edge-System (Hauptsystem) 10 zurück. Ferner erfasst das Edge-System (Untersystem) 16 Eingangsdaten, die zur Ausführung der Semantic-Engine 401 benötigt werden, nach Bedarf aus dem Netzspeicher 15 oder der Ontologie 402.
-
Eine Kommunikationseinheit 400 wird von einer Kommunikationsvorrichtung 600 verwirklicht.
-
Die Semantic-Engine 401 wird von einem Prozessor 601 ausgeführt. Die Semantic-Engine 401 kann durch eigene Hardware verwirklicht werden.
-
6 stellt ein Beispiel dar, in dem die Semantic-Engine 401 von dem Prozessor 601 ausgeführt wird.
-
Die Ontologie 402 wird in einer Speichervorrichtung 602 (die einen Hauptspeicher und eine Hilfsspeichervorrichtung aufweist) bereitgestellt. Man beachte, dass die Ontologie 402 durch eigene Hardware verwirklicht werden kann.
-
*** Beschreibung der Funktionsweise***
-
7 stellt ein Beispiel für die Funktionsweise des Edge-Systems (Hauptsystems) 10 gemäß der vorliegenden Ausführungsform dar.
-
Im Folgenden werden nur Unterschiede zur ersten Ausführungsform beschrieben.
-
Da der Schritt S01 dem in der ersten Ausführungsform gleich ist, werden ausführliche Beschreibungen weggelassen.
-
Als nächstes wählt die Semantic-Engine-Auswahleinheit 107 die Semantic-Engine aus (Schritt S07).
-
Wenn die Semantic-Engine-Auswahleinheit 107 die Semantic-Engine 105 (den Endpunkt-URI der Semantic-Engine 105) in dem Edge-System (Hauptsystem) 10 auswählt (JA in Schritt S08), wird der gleiche Prozess wie in der ersten Ausführungsform durchgeführt (Schritte S02 bis S06).
-
Wenn die Semantic-Engine-Auswahleinheit 107 dagegen die Semantic-Engine 401 (den Endpunkt-URI der Semantic-Engine 401) des Edge-Systems (Untersystems) 16 auswählt (NEIN in Schritt S08), stellt die Semantic-Engine-Auswahleinheit 107 eine Frage an den Endpunkt-URI des Edge-Systems (Untersystems) 16 (Schritt S09). Dann erfasst die Semantic-Engine-Auswahleinheit 107 das Ausführungsergebnis aus dem Edge-System (Untersystem) 16.
-
Man beachte, dass dies in 7 zwar nicht dargestellt ist, aber die Semantic-Engine-Auswahleinheit 107 die Frage überspringt, ohne die Frage auszuführen, wenn die Semantic-Engine-Auswahleinheit 107 den Endpunkt-URI der Semantic-Engine nicht spezifizieren kann. Alternativ dazu schickt die Semantic-Engine-Auswahleinheit 107 eine Fehlermeldung an die Anwendung 103 zurück.
-
Prozesse nach der Erfassung des Ausführungsergebnisses der Semantic-Engine sind denen in der ersten Ausführungsform gleich (Schritte S04 bis S06).
-
8 stellt Details des Semantic-Engine-Auswahlprozesses (Schritt S07) in 7 dar.
-
Die Semantic-Engine-Auswahleinheit 107 erzeugt eine Frage, die diesmal auszuführen ist, aus den Anwendungsmetadaten oder dem Ausführungsergebnis der Semantic-Engine. Dann spezifiziert die Semantic-Engine-Auswahleinheit 107 die Domäne der Frage (Schritt S701).
-
Dann spezifiziert die Semantic-Engine-Auswahleinheit 107 den Endpunkt-URI der Semantic-Engine entsprechend der spezifizierten Domäne der Frage in der Endpunktspezifizierungstabelle 2000 in 24 (Schritt S702).
-
9 stellt ein Beispiel für die Funktionsweise des Edge-Systems (Untersystems) 16 dar.
-
Genauer stellt 9 einen Prozessablauf für die in Schritt S09 in 7 gestellte Frage dar.
-
Zuerst empfängt die Semantic-Engine 401 die Frage von dem Edge-System (Hauptsystem) 10 über die Kommunikationseinheit 400 (S901).
-
Dann erfasst die Semantic-Engine 401 die erforderlichen Eingangsdaten (Schritt S902).
-
Wenn die Messdaten erforderlich sind, befragt die Semantic-Engine 401 die Datenerfassungseinheit 301 des Netzspeichers 15 und bezieht die Messdaten. Wenn für eine RDF-Ausführung die Linked Data erforderlich sind, lädt die Semantic-Engine 401 die Linked Data aus der Ontologie 402.
-
Dann führt die Semantic-Engine 401 die Suche unter Verwendung der Eingangsdaten aus (Schritt S903).
-
Dann schickt die Semantic-Engine 401 das Ausführungsergebnis über die Kommunikationseinheit 400 an das Edge-System (Hauptsystem) 10 zurück (S904).
-
Dabei wird dem Intranet 14 während einer horizontalen Skalierung ein Edge-System (Untersystem) hinzugefügt, das dem Edge-System (Untersystem) 16 entspricht. Anschließend fügt die Semantic-Engine-Auswahleinheit 107 der Endpunktspezifizierungstabelle 2000 eine Domäne der Frage, die von dem neu hinzugefügten Edge-System (Untersystem) abgearbeitet wird, und den Endpunkt-URI hinzu.
-
Dagegen wird während einer Abwärts-Skalierung das Edge-System (Untersystem), das fallengelassen werden soll, aus dem Intranet 14 genommen. Die Semantic-Engine-Auswahleinheit 107 löscht eine Domäne der Frage, die von dem herausgenommenen Edge-System (Untersystem) abgearbeitet wird, und den Endpunkt-URI aus der Endpunktspezifizierungstabelle 2000.
-
In der vorliegenden Ausführungsform wurden die Beschreibungen anhand eines Beispiels in Form des Master-Slave-Modelltyps gegeben. Jedoch kann ein Modell verwendet werden, das einen Servant, wie etwa pure P2P, verwendet, bei dem Funktionen des Edge-Systems symmetrisch sind.
-
Ferner wurde in der vorliegenden Ausführungsform ein Beispiel beschrieben, in dem das Edge-System (Untersystem) 16 verwendet wird, das in dem Intranet 14 installiert ist. Stattdessen kann das Edge-System (Untersystem) 16 in dem Internet 13 installiert sein, und es kann das in dem Internet 13 installierte Edge-System (Untersystem) 16 verwendet werden.
-
*** Beschreibung der Wirkung der Ausführungsform ***
-
Wie oben beschrieben, ist es gemäß der vorliegenden Ausführungsform leicht, horizontal und abwärtszuskalieren. Das heißt, gemäß der vorliegenden Ausführungsform kann eine Verarbeitungsfähigkeit leicht verstärkt werden und die Verarbeitungsfähigkeit kann leicht gesenkt werden.
-
Ferner wird gemäß der vorliegenden Ausführungsform durch Erstellen einer Mehrzahl von Edge-Systemen (Untersystemen) mit der gleichen Funktion eine Redundanz verwirklichbar und wird die Verfügbarkeit verbessert.
-
Dritte Ausführungsform.
-
In der vorliegenden Ausführungsform wird eine Konfiguration beschrieben, bei der eine Semantic-Engine des Cloud-Systems ausgewählt wird.
-
In der vorliegenden Ausführungsform werden vor allem Unterschiede zur zweiten Ausführungsform beschrieben.
-
Man beachte, dass Dinge, die im Folgenden nicht beschrieben werden, denen der zweiten Ausführungsform gleich sind.
-
*** Beschreibung der Konfiguration ***
-
10 stellt Beispiele für die funktionale Konfiguration des Edge-Systems 10 und des Cloud-Systems 11 gemäß der vorliegenden Ausführungsform dar.
-
Die funktionale Konfiguration des Edge-Systems 10 ist der in der ersten Ausführungsform gleich.
-
In dem Cloud-System 11 beschafft eine Datenbeschaffungseinheit 203 die Messdaten des Sensors 12 von dem Edge-System 10. Dann speichert die Datenbeschaffungseinheit 203 die beschafften Messdaten in einem Data Lake 204.
-
Das Edge-System 10 kann die Messdaten auswählen, die an das Cloud-System 11 zu senden sind. Ferner kann das Edge-System 10 durch Umwandeln der an das Cloud-System 11 zu sendenden Messdaten in einen statistischen Wert und so weiter anonymisiert werden.
-
Die Datenbeschaffungseinheit 203 und eine Semantic-Engine 205 werden von einem Prozessor 801 ausgeführt.
-
Ferner können die Datenbeschaffungseinheit 203 und die Semantic-Engine 205 von jeweils eigener Hardware verwirklicht werden.
-
10 stellt ein Beispiel dar, in dem die Datenbeschaffungseinheit 203 und die Semantic-Engine 205 von dem Prozessor 801 ausgeführt werden.
-
Eine Kommunikationseinheit 200 wird von einer Kommunikationsvorrichtung 800 verwirklicht.
-
Der Data Lake 204 und die Ontologie 202 werden in einer Speichervorrichtung 802 (die einen Hauptspeicher und eine Hilfsspeichervorrichtung einschließt) bereitgestellt. Der Data Lake 204 und die Ontologie 202 können durch jeweils eigene Hardware verwirklicht werden.
-
*** Beschreibung der Funktionsweise***
-
Da Prozesse des Edge-Systems 10 gemäß der vorliegenden Ausführungsform denen des Edge-Systems (Hauptsystems) 10 in der zweiten Ausführungsform gleich sind, werden nur Unterschiede beschrieben.
-
Um die Semantic-Engine 205 des Cloud-Systems 11 nutzen zu können, fügt die Semantic-Engine-Auswahleinheit 107 der Endpunktspezifizierungstabelle 2000 in 24 die Domäne der Frage, die von der Semantic-Engine 205 abgearbeitet wird, und den Endpunkt-URI hinzu.
-
Dann wählt die Semantic-Engine-Auswahleinheit 107 von der Semantic-Engine 105 des Edge-Systems (Hauptsystems) 10 und der Semantic-Engine 205 des Cloud-Systems 11 eine auf Basis der Endpunktspezifizierungstabelle 2000 aus.
-
In dem Cloud-System 11 erfasst die Semantic-Engine 205 die Eingangsdaten, die für die Ausführung der Suche erforderlich sind, sobald sie die Frage von dem Edge-System 10 empfängt.
-
Wenn die Messdaten erforderlich sind, bezieht die Semantic-Engine 205 die Messdaten von dem Data Lake 204.
-
Wenn die Linked Data für die RDF-Ausführung erforderlich sind, lädt die Semantic-Engine 205 die Linked Data aus der Ontologie 202.
-
Dann führt die Semantic-Engine 205 die Suche unter Verwendung der Eingangsdaten aus.
-
Dann schickt die Semantic-Engine 205 das Ausführungsergebnis über die Kommunikationseinheit 200 an das Edge-System 10 zurück.
-
*** Beschreibung der Wirkung der Ausführungsform ***
-
Gemäß der vorliegenden Ausführungsform wird ein Cloud-Systems, dessen Ressourcen leicht ausreichen, veranlasst, einen Teil eines Suchprozesses der Semantic-Engine abzuarbeiten, und daher ist es möglich, Beantwortungsvarianten für die Anwendung zu erweitern.
-
Ferner ist es gemäß der vorliegenden Ausführungsform möglich, gemäß der Frage von der Anwendung zu bestimmen, ob oder ob nicht das Cloud-System verwendet wird, und daher ist es möglich, die Lastkonzentration in dem Cloud-System zu vermeiden.
-
Vierte Ausführungsform.
-
In der vorliegenden Ausführungsform wird eine Konfiguration beschrieben, die ein Ergebnis, dessen Relevanz für die Frage von der Anwendung gering ist, aus dem Ausführungsergebnis der Semantic-Engine streicht und die eine Verbesserung der Genauigkeit des Ausführungsergebnisses ermöglicht.
-
In der vorliegenden Ausführungsform werden vor allem Unterschiede zur ersten Ausführungsform beschrieben.
-
Man beachte, dass Dinge, die im Folgenden nicht beschrieben werden, denen in der ersten Ausführungsform gleich sind.
-
*** Beschreibung der Konfiguration ***
-
11 stellt ein Beispiel für eine funktionale Konfiguration des Edge-Systems 10 gemäß der vorliegenden Ausführungsform dar.
-
Es werden nur Unterschiede zur ersten Ausführungsform beschrieben.
-
In 11 wird eine Relevanzbestimmungseinheit 108 zwischen der Semantic-Engine 105 und der Beantwortungstiefen-Steuereinheit 104 hinzugefügt.
-
Die Relevanzbestimmungseinheit 108 erfasst die Frage, die von der Beantwortungstiefen-Steuereinheit 104 an die Semantic-Engine 105 geht. Dann sagt die Relevanzbestimmungseinheit 108 das Ausführungsergebnis der Semantic-Engine 105 für die erfasste Frage voraus. Dann bestimmt die Relevanzbestimmungseinheit 108, ob oder ob nicht das vorausgesagte Ausführungsergebnis mit dem von der Anwendung 103 benötigten Ausführungsergebnis übereinstimmt. Wenn das vorausgesagte Ausführungsergebnis nicht mit dem Ausführungsergebnis übereinstimmt, das von der Anwendung 103 benötigt wird, verwirft die Relevanzbestimmungseinheit 108 die Frage.
-
Ferner erfasst die Relevanzbestimmungseinheit 108 die Ergebnisse der Ausführung der Semantic-Engine 105. Die Relevanzbestimmungseinheit 108 vergleicht die Frage von der Anwendung 103 mit dem Ausführungsergebnis der Semantic-Engine 105. Dann bestimmt die Relevanzbestimmungseinheit 108, ob oder ob nicht ein Ausführungsergebnis, das nicht mit der Frage übereinstimmt, in den Ausführungsergebnissen der Semantic-Engine 105 vorhanden ist. Wenn das Ausführungsergebnis, das nicht mit der Frage übereinstimmt, in den Ausführungsergebnissen der Semantic-Engine 105 vorhanden ist, verwirft die Relevanzbestimmungseinheit 108 das Ausführungsergebnis, das nicht mit der Frage übereinstimmt.
-
Die Relevanzbestimmungseinheit 108 entspricht einer Fragenaussonderungseinheit und einer Ergebnisaussonderungseinheit.
-
*** Beschreibung der Funktionsweise***
-
12 stellt ein Beispiel für die Funktionsweise des Edge-Systems 10 gemäß der vorliegenden Ausführungsform dar.
-
Man beachte, dass im Folgenden nur Unterschiede zur ersten Ausführungsform beschrieben werden.
-
Da der Schritt S01 dem in der ersten Ausführungsform gleich ist, werden ausführliche Beschreibungen weggelassen.
-
Als nächstes implementiert die Relevanzbestimmungseinheit 108 eine Relevanzbestimmung an der Frage für die Semantic-Engine 105 (Schritt S10).
-
Das heißt, die Relevanzbestimmungseinheit 108 sagt das Ausführungsergebnis der Semantic-Engine 105 für die Frage voraus und verwirft die Frage, wenn das vorausgesagte Ausführungsergebnis nicht mit dem Ausführungsergebnis übereinstimmt, das von der Anwendung 103 benötigt wird.
-
Da die Schritte S02 und S03 denen in der ersten Ausführungsform gleich sind, werden ausführliche Beschreibungen weggelassen.
-
Dann implementiert die Relevanzbestimmungseinheit 108 die Relevanzbestimmung an den Ausführungsergebnissen der Semantic-Engine 105 (Schritt S11).
-
Das heißt, wenn ein Ausführungsergebnis, das nicht mit der Frage übereinstimmt, in den Ausführungsergebnissen der Semantic-Engine 105 vorhanden ist, verwirft die Relevanzbestimmungseinheit 108 das Ausführungsergebnis, das nicht mit der Frage übereinstimmt.
-
13 stellt Details des Relevanzbestimmungsprozesses (die Frage) dar (Schritt S10 in 12).
-
Die Relevanzbestimmungseinheit 108 erfasst die Anwendungsmetadaten aus der Beantwortungstiefen-Steuereinheit 104 (Schritt S1001).
-
Dann berechnet die Relevanzbestimmungseinheit 108 einen Grad der Ähnlichkeit zwischen einem Satz aus allen Antworten, die von der Semantic-Engine 105 ausgegeben werden, (einem Ausgabesatz) und den Anwendungsmetadaten (Schritt S1002).
-
Das heißt, die Relevanzbestimmungseinheit 108 sagt alle Antworten voraus, die von der Semantic-Engine 105 auszugeben sind. Dann berechnet die Relevanzbestimmungseinheit 108 den Grad der Ähnlichkeit zwischen jeder einzelnen von den vorausgesagten Antworten und den Anwendungsmetadaten.
-
Die Relevanzbestimmungseinheit 108 berechnet den Grad der Ähnlichkeit beispielsweise wie folgt.
-
Hierbei wird der Fall betrachtet, dass „Drinnenaktion“ als Frage in den Anwendungsmetadaten enthalten ist. Es wird angenommen, dass „Queren eines Korridors (drinnen)“, „Spazierengehen (draußen)“ und „eine Treppe hoch gehen“ als Ausgabesatz der Semantic-Engine erhalten wurden. Die Relevanzbestimmungseinheit 108 verwendet einen euklidischen Abstand, eine Korrelationsfunktion, eine Likelihood-Funktion oder dergleichen als Grad der Ähnlichkeit. Hier wird angenommen, dass die Relevanzbestimmungseinheit 108 die Likelihood-Funktion nutzt.
-
Eine Likelihood-Funktion L ist definiert wie folgt.
-
Wenn P(A|B=b) eine bedingte Wahrscheinlichkeit für ein Vorkommen von A in einem Fall ist, wo B=b vorkommt, wird L(b|A)=oeP(A|B=b) formuliert (α ist ein proportionales Symbol).
-
Ein Grad der Ähnlichkeit von „Queren eines Korridors (drinnen)“ ist L(Drinnenaktion | Queren eines Korridors (drinnen))>0. Das heißt, ein Ereignis „Queren eines Korridors (drinnen)“ ist als die Drinnenaktion plausibel.
-
Ebenso gilt L(Drinnenaktion | Spazierengehen (draußen))=0 und L(Drinnenaktion | eine Treppe hoch gehen)=1/2. Da ein Ereignis „eine Treppe hoch gehen“ sowohl drinnen als auch draußen stattfinden kann, ist der Grad der Ähnlichkeit 1/2.
-
Dann vergleicht die Relevanzbestimmungseinheit 108 den Grad der Ähnlichkeit und einen Schwellenwert für alle Ausgabesätze (Schritt S1003).
-
Wenn auch nur eine Ausgabe vorhanden ist, wo der Grad der Ähnlichkeit mindestens so hoch ist wie der Schwellenwert (JA in Schritt S1003), gibt die Relevanzbestimmungseinheit 108 die Frage an die Semantic-Engine 105 aus (Schritt S1004).
-
Wenn dagegen bei jedem Ausgabesatz der Grad der Ähnlichkeit niedriger ist als der Schwellenwert (NEIN in Schritt S1003), gibt die Relevanzbestimmungseinheit 108 die Frage nicht an die Semantic-Engine 105 aus und streicht die Frage (Schritt S1005). Zu dieser Zeit teilt die Relevanzbestimmungseinheit 108 der Beantwortungstiefen-Steuereinheit 104 mit, dass keine valide Antwort existiert.
-
14 stellt Details eines Relevanzbestimmungsprozesses (ein Ausführungsergebnis) dar (Schritt S11 in 12).
-
Die Relevanzbestimmungseinheit 108 erfasst die Anwendungsmetadaten aus der Beantwortungstiefen-Steuereinheit 104 (Schritt S1101).
-
Dann berechnet die Relevanzbestimmungseinheit 108 einen Grad der Ähnlichkeit zwischen dem Ausführungsergebnis der Semantic-Engine 105 und den Anwendungsmetadaten (Schritt S1102).
-
Die Relevanzbestimmungseinheit 108 berechnet den Grad der Ähnlichkeit gemäß einem Rechenverfahren, das dem Rechenverfahren in Schritt S1002 in 13 gleich ist.
-
Dann vergleicht die Relevanzbestimmungseinheit 108 den Grad der Ähnlichkeit und den Schwellenwert für alle Ausführungsergebnisse (Schritt S1103).
-
Wenn der Grad der Ähnlichkeit niedriger ist als der Schwellenwert (NEIN in Schritt S1103), streicht die Relevanzbestimmungseinheit 108 ein entsprechendes Ausführungsergebnis der Semantic-Engine (Schritt S1104).
-
Falls dagegen der Grad der Ähnlichkeit mindestens so hoch ist wie der Schwellenwert (JA in Schritt S1103), gibt die Relevanzbestimmungseinheit 108 das Ausführungsergebnis an die Beantwortungstiefen-Steuereinheit 104 aus.
-
*** Beschreibung der Wirkung der Ausführungsform ***
-
Gemäß der vorliegenden Ausführungsform ist es möglich, einen Ressourcenverbrauch durch Unterdrücken eines unnötigen Rekursionsprozesses zu verringern.
-
Ferner wird gemäß der vorliegenden Ausführungsform ein Rauschen der Beantwortung für die Anwendung verringert.
-
Fünfte Ausführungsform.
-
In der vorliegenden Ausführungsform wird eine Konfiguration beschrieben, in der das Ausführungsergebnis der Semantic-Engine durch einen Thesaurus (ein Synonym, ein verwandtes Wort und ein assoziatives Wort) erweitert wird. Die Semantic-Engine kann Variationen der Ausführungsergebnisse durch rekursives Ausführen der Suche unter Verwendung des erweiterten Ausführungsergebnisses vergrößern.
-
In der vorliegenden Ausführungsform werden vor allem Unterschiede zur ersten Ausführungsform beschrieben.
-
Man beachte, dass Dinge, die im Folgenden nicht beschrieben werden, denen in der ersten Ausführungsform gleich sind.
-
*** Beschreibung der Konfiguration ***
-
15 stellt ein Beispiel für eine funktionale Konfiguration des Edge-Systems 10 gemäß der vorliegenden Ausführungsform dar.
-
Es werden nur Unterschiede zur ersten Ausführungsform beschrieben.
-
In 15 ist eine Ergebniserweiterungseinheit 109 zwischen der Semantic-Engine 105 und der Beantwortungstiefen-Steuereinheit 104 hinzugefügt.
-
Die Ergebniserweiterungseinheit 109 erfasst das Ausführungsergebnis der Semantic-Engine 105. Dann erweitert die Ergebniserweiterungseinheit 109 das Ausführungsergebnis der Semantic-Engine 105 unter Verwendung eines Thesaurus 110. Die Ergebniserweiterungseinheit 109 schickt einen erweiterten Ausführungsplan an die Beantwortungstiefen-Steuereinheit 104 zurück.
-
*** Beschreibung der Funktionsweise***
-
16 stellt ein Beispiel für die Funktionsweise des Edge-Systems 10 gemäß der vorliegenden Ausführungsform dar.
-
Man beachte, dass im Folgenden nur Unterschiede zur ersten Ausführungsform beschrieben werden.
-
Da die Schritte S01 bis S03 denen in der ersten Ausführungsform gleich sind, werden ausführliche Beschreibungen weggelassen.
-
Dann erweitert die Ergebniserweiterungseinheit 109 das Ausführungsergebnis der Semantic-Engine 105 (Schritt S12).
-
Infolgedessen werden Variationen von Eingaben in die Semantic-Engine 105 während einer Durchführung der Rekursionsausführung größer.
-
Da die Schritte S04 bis S06 denen in der ersten Ausführungsform gleich sind, werden ausführliche Beschreibungen weggelassen.
-
17 stellt Details eines Ergebniserweiterungsprozesses dar (Schritt S12 in 16).
-
Die Ergebniserweiterungseinheit 109 erfasst das Ausführungsergebnis der Semantic-Engine 105 (Schritt S1201).
-
Dann spezifiziert die Ergebniserweiterungseinheit 109 ein Synonym, ein verwandtes Wort, ein assoziatives Wort und dergleichen, das aus dem Ausführungsergebnis inferiert wird, unter Verwendung des Thesaurus 110 (Schritt S1202).
-
Dann gibt die Ergebniserweiterungseinheit 109 das Ausführungsergebnis der Semantic-Engine 105 und das in Schritt S1202 spezifizierte Wort an die Beantwortungstiefen-Steuereinheit 104 aus.
-
*** Beschreibung der Wirkung der Ausführungsform ***
-
Gemäß der vorliegenden Ausführungsform wird die Genauigkeit des Ergebnisses, das der Anwendung als Antwort gegeben wird, durch Verhindern einer ungenügenden Inferenz aufgrund einer Inkonsistenz von Worten verbessert.
-
Sechste Ausführungsform.
-
In der vorliegenden Ausführungsform wird eine Konfiguration beschrieben, in der die Ontologie (Linked Data) des RDF und Modelldaten des maschinellen Lernens, die von der Semantic-Engine des Edge-Systems verwendet werden, aus dem Cloud-System erfasst werden. Durch Erfassen der Ontologie (Linked Data) und der Modelldaten aus dem Cloud-System ist es möglich, ein Verhalten der Semantic-Engine dynamisch zu steuern.
-
In der vorliegenden Ausführungsform werden vor allem Unterschiede zur ersten Ausführungsform beschrieben.
-
Man beachte, dass Dinge, die im Folgenden nicht beschrieben werden, denen in der ersten Ausführungsform gleich sind.
-
*** Beschreibung der Konfiguration ***
-
18 stellt Beispiele für die funktionale Konfiguration des Edge-Systems 10 und des Cloud-Systems 11 gemäß der vorliegenden Ausführungsform dar.
-
Man beachte, dass 18 nur Konfigurationen darstellt, die eine Erfassung und Extraktion der Ontologie (Linked Data) und der Modelldaten des maschinellen Lernens betreffen.
-
Das heißt, in dem Edge-System 10 gemäß der vorliegenden Ausführungsform ist eine Ontologieerfassungseinheit 111 zu der Konfiguration der ersten Ausführungsform hinzugefügt worden. Ferner ist in dem Cloud-System 11 gemäß der vorliegenden Ausführungsform eine Ontologieextraktionseinheit 201 zu der Konfiguration der dritten Ausführungsform hinzugefügt worden.
-
In dem Edge-System 10 erfasst die Ontologieerfassungseinheit 111 aus dem Cloud-System 11 mindestens eines von der Ontologie (Linked Data) und den Modelldaten des maschinellen Lernens, die von der Semantic-Engine 105 genutzt werden.
-
In dem Cloud-System 11 extrahiert die Ontologieextraktionseinheit 201 mindestens eines von der Ontologie (Linked Data) und den Modelldaten des maschinellen Lernens, die von der Semantic-Engine 105 genutzt werden, auf Basis der Anfrage von dem Edge-System 10. Dann sendet die Ontologieextraktionseinheit 201 die extrahierte Ontologie (Linked Data) oder/und die Modelldaten an das Edge-System 10.
-
*** Beschreibung der Funktionsweise***
-
19 stellt ein Beispiel für die Funktionsweise des Edge-Systems 10 gemäß der vorliegenden Ausführungsform dar.
-
Man beachte, dass im Folgenden ein Beispiel beschrieben wird, in dem die Ontologieerfassungseinheit 111 die Linked Data und die Modelldaten empfängt, jedoch kann die Ontologieerfassungseinheit 111 auch nur entweder die Linked Data oder die Modelldaten empfangen. Ferner kann die Ontologieerfassungseinheit 111 andere Daten als die Linked Data und die Modelldaten empfangen, solange die Daten von der Semantic-Engine 105 genutzt werden.
-
Zuerst erfasst die Ontologieerfassungseinheit 111 die Anwendungsmetadaten (Schritt S11101).
-
Dann sendet die Ontologieerfassungseinheit 111 eine Frage an das Cloud-System 11, um die Linked Data und die Modelldaten zu erfassen (Schritt S11102). Die Frage schließt die Anwendungsmetadaten ein.
-
Dann empfängt die Ontologieerfassungseinheit 111 die Linked Data und die Modelldaten von dem Cloud-System 11 und ferner speichert sie die empfangenen Linked Data und Modelldaten in der Ontologie 106 (Schritt S11103).
-
20 stellt ein Beispiel für die Funktionsweise des Cloud-Systems 11 gemäß der vorliegenden Ausführungsform dar.
-
Man beachte, dass im Folgenden ein Beispiel beschrieben wird, in dem die Ontologieextraktionseinheit 201 die Linked Data und die Modelldaten extrahiert, jedoch kann die Ontologieextraktionseinheit 201 auch nur entweder die Linked Data oder die Modelldaten extrahieren. Ferner kann die Ontologieextraktionseinheit 201 andere Daten als die Linked Data und die Modelldaten extrahieren, solange die Daten von der Semantic-Engine 105 genutzt werden.
-
Zuerst empfängt die Ontologieextraktionseinheit 201 die Frage von dem Edge-System 10 und extrahiert die Anwendungsmetadaten aus der Frage (Schritt S20101).
-
Dann extrahiert die Ontologieextraktionseinheit 201 die Linked Data und die Modelldaten, die eine Bedingung erfüllen, aus der Ontologie 202 auf Basis von Informationen in den Anwendungsmetadaten (Schritt S20102). Genauer grenzt die Ontologieextraktionseinheit 201 die Linked Data und die Modelldaten, von denen die Bedingung erfüllt wird, auf Basis einer Domäne der Anwendung (zum Beispiel einer Handlung eines Menschen, einer Art einer Krankheit, eines Betriebs einer Vorrichtung oder dergleichen) oder statistischer Informationen (eines Protokolls einer früheren Nutzung einer anderen ähnlichen Anwendung oder dergleichen) ein. Man beachte, dass die Ontologieextraktionseinheit 201 eine unnötige Verknüpfung von den Linked Data entfernen kann, wenn die Ontologieextraktionseinheit 201 die Linked Data extrahiert. Dabei kann die Ontologieextraktionseinheit 201 eine Notwendigkeit der Verknüpfung unter Verwendung des maschinellen Lernens, der statistischen Informationen oder dergleichen bestimmen.
-
Dann schickt die Ontologieextraktionseinheit 201 die extrahierten Linked Data und Modelldaten an das Edge-System 10 zurück (Schritt S20103).
-
*** Beschreibung der Wirkung der Ausführungsform ***
-
Gemäß der vorliegenden Ausführungsform ist es möglich, die Ontologie des Edge-Systems angemessen zu aktualisieren. Daher ist es gemäß der vorliegenden Ausführungsform möglich, die Genauigkeit des Ausführungsergebnisses, das an die Anwendung auszugeben ist, zu verbessern.
-
Ferner ist es gemäß der vorliegenden Ausführungsform möglich, die Ontologie des Cloud-Systems zentral zu verwalten. Daher ist es gemäß der vorliegenden Ausführungsform möglich, Wissen an eine ähnliche Anwendung in einem anderem Edge-System weiterzugeben. Infolgedessen ist es möglich, die Genauigkeit des Ausführungsergebnissen der Semantic-Engine schon bei Beginn der Ausführung des anderen Edge-Systems zu verbessern.
-
Siebte Ausführungsform.
-
In der vorliegenden Ausführungsform wird eine Konfiguration beschrieben, in der eine Prioritätsrangfolge in den Ausführungsergebnissen der Semantic-Engine festgelegt wird. Infolgedessen kann die Anwendung die Wichtigkeit in den Ausführungsergebnissen erkennen.
-
In der vorliegenden Ausführungsform werden vor allem Unterschiede zur ersten Ausführungsform beschrieben.
-
Man beachte, dass Dinge, die im Folgenden nicht beschrieben werden, denen in der ersten Ausführungsform gleich sind.
-
*** Beschreibung der Konfiguration ***
-
21 stellt ein Beispiel für eine funktionale Konfiguration des Edge-Systems 10 gemäß der vorliegenden Ausführungsform dar.
-
Es werden nur Unterschiede zur ersten Ausführungsform beschrieben.
-
In 21 ist eine Bewertungseinheit 112 zwischen der Beantwortungstiefen-Steuereinheit 104 und den Anwendungen 103 hinzugefügt worden.
-
Die Bewertungseinheit 112 legt die Prioritätsrangfolge der Ausführungsergebnissen der Semantic-Engine 105 fest. Genauer legt die Bewertungseinheit 112 die Prioritätsrangfolge der Ausführungsergebnisse der Semantic-Engine 105 auf Basis eines Fortschritts der Inferenz durch die Semantic-Engine 105 fest.
-
Man beachte, dass 21 nur eine Konfiguration darstellt, die zur Erläuterung der Bewertungseinheit 112 notwendig ist.
-
*** Beschreibung der Funktionsweise***
-
Nun wird eine Funktionsweise der Bewertungseinheit 112 beschrieben.
-
22 ist ein Beispiel für die Linked Data, die in dem RDF der Semantic-Engine 105 genutzt werden.
-
Linked Data 3000 werden von Knoten 3001, 3003, 3004, 3005, 3006 und 3007, von denen jeder ein Subjekt und/oder ein Objekt ist, und gerichteten Graphen von Prädikaten 3002, die Verbindungen zwischen den Knoten darstellen, konfiguriert.
-
Bei der ersten Ausführung der Semantic-Engine 105 wird angenommen, dass der Knoten 3001 durch maschinelles Lernen aus den Messdaten inferiert wird und die Knoten 3003 und 3004 ferner durch den RDF inferiert werden. Bei der zweiten Ausführung der Semantic-Engine 105 wird angenommen, dass die Knoten 3005, 3006 und 3007 inferiert werden. Die Bewertungseinheit 112 protokolliert für jeden Knoten, welcher Knoten während der Inferenz durchlaufen wird. In einem Beispiel in 22 wird protokolliert, dass jeder von den Knoten 3001, 3003, 3004, 3006 und 3007 einmal durchlaufen wird und der Knoten 3005 zweimal durchlaufen wird.
-
Die Bewertungseinheit 112 behandelt die Zahl der Durchläufe als Bewertungsergebnisse. Dann legt die Bewertungseinheit 112 die Prioritätsrangfolge der Ausführungsergebnisse der Semantic-Engine 105 in einer absteigenden Reihenfolge der Bewertungsergebnisse fest. Ferner gibt die Bewertungseinheit 112 einem Ausführungsergebnis, das in der Prioritätsrangfolge hoch ist, Priorität und präsentiert der Anwendung das Ausführungsergebnis. In dem obigen Beispiel ist der Knoten 3005 der höchste in der Prioritätsrangfolge. In der Prioritätsrangfolge sind die Knoten 3001, 3003, 3004, 3006 und 3007 alle gleich.
-
*** Beschreibung der Wirkung der Ausführungsform ***
-
Gemäß der vorliegenden Ausführungsform kann die Bewertung unter Verwendung von Informationen über den Fortschritt der Inferenz implementiert werden und daher ist es möglich, die Validität des Ergebnisses zu überprüfen.
-
Ferner kann die Anwendung gemäß der vorliegenden Ausführungsform leicht bestimmen, welches Ausführungsergebnis wichtig ist.
-
*** Beschreibung der Hardware-Konfiguration***
-
Schließlich wird eine ergänzende Erläuterung einer Hardwarekonfiguration des Edge-Systems 10 gegeben.
-
Der Prozessor 901 ist eine IC (integrierte Schaltung), die eine Verarbeitung durchführt.
-
Der Prozessor 901 ist eine CPU (zentrale Verarbeitungseinheit), ein DSP (Digitaler Signalprozessor) oder dergleichen.
-
Die Speichervorrichtung 902 ist ein RAM (Random Access Memory), ein ROM (Read Only Memory), ein Flash-Speicher, eine HDD (Hard Disk Drive) oder dergleichen.
-
Die Kommunikationsvorrichtung 900 ist ein elektronischer Schaltkreis, der eine Datenkommunikationsverarbeitung ausführt.
-
Die Kommunikationsvorrichtung 900 ist beispielsweise ein Kommunikations-Chip oder eine NIC (Network Interface Card).
-
Ferner speichert die Speichervorrichtung 902 auch ein OS (Betriebssystem).
-
Dann wird zumindest ein Teil des OS von dem Prozessor 901 ausgeführt.
-
Während der Ausführung von zumindest einem Teil des OS führt der Prozessor 901 ein Programm aus, das Funktionen der Datenbeschaffungseinheit 101, der Anwendung 103, der Beantwortungstiefen-Steuereinheit 104, der Semantic-Engine 105, der Semantic-Engine-Auswahleinheit 107, der Relevanzbestimmungseinheit 108, der Ergebniserweiterungseinheit 109, der Ontologieerfassungseinheit 111 und der Bewertungseinheit 112 verwirklicht.
-
Von dem Prozessor 901, der das OS ausführt, werden Aufgabenverwaltung, Speicherverwaltung, Dateiverwaltung, Kommunikationssteuerung usw. durchgeführt.
-
Ferner wird mindestens eines von Informationen, Daten, einem Signalwert und einem Variablenwert, mit dem bzw. mit denen ein Verarbeitungsergebnis der Datenbeschaffungseinheit 101, der Anwendung 103, der Beantwortungstiefen-Steuereinheit 104, der Semantic-Engine 105, der Semantic-Engine-Auswahleinheit 107, der Relevanzbestimmungseinheit 108, der Ergebniserweiterungseinheit 109, der Ontologieerfassungseinheit 111 und der Bewertungseinheit 112 angegeben wird, in der Speichereinheit 902 und/oder einem Register und einem Cache-Speicher in dem Prozessor 901 gespeichert.
-
Ferner kann das Programm, das die Funktionen der Datenbeschaffungseinheit 101, der Anwendung 103, der Beantwortungstiefen-Steuereinheit 104, der Semantic-Engine 105, der Semantic-Engine-Auswahleinheit 107, der Relevanzbestimmungseinheit 108, der Ergebniserweiterungseinheit 109, der Ontologieerfassungseinheit 111 und der Bewertungseinheit 112 verwirklicht, in einem tragbaren Aufzeichnungsmedium, wie etwa einer Magnetplatte, einer flexiblen Platte, einer optischen Platte, einer Compact Disk, einer Blu-ray(eingetragenes Markenzeichen)-Disk oder einer DVD gespeichert werden. Dann kann das tragbare Aufzeichnungsmedium, auf dem das Programm gespeichert ist, welches die Funktionen der Datenbeschaffungseinheit 101, der Anwendung 103, der Beantwortungstiefen-Steuereinheit 104, der Semantic-Engine 105, der Semantic-Engine-Auswahleinheit 107, der Relevanzbestimmungseinheit 108, der Ergebniserweiterungseinheit 109, der Ontologieerfassungseinheit 111 und der Bewertungseinheit 112 verwirklicht, kommerziell vertrieben werden.
-
Ferner kann in der Datenbeschaffungseinheit 101, der Beantwortungstiefen-Steuereinheit 104, der Semantic-Engine-Auswahleinheit 107, der Relevanzbestimmungseinheit 108, der Ergebniserweiterungseinheit 109, der Ontologieerfassungseinheit 111 und der Bewertungseinheit 112 „Einheit“ als „Schaltkreis“ oder „Schritt“ oder „Prozedur“ oder „Prozess“ gelesen werden.
-
Ferner kann das Edge-System 10 von einem Verarbeitungsschaltkreis verwirklicht werden. Der Verarbeitungsschaltkreis ist beispielsweise eine Logik-IC (integrierte Schaltung), eine GA (Gatteranordnung), eine ASIC (anwendungsspezifische integrierte Schaltung) oder eine FPGA (im Feld programmierbare Gatteranordnung).
-
Übrigens wird in der vorliegenden Beschreibung ein übergeordnetes Konzept des Prozessors und des Verarbeitungsschaltkreises als „Verarbeitungsschaltungsanordnung“ bezeichnet.
-
Das heißt, sowohl der Prozessor als auch der Verarbeitungsschaltkreis sind Beispiele für die „Verarbeitungsschaltung“.
-
Bezugszeichenliste
-
- 1:
- IoT-System,
- 10:
- Edge-System,
- 11:
- Cloud-System,
- 12:
- Sensor,
- 13:
- Internet,
- 14:
- Intranet,
- 15:
- Netzspeicher,
- 16:
- Edge-System (Untersystem),
- 100:
- Kommunikationseinheit,
- 101:
- Datenbeschaffungseinheit,
- 102:
- Data Lake,
- 103:
- Anwendung,
- 104:
- Beantwortungstiefen-Steuereinheit,
- 105:
- Semantic-Engine,
- 106:
- Ontologie,
- 107:
- Semantic-Engine-Auswahleinheit,
- 108:
- Relevanzbestimmungseinheit,
- 109:
- Ergebniserweiterungseinheit,
- 110:
- Thesaurus,
- 111:
- Ontologieerfassungseinheit,
- 112:
- Bewertungseinheit,
- 200:
- Kommunikationseinheit,
- 201:
- Ontologieextraktionseinheit,
- 202:
- Ontologie,
- 203:
- Datenbeschaffungseinheit,
- 204:
- Data Lake,
- 205:
- Semantic-Engine,
- 300:
- Kommunikationseinheit,
- 301:
- Datenerfassungseinheit,
- 400:
- Kommunikationseinheit,
- 401:
- Semantic-Engine,
- 402:
- Ontologie,
- 600:
- Kommunikationsvorrichtung,
- 601:
- Prozessor,
- 602:
- Speichervorrichtung,
- 700:
- Kommunikationsvorrichtung,
- 701:
- Prozessor,
- 702:
- Speichervorrichtung,
- 800:
- Kommunikationsvorrichtung,
- 801:
- Prozessor,
- 802:
- Speichervorrichtung,
- 900:
- Kommunikationsvorrichtung,
- 901:
- Prozessor,
- 902:
- Speichervorrichtung,
- 1000:
- Tiefenspezifizierungstabelle,
- 2000:
- Endpunktspezifizie- rungstabelle.
-
ZITATE ENTHALTEN IN DER BESCHREIBUNG
-
Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
-
Zitierte Patentliteratur
-
- JP 2018503905 A [0003]
- JP 2018081377 A [0003]