DE102017131259A1 - Datenmetaskalierungsvorrichtung und -verfahren zum kontinuierlichen Lernen - Google Patents

Datenmetaskalierungsvorrichtung und -verfahren zum kontinuierlichen Lernen Download PDF

Info

Publication number
DE102017131259A1
DE102017131259A1 DE102017131259.5A DE102017131259A DE102017131259A1 DE 102017131259 A1 DE102017131259 A1 DE 102017131259A1 DE 102017131259 A DE102017131259 A DE 102017131259A DE 102017131259 A1 DE102017131259 A1 DE 102017131259A1
Authority
DE
Germany
Prior art keywords
data
learning
information
criterion
truncation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102017131259.5A
Other languages
English (en)
Inventor
Se Won OH
Yeon Hee Lee
Ji Hoon BAE
Hyun Joong KANG
Kwi Hoon KIM
Eun Joo Kim
Hong Kyu Park
Jae Hak YU
Nae Soo Kim
Ho Sung Lee
Seong Ik Cho
Soon Hyun Kwon
Sun Jin Kim
Cheol Sig Pyo
Young Min Kim
Hyun Jae Kim
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electronics and Telecommunications Research Institute ETRI
Original Assignee
Electronics and Telecommunications Research Institute ETRI
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electronics and Telecommunications Research Institute ETRI filed Critical Electronics and Telecommunications Research Institute ETRI
Priority claimed from KR1020170177880A external-priority patent/KR102470145B1/ko
Publication of DE102017131259A1 publication Critical patent/DE102017131259A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F17/00Digital computing or data processing equipment or methods, specially adapted for specific functions
    • G06F17/10Complex mathematical operations
    • G06F17/17Function evaluation by approximation methods, e.g. inter- or extrapolation, smoothing, least mean square method
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/02Comparing digital values
    • G06F7/023Comparing digital values adaptive, e.g. self learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Abstract

Es wird ein Datenmetaskalierungsverfahren geschaffen. Das Datenmetaskalierungsverfahren optimiert ein Kürzungskriterium zum Kürzen von Daten durch kontinuierliche Wissenserweiterung in verschiedenen Dimensionen, die ein Ausdrücken von Daten ermöglichen, in einem Prozess zum Durchführen von Maschinenlernen.

Description

  • Querverweis auf verwandte Anmeldungen
  • Diese Anmeldung beansprucht die Priorität gemäß 35 USC §119 der koreanischen Patentanmeldung Nr. 10-2017-0000690 , die am 3. Januar 2017 eingereicht wurde, und der koreanischen Patentanmeldung Nr. 10-2017-0177880 , die am 22. Dezember 2017 eingereicht wurde, deren Offenbarung hier durch Bezugnahme vollständig mit aufgenommen ist.
  • Technisches Gebiet
  • Die vorliegende Erfindung bezieht sich auf eine Datenmetaskalierungsvorrichtung und ein Datenmetaskalierungsverfahren zum kontinuierlichen Lernen und insbesondere auf eine Technologie zum Verarbeiten von Eingabedaten, die zum Lernen eines Maschinenlernmodells verwendet werden.
  • Hintergrund
  • Maschinenlemen (ML) wird weithin verwendet, um gesammelte Daten zu klassifizieren oder ein Modell, das eine Charakteristik der gesammelten Daten darstellt, zu lernen. In Verbindung mit dem ML werden verschiedene Technologien entwickelt und, um ein optimales Klassifizierungsvermögen oder Lemvermögen bei dem ML zu erhalten, können die gesammelten Daten basierend auf einem Maschinenlernalgorithmus oder eines zu erreichenden Ziels geeignet gekürzt oder gelernt werden, anstatt die Daten so zu verwenden, wie sie sind. Das heißt, es ist es in einer Umgebung, in der massive Daten durch verschiedene Objekte kontinuierlich gesammelt werden, sehr wichtig, ein Maschinenlernsystem so zu steuern, dass es Daten lernt, die basierend auf dem Zweck der Datenverwendung oder Umgebungsbedingungen angemessen gekürzt sind. Eine Entwicklung eines Maschinenlernsystems zum Durchführen eines Lernprozesses basierend auf angemessen gekürzten Daten ist bislang jedoch unvollständig.
  • Zusammenfassung
  • Dementsprechend schafft die vorliegende Erfindung eine Datenmetaskalierungsvorrichtung und ein Datenmetaskalierungsverfahren zum kontinuierlichen Lernen, die eine Optimierung eines Kürzungskriteriums zum Kürzen von Daten durch kontinuierliche Wissenserweiterung in verschiedenen Dimensionen, die das Ausdrücken von Daten ermöglichen, in einem Prozess des Durchführens des ML automatisieren.
  • In einem allgemeinen Aspekt umfasst ein Datenmetaskalierungsverfahren zum kontinuierlichen Lernen: Festlegen von Kürzungskriteriumsinformationen, die eine Regel zum Kürzen von Eingabedaten definieren, die in einem anderen Attribut ausgedrückt werden sollen, Lernkriteriumsinformationen, die eine Regel zum Einschränken des Lernens an den Kürzungsdaten und eine Regel zum Auswerten der Lernleistung definieren, und Wissenserweiterungskriteriumsinformationen, die eine Regel zum Optimieren der Kürzungskriteriumsinformationen definieren, durch einen Prozessor; Kürzen der Eingabedaten auf Kürzungsdaten auf der Basis der Kürzungskriteriumsinformationen durch den Prozessor; Durchführen eines Lernens an den Kürzungsdaten zum Erzeugen eines Lernmodells basierend auf den Lernkriteriumsinformationen durch den Prozessor; Auswerten der Leistung des Lernmodells basierend auf den Lernkriteriumsinformationen durch den Prozessor, um eine Eignung der Kürzungsdaten zu bestimmen; und Durchführen einer Wissenserweiterung zum Aktualisieren der Kürzungskriteriumsinformationen gemäß einem Ergebnis der Eignungsbestimmung basierend auf den Wissenserweiterungskriteriumsinformationen durch den Prozessor.
  • In einem weiteren allgemeinen Aspekt enthält eine Datenmetaskalierungsvorrichtung: einen Metaoptimierer, der Kürzungskriteriumsinformationen, die eine Regel zum Kürzen von Eingabedaten definieren, die in einem anderen Attribut ausgedrückt werden sollen, Lernkriteriumsinformationen, die eine Regel zum Einschränken des Lernens an den Kürzungsdaten und eine Regel zum Auswerten der Lernleistung definieren, und Wissenserweiterungskriteriumsinformationen, die eine Regel zum Optimieren der Kürzungskriteriumsinformationen definieren, festlegt; einen Kürzer, der Eingabedaten auf der Basis der Kürzungskriteriumsinformationen auf Kürzungsdaten kürzt; eine Lernmaschine, die ein Lernen an den Kürzungsdaten zum Erzeugen eines Lernmodells basierend auf den Lernkriteriumsinformationen durchführt; einen Auswerter, der die Leistung des Lemmodells basierend auf den Lernkriteriumsinformationen auswertet, um eine Eignung der Kürzungsdaten zu bestimmen; wobei der Metaoptimierer eine Wissenserweiterung zum Aktualisieren der Kürzungskriteriumsinformationen gemäß einem Ergebnis der Eignungsbestimmung basierend auf den Wissenserweiterungskriteriumsinformationen durchführt.
  • Andere Merkmale und Aspekte werden aus der folgenden genauen Beschreibung, den Zeichnungen und den Ansprüchen ersichtlich.
  • Figurenliste
    • 1 ist ein Blockdiagramm, das eine Datenmetaskalierungsvorrichtung zum kontinuierlichen Lernen gemäß einer ersten Ausführungsform der vorliegenden Erfindung zeigt.
    • 2 ist ein Ablaufdiagramm, das ein Datenmetaskalierungsverfahren zum kontinuierlichen Lernen gemäß einer ersten Ausführungsform der vorliegenden Erfindung zeigt.
    • 3A bis 3C sind Darstellungen zum Beschreiben von auf einer einzelnen Dimension basierender Musternahme bei Datenkürzung gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 4 ist eine Darstellung zum Beschreiben von auf mehreren Dimensionen basierender Musternahme bei Datenkürzung gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 5 ist eine Darstellung zum Beschreiben von auf mehreren Dimensionen basierender Musternahme bei Datenkürzung gemäß einer weiteren Ausführungsform der vorliegenden Erfindung.
    • 6A bis 6C sind Darstellungen, die Datenstrukturen von Kürzungskriteriumsinformationen, Lernkriteriumsinformationen und Wissenserweiterungskriteriumsinformationen, die in Schemainformationen enthalten sind, gemäß einer weiteren Ausführungsform der vorliegenden Erfindung zeigen.
    • 7 ist eine Darstellung, die ein Beispiel zeigt, in dem Schemainformationen gemäß einer weiteren Ausführungsform der vorliegenden Erfindung als Ontologie ausgedrückt sind.
    • 8 ist ein Blockdiagramm, das eine Datenmetaskalierungsvorrichtung zum kontinuierlichen Lernen gemäß einer zweiten Ausführungsform der vorliegenden Erfindung zeigt.
    • 9 ist ein Blockdiagramm, das eine Datenmetaskalierungsvorrichtung zum kontinuierlichen Lernen gemäß einer dritten Ausführungsform der vorliegenden Erfindung zeigt.
    • 10 ist eine Darstellung zum Beschreiben eines Beispiels, in dem die in 1 gezeigte Datenmetaskalierungsvorrichtung auf ein Verkehrsinformationsvorhersageszenario angewendet wird.
    • 11A bis 11C sind Darstellungen, die schematisch einen Wissenserweiterungsprozess zum Erhalten eines optimalen Kürzungskriteriums gemäß einer Ausführungsform der vorliegenden Erfindung zeigen.
  • Genaue Beschreibung von Ausführungsformen
  • Im Folgenden sind Ausführungsformen der vorliegenden Erfindung unter Bezugnahme auf die begleitenden Zeichnungen genau beschrieben. Hierin verwendete Begriffe sind Begriffe, die in Anbetracht der Funktionen in Ausführungsformen ausgewählt wurden, und die Bedeutungen der Begriffe können gemäß dem Vorhaben eines Anwenders oder Bedieners oder herkömmlicher Praxis abgeändert werden. Daher verfestigen sich die Bedeutungen der in den unten beschriebenen Ausführungsformen verwendeten Begriffe zu Definitionen, wenn sie in der Beschreibung spezifisch genau definiert werden, doch wenn es keine genaue Definition gibt, sollten die Begriffe in für Fachleute bekannten Bedeutungen ausgelegt werden.
  • Die Erfindung kann verschiedene abgewandelte Ausführungsformen aufweisen und somit sind beispielhafte Ausführungsformen in den Zeichnungen gezeigt und in der genauen Beschreibung der Erfindung beschrieben. Allerdings beschränkt dies die Erfindung nicht auf spezifische Ausführungsformen und es gilt zu verstehen, dass die Erfindung alle Abwandlungen, Entsprechungen und Ersetzungen innerhalb der Idee und des technischen Umfangs der Erfindung abdeckt. Gleiche Zahlen beziehen sich durch die Beschreibung der Figuren hindurch auf gleiche Elemente.
  • Es gilt zu verstehen, dass, obwohl die Begriffe erste(r/s), zweite(r/s), A, B etc. hierin dazu verwendet werden, verschiedene Elemente zu beschreiben, diese Elemente nicht durch diese Begriffe eingeschränkt werden sollen. Diese Begriffe werden nur verwendet, um ein Element von einem anderen zu unterscheiden. Zum Beispiel könnte ein erstes Element ein zweites Element genannt werden und ebenso könnte ein zweites Element ein erstes Element genannt werden, ohne von dem Geltungsbereich der vorliegenden Erfindung abzuweichen. Wie hierin verwendet umfasst der Begriff „und/oder“ jegliche Kombinationen des einen oder der mehreren zugeordneten aufgelisteten Elemente.
  • Die hierin verwendete Terminologie dient nur dem Zweck des Beschreibens bestimmter Ausführungsformen und ist nicht dazu gedacht, die Erfindung zu beschränken. Wie hierin verwendet sind die Singularformen „ein/eine/einer“ und „der/die/das“ dazu gedacht, auch die Pluralformen einzuschließen, solange es der Zusammenhang nicht explizit anders angibt. Es gilt ferner zu verstehen, dass die Begriffe „umfasst“, „umfassend“ und/oder „enthält“ und/oder „enthaltend“, wenn sie hierin verwendet werden, die Anwesenheit genannter Merkmale, Zahlen, Schritte, Operationen, Elemente und/oder Komponenten spezifizieren, aber nicht die Anwesenheit oder die Hinzufügung einer oder mehrerer anderer Merkmale, Zahlen, Schritte, Operationen, Elemente, Komponenten und/oder Gruppen davon ausschließen.
  • Solange sie nicht anderweitig definiert sind, weisen aller hierin verwendeten Begriffe (einschließlich technischer und wissenschaftlicher Begriffe) dieselbe Bedeutung auf, wie sie herkömmlicherweise von Fachleuten auf dem Gebiet, zu dem diese Erfindung gehört, verstanden wird. Es gilt ferner zu verstehen, dass Begriffe wie etwa die in herkömmlich verwendeten Wörterbüchern definierten so aufgefasst werden sollten, dass sie eine Bedeutung aufweisen, die mit ihrer Bedeutung im Zusammenhang mit dem Stand der Technik konsistent ist, und sollten nicht in einer idealisierten oder übermäßig formalen Weise verstanden werden, solange sie hier nicht ausdrücklich so definiert sind.
  • Eine Konfiguration und eine Funktion einer Datenmetaskalierungsvorrichtung und eines Datenmetaskalierungsverfahrens zum kontinuierlichen Lernen gemäß einer Ausführungsform der vorliegenden Erfindung kann mit einem Programmmodul, das einen oder mehrere computerlesbare Befehle enthält, implementiert werden.
  • Das Programmmodul kann in einem Aufzeichnungsmedium wie beispielsweise einem Speicher oder ähnlichem gespeichert werden und kann dann durch einen Prozessor geladen und ausgeführt werden, um eine bestimmte hierin beschriebene Funktion durchzuführen.
  • Der computerlesbare Befehl kann zum Beispiel Daten und einen Befehl enthalten, die es einem Allzweck-Computersystem oder einem Spezial-Computersystem ermöglichen, eine bestimmte Funktion oder eine Gruppe von Funktionen durchzuführen.
  • Ein computerausführbarer Befehl kann beispielsweise ein Befehl in einer Assemblersprache oder einem binären Format oder Zwischenformat wie etwa ein Quellcode sein. Das heißt, dass die Datenmetaskalierungsvorrichtung und das Datenmetaskalierungsverfahren zum kontinuierlichen Lernen gemäß einer Ausführungsform der vorliegenden Erfindung mit Software, die ein Computerprogramm umfasst, Hardware, die einen Speicher und einen Prozessor umfasst, wie etwa einem Computersystem oder einer Kombination aus Hardware und Software, die auf der Hardware installiert ist und von ihr ausgeführt wird, implementiert werden können.
  • Ein Computerprogramm zum Ausführen des Verfahrens gemäß einer Ausführungsform der vorliegenden Erfindung kann in einer beliebigen Form einer Programmiersprache, die eine transzendentale oder prozedurale Sprache oder eine kompilierte oder interpretierte Sprache umfasst, geschrieben sein und kann in einer beliebigen Form, die ein unabhängiges Programm oder Modul, eine Komponente, eine Unterroutine oder eine weitere für den Gebrauch in einer Computerumwelt angemessene Einheit umfasst, implementiert sein.
  • Das Computerprogramm entspricht nicht notwendigerweise einer Datei oder einem Dateisystem. Ein Programm kann in einer einzigen Datei, die für ein angefordertes Programm bereitgestellt ist, einer Multiinteraktionsdatei (beispielsweise einer Datei, die ein oder mehreren Module, ein Unterprogramm oder einen Abschnitt eines Codes speichert) oder einem Abschnitt (zum Beispiel einem oder mehreren Skripten, die in einem Auszeichnungssprachendokument gespeichert sind) oder einer Datei, die ein anderes Programm oder Daten enthält, gespeichert sein.
  • Ferner kann das Computerprogramm dazu ausgelegt sein, durch einen Multicomputer oder einen oder mehrere Computer, die sich an einem Ort befinden oder auf mehrere Orte verteilt sind und miteinander über ein Netz verbunden sind, ausgeführt zu werden.
  • Ein computerlesbares Medium, das zum Speichern eines Computerprogramms geeignet ist, kann beispielsweise eine Halbleiterspeichervorrichtung wie etwa einen löschbaren programmierbaren Nur-Lese-Speicher (EPROM), einen elektrisch löschbaren programmierbaren Nur-Lese-Speicher (EEPROM) oder eine Flashspeichervorrichtung, z. B. eine Magnetplatte wie beispielsweise eine interne Festplatte oder eine externe Festplatte und alle Typen von nichtflüchtigen Speichern, Medien und Speichervorrichtungen wie beispielsweise magnetische optische Platten, eine CD-ROM, eine DVD-ROM, ein Medium und eine Speichervorrichtung umfassen. Ein Prozessor und ein Speicher können durch eine logische Schaltung für spezielle Zwecke ergänzt sein oder in diese integriert sein.
  • Darüber hinaus können die Datenmetaskalierungsvorrichtung und das Datenmetaskalierungsverfahren zum kontinuierlichen Lernen gemäß einer Ausführungsform der vorliegenden Erfindung auf ein Maschinenlernsystem angewendet werden und können in einem Prozess des Durchführens des ML Kürzungskriteriumsinformationen für Eingabedaten, die als mehrere Attribute ausdrückbar sind, basierend auf Schemainformationen festlegen.
  • Daher können die Datenmetaskalierungsvorrichtung und das Datenmetaskalierungsverfahren zum kontinuierlichen Lernen gemäß einer Ausführungsform der vorliegenden Erfindung Lernen anhand gekürzter Daten durchführen und können die gekürzten Daten unter Verwendung eines Ergebnisses des Lernens auswerten, wodurch Kürzungsdaten bereitgestellt werden, die ermöglichen, die optimale Leistung des ML zu erzielen.
  • Elemente und Operationen gemäß verschiedenen Ausführungsformen der vorliegenden Erfindung werden beschrieben.
  • 1 ist ein Blockdiagramm, das eine Datenmetaskalierungsvorrichtung zum kontinuierlichen Lernen gemäß einer Ausführungsform der vorliegenden Erfindung zeigt.
  • Die Datenmetaskalierungsvorrichtung gemäß der ersten Ausführungsform der vorliegenden Erfindung kann einen Prozess eines Automatisierens einer Dateneingabe, einer Extraktion von Schemainformationen, einer Kürzung von Daten, eines Lernens eines Modells, eines Speichems eines Lernverlaufs, einer Analyse des Lernverlaufs und einer Prozedur zur Wissenserweiterung durchführen. Das kontinuierliche Lernen kann als wiederholbarer Lernprozess zum Automatisieren einer Optimierung eines Kürzungskriteriums zum Kürzen von Daten durch kontinuierliche Lernerweiterung definiert werden.
  • Die Datenmetaskalierungsvorrichtung gemäß der ersten Ausführungsform der vorliegenden Erfindung kann Schemainformationen aus Eingabedaten oder einer Anwendereingabe extrahieren und kann Kürzungskriteriumsinformationen, Lernkriteriumsinformationen und Wissenserweiterungskriteriumsinformationen basierend auf den extrahierten Schemainformationen festlegen und dadurch die Vorbereitung für das Durchführen des kontinuierlichen Lernens abschließen.
  • Anschließend kann die Datenmetaskalierungsvorrichtung gemäß der ersten Ausführungsform der vorliegenden Erfindung eine Kürzung der Daten basierend auf dem Kürzungskriterium oder einer Kürzungsregel, die in den Kürzungskriteriumsinformationen vorgeschrieben ist, durchführen und kann ein Lernen an einem Modell, das in der Lage ist, die abgekürzten Daten angemessen auszudrücken, basierend auf einem in den Lernkriteriumsinformationen vorgeschriebenen Lernkriterium durchführen. Das Lernen kann basierend auf dem Wissenserweiterungskriterium wiederholt durchgeführt werden und ein Ergebnis des Lernens kann automatisch als Lernverlauf gespeichert werden.
  • Wenn der Lernverlauf ausreichend gespeichert worden ist, um das Wissenserweiterungskriterium, das in den Wissenserweiterungskriteriumsinformationen vorgeschrieben ist, zu erfüllen, kann die Datenmetaskalierungsvorrichtung gemäß der ersten Ausführungsform der vorliegenden Erfindung den Lernverlauf analysieren, um eine Optimierung des Kürzungskriteriums durchzuführen.
  • Durch einen solchen Prozess kann eine Prozedur zum Entwickeln des kontinuierlichen Lernens automatisiert werden und eine Optimierung des Kürzungskriteriums zum Kürzen von Daten kann durch kontinuierliche Wissenserweiterung automatisiert werden.
  • Unter Bezugnahme auf 1 kann die Datenmetaskalierungsvorrichtung gemäß der ersten Ausführungsform der vorliegenden Erfindung einen Metaoptimierer 10, einen Kürzer 20, eine Lernmaschine 30, einen Auswerter 40 und einen Analysator 50 enthalten.
  • Der Metaoptimierer 10 kann einen Prozess zum Festlegen von Kürzungskriteriumsinformationen, Lernkriteriumsinformationen und Wissenserweiterungskriteriumsinformationen unter Bezugnahme auf Schemainformationen der Eingabedaten durchführen. Die Schemainformationen können durch Analysieren von Metadaten aus den Eingabedaten erhalten werden. Die Metadaten können in einem bestimmten Bereich der Eingabedaten enthalten sein. Die Metadaten können Daten zum Erklären eines Attributs der Eingabedaten sein.
  • Die Schemainformationen können durch eine Anwendereingabe geliefert werden. Die Eingabedaten können Stücke von Attributinformationen umfassen und können in Form eines kontinuierlichen Stroms oder eines Archivs bereitgestellt werden. Zum Beispiel können die Eingabedaten Daten sein, die aus verschiedenen Dingvorrichtungen wie beispielsweise einer Erfassungsvorrichtung einer Dienstumgebung des Internets der Dinge (loT) gesammelt werden.
  • Der Kürzer 20 kann einen Prozess des Kürzens der Eingabedaten unter Verwendung der Kürzungskriteriumsinformationen, die durch den Metaoptimierer 10 festgelegt werden, durchführen. Die Eingabedaten können direkt von den verschiedenen Dingvorrichtungen eingegeben werden oder können von einer Datenspeichereinheit eingegeben werden. Eine Dateneingabe kann eine physikalische Eingabe von realen Daten und eine Eingabe von logischen Ortsinformationen über einen logischen Ort, an dem sich die Daten befinden, umfassen. Hierbei können die logischen Ortsinformationen beispielsweise einheitliche Ressourcenzeigerinformationen (URL-Informationen) sein.
  • Die Lernmaschine 30 kann ML an Kürzungsdaten, die durch den Kürzer 20 gekürzt sind, unter Verwendung der Lernkriteriumsinformationen, die durch den Metaoptimierer 10 festgelegt sind, durchführen. Eine ML-Art oder eine Charakteristik eines Hyperparameters, der zum Durchführen des ML nötig ist, wird eingeschränkt, ohne von dem Kern der vorliegenden Erfindung abzuweichen. Das heißt, die vorliegende Erfindung kann ohne Rücksicht auf die Charakteristik des Hyperparameters, der zum Durchführen des ML nötig ist, auf alle ML-Arten angewendet werden und dies kann durch Fachleute durch die Beschreibung unten in ausreichendem Maße verstanden werden. Die Lernmaschine 30 kann das ML unter Verwendung aller Kürzungsdaten und Eingabedaten durchführen. Dies zeigt, dass ein neues durch Datenkürzung extrahiertes Attribut den Eingabedaten hinzugefügt werden kann, um die Eingabedaten zu erweitern, und ein Lernen an den erweiterten Eingabedaten durchgeführt werden kann.
  • Der Auswerter 40 kann basierend auf den Lernkriteriumsinformationen, die durch den Metaoptimierer 10 festgelegt werden, bestimmen, ob der Lernprozess oder das Lernergebnis ein Lernkriterium erfüllt und kann basierend auf einem Ergebnis der Bestimmung einen Prozess zum Auswertens einer Eignung einer Datenkürzung durchführen.
  • Der Analysator 50 kann Metadaten, die in den Eingabedaten enthalten sind, oder Metadaten, die zusammen mit den Eingabedaten bereitgestellt werden, analysieren, um Schemainformationen der Eingabedaten zu extrahieren.
  • Der Metaoptimierer 10 kann eine Wissenserweiterung oder ein Ändern der Kürzungskriteriumsinformationen basierend auf Auswertungsergebnisinformationen des Auswerters 40 durchführen.
  • Wenn bestimmt wird, dass der Lernprozess oder das Lernergebnis das Lernkriterium, das in den Lernkriteriumsinformationen vorgeschrieben ist, nicht erfüllt, kann der Metaoptimierer 10 einen Prozess zum Ändern der Kürzungskriteriumsinformationen basierend auf einem Wissenserweiterungskriterium durchführen. Auf der anderen Seite kann der Metaoptimierer 10, wenn bestimmt wird, dass der Lernprozess oder das Lernergebnis das Lernkriterium erfüllt, einen Wissenserweiterungsprozess durch einen Prozess zum automatischen Speichern eines Lernergebnisses als einen Lernverlauf in einer Speichereinheit starten.
  • Wenn der Lernverlauf ausreichend gespeichert worden ist, um das in den Wissenserweiterungskriteriumsinformationen vorgeschriebene Wissenserweiterungskriterium zu erfüllen, kann der Metaoptimierer 10 den gespeicherten Lernverlauf analysieren, um einen Prozess zum Durchführen einer Optimierung des Kürzungskriteriums durchzuführen. Durch einen solchen Prozess kann eine Prozedur zum Erstellen des kontinuierlichen Lernens automatisiert werden und eine Optimierung des Kürzungskriteriums zum Kürzen von Daten durch kontinuierliche Wissenserweiterung automatisiert werden.
  • 2 ist ein Ablaufdiagramm, das ein Datenmetaskalierungsverfahren zum kontinuierlichen Lernen gemäß einer ersten Ausführungsform der vorliegenden Erfindung zeigt.
  • Unter Bezugnahme auf 2 kann zuerst in Schritt S100 ein Prozess des Eingebens von Eingabedaten aus einer Dingvorrichtung oder einer Datenspeichereinheit in den Metaoptimierer 10 durchgeführt werden.
  • Anschließend wird in Schritt S200 durch den Metaoptimierer 10 ein Prozess des Analysierens (Parsens) von Metadaten, die in den Eingabedaten enthalten sind, um Schemainformationen der Eingabedaten zu extrahieren, und des Festlegens von Kürzungskriteriumsinformationen, Lernkriteriumsinformationen und Wissenserweiterungskriteriumsinformationen basierend auf den extrahierten Schemainformationen durchgeführt.
  • Anschließend kann in Schritt S300 durch den Kürzer 20 ein Prozess des Kürzens der Eingabedaten unter Verwendung der Kürzungskriteriumsinformationen durchgeführt werden. Die gekürzten Daten können an die Lernmaschine 30 direkt in einem Echtzeitstrom oder stapelartig geliefert werden. Auf der anderen Seite können anstelle des Liefems der gekürzten Daten die gekürzten Daten in einem Speichermedium gespeichert werden und der Kürzer 20 kann der Lernmaschine 30 eine Speicheradresse mitteilen. In diesem Fall kann die Lernmaschine 30 auf das Speichermedium an der Speicheradresse zugreifen, um die Kürzungskriteriumsinformationen zu lesen.
  • Anschließend kann in Schritt S400 durch die Lernmaschine 30 ein Prozess des Durchführens des Lernens an einem Modell, das die gekürzten Daten angemessene Weise ausdrücken kann, durchgeführt werden, um ein Lernmodell zu erzeugen. Zu diesem Zeitpunkt kann die Lernmaschine 30 basierend auf den Lernkriteriumsinformationen das Lernen durchführen.
  • Anschließend kann in Schritt S500 durch den Auswerter 40 ein Prozess zum Bestimmen, ob ein Ergebnis des Lernens ein in den Lernkriteriumsinformationen vorgeschriebenes Lernkriterium erfüllt, durchgeführt werden.
  • Wenn das Lernergebnis das Lernkriterium nicht erfüllt, kann durch den Metaoptimierer 10 in Schritt S600 ein Prozess des Aktualisierens der Kürzungskriteriumsinformationen basierend auf einem Wissenserweiterungskriterium, das in den Wissenserweiterungskriteriumsinformationen vorgeschrieben ist, durchgeführt werden.
  • Auf der anderen Seite kann dann, wenn das Lernergebnis das Lernkriterium erfüllt, ein Lernverlauf ausreichend gespeichert werden, so dass das Wissenserweiterungskriterium erfüllt ist, durch den Metaoptimierer 10 ein Prozess zum Analysieren des ausreichend gespeicherten Lernverlaufs durchgeführt werden, um eine Optimierung eines Kürzungskriteriums durchzuführen. Durch einen solchen Wissenserweiterungsprozess kann eine Optimierung des Kürzungskriteriums zum Kürzen von Daten durch kontinuierliche Wissenserweiterung automatisiert werden.
  • In einer Ausführungsform der vorliegenden Erfindung können Eingabedaten verschiedene Attribute aufweisen. Um die verschiedenen Attribute auszudrücken, kann in einer Ausführungsform der vorliegenden Erfindung der Begriff „Datendimension“ definiert werden. Eine Datendimension kann als ein Attribut zum Ausdrücken von Daten definiert werden.
  • Beispiel einer Datendimension
  • Daten, die in einem bestimmten Zeitintervall oder einem unbestimmten Zeitintervall gesammelt werden, können als ein Zeitattribut ausgedrückt werden. Daher kann eine Datendimension, die als Zeitattribut ausdrückbar ist, „Zeit“ sein.
  • Daten wie beispielsweise Breiten- und Längenkoordinaten, Adressinformationen, eine Postleitzahl und ein Teilnetz des Internetprotokolls (IP) können als ein Raumattribut ausgedrückt werden, das einen physischen oder logischen Ort darstellt. Daher kann eine Datendimension, die als Raumattribut ausdrückbar ist, „Raum“ sein.
  • Daten, die eine Farbe darstellen, können als Attribute wie beispielsweise Farbton, Sättigung und Intensität ausgedrückt werden. Daher kann eine Datendimension, die eine Farbe ausdrückt, Farbton, Sättigung oder Intensität sein.
  • Daten, die ein Material darstellen, können als ein einzigartiges Attribut des Materials wie Härte, Dichte, spezifisches Gewicht und Leitfähigkeit ausgedrückt werden. Daher kann eine Datendimension, die ein Material ausdrückt, Härte, Dichte, spezifisches Gewicht oder Leitfähigkeit sein.
  • Bei Daten, die basierend auf einer Frequenz variieren, kann die Frequenz als Datendimension definiert werden.
  • Bei Daten, die basierend auf einer sozial zugeordneten Bedeutungskategorie wie beispielsweise Wohnort, Arbeitsplatz, Stockwerk etc. definiert werden, kann die Bedeutungskategorie als Datendimension definiert werden.
  • Eine Datendimension, die ein Ergebnis einer Bewertung eines beliebigen Dienstes durch eine Anwendergruppe darstellt, kann Präferenz oder Effektivität sein.
  • Bei einem Film, der von einer mobilen Kamera aufgenommen wird, können ein Aufnahmeort, eine Aufnahmezeit und dergleichen als Datendimensionen definiert werden. In diesem Fall kann die Aufnahmeposition als XYZ-Koordinaten in einem dreidimensionalen Raum (3D-Raum) ausgedrückt werden und somit in drei Datendimensionen aufgeteilt werden.
  • Wie oben beschrieben können alle Daten durch ein Attribut davon als verschiedene Dimensionen ausgedrückt werden und somit ist in einer Ausführungsform der vorliegenden Erfindung ein Kriterium zum Bestimmen einer Dimension nicht eingeschränkt.
  • Kürzung von Daten
  • In einem Fall, in dem beliebige Daten als beliebige Datendimension ausgedrückt werden, kann eine Datenkürzung gemäß einer Ausführungsform der vorliegenden Erfindung als Prozess der Musternahme in den beliebigen Daten in der beliebigen Datendimension definiert werden.
  • Darüber hinaus kann die Datenkürzung gemäß einer Ausführungsform der vorliegenden Erfindung als ein Prozess des Änderns einer Datendimension beliebiger Daten in eine weitere Datendimension definiert werden. Das Ändern der Dimension bezeichnet eine Reduktion des Bereichs, in dem Daten ausgedrückt sind. Abhängig von dem Fall kann das Ändern der Dimension eine Vergrößerung des Bereichs, in dem Daten ausgedrückt werden, bedeuten.
  • Auf diese Weise kann die Datenkürzung gemäß einer Ausführungsform der vorliegenden Erfindung eine Musternahme in verschiedenen Dimensionen, eine Dimensionstransformation und/oder ein Prozess zum Kombinieren der Musternahme und der Dimensionstransformation sein oder kann als ein Prozess des Reduzierens der Anzahl von Datenstücken durch den Prozess definiert werden.
  • Musternahme basierend auf Kürzungsdaten
  • Musternahme kann ein Prozess des Auswählens eines repräsentativen Werts in einer oder mehreren Datendimensionen gemäß einem vorbestimmten Kriterium sein.
  • Die Musternahme kann eine auf einer Dimension basierende Musternahme und eine auf mehreren Dimensionen basierende Musternahme umfassen. Die auf einer Dimension basierende Musternahme kann ein Prozess des Auswählens eines repräsentativen Werts in einer einzelnen Datendimension sein. Die auf mehreren Dimensionen basierende Musternahme kann ein Prozess des Auswählens eines jeweiligen repräsentativen Werts in zwei oder mehr Datendimensionen sein.
  • Auf einer Dimension basierende Musternahme
  • Ein Prozess der auf einer Dimension basierenden Musternahme kann einen periodischen Musternahmeprozess, einen aperiodischen Musternahmeprozess, einen Musternahmeprozess mit festem Fenster und einen Musternahmeprozess mit gleitendem Fenster umfassen.
  • Der periodische Musternahmeprozess kann ein Prozess des periodischen Auswählens eines repräsentativen Werts in einem zugeordneten Fenster in einer Datendimension sein und beispielsweise kann der periodische Musternahmeprozess ein Prozess des Auswählens eines repräsentativen Werts basierend auf einem spezifischen Kriterium in einem zugeordneten Fenster in Intervallen von fünf Minuten in Bezug auf Daten, die in einer Zeitdimension ausgedrückt sind, sein. Hierbei kann das Fenster als eine Einheit der Musternahme gedeutet werden.
  • Der aperiodische Musternahmeprozess kann ein Prozess des aperiodischen Auswählens eines repräsentativen Werts in einem zugeordneten Fenster sein und beispielsweise kann der aperiodische Musternahmeprozess ein Prozess des Auswählens eines repräsentativen Werts basierend auf einem spezifischen Kriterium in einem zugeordneten Fenster in Bezug auf einen Fall, in dem ein Datenwert größer oder gleich einem vorbestimmten Wert ist, sein oder kann ein Prozess des Auswählens eines repräsentativen Werts durch Anwenden eines Zeitfensters oder eines Raumfensters in Bezug auf einige Daten, in denen eine Temperatur 15 Grad oder mehr beträgt, von Datenstücken, die durch einen Temperatursensor in einem beliebigen Raum gemessen werden, sein.
  • Der Musternahmeprozess mit festem Fenster kann ein Prozess des Auswählens repräsentativer Werte in zwei oder mehreren Fenstern, die zusammenhängend sind, ohne einander in einer Datendimension zu überschneiden, sein und beispielsweise kann der Musternahmeprozess mit festem Fenster ein Prozess des Auswählens eines repräsentativen Werts basierend auf einem spezifischen Kriterium aus Eingabedatenstücken, die in einer ersten Zeitspanne „t1-t3“ in einer Zeitdimension gesammelt werden, und des Auswählens eines repräsentativen Werts basierend auf demselben spezifischen Kriterium aus Eingabedatenstücken, die in einer zweiten Zeitspanne „t3-t5“ gesammelt werden, die der ersten Zeitspanne folgt, sein.
  • Der Musternahmeprozess mit gleitendem Fenster kann ein Prozess des Auswählens repräsentativer Werte in zwei oder mehreren Fenstern, die sich in einer Datendimension überlappen, sein und beispielsweise kann der Musternahmeprozess mit festem Fenster ein Prozess des Auswählens eines repräsentativen Werts basierend auf einem spezifischen Kriterium aus Eingabedatenstücken, die in einer ersten Zeitspanne „t1-t3“ in einer Zeitdimension gesammelt werden, und des Auswählens eines repräsentativen Werts basierend auf demselben spezifischen Kriterium aus Eingabedatenstücken, die in einer zweiten Zeitspanne „t2-t4“ gesammelt werden, die mit einer Teilspanne der ersten Zeitspanne überlappt, sein.
  • Auf mehreren Dimensionen basierende Musternahme
  • Ein auf mehreren Dimensionen basierender Musternahmeprozess kann ein Prozess des unabhängigen Durchführens einer eindimensionalem Musternahme in jeder Dimension an Daten, die als zwei oder mehr Datendimensionen ausgedrückt sind, sein. Zum Beispiel können Daten, die von einem in einer beliebigen Zone platzierten Sensor gesammelt werden, ein Attribut, das Temperatur und/oder Feuchtigkeit und/oder Beleuchtungsstärke und/oder Rauschen umfasst, enthalten und der Sensor kann an verschiedenen Orten platziert sein. Daten, die von dem Sensor gemessen werden, können basierend auf einem Wert von Daten, die von dem Sensor gesammelt werden, periodisch gesammelt werden oder aperiodisch gesammelt werden. In einer solchen Datensammlungsumgebung kann die Temperatur dazu verwendet werden, die Musternahme mit festem Fenster, das unabhängig von dem Ort für jeden von allen Sensoren als fünf Minuten definiert ist, durchzuführen, die Feuchtigkeit kann dazu verwendet werden, die Musternahme mit festem Fenster, das als Intervall von 7 m in Bezug auf einen bestimmten Ort definiert ist, durchzuführen, die Beleuchtungsstärke kann dazu verwendet werden die Musternahme mit beweglichem Fenster an demselben Ort wie bei der Feuchtigkeit durchzuführen, und das Rauschen kann dazu verwendet werden, aperiodisches Musternahme zum Auswählen ausschließlich von Daten mit einem bestimmten Referenzwert oder mehr aus Stücken von Rauschdaten durchzuführen.
  • Ein Kriterium zum Auswählen eines repräsentativen Werts in dem zugeordneten Fenster kann eine Regel, die von einem Anwender vorbestimmt wird, und ein statistisches Merkmal von Daten, die in dem Fenster enthalten sind, umfassen. Zum Beispiel kann der Anwender die Regel so definieren, dass sie einen Wert einer Stelle, der einem spezifischen Kriterium am nächsten ist, einen Wert einer Stelle, der von dem spezifischen Kriterium am weitesten weg ist, und einen Wert einer mittleren Stelle in dem spezifischen Kriterium aus Daten, die in dem zugeordneten Fenster enthalten sind, auswählt.
  • Darüber hinaus kann der repräsentative Wert einer der folgenden beispielhaften Werte sein: ein Durchschnittswert, ein Mittelwert, ein Maximalwert, ein Minimalwert, ein Quartilwert, ein Standardabweichungswert und ein häufigster Wert, die über verschiedene statistische Merkmale definiert sind, oder eine Kombination davon. Das heißt, dass der Durchschnittswert und der Standardabweichungswert als repräsentative Werte aus allen Datenstücken, die in dem zugeordneten Fenster enthalten sind, ausgewählt werden kann.
  • Dimensionstransformation basierend auf gekürzten Daten
  • Die Dimensionstransformation kann ein Prozess zum Ändern einer Struktur einer Datendimension, in der Daten ausgedrückt sind, um Daten in einer neuen Dimension auszudrücken, sein und die Dimensionstransformation kann beispielsweise eine Frequenzbereichs-Transformation, eine multivariate Analyse, eine nichtlineare Dimensionsreduktion usw. umfassen.
  • Die Frequenzbereichs-Transformation wie etwa eine Fourier-Transformation kann ein Prozess des Zerlegens von Daten, ausgedrückt in einer Zeitdimension oder einer Raumdimension, in eine Frequenzkomponente zum Ausdrücken der Daten in einer Frequenzdimension sein und die in die Frequenzkomponente zerlegten Daten können so beschränkt sein, dass sie nur bis zu einer Grenzfrequenz reichen, wodurch eine Datenkürzung erzielt wird.
  • Die multivariate Analyse kann ein Prozess zum statistischen Berechnen von Daten, die in einem mehrdimensionalen Raum ausgedrückt sind, sein, um eine neue Dimension zu erhalten, die es ermöglicht, dieselben Daten auszudrücken, und die Anzahl von Dimensionen kann auf ein geeignetes statistisches Kriterium in einem Raum, der als die neue Dimension definiert ist, beschränkt werden, wodurch eine Datenkürzung erreicht wird. Beispiele für die multivariate Analyse können eine Hauptkomponentenanalyse, Clusteranalyse usw. umfassen.
  • Die nichtlineare Dimensionalitätsreduktion kann nichtlinear die Anzahl der Dimensionen reduzieren, indem verschiedene Mannigfaltigkeitslernvorgänge wie etwa eine nichtlineare Hauptkomponentenanalyse, eine diffeomorphe Dimensionalitätsreduktion, eine krummlinige Distanzanalyse und Mannigfaltigkeitslernen verwendet werden, wodurch eine Datenkürzung erzielt wird.
  • Kombination aus auf Datenkürzung basierender Musternahme und Dimensionstransformation
  • Eine Kombination aus Musternahme und Dimensionstransformation kann ein Prozess zur aufeinanderfolgenden Durchführung von Musternahme und Dimensionstransformation sein und kann beispielsweise ein Prozess zur Musternahme an Eingabedaten, Transformieren einer Dimension der als Muster genommenen Daten oder Transformieren einer Dimension der Eingabedaten und Musternahme an den Eingabedaten in der transformierten Dimension sein, um die Anzahl der Datenstücke zu verringern.
  • 3A bis 3C sind Darstellungen zum Beschreiben einer auf einer Dimension basierenden Musternahme bei der Datenkürzung gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 3A bis 3C veranschaulichen ein Beispiel einer auf der Zeitdimension basierenden Musternahme zum Auswählen eines Durchschnitts als einen repräsentativen Wert unter Verwendung eines festen Fensters in einer Zeitdimension, 3A zeigt graphenartige Originaldaten und 3B und 3C zeigen graphenartige Kürzungsdaten, die durch Musternahme an Originaldaten unter Verwendung fester Fenster mit unterschiedlichen Größen gemäß einer auf der Zeitdimension basierender Abtastung erhalten werden.
  • In 3A werden dann, wenn ein Zeitintervall, in dem Originaldaten in einer Zeitdimension gesammelt werden, Einheit1 ist, die in 3B dargestellten Kürzungsdaten durch Musternahme an Originaldaten unter Verwendung eines festen Fensters, das als Zeitintervall „Einheit2“ von 5 × Einheit1 gesetzt ist, erhalten und 3C wird durch Musternahme an Originaldaten unter Verwendung eines festen Fensters, das als Zeitintervall „Einheit3“ von 10 × Einheit1 gesetzt ist, erhalten.
  • 4 ist eine Darstellung zum Beschreiben einer auf mehreren Dimensionen basierenden Musternahme bei der Datenkürzung gemäß einer Ausführungsform der vorliegenden Erfindung.
  • 4 zeigt eine Musternahme an Originaldaten, die in mehreren Dimensionen einschließlich einer Raumdimension und einer Zeitdimension ausgedrückt werden können, das Bezugszeichen 41 bezieht sich auf Originaldaten, die in einem bestimmten Zeitintervall von zwei Sensoren „Sensor1 und Sensor2“, die an verschiedenen Stellen installiert sind, gesammelt werden und bezieht sich auf tabellenartige Sensordaten, das Bezugszeichen 43 bezieht sich auf Kürzungsdaten, die durch Kürzen von Originaldaten 41 in der Raumdimension erhalten werden, und das Bezugszeichen 45 bezieht sich auf Kürzungsdaten, die durch Kürzen der Originaldaten 41 in der Zeitdimension erhalten werden.
  • t11, t12, t13 und t14 beziehen sich auf Stücke von Temperaturdaten, die von einem ersten Sensor „Sensor1“ zu einer Zeit Zeit1, einer Zeit Zeit2, einer Zeit Zeit3 bzw. einer Zeit Zeit4 gesammelt werden, und t21, t22, t23, t24 beziehen sich auf Stücke von Temperaturdaten, die von einem zweiten Sensor „Sensor 2“ zu der Zeit Zeit1, der Zeit Zeit2, der Zeit Zeit3 bzw. der Zeit Zeit4 gesammelt werden.
  • h11, h12, h13 und h14 beziehen sich auf Stücke von Feuchtigkeitsdaten, die von dem ersten Sensor „Sensor1“ zu der Zeit Zeit1, der Zeit Zeit2, der Zeit Zeit3 bzw. der Zeit Zeit4 gesammelt werden, und h21, h22, h23 und h24 beziehen sich auf Stücke von Feuchtigkeitsdaten, die von dem zweiten Sensor „Sensor2“ zu der Zeit Zeit1, der Zeit Zeit2, der Zeit Zeit3 bzw. der Zeit Zeit4 gesammelt werden.
  • l11, l12, l13 und l14 beziehen sich auf Stücke von Beleuchtungsstärkedaten, die von dem ersten Sensor „Sensor1“ zu der Zeit Zeit1, der Zeit Zeit2, der Zeit Zeit3 bzw. der Zeit Zeit4 gesammelt werden, und l21, l22, l23 und l24 beziehen sich auf Stücke von Beleuchtungsstärkedaten, die durch den zweiten Sensor „Sensor 2“ zu der Zeit Zeit1, der Zeit Zeit2, der Zeit Zeit3 bzw. der Zeit Zeit4 gesammelt werden.
  • v11, v12, v13 und v14 beziehen sich auf Stücke von Spannungsdaten, die von dem ersten Sensor „Sensor1“ zu der Zeit Zeit1, der Zeit Zeit2, der Zeit Zeit3 bzw. der Zeit Zeit4 gesammelt werden, und v21, v22, v23 und v24 beziehen sich auf Stücke von Spannungsdaten, die von dem zweiten Sensor „Sensor2“ zu der Zeit Zeit1, der Zeit Zeit2, der Zeit Zeit3 bzw. der Zeit Zeit4 gesammelt werden.
  • Wie oben beschrieben können, da die Originaldaten Datenstücke sind, die in einem bestimmten Zeitintervall durch die zwei Sensoren „Sensor1 und Sensor2“, die an verschiedenen Stellen installiert sind, gesammelt werden, die Originaldaten in den mehreren Dimensionen einschließlich der Raumdimension und der Zeitdimension ausgedrückt werden.
  • Wenn ein auf mehreren Dimensionen basierender Musternahmeprozess auf die Sensordaten angewendet wird, können Originaldaten, die in den mehreren Dimensionen ausgedrückt sind, auf Kürzungsdaten, die in der Raumdimension ausgedrückt sind, und/oder Kürzungsdaten, die in der Zeitdimension ausgedrückt sind, gekürzt werden. Zum Beispiel kann ein Prozess zum Auswählen von t11 oder t21 als repräsentativen Wert oder ein Prozess zum Auswählen von h11 oder h21 als repräsentativen Wert ein Prozess zum Kürzen der ursprünglichen Daten, die in den mehreren Dimensionen ausgedrückt sind, zu den Daten, die in der Raumdimension ausgedrückt sind, sein. Der Prozess zum Auswählen von t11 oder t21 als einen repräsentativen Wert oder ein Prozesses zum Auswählen von h11 oder h21 als einen repräsentativen Wert kann ein Prozess zum Kürzen der Originaldaten, die in den mehreren Dimensionen ausgedrückt sind, zu Daten, die in der Zeitdimension ausgedrückt sind, sein.
  • 5 ist eine Darstellung zum Beschreiben von auf mehreren Dimensionen basierender Musternahme bei einer Datenkürzung gemäß einer weiteren Ausführungsform der vorliegenden Erfindung und veranschaulicht schematisch eine auf mehreren Dimensionen basierende Datenkürzung basierend auf Orten und Bedeutungen von Sensoren, die in einem bestimmten Raum installiert sind.
  • In 5 beziehen sich die Bezugszeichen 51, 53 und 55 auf tetragonale Kästen, die sich auf bestimmte Räume beziehen, in denen Sensoren installiert sind, und Zahlen, die in den Räumen 51, 53 und 55 eingekreist sind, sind Zahlen zum Identifizieren der Sensoren.
  • In 5 ist ein Beispiel dargestellt, in dem die in den jeweiligen Räumen installierten Sensoren in drei Fälle gruppiert sind.
  • FALL1 stellt ein Beispiel dar, in dem Sensoren, die in demselben Raum installiert sind, in dem Raum 51 in mehrere Gruppen gruppiert sind, und Daten durch Auswählen eines repräsentativen Werts aus Werten, die von Sensoren in jeder der Gruppen gemessen werden, gekürzt werden.
  • FALL2 stellt ein Beispiel dar, in dem die gleichen Arten von Sensoren in dem Raum 53 in mehrere Gruppen gruppiert werden und Daten durch Auswählen eines repräsentativen Wertes aus Werten, die durch Sensoren gemessen werden, die in jeder der Gruppen enthalten sind, gekürzt werden.
  • FALL3 stellt ein Beispiel dar, in dem Sensoren in Bezug auf eine spezielle Bedeutung in mehrere Gruppen gruppiert sind und Daten durch Auswählen eines repräsentativen Werts aus Werten, die durch Sensoren gemessen werden, die in jeder der Gruppen enthalten sind, gekürzt werden. In FALL3 kann ein Kriterium zum Gruppieren der Sensoren eine linke Region und eine rechte Region in Bezug auf eine Mitte umfassen.
  • Im Folgenden werden die Kürzungskriteriumsinformationen, die Lernkriteriumsinformationen und die Wissenserweiterungskriteriumsinformationen, die durch den Metaoptimierer festgelegt werden, im Einzelnen beschrieben.
  • Wie oben beschrieben, kann der Metaoptimierer 10 die Kürzungskriteriumsinformationen, die Lernkriteriumsinformationen und die Wissenserweiterungskriteriumsinformationen unter Bezugnahme auf die Schemainformationen der Eingabedaten festlegen.
  • Die Schemainformationen können durch Analysieren von Metadaten, die zusammen mit den Eingabedaten bereitgestellt werden, oder Metadaten, die in einem bestimmten Bereich der Eingabedaten gespeichert sind, erhalten werden oder sie können aus einer Benutzereingabe erhalten werden.
  • Die Schemainformationen können die Kürzungskriteriumsinformationen, die Lernkriteriumsinformationen und die Wissenserweiterungskriteriumsinformationen enthalten. Der Inhalt der Schemainformationen kann gemäß einer vorbestimmten Regel beschrieben sein oder kann in der Form eines Wissenslexikons, das als strukturiertes Wissen wie etwa eine Ontologie ausgedrückt ist, beschrieben sein.
  • Kürzungskriteriumsinformationen
  • Die Kürzungskriteriumsinformationen können Informationen über eine Datendimension und Informationen über eine Datenkürzung enthalten. Die Informationen über die Datenkürzung können Kriteriumsinformationen für periodische Musternahme, Kriteriumsinformationen für aperiodische Musternahme, Kriteriumsinformationen für Musternahme mit festem Fenster und Kriteriumsinformationen für Musternahme mit gleitendem Fenster enthalten und können außerdem allgemeine, unabhängig von einem Musternahmekriterium angewendete Kriteriumsinformationen enthalten.
  • Die der periodischen Musternahme zugeordneten Kriteriumsinformationen können Zwischenfensterintervallinformationen zum Festlegen eines Ortes eines Fensters in einer Datendimension und Größeninformationen über ein Fenster zum Auswählen eines repräsentativen Werts enthalten.
  • Die Kriteriumsinformationen, die der aperiodischen Musternahme zugeordnet sind, können Zustandsinformationen zum aperiodischen Auswählen eines Fensters und Größeninformationen über ein Fenster zum Auswählen eines repräsentativen Wertes enthalten.
  • Die Kriteriumsinformationen, die der Musternahme mit festem Fenster zugeordnet sind, können Größeninformationen über ein Fenster enthalten, die zugewiesen werden, damit sich mehrere Fenster in der Datendimension überlappen.
  • Die Kriteriumsinformationen, die der Musternahme mit gleitendem Fenster zugeordnet sind, können Intervallinformationen zum Festlegen von Orten von Fenstern, die einander in der Datendimension überlappen, und Größeninformationen über ein Fenster zum Auswählen eines repräsentativen Wertes enthalten.
  • Die gemeinsamen Kriteriumsinformationen, die unabhängig von dem Musternahmekriterium angewendet werden, können Kriteriumsinformationen zum Auswählen eines repräsentativen Werts in einer Größe eines Fensters enthalten.
  • Lernkriteriumsinformationen
  • In einer Ausführungsform der vorliegenden Erfindung kann die Leistung eines Lernmodells oder die Zuverlässigkeit (oder Genauigkeit) eines Lernergebnisses als Indikatoren zum Bewerten der Eignung der Datenkürzung verwendet werden.
  • Die Lernkriteriumsinformationen können eine Frühstoppbedingung zum Begrenzen der Wiederholung des Lernens und eine Konvergenztrendbedingung enthalten und können zusätzlich eine Lernzuverlässigkeitsbedingung zum Berechnen der Lernleistung enthalten.
  • Die Lernzuverlässigkeitsbedingung kann als eine Bedingung für die Begrenzung der Wiederholung des Lernens sowie die Bewertung der Lernleistung verwendet werden.
  • Eine Auswahl eines Lernkriteriums, die basierend auf einer Charakteristik eines Lernmodells geändert werden kann, kann basierend auf Schemainformationen bestimmt werden und somit kann das Lernkriterium verschiedenartig konfiguriert sein. Daher ist in einer Ausführungsform der vorliegenden Erfindung das Lernkriterium nicht eingeschränkt.
  • Daten (d. h. Lerndaten), die gelernt werden sollen, können zum Beispiel einen Zugdatensatz, einen Validierungsdatensatz und einen Testdatensatz umfassen.
  • Der Zugdatensatz kann zum Trainieren des Lernmodells verwendet werden. Der Validierungsdatensatz kann zum Kürzen geeigneter Daten verwendet werden. Der Testdatensatz kann verwendet werden, um die Effektivität oder Eignung der ausgewählten Datenkürzung zu bestimmen. Der Zugdatensatz und der Validierungsdatensatz können derselbe Datensatz sein.
  • Die Frühstoppbedingung und die Konvergenztrendbedingung können einer Art von Regularisierung entsprechen, die zum Verhindern eines Gedächtniseffekts in einem Lernprozess zum Optimieren des Lernmodells durch Lernwiederholung verwendet wird und ein Lernergebnis kann einen Bereich von wiederholtem Lernen beschränken, das durchgeführt wird, bevor die vorbestimmte Lernzuverlässigkeitsbedingung erfüllt ist.
  • Die Lernzuverlässigkeitsbedingung kann Indikatoren wie Präzision, Genauigkeit und eine Fläche unter einer Kurve (AUC), die hauptsächlich in einem Klassifizierungsmodell verwendet werden, Indikatoren wie Wurzel der mittleren Fehlerquadrate (RMSE), mittlerer absoluter Fehler (MAE), relativer absoluter Fehler (RAE), relativer quadratischer Fehler (RSE) und einen Bestimmungskoeffizienten, die hauptsächlich in einem Regressionsmodell verwendet werden, und Indikatoren wie die Kompaktheit eines Clusters, eine maximale Distanz von der Clustermitte und eine Distanz zwischen Clustern, die hauptsächlich in einem Clustermodell verwendet werden, verwenden.
  • Bei der Eignung der Datenkürzung kann ausgewertet werden, ob ein Lernprozess oder ein Lernergebnis ein im Lernkriterium vorgeschriebenes Kriterium erfüllt. Die Frühstoppbedingung oder die Konvergenztrendbedingung kann zum Begrenzen der Lernwiederholung verwendet werden und somit kann dann, wenn ein Fall, in dem der Lernprozess oder das Lernergebnis die Frühstoppbedingung oder die Konvergenztrendbedingung erfüllt, in einem Zustand auftritt, in dem das Lernergebnis oder der Lernprozess die vorbestimmte Lernzuverlässigkeitsbedingung nicht erfüllt, der Lernprozess automatisch enden.
  • Wenn das Lernen endet, kann die Datenkürzung als ungeeignet bestimmt werden, und basierend auf der Änderung der Kürzungskriteriumsinformationen kann ein wiederholtes Lernen durchgeführt werden, um eine geeignete Datenkürzung zu ermöglichen.
  • Wenn die Wiederholung des Lernens die Frühstoppbedingung oder die Konvergenztrendbedingung nicht erfüllt, aber die Lernzuverlässigkeitsbedingung erfüllt, kann der Lernprozess automatisch enden. In diesem Zustand kann dann, wenn der Lernprozess endet, die Datenkürzung als geeignet bestimmt werden. Das Lernergebnis kann als ein Lernverlauf gespeichert werden.
  • Der gespeicherte Lernverlauf kann Informationsstücke (beispielsweise Eingabedaten, Schemainformationen, Kürzungskriteriumsinformationen, Kürzungsdateninformationen, Lernkriteriumsinformationen, Lerndateninformationen, Lernmodellinformationen, Lernergebnisinformationen und Wissenserweiterungskriteriumsinformationen) enthalten, die in einem kontinuierlichen Lernprozess generiert werden.
  • Wenn die Datenkürzung als geeignet bestimmt wird und ein Wissenserweiterungskriterium erfüllt, kann ein Wissenserweiterungsprozess zum Optimieren der Kürzungskriteriumsinformationen durchgeführt werden.
  • Wissenserweiterungskriteriumsinformationen
  • In einer Ausführungsform der vorliegenden Erfindung können die Wissenserweiterungskriteriumsinformationen ein Kriterium und eine Bedingung zum Aktualisieren der Kürzungskriteriumsinformationen definieren.
  • Die Wissenserweiterungskriteriumsinformationen können eine Beschränkung eines Lernkriteriums (oder eines Wiederholungslernkriteriums), eine Änderung eines Kürzungskriteriums und ein Verlaufskumulationskriterium umfassen. Die Wissenserweiterungskriteriumsinformationen enthalten vielleicht keine Änderungsinformationen über das Kürzungskriterium und keine Wiederholungslernkriteriumsinformationen, und abhängig von dem Fall können die Wissenserweiterungskriteriumsinformationen nur die Verlaufskumulationsinformationen enthalten.
  • Die Wiederholungslernkriteriumsinformationen können einen Faktor des Lernkriteriums darstellen, der in einem Wissenserweiterungsprozess zum Optimieren eines Datenkürzungskriteriums erfüllt sein sollte.
  • Die Änderungsinformationen über das Kürzungskriterium können einen Faktor und einen Bereich repräsentieren, die es ermöglichen, das Kürzungskriterium zu ändern.
  • Das Verlaufskumulationskriterium kann eine Bedingung darstellen, die erfüllt werden sollte, bevor eine Wissenserweiterung zum Optimieren der Kürzungskriteriumsinformationen durchgeführt wird, und kann eine Lernverlaufskumulationsbedingung und eine Kürzungskriteriumsänderungsbedingung umfassen. Wenn die Bedingungen nicht erfüllt sind, kann die Wissenserweiterung zum Optimieren der Kürzungskriteriumsinformationen nicht durchgeführt werden.
  • 6A ist eine Darstellung, die eine Datenstruktur von Kürzungskriteriumsinformationen, die in Schemainformationen enthalten sind, gemäß einer Ausführungsform der vorliegenden Erfindung darstellt.
  • Unter Bezugnahme auf 6A kann die Datenstruktur der Kürzungskriteriumsinformationen beispielsweise fünf Felder F1 bis F5 enthalten. Eine Kennung (ID) von Kürzungskriteriumsinformationen wie beispielsweise DR-ID kann in einem ersten Feld F1 aufgezeichnet werden. Informationen, die eine Datendimension repräsentieren, können in einem zweiten Feld F2 aufgezeichnet werden. Informationen, die eine Art eines Fensters repräsentieren, das zur Datenkürzung verwendet wird, können in einem dritten Feld F3 aufgezeichnet werden. Informationen, die eine Größe eines Fensters repräsentieren, können in einem vierten Feld F4 aufgezeichnet werden. Informationen, die ein Kriterium zum Auswählen eines repräsentativen Wertes repräsentieren, können in einem fünften Feld F5 aufgezeichnet werden. Ein Auswahlkriterium für einen repräsentativen Wert kann Informationen darstellen, die einem Attribut eines repräsentativen Werts, einer Art des repräsentativen Werts, einem Auswahlverfahren für den repräsentativen Wert oder einem Berechnungsverfahren für den repräsentativen Wert zugeordnet sind. Die Reihenfolge der Felder kann je nach Gestaltung unterschiedlich sein.
  • Wenn „DR001“ in dem ersten Feld F1 aufgezeichnet ist, „Zeit“ in dem zweiten Feld F2 aufgezeichnet ist, „festes Fenster“ in dem dritten Feld F3 aufgezeichnet ist, „zehn Minuten“ in dem vierten Feld F4 aufgezeichnet ist und „Durchschnitt“ in dem fünften Feld F5 aufgezeichnet ist, können die Kürzungskriteriumsinformationen als DR001 identifiziert werden und eine Kürzungsregel definieren, die als repräsentativen Wert einen Durchschnittswert auswählt, der unter Verwendung eines festen Fensters mit einer Fenstergröße von „10 Minuten“ in einer Zeitdimension ausgewählt wird.
  • 6B ist eine Darstellung, die eine Datenstruktur von Lernkriteriumsinformationen, die in Schemainformationen enthalten sind, gemäß einer Ausführungsform der vorliegenden Erfindung darstellt
  • Unter Bezugnahme auf 6B kann die Datenstruktur der Lernkriteriumsinformationen beispielsweise fünf Felder F1 bis F5 umfassen. Eine ID (eine Lernbedingungskennung LC-ID) der Lernkriteriumsinformationen kann in einem ersten Feld F1 aufgezeichnet werden. Informationen, die einer Art von Daten zur Berechnung der Lernzuverlässigkeit zugeordnet sind, können in einem zweiten Feld F2 aufgezeichnet werden. Informationen, die einer Lernzuverlässigkeitsbedingung zugeordnet sind, können in einem dritten Feld F3 aufgezeichnet werden. Informationen, die einem Kriterium zum Berechnen der Lernzuverlässigkeit zugeordnet sind, können in einem vierten Feld F4 aufgezeichnet werden. Hierbei kann das Kriterium zum Berechnen der Lernzuverlässigkeit Informationen darstellen, die einem Verfahren zum Berechnen der Lernzuverlässigkeit zugeordnet ist. Informationen, die einer Frühstoppbedingung für das Lernen zugeordnet sind, können in einem fünften Feld F5 aufgezeichnet werden.
  • Wenn „LC001“ in dem ersten Feld aufgezeichnet ist, „Validierungsdaten“ in dem zweiten Feld aufgezeichnet ist, „5% oder weniger“ wird in dem dritten Feld aufgezeichnet ist, „Wurzel der mittleren Fehlerquadrate (RMSE)“ in dem vierten Feld aufgezeichnet ist und „2000-mal oder öfter“ in dem fünften Feld aufgezeichnet ist, können die Lernkriteriumsinformationen als „LC001“ identifiziert werden und können eine Regel definieren, bei der eine Lernzuverlässigkeit unter Verwendung der Validierungsdaten berechnet wird und in einem Lernprozess dann, wenn eine RMSE der Lernzuverlässigkeit 5% oder weniger beträgt oder die Anzahl der Lernwiederholungen 2000 oder mehr beträgt, das Lernen stoppt.
  • Andererseits können in dem obigen Beispiel die Lernkriteriumsinformationen eine Regel definieren, bei der in dem Lernprozess dann, wenn die Anzahl der Lernwiederholungen weniger als 2000 beträgt und ein aus den Validierungsdaten berechneter RMSE-Wert der Lernzuverlässigkeit einen Wert erreicht, der kleiner als 5 % ist, die Lernzuverlässigkeit das Lernkriterium erfüllt.
  • Andererseits können in dem obigen Beispiel die Lernkriteriumsinformationen eine Regel definieren, bei der dann, wenn ein RMSE-Wert 5 % oder mehr in dem Moment beträgt, in dem die Anzahl von Lernwiederholungen 2000 übersteigt, die Lernzuverlässigkeit das Lernkriterium erfüllt.
  • 6C ist eine Darstellung, die eine Datenstruktur von Wissenserweiterungskriteriumsinformationen, die in Schemainformationen enthalten sind, gemäß einer Ausführungsform der vorliegenden Erfindung darstellt.
  • Unter Bezugnahme auf Fig. 6C können die Wissenserweiterungskriteriumsinformationen eine Wiederholungslernkriteriumsinformationen 61, Kürzungskriteriumsänderungsinformationen 63 und eine Verlaufskumulationskriteriumsinformationen 65 enthalten.
  • Wiederholungslernkriteriumsinformationen 61
  • Die Wiederholungslernkriteriumsinformationen 61 können drei Felder F1 bis F3 umfassen. Eine ID (eine Wissenserweiterungskennung (KA-ID)) von Wiederholungslernkriteriumsinformationen kann in einem ersten Feld F1 aufgezeichnet werden, eine ID (eine LC-ID) von Lernkriteriumsinformationen zum Vorschlagen kann in einem zweiten Feld F2 aufgezeichnet werden und die Anzahl von Änderungen eines Kürzungskriteriums kann in einem dritten Feld F3 aufgezeichnet werden.
  • Die Wiederholungslernkriteriumsinformationen 61 können eine Regel definieren, bei der in einem Fall, in dem die Anzahl von Lernwiederholungen basierend auf einer Kürzungskriteriumsänderung fünf oder weniger ist, dann, wenn eine Bedingung (z. B. eine Bedingung, bei der die Anzahl von Lernwiederholungen 2000 oder weniger ist und eine RMSE weniger als 5 % beträgt), die in den als LC-ID identifizierten Lernkriteriumsinformationen eingegrenzt ist, nicht erfüllt ist, wiederholtes Lernen durch Ändern des Kürzungskriteriums durchgeführt werden kann, aber die erlaubte Anzahl der Änderungen des Kürzungskriteriums nur bis zu fünf beträgt. Das heißt, die Regel, die in den Wiederholungslernkriteriumsinformationen 61 definiert ist, kann einen Fall definieren, in dem dann, wenn ein Lernergebnis die in den Lernkriteriumsinformationen eingegrenzte Bedingung in einem Prozess von fünfmaligem Ändern des Kürzungskriteriums erfüllt, das Lernergebnis als Lernverlauf gespeichert wird und die Änderung des Kürzungskriteriums endet, aber dann, wenn das Lernergebnis die in den Lernkriteriumsinformationen eingegrenzte Bedingung nicht erfüllt, bis das Kürzungskriterium fünfmal geändert worden ist, das Lernergebnis nicht als Lernverlauf gespeichert wird. Hierbei kann der gespeicherte Lernverlauf Informationsstücke (beispielsweise Eingabedaten, Schemainformationen, Kürzungskriteriumsinformationen, Kürzungsdateninformationen, Lernkriteriumsinformationen, Lerndateninformationen, Lernmodellinformationen, Lernergebnisinformationen und Wissenserweiterungskriteriumsinformationen) enthalten, die in einem kontinuierlichen Lernprozess generiert werden.
  • Kürzungskriteriumsänderungsinformationen 63
  • Eine Datenstruktur der Kürzungskriteriumsänderungsinformationen 63 kann fünf Felder F1 bis F5 umfassen. Eine ID (eine DR-ID) von Kürzungskriteriumsinformationen, die einem Änderungsziel entsprechen, kann in einem ersten Feld F1 aufgezeichnet werden, Informationen, die einem Änderungsfaktor zugeordnet sind, der in den durch die DR-ID identifizierten Kürzungskriteriumsinformationen geändert wird, können in einem zweiten Feld F2 aufgezeichnet werden, Information, die einem Änderungsbereich des in dem zweiten Feld F2 aufgezeichneten Änderungsfaktors zugeordnet sind, können in einem dritten Feld F3 aufgezeichnet werden, Informationen, die einem in dem Änderungsbereich spezifizierten Änderungskriterium zugeordnet sind, können in einem vierten Feld F4 aufgezeichnet werden, und Informationen, die einer Regel zugeordnet sind, die das Änderungskriterium willkürlich ändert, können in einem fünften Feld F5 aufgezeichnet werden.
  • In einem Fall, in dem der Änderungsfaktor eine Größe eines festen Fensters ist, der Änderungsbereich z. B. 0,5-mal, 1,0-mal und 1,5-mal umfasst, das Änderungskriterium zehn Minuten beträgt und eine Zufälligkeitsregel 30,0 % von zehn Minuten beträgt, können die Kürzungskriteriumsänderungsinformationen 63 das Ändern des Kürzungskriteriums definieren, wobei die Größe „zehn Minuten“ des festen Fensters auf die Größen „fünf Minuten“, „zehn Minuten“ und „fünfzehn Minuten“ des festen Fensters erweitert oder reduziert wird und die Größe des festen Fensters willkürlich innerhalb eines 30%-Bereichs von zehn Minuten geändert wird.
  • Um die Größe des festen Fensters willkürlich zu ändern, kann eine Zufallsfunktion zum Festlegen verschiedener Fenster verwendet werden oder ein genetischer Algorithmus zum Bewirken einer Zufälligkeit durch einen Hybridisierungs- und Mutationsprozess verwendet werden.
  • Daher kann die Größe eines Fensters unterschiedlich und automatisch auf [drei Minuten, zehn Minuten, siebzehn Minuten], [sieben Minuten, dreizehn Minuten, fünfzehn Minuten], [fünf Minuten, neun Minuten, sechzehn Minuten] usw. festgelegt werden.
  • Verlaufskumulationskriteriumsinformationen 65
  • Wenn ein Prozess basierend auf einer Regel eines Wiederholungslernkriteriums abgeschlossen wird, kann anschließend ein Prozess basierend auf einer Regel eines Verlaufskumulationskriteriums beginnen.
  • Die Verlaufskumulationskriteriumsinformationen 65 können eine Regel darstellen, die ein Lernverlaufskumulationskriterium definiert, und können eine Kürzungskriteriumsänderung für die Lernkumulation und den Wissenserweiterungsstart definieren.
  • Eine Datenstruktur der Verlaufskumulationskriteriumsinformationen 65 kann drei Felder F1 bis F3 umfassen. Eine ID (eine KA-ID2) der Verlaufskumulationskriteriumsinformationen kann in einem ersten Feld F1 aufgezeichnet werden, Informationen, die der Anzahl von Kumulationen eines Lernverlaufs zugeordnet sind, können in einem zweiten Feld F2 aufgezeichnet werden, und die Anzahl von Änderungen eines Kürzungskriteriums zum Durchführen der Wissenserweiterung kann in einem dritten Feld F3 aufgezeichnet werden.
  • Wenn die Anzahl von Kumulationen zum Speichern eines Lernergebnisses als Lernverlauf fünfzehn oder mehr beträgt und die Anzahl von Änderungen des Kürzungskriteriums zum Durchführen einer Wissenserweiterung sechs oder mehr beträgt, kann die Wissenserweiterung zum Optimieren der Kürzungskriteriumsinformationen immer dann durchgeführt werden, wenn der Lernverlauf gespeichert wird. Wenn jedoch die Lernverlaufskumulation und/oder die Kürzungskriteriumsänderung nicht erfüllt ist, wird die Wissenserweiterung möglicherweise nicht durchgeführt.
  • 7 ist eine Darstellung, die ein Beispiel darstellt, in dem Schemainformationen gemäß einer weiteren Ausführungsform der vorliegenden Erfindung als Ontologie ausgedrückt sind.
  • Die Ontologie, die in 7 gezeigt ist, kann eine Ontologie sein, die Kürzungskriteriumsinformationen ausdrückt. Eine Regel oder ein strukturiertes Wissen, das in einer Ausführungsform der vorliegenden Erfindung beschrieben ist, kann auf verschiedene Arten festgelegt werden und ist nicht auf ein Beispiel beschränkt, das in einer Ausführungsform der vorliegenden Erfindung beschrieben ist.
  • 8 ist ein Blockdiagramm, das eine Datenmetaskalierungsvorrichtung zum kontinuierlichen Lernen gemäß einer zweiten Ausführungsform der vorliegenden Erfindung darstellt.
  • Unter Bezugnahme auf 8 kann die Datenmetaskalierungsvorrichtung gemäß der zweiten Ausführungsform der vorliegenden Erfindung einen Metaoptimierer 10, einen Kürzer 20, eine Lernmaschine 30, einen Auswerter 40 und eine Metainformationsspeichereinheit 50 enthalten.
  • Die Metainformationsspeichereinheit 50 kann Lernverlaufsinformationen speichern. Die Lernverlaufsinformationen können Informationsstücke (d. h. alle Informationsstücke, die in den Meta-Optimierer 10, den Kürzer 20, die Lernmaschine 30 und den Auswerter 40 eingegeben bzw. daraus ausgegeben werden) umfassen, die in einem kontinuierlichen Lernprozess generiert werden, und die Lernverlaufsinformationen können beispielsweise Eingabedateninformationen, Schemainformationen, Lernmodellinformationen, Kürzungskriteriumsinformationen, Kürzungsdateninformationen, Lernkriteriumsinformationen, Lerndateninformationen, Lernmodellinformationen, Lernergebnisinformationen und Wissenserweiterungskriteriumsinformationen umfassen.
  • Der Metaoptimierer 10, der Kürzer 20, die Lernmaschine 30 und der Auswerter 40 können die Metainformationsspeichereinheit 50 in einem Prozess des Eingebens/Ausgebens der Lernverlaufsinformationen für die Zusammenarbeit verwenden. Zum Beispiel kann der Metaoptimierer 10 Kürzungskriteriumsinformationen, Lernkriteriumsinformationen und Wissenserweiterungskriteriumsinformationen, die aus den Schemainformationen extrahiert oder gemäß einer Anwendereingabe geliefert werden, in der Metainformationsspeichereinheit 50 speichern und anschließend kann der Kürzer 20 dann, wenn der Metaoptimierer 10 einen Speicherort der Metainformationsspeichereinheit 50 an den Kürzer 20 überträgt, die Kürzungskriteriumsinformationen aus der Metainformationsspeichereinheit 50 lesen, um eine Dimension von Eingabedaten basierend auf den Kürzungskriteriumsinformationen zu kürzen.
  • Wenn der Kürzer 20 Kürzungsdaten in der Metainformationsspeichereinheit 50 speichert, kann die Lernmaschine 30 ferner die gespeicherten Kürzungsdaten aus der Metainformationsspeichereinheit 50 lesen, Lerndaten aus den gelesenen Kürzungsdaten erzeugen, und dadurch ML durchführen.
  • Wenn die Lernmaschine 30 Lernergebnisinformationen in der Metainformationsspeichereinheit 50 speichert, kann der Auswerter 40 die Lernergebnisinformationen aus der Metainformationsspeichereinheit 50 lesen, um zu bestimmen, ob ein Lernergebnis ein Lernkriterium erfüllt.
  • Schließlich kann der Metaoptimierer 10 eine Wissenserweiterung oder eine Aktualisierung der Kürzungskriteriumsinformationen basierend auf einem Ergebnis der Bestimmung durch den Auswerter 40 durchführen.
  • Gemäß der oben beschriebenen zweiten Ausführungsform kann die Datenmetaskalierungsvorrichtung die Lernverlaufsinformationen kumulieren und kann die kumulierten Lernverlaufsinformationen speichern, und wenn die Lernverlaufsinformationen ausreichend gespeichert worden sind, um das Wissenserweiterungskriterium zu erfüllen, kann die Datenmetaskalierungsvorrichtung den Lernverlauf analysieren, um ein optimales Kürzungskriterium zu erhalten, wodurch die Schemainformationen automatisch aktualisiert werden. Durch solch einen Prozess kann eine Prozedur zum Erstellen des kontinuierlichen Lernens automatisiert werden und die Optimierung des Kürzungskriteriums zum Kürzen von Daten kann durch kontinuierliche Wissenserweiterung automatisiert werden.
  • 9 ist ein Blockdiagramm, das eine Datenmetaskalierungsvorrichtung zum kontinuierlichen Lernen gemäß einer dritten Ausführungsform der vorliegenden Erfindung zeigt.
  • Unter Bezugnahme auf 9 kann die Datenmetaskalierungsvorrichtung gemäß der dritten Ausführungsform der vorliegenden Erfindung einen Metaoptimierer 100, mehrere Kürzer 200 (1, 2, ... und N) und mehrere Lernmaschinen 300 (1, 2, ... und M), einen Auswerter 400 und eine Metainformationsspeichereinheit 500 enthalten.
  • Die Datenmetaskalierungsvorrichtung gemäß der dritten Ausführungsform der vorliegenden Erfindung kann im Gegensatz zu den Ausführungsformen von 1 und 8, in denen ein Kürzer und eine Lernmaschine vorgesehen sind, die mehreren Kürzer und die mehreren Lernmaschinen enthalten, und somit können die mehreren Lernmaschinen ein paralleles Lernen von Datenstücken, die durch die mehreren Kürzer 200 gekürzt werden, durchführen.
  • In diesem Fall kann der Metaoptimierer 100 einen mehrdimensionalen Datenkürzer 110 enthalten, um die Kürzungskriteriumsinformationen, die jeweils von den mehreren Kürzern 200 geliefert werden, festzulegen.
  • Der mehrdimensionale Datenkürzer 110 kann einen Kürzungskriteriumsinformationssatz festlegen, der Stücke von Kürzungskriteriumsinformationen enthält, die basierend auf einer Kombination von verschiedenen Kürzungseinheiten erzeugt werden, die in verschiedenen Dimensionen definiert sind, die es ermöglichen, dass ein Attribut von Daten ausgedrückt wird.
  • Im Einzelnen kann der mehrdimensionale Datenkürzer 110 Kürzungseinheiten verschiedener Dimensionen, die einen Ausdruck von Daten ermöglichen, unter Verwendung eines genetischen Algorithmus kombinieren, um den Kürzungskriteriumsinformationssatz (Kürzungskriteriumsinformationen 1 bis Kürzungskriteriumsinformationen N) festzulegen.
  • Die Kürzungskriteriumsinformationen 1 bis Kürzungskriteriumsinformationen N können an die mehreren Kürzer 200 geliefert werden und jeder der mehreren Kürzer 200 kann Eingabedaten basierend auf Kürzungskriteriumsinformationen davon kürzen. Da Datenstücke, die in die mehreren Kürzer 200 eingegeben werden, gleich sind, aber Stücke von Kürzungskriteriumsinformationen, die darauf angewendet werden, unterschiedlich sind, können sich Stücke von Kürzungsdaten, die von den mehreren Kürzern 200 ausgegeben werden, unterscheiden.
  • Stücke von Kürzungsdaten, die auf der Basis von Stücken unterschiedlicher Kürzungskriteriumsinformationen gekürzt sind, können jeweils an die mehreren Lernmaschinen 300 geliefert werden. Die mehreren Lernmaschinen 300 können mit verschiedenen Lernmaschinen ausgebildet sein und können Stücke von Kürzungsdaten lernen, die basierend auf Stücken verschiedener Kürzungskriteriumsinformationen gekürzt sind. Das heißt, die mehreren Lernmaschinen 1 bis M können paralleles Lernen an Kürzungsdaten durchführen, die auf der Basis der Kürzungskriteriumsinformationen 1 gekürzt sind, und das parallele Lernen kann durchgeführt werden, bis die mehreren Lernmaschinen 1 bis M paralleles Lernen an Kürzungsdaten M, die auf der Basis der Kürzungskriteriumsinformationen N gekürzt sind, abgeschlossen haben. Daher können die mehreren Lernmaschinen 1 bis M eine Anzahl N*M von Lernergebnissen an den Auswerter 400 liefern.
  • Die mehreren Lernmaschinen 1 bis M können paralleles Lernen an Stücken von Kürzungsdaten, die basierend auf Stücken von verschiedenen Kürzungskriteriumsinformationen gekürzt sind, basierend auf einem Stück von gemeinsamen Lernkriteriumsinformationen durchführen, aber können paralleles Lernen auch an jedem von Stücken von Kürzungsdaten basierend auf Stücken verschiedener Lernkriteriumsinformationen durchführen. In diesem Fall kann der Metaoptimierer 100 Stücke verschiedener Lernkriteriumsinformationen festlegen.
  • Der Auswerter 400 kann bestimmen, ob Lernzuverlässigkeiten der N*M Lernergebnisse ein Lernkriterium erfüllen. In diesem Fall können die Zuverlässigkeiten der Lernergebnisse aufgrund verschiedener Kombinationen von Stücken von Kürzungsdaten und Lernmodellen unterschiedliche Werte aufweisen und Charakteristiken (beispielsweise Hyperparameter) der Lernmodelle können sich unterscheiden.
  • Der Auswerter 400 kann bestimmen, ob Lernzuverlässigkeiten von Lernergebnissen, die von den mehreren Lernmaschinen 300 geliefert werden, ein Lernkriterium erfüllen, und der Metaoptimierer 100 kann alle oder einige von Stücken von Kürzungskriteriumsinformationen basierend auf dem Ergebnis der Bestimmung durch den Auswerter 400 aktualisieren.
  • Wenn die Lernzuverlässigkeiten der Lernergebnisse das Lernkriterium nicht erfüllen, kann der Metaoptimierer 100 die Kürzungskriteriumsinformationen auf der Basis der Wissenserweiterungskriteriumsinformationen aktualisieren. Wenn die Lernzuverlässigkeiten der Lernergebnisse das Lernkriterium erfüllen, kann der Metaoptimierer 100 einen Wissenserweiterungsprozess durch einen Prozess des automatischen Speicherns der Lernergebnisse als Lernverlauf starten.
  • Der Lernverlauf kann ausreichend gespeichert werden, um ein Wissenserweiterungskriterium zu erfüllen, und dann kann der Metaoptimierer 100 den Lernverlauf analysieren, um einen Prozess zum Optimieren eines Kürzungskriteriums durchzuführen. Durch solch einen Prozess kann eine Prozedur zum Erstellen des kontinuierlichen Lernens automatisiert werden und die Optimierung des Kürzungskriteriums zum Kürzen von Daten kann durch kontinuierliche Wissenserweiterung automatisiert werden.
  • 10 ist eine Darstellung zum Beschreiben eines Beispiels, in dem die in 1 dargestellte Datenmetaskalierungsvorrichtung auf ein Verkehrsinformationsvorhersageszenario angewendet wird.
  • Unter Bezugnahme auf Fig. 10 können Beispiele von Kürzungskriteriumsinformationen, die auf das Verkehrsinformationsvorhersageszenario angewendet werden können, eine Datendimension, die als Zeit definiert ist, eine Art eines Fensters, die als festes Fenster definiert ist, eine Fenstergröße, die als zehn Minuten definiert ist, und einen Auswahlkriterium für einen repräsentativen Wert, das als Durchschnitt definiert ist, umfassen. Die Kürzungskriteriumsinformationen können eine Regel bezeichnen, die als einen repräsentativen Wert ein Ergebnis auswählt, das durch Berechnen eines Durchschnitts in einem festen Fenster mit einer Fenstergröße „zehn Minuten“ in einer Zeitdimension zum Kürzen von Verkehrsdaten erhalten wird.
  • Beispiele von Lernkriteriumsinformationen, die auf das Verkehrsinformationsvorhersageszenario angewendet werden können, können eine Art von Daten, die als Validierungsdaten definiert ist, eine Lernzuverlässigkeitsbedingung, die als 0,15 % oder weniger definiert ist, ein Lernzuverlässigkeitsberechnungskriterium, das als RMSE definiert ist, und eine Frühstoppbedingung, die als 2000-mal oder öfter definiert ist, umfassen. Die Lernkriteriumsinformationen können eine Regel bezeichnen, bei der die Lernzuverlässigkeit eines Verkehrsvorhersagemodells unter Verwendung von Validierungsdaten berechnet wird und in einem Lernprozess dann, wenn eine RMSE der Lernzuverlässigkeit 0,15 % oder weniger beträgt oder die Anzahl der Lernwiederholungen 2000 oder mehr beträgt, das Lernen stoppt.
  • Die auf das Verkehrsinformationsvorhersageszenario angewendeten Wissenserweiterungskriteriumsinformationen können die Anzahl von Änderungen eines Kürzungskriteriums innerhalb eines Bereichs von fünf Mal, einen Änderungsfaktor, der als eine Fenstergröße definiert ist, einen Änderungsbereich, der als fünf Minuten, zehn Minuten und fünfzehn Minuten definiert ist, die Anzahl von Lernkumulationen, die als fünfzehn Mal oder mehr definiert ist, und eine Wissenserweiterungs-Startbedingung, die so definiert ist, dass das Kürzungskriterium sechs Mal oder öfter geändert worden ist, umfassen. Die Wissenserweiterungskriteriumsinformationen können eine Regel bezeichnen, bei der dann, wenn das Lernen basierend auf der Änderung der Kürzungskriteriumsinformationen fünfmal oder weniger wiederholt wird, eine feste Fenstergröße auf drei Arten [fünf Minuten, zehn Minuten, fünfzehn Minuten] festgelegt ist, die Anzahl von Kumulationen eines Lernergebnisses, das als Lernverlauf gespeichert wird, fünfzehn Mal oder mehr beträgt und die Anzahl von Änderungen des Kürzungskriteriums sechs Mal oder mehr beträgt, eine Wissenserweiterung zum Optimieren der Kürzungskriteriumsinformationen immer dann durchgeführt wird, wenn das Lernergebnis als Lernverlauf gespeichert wird.
  • Der Metaoptimierer 10 kann die Kürzungskriteriumsinformationen, die auf das Verkehrsinformationsvorhersageszenario angewendet werden, an den Kürzer 20 liefern. Der Kürzer 20 kann einen Kürzungsprozess zum Auswählen eines repräsentativen Werts unter Verwendung von Fenstern „fünf Minuten“, „zehn Minuten“ und „fünfzehn Minuten“ in einer Zeitdimension durchführen. Die Lernmaschine 30 kann ein Lernen an Daten durchführen, die durch den Kürzer 20 gekürzt sind. Der Auswerter 40 kann bestimmen, ob ein Lernergebnis der Lernmaschine 30 ein in den Kürzungskriteriumsinformationen definiertes Lernkriterium erfüllt. Wenn zum Beispiel eine RMSE der Lernzuverlässigkeit in einer Kürzung in der Einheit zehn Minuten 0,13 % beträgt, kann die RMSE eine Regel von weniger als 0,15 % erfüllen und somit kann ein entsprechendes Lernergebnis als Lernverlauf gespeichert werden und ein Prozess, der auf einer Regel der Wissenserweiterungskriteriumsinformationen basiert, kann abgeschlossen werden.
  • Schemainformationen, die auf das Verkehrsinformationsvorhersageszenario angewendet werden, können Kürzungskriteriumsinformationen umfassen, wenn eine Datendimension eine Raumdimension oder eine Bedeutungsdimension ist. In Verbindung mit Kürzungskriteriumsinformationen über die Raumdimension kann der Kürzer 20 beispielsweise Verkehrsdaten durch Einheiten von Räumen wie beispielsweise einer Nutzungszone (z. B. einer Wohnzone, einer zentralen kommerziellen Zone etc.) oder einem Verwaltungsbezirk (beispielsweise si/gun/gu), zu dem eine Straße gehört, auf der eine Fahrgeschwindigkeit gemessen worden ist, kürzen und kann ein Vorhersagemodell unter Verwendung von Kürzungsdaten, die durch Einheiten von Räumen gekürzt sind, berechnen.
  • Im Einzelnen kann der Metaoptimierer 10 ein Kürzungskriterium für Stücke von Fahrzeuggeschwindigkeitsdaten festlegen, die auf einer in einem bestimmten Block befindlichen Straße gemessen werden, um das Verkehrsaufkommen einer benachbarten Straße zu berücksichtigen. In diesem Fall kann der Metaoptimierer 10 beim Vorhersagen einer Fahrgeschwindigkeit an einem spezifischen Punkt Daten, die durch Messen des Verkehrsaufkommens eines benachbarten Verwaltungsbezirks erhalten werden, zusätzlich zu Daten, die durch Messen des V Verkehrsaufkommens eines Verwaltungsbezirks erhalten werden, zu dem der spezifische Punkt gehört, verwenden. In diesem Fall können die Kürzungskriteriumsinformationen eine Regel „(Datendimension: Raum), (Art des Fensters: festes Fenster), (Fenstergröße: drei Blöcke) und (Auswahlkriterium für repräsentativen Wert: Durchschnittsgeschwindigkeit)“ festlegen. Die Regel kann einen Datenkürzungsprozess zum Auswählen einer Durchschnittsgeschwindigkeit als einen repräsentativen Wert unter Verwendung eines festen Fensters „drei Blöcke“ in einer Raumdimension bezeichnen.
  • Außerdem kann der Metaoptimierer 10 Kürzungskriteriumsinformationen festlegen, die durch Kombinieren von Bedeutungsinformationen und Zeitinformationen erhalten werden. In diesem Fall können die Kürzungskriteriumsinformationen (Datendimension: Raum), (Kürzungsort: Jongno-gu), (Fenstergröße: kommerzielle Zone), (Datendimension: Zeit), (Kürzungsbereich: 08:00-09:30), (Art des Fensters: festes Fenster), (Fenstergröße: zehn Minuten), (Auswahlkriterium für repräsentativen Wert: Durchschnittsgeschwindigkeit) umfassen. Eine solche Regel kann einen Datenkürzungsprozess zum Auswählen einer Durchschnittsgeschwindigkeit als einen repräsentativen Wert mit einem festen Fenster „zehn Minuten“ für ein Zeitfenster „08:00-09:30“ in einem Raum, der als eine Bedeutungsdimension definiert ist, die einer kommerziellen Zone entspricht, die sich in Jongno-gu befindet, bezeichnen.
  • Als weiteres Anwendungsbeispiel der Datenmetaskalierungsvorrichtung, die in 1 dargestellt ist, kann die Datenmetaskalierungsvorrichtung von 1 auf einen Leistungsaufnahmevorhersagedienst angewendet werden.
  • Durch geeignetes Festlegen eines Kürzungskriteriums kann ein fehlender Wert der Menge an genutzter Leistung und Rauschen entfernt werden, wodurch Daten der genutzten Leistung in guter Qualität erzeugt werden.
  • Um den Leistungsbedarf zu verwalten, ist es erforderlich, Daten über die Menge an Leistung, die von Heiz- und Kühlvorrichtungen und Beleuchtungsvorrichtungen, die Leistung verbrauchen, genutzt wird, in bestimmten Zeitintervallen zu messen, um ein genaues Lernmodell für die Leistungsbedarfsvorhersage zu einem zukünftigen spezifischen Zeitpunkt zu erzeugen. In diesem Fall zeigt die Menge an genutzter Leistung, die von einer einzelnen Vorrichtung gemessen wird, aufgrund einer äußeren Ursache wie meteorologischen Veränderungen und des Abhaltens eines speziellen Ereignisses ein unregelmäßiges Muster und darüber hinaus kann ein fehlender Wert aufgrund eines Ausrüstungsfehlers und einer Weigerung eines Anwenders, Daten freizugeben, auftreten.
  • Daher können in einem Fall der Verwendung einer Datenkürzung gemäß einer Ausführungsform der vorliegenden Erfindung einige fehlende Werte von Messdaten und Rauschen durch sich ändernde Einheiten von Datenkürzung entfernt werden.
  • Wenn beispielsweise die Kürzungskriteriumsinformationen (Datendimension: Raum), (Kürzungsort: Forschungsgebäude), (Fenstergröße: dritter Stock), (Datendimension: Zeit), (Kürzungsbereich: 08:00-19:00), (Art des Fensters: festes Fenster), (Fenstergröße: zehn Minuten) und (Auswahlkriterium für repräsentativen Wert: maximal genutzte Leistungsmenge) umfassen, die Kürzungskriteriumsinformationen einen Datenkürzungsprozess zum Auswählen eines maximal genutzten Leistungsbetrags als repräsentativen Wert innerhalb eines Bereichs, der als ein festes Fenster „zehn Minuten“ in Bezug auf ein Zeitfenster „08:00-19:00“ in einem Raum, der als eine Bedeutungsdimension definiert ist, die einem dritten Stockwerk eines Forschungsgebäudes entspricht, vorbestimmt ist.
  • Der Metaoptimierer 10 kann Kürzungskriteriumsinformationen an den Kürzer 20 liefern, die auf den Leistungsbedarfsvorhersagedienst angewendet werden, und der Kürzer 20 kann eine Datenkürzung basierend auf den Kürzungskriteriumsinformationen durchführen. Die Lernmaschine 30 kann ein Lernen an einem zugewiesenen Leistungsbedarfsvorhersagemodell durchführen und der Auswerter 40 kann bestimmen, ob die Lernergebnisinformationen ein Lernkriterium erfüllen. In diesem Fall kann dann, wenn ein auf den Lernergebnisinformationen beruhendes Lernergebnis das Lernkriterium erfüllt, das Lernergebnis als ein Lernverlauf gespeichert werden und ein auf den Wissenserweiterungskriteriumsinformationen basierender Prozess kann abgeschlossen werden.
  • Als weiteres Anwendungsbeispiel der Datenmetaskalierungsvorrichtung, die in 1 dargestellt ist, kann die Datenmetaskalierungsvorrichtung von 1 zur Optimierung der Leistungserzeugungseffizienz eines Windkrafterzeugungssystems angewendet werden.
  • Für das Anwendungsbeispiel ist es erforderlich, ein geeignetes Kürzungskriterium zum Speichern von Leistungserzeugungsmengendaten festzulegen, um eine Winkelsteuerungszeitvorgabe eines Blattflügels eines Windkraftgenerators gemäß den Änderungen der Windrichtung und der Windgeschwindigkeit zu optimieren. In diesem Fall können die Windrichtung und die Windgeschwindigkeit unter Verwendung eines mikrometeorologischen Windvorhersagemodells vorhergesagt werden. Das mikrometeorologische Windvorhersagemodell kann verschiedene Modelle wie beispielsweise ein numerisches Vorhersagemodell, ein Maschinenlernvorhersagemodell und ein hybrides Modell, das durch eine Kombination des numerischen Vorhersagemodells und des Maschinenlernvorhersagemodells ausgebildet ist, anwenden.
  • Verschiedene Strategien und Modelle können zum Steuern eines Winkels eines Blattflügels, der durch die vorhergesagten Änderungen der Windrichtung und der Windgeschwindigkeit verursacht wird, bereitgestellt werden, und in einer Ausführungsform der vorliegenden Erfindung sind die Strategien und Modelle nicht eingeschränkt.
  • In einer Ausführungsform, in der die Metaskalierungsvorrichtung auf die Optimierung der Leistungserzeugungseffizienz des Windkrafterzeugungssystems angewendet wird, kann der Metaoptimierer 10 Kürzungskriteriumsinformationen an den Kürzer 20 liefern, die der Menge der erzeugten Windleistung zugeordnet sind, und der Kürzer 20 kann eine Datenkürzung basierend auf den Kürzungskriteriumsinformationen durchführen. Die Lernmaschine 30 kann ein Lernen an einem zugewiesenen Windleistungerzeugungsmengen-Vorhersagemodell unter Verwendung gekürzter Daten durchführen und der Auswerter 40 kann bestimmen, ob ein Lernergebnis der Lernmaschine 30 ein Lernkriterium erfüllt. In diesem Fall kann dann, wenn das Lernergebnis das Lernkriterium erfüllt, das Lernergebnis als Lernverlauf gespeichert werden und ein Prozess, der auf einer Regel der Wissenserweiterungskriteriumsinformationen basiert, kann abgeschlossen werden.
  • In einer Ausführungsform der vorliegenden Erfindung kann ein Lernverlauf gemäß einer Regel basierend auf Wissenserweiterungskriteriumsinformationen kumuliert und gespeichert werden, und dann, wenn der Lernverlauf ausreichend gespeichert worden ist, um die Regel basierend auf den Wissenserweiterungskriteriumsinformationen zu erfüllen, kann ein Kürzungskriterium durch Analysieren des Lernverlaufs optimiert werden und kontinuierliches Lernen kann durch einen Prozess des Hinzufügens optimierter Kürzungskriteriumsinformationen zu Schemainformationen zum automatischen Aktualisieren der Schemainformationen verwirklicht werden.
  • Im Folgenden wird ein Prozess zum Erhalten eines optimalen Kürzungskriteriums zum Aktualisieren von Schemainformationen beschrieben.
  • 11A bis 11C sind Darstellungen, die schematisch einen Wissenserweiterungsprozess zum Erhalten eines optimalen Kürzungskriteriums gemäß einer Ausführungsform der vorliegenden Erfindung veranschaulichen. 11A zeigt in zweidimensionaler Weise ein Ergebnis, das durch Speichern eines Lernverlaufs, der durch Lernen einer Lernmaschine in einer Datendimension erhalten wird, basierend auf verschiedenen Fenstergrößen erhalten wird. 11B zeigt in dreidimensionaler Weise ein Ergebnis, das durch Speichern eines Lernverlaufs, der durch Lernen der Lernmaschine in zwei Datendimensionen erhalten wird, basierend auf verschiedenen Fenstergrößen erhalten wird. 11C zeigt einen Prozess zum Erhalten einer optimalen Fenstergröße durch Verwenden eines gespeicherten Lernverlaufs zum Optimieren der Kürzungskriteriumsinformationen.
  • In 11A sind mehrere Kreisen mit verschiedenen Größen auf einer durch eine horizontale Achse und eine vertikale Achse definierten Ebene dargestellt und jeder der mehreren Kreise bezeichnet die Zuverlässigkeit eines Lernergebnisses. Hier ist das Lernergebnis ein Ergebnis, das durch Lernen von Erfassungsdaten eines periodisch wiederholten Ereignisses erhalten wird.
  • Die Zuverlässigkeit eines Lernergebnisses ist für die Größe eines Kreises entscheidend. Wenn die Größe eines Kreises beispielsweise zunimmt, wird die Zuverlässigkeit (oder Genauigkeit) des Lernens höher.
  • Eine Mitte jedes der mehreren Kreise ist als eine relative Position basierend auf einer Periode auf der horizontalen Achse dargestellt und ist als eine Position basierend auf einer Fenstergröße, die auf Kürzungskriteriumsinformationen basiert, auf der vertikalen Achse dargestellt. Das heißt, die horizontale Achse stellt Erfassungswerte dar, die gemäß einer Erfassungsperiode eines Ereignisses gesammelt werden, das in einer beliebigen Datendimension wiederholt wird, und ein Bereich der horizontalen Achse ist als ein Minimalwert „D10“ und ein Maximalwert „D20“ definiert.
  • Die vertikale Achse stellt eine Fenstergröße dar, die in einem Datenkürzungsprozess gemäß Kürzungskriteriumsinformationen verwendet wird, und der Bereich der vertikalen Achse ist als ein minimaler Wert „0“ und ein maximaler Wert „50“ definiert.
  • In 11A kann angenommen werden, dass dann, wenn ein Erfassungswert D15 ist und eine Fenstergröße 25 in einer beliebigen Datendimension ist, die Zuverlässigkeit eines Lernergebnisses am höchsten ist.
  • In einer Ausführungsform der vorliegenden Erfindung kann die Zuverlässigkeit des Lernergebnisses als ein Indikator zum Bewerten der Eignung der Datenkürzung verwendet werden und in 11A kann eine Fenstergröße, bei der eine optimale Datenkürzung bereitgestellt wird, wenn ein Erfassungswert D15 ist, mit 25 bewertet werden. In diesem Fall ist die Bewertung einer optimalen Datenkürzungsbedingung nicht auf eine Dimension beschränkt, und wie in 11B dargestellt kann die optimale Datenkürzung für alle Datendimensionen ausgewertet werden, in denen der Lernverlauf gespeichert ist.
  • Bei einer optimalen Datenkürzungsbedingung für eine Datendimension kann die optimale Datenkürzungsbedingung durch eine optimale Auswertung erhalten werden, die in 11c in Bezug auf eine Region gezeigt ist, die in 11A als „Wissenserweiterungsperiode“ dargestellt ist. Das heißt, in Fig. 11A können alle Lernverläufe, die in der Region enthalten sind, die in 11A als „Wissenserweiterungsperiode“ dargestellt ist, extrahiert werden und wie in 11C dargestellt angeordnet werden.
  • Eine horizontale Achse von 11C ist die gleiche wie die vertikale Achse von 11A. Das heißt, die horizontale Achse von 11C stellt eine Fenstergröße dar. Eine vertikale Achse von 11C bezeichnet die Zuverlässigkeit (oder Genauigkeit) eines Lernergebnisses, die als RMSE dargestellt ist.
  • Wenn eine Anpassung an einer zweidimensionalen Kurve (2D-Kurve) unter Berücksichtigung einer Größe der RMSE in Bezug auf alle Lernverläufe vorgenommen wird, die in der Region enthalten sind, die als „Wissenserweiterungsperiode“ in 11A dargestellt ist, kann eine optimale Bedingung eines Fensters für Datenkürzung ausgewertet werden. Das heißt, in 11C beträgt eine Fenstergröße in Bezug auf ein Kürzungskriterium „50“, das anfänglich festgelegt ist, 20, aber eine optimale Fenstergröße in Bezug auf ein optimales Kürzungskriterium, an dem die Anpassung unter Verwendung eines Lernverlaufs erfolgt, beträgt 18.
  • Der Metaoptimierer 10 kann eine Auswertung bezüglich einer optimalen Datenkürzungsbedingung unter Verwendung eines Lernverlaufs durchführen und kann neue Kürzungskriteriumsinformationen, in denen eine Fenstergröße auf 18 gesetzt ist, zu Schemainformationen unter Verwendung der Auswertung hinzufügen. In einem Prozess des Hinzufügens der Schemainformationen wird ein Eingreifen eines Anwenders oder eine Anwendereingabe nicht benötigt und somit kann ein kontinuierliches Lernen zum automatischen Aktualisieren der Schemainformationen erfolgen.
  • Bei der Datenmetaskalierungsvorrichtung und dem Datenmetaskalierungsverfahren zum kontinuierlichen Lernen gemäß einer Ausführungsform der vorliegenden Erfindung kann ein Lernverlauf ausreichend gespeichert werden, um ein Wissenserweiterungskriterium zu erfüllen, und anschließend immer dann, wenn ein neuer Lernverlauf gespeichert wird, eine kontinuierliche Optimierung eines Kürzungskriteriums gemäß dem Wissenserweiterungsprozess, der oben unter Bezugnahme auf 11A bis 11C beschrieben ist, durchgeführt werden.
  • Wie oben beschrieben kann durch ein Verfahren zum Aktualisieren des in den Schemainformationen enthaltenen Kürzungskriteriums eine Prozedur zum Erstellen des kontinuierlichen Lernens automatisiert werden und die Optimierung des Kürzungskriteriums zum Kürzen von Daten kann durch kontinuierliche Wissenserweiterung automatisiert werden.
  • Die oben beschriebene Datenmetaskalierungsvorrichtung und das Datenmetaskalierungsverfahren zum kontinuierlichen Lernen gemäß einer Ausführungsform der vorliegenden Erfindung können als ein Programm implementiert und in einem Aufzeichnungsmedium gespeichert werden und dann von einem Prozessor geladen und ausgeführt werden.
  • Mehrere Programmmodule (z. B. der Metaoptimierer, der Kürzer, die Lernmaschine und der Auswerter) zum Verwirklichen einer Funktion gemäß einer Ausführungsform der vorliegenden Erfindung können über ein Netz wie etwa eine Serverfarm verteilt sein oder können in einen Prozessor einer einzelnen Computervorrichtung eingebettet sein.
  • Darüber hinaus können die Datenmetaskalierungsvorrichtung und das Datenmetaskalierungsverfahren zum kontinuierlichen Lernen gemäß einer Ausführungsform der vorliegenden Erfindung einen programmierbaren Prozessor, einen Computer, einen Multiprozessor oder einen Multicomputer umfassen und können in jegliche Geräte, Vorrichtungen und Maschinen zum Verarbeiten von Daten eingebettet sein.
  • Ferner kann die Datenmetaskalierungsvorrichtung zum kontinuierlichen Lernen gemäß einer Ausführungsform der vorliegenden Erfindung beispielsweise eine Backend-Komponente wie etwa einen Datenserver oder eine Middleware-Komponente wie etwa einen Anwendungsserver umfassen. Alternativ kann die Datenmetaskalierungsvorrichtung zum kontinuierlichen Lernen gemäß einer Ausführungsform der vorliegenden Erfindung ferner eine Frontend-Komponente wie etwa einen Clientcomputer, der eine Grafikschnittstelle oder einen Webbrowser, der mit den hierin beschriebenen Elementen zusammenarbeiten kann, umfasst, oder jegliche von einer oder mehreren Kombinationen der Backend-Komponente, der Middleware-Komponente und der Frontend-Komponente umfassen.
  • Wie oben beschrieben kann gemäß den Ausführungsformen der vorliegenden Erfindung zum Erzielen einer optimalen Leistung beim ML ein Prozess zum Konstruieren von kontinuierlichem Lernen durch Ausführen eines Datenkürzungsprozesses an Daten, für die das ML durchzuführen ist, in verschiedenen Dimensionen automatisiert werden und die Optimierung des Kürzungskriteriums für die Datenkürzung kann durch kontinuierliche Wissenserweiterung automatisiert werden.
  • Darüber hinaus können gemäß den Ausführungsformen der vorliegenden Erfindung Wissenserweiterungskriteriumsinformationen, die ein Kriterium und eine Bedingung zum Aktualisieren von Kürzungskriteriumsinformationen definieren, unter Bezugnahme auf Schemainformationen festgelegt werden, Daten können durch Festlegen mehrerer unterschiedlicher Kürzungskriteriumsinformationen basierend auf den Wissenserweiterungskriteriumsinformationen gekürzt werden und die gekürzten Daten können durch Anwenden der gekürzten Daten auf mehrere verschiedene MLs parallel ausgewertet werden, wodurch ein Lernverlauf basierend auf verschiedenen Stücken von Kürzungskriteriumsinformationen erzeugt und gespeichert werden kann.
  • Gemäß den Ausführungsformen der vorliegenden Erfindung können außerdem Lernverlaufsinformationen, die Eingabedateninformationen, Schemainformationen, Lernmodellinformationen, Kürzungskriteriumsinformationen, Kürzungsdateninformationen, Lernkriteriumsinformationen, Lerndateninformationen, Lernmodellinformationen, Lernergebnisinformationen und Wissenserweiterungskriteriumsinformationen umfassen, kumuliert und gespeichert werden und Kürzungskriteriumsinformationen können durch Wissenserweiterung zum automatischen Festlegen optimaler Kürzungskriteriumsinformationen basierend auf den gespeicherten Lernverlaufsinformationen optimiert werden.
  • Da zudem gemäß den Ausführungsformen der vorliegenden Erfindung die Datenmetaskalierungstechnologie eine mehrdimensionale Kürzung durchführt, die ein Ausdrücken verschiedener Arten von Daten, die in IoT- und IoE-Umgebungen gesammelt werden, ermöglicht, kann die Datenmetaskalierungstechnologie ursprüngliche Daten in Daten, die eine andere Struktur haben, umwandeln und darüber hinaus basierend auf gekürzten Informationen ein neues Attribut zu den Originaldaten hinzufügen, um die Originaldaten zu erweitern.
  • Eine Anzahl von beispielhaften Ausführungsformen ist oben beschrieben worden. Es versteht sich jedoch, dass verschiedene Abwandlungen vorgenommen werden können. Zum Beispiel können geeignete Ergebnisse erzielt werden, wenn die beschriebenen Techniken in einer anderen Reihenfolge ausgeführt werden und/oder wenn Komponenten in einem System, einer Architektur, einer Vorrichtung oder einer Schaltung, die beschrieben ist, auf andere Weise kombiniert und/oder durch andere Komponenten oder ihre Äquivalente ersetzt und/oder ergänzt werden. Dementsprechend liegen andere Implementierungen innerhalb des Schutzumfangs der folgenden Ansprüche.
  • Es wird ein Datenmetaskalierungsverfahren geschaffen. Das Datenmetaskalierungsverfahren optimiert ein Kürzungskriterium zum Kürzen von Daten durch kontinuierliche Wissenserweiterung in verschiedenen Dimensionen, die ein Ausdrücken von Daten ermöglichen, in einem Prozess des Durchführens von Maschinenlernen.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • KR 1020170000690 [0001]
    • KR 1020170177880 [0001]

Claims (17)

  1. Datenmetaskalierungsverfahren zum kontinuierlichen Lernen, wobei das Datenmetaskalierungsverfahren umfasst: Festlegen von Kürzungskriteriumsinformationen, die eine Regel zum Kürzen von Eingabedaten definieren, die in einem anderen Attribut ausgedrückt werden sollen, Lernkriteriumsinformationen, die eine Regel zum Einschränken des Lernens an den Kürzungsdaten und eine Regel zum Auswerten der Lernleistung definieren, und Wissenserweiterungskriteriumsinformationen, die eine Regel zum Optimieren der Kürzungskriteriumsinformationen definieren, durch einen Prozessor; Kürzen der Eingabedaten auf Kürzungsdaten auf der Basis der Kürzungskriteriumsinformationen durch den Prozessor; Durchführen eines Lernens an den Kürzungsdaten zum Erzeugen eines Lernmodells basierend auf den Lernkriteriumsinformationen durch den Prozessor; Auswerten der Leistung des Lernmodells basierend auf den Lernkriteriumsinformationen durch den Prozessor, um eine Eignung der Kürzungsdaten zu bestimmen; und Durchführen einer Wissenserweiterung zum Aktualisieren der Kürzungskriteriumsinformationen gemäß einem Ergebnis der Eignungsbestimmung basierend auf den Wissenserweiterungskriteriumsinformationen durch den Prozessor.
  2. Datenmetaskalierungsverfahren nach Anspruch 1, wobei das Festlegen ein Festlegen der Kürzungskriteriumsinformationen umfasst, die eine Regel zum Kürzen der Eingabedaten, die als mehrere Attribute ausgedrückt sind und als mindestens eines der mehreren Attribute ausgedrückt werden sollen, definieren.
  3. Datenmetaskalierungsverfahren nach Anspruch 1 oder Anspruch 2, wobei das Festlegen dann, wenn die Eingabedaten als mehrere Attribute ausgedrückt sind, ein Festlegen der Kürzungskriteriumsinformationen umfasst, die Informationen, die eine Datendimension repräsentieren, die eines der mehreren Attribute definiert, Informationen, die ein Fenster repräsentieren, das eine Einheit zur Musternahme an den Eingabedaten definiert, Informationen, die eine Art des Fensters repräsentieren, Informationen, die eine Größe des Fensters repräsentieren, und Information, die ein Kriterium zum Auswählen eines repräsentativen Wertes in dem Fenster repräsentieren, umfassen.
  4. Datenmetaskalierungsverfahren nach einem der Ansprüche 1 bis 3, wobei das Festlegen ein Festlegen der Lernkriteriumsinformationen umfasst, die Informationen, die eine Art der Eingabedaten repräsentieren, Informationen, die eine Bedingung der Lernzuverlässigkeit zum Auswerten der Leistung des Lernmodells repräsentieren, Informationen, die ein Verfahren zum Berechnen der Lernzuverlässigkeit repräsentieren, und Informationen, die eine Frühstoppbedingung des Lernens repräsentieren, die die Anzahl von Wiederholungen des Lernens an den Kürzungsdaten begrenzt, umfassen.
  5. Datenmetaskalierungsverfahren nach einem der Ansprüche 1 bis 4, wobei das Festlegen ein Festlegen der Wissenserweiterungskriteriumsinformationen umfasst, die Informationen, die eine Anzahl von Änderungen der Kürzungskriteriumsinformationen repräsentieren, Informationen, die einen Änderungsfaktor der Kürzungskriteriumsinformationen repräsentieren, Informationen, die einen Änderungsbereich des Änderungsfaktors repräsentieren, und Informationen, die die Anzahl von Kumulationen eines Lernverlaufs repräsentieren, die in einem Prozess zum Durchführen eines Lernens an den Kürzungsdaten erzeugt wird, umfassen.
  6. Datenmetaskalierungsverfahren nach Anspruch 5, wobei der Änderungsfaktor Informationen darstellt, die einem Fenster zugeordnet sind, das eine Einheit der Musternahme an den Eingabedaten definiert.
  7. Datenmetaskalierungsverfahren nach Anspruch 6, wobei die dem Fenster zugeordneten Informationen Stücke von Informationen umfassen, die eine Größe des Fensters und ein Intervall zwischen Fenstern repräsentieren.
  8. Datenmetaskalierungsverfahren nach einem der Ansprüche 1 bis 7, wobei das Kürzen dann, wenn die Eingabedaten als mehrere Attribute ausgedrückt sind und die mehreren Attribute als mehrere Datendimensionen definiert sind, ein Kürzen der Eingabedaten auf Kürzungsdaten durch einen ersten Prozess einer Musternahme an den Eingabedaten als repräsentativen Wert der Eingabedaten in jeder der mehreren Datendimensionen, einen zweiten Prozess eines Änderns der Eingabedaten auf mindestens eine Datendimension, die aus den mehreren Datendimensionen ausgewählt ist, oder einen dritten Prozess, der eine Kombination des ersten Prozesses und des zweiten Prozesses umfasst, umfasst.
  9. Datenmetaskalierungsverfahren nach Anspruch 8, wobei der erste Prozess umfasst: einen Prozess einer periodischen Musternahme an den Eingabedaten als den repräsentativen Wert der Eingabedaten; einen Prozess einer aperiodischen Musternahme an den Eingabedaten als den repräsentativen Wert der Eingabedaten; einen auf einem festen Fenster basierenden Musternahmeprozess, bei dem in einem Zustand, in dem mehrere Fenster, die eine Einheit der Musternahme an den Eingabedaten definieren, einander nicht überlappen, der repräsentative Wert in jedem der mehreren Fenster ausgewählt wird; und einen auf einem gleitenden Fenster basierenden Musternahmeprozess, bei dem in einem Zustand, in dem die mehreren Fenster einander überlappen, der repräsentative Wert in jedem der mehreren Fenster ausgewählt wird.
  10. Datenmetaskalierungsverfahren nach einem der Ansprüche 1 bis 9, wobei das Durchführen der Wissenserweiterung umfasst: dann, wenn die Lernzuverlässigkeit, die zum Auswerten der Leistung des Lernmodells berechnet wird, nicht eine in der Regel vorgeschriebene Bedingung erfüllt, die in den Lernkriteriumsinformationen zum Auswerten der Lernleistung definiert ist, Ändern der Kürzungskriteriumsinformationen gemäß Informationen, die einen Änderungsfaktor der Kürzungskriteriumsinformationen, der in den Wissenserweiterungskriteriumsinformationen definiert ist, und einen Änderungsbereich des Änderungsfaktors definieren; und dann, wenn eine Leistung eines Lemmodell, das durch Durchführen des Lernens an den Kürzungsdaten erzeugt wird, die auf der Basis der geänderten Kürzungskriteriumsinformationen gekürzt sind, eine in den Lernkriteriumsinformationen vorgeschriebene Bedingung erfüllt, Aktualisieren der geänderten Kürzungskriteriumsinformationen zu optimalen Kürzungskriteriumsinformationen.
  11. Datenmetaskalierungsvorrichtung zum kontinuierlichen Lernen, wobei die Datenmetaskalierungsvorrichtung enthält: einen Metaoptimierer, der Kürzungskriteriumsinformationen, die eine Regel zum Kürzen von Eingabedaten definieren, die in einem anderen Attribut ausgedrückt werden sollen, Lernkriteriumsinformationen, die eine Regel zum Einschränken des Lernens an den Kürzungsdaten und eine Regel zum Auswerten einer Lernleistung definieren, und Wissenserweiterungskriteriumsinformationen, die eine Regel zum Optimieren der Kürzungskriteriumsinformationen definieren, festlegt; einen Kürzer, der Eingabedaten auf der Basis der Kürzungskriteriumsinformationen auf Kürzungsdaten kürzt; eine Lernmaschine, die ein Lernen an den Kürzungsdaten zum Erzeugen eines Lernmodells basierend auf den Lernkriteriumsinformationen durchführt; einen Auswerter, der die Leistung des Lernmodells basierend auf den Lernkriteriumsinformationen auswertet, um eine Eignung der Kürzungsdaten zu bestimmen; wobei der Metaoptimierer eine Wissenserweiterung zum Aktualisieren der Kürzungskriteriumsinformationen gemäß einem Ergebnis der Eignungsbestimmung basierend auf den Wissenserweiterungskriteriumsinformationen durchführt.
  12. Datenmetaskalierungsvorrichtung nach Anspruch 11, wobei der Metaoptimierer die Kürzungskriteriumsinformationen festlegt, die eine Regel zum Kürzen der Eingabedaten, die als mehrere Attribute ausgedrückt sind und als mindestens eines der mehreren Attribute ausgedrückt werden sollen, definieren.
  13. Datenmetaskalierungsvorrichtung nach Anspruch 11 oder Anspruch 12, wobei dann, wenn die Eingabedaten als mehrere Attribute ausgedrückt sind, der Metaoptimierer die Kürzungskriteriumsinformationen festlegt, die Informationen, die eine Datendimension repräsentieren, die eines der mehreren Attribute definiert, Informationen, die ein Fenster repräsentieren, das eine Einheit zur Musternahme an den Eingabedaten definiert, Informationen, die eine Art des Fensters repräsentieren, Informationen, die eine Größe des Fensters repräsentieren, und Information, die ein Kriterium zum Auswählen eines repräsentativen Wertes in dem Fenster repräsentieren, umfassen.
  14. Datenmetaskaliernngsvorrichtung nach einem der Ansprüche 11 bis 13, wobei der Metaoptimierer die Lernkriteriumsinformationen festlegt, die Informationen, die eine Art der Eingabedaten repräsentieren, Informationen, die eine Bedingung der Lernzuverlässigkeit zum Auswerten der Leistung des Lernmodells repräsentieren, Informationen, die ein Verfahren zum Berechnen der Lernzuverlässigkeit repräsentieren, und Informationen, die eine Frühstoppbedingung des Lernens repräsentieren, die die Anzahl von Wiederholungen des Lernens an den Kürzungsdaten begrenzt, umfassen.
  15. Datenmetaskalierungsvorrichtung nach einem der Ansprüche 11 bis 14, wobei der Metaoptimierer die Wissenserweiterungskriteriumsinformationen festlegt, die Informationen, die eine Anzahl von Änderungen der Kürzungskriteriumsinformationen repräsentieren, Informationen, die einen Änderungsfaktor der Kürzungskriteriumsinformationen repräsentieren, Informationen, die einen Änderungsbereich des Änderungsfaktors repräsentieren, und Informationen, die die Anzahl von Kumulationen eines Lemverlaufs repräsentieren, die in einem Prozess zum Durchführen eines Lernens an den Kürzungsdaten erzeugt wird, umfassen.
  16. Datenmetaskalierungsvorrichtung nach Anspruch 15, wobei der Änderungsfaktor Informationen darstellt, die einem Fenster zugeordnet sind, das eine Einheit der Musternahme an den Eingabedaten definiert.
  17. Datenmetaskalierungsvorrichtung nach einem der Ansprüche 11 bis 16, wobei dann, wenn die Leistung des Lernmodells nicht eine in der Regel vorgeschriebene Bedingung zum Auswerten der Lernleistung erfüllt, der Metaoptimierer die Kürzungskriteriumsinformationen gemäß Informationen, die einen Änderungsfaktor der Kürzungskriteriumsinformationen, der in den Wissenserweiterungskriteriumsinformationen definiert ist, und einen Änderungsbereich des Änderungsfaktors definieren, ändert; und dann, wenn eine Leistung eines Lernmodell, das durch Durchführen des Lernens an den Kürzungsdaten erzeugt wird, die auf der Basis der geänderten Kürzungskriteriumsinformationen gekürzt sind, eine in den Lernkriteriumsinformationen vorgeschriebene Bedingung erfüllt, der Metaoptimierer die geänderten Kürzungskriteriumsinformationen als die aktualisierten Kürzungskriteriumsinformationen in einer Speicheinheit speichert, um eine Wissenserweiterung durchzuführen.
DE102017131259.5A 2017-01-03 2017-12-22 Datenmetaskalierungsvorrichtung und -verfahren zum kontinuierlichen Lernen Pending DE102017131259A1 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
KR10-2017-0000690 2017-01-03
KR20170000690 2017-01-03
KR1020170177880A KR102470145B1 (ko) 2017-01-03 2017-12-22 자가 학습을 위한 데이터 메타 스케일링 장치 및 방법
KR10-2017-0177880 2017-12-22

Publications (1)

Publication Number Publication Date
DE102017131259A1 true DE102017131259A1 (de) 2018-07-05

Family

ID=62568047

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102017131259.5A Pending DE102017131259A1 (de) 2017-01-03 2017-12-22 Datenmetaskalierungsvorrichtung und -verfahren zum kontinuierlichen Lernen

Country Status (3)

Country Link
US (1) US20180189655A1 (de)
JP (1) JP6980521B2 (de)
DE (1) DE102017131259A1 (de)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101978135B1 (ko) * 2017-04-28 2019-05-15 한국전력공사 전력설비 데이터 품질 정보 생성 장치 및 방법
JP6904186B2 (ja) * 2017-09-15 2021-07-14 トヨタ自動車株式会社 車載装置、情報処理装置、情報処理方法、及びプログラム
US20190279042A1 (en) 2018-03-06 2019-09-12 Tazi Al Systems, Inc. Human understandable online machine learning system
AU2019204930A1 (en) * 2018-07-09 2020-01-23 Tata Consultancy Services Limited Method and System for Generation of Hybrid Learning Techniques
JP7172356B2 (ja) * 2018-09-25 2022-11-16 日本電気株式会社 AI(artificial intelligence)実行支援装置、方法、及びプログラム
CN109800333A (zh) * 2019-01-02 2019-05-24 平安科技(深圳)有限公司 基于机器学习的报表生成方法、装置和计算机设备
JP7050028B2 (ja) * 2019-03-28 2022-04-07 株式会社日立製作所 計算機システム及び機械学習の制御方法
KR102277002B1 (ko) * 2019-11-04 2021-07-13 에스케이텔레콤 주식회사 학습 데이터 마련 장치 및 이를 이용한 학습 데이터 마련 방법

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170000690A (ko) 2015-06-24 2017-01-03 엘지전자 주식회사 전자디바이스

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20170000690A (ko) 2015-06-24 2017-01-03 엘지전자 주식회사 전자디바이스

Also Published As

Publication number Publication date
US20180189655A1 (en) 2018-07-05
JP2018109996A (ja) 2018-07-12
JP6980521B2 (ja) 2021-12-15

Similar Documents

Publication Publication Date Title
DE102017131259A1 (de) Datenmetaskalierungsvorrichtung und -verfahren zum kontinuierlichen Lernen
Kozak et al. How have the Eastern European countries of the former Warsaw Pact developed since 1990? A bibliometric study
DE102020202335A1 (de) Verfahren und Vorrichtung zum Erstellen eines Modells eines technischen Systems aus Messungen
DE112008001654T5 (de) System und Verfahren für virtuelle Sensoren
DE112019004260T5 (de) Analyse und korrektur der lieferketten-gestaltung durch maschinelles lernen
DE102014207683A1 (de) Verfahren und Vorrichtung zum Erstellen eines datenbasierten Funktionsmodells
DE102021200347A1 (de) Erzeugen einer datenstruktur zum spezifizieren visueller datensätze
WO2020193070A1 (de) Virtueller sensor auf einer übergeordneten maschinenplattform
DE112021002866T5 (de) Modelltreueüberwachung und -neuerstellung zur entscheidungsunterstützung eines fertigungsverfahrens
Vychuzhanin et al. Analysis and structuring diagnostic large volume data of technical condition of complex equipment in transport
EP2088486A1 (de) Verfahren zur Vermessung eines nichtlinearen dynamischen realen Systems mittels Versuchsplanung
CN113570106A (zh) 基于高速公路神经网络的电力负荷预测方法及设备
CN116205530B (zh) 一种城市智慧停车规划方法及系统
DE102021200348A1 (de) Computerimplementiertes verfahren zum trainieren eines computervisionsmodells
DE102023205594A1 (de) Verfahren und Systeme zum Trainieren eines Maschinenlernmodells mit während eines Herstellungsprozesses erfassten Messdaten
DE112020002465T5 (de) Zufallsabtasten aus einer suchmaschine
KR102470145B1 (ko) 자가 학습을 위한 데이터 메타 스케일링 장치 및 방법
DE112021005868T5 (de) Föderales lernen für ein multi-label-klassifizierungsmodell zur ölpumpenverwaltung
EP3901713B1 (de) Verfahren und system zum betrieb einer technischen anlage mit einem optimalen modell
DE102021100404A1 (de) Verfahren zum Bestimmen einer optimierten komprimierten Netzkonfiguration, Assistenzeinrichtung und Kraftfahrzeug
DE102021201445A1 (de) Computerimplementiertes Verfahren zum Testen der Konformität zwischen realen und synthetischen Bildern für maschinelles Lernen
WO2023031153A1 (de) Computer-implementiertes verfahren und system zum betrieb eines technischen geräts
DE102023127862A1 (de) Umfassende definition von modellen für maschinelles lernen
DE102023210497A1 (de) Vorhersage der Klangangenehmheit unter Verwendung eines binären Klassifizierungsmodells und Regression
DE102021207275A1 (de) Verfahren zum Erzeugen eines künstlichen neuronalen Netzes

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06F0015180000

Ipc: G06N0020000000