DE102004018295A1 - Verfahren zum rechnergestützten Ermitteln einer Funktionsabbildung gemäß dem Prinzip des Lazy Learnings - Google Patents

Verfahren zum rechnergestützten Ermitteln einer Funktionsabbildung gemäß dem Prinzip des Lazy Learnings Download PDF

Info

Publication number
DE102004018295A1
DE102004018295A1 DE200410018295 DE102004018295A DE102004018295A1 DE 102004018295 A1 DE102004018295 A1 DE 102004018295A1 DE 200410018295 DE200410018295 DE 200410018295 DE 102004018295 A DE102004018295 A DE 102004018295A DE 102004018295 A1 DE102004018295 A1 DE 102004018295A1
Authority
DE
Germany
Prior art keywords
input data
function
data
data vector
request input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE200410018295
Other languages
English (en)
Inventor
Bernhard Lang
Thomas Poppe
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE200410018295 priority Critical patent/DE102004018295A1/de
Publication of DE102004018295A1 publication Critical patent/DE102004018295A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)

Abstract

Es werden Datensätze, die Eingangsdatenvektoren und diesen zugeordnete Ausgangsdatenvektoren aufweisen, als Gesamtdatenbestand erfasst und gespeichert. Die Ausgangsdatenvektoren weisen Werte zum Regeln des zu regelnden Systems auf. Es werden unter Verwedung des Anfrage-Eingangsdatenvektors erste Datensätze, deren Eingangsdatenvektoren innerhalb eines ersten vorbestimmten Bereichs um den Anfrage-Eingangsdatenvektor herum liegen, aus dem Gesamtdatenbestand ermittelt. Daraufhin wird auf Basis der ausgewählten ersten Datensätze eine erste Funktionsabbildung gebildet. Anschließend werden zweite Datensätze, deren Eingangsdatenvektoren innerhalb eines zweiten vorbestimmten Bereichs um den Anfrage-Eingangsdatenvektor herum liegen, wobei der zweite vorbestimmte Bereich kleiner ist als der erste vorbestimmte Bereich und im ersten vorbestimmten Bereich liegt, aus dem Gesamtdatenbestand ermittelt. Nun wird auf Basis der zweiten Datensätze und der ersten Funktionsabbildung eine zweite Funktionsabbildung gebildet.

Description

  • Die Erfindung betrifft ein Verfahren zum Ermitteln einer Funktionsabbildung gemäß dem Prinzip des Lazy Learnings und eine Datenverarbeitungsanlage, die eingerichtet ist, die Funktionsabbildung gemäß dem Prinzip des Lazy Learnings zu ermitteln.
  • Um Systeme geeignet ansteuern oder regeln zu können, ist es meist notwendig zu wissen, welche Steuergrößen sich auf das zu steuernde oder zu regelnde System wie auswirken. Diese Auswirkung stellt, vereinfacht ausgedrückt, nichts anderes dar als eine Funktion, die von im System gemessenen Werten, also vom Zustand des Systems, und Steuergrößen (erwünschter Zustand des zu regelnden Systems) auf die einzustellenden Regelgrößen abbildet: Regelgrößen = f(Messwerte, Steuergrößen).
  • Diese Funktion wird nachstehend Abbildungsfunktion bezeichnet. Die Messwerte und Steuergrößen stellen dabei Eingangsdaten für die Abbildungsfunktion dar und bilden zusammen den Eingangsdatenvektor. Die Regelgrößen stellen die Ausgangsdaten der Abbildungsfunktion dar und bilden zusammen den Ausgangsdatenvektor.
  • Nun ist nicht immer bekannt, mittels welcher Abbildungsfunktion sich Messwerte und Steuergrößen auf Regelgrößen auswirken, insbesondere bei Systemen, die so komplex sind, dass es entweder unmöglich (beispielsweise mit einem Rechenaufwand über Jahre) oder nur mit unverhältnismäßig hohen Ausgaben möglich ist, die Abbildungsfunktion zu ermitteln. Um den Aufwand in Grenzen zu halten, können daher bei solch einem Steuerungs- bzw. Regelungssystem Regelgrößen nur aus Erfahrungs werten heraus eingestellt werden. Das bedeutet, dass theoretisch für jeden Zustand des Systems, dargestellt durch eine Kombination von Messwerten, im Voraus die einzustellenden Regelgrößen bekannt sein müssen, um einen erwünschten Zustand des Systems zu erreichen oder beizubehalten. Es ist offensichtlich, dass dies insbesondere bei komplexen Systemen praktisch unmöglich ist.
  • Daher wurde in den letzten Jahren die Entwicklung von Vorrichtungen und Verfahren verstärkt darauf ausgerichtet, unbekannte Abbildungsfunktionen mittels technologischer Verfahren zu ermitteln. Dabei ist lediglich eine bestimmte Anzahl an gespeicherten Datensätzen, jeweils bestehend aus einem Eingangsdatenvektor und einem ihm zugeordneten Ausgangsdatenvektor, nachstehend bezeichnet als Datensatz, im Voraus bekannt.
  • Das Ziel ist dabei, mittels einer auf diese Weise ermittelten Funktionsabbildung für einen Eingangsdatenvektor, für den es noch keinen zugeordneten Ausgangsdatenvektor gibt, einen wahrscheinlichen Ausgangsdatenvektor zu ermitteln, diesen also zu prognostizieren.
  • Ein Problem besteht nun darin, mittels der bekannten Datensätze eine Funktion zu ermitteln, nachstehend bezeichnet als Funktionsabbildung, die die unbekannte Abbildungsfunktion so genau wie möglich abbildet, d. h. bei der der Fehler in Bezug auf die unbekannte Abbildungsfunktion minimal ist. Die Struktur der Funktion ist dabei vorbestimmt, beispielsweise eine lineare Funktionsabbildung der Form:
    Figure 00020001
    wobei die Koeffizienten ai der linearen Glieder ai·xi und die absoluten Glieder bi initial auf vorbestimmte Werte eingestellt sind, wodurch die zu ermittelnde Funktionsabbildung initial vorbestimmt ist.
  • Gemäß den Verfahren des Standes der Technik wird unter Verwendung eines Eingangsdatenvektors x j, für den der zu ermittelnde Ausgangsdatenvektor y j bekannt ist, welche Vektoren x i und y i zusammen einen Trainings-Datensatz bilden, und der vorbestimmten Funktionsabbildung ein Ausgangsdatenvektor y j' ermittelt, der dann mit dem dem Eingangsdatenvektor zugeordneten Ausgangsdatenvektor y j verglichen wird. Dann werden für jede Dimension jeweils beide Werte ai und bi hinsichtlich des jeweiligen Fehlers yji – yji' korrigiert. Danach wird der gleiche Prozess auf einen nächsten Trainings-Datensatz (x j+1, y j+1) angewendet. Dieses Verfahren wird solange wiederholt, bis die Fehlerwerte minimal werden oder einen bestimmten Schwellenwert unterschreiten. Es wurde eine Mehrzahl derartiger Verfahren entwickelt.
  • Allerdings haben diese Verfahren den Nachteil, dass es sehr schwierig ist festzustellen, ob das erreichte Fehlerminimum nur lokal in der Umgebung der Datensätze minimal ist, oder ob der Fehler für die gesamte Funktionsabbildung minimal ist. Folglich müssen zusätzliche Mechanismen entwickelt und angewendet werden, mittels denen die Wahrscheinlichkeit erhöht wird, den globalen minimalen Fehler zu finden.
  • Ferner dauert das iterative Verfahren der Ermittlung der Funktionsabbildung (siehe vorigen Absatz) ziemlich lange, da bei diesen Verfahren bei jedem Schritt, ausgehend von einer vorbestimmten Funktionsabbildung und einem Trainings-Datensatz eine neue Funktionsabbildung (mit veränderten Konstanten) ermittelt wird. Ferner ist nicht vorhersagbar, ob überhaupt eine anwendbare Funktionsabbildung ermittelt wird, d. h. ob deren Fehler für den jeweiligen Anwendungsfall ak zeptabel klein ist, was unter Umständen eine Wiederholung des gesamten Prozesses zur Folge hat. Des weiteren ist der zeitliche Aufwand nur schwer abzuschätzen, da im Voraus nicht bekannt, wie viel Datensätze notwendig sind, um eine Funktionsabbildung mit dem erwünschten minimalen Fehler zu ermitteln, im Extremfall müssen alle Datensätze verwendet werden.
  • Daher wurde das so genannte "Lazy Learning"-Verfahren entwickelt. Bei diesem Verfahren wird die Ermittlung der Funktionsabbildung zeitlich so weit wie möglich hinausgeschoben, d.h. zu dem Zeitpunkt hin, zu dem im zu regelnden System der Regelungswert zu ermitteln ist.
  • Wird nun eine Anfrage bzgl. eines zu ermittelnden Regelungswertes, der einen Aungangsdatenvektor darstellt, gestartet, d. h. wird ein neuer Anfrage-Eingangsdatenvektor, der den zu diesem Zeitpunkt aktuellen Zustand des zu regelnden Systems und den erwünschten zu erlangenden Zustand des Systems aufweist, eingegeben, wird gemäß dem Lazy Learning-Verfahren eine Funktionsabbildung ermittelt, wie nachstehend beschrieben. Als Nächstes wird unter Verwenden des Anfrage-Eingangsdatenvektors und der ermittelten Funktionsabbildung ein Anfrage-Ausgangsdatenvektor ermittelt, der anschließend ausgegeben wird, und der den Regelungswert aufweist. Daraufhin wird die ermittelte Funktionsabbildung gelöscht.
  • Der Ansatz zur Ermittlung der Funktionsabbildung basiert darauf, dass nicht alle gespeicherten Datensätze zur Ermittlung der Funktionsabbildung verwendet werden. Vielmehr wird ein Bereich um den Anfrage-Eingangsdatenvektor herum geeignet festgelegt. All die gespeicherten Datensätze werden für die Ermittlung der Funktionsabbildung ausgewählt, deren Eingangsdatenvektoren sich innerhalb des festgelegten Bereiches befinden. Dieses Vorgehen begründet sich auf der Erfahrung, dass eine Ermittlung einer Funktionsabbildung umso genauer wird, je weniger Eingangsdaten insgesamt und anteilsmäßig mehr Eingangsdaten in der Nähe des Anfrage-Eingangsdatenvektors ausgewählt sind.
  • Es sind zwei Verfahren zur Ermittlung der Funktionsabbildung gemäß Lazy Learning bekannt.
  • Bei dem einen Verfahren gemäß Lazy Learning (siehe 1) werden gemäß dem k-Nächster-Nachbar-Verfahren gemäß einer vorbestimmten Anzahl k die k Datensätze 11, dargestellt durch schwarze Punkte, ausgewählt, indem ein bestimmtes Abstandsmaß bzgl. den zu den Datensätzen 11 gehörenden Eingangsdatenvektoren und dem Anfrage-Eingangsdatenvektor 10a ermittelt, wobei diese Datensätze 11 verwendet werden, um die Funktionsabbildung zu ermitteln. Danach wird ein Mittelwert y k-nearest unter Verwendung der den ausgewählten Eingangsdatenvektoren zugeordneten Aungangsdatenvektoren gebildet, der dann als Prognosewert für den Anfrage-Eingangsdatenvektor verwendet wird (vgl. 1).
  • Bei einem anderen Verfahren gemäß Lazy Learning werden, wie in 2 gezeigt, alle Datensätze 12, dargestellt durch Kreise unterschiedlicher Dicke, in die Ermittlung der Funktionsabbildung 31 einbezogen. Allerdings geschieht dies unter Verwendung einer Gewichtsfunktion 33, beispielsweise der Gaußschen Glockenkurve, die ihr Maximum beim Anfrage-Eingangsdatenvektor 10a hat. Somit gehen die Datensätze 12 mit unterschiedlicher Wertigkeit und damit mit unterschiedlicher Bedeutung in die Ermittlung der Funktionsabbildung 31 ein, da angenommen wird, dass Datensätze, deren zugehörige Eingangsdatenvektoren sich in der Nähe des Anfrage-Eingangsdatenvektors 10a befinden, einen größeren Einfluss auf den Prognosewert haben als Datensätze, deren Eingangsdatenvektoren vom Anfrage-Eingangsdatenvektor 10a weiter entfernt sind. Die ermittelte Funktionsabbildung 31 ist dabei eine lineare Funktion. Die Dicke der die verfügbaren Datensätze repräsentierenden Kreise in 2 spiegelt dabei die Stärke der Wichtung grafisch wider. Der Anfrage-Aungangsdatenvektor ygewichtet stellt dabei einen so genannten gewichteten Mittelwert dar, der durch Mittelwertbildung der gewichteten, bekannten Ausgangsdatenvektoren ermittelt wird.
  • Das Problem bei diesen zwei Verfahren besteht darin, das Optimum im Verhältnis zwischen Genauigkeit und Robustheit zu finden. Wird der Bereich für die auszuwählenden Datensätze zu groß gewählt, ist die gebildete Funktionsabbildung relativ robust gegen Ausreißer, d. h. Datensätze, bei denen die entsprechenden Ausgangsdatenvektoren nicht den Verlauf der unbekannten Funktion widerspiegeln, allerdings leidet unter Umständen die Genauigkeit der Funktionsabbildung beim Anfrage-Eingangsdatenvektor. Wird demgegenüber der Bereich für die auszuwählenden Datensätze zu klein gewählt, ist die gebildete Funktionsabbildung beim Anfrage-Eingangsdatenvektor genauer, allerdings haben Ausreißer einen wesentlich größeren Einfluss auf die ermittelte Funktionsabbildung.
  • Da es sehr schwierig ist, den optimalen Bereich für die auszuwählenden Datensätze zu ermitteln, ist eine Aussage bezüglich der Genauigkeit und der Robustheit der gebildeten Funktionsabbildung nur sehr vage möglich.
  • Ein weiteres Problem der oben angegebenen Verfahren ist, dass die Modellbildung bei jeder Anfrage zu einem signifikanten zeitlichen Aufwand führt.
  • Der Erfindung liegt somit die Aufgabe zugrunde, die obigen Probleme zu verringern.
  • Erfindungsgemäß wird ein Verfahren gemäß Lazy Learning bereitgestellt, bei dem die den Gesamtdatenbestand bildenden Datensätze ausgewählt werden, jeweils bestehend aus einem Eingangsdatenvektor und einem ihm zugeordneten Ausgangsdatenvektor, wobei der Rungangsdatenvektor Regelungswerte für das zu regelnde System aufweist und der Eingangsdatenvektor System-Messwerte und den erwünschten zu erlangenden Zustand des Systems darstellende Werte aufweist. Zunächst wird ein Anfrage-Eingangsdatenvektor eingegeben, für den der Regelungswert in Form eines Ausgangsdatenvektors ermittelt werden soll. Dabei wird zunächst ein erster Bereich um den Anfrage-Eingangsdatenvektor herum festgelegt, wobei all die Datensätze ausgewählt werden, deren Eingangsdatenvektoren sich innerhalb dieses ersten Bereichs befinden. Auf Basis der so ausgewählten Datensätze wird eine erste Funktionsabbildung gebildet. Aufgrund der Bereichsfestlegung kann daher eine relativ robuste Funktionsabbildung gebildet werden, d. h. sie wird nicht so stark von einzelnen Datensätzen beeinflusst, wie beispielsweise durch so genannte Ausreißer, die die (unbekannte) Abbildungsfunktion nicht repräsentieren und daher die erste Funktionsabbildung verfälschen können. Danach wird analog zum ersten Bereich ein zweiter Bereich mit kleinerem Umfang ermittelt, wobei nun all die Datensätze ausgewählt werden, deren zugehörige Eingangsdatenvektoren sich innerhalb dieses zweiten Bereichs befinden. Der zweite Bereich wird dabei so gewählt, dass er so viel jeweils einem Datensatz zugehörige Eingangsdatenvektoren aufweist, dass auf Basis der ersten Funktionsabbildung und der so ausgewählten zweiten Datensätze eine zweite Funktionsabbildung gebildet werden kann, die aufgrund der geringeren Anzahl von Datensätzen insgesamt und der anteilsmäßig größeren Anzahl an Datensätzen mit Eingangsdatenvektoren in der Nähe des Anfrage-Eingangsdatenvektors genauer als die erste Funktionsabbildung ist. Sie kann zwar von Ausreißern beeinflusst werden, allerdings ist es aufgrund der ersten Funktionsabbildung möglich, den Einfluss solcher Ausreißer zu minimieren. Zum Schluss wird unter Verwendung der zweiten Funktionsabbildung für den Anfrage-Eingangsdatenvektor ein Anfrage-Ausgangsdatenvektor (der Regelungswert) gebildet und ausgegeben.
  • Es ist ersichtlich, dass solch ein zweistufiges Verfahren die Genauigkeit und Robustheit der ermittelten (zweiten) Funktionsabbildung und somit des zu ermittelnden Prognosewertes gegenüber den mittels des herkömmlichen Lazy Learnings ermit telten erhöht: die erste Funktionsabbildung stellt die notwendige Robustheit sicher und die zweite Funktionsabbildung die Genauigkeit.
  • Ferner ergibt sich ein zeitlicher Vorteil: Zum einen gibt es keinen iterativen Ansatz, da insgesamt nur zwei Funktionsabbildungen gebildet werden, also unabhängig von der Anzahl der verwendeten Datensätze. Dies führt zu einem kalkulierbaren zeitlichen Aufwand, wohingegen beim oben beschriebenen iterativen Vorgehen keinerlei Vorhersage möglich ist, wann die gebildete Funktionsabbildung genau genug ist. Zum anderen ist es bei einem zweiten Anfrage-Eingangsdatenvektor möglich, die erste oder sogar die zweite Funktionsabbildung weiter zu verwenden, je nachdem wie weit ein zweiter eingegebener Anfrage-Eingangsdatenvektor vom ersten Anfrage-Eingangsdatenvektor entfernt ist. Dies ist beim herkömmlichen Lazy Learning kaum möglich, da Aussagen über Robustheit und Genauigkeit nur schwer zu treffen sind. Da nur eine einzige Funktionsabbildung ermittelt wird, ist es sehr schwer zu sagen, ob Ausreißer die Funktionsabbildung verfälschen, da es keine Vergleichs-Funktionsabbildung gibt. Bezüglich eines weiteren Anfrage-Eingangsdatenvektors ist solch eine Aussage noch schwieriger.
  • Um die oben genannte Wiederverwendung von bereits gebildeten Funktionsabbildungen bei neuen Anfrage-Eingangsdatenvektoren zu erhöhen, kann das erfindungsgemäße Verfahren auf mehr als zwei Stufen erweitert werden, wobei der Bereich zum Auswählen der Datensätze von Stufe zu Stufe um den Anfrage-Eingangsdatenvektor herum verkleinert wird. Dies führt zu feinstufigeren Funktionsabbildungen. Aufgrund der geringeren Sprünge in der Anzahl der jeweils verwendeten Datensätze resultiert daraus eine feinere Abstufung und damit eine weitere Fehlerverringerung und Verbesserung in der Erkennung von Ausreißern. Ferner wird die Wiederverwendbarkeit von bereits gebildeten Funktionsabbildungen erhöht, da es beispielsweise möglich ist, dass der neue Anfrage-Eingangsdatenvektor zwar au ßerhalb des Bereichs für die zuletzt gebildete Funktionsabbildung liegt, aber innerhalb der als vorletzte gebildeten Funktionsabbildung, die genauer ist als die erste Funktionsabbildung im obigen zweistufigen Verfahren.
  • Die zweite Funktionsabbildung kann erfindungsgemäß so gebildet werden, dass sie zunächst analog zur ersten Funktionsabbildung mit dem Unterschied der verwendeten Datensätze gebildet wird. Danach wird der Aungangsdatenvektor der ersten Funktionsabbildung mit dem der zweiten, vorläufigen Funktionsabbildung verglichen. Die erste Funktionsabbildung wird dann um den Unterschied in den Ausgangsdatenvektoren korrigiert und ergibt die zweite Funktionsabbildung. Dies kann im Fall einer linearen Funktionsabbildung beispielsweise dadurch geschehen, dass das absolute Glied in der Lineargleichung, also der Wert, der nicht mit dem Eingangsdatenvektor verknüpft (multipliziert) wird, korrigiert wird. Im Fall mehrerer Dimensionen in den Vektoren wird der Unterschied pro Dimension korrigiert. Damit wird eine Funktionsabbildung ermittelt, deren Anstiegsverhalten aufgrund der ersten Funktionsabbildung ermittelt wird, wodurch die Robustheit in der Funktionsabbildung aufgrund der größeren Anzahl der verwendeten Datensätze erlangt wird, wohingegen die Genauigkeit aufgrund der zweiten Funktionsabbildung im lokaleren Bereich um den Anfrage-Eingangsdatenvektor herum durch quasi eine Verschiebung des Funktionsverlaufs erlangt wird.
  • Um den Einfluss von Ausreißern zu verringern, können pro Dimension Minimal- und Maximalwerte als Schranken festgelegt sein, die die Korrektur nicht unter- bzw. überschreiten darf.
  • Dabei können im Fall des Unter- bzw. Überschreitens folgende Strategien angewendet werden:
    • a) keine Korrektur der ersten Funktionsabbildung;
    • b) Korrektur entsprechend auf die untere bzw. obere Schranke;
    • c1) Entfernung des Datensatzes, der den größten Abstand (Fehler) zum Ausgangsdatenvektor als Funktionswert der ersten Funktionsabbildung aufweist;
    • c2) Hinzunahme eines anderen Datensatzes, dessen Eingangsdatenvektor weiter entfernt liegt und noch nicht zur Ermittlung der Funktionsabbildung hinzugezogen worden ist, zur Berechnung der Korrektur;
    • c3) Wiederholung der Schritte c1) und c2), solange die untere bzw. obere Schranke unter- bzw. überschritten wird;
    • c4) ist nach einigen Iterationen die Korrektur immer noch erfolglos, Korrektur der ersten Funktionsabbildung mit dem zuerst ermittelten Korrekturwert.
  • Sollte an der Position des Anfrage-Eingangsdatenvektors Wissen über den Anstieg der Abbildungsfunktion in der jeweiligen Dimension bestehen, können auch für die dimensionsweisen Anstiege der Funktionsabbildung Schranken festgelegt werden, mit denen der Anstieg der jeweiligen Funktionsabbildung bewertet werden kann.
  • Die Korrektur kann analog wie für die Schranken des Korrekturwertes angewendet werden.
  • Ferner können die ausgewählten Datensätze gewichtet in die Bildung der Funktionsabbildungen eingehen, wodurch die Tatsache einfließt, dass Eingangsdatenvektoren, die zum Anfrage-Eingangsdatenvektor einen größeren Abstand haben, auf die jeweilige Funktionsabbildung einen geringeren Einfluss haben als näher liegende Eingangsdatenvektoren. Dies führt zu einer höheren Genauigkeit, insbesondere dann, wenn es nur relativ wenig Datensätze gibt, deren zugehörige Eingangsdatenvektoren sich in der Nähe des Anfrage-Eingangsdatenvektors befinden.
  • Die vorzugsweise in Datenbanken gespeicherten Datensätze werden vorzugsweise unter Verwendung eines R*-Baums abgespeichert. Der Vorteil ist ein beschleunigter Datenzugriff hinsichtlich des Lesens und Schreibens insbesondere gegenüber der Verwendung von k-d-Trees. Bevorzugt wird eine so genannte multidimensionale Datenbank (-> multidimensional database, -> spatial database) verwendet.
  • Nach der Ermittlung der zweiten Funktionsabbildung wird zum Anfrage-Eingangsdatenvektor ein Anfrage-Aungangsdatenvektor ermittelt, wodurch sich ein neuer Datensatz ergibt. Dieser wird vorzugsweise als neuer Datensatz in den Gesamtdatenbestand aufgenommen, was den Vorteil bietet, dass die Anzahl der Datensätze insbesondere in den Bereichen erhöht wird, wo es relativ wenig Datenvektoren im Eingangsraum gibt, denen Ausgangsdatenvektoren zugeordnet sind. Dabei ist die Geeignetheit des neu ermittelten Datensatzes, also die Plausibilität des ermittelten Anfrage-Ausgangsdatenvektors, geeignet zu bestimmen.
  • Soll für einen zweiten Anfrage-Eingangsdatenvektor eine Funktionsabbildung ermittelt werden, wird ferner vorzugsweise ein Kalman-Filter auf die zweite Funktionsabbildung angewendet, um diese an den neuen Anfrage-Eingangsdatenvektor anzupassen, insbesondere wenn der Abstand zum ersten Anfrage-Eingangsdatenvektor kleiner als ein vorbestimmter Abstand ε ist.
  • Zu diesem Zweck kann ferner die Online-Adaption eines Adalines angewendet werden.
  • Der Vorteil dieser beiden Erweiterungen liegt in der Tatsache, dass sowohl das Kalman-Filter als auch das Adaline Mittel zur Verfügung stellen, die zuvor gebildete zweite Funktionsabbildung unter festgelegten Bedingungen (beispielsweise Abstandsmaß hinsichtlich der Anfrage-Eingangsdatenvektoren) anzupassen, anstatt sie neu zu ermitteln, was einen zeitlichen Vorteil gegenüber der erneuten Ermittlung der zweiten Funktionsabbildung (und gegebenenfalls der ersten Funktionsabbildung) bietet.
  • Ferner wird die erste Funktionsabbildung vorzugsweise bereits gebildet, bevor ein Anfrage-Eingangsdatenvektor eingegeben wird. Daraus ergeben sich zeitliche Vorteile bei Eingabe eines Eingangsdatenvektors, wenn der Eingangsdatenraum im Voraus eingegrenzt werden kann, da bei Eingabe eines Anfrage-Eingabedatenvektors dann nur noch die zweite Funktionsabbildung gebildet werden muss.
  • Wird, wie oben beschrieben, der Datensatz (Anfrage-Eingangsdatenvektor, Anfrage-Ausgangsdatenvektor) als neuer Datensatz aufgenommen, vergrößert sich die Zahl der gespeicherten Datensätze und damit ggf. die Zahl der Datensätze zur Bildung der jeweiligen Funktionsabbildung, was sich auf den Zeitaufwand negativ auswirken könnte.
  • Um diesem Problem zu begegnen, werden vorzugsweise nur die (zeitlich) letzten Datensätze des (aktuellen) Datenbestands beibehalten, die anderen Datensätze werden aus dem Gesamtdatenbestand entfernt.
  • Da allerdings nicht immer klar ist, ob die Datensätze einfach gelöscht werden dürfen, werden die Datensätze, deren Eingangs- und Ausgangsdatenvektoren ähnlich sind, vorzugsweise mittels Clusterverfahren, beispielsweise mittels K-Means, zu Repräsentanten zusammengefasst. Dies bietet einerseits den Vorteil eines kleineren Datenbestands mit den Folgen für den Zeitaufwand zur Bildung der Funktionsabbildungen und andererseits die Korrektur statistischer Abweichungen in diesen Datensätzen mittels Mittelung.
  • Als ein anderes Verfahren, mittels dessen das unüberwachte Löschen von Datensätzen verhindert wird, wird vorzugsweise das so genannte lokal gewichtete Vergessen auf den Gesamtdatenbestand angewendet. Dabei werden die zur Bildung der jeweiligen Funktionsabbildung verwendeten Datensätze mit einem Faktor entsprechend dem Abstand ihres jeweiligen Eingangsdatenvektors zum Anfrage-Eingangsdatenvektor gewichtet, vorzugsweise mittels Multiplikation mit einem Wichtungsfaktor kleiner als 1, wodurch die Datensätze mit weiter vom Anfrage-Eingangsdatenvektor entfernten Eingangsdatenvektoren weniger in die Bildung der jeweiligen Funktionsabbildung eingehen als näher liegende. Unterschreitet (bei einem Wichtungsfaktor kleiner als 1) bzw. überschreitet der Wichtungsfaktor einen vorbestimmten Wert, wird der dazugehörige Datensatz aus dem Gesamtdatenbestand entfernt.
  • Bevorzugt wird das Verfahren dadurch erweitert, dass, wenn ein neuer Datensatz zum Gesamtdatenbestand hinzukommt, ein älterer Datensatz in der Nähe des neuen Datensatzes entfernt wird.
  • Die Vorteile sind eine höhere Genauigkeit aufgrund der Wichtung der jeweils zu bildenden Funktionsabbildung und, wie bereits oben angegebenen, eine Kalkulierbarkeit der Größe des Gesamtdatenbestands.
  • Ferner ist das Verfahren des lokalen gewichteten Vergessens vorzugsweise um das so genannte lokal gewichtet Erinnern erweitert, wobei das Löschen von Datensätzen durch "Vergessen" von Datensätzen ersetzt ist. Dabei werden zur Bildung der jeweiligen Funktionsabbildung nur die Datensätze ausgewählt, deren Wichtungsfaktor den o. a. Wert nicht unterschreitet (bei einem Wichtungsfaktor kleiner als 1) oder überschreitet, und werden als aktive Datensätze betrachtet. Die aufgrund des Wichtungsfaktors nicht ausgewählten und als inaktiv betrachteten Datensätze werden verwendet, um eine Inaktiv-Funktionsabbildung gebildet. Dann wird überprüft, welche der Funkti onsabbildungen den kleineren Fehler aufweist. Ist dies die Inaktiv-Funktionsabbildung, werden die Wichtungsfaktoren der jeweiligen Datensätze mit einem Wert vorzugsweise größer als 1 multipliziert, wodurch sich der Wichtungsfaktor in die andere Richtung als der zuvor beschriebenen ändert.
  • Dieses Verfahren ist vorzugsweise dahingehend erweitert, dass die Wichtung in die andere Richtung erst ausgeführt wird, wenn die Anzahl der Inaktiv-Funktionsabbildungen mit geringerem Fehler einen bestimmten Wert überschreitet.
  • Der Vorteil ist, dass Datensätze wieder "reaktiviert" werden können, die die Abbildungsfunktion besser widerspiegeln, obwohl sie als inaktiv betrachtet werden. Ein weiterer Vorteil ist die Kombination aus geringerer Anzahl an Datensätzen für die Bildung der Funktionsabbildungen mit der Möglichkeit, nicht auf diese Datensätze angewiesen zu sein, insbesondere wenn sie Ausreißer beinhalten, was einen positiven Einfluss auf die Genauigkeit der jeweils gebildeten Funktionsabbildung hat.
  • Ein erfindungsgemäßes Regelungssystem, das eingerichtet ist, eines der oben angegebenen Verfahren durchzuführen, weist ein zu regelndes System, einen Speicher, beispielsweise ein Datenbanksystem, zum Speichern von Datensätzen, eine mit dem zu regelnden System und dem Speicher gekoppelte Datenverarbeitungsanlage, eingerichtet, vom zu regelnden System dessen Zustand einzulesen, einen zu erlangenden Zustand des zu regelnden Systems aufzunehmen, vom Speicher zu lesen und in ihn zu schreiben, und eines der obigen Verfahren durchzuführen, sowie den ermittelten Aufrage-Ausgangsdatenvektor auf das zu regelnde System anzuwenden, auf.
  • Ferner weist solch ein System vorzugsweise eine Daten-Erfasseinrichtung auf, beispielsweise eine Sensor-Einrichtung, zum Erfassen von Messwerten des zu regelnden Systems, die den hinsichtlich der Regelung relevanten Zustand des zu regelnden Systems repräsentieren. Zusätzlich kann eine mit der Datenverarbeitungsanlage gekoppelte Eingabeeinrichtung vorgesehen sein, um den zu erlangenden Systemzustand der Datenverarbeitungsanlage einzugeben.
  • Zusätzlich ist die Datenverarbeitungsanlage vorzugsweise eingerichtet, den Anfrage-Eingangsdatenvektor und den dazu ermittelten Anfrage-Ausgangsdatenvektor als neuen Datensatz im Speicher abzulegen.
  • Ausführungsbeispiele der Erfindung sind in den Figuren dargestellt und werden im Weiteren näher erläutert.
  • Es zeigen
  • 1 beispielhaft Datensätze als Punkte, den Auswahlbereich sowie die ermittelte Funktionsabbildung gemäß Lazy Learning gemäß dem Stand der Technik unter Verwendung des k-Nächster-Nachbar-Verfahrens;
  • 2 beispielhaft Datensätze als Punkte, eine Gewichtsfunktion sowie die ermittelte Funktionsabbildung gemäß Lazy Learning gemäß dem Stand der Technik basierend auf den Datensätzen und der Gewichtsfunktion;
  • 3 ein erfindungsgemäßes Regelungssystem, bei dem das Verfahren zum rechnergestützten Ermitteln einer Funktionsabbildung gemäß dem Prinzip des Lazy Learnings gemäß einem Ausführungsbeispiel der Erfindung angewendet wird;
  • 4 beispielhaft Datensätze als Punkte, Bereiche sowie die erste und zweite Funktionsabbildung gemäß einem ersten erfindungsgemäßen Ausführungsbeispiel im Falle einer Interpolation;
  • 5 ebenso beispielhaft Datensätze als Punkte, Bereiche sowie eine erste und zweite Funktionsabbildung gemäß einem zweiten erfindungsgemäßen Ausführungsbeispiel im Falle einer Extrapolation;
  • 6, wie bei einem erfindungsgemäßen Ausführungsbeispiel mit Offset-Korrektur Ausreißer festgestellt werden können und daraufhin die Offset-Korrektur durch Eliminieren des Ausreißers geändert werden kann;
  • 7 ermittelte Funktionsabbildungen mit unterschiedlichen Gradienten;
  • 8 für verschiedene Anfrage-Eingangsdatenvektoren mit zwei Dimensionen die Fälle, in denen entweder ein fest vorbestimmter Bereich oder ein variabler Bereich für die Auswahl von Eingangsdatenvektoren von den gespeicherten Datensätzen festgesetzt ist;
  • 9 Bereiche zur Auswahl von Datensätzen, deren entsprechende Eingangsdatenvektoren sich innerhalb der festgesetzten Bereiche befinden;
  • 10 die mittels einer Gaußglocken-Funktion gewichtete Hyperbel-Betragsnorm für zwei Eingangsgrößen;
  • 11 die Höhenlinien der Hyperbel-Betragsnorm für zwei Eingangsgrößen;
  • 12 die Höhenlinien der Betragsnorm für zwei Eingangsgrößen;
  • 13 die Höhenlinien der Minkowski-Norm für N = 0, 5; und
  • 14 die Anwendung eines Vergessensfaktors für unterschiedliche Datensätze beim lokal gewichteten Vergessen.
  • Die für das Verfahren notwendigen Daten werden zunächst in das Regelungssystem eingegeben, dabei aufweisend einen Eingangsdatenvektor, der einen Zustand eines zu regelnden Systems und den zu erlangenden Systemzustand aufweist, und einen Ausgangsdatenvektor, der die Regelungswerte darstellt, die aufgrund des Eingangsdatenvektors beim zu regelnden System einzustellen wären.
  • Sind die notwendigen Datensätze vollständig aufgenommen, kann das erfindungsgemäße Verfahren angewendet werden. Dazu erfasst die Datenverarbeitungsanlage 3 mittels der Daten-Erfasseinrichtung 2, wie in 3 gezeigt, Messwerte 11a vom System 1, erhält beispielsweise durch Eingabe an einer mit der Datenverarbeitungsanlage 3 gekoppelten Eingabeeinrichtung, wie mittels Tastatur, Maus oder Kabel- bzw. drahtloser Kommunikation, den zu erlangenden Systemzustand und ermittelt einen Prognosewert 22a, der als Regelungswert auf das zu regelnde System 1 angewendet wird, indem er beispielsweise in das System 1 eingegeben oder am System 1 eingestellt wird. Dieser zu erlangende Systemzustand kann identisch mit dem erfassten sein, wenn die Regelung beispielsweise vorgesehen ist, einen Betriebszustand des Systems 1 konstant aufrecht zu erhalten. In diesem Fall kann der zu erlangende Systemzustand auch fest in einem Speicher gespeichert sein, aus dem dann einfach die notwendigen Zustandsdaten ausgelesen werden.
  • Ferner können die neu gemessenen Messwerte 11a mit und den zu eingegebenen zu erlangenden Systemzustand sowie dem dazugehörigen Prognosewert 22a in den Speicher 4, vorzugsweise durch die Datenverarbeitungsanlage, geschrieben werden, um den so neu entstandenen Datensatz für die nächste Prognose zu nutzen.
  • Zunächst wird, wie in 4 gezeigt, ein erster Bereich 210, als hellgrauer Bereich dargestellt, zur Ermittlung der ersten Funktionsabbildung so gewählt, dass er den Anfrage-Eingangs datenvektor 10a umschließt und so groß ist, dass er so viel Eingangsdatenvektoren 21 enthält, dass die mittels der diesen Eingangsdatenvektoren 21 zugehörigen Datensätze 21, dargestellt als jeweils von einem Kreis umschlossene Punkte, gebildete erste Funktionsabbildung 31 relativ robust gegenüber Ausreißern ist. Die erste Funktionsabbildung 31 stellt dabei eine lineare Approximation der unbekannten Funktion 30 beim Anfrage-Eingangsdatenvektor 10a dar.
  • Ist der Anfrage-Eingangsdatenvektor 10a, für den eine Funktionsabbildung ermittelt werden soll, von den ausgewählten gespeicherten Eingangsdatenvektoren 21 umgeben, wird die erste Funktionsabbildung 31 gemäß einem ersten Ausführungsbeispiel mittels eines Interpolations-Verfahrens ermittelt.
  • Danach wird ein zweiter, kleinerer Bereich 220, dargestellt in 4 als dunkelgrauer Bereich, so gewählt, dass er wie der erste ausgewählte Bereich 210 den Anfrage-Eingangsdatenvektor 10a umschließt und ferner kleiner als der erste Bereich 210 ist.
  • Bei der Ermittlung der zweiten Funktionsabbildung 32 wird der so genannte Offset-Fehler 41 der berechneten ersten Funktionsabbildung 31 in Bezug auf die Datensätze 22 ermittelt, deren zugehörige Eingangsdatenvektoren im zweiten Bereich 220 liegen, und die erste Funktionsabbildung 31 wird im absoluten Glied, also im Wert in der ersten Funktionsabbildung 31, der nicht mit dem Argument der Funktion multipliziert wird, um den ermittelten Offset-Fehler 41 korrigiert; der Anstieg der ersten Funktionsabbildung 31 wird beibehalten.
  • Dieses Verfahren ist beispielsweise auf ein Walzsystem anwendbar, bei dem die einzelnen Walzrollen in ihrer Höhe in Bezug auf die Rollen, auf denen das Walzgut zum Walzsystem transportiert wird, geeignet eingestellt werden müssen, um durch das Walzen das Walzgut auf eine bestimmte Dicke zu bringen. Vorausgesetzt, die Walzanlage wird nur für Walzgüter eines Materials verwendet, sind die Walzeigenschaften des Walzgutes beispielsweise abhängig von der Umgebungstemperatur sowie der Ursprungsdicke und Ursprungstemperatur des Walzgutes. Typischerweise schwanken die genannten Werte meist um einen bestimmten Wert herum. Daher sind die Anfangsbedingungen für das nächste Stück Walzgut nur selten absolut identisch zu denen des gerade gewalzten Stücks, was dazu führt, die Einstellung für das Walzgut entsprechend zu ändern. Kommt nun noch hinzu, dass verschiedene Materialien verarbeitet werden müssen, wird das Problem um einiges komplexer, da sich die Walzeigenschaften nun auch auf die Anzahl der zu verwendenden Walzen auswirkt. Folglich wird bei diesem System vorzugsweise das Verfahren unter Verwendung der Interpolation angewendet.
  • Im Fall, dass die Ausgangsdatenvektoren der ausgewählten Datensätze 21n Dimensionen aufweisen, kann die Ermittlung der ersten Funktionsabbildung 31 eine multilineare Regression sein.
  • Wird der Anfrage-Eingangsdatenvektor 10a von den gespeicherten Eingangsdatenvektoren im ersten Bereich 210 nicht eingeschlossen, wird die erste Funktionsabbildung 31 gemäß einem zweiten Ausführungsbeispiel, wie in 5 gezeigt, mittels eines Extrapolations-Verfahrens ermittelt.
  • Dabei wird der erste Bereich 210 für die in die Ermittlung der ersten Funktionsabbildung 31 einzubeziehenden Datensätze 21 größer gewählt als im Fall der Interpolation.
  • Die zweite Funktionsabbildung 32 wird analog zur Interpolation ermittelt.
  • Dieses Verfahren ist beispielsweise auf ein Überwachungssystem anwendbar, das vorgesehen ist, einen sich anbahnenden Ausnahmezustand zu erfassen, einen Alarm auszugeben und ggf. Gegenmaßnahmen zu treffen. Betrachtet man beispielsweise ein Druck-Überwachungs- und -Regelungssystem in einem Heizungssystem, muss dieses aufgrund des Drucks und der Temperatur in den Heizungsrohren beispielsweise einen sich anbahnenden Druckabfall erkennen, der aufgrund eines Lecks auftreten kann, das sich weiter vergrößern kann, was zum Ausfall der ganzen Anlage führen könnte, oder den Druck aufgrund von Druckschwankungen in den Rohren ausgleichen. Nun könnte man Schwellenwerte einstellen, um zwischen Schwankung und Havarie zu unterscheiden. Betrachtet man allerdings beispielsweise ein Fernwärmesystem, bei dem die Rohre auch "über Land" führen, würde ein Leck u. U. einen zunächst geringen Druckabfall bewirken. Ferner können die Heizungsrohre infolge Regens abgekühlt werden, wodurch der Druck in den Röhren abfällt. Dies bedeutet allerdings noch kein Leck oder dergleichen. Da allerdings eine Havarie u. a. dann vorliegt, wenn der Druck an irgendeiner Stelle im Heizungssystem abfällt, ist zu verstehen, dass sich der Druckwert sozusagen "der Havarie aus einer Richtung von oben" annähert, die Eingangsdatenvektoren der Datensätze für Havarien befinden sich also vom aktuellen Eingangsdatenvektor aus gesehen auf einer Seite, was eine Extrapolation nötig macht.
  • Bei der Ermittlung der zweiten Funktionsabbildung 32 werden, wie in 6 gezeigt, vergleichsweise wenig Datensätze 22 verwendet, im dunkelgrauen Bereich als von Kreisen umschlossene Punkte dargestellt. Das hat zur Folge, dass ein "Ausreißer", also ein Datensatz 22', der nicht den Verlauf der eigentlichen realen Funktion widerspiegelt, und der bei der Ermittlung der zweiten Funktionsabbildung verwendet wird, den Anfrage-Ausgangsdatenvektor signifikant verfälschen kann. Um diese "Ausreißer" zu ermitteln, werden die Funktionsabbildungen gemäß einem dritten Ausführungsbeispiel der Erfindung folgendermaßen ermittelt.
  • Zunächst wird die erste Funktionsabbildung 31 ermittelt, wobei die erste Funktionsabbildung 31 nicht, wie in 5 gezeigt, auf lineare Funktionsabbildungen beschränkt ist, son dern auch komplexere Modelle, wie beispielsweise Neuronale Netze, sind möglich. Dann wird die Genauigkeit der ersten Funktionsabbildung 31 beispielsweise unter Verwendung der Standabweichung des Fehlers unter allen ersten Datensätzen ermittelt.
  • Dann werden eine obere Schranke 44 und eine untere Schranke 45 für die Offset-Korrektur der ersten Funktionsabbildung 31 festgelegt.
  • Nun wird die Zulässigkeit der Offset-Korrektur unter Verwendung der ermittelten Schranken 44, 45 ermittelt, indem geprüft wird, ob der infolge des Offset-Fehlers 41 korrigierte Wert der ersten Funktionsabbildung 31 außerhalb des durch die Schranken 44, 45 eingeschlossenen Bereichs 221 liegt oder nicht.
  • Dabei wird die Offset-Korrektur zugelassen, wenn der Wert der ermittelten zweiten Funktionsabbildung 32 beim Anfrage-Eingangsdatenvektor 10a im durch die Schranken 44, 45 festgelegten Bereich 221 liegt.
  • Hingegen wird die Offset-Korrektur abgelehnt, wenn dieser Wert außerhalb des durch die Schranken 44, 45 definierten Bereichs liegt. Dann sind folgende Strategien möglich:
    • 1) Die Offset-Korrektur wird unterlassen.
    • 2) Der Offset-Korrekturwert 41 wird so geändert, dass die zweite Funktionsabbildung 32 mit dem Verlauf der oberen Schranke 44 bzw. der unteren Schranke 45 übereinstimmt, wenn die zweite Funktionsabbildung 32 nach der ursprünglichen Offset-Korrektur oberhalb bzw. unterhalb der oberen Schranke 44 bzw. der unteren Schranke 45 verläuft.
    • 3) Die Ermittlung des Offset-Korrekturwertes 41 wird erneut durchgeführt, wobei der Datensatz mit dem größten Fehler für diese Ermittlung nicht mehr verwendet wird, wohingegen ein dem entsprechenden Eingangsdatenvektor nächstgelegener, noch nicht ausgewählter Eingangsdatenvektor 10, 21 mit dem ihm zugeordneten Aungangsdatenvektor bei dieser Ermittlung verwendet wird. Liegt die so ermittelte neue zweite Funktionsabbildung 32' innerhalb der ermittelten Schranken 44, 45, wird diese akzeptiert. Wenn nicht, wird die Ermittlung des Offset-Korrekturwertes 41 in der gleichen Weise erneut durchgeführt. Wird nach einigen Wiederholungen dieser Ermittlung immer noch keine akzeptable zweite Funktionsabbildung 32' erlangt, ist zu vermuten, dass es sich bei den ehemals berücksichtigten Datensätzen 22 nicht um "Ausreißer" handelt, sondern dass entweder die erste Funktionsabbildung 31 nicht genau genug ist, oder dass die ermittelten Schranken 44, 45 einen zu kleinen Bereich für die Offset-Korrektur bilden. In diesem Fall wird die Überschreitung der ermittelten Schranken 44, 45 akzeptiert.
  • Solch ein Verfahren ist beispielsweise auf Systeme anwendbar, bei denen im Voraus bekannt ist, welche Einstellwerte nicht unterschritten bzw. überschritten werden dürfen. Dies betrifft beispielsweise eine Positioniereinrichtung für eine Werkstückhalterung relativ zur Position einer Fräse, mittels der das Werkstück automatisch bearbeitet werden soll. Aufgrund von Schwankungen in der Werkstück-Einspannposition könnten fehlerhafte Produkte hergestellt werden. Daher muss aufgrund der Einsetzposition des Werkstücks in der Werkstückhalterung die Endposition der Werkstückhalterung auf Basis der bereits bekannten Paare aus Werkstück-Einsetzposition und Werkstückhalterungs-Position die Bearbeitungsposition dieser Halterung neu ermittelt werden. Wenn sich die Unterschiede beim Einsetzen des Werkstücks beispielsweise im Millimeterbereich bewegen, wäre eine ermittelte Positionsverschiebung um mehrere Zentimeter sicher unzulässig. Daher sind bei diesem System geeignete Schranken von beispielsweise ±0,5 cm sinnvoll.
  • Bei ungünstiger Verteilung der Daten kann die erste Funktionsabbildung 31 infolge von "Ausreißern" und starkem Rauschen, d. h. einer weiten Verteilung der Daten über den Datenraum, stark verfälscht werden, was einer Fehl-Ermittlung der Funktionsabbildung 31 gleichkommt, wie in 6 gezeigt. Um dies zu vermeiden, werden gemäß einem vierten Ausführungsbeispiel ferner Schranken für die Anfrage-Ausgangsdatenvektoren und die maximal und minimal möglichen Gradienten der ersten Funktionsabbildung 31 festgesetzt, die unter Verwendung einer globalen Funktionsabbildung oder unter Verwendung von Expertenwissen ermittelt werden können. Die oben angegebenen Strategien 2) und 3) sind analog anwendbar.
  • Solch ein Verfahren ist beispielsweise auf ein Scheibenwischsystem bei einem Kraftfahrzeug anwendbar. Solch ein System weist Sensoren auf, mit denen das Auftreten und die Stärke von Regen erfasst werden können. Wird erfasst, dass es regnet, muss aufgrund der Stärke des Regens die Geschwindigkeit der Scheibenwischerbewegung ermittelt werden. Dabei hat die Funktion, die von die Stärke des Regens kennzeichnenden Werten auf die Scheibenwischer-Geschwindigkeit abbildet, einen nicht negativen Anstieg. Das bedeutet, dass die Geschwindigkeit der Scheibenwischer mit zunehmendem Regen größer wird, womit die Funktion einen positiven Anstieg hat. Ist eine maximale Scheibenwischergeschwindigkeit erreicht, hat ab diesem Punkt die Funktion in Richtung weiter zunehmenden Regens dann den Anstieg 0. Sollte sich jetzt eine Funktionsabbildung mit negativem Anstieg ergeben, kann durch Setzen einer unteren Schranke auf 0 ermittelt werden, dass die ermittelte Funktionsabbildung einen ungültigen Anstieg aufweist, woraufhin die Funktionsabbildung neu zu ermitteln ist.
  • Wenn die Schranken festgesetzt sind, kann beispielsweise das im Folgenden beschriebene stochastische Verfahren der linearen Regression unter Randbedingungen, die durch die Schranken bestimmt werden, angewendet werden.
  • Für eine lineare Funktionsabbildung sind alle Parameter ai für die folgende Gleichung zu ermitteln:
    Figure 00240001
  • Dabei gilt für die Parameter ai: ai, min ≤ ai ≤ ai max, ∀i ∊ [0, N] (2).
  • Für ausgewählte Datensätze (x T, y) sind die Parameter ai zu ermitteln. Zu diesem Zweck wird die Kostenfunktion für alle Datensätze minimiert:
    Figure 00240002
    mit:
    Figure 00240003
  • Für dieses System wird das Verfahren des Gradientenabstiegs verwendet. Dafür sind folgende Definitionen festgesetzt: Normierter Gradient:
    Figure 00240004
    mit:
    Figure 00250001
    und:
    Figure 00250002
  • Der normierte Gradient für einen Parameter ai wird wie folgt berechnet:
    Figure 00250003
  • Von den Datensätzen wird ein Datensatz p ausgewählt und unter Verwendung dieses ausgewählten Datensatzes ein Gradientenabstieg durchgeführt, wobei für die Länge des Gradientenabstiegs eine relative Schrittweite ε(t) wie folgt ermittelt wird:
    Figure 00250004
  • Dabei wird die Schrittweite mit jedem bereits erfolgten Gradientenabstieg verringert.
  • Für jeden Parameter ai wird ein so genannter bedingter Gradientenabstieg durchgeführt, d. h. in dem Fall, wenn die Ungleichung (2) erfüllt ist:
    Figure 00250005
  • Es erfolgt ein "Einpendeln" bei der optimalen Funktionsabbildung dadurch, dass ε (t) mit jedem Schritt t abnimmt und immer für einen zufällig ausgewählten Datensatz p ein immer kleinerer Schritt bezüglich des Gradientenabstiegs durchgeführt wird.
  • Ein Problem bei dem oben beschriebenen Verfahren besteht weiterhin darin, einen geeigneten Bereich für die Auswahl der Datensätze zu ermitteln, unter deren Verwendung die entsprechenden Funktionsabbildungen ermittelt werden.
  • Es wird festgelegt, dass ein für den auf den Anfrage-Eingangsdatenvektor 10a hin zu ermittelnder Anfrage-Ausgangsdatenvektor 20a die entsprechenden Eingangsdatenvektoren der Datensätze (x k, y k) in der näheren Umgebung des Anfrage-Eingangsdatenvektors einen größeren Einfluss auf den Anfrage-Ausgangsdatenvektor haben, als weiter entferntere (vgl. 7). Allerdings ist die Beschränkung auf einen einzigen Abstandswert nicht ausreichend.
  • Um einen "aussagekräftigen" Anfrage-Aungangsdatenvektor ermitteln zu können, ist eine bestimmte Mindestanzahl an ausgewählten Datensätzen notwendig. Wie in 8 gezeigt, hat dies unter Umständen zur Folge, dass für unterschiedliche Anfrage-Eingangsdatenvektoren unterschiedliche Abstandswerte ε festgesetzt werden müssen. Andernfalls kann es, wie ebenfalls in 8 zu sehen, dazu kommen, dass es in einem vorbestimmten Bereich um einen Anfrage-Eingangsdatenvektor herum keine oder nur sehr wenige Datensätze gibt, bei denen sich die entsprechenden Eingangsdatenvektoren der auszuwählenden Datensätze innerhalb des definierten Bereiches befinden.
  • Demgemäß wird gemäß einem fünften Ausführungsbeispiel eine vorbestimmte Anzahl von zum Anfrage-Eingangsdatenvektor k nächstgelegenen Eingangsdatenvektoren der Datensätze für die Ermittlung der Funktionsabbildung ausgewählt.
  • Bei diesem Ausführungsbeispiel werden alle Datensätze für die Ermittlung der Funktionsabbildung unter Festsetzung einer abstandsabhängigen Gewichtsfunktion w(x) dieser Datensätze ausgewählt, wobei als Gewichtsfunktion beispielsweise eine vom euklidischen Abstand abhängige Gauß-Verteilung der Form:
    Figure 00270001
    angewendet werden kann (vgl. auch 2). Bei diesem Ausführungsbeispiel gibt es allerdings das Problem, dass die Wichtung der einzelnen Datensätze bei einer großen Anzahl von gespeicherten Datensätzen einen erheblichen Rechenaufwand und damit Zeitaufwand zur Folge haben.
  • Aus diesem Grund werden gemäß einem sechsten Ausführungsbeispiel die beiden oben beschriebenen Verfahren miteinander kombiniert. Zunächst werden k nächstgelegene Eingangsdatenvektoren der Datensätze für die Ermittlung der Funktionsabbildung ausgewählt. Danach wird auf diese ausgewählten Datensätze eine Wichtung gemäß der Funktionsgleichung (11) angewendet. Zu bemerken ist, dass für diese Datensätze eine Mindestwichtung wmin festgesetzt wird, unter deren Verwendung der σ-Wert (die Standardabweichung) der Gewichtsfunktion (11) ermittelt wird. Bei diesem Ausführungsbeispiel werden die Vorteile einer Beschränkung auf eine vorbestimmte Anzahl der auszuwählenden gespeicherten Datensätze, was zu einem geringeren Rechenaufwand und demzufolge geringeren Zeitaufwand führt, sowie das Einbeziehen des Einflusses der Verteilung der Datenvektoren dieser ausgewählten Datensätze genutzt, was zu einer Funktionsabbildung führt, bei der man vermuten kann, dass sie den realen Funktionsverlauf am Anfrage-Eingangsdatenvektor besser widerspiegelt.
  • Die Ermittlung der Anzahl k der auszuwählenden Datensätze ist ein weiterer offener Punkt. Ein erstes Vorgehen ist, den Wert k unter Verwendung von Erfahrungswerten oder Faustregeln zu ermitteln. Ein zweites Vorgehen ist, unter Verwendung einer verfahrensmäßig vorgelagerten Optimierung den Wert k zu ermitteln. Dabei sind folgende Annahmen anwendbar:
    • 1) k ist abhängig von der Anzahl der Dimensionen der Eingangsdatensätze (beispielsweise "2" in 8); je größer die Anzahl der Dimensionen ist, umso höher ist die Anzahl der zu ermittelnden Parameter für die Funktionsabbildung, d. h. die Anzahl der Koeffizienten (vgl. Gleichung (1)), wobei sich die Komplexität erhöht.
    • 2) k ist abhängig von der Gewichtsfunktion; bei gleicher Wichtung ist ein kleineres k von Vorteil; bei stark unterschiedlichen Gewichten w(x) sind mehr und im Extremfall alle Datensätze von Vorteil.
    • 3) k ist abhängig von der Art der Problemstellung und Datenverteilung; bei verrauschten Daten, d. h. wenn zahlreiche "Ausreißer" vermutet werden müssen, sind mehr Datensätze notwendig als bei weniger verrauschten Daten.
  • Bei den vorangegangenen Ausführungsbeispielen wurde davon ausgegangen, dass alle Dimensionen der Eingangsdatenvektoren, nachstehend als Eingangsdimensionen bezeichnet, den gleichen Einfluss auf die Aungangsdatenvektoren haben. Da diese Annahme aber keinen allgemeingültigen Charakter haben kann, wird bei dem folgenden, siebenten Ausführungsbeispiel der Fall betrachtet, in dem die einzelnen Eingangsdimensionen einen unterschiedlichen Einfluss auf den Ausgangsdatenvektor haben. Hier wird die unterschiedliche Wichtung der einzelnen Eingangsdimensionen in die Ermittlung der Funktionsabbildung einbezogen.
  • Unter Bezugnahme auf 9, wobei die Eingangsdatenvektoren x zwei Eingangsdimensionen x1 und x2 aufweisen, ist erkennbar, dass der hellgrau unterlegte Bereich 111 ermittelt wird, wenn die Eingangdatenvektoren mit gleicher Wichtung in die Ermitt lung der jeweiligen Funktionsabbildung eingehen. Der dunkelgrau unterlegte Bereich 112 wird ermittelt, wenn die Dimensionen der Eingangsdatenvektoren mit unterschiedlicher Wichtung in die Ermittlung der Funktionsabbildung eingehen. In dem in 9 dargestellten Fall weist die Eingangsdimension x2 auf den Verlauf der Funktionsabbildung einen geringeren Einfluss als die Eingangsdimension x1 auf. Wird beispielsweise vorausgesetzt, dass die Größe x2 keinen Einfluss auf die Funktionsabbildung hat, bedeutet dies, dass die Funktionsabbildung nur von x1 abhängt. Demzufolge gilt dann: fabbildung(x) = fabbildung(x1, x2) = fabbildung(x1).
  • Infolgedessen wird ein Abstandsmaß (beispielsweise ein euklidisches Abstandsmaß) auf die Eingangsdimension x1 angewendet. Wie in 9 zu sehen, unterscheiden sich die ausgewählten Datensätze durch die beiden dargestellten, unterschiedlich ermittelten Bereiche 111, 112. Zum Ermitteln wichtiger Eingangsdimensionen kann beispielsweise der Wrapper-Ansatz verwendet werden, wobei eine Eingangsdimension beim Ermitteln des Bereiches zur Auswahl der Datensätze weggelassen wird, wenn sie einen konstanten Einfluss auf den Ausgangdatenvektor für alle Eingangsdatenvektoren x der Datensätze hat, da der ihr zugeordnete ermittelte Parameter bereits bei der ersten Funktionsabbildung mittels einer Mittelwertbildung ermittelt worden ist, der für diese Dimension nun die zweite Funktionsabbildung darstellt.
  • Ein solches Verfahren ist beispielsweise auf einen Transformator anwendbar, bei dem dynamisch die Zahl aktiver Wicklungen der jeweiligen Spulen beispielsweise mittels verschiebbaren Kontakten an den Spulen analog zu einem verstellbaren elektrischen Widerstand geregelt wird. Dabei muss vom Transformator eine Wechselspannung von beispielsweise 380 kV auf eine Wechselspannung von 220 V transformiert werden. Nun wird die Spannung an der Sekundärspule nicht nur von der Eingangsspannung selbst sondern auch vom Innenwiderstand des Trans formators beeinflusst. Die Schwankungen in der Eingangsspannung können durch mathematische Berechnung der Zahlen aktiver Wicklungen an der Primär- und Sekundärspule kompensiert werden. Der Innenwiderstand des Transformators hängt von der Umgebungstemperatur, der Belastung durch Stromabnehmer an der Transformator-Sekundärseite und der Temperatur des Transformators sowie deren Änderung ab, die infolge des Transformator-Betriebs an den Bestandteilen des Transformators auftreten können. Der Einfluss der Dimension Eingangsspannung übt somit einen mathematisch ermittelbaren "konstanten" Einfluss aus, sodass diesbezüglich die Abbildungsfunktion bekannt und somit nicht noch einmal ermittelt werden muss, wodurch Rechenaufwand und damit Zeit eingespart werden können, weshalb die Wichtung in Bezug auf diese Dimension zumindest verringert werden kann. Allerdings kann bei den anderen Dimensionen hinsichtlich der Transformator-Innenwiderstands-Beeinflussung keine solche feste mathematische Beziehung hergestellt werden, weshalb sie stärker gewichtet werden müssen.
  • Bei dem Beispiel in 9 wird angenommen, dass der Gradient der Funktionsabbildung in x1-Richtung größer und in x2-Richtung im Verhältnis dazu kleiner ist, wobei durch die Wichtung der dunkelgrau unterlegte Bereich 112 ermittelt wird. Dann ist anzunehmen, dass die Eingangsdatenvektoren, dargestellt durch Punkte, innerhalb dieses Bereichs 112 eine genauere Funktionsabbildung vermuten lassen als in dem hellgrau unterlegten Bereich 111, da eine Abweichung in x1-Richtung einen größeren Einfluss hat und damit eine größere potentielle Fehlerquelle bei der Ermittlung der Funktionsabbildung darstellt als in x2-Richtung. Im Ergebnis werden unterschiedliche Einflüsse der einzelnen Eingangsdimensionen auf die Funktionsabbildung durch unterschiedliche Skalierung der einzelnen Dimensionen realisiert. Bei diesem Ausführungsbeispiel wird als Funktionsabbildung eine Mittelwertbildung verwendet.
  • Soll nun anstelle der Mittelwertbildung eine lineare Funktionsabbildung ermittelt werden, sind nicht die dimensionswei sen Gradienten des Verlaufes der den einzelnen Dimensionen entsprechenden Eingangsdatenvektoren der ausgewählten Datensätze relevant sondern die aus dem Verlauf der Funktion resultierenden Krümmungen per Dimension.
  • Gradienten und Krümmungen sind in der Regel nicht über den gesamten Eingangsdatenraum bekannt. Es ist daher möglich, die Abstandsmaße lokal zu optimieren, wie beispielsweise in [1] beschrieben. Es besteht die Gefahr, dass bei schlecht verteilten, wenigen und stark verrauschten Eingangsdatenvektoren bzw. Aungangsdatenvektoren Zufälligkeiten adaptiert werden. Dies führt zu einer Herabsetzung der Qualität der ermittelten Funktionsabbildung. Folglich kann bei Verwendung des k-Nächster-Nachbarn-Ansatzes eine dimensionsweise Wichtung der Abstände angewendet werden, wie beispielsweise in [2] und [3] dargestellt. Die dimensionsweisen Gradienten und Krümmungen sind nicht bekannt und in der Regel nicht konstant. Die Relevanz einer Eingangsdimension ist nur schwer in eine geeignete dimensionsweise Wichtung umzusetzen, wohingegen solch eine geeignete Skalierung den Fehler der ermittelten Funktionsabbildung deutlich reduzieren kann.
  • Eine Möglichkeit ist, die Dimensionen des Eingangsdatenvektors zu normieren. Die Normierung kann beispielsweise auf Mittelwert gleich 0 und Standardabweichung gleich 1 erfolgen:
    Figure 00310001
  • Alternativ kann eine Normierung auch basierend auf Minimalwert und Maximalwert in einer Dimension erfolgen, wenn die Verteilung der Größe x stark von der Normalverteilung abweicht:
    Figure 00320001
  • Es sind weitere Normierungen möglich, wie sie beispielsweise in der Software-Bibliothek "Komplexe Fabrik" enthalten sind, die den Einfluss möglicher Ausreißer auf die Normierung reduzieren, indem mittels ihnen nichtlineare Transformationen angewendet werden und/oder die Normierungen auf Quantilen basieren.
  • Als eine Variante werden bei dem Ausführungsbeispiel für die einzelnen Dimensionen Koeffizienten für die Korrelation Eingangsgröße – Ausgangsgröße folgendermaßen ermittelt:
    Figure 00320002
  • Darauf werden bei dem Ausführungsbeispiel die normierten Eingangsgrößen mit den ermittelten Korrelationskoeffizienten r skaliert:
    Figure 00320003
  • Ist der ermittelte Korrelationskoeffizient r groß, bedeutet dies, dass die Größe der entsprechenden Dimension wichtig ist, die Normierung wird erweitert. Demzufolge werden, wenn eine Eingangsgröße wichtig ist, nur die sehr nahen Nachbarn berücksichtigt, wohingegen bei weniger wichtigen Größen ein größerer Bereich verwendbar ist. Der Zusammenhang zwischen hoher Korrelation und hoher Relevanz ist allerdings nur bei schwach nichtlinearen Problemstellungen herstellbar.
  • Um eine Funktionsabbildung zu ermitteln, ist es notwendig, ein Abstandsmaß zu bestimmen, um die Lazy Learning-Algorithmen anwenden zu können.
  • Weisen die Eingangsdatenvektoren viele Dimensionen auf, wird bei dem Ausführungsbeispiel das euklidische Abstandsmaß verwendet. Jedoch sind bei Eingangsgrößen, die nicht geometrische Größen oder Größen sind, bei denen die Rotationssymmetrie von Bedeutung ist, andere Abstandsmaße häufig geeigneter anwendbar.
  • Wird die Funktionsabbildung aufgrund eines gewichteten Mittelwertes ermittelt, spielt das (richtige) Abstandsmaß für die Wahl der für die Ermittlung der Funktionsabbildung relevanten Datensätze eine entscheidende Rolle. Bei diesem Ausführungsbeispiel wird die Funktionsabbildung f(x) mittels einer nach dem ersten Glied abgebrochenen ni-dimensionalen Taylor-Reihe ermittelt:
    Figure 00330001
  • Dabei bedeutet die Summenformel den Prognosefehler, der darauf zurückzuführen ist, dass der Funktionswert bei x 0 genommen worden ist, der nicht oder nur wenig wahrscheinlich dem Funktionswert an der Stelle 10a entspricht. Folglich ist der Fehler bei der Ermittlung des Funktionswertes abhängig von der (skalierten) Summe der dimensionsweisen Abstände Δxi; er geht gegen den Wert 0, wenn alle dimensionsweisen Abstände Δxi gegen den Wert 0 gehen.
  • Daraus ergibt sich die (skalierte) Manhattan-Distanz als ideales Abstandsmaß. Bei dem Ausführungsbeispiel wird auf die dimensionsweisen Gewichte ai verzichtet, da diese nicht ermittelbar oder bereits in entsprechenden Skalierungen der Eingangsgrößen berücksichtigt sind. Folglich wird bei diesem Ausführungsbeispiel als Abstandmaß die Betragsnorm bzw. die Manhattan-Distanz gemäß der Formel:
    Figure 00340001
    verwendet.
  • 10 stellt die Höhenlinien gleichen Abstandes nach der Betragsnorm dar.
  • Bei einem achten Ausführungsbeispiel, wenn ein ungefähres Vorwissen über die Art der zu bildenden Funktionsabbildung vorhanden ist, werden andere Abstandsmaße für die Durchführung der Ermittlung eines gewichteten Mittelwertes verwendet.
  • Die Dichtefunktion der Normalverteilung für n-dimensionale stetige Zufallsgrößen x hat die folgende Form:
    Figure 00340002
  • Dabei wird vorausgesetzt, dass:
    • – die voneinander unabhängigen Größen xi stetig und normal verteilt verrauscht sind, und
    • – bestimmte Punkte x bekannt sind, für die verrauschte Messpunkte vorliegen.
  • Bei diesem Ausführungsbeispiel wird bei der Ermittlung des gewichteten Mittelwertes als Funktionsabbildung der euklidi sche Abstand mit einbezogen. Folglich sind Abweichungen von x in diesem Fall auf Messrauschen und sonstige statistische Abweichungen zurückzuführen.
  • Da jedoch Abweichungen auch physikalisch oder durch Messfehler bedingt sein können, wird bei einem weiteren Ausführungsbeispiel als Abstandsmaß die Minkowski-Norm verwendet:
    Figure 00350001
  • Die folgende Tabelle enthält die Normen, die abhängig von N angewendet werden:
    Figure 00350002
    Tabelle – Normen bzw. Abstände für verschiedene N der Minkowski-Norm
  • Ferner können als Abstandsmaße folgende Normen verwendet werden:
    Hyperbelnorm:
    Figure 00350003
    kombinierte Hyperbel-Maximum-Norm: ||x – x0||H∞ = min{a·||x – x0||H, b·||x – x0||} (22) und kombinierte Hyperbel-Betrags-Norm: ||x – x0||H1 = min{a·||x – x0||H, b·||x – x0||1 (23).
  • Bei einem weiteren Ausführungsbeispiel wird die zweite Funktionsabbildung 32 nicht nur durch eine lokale Mittelwertbildung ermittelt, sondern es werden auch die Steigungen hinsichtlich der Eingangsdatenvektoren zur Ermittlung der zweiten Funktionsabbildung 32 in Betracht gezogen. In diesem Fall ist die Wahl des Abstandsmaßes von untergeordneter Bedeutung. Vielmehr steht die Recheneffizienz bei der Ermittlung des Abstandes von dem Anfrage-Eingangsdatenvektor im Vordergrund. Da die Maximum-Norm und die Betrags-Norm vergleichsweise wenig Rechenaufwand erfordern, werden diese gemäß diesem Ausführungsbeispiel angewendet.
  • Die Effizienz und die Vorteile des R*-Baumes gegenüber k-d-Bäumen, wie sie bisher bei Lazy Learning-Verfahren verwendet worden sind, werden in Gaede & Günther [4] beschrieben. Ein R*-Baum ist ein balancierter Baum, der vorzugsweise bei einer multidimensionalen Datenbank (→ multidimensional database, spatial database) Verwendung findet. Folglich wird solch ein Baum bei einem weiteren Ausführungsbeispiel verwendet.
  • Er bietet insbesondere Vorteile bei der Ermittlung der Nachbarn des Anfrage-Eingangsdatenvektors bei hohen Dimensionen und großen Datenmengen.
  • Gemäß einem zehnten Ausführungsbeispiel wird ein Kalman-Filter angewendet, bei dem die zweite Funktionsabbildung 32 beim Anfrage-Eingangsdatenvektor gebildet wird. Das Kalman-Filter findet seine Anwendung bei der Anpassung der zweiten Funktionsabbildung 32 an leicht zeitvariante verrauschte Zusammenhänge.
  • Ist im Eingangsraum dabei der zeitveränderliche Aspekt stärker gewichtet ist als der ortveränderliche Aspekt, ist das Kalman-Filter auch bei nichtlinearen Zusammenhängen anwendbar.
  • Dabei wird mittels des Lazy Learning-Verfahrens eine oft lineare Funktionsabbildung f = l(x) für einen Anfrage-Eingangsdatenvektor x 0 im Eingangsdatenraum ermittelt. Befindet sich der neue Anfrage-Eingangsdatenvektor x q in einem Bereich, der durch einen Abstand ε um den Eingangsdatenvektor x 0 herum aufgespannt wird, wird das Kalman-Filter auf die ermittelte Funktionsabbildung 32 angewendet. Ist der Abstand größer als ε, wird eine neue (lineare) Funktionsabbildung ermittelt.
  • Anstelle eines Kalman-Filters wird gemäß einem elften Ausführungsbeispiel eine Online-Adaption eines Adalines angewendet. Die Adaption erfolgt dabei analog zum bereits beschriebenen Gradientenabstieg. Der Unterschied besteht darin, dass die Lernschrittweite ε konstant ist, und es gilt: ε ∊ [0,1].
  • Bei einem zwölften Ausführungsbeispiel ist die unbekannte Funktion bereits mittels eines mathematischen Modells m(x) beschrieben. Dieses Modell wird als erste Funktionsabbildung 31 verwendet, wobei eine so genannte überlagerte Lazy Learning-Strategie die Ermittlung einer zweiten, besseren Funktionsabbildung y(x q) ermöglicht.
  • Bei einem weiteren Ausführungsbeispiel wird das in [5] beschriebene lokal gewichtete Vergessen auf die für die Ermittlung der zweiten Funktionsabbildung 32 beim Lazy Learning gespeicherten Datensätze angewendet. Der Ansatz ist, alte und unwichtige Datensätze aus dem Datenbestand zu löschen. Der Vorteil ist, dass ein konstanter bzw. abschätzbarer Speicherbedarf bekannt ist, was dazu führt, dass die Rechenzeit für den Lazy Learning-Algorithmus und der Hardware-Bedarf kalkulierbar sind.
  • Bei einer ersten Variante werden nur die (zeitlich) letzten np Datensätze, jeweils bestehend aus einem Eingangsdatenvektor und einem ihm zugeordneten Aungangsdatenvektor, für den Lazy Learning-Algorithmus verwendet. Dies bedeutet, dass bei diesem Ausführungsbeispiel ein Zeitfenster über den gesamten Datenbestand, ausgehend von der aktuellen Anfrage, gelegt wird.
  • Dieses Verfahren ist vorteilhaft für Systeme, die sich kontinuierlich an die gegenwärtigen Umstände anpassen müssen.
  • Dieses Verfahren kann beispielsweise auf ein Wasserkraftwerk angewendet werden, das ein System zum Regeln der Drehzahl der einzelnen Turbinen aufweist. Beispielsweise wird, wenn Francis-Turbinen oder Kaplan-Turbinen verwendet werden, mittels dieses Regelungssystems die Winkelstellung der Schaufeln der jeweiligen Turbine eingestellt. Bei Pelton-Turbinen geschieht dies üblicherweise mittels Einschwenkens von Strahlablenkern in Wasserstrahlen, die auf das Schaufelrad gelenkt sind. Steigt die Forderung nach Elektroenergie an, muss die Leistung des Kraftwerks erhöht werden, folglich die Drehzahl der Turbinen. Um nicht unnötig Energie zu verschwenden, was die Betriebskosten aufgrund der Abnutzung erhöht, müssen die Schaufelräder der Turbinen bzw. die Strahlablenker geeignet eingestellt werden. Dabei spielt der aktuelle Zustand der Turbinen und die geforderte Leistung eine Rolle, die somit den Eingangsdatenvektor ergeben. Der Ausgangsdatenvektor weist die Einstelldaten für jede Turbine auf. In solch einer Situation spielen die Datenvektoren, die älter als ein Zeitintervall vor dem (jetzigen) Anfragezeitpunkt sind, bei der (aktuellen) Ermittlung der Einstelldaten keine Rolle mehr. Folglich kann mittels dieses Verfahrens die Einstellung der Turbinen verbessert werden. Solch ein System kann ferner eingerichtet sein, auch bei Ausfall oder Wartung einer Turbine den Betrieb mittels Regelung der restlichen Turbinen mit entsprechend erhöhter Drehzahl zu gewährleisten.
  • Dies kann allerdings zu dem Problem führen, dass nicht ermittelt werden kann, ob einige der Datensätze, jeweils bestehend aus einem Eingangsdatenvektor und einem ihm zugeordneten Aus gangsdatenvektor, Ausreißer darstellen. Folglich wird gemäß einem weiteren Ausführungsbeispiel ein so genanntes exponentielles Vergessen angewendet. Dabei werden bei jeder Anfrage die Datensätze mit einem so genannten Vergessensfaktor λ mit der Bedingung λ < 1 multipliziert. In der Regel gilt:
    λ ≈ 0,99. Folglich gilt für die Gewichtsfaktoren wp: wp = λ·wp, λ < 1.
  • Die Datensätze werden mit wp gewichtet und gehen so in die Ermittlung der Funktionsabbildung ein. Unterschreitet das Gewicht wp infolge der fortlaufenden Multiplikation mit λ einen vorbestimmten Mindestwert (wp < θ = const), dann wird der Datensatz aus dem Datenbestand entfernt.
  • Bei dem obigen Kraftwerk-Regelungssystem führt das exponentielle Vergessen dazu, dass die Datensätze, die zeitlich weiter zurückliegen, zwar betrachtet werden, aufgrund der Wichtung aber eine geringere Bedeutung haben, wodurch sich eine noch stärkere Bedeutung der zuletzt getätigten Einstellungen ergibt, da es im Normalfall so ist, dass ein Kraftwerk eine gewisse Zeitspanne mit gleicher Leistungsabgabe betrieben wird. Es ergibt sich somit eine Verbesserung in der Anpassung des Wasserkraftwerks an gegenwärtige Änderungen.
  • Ein Nachteil des exponentiellen Vergessens ist, dass die Datensätze unabhängig davon entfernt werden, ob sich in ihrer Nähe noch andere bekannte Datensätze befinden oder nicht. Aus diesem Grund wird gemäß einem weiteren Ausführungsbeispiel ein so genanntes lokal gewichtetes Vergessen angewendet. Dabei wird ein lokal gewichteter Vergessensfaktor λ angewendet, der der Formel genügt: λp = f(abst(xp, xAnfrage)), λ ≤ 1,wobei die abstandsabhängige Funktion gebildet wird durch:
    Figure 00400001
    (siehe auch 14). Wie beim exponentiellen Vergessen wird ein Datenbestand mit einer Maximalanzahl von Datensätzen, jeweils bestehend aus einem Eingangsdatenvektor und einem ihm zugeordneten Ausgangsdatenvektor, mittels einer konstanten unteren Schranke θ für die Gewichte realisiert. Da die Vergessensfaktoren nicht konstant sind, können die Gewichte besser an die Verteilung der Eingangsdatensätze angepasst werden. Gilt: wp < θ = f(np, wp), dann wird der dazugehörige Datensatz aus dem Datenbestand entfernt. Als Variante kann das Entfernen des Datensatzes mit dem kleinsten Gewicht wp angewendet werden.
  • Wird bei dem obigen Kraftwerk-Regelungssystem dieses lokal gewichtete Vergessen angewendet, kann der Einstellprozess weiter verbessert werden. Es ist von Vorteil, lediglich die Datensätze zu betrachten, die den Zustand repräsentieren, der gegenwärtig zu erreichen ist, als die, die einen größeren Unterschied zum aktuellen Einstellzustand aufweisen, folglich unter der Prämisse, dass sich Einstellungen bei den Turbineneinstellungen nicht oft sprunghaft ändern, weshalb deren Ein gangsdatenvektoren vom Anfrage-Eingangsdatenvektor weiter entfernt sind. Dadurch ist es möglich, anteilig noch mehr Datensätze in die Ermittlung der Turbineneinstellung einzubeziehen, deren Eingangsdatenvektoren sich in der Nähe des Anfrage-Eingangsdatenvektors befinden.
  • Ein Problem dieses Verfahrens ist, dass Datensätze aus dem Datenbestand entfernt werden, ohne zu prüfen, ob der jeweils betroffene Datensatz einen relevanten Einfluss auf die zu ermittelnde Funktionsabbildung hat oder nicht.
  • Um dieses Problem zu lösen, wird bei einem vierzehnten Ausführungsbeispiel das von Salganicoff [5] eingeführte "Erinnern", bezeichnet als lokal gewichtetes Erinnern, angewendet. Der Unterschied zum exponentiellen Vergessen und zum lokal gewichteten Vergessen ist, dass die bei diesem Verfahren entfernten Datensätze nicht gelöscht sondern nur deaktiviert werden.
  • Der lokal gewichtete Vergessensfaktor λ wird gemäß der folgenden Vorschrift: λp = f(abst(xp, xAnfrage), Fehler), 0 ≤ λ < ∞ermittelt.
  • Der Vergessensfaktor λ kann auch Werte größer als 1 annehmen, wodurch deaktivierte Datensätze wieder aktiviert werden können.
  • Dabei wird folgendermaßen vorgegangen: Wird auf eine Anfrage mittels der aktivierten Datensätze eine neue Funktionsabbildung ermittelt, wird parallel eine Funktionsabbildung mittels der deaktivierten Datensätze ermittelt. Danach wird mittels Auswertung des Trainingsfehlers und des Testfehlers ermittelt, welche der beiden ermittelten Funktionsabbildungen besser geeignet ist. Wurde mehrere Male festgestellt, dass die mittels der deaktivierten Datensätze ermittelte Funktionsabbildung besser geeignet war, werden diese Datensätze mittels Setzen ihre Gewichte mit einem Wert von λ > 1 multipliziert, wodurch sie wieder reaktiviert werden können. Die Schranke θ wirkt als Grenze zwischen aktivierten und deaktivierten Datensätzen, wobei gilt:
    wp > θ → aktivierter Datensatz (Trainingsfehler)
    wp ≤ θ → deaktivierter Datensatz (Testfehler).
  • Wird bei dem obigen Kraftwerk-Regelungssystem dieses lokal gewichtete "Erinnern" angewendet, kann sich das System an das mögliche Auftreten an Wiederholungen bei Turbineneinstellungen anpassen. Üblicherweise wiederholen sich Zeiträume von Leistungsspitzen und von geringerer Leistungsabgabe in bestimmten Perioden. Beispielsweise wird tagsüber mehr Energie verbraucht als in der Nacht, im Winter mehr als im Sommer, in einem kälteren Winter mehr als in einem wärmeren Winter usw. Sind nach einiger Zeit die Anforderungen ähnlich einem Zustand einer vorherigen Einstellung, können die zu diesem Zeitpunkt verwendeten Datensätze deaktiviert sein aber womöglich eine Ermittlung von Einstellungen ermöglichen, die besser geeignet sind. Werden auf Basis dieser deaktivierten Datensätze Einstellungen ermittelt, die besser sind als die mittels der aktivierten Datensätze, ist es möglich, die deaktivierten Datensätze wieder zu verwenden, wodurch die Drehzahl der Turbinen besser geregelt werden kann.
  • Ferner gibt es beim Entfernen von Datensätzen das Problem, dass Informationen verloren gehen können, die mittels anderer Verfahren zumindest teilweise bewahrt werden können. Beispielsweise stellt sich die Frage, welche von mehreren recht ähnlichen Datensätzen gelöscht und welche im Datenbestand behalten werden sollen.
  • Demzufolge wird gemäß einem fünfzehnten Ausführungsbeispiel ein Cluster-Verfahren gemäß K-Means angewendet, wobei Repräsentanten von ähnlichen Datensätzen gebildet werden. Wurde ein solcher Repräsentant gebildet, werden mit vergleichsweise geringem Informationsverlust die Datensätze aus dem Datenbestand entfernt, mittels denen der Repräsentant gebildet worden ist. Statistische Abweichungen können bei diesem Ausführungsbeispiel mittels einer Mittelung korrigiert werden.
  • Dies ist insbesondere vorteilhaft bei Prognosesystemen, wie beispielsweise einem Stau-Vorhersagesystem. Solch ein System weist typischerweise eine Mehrzahl von Sensoren an Verkehrswegen, wie Straßen, Autobahnen, Auffahrten usw. auf, mittels denen der gegenwärtige Verkehrszustand in einem bestimmten Gebiet ermittelt werden kann. Dieser Zustand weist die Positionen vieler Fahrzeuge, deren Geschwindigkeiten, Fahrtrichtungen und ggf. andere Daten, wie beispielsweise eine Baustelle, auf. Solch ein System wird angewendet, um zu ermitteln, ob eine Staugefahr besteht, wo die Stelle ist, an der sich der Stau bilden wird, und an welchen Stellen wie in den Verkehrsfluss eingegriffen werden muss, um den Stau zu verhindern. Nun ist es so, dass aus der Erfahrung heraus bestimmte Situationen sehr häufig vorkommen und zu Staus führen, diese also sehr ähnliche Zustandsdaten und Prognosedaten aufweisen. Diese Daten werden erfindungsgemäß zu den oben genannten Repräsentanten zusammengefasst. Dies ist hinsichtlich der Datenfülle vorteilhaft, die durch die große Anzahl zu betrachtender Fahrzeuge herrührt, und die sonst zu bewerten wäre. Würde jeder Zustand im Speicher festgehalten, wäre erstens der Speicherbedarf irgendwann nicht mehr handhabbar, insbesondere dann, wenn die Daten der jeweils vorherigen Prognose in den Speicher als neuer Datensatz hinzugefügt wird. Zweitens würde aufgrund der zu verarbeitenden Datenfülle die Rechenkapazität bald nicht mehr ausreichen. Aufgrund der Datensatz-Zusammenfassung wird der Rechenaufwand kalkulierbar, was dazu führt, dass besser einschätzbar ist, wie viel Zeit für die Prognose benötigt wird, um kalkulieren zu können, ob die ermittelten Verkehrsfluss-Eingriffe noch rechtzeitig getätigt werden können, oder ob aufgrund der Rechenzeit (als eventueller Eingangsdatenwert) ein ganz anderer Verkehrsfluss-Eingriff durchzuführen ist.
  • Selbstverständlich können die vorangegangenen Ausführungsbeispiele dahingehend erweitert werden, dass anstelle der Ermittlung von nur zwei Funktionsabbildungen mehrere hinsichtlich des jeweiligen Bereichs abgestufte Funktionsabbildungs-Ermittlungen durchgeführt werden, wodurch mehr Funktionen zur Verfügung stehen, was die Wahrscheinlichkeit erhöht, dass die erste(n) Funktionsabbildungen) nicht noch einmal ermittelt werden muss (müssen). Insbesondere bietet sich dies bei sehr vielen Datensätzen mit nah beieinander liegenden Eingangsdatenvektoren an.
  • Zusammenfassend wird durch die Erfindung ein Verfahren zum Ermitteln einer Funktionsabbildung auf Basis gespeicherter Datensätze, jeweils bestehend aus einem Eingangsdatenvektor und einem ihm zugeordneten Aungangsdatenvektor, bereitgestellt, wobei die den gespeicherten Datensätzen zugrundeliegende Funktion nicht bekannt ist. Dabei wird eine erste Funktionsabbildung mittels der Datensätze ermittelt, deren Eingangsdatenvektoren in einem ersten, größeren Bereich um den Eingangsdaten-Anfrage-Eingangsdatenvektor herum liegen. Dann wird auf Basis der so ermittelten ersten Funktionsabbildung und mittels der Datensätze, deren Eingangsdatenvektoren in einem zweiten, kleineren und in dem ersten Bereich enthaltenen Bereich um den Eingangsdaten-Anfrage-Eingangsdatenvektor herum liegen, eine zweite Funktionsabbildung ermittelt.
  • Dadurch ist es möglich, bei einer weiteren Anfrage die zweite ermittelte Funktionsabbildung zu verwenden, wenn sich der zweite Eingabedaten-Anfrage-Eingangsdatenvektor innerhalb eines bestimmten Bereichs um den ersten Eingabedaten-Anfrage-Eingangsdatenvektor herum befindet.
  • Analog wird hinsichtlich der ersten Funktionsabbildung verfahren, nur dass hier der Bereich größer gewählt ist. Allerdings ist in jedem Fall die zweite Funktionsabbildung erneut zu bilden.
  • Die Vorteile sind ein daraus zu erwartender geringerer Rechenaufwand als beim herkömmlichen Lazy Learning-Verfahren und dadurch eine bessere zeitliche Effizienz in der Ermittlung der gewünschten zweiten Funktionsabbildung.
  • In diesem Dokument sind folgende Veröffentlichungen zitiert:
    • [1] Pedro Domingos, "Context-Sensitive Feature Selection for Lazy Learners", "Artificial Intelligence Review", Band 11, Seiten 227-253, Kluwer Academic Publishers, 1997
    • [2] David W. Aha, Dietrich Wettschereck und Takao Mohri, "A Review and Empirical Evaluation of Feature Weighting Methods for a Class of lazy Learning Algorithms", "Artificial Intelligence Review", Band 11, Seiten 273-314, Kluwer Academic Publishers, 1997
    • [3] David W. Aha, "Feature weighting for lazy learning algorithms, feature extraction, selection and construction:a data mining perspective 2", "Artificial Intelligence Review", Band 11, Seiten 13-32, Kluwer Academic Publishers, 1998
    • [4] Volker Gaede und Oliver Günther, "Multidimensional Access Methods", in: ACM Computing Surveys -CSUR 1998, Vol. 30, Heft 2, Seite 170-232, ISSN 0360-0300
    • [5] Marcos Salganicoff, "Tolerating Concept and Sampling Shift in Lazy Learning Using Prediction Error Context Switching", "Artificial Intelligence Review", Band 11, Seiten 133-155, Kluwer Academic Publishers, 1997

Claims (27)

  1. Verfahren zum rechnergestützten Ermitteln einer Funktionsabbildung (32) gemäß dem Prinzip des Lazy Learnings, bei dem: – Datensätze (10), aufweisend Eingangsdatenvektoren (10b) und diesen zugeordnete Ausgangsdatenvektoren, als Gesamtdatenbestand erfasst und gespeichert werden, wobei die Eingangsdatenvektoren (10b) Werte bezüglich eines Zustands eines zu regelnden Systems (1) und Werte bezüglich eines zu erlangenden Zustands des zu regelnden Systems (1) aufweisen und die Ausgangsdatenvektoren Werte zum Regeln des zu regelnden Systems (1) aufweisen, – Werte bezüglich des aktuellen Zustands des zu regelnden Systems als Anfrage-Eingangsdatenvektor (10a) eingelesen werden, – unter Verwendung des Anfrage-Eingangsdatenvektors (10a) erste Datensätze (21) aus dem Gesamtdatenbestand ermittelt werden, wobei die Eingangsdatenvektoren (10b) der ausgewählten Datensätze (21) innerhalb eines ersten vorbestimmten Bereichs (210) um den Anfrage-Eingangsdatenvektor (10a) herum liegen, – eine erste Funktionsabbildung (31) auf Basis der ausgewählten ersten Datensätze (21) gebildet wird, – zweite Datensätze (22) aus dem Gesamtdatenbestand ermittelt werden, wobei die Eingangsdatenvektoren (10b) der ausgewählten Datensätze (22) innerhalb eines zweiten vorbestimmten Bereichs (220) um den Anfrage-Eingangsdatenvektor (10a) herum liegen, wobei der zweite vorbestimmte Bereich (220) kleiner ist als der erste vorbestimmte Bereich (210) und im ersten vorbestimmten Bereich (210) liegt, – eine zweite Funktionsabbildung (32) auf Basis der zweiten Datensätze (22) und der ersten Funktionsabbildung (31) gebildet wird, und – ein Anfrage-Ausgangsdatenvektor (20a) für den Anfrage-Eingangsdatenvektor (10a) unter Verwendung der zweiten Funktionsabbildung (32) gebildet und ausgegeben wird.
  2. Verfahren gemäß Anspruch 1, wobei das Bilden der zweiten Funktionsabbildung (32) ferner aufweist: – Bilden der zweiten Funktionsabbildung (32) analog zur ersten Funktionsabbildung (31) auf Basis der zweiten Datensätze (22), – Ermitteln eines Abstands zwischen dem Funktionswert der ersten Funktionsabbildung (31) vom Anfrage-Eingangsdatenvektor (10a) und dem Funktionswert der zweiten Funktionsabbildung (32) als Fehler (41), und – Korrigieren der ersten Funktionsabbildung (32) mittels Korrigierens der ersten Funktionsabbildung (31) um diesen Fehler (41) als zweite Funktionsabbildung (32).
  3. Verfahren gemäß Anspruch 2, wobei lediglich das absolute Glied der ersten Funktionsabbildung (31) um den Fehler (41) korrigiert wird.
  4. Verfahren gemäß Anspruch 2 oder 3, bei dem für den Fehler (41) in zumindest einer Dimension des Ausgangsdatenvektors ein Minimalwert (45) und ein Maximalwert (44) vorgegeben werden.
  5. Verfahren gemäß einem der Ansprüche 1 bis 4, bei dem für die Steigung zumindest einer Funktionsabbildung (31, 32) in zumindest einer Dimension ein Minimalwert und ein Maximalwert vorgegeben sind, und wobei der Anstieg der ersten Funktionsabbildung (31) in der jeweiligen Dimension auf Basis des Minimalwerts und Maximalwertes für die Steigung in dieser Dimension als zweite Funktionsabbildung (32) korrigiert wird.
  6. Verfahren gemäß einem der Ansprüche 1 bis 5, bei dem die Anzahl der ersten Datensätze (21) vorbestimmt ist.
  7. Verfahren gemäß einem der Ansprüche 1 bis 6, bei dem die Werte der Ausgangsdatenvektoren für zumindest eine Dimension zur Bildung zumindest einer der Funktionsabbildungen (31, 32) gewichtet werden.
  8. Verfahren gemäß einem der Ansprüche 1 bis 7, wobei die Werte zumindest einer Dimension der ausgewählten Datensätze (11, 21) zum Bilden zumindest einer der Funktionsabbildungen (31, 32) normiert werden.
  9. Verfahren gemäß einem der Ansprüche 1 bis 8, – bei dem aus einem Bereich, der durch die Eingangsdatenvektoren (10b) definiert ist, denen Ausgangsdatenvektoren zugeordnet sind, Teilbereiche gebildet werden, – wobei eine Bereichs-Struktur gebildet wird, in die die den gebildeten Teilbereichen zugehörigen Eingangsdatenvektoren (10b) gespeichert werden.
  10. Verfahren gemäß Anspruch 9, bei dem als die Struktur ein R*-Baum verwendet wird.
  11. Verfahren gemäß einem der Ansprüche 1 bis 10, bei dem der Anfrage-Eingangsdatenvektor (10a) und der Anfrage-Ausgangsdatenvektor (20a) als neuer Datensatz (10) in den Gesamtdatenbestand aufgenommen werden.
  12. Verfahren gemäß einem der Ansprüche 1 bis 11, bei dem ferner: – ein zusätzlicher Anfrage-Eingangsdatenvektor (10a) eingegeben wird, – analog zum ersten Anfrage-Eingangsdatenvektor (10a) ein anderer zweiter vorbestimmter Bereich (220) festgelegt wird, – ermittelt wird, ob der zusätzliche Anfrage-Eingangsdatenvektor (10a) außerhalb des anderen zweiten Bereichs (220) um den ersten Anfrage-Eingangsdatenvektor (10a) liegt, – wobei die zweite Funktionsabbildung (32) beibehalten und angepasst wird als neue zweite Funktionsabbildung (32), wenn der zusätzliche Anfrage-Eingangsdatenvektor (10a) innerhalb des anderen zweiten Bereichs (220) um den ersten Anfrage-Eingangsdatenvektor (10a) liegt, – wobei ansonsten: – die zweite Funktionsabbildung (32) gelöscht wird, – analog zum ersten Anfrage-Eingangsdatenvektor (10a) ein anderer erster vorbestimmter Bereich (210) festgelegt wird, – ermittelt wird, ob der zusätzliche Anfrage-Eingangsdatenvektor (10a) außerhalb des anderen ersten Bereichs (210) um den ersten Anfrage-Eingangsdatenvektor (10a) liegt, – die erste Funktionsabbildung (31) beibehalten und angepasst wird als neue erste Funktionsabbildung (31), wenn der zusätzliche Anfrage-Eingangsdatenvektor (10a) innerhalb des anderen ersten Bereichs (210) um den ersten Anfrage-Eingangsdatenvektor (10a) liegt, – wobei ansonsten analog zum ersten Anfrage-Eingangsdatenvektor (10a) eine neue erste Funktionsabbildung (31) und eine neu zweite Funktionsabbildung (32) gebildet werden.
  13. Verfahren gemäß Anspruch 12, bei dem bei Eingabe eines anderen Anfrage-Eingabedatenvektors (10a) die zweite Funktionsabbildung (31) mittels eines Kalman-Filters angepasst wird.
  14. Verfahren gemäß Anspruch 12, bei dem Eingabe eines anderen Anfrage-Eingabedatenvektors (10a) die zweite Funktionsabbildung (32) mittels Online-Adaption eines Adalines angepasst wird.
  15. Verfahren gemäß einem der Ansprüche 1 bis 14, bei dem die erste Funktionsabbildung (31) gebildet wird, bevor ein Anfrage-Eingangsdatenvektor (10a) eingegeben worden ist.
  16. Verfahren gemäß einem der Ansprüche 1 bis 15, bei dem vorbestimmte Datensätze (10) gemäß einem vorbestimmten Kriterium aus dem Gesamtdatenbestand gelöscht werden.
  17. Verfahren gemäß Anspruch 16, bei dem ferner: – jeder Datensatz (10) im Gesamtdatenbestand um einen Wert (43) als Gewichtsfaktor erweitert ist; – der vorbestimmte Wert (43) kleiner als 1 ist; – bei einem neu in den Gesamtdatenbestand aufgenommenen Datensatz (10) dem Gewichtsfaktor der vorbestimmte Wert (43) zugewiesen wird; – die Gewichtsfaktoren der anderen Datensätze (10) im Gesamtdatenbestand mit dem vorbestimmten Wert (43) multipliziert werden; und – ermittelt wird, ob es Datensätze (10) im Gesamtdatenbestand gibt, bei denen der zugehörige Gewichtsfaktor einen vorbestimmten Grenzwert unterschreitet, wobei die Datensätze (10) mit den zugehörigen Gewichtsfaktoren aus dem Gesamtdatenbestand gelöscht werden, bei denen der zugehörige Gewichtsfaktor den vorbestimmten Grenzwert unterschreitet.
  18. Verfahren gemäß Anspruch 17, bei dem für jeden Datensatz (10) ein Wert (43) separat in Abhängigkeit vom Abstand des Eingangsdatenvektors (10b) des jeweiligen Datensatzes (10) zum Eingangsdatenvektor (10a) des neuen Datensatzes (10) ermittelt wird.
  19. Verfahren gemäß Anspruch 17, bei dem ferner: – für jeden Datensatz (10) ein zweiter vorbestimmter Wert (43) ermittelt wird, der größer als 1 ist, – jeder Datensatz (10) der zweiten Datensätze als aktiv betrachtet wird, wenn der zugehörige Gewichtsfaktor einen vorbestimmten Grenzwert nicht unterschreitet, und sonst als inaktiv betrachtet wird, – zur Ermittlung der zweiten Funktionsabbildung (32) als Aktiv-Funktionsabbildung nur die als aktiv betrachteten Datensätze (22) verwendet werden; – analog zur Aktiv-Funktionsabbildung eine andere zweite Funktionsabbildung als Inaktiv-Funktionsabbildung auf Basis der zweiten, als inaktiv betrachteten Datensätze gebildet wird; – geprüft wird, ob die Inaktiv-Funktionsabbildung einen kleineren Fehler (41) aufweist als die Aktiv-Funktionsabbildung, – die Gewichtsfaktoren der zum Bilden der Inaktiv-Funktionsabbildung relevanten Datensätze mit dem zweiten vorbestimmten Wert (43) multipliziert werden, wenn die Inaktiv-Funktionsabbildung einen kleineren Fehler (41) aufweist als die Aktiv-Funktionsabbildung, und – die neu bestimmten Gewichtsfaktoren der für die Inaktiv-Funktionsabbildung relevanten Datensätze gespeichert werden.
  20. Verfahren gemäß einem der Ansprüche 1 bis 19, bei dem zwischen dem Bilden der ersten Funktionsabbildung (31) und dem Bilden der zweiten Funktionsabbildung (32) eine zusätzliche Funktionsabbildung analog zur zweiten Funktionsabbildung (32) gebildet wird, wobei ein vorbestimmter zusätzlicher Bereich (220) zum Auswählen der zum Bilden der zusätzlichen Funktionsabbildung notwendigen Datensätze (10) derart festgelegt wird, dass er im ersten Bereich (210) liegt und der zweite Bereich (220) im zusätzlichen Bereich (220) liegt.
  21. Verfahren gemäß Anspruch 20, wobei mehr als eine zusätzliche Funktionsabbildung gebildet wird.
  22. Vorrichtung zum Regeln eines Systems (1), aufweisend: – ein zu regelndes System (1), – einen Speicher (4) zum Speichern von Datensätzen (10), und – eine mit dem zu regelnden System (1) und dem Speicher (4) gekoppelte Datenverarbeitungsanlage, eingerichtet, vom zu regelnden System (1) dessen Zustand einzulesen, einen zu erlangenden Zustand des zu regelnden Systems (1) aufzunehmen, vom Speicher (4) zu lesen und in ihn zu schreiben, und ein Verfahren gemäß einem der Ansprüche bis durchzuführen, und den ermittelten Anfrage-Ausgangsdatenvektor (20a) auf das zu regelnde System (1) anzuwenden.
  23. Vorrichtung gemäß Anspruch 22, ferner aufweisend: – eine mit dem zu regelnden System (1) und der Datenverarbeitungsanlage (3) gekoppelte Daten-Erfasseinrichtung (2), eingerichtet, den Zustand des zu regelnden Systems (1) und diesen der Datenverarbeitungsanlage (2) einzugeben, – wobei die Eingabevorrichtung zum Eingeben von Eingangsdatenvektoren (10b) dem System als Testdaten eingerichtet ist, und – die Datenverarbeitungsanlage mit der Daten-Erfasseinrichtung gekoppelt ist und ferner eingerichtet ist, die mittels der Eingabe-Vorrichtung eingegebenen Eingangsdatenvektoren (10b) und die mittels der Daten-Erfasseinrichtung erfassten Ausgangsdatenvektoren zu Datensätzen (10) zusammenzufassen und im Speicher geeignet zu speichern.
  24. Vorrichtung gemäß einem der Ansprüche 22 oder 23, wobei die Datenverarbeitungsanlage ferner eingerichtet ist, Anfrage-Eingangsdatenvektor und den ermittelten Anfrage-Ausgangsdatenvektor als Datensatz in den Speicher (4) zu speichern.
  25. Vorrichtung gemäß einem der Ansprüche 22 bis 24, ferner aufweisend eine mit der Datenverarbeitungsanlage gekoppelte Eingabeeinrichtung (5), mit der ein Nutzer der Datenverarbeitungsanlage (2) den zu erlangenden Zustand des zu regelnden Systems eingeben kann.
  26. Vorrichtung gemäß einem der Ansprüche 22 bis 25, wobei der Speicher eine Datenbank ist.
  27. Vorrichtung gemäß einem der Ansprüche 22 bis 26, wobei die Daten-Erfasseinrichtung eine Sensor-Einrichtung ist.
DE200410018295 2004-04-15 2004-04-15 Verfahren zum rechnergestützten Ermitteln einer Funktionsabbildung gemäß dem Prinzip des Lazy Learnings Ceased DE102004018295A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE200410018295 DE102004018295A1 (de) 2004-04-15 2004-04-15 Verfahren zum rechnergestützten Ermitteln einer Funktionsabbildung gemäß dem Prinzip des Lazy Learnings

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE200410018295 DE102004018295A1 (de) 2004-04-15 2004-04-15 Verfahren zum rechnergestützten Ermitteln einer Funktionsabbildung gemäß dem Prinzip des Lazy Learnings

Publications (1)

Publication Number Publication Date
DE102004018295A1 true DE102004018295A1 (de) 2005-11-10

Family

ID=35140010

Family Applications (1)

Application Number Title Priority Date Filing Date
DE200410018295 Ceased DE102004018295A1 (de) 2004-04-15 2004-04-15 Verfahren zum rechnergestützten Ermitteln einer Funktionsabbildung gemäß dem Prinzip des Lazy Learnings

Country Status (1)

Country Link
DE (1) DE102004018295A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005019518A1 (de) * 2005-04-27 2006-11-02 Volkswagen Ag Verfahren und Anordnung zum Auswerten von Ereignissen, insbesondere aus dem Betrieb eines Straßen-Kraftfahrzeuges

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
C.G.Atkeson, A.W.Moore und S.Schaal. "Locally Weighted Learning", Artificial Intelligence Re- view. 11, 1997, S.11-73 *
W.S.Cleveland, "Robust Locally Weighted Regression and Smoothing Scatterplots", Journal of the Ameri- can Statistical Association, Dec.1979, Vol.74, Number 368, S.829-836
W.S.Cleveland, "Robust Locally Weighted Regressionand Smoothing Scatterplots", Journal of the Ameri-can Statistical Association, Dec.1979, Vol.74, Number 368, S.829-836 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005019518A1 (de) * 2005-04-27 2006-11-02 Volkswagen Ag Verfahren und Anordnung zum Auswerten von Ereignissen, insbesondere aus dem Betrieb eines Straßen-Kraftfahrzeuges

Similar Documents

Publication Publication Date Title
DE4108310C2 (de) Verarbeitungssystem für eine Wissensbank in einem Expertensystem
DE102007001025A1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
DE102019131385A1 (de) Sicherheits- und leistungsstabilität von automatisierung durch unsicherheitsgetriebenes lernen und steuern
DE112023000011T5 (de) Ein primäres Frequenzmodulationssteuersystem der thermischen Stromerzeugungseinheit mit kleinen Störungen
EP3646122B1 (de) Verfahren und vorrichtung zum einstellen mindestens eines parameters eines aktorregelungssystems und aktorregelungssystem
DE202018102632U1 (de) Vorrichtung zum Erstellen einer Modellfunktion für ein physikalisches System
DE102017006687A1 (de) Prüfsystem zur Stückprüfung von Prüflingen und Verfahren
DE102016216945A1 (de) Verfahren und Vorrichtung zum Ausführen einer Funktion basierend auf einem Modellwert eines datenbasierten Funktionsmodells basierend auf einer Modellgültigkeitsangabe
WO2015082107A2 (de) Verfahren und vorrichtung zum ermitteln eines datenbasierten funktionsmodells
DE102018218263A1 (de) Verfahren zum Maschinenlernen durch Gaußsche Prozesse
DE102020212502A1 (de) Bayessche kontext-aggregation für neuronale prozesse
DE102017108107A1 (de) Verfahren, vorrichtung und computerlesbares speichermedium mit instruktionen zur schätzung einer pose eines kraftfahrzeugs
EP3746850A1 (de) Verfahren zum ermitteln eines zeitlichen verlaufs einer messgrösse, prognosesystem, aktorsteuerungssystem, verfahren zum trainieren des aktorsteuerungssystems, trainingssystem, computerprogramm und maschinenlesbares speichermedium
EP2088486A1 (de) Verfahren zur Vermessung eines nichtlinearen dynamischen realen Systems mittels Versuchsplanung
DE102013206274A1 (de) Verfahren und Vorrichtung zum Anpassen eines nicht parametrischen Funktionsmodells
DE102004018295A1 (de) Verfahren zum rechnergestützten Ermitteln einer Funktionsabbildung gemäß dem Prinzip des Lazy Learnings
DE102018122115A1 (de) Verfahren zur Umgebungserfassung eines Fahrzeugs
WO2021213998A1 (de) Verfahren zum betreiben einer steuergeräteanordnung sowie entsprechende steuergeräteanordnung
EP3712786A1 (de) Verfahren zum auswerten mindestens eines signals
DE102020211596A1 (de) Verfahren zum Generieren eines trainierten neuronalen Faltungs-Netzwerks mit invarianter Integrationsschicht zum Klassifizieren von Objekten
DE102020213527A1 (de) Verfahren zum Optimieren einer Strategie für einen Roboter
DE102019216184A1 (de) Verfahren zum Robustifizieren eines Neuronalen Netzes gegen adversariale Störungen
DE102019004502A1 (de) Verfahren zum Bestimmen und Angeben der Reststandzeit eines Filters
DE202019103233U1 (de) Vorrichtung zum Einstellen eines Hyperparameters
DE102019123447B4 (de) Verfahren zum Betrieb von Fahrzeugkomponenten

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection