WO2006051096A2 - Vorrichtung und verfahren zur optimierung von technischen produktionsprozessen durch verdichtung, zusammenführung und analyse von prozess-/qualitätsdaten - Google Patents

Vorrichtung und verfahren zur optimierung von technischen produktionsprozessen durch verdichtung, zusammenführung und analyse von prozess-/qualitätsdaten Download PDF

Info

Publication number
WO2006051096A2
WO2006051096A2 PCT/EP2005/055891 EP2005055891W WO2006051096A2 WO 2006051096 A2 WO2006051096 A2 WO 2006051096A2 EP 2005055891 W EP2005055891 W EP 2005055891W WO 2006051096 A2 WO2006051096 A2 WO 2006051096A2
Authority
WO
WIPO (PCT)
Prior art keywords
data
processes
analysis
characteristic values
determined
Prior art date
Application number
PCT/EP2005/055891
Other languages
English (en)
French (fr)
Other versions
WO2006051096A3 (de
Inventor
Heiko Schmidtke
Johann HÄRTL
Original Assignee
Schott Ag
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Schott Ag filed Critical Schott Ag
Publication of WO2006051096A2 publication Critical patent/WO2006051096A2/de
Publication of WO2006051096A3 publication Critical patent/WO2006051096A3/de

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/418Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM]
    • G05B19/41865Total factory control, i.e. centrally controlling a plurality of machines, e.g. direct or distributed numerical control [DNC], flexible manufacturing systems [FMS], integrated manufacturing systems [IMS] or computer integrated manufacturing [CIM] characterised by job scheduling, process planning, material flow
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Definitions

  • the invention relates to a method for optimizing technical production processes by compaction and analysis of process and quality data within a control loop.
  • the method relates to technical production processes e.g. the production of crystals, in particular CaF2, and on production processes on glass melting tanks.
  • Process data of a technical process are often collected within a process control system and stored in special process data stores. This is data that is collected in continuous or discontinuous time intervals at the measuring points of the system and usually digitized in order to store them on a digital data carrier. This results in historical measurement data time series, which are created and stored for each of the measuring points.
  • This raw data can consist of a very large number of individual measurement data, with important process information usually not being found in the individual measured value, but rather in its time course.
  • process data data collected during a process
  • quality data data collected before, between and after the processes on process input materials, intermediate products or process end products
  • this object is achieved by condensing measurement data series into process characteristics.
  • Characteristics meet the requirement, decisive Contain process information and also high comparability to other processes or process states.
  • the process parameters determined in this way are stored in relation to other production, process and quality data. This information is then used to perform data analysis using data mining, multivariate methods, or other techniques to find data dependencies. On the basis of these dependencies, considerations can then be made regarding new process parameters, which then, for example, flow back into the production process in the form of a control loop. To the occurring z. To handle extremely high link computations, these state-of-the-art operations are usually performed using OLAP (OLAP) data structures (OLAP). Other methods are possible.
  • OLAP OLAP
  • Other methods are possible.
  • Process characteristics are generated by specially designed calculation algorithms across multiple compression levels.
  • the individual calculation steps can be subdivided into simple preprocessing steps (filtering, smoothing, spot cleanup), into elementary compression steps (averaging, base statistics over a time grid based on the evaluation) or more complex expressions that partially reflect the physical process (extracted curve elements of the process time series, slopes, disturbances , multi-dimensional data clusters or simply just recipe numbers, which may correspond to a stored elsewhere, sometimes complicated sequence). So not only information is compressed and built into the evaluation logic, but z. T. derived only a reference to an information or a classification result and further processed.
  • One possible use of the process is in crystal growing production processes (e.g., CaF 2 or use in the production of polycrystalline silicon for photovoltaics) and glass melting tanks.
  • FIG. 3 The figure. 3).
  • Embodiment the complete batch periods in the Analysis included.
  • characteristic values are collected at regular or irregular time intervals.
  • Plant processes are usually composed of different process phases, which are defined by the plant programming and control or by events within the process data themselves and are determined by the respective process requirements.
  • the characteristic values of a process can be related to individual process phases or several connected phases.
  • the process parameters collected in this way ensure a high degree of comparability with the same characteristics of another process, even if the number of process phases or the course of the phases is not identical.
  • Limitation can be decomposed and classified by clustering the decisive measuring point time series.
  • FIG. 1 is a schematic representation of a possible structure of a data control circuit in technical production processes using a
  • Data warehouses 2 shows a schematic example of a data warehouse concept for the global acquisition of heterogeneous data sources for process data analysis
  • FIG. 1 shows a possible structure of a data control loop in technical production processes using a data warehouse.
  • the quality data of the input materials, the process data that has been condensed into process characteristics, and the quality data of the end products are stored in relation to each other in the global data memory. It is also conceivable that further data are stored on the global data memory, as shown in FIG. 2 becomes clear.
  • the data stored in this way is used for data analysis such as data mining or multivariate methods applied. The details of these procedures can be found in the literature, which can be found in the Annex. These methods have in common that both dependencies of the information can be found as well as future behaviors can be determined and thus trends are recognizable. The information returns thus obtained can in turn be used to flow into the technical products or the process.
  • FIGS. 1 and 2 show schematic illustrations of a possible data flow.
  • heterogeneous data types (measurement data, process data, business and logistic data) are combined in a global data store, the data warehouse.
  • This type of data management is a prerequisite for the subsequent, powerful data analyzes, which are carried out due to their complexity using modern methods.
  • the data of the data warehouse can, for example, be transformed into multi-dimensional data structures (eg so-called OLAP cubes from today's perspective) and provided via a server (eg OLAP server).
  • FIGS. 3 and 4 show possible characteristic value generations. In process data stores, all measuring points of the entire system inventory are located, and this to a non-limited extent.
  • FIG. 3 shows an example of the process values in a graph in order to illustrate how simple compaction can look.
  • segments or subsegments are formed, in which slopes, changes in slopes, curves, occurred disturbances, measuring point scatters, maxima, minima and other even more complex arithmetic expressions, such as multidimensional classifications or even references to specific recipes are formed in a plant. Details on the multidimensional classification are given below explained the next page.
  • important features are used by cluster processes for the division of the process in a few but in the features of maximum different (ie occurring at high feature distance) process sections to be used.
  • the aim of the characteristic values is always that the sum of all characteristic values of a process describes this in a form that is adequate for analysis and comparable to other processes.
  • the characteristic values are determined within the segments according to defined rules. Each characteristic value is determined according to a precisely defined rule.
  • a simple example of such a rule is the determination of a characteristic value which determines a temperature rise between two defined process phases.
  • the process phases within the process are determined and a process segment is marked. Within this process segment different characteristic values are calculated, eg the desired increase of the temperature measuring point. These are stored in a relational data store. Depending on the process types, however, these characteristics and their determination may differ.
  • the procedure for the batch process of crystal growing differs from a continuous process of a glass melt.
  • Batch process (eg crystal growing process): One of the first steps of characteristic value generation is a segmentation of the time segment to be analyzed into logically separated process phase areas.
  • segment boundaries are found according to exactly predefined rules from the measured data time series.
  • the process segmentation may be statically conditioned by preprogrammed phases within the process recipe or found dynamically by defined states within the process data.
  • segment boundaries are found at curve points that are the beginning or the end of a logically connected process section mean, for example, the end of a heating phase (static, as already defined in the process recipes) or the achievement of a defined growth level in the crystal growing process (dynamic, since state only emerges during the process).
  • the found segments and segment boundaries are regarded as a quasi-standardized time base for the evaluation of the time series of all measuring points.
  • continuous processes eg molten glass
  • time intervals as in the batch process.
  • States line up almost endlessly, years can be apart at the beginning and at the end of the process and hardly have anything to do with each other in terms of process technology. If the individual parameters of the process were calculated independently of one another as the result of multi-dimensional analyzes, this would lead to an overall picture which would be neither technically sensible nor physically feasible at all.
  • the solution consists of using a multi-dimensional class formation to identify typical process states with an associated "blurring corridor" in advance (so-called feature clusters) .
  • the time range belonging to a data cluster is treated like a process segment from now on, separating the process into sections of different process modes
  • Such a data cluster could correspond to a temperature profile of a glass trough that is typical for a certain driving style, and if other data areas, such as energy, are clustered, a multi-dimensional overlapping / overlapping of different time intervals is obtained for which the found temperature or energy cluster best suits, made measurable via a multi-dimensional distance measure.
  • FIG. 5 shows the list of three feature dimensions, of which two energy clusters (columns BR_PRZ_KL / lines BR ABS KL) and one temperature profile analysis (further Subdivision by means of column SW_BOD_KL) in a so-called pivot table.
  • the curves of the measuring point time series are analyzed for characteristics that were defined exactly in advance.
  • a multi-stage compaction takes place (see FIG. 4).
  • directly available characteristics such as measured data, averages, variances etc. are calculated.
  • higher-level process structuring is carried out. These are segmentation steps that delimit logically related process states from each other and vice versa
  • Data clustering which uses data mining routines to divide different measuring point time series into clusters that have maximum distinctiveness among each other. Subsequent stages then build on the results of the lower stages and calculate further, derived characteristic values.
  • certain curve anomalies such as overshoots or peak heights in certain process segments can be found and analyzed.
  • classifications are formed using characteristic values, so that identical characteristics are assigned identical classes.
  • the calculated characteristic values of a process or of a process status are transferred to the data warehouse via an interface and coupled to quality data via unique process identifiers.
  • One of the deciding factors for the efficiency of the overall concept is the quality of the data basis on which the data analysis is based.
  • An example of the application of the method according to the invention is the procedure for the reduction of real structure defects which typically occur during the production of monocrystals, for example the production of single crystal CaF.sub.2 or the production of single crystals of other fluorides or other cubic crystals such as garnets.
  • Such single crystals have a so-called real structure deviating from the ideal crystal structure.
  • block boundaries, small-angle grain boundaries, sliding bands or scattering centers can be used as deviating defect characteristics occur within the crystals.
  • the occurrence of these defects depends in part on many, possibly interdependent influencing factors.
  • process parameters as well as quality parameters of input and output products must be included in a joint analysis. Important process parameters here are information that characterizes the decisive process steps.
  • Raw material analysis data and pre-process parameters are of crucial importance as quality parameters of the input products.
  • complex, targeted analysis methods are used after, for example, multidimensional data preparation (OLAP cubes). Since individual processes in crystal growing can lead to partially randomly shaped defect structures (fuzziness of the target values), it is important to increase the sharpness of the result statements that we include as large a database as possible, ie a large number of individual processes in the analyzes.
  • the following analyzes can be based on very different methods, such as the classes of data mining routines or multivariate analysis methods.
  • a ranking routine is used which combines all influencing variables in a definable depth and determines the target parameter for all possible combinations.
  • the influence parameter combinations leading to the best or worst target parameter values (strength of defect characteristics).
  • a further data mining method is used which automates comparisons between distributions of the target and influencing parameters and sorts them according to distribution differences found (see FIG. 6). With this method, all possible influencing variables can be examined and sorted according to conspicuousness. As a result, for example, the ten most striking influencing variables on a specific crystal defect characteristic could be determined and examined in detail with other methods.
  • FIG. 6 shows a principle of the automation of distribution comparisons.
  • the eg 10% smallest values of a target variable are marked in the frequency distributions of all influencing variables (in the picture five examples are shown).
  • the mentioned parameters and the analysis methods mentioned here are just examples.
  • the data analysis can also be a multi-level process, since the results of an analysis method can be used as entry-level objects of advanced analysis methods.
  • Process classes can be formed by feature clustering of process characteristics. This then allows the extension of generally performed analyzes to the found process classes. Hereby statements about dependencies of the analysis results of the individual process classes can be found.

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Manufacturing & Machinery (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • General Factory Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Erfindungsgemäß wird diese Aufgabe gelöst, indem Messdatenreihen aus technischen Produktionsprozessen über mehrere Stufen in Prozesskennwerte verdichtet werden. Diese Kennwerte erfüllen die Anforderungen, die wichtigen Prozessinformationen zu enthalten und zudem hohe Vergleichbarkeit zu anderen Prozessen oder Prozesszuständen aufzuweisen. Die so bestimmten Prozesskennwerte werden in Relation zu anderen Produktions-, Prozess- und Qualitätsdaten abgespeichert. Auf diesen Informationen werden dann komplexe Datenanalysen mittels OLAP-Systemen, Datamining, multivariaten Analysemethoden oder anderen Verfahren durchgeführt, um Abhängigkeiten und Datenauffälligkeiten zu finden. Auf der Basis der Abhängigkeiten und Auffälligkeiten können dann wieder Überlegungen hinsichtlich neuer Prozessparameter getroffen werden, die dann z.B. in Form eines Regelkreises wieder in den Produktionsprozess einfließen können.

Description

Vorrichtung und Verfahren zur Optimierung von technischen Produktionsprozessen durch Verdichtung, Zusammenführung und
Analyse von Prozess-/Qualitätsdaten
Die Erfindung betrifft ein Verfahren zur Optimierung von technischen Produktionsprozessen durch Verdichtung und Analyse von Prozess- und Qualitätsdaten innerhalb eines Regelkreises. Das Verfahren bezieht sich auf technische Produktionsprozesse z.B. der Herstellung von Kristallen, insbesondere CaF2, und auf Produktionsprozesse an Glasschmelzwannen.
Gebiet der Erfindung:
Bei technischen Produktionsprozessen, z.B. in der Kristallzucht (z.b. CaF2-Kristallzucht) , und an Glasschmelzwannen, fallen große Mengen von Prozess- und Qualitätsdaten an. Diese Daten enthalten in ihrer Gesamtheit häufig hohe Potenziale zur Optimierung von Produktionsprozessen und in der Folge der Prozessprodukte. Durch die häufig sehr große Menge an Daten und der Form, in der diese vorliegen, sind diese Potenziale ohne geeignete Datenaufbereitungs- und analyseverfahren meist nur sehr schwer zu finden. Durch geeignete Methoden lassen sich jedoch in den Daten versteckte Erkenntnisse und Optimierungpotenziale entdecken. Innerhalb eines Daten-Regelkreises können die gefundenen Erkenntnisse und Informationen in die Steuerung der Prozess- und Produktionskette einfließen (Figur 1) . Dieser Regelkreis kann sowohl für Batchprozesse als auch für kontinuierliche Produktionsprozesse implementiert werden.
Hierbei ergeben sich folgende Teilprobleme:
a) Prozessdaten eines technischen Prozesses werden häufig innerhalb eines Prozessleitsystems erhoben und in speziellen Prozessdatenspeichern abgelegt. Hierbei handelt es sich um Daten, die in kontinuierlichen oder diskontinuierlichen Zeitintervallen an den Messstellen der Anlage erhoben und in der Regel digitalisiert werden, um sie auf einem digitalen Datenträger abzulegen. Hieraus resultieren historische Messdaten-Zeitreihen, die für jede der Messstellen entstehen und gespeichert werden. Diese Rohdaten können aus einer sehr großen Anzahl von einzelnen Messdaten bestehen, wobei wichtige Prozessinformationen meist nicht in dem einzelnen Messwert, sondern vielmehr in dessen Zeitverlauf zu finden sind. Zudem lassen sich einzelne Messwerte eines Prozesses nur sehr schwer mit anderen Prozessen (Batchprozesse) oder anderen Prozesszuständen (kontinuierliche Prozesse) vergleichen. Hier stellt sich das Problem, wie die Messdaten-Zeitreihen zu hoch- aussagefähigen und zwischen Prozessen oder Prozesszuständen vergleichbaren Kennwerten verdichtet werden können.
b) In der Anmeldung wird im Folgenden zwischen den Daten, die während eines Prozesses erhoben werden (Prozessdaten) , und den Daten, die vor, zwischen und nach den Prozessen an Prozesseingangsmaterialien, Zwischenprodukten bzw. Prozessendprodukten erhoben werden (Qualitätsdaten) , unterschieden. Zur Optimierung eines Produktionsprozesses ist es in vielen Fällen nicht ausreichend, nur die Prozessdaten oder nur die Qualitätsdaten zu analysieren. Vielmehr ist die Korrelation der Prozessdaten zu den Daten, die vor dem Prozess vorliegen, bzw. den Daten, die am Prozessprodukt gemessen werden können, notwendig. Eine vollständige Analyse eines Produktionsschrittes ist folglich erst nach vollständigem Abschluss möglich. Hier stellt sich die Problematik, wie die unterschiedlichen Datenarten, die auch zu unterschiedlichen Produktionszeitpunkten erhoben werden, so abgelegt werden, dass die korrekten Datenbeziehungen erhalten bleiben und Datenkorrelationen auch zwischen unterschiedlichen Produktionsschritten gefunden werden können.
c) Die Vielzahl der unterschiedlichen Prozess- und Qualitätsdaten erschwert das Auffinden von Optimierungspotenzialen. Direkte, triviale Analysemethoden führen daher nur selten zu brauchbaren Ergebnissen. Zudem birgt die Analyse von historischen Daten immer die Gefahr, nicht vergleichbare Daten mit in eine Analyse einzubeziehen, wodurch die Aussagen dieser Analyse verzerrt werden. Hieraus ergibt sich die Problematik, dass komplexe Datenanalysetechniken möglichst sicher und effizient eingesetzt werden müssen.
Aufgabe der Erfindung:
Der Erfindung liegt daher die Aufgabe zugrunde, ein Verfahren zur Verdichtung, zusammenführenden Speicherung und Analyse von Prozess- und Qualitätsdaten eines Produktionsprozesses z.B. der Kristallzucht und der Glasschmelzwannen zu finden, das die genannten Probleme löst und Optimierungspotenziale des Produktionsprozesses aufzeigt.
Übersicht über die Lösung der Aufgabe:
Diese Aufgabe wird durch die Erfindung mit den Merkmalen der unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungen der Erfindung sind in den Unteransprüchen gekennzeichnet.
Erfindungsgemäß wird diese Aufgabe gelöst, indem Messdatenreihen in Prozesskennwerte verdichtet werden. Diese
Kennwerte erfüllen die Anforderung, entscheidende Prozessinformationen und zudem hohe Vergleichbarkeit zu anderen Prozessen oder Prozesszuständen zu enthalten. Die so bestimmten Prozesskennwerte werden in Relation zu anderen Produktions-, Prozess- und Qualitätsdaten abgespeichert. Auf diesen Informationen wird dann eine Datenanalyse mit Datamining, multivariaten Methoden oder anderen Verfahren durchgeführt, um Datenabhängigkeiten zu finden. Auf der Basis dieser Abhängigkeiten können dann wieder Überlegungen hinsichtlich neuer Prozessparameter getroffen werden, die dann z.B. in Form eines Regelkreises wieder in den Produktionsprozess einfließen. Um die dabei auftretenden z. T. extrem hohen Verknüpfungsberechnungen zu bewältigen, werden diese Operationen nach dem heutigen Stand der Technik meist mit OLAP-Datenstrukturen (OLAP: online analytical processing) durchgeführt. Andere Verfahren sind jedoch möglich.
Prozesskennwerte werden durch speziell konzipierte Berechnungs-Algorithmen über mehrere Verdichtungsstufen erzeugt. Die einzelnen Berechnungsschritte können unterteilt werden in einfache Vorverarbeitungsschritte (Filterung, Glättung, Fehlstellenbereinigung) , in elementare Verdichtungsstufen (Mittelwertbildung, Basisstatistiken über einem der Auswertung zugrunde gelegten Zeitraster) oder komplexere, teilweise den physikalischen Prozess abbildende Ausdrücke (extrahierte Kurvenelemente der Prozesszeitreihen, Steigungen, Störungen, mehrdimensionale Datencluster oder auch einfach nur Rezeptnummern, welche einem an anderer Stelle hinterlegten, zum Teil komplizierten Ablauf entsprechen können) . Es werden also nicht nur Informationen verdichtet und in die Auswertelogik eingebaut, sondern z. T. nur ein Hinweis auf eine Information oder ein Klassifikationsergebnis abgeleitet und weiterverarbeitet.
Sowohl die Prozesskennwerte als auch sämtliche Qualitätsdaten werden in einem globalen Datenspeicher (Datawarehouse) zusammengefasst. Hierbei dürfen die Beziehungen, die zwischen den Daten bestehen, nicht verloren gehen, damit eine nachfolgende, leistungsfähige und Datenarten übergreifende Datenanalyse durchgeführt werden kann, (siehe Figur 2)
Auf dem so bestimmten, globalen Datenbestand im digitalen Datenspeicher (Datawarehouse) werden Analysen z.B. mittels multidimensionaler Methoden (OLAP basierend) durchgeführt. In der Kristallzucht kommt z.B. eine DSS-Software (Decision Support Software) zum Einsatz, welche nach heutigem Stand der Technik meist auf OLAP basierenden Datenbanken operiert, die sowohl benutzergetriebene Standardmethoden als auch datengetriebene Analysemethoden (Datamining-Routinen) beherrscht. Hierbei werden Korrelationen zwischen unterschiedlichen Merkmalen (z.B. Anlagendaten und Produktmerkmalen) gefunden und in Änderungsmöglichkeiten der Anlagen- und Prozesssteuerung übersetzt.
Ein möglicher Einsatz des Verfahrens ist bei Produktionsprozessen der Kristallzucht (z.B. CaF2 oder die Verwendung bei der Herstellung von polykristallinem Silicium für die Photovoltaik) und an Glasschmelzwannen gegeben.
In kurzen zeitlichen Abständen erhobene Prozessdaten
(Rohdaten) entziehen sich der leistungsfähigen Datenanalyse durch z.B. Datamining mittels OLAP und müssen folglich vorher in analysierbare, d.h. hochgradig vergleichbare Kennwerte übersetzt werden. Hierbei stehen die Prozessrohdaten vorher meist in sehr einfach strukturierter Form (Spalten:
Messzeitpunkt, Messstelle, Messwert) zur Verfügung (siehe
Figur 3) .
Zur sinnvollen Kennwertgenerierung werden logisch zusammenhängende Zeitintervalle durch Datenfilterung separiert. Bei Batchprozessen werden in einer möglichen
Ausführungsform die vollständigen Batchzeiträume in die Analyse einbezogen. Bei kontinuierlichen Prozessen werden Kennwerte in regelmäßigen oder unregelmäßigen Zeitintervallen erhoben. Anlagenprozesse setzen sich meist aus unterschiedlichen Prozessphasen zusammen, die durch die Anlagenprogrammierung und Steuerung definiert werden bzw. durch Ereignisse innerhalb der Prozessdaten selbst entstehen und durch die jeweiligen Prozessnotwendigkeiten bestimmt sind. Die Kennwerte eines Prozesses lassen sich auf einzelne Prozessphasen bzw. mehrere zusammenhängende Phasen beziehen. Derart erhobene Prozesskennwerte sichern eine hohe Vergleichbarkeit zu gleichen Kennwerten eines anderen Prozesses, auch wenn die Anzahl der Prozessphasen bzw. der Verlauf der Phasen nicht identisch ist.
Zwischen Batch- und kontinuierlichen Prozessen liegt ein Unterschied in der Verdichtung zur Segmentierung der Prozesse.
Hierbei kommt bei Batchprozessen eine zeitliche Segmentierung nach logisch zusammenhängenden Prozesszeitbereichen zur
Anwendung, während kontinuierliche Prozesse, da ohne zeitliche
Begrenzung, durch Clusterung der entscheidenden Messstellen- Zeitreihen zerlegt und klassifiziert werden.
Kurze Beschreibung der Zeichnungen:
Im Folgenden wird die Erfindung anhand von Ausführungsbeispielen näher erläutert, die in den Figuren schematisch dargestellt sind. Gleiche Bezugsziffern in den einzelnen Figuren bezeichnen dabei gleiche Elemente. Im Einzelnen zeigen:
Fig. 1 eine schematische Darstellung eines möglichen Aufbaus eines Daten-Regelkreises bei technischen Produktionsprozessen unter Verwendung eines
Datawarehouses; Fig. 2 ein schematisches Beispiel eines Datawarehouse- Konzepts zur globalen Erfassung von heterogenen Datenquellen zur Prozessdatenanalyse;
Fig. 3 eine schematische Darstellung einer einfachen Prozessdatenverdichtung;
Fig. 4 eine mehrstufige Prozessdatenverdichtung von Prozesskennwerten;
Fig. 5 die Auflistung von drei Merkmalsdimensionen, davon zwei Energieclusterungen (Spalten BR_PRZ_KL / Zeilen BR_ABS_KL) sowie eine Temperaturprofilanalyse
(weitere Unterteilung mittels Spalte SW_BOD_KL) in einer sog. Pivottabelle;
Fig. 6 ein Prinzip der Automatisierung von Verteilungsvergleichen; die z.B. 10% kleinsten Werte einer Zielgröße werden in den Häufigkeitsverteilungen aller Einflussgrößen markiert (im Bild sind fünf Beispiele) ; je größer die Verteilungsunterschiede, desto auffälliger ist die Einflussgröße, so sind z.B. Einflüsse 2, 3 und 5 sehr auffällig, Einflüsse 1 und 4 eher unauffällig.
Die Figur 1 zeigt einen möglichen Aufbau eines Daten- Regelkreises bei technischen Produktionsprozessen unter Verwendung eines Datawarehouses . Hierbei werden im globalen Datenspeicher die Qualitätsdaten der Eingangsmaterialien, die Prozessdaten, die verdichtet wurden zu Prozesskennwerten, und die Qualitätsdaten der Endprodukte in Relation zueinander abgespeichert. Es ist auch denkbar, dass weitere Daten mit auf dem globalen Datenspeicher abgespeichert werden, wie in Fig. 2 deutlich wird. Auf die so abgespeicherten Daten werden Datenanalysen wie Datamining oder multivariate Methoden angewandt. Die Einzelheiten zu diesen Verfahren können den Literaturangaben entnommen werden, die im Anhang zu finden sind. Diese Verfahren haben gemeinsam, dass sowohl Abhängigkeiten der Informationen gefunden werden als auch zukünftige Verhaltensweisen bestimmt werden können und somit auch Trends erkennbar sind. Die so gewonnenen Informationsrückflüsse können wiederum verwendet werden, um in die technischen Produkte bzw. den Prozess einzufließen. Figuren 1 und 2 zeigen schematische Abbildungen eines möglichen Datenflusses. Hierbei werden neben unterschiedlichen Datenquellen z.B. auch heterogene Datenarten (Messdaten, Prozessdaten, betriebswirtschaftliche und logistische Daten) in einem globalen Datenspeicher, dem Datawarehouse, vereint. Diese Art der Datenhaltung ist Voraussetzung für die nachfolgenden, leistungsfähigen Datenanalysen, die aufgrund ihrer Komplexität mittels moderner Methoden durchgeführt werden. Zur Datenanalyse können die Daten des Datawarehouses z.B. in multidimensionale Datenstrukturen (z. B. aus heutiger Sicht sog. OLAP-Cubes) transformiert und über einen Server (z.B. OLAP-Server) bereitgestellt werden. Die Figuren 3 und 4 zeigen mögliche Kennwertgenerierungen. In Prozessdatenspeichern befinden sich alle Messstellen des gesamten Anlagenbestands, und dies in einem zeitlich nicht begrenzten Umfang. Zur Filterung eines Datenbereichs für die Kennwertanalyse werden diese in Segmente zerlegt. Die Figur 3 zeigt hierbei beispielhaft die Prozesswerte in einem Grafen, um zu verdeutlichen, wie einfache Verdichtungen aussehen können. Hierbei werden Segmente oder Untersegmente gebildet, in denen Steigungen, Veränderungen von Steigungen, Kurven, aufgetretene Störungen, Messstellen-Streuungen, Maxima, Minima und weitere auch komplexere Rechenausdrücke, wie mehrdimensionale Klassifikationen oder auch nur Verweise auf bestimmte Rezepturen in einer Anlage gebildet werden. Details zur mehrdimensionalen Klassifikation werden im folgenden auf den nächsten Seite erklärt. Bei kontinuierlichen Prozessen dienen wichtige Merkmale dazu, durch Clusterprozesse zur Teilung des Prozesses in wenige aber in den Merkmalen maximal unterschiedliche (d.h. mit hohem Merkmalsabstand auftretende) Prozessabschnitte verwendet zu werden. Ziel der Kennwerte ist es immer, dass die Summe aller Kennwerte eines Prozesses diesen in zur Analyse ausreichender und zu anderen Prozessen vergleichbarer Form beschreibt.
Die Bestimmung der Kennwerte erfolgt innerhalb der Segmente nach definierten Regeln. Jeder Kennwert wird nach einer exakt definierten Regel festgelegt. Einfaches Beispiel für eine solche Regel ist die Ermittlung eines Kennwerts, der einen Temperaturanstieg zwischen zwei definierten Prozessphasen bestimmt. In einem ersten Verdichtungsschritt werden die Prozessphasen innerhalb des Prozesses ermittelt und ein Prozesssegment markiert. Innerhalb dieses Prozesssegments werden nun verschiedene Kennwerte berechnet, z.B. der gesuchte Anstieg der Temperaturmessstelle. Diese werden in einem relationalen Datenspeicher abgelegt. In Abhängigkeit der Prozesstypen können sich diese Kennwerte und deren Bestimmung jedoch unterscheiden. So unterscheidet sich die Vorgehensweise beim Batchprozess der Kristallzucht von einem kontinuierlichen Prozess einer Glassschmelze. Batchprozess (z.B. Kristallzuchtprozess) : Als einer der ersten Schritte der Kennwertgenerierung erfolgt eine Segmentierung des zu analysierenden Zeitabschnitts in logisch abgetrennte Prozessphasenbereiche. Hierbei werden Segmentgrenzen nach exakt vordefinierten Regeln aus den Messdaten-Zeitreihen gefunden. Hier kann die Prozesssegmentierung statisch durch vorprogrammierte Phasen innerhalb der Prozessrezeptur bedingt sein oder durch definierte Zustände innerhalb der Prozessdaten dynamisch gefunden werden. Im Allgemeinen werden Segmentgrenzen an Kurvenpunkten gefunden, die den Anfang bzw. das Ende eines logisch zusammenhängenden Prozessabschnitts bedeuten, z.B. das Ende einer Aufheizphase (statisch, da schon in den Prozessrezepten definiert) oder das Erreichen einer definierten Wachstumshöhe im Kristallzuchtprozess (dynamisch, da Zustand erst während des Prozesses entsteht) . Hierbei gelten die gefundenen Segmente und Segmentgrenzen als quasi normierte Zeitbasis für die Auswertung der Zeitreihen aller Messstellen. Bei kontinuierlichen Prozessen (z.B. Glasschmelze) gibt es a priori keine scharf abgegrenzten zeitlichen Abschnitte wie beim Batch-Prozess . Zustände reihen sich quasi endlos aneinander, Anfang und Ende können Jahre auseinander liegen und haben prozesstechnisch kaum mehr miteinander zu tun. Würden nun die einzelnen Parameter des Prozesses unabhängig voneinander als Ergebnis mehrdimensionaler Analysen berechnet, so würde dies zu einem Gesamtbild führen, welches weder prozesstechnisch sinnvoll noch physikalisch überhaupt realisierbar wäre. Die Lösung besteht darin, über eine mehrdimensionale Klassenbildung typische Prozesszustände mit einem dazugehörigen „Unscharfekorridor" vorab zu ermitteln (sog. Merkmalscluster) . Der zu einem Datencluster gehörende Zeitbereich wird von nun an wie ein Prozesssegment behandelt. Diese Methode trennt den Prozess in Abschnitte unterschiedlicher Prozessfahrweisen und Strategien, welche durch typische Datencluster identifiziert und voneinander abgegrenzt werden. Ein solcher Datencluster könnte etwa einem für eine bestimmte Fahrweise typischen Temperaturprofil einer Glaswanne entsprechen. Werden nun auch andere Datenbereiche, wie etwa Energie geclustert, so erhält man eine mehrdimensionale Überlagerung / Überlappung verschiedener Zeitintervalle, für die der gefundene Temperatur- bzw. Energiecluster am besten zutrifft, messbar gemacht über ein mehrdimensionales Abstandsmaß.
Die Figur 5 zeigt die Auflistung von drei Merkmalsdimensionen, davon zwei Energieclusterungen (Spalten BR_PRZ_KL / Zeilen BR ABS KL) sowie eine Temperaturprofilanalyse (weitere Unterteilung mittels Spalte SW_BOD_KL) in einer sog. Pivottabelle.
Das Zusammenspiel des Miteinander- und Nacheinanderauftretens der hier aufgeführten Klassen (bezeichnet nach Nummern 1, 2, 3 usw.) sowie deren Verknüpfung mit den restlichen Prozessdaten lässt sich selbst in dieser überschaubaren Tabelle kaum mehr ohne Datamining-Verfahren beherrschen, geschweige denn auf der Ebene unklassifizierter Rohdaten, d. h. ohne die Anwendung einer evtl. Verdichtung.
Damit ergeben sich zwischen der kennzahlorientierten Analyse von Batch- und Kontiprozessen folgende Unterschiede und Parallelen:
Figure imgf000012_0001
Zur Kennwertgenerierung werden die Kurvenverläufe der Messtellen-Zeitreihen auf Merkmale analysiert, die im Vorfeld exakt definiert wurden. Hierbei findet eine mehrstufige Verdichtung statt (siehe Figur 4) . In der ersten Verdichtungsstufe werden direkt verfügbare Kennwerte wie Messdaten, Mittelwerte, Varianzen usw. berechnet. In einer nächsten Verdichtungsstufe werden übergeordnete Prozessstrukturierungen vorgenommen. Hierbei handelt es sich um Segmentierungsschritte, die logisch zusammenhängende Prozesszustände gegeneinander abgrenzen und um Datenclusterungen, die mittels Datamining-Routinen unterschiedliche Messstellen-Zeitreihen in Cluster unterteilen, die untereinander maximale Unterscheidbarkeit aufweisen. Nachfolgende Stufen bauen dann auf den Ergebnissen der unteren Stufen auf und errechnen weitere, abgeleitete Kennwerte. Als Beispiel können bestimmte Kurvenanomalien wie Überschwinger oder Peakhöhen in bestimmten Prozesssegmenten gefunden und analysiert werden. Im letzten Verdichtungsschritt werden Klassifikationen über Kennwerte gebildet, so dass ähnlichen Kennwerten identische Klassen zugeordnet werden. Die berechneten Kennwerte eines Prozesses bzw. eines Prozesszustands werden über eine Schnittstelle dem Datawarehouse übergeben und über eindeutige Prozessidentifier an Qualitätsdaten gekoppelt. Mitentscheidend für die Leistungsfähigkeit des Gesamtkonzepts ist die Qualität der Datengrundlage, auf die die Datenanalyse aufsetzt. Hier sind folgende Punkte zu nennen:
- Vollständigkeit der Erfassung aller Daten, die zur Optimierungspotential-Analyse notwendig sind bzw. Einfluss auf Prozess- oder Produktqualität haben können.
- Abbildung der exakten Beziehungen zwischen allen Daten, auch wenn diese Daten aus unterschiedlichen Datenquellen entstammen.
Ein Beispiel der Anwendung des erfindungsgemäßen Verfahrens ist das Vorgehen zur Reduzierung von Realstrukturdefekten die während der Einkristallherstellung, beispielsweise der CaF2- Einkristallherstellung oder Herstellung von Einkristallen anderer Fluoride oder anderer beispielsweise kubischer Kristalle, wie Granate, typischerweise entstehen. Solche Einkristalle besitzen eine von der idealen Kristallstruktur abweichende sog. Realstruktur. Als abweichende Defektausprägungen können beispielsweise Blockgrenzen, Kleinwinkelkorngrenzen, Gleitbänder oder Streuzentren innerhalb der Kristalle auftreten. Das Vorkommen dieser Defekte hängt zum Teil von vielen, eventuell voneinander abhängigen Einflussfaktoren ab. Zur Optimierung müssen sowohl Prozesskennwerte als auch Qualitätsparameter von Eingangs- und Ausgangsprodukten in eine gemeinsame Analyse einbezogen werden. Wichtige Prozesskennwerte sind hierbei Informationen, die die entscheidenden Prozessschritte kennzeichnen. Dieses sind als Beispiel Informationen über Leistungs- und Temperaturverläufe und Temperaturgradienten innerhalb des Zuchtprozesses, die Einfluss auf die Realstruktur und die Defektausprägungen des Kristalls haben können. Als Qualitätsparameter der Eingangsprodukte sind z.B. Rohstoffanalysedaten und Vorprozessparameter von entscheidender Bedeutung. Durch Zusammenführung sämtlicher möglicher Einflussparameter, Klassifikationsparameter und Zielgrößen innerhalb einer Datenquelle werden nach z.B. multidimensionaler Datenaufbereitung (OLAP-Cubes) komplexe, zielführende Analysemethoden angewandt. Da einzelne Prozesse in der Kristallzucht zu zum Teil zufällig geprägten Defektstrukturen führen können (Unscharfe der Zielgrößen) , ist es zur Erhöhung der Schärfe der Ergebnisaussagen wichtig, dass wir eine möglichst große Datenbasis d.h. große Anzahl von Einzelprozessen in die Analysen einbeziehen.
Die folgenden Analysen können auf sehr unterschiedlichen Methoden beruhen, die z.B. in die Klassen der Datamining- Routinen oder der multivariaten Analysemethoden fallen. Im beschriebenen Beispiel wird eine Rangfolgeroutine angewandt, die sämtliche Einflussgrößen in definierbarer Tiefe miteinander kombiniert und für alle möglichen Kombinationen den Zielparameter bestimmt. Hiermit können wir die Einflussparameterkombinationen bestimmen, die zu den besten oder schlechtesten Zielparameterwerten (Stärke von Defektausprägungen) führen. Im beschriebenen Beispiel wird eine weitere Datamining-Methode angewandt, die Vergleiche zwischen Verteilungen der Ziel- und der Einflussparameter automatisiert und nach gefundenen Verteilungsunterschieden sortiert (siehe Figur 6) . Bei dieser Methode können alle möglichen Einflussgrößen untersucht und nach Auffälligkeit sortiert werden. Als Ergebnis könnten z.B. die zehn auffälligsten Einflussgrößen auf eine bestimmte Kristalldefektausprägung ermittelt und mit anderen Methoden vertiefend untersucht werden. Die Figur 6 zeigt ein Prinzip der Automatisierung von Verteilungsvergleichen. Die z.B. 10% kleinsten Werte einer Zielgröße werden in den Häufigkeitsverteilungen aller Einflussgrößen markiert (im Bild sind fünf Beispiele gezeigt) . Je größer der Verteilungsunterschied, desto auffälliger ist die Einflussgröße, z.B. Einflüsse 2, 3 und 5 sind sehr auffällig, Einflüsse 1 und 4 dagegen eher unauffällig.
Im beschriebenen Beispiel ebenfalls zielführend ist die Anwendung der multiplen Regressionsanalyse (multivariate Analysemethode, siehe Literaturangabe) , die ebenfalls erlaubt, den Einfluss von mehreren Parametern auf eine Zielgröße zu untersuchen. In automatisierter Form werden diese Analysen auf sämtliche mögliche Kombinationen von allen möglichen Einflussparametern angewandt und bewertet. Hiermit lassen sich die wichtigsten Einflussparameter und besten Modelle der Zielgröße finden.
Die genannten Parameter und die erwähnten Analysemethoden stellen hierbei nur Beispiele dar. So kann auch die Datenanalyse einen mehrstufigen Prozess darstellen, da die Ergebnisse einer Analysemethode als Einstiegsobjekte weiterführender Analysemethoden dienen können.
Es sei hier erwähnt, dass Analysemethoden auf multidimensionalen Strukturen eine sehr einfache Einbeziehung von Klassifikationen erlauben. Im beschriebenen Beispiel können Prozessklassen durch Merkmalsclusterung von Prozesskennwerten gebildet werden. Dieses erlaubt dann die Erweiterung allgemein durchgeführter Analysen auf die gefundenen Prozessklassen. Hiermit können dann Aussagen zu Abhängigkeiten der Analyseergebnisse von den einzelnen Prozessklassen gefunden werden.
Die Ergebnisse der genannten Beispielanalysen werden genutzt, um die Prozesssteuerungen zur Verbesserung der Kristalldefekte optimierend zu verändern. Es wird darauf hingewiesen, dass die Ausführungsbeispiele keine Beschränkung des Schutzumfanges darstellen, sondern lediglich einige unter vielen Möglichkeiten darstellen.
Liste der zitierten Literatur:
■ Multivariate Analysemethoden
K. Backhaus, B. Erichson, W. Plinke, R. Weiber Springer-Verlag, 10. Auflage Berlin u.a. 2003
Datamining: Concepts and Techniques by Jiawei Han, Micheline Kamber Academic Press, USA, 2001

Claims

Patentansprüche
1. Verfahren zur Optimierung von technischen
Produktionsprozessen umfassend folgende Schritte: - Verdichtung von Prozessdaten des technischen
Produktionsprozesses zu Prozesskennwerten,
- Ablage der Kennwerte in Relation zu weiteren Daten in einem Datenspeicher zu Gesamtdaten,
- Bestimmung von Abhängigkeiten der Gesamtdaten im Datenspeicher durch Analyseverfahren,
- Bereitstellen von geänderten
Prozesssteuerungsdaten auf der Basis der bestimmten Abhängigkeiten.
2. Verfahren nach dem vorhergehenden Anspruch, wobei durch einen Regelkreis geänderte Prozesssteuerungsparameter bestimmt und in den technischen Prozess zurückgeführt werden.
3. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei die technischen Produktionsprozesse die Herstellprozesse der Kristallzucht oder die technischen Prozesse zur Glasherstellung mittels Glasschmelzwannen sind.
4. Verfahren nach dem vorhergehenden Anspruch, wobei die Kristallzucht eine CaF2-Kirstallzucht ist.
5. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei durch Verdichtung von Prozessrohdaten, Prozesskennwerte bestimmt werden, die einen hohen Informationsgehalt über den Prozess oder einen Prozesszustand enthalten und gleichzeitig eine hohe Vergleichbarkeit zu anderen Prozessen oder Prozesszuständen besitzen.
6. Verfahren nach dem vorhergehenden Anspruch, wobei zur Analyse der Prozesskennwerte einer oder mehrere der folgenden Prozesskennwerte bestimmt werden: einzelne Messwerte, Maxima, Minima, Durchschnitte, Steigungen, Streuungsmaße, Störungsklassifikationen,
Peakhöhen, Summen, Ableitungen, Ableitungen höherer Ordnung, Integrale, Vergleiche von mehreren Kurven und Kurvenabschnitten, Differenzen von mehreren Kurven, Quotienten von mehreren Kurven, Klassifikationen sowie Kombinationen aus den genannten Kennwerten und weitere nach beliebigen Formeln definierte Kennwerte.
7. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei die Prozesskennwerte in einem mehrstufigen Verdichtungsprozess erstellt werden.
8. Verfahren nach dem vorhergehenden Anspruch, wobei in einer ersten Verdichtungsstufe direkt ableitbare
Kennwerte bestimmt werden, wobei darunter liegende Stufen jeweils die abgeleiteten Kennwerte der vorhergehenden Stufen verwenden.
9. Verfahren nach dem vorhergehenden Anspruch, wobei die Verdichtungsstufen aus einem oder mehreren der folgenden Schritte bestehen: Segmentierungen, Clusterungen, Fehlerkorrekturen, Glättungen, Klassifikationen und Bewertung von Kennwerten, Vorberechnung von Kennwerten zur stufenweisen Verdichtung nach beliebigen Formeln, Filterungen, Berechnungen zwischen mehreren Kurven.
10. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei bei Batchprozessen eine Verdichtung durch einen Segmentierungsvorgang erfolgt, in dem die zu analysierenden Messdaten- Zeitreihen in logische abgetrennte Segmente oder Untersegmente zerlegt werden.
11. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei bei kontinuierlichen Prozessen zur Verdichtung eine vorgeschaltete Clusteranalyse paralleler, unterschiedlicher Prozessfahrweisen ermittelt, welches die Aufteilung eines kontinuierlichen Prozesses in Teilsegmente (Prozesszustände) nach sich zieht, bei denen Abschnitte gleicher Fahrweise bestimmt werden.
12. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei
Prozesssegmente entweder statisch durch Phasen im Prozessrezept vorgegeben sind oder dynamisch durch exakt definierte Merkmale oder prozessimmanente Zustände in den Messstellendaten gefunden werden.
13. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei das Verfahren sowohl auf Batch- als auch auf kontinuierliche Prozesse anwendbar ist.
14. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei eine oder mehrere digitale Informationen aus der Menge der Qualitäts-, und Prozessdaten in einer gemeinsamen Datenquelle abgelegt werden, wobei die Beziehungen zwischen diesen Daten mit abgebildet werden.
15. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei die abgelegten Daten in multidimensionale Datenstrukturen transformiert werden.
16. Verfahren nach dem vorhergehenden Anspruch, wobei
Analysemethoden auf zum Teil multidimensional aufbereitete Datenstrukturen angewandt werden, die Prozesskennwerte, Qualitätsdaten und andere Daten zusammenfassen.
17. Verfahren nach einem oder mehreren der vorhergehenden Ansprüche, wobei das gleichzeitige und teilweise überlappende Auftreten unterschiedlicher Prozesssegmente mit mehrdimensionaler Auswertetechnik zueinander in
Beziehung gesetzt und bewertet wird.
18. Vorrichtung mit einem Datenspeicher und einer Bearbeitungseinheit, die so ausgebildet und ausgestattet ist, dass ein Verfahren nach einem oder mehreren der vorhergehenden Ansprüche durchführbar ist.
19. Verwendung von Datamining-Routinen, multivariaten Analysemethoden oder OLAP-Systemen zur
Prozessoptimierung von technischen Prozessen, dadurch gekennzeichnet, dass die Prozessdaten zu Prozesskennwerten verdichtet werden, diese im Zusammenhang mit weiteren Daten gespeichert werden, um dann komplexe Analysemethoden durchführen zu können.
20. Verwendung nach dem vorhergehenden Anspruch, wobei bei der Verwendung von OLAP-Systemen eine multidimensionale Datenaufbereitung in Datenwürfel erfolgt.
PCT/EP2005/055891 2004-11-12 2005-11-10 Vorrichtung und verfahren zur optimierung von technischen produktionsprozessen durch verdichtung, zusammenführung und analyse von prozess-/qualitätsdaten WO2006051096A2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102004054902A DE102004054902A1 (de) 2004-11-12 2004-11-12 Vorrichtung und Verfahren zur Optimierung von technischen Produktionsprozessen durch Verdichtung, Zusammenführung und Analyse von Prozess-/Qualitätsdaten
DE102004054902.8 2004-11-12

Publications (2)

Publication Number Publication Date
WO2006051096A2 true WO2006051096A2 (de) 2006-05-18
WO2006051096A3 WO2006051096A3 (de) 2007-02-08

Family

ID=35766342

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2005/055891 WO2006051096A2 (de) 2004-11-12 2005-11-10 Vorrichtung und verfahren zur optimierung von technischen produktionsprozessen durch verdichtung, zusammenführung und analyse von prozess-/qualitätsdaten

Country Status (2)

Country Link
DE (1) DE102004054902A1 (de)
WO (1) WO2006051096A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111966061A (zh) * 2020-07-23 2020-11-20 珠海格力电器股份有限公司 产品工艺参数的优化方法、装置、电子设备和存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102017104884B4 (de) 2017-03-08 2019-02-14 Mts Consulting & Engineering Gmbh System und Verfahren zum Bestimmen von Fehlerbildern aus Sensordaten in Produktvalidierungs- und Fertigungsprozessen

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030065462A1 (en) * 2001-08-13 2003-04-03 Potyrailo Radislav Alexandrovich Multivariate statistical process analysis systems and methods for the production of melt polycarbonate

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4888953A (en) * 1987-11-13 1989-12-26 Babcock-Hitachi Kabushiki Kaisha Apparatus for controlling boiler/turbine plant
AT404074B (de) * 1994-11-10 1998-08-25 Kuerzl Hans Dr Verfahren und vorrichtung zur feststellung von erzeugnisspezifischen werten für aufwendungen, abfälle und emissionen bei gleichzeitiger herstellung unterschiedlicher erzeugnisse
DE10304706A1 (de) * 2002-07-24 2004-02-05 Kuka Roboter Gmbh Verfahren und Vorrichtung zum Steuern einer Anlage

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030065462A1 (en) * 2001-08-13 2003-04-03 Potyrailo Radislav Alexandrovich Multivariate statistical process analysis systems and methods for the production of melt polycarbonate

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111966061A (zh) * 2020-07-23 2020-11-20 珠海格力电器股份有限公司 产品工艺参数的优化方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
WO2006051096A3 (de) 2007-02-08
DE102004054902A1 (de) 2006-05-24

Similar Documents

Publication Publication Date Title
DE112019004260T5 (de) Analyse und korrektur der lieferketten-gestaltung durch maschinelles lernen
DE112017006552T5 (de) Bearbeitungsprozesserzeugungsvorrichtung, bearbeitungsprozesserzeugungsverfahren und programm
DE112016005697T5 (de) Vorrichtung, Verfahren und Programm zur Planerzeugung
DE60303413T2 (de) Verfahren und computersystem zum reduzieren von ausführungszeiten bei der materialbedarfsplanung
EP1623287A1 (de) Auslegung von werkzeugen und prozessen f r die umformtechnik
DE112018002626T5 (de) Verfahren und Systeme zur optimierten visuellen Zusammenfassung von Sequenzen mit zeitbezogenen Ereignisdaten
EP3809304A1 (de) Computerimplementiertes verfahren zur ermittlung eines parametrischen ersatzmodells eines brillenfassungselements sowie vorrichtung und systeme, die ein solches verfahren benutzen
EP2433185B1 (de) Vorrichtung und verfahren zum bearbeiten einer prozesssimulationsdatenbasis eines prozesses
DE102005012665A1 (de) Verfahren und Vorrichtung zum Ermitteln von Clustern aus einer Mehrzahl von in Aufträgen geordneten Daten
WO2006051096A2 (de) Vorrichtung und verfahren zur optimierung von technischen produktionsprozessen durch verdichtung, zusammenführung und analyse von prozess-/qualitätsdaten
WO2021190919A1 (de) Computerimplementiertes verfahren für eine produktionsplanung und/oder -steuerung eines produktionssystems und produktionsplanung und/oder -steuerungssystem
EP1738306A1 (de) Computergestütztes system und verfahren zur automatisierten risikoparametererkennung und/oder -charakterisierung
WO2004040483A2 (de) Vorhersage des termintreuegrads in der serienfertigung
DE112017007171T5 (de) Informationstechnologienutzung-evaluierungsgerät und informationstechnologienutzung-evaluierungsverfahren
Chen Forecasting Daily Stock Market Return with Multiple Linear Regression
DE10011607A1 (de) Verfahren und Vorrichtung sowie Computerprogrammprodukt zum Betrieb einer technischen Anlage
DE102008058016A1 (de) System und Verfahren zur rechnerbasierten Analyse großer Datenmengen
EP0846306B1 (de) Verfahren zur berechnung und/oder analyse und/oder erkennung eines komplexen systems
EP4160462A1 (de) Layoutoptimierung für fabriken
DE102022207482B4 (de) Computerimplementiertes Verfahren zum Bestimmen eines Datenqualitätsindex, Computerprogramm und Steuereinheit
DE202023104442U1 (de) Auf Software-Evolution basierendes Aspekt-Mining-System für Data Mining
EP1196828B1 (de) Verfahren und anordnung zur vorverarbeitung
WO2020221670A1 (de) Verfahren und computerprogramm zum auffinden von möglichen fehlern bei einem produktionsprozess
DE4336751C2 (de) Verfahren zur automatischen Detektion von festen oder beweglichen Objekten in natürlicher Umgebung einer Echtzeitbildfolge
DE102022130493A1 (de) Computerimplementiertes Verfahren, Vorrichtung und Computerprogramm zur Auswahl von Signalpfaden eines zu validierenden graphenbasierten Netzwerks

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A2

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KM KN KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A2

Designated state(s): GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
122 Ep: pct application non-entry in european phase

Ref document number: 05813380

Country of ref document: EP

Kind code of ref document: A2