DE69030859T2 - Verfahren und Gerät zur rechnergesteuerten nichtlinearen Optimierung - Google Patents

Verfahren und Gerät zur rechnergesteuerten nichtlinearen Optimierung

Info

Publication number
DE69030859T2
DE69030859T2 DE69030859T DE69030859T DE69030859T2 DE 69030859 T2 DE69030859 T2 DE 69030859T2 DE 69030859 T DE69030859 T DE 69030859T DE 69030859 T DE69030859 T DE 69030859T DE 69030859 T2 DE69030859 T2 DE 69030859T2
Authority
DE
Germany
Prior art keywords
rules
computer
memory
methods
optimization
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69030859T
Other languages
English (en)
Other versions
DE69030859D1 (de
Inventor
Yasuhiro Kobayashi
Hisanori Nonaka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Application granted granted Critical
Publication of DE69030859D1 publication Critical patent/DE69030859D1/de
Publication of DE69030859T2 publication Critical patent/DE69030859T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/06Multi-objective optimisation, e.g. Pareto optimisation using simulated annealing [SA], ant colony algorithms or genetic algorithms [GA]

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • General Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • Development Economics (AREA)
  • Quality & Reliability (AREA)
  • Tourism & Hospitality (AREA)
  • Marketing (AREA)
  • Game Theory and Decision Science (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Operations Research (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Feedback Control In General (AREA)

Description

  • Die Erfindung betrifft ein Verfahren zur rechnergesteuerten, nichtlinearen Optimierung, das insbesondere, jedoch nicht ausschließlich zur optimalen Steuerung von Fertigungs- und Betriebssystemen, wie durch mathematische Modelle oder Computer Aided Design beschrieben, konzipiert ist. Die Erfindung betrifft auch eine Vorrichtung zum Ausführen eines derartigen Verfahrens.
  • Optimierungstechniken beschäftigen sich mit dem Maximieren oder Minimieren einer Zielfunktion, die durch mindestens eine Variable definiert ist. Wenn die Beziehung nichtlinear ist, ist es nicht unkompliziert, eine optimale Lösung für ein derartiges Problem zu finden. Im Allgemeinen wird ein nichtlineares Optimierungsproblem durch die folgende Gleichung ausgedrückt:
  • Optimierung: f(x)
  • Voraussetzung: gi(x) ≥ 0 ( i MI)
  • hj(x) = 0 ( i ME)
  • wobei:
  • f(x) eine Zielfunktion bezeichnet;
  • gi(x) Ungleichheitsrandbedingungen repräsentiert;
  • hj(x) Gleichheitsrandbedingungen repräsentiert;
  • Mi, ME mit Zeichen versehene Sätze von Ungleichheits- und Gleichheitsrandbedingungen repräsentiert; und
  • x Koordinaten eines Punkts im n-dimensionalen Raum repräsentiert, der Variable zum nichtlinearen Optimierungsproblem repräsentiert.
  • Bei einem nichtlinearen Optimierungsproblem kann kein entscheidendes Lösungsverfahren erhalten werden, wie es z.B. dem Simplexverfahren oder dem Karmarkarverfahren (siehe US- A-4744028) entspricht. Wie es später detaillierter erörtert wird, existieren viele nichtlineare Optimierungsverfahren wie z.B. diejenigen, die im Buch "Nonlinear Programming" (Nikka Giren, 1978) und im Buch "Iterative Methods of Nonlinear Optimization Problems" von S.L.S. Jacoby, J.S. Kowalik und J.T. Pizzo, veröffentlicht durch Prentice Hall im Jahr 1972, veröffentlicht sind, wie:
  • (i) das Transformationsverfahren zum Optimieren von Funktionen mit Ziel- und Randbedingungsfunktionen;
  • (ii) das reduzierte Gradientenverfahren bei nichtlinearer Planung, erweitert auf nichtlineare Optimierung;
  • (iii) sequentielles quadratisches Programmieren zum Verbessern des Suchpunkts durch Wiederholen des quadratischen Programmierens.
  • Jede dieser Techniken soll im Wesentlichen die Zielfunktion auf den optimalen Punkt konvergieren, der schließlich nicht mehr weiter durch Aktualisieren des Suchpunkts zu einer Verbesserung der Zielfunktion ausgehend vom Startpunkt der Suche verbesserbar ist.
  • So sind zwar viele nichtlineare Optimierungsverfahren bekannt, jedoch hat keines allgemeine Anwendbarkeit auf alle Probleme, weswegen es für ein vorgegebenes Problem erforderlich ist, eine Reihe von Verfahren anzuwenden, bis eine zufriedenstellende Lösung erhalten ist.
  • Im Allgemeinen werden derartige Optimierungsverfahren durch Computertechniken angewandt und die Programme zum Ausführen dieser Verfahren enthalten Regeln oder Techniken (nachfolgend als "Wissen" bezeichnet), die die Anwendung dieser Verfahren steuern, um zu verhindern, dass die Verfahren inkorrekt ausgeführt werden (um z.B. wiederholte Schleifen oder ähnliche Effekte zu vermeiden). Jedoch wird derartiges Wissen in das Programm für jedes Verfahren eingeschrieben, so dass das Verfahren und das Wissen gemischt sind. So hat jedes Verfahren Wissen, das untrennbar mit ihm verknüpft ist, und so ist die Menge an Speicherraum groß, die dazu erforderlich ist, einen großen Bereich von Verfahren einzuspeichern.
  • In einem Artikel mit dem Titel "Knowledge-Based Multiobjective Nonlinear Optimisation Method for Large Scale Systems" von Shao-bu Wang et al, veröffentlicht in Proceedings of the International Conference on System, Man and Cybernetics, Vol 1/3, Oktober 1987, Seiten 427 bis 431, ist ein Verfahren der rechnergesteuerten, nichtlinearen Optimierung offenbart, bei dem Regeln zum Steuern des verwendeten Verfahrens zur nichtlinearen Optimierung in einem Speicher des Computers abgespeichert werden, der getrennt vom Speicher für das Verfahren zur nichtlinearen Optimierung ist. Gemäß dieser Offenbarung hat jedes nichtlineare Optimierungsverfahren seine eigenen Regeln.
  • Die Erfinder haben erkannt, dass einige Arten von Wissen allen nichtlinearen Optimierungsverfahren gemeinsam sind, während andere für ein besonderes Verfahren spezifisch sind. In der folgenden Erörterung werden diese zwei Arten von Wissen als gemeinsames Wissen bzw. Bereichswissen bezeichnet. Allgemeines Wissen ist solches Wissen, das versucht, ein Fehlschlagen des nichtlinearen Optimierungsverfahrens auf eine Weise zu verhindern, die vom Verfahren selbst nicht abhängig ist, während Bereichswissen Fehlschlagprobleme überwinden soll, die für das Verfahren spezifisch sind.
  • Obwohl Wissen zum Verhindern dieser beiden Arten von Fehlschlägen bekannt ist, haben vorhandene Techniken nicht versucht, gesonderte Wissensarten auf die oben erurterte Weise zu identifizieren. Statt dessen wurden Programme für nichtlineare Optimierungsverfahren allgemein auf empirische Weise unter Verwendung von Versuchen und Fehlschlägen zum Lösen der Probleme, d.h. zum Ermitteln, welches Wissen geeignet ist, betrachtet. Es wurde keine systematische Vorgehensweise ergriffen.
  • Daher versucht die Erfindung, die Erkenntnis der Erfinder zu nutzen, das Wissen von zwei Arten sein kann.
  • Gemäß einer ersten Erscheinungsform der Erfindung ist ein Verfahren zur computergesteuerten, nichtlinearen Optimierung mit den folgenden Schritten geschaffen:
  • a) Speichern einer Vielzahl nichtlinearer Optimierungsverfahren in einem ersten Speicher eines Computers;
  • b) Speichern in einem zweiten Speicher eines Computers, getrennt von den genannten Verfahren, eine Vielzahl von Regeln zum Steuern der Verfahren, wobei die Regeln allen Verfahren gemeinsam sind;
  • c) Eingeben eines Problems in den Computer, für das eine optimale Lösung gesucht wird;
  • d) Extrahieren eines ausgewählten Verfahrens aus dem ersten Speicher;
  • e) Extrahieren der Vielzahl von Regeln aus dem zweiten Speicher;
  • f) Anwenden der ausgewählten Verfahren auf das Problem mittels des Computers, um eine mögliche Lösung zu erhalten, wobei die Anwendung des ausgewählten Verfahrens im Computer mittels der in der Vielzahl von Regeln enthaltenen ausführbaren Regeln gesteuert wird; und
  • g) Wiederholen der Schritte (d) bis (f) im Computer für aufeinanderfolgende Verfahren, bis eine Optimale unter den möglichen Lösungen enthalten wird.
  • Gemäß einer zweiten Erscheinungsform der Erfindung ist eine Vorrichtung zur nichtlinearen Optimierung mit folgendem geschaffen:
  • a) einer Speichereinrichtung mit ersten und zweiten Speichern zum:
  • (i) Speichern einer Vielzahl nichtlinearer Optimierungsverfahren in dem ersten Speicher der Speichereinrichtung; und
  • (ii) Speichern in dem zweiten Speicher, getrennt von den genannten Verfahren, einer Vielzahl von Regeln zum Steuern der Verfahren, wobei die Regeln allen Verfahren gemeinsam sind;
  • b) einer Eingabeeinrichtung zum Eingeben eines Problems, für das eine optimale Lösung gesucht wird;
  • c) einem Prozessor zum wiederholten
  • (i) Extrahieren eines ausgewählten Verfahrens aus dem ersten Speicher;
  • (ii) Extrahieren der Vielzahl von Regeln aus dem zweiten Speicher; und
  • (iii) Anwenden der ausgewählten Verfahren auf das Problem, um eine mögliche Lösung zu erhalten, wobei die Anwendung des ausgewählten Verfahrens mittels der in der Vielzahl von Regeln enthaltenen ausführbaren Regeln gesteuert wird, wodurch eine optimale Lösung erhalten wird.
  • Es sei angenommen, dass ein Problem vorliegt, das nichtlineare Optimierung benötigt. Dann kann aus einem geeigneten Speicher ein erstes Verfahren zur nichtlinearen Optimierung extrahiert und auf das Problem in Verbindung mit dem allgemeinen Wissen angewandt werden. Wenn dieses Verfahren keine optimale Lösung erreicht, kann ein zweites Verfahren aus dem Speicher erhalten werden und, erneut in Verbindung mit dem allgemeinen Wissen, auf das Problem angewandt werden. Es ist erkennbar, dass dies die Menge an erforderlichem Speicher verringert, da das gemeinsame Wissen für alle Verfahren gemeinsam genutzt werden kann. Bei den bekannten Systemen, bei denen das gemeinsame Wissen und das Verfahren untrennbar verknüpft sind, wurde das allgemeine Wissen tatsächlich wiederholt gespeichert, oder so häufig, wie Verfahren vorlagen.
  • Vorzugsweise geht die Erfindung darüber hinaus und schlägt vor, dass auch das Bereichswissen von den abgespeicherten Verfahren zur nichtlinearen Optimierung getrennt wird. Dann muss, wenn ein Verfahren auf ein Problem angewandt wird, nur das Bereichswissen, das mit diesem speziellen Verfahren in Beziehung steht, aus dem Speicher extrahiert werden. Es sei darauf hingewiesen, dass das Bereichswissen für ein spezielles Verfahren eine Anzahl gesonderter Techniken umfassen kann, falls derartige Techniken für dieses Verfahren bekannt sind. Selbstverständlich ist es möglich, dass das Bereichswissen nur eine Technik pro vorgegebenem Verfahren umfasst, und es kann dabei möglich sein, dass für ein Verfahren kein Bereichswissen vorliegt, so dass nur das gemeinsame Wissen verwendet wird, wenn das Verfahren auf ein Problem angewandt wird.
  • Wie zuvor erläutert, betrifft die Erfindung auch eine Vorrichtung zum Ausführen eines Verfahrens zur nichtlinearen Optimierung. Demgemäß verfügt eine derartige Vorrichtung über gesonderte Speicher für die Verfahren zur nichtlinearen Optimierung, für das gemeinsame Wissen und für das Bereichswissen. Selbstverständlich können diese Speicher, körperlich ausgedrückt, einfach Speicherbereiche in einem gemeinsamen Speicher sein, jedoch besteht das wesentliche Merkmal darin, dass die Verfahren und das Wissen getrennt sind, so dass es möglich ist, nur das benötigte Wissen zu extrahieren.
  • Die Erfindung hat den Vorteil einer Verbesserung des Wirkungsgrads bei nichtlinearer Programmierung sowie einer Verbesserung des Funktionsvermögens von Optimierungprogrammen, zusätzlich dazu, dass sie es ermöglicht, den Arbeitsspeicher jedes Computersystems, bei dem die Erfindung verwendet wird, zu minimieren.
  • Nun werden Ausführungsformen der Erfindung beispielhaft im Einzelnen unter Bezugnahme auf die beigefügten Zeichnungen beschrieben.
  • Fig. 1 ist ein Flussdiagramm, das die Schritte eines erfindungsgemäßen Verfahrens zeigt;
  • Fig. 2 ist ein schematisches Blockdiagramm, das die Grundkomponenten eines Computersystems zeigt, das gemäß der Erfindung arbeiten kann;
  • Fig. 3 ist ein detaillierteres Blockdiagramm des Computersystems von Fig. 2;
  • Fig. 4 ist ein Flussdiagramm, das Schritte bei einem Optimierungsverfahren zeigt, das bei der Erfindung verwendet werden kann;
  • Fig. 5 zeigt Wissen betreffend das Verfahren von Fig. 4;
  • Fig. 6 veranschaulicht Daten betreffend einen Suchpunkt;
  • Fig. 7 ist ein Flussdiagramm, das Stadien eines bei der Erfindung verwendeten Optimierungsverfahrens zeigt;
  • Fig. 8 ist ein weiteres Flussdiagramm, das ein anderes Verfahren zur nichtlinearen Optimierung zeigt;
  • Fig. 9 ist eine Tabelle, die die Ergebnisse eines Optimierungsverfahrens zusammenfasst;
  • Fig. 10 ist ein Blockdiagramm eines anderen Ausführungsbeispiels eines die Erfindung enthaltenden Computersystems;
  • Fig. 11 ist noch ein anderes, die Erfindung enthaltendes Computersystem;
  • Fig. 12 ist ein Blockdiagramm eines die Erfindung enthaltenden Computersystems, das eine Kombination der Systeme der Fig. 10 und 11 ist;
  • Fig. 13 zeigt die Anwendung eines erfindungsgemäßen Systems bei der Steuerung einer Industrieanlage;
  • Fig. 14 zeigt eine Feder zum Erläutern eines Optimierungsproblems, bei dem die Erfindung angewandt werden kann; und
  • Fig. 15 und 16 veranschaulichen ein hydrostatisches Drucklager zum Erläutern eines anderen Optimierungsproblems, bei dem die Erfindung angewandt werden kann.
  • Detaillierte Beschreibung
  • Unter Bezugnahme zunächst auf Fig. 1 werden die allgemeinen Prinzipien des erfindungsgemäßen Verfahrens zur nichtlinearen Optimierung erörtert.
  • Als erstes wird, in einem Schritt 100, eine Anzahl (Anzahl N) nichtlinearer Optimierungsverfahren eingespeichert. Im Allgemeinen können diese Verfahren bekannte Verfahren sein, jedoch sei darauf hingewiesen, dass mit diesen Verfahren kein Wissen abgespeichert wird. Statt dessen wird, in einem Schritt 101, gemeinsames Wissen, das all den Verfahren gemeinsam ist, eingespeichert, und in einem Schritt 102 wird Bereichswissen eingespeichert, wobei jede Technik des Bereichswissens einem speziellen der N Verfahren entspricht. Es ist ersichtlich, dass die Schritte 100, 101, 102 als Teil eines Konfigurationsvorgangs für das erfindungsgemäße Computersystem ausgeführt werden können.
  • Anschließend wird in einem Schritt 103 ein Problem eingegeben, das nichtlinearer Optimierung bedarf. Das Problem kann die Steuerung eines technischen oder industriellen Prozesses oder Systems oder das Design eines technischen oder industriellen Bauteils betreffen, jedoch ist die Erfindung nicht auf eines dieser Probleme beschränkt. Ein geeigneter Zähler, der einen Zählwert n liefert, wird auf 1 gesetzt, was den Startpunkt einstellt, und in einem Schritt 105 wird das Verfahren, das dann der eingestellten Zahl n entspricht, d.h. in diesem Stadium das erste Verfahren, entnommen, und dies gilt für das gemeinsame Wissen in einem Schritt 106 und das dem Verfahren n entsprechende Bereichswissen in einem Schritt 107. Dann wird das Verfahren n (d.h. das erste Verfahren in diesem Stadium) in einem Schritt 108 auf das Problem angewandt. Ein Schritt 109 untersucht, ob das Verfahren n eine optimale Lösung ergibt. Wenn dies der Fall ist, kann die Verarbeitung enden. Wenn dies jedoch nicht der Fall ist, geht die Verarbeitung zu einem Schritt 110 über, in dem n um 1 inkrementiert wird, und die Verarbeitung kehrt zum Schritt 105 zurück, um ein weiteres Verfahren zu extrahieren, d.h. das zweite Verfahren in diesem Stadium. Dann werden die Schritte 105 bis 110 für jedes Verfahren wiederholt, bis der Schritt 109 erkennt, dass eine optimale Lösung erzielt wurde.
  • Selbstverständlich ist es erforderlich, die Verfahren und das Wissen zu kennen, die abzuspeichern sind. Wie bereits angegeben, sind viele nichtlineare Optimierungsverfahren bekannt, und Beispiele sind in der Tabelle 1 aufgelistet. TABELLE 1
  • Ferner sind Beispiele für gemeinsames Wissen in der Tabelle 2 aufgelistet. TABELLE 2 EINIGE BEISPIELE FÜR GEMEINSAMES WISSEN
  • X: Aktueller Suchpunkt im N-dimensionalen Raum
  • X': Voriger Suchpunkt im N-dimensionalen Raum
  • F(X): Zielfunktion
  • ε: Maschinenepsilon (hängt von der Hardware ab)
  • Ferner sind Beispiele für Domänenwissen bekannt. Z.B. wurde Wissen betreffend sequentielle, quadratische Programmierung von K. Schittkowski unter dem Titel "The Nonlinear Programming Method of Wilson, Hann und Powell with an Augmented Legrangian Type Live Search Function" in Numer. Math., Vol 38, Seiten 83 - 114 (1981), vorgeschlagen. Diese spezielle Technik, die als RESTART bezeichnet wird, ist ein Satz von Bereichswissen, der darauf abzielt, eine Erholung von einem Fehlschlag zu bewerkstelligen, um das Problem der Choleskylösung der Sekundärkoeffizientendeterminante einer Funktion vom Lagrangetyp durch Aufsummierung numerischer Fehler bei einer nichtlinearen Optimierungsberechnung zu überwinden. Ferner war, wie oben angegeben, diese Technik nur auf sequentielle, quadratische Programmierung anwendbar.
  • Andere Beispiele für Bereichswissen sind in der Tabelle 3 aufgelistet. TABELLE 3 EINIGE BEISPIELE FÜR BEREICHSWISSEN
  • P.S.: Bei den meisten Optimierungsverfahren hängt Wissen zum Festlegen der Suchrichtung stark vom Verfahren selbst ab.
  • Der allgemeine Aufbau einer Computervorrichtung zum Ausführen eines nichtlinearen Optimierungsverfahrens wie dem in Fig. 1 dargestellten, ist in Fig. 2 schematisch dargestellt. Eingangsdaten, d.h. Probleme, werden in einen Prozessor 11 für nichtlineare Optimierung eingegeben, der auf diese Daten ein Optimierungsverfahren anwendet. Anders gesagt, löst der Prozessor 11 zur nichtlinearen Optimierung Probleme dadurch, dass er das Vorliegen derartiger Punkte als Eingaben gemäß einem Verfahren zur nichtlinearen Optimierung nutzt, während er die Suchpunkte aktualisiert.
  • Ein Steuerungsprozessor 12 untersucht das auszuführende Verfahren, und insbesondere stellt er Überlegungen zum Optimierungsverfahren an, wie es vom Prozessor 11 für nichtlineare Optimierung angewandt wird, und wenn es erscheint, dass es unwahrscheinlich ist, dass das Verfahren eine zufriedenstellende Lösung erzielt, weist der Steuerungsprozessor 12 den Prozessor 11 für nichtlineare Optimierung an, vom aktuell verwendeten Verfahren auf ein anderes Verfahren zu wechseln.
  • Fig. 2 zeigt zwei externe Speichervorrichtungen 83, 91. Die externe Speichervorrichtung 83 enthält gemeinsames Wissen, und sie gibt die Information zur Verwendung beim Steuern des Verfahrens, wie es vom Prozessor 11 für nichtlineare Optimierung angewandt wird, an den Steuerungsprozessor 12 weiter. Die andere externe Speichervorrichtung 81 enthält das Bereichswissen, das unmittelbar an dem Prozessor für nichtlineare Optimierung geliefert wird, da es für das angewandte Verfahren spezifisch ist.
  • So ist ersichtlich, dass die Verfahren jeweils durch spezielle Programme eines Computersystems repräsentiert sind, wobei es sich beim Wissen um Daten handelt, die an diese Programme geliefert werden. Die Auswahl der Programme durch z.B. das Verfahren von Fig. 1 wird dann durch ein Steuerungsprogramm gesteuert
  • Fig. 3 zeigt eine Fortentwicklung der Computervorrichtung von Fig. 2, und es sind dieselben Bezugszahlen dazu verwendet, entsprechende Teile zu kennzeichnen. Fig. 3 zeigt jedoch die Eingabevorrichtung 13, die die Eingabe nichtlinearer Optimierungsprobleme, von Wissen zum Steuern der Optimierungsberechnungen und von Suchstartpunkten ermöglicht. Diese können über die Eingabevorrichtung 13 eingegeben werden und über eine Eingabeeinheit 14 an einen Arbeitsspeicher 16 weitergegeben werden, und, falls erforderlich, von dort an einen Permanentspeicher (nicht dargestellt). Verfahren zur nichtlinearen Optimierung werden ebenfalls eingespeichert (in der Form von Programmen), und eines dieser Verfahren kann jederzeit extrahiert und in den Arbeitsspeicher 16 zur Anwendung auf ein spezielles Problem eingespeichert werden. Der Prozessor 11 für nichtlineare Optimierung und der Steuerungsprozessor 12 führen dann die zuvor beschriebenen Funktionen unter Steuerung durch eine zentrale Verarbeitungseinheit (CPU) 15 aus. Falls erwünscht, kann ein die Lösung repräsentierendes Bild von einer Bildausgabeeinheit 17 an eine Anzeigeeinheit 18 weitergegeben werden, die mit einer geeigneten Ausgabevorrichtung wie einem Schirm (CRT oder VDU) oder einem Drucker verbunden sein kann. Eine derartige Anzeige ist dann von Nutzen, wenn die Erfindung auf Computer Aided Design angewandt wird. Die Ausgabe kann auch dazu verwendet werden, einen industriellen oder technischen Prozess zu steuern.
  • Ein spezielles nichtlineares Optimierungsverfahren, das gemeinsames Wissen und Bereichswissen verwendet, wird nun un ter Bezugnahme auf die Fig. 4 bis 8 beschrieben.
  • Fig. 4 zeigt den Steuerungsablauf eines Prozesses zum Lösen von Problemen, wie er im Steuerungsprozessor 12 abgespeichert und bei einem erfindungsgemäßen Verfahren verwendet werden kann.
  • In einem Schritt 21 wird Wissen betreffend das Verfahren zum Steuern des Prozesses zum Lösen von Problemen von der Eingabevorrichtung 13 zugeführt und in den Arbeitsspeicher 13 eingespeichert.
  • Fig. 5 zeigt ein Beispiel für gemeinsames Wissen, d.h. für Wissen betreffend ein Verfahren zum Steuern des Prozesses zum Lösen von Problemen, das nicht vom bei diesem Ausführungsbeispiel verwendeten Verfahren zur nichtlinearen Optimierung abhängt. Bei diesem Ausführungsbeispiel ist dieses Wissen als Regel mit einem Bedingungs- und einem Ausführungsteil gegeben.
  • In einem Schritt 22 werden die Koordinaten jedes Suchstartpunkts von der Eingabevorrichtung 13 geliefert und in den Arbeitsspeicher 16 eingespeichert.
  • In einem Schritt 23 werden Daten betreffend den aktuellen Suchpunkt in den Arbeitsspeicher 16 eingespeichert. Fig. 6 zeigt ein Beispiel für Daten am Suchpunkt. Wie veranschaulicht, umfassen die Daten betreffend den Suchpunkt die Koordinaten des Suchpunkts, den Wert der Zielfunktion am Suchpunkt und die Steigung der Zielfunktion, wobei diese Einzelwerte unter jeweiliger Nummerierung eingespeichert werden.
  • In einem Schritt 24 wird das Problemlösungsverfahren abhängig von den Daten im Prozess des Überarbeitens des im Arbeitsspeicher 16 abgespeicherten Suchpunkts verifiziert. Die Verifizierung des Verfahrens zum Lösen von Problemen steuert das Problemlösungsverfahren unter Verwendung des gemeinsamen Wissens in solcher Weise, dass Fehlschläge des Verfahrens verhindert werden sollen.
  • Fig. 7 zeigt einen Ablauf zum Verifizieren des Problemlösungsverfahrens. Bei diesem Ablauf wird der in Fig. 5 dargestellte Bedingungsteil sequentiell ausgewertet, damit der Ausführungsteil der Regel immer dann ausgeführt werden kann, wenn der Bedingungsteil erfüllt ist.
  • In einem Schritt 51 beginnt die Verifizierung des Problemlösungsprozesses bei der Regel mit der Nummer i = 1. In einem Schritt 52 wird der Bedingungsteil der Regel i aus dem Arbeitsspeicher 16 entnommen und auf Ci gesetzt. In einem Schritt 53 wird der Bedingungsteil Ci ausgewertet, und der Prozess geht zu einem Schritt 54 weiter, wenn die Bedingung erfüllt ist. In diesem Schritt 54 wird der Bedingungsteil der Regel i ausgeführt. Jedoch wird der Schritt 54 umgangen, wenn der Bedingungsteil Ci im Schritt 53 nicht erfüllt ist, und der Prozess geht zu einem Schritt 55 weiter. In diesem Schritt 55 wird i durch i + 1 ersetzt. In einem Schritt 56 erfolgt eine Entscheidung dahingehend, ob eine der um 1 inkrementierten Nummer entsprechende Regel existiert. Wenn eine derartige Regel existiert, werden die Vorgänge nach dem Schritt 52 wiederholt, und wenn keine derartige Regel existiert, wird der Vorgang des Verifizierens des Problemlösungsverfahrens beendet. Die ausgehend vom Schritt 54 gestrichelt gezogene Linie kennzeichnet den Ablauf des Prozesses, wenn die Regelausführungseinheit die Beendigung des Verifizierprozesses im Schritt 24 anweist.
  • So ist, wenn dieses Stadium erreicht ist, klargestellt, dass das auf das Problem angewandte Verfahren keine optimale Lösung erzielt. So ist ersichtlich, dass Fig. 4 den Schritten 105 bis 109 in Fig. 1 entspricht und dass das System anschließend ein anderes Verfahren auswählen inuss.
  • Gemäß erneuter Bezugnahme auf Fig. 5 wird der Suchpunkt im Schritt 25 gemäß dem Verfahren zur nichtlinearen Optimierung aktualisiert, wie es im Prozessor 11 für nichtlineare Optimierung abgespeichert ist und es erfolgt eire Entscheidung, ob die Suchpunkte konvergiert haben.
  • Das bei dieser Anordnung verwendete Verfahren zur nichtlinearen Optimierung kann ein beliebiges andeies sein, das den Suchpunkt sequentiell verbessern kann. Zu Beispielen für derartige Verfahren gehören ein Verfahren, bei dem der optimale Punkt zum nächsten Suchpunkt gemacht wird, wobei der optimale Punkt dadurch erhalten wird, dass eine lineare Suche ausgehend vom aktuellen Suchpunkt entlaug der Richtung mit starkem Abstieg der Zielfunktion ausgelührt wird, ein Verfahren, bei dem die Koordinaten eines optimalen Punkts dadurch angenommen werden, dass ein quadralisches Programmierproblem gelöst wird, das sich aus der zweiten Näherung einer Zielfunktion am aktuellen Suchpunkt und der ersten Näherung der Randwertfunktionen ergibt, oder ein Verfahren, bei dem ausreichend viele Punkte zufallsweise in der Nähe des aktuellen Suchpunkts erzeugt werden und der optimale Punkt einer Zielfunktion unter den so erzeugten Punkten als nächster Suchpunkt ausgewählt wird.
  • Bei dieser Anordnung wird ein einfacher optimierungsablauf verwendet, wie in Fig. 8 dargestellt. In einem Schritt 61 des Ablaufs wird die Steigung der Zielfunktion am aktuellen Suchpunkt erhalten und auf f gesetzt. Bei dieser Anordnung wird f als Kriterium zum Erkennen von von Konvergenz der Suchpunkte betrachtet. In einem Schritt 62 wird der Vorgang der Problemlösung beendet, wenn entschieden wird, dass die Suchpunkte auf einen optimalen Punkt konvergiert haben, wenn die Konvergenzbedingung f < 10&supmin;&sup4; erfüllt ist. In einem Schritt 63 erfolgt eine Entscheidung dahingehend, ob f positiv oder negativ ist, um das Verfahren zu verzweigen. In einem Schritt 64 werden die Koordinaten des Suchpunkts mit positivem f um 0,1 dekrementiert, und in einem Schritt 65 werden die Koordinaten des Suchpunkts mit negativem f um 0,1 inkrementiert, um den Suchpunkt zu aktualisieren.
  • In einem Schritt 26 in Fig. 4 wird das Verfahren dadurch beendet, dass die Ergebnisse der Berechnungen zur nichtlinearen Optimierung erzeugt werden, wozu z.B. die Koordinaten des optimalen Punkts sowie der Wert der Zielfunktion, wenn die Suchpunkte im Schritt 25 als konvergiert beurteilt sind, gehören.
  • Nun wird unter Bezugnahme auf ein einfaches nichtlineares Optimierungsproblem eine spezielle Anwendung der Erfindung beschrieben. Das betrachtete nichtlineare Optimierungsproblem ist das Folgende:
  • Minimiere: f(x) = (x - 1)&sup4; Ohne Randbedingungen
  • Nachfolgend wird der Suchpunkt i durch xi repräsentiert. Darüber hinaus wird der Suchstartpunkt durch x&sub1; repräsentiert.
  • Im Schritt 21 wird die Regel zum Steuern des Problemlösungsverfahrens von der Eingabeeinheit 13 an den Arbeitsspeicher 16 geliefert, wie in Fig. 2 dargestellt. Im Schritt 22 wird x&sub1; = 0,64 als vorläufiger Datenwert zum Erzeugen des Suchstartpunkts zugeführt. Im Schritt 23 werden die Koordinaten des aktuellen Suchpunkts (0,46), der Wert der Zielfunktion (8,5 x 10&supmin;²) und die Steigung der Zielfunktion (-6,2 x 10&supmin;&sup4;) erhalten, und es wird dafür gesorgt, dass den Ergebnissen Suchpunktnummern zugeordnet werden, bevor eine Einspeicherung in den Arbeitsspeicher 16 erfolgt.
  • Im Schritt 24 wird dem in Fig. 7 dargestellten Ablauf gefolgt, um das Problemlösungsverfahren zu verifizieren Anders gesagt, werden im Schritt 51 i = 1 und die Bedingungseinheit der Regel 1 im Schritt 52 aus dem Arbeitsspeicher 16 abgerufen und im Schritt 53 ausgewertet. Die Bedingungseinheit der Regel 1 wird dazu verwendet, zu untersuchen, "ob ein Suchpunkt existiert, der in der Vergangenheit dieselben Koordinaten wie der aktuelle Suchpunkt hatte". Diese Bedingungseinheit ist für x&sub1; nicht erfüllt. Auf dieselbe Weise werden die Bedingungseinheiten der Regeln 2 und 3 entnommen und der Auswerteprozess wird wiederholt. Es wird angenommen, dass für x&sub1; keine der Bedingungseinheiten erfüllt ist, d.h., dass angenommen wird, dass die Ausführungseinheiten der Regeln nicht ausgeführt werden.
  • Im Schritt 25 wird dem in Fig. 8 dargestellten Ablauf gefolgt, um den Suchpunkt zu aktualisieren und eine Konvergenzentscheidung zu treffen. Da für x&sub1; f = 6,2 x 10&supmin;¹ gilt, wird im Schritt 62 die Konvergenzbedingung nicht erfüllt. Jedoch wird im Schritt 63 erkannt, dass f < 0 gilt, und der Suchpunkt wird im Schritt 65 so aktualisiert, dass er zu x&sub2; = x&sub1; + 0,1 = 0,56 wird.
  • Der Prozess kehrt zum Schritt 23 zurück, und das Verfahren vom Schritt 23 bis zum Schritt 25 wird für einen neuen Suchpunkt wiederholt.
  • Fig. 9 zeigt eine Form des Aktualisierens von Daten betreffend Suchpunkte. Da am Suchpunkt x&sub7; f < 0 gilt, wird der Schritt 64 ausgeführt, um die Koordinaten des Suchpunkts auf 0,1 zu verringern. Im Ergebnis werden die Koordinaten von x&sub8; zu 0,96, was dem Koordinatenwert von x&sub6; entspricht. Demgemäß ist der Test "ob ein Suchpunkt existiert, der in der Vergangenheit dieselben Koordinaten wie der aktuelle Suchpunkt hatte" in der Bedingungseinheit der ersten Regel von Fig. 5 erfüllt, und die Ausführungseinheit führt die Aufgabe "Inkrementieren der Koordinaten des Suchpunkts um 0,01" aus. Dann werden die Koordinaten von x&sub8; zu 0,96 + 0,01 = 0,97.
  • Die Regel 1 spezifiziert eine Gegenmaßnahme zum Verhindern des Aktualisierens des Suchpunkts in einer Weise, die zu einer unendlichen Schleife führen würde. Der Grund für eine derartige unendliche Schleife beruht nicht darauf, dass zu irgendeinem Zeitpunkt ein spezielles Verfahren zur nichtlinearen Optimierung angewandt wird, weswegen diese Regel als gemeinsames Wissen bezeichnet wird, d.h. als Wissen, das das Verfahren zum Steuern des Problemlösungsprozesses betrifft, der nicht für ein Verfahren zur nichtlinearen Optimierung spezifisch ist.
  • Ein neuer Suchpunkt wird auf x&sub8;' gesetzt, und es ist keine andere Bedingungseinheit erfüllt. Es wird angenommen, dass die Verifizierung des Problemlösungsprozesses beendet ist.
  • Für x&sub8;' werden das Aktualisieren des Suchpunkts und die Konvergenzentscheidung im Schritt 25 ausgeführt.
  • Dem Ablauf von Fig. 4 wird auf entsprechende Weise gefolgt, und das Aktualisieren des Suchpunkts wird wiederholt. Schließlich ist bei x&sub1;&sub2; die Konvergenzbedingung f < 10&supmin;&sup4; im Schritt 62 erfüllt, und der Problemlösungsprozess wird beendet
  • Das in Fig. 8 dargestellte einfache Verfahren zur nichtlinearen Optimierung wurde dazu verwendet, die Erläuterung dieses Ausführungsbeispiels zu vereinfachen. Jedoch sind wirkungsvolle Verfahren zur nichtlinearen Optimierung im Prozessor 11 für nichtlineare Optimierung abgespeichert und abhängig vom Problemtyp anwendbar. Da das gemeinsame Wissen dazu verwendet wird, den Problemlösungsprozess im Steuerungsprozessor 12 zu steuern, muss das gemeinsame Wissen selbst dann nicht modifiziert werden, wenn vom Verfahren zur nichtlinearen Optimierung auf ein anderes gewechselt wird.
  • Bei diesem Ausführungsbeispiel sind der Prozessor zur nichtlinearen Optimierung und der Steuerungsprozessor gesondert, und das Wissen betreffend das Verfahren zum Steuern des Problemlösungsprozesses, ohne dass man sich auf eine Technik zur nichtlinearen Optimierung stützt, wird dazu verwendet, den Suchpunkt im Steuerungsprozessor zu steuern. Im Ergebnis kann eine Universalvorrichtung für nichtlineare Optimierung, die mit Einrichtungen zum Verhindern von Fehlschlägen bei der Problemlösung versehen ist, ohne sich auf ein spezielles Verfahren zur nichtlinearen Optimierung zu stützen, hergestellt werden.
  • Fig. 10 zeigt eine andere Vorrichtung, die bei der Erfindung verwendet werden kann. Die in Fig. 10 dargestellte Vorrichtung ist im Wesentlichen der in Fig. 3 dargestellten ähnlich, und dieselben Bezugszahlen sind dazu verwendet, entsprechende Teile zu kennzeichnen. Bei der in Fig. 10 dargestellten Vorrichtung existiert jedoch ein externer Speicher 83, der das gemeinsame Wissen einspeichert, und der Steuerungsprozessor 12 in Fig. 3 ist in eine Eingabeeinheit 82, die Wissen vom Speicher 83 empfängt, und einen Verarbeitungsteil 81 unterteilt, der die vom Steuerungsprozessor benötigten Funktionen ausführt.
  • Es ist ersichtlich, dass Wissen vom Speicher 83 nur dann entnommen werden muss, wenn es beim Verfahren zur nichtlinearen Optimierung benötigt wird. So ist ersichtlich, dass ein Schritt 106 in Fig. 1 auf einen Schritt 108 verzweigen kann. Der Vorteil des Einspeicherns des gemeinsamen Wissens in einen gesonderten Speicher 83 besteht darin, dass es dann einfach ist, zusätzliches gemeinsames Wissen zu diesem Speicher hinzuzufügen, falls dies erwünscht ist.
  • Fig. 11 zeigt eine weitere Vorrichtung zur Verwendung bei der Erfindung, die erneut eine Modifizierung der in Fig. 2 dargestellten Vorrichtung repräsentiert. Bei der Vorrichtung von Fig. 11 speichert ein Speicher 91 oder mehrere Bereichswissen, das dann mittels einer Eingabeeinheit 92 an den Prozessor 11 für nichtlineare Optimierung weitergegeben wird. Selbstverständlich wird zu einem jeweiligen Zeitpunkt nur dasjenige Bereichswissen aus dem Speicher 91 entnommen, das für das Verfahren gilt, das auf das Problem angewandt wird. Erneut besteht der Vorteil dieser Anordnung darin, dass es leicht möglich ist, zusätzliches Bereichswissen zu den externen Speichern 91 hinzuzufügen. In der Praxis ist es bevorzugt, dass die Vorrichtung Speicher sowohl für gemeinsames als auch für Bereichswissen aufweist, um die Größe des erforderlichen Arbeitsspeichers zu minimieren, und eine derartige Anordnung ist in Fig. 12 dargestellt. Die Komponenten von Fig. 12 entsprechen denen der Fig. 2, 10 und 11, wobei dieselben Bezugszahlen dazu verwendet sind, entsprechende Teile zu kennzeichnen, weswegen eine weitere Beschreibung überflüssig ist.
  • Fig. 13 zeigt eine optimale Steuerungsvorrichtung für ein Fertigungssystem, das eine die Erfindung verkörpernde Vorrichtung für nichtlineare Optimierung verwendet. Bei der in Fig. 11 dargestellten Anordnung besteht die Steuerung des Fertigungssystems darin, einen Ausrüstungs-Steuerparameter 103 so zu steuern, dass die Menge eines Erzeugnisses 108, das aus einer Einheit eines Rohmaterials 107 hergestellt wird, unter Randbedingungen wie den Möglichkeiten der verarbeitenden Fertigungsausrüstung maximiert wird. Daten betreffend die Betriebsbedingungen des Systems werden von einer Eingabevorrichtung 106 empfangen und als Eingangsparameter an eine Steuerungsparameter-Entscheidungsvorrichtung 105 geliefert. Diese Steuerungsparameter-Entscheidungsvorrichtung 105 empfängt einen Rückkopplungsparameter 106 betreffend den Betriebszustand des Systems. Gemäß der Erfindung kann die Steuerungsparameter-Entscheidungsvorrichtung eine Vorrichtung für nichtlineare Optimierung beinhalten, die ein Ausführungsbeispiel der Erfindung darstellt.
  • Bei einer derartigen Anordnung muss selbst dann, wenn vorhandene Verfahren zur nichtlinearen Optimierung dazu ungeeignet werden, die das Fertigungssystem definierenden nichtlinearen Optimierungsprobleme wegen Änderungen im Fertigungssystem zu lösen, nur das von der erfindungsgemäßen Vorrichtung innerhalb der Steuerparameter-Entscheidungsvorrichtung 105 verwendete Verfahren zur nichtlinearen Optimierung geändert werden. So muss das System selbst dann nicht ausgetauscht werden, wenn das Herstellsystem geändert wird, so dass Einfachheit des Betriebs erzielbar ist.
  • So ist es ersichtlich, dass die Erfindung auf die Steuerung einer beliebigen industriellen oder technischen Anlage oder eines Systems angewandt werden kann. Ferner könnte die Erfindung auf die Rechnersteuerung finanzbezogener Vorgänge, wie auf den Wertpapiermarkt, angewandt werden.
  • Ein anderes Gebiet, auf dem die Erfindung angewandt werden kann, sind Systeme für Computer Aided Design (CAD). Ein Beispiel für ein derartiges System ist die Konstruktion einer Spule, bei der der Radius des Spulendrahts, die Anzahl der Spulenwindungen und der Radius jeder Windung auf Grundlage der Randbedingung ausgewählt werden müssen, dass, bei einer vorgegebenen Belastung, die Verformung der Spule nicht größer als ein vorbestimmter Wert ist. Dann kann das erfindungsgemäße System bei einer derartigen Anordnung dazu verwendet werden, die Parameter der Spule so zu optimieren, dass sie minimales Volumen aufweist.
  • Eine derartige Anwendung wird nun unter Bezugnahme auf Fig. 14 zum Bestimmen von Federn minimalen Gewichts bei statischer Belastung detaillierter beschrieben Es wird angenom men, dass die Enden der in Fig. 14 dargestellten Feder geschlossen und horizontal gestellt sind und dass die Last konzentrisch wirkt.
  • a) Konstruktionsvariable
  • N = Anzahl aktiver Spulen CNUM
  • D = mittlerer Spulendurchmesser, Zoll DIAC
  • d = Drahtdurchmesser, Zoll DIAW
  • Diese Größen werden so eingestellt, dass sich die beste Konstruktion ergibt.
  • b) Spezifikationen
  • Der Designer muss Daten für die folgenden Spezifikationen liefern
  • Fmax = maximal wirkende Belastung, lb FSH
  • lmax = maximale freie Länge, Zoll FLM
  • dmin = minimaler Drahtdurchmesser, Zoll WDMN
  • Dmax = maximaler Außendurchmesser der Feder, Zoll CDMX
  • Fp = Vorbelastungs-Kompressionskraft, lb PRLD
  • &delta;pm = zulässige Maximalauslenkung bei der Vorbelastung, Zoll DELP
  • &delta;w = Auslenkung aus der Vorbelastungsposition zur Position bei Maximalbelastung, Zoll DELW
  • S = zulässige maximale Scherspannung, psi SA
  • G = Schermodul des Materials, psi G
  • E = Elastizitätsmodul, psi EMOD
  • CE = End-Federkoeffizient CE
  • Der Endkoeffizient für Federknickung ist ähnlich dem, wie er bei der Knickung üblicher Kompressionselemente verwendet wird. Werte können aus der Tabelle 4 erhalten werden. TABELLE 4
  • Es ist gut möglich, eine Federkonstruktion so überzubestimmen, dass keine ausführbare Lösung möglich ist. Wenn keine ausführbare Lösung aufgefunden werden kann, wird vorgeschlagen, dass eine oder mehrere der Spezifikationen gelockert wird, wie die freie Länge oder die zulässige Belastung oder sogar die maximal wirkende Belastung.
  • Es können mehrere Optimierungsversuche kombiniert werden. Es werden optimale Werte für DIAW, DIAC und CNUM zurückgehefert und automatisch als Startwerte für den nächsten Versuch verwendet, solange sie nicht neu spezifiziert werden. Dies ist besonders beim Erhalten von Kompromisskurven von Nutzen.
  • c) Optimierung
  • Das Optimierungskriterium ist, wie oben angegeben, das Mmimalvolumen des Federdrahts. Dann gilt:
  • U = (&pi;²/4) Dd² (N + 2) = Minimum
  • (i) Spannungsrandbedingung (Wahl, 1963); die Scherspannung muss kleiner als der spezifizierte, zulässige Wert sein.
  • &Phi;&sub1; = S - Cf8Fmax (D/&pi;d³) &ge; 0
  • mit
  • Cf = (4C - 1)/(4C - 4) + 0,615/C
  • C = D/d
  • (ii) Konfigurationsrandbedingungen; die freie Federlänge muss kleiner als die Maximalspezifizierte sein. Die Federkonstante K muss zunächst bestimmt werden (Wahl, 1963).
  • K = (Gd&sup4;/BND³) lb/Zoll
  • Die Ablenkung bei der maximal wirkenden Belastung beträgt:
  • &delta; = Fmax/K Zoll
  • Es sei angenommen, dass die Federlänge bei Fmax das 1,05-Fache der Raumlänge ist. So beträgt die freie Länge:
  • lf - &delta; + 1,05 (N + 2)d
  • und die Randbedingung ist
  • &Phi;&sub2; = lmax - lf &ge; 0
  • Der Drahtdurchmesser muss das spezifizierte Minimum überschreiten
  • &Phi;&sub3; = d - dmin &ge; 0
  • Der Außendurchmesser der Spule muss kleiner als der Maximalspezifizierte sein
  • &Phi;&sub4; = Dmax - D - d &ge; 0
  • Der mittlere Spulendurchmesser muss mindestens das Dreifache des Drahtdurchmessers sein, um sicherzustellen, dass die Feder nicht zu eng gewickelt ist:
  • &Phi;&sub5; = C -3 &ge; 0
  • Die Auslenkung bei Vorbelastung muss kleiner als die Maximalspezifizierte sein. Die Auslenkung bei Vorbelastung ist:
  • &delta;p = Fp/K
  • Die Randbedingung ist
  • &delta;p = &delta;pm - &delta;p &ge; 0
  • Die kombinierte Auslenkung muss zur Länge passen:
  • &Phi;&sub7; = lf - &delta;p - [(Fmax - Fp)/K] - 1,05 (N + 2) d &ge; 0
  • Genau gesagt, sollte diese Randbedingung eine Gleichung sein. Es ist intuitiv klar, dass die Randfunktion am Konvergenzpunkt immer null ist.
  • (iii) Auslenkungserfordernis; die Auslenkung von der Vorbelastung zur Maximalbelastung muss der spezifizierten entsprechen. Auch dies wird zu einer Ungleichheits-Randbedingung gemacht, da immer Konvergenz auf null erfolgen sollte:
  • &Phi;&sub8; = [(Fmax - Fp)/K] - &delta;w &le; 0
  • (iv) Ausknick-Randbedingung (Wahl, 1963); die Belastung, bei der Ausknicken auftritt, ist wie folgt gegeben:
  • Pcr = &alpha;&sub0;CB
  • mit
  • &alpha;&sub0; = lfK
  • E = Elastizitätsmodul, psi
  • CE = Endkoeffizient
  • Es wird ein Sicherheitsfaktor von 1,25 dazu verwendet, die Unsicherheit beim Vorhersagen von Pcrit zu berücksichtigen.
  • Die Ungleichheits-Randbedingung ist:
  • &Phi;&sub9; = (Pcrit/1,25) - Fmax &ge; 0
  • Wenn die Feder geführt ist und CE den Wert null hat, wird diese Randbedingung umgangen.
  • Die Erfindung könnte auch beim Computerdesign eines Lagers verwendet werden, bei dem es erwünscht ist, sicherzustellen, dass sich eine Welle bei minimaler Reibungskraft dreht.
  • Eine derartige Anwendung wird nun unter Bezugnahme auf die Fig. 15 und 16 detaillierter beschrieben, die ein hydrostatisches Drucklager für einen Turbogenerator zeigt. In Fig. 15 verfügt das Lager 300 über. ein Führungslager 301 und ein Stufenlager 302 sowie über einen Einlass 303 und einen Auslass 304 für Öl. Fig. 16 zeigt das Lager schematisch.
  • Dieses Beispiel veranschaulicht einige wichtige Gesichtspunkte bei der Formulierung zur Optimierung:
  • 1. Es handelt sich um ein Beispiel für Schwierigkeiten, wie sie manchmal beim Auswählen der Designvariablen auftreten.
  • 2. Es zeigt, dass eine Zustandsvariable manchmal für eine offensichtlichere, unabhängige Designvariable eingesetzt werden sollte.
  • 3. Es veranschaulicht, wie leicht eine wichtige Randbedingung übersehen werden kann und wie der Computer den Ingenieur darauf aufmerksam macht.
  • 4. Das Problem des Berücksichtigens von Varuerbarkeit ist bei diesem Design von Bedeutung. Der herkömmliche Faktor einer sicheren Vorgehensweise ist einfach unanwendbar.
  • 5. Die ingenieurmäßige Modellbildung erfordert die sequentielle Lösung eines ziemlich komplizierten Satzes von Ausdrücken, die in korrekter Reihenfolge so angeordnet werden müssen, dass der Computer nur mit bekannten Größen arbeitet, wozu die Designvariablen gehören, die dem Computer immer "bekannt" sind, wenn Ausdrücke zur ingenieurmäßigen Modellbildung verwendet werden.
  • 6. Es demonstriert, wie die Beurteilung des Designers unter Verwendung von Kompromisskurven eingeführt werden kann.
  • Das Kriterium besteht darin, Kraftverluste zu minimieren, wie sie mit der Lagerung einhergehen.
  • Die Hauptspezifikationen sind:
  • Drehzahl: 750 U/min.
  • Generatorgewicht: 101.000 lb
  • Verwendeter Schmierstoff: Öl SAE 20
  • Ölpumpen-Wirkungsgrad: 70 %
  • Maximaler Öldruck: 1.000 psi
  • Maximaler Temperaturanstieg des Öls: 50 ºF
  • Minimale Ölfilmdicke: 0,001 Zoll
  • a) Theorie (Fuller, 1956)
  • Der Einlassdruck und die Strömungsrate sind durch den fol genden Ausdruck verknüpft:
  • P&sub0; = (6 µQ/&pi;h&sub0;³) ln (R/R&sub0;) (8.3.1)
  • mit
  • Q = Strömung in 3/s
  • P&sub0; = Einlassdruck, psi gegenüber der Atmosphäre
  • h&sub0; = Filmdicke, Zoll
  • µ = Ölviskosität in reynold, lb s/Zoll²
  • R = Lagerstufenradius, Zoll
  • R&sub0; = Aussparungsradius, Zoll
  • Es ist angenommen, dass der Auslassdruck P&sub1; der Atmosphärendruck ist.
  • Das Lasttragevermögen ist wie folgt gegeben:
  • W = (P&sub0;&pi;/2) [(R² - R&sub0;²)/(ln (R/R&sub0;))] lb (8.3.2)
  • Die Pumpenergie ist
  • Ep = Q(P&sub0; - P&sub1;) Zoll lb/s (8.3.3),
  • und der Reibungsverlust ist
  • Ef = (2&pi;N/60)² (2&pi;µ/h&sub0;) (R&sup4;/4 - R&sub0;&sup4;/4) Zoll lb (8.3.4),
  • wobei N die Drehzahl in Umdrehungen pro Minute ist.
  • Das Reibdrehmoment ist:
  • M = (2&pi;N/60) (2&pi;µ/h&sub0;) (R&sup4;/4 - R&sub0;&sup4;/4 Zoll lb (8.3.5)
  • Der Temperaturanstieg des Öls beim Durchlaufen des Lagers wird wie folgt abgeschätzt:
  • t = Ef/(12 x 778 Q&tau;C) ºF (8.3.6),
  • mit
  • &tau; = spezifische Dichte des Öls, lb/Zoll³ = 0,0307
  • C = spezifische Wärme des Öls, Btu/lb ºF = 0,50.
  • Die Ölviskosität ist einen Funktion der Temperatur und wie folgt gegeben:
  • log&sub1;&sub0; log&sub1;&sub0; (&nu; + 0,8) = n log&sub1;&sub0; T + C&sub1; (8.3.7),
  • wobei n und C&sub1; Konstanten für ein vorgegebenes Öl sind, &nu; die kinematische Viskosität in Centistokes ist und T die Absoluttemperatur in Grad Rankine (ºF + 459,7) ist.
  • Die folgende Tabelle gibt C&sub1; und n für verschiedene Ölguahtäten an.
  • Die Viskositätsumsetzung von Centistokes in Reynold ist die Folgende:
  • Reynold = St x spezifische Dichte x 1,45 x 10&supmin;&sup7;
  • b) Designoptionen
  • Eine Firma, die das Lager verwendet, kann wünschen, die minimale Filmdicke zu erhöhen, um das Hindurchlaufen größerer Teilchen im Öl zu ermögliche, damit die Filterkosten verringert werden können. Sie kann auch wünschen, eine Pumpe mit kleinerem oder höherem Druckvermögen, abhängig von den Kosten, zu verwenden. Es sind Kompromisskurven zu entwickeln, um diese Entscheidung zu unterstützen. Es kann auch der Effekt der Verwendung einer anderen Ölqualität untersucht werden.
  • c) Designvariable
  • Die Hauptdesignvariablen sind klar R, R&sub0; und Q. Es ist nicht offensichtlich, ob eine weitere unabhängige Designvariable existiert oder nicht, und es ist erforderlich, alle Gleichheitsausdrücke und Zustandsvariablen zu untersuchen, die bei der Durchführung betroffen sind. Die Grundausdrücke sind die Gleichungen (8.3.1), (8.3.2), (8.3.4), (8.3.6) und (8.3.7).
  • Die Temperatur T kann näherungsweise als Mittelwert aus der Umgebungs- und der Ölauslasstemperatur angenommen werden. Es sei angenommen, dass die Umgebungstemperatur 100 ºF ist, und demgemäß ergibt sich
  • T = 560 + &Delta;T/2 (8.3.8).
  • Es kann auch die Viskosität &nu; in µ umgesetzt werden. Das spezifische Gewicht des Öls ist:
  • s = 0,0307 x 1728/62,4 = 0,8502
  • Demgemäß ergibt sich:
  • µ = &nu;(0,8502)1,45 x 10&supmin;&sup7; = 1,233 x 10&supmin;&sup7; &nu;,
  • oder
  • = 8,112 x 10&sup6;µ (8.3.9)
  • Die Zustandsvariablen sind P&sub0;, µ, W, Ef, &Delta;T und h&sub0;. Es existieren daher sechs Zustandvariable und fünf Ausdrücke, und es ist deutlich, dass eine derselben als Designvariable verwendet werden muss. Tatsächlich ist es am geschicktesten, µ zur Designvariablen zu machen. Aus dem folgenden Abschnitt ist erkennbar, dass dies Schwierigkeiten mit transzendenten Ausdrücken sowie das Erfordernis einer Gleichheits-Randbedingung und einer zusätzlichen Designvariable vermeidet.
  • Zusammengefasst gesagt, sind die Designvariablen R, R&sub0;, Q und µ.
  • d) Optimierungskriterium
  • Das Kriterium besteht darin, die gesamten Leistungsverluste am Lager zu minimieren. Es sind nun Ausdrücke aufeinanderfolgend so einzustellen, dass der Computer mit bekannten Werten der Designvariablen beginnt.
  • Es wird damit begonnen, &Delta;T als Funktion von µ zu erhalten, wobei die Gleichungen (8.3.7) bis (8.3.9) verwendet werden.
  • n x log&sub1;&sub0;(560+&Delta;T/2) = log&sub1;&sub0; log&sub1;&sub0;(8,112 x 10&sup6;µ + 0,8) - C&sub1; (8.3.10)
  • Der Wert für &Delta;T kann hieraus leicht entnommen werden. Der nächste Schritt besteht darin, die Gleichung (8.3.6) zum Erhalten von Ef zu verwenden:
  • Ef = 12 x 778Q&tau;c&Delta;T (8.3.11)
  • Die Gleichung (8.3.4) kann so umgeordnet werden, dass sich h&sub0; ergibt.
  • h&sub0; = (2&pi;N/60)² (2&pi;µ/Ef) (R&sup4;/4 - R&sub0;&sup4;/4) (8.3.12)
  • Auf ähnliche Weise liefert die Gleichung (8.3.1) den Wert P&sub0;:
  • P&sub0; = (6µQ/&pi;h&sub0;³)ln (R/R&sub0;) (8.3.1).
  • Schließlich muss die Gleichung (8.3.3) für die Pumpleistung so modifiziert werden, dass sie den Pumpwirkungsgrad enthält:
  • Ep = Q(P&sub0; - P&sub1;)/0,70 (8.3.3).
  • Der Optimierungsausdruck ist:
  • U = Ef + Ep = minimale Leistung (8.3.13)
  • in Zoll-Pfund pro Sekunde.
  • e) Randbedingungen
  • (i) Maximalbelastung; die einzige noch undefiniert verbliebene Zustandsvariable ist W. Sie wird aus der Gleichung (8.3.2) wie folgt erhalten:
  • W = (P&sub0;&pi;/2) (R² - R²)/(ln (R/R&sub0;))
  • Die spezifizierte Belastung W&sub5; muss kleiner als W sein:
  • &Phi;&sub1; = W - Ws > 0 (8.3.14)
  • (ii) Öldruck; der Öleinlassdruck muss kleiner als der spezifizierte, mit Pmax bezeichnete Maximaldruck sein:
  • &Phi;&sub2; = Pmax - P&sub0; &ge; 0 (8.3.15)
  • (iii) Öltemperaturanstieg; der Öltemperaturanstieg muss kleiner als die mit &Delta;Tmax bezeichnete Spezifikation sein:
  • &Phi;&sub3; = &Delta;Tmax - &Delta;T &ge; 0 (8.3.16)
  • (iv) Ölfilmdicke; die Ölfilmdicke darf nicht kleiner als ein spezifizierter Wert hmin sein:
  • &Phi;&sub4; = h&sub0; - hmin &ge; 0 (8.3.17)
  • Es ist zu beachten, dass der Designer alle Spezifikationen in Symbolform belassen hat, so dass für dieses Design leicht verschiedene Spezifikationen versucht werden können, so dass dasselbe Programm leicht an spätere, ähnliche Designs angepasst werden kann.
  • (v) Andere Randbedingung; R muss größer als R&sub0; sein:
  • &Phi;&sub5; = R - R&sub0; &ge; 0 (8.3.18)
  • Anfangsergebnisse legen es nahe, dass sich, wie formuliert, die zwei Radien R und R&sub0; im Optimum einem gleichen Wert annähern. Dies ist keine physikalisch sinnvolle Lösung; und es ist charakteristisch, dass Optimierungsprobleme unter diesen Umständen Konvergenzprobleme zeigen. Es ist auch eine Warnung dahingehend, dass etwas in der ingenieurmäßigen Modellbildung des Problems fehlt, d.h. eine Randbedingung. Eine Durchsicht der theoretischen Grundlage für den Ausdruck, der P&sub0; mit Q, R und R&sub0; verknüpft, zeigt, dass die Annahme gemacht wird, dass R - R&sub0; viel größer als h&sub0; ist, so dass Einlass- und Auslassverluste vernachlässigbar sind und die Strömung im Wesentlichen laminar ist. Der Auslassverlust beträgt &tau;ve²/2g, wobei ve die Austrittsgeschwindigkeit ist; der Eintrittsverlust hat dieselbe Größenordnung. Es wird daher gefordert, dass das Doppelte des Einlassverlustes 0,1 % des Druckabfalls P&sub0; ausmacht:
  • &Phi;&sub6; = 0,001 - [(&tau;/g)(Q/2&pi;Rh&sub0;)²/P&sub0;] &ge; 0 (8.3.19)
  • Wenn die Differenz zwischen R und R&sub0; sehr klein wird, besteht auch die Gefahr übermäßigen Kontaktdrucks im Fall eines Verlusts des hydrostatischen Drucks. Daher wird für diesen Ausfallmodus eine Randbedingung bereitgestellt, bei der angenommen ist, dass 5.000 psi zum Vermeiden einer Oberflächenbeschädigung hinnehmbar sind:
  • &Phi;&sub7; = 5.000 - [W/(&pi;R² - R&sub0;²)] &ge; 0 (8.3.20)
  • Eine ausgeklügeltere Untersuchung kann auch die Berücksichtigung von Kavitations- und Instabilitätsproblemen erfordem.
  • Dies sind jedoch lediglich Beispiele für die Anwendung der Erfindung auf Computer Aided Design, und sie sind aus dem Buch "Optimal Engineering Design, Principles and Applications" von J.N. Siddall, veröffentlicht von Marcel Detcker Inc im Jahr 1982, hergeleitet. Es sei hervorgehoben, dass Optimierungsprobleme existieren, auf die die Erfindung anwendbar ist. Dann ist dem Fachmann unmittelbar ein großer Bereich von Anwendungen erkennbar.
  • Es sei darauf hingewiesen, dass in der obigen Beschreibung eine erfindungsgemäße Vorrichtung veranschaulicht ist, die einen gesonderten Prozessor 11 für nichtlineare Optimierung, einen Steuerungsprozessor 12 und externe Speicher 83, 91 aufweist. Dies ist nicht wesentlich, sondern das erfindungsgemäße Verfahren kann mit einem geeigneten Standardcomputer ausgeführt werden. Was jedoch wichtig ist, ist, dass das gegeinsame Wissen, und möglicherweise auch das Bereichswissen, gesondert von den Verfahren abgespeichert wird, um den erforderlichen Speicherraum zu minimieren. Es können viele verschiedene Verfahren für nichtlineare Optimierung eingespeichert werden, und wenn es erwünscht ist, ein weiteres Verfahren hinzuzufügen, ist es relativ unkompliziert, nur dasjenige Bereichswissen hinzuzufügen, das mit diesem speziellen Verfahren in Beziehung steht.
  • Während die Erfindung ein allgemeines Verfahren zum Lösen nichtlinearer Optimierungsprobleme betrifft, sei darauf hingewiesen, dass die Anmeldung nur die Verwendung eines solchen Verfahrens zur nichtlinearen Optimierung bei rechnergesteuerten Systemen betrifft, die mit der Optimierung von technischen und industriellen Systemen in der tatsächlichen Welt in Beziehung stehen, wozu die Optimierung nichtlinearer, das System kennzeichnender Variablen gehört, d.h. für physikalische Anordnungen, die für die Optimierung des Funktionsvermögens von Prozessen, Maschinen, Herstellverfahren oder Zusammensetzungen oder selbst für rechnergesteuerte Finanzverwaltungssysteme, die Computer beinhalten, gelten. Abstrakte Verwendungen der der Erfindung unterliegenden Verfahren bei der Computerforschung, der Algorithmusforschung oder bei Forschungsaktivitäten zu nichtlinearer Mathematik bilden keinen Teil der Erfindung.

Claims (8)

1. Verfahren zum rechnergesteuerten nicht-linearen Optimieren mit den Schritten:
(a) Speichern (100) einer Vielzahl nicht-linearer Optimierungsverfahren in einem ersten Speicher eines Computers;
(b) Speichern (101) in einem zweiten Speicher eines Computers, getrennt von den genannten Verfahren, eine Vielzahl von Regeln zum Steuern der Verfahren, wobei die Regeln allen Verfahren gemeinsam sind;
(c) Eingeben (103) eines Problems in den Computer, für das eine optimale Lösung gesucht wird;
(d) Extrahieren (105) eines ausgewählten Verfahrens aus dem ersten Speicher;
(e) Extrahieren (106) der Vielzahl von Regeln aus dem zweiten Speicher;
(f) Anwenden (108) der ausgewählten Verfahren auf das Problem mittels des Computers, um eine mögliche Lösung zu erhalten, wobei die Anwendung des ausgewählten Verfahrens im Computer mittels der in der Vielzahl von Regeln enthaltenen ausführbaren Regeln gesteuert wird; und
(g) Wiederholen der Schritte (d) bis (f) im Computer für aufeinanderfolgende Verfahren, bis eine Optimale unter den möglichen Lösungen erhalten wird.
2. Verfahren gemäß Anspruch 1, wobei der Schritt (e) während des Schrittes (f) ausgeführt wird.
3. Verfahren gemäß Anspruch 1 oder 2, wobei ein rechnergesteuerter Prozeß oder System durch den Computer gesteuert wird, um ein optimales Funktionieren des Prozesses oder Systems zu erreichen.
4. Verfahren gemäß Anspruch 3, wobei der Prozeß oder das System ein industrieller Prozeß oder System ist.
5. Verfahren gemäß Anspruch 1, wobei eine Vielzahl von zweiten Regeln in einem dritten Speicher des Computers, getrennt von den genannten Verfahren, gespeichert wird (102), wobei jede zweite Regel sich auf ein entsprechendes Verfahren bezieht und jede der zweiten Regeln, die zum ausgewählten Verfahren gehört, aus dem dritten Speicher extrahiert wird (107), wodurch die Anwendung des ausgewählten Verfahrens im Computer mittels der in der Vielzahl von ersten Regeln enthaltenen ausführbaren Regeln und der extrahierten zweiten Regeln gesteuert wird.
6. Verfahren zum Rechner gestützten Konstruieren einer industriellen oder technischen Vorrichtung oder Systems durch rechnergesteuerte nicht-lineare Optimierung gemäß dem Verfahren nach einem der vorstehenden Ansprüche, wobei das Problem die Parameter der Vorrichtung oder des Systems betrifft, die zu optimierenden Parameter vorbestimmten Beschränkungen unterliegen und die optimierten Parameter für die Vorrichtung oder das System abgeleitet werden.
7. Vorrichtung zum nicht-linearen Optimieren mit
(a) einer Speichereinrichtung (83, 91) mit ersten und zweiten Speichern zum:
(i) Speichern einer Vielzahl nicht-linearer Optimierungsverfahren in dem ersten Speicher der Speichereinrichtung; und
(ii) Speichern in dem zweiten Speicher, getrennt von den genannten Verfahren, einer Vielzahl von Regeln zum Steuern der Verfahren, wobei die Regeln allen Verfahren gemeinsam sind;
(b) einer Eingabeeinrichtung (13) zum Eingeben eines Problems, für das eine optimale Lösung gesucht wird;
(c) einem Prozessor (11, 12) zum wiederholten
(i) Extrahieren eines ausgewählten Verfahrens aus dem ersten Speicher;
(ii) Extrahieren der Vielzahl von Regeln aus dem zweiten Speicher; und
(iii) Anwenden der ausgewählten Verfahren auf das Problem, um eine mögliche Lösung zu erhalten, wobei die Anwendung des ausgewählten Verfahrens mittels der in der Vielzahl von Regeln enthaltenen ausführbaren Regeln gesteuert wird, wodurch eine optimale mögliche Lösung erhalten wird.
8. Vorrichtung gemäß Anspruch 7, wobei die Speichereinrichtung auch einen dritten Speicher (91) zum Speichern einer Vielzahl von zweiten Regeln, getrennt von den genannten Verfahren aufweist, wobei jede zweite Regel sich auf ein entsprechendes Verfahren bezieht; und wobei der Prozessor ausgeführt ist, um aus dem dritten Speicher jede zweite Regel, die zum ausgewählten Verfahren gehört, zu extrahieren und die ausgewählten Verfahren auf das Problem anzuwenden, um eine mögliche Lösung mittels Steuerung durch die unter der Vielzahl von ersten Regeln enthaltenen ausführbaren Regeln und der extrahierten zweiten Regel zu erhalten.
DE69030859T 1989-09-12 1990-09-07 Verfahren und Gerät zur rechnergesteuerten nichtlinearen Optimierung Expired - Lifetime DE69030859T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP23651489 1989-09-12

Publications (2)

Publication Number Publication Date
DE69030859D1 DE69030859D1 (de) 1997-07-10
DE69030859T2 true DE69030859T2 (de) 1997-12-18

Family

ID=17001834

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69030859T Expired - Lifetime DE69030859T2 (de) 1989-09-12 1990-09-07 Verfahren und Gerät zur rechnergesteuerten nichtlinearen Optimierung

Country Status (3)

Country Link
US (1) US5195026A (de)
EP (1) EP0417993B1 (de)
DE (1) DE69030859T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10137790A1 (de) * 2001-08-06 2003-02-20 Wittenstein Ag Selektive Lösungsermittlung für ein mehrparametrisches System

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3301040B2 (ja) * 1991-04-22 2002-07-15 株式会社日立製作所 エキスパートシステム
JPH04342059A (ja) * 1991-05-18 1992-11-27 Fujitsu Ltd 組み合わせ最適化装置
US5305232A (en) * 1992-05-13 1994-04-19 The University Of Rochester Chromatography system
BR9305631A (pt) * 1992-09-04 1996-01-09 Power Tool Holders Inc Processo para optimizar a ação compressiva de um mandril processo para determinar a construção ideal para uma configuração de mandril processo para determinar o torque de mandril maximo para uma configuração de mandril sistema para optimizar os parámetros de construção de mandril processo de analise de resvalamento de torque de mandril para calcularão torque desenvolvido por um mandril e mandril para ferramenta de máquina
US5674002A (en) * 1995-11-27 1997-10-07 Powell; Talmadge Wayne Hammers with optimal claw shape and method for development of optimally designed hammers, crowbars, and levers
US5992229A (en) 1996-02-05 1999-11-30 Neles-Jamesbury Oy Method and equipment for determining the performance of control valve
BR9709926A (pt) * 1996-06-21 1999-08-10 Siemens Ag Processo e sistema para o início de operacão de instalações indústrias em especial de indústrias de matéria-prima
US6775597B1 (en) * 1998-05-13 2004-08-10 Siemens Power Transmission & Distribution Security constrained optimal power flow method
EP1145171A3 (de) * 1998-06-17 2002-09-11 Siemens Aktiengesellschaft Verfahren und anordnung zum entwurf eines technischen systems
US6366931B1 (en) * 1998-11-20 2002-04-02 Hewlett-Packard Company Apparatus for and method of non-linear constraint optimization in storage system configuration
US7584112B1 (en) 1999-10-05 2009-09-01 Microsoft Corporation Method and apparatus for optimizing a multivariate allocation of resources
US20030069986A1 (en) * 2000-05-23 2003-04-10 Lori Petrone Electronic marketplace system and method using optimization techniques
US7319943B2 (en) * 2002-12-16 2008-01-15 Canon Kabushiki Kaisha Optimum design method, and apparatus, and program for the same
US7640201B2 (en) * 2003-03-19 2009-12-29 General Electric Company Methods and systems for analytical-based multifactor Multiobjective portfolio risk optimization
US20040186804A1 (en) * 2003-03-19 2004-09-23 Anindya Chakraborty Methods and systems for analytical-based multifactor multiobjective portfolio risk optimization
US7593880B2 (en) * 2003-03-19 2009-09-22 General Electric Company Methods and systems for analytical-based multifactor multiobjective portfolio risk optimization
US7711588B2 (en) * 2003-04-03 2010-05-04 Sap Ag Method and computer program for field spectrum optimization
AT413456B (de) * 2003-09-17 2006-03-15 Voest Alpine Ind Anlagen Verfahren zum optimalen betrieb eines erwärmungsofens
US7010863B1 (en) * 2004-01-26 2006-03-14 Owens-Brockway Glass Container Inc. Optical inspection apparatus and method for inspecting container lean
US8219477B2 (en) * 2004-02-20 2012-07-10 General Electric Company Systems and methods for multi-objective portfolio analysis using pareto sorting evolutionary algorithms
US7630928B2 (en) * 2004-02-20 2009-12-08 General Electric Company Systems and methods for multi-objective portfolio analysis and decision-making using visualization techniques
US7542932B2 (en) * 2004-02-20 2009-06-02 General Electric Company Systems and methods for multi-objective portfolio optimization
US7469228B2 (en) * 2004-02-20 2008-12-23 General Electric Company Systems and methods for efficient frontier supplementation in multi-objective portfolio analysis
US8126795B2 (en) * 2004-02-20 2012-02-28 General Electric Company Systems and methods for initial sampling in multi-objective portfolio analysis
US7340441B1 (en) * 2004-12-17 2008-03-04 The Mathworks, Inc. Search directions in pattern search via rotation

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3840725A (en) * 1972-05-17 1974-10-08 G Grezdov Hybrid computer to solve nonlinear programming problems
US4910660A (en) * 1984-09-19 1990-03-20 Li Chou H Self-optimizing method and machine
JPH0789283B2 (ja) * 1984-11-02 1995-09-27 株式会社日立製作所 数式処理制御システム
US4744028A (en) * 1985-04-19 1988-05-10 American Telephone And Telegraph Company, At&T Bell Laboratories Methods and apparatus for efficient resource allocation
US4713775A (en) * 1985-08-21 1987-12-15 Teknowledge, Incorporated Intelligent assistant for using and operating computer system capabilities to solve problems
JPS6261101A (ja) * 1985-09-11 1987-03-17 Hitachi Ltd 対話型計画装置
US4744026A (en) * 1986-04-11 1988-05-10 American Telephone And Telegraph Company, At&T Bell Laboratories Methods and apparatus for efficient resource allocation
US4706223A (en) * 1986-08-01 1987-11-10 Exxon Production Research Company Method for determining the position of a subterranean reflector from a traveltime curve
US4744027A (en) * 1986-08-22 1988-05-10 American Telephone And Telegraph Company, At&T Bell Laboratories Method and apparatus for optimizing system operational parameters
US5006992A (en) * 1987-09-30 1991-04-09 Du Pont De Nemours And Company Process control system with reconfigurable expert rules and control modules
JP3030557B2 (ja) * 1987-11-28 2000-04-10 ティーディーケイ株式会社 誘電体磁器材料を用いた電子部品
US4935877A (en) * 1988-05-20 1990-06-19 Koza John R Non-linear genetic algorithms for solving problems
US5043915A (en) * 1988-11-30 1991-08-27 Hitachi, Ltd. Knowledge-based system installed with associative knowledge and inference method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10137790A1 (de) * 2001-08-06 2003-02-20 Wittenstein Ag Selektive Lösungsermittlung für ein mehrparametrisches System

Also Published As

Publication number Publication date
US5195026A (en) 1993-03-16
EP0417993A2 (de) 1991-03-20
EP0417993B1 (de) 1997-06-04
DE69030859D1 (de) 1997-07-10
EP0417993A3 (en) 1993-07-21

Similar Documents

Publication Publication Date Title
DE69030859T2 (de) Verfahren und Gerät zur rechnergesteuerten nichtlinearen Optimierung
DE602005002839T2 (de) Ablaufplanung von industriellen produktionsprozessen
DE69831507T2 (de) Simulationssystem mit auflösung von bedingungen
EP1088270B1 (de) Verfahren zur prüfung von java-bytecode-programmen auf sicherheitseigenschaften
DE69521172T2 (de) Anlagenbetriebsunterstützungssystem
DE3911465C2 (de) Verfahren zur automatischen Konfiguration technischer Systeme aus Komponenten
DE10003015A1 (de) Die Erzeugung von Ereignis-Bedingungs-Aktions-Regeln aus Prozessmodellen
WO2007020144A2 (de) Verfahren zur zuordnung von ressourcen zu aufgaben mittels netzwerkflussalgorithmen
DE4135347C2 (de) Verfahren zur Aufrechterhaltung einer gegenseitigen Beziehung zwischen mehreren Objekten in einem für objekt-orientierte Sprache vorgesehenen Computer-System und Vorrichtung zur Durchführung eines derartigen Verfahrens
EP0935207B1 (de) Verfahren zur Planung, zum Bau und/oder zur Instandhaltung eines Rohrleitungssystemes und hierzu hergerichtete Datenverarbeitungsanlage
EP3901713B1 (de) Verfahren und system zum betrieb einer technischen anlage mit einem optimalen modell
DE102020111204A1 (de) Verfahren zum Betreiben eines Steuergeräts für ein Kraftfahrzeug sowie entsprechendes Steuergerät
EP0898224A2 (de) Verfahren und Anordnung zum Entwurf von Regeln aus Trainingsdatenvektoren eines Trainingsdatensatzes nach dem Prinzip der Fuzzy Logic
DE4422637A1 (de) Rechnersystem und Verfahren zum Problemlösen
EP1092210A1 (de) Vorrichtung und verfahren zur erstellung eines virtuellen anlagenmodells
DE4308194A1 (de) Fuzzy-Standard-Automatisierungssystem für industrielle Anlagen
DE102019215488A1 (de) Steuersystem für eine Werkzeugmaschine
EP1516234A2 (de) Informationserzeugungssystem für die produktentstehung
EP2329374A1 (de) Testmodul und verfahren zum testen einer o/r-abbildungs-middleware
DE68928440T2 (de) Dateneingabe in einem Expertensystem
EP1750006A2 (de) Verfahren zum Erstellen einer Baugruppe mit einem Rekursionsverfahren zur Optimierung der Baugruppe
DE102021125204A1 (de) Verfahren und System für eine kooperative Maschinenkalibrierung mit KIAgent mittels Mensch-Maschine-Schnittstelle
DE10034869A1 (de) Verfahren zum automatischen Gewinnen einer funktionsfähigen Reihenfolge von Prozessen und Werkzeug hierzu
DE112021005106T5 (de) Datensammelplan-erstellungsvorrichtung und datensammelplan-erstellungsverfahren
DE102019131639A1 (de) Verfahren zum Bereitstellen eines Erklärungsdatensatzes für ein KI-Modul, Computerlesbares Speichermedium, Vorrichtung und System

Legal Events

Date Code Title Description
8364 No opposition during term of opposition