DE69801896T2 - Verfahren und system zur leistungmessung und beobachtung der qualitaet eines informationssystem - Google Patents

Verfahren und system zur leistungmessung und beobachtung der qualitaet eines informationssystem

Info

Publication number
DE69801896T2
DE69801896T2 DE69801896T DE69801896T DE69801896T2 DE 69801896 T2 DE69801896 T2 DE 69801896T2 DE 69801896 T DE69801896 T DE 69801896T DE 69801896 T DE69801896 T DE 69801896T DE 69801896 T2 DE69801896 T2 DE 69801896T2
Authority
DE
Germany
Prior art keywords
data
indicators
information system
indicator
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69801896T
Other languages
English (en)
Other versions
DE69801896D1 (de
Inventor
Loic Mathieu
Alain Ries
Manuel Stopnicki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Infovista SAS
Original Assignee
Infovista SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Infovista SAS filed Critical Infovista SAS
Publication of DE69801896D1 publication Critical patent/DE69801896D1/de
Application granted granted Critical
Publication of DE69801896T2 publication Critical patent/DE69801896T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/50Network service management, e.g. ensuring proper service fulfilment according to agreements
    • H04L41/5003Managing SLA; Interaction between SLA and QoS
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3495Performance evaluation by tracing or monitoring for systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/02Standardisation; Integration
    • H04L41/0213Standardised network management protocols, e.g. simple network management protocol [SNMP]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/02Standardisation; Integration
    • H04L41/0233Object-oriented techniques, for representation of network management data, e.g. common object request broker architecture [CORBA]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L41/00Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
    • H04L41/22Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks comprising specially adapted graphical user interfaces [GUI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/32Monitoring with visual or acoustical indication of the functioning of the machine
    • G06F11/324Display of status information
    • G06F11/328Computer systems status display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3447Performance evaluation by modeling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F11/00Error detection; Error correction; Monitoring
    • G06F11/30Monitoring
    • G06F11/34Recording or statistical evaluation of computer activity, e.g. of down time, of input/output operation ; Recording or statistical evaluation of user activity, e.g. usability assessment
    • G06F11/3466Performance evaluation by tracing or monitoring
    • G06F11/3476Data logging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2201/00Indexing scheme relating to error detection, to error correction, and to monitoring
    • G06F2201/86Event-based monitoring

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Quality & Reliability (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Hardware Design (AREA)
  • Computer And Data Communications (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)
  • Testing And Monitoring For Control Systems (AREA)
  • General Factory Administration (AREA)

Description

  • Die vorliegende Erfindung betrifft ein Verfahren zur Leistungs- und Qualitätsmessung. Sie betrifft ebenfalls ein dieses Verfahren durchführendes Informationssystem zur Entscheidungsnahme.
  • Die zunehmende Komplexität der Informationssysteme, die insbesondere Client-Server- Architekturen und integrierte lokale Netze integrieren, macht eine Leistungs- und eine wirksame Service-Qualitätsmessung bei diesen Systemen immer schwieriger. Einerseits müssen die Administratoren und Verantwortlichen für diese Informationssysteme ein Serviceangebot für ihre Benutzer zur Verfügung stellen und als Dienstleistungsanbieter wirken, welche sich um die gelieferte Servicequalität kümmern und sich gleichzeitig mit der Reduzierung der Betriebskosten auseinandersetzen und andererseits fordern die Benutzer dieser Dienstleistungen immer höhere Dienstleistungsqualitäten.
  • Die Beherrschung der Servicequalität erfordert ein zuverlässiges System zum Auffinden der pertinenten Informationen aus den verschiedenen Ressourcen des Informationssystems. Es ist hingegen schwierig, die enorme Menge von Leistungsdaten, welche in den Ausrüstungen eines Netzes, in den Systemen und in den Computerprogrammanwendungen residieren, auszuwerten, diese Daten zu konsolidieren und sie anschliessend in Form von synthetischen Bedienungsfeldern zur Verwaltung der Kapazität und der Servicequalität zu restituieren. Es wird einerseits eine Servicequalitätsverwaltung für den Benutzer gesucht: Disponibiltät, applikative Antwortszeit, Reaktivität angesichts eines Zwischenfalls eines technischen Supports und andererseits eine Qualitätsverwaltung der technischen Dienstleistung in Bezug auf die Infrastruktur selbst gesucht: Datendurchsatz, Datendurchsatzzeit im Netz, Zeitverbrauch Zentraleinheit, usw. ...
  • Es existieren schon Programmpakete, welche Servicequalitätsmessungsinformationen bei Informationssystemen liefern, wie z. B. das von der Firma DESKTALK Systems Inc herausgegebene "TRENDsnmp" welches aus einer Basismenge für das Sammeln von Daten, ihrer Aggregation und die Verwaltung und Erzeugung von Berichten und Bedienungsfeldern besteht. Dieses Computerprogramm kann Daten verarbeiten, die von jeder beliebigen Ausrüstung kommen, die das Protokoll SNMP (Simple Network Management Protokoll) unterstützt und schliesst einen spezialisierten Support für den Standard Remote Monitoring (RMON) MIB ein.
  • Es ist ebenfalls das von der Firma CONCORD herausgegebene Produkt "Network Healt" bekannt. Dieses Produkt besteht aus einer Familie automatisierter Lösungen zur Netzwerkanalyse und zur Erzeugung von Berichten.
  • Es existiert ebenfalls das von der Firma ACANTHE SOFTWARE herausgegebene Produkt "Perfagent". Dieses Produkt erzeugt Multiplattformauswertungs - Bedienungsfelder für die Umgebung SNMP. Es liefert eine Echtzeitmessung, eine Archivierung von Indikatoren in relationellen Datenbasen und eine zeitverschobene Analyse des Zustandes der Komponenten eines Netzwerkes bzw. eines Informationssystems.
  • Das von der Firma BULL herausgegebene Produkt "ISM statistics" automatisiert das Sammeln, die Verwaltung von Daten, sowie die Herausgabe von Berichten für die statistische Verwaltung eines Informationssystems. Die gesammelten Daten sind um Objektklassen organisiert, die die reellen Elemente des Netzwerkes darstellen. Für jede Objektklasse liefert dieses Produkt Indikatoren genannte Daten, welche repräsentativ sind für die Belastung und die Aktivität jedes Objektes. Es verarbeitet die Indikatoren insbesondere durch Synthese oder Filtern. Die Informationen werden in einer relationellen Datenbank gespeichert.
  • Das von der Firma IBM herausgegebene Produkt "Performance Reporter" liefert ebenfalls eine Menge von Bedienungsfeldern und Berichten zur Servicequalitätsverwaltung eines Informationssystems und verträgt insbesondere das Protokoll SNMP.
  • Man kann noch das von der Firma CABLETRON SYSTEMS herausgegebene Netzwerkverwaltungsprodukt "SPECTRUM" zitieren. Dieses Produkt integriert insbesondere ausgehend von einer induktiven Modellierung des Netzes ein Sericequalitätsverwaltungsmodul. Das Dokument WO9626588 (Cabletron Systems) offenbart ein Verfahren zur Verwaltung von Konfigurierungen eines Netzwerkes, welches eine Gruppierung von mindestens einem Netzwerkelement zum Aufbau einer Netzwerkgruppe aufweist. Es wird ein Identifikator für jede Ausrüstung des Netzes geliefert und eine Datenbasis wird modifiziert, um eine Beziehung zwischen Ausrüstung und einem Gruppenidentifikator zu enthalten.
  • Das Dokument US 5459837 (Digital Equipment Corporation) offenbart ein Verfahren und ein System zum Messen der Leistung von Servern bei einem Netzwerk.
  • Der Artikel "A model for SNMP Based Performance Management Service", von T.K. APOSTOLOPOULOS, welcher in PROCEEDINGS OF IEEE SINGAPORE INTERNATIONAL CONFERENCE INGINEERING 1995, 3-7. Juli 1995, Seiten 269-273, XP002041821, erschienen ist, offenbart ein Verfahren zur Leistungs- und Qualitätsmessung eines Informationssystem, welches eine Datenkollekte bei diesem Informationssystem, insbesonder Daten die durch Polling, Echzeit oder zeitversetzt gesammelt worden sind, eine Verarbeitung dieser gesammelten Daten und eine Lieferung von Berichten bezüglich Leistungs- und Qualitätsmessung, aufweist.
  • Also, die aktuellen Qualitätsverwaltungsverfahren weisen vielfältige Nachteile zur Durchführung in Informationssystemen mit einem erhöhten Heterogenitätsniveau auf und in denen mehrere interne und externe Datenquellen residieren. Ein Hauptnachteil liegt in der Tatsache, dass diese Verfahren eine versetzte Verarbeitung von gesammelten Daten durchführen.
  • Es ist das Ziel der vorliegenden Erfindung, ein Verfahren zur Leistungs- und Qualitätsmessung bei einem Informationssystem vorzuschlagen, welches eine gleichzeitig materielle, strukturelle und funktionelle Heterogenität berücksichtigt und unabhängig von besonderen Datenerfassungsprotokollen ist.
  • Dieses Ziel wird mit einem Verfahren zur Leistungs- und Qualitätsmessung bei einem Informationssystem erreicht, das folgendes aufweist:
  • - einen Schritt zum Sammeln von Daten bei diesem Informationssystem, wobei diese Daten von verschiedenen Datenquellen, insbesondere folgenden kommen:
  • 1) Daten verschiedener Art, welche durch Echtzeitpolling gesammelt worden sind,
  • 2) Daten verschiedener Art, insbesondere stetige oder unstetige (Ereignisse) Daten, welche in Echtzeit von einer externen Quelle gesammelt worden sind, und
  • 3) Daten verschiedener Art, insbesondere stetige oder unstetige (Ereignisse) Daten, welche zeitverschoben von einer externen Quelle gesammelt worden sind, und
  • - ein Bearbeitungsschritt dieser Daten und die Berechnung von Indikatoren, und
  • - eine Lieferung von Berichten über die Dienstleistungsqualität bei diesem Informationssystem.
  • Erfindungsgemäss weist das Verfahren ausserdem einen Homogenisierungsschritt der gesammelten Daten auf, bei dem die Unterschiede zwischen den Typen der besagten gesammelten Daten maskiert sind, damit der folgende Verarbeitungsschritt nur einen einzigen Typ in Echtzeit gesammelter Daten und nur einen einzigen zeitverschobenen Typ gesammelter Daten betrifft.
  • Man versteht unter Polling einen Mechanismus, durch den von einem Haupt Prozess (Server) regelmässig ein lokaler bzw. entfernter Agentenprozess abgefragt wird, um ihn z. B. für das Schicken von Daten zu beanspruchen.
  • Die Erfassung von Daten von einer externen Quelle unterscheidet sich vom Polling dadurch, dass in diesem Fall der Server nicht die Ankunftsinstanzen der Daten von dieser externen Quelle kontrolliert.
  • So kann, dank des Homogenisierungsverfahrens, verbunden mit einer objektorientierten Modellierung des Informationssystems, das erfindungsgemässe Verfahren vorteilhafterweise die technische Komplexität der verwalteten Objekte, d. h. sowohl Anwendungen, Systeme, Netzwerk- oder Telekommunikationsausrüstungen maskieren, wodurch eine Aggregation in Echtzeit ermöglicht wird.
  • In einer besonderen Ausführungsform des Homogenisierungsprozesses, weist dieser einen besonderen Pollingabstraktionsschritt zur Aggregation von in Echtzeit gesammelten Daten von verschiedenen Datenquellen auf. Das Verfahren kann ausserdem vorteilhafterweise einen sogenannten Erfassungsabstraktionsschritt auf, der folgendes homogenisiert (i): Echtzeitdaten vom Pollingabstraktionsschritt und (ii): zeitverschoben erfasste Daten, wobei diese homogenisierten Daten durch Objekte dargestellt werden, die an die Objekte angeknüpft sind, welche aus der Modellierung des Informationssystems hervorgegangen sind und von diesen Daten betroffen sind.
  • Praktisch gesehen können die jeweiligen Pollingabstraktions- und Erfassungsabstraktionsschritte in der Form einer ersten Computerprogramm- Pollingabstraktionsschicht und einer zweiten Erfassungsabstraktionsschicht implementiert werden.
  • Vorzugsweise werden die bearbeiteten und erzeugten Objekte alle gespeichert in einer Objektdatenbasis, welche später für jede Abfrage zugänglich ist.
  • Mit dem erfindungsgemässen Verfahren wird es möglich, die Servicequalitätsinformationen unter einem operationellen, geographischen, technischen bzw. kaufmännischen Gesichtspunkt zu visualisieren. Dieses Verfahren erlaubt es, synthetische Armaturen von Leistungen und Kosten unter Beibehaltung des zeitlichen Ablaufs der Aktivität und der Abweichungen in Bezug auf die Serviceziele für einen gegebenen Zeitraum und einen definierten Umkreis zu liefern. Diese Armaturen erlauben es, die an die Benutzer gelieferte Servicequalität zu kontrollieren, die Abweichungen vorherzusehen und die nötigen Entscheidungen zu treffen, um die Serviceverpflichtungen sicherzustellen und zu respektieren. Ein System- und Netzwerkmanager kann ebenfalls über eine längere Periode und in Echtzeit die technischen Indikatoren verfolgen, welche sich auf die Objekte des vom erfindungsgemässen Verfahren verwalteten Objekte beziehen: Server, Netzwerk- und Telekommunikationsausrüstungen, spezifsche Anwendungen oder Programmpakete usw..
  • In einer bevorzugten Durchführungsform des erfindungsgemässen Verfahrens weist ein Indikator eine Vielzahl von Formeln auf, wobei jede eine Menge von Variablen kombiniert, und der Verarbeitungsprozess weist für jeden in einem Bericht gefragten Indikator eine dynamische Auswahl einer Formel unter einer Vielzahl diesem Indikator zu geordneter Formeln aus, wobei diese Wahl insbesondere in Abhängigkeit von der jeweiligen Disponibilität der für jede der besagten Formeln notwendigen Variablen und in Abhängigkeit von der jeder der Formeln zugeordneten Prioritäten abhängt.
  • Das erfindungsgemässe Modellierungsverfahren kann ebenfalls vorteilhafterweise Data- Warehouse-Techniken aufweisen, insbesondere zur Beibehaltung der Aufzeichnung des zeitlichen Ablaufs aller gesammelten Daten. Es berücksichtigt und speichert Entwicklungen (Hinzufügungen, Löschen, Abänderungen von Objekten) des Informationssystems und überträgt sich automatisch in die betroffenen Bedienungsfelder.
  • Das erfindungsgemässe Qualitätsverfahren weist ausserdem einen Berichtsgenerator, welcher eine intuitive Schnittstelle vom Typ WYSIWYG (What You See Is What You Get) und fortgeschrittene Funktionen aufweist, insbesondere eine Exploratornavigation, eine intuitive Formatierung der Bedienungsfelder, und eine Funktionsbibliothek, um Indikatoren zusammenzustellen oder zu personallisieren. Diese Funktionen schliessen insbesondere boolesche Funktionen, Berechnungsfunktionen und Gruppierungsfunktionen, konditionelle, temporelle und statische Verteilungsfunktionen ein.
  • Das erfindungsgemässe Verfahren kann vorteilhafterweise in jedes existierende Steuerungs- und Verwaltungsumfeld integriert werden. Es kann autonom oder als Zusatz einer Verwaltungsplattform ausgeführt werden und zur Rückgewinnung aller in Ausrüstungen und Anwendungen durch materielle Sonden und Computerprogrammsonden oder schon installierte Automaten gesammelte Daten ausgeführt werden. Dieses Verfahren kann in der Form einer Anwendung implementiert werden, welche im Modus Client-Server funktionniert unabhängig ob es unter anderem unter Unix oder Windows NT läuft.
  • Nach einem anderen Aspekt der Erfindung wird ein System zur Leistungsmessung und Beobachtung der Qualität eines verteilten Informationssystems vorgeschlagen, welches das erfindungsgemässe Verfahren durchführt, wobei dieses System folgendes aufweist:
  • - Mittel zur Sammlung von Daten beim Informationssystem, wobei diese Daten aus verschiedenen Datenquellen stammen,
  • - Mittel zur Verarbeitung der gesammelten Daten und zur Lieferung von Servicequalitätsindikatoren,
  • - Mittel zur Erzeugung von Berichten und/oder Graphen mit Hilfe dieser Indikatoren,
  • dadurch gekennzeichnet, dass das Verfahren einen Homogenisierungsschritt für die gesammelten Daten aufweist, bei dem die Unterschiede zwischen den Typen der besagten gesammelten Daten derart maskiert werden, dass der folgende Verarbeitungsschritt sich nur auf einen einzigen Echtzeitdatentyp und auf einen einzigen Typ von Daten, die zeitversetzt gesammelt worden sind, bezieht.
  • Andere Besonderheiten und Vorteile der Erfindung erscheinen noch in der nachfolgenden Erfindung. In den im Anhang befindlichen Zeichnungen werden als nicht begrenzende Beispiele gegeben:
  • - die Fig. 1 stellt schematisch ein Informationssystem dar, für das das erfindungsgemässe Verfahren zur Leistungs- und Qualitätsmessung durchgeführt wird;
  • - die Fig. 2 stellt schematisch die Wechselwirkungen zwischen dem erfindungsgemässen Verfahren und einem Informationssystem dar;
  • - die Fig. 3 stellt schematisch die Hauptschichten eines Computerprogramms dar, welches das erfindungsgemässe Verfahren implementiert;
  • - die Fig. 4 stellt ein Fensterbeispiel dar, welches in einem Computerprogramm benutzt wird, das das erfindungsgemässe Verfahren ausführt;
  • - die Fig. 5A, 5B, und 5C stellen schematisch Beziehungen betreffend die Instanzen, Gruppen und Indikatoren;
  • - die Fig. 6 ist ein Blockschema, welches eine mögliche Strukturierung der in dem erfindungsgemässen Verfahren durchgeführten Indikatoren erklärt;
  • - die Fig. 7 ist ein Blockschema, welches die Struktur der "Slot"-Daten bei einer praktischen Durchführung des erfindungsgemässen Verfahrens erklärt;
  • und
  • - die Fig. 8 ist ein Diagramm, das einen Berichtsmodellierungsmechanismus bei dem erfindungsgemässen Verfahren darstellt.
  • Das erfindungsgemässe Verfahren benutzt eine objektorientierte Modellierung des Informationssystems. Die Elemente dieses Systems werden mit mehreren Objektklassen dargestellt. Jede Objektklasse hat eine gewisse Anzahl von Attributen, die das Objekt definieren.
  • Das Modell kann in 3 Bereiche unterteilt werden:
  • - Das Infrastrukturmodell des Informationssystems (Netzwerke, Systeme und Anwendungen),
  • - Das Modell der gesammelten Daten und Indikatoren,
  • - Das Modell der zu erzeugenden Berichte.
  • Die Objekte des erfindungsgemässen Verfahrens werden benutzt, um diese Bereiche zu modellieren.
  • Jetzt werden die Hauptaspekte einer im erfindungsgemässen Verfahren durchgeführten Netzwerkmodellierung beschrieben. Ein im Netzwerk verwaltetes Element wird durch eine Instanz dargestellt. Instanzen können durch Links (Fig. 5A) verbunden werden und Mitglied einer Gruppe sein (Fig. 5B). Ein verwaltetes Element besitzt mehrere, Eigenschaftswerte genannte Attribute. Ein verwaltetes Element kann Kennzeichnen haben, wobei jedes durch eine Vista definiert wird. Die Vista definiert, welche Eigenschaften die Instanz haben muss.
  • Das Objekt stellt eine Fassette, eine Kathegorie, zu der ein Element gehören kann, oder grundsätzliche Kennzeichen eines Elementes dar. Es gibt die Eigenschaften dieser Fassette an.
  • Jedes Element des Informationssystems gehört zu einer oder mehreren Vistas. Die Vistas können durch Regeln verändert werden. Jede Regel wird durch ein Objekt "Regel" dargestellt. Dieses Objekt erlaubt es, Beziehungen zwischen Vistas zu definieren. So erlaubt es eine "Regel", zu definieren, dass die Zugehörigkeit für eine Instanz zu einer gegebenen Vista automatisch ihre Zugehörigkeit zu einer anderen Vista nach sich zieht. So kann jede Vista gleichzeitig von einer anderen Vista ihre Eigenschaften und ihre Indikatoren erben. Im Unterschied zu den Konzeptionen Objekt, wo die Erbschaft fest definiert ist, erlauben es die Regeln in der vorliegenden Erfindung, Erbschaften zwischen den verschiedenen Vistas zu definieren. Wenn man z. B. die 3 folgenden Vistas betrachtet, : 1) eine Knoten-Vista IP, bestehend aus allen Elementen des Netzwerkes bzw. des Informationssystems, die eine Adresse 1P haben, 2) eine Knoten-Vista IPX, bestehend aus allen Elementen des Netzwerkes bzw. des Informationssystems, die eine Adresse IPX haben, 3) die Vista Router bestehend aus allen Ausrüstungen des Informationssystems, die eine Datenrouter-Funktion haben. Je nach dem Fall kann der Router für den Transport des IP-Protokolls konfiguriert werden. In diesem Fall spezifiziert eine Regel, dass die Regel-Vista von der Knoten-Vista IP erbt. In einem anderen Fall wird der Router konfiguriert, um das Protokoll IPX zu routen. In diesem Fall spezifziert die Regel, dass die Vista Routen von der Vista IPX erbt. Schliesslich in einem letzten Fall könnte der Router zum Router der IP- und IPX-Protokolle konfiguriert werden. In diesem Fall spezifizieren 2 Regeln dass die Vista-Router gleichzeitig von der Knoten-Vista IP und der Knoten-Vista IPX erbt.
  • Jetzt werden die Hauptaspekte der Modellierung der Indikatoren beschrieben. Jeder Indikator wird durch ein Objekt "Indikator" dargestellt (Fig. 6). Als Beispiel kann ein Indikator "Disponibilität" sein oder "Servicequalität". Ein Indikator wird, unter Benutzung einer einer aus mehreren Formeln gewählten Formel (Fig. 5C), aus mehreren Variablen bzw. mehreren anderen Indikatoren berechnet. Das erfindungsgemässe Verfahren verarbeitet 2 Typen von Variablen:
  • Echtzeitvariablen
  • Zeitverschobene Variablen
  • Ein direkt aus Variablen berechneter Indikator wird Basisindikator genannt (RTbase für einen Echzeitindikator und DFbase für einen zeitverschobenen Indikator), während ein aus anderen Indikatoren berechneter Indikator abgeleiteter Indikator (DERIVED) genannt wird.
  • Es sei bemerkt, dass es möglich ist, dem Benutzer diesen Unterschied Basisindikator und abgeleiteten Indikator zu maskieren, indem man die automatische Bestimmung des Typs dem System überlässt.
  • Die Indikatoren werden so in 3 Kathegorien klassifiziert:
  • - Die Indikatoren RTbase sind Funktionen von Echtzeiterfassungsvariablen. Wenn der Server den Wert eines solchen Indikatoren zu einem gegebenen Augenblick berechnen will, fragt er nach den Werten der zum selben Moment nötigen verschiedenen Variablen und führt die Berechnung durch;
  • - Die Indikatoren DFbase sind Funktionen von zeitverschobenen Erfassungsvariablen. Wenn der Server den Zeitablauf der Variablen empfängt, bringt er die entsprechenden Indikatoren auf den neuesten Stand.
  • Nach Empfang und Verarbeitung der Variablen darf nichts mehr die auf dem Niveau eines DFbase gespeicherten Daten von denen auf dem Niveau eines RTbase gespeicherten Daten unterscheiden; d. h. dass nichts mehr Anzeichen geben darf, dass die Variablen in Echtzeit erfasst worden sind.
  • - Die abgeleiteten Indikatoren (DERIVED) sind Funktionen anderen Indikatoren (gleicherweise RTbase, DFbase und DERIVED). Ihre Auswertung wird durch einen Ausbreitungsmechanismus vorgenommen: Der Server löst die Auswertung eines abgeleiteten Indikators aus (DERIVED), sobald die ihn zusammensetzenden Indikatoren zur Verfügung stehen.
  • Die abgeleiteten Indikatoren (DERIVED) bereichern die Möglichkeiten des Servers, indem sie folgendes erlauben:
  • - die Benutzung von Aggregationen mehrerer Instanzen,
  • - die Benutzung von Indikatoren RTbase und DFbase bei derselben Formel,
  • - die Benutzung von Funktionen, die auf dem Zeitablauf der Daten basiert sind, was die Indikatoren RTbase und DFbase nicht anbieten können, da sie aus Variablen konstruiert werden, die nicht den Begriff Zeitablauf integrieren.
  • Es ist auch möglich, einem Indikator einen Kalender zuzuordnen. Das Objekt Kalender spezifiziert die Zeitperioden, in denen die Daten des Indikators signifikant sind. Eine Optimisierung besteht darin, keine Daten zu sammeln, wenn diese nicht signifikant sind.
  • Der Typ eines Indikators wird unter Anwendung der Typenkombinationstregeln der Operatoren von dem der Variablen bzw. Indikatoren abgeleitet, die ihn zusammensetzen.
  • Für einen abgeleiteten Indikator (DERIVED) ist es möglich, anzugeben, dass man die Werte nicht behalten will. Jede Wertanfrage für die Indikatoren zieht also eine Nachberechnung nach sich. Man kann so vermeiden vermeiden, einen Indikator zu speichern, der sich leicht aus einem anderen ableiten lässt, z. B. mit Hilfe des temporellen Offset- Verschiebungsoperators Dadurch wird es dem Benutzer ermöglicht, selbst einen Kompromiss zwischen dem Speichervolumen und der Berechnungszeit zu wählen.
  • Die Definition eines jeden Indikators weist eine Höchstfrist zum Erhalten der Daten auf. Diese Frist ist Null für einen Indikator RTbase, für einen Indikator DFbase wird sie vom Benutzer festgelegt und für einen abgeleiteten Indikator (DERIVED) berechnet. Der Benutzer kann also selber zwischen dem nötigen Speichervolumen und der für die Variablen mit zeitverschobener Erfassung möglichen Disponibiltätsfrist der Daten auswählen.
  • Die Berechnung eines über einen gegebenen Zeitraum konsolidierbaren Indikator wird so durchgeführt, indem von in Echtzeit gesammelten Daten ausgegangen wird, dass der Indikator berechnet und dann das erhaltene Ergebnis konsolidiert (durch Mittelbildung) wird. Die Berechnung eines nicht konsolidierbaren Indikators wird so durchgeführt, dass zuerst die Basisdaten konsolidiert (durch Mittelbildung) werden und dann der Indikator berechnet wird.
  • Die benutzten mathematischen Formeln zur Berechnung eines Indexes sind Ausdrücke. Ein Ausdruck kann folgendes aufweisen:
  • Indikatoren
  • Skalare und mehrdimensionelle Variable
  • Parameter dieser Variablen oder dieser Indikatoren, insbesondere ihre Dimension
  • Eigenschaften
  • Operatoren
  • Konstanten
  • Text
  • Wagenrückläufe.
  • Wenn es sich um Operatoren handelt, können ausser den arithmetischen Operatoren wie +, -, X und/ spezifische Operatoren wie reduktionsoperatoren, Konversionsoperatoren und Zeitoperatoren zitiert werden.
  • Reduktionsoperatoren erlauben es, die Dimension eines bzw. mehrer Ausdrücke zu reduzieren, z. B. den Mittelwert eines Indikators über eine Instanzgruppe oder das Minimum und das Maximum.
  • Die Umwandlungsoperatoren erlauben es, den Typ eines Ausdrucks zu ändern, z. B. die Umwandlung von ganzen Zahlen in Fliesskommazahlen.
  • Zeitoperatoren ermöglichen den Zugang zu der Dimension "Zeit" der Werte. Sie wirken nur auf die Indikatoren. Der Operator BaselineDay [Indikator, n] erzeugt einen Graph "Tagesprofil" ("daily Baseline") welcher über eine Menge von n Tagen konsolidiert wird. Ein Graph "Tagesprofil" ist ein Referenzgraph, der das mittlere Profil oder ein typisches Profil eines Indikators über einen Tag illustriert. Er wird berechnet unter Zuhilfenahme der aufeinanderfolgenden gesammelten Daten über n aufeinanderfolgende Daten.
  • Ein Operator select erlaubt es, einen Ausdruckstest durchzuführen. Wenn der Test positiv ist, ist der vom Operator select zurückgeschickte Ausdruck der des ersten Ausdrucks der Argumentenliste und andernfalls ist es der Wert des zweiten Ausdrucks. Ein Operator merge erlaubt es, zusammengesetzte Parameter zu erzeugen. Er fusionniert die Werte eines Ausdrucks mit dem Parameter eines anderen Wertes um einen zusammengesetzten Parameter zu erzeugen. Die Parameter beider Ausdrücke müssen gleich sein.
  • Die Indikatoren können beispielsweise in eine Metrik genannte Menge aggregiert werden. Jede Metrik kann durch einen Graphen oder ein Diagramm dargestellt werden. Die Diagramme können in Bedienungsfelder aggregiert werden.
  • Jetzt wird das Verfahren zur Leistungs- und Qualitätsmessung unter dem materiellen Blickwinkel und dem Softwareblickwinkel unter Bezugnahme auf die vorgenannten Zeichnungen beschrieben.
  • Das erfindungsgemässe Modellierungsverfahren kann in der Praxis, in Bezugnahme auf die Fig. I, in Form von Softwarebausteinen bei einem auf einem an ein lokales Netzwerk LAN angeschlossenen Server S installierten Programmpaket und auf lokalen oder entfernten Clientstationen C (WAN) im Netz implementiert werden.
  • Das erfindungsgemässe Verfahren kann unter Bezugnahme auf die Fig. 2 z. B. in einem Leistungs- und Qualitätsmessungsverfahren durchgeführt werden, welches eine Struktur 1 aufweist, die einerseits mit einem Informationssystem IS in Verbindung steht, aus dem die Daten D entnommen werden und andererseits mit Clientbenutzerschnittstellenstationen CI und Grafikstationen GI. Die aus dem Informationssystem kommenden Datenübertragungsprotokolle weisen entweder Standardprotokolle SP wie z. B. die Protokolle SNMP oder CMIP oder andere Protokolle OP auf. Die Datenaustauschvorgänge zwischen den Clienstationen und dem Leistungs- und Qualitätsmessungsverfahren werden z. B. nach dem Standardübertragungsmodus DCE übertragen.
  • Die interne Struktur 1 des Leistungs- und Qualitätsmessungsverfahrens weist als nicht begrenzendes Beispiel eine erste Polling-Abstraktionsschicht PAL auf (Polling Abstraction Layer), eine zweite Erfassungs-Abstraktionsschicht AAL (Acquisition Abstraction Layer), eine Berechnungs- und Speicherungserfassungschicht ACS und eine Schnittstellenschicht API mit den Benutzerstationen. Die Funktionen Erfassung und Speicherung stellen das Herz des im erfindungsgemässen System benutzten Servers dar. Sie werden mit Hilfe eines statischen und eines dynamischen Modells dargestellt. Das statische Modell besteht aus einer Menge von Strukturen, welche die Daten, die man erhalten möchte, beschreiben. Das dynamische Modell besteht aus einer Menge von Strukturen und Aufgaben die dazu bestimmt sind, diese Daten zu erhalten. Das statische Modell stützt sich auf zwei fundamentale Konzepte: die Variablen und die Indikatoren.
  • Das erfindungsgemässe Verfahren zur Leistungs- und Qualitätsmessung wird vorteilhafterweise auf Informationssysteme angewandt, die eine Client-Server-Architektur aufweisen. Das EDV-Programm, welches das erfindungsgemässe Verfahren in Client-Server durchführt, kann also auf ein oder mehrere Netze verteilt werden. Server können an einer oder mehreren Stellen eines Netzwerkes installiert werden, um die Erfassung der Daten, die Verarbeitung und die Speicherung sicherzustellen. Clientmaschinen können an verschiedenen geographischen Punkten in Abhängigkeit von den Bedürfnissen installiert werden. So können die Manager und Entscheidungsnehmer der Informationssysteme von ihren eigenen Büros aus zur Vorbereitung von Berichten ein Leistungs- und Qualitätsmessungsverfahren durchführen, welches das erfindungsgemässe Verfahren durchführt. Die Clients und der Server stehen z. B. mit Hilfe des Kommunikationsstandards DCE in Verbindung, welcher es ermöglicht, eine Interoperabilität auf heterogenen Platformen zu garantieren. Aiusserdem erlaubt die Client-Server - Architektur, mit der Entwicklung des Informationsystems eine unabhängige Laufendhaltung für die Client-Computerprogramme und für die Server- Computerprogramme.
  • In einem Server, der das erfindungsgemässe Modellierungsverfahren bei einem Leistungs- und Qualitätsmessungsverfahren durchführt, durchqueren die gesammelten und mit Hilfe eines Protokolls geschickten oder in Echtzeit oder zeitverschoben von externen Datenquellen kommenden Daten zwei Abstraktionsschichten. Eine erste, Pollingabstraktionsschicht genannte Schicht (PAL: "Polling Abstraction Layer") erzeugt eine einzige Datenquelle für Echtzeitdaten, welche entweder durch Polling oder von einer externen Datenquelle kommen, unabhängig von den Ursprungsprotokollen. Die zweite, Erfassungsabstraktionsschicht genannte Schicht (AAL: "Acquisition Abstraction Layer") vereinigt diese Echtzeitdaten und die zeitverschobenen Daten, welche von einer externen Quelle kommen, vor ihrer Verarbeitung. Es ist die Aufgabe der Abstraktionsschichten, die Unterschiede zwischen den vom Leistungs- und Qualitätsmessungsverfahren unterstützten Datentypen zu maskieren. Der Verarbeitungsprozessor braucht also nur einen einzigen Datentyp zu verarbeiten. Einmal dass die Daten die zwei Abstraktionsschichten durchquert haben, werden unabhängig von ihrer Herkunft, homogene Variable erhalten.
  • Das auf den Clientstationen installierte Computerprogramm, welches das erfindungsgemässe Verfahren durchführt, hat zwei Funktionen: die Verwaltung des Informationssystemmodells, und die Konzeption und die Visualisierung der Berichte. Um die Verwaltung des Informationssystems durchzuführen und die Berichte vorzubereiten, sind zwei Clientschnittstellen vorgesehen: eine Befehlslinienschnittstelle und eine Graphikschnittstelle.
  • Nach dem Start des Computerprogramms in dem das erfindungsgemässe Verfahren implementiert ist, wird ein Hauptfenster FP visualisiert, unter Bezugnahme auf die Fig. 3. Dieses Fenster vermittelt einen Gesamtüberblick über Infformationssystemmodells in der Form einer arboreszenten Struktur. Die Wurzel der Arboreszenz stellt den Server dar, an den man angeschlossen ist. Die Objekte in dem Modell sind in logische Gruppen organisiert, wobei jede durch Zweige der arboreszenten Struktur dargestellt ist. So schliessen die Vista als nicht begrenztes Beispiel folgendes ein:
  • Anwendungen,
  • Ausrüstung IP,
  • Ausrüstung IPX,
  • Netzwerk,
  • Ausrüstung SNMP,
  • Segment,
  • Standort.
  • Andere Zweige der Arboreszenz entsprechen folgenden Objekten:
  • Berichte,
  • Kalender,
  • Kollektoren,
  • MIBs (Management Information Base: Struktur der disponiblen Informationen über die Datenquellen),
  • Benutzer.
  • Jeder Objektgruppe, z. B. den Segmenten, sind Unterzweige zugeordnet, welche folgenden Objekten entsprechen:
  • Eigenschaften,
  • Instanzen,
  • Indikatoren, und
  • Metriken.
  • Der Server, der ein Leistungs- und Qualitätsmessungsverfahren durchführt, das das erfindungsgemässe Verfahren einschliesst, stellt zwei Funktionen sicher. Eine erste Funktion besteht darin, ein Infrastrukturmodell des Informationsmodells laufend zu halten. Jedesmal, wenn Komponenten hinzugefügt, entfernt oder modifiziert werden, bringt der Server das Informationssystem automatisch auf den neuesten Stand und behält eine Spur der Änderungen. Eine zweite Funktion besteht darin, Anfragen der Benutzer umzuwandeln (Start der Armaturen) in eine Erfassungsplanung der Daten. Anschliessend werden in Abhängigkeit von den Anfragen der Benutzer Indikatoren berechnet. Der Server übernimmt ebenfalls die stundenmässige Datierung und die Speicherung der Daten in Abhängigkeit von den von den Benutzern in ihren Anfragen ausgedrückten Bedürfnissen.
  • Die Anfragen der Benutzer können als Fenster betrachtet werden, welche den Benutzern eine Teilansicht der vom Server gespeicherten Information liefern. Die in den Anfragen enthaltene Information der Benutzer wird vom Server optimisiert. Die optimisiert Form enthält Paare Instanz-Indikator und eine Zeitinformation. Alle redundanten Informationen werden zerstört.
  • Wenn die Daten einmal von dem Server empfangen worden sind, beginnen die Konsolidierungs-, Zusammenfassungs- und Berechnungsprozesse. Die eintreffenden Daten werden in Variable verwandelt, die anschliessend dazu dienen, die Indikatoren zu berechnen. Diese Indikatoren werden ihrerseits als folgende Berechnungsgrundlage benutzt, z. B. anderer Indikatoren. Ausdrücke und Operatoren werden auf Variable und/oder Indikatoren angewendet. Die Ergebnisse werden später konsolidiert und zusammengefasst, um die von den Benutzern geschickten Anfragen zufriedenzustellen. Alle angefragten vom Server gespeicherten Daten sind potentiell disponibel. Wenn in einem späteren Schritt die Benutzer Daten über einen längeren Zeitraum erhalten und Leistungsniveaus von Komponenten vergleichen möchten, genügt es einfach, anzugeben, was sie über ihr Anfragefenster visualisieren wollen. Der Server benutzt also Konsolidierungs- und Zusammenfassungstechniken, um die gespeicherten Daten zu analysieren, und visualisiert nur die Daten, welche für den Benutzer von Interesse sind.
  • Die Umwandlung der Daten in Indikatoren und anschliessend ihre Darstellungen in Form von Graphen und Berichten, weist drei Hauptphasen auf: Datenerfassung, die Berechnung und die Speicherung.
  • Die Echtzeitdaten (RT input) und zeitverschoben (DF input) werden vom Server empfangen. In einer praktischen Durchführungsform des erfindungsgemässen Verfahrens werden die Erfassungsarten von öffentlichen Echtzeitdaten (SNMP, Rmon, Rmon2, ProxyPing, ICMP) und von Eigentümerechtzeitdaten (RTdata für die stetigen externen Echtzeitdatenquellen, Rtevent für die unstetigen externen Datenquellen) unterstützt.
  • Die Erfassungsarten von öffentlichen zeitverschobenen Daten (RmonHistory) und zeitverschobenen Eigentümerdaten (DFdata für die stetigen externen Echtzeitdatenquellen, DFevent für die unstetigen externen Datenquellen) werden unterstützt.
  • Unter ProxyPing wird eine Datenerfassungsart verstanden, durch die, ein Haupt- Prozess, eher als direkt ein Echo-Paket an eine Bestimmung zu schicken (Ping oder ICMP), bei einer dritten Einheit nachfragt (Proxy), diesen Vorgang auf sein Konto durchzuführen und ihm das Ergebnis zu schicken.
  • Die Pollingabstraktionsschicht PAL hat als Aufgabe, die Daten aller Quellen zu aggregieren. Die Erfassungsabstraktionsschicht AAL konvertiert die Echtzeitdaten und die zeitverschobenen Daten in Indikatoren.
  • Ein Indikator kann mehr als eine Formel enthalten (Fig. 5C). Jetzt wird eine Art beschrieben wie unter einer Vielzahl von Formeln die zu behaltene Formel auszuwählen ist. Es kann vorgesehen werden, dass der Server eine Vorauswahl von Formeln vornimmt in Abhängigkeit von der Natur der Vistas, zu denen diese Instanz gehört. Anschliessend prüft der Server, ob die von den bleibenden Formeln erfragten Daten zur Berechnung des Indikators zur Verfügung stehen. Wenn diese Data eine Variable ist, fragt der Server die Instanz aus, um zu wissen, ob die Variable disponibel ist. Wenn sie disponibel ist, wird die Formel als gültig betrachtet und wird also in den folgenden Berechnungen benutzt. Wenn die Formel nicht gültig ist, eine andere Formel des Indikators anzuwenden, bis eine gefunden wird, die den Anforderungen genügt. Für den Fall, dass mehrere Formeln diesen Anforderungen genügen, entscheiden die den Formeln zugeordneten Prioritäten über die zu wählende Formel. Wenn von neuem eine gültige Formel gefunden worden ist, wird sie für eine spätere Benutzung behalten. Die gültige Formel wird automatisch solange benutzt, wie wie keine Änderung an dem Indikator vorgenommen worden ist. Wenn eine Formel hinzugefügt oder geändert worden ist, werden alle Formeln im Indikator von neuem geprüft. Es sei zu bemerken, dass dieser Prozess für den Benutzer transparent ist. Der Prozess kann in Echtzeit und automatisch jede Änderung, Hinzufügung oder Löschung eines Elementes des Informationssystems berücksichtigen.
  • Als Beispiel muss der Indikator "Belastung Zentraleinheit" berechnet werden mit verschiedenen Formeln für verschiedene Ausrüstungstypen. Für den Fall, dass sich das Informationssystem weiterentwickelt, berücksichtigt das erfindungsgemässe Verfahren diese Entwicklung, hält das Modell auf dem Laufenden und wendet verschiedene Formeln und Instanzen im Laufe der Berechnungen an. Das wird automatisch und transparent für die Benutzer durchgeführt.
  • Der Server beginnt die Berechnung, sobald er die nötigen Informationen erhält. Die Indikatoren Rtbase und Dfbase werden kalkuliert, wenn die Daten in Echtzeit empfangen werden. Für die abgeleiteten Indikatoren behält der Server die reinkommenden Daten und verzögert die Berechnung, bis alle erforderlichen Daten empfangen worden sind. Im übrigen sind die abgeleiteten Indikatoren selber aus anderen Indikatoren (RTbase, DFbase oder sogar DERIVED) berechnet worden. Die Indikatoren werden aus Formeln berechnet. Die Variablen werden spezifiziert in einer Verwaltungsinformationsbasis (MIB).
  • Die verarbeiteten Variablen und Indikatoren können Skalare sein aber auch und besonders mehrdimensionelle Matrizen. Die Dimensionen dieser Matrizen sind Objekte des Models, z. B. Objektgruppen oder nicht modellierte aber implizite Unterobjekte, z. B. die vielen physischen Schnittstellen einer Datenübertragungsvorrichtung.
  • Die Operationen auf diesen mehrdimensionellen Matrizen werden nach dem Prinzip der assoziativen Tabellen, was zu einer Form von Template auf Ebene der Indikatoren führt.
  • Der im Leistungs- und Qualitätsmessungsverfahren das erfindungsgemässe Modellierungsverfahren einschliessende durchgeführte Speichermechanismus ist völlig dynamisch. Die Daten werden in zirkularen jedem Indikator/Instanz zugeteilten Registern gespeichert.
  • Die am Modell des Informationssystems vorgenommenen Änderungen werden in der Form von Objekten History gespeichert. Diese Objekte werden erzeugt, sobald Instanzen zu einer Kollekte hinzugefügt oder aus einer Kollekte gelöscht werden. Objekte History werden ebenfalls erzeugt, wenn eine Instanz hinzugefügt oder aus einer Instanzengruppe gelöscht wird.
  • Die Kollekten sind ein direkter Ausdruck der Pollinganfragen der Benutzer. Eine Kollekte enthält eine Indikatorenliste, eine Instanzenliste, ein Pollingintervall, ein Speicherintervall und eine Probenanzahl.
  • Der Datenkollektenprozess wird unter der Kontrolle eines Objektes Kollektor C1, ... ,CN (Fig. 3) durchgeführt, welcher eine Liste der Bedürfnisse des Benutzers für den Graphen enthält (zu visualisierender Indikator, zu überwachende Instanzen, Visualisierungsfrequenz, Erfassungsfrequenz und Anzahl der Proben). Das Objekt Kollektor besteht aus einer Metrik (gleichbedeutend mit mehreren Indikatoren). Er enthält die nötigen Informationen für die Kollekte der Daten für einen Graphen. Der Kollektor wird im allgemeinen automatisch vorn System erzeugt.
  • Die Modellierung eines Berichts greift einerseits auf Modellierungsobjekte zurück und andererseits auf operationelle Objekte, in Bezug auf die Fig. 8.
  • Es ist das Ziel, allgemeingültige Berichtsmodelle zu erhalten, welche unabhängig von den Instanzen sind und nur von der Natur der Vistas abhängen zu denen diese Instanzen gehören. So ist ein für eine oder mehrere Vistas gültiges Berichtsmodell auf alle Instanzen dieser Instanz bzw. dieser Instanzen anwendbar.
  • Jetzt wird beispielhaft und nicht begrenzend ein Durchführungsmodus des im erfindungsgemässen Modellierungsverfahrens durchgeführten dynamischen Modells beschrieben.
  • Das dynamische Modell stützt sich auf fundamentale Konzepte, die vorher definierten Kollekten, die logischen DATAslots, die physischen DATAslots, die POLLslots und die UPDATEslots, unter Bezugnahme auf die Fig. 7.
  • Die logischen DATAslots sind eine vereinfachte und optimisierte Umsetzung durch Eliminierung von redundanten Anfragen von Kollekten, welche einen Indikator, eine Instanz, ein Speicherinvall und eine Anzahl von Proben aufweisen. Die logischen DATAslots werden durch orientierte Beziehungen verbunden, welche den Datenfluss, welcher in die Konsolidierung der Indikatoren und der Auswertung der abgeleiteten Indikatoren (DERIVED) verwickelt ist, führt. Gewisse logische DATAslots stellen Eintrittspunkte für externe Daten dar (Indikatoren RTbase und DFbase) und werden ausschliesslich benutzt als Ausgangspunkt für die Beziehungen. Sie sind die einzigen welche eine optimisierte Pollingfrequenz durch Elimierung der redundanten Anfragen aufweisen.
  • Die physischen DATAslots entsprechen der Datenspeicherung dessen Erfassung und Berechnung von den logischen DATAslots kontrolliert werden.
  • Die POLLslots sind mit den logischen DATAslots vereinigt, welche Eintrittspunkte sind. Sie sind in Verfahren verwickelt, die mit dem Polling verbunden sind:
  • - Planung, unter Integrierung der Kalenderverwaltung,
  • - Fortgeschrittene Optimisierung auf Niveau der Variablen unter mehreren Indikatoren,
  • - Schicken elementarer Anfragen an verschiedene Datenquellen,
  • - Warten auf die Daten, Verwaltung der Timeouts, Zurücksenden und Wiedervereinigung,
  • - Übertragung der Daten und Auswertung unter der Kontrolle von logischen DATAslots, und
  • - Flusskontrolle für die Verwaltung von Pollings, welche die Kapazität des Servers überschreiten.
  • UPDATEslots werden benutzt als zentralisierte Durchgangspunkte der vor der Berechnung und Speicherung gesammelten Daten. Sie erlauben eine nachgeschaltete Flusskontrolle als Ergänzung von der die vorgeschaltet auf Höhe der POLLslots durchgeführt wird.
  • Für einen abgeleiteten Indikator (DERIVED) ist es möglich, anzugeben, dass man die Werte nicht behalten will. Jede Wertanfrage für den Indikator zieht eine Wiederberechnung nach sich. So kann vermieden werden, einen Indikator zu speichern, der sich leicht von einem anderen ableitet, z. B. mit Hilfe eines temporellen Verschiebungsoperators Offset. Das erlaubt es dem Benutzer selbst, den Kompromiss zwischen dem Speichervolumen und der Berechnungszeit abzuwägen.
  • Jeder Indikator kann ein minimales und ein maximales Pollingintervall auferlegen und durch Erweiterung ein minimales Anzeigeintervall, was z. B. gleich dem minimalen Pollingintervall ist. Das hängt nicht vom Benutzer ab, sondern von:
  • - Eigenschaften gewisser Operatoren die durch Einführung des Begriffes Konsolidierungsintervall eine obere Grenze für das Pollingintervall auferlegen, z. B. dem Operator maxt, welcher den Augenblick berechnet, an dem die Variable ihr Maximum in einem gegebenen Zeitintervall erreicht;
  • Der Benutzung der kalendaren Verwaltung, die es dem Pollingintervall auferlegt, unterhalb der Auflösung des benutzten Kalenders zu bleiben;
  • - Indikatoren, welche einen abgeleiteten Indikator (DERIVED) zusammensetzen, die die auf ihrem Niveau existierenden Zwänge verteilen;
  • - Eigenschaften von Variablen gewisser Protokolle (ICMP, ProxyPing) w welche ein Mindestpollingintervall auferlegen. In der Tat, im Falle eines ProxyPing, muss das Pollingintervall grösser sein als die Durchführungsdauer der vom Proxy geforderten Vorgang.
  • Für jeden Indikator behält man drei Benutzungszähler: die Benutzung in einem abgeleiteten Indikator (DERIVED) und/oder eine Metrik, Benutzung in einer Kollekte, und Benutzung des Speicherraumes. Diese drei Zähler dienen insbesondere als Kriterien zum Bestimmen der autorisierten Änderungen an einem existierenden Indikator.
  • Es ist manchmal wünschenswert, dem Benutzer vorzuschlagen, einen im allgemeinen numerischen Bruttowert zu ersetzen, einen Indikator oder einen Parameter durch eine oft alphanumerische alternative Form zu ersetzen, expliziter gesagt, eine Adresse IP wird z. B. durch den Namen einer Instanz ersetzt. Es gibt zwei Lösungsmöglichkeiten:
  • - eine statische Lösung: die Wahl der Darstellung gehört zur Definition des Berichts und der Server sendet die angegebene Darstellung an den Client;
  • - eine dynamische Lösung: der Server liefert die Gesamtheit der möglichen Darstellungen an den Client, der dem Benutzer eine dynamische Einstellung der Anzeige mit Hilfe eines kontextuellen Menus vorschlägt.
  • In beiden Fällen gibt der Client auf optionelle Weise auf Ebene der Kollekte an, welche Alternativen für die Werte der Indikatoren und Parameter zurückzusenden sind. Eine einzige Konfigurierung genügt, da alle Indikatoren einer Kollekte denselben Typ und dieselben Parameter haben.
  • Jeder logische DATAslot wird auf eine einzige Weise durch ein Triplet < rate, Indikator, Instanz> identifiziert, wobei rate die Speicherfrequenz ist. Die POLLslots in denen < Indikator, Instanz> gleich sind, stellen eine Konsolidierungslinie dar. Jedes Emplacement (slot) vereinigt die Anfragen der verschiedenen Kollekten in Bezug auf die Anzahl der Proben und die Pollingfrequenz. Anfragen internen Ursprungs vervollständigen das vorgenannte Triplet im Rahmen der Optimisierung.
  • Die für jedes Emplacement (slot) zu benutzende Anzahl der Proben entspricht der grössten Anfrage. Die Pollingfrequenz wird nur von den Pollslots welche Eintrittspunkte darstellen, benutzt und sie wird dadurch berechnet, indem das Maximum aller Anfragen für die Konsolidierungslinie genommen wird.
  • Die logischen DATAslots sind durch orientierte Beziehungen verbunden, welche die Datenflüsse leiten, die in die Konsolidierung der Indikatoren und die Auswertung der abgeleiteten Indikatoren (DERIVED) verwickelt sind.
  • Am Eingang behält man den Typ und den Herkunfts-Slot jeder Beziehung. Die POLLslots, welche am Ausgang keine Beziehung haben, sind Endpunkte für den Datenfluss.
  • Die Polling- und Speicherintervalle werden mit Hilfe eines Vielfachen n einer Einheitsbasis angegeben. Die Anhäufung der Intervalle wird bevorzugt periodisch resynchronisiert in Bezug auf eine obere Basis.
  • Die logischen DATAslots und die Beziehungen werden beim Ausschalten des Servers nicht konserviert. Sie werden bei seinem Start durch den impliziten Start aller beim Ausschalten des Servers aktiven Kollekten wieder konstruiert.
  • Die verschiedenen Vorgänge, welche direkt oder indirekt die logischen DATAslots betreffen, sind die Erzeugung, die Veränderung die Zerstörung, aber auch das Ausschalten und der Start.
  • Die logischen DATAslots und die Beziehungen werden beim Ausschalten des Servers nicht konserviert. Sie werden bei seinem Start durch den impliziten Start aller beim Ausschalten des Servers aktiven Kollekten wieder konstruiert.
  • Die Auswertung eines Indikators RTbase (siehe Fig. 5) besteht darin, ein Ergebnis aus Daten eines UPDATEslots zu berechnen. Die Auswertung eines abgeleiteten Indikators (DERIVED) besteht wie für einen Indikator RTbase darin, ein Ergebnis aus Daten eines UPDATEslots zu berechnen. Die Auswertung durch Konsolidierung wird durch Berechnung des Mittels über ein Intervall durchgeführt. Seine Berechnung wird durch stückweise Integration einer affinen Funktion durchgeführt. Damit die Integration die Gesamtheit des Intervalls abdeckt, ist es nötig, die Werte an den Enden zu erhalten.. Dafür wird, falls nötig, eine Interpolation mit dem letzten Wert des vorhergehenden Intervalls durchgeführt, bzw. dem ersten Wert des folgenden Intervalls. Diese Werte werden nicht bei der Berechnung der Informationsqualität berücksichtigt (Anzahl der für die Berechnung des Indikators benutzten Messungen).
  • In dem Extremfall, dass der Wert über das Intervall aus der Interpolation zwischen zwei Punkten kommt, die nicht zum Intervall gehören, ist die Qualität (in Anzahl von bentzten Punkten) gleich Null. Wenn die Interpolation erforderlich ist, man jedoch über keine Werte verfügt, um sie durchzuführen, begnügt man sich darauf, die Integration nur über einen Teil des Intervalls durchzuführen.
  • Der Eingangspunkt für die Speicherung der gesammelten Daten ist das Paar < Indikator, Instanz> . Für jedes Paar bewahrt man eine Menge von angetroffenen Kombinationen der Werte der Parameter, und für jede Kombination einen Zeitablauf der Variationen des Indikators auf. Der Zeitablauf wird in einer Liste der DATAslots verteilt. Jedes Emplacement (slot) wird durch drei Hauptinformationen gekennzeichnet: seine logische Grösse, seine physische Grösse und seine Auflösung.
  • Die Speicherung funktioniert auf Ebene jedes Emplacements (slot) zyklisch: Alle neuen gespeicherten Daten überschreiben die älteren. Sobald der Wert eines Indikators gleichsam konstant ist und also konstante Wertniveaus existieren, ist es möglich, den zur Speicherung nötigen Raum mit Hilfe eines "copy on write" genannten Mechanismus (einmalige Speicherung des Wertes und Speicherung der Referenzen für das folgende Auftreten) für die Zeichenreihe und andere Daten mit veränderlicher Grösse zu reduzieren.
  • Übrigens können andere Optimisierungsformen vorgeshen werden. Z. B. kann der intermediäre Wert zwischen drei gleichen Werten gelöscht werden. Zur effektiven Durchführung dieses Mechanismus ist es erforderlich, die kleinere physikalische Grösse in Bezug auf die logische Grösse zu behalten, falls diese ausreicht, in optimisierter Form eine der logischen Grösse gleiche Anzahl von Proben zu speichern.
  • Sobald die Pollings vom Benutzer aufgehalten und/oder gelöscht werden, spiegelt sich das in einer Verkleinerung der logischen Grösse gewisser Pollslots wieder.. Im extremsten Fall kann diese Grösse auf Null reduziert werden.
  • Die physische Grösse wird nicht sofort reduziert, um ein zu abruptes Verschwinden von gespeicherten Daten zu vermeiden. Die Daten werden gelöscht in einem Rythmus, der dem Rythmus der zyklischen Überschreibung ist. Wenn die physische Grösse Null erreicht, wird der Slot vollständig entfernt. Das hat keine Folgen, da seine Verbindung mit dem logischen DATAslot schon zum Augenblick des Nulldurchgangs seiner logischen Grösse verschwunden war.
  • Die Auflösung der gespeicherten Daten kann lokal unterhalb oder oberhalb der Auflösung des Slots in Folge von Zufälligkeiten bei der Kollekte sein. Das bleibt ohne Folge, da jeder Wert mit einer Zeitangabe versehen ist.
  • Die Speicherung der Werte wird z. B. in Form ganzer "Spalten" vorgenommen, das bedeutet, dass man gleichzeitig emfängt und speichert, refenziert mit derselben Zeitangabe, wobei die einzelnen Werte den verschiedenen Kombinationen der Werte der Parameter entsprechen.
  • Der POLLslot ist die logische Darstellung der Pollings jedes betroffenden Paars < Indikator, Instanz> . Er enthält die folgenden Informationen:
  • vom Indikator:
  • - die Variablenliste
  • - die Liste der Parameter jeden Parameters
  • - den Kalender
  • von der Instanz:
  • - die Vista und den Namen der Instanz
  • - alle vom Polling benutzte Eigenschaftswerte, z. B. die IP-Adresse und die Namen der SNMP-Menge
  • vom logischen DATAslot:
  • - die Pollingfrequenz,
  • - eine Verbindung zum logischen DATAslot.
  • Die Menge der vorgenannten Informationen ist gefestigt, ausser einer Änderung der Kollekten durch den Benutzer. Jedes Emplacement (slot) enthält ebenfalls die Datierung des Zeitablaufs und die Art der nächsten betreffenden Aktion.
  • Die Pollingfrequenz erlaubt es, auf der Ebene jedes POLLslots einen Pollingablauf zu definieren. Jede mögliche Aktion muss in einem gut abgegrenzten Zeitraum in Bezug auf diesen Ablauf durchgeführt werden.
  • Falls eine Ausrüstung nicht antwortet, wird eine neue Anfrage gesendet. Diese wird durchgeführt nach einem Intervall, welche nach jeder neuen nicht beantworteten Anfrage verdoppelt wird und nach einer Antwort durch zwei geteilt wird. Der Anfangswert und der Minimalwert ist 1 Sekunde, der Höchstwert hängt von der Grenze der Absendung der letzten Pollinganfrage ab.
  • Zur Implementierung der kalendermässigen Verwaltung auf Ebene des Pollings genügt es, den Kalender bei der Berechnung der zeitlichen Registrierung des nächsten Pollings zu berücksichtigen.
  • Am Ende des Pollings, welches normal oder durch einen Fehler beendet wurde, wird das Datum des nächsten Pollings berechnet.
  • Dieser Mechanismus erlaubt die Verwaltung punktweise auftretender Fehler. Für den Fall chronischer Unterkapazität des Servers, führt dieser Mechanismus zwangsweise zu einer Saturierung des Auswerteprozesses, da es schneller geht, ein UPDATEslottimeout zu erzeugen als es zu speichern. Es ist erforderlich, einen Mechanismus zur Verminderung der Pollingfrequenzen zu implementieren, welcher gleichzeitig mit den Pollingthreads und den Auswertethreads kontrolliert wird.
  • Eine wesentliche Optimisierung auf der Ebene des Pollings ist die globale Verarbeitung mehrerer POLLslots, die fällig werden. Es ist nötig, dass die verschiedenen POLLslots auf demslben Vorgang fällig werden (z. B. Schicken von Daten, Warten auf Daten) und dass alle oder ein Teil der Variablen von einer allen POLLslots gemeinsamen Instanz kommen.
  • Anschliessend ist zu bestimmen, ob die globale Verarbeitung einen Vorteil bringt. Da das nur von den statischen Kennzeichen der POLLslots abhängt, kann man sich vorstellen, das einmal erhaltene Ergebnis zu behalten.
  • Was das Polling anbetrifft, ist der gesuchte Vorteil eine Passbanderhöhung zum eventuellen Nachteil der Belastung der Zentraleinheit. Die Erhöhung ist optimal, wenn die POLLslots gemeinsame Variablen haben, man kann jedoch eine Erhöhung erhoffen sogar für den gegenteilen Fall in Anbetracht der Überinformation ("overhead"), welche erforderlich ist für die Kodierung eines Netzwerkpakets wenn das benutzte Protokoll es erlaubt, mehrere Variablen in einem Paket zu fordern.
  • Was das Protokoll SNMP anbetrifft, darf die globale Verarbeitung nicht dazu führen, dass die Grenzgrösse eines Pakets überschritten wird. Diese Überschreitung wird in der Tat im Augenblick als ein Fehler betrachtet und sogar wenn ein Wiederaufnahmemechanismus später durchgeführt wird, ist es teuerer als der erhole Vorteil. Es gibt hingegen kein Risiko, wenn die verschiedenen POLLslots die gleiche Variablenliste haben oder wenn die Variablen alle die gleiche Grösse aufweisen.
  • Ein UPDATEslot weist die Menge der zur Auswertung eines Indikators RTbase nötigen Informationen auf
  • - eine Liste der Paare < Variable, Wert> , die potentielle Anwesenheit von unbenutzten Variablen in der Auswertung vor der Berücksichtigung,
  • - eine einzige Zeitregistrierung, und
  • - eine Bezugnahme zu dem logischen DATAslot, welcher als Ausgangspunkt der Auswertung benutzt werden soll.
  • Die UPDATEslots werden auf Ebene von Pollslots durch die Konsolidierung partieller Ergebnisse erzeugt. Wenn sie vollständig sind, werden sie von den POLLslots gelöst und in eine globale Liste gebracht.
  • Das macht es möglich, die Verarbeitung von Pollingergebnissen n und die Durchführung des Pollings n+1 parallel durchzuführen. Die Anwesenheit eines Zentralpunktes für die Aggregation ermöglicht eine Retroaktion auf das Polling für den Fall, dass nicht verarbeitete Ergebnisse angehäuft worden sind.
  • Die UPDATEslots werden von mehreren Berechnungstestroutinen ausgeblendet, welche die direkten Berechnungen, die indirekten Berechnungen, Propagation und die Speicherung der Ergebnisse übernehmen.
  • Die in dem erfindungsgemässen Verfahren durchgeführte Modellierung von Variablen schliesst die Modellierung SNMP ein, ist jedoch stark erweitert worden, um Variablen modellieren zu können, welche aus irgenswelchen Quellen kommen und insbesondere unabhängig von Protokollen sind.
  • Es werden unter anderem folgende Kategorien von verschiedenen Benutzungsfällen entsprechenden Parametern von Variablen unterschieden:
  • régulier Der Parameter entspricht einer Dimension der Variablen. Die Dimension einer Variablen ist also seine Anzahl von regelmässigen Parametern. Die verschieden möglichen Werte werden anlässlich des Pollings erhalten. Es handelt sich um die klassischste Benutzung.
  • Beispiel: ifInOctets[ifIndex]
  • Wobei ifIndex die Nummer der Schnittstelle der Ausrüstung darstellt.
  • instance Der Parameter entspricht nicht mehr einer Dimension der Variablen, da sein Wert einzigartig ist. Dieser Wert ist ein Wert der Eigenschaft der Instanz, bei der dieser Indikator angewendet wird. Das ist keine dem Parameter innewohnende Eigenschaft, sondern eine mögliche Benutzung jedes Parameters der regelmässig anzutreffenden Kategorie.
  • Beispiel: ifInOctets[ifIndex = Interface]
  • Wobei Interface eine Eigenschaft der Vista ist ist, mit der dieser Indikator definiert wird.
  • inline Der Parameter entspricht nicht mehr einer Dimension der Variablen, da sein Wert einzigartig ist. Dieser Wert wird vom Benutzer bei der Eingabe des Variablennamens bei einer Formel festgelegt.
  • Beispiel: ciscoPingAvgRtt[ciscoPingProtocol = IP]
  • automatic Der Parameter entspricht nicht mehr einer Dimension der Variablen, da sein Wert einzigartig ist. Er ist das Ergebnis einer internen Manipulation im Computerprogramm.
  • Beispiel: etherStatsPkts[etherStatsIndex = automatic]
  • monotonic Der Parameter nimmt bei jeder neuen Datenerfassung zu.
  • Composite Die Definition eines Parameters "Composite" wird unabhängig von den Formeln des Indikators vorgenommen. Seine Implementierung, welche darin besteht, eine zusätzliche Variable zu bekommen und eine Art von Parameter-Substituierung vorzunehmen zwischen dem Wert des Indikators und dem der Variablen drückt sich hingen einfach in der Grammatik aus:
  • Beispiel: B[ifIndex/ifDescr,srcAddr,dstAddr] = merge (A[IfIndex,srcAddr,dstAddr), ifDescr[ifIndex])
  • Für die Bedürfnisse des erfindungsgemässen Verfahrens war man gezwungen, den Begriff MIR-Datei (MIB = Management Information Base) über die klassische akzeptierte Bedeutung (SNMP) hinaus zu erweitern, um die neuen, weiter oben beschriebenen Variablentypen berücksichtigen zu können. Die traditionellen MIR-Daten, die die ASN.1-Syntax benutzen, sind zu beschränkt, um den ganzen semantischen Reichtum mit dem man die Variablen ab ihrer Definition versehen möchte, auszudrücken. Ausserdem stellen die SNMP-Variablen nur einen Teil der Variablen des erfindungsgemässen Verfahrens dar. Diese traditionellen MIR- Dateien decken hingegen einen nicht zu vernachlässigenden Teil der Definitionsproblematik der Variablen ab. Im folgenden wird der Ausdruck MIB in seiner erweiterten oben definierten Akzeptierung benutzt.
  • Eine MIB-Basis kann als homogen auf Ebene der Variablendefinition und erweitert für ihre Anzeige und/oder ihre Designierung betrachtet werden. Der in die Wege zu leitende Mechanismus, um den Wert einer Variablen zu bekommen, ist von einer Variablen zur anderen anders.
  • Wenn eine Datei MIB geladen ist, analysiert der Server ihren Inhalt und erzeugt eine oder mehrere MIB-Basen. Die MIB-Basis wird in eine Standardaufzeichnungsarboreszenz für die Bezeichnung der verwalteten Objekte integriert. Gleichzeitig erzeugt der Server Objekte, um die Knoten in der MIB-Basis darszustellen. Die vom erfindungsgemässen Verfahren erzeugten Objekte werden in einer baumartigen Struktur mit n Niveaus dargestellt, z. B. vier: die Variablen, die Gruppen, die Module und die Parameter. Die Variablen sind die einzigen Elemente, welche in der Arboreszenz zum Betrieb des Servers erforderlich sind.
  • Es existieren drei typische Fälle für die Benutzung von MIB-Basen:
  • - eine Ausrüstung des Informationssystems, welche das Standardprotokoll SNMP unterstützt, welche mit den Agenten SNMP geliefert wird, die das erfindungsgemässe Verfahren abfragen kann um Daten zu erhalten;
  • - eine Ausrüstung des Informationssystems, welche ein spezifisches Protokoll unterstützt;
  • - eine nicht mit einer MB-Datei gelieferte Ausrüstung, für die man eine MTB-Datei unter Benutzung der vom erfindungsgemässen Verfahren unterstützten Syntax schreiben kann. Das wird insbesondere für die Daten benutzt, die nicht über SNMP zugänglich sind.
  • Zur praktischen Durchführung des erfindungsgemässen Verfahrens, müssen folgende Aufgaben ins Auge gefasst werden:
  • - Erzeugung von MIS-Dateien,
  • - Erzeugung von Vistas,
  • - Erzeugung von Variablen,
  • - Erzeugung von Indikatoren,
  • - Erzeugung von Berichtsmodellen,
  • - Erzeugung von Instanzen,
  • - Erzeugung von instanzierten Berichten (Verbindung von Instanzen mit einem Berichtsmodell),
  • - Veränderung von Berichten, und
  • - Verwaltungsfunktionen.
  • Die Variablen stellen die Basis für die Berechnung der Indikatoren dar. Um zu wissen, welche Variablen an einem Element des Informationssystems zur Verfügung stehen, werden vorher die an diesem Element definierten MIB-Dateien gelesen. Der Server erzeugt also eine Variablenliste, durch Analysierung der MIB-Dateien, die mit den MIB-Basen verbunden sind.
  • Während der Analyse einer MIB-Datei erzeugt der Server die MIB-Objekte, Modul, Gruppe und Variable, welche den Knoten der MIB-Basis unter Bezug auf die Fig. 8 entsprechen.
  • Die Konfigurierung einer Quelle externer Daten erfordert einerseits, dem System anzugeben, welche Variablen disponibel sind, auf welchem System diese Variablen disponibel sind und welches Protokoll benutzt werden muss, um zu diesen Variablen Zugang zu haben, und andererseits, die Elemente zu konfigurieren, die mit dem erfindungsgemässen System zusammenarbeiten werden.
  • Diese Vorgänge werden vorzugsweise automatisch durchgeführt. Das Objekt Gruppe der Basis MIB gibt das jeder Variablen zugeordnete Erfassungsprotokoll an. Das versucht anschliessend, die Information zu bekommen, welche nötig ist, um jedes Paar Instanz- Indikator auf dem Kollektor zu berechnen.
  • Wenn die geforderte Information eine Variable ist, führt das erfindungsgemässe Verfahren ein Polling an der spezifizierten Instanz durch. Wenn das Modell korrekt vom Benutzer konfiguriert worden ist, liefert die Instanz die geforderten Daten.
  • Wenn das Modell nicht korrekt konfiguriert worden ist, sendet die abgefragte Instanz eine Fehlermeldung zurück. Der Server behält im Speicher die Tatsache, dass das Paar Instanz- Indikator verstümmelt ist und der Kollektor wird abgelehnt.
  • Der Kollektor stellt eine Menge von Paaren Instanz-Indikator dar. Der Zustand jedes Paares wird vom Server überwacht und wird durch ein Objekt Zustand dargestellt.
  • Die Kompilierung einer Formel erfordert, in einem praktischen Implementierungsbeispiel, die Kenntnis des Indikatortyps (Basisindikator oder abgeleiteter Indikator) und der zugeordneten Vista.
  • Wenn ein Client eine neue Formel an den Server schickt, kompiliert ein Evaluator die Formel. Diese Kompilierung hat als Funktion, zu überprüfen, dass die Formel syntaxkonform ist und die Auswertung der Formel zu beschleunigen. Die kompilierte Form der Formel muss beständig sein. Der Server kompiliert die Formeln nicht bei jedem Start wieder. Während der Kompilierung wird die Formel durch einen direkten azyklischen Graphen (DAG) dargestellt, dessen Blätter entweder Konstanten oder Variablen für die Formeln der Basisindikatoren oder der Indikatoren für die Formeln der abgeleiteten Indikatoren sind.
  • Der lexikalische Analysator kennt den Typ des Indikators zu dem die Formel die gerade kompiliert wird, gehört. Er weiss also, ob ein Identifikator zum Raum der Variablennamen oder zu dem der Indikatoren gehören.
  • Ein Identifikator kann entweder ein kompletter Identifikator oder ein unkompletter Identifikator sein. In diesem Fall ist die Referenz vieldeutig und die Abfrage des Informationssystems kann eine Variablen- oder Indikatorenliste zurücksenden. Die Klasse SMIvarable und die Klasse Isindicator müssen eine Abfragemethode der Basis liefern, welche die Liste der gewählten Objekte zurückschickt.
  • Die Konstruktion der Ausdrücke führt über eine Auswahl des Operators und eine Berechnung des Ausdrucktyps. Die Parameter des Ausdrucks werden gewählt, indem man von den Parametern der Operanden eines Operators die Parameter subtrahiert, die zur Reduktion dienen. Wenn die Operanden nicht dieselben Parameter haben, muss eine Inklusionsbeziehung zwischen den verschiedenen Parameterlisten. Die Parameter der Reduktionsliste werden von der umgreifenden Liste abgezogen.
  • Für jeden Operand erzeugt der Kompilator eine Tabelle, welche es erlaubt, eine Beziehung herzustellen zwischen den Parametern der Operanden und den Parametern der umfassenden Liste.
  • Der Kompilator erzeugt Parameter im Informationssystem im Falle von zusammengesetzten Parametern und Unsicherheiten der Parameter. Der Kompilator kopiert die verbundenen Typen eher als den Typ mit dem Parameter oder der Quellvariablen zu teilen.
  • Die kompilierte Form besteht aus einer Serie von Anweisungen mit einem intermediären Code und einer Registerdatei ("register file"). Die Registerdatei erlaubt es den Anweisungen, sich gegenseitig ihre Ergebnisse mitzuteilen. Das ist eine Tabelle, die die Werte markiert (DATAvalue oder DATAvalueNP). Die Anzahl der Register wird während der Kompilierung bestimmt. Das ist eine Eigenschaft der Formel und des Indikators. Es entspricht der Anzahl von Instanzen der Klasse EVALexpr. Jedes Register hat einen Zustand. (Leer oder initialisiert) und ein Indikator erlaubt es zu wissen, ob sein Wert zestrört werden kann. Diese letzte Information erlaubt es, in gewissen Fällen während der Auswertung das Objekt DATAvalue oder das vom Register markierte DATAvalueNP wieder zu benutzen. Um die Registerdatei am Anfang der Auswertung wieder initialisieren zu können, muss der Kompilator die Lister der zu initialisierenden Register zerstören.
  • Im Laufe der Analyse der Formel gibt der Kompilator Anweisungen mit intermediärem Code aus. Die Operanden einer Anweisung kommen aus drei Quellen:
  • - Daten EVALdata der Anrufe des Evaluators,
  • - Ergebnisse anderer Anweisungen,
  • - Während der Kompilierungsphase erzeugte Konstanten.
  • Zu jedem Operand hat man Zugang über ein ihm reserviertes Register. Eine Tabelle arguments_ enthält die Registernummer der Argumente des Operators und result_ ist die Registernummer des Ergebnisses.
  • Jede Auswertung einer Formel erfordert die Zuweisung einer neuen Registerdatei. Ihre Initialisierung geschieht in zwei Schritten:
  • - Initialisierung der Register, welche Konstanten aufweisen,
  • - Initialisierung der Register, die Zugang zu Werten von EVALdata haben.
  • Die Anweisungen werden sequentiell durchgeführt. Eine Anweisung wird ausgeführt, indem man ihren Operator aufruft.
  • Sicher ist die Erfindung nicht auf die eben beschriebenen Beispiele begrenzt, und zahlreiche Veränderungen können an diesen Beispielen vorgenommen werden, ohne den Rahmen der Erfindung zu verlassen. Das erfindungsgemässe Modellierungsverfahren kann zur Kontrolle industrieller Prozesse benutzt werden, sobald dieser Prozess Komponenten oder Ausrüstungen, Netzwerke und Softwareanwendungen benutzt, welche Daten in Echtzeit oder zeitverschoben liefern können, welche in einer zu dem Beschriebenen analogen Weise verarbeitet werden können. Obgleich das Durchführungsbeispiel des soeben beschrieben erfindungsgemässen Verfahrens zur Leistungs- und Qualitätsmessung ein besonderes Modellierungs-Verfahren durchführt, welches selbst Gegenstand einer Patentanmeldung ist, kann das erfindungsgemässe Verfahren andere Modellierungstechniken durchführen ohne deshalb den Rahmen der vorliegenden Erfindung zu verlassen.

Claims (14)

1. Verfahren zur Leistungsmessung und zur Beobachtung der Qualität eines Informationssystems, bei dem das Verfahren folgendes aufweist:
- Einen Schritt zur Sammlung von Daten für dieses Informationssystem aus verschiedenen Datenquellen, insbesondere:
1) Verschiedene durch Echtzeitpolling gewonnene Datentypen,
2) Verschiedene, in Echtzeit gewonnene, aus externen Quellen herrührende Datentypen, insbesondere stetige und unstetige Daten (Ereignisse), und
3) Verschiedene, zeitversetzt gewonnene, aus externen Quellen herrührende Datentypen, insbesondere stetige und unstetige Daten (Ereignisse),
- Einen Schritt zur Verarbeitung dieser Daten und zur Berechnung von Indikatoren, und
- Die Lieferung eines Leistungs- und/oder Qualitätsberichts für dieses Informationssystem,
dadurch gekennzeichnet, dass das Verfahren außerdem einen Homogenisierungsschritt für die gesammelten Daten aufweist, bei dem die Unterschiede zwischen den Typen der besagten gesammelten Daten derart maskiert werden, dass der folgende Verarbeitungsschritt sich nur auf einen einzigen Echtzeitdatentyp und auf einen einzigen Typ von Daten, die zeitversetzt gesammelt worden sind, bezieht.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Homogenisierungsschritt einen sogenannten Polling-Abstraktionsschritt zur Gruppierung von in Echtzeit von verschiedenen Datenquellen herrührenden Daten aufweist.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, dass der Homogenisierungsschritt außerdem einen sogenannten Erfassungs-Abstraktionsschritt zur Homogenisierung von aus dem Polling-Abstraktionsschritt herrührenden Echtzeitdaten aufweist.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass der Erfassungs- Abstraktionsschritt außerdem so ausgestaltet ist, dass er die Daten zeitversetzt homogenisiert.
5. Verfahren nach irgendeinem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass ein Indikator eine Mehrzahl von Formeln aufweist und dass das Verarbeitungsverfahren für jeden nachgefragten Indikator ein dynamisches Auswahlverfahren für eine von mehreren diesem Indikator zugeordneten Formeln und/oder Prioritätsbedingungen für mehrere Formeln aufweist.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass die dynamische Auswahl einer Formel in Abhängigkeit von der Natur der Instanz für die der Indikator angefordert worden ist, durchgeführt wird und/oder vom guten Funktionieren der besagten Formel bei der in Frage kommenden Instanz und/oder von Prioritätsbedingungen bei der Vielzahl von Formeln abhängt.
7. Verfahren nach irgendeinem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass es außerdem eine Modellierung des Informationssystems vorsieht, wodurch es möglich wird, die besagten Indikatoren Objekten des Informationssystems zuzuordnen.
8. Verfahren nach irgendeinem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Indikatoren mehrdimensional sind.
9. Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass die mehrdimensionalen Indikatoren mit Hilfe von Techniken der assoziativen Kalkulierung berechnet werden.
10. Verfahren nach Anspruch 8 oder 9, dadurch gekennzeichnet, dass die Dimension der Indikatoren Instanzengruppen des Informationssystems und/oder Unterobjekten dieser Instanz entspricht.
11. Verfahren nach irgendeinem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass es außerdem ein historisches Speicherverfahren der Indikatoren und/oder der Änderungen der Instanzen des Informationssystems aufweist.
12. Verfahren nach irgendeinem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die verarbeiteten und erzeugten Objekte in einer Objektdatenbasis gespeichert werden.
13. System zur Leistungsmessung und zur Beobachtung der Qualität eines Informationssystems, welches das Verfahren nach irgendeinem der vorangehenden Ansprüche ausführt und folgendes aufweist:
- Mittel zur Modellierung und Sammlung von verschiedenen Datentypen aus verschiedenen Datenquellen aus dem Informationssystem,
- Mittel zur Verarbeitung der gesammelten Daten und zur Auslieferung von Qualitätsindikatoren, und
- Mittel zur Erzeugung von Berichten und/oder Graphen mit Hilfe dieser Indikatoren,
dadurch gekennzeichnet, dass es außer der Mittel zur Homogenisierung von aus verschiedenen Datenquellen gesammelten Daten, welche derart angeordnet sind, dass sie die Unterschiede zwischen den gesammelten Datentypen maskieren, damit die Verarbeitungsmittel nicht nur einen einzigen in Echtzeit bzw. zeitversetzt gewonnenen Datentyp verarbeiten, aufweist.
14. Anwendung des Verfahrens und des Systems nach irgendeinem der vorangehenden Ansprüche auf die Leistungsmessung und Beobachtung der Qualität eines industriellen Prozesses.
DE69801896T 1997-01-29 1998-01-28 Verfahren und system zur leistungmessung und beobachtung der qualitaet eines informationssystem Expired - Lifetime DE69801896T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR9700966A FR2758897B1 (fr) 1997-01-29 1997-01-29 Procede et systeme de mesure des performances et de suivi de la qualite de service d'un systeme d'information
PCT/FR1998/000150 WO1998033122A1 (fr) 1997-01-29 1998-01-28 Procede et systeme de mesure des performances et de suivi de la qualite de service d'un systeme d'information

Publications (2)

Publication Number Publication Date
DE69801896D1 DE69801896D1 (de) 2001-11-08
DE69801896T2 true DE69801896T2 (de) 2002-05-16

Family

ID=9503093

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69801896T Expired - Lifetime DE69801896T2 (de) 1997-01-29 1998-01-28 Verfahren und system zur leistungmessung und beobachtung der qualitaet eines informationssystem

Country Status (6)

Country Link
EP (1) EP0954787B1 (de)
AT (1) ATE206540T1 (de)
DE (1) DE69801896T2 (de)
ES (1) ES2165146T3 (de)
FR (1) FR2758897B1 (de)
WO (1) WO1998033122A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2254285A1 (en) * 1998-11-20 2000-05-20 Crosskeys Systems Corporation Calculation of resource availability using degradation factors
FR2802676B1 (fr) * 1999-12-16 2002-02-08 Bull Sa Procede et dispositif de deploiement d'une supervision distribuee
FR2802675B1 (fr) * 1999-12-16 2005-03-25 Bull Sa Procede de supervision distribuee d'indicateurs et agent de supervision d'un systeme informatique
EP1275222B1 (de) * 1999-12-23 2011-10-26 Accenture Global Services Limited Verfahren zur steuerung der datenerfassung, datenmanipulation und speicherung in einem netzwerk mit gesicherter service qualität
US6985901B1 (en) 1999-12-23 2006-01-10 Accenture Llp Controlling data collection, manipulation and storage on a network with service assurance capabilities
US20020095400A1 (en) * 2000-03-03 2002-07-18 Johnson Scott C Systems and methods for managing differentiated service in information management environments
FR2827451B1 (fr) * 2001-07-13 2003-12-12 France Telecom Procede de diffusion d'un contenu a partir d'une source vers des terminaux recepteurs a travers un reseau informatique, avec remontee de rapports de reception, et serveur de collecte associe
US7457864B2 (en) 2002-11-27 2008-11-25 International Business Machines Corporation System and method for managing the performance of a computer system based on operational characteristics of the system components
CN112988532B (zh) * 2021-01-27 2022-07-29 腾讯科技(深圳)有限公司 埋点事件的上报方法、装置、服务器及存储介质

Also Published As

Publication number Publication date
EP0954787B1 (de) 2001-10-04
FR2758897B1 (fr) 1999-04-23
DE69801896D1 (de) 2001-11-08
FR2758897A1 (fr) 1998-07-31
ES2165146T3 (es) 2002-03-01
EP0954787A1 (de) 1999-11-10
ATE206540T1 (de) 2001-10-15
WO1998033122A1 (fr) 1998-07-30

Similar Documents

Publication Publication Date Title
US6055493A (en) Performance measurement and service quality monitoring system and process for an information system
US6061724A (en) Modelling process for an information system, in particular with a view to measuring performance and monitoring the quality of service, and a measurement and monitoring system implementing this process
DE69712678T2 (de) Verfahren zur Echtzeitüberwachung eines Rechnersystems zu seiner Verwaltung und Hilfe zu seiner Wartung während seiner Betriebsbereitschaft
DE69719002T2 (de) Überwachung eines Kommunikationsnetz
DE69132279T2 (de) Verfahren zur Isolierung eines Netzwerkfehlers
DE69911681T2 (de) Verfahren zum Verfolgen von Konfigurationsänderungen in Netzwerken von Rechnersystemen durch historische Überwachung des Konfigurationsstatus der Vorrichtungen im Netzwerk
DE68928433T2 (de) Verwaltungssystem für verbundene einheiten in einem verteilten rechnersystem
DE69911266T2 (de) Computerprogrammprofiler
DE69735917T2 (de) Flexibler SNMP trap Mechanismus
DE69413104T2 (de) Anordnung und Verfahren zur Überwachung von Tafeln von einfachen Netzverwaltungsprotokollen
DE69833723T2 (de) Speicherung und Manipulation von Netzwerkverwaltungsereignissen unter Verwendung von relationaler Datenbanktechnologie
DE69923435T2 (de) System und verfahren zur optimierung der leistungskontrolle von komplexen informationstechnologiesystemen
DE69808633T2 (de) Ablaufsteuerung für ein softwaresystem
DE69714723T2 (de) Verfahren und vorrichtung zur verwaltung integrierter netzwerke und zur systemverwaltung in kommunikationsnetzwerken
DE69031538T2 (de) System und Verfahren zur Sammlung von Softwareanwendungsereignissen
DE69228166T2 (de) Ereignisbehandlungsvorrichtung mit Filterverfahren und mit Einwirkungassoziationsverfahren
DE69628718T2 (de) Netzwerk - Topologie-Verwaltungssystem
DE69936152T2 (de) System und verfahren zur dynamischen korrelation von ereignissen
DE69702743T2 (de) Endstück für ein Seil
DE112017006164T5 (de) Differenzvergleich von ausführbaren Datenflussdiagrammen
DE102004016850B4 (de) Verfahren, Management-Server und Computerprogramm zum Zuordnen von Status-Nachrichten überwachter Objekte einer IT-Ifrastruktur
DE102015101370A1 (de) Verwalten von Big-Data in Prozesssteuerungssystemen
DE10256988A1 (de) Verbessertes System und Verfahren für eine Netzwerkverwendungsüberwachung
DE69328164T2 (de) Systemverwaltungsverfahren und -vorrichtung.
DE69801896T2 (de) Verfahren und system zur leistungmessung und beobachtung der qualitaet eines informationssystem

Legal Events

Date Code Title Description
8364 No opposition during term of opposition