DE10213174A1 - Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen - Google Patents
Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von RedundanzenInfo
- Publication number
- DE10213174A1 DE10213174A1 DE2002113174 DE10213174A DE10213174A1 DE 10213174 A1 DE10213174 A1 DE 10213174A1 DE 2002113174 DE2002113174 DE 2002113174 DE 10213174 A DE10213174 A DE 10213174A DE 10213174 A1 DE10213174 A1 DE 10213174A1
- Authority
- DE
- Germany
- Prior art keywords
- data
- statistical
- statistical analysis
- redundancies
- mask
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/18—Complex mathematical operations for evaluating statistical data, e.g. average values, frequency distributions, probability functions, regression analysis
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Operations Research (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Algebra (AREA)
- Evolutionary Biology (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Die Erfindung umfasst ein Verfahren, bei dem Datenmengen aus unterschiedlichen Tabellen und Datenbanken gesammelt und in einer eindeutig strukturierten Zwischentabelle abgelegt werden. Die Strukturierung dieser Tabelle ist so ausgebildet, dass die Vielzahl von stochastischen Algorithmen jederzeit ohne Anpassung der Datenmengen, die in der Zwischentabelle abgelegt sind, Auswertungen fahren können. Diese eindeutig strukturierte Zwischentabelle erstreckt sich über mehrere Dimensionen, wobei die Algorithmen, die die Auswertung vornehmen, in der Lage sind, zu erkennen, wieviele Dimensionen tatsächlich benutzt werden. Eine mögliche Ausgestaltung der Tabelle ist, dass z.B. die ersten zehn Spalten nummerische Werte umfassen und die anderen Spalten Werte anderen Typs. Rechenoperationen werden somit nur auf den ersten zehn Spalten durchgeführt. Der Kopieralgorithmus ist dabei so ausgebildet, dass eine eindeutige Abbildung der Typen auf die bereitgestellten Typen bzw. Spalten stattfindet.
Description
- Die Erfindung betrifft ein computergestütztes Verfahren zur statistischen Auswertung von Daten. Insbesondere umfasst die Erfindung eine Möglichkeit, einen vorhandenen Code einfach wiederzuverwenden, indem Strukturen verwendet werden, die so abstrakt gehalten sind, dass Änderungen am Programmcode nicht notwendig sind.
- Insbesondere im Bereich der Telekommunikation ist es oftmals notwendig, Auswertungen über Fehlerhäufigkeiten, Dienstleistungen, Wartezeiten in unterschiedlichen Regionen oder von unterschiedlichen Personen durchzuführen. Weitere Aspekte sind die Kosten und der durchschnittliche Zeitaufwand, der benötigt wird, um Fehler zu beheben. Hierfür sind unterschiedliche statistische Verfahren einzusetzen, die auf unterschiedliche Datenmengen zurückgreifen, die unterschiedlich zusammenzustellen sind. Aufgrund der großen Komplexität und der Vielzahl von Möglichkeiten, die es in diesem Bereich gibt, ist es Aufgabe der Erfindung, ein Verfahren bereitzustellen, das es ermöglicht, ohne große Umstellung des Programmcodes eine Vielzahl von Auswertungen auszuführen.
- Diese Aufgabe wird durch die Erfindungen gemäß den Merkmalen der unabhängigen Ansprüchen gelöst. Vorteilhafte Weiterbildungen der Erfindungen sind in den Unteransprüchen gekennzeichnet.
- Abstrakt betrachtet, werden Datenmengen aus unterschiedlichen Tabellen und Datenbanken gesammelt und in einer eindeutig strukturierten Zwischentabelle abgelegt. Die Strukturierung dieser Tabelle ist so ausgebildet, dass die Vielzahl von stochastischen Algorithmen jederzeit ohne Anpassung der Datenmengen, die in der Zwischentabelle abgelegt sind, Auswertungen fahren können. Diese eindeutig strukturierte Zwischentabelle erstreckt sich über mehrere Dimensionen, wobei die Algorithmen, die die Auswertung vornehmen, in der Lage sind zu erkennen, wie viele Dimensionen tatsächlich benutzt werden. Eine mögliche Ausgestaltung der Tabelle ist, dass z. B. die ersten zehn Spalten numerische Werte umfassen und die anderen Spalten Werte anderen Typs. Rechenoperationen werden somit nur auf den ersten zehn Spalten durchgeführt. Der Kopieralgorithmus ist dabei so ausgebildet, dass eine eindeutige Abbildung der Typen auf die bereitgestellten Typen bzw. Spalten stattfindet.
- Im Einzelnen handelt es sich um ein Verfahren zur statistischen Auswertung von Daten unter Verwendung einer Eingabemaske, über die Datenmengen bestimmt werden, wobei vorzugsweise über die Auswahl von Spalten und Selektionskriterien Teilmengen dieser Datenmengen bestimmt werden. Die Selektionskriterien können dabei Meta-Zeichen umfassen, wie z. B. einen Asterix(*) oder andere Platzhalter. Die Felder der Datenmaske können sich aus Spalten unterschiedlicher Tabellen zusammensetzen. Die Tabellen können wiederum in unterschiedlichen Datenbanken abgelegt sein. Es ist darauf hinzuweisen, dass auch andere Datenbanken wie objektorientierte Datenbanken oder ISA- Modelle oder Neuronale Netze verwendet werden können. Mit Hilfe der Eingabemaske, die von Fall zu Fall unterschiedlich ausgebildet sein kann, je nachdem wie viele Datenbanken und Attribute referenziert wurden, wird die Datenmenge bestimmt, die in die Zwischentabelle kopiert wird. In einer bevorzugten Ausführungsform wird die Eingabemaske automatisch generiert, je nachdem welche Datenquellen im Vorfeld gewählt wurden.
- In einem weiteren Schritt werden die Datenmengen bestimmt, die in die Zwischentabelle kopiert werden sollen. Dies erfolgt durch Selektionskriterien in den einzelnen Maskenfeldern. Bevorzugt werden nur die Daten in die Zwischentabelle kopiert, die auch in der Eingabemaske selektiert wurden. Vorzugsweise automatisch wird dann anhand des Typs der selektierten Merkmale entschieden, in kopiert werden.
- Vorzugsweise nach dem Kopieren wird das statistische Verfahren ausgewählt. Hierbei wird der Benutzer durch eine entsprechende Maske geführt. In einer bevorzugten Ausführungsform kann nun angegeben werden, welche Werte bei der Durchführung der Statistiken aus der Zwischentabelle zu berücksichtigen sind. Dies ist insbesondere dann von Vorteil, wenn Alternativen für die Berechnung der Statistik zur Verfügung stehen. So ist es z. B. denkbar, dass in einem Standardmodus aufsteigend die ersten Spalten als Parameter für die Statistiken zu berücksichtigen sind. Sollte von diesem Ansatz abgewichen werden, so hat der Benutzer die Möglichkeit, andere Parameter (Spalten) zu bestimmen, die in die Auswertung einfließen sollen.
- Aufgrund der wohldefinierten Struktur der Zwischentabelle kann nun das statistische Verfahren ausgeführt werden.
- Aufgrund von fehlerhaften Benutzereingaben ist es oftmals nicht zu vermeiden, dass Informationen redundant abgelegt werden. Diese Redundanzen können mögliche Statistiken verfälschen. Um dieser Problematik entgegenzuwirken, wird vor dem Kopiervorgang oder nach dem Kopiervorgang eine Überprüfung auf redundante Datensätze vorgenommen. Bei diesem Verfahren wird in einem ersten Schritt ein Cursor definiert, der zeilenweise durch die Relationen läuft. In einem ersten Schritt wird der Datensatz gelesen, der zur Überprüfung von redundanten Informationen herangezogen werden soll. Anhand einer SQL-Abfrage, die nach Duplikaten sucht, werden redundante Datensätze herausgefunden. Zur Vermeidung eines Overheads wird bevorzugt lediglich ein Feld überprüft, dass komprimierte Informationen aller weiteren Attribute zusammenfasst. Somit ist es möglich, durch lediglich eine Vergleichsoperation festzustellen, ob eine identische Zeile (Tupel) vorliegt oder nicht. Eine Kompression kann z. B. durch eine Ex/Or-Verknüpfung aller Attribute stattfinden. Nur wenn eine Identität vorliegen sollte, werden explizit alle Attribute überprüft, wenn eine bijektive Komprimierung nicht vorliegen sollte. Sollte ein solches komprimiertes Attribut nicht vorliegen, so wird vorzugsweise in einem vorgeschalteten Verfahrenschritt eine weitere temporäre Tabelle erstellt, die lediglich aus einem primären eindeutigen Schlüssel besteht und dem komprimierten Attribut. Dieses komprimierte Attribut wird natürlich indiziert. Somit ist eine einfache Überprüfung auf Redundanz jederzeit möglich.
- Statistiken über die redundanten Werte werden vorzugsweise in einer weiteren Statistiktabelle abgelegt.
- Weitere Bestandteile der Erfindung sind Computerprogramme, die beim Ablauf auf einem Computer das Verfahren nach einem oder mehreren der vorhergehenden Verfahrensansprüche ausführen.
- Die Erfindung umfasst ebenfalls einen Datenträger, auf dem eine Datenstruktur gespeichert ist, die nach dem Laden in einen Hauptspeicher eines Computers das Verfahren nach einem oder mehreren der vorhergehenden Verfahrensansprüche ausführt.
- Ein Computersystem, bestehend aus einem oder mehreren Servern, das durch Mittel gekennzeichnet ist, insbesondere Speicher, Netzwerkeinheiten, Prozessoren und Bussysteme, die so ausgebildet und eingerichtet sind, dass ein Verfahren nach einem oder mehreren der vorhergehenden Verfahrensansprüche ausgeführt wird, ist ebenfalls Teil der Erfindung
- Im Folgenden wird die Erfindung anhand von Ausführungsbeispielen näher erläutert, die in den Figuren schematisch dargestellt sind. Gleiche Bezugsziffern in den einzelnen Figuren bezeichnen dabei gleiche Elemente. Im Einzelnen zeigt:
- Fig. 1 einen schematischen Ablauf des Verfahrens zur Erstellung einer Zwischentabelle und der Anwendung eines statistischen Algorithmus, der auf die eindeutig strukturierte Tabelle zugreift;
- Fig. 2 eine Datenbankstruktur, die ein komprimiertes Attribut umfasst, um Redundanzen in einer Datenbank zu ermitteln.
- Im Rahmen der Erfindung sind zahlreiche Abwandlungen und Weiterbildungen der beschriebenen Ausführungsbeispiele verwirklichbar.
- Im Folgenden werden einige Ausführungsbeispiele beschrieben. So zeigt die Fig. 1 den Verfahrensablauf nach Anspruch 1. Eine Eingabemaske 12 hat Zugriff über Referenzen 11 zu einer Reihe von externen Datenbanken 10. Ein Benutzer kann in die Eingabemaske Werte und Selektionskriterien eingeben. Lediglich die so verwendeten Attribute bzw. Spalten werden in eine Zwischentabelle 14 kopiert. Die Spalten der Zwischentabelle stehen in Referenz 13 zu der Eingabemaske 12.
- Bei dem Kopiervorgang werden lediglich die in der Eingabemaske verwendeten Spalten und Attribute berücksichtigt. Wie bereits oben beschrieben besitzt die Zwischentabelle 14, die in einer Datenbank 15 abgelegt ist, wohldefinierte Strukturen. Hierdurch ist es möglich, dass ein statistischer Algorithmus 16 ohne Anpassung ablaufen und eine grafische Darstellung 17 erzeugen kann. Das betrifft insbesondere die Kennzahlermittlung.
- Die Fig. 2 zeigt die Struktur einer Datenbank, die Redundanzen ermittelt und vorzugsweise eliminiert. In einer ersten Datenbank 18 ist eine Tabelle 19 abgespeichert, die redundante Informationen enthält. In einer weiteren Datenbank 20 ist eine Tabelle 21 abgelegt, die lediglich eindeutige Schlüssel und komprimierte Attribute enthält. Über den eindeutigen Schlüssel kann die Zeile in der Tabelle 19 referenziert werden. Die entsprechende Referenz ist durch das Bezugszeichen 22 gekennzeichnet.
- Der Algorithmus 24 referenziert die Zwischentabelle 21. Aufgrund der Indizierung ist es somit sehr einfach, Redundanzen herauszufinden, die dann, wenn nötig, im Detail anhand der Tabelle 19 überprüft werden. Bezugszeichen 10 externe Datenbanken
11 Referenzen zu den Spalten und Attributen
12 Eingabemaske
13 Referenzen zu der Zwischentabelle
14 Zwischentabelle
15 Datenbank, in der die Zwischentabelle abgelegt ist
16 statistischer Algorithmus
17 grafische Darstellung der statistischen Auswertung
18 Datenbank, in der eine Tabelle mit redundanten Informationen abgelegt ist
19 Tabelle mit redundanten Informationen
20 Datenbank, in der eine Tabelle mit einem eindeutigen Schlüssel und einem komprimierten Attribut abgelegt ist
21 Tabelle mit einem eindeutigen Schlüssel und einem komprimierten Attribut
22 Referenz des eindeutigen Schlüssels auf die Tabelle mit redundanten Informationen
23 Zugriff auf die Tabelle mit einem eindeutigen Schlüssel und einem komprimierten Attribut
24 Algorithmus, der nach redundanten Informationen sucht
Claims (11)
1. Verfahren zur statistischen Auswertung von Daten, unter
Verwendung einer Eingabemaske, über die Datenmengen
bestimmt werden, wobei vorzugsweise über die Auswahl von
Spalten und Selektionskriterien Teilmengen dieser
Datenmengen bestimmt werden,
mit einem Schritt, bei dem die Datenmengen mit Hilfe der Eingabemaske und Selektionskriterien bestimmt werden,
mit einem weiteren Schritt, bei dem aus einer Mehrzahl von Verfahren ein statistisches Verfahren ausgewählt wird, das auf die Datenmenge anzuwenden ist,
mit einem weiteren Schritt, bei dem die bestimmten Datenmengen in eine vordefinierte Tabelle von der immer gleichen Struktur kopiert werden, wobei die statistischen Verfahren aufgrund der gleichen Struktur der vordefinierten Tabelle so auf die vordefinierte Tabelle abgestimmt sind, dass unabhängig vom Inhalt eine Auswertung vorgenommen werden kann, ohne dass programmtechnische Änderungen vorzunehmen sind.
mit einem Schritt, bei dem die Datenmengen mit Hilfe der Eingabemaske und Selektionskriterien bestimmt werden,
mit einem weiteren Schritt, bei dem aus einer Mehrzahl von Verfahren ein statistisches Verfahren ausgewählt wird, das auf die Datenmenge anzuwenden ist,
mit einem weiteren Schritt, bei dem die bestimmten Datenmengen in eine vordefinierte Tabelle von der immer gleichen Struktur kopiert werden, wobei die statistischen Verfahren aufgrund der gleichen Struktur der vordefinierten Tabelle so auf die vordefinierte Tabelle abgestimmt sind, dass unabhängig vom Inhalt eine Auswertung vorgenommen werden kann, ohne dass programmtechnische Änderungen vorzunehmen sind.
2. Verfahren nach dem vorhergehenden Anspruch, dadurch
gekennzeichnet, dass dem Benutzer ein Dialog angeboten
wird, durch den er ein statistisches Verfahren auswählen
kann.
3. Verfahren nach einem oder mehreren der vorhergehenden
Ansprüche, dadurch gekennzeichnet, dass der Benutzer
bestimmen kann, welche Spalten der vordefinierten Tabelle
für eine statistische Auswertung heranzuziehen sind.
4. Verfahren nach einem oder mehreren der vorhergehenden
Ansprüche, dadurch gekennzeichnet, dass vor der
statistischen Auswertung ein Verfahren zur Aufzählung
und/oder zum Ausschluss von Redundanzen nach einem oder
mehreren der nachfolgenden Schritte angewendet wird.
5. Verfahren zum Ermitteln und/oder Ausschließen von
Redundanzen in Tabellen, insbesondere relationalen Tabellen
mit einem Schritt, bei dem ein Cursor für die relationale Tabelle bestimmt wird, um schrittweise die Zeilen der Tabelle auszulesen,
mit einem sich wiederholenden Schritt, bei dem die über den Cursor gelesene Zeile über eine SQL-Abfrage mit allen Zeilen der Tabelle verglichen wird, wobei jede Übereinstimmung gezählt wird.
mit einem Schritt, bei dem ein Cursor für die relationale Tabelle bestimmt wird, um schrittweise die Zeilen der Tabelle auszulesen,
mit einem sich wiederholenden Schritt, bei dem die über den Cursor gelesene Zeile über eine SQL-Abfrage mit allen Zeilen der Tabelle verglichen wird, wobei jede Übereinstimmung gezählt wird.
6. Verfahren zum Ermitteln und/oder Ausschließen von
Redundanzen nach dem vorhergehenden Anspruch, dadurch
gekennzeichnet, dass eine weitere Tabelle angelegt wird, in
der die primären Schlüssel der redundanten Informationen
mit einem entsprechenden Zählerwert abgelegt werden.
7. Verfahren nach einem oder mehreren der vorhergehenden
Ansprüche, dadurch gekennzeichnet, dass bei der Suche
lediglich die Übereinstimmung eines Kompressionselementes
der Zeilen geprüft wird, wobei dieses Elementes die
weiteren Elemente der Zeile codiert.
8. Verfahren nach dem vorhergehenden Anspruch, dadurch
gekennzeichnet, dass beim Fehlen eines solchen
Kompressionselementes eine weitere Tabelle angelegt wird,
die eindeutige Schlüssel der ersten Tabelle enthält und
Kompressionselemente, wobei der Vergleich lediglich über
die weitere Tabelle erfolgt.
9. Computerprogramm, dadurch gekennzeichnet, dass es beim
Ablauf auf einem Computer das Verfahren nach einem oder
mehreren der vorhergehenden Verfahrensansprüche ausführt.
10. Datenträger, auf dem eine Datenstruktur gespeichert
ist, die nach einem Laden in einen Hauptspeicher eines
Computers das Verfahren nach einem oder mehreren der
vorhergehenden Verfahrensansprüche ausführt.
11. Computersystem, bestehend aus einem oder mehreren
Servern, gekennzeichnet durch Mittel, insbesondere
Speicher, Netzwerkeinheiten, Prozessoren und Bussysteme,
die so ausgebildet und eingerichtet sind, das ein Verfahren
nach einem oder mehreren der vorhergehenden
Verfahrensansprüche ausgeführt wird.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2003108364 DE10308364A1 (de) | 2002-03-23 | 2003-02-27 | Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen |
EP03006397A EP1376383A3 (de) | 2002-03-23 | 2003-03-20 | Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2003108364 DE10308364A1 (de) | 2002-03-23 | 2003-02-27 | Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen |
Publications (1)
Publication Number | Publication Date |
---|---|
DE10213174A1 true DE10213174A1 (de) | 2003-10-30 |
Family
ID=28685409
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2002113174 Withdrawn DE10213174A1 (de) | 2002-03-23 | 2002-03-23 | Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10213174A1 (de) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8615378B2 (en) | 2010-04-05 | 2013-12-24 | X&Y Solutions | Systems, methods, and logic for generating statistical research information |
-
2002
- 2002-03-23 DE DE2002113174 patent/DE10213174A1/de not_active Withdrawn
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8615378B2 (en) | 2010-04-05 | 2013-12-24 | X&Y Solutions | Systems, methods, and logic for generating statistical research information |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69030282T2 (de) | Verfahren und Vorrichtung zur Erhaltung der funktionellen und organisatorischen Unversehrtheit einer relationalen Datenbasis in einem Datenverarbeitungssystem | |
EP1307816A1 (de) | System zur ermittlung von fehlerursachen | |
DE10040987B4 (de) | Verfahren und Vorrichtung für übereinstimmende Aktualisierungen von redundanten Daten in relationalen Datenbanken | |
DE112019004261T5 (de) | Analyse und Korrektur der Lieferketten-Gestaltung durch maschinelles lernen | |
DE102011011265A1 (de) | Textextraktion zum Bestimmen von sich abzeichnenden Problemen im Fahrzeuggarantie-Berichtswesen | |
EP0901658B1 (de) | Verfahren zur optimierung eines fuzzy-regelsatzes durch einen rechner | |
EP2439691A1 (de) | Vorrichtung und Verfahren zum maschinellen Erstellen eines Prozessdiagramms | |
DE102017126349A1 (de) | Verfahren zum verknüpfen eines ersten datenblocks mit einem zweiten datenblock, verfahren zum überprüfen der integrität einer blockchain-struktur, vorrichtung und computerprogrammprodukt | |
DE102020211679A1 (de) | Computer-implementiertes system und verfahren mit einem digitalen zwilling und einer graphen-basierten struktur | |
DE19534819A1 (de) | Verfahren und Vorrichtung zum Konfigurieren einer Datenbank | |
EP3812949A1 (de) | Konfigurierbarer digitaler zwilling | |
DE102005012665A1 (de) | Verfahren und Vorrichtung zum Ermitteln von Clustern aus einer Mehrzahl von in Aufträgen geordneten Daten | |
AT522281B1 (de) | Verfahren zur Charakterisierung des Betriebszustands eines Computersystems | |
EP0954810A1 (de) | Verfahren zur initialisierung einer simulation des verhaltens einer technischen anlage und simulationssystem für eine technische anlage | |
DE10213174A1 (de) | Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen | |
DE19963123B4 (de) | Analytisches Informationssystem | |
EP1376383A2 (de) | Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen | |
EP1738306A1 (de) | Computergestütztes system und verfahren zur automatisierten risikoparametererkennung und/oder -charakterisierung | |
DE29821970U1 (de) | Datenstruktur zur rechnergestützten Verwaltung von Entwicklungen | |
WO2012017056A1 (de) | Verfahren und vorrichtung zur automatischen verarbeitung von daten in einem zellen-format | |
DE10308364A1 (de) | Verfahren zur Verarbeitung von Ein- und Ausgaben für statistische Analysen und Verfahren zur Bereinigung von Redundanzen | |
EP3494507B1 (de) | Verfahren zur prüfung der verfügbarkeit und integrität eines verteilt gespeicherten datenobjekts | |
DE102023107067A1 (de) | Computerimplementiertes Verfahren zum Absichern eines ein Fahrzeug und/oder ein System des Fahrzeugs repräsentierenden Signalnetzwerkes, Computerprogramm und/oder computerlesbares Medium und Datenverarbeitungsvorrichtung | |
EP4216075A1 (de) | Verfahren zur bestimmung von ähnlichkeitsbeziehungen zwischen tabellen | |
EP1336922B1 (de) | Verfahren und Vorrichtung zum automatischen Erstellen eines Datawarehouse |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OR8 | Request for search as to paragraph 43 lit. 1 sentence 1 patent law | ||
8105 | Search report available | ||
8127 | New person/name/address of the applicant |
Owner name: DRACH, VALERIY, NEW YORK, N.Y., US Owner name: NOLL, UWE, 64285 DARMSTADT, DE |
|
8128 | New person/name/address of the agent |
Representative=s name: WEISS, P., DIPL.-FORSTWIRT, DR.RER.NAT., PAT.-ANW. |
|
8139 | Disposal/non-payment of the annual fee |