LU600611B1 - Basierend auf Big Data Informations-Technologie-Beratungs- und Managementmethode sowie System - Google Patents

Basierend auf Big Data Informations-Technologie-Beratungs- und Managementmethode sowie System

Info

Publication number
LU600611B1
LU600611B1 LU600611A LU600611A LU600611B1 LU 600611 B1 LU600611 B1 LU 600611B1 LU 600611 A LU600611 A LU 600611A LU 600611 A LU600611 A LU 600611A LU 600611 B1 LU600611 B1 LU 600611B1
Authority
LU
Luxembourg
Prior art keywords
data
module
unit
analysis
dynamic
Prior art date
Application number
LU600611A
Other languages
English (en)
Inventor
Tianyu Yu
Roujia TAO
Zhipeng Wang
Zhou Ren
Luyao Liu
Yongfeng Ni
Qiwen Cao
Qiang Suo
Hui Li
Yan Pan
Original Assignee
Shanghai Prothentic Tech Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Prothentic Tech Co Ltd filed Critical Shanghai Prothentic Tech Co Ltd
Priority to LU600611A priority Critical patent/LU600611B1/de
Application granted granted Critical
Publication of LU600611B1 publication Critical patent/LU600611B1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/04Forecasting or optimisation specially adapted for administrative or management purposes, e.g. linear programming or "cutting stock problem"
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/06Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Strategic Management (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Tourism & Hospitality (AREA)
  • Game Theory and Decision Science (AREA)
  • Marketing (AREA)
  • Operations Research (AREA)
  • Quality & Reliability (AREA)
  • Development Economics (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Educational Administration (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

Die Erfindung betrifft den Bereich des Big-Data-Managements, insbesondere ein auf Big Data basierendes Informations- und Technologieberatungsmanagementverfahren und -system. Es umfasst ein Modul zur dynamischen Wertbewertung, ein Modul zur Datenfrischeoptimierung, ein Datenvalidierungsmodul, ein Modul zur Rückverfolgung von Datenhalluzinationen, ein Modul zur Zeitreihenanalyse, ein Überwachungsmodul, ein Modul zur Korrektur synthetischer Daten und ein elastisches Schiedsmodul.Das Modul zur dynamischen Wertbewertung dient der Erkennung von Zeitreihenmusterdrift und dem Aufbau versteckter Assoziationsgraphen. Das Modul zur Datenfrischeoptimierung wird für die gestaffelte Speicherung und Verwaltung von kalten und heißen Daten eingesetzt. Das Datenvalidierungsmodul dient der adversariellen Validierung und der Konsistenzprüfung multimodaler Daten.Durch dynamische Bewertung, intelligente Optimierung, multimodale Analyse und elastische Compliance ermöglicht die Erfindung eine effiziente, präzise und flexible Datenverwaltung und löst Probleme der Datenalterung und Datenhalluzinationen.

Description

Basierend auf Big Data Informations-Technologie-Beratungs- und LU600611
Managementmethode sowie System
Technischer Bereich
Die Erfindung betrifft den technischen Bereich des Big-Data-Managements, insbesondere eine auf Big Data basierende Informations-Technologie-Beratungs- und
Managementmethode sowie ein entsprechendes System.
Technologie im Hintergrund
Mit der technologischen Entwicklung nutzen die meisten bestehenden
Informations-Technologie-Beratungs- und Managementsysteme bereits Big-Data-
Technologien, um Unternehmen oder Organisationen strategische Planungen,
Systemoptimierung, Datenverwaltung und Entscheidungsunterstützung im Bereich der
Informationstechnologie bereitzustellen. Das Hauptziel besteht darin, durch tiefgehende Analyse und Auswertung großer Datenmengen Unternehmen dabei zu helfen, datengesteuerte Geschäftsoptimierung, Risikokontrolle und innovatives
Wachstum zu realisieren. Allerdings ist es bei der Verarbeitung großer Datenmengen unvermeidlich, dass Daten veralten. Mit der Zeit kann der Wert der Daten aufgrund von
Veränderungen im Geschäftsumfeld abnehmen. Traditionelle Methoden können den
Datenwert nicht dynamisch bewerten, was zu steigenden Speicherkosten oder zur versehentlichen Löschung wertvoller Daten führt. Zudem kann es bei der
Datenverarbeitung und -ausgabe zu sogenannten Datenhalluzinationen kommen, das heißt, dass von KI generierte Daten versteckte Fehler oder fiktive Muster enthalten, die mit herkömmlichen Validierungsmethoden nicht effektiv erkannt werden können, was wiederum zu Verzerrungen in der Entscheidungsfindung führt.
Traditionelle Managementsysteme bewerten den Datenwert meist auf Basis menschlicher Erfahrung oder einfacher Regeln und können sich nicht dynamisch an
Geschäftsanpassungen anpassen. Sie verwenden feste Speicherstrategien und optimieren nicht in Echtzeit basierend auf Zugriffshäufigkeit und Wertverfall der Daten.
Zudem analysieren sie meist nur einzelne Datentypen, wodurch die Verarbeitung multimodaler Daten hinsichtlich ihrer Aktualität und Konsistenz schwierig wird. Diese
Systeme sind auf nachträgliche Prüfungen und manuelle Anpassungen angewiesen und können den Anforderungen an dynamische Compliance nur schwer gerecht werden.
Insbesondere statische Regeln und feste Strategien sind nicht in der Lage, sich schnell ändernden Geschäftsanforderungen anzupassen. Darüber hinaus fehlt eine quantitative
Bewertung des Datenwertverfalls sowie der Authentizität generierter Daten, was letztendlich zu fehlerhaften Entscheidungen führt.
Inhalt der Erfindung
Der Zweck der vorliegenden Erfindung besteht darin, ein auf Big Data basierendes
Informations-Technologie-Beratungs- und Managementverfahren sowie ein entsprechendes System bereitzustellen, um die in der Hintergrundtechnologie genannten Probleme zu lösen.
Um diesen Zweck zu erreichen, bietet die Erfindung die folgende technische
Lösung:
Das vorgeschlagene auf Big Data basierende Informations-Technologie-
Beratungs- und Managementsystem umfasst ein Modul zur dynamischen
Wertbewertung, ein Modul zur Datenfrische-Optimierung, ein Datenvalidierungsmodul, LU600611 ein Modul zur Rückverfolgbarkeit von Datenhalluzinationen, ein Modul zur
Zeitlichkeitsanalyse, ein Überwachungsmodul, ein Modul zur Korrektur synthetischer
Daten und ein elastisches Schiedsmodul.
Das Modul zur dynamischen Wertbewertung dient der Erkennung von
Zeitmusterdrift und der Erstellung impliziter Assoziationsgraphen.
Das Modul zur Datenfrische-Optimierung wird zur Verwaltung der kältestufenbasierten Speicherhierarchie verwendet.
Das Datenvalidierungsmodul dient der adversariellen Validierung und der multimodalen Konsistenzprüfung.
Das Modul zur Rückverfolgbarkeit von Datenhalluzinationen wird für die rückwärtige Analyse der Generierungspfade und die Markierung von
Vertrauenswürdigkeitsverfall verwendet.
Das Modul zur Zeitlichkeitsanalyse dient der zeitlichen Kopplung heterogener
Daten und der prädiktiven Analyse zeitlich sensibler Werte.
Das Überwachungsmodul analysiert nicht standardisierte
Schnittstellenabhängigkeiten und warnt vor Musterdrift.
Das Modul zur Korrektur synthetischer Daten wird für die Kompensation von
Verteilungsdrift und die kontextbewusste Erzeugungsbeschränkung genutzt.
Das elastische Schiedsmodul dient der dynamischen Routenverwaltung bei
Souveränitätskonflikten sowie der fragmentbasierten Datenverschlüsselung.
Bevorzugt umfasst das Modul zur Bewertung der dynamischen Wertminderung eine Einheit zur Erkennung der Zeitmusterdrift und eine Einheit zur Erstellung impliziter Assoziationsgraphen.
Die Einheit zur Erkennung der Zeitmusterdrift nutzt einen Variational
Autoencoder und die Berechnung der Kullback-Leibler-Divergenz, um in Echtzeit die
Veränderung der historischen Datenverteilung über die Zeit zu überwachen und kritische Punkte der Verhaltensmusterabweichung zu identifizieren.
Die Einheit zur Erstellung impliziter Assoziationsgraphen nutzt Methoden zur kausalen Entdeckung, um versteckte Abhängigkeitsbeziehungen zwischen
Datenfeldern zu analysieren und den kollaborativen Wert einzelner Datentabellen in globalen Geschäftsketten zu quantifizieren, um eine irrtümliche Löschung wertvoller alter Daten durch isolierte Bewertungen zu vermeiden.
Bevorzugt umfasst das selbstoptimierende Modul zur Datenfrische-Strategie eine
Einheit zur kältestufenbasierten Speicherhierarchie und eine Einheit zur regelkonformen Datenspeicherung.
Die Einheit zur kältestufenbasierten Speicherhierarchie passt mithilfe von
Zeitverfallsfunktionen und Reinforcement Learning die Speicherstufen dynamisch an und verschiebt automatisch ineffiziente Daten anhand ihrer Zugriffshäufigkeit und
Wertverfallskurve.
Die Einheit zur regelkonformen Datenspeicherung nutzt eine Regel-Engine und reguläre Ausdrucksfilter, um sensible Datenfelder zu erkennen und automatisch von
Löschstrategien auszunehmen, um regulatorische Vorgaben zu erfüllen.
Bevorzugt umfasst das Modul zur Validierung der Authentizität synthetischer
Daten eine Einheit zur adversariellen Validierung und eine Einheit zur multimodalen LU600611
Konsistenzprüfung.
Die Einheit zur adversariellen Validierung nutzt einen Diskriminator eines
Generative Adversarial Network (GAN), um KI-generierte Nutzerprofile adversariell zu trainieren und die Abweichung ihrer Verteilung von echten Daten zu messen.
Die Einheit zur multimodalen Konsistenzprüfung nutzt kontrastives Lernen über
Modalitätsgrenzen hinweg, um die logische Konsistenz zwischen generierten Textdaten und den zugehôrigen strukturierten Daten zu validieren und erfundene Muster zu identifizieren.
Bevorzugt umfasst das Modul zur Rückverfolgbarkeit von Datenhalluzinationen eine Einheit zur rückwärtigen Analyse der Generierungspfade und eine Einheit zur
Vertrauenswürdigkeitsbewertung mit Vertrauensverfall.
Die Finheit zur rückwärtigen Analyse der Generierungspfade nutzt Graph-Neural-
Networks (GNN) und Datenabstammungs-Tools, um die ursprünglichen Fingaben und
Verarbeitungsknoten von Kl-generierten Daten zu verfolgen und potenzielle
Fehlerquellen zu lokalisieren.
Die Finheit zur Vertrauenswirdigkeitsbewertung mit Vertrauensverfall quantifiziert die Unsicherheit synthetischer Daten mittels einer Vertrauensbewertung und markiert automatisch Daten mit geringer Vertrauenswürdigkeit zur manuellen
Überprüfung.
Bevorzugt umfasst das Modul zur zeitlichen Analyse über verschiedene
Modalitäten hinweg eine Einheit zur zeitlichen Kopplung heterogener Daten und eine
Einheit zur prädiktiven Analyse von räumlich-zeitlichen Werten.
Die Einheit zur zeitlichen Kopplung heterogener Daten nutzt Dynamic Time
Warping, um die Zeitfenster für die Gültigkeit multimodaler Daten anzugleichen und die Verzerrung durch veraltete Modalitäten zu identifizieren.
Die Einheit zur prädiktiven Analyse von räumlich-zeitlichen Werten verwendet ein räumlich-zeitliches Graph-Convolutional-Network (ST-GCN), um die Wertverfallsrate von Daten in bestimmten Regionen oder Zeiträumen vorherzusagen und strategische
Anpassungen je nach geografischem Kontext zu unterstützen.
Bevorzugt umfasst das Überwachungsmodul eine Einheit zur Analyse nicht standardisierter Schnittstellenabhängigkeiten und eine Einheit zur Musterdrift-
Warnung.
Die Einheit zur Analyse nicht standardisierter Schnittstellenabhängigkeiten nutzt statische Code-Analyse und API-Call-Graphen, um temporäre ETL-Skripte oder nicht standardisierte Schnittstellen zu identifizieren, die sich unbemerkt auf
Datenalterungsstrategien auswirken.
Die Einheit zur Musterdrift-Warnung überwacht mit differenziellen Analysetools strukturelle Änderungen an Datenbanken, um zu verhindern, dass Inkonsistenzen zur fehlerhaften Bewertung der Datenalterung führen.
Bevorzugt umfasst das Modul zur Korrektur synthetischer Daten eine Einheit zur
Kompensation von Verteilungsdrift und eine Einheit zur kontextbewussten
Generierungseinschränkung.
Die Einheit zur Kompensation von Verteilungsdrift passt mithilfe von Importance-
Weighting-Algorithmen und Kernel Density Estimation die Sampling-Gewichtung LU600611 synthetischer Daten an, um deren Verteilung näher an echte Daten anzugleichen und das Risiko von Halluzinationen durch verzerrte Trainingsdaten zu reduzieren.
Die Einheit zur kontextbewussten Generierungseinschränkung verwendet ein
Prompt-Engineering-Framework mit Regelinjektion, um während der Generierung dynamisch domänenspezifische Wissenseinschränkungen einzufügen und die
Erzeugung fiktiver Inhalte zu begrenzen.
Bevorzugt umfasst das elastische Schiedsmodul eine Einheit zur dynamischen
Routenverwaltung bei Souveränitätskonflikten und eine Einheit zur fragmentbasierten
Datenverschlüsselung.
Die Einheit zur dynamischen Routenverwaltung bei Souveränitätskonflikten nutzt eine geofencing-basierte verteilte Abfrage-Engine, die die Datenquelle je nach
Herkunftsregion der Anfrage automatisch umschaltet, um Konflikte zu vermeiden.
Die Einheit zur fragmentbasierten Datenverschlüsselung verwendet homomorphe
Verschlüsselung und Fragmentierungsalgorithmen, um sensible Daten entsprechend den Souveränitätsanforderungen in verschiedenen Regionen zu speichern und eine selektive Entschlüsselung für grenzüberschreitende Analysen zu ermöglichen.
Basierend auf dem oben beschriebenen System schlägt die vorliegende Erfindung außerdem ein auf Big Data basierendes Informations-technologie-
Beratungsmanagementverfahren vor, das folgende Schritte umfasst:
S1. Überwachung von Änderungen in der Datenverteilung und Quantifizierung des kollaborativen Wertgewichts von Datentabellen mittels variationaler Autoencoder und Kausalitätsentdeckungsalgorithmen.
S2. Dynamische Anpassung der Datenspeicherhierarchie und Sicherstellung der
Umgehung automatischer Löschstrategien für konforme Daten durch den Einsatz von
Reinforcement Learning und regulären Ausdrucksmustern.
S3. Erkennung von Verteilungsabweichungen und logischen Widersprüchen in generierten Daten mittels generativer adversarialer Netzwerke und multimodalen
Kontrastlernens zur Markierung potenzieller Halluzinationsdaten.
S4. Rückverfolgung von Fehlerquellen in generierten Daten und Berechnung von
Vertrauensbewertungen zur Markierung von Daten mit geringer Vertrauenswürdigkeit durch die Nutzung von Graph-Neural-Networks und Monte-Carlo-Dropout.
S5. Zeitliche Ausrichtung multimodaler Daten und Vorhersage der
Wertverfallsrate von Daten mittels dynamischer Zeitnormalisierung und räumlich- zeitlicher Graph-Convolutional-Networks.
S6. Identifikation von Störungen durch temporäre Skripte und Überwachung von
Änderungen in der Datenbankstruktur mittels statischer Codeanalyse und
Musterdifferenzierungstools.
S7. Anpassung der Sampling-Gewichtung synthetischer Daten mittels Kernel-
Dichteschätzung, um deren Verteilung an reale Daten anzugleichen.
S8. Dynamische Umschaltung der Datenquellenversionen und fragmentierte
Speicherung sensibler Daten mittels Geofencing und homomorpher Verschlüsselung.
Verglichen mit dem Stand der Technik bietet die vorliegende Erfindung folgende
Vorteile:
Die Echtzeitiberwachung von Datenverteilungsinderungen und die LU600611
Quantifizierung des kollaborativen Wertgewichts von Datentabellen verhindern das versehentliche Löschen wertvoller Altdaten und ermöglichen eine dynamische
Anpassung an Geschäftsveränderungen. Die präzise Identifikation hochrelevanter 5 Daten reduziert Speicher-kosten.Die dynamische Anpassung der Speicherhierarchie durch Reinforcement Learning und reguläre Ausdrücke optimiert das Gleichgewicht zwischen Speicherkosten und Zugriffseffizienz und gewährleistet automatisch die
Einhaltung von Compliance-Anforderungen Die Kombination aus generativen adversarialen Netzwerken und multimodalem Kontrastlernen ermöglicht eine effiziente
Erkennung von Verteilungsabweichungen und logischen Widerspriichen in synthetischen Daten, wodurch potenzielle Halluzinationen vermieden und die
Entscheidungssicherheit erhöht werden Die zeitliche Abstimmung multimodaler Daten und die Vorhersage von Wertverfallsraten verbessern die Analyse komplexer
Geschäftsszenarien und steigern die Daten-nutzungseffizienz.Die Erkennung temporärer Skriptstôrungen und die Überwachung von Datenbank-strukturänderungen beugen technischen Schulden vor und erhôhen die System-stabilität Durch die
Minimierung von Halluzinationsrisiken aufgrund verzerrter Trainingsdaten wird die
Qualität synthetischer Daten verbessert und Entscheidungsrisiken reduziert.Die dynamische Umschaltung von Datenquellenversionen und die fragmentierte
Speicherung sensibler Daten gewährleisten die Einhaltung länderübergreifender Daten- souveränitätsanforderungen und unterstützen die globale Geschäftsausweitung.
Beschreibung der beigefügten Zeichnungen
Bild 1 zeigt die Topologie des Big-Data-Informations-technologie-
Beratungsmanagementsystems gemäß der vorliegenden Erfindung.
Bild 2 zeigt das Ablaufdiagramm des Big-Data-Informations-technologie-
Beratungsmanagementverfahrens gemäß der vorliegenden Erfindung.
Detaillierte Beschreibung
Ausführungsbeispiel 1
Bitte beachten Sie Bild 1. Die vorliegende Erfindung schlägt ein Big-Data- basiertes IT-Beratungsmanagementsystem vor. Dieses System umfasst ein dynamisches
Wertbewertungsmodul, ein Datenfrische-Optimierungsmodul, ein
Datenvalidierungsmodul, ein Datenhalluzinations-Rickverfolgungsmodul, ein
Aktualitätsanalysemodul, ein Überwachungsmodul, ein synthetisches
Datenkorrekturmodul und ein elastisches Schiedsmodul.
Es ist anzumerken, dass das dynamische Wertbewertungsmodul zur Erkennung von zeitlichen Musterdriftungen und zum Aufbau eines versteckten
Abhängigkeitsgraphen dient, das Datenfrische-Optimierungsmodul für die hierarchische Speicherung von heißen und kalten Daten, das Datenvalidierungsmodul für adversarielle Validierung und multimodale Konsistenzprüfung, das
Datenhalluzinations-Rückverfolgungsmodul für die Rickverfolgung des
Generierungspfads und die Markierung der Vertrauenswürdigkeitsabschwächung, das
Aktualitätsanalysemodul für die Kopplung der Aktualität heterogener Daten und die zeitlich-räumliche Wertprognose, das Überwachungsmodul für die Analyse von nicht standardisierten Schnittstellenabhängigkeiten und die Vorhersage von Musterdrift, das synthetische Datenkorrekturmodul für die Kompensation von Verteilungsdrift und LU600611 kontextsensitive Generierungseinschränkungen sowie das elastische Schiedsmodul für dynamisches Routing bei Souveränitätskonflikten und die verschlüsselte
Datenfragmentierung.
In diesem Ausführungsbeispiel ist ferner anzumerken, dass das Modul zur
Bewertung der dynamischen Wertminderung auch eine Einheit zur Erkennung von zeitlichen Musterdriftungen und eine Einheit zur Erstellung versteckter
Abhängigkeitsgraphen umfasst.
Weiterhin erkennt die Einheit zur Erkennung von zeitlichen Musterdriftungen durch einen variationalen Autoencoder und KL-Divergenz-Berechnung in Echtzeit die
Veränderung der historischen Datenverteilung über die Zeit und identifiziert kritische
Punkte der Verschiebung von Benutzerverhaltensmustern.
Darüber hinaus extrahiert die Einheit zur Erstellung versteckter
Abhängigkeitsgraphen auf Basis von Kausalentdeckungsmethoden die latenten
Abhängigkeitsbeziehungen zwischen Datenfeldern, quantifiziert das kooperative
Wertgewicht einzelner Datentabellen in der globalen Geschäftsprozesskette und verhindert eine isolierte Bewertung, die zum versehentlichen Löschen wertvoller gealterter Daten führen könnte.
In diesem Ausführungsbeispiel ist ferner anzumerken, dass das selbstoptimierende
Modul für die Datenfrische-Strategie auch eine Einheit für die hierarchische
Speicherung von heißen und kalten Daten und eine Einheit für die konforme
Aufbewahrung umfasst.
Darüber hinaus passt die Einheit zur hierarchischen Speicherung von heißen und kalten Daten mithilfe einer Zeitverfall-Funktion und verstärktem Lernen die
Datenspeicherstufen dynamisch an und migriert ineffiziente Daten automatisch basierend auf der Zugriffshäufigkeit und der Wertverfallskurve.
Weiterhin identifiziert die Einheit für die konforme Aufbewahrung mithilfe einer
Regel-Engine und regulären Ausdrücken sensible Datenfelder und erzwingt deren
Umgehung der automatischen Löschstrategie zur Einhaltung der Compliance.
In diesem Ausführungsbeispiel ist ferner anzumerken, dass das Modul zur
Validierung der Authentizität generierter Daten auch eine Einheit zur adversariellen
Validierung und eine Einheit zur multimodalen Konsistenzprüfung umfasst.
Darüber hinaus erkennt die Einheit zur adversariellen Validierung mit Hilfe eines
Diskriminator-Komponenten-Generators innerhalb eines Generative Adversarial
Networks (GAN), inwieweit durch KI generierte Benutzerprofile von realen Daten abweichen.
Weiterhin überprüft die Einheit zur multimodalen Konsistenzprüfung mittels kontrastivem multimodalem Lernen die logische Konsistenz zwischen generierten
Textdaten und den zugehörigen strukturierten Daten, um erfundene Muster zu identifizieren.
In diesem Ausführungsbeispiel ist ferner anzumerken, dass das Modul zur
Rückverfolgung von Datenhalluzinationen auch eine Einheit zur Rückanalyse des
Generierungspfads und eine Einheit zur Markierung der
Vertrauenswürdigkeitsabschwächung umfasst.
Darüber hinaus nutzt die Einheit zur Rückanalyse des Generierungspfads LU600611 graphische neuronale Netzwerke und Tools zur Datenherkunftsverfolgung, um die ursprünglichen Fingaben und Verarbeitungsknoten der durch KI generierten Daten zu ermitteln und potenzielle Fehlerquellen zu lokalisieren.
Weiterhin bewertet die Einheit zur Markierung der
Vertrauenswürdigkeitsabschwächung die synthetischen Datenausgaben mit
Unsicherheitsquantifizierung und vergibt Vertrauenswürdigkeitsbewertungen, um
Daten mit geringer Verlässlichkeit automatisch zur manuellen Überprüfung zu kennzeichnen.
In diesem Ausführungsbeispiel ist ferner anzumerken, dass das modulübergreifende Aktualitätsanalysemodul auch eine Einheit zur Kopplung der
Aktualität heterogener Daten sowie eine Einheit zur zeitlich-räumlichen wertbasierten
Vorhersage umfasst.
Darüber hinaus gleicht die Einheit zur Kopplung der Aktualität heterogener Daten mithilfe dynamischer Zeitregulierung die Zeitfenster für die Gültigkeit multimodaler
Daten ab, um veraltete Modalitäten zu identifizieren, die die Gesamtanalyse negativ beeinflussen.
Weiterhin prognostiziert die Einheit zur zeitlich-räumlichen wertbasierten
Vorhersage basierend auf einem spatiotemporalen Graph Convolutional Network (GCN) die Wertverfallrate von Daten in bestimmten Regionen oder Zeiträumen und unterstützt dadurch regionale Strategieanpassungen.
In diesem Ausführungsbeispiel ist ferner anzumerken, dass das
Überwachungsmodul auch eine Einheit zur Analyse nicht standardisierter
Schnittstellenabhängigkeiten sowie eine Einheit zur Musterdrift-Warnung umfasst.
Darüber hinaus identifiziert die Einheit zur Analyse nicht standardisierter
Schnittstellenabhängigkeiten mithilfe statischer Codeanalyse und dem Aufbau eines
API-Aufrufgraphen temporäre ETL-Skripte oder nicht standardisierte Schnittstellen, die unbemerkt Einfluss auf Datenverfallstrategien nehmen könnten.
Weiterhin überwacht die Einheit zur Musterdrift-Warnung mithilfe eines
Mustervergleichstools Strukturänderungen in Datentabellen, um zu verhindern, dass aufgrund inkonsistenter Schemata die Bewertung des Datenverfalls fehlschlägt.
In diesem Ausführungsbeispiel ist ferner anzumerken, dass das Modul zur
Korrektur synthetischer Daten auch eine Einheit zur Kompensation von Verteilungsdrift und eine Einheit zur kontextsensitiven Generierungseinschränkung umfasst.
Darüber hinaus passt die Einheit zur Kompensation von Verteilungsdrift mithilfe eines importance-weighted Algorithmus und einer Kerndichteschätzung die
Stichprobengewichtung synthetischer Daten an, um deren Verteilung an reale Daten anzugleichen und das Risiko von Halluzinationen aufgrund von Verzerrungen im
Trainingsdatensatz zu reduzieren.
Weiterhin integriert die Einheit zur kontextsensitiven Generierungseinschränkung auf Basis eines Prompt-Engineering-Frameworks und regelbasierter Injektionen domänenspezifische Wissensbeschränkungen dynamisch während des
Generierungsprozesses, um die Erzeugung fiktiver Inhalte zu begrenzen.
In diesem Ausführungsbeispiel ist ferner anzumerken, dass das elastische
Schiedsmodul auch eine Einheit für dynamisches Routing bei Souveränitätskonflikten LU600611 sowie eine Einheit zur verschlüsselten Datenfragmentierung umfasst.
Darüber hinaus ermöglicht die Einheit für dynamisches Routing bei
Souveränitätskonflikten durch eine geofencing-basierte verteilte Abfrage-Umleitung das automatische Umschalten zwischen verschiedenen Datenquellen-Versionen basierend auf dem geografischen Standort der Anfrage, um Konflikte zu vermeiden.
Weiterhin speichert die Einheit zur verschlüsselten Datenfragmentierung sensible
Daten gemäß Souveränitätsanforderungen mittels homomorpher Verschlüsselung und
Fragmentierungsalgorithmen in verschiedenen Regionen und ermöglicht während grenzüberschreitender Analysen eine lokale Entschlüsselung und Berechnung.
Ausführungsbeispiel 2
Siehe Bild 2, in der praktischen Anwendung umfasst die auf dem oben genannten
System basierende Informationsberatungsmethode für Informationstechnologie konkret die folgenden Schritte:
S1. Erkennung von zeitlichen Musterdriften und Modellierung des Wertverfalls
Verwendung eines variationalen Autoencoders zur Überwachung von
Veränderungen in der historischen Datenverteilung, Berechnung der KL-Divergenz zwischen benachbarten Zeitfenstern zur Identifizierung plötzlicher Änderungen in den
Benutzerverhaltensmustern, siehe Formel (1):
D, (PC Pu 09) = 3p (log LLL x Pa (1)
In der Formel ist Pr1 die Kullback - Leibler , die zur Messung der Unterschiede zwischen Wahrscheinlichkeitsverteilungen verwendet wird. P(X) ist die
Datenverteilung im Zeitfenster! | Pua (X) ist die Datenverteilung im Zeitfenster t +1, und X ist eine Datenstichprobe oder ein Datenpunkt.
Auf der Grundlage des Kausalentdeckungsalgorithmus wird ein Kausalgraph zwischen den Datenfeldern erstellt, um das kooperative Wertgewicht einer einzelnen
Datentabelle in der globalen Geschäftskette zu quantifizieren und das versehentliche
Lôschen wertvoller gealterter Daten zu vermeiden.
S2. Dynamische Speicherstrategieoptimierung und konforme Aufbewahrung
Durch den Einsatz von Reinforcement Learning wird die Datenspeicherhierarchie dynamisch angepasst, um ein Gleichgewicht zwischen Speicherkosten und Zugriffs- effizienz zu optimieren. Mittels regulärer Ausdrücke werden sensible Datenfelder identifiziert, um sicherzustellen, dass konforme Daten die automatische Lôschstrategie umgehen, siehe Formel (2):
KO) = min as , (s, a, ip eA 1e + e)4 (s, D mal $ mal s) (2)
In der Formel ist ©) die Zielfunktion der Strategieoptimierung, Eco) der
E , . . nas) rwartungswert für den Zustand S und die Aktion à | die
Wahrscheinlichkeit, dass die aktuelle Strategie mit den Parametern 9 die Aktion@ i . NE Ss) . an ; i Lo im Zustand S wählt, die Wahrscheinlichkeit, dass die alte Strategie die
Aktion 3 im Zustand 5 wählt, A (ss a) der relative Wert der Aktion 2 im
Zustand 8 . PC) ist eine Clipping-Funktion, die das Ausmaß der
Strategieaktualisierung begrenzt und so die Stabilität des Trainings gewährleistet. € ist der Kontrollparameter fiir den Clipping-Bereich, konkret 0,2.
S3. Überprüfung und Korrektur der Echtheit generierter Daten;
Der Diskriminator eines Generative Adversarial Network (GAN) wird verwendet, um die Verteilungsunterschiede zwischen generierten und realen Daten zu erkennen und potenzielle Halluzinationsdaten zu markieren. Basierend auf Cross-Modality-
Contrastive Learning wird der Einbettungsraum von Textdaten und strukturierten Daten ausgerichtet, um logische Widerspriiche zu identifizieren.
S4. Rückverfolgung des Generierungspfads und Abschwächung der
Konfidenzbewertung;
Graph Neural Networks (GNNs) werden verwendet, um die urspriinglichen
Eingaben und Verarbeitungsstellen generierter Daten zu identifizieren und
Fehlerquellen zu lokalisieren. Mittels Monte Carlo Dropout wird eine
Konfidenzbewertung für die generierten Daten berechnet, sodass Daten mit niedriger
Konfidenz automatisch zur manuellen Uberpriifung markiert werden.
SS. Multimodale Zeitvalidierung und Wertprognose;
Durch Dynamic Time Warping (DTW) wird das Zeitfenster der Gültigkeit multimodaler Daten ausgerichtet, um veraltete Modalitäten zu erkennen, die die
Analyseleistung beeinträchtigen. Auf Basis von Spatio-Temporal Graph Convolutional
Networks (ST-GCN) wird die Wertverfallsrate von Daten in bestimmten Regionen oder
Zeiträumen prognostiziert, um regionale Strategieanpassungen zu unterstützen.
S6. Überwachung technischer Schulden und Driftwarnung;
Mithilfe statischer Code-Analyse wird eine API-Aufrufkarte erstellt, um temporäre Skripte zu identifizieren, die die Datenalterungsstrategie beeinträchtigen.
Ein Schema-Differenzierungstool wird eingesetzt, um Änderungen an
Datenbankstrukturen zu überwachen und zu verhindern, dass durch Inkonsistenzen
Bewertungsfehler entstehen.
S7. Kompensation von Verteilungsdrift in synthetischen Daten;
Durch Kernel Density Estimation (KDE) wird das Stichprobengewicht synthetischer Daten angepasst, um die reale Datenverteilung näherungsweise nachzubilden und das Risiko von Halluzinationen aufgrund eines verzerrten
Trainingssets zu minimieren.
S8. Dynamisches Routing bei Souveränitätskonflikten und fragmentierte LU600611
Berechnung;
Mittels Geofencing-Technologie wird die Abfrage dynamisch umgeschrieben, sodass je nach Herkunft des Anfragenden automatisch die passende Datenquelle ausgewählt wird, um rechtliche Konflikte zu vermeiden. Durch homomorphe
Verschlüsselung und Fragmentierungsalgorithmen werden sensible Daten gemäß
Souveränitätsvorgaben fragmentiert gespeichert und ermöglichen bei grenzüberschreitender Analyse eine selektive Entschlüsselung und Berechnung.
Zusammenfassend lässt sich sagen, dass diese Erfindung in der IT-Beratung das
Echtzeit-Monitoring von Datenverteilungsänderungen mithilfe von Variational
Autoencoders (VAE) und Kausalitätsentdeckungsalgorithmen ermöglicht. Dadurch wird der kollaborative Wert einzelner Datenbanken quantifiziert, um zu vermeiden, dass hochwerte, aber veraltete Daten irrtümlich gelöscht werden. Dies ermöglicht eine dynamische Anpassung an Geschäftsveränderungen, eine präzise Identifizierung wertvoller Daten und eine Senkung der Speicherkosten.Mittels Reinforcement
Learning und regulärer Ausdrücke wird die Speicherhierarchie dynamisch angepasst und sichergestellt, dass konforme Daten erhalten bleiben. Dadurch werden Speicher- und Zugriffskosten optimiert sowie automatische Compliance-Anforderungen erfüllt.Generative Adversarial Networks (GANs) und Cross-Modality-Contrastive
Learning erkennen Verteilungsunterschiede und logische Inkonsistenzen in generierten
Daten, um potenzielle Halluzinationen effizient zu identifizieren und
Entscheidungsgenauigkeit zu erhôhen Durch die Angleichung multimodaler
Zeitvalidität und Prognose der Wertverfallsrate wird eine effiziente Datennutzung für komplexe Geschäftsanwendungen ermöglicht. Temporäre Skriptinterferenzen werden erkannt und Schemaänderungen überwacht, um technische Schulden zu vermeiden und
Systemstabilität sicherzustellen.Die Minimierung von Halluzinationen aufgrund eines verzerrten Trainingssets verbessert die Qualität synthetischer Daten und reduziert
Entscheidungsrisiken.Dynamische Datenquellenumschaltung und fragmentierte
Speicherung sensibler Daten gewährleisten die Einhaltung nationaler
Datenschutzvorgaben und unterstützen global skalierbare Geschäftsmodelle.

Claims (10)

Ansprüche LU600611
1. Basierend auf dem oben beschriebenen System schlägt die vorliegende Erfindung außerdem ein big data-basiertes System für das IT-Beratungsmanagement vor, das die folgenden Module umfasst: ein Modul zur dynamischen Wertebewertung, ein Modul zur Datenfrische-Optimierung, ein Datenvalidierungsmodul, ein Modul zur Rückverfolgung von Datenillusionen, ein Modul zur Analyse der Datenaktualität, ein Überwachungsmodul, ein Modul zur Korrektur synthetischer Daten und ein flexibles Schiedssystem; Das Modul zur dynamischen Wertebewertung dient der Erkennung von zeitlichen Musterdriften und dem Aufbau versteckter Abhängigkeitsgraphen; Das Modul zur Datenfrische-Optimierung wird für die gestaffelte Speicherung von Hot- und Cold-Daten verwendet; Das Datenvalidierungsmodul ist für adversarielle Validierung und multimodale Konsistenzprüfung zuständig; Das Modul zur Rückverfolgung von Datenillusionen ermöglicht die rückwärtige Analyse von Generierungspfaden und die Markierung von Vertrauenswürdigkeitsverlusten; Das Modul zur Analyse der Datenaktualität befasst sich mit der Kopplung der Aktualität heterogener Daten sowie der zeitlich-räumlich sensitiven Werteprognose; Das Überwachungsmodul ist für die Analyse nicht standardisierter Schnittstellenabhängigkeiten sowie für Drift-Warnungen in Datenmustern verantwortlich; Das Modul zur Korrektur synthetischer Daten dient dem Ausgleich von Verteilungsdrifts sowie der kontextsensitiven Generierungsbeschränkung; Das flexible Schiedsmodul wird für die dynamische Steuerung von Souveränitätskonflikten sowie für die fragmentierte Verschlüsselung von Daten verwendet.
2. Laut Anspruch 1 umfasst das auf Big Data basierende Informations- und Technologieberatungsmanagementsystem zusätzlich ein Modul zur Bewertung der dynamischen Wertabnahme, das eine Einheit zur Erkennung zeitlicher Musterdrift und eine Einheit zur Erstellung von versteckten Assoziationsgraphen enthält; Die Einheit zur Erkennung zeitlicher Musterdrift verwendet einen variationalen Autoencoder und die Berechnung der KL-Divergenz, um die Veränderungen der historischen Datenverteilung über die Zeit in Echtzeit zu überwachen; Die Einheit zur Erstellung von versteckten Assoziationsgraphen nutzt kausale Entdeckungsmethoden zur Identifizierung versteckter Abhängigkeitsbeziehungen zwischen Datenfeldern und zur Quantifizierung der kollaborativen Wertgewichtung einzelner Datentabellen innerhalb der globalen Geschäftskette.
3. Laut Anspruch 1 umfasst das auf Big Data basierende Informations- und Technologieberatungsmanagementsystem außerdem ein selbstoptimierendes Modul für die Datenfrische-Strategie, das eine Einheit zur gestaffelten Speicherverwaltung von heißen und kalten Daten sowie eine Einheit zur Einhaltung von Aufbewahrungsvorschriften enthält; Die Einheit zur gestaffelten Speicherverwaltung von heißen und kalten Daten nutzt eine Zeitverfallsfunktion und verstärktes Lernen zur dynamischen Anpassung der LU600611 Daten-Speicherebenen und wird verwendet, um ineffiziente Daten basierend auf Zugriffshäufigkeit und Wertverfallskurve automatisch zu migrieren; Die Einheit zur Einhaltung von Aufbewahrungsvorschriften identifiziert sensible Datenfelder mittels Regel-Engines und regulären Ausdrücken.
4. Laut Anspruch 1 umfasst das auf Big Data basierende Informations- und Technologieberatungsmanagementsystem außerdem ein Modul zur Überprüfung der Authentizität generierter Daten, das eine Einheit zur adversarialen Validierung sowie eine Einheit zur multimodalen Konsistenzprüfung enthält; Die Einheit zur adversarialen Validierung verwendet den Diskriminator eines generativen adversarialen Netzwerks (GAN), um Kl-generierte Nutzerprofile durch adversariales Training zu analysieren und deren Abweichung von echten Daten zu erkennen; Die Einheit zur multimodalen Konsistenzprüfung basiert auf kontrastivem Lernen zwischen Modalitäten und überprüft die logische Konsistenz zwischen generierten Textdaten und den dazugehörigen strukturierten Daten, um erfundene Muster zu identifizieren.
5. Laut Anspruch 1 umfasst das auf Big Data basierende Informations- und Technologieberatungsmanagementsystem außerdem ein Modul zur Rückverfolgung von Datenhalluzinationen, das eine Einheit zur rückwärtigen Analyse des Generierungspfads sowie eine Einheit zur Konfidenzbewertungs- und Dämpfungsmarkierung enthält; Die Einheit zur rückwärtigen Analyse des Generierungspfads nutzt Graph- Neuronale Netzwerke (GNN) und Datenabstammungstools, um die ursprünglichen Eingaben und Verarbeitungsknoten von KI-generierten Daten zurückzuverfolgen und potenzielle Fehlerquellen zu lokalisieren; Die Einheit zur Konfidenzbewertungs- und Dämpfungsmarkierung quantifiziert die Unsicherheit von synthetischen Daten durch Konfidenzbewertung und markiert automatisch Daten mit niedriger Konfidenz zur manuellen Überprüfung.
6. Laut Anspruch 1 umfasst das auf Big Data basierende Informations- und Technologieberatungsmanagementsystem außerdem ein Modul zur zeitlichen Analyse multimodaler Daten, das eine Einheit zur zeitlichen Kopplung heterogener Daten sowie eine Einheit zur vorhersagebasierten Bewertung zeitlich-räumlicher Sensitivität enthält; Die Einheit zur zeitlichen Kopplung heterogener Daten nutzt eine dynamische Zeitregulierung zur Angleichung von Zeitfenstern der Gültigkeit multimodaler Daten und dient der Identifizierung veralteter Modalitäten, die sich nachteilig auf die Gesamtanalyse auswirken; Die Einheit zur vorhersagebasierten Bewertung zeitlich-räumlicher Sensitivität basiert auf einem räumlich-zeitlichen Graph-Faltungsnetzwerk und wird zur Prognose der Wertminderungsrate von Daten in bestimmten Regionen oder Zeiträumen verwendet.
7. Laut Anspruch 1 umfasst das auf Big Data basierende Informations- und Technologieberatungsmanagementsystem außerdem ein Überwachungsmodul, das eine Einheit zur Analyse von Abhängigkeiten nicht standardisierter Schnittstellen sowie eine
Einheit zur Vorhersage von Musterabweichungen enthält; LU600611 Die Einheit zur Analyse von Abhängigkeiten nicht standardisierter Schnittstellen nutzt statische Codeanalysen und API-Aufrufdiagramme zur Identifizierung der versteckten Beeinträchtigung von Datenverfallstrategien durch temporäre ETL-Skripte oder nicht standardisierte Schnittstellen; Die Einheit zur Vorhersage von Musterabweichungen wird zur Überwachung von Änderungen in der Datenbankstruktur eingesetzt.
8. Laut Anspruch 1 umfasst das auf Big Data basierende Informations- und Technologieberatungsmanagementsystem außerdem ein Modul zur Korrektur synthetischer Daten, das eine Einheit zur Kompensation von Verteilungsdrift sowie eine Einheit zur kontextsensitiven Generierungseinschränkung enthält; Die Einheit zur Kompensation von Verteilungsdrift nutzt eine Wichtigkeitsgewichtungsalgorithmus und eine Kerndichteschätzung zur Anpassung der Stichprobengewichtung synthetischer Daten; Die Einheit zur kontextsensitiven Generierungseinschränkung basiert auf einem Prompt-Engineering-Framework und Regelinjektionen und wird zur dynamischen Integration von domänenspezifischen Wissensbeschränkungen während des Generierungsprozesses eingesetzt.
9. Laut Anspruch 1 umfasst das auf Big Data basierende Informations- und Technologieberatungsmanagementsystem außerdem ein elastisches Schiedsmodul, das eine Einheit für die dynamische Routensteuerung bei Souveränitätskonflikten sowie eine Einheit zur verschlüsselten Datenspeicherung in Fragmenten enthält; Die Einheit für die dynamische Routensteuerung bei Souveränitätskonflikten nutzt eine verteilte Abfrage-Umschreibungsmaschine auf Basis von Geofencing und dient zur automatischen Umschaltung von Datenquellenversionen gemäß dem Herkunftsort der Anfrage; Die Einheit zur verschlüsselten Datenspeicherung in Fragmenten nutzt homomorphe Verschlüsselung und Fragmentierungsalgorithmen, um sensible Daten gemäß Souveränitätsanforderungen in verschiedenen Regionen fragmentiert zu speichern.
10. Das auf Big Data basierende Informations- und Technologieberatungsmanagementverfahren wird in einem der in den Ansprüchen 1 bis 9 genannten Systeme angewendet und weist die folgenden Schritte auf:
S1. Überwachung von Datenverteilungsänderungen und Quantifizierung des kooperativen Wertgewichts von Datenbanken mittels variationaler Autoencoder und kausaler Entdeckungsalgorithmen;
S2. Dynamische Anpassung der Datenspeicherungsebenen durch verstärkendes Lernen und regulären Ausdrucksabgleich, um sicherzustellen, dass konforme Daten nicht automatisch gelöscht werden;
S3. Verwendung von generativen adversarialen Netzwerken und Cross-Modal- Contrastive Learning zur Erkennung von Verteilungsabweichungen und logischen Inkonsistenzen in generierten Daten sowie zur Kennzeichnung potenzieller Halluzinationsdaten;
S4. Rückverfolgung der Fehlerquellen generierter Daten mittels Graph-Neural-
Networks und Monte-Carlo-Dropout sowie Berechnung von Konfidenzbewertungen LU600611 zur Markierung von Daten mit niedriger Vertrauenswürdigkeit;
SS. Anpassung der Multimodalitätszeitachsen durch Dynamic Time Warping und räumlich-zeitliche Graph-Convolutional-Networks zur Vorhersage der Wertverfallrate von Daten in spezifischen Regionen oder Zeiträumen;
S6. Erkennung temporärer Skriptstörungen und Überwachung von Datenbankstrukturänderungen durch statische Codeanalyse und Mustervergleichswerkzeuge;
S7. Anpassung der Stichprobengewichtung synthetischer Daten mittels Kerndichteschätzung, um eine Annäherung an reale Datenverteilungen zu erreichen;
S8. Nutzung von Geofencing und homomorpher Verschlüsselung zur dynamischen Umschaltung von Datenquellenversionen und zur fragmentierten Speicherung sensibler Daten.
LU600611A 2025-03-18 2025-03-18 Basierend auf Big Data Informations-Technologie-Beratungs- und Managementmethode sowie System LU600611B1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
LU600611A LU600611B1 (de) 2025-03-18 2025-03-18 Basierend auf Big Data Informations-Technologie-Beratungs- und Managementmethode sowie System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
LU600611A LU600611B1 (de) 2025-03-18 2025-03-18 Basierend auf Big Data Informations-Technologie-Beratungs- und Managementmethode sowie System

Publications (1)

Publication Number Publication Date
LU600611B1 true LU600611B1 (de) 2025-09-18

Family

ID=97067668

Family Applications (1)

Application Number Title Priority Date Filing Date
LU600611A LU600611B1 (de) 2025-03-18 2025-03-18 Basierend auf Big Data Informations-Technologie-Beratungs- und Managementmethode sowie System

Country Status (1)

Country Link
LU (1) LU600611B1 (de)

Similar Documents

Publication Publication Date Title
Fomba Kamga et al. Political instability and youths unemployment in sub‐Saharan Africa
CN113076541A (zh) 一种基于反向传播神经网络的操作系统的漏洞评分模型和方法
CN120689141A (zh) 一种金融大数据分析中基于人工智能的风险评估模型
CN121542088A (zh) 一种基于因果发现的数据库故障根因定位方法及设备
CN117474407A (zh) 一种评价企业的方法、系统、设备和存储介质
LU600611B1 (de) Basierend auf Big Data Informations-Technologie-Beratungs- und Managementmethode sowie System
CN120807161A (zh) 分布式数据编织框架的智能财务融资决策系统
CN108108477A (zh) 一种联动的kpi系统及权限管理系统
Islam et al. Effectiveness of Shariah supervisory board and performance of Islamic banks: the mediating role of board of directors
CN120317975A (zh) 一种基于区块链的企业信用评分智能评估方法及系统
Zhai et al. Individual learning as a driver of changes in community vulnerability under repeated hurricanes and changing climate
Kikuchi Dynamic Spatial Treatment Effects and Network Fragility: Theory and Evidence from European Banking
Bai et al. Adaptive momentum with discriminative weight for neural network stochastic optimization
Anastasopoulos et al. Optimal dynamic auditing based on game theory
CN116341653A (zh) 一种层次分析模型权重获得方法及相关设备
Herwartz et al. Green Parties and the Quest for Biodiversity: The Political Economy of Fiscal Commitments in OECD Economies
CN119107192B (zh) 一种基于大数据分析模型的财务风险分析方法及系统
CN120547085B (zh) 一种基于监管数据智能采集和报送系统
Hao et al. Ontology Alignment Repair Through 0-1 Programming
LU601419B1 (de) Verfahren und System zur Bewertung der Programmierfähigkeit von Algorithmen der künstlichen Intelligenz
CN120822800B (zh) 一种基于多级知识图谱的任务拆解与联邦分配方法及系统
CN120934876B (zh) 一种基于深度强化学习的网络攻击主动防御策略优化方法
CN119830948A (zh) 一种基于区间二型模糊神经网络的行为智能评估方法、装置、设备及存储介质
Chilarescu et al. A Closed‐form Solution of a Two‐sector Endogenous Growth Model with Habit Formation
CN121435283A (zh) 用于金融业务的sql语句智能审核与风险预警方法

Legal Events

Date Code Title Description
FG Patent granted

Effective date: 20250918