LU600534B1 - Verfahren und System zur Erkennung von Algorithmen der künstlichen Intelligenz - Google Patents
Verfahren und System zur Erkennung von Algorithmen der künstlichen IntelligenzInfo
- Publication number
- LU600534B1 LU600534B1 LU600534A LU600534A LU600534B1 LU 600534 B1 LU600534 B1 LU 600534B1 LU 600534 A LU600534 A LU 600534A LU 600534 A LU600534 A LU 600534A LU 600534 B1 LU600534 B1 LU 600534B1
- Authority
- LU
- Luxembourg
- Prior art keywords
- model
- bias
- unit
- algorithm
- module
- Prior art date
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/217—Validation; Performance evaluation; Active pattern learning techniques
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computational Linguistics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
Die vorliegende Erfindung bezieht sich auf das technische Gebiet der Erkennung von Algorithmen der künstlichen Intelligenz, insbesondere auf ein Verfahren und ein System zur Erkennung von Algorithmen der künstlichen Intelligenz, das ein Modul zur Datenvorverarbeitung, ein Modul zum Trainieren und Testen von Algorithmen, ein Modul zur Erkennung von Verzerrungen, ein Modul zur Analyse der Empfindlichkeit, ein Modul zur Erkennung von Gegnern, ein Modul zur Modellinterpretation und ein Modul zur Korrektur von Verzerrungen umfasst, wobei das Modul zur Datenvorverarbeitung für die Datenbereinigung und die Identifizierung empfindlicher Merkmale verwendet wird. Durch die Berechnung des Fairness-Index und die Visualisierung der Verzerrungen im Rahmen der vorliegenden Erfindung kann das System den Unterschied in der Leistung des Algorithmus bei verschiedenen Gruppen quantifizieren und visualisieren, was zur Erkennung und Korrektur der Verzerrungen im Algorithmus beiträgt. Die Funktionen zur Störung empfindlicher Merkmale und zur Erstellung von Empfindlichkeitsberichten ermöglichen es dem System, die Empfindlichkeit eines Algorithmus gegenüber empfindlichen Merkmalen zu erkennen und somit zu beurteilen, ob der Algorithmus eine bestimmte Gruppe ungerecht behandelt. Mit den Funktionen zur Erzeugung von Gegenproben und zur Bewertung der Verteidigung kann der Algorithmus auf seine Robustheit gegenüber bösartigen Eingaben getestet werden, wodurch die Sicherheit des Algorithmus in realen Anwendungen verbessert wird. Bild 1
Description
Verfahren und System zur Erkennung von Algorithmen der künstlichen Intelligenz -U600534
Technischer Bereich
Die vorliegende Erfindung bezieht sich auf das technische Gebiet der Erkennung von
Algorithmen der künstlichen Intelligenz, insbesondere auf Verfahren und Systeme zur Erkennung von Algorithmen der künstlichen Intelligenz.
Technologie im Hintergrund
Algorithmen der künstlichen Intelligenz beziehen sich auf die Simulation menschlicher intelligenter Verhaltensweisen durch Computerprogramme. Mit der rasanten Entwicklung der KI-
Technologie können Algorithmen jedoch Probleme wie Voreingenommenheit, Unfairness und gegnerische Anfälligkeit hervorrufen, während sie gleichzeitig Bequemlichkeit bieten, weshalb die Erkennung von KI-Algorithmen von entscheidender Bedeutung ist.
Herkömmliche Methoden zur Erkennung von KI-Algorithmen konzentrieren sich in der
Regel auf die Genauigkeit und Effizienz der Algorithmen, während Fairness, Transparenz und
Robustheit der Algorithmen außer Acht gelassen werden. Obwohl sie die Leistung von
Algorithmen bis zu einem gewissen Grad bewerten können, können sie die Unterschiede in der
Leistung von Algorithmen in verschiedenen Populationen, ihre Empfindlichkeit gegenüber sensiblen Merkmalen und ihre Widerstandsfähigkeit gegenüber Angriffen durch Angreifer nicht vollständig aufdecken. Darüber hinaus mangelt es den traditionellen Methoden oft an
Interpretierbarkeit, was es schwierig macht, die Logik und die Grundlage der Entscheidungen des
Algorithmus zu verstehen und somit auch schwierig, Verzerrungen im Algorithmus zu erkennen und zu korrigieren.
Auf dieser Grundlage stellt die vorliegende Erfindung Methoden und Systeme zur Erkennung von Algorithmen der künstlichen Intelligenz bereit, um die oben genannten technischen Probleme zu lösen.
Inhalt der Erfindung
Ein Ziel der vorliegenden Erfindung ist es, Verfahren und Systeme zur Erkennung von
Algorithmen der künstlichen Intelligenz bereitzustellen, um Probleme in der
Hintergrundtechnologie zu lösen.
Um den oben genannten Zweck zu erreichen, bietet die vorliegende Erfindung die folgende technische Lösung:
Ein System zur Erkennung von Algorithmen der künstlichen Intelligenz, das ein Modul zur
Datenvorverarbeitung, ein Modul zum Trainieren und Testen von Algorithmen, ein Modul zur
Erkennung von Verzerrungen, ein Modul zur Empfindlichkeitsanalyse, ein Modul zur Erkennung von Fehlern, ein Modul zur Interpretation von Modellen und ein Modul zur Korrektur von
Verzerrungen umfasst;
Das Datenvorverarbeitungsmodul wird zur Datenbereinigung und zur Identifizierung empfindlicher Merkmale verwendet;
Das Algorithmus-Trainingstestmodul wird für das Algorithmus-Training und die
Kreuzvalidierung verwendet;
Das Modul zur Erkennung von Verzerrungen für die Berechnung von Fairnessmetriken und die Visualisierung von Verzerrungen;
Das Empfindlichkeitsanalysemodul für die Störung empfindlicher Merkmale und die
Erstellung von Empfindlichkeitsberichten;
Das Modul zur Erkennung von Fehlern für die Erzeugung von Fehlern und die Bewertung der Abwehr von Fehlern;
Das Modellinterpretationsmodul für die Analyse der Merkmalsbedeutung und die Erstellurkg/600534 von Interpretationsberichten;
Das Bias-Korrekturmodul für die Lokalisierung der Bias-Identifikation und die
Implementierung einer Bias-Korrekturstrategie.
Vorzugsweise umfasst das Datenvorverarbeitungsmodul ferner eine
Datenbereinigungseinheit und eine Einheit zur Erkennung empfindlicher Merkmale;
Die Datenbereinigungseinheit entfernt Rauschen, fehlende Werte und Ausreißer im Datensatz mit Hilfe eines Datenbereinigungsalgorithmus;
Die Einheit zur Erkennung empfindlicher Merkmale identifiziert Ethnie- und Geschlechts- empfindliche Merkmale in dem Datensatz unter Verwendung eines Merkmalsauswahlalgorithmus zur Kennzeichnung und Extraktion von Merkmalen, die besondere Aufmerksamkeit erfordern.
Vorzugsweise umfasst das Algorithmus-Trainings- und Testmodul ferner eine Algorithmus-
Trainingseinheit und eine Kreuzvalidierungseinheit;
Die Algorithmus-Trainingseinheit verwendet einen Zufallswald oder ein neuronales Netz, um den Datensatz zu trainieren, um ein Vorhersagemodell zur Erzeugung eines zu testenden
Algorithmusmodells zu erhalten;
Die Kreuzvalidierungseinheit bewertet die Leistung des Modells mittels eines
Kreuzvalidierungsverfahrens zur Verifizierung der Generalisierungsfähigkeit des Modells.
Vorzugsweise umfasst das Modul zur Erkennung von Verzerrungen außerdem eine Einheit zur Berechnung des Fairness-Index und eine Einheit zur Visualisierung von Verzerrungen;
Die Fairness-Index-Berechnungseinheit berechnet den Unterschied in der Leistung des
Modells bei verschiedenen Gruppen unter Verwendung eines Differenzverhältnisses oder eines
Chancengleichheitsindex, der verwendet wird, um den Grad der Verzerrung des Modells bei verschiedenen Gruppen zu quantifizieren;
Die Einheit zur Visualisierung der Verzerrung zeigt die Verteilung der Verzerrung des Modells auf verschiedene Gruppen mit Hilfe eines Visualisierungstools an, das zur visuellen Darstellung der Ergebnisse der Verzerrungserkennung verwendet wird.
Vorzugsweise umfasst das Empfindlichkeitsanalysemodul ferner eine Einheit zur Störung empfindlicher Merkmale und eine Einheit zur Erstellung von Empfindlichkeitsberichten;
Die Einheit zur Störung empfindlicher Merkmale stört die empfindlichen Merkmale geringfügig, beobachtet die Änderungen in der Modellausgabe, bewertet die Empfindlichkeit des
Modells gegenüber den empfindlichen Merkmalen und wird verwendet, um zu erkennen, ob das
Modell übermäßig empfindlich gegenüber den empfindlichen Merkmalen ist, was zu einer
Verzerrung führt;
Die Sensitivitätsbericht-Erzeugungseinheit erzeugt einen Sensitivitätsbericht auf der
Grundlage der Störungsergebnisse, einschließlich des Grades des Einflusses der sensiblen
Merkmale auf die Modellausgabe, um detaillierte Sensitivitätsanalyseergebnisse zur
Unterstützung der Entscheidungsfindung bereitzustellen.
Vorzugsweise umfasst das Modul zur Erkennung von Angriffen außerdem eine Einheit zur
Erzeugung von Angriffen und eine Einheit zur Bewertung der Verteidigung gegen Angriffe;
Die Einheit zur Erzeugung negativer Proben erzeugt negative Proben unter Verwendung von
FGSM- oder PGD-Angriffsmethoden, um die Robustheit des Modells gegenüber bösartigen
Eingaben zu testen, und wird verwendet, um zu erkennen, ob das Modell anfällig für negative
Angriffe ist, die zu verzerrten oder fehlerhaften Entscheidungen führen;
Die besagte Einheit zur Bewertung der gegnerischen Verteidigung bewertet die Leistung des
Modells unter gegnerischen Proben und schlägt Verteidigungsstrategien für die Fähigkeit 44600534
Modells vor, gegnerischen Angriffen zu widerstehen.
Vorzugsweise umfasst das Modell-Erklärungsmodul ferner eine Einheit zur Analyse der
Merkmalsbedeutung und eine Einheit zur Erstellung eines Erklarungsberichts;
Die Merkmalsbedeutungsanalyseeinheit analysiert den Beitrag jedes Merkmals in dem
Modellentscheidungsprozess mittels der SHAP- oder LIME-Merkmalsbedeutungsmethode, die verwendet wird, um die Logik und die Grundlage der Modellentscheidung zu verstehen;
Die Einheit zur Erzeugung eines Erklärungsberichts erzeugt einen Erklärungsbericht auf der
Grundlage der Ergebnisse der Merkmalsbedeutungsanalyse, einschließlich der Hauptgrundlage der Modellentscheidung und möglicher Verzerrungen, um die Erklarbarkeit der
Modellentscheidung bereitzustellen.
Vorzugsweise umfasst das Modul zur Korrektur von Verzerrungen ferner eine Einheit zur
Lokalisierung von Verzerrungen und eine Einheit zur Implementierung einer Strategie zur
Korrektur von Verzerrungen;
Die Bias-Identifikations-Lokalisierungseinheit identifiziert und lokalisiert Quellen von Bias in dem Modell in Kombination mit Bias-Erfassungsergebnissen und erklärenden Berichten;
Die Bias-Korrekturstrategie-Implementierungseinheit eine entsprechende Resampling-,
Regularisierungs- oder Anpassungsmerkmal-Gewichtskorrekturstrategie auf der Grundlage der
Quelle der Verzerrung implementiert, um die Verzerrung in dem Modell zu korrigieren.
Basierend auf dem obigen System schlägt die vorliegende Erfindung auch ein Verfahren zur
Erkennung von Algorithmen mit künstlicher Intelligenz vor, das die folgenden Schritte umfasst:
S1. Verarbeitung des Datensatzes, Entfernen von Rauschen, Auffüllen von fehlenden Werten und Eliminieren von AusreiBern;
S2. Berechnen der Korrelation zwischen Merkmalen und sensiblen Attributen und Markieren sensibler Merkmale, die besondere Aufmerksamkeit erfordern;
S3. Trainieren der bereinigten Daten mit Algorithmen des maschinellen Lernens, um ein
Vorhersagemodell zu erhalten;
S4. Bewertung der Leistung des Modells durch K-fache Kreuzvalidierung, um seine Stabilität auf verschiedenen Datensätzen zu gewährleisten;
SS. Berechnung des Fairness-Index für den Unterschied in der Vorhersagegenauigkeit zwischen verschiedenen Gruppen;
S6. Demonstration der Bias-Verteilung des Modells in verschiedenen Gruppen mit Hilfe von
Heatmap und Histogramm;
S7. Hinzufügen von zufälligen Rauschstörungen zu sensiblen Merkmalen, um die Sensibilität des Modells für diese zu bewerten;
S8. Generierung gegnerischer Stichproben und Bewertung der Verteidigung, Generierung gegnerischer Stichproben, um die Robustheit des Modells zu testen und Verteidigungsstrategien vorzuschlagen;
S9. Analyse des Beitrags jedes Merkmals zur Modellentscheidung unter Verwendung der
Algorithmen SHAP und LIME;
S10. Identifizierung von Quellen der Verzerrung in Verbindung mit den Analyseergebnissen und Umsetzung von Korrekturstrategien zur Beseitigung der Verzerrung.
Die vorteilhaften Auswirkungen der vorliegenden Erfindung im Vergleich zum Stand der
Technik sind:
Die vorliegende Erfindung ermöglicht es dem System, die Unterschiede in der Leistung des
Algorithmus bei verschiedenen Gruppen durch die Berechnung von Fairness-Metriken und dt&/600554
Visualisierung von Verzerrungen zu quantifizieren und zu visualisieren, was hilft, Verzerrungen im Algorithmus zu erkennen und zu korrigieren. Die Funktionen zur Störung sensibler Merkmale und zur Erstellung von Sensitivitätsberichten ermöglichen es dem System, die Empfindlichkeit des Algorithmus gegenüber sensiblen Merkmalen zu erkennen und somit zu beurteilen, ob der
Algorithmus eine bestimmte Gruppe ungerecht behandelt. Die Funktionen zur Erzeugung von
Gegenproben und zur Bewertung der Verteidigung ermöglichen es dem Algorithmus, die
Robustheit des Algorithmus gegenüber böswilligen Eingaben zu testen und die Sicherheit des
Algorithmus in praktischen Anwendungen zu verbessern, und die Funktionen zur Analyse der
Merkmalsbedeutung und zur Erstellung von Interpretationsberichten sorgen für die
Interpretierbarkeit der Entscheidungsfindung des Modells, so dass der Benutzer die Logik und die
Gründe für die Entscheidungsfindung des Algorithmus nachvollziehen kann und das Vertrauen in den Algorithmus gestärkt wird. Die Funktionen zur Identifizierung von Verzerrungen und zur
Implementierung von Strategien zur Korrektur von Verzerrungen ermöglichen es dem System nicht nur, Verzerrungen im Algorithmus zu entdecken, sondern auch entsprechende
Korrekturstrategien vorzuschlagen und zu implementieren, wodurch die Leistung und Fairness des
Algorithmus verbessert wird. Zusammenfassend lässt sich sagen, dass die vorliegende Erfindung mehrere Vorteile in Bezug auf Vollständigkeit, Fairness, Sensitivitätsanalyse, Robustheit,
Interpretierbarkeit und Korrigierbarkeit aufweist und die Qualität und Zuverlässigkeit des
Algorithmus der künstlichen Intelligenz effektiv verbessern kann.
Beschreibung der beigefügten Zeichnungen
Bild 1 zeigt ein Topologiediagramm des Systems zur Erkennung von Algorithmen der künstlichen Intelligenz im Sinne der vorliegenden Erfindung;
Bild 2 zeigt ein Flussdiagramm des Verfahrens zur Erkennung von Algorithmen der künstlichen Intelligenz im Sinne der vorliegenden Erfindung.
Detaillierte Beschreibung
Die technischen Lösungen in den Ausführungsformen der vorliegenden Erfindung werden im
Folgenden klar und vollständig in Verbindung mit den Ausführungsformen der vorliegenden
Erfindung beschrieben, und es ist offensichtlich, dass die beschriebenen Ausführungsformen nur einen Teil der Ausführungsformen der vorliegenden Erfindung und nicht alle Ausführungsformen darstellen. Ausgehend von den Ausführungsformen der vorliegenden Erfindung fallen auch alle anderen Ausführungsformen, die ein Fachmann ohne schöpferische Arbeit herstellen kann, in den
Schutzbereich der vorliegenden Erfindung.
Ausführungsform 1
Bezugnehmend auf Bild 1 schlägt die vorliegende Erfindung ein System zur Erkennung von
Algorithmen der künstlichen Intelligenz vor, wobei das System ein Datenvorverarbeitungsmodul, ein Algorithmus-Trainingstestmodul, ein Modul zur Erkennung von Verzerrungen, ein Modul zur
Empfindlichkeitsanalyse, ein Modul zur Erkennung von Fehlern, ein Modul zur Interpretation von
Modellen und ein Modul zur Korrektur von Verzerrungen umfasst;
Unter ihnen ist anzumerken, dass das Datenvorverarbeitungsmodul für die Datenbereinigung und die Identifizierung empfindlicher Merkmale verwendet wird, das Algorithmustrainings-
Testmodul für das Algorithmustraining und die Kreuzvalidierung verwendet wird und das
Verzerrungserkennungsmodul für die Berechnung des Fairnessindex und die Visualisierung der
Verzerrung verwendet wird. Das Empfindlichkeitsanalysemodul wird für die Störung empfindlicher Merkmale und die Erstellung von Empfindlichkeitsberichten verwendet, das Modul für die Erkennung von Fehlern wird für die Erstellung von Fehlern und die Bewertung der Abwehl/600534 von Fehlern verwendet, das Modul für die Modellinterpretation wird für die Analyse der
Bedeutung von Merkmalen und die Erstellung von Interpretationsberichten verwendet, und das
Modul für die Korrektur von Verzerrungen wird für die Lokalisierung der Identifizierung von 5 Fehlern und die Implementierung von Strategien zur Korrektur von Fehlern verwendet.
In dieser Ausführungsform umfasst das Datenvorverarbeitungsmodul außerdem eine
Datenbereinigungseinheit und eine Einheit zur Erkennung empfindlicher Merkmale;
Ferner entfernt die Datenbereinigungseinheit Rauschen, fehlende Werte und Ausreißer in dem
Datensatz mittels eines Datenbereinigungsalgorithmus;
Ferner identifiziert die Einheit zur Erkennung empfindlicher Merkmale Ethnie- und geschlechtssensible Merkmale in dem Datensatz unter Verwendung eines
Merkmalsauswahlalgorithmus zur Kennzeichnung und Extraktion von Merkmalen, die besondere
Aufmerksamkeit erfordern.
In dieser Ausführungsform ist auch zu beachten, dass das Algorithmus-Trainingstestmodul weiterhin eine Algorithmus-Trainingseinheit und eine Kreuzvalidierungseinheit umfasst;
Ferner verwendet die Algorithmus-Trainingseinheit einen Zufallswald oder ein neuronales
Netz, um den Datensatz zu trainieren, um ein Vorhersagemodell zur Erzeugung des zu testenden
Algorithmusmodells zu erhalten;
Ferner bewertet die Kreuzvalidierungseinheit die Leistung des Modells mit Hilfe eines
Kreuzvalidierungsverfahrens, um die Generalisierungsfähigkeit des Modells zu überprüfen.
In dieser Ausführungsform umfasst das Modul zur Erkennung von Verzerrungen außerdem eine Einheit zur Berechnung des Fairnessindikators und eine Einheit zur Visualisierung von
Verzerrungen;
Ferner berechnet die Fairnessindikator-Berechnungseinheit Unterschiede in der Leistung des
Modells bei verschiedenen Gruppen unter Verwendung eines Differenzverhältnisses oder eines
Chancengleichheitsindexes zur Quantifizierung des Grades der Verzerrung des Modells bei verschiedenen Gruppen;
Ferner zeigt die Bias-Visualisierungseinheit die Verteilung des Bias des Modells auf verschiedene Gruppen mit Hilfe eines Visualisierungswerkzeugs an, um die Ergebnisse der Bias-
Erkennung intuitiv darzustellen.
In dieser Ausführungsform umfasst das Empfindlichkeitsanalysemodul außerdem eine
Einheit zur Störung empfindlicher Merkmale und eine Einheit zur Erstellung eines
Empfindlichkeitsberichts;
Ferner führt die Einheit zur Störung empfindlicher Merkmale eine kleine Störung der empfindlichen Merkmale durch, beobachtet Änderungen in der Modellausgabe und bewertet die
Empfindlichkeit des Modells gegenüber den empfindlichen Merkmalen, um festzustellen, ob das
Modell übermäßig empfindlich gegenüber den empfindlichen Merkmalen ist, was zu einer
Verzerrung führt;
Ferner erzeugt die Sensitivitätsberichts-Erzeugungseinheit einen Sensitivitätsbericht auf der
Grundlage der Störungsergebnisse, einschließlich des Grades des Einflusses der empfindlichen
Merkmale auf die Modellausgabe, um detaillierte Sensitivitätsanalyseergebnisse zur
Unterstützung der Entscheidungsfindung bereitzustellen.
In dieser Ausführungsform umfasst das Modul zur Erkennung von Fehlern außerdem eine
Einheit zur Erzeugung von Fehlermustern und eine Einheit zur Bewertung von Fehlern in der
Verteidigung;
Ferner erzeugt die Einheit zur Erzeugung negativer Stichproben unter Verwendung vor 600534
FGSM- oder PGD-Angriffsmethoden negative Stichproben, um die Robustheit des Modells gegenüber bösartigen Eingaben zu testen, um zu erkennen, ob das Modell anfällig für negative
Angriffe ist, die zu verzerrten oder falschen Entscheidungen führen;
Ferner bewertet die Einheit zur Bewertung der gegnerischen Verteidigung die Leistung des
Modells unter den gegnerischen Proben und schlägt eine Verteidigungsstrategie für die Fähigkeit des Modells vor, den gegnerischen Angriffen zu widerstehen.
In dieser Ausführungsform umfasst das Modellinterpretationsmodul außerdem eine Einheit zur Analyse der Merkmalsbedeutung und eine Einheit zur Erstellung von Interpretationsberichten;
Ferner analysiert die Einheit zur Analyse der Merkmalsbedeutung den Beitrag jedes
Merkmals im Modellentscheidungsprozess mit Hilfe der SHAP- oder LIME-Methode zur
Merkmalsbedeutung, um die Logik und Grundlage der Modellentscheidung zu verstehen;
Ferner erzeugt die Einheit zur Erzeugung eines erläuternden Berichts einen erläuternden
Bericht, der die Hauptgrundlage der Modellentscheidung und mögliche Verzerrungen auf der
Grundlage der Ergebnisse der Merkmalsbedeutungsanalysen einschließt, die verwendet werden, um die Erklärbarkeit der Modellentscheidung bereitzustellen.
In dieser Ausführungsform umfasst das Modul zur Korrektur von Verzerrungen außerdem eine Einheit zur Lokalisierung von Verzerrungen und eine Einheit zur Implementierung einer
Strategie zur Korrektur von Verzerrungen;
Ferner identifiziert und lokalisiert die Bias-Identifikations-Lokalisierungseinheit eine Quelle von Bias in dem Modell in Verbindung mit den Bias-Erfassungsergebnissen und dem erklärenden
Bericht;
Ferner implementiert die Implementierungseinheit für die Strategie zur Korrektur der
Verzerrung eine entsprechende Strategie zur Neuabtastung, Regularisierung oder Anpassung der
Merkmalsgewichtung, um die Verzerrung im Modell zu korrigieren, abhängig von der Quelle der
Verzerrung.
Ausführungsform 2
Bezugnehmend auf Bild 2, in der praktischen Anwendung, basierend auf dem obigen System, die vorliegende Erfindung schlägt auch eine künstliche Intelligenz Algorithmus
Erkennungsverfahren, insbesondere, einschließlich der folgenden Schritte: (1) Datenbereinigung:
Der ursprüngliche Datensatz wird mit einem Datenbereinigungsalgorithmus verarbeitet, um
Rauschen, fehlende Werte und Ausreißer zu entfernen;
Fehlende Werte werden interpoliert oder gelöscht, Ausreißer werden identifiziert und ersetzt oder gelöscht, und verrauschte Daten werden geglättet;
Wenn im Datensatz fehlende Werte für ein Merkmal x, vorhanden sind, wird eine
Mittelwertinterpolation durchgeführt, siehe Gleichung (1): missing — 1 x! st C1; wobei die Anzahl der nicht fehlenden Werte ist; (2) Identifizierung empfindlicher Merkmale:
Anwendung von Algorithmen zur Merkmalsauswahl, um sensible Merkmale im Datensatz zu identifizieren und zu kennzeichnen, einschließlich Ethnie und Geschlecht;
Berechnung der Korrelation oder statistischen Signifikanz zwischen Merkmalen und sensiblen Attributen, um festzustellen, welche Merkmale besondere Aufmerksamkeit erfordern; 600534
Berechnung des Pearson-Korrelationskoeffizienten zwischen Merkmal x und sensiblem
Attribut s, siehe Gleichung (2): r= EX; -x)(s, -S) (2);
JE, -X)* Es, -5)’ wobei x und s die Mittelwerte von x bzw. s sind; (3) Algorithmus-Training:
Der bereinigte Datensatz wird mit dem Random-Forest-Algorithmus oder dem neuronalen
Netz trainiert, um das Vorhersagemodell zu erhalten;
Der Random-Forest-Algorithmus macht Vorhersagen, indem er mehrere
Entscheidungsbäume erstellt und deren Ergebnisse kombiniert; das neuronale Netz passt die Daten an, indem es lernt und die Gewichte der mehrschichtigen Neuronen anpasst;
Das neuronale Netz hat L Schichten mit n, Neuronen in jeder Schicht, die Eingabe ist x und die Ausgabe ist y. Die Ausgabe der 1. Schicht, siehe Gleichung (3): a' =o(W'a" +b") (3);
Dabei ist W' die Gewichtsmatrix, b' der Bias-Vektor und 6 die Aktivierungsfunktion; (4) Kreuzvalidierung:
Kreuzvalidierungsmethoden werden verwendet, um die Leistung des Modells zu bewerten und die Stabilität des Modells auf verschiedenen Datensätzen sicherzustellen;
Zu den üblichen Kreuzvalidierungsmethoden gehört die K-fache Kreuzvalidierung, bei der der Datensatz in K Kopien unterteilt wird und K-1 Kopien als Trainingsmenge und 1 Kopie als
Validierungsmenge verwendet werden, um die durchschnittliche Leistung des Modells zu berechnen; (5) Berechnung von Fairness-Indikatoren:
Unterschiede in der Modellleistung bei verschiedenen Gruppen werden mit Hilfe von
Fairness-Metriken (einschließlich Diskrepanzquotienten und Chancengleichheitsindex) berechnet;
Das Diskrepanzverhältnis berechnet den Unterschied in der Vorhersagegenauigkeit zwischen den verschiedenen Gruppen; der Chancengleichheitsindex konzentriert sich auf die Gleichheit der verschiedenen Gruppen bei positiven Klassenvorhersagen;
Die Genauigkeitsraten der Gruppen A und B seien AA bzw. AB, und das Diskrepanzverhältnis sei | AA-AB |; (6) Visualisierung der Verzerrung:
Die Verteilung der Verzerrungen des Modells auf verschiedene Gruppen wird mit Hilfe von
Heatmaps und Histogrammen dargestellt;
Heatmaps zeigen den Grad der Verzerrung durch Farbschattierungen an, Histogramme zeigen direkt die Leistungsmetriken für jede Gruppe, und der Visualisierungsprozess bildet die Daten auf visuelle Elemente ab; (7) Störung empfindlicher Merkmale:
Es wird eine kleine Störung empfindlicher Merkmale durchgeführt, um die Veränderungen in der Modellausgabe zu beobachten und die Empfindlichkeit des Modells gegenüber den empfindlichen Merkmalen zu bewerten; LU600534
Zu den Störungsmethoden gehören das Hinzufügen von Zufallsrauschen und die Änderung eines kleinen Bereichs von Merkmalswerten; (8) Erzeugung von Angriffsproben und Bewertung der Verteidigung:
Die FGSM- und PGD-Verfahren werden verwendet, um negative Stichproben zu erzeugen und die Robustheit des Modells zu testen;
FGSM erzeugt gegnerische Stichproben durch Berechnung des Gradienten der
Verlustfunktion; PGD führt mehrere Optimierungsiterationen auf der Grundlage von FGSM durch, bewertet die Leistung des Modells unter gegnerischen Stichproben und schlägt eine
Verteidigungsstrategie vor, die gegnerisches Training und Eingabetransformation umfasst; (9) Analyse der Bedeutung der Merkmale:
Der Beitrag jedes Merkmals im Entscheidungsprozess des Modells wird durch die SHAP- und LIME-Merkmalswichtigkeitsanalyse analysiert;
SHAP berechnet den marginalen Beitrag der Merkmale zur Modellausgabe auf der Grundlage der Spieltheorie; LIME erklärt die Modellentscheidungen durch lokale lineare Modellannäherung; (10) Identifizierung und Korrektur von Verzerrungen:
Identifizierung und Lokalisierung von Quellen der Verzerrung im Modell durch Kombination der Fairness-Metriken, der Ergebnisse der Sensitivitätsanalyse und der Analyse der
Merkmalsbedeutung;
Basierend auf den Quellen der Verzerrung, Implementierung geeigneter Korrekturstrategien, einschlieBlich Resampling, um den Datensatz auszugleichen, Normalisierung, um die
Modellkomplexität zu reduzieren, und Anpassung der Merkmalsgewichte, um Verzerrungen zu beseitigen.
Durch die oben genannten Schritte hat die vorliegende Erfindung mehrere Vorteile der
Vollständigkeit, Fairness, Sensitivitatsanalyse, Robustheit, Interpretierbarkeit und
Korrigierbarkeit und kann die Qualität und Zuverlässigkeit des Algorithmus der künstlichen
Intelligenz effektiv verbessern.
In der Beschreibung der vorliegenden Spezifikation bedeutet die Beschreibung unter
Bezugnahme auf den Begriff „eine Ausführungsform“, „Beispiel“, „spezifisches Beispiel“, dass ein bestimmtes Merkmal, eine bestimmte Struktur, ein bestimmtes Material oder eine bestimmte
Eigenschaft, die im Zusammenhang mit der Ausführungsform oder dem Beispiel beschrieben wird, in mindestens einer Ausführungsform oder einem Beispiel der vorliegenden Erfindung enthalten ist. In dieser Beschreibung beziehen sich schematische Ausdrücke der oben genannten Begriffe nicht notwendigerweise auf die gleiche Ausführungsform oder das gleiche Beispiel. Außerdem können die beschriebenen spezifischen Merkmale, Strukturen, Materialien oder Eigenschaften in einer oder mehreren Ausführungsformen oder Beispielen in geeigneter Weise kombiniert werden.
Die oben offengelegten bevorzugten Ausführungsformen der Erfindung sind nur als Hilfe bei der Darstellung der Erfindung gedacht. Die bevorzugten Ausführungsformen sind keine erschöpfende Aufzählung aller Details, noch beschränken sie die Erfindung auf die spezifischen
Ausführungsformen nur beschrieben. Offensichtlich können viele Modifikationen und Variationen in Übereinstimmung mit dieser Beschreibung vorgenommen werden. Diese Ausführungsformen werden in dieser Beschreibung ausgewählt und speziell beschrieben, um die Prinzipien und praktischen Anwendungen der vorliegenden Erfindung besser zu erklären, so dass die Fachleute auf dem Gebiet, zu dem sie gehört, die Erfindung gut verstehen und nutzen können. Die vorliegende Erfindung ist nur durch die Ansprüche und deren gesamten Umfang und Wirkung begrenzt.
LU600534
Claims (9)
1. Ein System zur Erkennung von Algorithmen der künstlichen Intelligenz, dadurch gekennzeichnet, dass es ein Modul zur Datenvorverarbeitung, ein Modul zum Trainieren und Testen von Algorithmen, ein Modul zur Erkennung von Verzerrungen, ein Modul zur Empfindlichkeitsanalyse, ein Modul zur Erkennung von Fehlern, ein Modul zur Erklärung von Modellen und ein Modul zur Korrektur von Verzerrungen umfasst; Das Datenvorverarbeitungsmodul wird zur Datenbereinigung und zur Identifizierung empfindlicher Merkmale verwendet; Das Algorithmus-Trainingstestmodul wird für das Algorithmus-Training und die Kreuzvalidierung verwendet; Das Modul zur Erkennung von Verzerrungen wird für die Berechnung des Fairness-Indikators und die Visualisierung von Verzerrungen verwendet; Das Empfindlichkeitsanalysemodul für die Störung empfindlicher Merkmale und die Erstellung von Empfindlichkeitsberichten; Das Modul zur Erkennung von Fehlern für die Erzeugung von Fehlern und die Bewertung der Abwehr von Fehlern; Das Modellinterpretationsmodul für die Analyse der Merkmalsbedeutung und die Erstellung von Interpretationsberichten; Das Bias-Korrekturmodul für die Lokalisierung der Bias-Identifikation und die Implementierung einer Bias-Korrekturstrategie.
2. Ein System zur Erkennung von Algorithmen der künstlichen Intelligenz nach Anspruch 1, dadurch gekennzeichnet, dass das Datenvorverarbeitungsmodul ferner eine Datenbereinigungseinheit und eine Einheit zur Erkennung empfindlicher Merkmale umfasst; Die Datenbereinigungseinheit entfernt Rauschen, fehlende Werte und Ausreißer in dem Datensatz mittels eines Datenbereinigungsalgorithmus; Die Erkennungseinheit für empfindliche Merkmale verwendet einen Merkmalsauswahlalgorithmus, um Ethnie- und geschlechtssensible Merkmale in dem Datensatz zu identifizieren, um Merkmale zu kennzeichnen und zu extrahieren, die besondere Aufmerksamkeit erfordern.
3. Ein System zur Erkennung von Algorithmen der künstlichen Intelligenz nach Anspruch 2, dadurch gekennzeichnet, dass das Modul zum Trainieren und Testen von Algorithmen ferner eine Einheit zum Trainieren von Algorithmen und eine Einheit zur Kreuzvalidierung umfasst; Die Algorithmus-Trainingseinheit verwendet einen Zufallswald oder ein neuronales Netzwerk, um den Datensatz zu trainieren, um ein Vorhersagemodell zur Erzeugung eines zu testenden Algorithmusmodells zu erhalten; Die Kreuzvalidierungseinheit bewertet die Leistung des Modells mittels eines Kreuzvalidierungsverfahrens zur Verifizierung der Generalisierungsfähigkeit des Modells.
4. Ein System zur Erkennung von Algorithmen der künstlichen Intelligenz nach Anspruch 3, dadurch gekennzeichnet, dass das Bias-Erkennungsmodul ferner eine Fairness-Index- Berechnungseinheit und eine Bias-Visualisierungseinheit umfasst; Die Fairness-Index-Berechnungseinheit berechnet den Unterschied in der Leistung des Modells bei verschiedenen Gruppen unter Verwendung eines Differenzverhältnisses oder eines Chancengleichheitsindexes zur Quantifizierung des Grades der Voreingenommenheit des Modells bei verschiedenen Gruppen;
Die Einheit zur Visualisierung von Vorurteilen zeigt die Verteilung der Vorurteile des Model$/600534 auf verschiedene Gruppen mit Hilfe eines Visualisierungswerkzeugs an, das zur intuitiven Darstellung der Ergebnisse der Vorurteilserkennung verwendet wird.
5. Ein System zur Erkennung von Algorithmen der künstlichen Intelligenz nach Anspruch 4, dadurch gekennzeichnet, dass das Empfindlichkeitsanalysemodul ferner eine Einheit zur Störung empfindlicher Merkmale und eine Einheit zur Erzeugung eines Empfindlichkeitsberichts umfasst; Die Einheit zur Störung empfindlicher Merkmale führt eine kleine Störung der empfindlichen Merkmale durch, beobachtet Änderungen in der Modellausgabe, bewertet die Empfindlichkeit des Modells gegenüber den empfindlichen Merkmalen und wird verwendet, um zu erkennen, ob das Modell übermäßig empfindlich gegenüber den empfindlichen Merkmalen ist, was zu einer Verzerrung führt; Die Sensitivitätsbericht-Erzeugungseinheit erzeugt einen Sensitivitätsbericht auf der Grundlage der Störungsergebnisse, einschließlich des Grades des Einflusses der sensiblen Merkmale auf die Modellausgabe, um detaillierte Sensitivitätsanalyseergebnisse zur Unterstützung der Entscheidungsfindung bereitzustellen.
6. Ein System zur Erkennung von Algorithmen der künstlichen Intelligenz nach Anspruch 5, dadurch gekennzeichnet, dass das Modul zur Erkennung von Angreifern ferner eine Einheit zur Erzeugung von Angreiferproben und eine Einheit zur Bewertung von Angreiferabwehr umfasst; Die Einheit zur Erzeugung negativer Proben erzeugt negative Proben unter Verwendung von FGSM- oder PGD-Angriffsmethoden, um die Robustheit des Modells gegenüber bösartigen Eingaben zu testen, um zu erkennen, ob das Modell anfällig für negative Angriffe ist, die zu verzerrten oder fehlerhaften Entscheidungen führen; Die besagte Einheit zur Bewertung der gegnerischen Verteidigung bewertet die Leistung des Modells unter gegnerischen Proben und schlägt Verteidigungsstrategien für die Fähigkeit des Modells vor, gegnerischen Angriffen zu widerstehen.
7. Ein System zur Erkennung von Algorithmen der künstlichen Intelligenz nach Anspruch 6, dadurch gekennzeichnet, dass das Modul zur Modellinterpretation ferner eine Einheit zur Analyse der Bedeutung von Merkmalen und eine Einheit zur Erzeugung von Interpretationsberichten umfasst; Die Merkmalsbedeutungsanalyseeinheit analysiert den Beitrag jedes Merkmals im Modellentscheidungsprozess mittels der SHAP- oder LIME-Merkmalsbedeutungsmethode, die verwendet wird, um die Logik und Grundlage der Modellentscheidung zu verstehen; Die Einheit zur Erzeugung eines erläuternden Berichts erzeugt einen erläuternden Bericht auf der Grundlage der Ergebnisse der Merkmalsbedeutungsanalyse, einschließlich der Hauptgrundlage der Modellentscheidung und möglicher Verzerrungen, um die Erklärbarkeit der Modellentscheidung bereitzustellen.
8. Ein System zur Erkennung von Algorithmen der künstlichen Intelligenz nach Anspruch 7, dadurch gekennzeichnet, dass das Modul zur Korrektur von Verzerrungen ferner eine Einheit zur Lokalisierung von Verzerrungen und eine Einheit zur Implementierung einer Strategie zur Korrektur von Verzerrungen umfasst; Die Bias-Identifikations-Lokalisierungseinheit identifiziert und lokalisiert Quellen von Bias in dem Modell in Kombination mit Bias-Erkennungsergebnissen und Erklärungsberichten; Die Bias-Korrekturstrategie-Implementierungseinheit eine entsprechende Resampling-, Regularisierungs- oder Anpassungsmerkmal-Gewichtskorrekturstrategie zum Korrigieren der Verzerrung in dem Modell gemäß der Quelle der Verzerrung implementiert.
9. Ein Verfahren zur Erkennung von Algorithmen mit künstlicher Intelligenz, das System z}}600534 Erkennung von Algorithmen mit künstlicher Intelligenz nach einem der Ansprüche 1-8, dadurch gekennzeichnet, dass es die folgenden Schritte umfasst:
S1. Verarbeitung eines Datensatzes, Entfernen von Rauschen, Auffüllen von fehlenden Werten und Eliminieren von AusreiBern;
S2. Berechnen der Korrelation zwischen Merkmalen und sensiblen Attributen und Markieren sensibler Merkmale, die besondere Aufmerksamkeit erfordern;
S3. Trainieren der bereinigten Daten mit Algorithmen des maschinellen Lernens, um ein Vorhersagemodell zu erhalten;
S4. Bewertung der Modellleistung durch K-fache Kreuzvalidierung, um die Stabilität des Modells auf verschiedenen Datensätzen zu gewährleisten;
SS. Berechnung des Fairness-Index für den Unterschied in der Vorhersagegenauigkeit zwischen verschiedenen Gruppen;
S6. Demonstration der Bias-Verteilung des Modells in verschiedenen Gruppen mit Hilfe von Heatmap und Histogramm;
S7. Hinzufügen von zufälligen Rauschstörungen zu sensiblen Merkmalen, um die Sensibilität des Modells für diese zu bewerten;
S8. Generierung gegnerischer Stichproben und Bewertung der Verteidigung, Generierung gegnerischer Stichproben, um die Robustheit des Modells zu testen und Verteidigungsstrategien vorzuschlagen;
S9. Analyse des Beitrags jedes Merkmals zur Modellentscheidung unter Verwendung der Algorithmen SHAP und LIME;
S10. Identifizierung von Quellen der Verzerrung in Verbindung mit den Analyseergebnissen und Umsetzung von Korrekturstrategien zur Beseitigung der Verzerrung.
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| LU600534A LU600534B1 (de) | 2025-03-11 | 2025-03-11 | Verfahren und System zur Erkennung von Algorithmen der künstlichen Intelligenz |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| LU600534A LU600534B1 (de) | 2025-03-11 | 2025-03-11 | Verfahren und System zur Erkennung von Algorithmen der künstlichen Intelligenz |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| LU600534B1 true LU600534B1 (de) | 2025-09-11 |
Family
ID=96993878
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| LU600534A LU600534B1 (de) | 2025-03-11 | 2025-03-11 | Verfahren und System zur Erkennung von Algorithmen der künstlichen Intelligenz |
Country Status (1)
| Country | Link |
|---|---|
| LU (1) | LU600534B1 (de) |
-
2025
- 2025-03-11 LU LU600534A patent/LU600534B1/de active IP Right Grant
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| CN103095494B (zh) | 一种电力通信网风险评估方法 | |
| Sridhar et al. | Brain tumor classification using discrete cosine transform and probabilistic neural network | |
| DE102014223226A1 (de) | Diskriminator, Unterscheidungsprogramm und Unterscheidungsverfahren | |
| CN109191476A (zh) | 基于U-net网络结构的生物医学图像自动分割新方法 | |
| KR102537470B1 (ko) | 신경망 기반 알고리즘에 근거한 안와 전산화단층촬영(ct)을 이용한 갑상선안병증(go) 진단 방법 | |
| DE112018002822T5 (de) | Klassifizieren neuronaler netze | |
| CN106940281A (zh) | 一种基于信息融合技术智能模型的航空油液分析方法 | |
| CN114170245B (zh) | 一种基于SAA-Unet网络的蜂窝肺病灶分割方法 | |
| CN112070720A (zh) | 一种基于深度学习模型的变电站设备缺陷识别方法 | |
| Bolt et al. | Combining region-and network-level brain-behavior relationships in a structural equation model | |
| WO2020192827A1 (de) | Verfahren und vorrichtung zur probabilistischen vorhersage von sensordaten | |
| CN120318586A (zh) | 一种基于人工智能的视网膜脉络膜病程结构变化监测系统 | |
| CN116957361B (zh) | 一种基于虚实结合的船舶任务系统健康状态检测方法 | |
| LU600534B1 (de) | Verfahren und System zur Erkennung von Algorithmen der künstlichen Intelligenz | |
| Wu et al. | Quantifying intrinsic uncertainty in classification via deep Dirichlet mixture networks | |
| DE102022125763A1 (de) | Erkennung von verzerrungen in bilddaten mit erklärbarkeit beim maschinellen lernen | |
| CN113239730B (zh) | 一种基于计算机视觉的结构虚假模态参数自动剔除方法 | |
| LU600539B1 (de) | Verfahren und System zur Bearbeitung von Aufgaben der künstlichen Intelligenz | |
| LU504988B1 (de) | Ein Verfahren zur Klassifizierung von integrierten Ungleichgewichtsdaten mit Unterabtastung auf der Grundlage von Fuzzy-C-Mittelwert-Clustering | |
| CN109272534B (zh) | 基于多粒度级联森林模型的sar图像变化检测方法 | |
| LU601419B1 (de) | Verfahren und System zur Bewertung der Programmierfähigkeit von Algorithmen der künstlichen Intelligenz | |
| CN119091277B (zh) | 一种畜禽疫病图像类症识别方法及装置 | |
| CN121808642A (zh) | 基于因果推断模型的区域产教适配度动态诊断与预警系统 | |
| Bu et al. | Research of Checking the Pulse and Temperature of Higher Education Based on the BP Neural Network Prediction Model | |
| EP2810192A2 (de) | Bearbeitung einer datenmenge |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| FG | Patent granted |
Effective date: 20250911 |