DE112021005531T5 - Verfahren und vorrichtung zur erzeugung von trainingsdaten für ein graphneuronales netzwerk - Google Patents

Verfahren und vorrichtung zur erzeugung von trainingsdaten für ein graphneuronales netzwerk Download PDF

Info

Publication number
DE112021005531T5
DE112021005531T5 DE112021005531.3T DE112021005531T DE112021005531T5 DE 112021005531 T5 DE112021005531 T5 DE 112021005531T5 DE 112021005531 T DE112021005531 T DE 112021005531T DE 112021005531 T5 DE112021005531 T5 DE 112021005531T5
Authority
DE
Germany
Prior art keywords
graph
fake
node
nodes
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112021005531.3T
Other languages
English (en)
Inventor
Jun Zhu
Zhengyi Wang
Hang Su
Hao Yang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Robert Bosch GmbH
Original Assignee
Tsinghua University
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University, Robert Bosch GmbH filed Critical Tsinghua University
Publication of DE112021005531T5 publication Critical patent/DE112021005531T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/094Adversarial learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Die vorliegende Offenbarung sieht ein Verfahren zur Erzeugung von Adversarial-Beispielen für ein graphneuronales Netzwerkmodell (GNN-Modell) vor. Das Verfahren umfasst: Ermitteln von anfälligen Merkmalen von Zielknoten in einem Graphen basierend auf dem Abfragen des GNN-Modells, wobei der Graph Knoten einschließlich der Zielknoten und Kanten umfasst, wobei jede der Kanten zwei der Knoten verbindet; Gruppieren der Zielknoten in eine Vielzahl von Clustern gemäß den anfälligen Merkmalen der Zielknoten; und Erhalten der Adversarial-Beispiele basierend auf der Vielzahl von Clustern.

Description

  • GEBIET
  • Aspekte der vorliegenden Offenbarung beziehen sich allgemein auf künstliche Intelligenz und insbesondere auf die Erzeugung von Trainingsdaten für ein graphneuronales Netzwerkmodell (GNN-Modell).
  • HINTERGRUND
  • Graphdaten werden in vielen realen Anwendungen eingesetzt, etwa in sozialen Netzwerken, biologischen Netzwerken, Zitationsnetzwerken, Empfehlungssystemen, Finanzsystemen usw. Die Knotenklassifizierung ist eine der wichtigsten Aufgaben bei Graphen. Das Deep-Learning-Modell für Graphen wie das GNN-Modell hat gute Ergebnisse bei der Aufgabe der Knotenklassifizierung im Graphen erreicht. Bei einem Graphen mit Kennungen, die einer Teilmenge von Knoten zugeordnet sind, kann das GNN-Modell die Kennungen für die übrigen Knoten vorhersagen.
  • Einige Studien haben gezeigt, dass bestimmte Techniken verwendet werden können, um das GNN-Modell zu täuschen, um Knoten eines Graphen falsch zu klassifizieren. Solche Techniken können als Adversarial Attack (feindlicher Angriff) bezeichnet werden. Ein betrügerischer Benutzer, der durch einen Knoten in einem Finanznetzwerk, einem sozialen Netzwerk oder dergleichen dargestellt wird, kann zum Beispiel im Rahmen der Adversarial Attack durch das GNN-Modell als kreditwürdiger Benutzer klassifiziert werden. Die Fehlklassifizierung des GNN-Modells für eine bestimmte Anwendung kann zu einer böswilligen Aktion führen.
  • Abhängig von den Phasen, in denen Adversarial Attacks stattfinden, kann die Adversial Attack eine Evasion Attack (Ausweichangriff) in der Phase des Modelltests und eine Poisoning Attack (Vergiftungsangriff) in der Phase des Modelltrainings enthalten. Eine Poisoning Attack versucht, die Leistung des Modells durch Hinzufügen unerwünschter Proben in den Trainingsdatensatz zu beeinflussen. Eine Evasion Attack verändert nur die Testdaten, was kein erneutes Trainieren des Modells erfordert.
  • Abhängig von den verfügbaren Informationen über das GNN-Modell kann die Adversarial Attack eine White-Box-Attack, eine Grey-Box-Attack und eine Black-Box-Attack enthalten. Bei einer White-Box-Attack kann ein Angreifer alle Informationen über das GNN-Modell erhalten und diese nutzen, um das System anzugreifen. Der Angriff wird möglicherweise nicht funktionieren, wenn der Angreifer das System nicht zuerst vollständig überwindet. Bei einer Grey-Box-Attack kann ein Angreifer begrenzte Informationen zum Angreifen des Systems erhalten. Im Vergleich zur White-Box-Attack ist dies für das System gefährlicher, da der Angreifer nur Teilinformationen benötigt. Bei einer Black-Box-Attack kann ein Angreifer nur Black-Box-Abfragen bei einigen der Proben durchführen. Daher kann der Angreifer in der Regel keine Poisoning-Attack auf das trainierte Modell sondern nur eine Evasion-Attack auf das trainierte Modell durchführen. Sollte die Black-Box-Attack jedoch erfolgreich sein, wäre dies im Vergleich zu den anderen beiden der gefährlichste Angriff, da er in der realen Situation besser anwendbar ist.
  • Es besteht Verbesserungsbedarf, um die Zuverlässigkeit des GNN-Modells gegenüber Adversarial-Attacks, insbesondere Black-Box-Attacks, zu verbessern.
  • KURZDARSTELLUNG
  • Ein effektiver Weg für die Verbesserung der Zuverlässigkeit des GNN-Modells gegenüber Adversarial-Attacks besteht darin, Adversarial-Beispiele für das GNN-Modell zu finden und das GNN-Modell unter Verwendung der Adversarial-Beispiele zu trainieren.
  • Wenn die Adversarial-Beispiele für das GNN-Modell auf eine Weise gefunden werden können, die einer realen Situation besser entspricht, wird das mit den Adversarial-Beispielen trainierte GNN-Modell eine bessere Angriffsabwehr bieten und in einer realen Situation zuverlässiger sein.
  • Gemäß einer Ausführungsform ist ein Verfahren zur Erzeugung von Adversarial-Beispielen für ein graphneuronales Netzwerkmodell (GNN-Modell) vorgesehen. Das Verfahren umfasst: Ermitteln von anfälligen Merkmalen von Zielknoten in einem Graphen basierend auf dem Abfragen des GNN-Modells, wobei der Graph Knoten einschließlich der Zielknoten und Kanten umfasst, wobei jede der Kanten zwei der Knoten verbindet; Gruppieren der Zielknoten in eine Vielzahl von Clustern gemäß den anfälligen Merkmalen der Zielknoten; und Erhalten der Adversarial-Beispiele basierend auf der Vielzahl von Clustern.
  • Gemäß einer Ausführungsform ist ein Verfahren zum Trainieren eines GNN-Modells vorgesehen. Das Verfahren umfasst: Erhalten von Adversarial-Beispielen für das GNN-Modell; Festlegen einer Kennung für jedes der Adversarial-Beispiele; und Trainieren des GNN-Modells unter Verwendung der Adversarial-Beispiele mit den Kennungen.
  • Gemäß einer Ausführungsform ist ein Computersystem vorgesehen, das einen oder mehrere Prozessoren und eine oder mehrere Speichervorrichtungen umfasst, auf denen computerausführbare Anweisungen gespeichert sind, die bei Ausführung den einen oder die mehreren Prozessoren veranlassen, die Operationen des Verfahrens wie zuvor erwähnt sowie die Operationen des Verfahrens gemäß den Aspekten der Offenbarung durchzuführen.
  • Gemäß einer Ausführungsform sind ein oder mehrere computerlesbare Speichermedien vorgesehen, auf denen computerausführbare Anweisungen gespeichert sind, die bei Ausführung einen oder mehrere Prozessoren veranlassen, die Operationen des Verfahrens wie zuvor erwähnt sowie die Operationen des Verfahrens gemäß den Aspekten der Offenbarung durchzuführen.
  • Gemäß einer Ausführungsform ist ein Computerprogrammprodukt vorgesehen, das computerausführbare Anweisungen umfasst, die bei Ausführung einen oder mehrere Prozessoren veranlassen, die Operationen des Verfahrens wie zuvor erwähnt sowie die Operationen des Verfahrens gemäß den Aspekten der Offenbarung durchzuführen.
  • Durch Erzeugung der Adversarial-Beispiele und Verwendung der Adversarial-Beispiele zum Trainieren des GNN-Modells gemäß den Aspekten der Offenbarung kann die Abwehrfähigkeit des GNN-Modells gegen potentielle Adversarial-Attacks verbessert werden, insbesondere gegen die gefährlichste Black-Box-Attack.
  • Figurenliste
  • Die offenbarten Aspekte werden nachfolgend in Verbindung mit den beigefügten Zeichnungen beschrieben, die zur Veranschaulichung und nicht zur Einschränkung der offenbarten Aspekte vorgesehen sind.
    • 1 veranschaulicht ein beispielhaftes GCN-Modell gemäß einer Ausführungsform.
    • 2 veranschaulicht eine beispielhafte schematische Darstellung zum Beeinflussen einer Klassifizierungsaufgabe eines GCN-Modells gemäß einer Ausführungsform.
    • 3 veranschaulicht einen beispielhaften schematischen Prozess zum Erzeugen von Adversarial-Beispielen gemäß einer Ausführungsform.
    • 4 veranschaulicht einen beispielhaften Prozess zum Erhalten des MAF für einen Zielknoten gemäß einer Ausführungsform.
    • 5 veranschaulicht einen beispielhaften Prozess zum Erhalten von Adversarial-Beispielen für ein GCN-Modell gemäß einer Ausführungsform.
    • 6 veranschaulicht einen beispielhaften Prozess zum Erhalten von Adversarial-Beispielen für ein GCN-Modell gemäß einer Ausführungsform.
    • 7 veranschaulicht ein beispielhaftes Verfahren zum Erzeugen von Adversarial-Beispielen für ein GNN-Modell gemäß einer Ausführungsform.
    • 8 veranschaulicht einen beispielhaften Prozess zum Trainieren eines GNN-Modells gemäß einer Ausführungsform.
    • 9 veranschaulicht ein beispielhaftes Verfahren zum Trainieren eines GNN-Modells gemäß einer Ausführungsform.
    • 10 veranschaulicht ein beispielhaftes Computersystem gemäß einer Ausführungsform.
  • AUSFÜHRLICHE BESCHREIBUNG
  • Die vorliegende Offenbarung wird nun unter Bezugnahme auf mehrere beispielhafte Implementierungen erörtert. Es ist zu verstehen, dass diese Implementierungen nur erörtert werden, um Fachleuten ein besseres Verständnis und damit eine bessere Implementierung der Ausführungsformen der vorliegenden Offenbarung zu ermöglichen, und nicht, um Einschränkungen des Umfangs der vorliegenden Offenbarung vorzuschlagen.
  • Verschiedene Ausführungsformen werden unter Bezugnahme auf die beigefügten Zeichnungen ausführlich beschrieben. Soweit möglich, werden in den Zeichnungen gleiche Bezugsnummern verwendet, um auf gleiche oder ähnliche Teile zu verweisen. Bezugnahmen auf bestimmte Beispiele und Ausführungsformen dienen der Veranschaulichung und sollen den Umfang der Offenbarung nicht einschränken.
  • Die vorliegende Offenbarung beschreibt ein Verfahren und ein System, das in Form von Computerprogrammen implementiert ist, die auf einem oder mehreren Computern ausgeführt werden und Trainingsdaten zur Verbesserung der Zuverlässigkeit und Robustheit eines GNN-Modells gegen Adversarial-Attacks auf dieses Modell vorsieht. Das GNN-Modell kann beispielsweise als Graphfaltungsnetzwerk (Graph Convolution Network, GCN) implementiert sein und kann eine maschinelle Lernaufgabe zur Klassifizierung von Knoten in einem Graphen durchführen, der beispielsweise ein soziales Netzwerk, ein biologisches Netzwerk, ein Zitationsnetzwerk, ein Empfehlungssystem, ein Finanzsystem usw. darstellen kann. Die Aspekte der Offenbarung können in diesen Bereichen wie dem sozialen Netzwerk, dem biologischen Netzwerk, dem Zitationsnetzwerk, dem Empfehlungssystem, dem Finanzsystem usw. zur Verbesserung der Sicherheit und Robustheit dieser Systeme angewendet werden.
  • 1 veranschaulicht ein beispielhaftes GCN-Modell 10 gemäß einer Ausführungsform.
  • Ein Graph wird als Eingabe 110 in das GCN-Modell 10 eingespeist. Der Graph kann ein Datensatz sein, der Knoten und Kanten enthält. Die Knoten in den Graphen können Entitäten darstellen, und die Kanten stellen die Verbindungen zwischen den Knoten dar. Ein soziales Netzwerk ist zum Beispiel ein Graph, in dem Benutzer oder insbesondere Benutzerkonten in dem Netzwerk Knoten in dem Graphen sind. Eine Kante liegt vor, wenn zwei Benutzer auf eine beliebige Weise miteinander verbunden sind. Wenn zum Beispiel die beiden Benutzer befreundet sind, ihre Beiträge teilen, ähnliche Interessen haben, ähnliche Profile haben oder Ähnliches, dann können die beiden Benutzer zum Beispiel eine Verbindung haben, die durch die Kante dargestellt wird.
  • In einem Beispiel kann der Graph als Eingabe 110 als G = (A, X) formuliert werden, wobei A ∈ {0,1}N×N die Adjazenzmatrix des Graphen G darstellt,XE {0,1}N×D die Merkmalsmatrix des Graphen G darstellt, N die Anzahl der Knoten des Graphen G ist, D die Dimension der Knotenmerkmale ist. Die Adjazenzmatrix A kann die Verbindungen zwischen den Knoten in dem Graphen G darstellen, die Merkmalsmatrix X kann die Merkmale der jeweiligen Knoten in dem Graphen darstellen. Das Merkmal eines Knotens kann mehrere Merkmalskomponenten enthalten, deren Anzahl als die Dimension des Knotenmerkmals definiert ist. Bei einem Graphen eines sozialen Netzwerks können die Merkmalskomponenten eines Knotens zum Beispiel Alter, Geschlecht, Hobby, Beruf, verschiedene Aktionen wie Einkaufen, Lesen, Musik hören usw. enthalten. Es versteht sich, dass die Aspekte der Offenbarung nicht auf bestimmte Werte der Elemente der Adjazenzmatrix und der Merkmalsmatrix beschränkt sind.
  • Das GCN-Modell 10 kann eine oder mehrere verborgene Schichten 120 enthalten, die auch als Graphenfaltungsschichten 120 bezeichnet werden. Jede verborgene Schicht 120 kann graph-strukturierte Daten empfangen und verarbeiten. Die verborgene Schicht 120 kann zum Beispiel eine Faltungsoperation auf den Daten durchführen. Die Gewichtungen der Faltungsoperationen in der verborgenen Schicht 120 können mit Trainingsdaten trainiert werden. Es versteht sich, dass in der verborgenen Schicht 120 neben der Faltungsoperation auch andere Operationen enthalten sein können. Jede Aktivierungs-Engine 130 kann eine Aktivierungsfunktion (z. B. ReLU) auf die Ausgabe einer verborgenen Schicht 120 anwenden und die Ausgabe an die nächste verborgene Schicht 120 senden. Eine vollständig verbundene Schicht oder eine Softmax-Engine 140 kann eine Ausgabe 150 vorsehen, die auf der Ausgabe der vorherigen verborgenen Schicht basiert. In der Knotenklassifizierungsaufgabe kann die Ausgabe 150 des GCN-Modells 10 Klassifizierungskennungen oder insbesondere Klassifizierungswahrscheinlichkeiten für Knoten im Graphen sein.
  • Die Knotenklassifizierungsaufgabe des GCN-Modells 10 besteht in der Ermittlung der Klassifizierungskennungen von Knoten des Graphen basierend auf ihren Nachbarn. Insbesondere besteht das Ziel der Klassifizierungsaufgabe des GCN-Modells 10 darin, angesichts einer Teilmenge von gekennzeichneten Knoten im Graphen die Kennungen der verbleibenden nicht gekennzeichneten Knoten in dem Graphen vorherzusagen.
  • In einem Beispiel kann das GCN-Modell 10 ein Zweischicht-GCN-Modell sein, wie in Gleichung (1) veranschaulicht: f ( G ) = softmax ( A ^   σ ( A ^ X V ( 0 ) ) W ( 1 ) )
    Figure DE112021005531T5_0001
    wobei A ^ = D ^ 1 2 ( A + 1 ) D ^ 1 2
    Figure DE112021005531T5_0002
    eine normalisierte Adjazenzmatrix ist, D̂ eine Gradmatrix der Adjazenzmatrix A mit D̂ii = Σj(A + I)ij, W(0) ∈ ℝD×DH ist und W(1) ∈ ℝDH×DL Parametermatrizen von zwei verborgenen Schichten 120 sind, wobei DH die Dimension der verborgenen Schicht bezeichnet, DL die Anzahl der Kategorien der Klassifizierungskennungen bezeichnet und σ(x) die Aktivierungsfunktion 130 bezeichnet, beispielsweise σ(x) = ReLU(x). f(G) ∈ ℝN×DL ist die Ausgabematrix 150, die die Wahrscheinlichkeit jedes Knotens für jede Klassifizierungskennung im Graphen darstellt.
  • 2 veranschaulicht eine beispielhafte schematische Darstellung 20 zum Beeinflussen einer Klassifizierungsaufgabe eines GCN-Modells gemäß einer Ausführungsform.
  • Im Beispiel des in 2a gezeigten Graphen G = (A, X) können die Knoten 210 Zielknoten sein, für die die Klassifizierungsergebnisse des GCN-Modells 10 zu manipulieren oder zu beeinflussen sind.
  • Wie in 2b gezeigt, wird ein gefälschter Knoten 220 mit entsprechenden gefälschten Merkmalen in den Graphen durch Verbinden mit den Zielknoten 210 eingeführt, was zu einem modifizierten Graphen G+ = (A+,X+) führt, um die vorhergesagten Kennungen der Zielknoten 210 durch das GCN-Modell 10 zu ändern.
  • Es versteht sich, dass dem Graphen mehrere gefälschte Knoten als Störung hinzugefügt werden können, obwohl nur ein gefälschter Knoten veranschaulicht ist. Die Adjazenzmatrix des modifizierten Graphen G+ wird zu A + = [ A B T B A f a k e ]
    Figure DE112021005531T5_0003
    und die Merkmalsmatrix wird zu X + = [ X X f a k e ] ,
    Figure DE112021005531T5_0004
    wobei A die ursprüngliche Adjazenzmatrix des in 2a gezeigten Graphen G ist, Afake die Adjazenzmatrix der gefälschten Knoten ist, Matrix B und ihre transponierte Matrix BT die Verbindungen zwischen den ursprünglichen Knoten und den gefälschten Knoten darstellen, X die ursprüngliche Merkmalsmatrix des Graphen G ist, Xfake die Merkmalsmatrix der gefälschten Knoten ist. Durch Manipulation von Afake, B, Xfake, insbesondere der Merkmalsmatrix Xfake der gefälschten Knoten, kann das Klassifizierungsergebnis des GCN-Modells für die Zielknoten manipuliert oder beeinflusst werden. Wie in 2c und 2d veranschaulicht, können die Zielknoten 210, die von dem GCN-Modell 10 als erste Kennung klassifiziert werden sollten, aufgrund der Störung durch den gefälschten Knoten 220 fälschlicherweise als zweite Kennung klassifiziert werden.
  • Die Merkmalsmatrix Xfake der gefälschten Knoten kann basierend auf der Ausgabe 150 des GCN-Modells 10 als Blackbox in Reaktion auf Abfragen abgeleitet werden. In der realen Situation kann die Durchführung einer großen Anzahl von Abfragen und die Verfügbarkeit einer großen Anzahl von gefälschten Knoten unter Umständen nicht möglich sein. Es entspräche eher der realen Situation, wenn weniger Abfragen des GCN-Modells durchgeführt würden und mehr Zielknoten mit weniger gefälschten Knoten während des Erhalts der gefälschten Knoten manipuliert würden. Dementsprechend kann das mit den erhaltenen Adversarial-Beispielen trainierte GCN-Modell in einer realen Situation robuster sein.
  • 3 veranschaulicht einen beispielhaften schematischen Prozess 30 zum Erzeugen von Adversarial-Beispielen gemäß einer Ausführungsform.
  • Bei gegebenen Zielknoten 310 eines in 3a dargestellten Graphen G können anfällige Merkmale 320 der Zielknoten 310 basierend auf einem Abfragen des GNN-Modells 10 ermittelt werden, wie in 3b veranschaulicht. Das anfällige Merkmal 320 eines Zielknotens kann als „Most Adversarial Feature“ (MAF, in etwa „feindlichstes Merkmal“) bezeichnet werden, das sich auf den Gradienten des Zielknotens gegenüber einem Adversarial-Beispiel bezieht. Danach können die Zielknoten 310 entsprechend den anfälligen Merkmalen 320 der Zielknoten 310 in eine Vielzahl von Clustern 330 und 335 gruppiert werden, wie in 3c veranschaulicht. Und die Adversarial-Beispiele 340 und 345 können basierend auf der Vielzahl von Clustern 330 und 335 erhalten werden, wie in 3d veranschaulicht.
  • Durch Verbinden der Adversarial-Beispiele 340 bzw. 345 mit den Zielknoten der Cluster 330 und 335, wie in 3d veranschaulicht, kann die Klassifizierung des GCN-Modells für die Zielknoten der Cluster 330 und 335 geändert werden. Wird das GCN-Modell weiter mit den Adversarial-Beispielen 340 und 345 trainiert, die beispielsweise als böswilliger Knoten gekennzeichnet sind, ist das GCN-Modell möglicherweise besser in der Lage, eine ähnliche Adversarial-Attack zu bekämpfen.
  • 4 veranschaulicht einen beispielhaften Prozess 40 zum Erhalten des MAF für einen Zielknoten gemäß einer Ausführungsform.
  • Das MAF eines Zielknotens stellt die Anfälligkeit des Zielknotens dar. Um das MAF eines Zielknotens zu erhalten, kann eine Verlustfunktion wie in Gleichung (2) optimiert werden: m i n A f a k e , B , X f a k e   L ( G + ; Φ A ) s . t . B 0 Δ e d g e ,   r ( A f a k e ) = N f a k e
    Figure DE112021005531T5_0005
    wobei G + = ( [ A B T B A f a k e ] , [ X X f a k e ] ) ,
    Figure DE112021005531T5_0006
    ΦA die Zielknoten darstellt, r(Afake) die Anzahl der Zeilen der Matrix Afake ist, die gleich der Anzahl Nfake der gefälschten Knoten ist, wobei die in den ursprünglichen Graphen eingebrachten gefälschten Knoten mit diesem Parameter begrenzt werden können. Die l0-norm ||·||0 stellt die Anzahl der Elemente ungleich Null dar. Das Akronym „s.t.“ steht für „in Abhängigkeit von“. Der kleinere Wert der Verlustfunktion zeigt an, dass mehr Zielknoten falsch klassifiziert werden.
  • Die Verlustfunktion kann wie in Gleichung (3) definiert sein: L ( G + ; Φ A ) = υ Φ A l ( G + , v )
    Figure DE112021005531T5_0007
    wobei ℓ(G+, ν) ≥ 0 eine Verlustfunktion für einen Zielknoten darstellt. Ein kleineres ℓ(G+, ν) bedeutet, dass der Knoten ν mit größerer Wahrscheinlichkeit von dem Zielmodell falsch klassifiziert wird, wie der in Gleichung (1) gezeigte Modus f, und der Knoten ν von dem Zielmodell f erfolgreich falsch klassifiziert wird, wenn ℓ(G+, ν) gleich Null ist. In Gleichung (3) wird
    Figure DE112021005531T5_0008
    verwendet, um die Knoten zu belohnen, die wahrscheinlich falsch klassifiziert werden, und die Verlustwerte ℓ(G+, ν) für alle Zielknoten ν ∈ ΦA werden summiert, um darzustellen, wie nahe das Modell daran ist, alle Zielknoten falsch zu klassifizieren.
  • Die Verlustfunktion ℓ(G+, ν) für einen Zielknoten kann in Gleichung (4) oder (5) definiert werden, l ( G + , v ) = max ( [ f ( G + ) ] v , y g m a x y i y g ( [ f ( G + ) ] v , y i ) ,0 )
    Figure DE112021005531T5_0009
    wobei yg für die Grundwahrheitskennung des Knotens ν steht und [f(G+)]ν,yi , das durch Abfragen des GCN-Modells erhalten werden kann, die vorhergesagte Wahrscheinlichkeit darstellt, dass der Knoten v eine Klassifizierungskennung yi durch das GCN-Modell f aufweist. Wenn ℓ(G+, ν) gleich Null ist, bedeutet dies, dass die Grundwahrheitskennung yg als eine andere Kennung yi falsch klassifiziert wird. Je kleiner der Verlustwert ℓ(G+, ν) ist, desto wahrscheinlicher ist es, dass der Zielknoten v falsch klassifiziert wird. l ( G + , v ) = max ( m a x y i y t [ f ( G + ) ] v , y i ) [ f ( G + ) ] v , y t ,0 )
    Figure DE112021005531T5_0010
    wobei yt für die Zielklassifizierungskennung von Knoten v steht. Wenn ℓ(G+, ν) gleich Null ist, bedeutet dies, dass der Knoten v durch das GCN-Modell als Kennung yt falsch klassifiziert wird.
  • In Schritt 410 kann ein modifizierter Graph G+ = (A+,X+) und ein Zielknoten νt als Eingabe für den Prozess 40 genommen werden.
  • In Schritt 420 kann ein gefälschter Knoten νf für den Zielknoten νt initialisiert werden. Insbesondere kann das Merkmal (d. h. der Merkmalsvektor einschließlich der Merkmalskomponenten) des gefälschten Knotens νf zufällig initialisiert werden, und der gefälschte Knoten νf kann mit dem Zielknoten νt verbunden werden, während die anderen gefälschten Knoten von dem Graphen isoliert sind. Die Isolierung der anderen gefälschten Knoten kann durch das Setzen der Elemente, die den anderen gefälschten Knoten in den Matrizen Afake und B entsprechen, auf Null durchgeführt werden. Die Verbindung des gefälschten Knotens νf und des Zielknotens νt kann durch Setzen des Elements, das der Verbindung der beiden in den Matrizen B entspricht, auf Eins durchgeführt werden.
  • In Schritt 430 kann ein Ganzzahlsatz I ⊆ {1,2, ... , D} in Abhängigkeit von |I| = min (Kt, D) erhalten werden, zum Beispiel durch zufällige Auswahl der Elemente aus dem Ganzzahlsatz { 1,2, ..., D}. D ist die Dimension eines Merkmals oder Merkmalsvektors für jeden Knoten der Graphen. Kt ist die vordefinierte Anzahl von Abfragen. Durch Definieren von |I| = min (Kt, D) kann die Anzahl der Abfragen des GCN-Modells so gesteuert werden, dass der ursprüngliche Graph nur begrenzt gestört wird.
  • In Schritt 440 kann das MAF des Zielknotens νt basierend auf dem mehrmaligen Abfragen des Modells mit dem modifizierten Graphen erhalten werden. Bei jedem Abfragen kann eine Merkmalskomponente des gefälschten Knotens νf modifiziert werden, und der Verlustwert des Zielknotens kann basierend auf einer Verlustfunktion berechnet werden, beispielsweise der Verlustfunktion von Gleichung (3), (4) oder (5). Wenn der sich aus der modifizierten Merkmalskomponente des gefälschten Knotens νf ergebende Verlustwert kleiner wird als der vorherige Verlustwert, wird die Merkmalskomponente des gefälschten Knotens νf auf den modifizierten Wert aktualisiert, andernfalls wird die Merkmalskomponente des gefälschten Knotens νf als der Wert vor der Modifikation beibehalten. Das resultierende Merkmal des gefälschten Knotens νf, einschließlich der aktualisierten Merkmalskomponenten nach den Abfragen, kann als MAF des Zielknotens νt genommen werden.
  • Der Prozess zum Erhalten des MAF des Zielknotens νf lässt sich durch den folgenden Pseudocode veranschaulichen:
    Figure DE112021005531T5_0011
    Figure DE112021005531T5_0012
    wobei I der in Schritt 430 zufällig erhaltene Ganzzahlsatz ist und xf(i) die i-te Merkmalskomponente des gefälschten Knotens ist.
  • Es versteht sich, dass die spezifischen Elemente in den Gleichungen und die Operationen bei dem Prozess zum Erhalten des MAF des Zielknotens νt im Sinne der Aspekte der Offenbarung modifiziert werden können und somit den Umfang der Offenbarung nicht einschränken würden. Die Belohnung
    Figure DE112021005531T5_0013
    kann zum Beispiel in der Gleichung (3) nicht notwendig sein. Als weiteres Beispiel können, obwohl es |I|-fache Abfragen geben kann, die in dem Prozess des vorstehenden beispielhaften Pseudocode auftreten, insgesamt |I|- oder |I| + 1-fache Abfragen auftreten, je nachdem, ob eine Abfrage für den zufällig initialisierten Merkmalsvektor Xf des gefälschten Knotens νf durchgeführt wird. Wenn zum Beispiel keine Abfrage für den zufällig initialisierten Merkmalsvektor Xf durchgeführt wird, kann die entsprechende Verlustfunktion auf einen Erfahrungswert gesetzt werden.
  • 5 veranschaulicht einen beispielhaften Prozess 50 zum Erhalten von Adversarial-Beispielen für ein GCN-Modell gemäß einer Ausführungsform.
  • In Schritt 510 kann ein modifizierter Graph G+ = (A+,X+) und ein Satz von Zielknoten ΦA als Eingabe für den Prozess 50 genommen werden. In einem Beispiel kann die Matrix A + = [ A 0 0 0 ]
    Figure DE112021005531T5_0014
    anfänglich gesetzt werden, und die Merkmalsmatrix Xfake der gefälschten Knoten kann zufällig initialisiert werden.
  • In Schritt 520 kann das MAF jedes Zielknotens νf in dem Satz ΦA basierend auf einem Abfragen des GCN-Modells erhalten werden. Der in 4 dargestellte Prozess kann beispielsweise verwendet werden, um das MAF für jeden Zielknoten νf in dem Satz ΦA zu erhalten.
  • In Schritt 530 können die Zielknoten ΦA in eine Vielzahl von Clustern gemäß ihren MAFs gruppiert werden. Die Anzahl der Cluster kann gleich der Anzahl der gefälschten Knoten Nfake sein.
  • In einem Adversarial-Szenario ist es häufig der Fall, dass die Anzahl der gefälschten Knoten, die dem Graphen hinzugefügt werden können, wesentlich geringer ist als die Anzahl der Zielknoten. Um mehr Zielknoten mit einer begrenzten Anzahl gefälschter Knoten zu beeinflussen, kann jeder gefälschte Knoten mit mehreren Zielknoten verbunden sein.
  • Aufgrund der strukturellen Komplexität des Graphen können verschiedene Zielknoten unterschiedliche lokale Strukturen und die entsprechenden Merkmalsinformationen aufweisen, insbesondere wenn die Zielknoten in dem gesamten Graphen nur spärlich verstreut sind. Folglich können die Zielknoten unter dem Einfluss von Adversarial-Beispielen sehr unterschiedliche Verhaltensweisen aufweisen. Ein gefälschter Knoten mit einem bestimmten Merkmal kann die vorhergesagte Kennung eines Zielknotens nach der Verbindung mit diesem ändern, nicht jedoch die Kennung eines anderen Zielknotens. Ist ein gefälschter Knoten mit mehreren Zielknoten verbunden, die sich so ähneln, dass ihre vorhergesagten Kennungen leicht geändert werden können, nachdem sie mit gefälschten Knoten mit ähnlichen Merkmalen verbunden wurden, dann ist die Wahrscheinlichkeit der Änderung der vorhergesagten Kennungen dieser Zielknoten basierend auf der zuvor genannten Perspektive größer. Daher können die Zielknoten gemäß der Ähnlichkeit ihrer MAFs in eine Vielzahl von Clustern gruppiert werden.
  • Um die Zielknoten ΦA gemäß ihren MAFs in Nfake -Cluster C = {C1, C2,..., CNfake } aufzuteilen, wird in Gleichung (6) eine Objektfunktion des Clustering definiert, min c C i C v C i M A F ( v ) c i 2 2 s .   t . C i C C i = Φ A
    Figure DE112021005531T5_0015
    wobei ||·||2 die l2 -Norm, bezeichnet, c i = 1 | c i | v C i M A F ( v )
    Figure DE112021005531T5_0016
    das Clusterzentrum jedes Clusters Ci darstellt, beispielsweise kann ci der Durchschnitt der MAFs der Zielknoten in dem Cluster Ci sein.
  • Die Optimierung der Clustering-Objektfunktion aus Gleichung (6) kann durch jeden Clusteralgorithmus gelöst werden, um die Cluster C = {C1, C2, ..., CNfake} zu erhalten, die die in Gleichung (6) dargestellte Clustering-Objektfunktion minimieren.
  • Nach Erhalt der Cluster C = {C1, C2, ..., CNfake} kann in Schritt 540 das Clusterzentrum ci jedes Clusters Ci, d. h. der Durchschnitt der MAFs der Zielknoten in dem Cluster Ci erhalten werden. Anschließend wird das Clusterzentrum der MAFs der Zielknoten in jedem Cluster als das entsprechende Merkmal des gefälschten Knotens genommen, wie in Gleichung (7) veranschaulicht: x ƒ i = c i
    Figure DE112021005531T5_0017
    wobei xfi das Merkmal des i-ten gefälschten Knotens νfi ist, der dem Cluster Ci entspricht. In einem Beispiel können die Elemente des Merkmalsvektors xfi des gefälschten Knotens νfi, der dem Cluster Ci entspricht, auf die nächste Ganzzahl gerundet werden. Daraufhin werden die Adversarial-Beispiele mit den Merkmalen xfi erhalten.
  • 6 veranschaulicht einen beispielhaften Prozess 60 zum Erhalten von Adversarial-Beispielen für ein GCN-Modell gemäß einer Ausführungsform.
  • Die Schritte 610 bis 640 entsprechen den in 5 dargestellten Schritten 510 bis 540 und werden daher nicht näher beschrieben.
  • In Schritt 640 wird die Merkmalsmatrix Xfake der Nfake, gefälschten Knoten unter Nutzung von Gleichung (7) erhalten, wobei xfi Vektoren in Xfake sind.
  • In Schritt 650 kann jeder der gefälschten Knoten mit den Zielknoten eines entsprechenden Clusters verbunden werden, sodass der Graph durch Hinzufügen von Kanten zwischen den gefälschten Knoten und den Zielknoten modifiziert wird. Die Verbindung jedes gefälschten Knotens mit dem entsprechenden Cluster kann durch Setzen der Matrix B durchgeführt werden, wie in Gleichung (8) dargestellt: B i j = { 1, if  v j C i 0, o t h e r w i s e
    Figure DE112021005531T5_0018
    wobei Bij das Element der Matrix B in Zeile i und Spalte j darstellt.
  • In Schritt 660 können die in Schritt 640 erhaltenen Merkmale der gefälschten Knoten basierend auf dem Abfragen des GNN-Modells mit dem modifizierten Graphen aktualisiert werden, um die Merkmale der gefälschten Knoten zu verbessern.
  • In einem Beispiel kann für jeden gefälschten Knoten νfi ein Ganzzahlsatz I ⊆ {1,2, ... , D}, in Abhängigkeit von |I| = min (Kf, D), durch zufälliges Auswählen der Elemente aus der Ganzzahlmenge { 1,2, ..., D} erhalten werden. D ist die Dimension eines Merkmals oder Merkmalsvektors für jeden Knoten der Graphen. Kf ist die vordefinierte Anzahl von Abfragen. Durch Definieren von |I| = min (Kf, D) kann die Anzahl der Abfragen des GCN-Modells so gesteuert werden, dass der ursprüngliche Graph nur begrenzt gestört wird. Dann können die Merkmalskomponenten des gefälschten Knotens vfi basierend auf einem mehrmaligen Abfragen des Modells mit dem modifizierten Graphen aktualisiert werden. Bei jedem Abfragen kann eine Merkmalskomponente des gefälschten Knotens νfi modifiziert werden, und der Verlustwert des gefälschten Knotens kann basierend auf einer Verlustfunktion, beispielsweise der Verlustfunktion von Gleichung (3), berechnet werden. Wenn der sich aus der modifizierten Merkmalskomponente des gefälschten Knotens νfi ergebende Verlustwert kleiner wird als der vorherige Verlustwert, wird die Merkmalskomponente des gefälschten Knotens νfi auf den modifizierten Wert aktualisiert, andernfalls wird die Merkmalskomponente des gefälschten Knotens νfi als der Wert vor der Modifikation beibehalten. Das resultierende Merkmal des gefälschten Knotens νfi, einschließlich der aktualisierten Merkmalskomponenten nach den |I|-fachen Abfragen, kann das erweiterte Merkmal des gefälschten Knotens νfi sein.
  • Der Prozess zum Erhalten der aktualisierten Merkmale der gefälschten Knoten, d. h. der Merkmalsmatrix Xfake der Nfake gefälschten Knoten, lässt sich durch den folgenden Pseudocode veranschaulichen:
    • Initialisieren von Xfake unter Nutzung von Gl. (7), wobei die Elemente darin auf die nächste Ganzzahl gerundet werden.
      Figure DE112021005531T5_0019
    Figure DE112021005531T5_0020
    wobei xfi(j) die j-te Merkmalskomponente des gefälschten Knotens xfl ist.
  • Es versteht sich, dass die spezifischen Elemente in den Gleichungen und die Operationen bei dem Prozess der Aktualisierung der Merkmale der gefälschten Knoten im Sinne der Aspekte der Offenbarung modifiziert werden können und somit den Umfang der Offenbarung nicht einschränken würden. Die Belohnung kann
    Figure DE112021005531T5_0021
    zum Beispiel in der Gleichung (3) nicht notwendig sein. Als weiteres Beispiel können, obwohl es |I|-fache Abfragen für jeden gefälschten Knoten geben kann, die in dem Prozess des vorstehenden beispielhaften Pseudocode auftreten, insgesamt |I|- oder |I| + 1-fache Abfragen für jeden gefälschten Knoten auftreten, je nachdem, ob es eine Abfrage für den ursprünglichen Merkmalsvektor xfi des gefälschten Knotens νfi gibt. Wenn zum Beispiel keine Abfrage für den ursprünglichen Merkmalsvektor xfi durchgeführt wird, kann die entsprechende Verlustfunktion auf einen Erfahrungswert gesetzt werden.
  • 7 veranschaulicht ein beispielhaftes Verfahren 70 zum Erzeugen von Adversarial-Beispielen für ein GNN-Modell gemäß einer Ausführungsform.
  • In Schritt 710 werden basierend auf dem Abfragen des GNN-Modells anfällige Merkmale von Zielknoten in einem Graphen ermittelt, wobei der Graph Knoten einschließlich der Zielknoten und Kanten umfasst, wobei jede der Kanten zwei der Knoten verbindet.
  • In Schritt 720 werden die Zielknoten entsprechend den anfälligen Merkmalen der Zielknoten in eine Vielzahl von Clustern gruppiert.
  • In Schritt 730 werden die Adversarial-Beispiele basierend auf der Vielzahl von Clustern erhalten.
  • In einer Ausführungsform wird in Schritt 730 für jeden der Vielzahl von Clustern ein Merkmal eines entsprechenden der Adversarial-Beispiele durch Mittelwertbildung der anfälligen Merkmale der Zielknoten in dem Cluster erhalten.
  • In einer Ausführungsform wird in Schritt 730 für jeden der Vielzahl von Clustern ein Anfangsmerkmal eines entsprechenden der Adversarial-Beispiele basierend auf den anfälligen Merkmalen der Zielknoten in dem Cluster erhalten, der Graph wird durch Verbinden jedes der Adversarial-Beispiele mit den Anfangsmerkmalen mit den Zielknoten in einem entsprechenden der Vielzahl von Clustern modifiziert, und die Merkmale der Adversarial-Beispiele werden basierend auf dem Abfragen des GNN-Modells mit dem modifizierten Graph aktualisiert.
  • In einer Ausführungsform umfasst die Abfrage des GNN-Modells in Schritt 710 das Abfragen des GNN-Modells mit modifizierten Graphen, die durch Hinzufügen eines gefälschten Knotens zu dem Graphen erhalten werden.
  • In einer Ausführungsform wird in Schritt 710 für jeden der Zielknoten in dem Graphen ein modifizierter Graph durch Verbinden eines gefälschten Knotens mit dem Zielknoten in dem Graphen erhalten, wobei das anfällige Merkmal des Zielknotens basierend auf dem Abfragen des GNN-Modells mit dem modifizierten Graph ermittelt wird.
  • In einer Ausführungsform wird in Schritt 710 für jede einer Vielzahl von Merkmalskomponenten des gefälschten Knotens die Merkmalskomponente des gefälschten Knotens modifiziert, das GNN-Modell mit dem modifizierten Graphen, der die modifizierte Merkmalskomponente des gefälschten Knotens enthält, abgefragt und die Merkmalskomponente des gefälschten Knotens basierend auf dem Ergebnis des Abfragens aktualisiert, wobei das Merkmal des gefälschten Knotens, das die aktualisierten Merkmalskomponenten enthält, als das anfällige Merkmal des Zielknotens genommen wird.
  • In einer Ausführungsform wird in Schritt 710 bei der Aktualisierung der Merkmalskomponente des gefälschten Knotens basierend auf dem Ergebnis des Abfragens die Merkmalskomponente des gefälschten Knotens in die modifizierte Merkmalskomponente geändert, wenn die modifizierte Merkmalskomponente zu einem kleineren Verlustwert gemäß einer Verlustfunktion führt, die Merkmalskomponente des gefälschten Knotens wird beibehalten, wenn die modifizierte Merkmalskomponente nicht zu einem kleineren Verlustwert gemäß der Verlustfunktion führt.
  • In einer Ausführungsform entspricht in Schritt 710 die Anzahl der Abfragen für die Vielzahl von Merkmalskomponenten des gefälschten Knotens dem kleineren Wert aus einem vordefinierten Wert und einer Merkmalsdimension eines Knotens in dem Graphen.
  • In einer Ausführungsform werden in Schritt 720 die Zielknoten entsprechend der Ähnlichkeit der anfälligen Merkmale der Zielknoten in jedem der Cluster in eine Vielzahl von Clustern gruppiert.
  • In einer Ausführungsform werden in Schritt 720 die Zielknoten entsprechend der Ähnlichkeit der anfälligen Merkmale der Zielknoten in jedem der Cluster in eine Vielzahl von Cluster gruppiert.
  • In einer Ausführungsform wird in Schritt 730 für jeden der Vielzahl von Cluster ein Anfangsmerkmal eines entsprechenden einer Vielzahl von gefälschten Knoten basierend auf den anfälligen Merkmalen der Zielknoten in dem Cluster erhalten, der Graph wird durch Verbinden jedes der Vielzahl von gefälschten Knoten mit den Anfangsmerkmalen mit den Zielknoten in einem entsprechenden der Vielzahl von Clustern modifiziert, und das Merkmal jedes der Vielzahl von gefälschten Knoten wird basierend auf dem Abfragen des GNN-Modells mit dem modifizierten Graph aktualisiert.
  • In einer Ausführungsform wird in Schritt 730 bei der Aktualisierung des Merkmals jeder der Vielzahl von gefälschten Knoten basierend auf dem Abfragen des GNN-Modells mit dem modifizierten Graphen für jede einer Vielzahl von Merkmalskomponenten des gefälschten Knotens die Merkmalskomponente des gefälschten Knotens modifiziert, das GNN-Modell mit dem die modifizierte Merkmalskomponente des gefälschten Knotens enthaltenden modifizierten Graphen abgefragt, die Merkmalskomponente des gefälschten Knotens basierend auf dem Ergebnis des Abfragens aktualisiert, wobei die gefälschten Knoten mit dem die aktualisierten Merkmalskomponenten enthaltenden Merkmal als die erhaltenen Adversarial-Beispiele genommen werden.
  • In einer Ausführungsform wird in Schritt 730 bei der Aktualisierung der Merkmalskomponente des gefälschten Knotens basierend auf dem Ergebnis des Abfragens die Merkmalskomponente des gefälschten Knotens in die modifizierte Merkmalskomponente geändert, wenn die modifizierte Merkmalskomponente zu einem kleineren Verlustwert gemäß einer Verlustfunktion führt, und die Merkmalskomponente des gefälschten Knotens wird beibehalten, wenn die modifizierte Merkmalskomponente nicht zu einem kleineren Verlustwert gemäß der Verlustfunktion führt.
  • 8 veranschaulicht einen beispielhaften Prozess 80 zum Trainieren eines GNN-Modells gemäß einer Ausführungsform.
  • In der Trainingsphase 810 kann ein GNN-Modell wie beispielsweise ein GCN-Modell mit einem Trainingsdatensatz trainiert werden.
  • In der Adversarial-Testphase 820 können unter Nutzung des zuvor unter Bezugnahme auf die 1 bis 7 beschriebenen Verfahrens Adversarial-Beispiele für den in Phase 810 trainierten GNN-Modus erzeugt werden.
  • Danach können die in 820 erzeugten Adversarial-Beispiele zum weiteren Training des GNN-Modells in 810 verwendet werden. Der Prozess des Trainings 810 und des Adversarial-Testens 820 kann wiederholt werden, um ein zuverlässiges GNN-Modell zu erhalten.
  • 9 veranschaulicht ein beispielhaftes Verfahren zum Trainieren eines GNN-Modells gemäß einer Ausführungsform.
  • In Schritt 910 können unter Nutzung des zuvor unter Bezugnahme auf die 4 bis 7 beschriebenen Verfahrens Adversarial-Beispiele für ein GNN-Modell erzeugt werden.
  • In Schritt 920 kann für jedes der Adversarial-Beispiele eine Kennung gesetzt werden. Die Kennung kann zum Beispiel als böswillige Kennung gesetzt werden.
  • In Schritt 930 wird das GNN-Modell unter Verwendung der Adversarial-Beispiele mit den Kennungen trainiert.
  • 10 veranschaulicht ein beispielhaftes Computersystem 1000 gemäß einer Ausführungsform. Das Computersystem 1000 kann zumindest einen Prozessor 1010 umfassen. Das Computersystem 1000 kann ferner zumindest eine Speichervorrichtung 1020 umfassen. Die Speichervorrichtung 1020 kann computerausführbare Anweisungen speichern, die bei Ausführung den Prozessor 1010 zum Ermitteln anfälliger Merkmale von Zielknoten in einem Graphen basierend auf dem Abfragen des GNN-Modells, wobei der Graph Knoten umfasst, die die Zielknoten und Kanten enthalten, wobei jede der Kanten zwei der Knoten verbindet; zum Gruppieren der Zielknoten in eine Vielzahl von Clustern entsprechend den anfälligen Merkmalen der Zielknoten; und zum Erhalten der Adversarial-Beispiele basierend auf der Vielzahl von Clustern veranlassen.
  • Es sei darauf hingewiesen, dass die Speichervorrichtung 1020 computerausführbare Anweisungen speichern kann, die bei Ausführung den Prozessor 1010 zum Durchführen beliebiger Operationen gemäß den Ausführungsformen der vorliegenden Offenbarung veranlassen, wie sie in Verbindung mit den 1 bis 9 beschrieben sind.
  • Die Ausführungsformen der vorliegenden Offenbarung können in einem computerlesbaren Medium wie einem nichtflüchtigen computerlesbaren Medium verkörpert sein. Das nichtflüchtige computerlesbare Medium kann Anweisungen umfassen, die bei Ausführung einen oder mehrere Prozessoren zum Durchführen beliebiger Operationen gemäß den Ausführungsformen der vorliegenden Offenbarung veranlassen, wie sie in Verbindung mit den 1 bis 9 beschrieben sind.
  • Die Ausführungsformen der vorliegenden Offenbarung können in einem Computerprogrammprodukt verkörpert sein, das computerausführbare Anweisungen enthält, die bei Ausführung einen oder mehrere Prozessoren zum Durchführen von Operationen gemäß den Ausführungsformen der vorliegenden Offenbarung veranlassen, wie sie in Verbindung mit den 1 bis 9 beschrieben sind.
  • Es sei darauf hingewiesen, dass alle Operationen in den vorstehenden beschriebenen Verfahren lediglich beispielhaft sind. Die vorliegende Offenbarung ist nicht auf bestimmte Operationen in den Verfahren oder die Reihenfolge dieser Operationen beschränkt und sollte alle anderen Äquivalente unter denselben oder ähnlichen Konzepten abdecken.
  • Es sei auch darauf hingewiesen, dass alle Module der zuvor beschriebenen Vorrichtungen mit verschiedenen Ansätzen implementiert werden können. Diese Module können als Hardware, Software oder eine Kombination davon implementiert sein. Darüber hinaus kann jedes dieser Module weiter funktional in Untermodule unterteilt oder miteinander kombiniert werden.
  • Die vorhergehende Beschreibung ist vorgesehen, um es Fachleuten auf dem Gebiet der Technik zu ermöglichen, die verschiedenen hierin beschriebenen Aspekte umzusetzen. Verschiedene Modifikationen dieser Aspekte sind für Fachleute auf dem Gebiet der Technik offensichtlich, und die hierin definierten allgemeinen Prinzipien können auch auf andere Aspekte angewendet werden. Die Ansprüche sollen also nicht auf die hierin dargestellten Aspekte beschränkt sein. Alle strukturellen und funktionellen Äquivalente zu den Elementen der verschiedenen Aspekte, die in der vorliegenden Offenbarung beschrieben werden und die Fachleuten auf dem Gebiet der Technik bekannt sind oder später bekannt werden, sind hierin ausdrücklich durch Bezugnahme enthalten und sind durch die Ansprüche mit eingeschlossen.

Claims (20)

  1. Verfahren zum Erzeugen von Adversarial-Beispielen für ein graphneuronales Netzwerkmodell (GNN-Modell), umfassend: Ermitteln von anfälligen Merkmalen von Zielknoten in einem Graphen basierend auf dem Abfragen des GNN-Modells, wobei der Graph Knoten einschließlich der Zielknoten und Kanten umfasst, wobei jede der Kanten zwei der Knoten verbindet; Gruppieren der Zielknoten in eine Vielzahl von Clustern entsprechend den anfälligen Merkmalen der Zielknoten; und Erhalten der Adversarial-Beispiele basierend auf der Vielzahl von Clustern.
  2. Verfahren nach Anspruch 1, wobei das Erhalten der Adversarial-Beispiele basierend auf der Vielzahl von Clustern umfasst: für jeden der Vielzahl von Clustern, Erhalten eines Merkmals eines entsprechenden der Adversarial-Beispiele durch Mittelwertbildung der anfälligen Merkmale der Zielknoten in den Clustern.
  3. Verfahren nach Anspruch 1, wobei das Erhalten der Adversarial-Beispiele basierend auf der Vielzahl von Clustern umfasst: für jeden der Vielzahl von Clustern, Erhalten eines Anfangsmerkmals eines entsprechenden einen der Adversarial-Beispiele basierend auf den anfälligen Merkmale der Zielknoten in dem Cluster; Modifizieren des Graphen durch Verbinden jedes der Adversarial-Beispiele mit den Anfangsmerkmalen mit den Zielknoten in einem entsprechenden der Vielzahl von Clustern; und Aktualisieren der Merkmale der Adversarial-Beispiele basierend auf dem Abfragen des GNN-Modells mit dem modifizierten Graphen.
  4. Verfahren nach Anspruch 1, wobei das Abfragen des GNN-Modells das Abfragen des GNN-Modells mit modifizierten Graphen umfasst, die durch Hinzufügen eines gefälschten Knotens zu dem Graphen erhalten werden.
  5. Verfahren nach Anspruch 4, wobei das Ermitteln von anfälligen Merkmalen von Zielknoten in einem Graphen basierend auf dem Abfragen des GNN-Modells umfasst: für jeden der Zielknoten in dem Graphen, Erhalten eines modifizierten Graphen durch Verbinden eines gefälschten Knotens mit dem Zielknoten in dem Graphen; Ermitteln des anfälligen Merkmals des Zielknotens basierend auf dem Abfragen des GNN-Modells mit dem modifizierten Graphen.
  6. Verfahren nach Anspruch 5, wobei das Ermitteln des anfälligen Merkmals des Zielknotens basierend auf dem Abfragen des GNN-Modells mit dem modifizierten Graphen umfasst: für jede einer Vielzahl von Merkmalskomponenten des gefälschten Knotens, Modifizieren der Merkmalskomponente des gefälschten Knotens; Abfragen des GNN-Modells mit dem modifizierten Graphen, der die modifizierte Merkmalskomponente des gefälschten Knotens aufweist; Aktualisieren der Merkmalskomponente des gefälschten Knotens basierend auf dem Ergebnis der Abfrage, wobei das Merkmal des gefälschten Knotens, das die aktualisierten Merkmalskomponenten enthält, als das anfällige Merkmal des Zielknotens genommen wird.
  7. Verfahren nach Anspruch 6, wobei das Aktualisieren der Merkmalskomponente des gefälschten Knotens basierend auf dem Ergebnis des Abfragens umfasst: Ändern der Merkmalskomponente des gefälschten Knotens in die modifizierte Merkmalskomponente, wenn die modifizierte Merkmalskomponente zu einem kleineren Verlustwert gemäß einer Verlustfunktion führt, Beibehalten der Merkmalskomponente des gefälschten Knotens, wenn die modifizierte Merkmalskomponente nicht zu einem kleineren Verlustwert gemäß der Verlustfunktion führt.
  8. Verfahren nach Anspruch 6, wobei die Anzahl der Abfragen für die Vielzahl von Merkmalskomponenten des gefälschten Knotens dem kleineren Wert aus einem vordefinierten Wert und einer Merkmalsdimension eines Knotens im Graphen entspricht.
  9. Verfahren nach Anspruch 1, wobei das Gruppieren der Zielknoten in eine Vielzahl von Clustern umfasst: Gruppieren der Zielknoten in die Vielzahl von Clustern entsprechend der Ähnlichkeit der anfälligen Merkmale der Zielknoten in jedem der Cluster.
  10. Verfahren nach Anspruch 9, wobei das Gruppieren der Zielknoten in die Vielzahl von Clustern umfasst: Gruppieren der Zielknoten in die Vielzahl von Clustern durch Lösen einer Minimierung einer Objektfunktion des Clustems für die anfälligen Merkmale der Zielknoten.
  11. Verfahren nach Anspruch 5, wobei das Erhalten der Adversarial-Beispiele basierend auf der Vielzahl von Clustern umfasst: für jeden der Vielzahl von Clustern, Erhalten eines Anfangsmerkmals eines entsprechenden einen der Vielzahl von gefälschten Knoten basierend auf den anfälligen Merkmale der Zielknoten in dem Cluster; Modifizieren des Graphen durch Verbinden jedes der Vielzahl von gefälschten Knoten mit den Anfangsmerkmalen mit den Zielknoten in einem entsprechenden der Vielzahl von Clustern; und Aktualisieren des Merkmals jedes der Vielzahl von gefälschten Knoten basierend auf dem Abfragen des GNN-Modells mit dem modifizierten Graphen.
  12. Verfahren nach Anspruch 11, wobei das Aktualisieren des Merkmals jedes der Vielzahl von gefälschten Knoten basierend auf dem Abfragen des GNN-Modells mit dem modifizierten Graphen umfasst: für jede einer Vielzahl von Merkmalskomponenten des gefälschten Knotens, Modifizieren der Merkmalskomponente des gefälschten Knotens; Abfragen des GNN-Modells mit dem modifizierten Graphen, der die modifizierte Merkmalskomponente des gefälschten Knotens aufweist; Aktualisieren der Merkmalskomponente des gefälschten Knotens basierend auf dem Ergebnis der Abfrage, wobei die gefälschten Knoten mit dem Merkmal, das die aktualisierten Merkmalskomponenten enthält, als die erhaltenen Adversarial-Beispiele genommen werden.
  13. Verfahren nach Anspruch 12, wobei das Aktualisieren der Merkmalskomponente des gefälschten Knotens basierend auf dem Ergebnis des Abfragens umfasst: Ändern der Merkmalskomponente des gefälschten Knotens in die modifizierte Merkmalskomponente, wenn die modifizierte Merkmalskomponente zu einem kleineren Verlustwert gemäß einer Verlustfunktion führt, Beibehalten der Merkmalskomponente des gefälschten Knotens, wenn die modifizierte Merkmalskomponente nicht zu einem kleineren Verlustwert gemäß der Verlustfunktion führt.
  14. Verfahren nach Anspruch 1, ferner umfassend das Setzen einer Kennung für jedes der Adversarial-Beispiele.
  15. Verfahren nach Anspruch 1, wobei das GNN-Modell ein Graphfaltungsnetzwerk-(GCN-)Modell ist.
  16. Verfahren nach Anspruch 1, wobei der Graph eines von einem sozialen Netzwerk, einem Zitationsnetzwerk und einem Finanznetzwerk darstellt.
  17. Verfahren zum Trainieren eines graphneuronalen Netzwerkmodells (GNN-Modells), umfassend: Erhalten von Adversarial-Beispielen für das GNN-Modell unter Verwendung des Verfahrens nach einem der Ansprüche 1 bis 16; Setzen einer Kennung für jedes der Adversarial-Beispiele; Trainieren des GNN-Modells unter Verwendung der Adversarial-Beispiele mit den Kennungen.
  18. Computersystem, umfassend: einen oder mehrere Prozessoren; und eine oder mehrere Speichervorrichtungen, die computerausführbare Anweisungen speichern, die bei Ausführung den einen oder die mehreren Prozessoren zum Durchführen der Operationen des Verfahrens nach einem der Ansprüche 1 bis 17 veranlassen.
  19. Ein oder mehrere computerlesbare Speichermedien, auf denen computerausführbare Anweisungen gespeichert sind, die bei Ausführung einen oder mehrere Prozessoren zum Durchführen der Operationen des Verfahrens nach einem der Ansprüche 1 bis 17 veranlassen.
  20. Computerprogrammprodukt, umfassend computerausführbare Anweisungen, die bei Ausführung einen oder mehrere Prozessoren zum Durchführen der Operationen des Verfahrens nach einem der Ansprüche 1 bis 17 veranlassen.
DE112021005531.3T 2021-01-04 2021-01-04 Verfahren und vorrichtung zur erzeugung von trainingsdaten für ein graphneuronales netzwerk Pending DE112021005531T5 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2021/070124 WO2022141625A1 (en) 2021-01-04 2021-01-04 Method and apparatus for generating training data for graph neural network

Publications (1)

Publication Number Publication Date
DE112021005531T5 true DE112021005531T5 (de) 2023-08-17

Family

ID=82258829

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112021005531.3T Pending DE112021005531T5 (de) 2021-01-04 2021-01-04 Verfahren und vorrichtung zur erzeugung von trainingsdaten für ein graphneuronales netzwerk

Country Status (4)

Country Link
US (1) US20240078436A1 (de)
CN (1) CN116710929A (de)
DE (1) DE112021005531T5 (de)
WO (1) WO2022141625A1 (de)

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109961145B (zh) * 2018-12-21 2020-11-13 北京理工大学 一种针对图像识别模型分类边界敏感的对抗样本生成方法
CN109639710B (zh) * 2018-12-29 2021-02-26 浙江工业大学 一种基于对抗训练的网络攻击防御方法
JP7213754B2 (ja) * 2019-05-27 2023-01-27 株式会社日立製作所 情報処理システム、推論方法、攻撃検知方法、推論実行プログラム及び攻撃検知プログラム
CN110322003B (zh) * 2019-06-10 2021-06-29 浙江大学 一种用于文档分类的基于梯度的通过添加虚假节点的图对抗样本生成方法
CN111309975A (zh) * 2020-02-20 2020-06-19 支付宝(杭州)信息技术有限公司 一种增强图模型抗攻击能力的方法和系统

Also Published As

Publication number Publication date
CN116710929A (zh) 2023-09-05
US20240078436A1 (en) 2024-03-07
WO2022141625A1 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
DE112016006360T5 (de) Verbessern eines lernens einer abstandsmetrik mit einem n-paar-verlust
DE112020000281T5 (de) Vereinigen von modellen, die jeweilige zielklassen aufweisen, mit destillation
DE102020211853A1 (de) Effiziente gegnerische blackbox-angriffe unter ausnutzung einer eingabedatenstruktur
DE60208223T2 (de) Anordnung und verfahren zur gesichtserkennung unter verwendung von teilen des gelernten modells
DE112017006166T5 (de) Verfahren und system zur erzeugung eines multi-relevanten labels
DE112011104487T5 (de) Verfahren und System zur prädiktiven Modellierung
DE112016005006T5 (de) Automatische videozusammenfassung
DE112016001796T5 (de) Feinkörnige bildklassifizierung durch erforschen von etiketten von einem bipartiten graphen
DE112020000584T5 (de) Verfahren für unüberwachte bild-zu-bild-übersetzung mit wenigen aufnahmen
DE60004507T2 (de) Schnelle gruppierung durch spärlich bestückte datensätze
DE202017007528U1 (de) Differenzmetrik für auf maschinellem Lernen basierende Verarbeitungssysteme
DE112017007492T5 (de) System und Verfahren zur Erfassung von Objekten in einem digitalen Bild und System und Verfahren zur Neubewertung von Objekterfassungen
DE102021004591A1 (de) Für Graphen vorgesehene neuronale Netzwerke für Datensätze mit Heterophilie
DE102021125856A1 (de) Erkennen von feindlichen angriffen auf ein tiefes neuronales netz (deep neural network (dnn))
DE112021005847T5 (de) Dynamische gradientenverschleierung gegen feindliche beispiele bei maschinenlernmodellen
DE102018127802A1 (de) Hybrider klassifikator eines gepulsten neuronalen netzwerks und einer support-vektor-maschine
DE112021005925T5 (de) Domänenverallgemeinerter spielraum über metalernen zur tiefen gesichtserkennung
DE102021124445A1 (de) Metamerkmal-trainingsmodelle für maschinenlernalgorithmen
DE112021001492T5 (de) Verfahren und systeme zur graphdatenverarbeitung mit hybridem schlussfolgern
DE102012025349B4 (de) Bestimmung eines Ähnlichkeitsmaßes und Verarbeitung von Dokumenten
DE112021005982T5 (de) Verfahren und vorrichtung für tiefe neuronale netze mit fähigkeit zur adversarial-erkennung
DE102018206110A1 (de) Trainingsverfahren
DE102020211849A1 (de) Trainieren eines maschinellen lernmodells unter verwendung eines batch-basierten aktiven lernansatzes
DE112021005531T5 (de) Verfahren und vorrichtung zur erzeugung von trainingsdaten für ein graphneuronales netzwerk
WO2004044772A2 (de) Verfahren und computer-anordnung zum bereitstellen von datenbankinformation einer ersten datenbank und verfahren zum rechnergestützten bilden eines statistischen abbildes einer datenbank