FR3099614A1 - Mécanisme de détection de fraudes dans un environnement antagoniste - Google Patents

Mécanisme de détection de fraudes dans un environnement antagoniste Download PDF

Info

Publication number
FR3099614A1
FR3099614A1 FR1908804A FR1908804A FR3099614A1 FR 3099614 A1 FR3099614 A1 FR 3099614A1 FR 1908804 A FR1908804 A FR 1908804A FR 1908804 A FR1908804 A FR 1908804A FR 3099614 A1 FR3099614 A1 FR 3099614A1
Authority
FR
France
Prior art keywords
examples
classifier
antagonistic
training
transaction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
FR1908804A
Other languages
English (en)
Other versions
FR3099614B1 (fr
Inventor
Li Guo
Simon DELECOURT
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Worldline SA
Original Assignee
Worldline SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Worldline SA filed Critical Worldline SA
Priority to FR1908804A priority Critical patent/FR3099614B1/fr
Publication of FR3099614A1 publication Critical patent/FR3099614A1/fr
Application granted granted Critical
Publication of FR3099614B1 publication Critical patent/FR3099614B1/fr
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q20/00Payment architectures, schemes or protocols
    • G06Q20/38Payment protocols; Details thereof
    • G06Q20/40Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
    • G06Q20/401Transaction verification
    • G06Q20/4016Transaction verification involving fraud or risk level assessment in transaction processing

Landscapes

  • Business, Economics & Management (AREA)
  • Accounting & Taxation (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Finance (AREA)
  • Strategic Management (AREA)
  • Computer Security & Cryptography (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mobile Radio Communication Systems (AREA)
  • Control Of Vending Devices And Auxiliary Devices For Vending Devices (AREA)
  • Computer And Data Communications (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)

Abstract

Procédé de détection de fraudes dans un flux de transactions destinées à un service fourni sur un réseau de télécommunication, dans lequel les transactions dudit flux sont soumises à un classifieur configuré pour déterminer si chaque transaction soumise est une transaction normale ou frauduleuse, comprenant une étape d’apprentissage sur un ensemble d’exemples xi de transactions, dans lequel ladite étape d’apprentissage comprend la détermination d’un ensemble d’exemples antagonistes à partir desdits exemples d’apprentissage, et l’entrainement dudit classifieur sur ledit ensemble d’exemples de transaction et sur ledit ensemble d’exemples antagonistes

Description

Mécanisme de détection de fraudes dans un environnement antagoniste
DOMAINE DE L’INVENTION
La présente invention est relative au domaine de la détection de fraudes pour des services de traitement automatique de l'information, notamment pour des transactions financières sur réseau de télécommunication. Elle s'applique notamment bien à la détection de fraudes organisées.
CONTEXTE DE L’INVENTION
Beaucoup de systèmes de traitement automatique de l'information nécessitent la mise en place d'un mécanisme de détection de fraudes. C'est notamment le cas des services de transactions financières sur les réseaux de télécommunication.
Ces services sont ceux qui permettent des paiements et des transferts de données financières, principalement entre établissements bancaires, à la suite d'une requête d'un utilisateur par exemple lors d'un achat en ligne ou sur un terminal de paiement de type "PoS" (pour "Point of Sale") via une carte de paiement.
Ces transactions sont extrêmement nombreuses. Pour cette raison au moins, il est donc nécessaire que les fraudes soient détectées de façon automatique, mais aussi parce que la détection doit intervenir au plus tôt, de façon temps-réel ou quasi temps réel, afin de déclencher des blocages ou actions correctrices permettant d'éviter ou minimiser l'impact de la fraude pour les utilisateurs et établissements bancaires.
Il existe de nombreux mécanismes de détection automatique de fraudes. Parmi ceux-ci, on peut citer les forêts aléatoires (ou «random forests» en langue anglaise), les réseaux de neurones, les forêts d’isolation (ou «isolation forests» en anglais), les machines à vecteurs de support (ou SVM pour «Support Vector Machine»). Il existe également des méta-algorithmes de stimulation, ou "boosting" selon la terminologie usuelle en langue anglaise. Ces méta-algorithmes peuvent être utilisés avec plusieurs types d'algorithmes de classification automatique tels que les réseaux neuronaux ou les arbres de décision, etc.
Ces différents mécanismes de détection de fraudes permettent de caractériser des comportements frauduleux à partir d'un ensemble d'apprentissage, et d'ainsi prédire une fraude à partir de cette caractérisation (ou classification).
Toutefois, ils reposent sur la supposition que les comportements frauduleux sont suffisamment stationnaires dans leurs caractéristiques pour pouvoir être modélisés et ainsi prédit. Or, il s'avère que de plus en plus de fraudeurs sont organisés et suffisamment connaisseurs des mécanismes de détection de fraude pour concevoir des transactions frauduleuses déjouant les caractérisations des comportements frauduleux usuels.
Un but de l'invention est donc d'améliorer la situation de l'état de la technique et de proposer un dispositif de détection de fraudes qui prenne en compte les tentatives des fraudeurs de présenter des fraudes déjouant les mécanismes d'apprentissage de l'état de la technique.
Selon un mode de réalisation, l’invention concerne un procédé de détection de fraudes dans un flux de transactions destinées à un service fourni sur un réseau de télécommunication, dans lequel les transactions dudit flux sont soumises à un classifieur configuré pour déterminer si chaque transaction soumise est une transaction normale ou frauduleuse, comprenant une étape d’apprentissage sur un ensemble d’exemples xi de transactions, dans lequel ladite étape d’apprentissage comprend la détermination d’un ensemble d’exemples antagonistes à partir desdits exemples d’apprentissage, et l’entrainement dudit classifieur sur ledit ensemble d’exemples de transaction et sur ledit ensemble d’exemples antagonistes.
Suivant des modes de réalisation préférés, l’invention comprend une ou plusieurs des caractéristiques suivantes qui peuvent être utilisées séparément ou en combinaison partielle entre elles ou en combinaison totale entre elles :
  • le classifieur est composé d’un ensemble de classifieurs faibles, ht, et ladite étape d'apprentissage comprend les étapes suivantes répétées de façon itérative pour l'ensemble desdits classifieurs faibles;
sélection d’un échantillon dudit ensemble d’exemples en fonction d’un ensemble de probabilités associées à chaque exemple ;
création d'un classifieur faible minimisant une erreur en classification sur cet échantillon ;
détermination d’un exemple antagoniste pour chacun des exemples dudit échantillon ;
mise à jour dudit ensemble de probabilités en fonction de ladite erreur, la probabilité associée à chacun desdits exemples dudit échantillon étant également fonction de la classification dudit exemple par ledit classifieur faible et de la classification de l'exemple antagoniste associé audit exemple par ledit classifieur faible ;
ainsi qu'une étape de création dudit classifieur à partir desdits classifieurs faibles.
  • un exemple antagoniste, est déterminé à partir d’un exemple xi par la relation
dans laquelle e représente l’amplitude de la perturbation, yi représente la classe associée à l’exemple xidans ledit ensemble d’apprentissage, et représente le gradient sur xide la fonction objectif J.
  • ladite mise à jour dudit ensemble de probabilité Dt(i) est effectuée selon la relation :
dans laquelle
αtest un paramètre de mise à jour qui détermine une amplitude selon laquelle la mise à jour peut être effectuée entre chaque itération
K est le nombre d’exemples dans ledit ensemble d’apprentissage ;
Ztest un paramètre de normalisation,
γ est un paramètre qui contrôle l’influence des exemples antagonistes dans le processus d’apprentissage,
I[ht(xi)=yi] et I[ht( )=yi] représentent les valeurs d’une fonction indicatrice I[ ] valant -1 lorsque l’expression ht(xi)=yi, respectivement ht( )=y,iest fausse, et 1 sinon ;
  • le paramètre γ est compris entre 0.5 et 0.8 ;
  • lesdites probabilités sont initialement fixées de façon équiprobable ;
  • ledit classifieur est créé par combinaison linéaire d’une base de fonctions dont les éléments sont lesdits classifieurs faibles ;
Un autre aspect de l’invention concerne un support de stockage de données lisible par un processeur de données sur lequel est enregistré un programme comprenant des instructions pour l'exécution des étapes du procédé tel que précédemment défini.
Un autre aspect de l’invention concerne un produit programme d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé tel que précédemment défini, lorsque ledit programme est exécuté par un processeur de données.
Un autre aspect de l’invention concerne un dispositif de détection de fraudes dans un flux de transactions destinées à un service fourni sur un réseau de télécommunication, comportant des moyens configurés pour la mise en œuvre du procédé tel que précédemment défini.
Ainsi, l’invention permet un apprentissage à la fois réactif et proactif, ainsi qu’il sera détaillé plus loin.
BREVE DESCRIPTION DES FIGURES
illustre une vue schématique d’une architecture dans laquelle l’invention peut s’inscrire selon un de ses modes de réalisation.
schématise un organigramme d’un exemple de modes de réalisation de l’invention.
et [Fig 3b] illustrent les concepts d’apprentissage réactif et d’apprentissage proactif.
DESCRIPTION DETAILLEE DE L’INVENTION
La Figure 1 illustre un contexte fonctionnel très haut niveau dans le cadre duquel l'invention peut être mise en œuvre. Un utilisateur 10 transmet une transaction 13 à un service de gestion de transactions financières 11, comme un service de paiement, à travers un réseau de télécommunication 12. L'utilisateur 10 peut être un terminal de télécommunication avec lequel un ordre de paiement en ligne peut être placé; il peut aussi s'agir d'un terminal de paiement situé chez un commerçant, ou encore un système complexe situé au sein d'un établissement bancaire dans le cadre de transactions inter-banques.
Un dispositif de détection de fraudes 14 peut être inséré en amont, entre le réseau de télécommunication 12 et le service de gestion de transactions financières 11, par exemple au sein d’un même serveur 15 (ou ferme de serveurs).
Le dispositif de détection de fraudes 14 peut utiliser un modèle 16 élaboré par apprentissage puis l’utiliser en prédiction et généralisation pour classer les nouvelles transactions 13 en des classes telles que « fraude » et « transaction normale ».
Ce modèle 16 peut être un classifieur (ou « classeur ») unique ou composite (c’est-à-dire composé de plusieurs classifieurs). Il peut être de différents types (réseaux de neurones, forêts aléatoires, forêts d’isolation, machines à vecteurs de support, etc.), et il peut également être un méta-algorithme constitué d’un ensemble de classifieurs faibles, qui est entrainé par stimulation (ou «boosting»).
C’est donc sur la base des exemples qui lui est soumis que le classifieur 16 peut apprendre et, par la suite, traiter des nouvelles transactions. Il en ressort que le dispositif de détection de fraudes 14 peut détecter une fraude que si celle-ci comporte des similitudes avec celles présentés dans le jeu d’apprentissage.
Selon l'état de la technique, il existe très peu d'études sur le comportement des fraudeurs et sur les façons de déjouer un algorithme de classification automatique par apprentissage.
On peut toutefois citer C. Szegedy, W. Zaremba, I. Sutskever, J. Bruna, D. Erhan, I. Goodfellow, R. Fergus, "Intriguing properties of neural networks", arXiv preprint arXiv:1312.6199, 2013, ou encore S. Delecourt, Li Guo, "Building a robust mobile payment fraud detection system with adversarial examples" , IEEE Artificial Intelligence and Knowledge Engineering, Juin 2019.
Il en ressort que, d'une façon générale, les fraudeurs connaissent les mécanismes d'apprentissage et font en sort que les fraudes qu'ils présentent au système de détection soient mal classés par ces mécanismes. Pour ce faire, ils cherchent à introduire une perturbation dans la transaction présentée qui, à la fois, ne nuit pas à son bon traitement par le service de gestion des transactions mais induit l'algorithme de classification en erreur.
Ainsi, dans le premier article précité, il est dit : "Cependant, nous constatons que l'application d'une perturbation imperceptible non aléatoire à une image de test, il est possible de modifier arbitrairement la prédiction du réseau (voir figure 5). Ces perturbations sont trouvées en optimisant l'entrée pour maximiser l'erreur de prédiction. Nous appelons les exemples si perturbés "exemples antagonistes”
Mathématiquement, on peut formuler cette idée comme un problème d’optimisation, tel que : Où f est le classifieur et x est une fraude.
On peut considérer plusieurs types d'attaques frauduleuses, selon la connaissance dont dispose l’attaquant du mécanisme mis en œuvre par le dispositif de détection automatique de fraudes :
  • dans un premier cas, le système de fraudes a connaissance du mécanisme de détection de fraudes (modèle, algorithme, architecture, paramètres....)
  • dans un second cas, le système de fraudes n'a pas cette connaissance. Il peut alors sonder son comportement en lui transmettant plusieurs transactions frauduleuses ou non frauduleuses et en vérifiant comment celles-ci ont été classifiées par le dispositif de détection de fraudes. Avec un nombre de sondages suffisamment grand, le système de fraudes peut obtenir une bonne compréhension de ce mécanisme.
  • Il peut également ne pas chercher à connaître le mécanisme de détection de fraudes qu'il souhaite attaquer mais simplement l'attaquer selon une stratégie qui fonctionne avec la plupart des mécanismes de détection.
Dans le premier cas, appelé "boite blanche" (white box), différentes méthodes existent pour résoudre le problème d’optimisation formulé précédemment. Une méthode classique est la méthode "Fast Gradient Sign Method" (FGSM). Selon cette méthode, une transaction antagoniste xadv(ou "adverse" selon la terminologie anglaise) est générée en ajoutant une perturbation à la transaction x dans la direction du gradient de la fonction de "coût" (ou «loss »en anglais), selon l'expression :
Dans cette équation, e représente l’amplitude de la perturbation et J(x, ytrue) représente le gradient, ou dérivée, sur x de la fonction de coût J (ou «loss function» selon la terminologie anglaise).
Parmi la multitude de fonctions de coût possibles, on peut citer les plus connues : l’erreur quadratique moyenne (ou «Mean Squared Error», MSE, en anglais), l’entropie croisée (ou « cross entropy »), la fonction de coût de Huber, etc.
Par ailleurs, d’autres types d’attaques ont été développés, également.
On peut par exemple citer l’attaque FGSM itérative qui effectue l’attaque FGSM précédemment décrite, ne fois mais avec à chaque itération, une amplitude n fois moindre.
On peut également citer l’attaque MI-FGSM (Momentum Iterative Fast Gradient Sign Method, décrite dans l’article « Boosting Adversarial Attacks with Momentum », arXiv:1710.06081v3, mars 2018, ou encore l’attaque JSMA, décrite dans l’article « The Limitations of Deep Learning in Adversarial Settings », arXiv:1511.07528v1, novembre 2018, ou encore celle décrite dans Nicholas Carlini & David Wagner, « Towards Evaluating the Robustness of Neural Networks », arXiv:1608.04644, mars 2017 ?
L'article "Intriguing properties of neural networks" a démontré que les transactions antagonistes ainsi générées pouvaient être valablement utilisées également dans les deux cas suivants, dits "boîte noire" (black box). Un système de fraude peut dans un premier temps entraîner son propre modèle de substitution (boite blanche), générer des transactions antagonistes puis appliquer ces transactions antagonistes au dispositif de détection de fraudes ciblé.
Les fraudeurs peuvent jouer sur un ou plusieurs paramètres d’une transaction x vers un service. Par exemple, des transactions antagonistes xadvpeuvent être générées à partir d’une transaction x en introduisant une perturbation sur le montant de la transaction, sur sa date et/ou heure, par exemple. Certains paramètres échappent normalement aux capacités des fraudeurs, comme les informations liés à la banque, toutefois, selon les systèmes, des brèches peuvent être possibles et, donc, de telles perturbations envisageables.
Selon un aspect de l'invention, de telles perturbations peuvent être introduites par le mécanisme de détection de fraudes lui-même, afin de générer des exemples antagonistes xadvqui peuvent être utilisés pour entraîner le classifieur 16, le rendant alors plus robuste à des attaques antagonistes.
Les figures 3a et 3b illustrent respectivement l’apprentissage réactif, oureactive training, selon l’état de la technique et l’apprentissage à la fois réactif et proactif selon l’invention. Dans un apprentissage réactif, il est nécessaire que les comportements frauduleux soient présents dans l’ensemble d’apprentissage afin de pouvoir, par la suite, s’en prémunir. Ainsi, chaque transaction de l’ensemble d’apprentissage peut par exemple modifier les poids w, constituant les paramètres du modèle prédictif 16, afin que celui-ci puisse ensuite prédire une nouvelle transaction en deux classes « fraude » et « normal » (ou «genuine», en langue anglaise).
Selon l’apprentissage proactif, ou «proactive training », on dérive les comportements frauduleux, en faisant des suppositions sur le mode opératoire des fraudeurs afin de les introduire dans l’ensemble d’apprentissage. Il n’est alors plus nécessaire que l’ensemble d’apprentissage initial contienne ces comportements frauduleux. Dans l’exemple de la figure 3b, les transactions de l’ensemble d’apprentissage permettent de générer des exemples antagonistes («adversarial attacks») qui peuvent alimenter le mécanisme d’apprentissage classique, c’est-à-dire réactif, afin de modifier les poids w (en des poids w’) du modèle prédictif 16. Celui-ci peut ensuite prédire une nouvelle transaction en deux classes « fraude » et « normal » (ou «genuine», en langue anglaise).
Ces modes opératoires peuvent être intégrés dans le système selon des mécanismes connus et étudiés, ou bien suite à leur détection par d’autres systèmes (cela s’appelle le «transfer learning»).
Autrement dit, l’invention revient à élargir l’ensemble d’apprentissage du classifieur 16 en y intégrant des exemples antagonistes représentatifs des fraudes selon des modes opératoires connus ou déterminés.
Ces modes opératoires de fraude, permettant de générer, ou dériver, un exemple antagonistes à partir d’un exemple de l’ensemble d’apprentissage initial, sont notamment les méthodes de fraude précédemment décrites : FGSM, FGSM itérative, MI-FGSM, JSMA, etc.
La phase d’apprentissage, ou entraînement, du classifieur 16 est réalisée en lui soumettant un ensemble d’exemples de transactions, correctement étiquetées. Ainsi, dans cet ensemble d’exemples xi, on connait la véritable classe yi, c’est-à-dire si la transaction est normale ou frauduleuse, ceci ayant pu être par exemple vérifié par un contrôleur humain. En déterminant la classe f(xi) automatiquement déterminée par un classifieur f, on peut calculer l’erreur en classification pour cet exemple, puis, pour l’ensemble des exemples de l’ensemble de test afin d’estimer la performance du classifieur f.
L’invention se base sur un mécanisme d’apprentissage d’un classifieur f pour la détection de fraudes dans un environnement sujet à des attaques antagoniste.
Selon un mode de réalisation de l’invention, le classifieur f, 16, peut être un ensemble de classifieurs faibles associé à un méta-algorithme de stimulation. L’apprentissage d’un tel classifieur peut être effectué par une répétition itérative pour chacun des classifieurs faibles de l’ensemble constituant le classifieur « global ».
Parmi ces mécanismes de stimulation, on peut citer "Adaboost" qui est extrêmement utilisé. Sa version originale, pour la classification binaire, a été proposée dans Y. Freund, R. Schapire, "A Decision-Theoric Generalization of on-Line Learning and an Application to Boosting", 1995. Une version généralisée pour la classification multi-classes a ensuite été proposée dans Zhu, H. Zou, S. Rosset, T. Hastie, "Multi-class AdaBoost", 2009.
AdaBoost vise à piloter la phase d'apprentissage d'algorithmes de classification automatique de sorte que les sorties de ces algorithmes (appelés classifieurs faibles, ou «weak learner» selon la terminologie anglaise) soient combinées en une somme pondérée qui représente la sortie finale du classifieur stimulé. AdaBoost est adaptatif dans le sens où les classifieurs faibles subséquents sont ajustés en faveur des échantillons mal classés par les classifieurs précédents.
Dans un mode de réalisation basé sur un algorithme tel que « Adaboost », l’apprentissage est effectué par une répétition itérative d’étapes, pour l’ensemble des classifieurs faibles constituant le classifieur « global » 16. Cette répétition forme une boucle 20, ainsi qu’illustré sur la figure 2.
Les classifieurs faibles peuvent être ajoutés jusqu’à stagnation de la valeur de la fonction de coût sur des itérations successives. Généralement, entre 100 et 500 classifieurs faibles peuvent être utilisés, selon la complexité du problème.
Dans la suite, on note htle t-ième classifieur faible constituant le classifieur global H. On note ht(xi) la classe déterminée par le classifieur htpour l’exemple xi.
Une première étape S1 consiste à sélectionner un échantillon d’exemples parmi les exemples de l’ensemble d’apprentissage, en fonction d’un ensemble de probabilités Dt(i) associé à chaque exemple xi.
On note i l’indice de l’exemple xidans l’ensemble des exemples et t est l’indice du classifieur faible dans l’ensemble formé de T classifieurs faibles.
Lors de la première itération, les probabilités peuvent être fixées de façon équiprobable pour l’ensemble des m exemples de l’échantillon : Dt(i)=1/m
Dans une étape S2, on créé (en l’entrainant) un classifieur htqui minimise l’erreur en classification sur l’échantillon sélectionné en étape S1. On note cette erreur pour le classifieur faible ht.
Selon un mode de réalisation, on utilise des réseaux de neurones comme classifieurs faibles. Le choix du type de classifieur faible est conditionné par la méthode de création des exemples antagonistes. On choisit, dans cet exemple, la méthode « FGSM » qui nécessite l’utilisation d’un gradient, ce qui implique d’utiliser un modèle dont le gradient est calculable, ce qui est le cas des réseaux de neurones multicouches (de type perceptrons multicouches).
Dans une étape S3, on détermine un exemple antagoniste pour chacun des exemples dudit échantillon. Cette étape étant indépendante, fonctionnellement, de l’étape S2, elle peut avoir lieu avant celle-ci ou parallèlement. Dans un exemple de réalisation basé sur la méthode « FGSM », les exemples antagonistes peuvent se déterminer à partir des exemples xirespectifs selon l’expression :
La fonction de coût peut être choisie parmi celles précédemment évoquées. L’amplitude de la perturbation possible est un paramètre qui peut être déterminé de façon empirique. Il traduit la capacité du fraudeur à modifier la transaction qu’il souhaite effectuer.
On entraine alors le classifieur faible htsur les exemples antagonistes. Cela revient à modifier la fonction de coût en fonction de la fonction J initiale
Puis, dans une étape S4, on met à jour l’ensemble des probabilités Dt(i) en fonction de l’erreur calculée en étape S2. La probabilité Dt(i) associé à l’exemple xiest également fonction de la classification de cet exemple par le classifieur htet également de la classification de l’exemple antagoniste correspondant, par ce même classifieur faible ht.
On peut ainsi exprimer la mise à jour de cet ensemble de probabilité pour l’itération suivant t+1 par rapport à l’itération courante t par l’expression suivante : dans laquelle
  • αtest une valeur qui traduit la qualité prédictive du classifieur faible. Cette valeur peut être calculée par l’expression suivante
  • K est le nombre de classe. Dans le cas de la détection de fraudes, on peut fixer K=2, c’est-à-dire que l’on cherche à classer chaque transaction dans une catégorie « fraude » ou dans une catégorie « transaction normale » ;
  • Ztest un paramètre de normalisation, de sorte que la somme des probabilités Dt+1(i), pour tout i dans l’intervalle [1, m], est égale à 1.
  • γ est un paramètre qui contrôle l’influence des exemples antagonistes dans le processus d’apprentissage. Plus ce paramètre γ est proche de 1, moins ceux-ci sont pris compte. Plus il est proche de 0, et plus on se focalise sur les exemples antagonistes.
Selon l’invention γ1. Préférentiellement γ[0.5 ; 0.8]. Cet intervalle offre de meilleures performances et correspond à un compromis entre l’intérêt de la prise en compte des exemples antagonistes et des exemples de l’ensemble d’apprentissage ;
  • I[ht(xi)=yi] et I[ht( )=yi] représentent les valeurs d’une fonction indicatrice I[] valant -1 lorsque l’expression ht(xi)=yi, respectivement ht( )=yiest fausse, et 1 sinon.
Autrement dit : Autrement dit encore, cette expression indique si un exemple xi, ou bien respectivement son exemple antagoniste associé est correctement classé (=yi) ou non par le classifieur faible htconsidéré.
On peut considérer qu’un aspect de l’invention consiste donc à augmenter l’ensemble d’’apprentissage pour y intégrer des exemples antagonistes dérivées des exemples existants de l’ensemble d’apprentissage. Ainsi, le mécanisme d’apprentissage se base également sur les attaques prévisibles d’un fraudeur et le classifieur global sera mieux adapté pour détecter ces fraudes.
Ces étapes S1-S4 sont itérées pour l’ensemble des classifieurs faibles, c’est-à-dire pour t=1 à t=T. Dans l’exemple illustré en figure 2, on considère une étape S5 consistant à itérer t, puis à tester si t=T ou non. En fonction du résultat de cette comparaison, on soit en reboucle vers l’étape S1, soit en sort de la boucle itérative pour terminer l’algorithme en étape S6.
Dans cette étape S6, on crée le classifieur global à partir des classifieurs faibles précédemment entrainés.
Ce classifieur global H(x) peut se voir comme une combinaison linéaire d’une base de fonctions dont les éléments sont les classifieurs faibles ht. Le coefficient multiplicatif du classifieur faible htest le poids αtqui détermine la qualité prédictive du modèle.
Plus précisément, on peut écrire :
Ce classifieur H(x) tire ainsi profit des avantages du mécanisme d’apprentissage par stimulation, mais comme évoqué précédemment, il prend également en compte des exemples antagonistes qui sont dérivés des exemples de l’ensemble d’apprentissage et viennent ainsi enrichir l’apprentissage du classifieur. Ces exemples antagonistes sont générés à chaque étape de l’algorithme itératif pour les exemples sélectionnés. Ces exemples peuvent être sélectionnés d’après des probabilités recalculées en fonction de l’erreur commise par les classifieurs faibles précédents.
La détermination des exemples antagonistes vient donc renforcer ou élargir l’apprentissage de l’ensemble de classifieurs.
Ainsi, le dispositif de détection de fraude est adapté à la détection des fraudes organisées par l’anticipation, dans son apprentissage, des mécanismes habituels mis en œuvre par les fraudeurs.
Le principe d’entrainement d’un classifieur sur un ensemble composé d’exemples d’apprentissage ainsi que de leurs exemples antagonistes associé peut s’appliquer à n’importe quel autre type de classifieurs.

Claims (10)

  1. Procédé de détection de fraudes dans un flux de transactions destinées à un service fourni sur un réseau de télécommunication, dans lequel les transactions dudit flux sont soumises à un classifieur configuré pour déterminer si chaque transaction soumise est une transaction normale ou frauduleuse, comprenant une étape d’apprentissage sur un ensemble d’exemples xide transactions, dans lequel ladite étape d’apprentissage comprend la détermination d’un ensemble d’exemples antagonistes à partir desdits exemples d’apprentissage, et l’entrainement dudit classifieur sur ledit ensemble d’exemples de transaction et sur ledit ensemble d’exemples antagonistes.
  2. Procédé selon la revendication précédente, dans lequel ledit classifieur est composé d’un ensemble de classifieurs faibles, ht, et ladite étape d'apprentissage comprend les étapes suivantes répétées de façon itérative pour l'ensemble desdits classifieurs faibles;
    • sélection (S1) d’un échantillon dudit ensemble d’exemples en fonction d’un ensemble de probabilités associées à chaque exemple ;
    • création (S2) d'un classifieur faible minimisant une erreur en classification sur cet échantillon ;
    • détermination (S3) d’un exemple antagoniste pour chacun des exemples dudit échantillon ;
    • mise à jour (S4) dudit ensemble de probabilités en fonction de ladite erreur, la probabilité associée à chacun desdits exemples dudit échantillon étant également fonction de la classification dudit exemple par ledit classifieur faible et de la classification de l'exemple antagoniste associé audit exemple par ledit classifieur faible ;
    ainsi qu'une étape de création (S6) dudit classifieur à partir desdits classifieurs faibles.
  3. Procédé selon l’une des revendications précédentes, dans lequel un exemple antagoniste, est déterminé à partir d’un exemple xipar la relation

    dans laquelle e représente l’amplitude de la perturbation, yireprésente la classe associée à l’exemple xidans ledit ensemble d’apprentissage, et représente le gradient sur x de la fonction objectif J.
  4. Procédé selon l’une des revendications 1 à 3, dans lequel ladite mise à jour (S4) dudit ensemble de probabilité Dt(i) est effectuée selon la relation :

    dans laquelle
    • αtest un paramètre de mise à jour qui détermine une amplitude selon laquelle la mise à jour peut être effectuée entre chaque itération
    • K est le nombre d’exemples dans ledit ensemble d’apprentissage ;
    • Ztest un paramètre de normalisation,
    • γ est un paramètre qui contrôle l’influence des exemples antagonistes dans le processus d’apprentissage.
    • I[ht(xi)=yi] et I[ht( )=yi] représentent les valeurs d’une fonction indicatrice I[ ] valant -1 lorsque l’expression ht(xi)=yi, respectivement ht( )=y,iest fausse, et 1 sinon.
  5. Procédé selon la revendication précédente, dans lequel le paramètre γ est compris entre 0.5 et 0.8.
  6. Procédé selon l’une des revendications précédentes, dans lequel lesdites probabilités sont initialement fixées de façon équiprobable.
  7. Procédé selon l’une des revendications précédentes, dans lequel ledit classifieur est créé par combinaison linéaire d’une base de fonctions dont les éléments sont lesdits classifieurs faibles.
  8. Support de stockage de données lisible par un processeur de données sur lequel est enregistré un programme comprenant des instructions pour l'exécution des étapes d'un procédé selon l'une quelconque des revendications précédente.
  9. Produit programme d’ordinateur comprenant des instructions pour l’exécution des étapes d’un procédé selon l'une quelconque des revendications 1 à 7, lorsque ledit programme est exécuté par un processeur de données.
  10. Dispositif de détection de fraudes (14) dans un flux de transactions destinées à un service (11) fourni sur un réseau de télécommunication (12, 15), comportant des moyens configurés pour la mise en œuvre du procédé selon l’une des revendications 1 à 7.
FR1908804A 2019-08-01 2019-08-01 Mécanisme de détection de fraudes dans un environnement antagoniste Active FR3099614B1 (fr)

Priority Applications (1)

Application Number Priority Date Filing Date Title
FR1908804A FR3099614B1 (fr) 2019-08-01 2019-08-01 Mécanisme de détection de fraudes dans un environnement antagoniste

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR1908804A FR3099614B1 (fr) 2019-08-01 2019-08-01 Mécanisme de détection de fraudes dans un environnement antagoniste
FR1908804 2019-08-01

Publications (2)

Publication Number Publication Date
FR3099614A1 true FR3099614A1 (fr) 2021-02-05
FR3099614B1 FR3099614B1 (fr) 2021-10-01

Family

ID=69699932

Family Applications (1)

Application Number Title Priority Date Filing Date
FR1908804A Active FR3099614B1 (fr) 2019-08-01 2019-08-01 Mécanisme de détection de fraudes dans un environnement antagoniste

Country Status (1)

Country Link
FR (1) FR3099614B1 (fr)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150039512A1 (en) * 2014-08-08 2015-02-05 Brighterion, Inc. Real-time cross-channel fraud protection
WO2018065629A1 (fr) * 2016-10-07 2018-04-12 Worldline Système de détection de fraude dans un flux de données
US20190188562A1 (en) * 2017-12-15 2019-06-20 International Business Machines Corporation Deep Neural Network Hardening Framework

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20150039512A1 (en) * 2014-08-08 2015-02-05 Brighterion, Inc. Real-time cross-channel fraud protection
WO2018065629A1 (fr) * 2016-10-07 2018-04-12 Worldline Système de détection de fraude dans un flux de données
US20190188562A1 (en) * 2017-12-15 2019-06-20 International Business Machines Corporation Deep Neural Network Hardening Framework

Non-Patent Citations (12)

* Cited by examiner, † Cited by third party
Title
"Boosting Adversarial Attacks with Momentum", ARXIV: 1710.06081V3, March 2018 (2018-03-01)
"The Limitations of Deep Learning in Adversarial Settings", ARXIV:1511.07528V1, November 2018 (2018-11-01)
ANIRBAN CHAKRABORTY ET AL: "Adversarial Attacks and Defences: A Survey", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 28 September 2018 (2018-09-28), XP080922371 *
ARJUN NITIN BHAGOJI ET AL: "Dimensionality Reduction as a Defense against Evasion Attacks on Machine Learning Classifiers", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 9 April 2017 (2017-04-09), XP080761766 *
C. SZEGEDYW. ZAREMBAI. SUTSKEVERJ. BRUNAD. ERHANI. GOODFELLOWR. FERGUS: "Intriguing properties of neural networks", ARXIV PREPRINT ARXIV:1312.6199, 2013
IAN J GOODFELLOW ET AL: "Explaining and Harnessing Adversarial Examples", 20 March 2015 (2015-03-20), XP055535149, Retrieved from the Internet <URL:https://arxiv.org/pdf/1412.6572.pdf> [retrieved on 20181217] *
ILIA SHUMAILOV ET AL: "The Taboo Trap: Behavioural Detection of Adversarial Samples", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 18 November 2018 (2018-11-18), XP081556288 *
NICHOLAS CARLINIDAVID WAGNER: "Towards Evaluating the Robustness of Neural Networks", ARXIV: 1608.04644, March 2017 (2017-03-01)
QINGYU GUO ET AL: "Securing the Deep Fraud Detector in Large-Scale E-Commerce Platform via Adversarial Machine Learning Approach", 20190513; 1077952576 - 1077952576, 13 May 2019 (2019-05-13), pages 616 - 626, XP058436456, ISBN: 978-1-4503-6674-8, DOI: 10.1145/3308558.3313533 *
S. DELECOURTLI GUO: "Building a robust mobile payment fraud détection system with adversarial examples", IEEE ARTIFICIAL INTELLIGENCE AND KNOWLEDGE ENGINEERING, June 2019 (2019-06-01)
Y. FREUNDR. SCHAPIRE, A DECISION-THEORIC GENERALIZATION OF ON-LINE LEARNING AND AN APPLICATION TO BOOSTING, 1995
ZHUH. ZOUS. ROSSETT. HASTIE, MULTI-CLASS ADABOOST, 2009

Also Published As

Publication number Publication date
FR3099614B1 (fr) 2021-10-01

Similar Documents

Publication Publication Date Title
US11677781B2 (en) Automated device data retrieval and analysis platform
US20220114593A1 (en) Probabilistic anomaly detection in streaming device data
US20240020762A1 (en) Aggregation based credit decision
US11308497B2 (en) Detecting fraud using machine-learning
FR3069357A1 (fr) Systeme d&#39;apprentissage machine pour diverses applications informatiques
EP3613003B1 (fr) Système et procédé pour gérer la détection de fraudes dans un système de transactions financières
WO2019129977A1 (fr) Detection d&#39;anomalies par une approche combinant apprentissage supervise et non-supervise
US11763189B2 (en) Method for tracking lack of bias of deep learning AI systems
FR3057378A1 (fr) Systeme de detection de fraude dans un flux de donnees
AU2019204317A1 (en) Propensity model based optimization
US20220116388A1 (en) Voice vector framework for authenticating user interactions
EP0396592B1 (fr) Dispositif d&#39;analyse d&#39;une transaction informatique
FR3062504A1 (fr) Detection automatique de fraudes dans un flux de transaction de paiement par reseaux de neurones integrant des informations contextuelles
FR3048840A1 (fr)
Karki et al. Using transformers for identification of persuasion principles in phishing emails
US20180315052A1 (en) System and method for measuring user behavior in electronic transaction based on an immunity system
US20240062211A1 (en) User Authentication Based on Account Transaction Information in Text Field
FR3099614A1 (fr) Mécanisme de détection de fraudes dans un environnement antagoniste
FR3105489A3 (fr) Dispositif et procede de detection de fraude
CH717742A2 (fr) Procédé et appareil informatisés de détection de transaction frauduleuse.
FR3064095B1 (fr) Detection par apprentissage automatique d&#39;anomalies dans un ensemble de transactions bancaires par optimisation de la precision moyenne
WO2021048245A1 (fr) Apprentissage en continu pour la détection automatique de fraudes sur un service accessible sur réseau de télécommunication
EP3889871A1 (fr) Entrainement de modèles prédictifs pour la détection automatique de fraudes à partir d&#39;ensembles d&#39;apprentissage construits dans des contextes distincts.
BE1021030B1 (fr) Systeme et procede de caracterisation de messages financiers
Al-Momani et al. Fraudulent Transactions Prediction Using Deep Neural Network

Legal Events

Date Code Title Description
PLFP Fee payment

Year of fee payment: 2

PLSC Publication of the preliminary search report

Effective date: 20210205

PLFP Fee payment

Year of fee payment: 3

PLFP Fee payment

Year of fee payment: 4

PLFP Fee payment

Year of fee payment: 5