FR3099614A1 - Mécanisme de détection de fraudes dans un environnement antagoniste - Google Patents
Mécanisme de détection de fraudes dans un environnement antagoniste Download PDFInfo
- Publication number
- FR3099614A1 FR3099614A1 FR1908804A FR1908804A FR3099614A1 FR 3099614 A1 FR3099614 A1 FR 3099614A1 FR 1908804 A FR1908804 A FR 1908804A FR 1908804 A FR1908804 A FR 1908804A FR 3099614 A1 FR3099614 A1 FR 3099614A1
- Authority
- FR
- France
- Prior art keywords
- examples
- classifier
- antagonistic
- training
- transaction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title description 25
- 230000007246 mechanism Effects 0.000 title description 21
- 230000003042 antagnostic effect Effects 0.000 claims abstract description 34
- 238000012549 training Methods 0.000 claims abstract description 30
- 238000000034 method Methods 0.000 claims abstract description 28
- 230000006870 function Effects 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 6
- 239000005557 antagonist Substances 0.000 claims description 5
- 238000010606 normalization Methods 0.000 claims description 5
- 238000004590 computer program Methods 0.000 claims description 2
- 238000013500 data storage Methods 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 description 9
- 239000000523 sample Substances 0.000 description 9
- 238000013528 artificial neural network Methods 0.000 description 8
- 230000006399 behavior Effects 0.000 description 8
- 238000012360 testing method Methods 0.000 description 7
- 230000000638 stimulation Effects 0.000 description 5
- 238000007635 classification algorithm Methods 0.000 description 4
- 238000002955 isolation Methods 0.000 description 3
- 238000007726 management method Methods 0.000 description 3
- 238000007637 random forest analysis Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 241000135309 Processus Species 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 238000012512 characterization method Methods 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 240000008042 Zea mays Species 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000012550 audit Methods 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000001143 conditioned effect Effects 0.000 description 1
- 238000003066 decision tree Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 229940082150 encore Drugs 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 238000013526 transfer learning Methods 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4016—Transaction verification involving fraud or risk level assessment in transaction processing
Landscapes
- Business, Economics & Management (AREA)
- Accounting & Taxation (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Finance (AREA)
- Strategic Management (AREA)
- Computer Security & Cryptography (AREA)
- General Business, Economics & Management (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Control Of Vending Devices And Auxiliary Devices For Vending Devices (AREA)
- Computer And Data Communications (AREA)
- Mobile Radio Communication Systems (AREA)
- Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
Abstract
Procédé de détection de fraudes dans un flux de transactions destinées à un service fourni sur un réseau de télécommunication, dans lequel les transactions dudit flux sont soumises à un classifieur configuré pour déterminer si chaque transaction soumise est une transaction normale ou frauduleuse, comprenant une étape d’apprentissage sur un ensemble d’exemples xi de transactions, dans lequel ladite étape d’apprentissage comprend la détermination d’un ensemble d’exemples antagonistes à partir desdits exemples d’apprentissage, et l’entrainement dudit classifieur sur ledit ensemble d’exemples de transaction et sur ledit ensemble d’exemples antagonistes
Description
DOMAINE DE L’INVENTION
La présente invention est relative au domaine de la détection de fraudes pour des services de traitement automatique de l'information, notamment pour des transactions financières sur réseau de télécommunication. Elle s'applique notamment bien à la détection de fraudes organisées.
CONTEXTE DE L’INVENTION
Beaucoup de systèmes de traitement automatique de l'information nécessitent la mise en place d'un mécanisme de détection de fraudes. C'est notamment le cas des services de transactions financières sur les réseaux de télécommunication.
Ces services sont ceux qui permettent des paiements et des transferts de données financières, principalement entre établissements bancaires, à la suite d'une requête d'un utilisateur par exemple lors d'un achat en ligne ou sur un terminal de paiement de type "PoS" (pour "Point of Sale") via une carte de paiement.
Ces transactions sont extrêmement nombreuses. Pour cette raison au moins, il est donc nécessaire que les fraudes soient détectées de façon automatique, mais aussi parce que la détection doit intervenir au plus tôt, de façon temps-réel ou quasi temps réel, afin de déclencher des blocages ou actions correctrices permettant d'éviter ou minimiser l'impact de la fraude pour les utilisateurs et établissements bancaires.
Il existe de nombreux mécanismes de détection automatique de fraudes. Parmi ceux-ci, on peut citer les forêts aléatoires (ou «random forests» en langue anglaise), les réseaux de neurones, les forêts d’isolation (ou «isolation forests» en anglais), les machines à vecteurs de support (ou SVM pour «Support Vector Machine»). Il existe également des méta-algorithmes de stimulation, ou "boosting" selon la terminologie usuelle en langue anglaise. Ces méta-algorithmes peuvent être utilisés avec plusieurs types d'algorithmes de classification automatique tels que les réseaux neuronaux ou les arbres de décision, etc.
Ces différents mécanismes de détection de fraudes permettent de caractériser des comportements frauduleux à partir d'un ensemble d'apprentissage, et d'ainsi prédire une fraude à partir de cette caractérisation (ou classification).
Toutefois, ils reposent sur la supposition que les comportements frauduleux sont suffisamment stationnaires dans leurs caractéristiques pour pouvoir être modélisés et ainsi prédit. Or, il s'avère que de plus en plus de fraudeurs sont organisés et suffisamment connaisseurs des mécanismes de détection de fraude pour concevoir des transactions frauduleuses déjouant les caractérisations des comportements frauduleux usuels.
Un but de l'invention est donc d'améliorer la situation de l'état de la technique et de proposer un dispositif de détection de fraudes qui prenne en compte les tentatives des fraudeurs de présenter des fraudes déjouant les mécanismes d'apprentissage de l'état de la technique.
Selon un mode de réalisation, l’invention concerne un procédé de détection de fraudes dans un flux de transactions destinées à un service fourni sur un réseau de télécommunication, dans lequel les transactions dudit flux sont soumises à un classifieur configuré pour déterminer si chaque transaction soumise est une transaction normale ou frauduleuse, comprenant une étape d’apprentissage sur un ensemble d’exemples xi de transactions, dans lequel ladite étape d’apprentissage comprend la détermination d’un ensemble d’exemples antagonistes à partir desdits exemples d’apprentissage, et l’entrainement dudit classifieur sur ledit ensemble d’exemples de transaction et sur ledit ensemble d’exemples antagonistes.
Suivant des modes de réalisation préférés, l’invention comprend une ou plusieurs des caractéristiques suivantes qui peuvent être utilisées séparément ou en combinaison partielle entre elles ou en combinaison totale entre elles :
- le classifieur est composé d’un ensemble de classifieurs faibles, ht, et ladite étape d'apprentissage comprend les étapes suivantes répétées de façon itérative pour l'ensemble desdits classifieurs faibles;
création d'un classifieur faible minimisant une erreur en classification sur cet échantillon ;
détermination d’un exemple antagoniste pour chacun des exemples dudit échantillon ;
mise à jour dudit ensemble de probabilités en fonction de ladite erreur, la probabilité associée à chacun desdits exemples dudit échantillon étant également fonction de la classification dudit exemple par ledit classifieur faible et de la classification de l'exemple antagoniste associé audit exemple par ledit classifieur faible ;
ainsi qu'une étape de création dudit classifieur à partir desdits classifieurs faibles.
- un exemple antagoniste,
- ladite mise à jour dudit ensemble de probabilité Dt(i) est effectuée selon la relation :
αtest un paramètre de mise à jour qui détermine une amplitude selon laquelle la mise à jour peut être effectuée entre chaque itération
K est le nombre d’exemples dans ledit ensemble d’apprentissage ;
Ztest un paramètre de normalisation,
γ est un paramètre qui contrôle l’influence des exemples antagonistes dans le processus d’apprentissage,
I[ht(xi)=yi] et I[ht(
- le paramètre γ est compris entre 0.5 et 0.8 ;
- lesdites probabilités sont initialement fixées de façon équiprobable ;
- ledit classifieur est créé par combinaison linéaire d’une base de fonctions dont les éléments sont lesdits classifieurs faibles ;
Un autre aspect de l’invention concerne un support de stockage de données lisible par un processeur de données sur lequel est enregistré un programme comprenant des instructions pour l'exécution des étapes du procédé tel que précédemment défini.
Un autre aspect de l’invention concerne un produit programme d’ordinateur comprenant des instructions pour l’exécution des étapes du procédé tel que précédemment défini, lorsque ledit programme est exécuté par un processeur de données.
Un autre aspect de l’invention concerne un dispositif de détection de fraudes dans un flux de transactions destinées à un service fourni sur un réseau de télécommunication, comportant des moyens configurés pour la mise en œuvre du procédé tel que précédemment défini.
Ainsi, l’invention permet un apprentissage à la fois réactif et proactif, ainsi qu’il sera détaillé plus loin.
BREVE DESCRIPTION DES FIGURES
DESCRIPTION DETAILLEE DE L’INVENTION
La Figure 1 illustre un contexte fonctionnel très haut niveau dans le cadre duquel l'invention peut être mise en œuvre. Un utilisateur 10 transmet une transaction 13 à un service de gestion de transactions financières 11, comme un service de paiement, à travers un réseau de télécommunication 12. L'utilisateur 10 peut être un terminal de télécommunication avec lequel un ordre de paiement en ligne peut être placé; il peut aussi s'agir d'un terminal de paiement situé chez un commerçant, ou encore un système complexe situé au sein d'un établissement bancaire dans le cadre de transactions inter-banques.
Un dispositif de détection de fraudes 14 peut être inséré en amont, entre le réseau de télécommunication 12 et le service de gestion de transactions financières 11, par exemple au sein d’un même serveur 15 (ou ferme de serveurs).
Le dispositif de détection de fraudes 14 peut utiliser un modèle 16 élaboré par apprentissage puis l’utiliser en prédiction et généralisation pour classer les nouvelles transactions 13 en des classes telles que « fraude » et « transaction normale ».
Ce modèle 16 peut être un classifieur (ou « classeur ») unique ou composite (c’est-à-dire composé de plusieurs classifieurs). Il peut être de différents types (réseaux de neurones, forêts aléatoires, forêts d’isolation, machines à vecteurs de support, etc.), et il peut également être un méta-algorithme constitué d’un ensemble de classifieurs faibles, qui est entrainé par stimulation (ou «boosting»).
C’est donc sur la base des exemples qui lui est soumis que le classifieur 16 peut apprendre et, par la suite, traiter des nouvelles transactions. Il en ressort que le dispositif de détection de fraudes 14 peut détecter une fraude que si celle-ci comporte des similitudes avec celles présentés dans le jeu d’apprentissage.
Selon l'état de la technique, il existe très peu d'études sur le comportement des fraudeurs et sur les façons de déjouer un algorithme de classification automatique par apprentissage.
On peut toutefois citer C. Szegedy, W. Zaremba, I. Sutskever, J. Bruna, D. Erhan, I. Goodfellow, R. Fergus, "Intriguing properties of neural networks", arXiv preprint arXiv:1312.6199, 2013, ou encore S. Delecourt, Li Guo, "Building a robust mobile payment fraud detection system with adversarial examples" , IEEE Artificial Intelligence and Knowledge Engineering, Juin 2019.
Il en ressort que, d'une façon générale, les fraudeurs connaissent les mécanismes d'apprentissage et font en sort que les fraudes qu'ils présentent au système de détection soient mal classés par ces mécanismes. Pour ce faire, ils cherchent à introduire une perturbation dans la transaction présentée qui, à la fois, ne nuit pas à son bon traitement par le service de gestion des transactions mais induit l'algorithme de classification en erreur.
Ainsi, dans le premier article précité, il est dit : "Cependant, nous constatons que l'application d'une perturbation imperceptible non aléatoire à une image de test, il est possible de modifier arbitrairement la prédiction du réseau (voir figure 5). Ces perturbations sont trouvées en optimisant l'entrée pour maximiser l'erreur de prédiction. Nous appelons les exemples si perturbés "exemples antagonistes”
Mathématiquement, on peut formuler cette idée comme un problème d’optimisation, tel que : Où f est le classifieur et x est une fraude.
On peut considérer plusieurs types d'attaques frauduleuses, selon la connaissance dont dispose l’attaquant du mécanisme mis en œuvre par le dispositif de détection automatique de fraudes :
- dans un premier cas, le système de fraudes a connaissance du mécanisme de détection de fraudes (modèle, algorithme, architecture, paramètres....)
- dans un second cas, le système de fraudes n'a pas cette connaissance. Il peut alors sonder son comportement en lui transmettant plusieurs transactions frauduleuses ou non frauduleuses et en vérifiant comment celles-ci ont été classifiées par le dispositif de détection de fraudes. Avec un nombre de sondages suffisamment grand, le système de fraudes peut obtenir une bonne compréhension de ce mécanisme.
- Il peut également ne pas chercher à connaître le mécanisme de détection de fraudes qu'il souhaite attaquer mais simplement l'attaquer selon une stratégie qui fonctionne avec la plupart des mécanismes de détection.
Dans le premier cas, appelé "boite blanche" (white box), différentes méthodes existent pour résoudre le problème d’optimisation formulé précédemment. Une méthode classique est la méthode "Fast Gradient Sign Method" (FGSM). Selon cette méthode, une transaction antagoniste xadv(ou "adverse" selon la terminologie anglaise) est générée en ajoutant une perturbation à la transaction x dans la direction du gradient de la fonction de "coût" (ou «loss »en anglais), selon l'expression :
Dans cette équation, e représente l’amplitude de la perturbation et J(x, ytrue) représente le gradient, ou dérivée, sur x de la fonction de coût J (ou «loss function» selon la terminologie anglaise).
Parmi la multitude de fonctions de coût possibles, on peut citer les plus connues : l’erreur quadratique moyenne (ou «Mean Squared Error», MSE, en anglais), l’entropie croisée (ou « cross entropy »), la fonction de coût de Huber, etc.
Par ailleurs, d’autres types d’attaques ont été développés, également.
On peut par exemple citer l’attaque FGSM itérative qui effectue l’attaque FGSM précédemment décrite, ne fois mais avec à chaque itération, une amplitude n fois moindre.
On peut également citer l’attaque MI-FGSM (Momentum Iterative Fast Gradient Sign Method, décrite dans l’article « Boosting Adversarial Attacks with Momentum », arXiv:1710.06081v3, mars 2018, ou encore l’attaque JSMA, décrite dans l’article « The Limitations of Deep Learning in Adversarial Settings », arXiv:1511.07528v1, novembre 2018, ou encore celle décrite dans Nicholas Carlini & David Wagner, « Towards Evaluating the Robustness of Neural Networks », arXiv:1608.04644, mars 2017 ?
L'article "Intriguing properties of neural networks" a démontré que les transactions antagonistes ainsi générées pouvaient être valablement utilisées également dans les deux cas suivants, dits "boîte noire" (black box). Un système de fraude peut dans un premier temps entraîner son propre modèle de substitution (boite blanche), générer des transactions antagonistes puis appliquer ces transactions antagonistes au dispositif de détection de fraudes ciblé.
Les fraudeurs peuvent jouer sur un ou plusieurs paramètres d’une transaction x vers un service. Par exemple, des transactions antagonistes xadvpeuvent être générées à partir d’une transaction x en introduisant une perturbation sur le montant de la transaction, sur sa date et/ou heure, par exemple. Certains paramètres échappent normalement aux capacités des fraudeurs, comme les informations liés à la banque, toutefois, selon les systèmes, des brèches peuvent être possibles et, donc, de telles perturbations envisageables.
Selon un aspect de l'invention, de telles perturbations peuvent être introduites par le mécanisme de détection de fraudes lui-même, afin de générer des exemples antagonistes xadvqui peuvent être utilisés pour entraîner le classifieur 16, le rendant alors plus robuste à des attaques antagonistes.
Les figures 3a et 3b illustrent respectivement l’apprentissage réactif, oureactive training, selon l’état de la technique et l’apprentissage à la fois réactif et proactif selon l’invention. Dans un apprentissage réactif, il est nécessaire que les comportements frauduleux soient présents dans l’ensemble d’apprentissage afin de pouvoir, par la suite, s’en prémunir. Ainsi, chaque transaction de l’ensemble d’apprentissage peut par exemple modifier les poids w, constituant les paramètres du modèle prédictif 16, afin que celui-ci puisse ensuite prédire une nouvelle transaction en deux classes « fraude » et « normal » (ou «genuine», en langue anglaise).
Selon l’apprentissage proactif, ou «proactive training », on dérive les comportements frauduleux, en faisant des suppositions sur le mode opératoire des fraudeurs afin de les introduire dans l’ensemble d’apprentissage. Il n’est alors plus nécessaire que l’ensemble d’apprentissage initial contienne ces comportements frauduleux. Dans l’exemple de la figure 3b, les transactions de l’ensemble d’apprentissage permettent de générer des exemples antagonistes («adversarial attacks») qui peuvent alimenter le mécanisme d’apprentissage classique, c’est-à-dire réactif, afin de modifier les poids w (en des poids w’) du modèle prédictif 16. Celui-ci peut ensuite prédire une nouvelle transaction en deux classes « fraude » et « normal » (ou «genuine», en langue anglaise).
Ces modes opératoires peuvent être intégrés dans le système selon des mécanismes connus et étudiés, ou bien suite à leur détection par d’autres systèmes (cela s’appelle le «transfer learning»).
Autrement dit, l’invention revient à élargir l’ensemble d’apprentissage du classifieur 16 en y intégrant des exemples antagonistes représentatifs des fraudes selon des modes opératoires connus ou déterminés.
Ces modes opératoires de fraude, permettant de générer, ou dériver, un exemple antagonistes à partir d’un exemple de l’ensemble d’apprentissage initial, sont notamment les méthodes de fraude précédemment décrites : FGSM, FGSM itérative, MI-FGSM, JSMA, etc.
La phase d’apprentissage, ou entraînement, du classifieur 16 est réalisée en lui soumettant un ensemble d’exemples de transactions, correctement étiquetées. Ainsi, dans cet ensemble d’exemples xi, on connait la véritable classe yi, c’est-à-dire si la transaction est normale ou frauduleuse, ceci ayant pu être par exemple vérifié par un contrôleur humain. En déterminant la classe f(xi) automatiquement déterminée par un classifieur f, on peut calculer l’erreur en classification pour cet exemple, puis, pour l’ensemble des exemples de l’ensemble de test afin d’estimer la performance du classifieur f.
L’invention se base sur un mécanisme d’apprentissage d’un classifieur f pour la détection de fraudes dans un environnement sujet à des attaques antagoniste.
Selon un mode de réalisation de l’invention, le classifieur f, 16, peut être un ensemble de classifieurs faibles associé à un méta-algorithme de stimulation. L’apprentissage d’un tel classifieur peut être effectué par une répétition itérative pour chacun des classifieurs faibles de l’ensemble constituant le classifieur « global ».
Parmi ces mécanismes de stimulation, on peut citer "Adaboost" qui est extrêmement utilisé. Sa version originale, pour la classification binaire, a été proposée dans Y. Freund, R. Schapire, "A Decision-Theoric Generalization of on-Line Learning and an Application to Boosting", 1995. Une version généralisée pour la classification multi-classes a ensuite été proposée dans Zhu, H. Zou, S. Rosset, T. Hastie, "Multi-class AdaBoost", 2009.
AdaBoost vise à piloter la phase d'apprentissage d'algorithmes de classification automatique de sorte que les sorties de ces algorithmes (appelés classifieurs faibles, ou «weak learner» selon la terminologie anglaise) soient combinées en une somme pondérée qui représente la sortie finale du classifieur stimulé. AdaBoost est adaptatif dans le sens où les classifieurs faibles subséquents sont ajustés en faveur des échantillons mal classés par les classifieurs précédents.
Dans un mode de réalisation basé sur un algorithme tel que « Adaboost », l’apprentissage est effectué par une répétition itérative d’étapes, pour l’ensemble des classifieurs faibles constituant le classifieur « global » 16. Cette répétition forme une boucle 20, ainsi qu’illustré sur la figure 2.
Les classifieurs faibles peuvent être ajoutés jusqu’à stagnation de la valeur de la fonction de coût sur des itérations successives. Généralement, entre 100 et 500 classifieurs faibles peuvent être utilisés, selon la complexité du problème.
Dans la suite, on note htle t-ième classifieur faible constituant le classifieur global H. On note ht(xi) la classe déterminée par le classifieur htpour l’exemple xi.
Une première étape S1 consiste à sélectionner un échantillon d’exemples parmi les exemples de l’ensemble d’apprentissage, en fonction d’un ensemble de probabilités Dt(i) associé à chaque exemple xi.
On note i l’indice de l’exemple xidans l’ensemble des exemples et t est l’indice du classifieur faible dans l’ensemble formé de T classifieurs faibles.
Lors de la première itération, les probabilités peuvent être fixées de façon équiprobable pour l’ensemble des m exemples de l’échantillon : Dt(i)=1/m
Dans une étape S2, on créé (en l’entrainant) un classifieur htqui minimise l’erreur en classification sur l’échantillon sélectionné en étape S1. On note cette erreur pour le classifieur faible ht.
Selon un mode de réalisation, on utilise des réseaux de neurones comme classifieurs faibles. Le choix du type de classifieur faible est conditionné par la méthode de création des exemples antagonistes. On choisit, dans cet exemple, la méthode « FGSM » qui nécessite l’utilisation d’un gradient, ce qui implique d’utiliser un modèle dont le gradient est calculable, ce qui est le cas des réseaux de neurones multicouches (de type perceptrons multicouches).
Dans une étape S3, on détermine un exemple antagoniste pour chacun des exemples dudit échantillon. Cette étape étant indépendante, fonctionnellement, de l’étape S2, elle peut avoir lieu avant celle-ci ou parallèlement. Dans un exemple de réalisation basé sur la méthode « FGSM », les exemples antagonistes peuvent se déterminer à partir des exemples xirespectifs selon l’expression :
La fonction de coût peut être choisie parmi celles précédemment évoquées. L’amplitude de la perturbation possible est un paramètre qui peut être déterminé de façon empirique. Il traduit la capacité du fraudeur à modifier la transaction qu’il souhaite effectuer.
On entraine alors le classifieur faible htsur les exemples antagonistes. Cela revient à modifier la fonction de coût en fonction de la fonction J initiale
Puis, dans une étape S4, on met à jour l’ensemble des probabilités Dt(i) en fonction de l’erreur calculée en étape S2. La probabilité Dt(i) associé à l’exemple xiest également fonction de la classification de cet exemple par le classifieur htet également de la classification de l’exemple antagoniste correspondant, par ce même classifieur faible ht.
On peut ainsi exprimer la mise à jour de cet ensemble de probabilité pour l’itération suivant t+1 par rapport à l’itération courante t par l’expression suivante : dans laquelle
- αtest une valeur qui traduit la qualité prédictive du classifieur faible. Cette valeur peut être calculée par l’expression suivante
- K est le nombre de classe. Dans le cas de la détection de fraudes, on peut fixer K=2, c’est-à-dire que l’on cherche à classer chaque transaction dans une catégorie « fraude » ou dans une catégorie « transaction normale » ;
- Ztest un paramètre de normalisation, de sorte que la somme des probabilités Dt+1(i), pour tout i dans l’intervalle [1, m], est égale à 1.
- γ est un paramètre qui contrôle l’influence des exemples antagonistes dans le processus d’apprentissage. Plus ce paramètre γ est proche de 1, moins ceux-ci sont pris compte. Plus il est proche de 0, et plus on se focalise sur les exemples antagonistes.
- I[ht(xi)=yi] et I[ht(
On peut considérer qu’un aspect de l’invention consiste donc à augmenter l’ensemble d’’apprentissage pour y intégrer des exemples antagonistes dérivées des exemples existants de l’ensemble d’apprentissage. Ainsi, le mécanisme d’apprentissage se base également sur les attaques prévisibles d’un fraudeur et le classifieur global sera mieux adapté pour détecter ces fraudes.
Ces étapes S1-S4 sont itérées pour l’ensemble des classifieurs faibles, c’est-à-dire pour t=1 à t=T. Dans l’exemple illustré en figure 2, on considère une étape S5 consistant à itérer t, puis à tester si t=T ou non. En fonction du résultat de cette comparaison, on soit en reboucle vers l’étape S1, soit en sort de la boucle itérative pour terminer l’algorithme en étape S6.
Dans cette étape S6, on crée le classifieur global à partir des classifieurs faibles précédemment entrainés.
Ce classifieur global H(x) peut se voir comme une combinaison linéaire d’une base de fonctions dont les éléments sont les classifieurs faibles ht. Le coefficient multiplicatif du classifieur faible htest le poids αtqui détermine la qualité prédictive du modèle.
Plus précisément, on peut écrire :
Ce classifieur H(x) tire ainsi profit des avantages du mécanisme d’apprentissage par stimulation, mais comme évoqué précédemment, il prend également en compte des exemples antagonistes qui sont dérivés des exemples de l’ensemble d’apprentissage et viennent ainsi enrichir l’apprentissage du classifieur. Ces exemples antagonistes sont générés à chaque étape de l’algorithme itératif pour les exemples sélectionnés. Ces exemples peuvent être sélectionnés d’après des probabilités recalculées en fonction de l’erreur commise par les classifieurs faibles précédents.
La détermination des exemples antagonistes vient donc renforcer ou élargir l’apprentissage de l’ensemble de classifieurs.
Ainsi, le dispositif de détection de fraude est adapté à la détection des fraudes organisées par l’anticipation, dans son apprentissage, des mécanismes habituels mis en œuvre par les fraudeurs.
Le principe d’entrainement d’un classifieur sur un ensemble composé d’exemples d’apprentissage ainsi que de leurs exemples antagonistes associé peut s’appliquer à n’importe quel autre type de classifieurs.
Claims (10)
- Procédé de détection de fraudes dans un flux de transactions destinées à un service fourni sur un réseau de télécommunication, dans lequel les transactions dudit flux sont soumises à un classifieur configuré pour déterminer si chaque transaction soumise est une transaction normale ou frauduleuse, comprenant une étape d’apprentissage sur un ensemble d’exemples xide transactions, dans lequel ladite étape d’apprentissage comprend la détermination d’un ensemble d’exemples antagonistes à partir desdits exemples d’apprentissage, et l’entrainement dudit classifieur sur ledit ensemble d’exemples de transaction et sur ledit ensemble d’exemples antagonistes.
- Procédé selon la revendication précédente, dans lequel ledit classifieur est composé d’un ensemble de classifieurs faibles, ht, et ladite étape d'apprentissage comprend les étapes suivantes répétées de façon itérative pour l'ensemble desdits classifieurs faibles;
- sélection (S1) d’un échantillon dudit ensemble d’exemples en fonction d’un ensemble de probabilités associées à chaque exemple ;
- création (S2) d'un classifieur faible minimisant une erreur en classification sur cet échantillon ;
- détermination (S3) d’un exemple antagoniste pour chacun des exemples dudit échantillon ;
- mise à jour (S4) dudit ensemble de probabilités en fonction de ladite erreur, la probabilité associée à chacun desdits exemples dudit échantillon étant également fonction de la classification dudit exemple par ledit classifieur faible et de la classification de l'exemple antagoniste associé audit exemple par ledit classifieur faible ;
- Procédé selon l’une des revendications précédentes, dans lequel un exemple antagoniste,
dans laquelle e représente l’amplitude de la perturbation, yireprésente la classe associée à l’exemple xidans ledit ensemble d’apprentissage, et - Procédé selon l’une des revendications 1 à 3, dans lequel ladite mise à jour (S4) dudit ensemble de probabilité Dt(i) est effectuée selon la relation :
dans laquelle- αtest un paramètre de mise à jour qui détermine une amplitude selon laquelle la mise à jour peut être effectuée entre chaque itération
- K est le nombre d’exemples dans ledit ensemble d’apprentissage ;
- Ztest un paramètre de normalisation,
- γ est un paramètre qui contrôle l’influence des exemples antagonistes dans le processus d’apprentissage.
- I[ht(xi)=yi] et I[ht(
- Procédé selon la revendication précédente, dans lequel le paramètre γ est compris entre 0.5 et 0.8.
- Procédé selon l’une des revendications précédentes, dans lequel lesdites probabilités sont initialement fixées de façon équiprobable.
- Procédé selon l’une des revendications précédentes, dans lequel ledit classifieur est créé par combinaison linéaire d’une base de fonctions dont les éléments sont lesdits classifieurs faibles.
- Support de stockage de données lisible par un processeur de données sur lequel est enregistré un programme comprenant des instructions pour l'exécution des étapes d'un procédé selon l'une quelconque des revendications précédente.
- Produit programme d’ordinateur comprenant des instructions pour l’exécution des étapes d’un procédé selon l'une quelconque des revendications 1 à 7, lorsque ledit programme est exécuté par un processeur de données.
- Dispositif de détection de fraudes (14) dans un flux de transactions destinées à un service (11) fourni sur un réseau de télécommunication (12, 15), comportant des moyens configurés pour la mise en œuvre du procédé selon l’une des revendications 1 à 7.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1908804A FR3099614B1 (fr) | 2019-08-01 | 2019-08-01 | Mécanisme de détection de fraudes dans un environnement antagoniste |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR1908804 | 2019-08-01 | ||
FR1908804A FR3099614B1 (fr) | 2019-08-01 | 2019-08-01 | Mécanisme de détection de fraudes dans un environnement antagoniste |
Publications (2)
Publication Number | Publication Date |
---|---|
FR3099614A1 true FR3099614A1 (fr) | 2021-02-05 |
FR3099614B1 FR3099614B1 (fr) | 2021-10-01 |
Family
ID=69699932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR1908804A Active FR3099614B1 (fr) | 2019-08-01 | 2019-08-01 | Mécanisme de détection de fraudes dans un environnement antagoniste |
Country Status (1)
Country | Link |
---|---|
FR (1) | FR3099614B1 (fr) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150039512A1 (en) * | 2014-08-08 | 2015-02-05 | Brighterion, Inc. | Real-time cross-channel fraud protection |
WO2018065629A1 (fr) * | 2016-10-07 | 2018-04-12 | Worldline | Système de détection de fraude dans un flux de données |
US20190188562A1 (en) * | 2017-12-15 | 2019-06-20 | International Business Machines Corporation | Deep Neural Network Hardening Framework |
-
2019
- 2019-08-01 FR FR1908804A patent/FR3099614B1/fr active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150039512A1 (en) * | 2014-08-08 | 2015-02-05 | Brighterion, Inc. | Real-time cross-channel fraud protection |
WO2018065629A1 (fr) * | 2016-10-07 | 2018-04-12 | Worldline | Système de détection de fraude dans un flux de données |
US20190188562A1 (en) * | 2017-12-15 | 2019-06-20 | International Business Machines Corporation | Deep Neural Network Hardening Framework |
Non-Patent Citations (12)
Title |
---|
"Boosting Adversarial Attacks with Momentum", ARXIV: 1710.06081V3, March 2018 (2018-03-01) |
"The Limitations of Deep Learning in Adversarial Settings", ARXIV:1511.07528V1, November 2018 (2018-11-01) |
ANIRBAN CHAKRABORTY ET AL: "Adversarial Attacks and Defences: A Survey", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 28 September 2018 (2018-09-28), XP080922371 * |
ARJUN NITIN BHAGOJI ET AL: "Dimensionality Reduction as a Defense against Evasion Attacks on Machine Learning Classifiers", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 9 April 2017 (2017-04-09), XP080761766 * |
C. SZEGEDYW. ZAREMBAI. SUTSKEVERJ. BRUNAD. ERHANI. GOODFELLOWR. FERGUS: "Intriguing properties of neural networks", ARXIV PREPRINT ARXIV:1312.6199, 2013 |
IAN J GOODFELLOW ET AL: "Explaining and Harnessing Adversarial Examples", 20 March 2015 (2015-03-20), XP055535149, Retrieved from the Internet <URL:https://arxiv.org/pdf/1412.6572.pdf> [retrieved on 20181217] * |
ILIA SHUMAILOV ET AL: "The Taboo Trap: Behavioural Detection of Adversarial Samples", ARXIV.ORG, CORNELL UNIVERSITY LIBRARY, 201 OLIN LIBRARY CORNELL UNIVERSITY ITHACA, NY 14853, 18 November 2018 (2018-11-18), XP081556288 * |
NICHOLAS CARLINIDAVID WAGNER: "Towards Evaluating the Robustness of Neural Networks", ARXIV: 1608.04644, March 2017 (2017-03-01) |
QINGYU GUO ET AL: "Securing the Deep Fraud Detector in Large-Scale E-Commerce Platform via Adversarial Machine Learning Approach", 20190513; 1077952576 - 1077952576, 13 May 2019 (2019-05-13), pages 616 - 626, XP058436456, ISBN: 978-1-4503-6674-8, DOI: 10.1145/3308558.3313533 * |
S. DELECOURTLI GUO: "Building a robust mobile payment fraud détection system with adversarial examples", IEEE ARTIFICIAL INTELLIGENCE AND KNOWLEDGE ENGINEERING, June 2019 (2019-06-01) |
Y. FREUNDR. SCHAPIRE, A DECISION-THEORIC GENERALIZATION OF ON-LINE LEARNING AND AN APPLICATION TO BOOSTING, 1995 |
ZHUH. ZOUS. ROSSETT. HASTIE, MULTI-CLASS ADABOOST, 2009 |
Also Published As
Publication number | Publication date |
---|---|
FR3099614B1 (fr) | 2021-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11677781B2 (en) | Automated device data retrieval and analysis platform | |
US20220114593A1 (en) | Probabilistic anomaly detection in streaming device data | |
US11308497B2 (en) | Detecting fraud using machine-learning | |
FR3069357A1 (fr) | Systeme d'apprentissage machine pour diverses applications informatiques | |
US20190108585A1 (en) | Aggregation based credit decision | |
US11763189B2 (en) | Method for tracking lack of bias of deep learning AI systems | |
WO2019129977A1 (fr) | Detection d'anomalies par une approche combinant apprentissage supervise et non-supervise | |
EP3613003B1 (fr) | Système et procédé pour gérer la détection de fraudes dans un système de transactions financières | |
FR3057378A1 (fr) | Systeme de detection de fraude dans un flux de donnees | |
AU2019204317A1 (en) | Propensity model based optimization | |
US20220116388A1 (en) | Voice vector framework for authenticating user interactions | |
EP0396592B1 (fr) | Dispositif d'analyse d'une transaction informatique | |
FR3062504A1 (fr) | Detection automatique de fraudes dans un flux de transaction de paiement par reseaux de neurones integrant des informations contextuelles | |
FR3048840A1 (fr) | ||
Karki et al. | Using transformers for identification of persuasion principles in phishing emails | |
US12086807B2 (en) | User authentication based on account transaction information in text field | |
FR3099614A1 (fr) | Mécanisme de détection de fraudes dans un environnement antagoniste | |
EP4359982A1 (fr) | Gestion d'apprentissage machine fédéré | |
FR3105489A3 (fr) | Dispositif et procede de detection de fraude | |
CH717742A2 (fr) | Procédé et appareil informatisés de détection de transaction frauduleuse. | |
FR3064095B1 (fr) | Detection par apprentissage automatique d'anomalies dans un ensemble de transactions bancaires par optimisation de la precision moyenne | |
WO2021048245A1 (fr) | Apprentissage en continu pour la détection automatique de fraudes sur un service accessible sur réseau de télécommunication | |
US20240106854A1 (en) | System and method for creating heuristic rules based on received email messages to identity business email compromise attacks | |
EP3889871A1 (fr) | Entrainement de modèles prédictifs pour la détection automatique de fraudes à partir d'ensembles d'apprentissage construits dans des contextes distincts. | |
BE1021030B1 (fr) | Systeme et procede de caracterisation de messages financiers |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PLFP | Fee payment |
Year of fee payment: 2 |
|
PLSC | Publication of the preliminary search report |
Effective date: 20210205 |
|
PLFP | Fee payment |
Year of fee payment: 3 |
|
PLFP | Fee payment |
Year of fee payment: 4 |
|
PLFP | Fee payment |
Year of fee payment: 5 |
|
PLFP | Fee payment |
Year of fee payment: 6 |