FR2848006A1 - Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire - Google Patents

Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire Download PDF

Info

Publication number
FR2848006A1
FR2848006A1 FR0215064A FR0215064A FR2848006A1 FR 2848006 A1 FR2848006 A1 FR 2848006A1 FR 0215064 A FR0215064 A FR 0215064A FR 0215064 A FR0215064 A FR 0215064A FR 2848006 A1 FR2848006 A1 FR 2848006A1
Authority
FR
France
Prior art keywords
alternative
decision
model
criteria
explanation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0215064A
Other languages
English (en)
Inventor
Christophe Labreuche
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thales SA
Original Assignee
Thales SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thales SA filed Critical Thales SA
Priority to FR0215064A priority Critical patent/FR2848006A1/fr
Priority to PCT/EP2003/050879 priority patent/WO2004051562A2/fr
Priority to AU2003298314A priority patent/AU2003298314A1/en
Priority to US10/536,427 priority patent/US7236964B2/en
Priority to EP03796046A priority patent/EP1573668A2/fr
Publication of FR2848006A1 publication Critical patent/FR2848006A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • G06N5/048Fuzzy inferencing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/02Computing arrangements based on specific mathematical models using fuzzy logic

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Computation (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Fuzzy Systems (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)
  • Complex Calculations (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Le procédé conforme à l'invention est un procédé permettant d'expliquer une décision prise par un modèle d'agrégation multicritère compensatoire, selon lequel on établit un modèle d'agrégation multicritère compensatoire unique pour l'application considérée, décrit par un certain nombre de phénomènes et reproduisant une expertise déterminée, et il est caractérisé par le fait que l'on ne fait pas référence dans l'explication aux spécificités du modèle d'agrégation si la décision prise avait été la même en remplaçant le modèle d'agrégation par tout autre modèle proche, que, si tel n'est pas le cas, l'on simplifie le modèle d'agrégation en prenant en compte de moins en moins de phénomènes tant que la décision prise reste la même, et que l'on restitue à l'expert une explication basée uniquement sur les phénomènes de compensation présents dans le modèle le plus simple précédemment déterminé.

Description

<Desc/Clms Page number 1>
Procédé permettant d'expliquer une décision prise par un modèle d'agrégation multicritère compensatoire
La présente invention se rapporte à un procédé permettant d'expliquer une décision prise par un modèle d'agrégation multicritère compensatoire.
Les outils ou méthodes d'aide à la décision reposent sur des modèles mathématiques permettant de représenter la connaissance des experts ou décideurs. Dans le processus global d'aide à la décision, le modèle décisionnel est déterminé par interview avec les experts, puis exécuté pour fournir des préconisations. Il est alors crucial dans cette seconde phase d'exploitation du modèle que les préconisations déterminées au travers du modèle soient expliquées à l'expert.
On se place dans le cadre d'un problème de décision multicritère, c'est-à-dire consistant à modéliser les préférences qu'un expert peut avoir entre différentes alternatives, ces alternatives étant décrites par différents attributs ou points de vue. Le terme alternative est utilisé dans la présente description au sens de l'une des possibilités offertes par un choix. Prendre en compte tous les points de vue en même temps demande de faire des compromis entre les critères bien satisfaits et les critères moins bien satisfaits. Cette recherche de compromis demande l'utilisation de modèles décisionnels compensatoires. Les modèles sont compensatoires dans le sens où des critères bien satisfaits compensent des critères mal satisfaits. Les modèles compensatoires se basent sur l'utilisation d'opérations arithmétiques permettant de combiner des phénomènes élémentaires de décision.
La présente invention se rapporte plus particulièrement à la phase d'exploitation du modèle et en particulier à l'explication des préconisations déterminées au travers du modèle. La difficulté est de générer des explications pertinentes, complètes et qui soient compréhensibles pour l'expert.
<Desc/Clms Page number 2>
Certains logiciels (par exemple Which & Why commercialisé par la société américaine Arlington Software Corp. ) permettent de réaliser des traitements sur le modèle décisionnel une fois qu'il a été déterminé. Ils se concentrent sur une analyse de sensibilité des paramètres du modèle décisionnel. L'expert a la possibilité de constater comment les données (qu'il a fournies pour la détermination des paramètres) sont sensibles à la valeur des paramètres, et inversement d'étudier comment une variation sur les paramètres affecte les comparaisons entre différentes alternatives. Ce faisant, l'expert se persuade de la pertinence du modèle. Il fera ensuite parfaitement confiance à ce modèle, et il l'appliquera donc en toute confiance. Il n'aura pas besoin d'une explication à chaque exécution du modèle.
Toutefois, dans les systèmes d'aide à la décision, l'utilisateur n'est pas forcément l'expert avec qui le modèle a été établi. Il est donc nécessaire de générer une explication dans la phase d'exploitation du modèle. Dans ce cas, les logiciels précédemment mentionnés ne sont pas suffisants et ne répondent à ce problème.
Il existe dans le domaine de l'Intelligence Artificielle un courant concernant l'argumentation. Cela concerne principalement l'agencement de différents arguments (positifs ou négatifs) afin de convaincre un utilisateur. Certains travaux portent sur l'explication d'un modèle d'agrégation compensatoire du type somme pondérée (cf. J. Montmain, A.
Akharraz, G. Mauris Knowledge management as a support for collective decision-making and argumentation processes IPMU 2002, pp. 91-98,
Annecy, France). Leur méthode consiste uniquement à générer, parmi l'ensemble des termes présents dans le modèle d'agrégation, les k termes de plus grand module, où k est directement lié au degré de précision souhaité par l'expert (par exemple, k=1 si l'expert ne souhaite que très peu d'information). L'argumentation ainsi générée ne fait que redonner plus ou moins de termes présents dans la fonction d'agrégation.
La complexité de l'argumentation (le nombre k de termes utilisés) dépend
<Desc/Clms Page number 3>
uniquement du souhait de l'expert, alors qu'elle devrait dépendre de la marge que l'on a sur la décision prise. En effet, si la décision est prise sans conteste, ce n'est pas la peine de s'étendre sur l'explication. A l'opposé, si la décision est prise de justesse, l'argumentation devra être plus fournie. De plus, aucune analyse des facteurs qui sont réellement à l'origine de la décision prise n'est faite dans cette méthode. Cette approche est estimée largement insuffisante pour fournir une explication pertinente et satisfaisante pour un expert.
La présente invention a pour objet un procédé permettant d'expliquer une décision prise par un modèle d'agrégation multicritère compensatoire, pour lequel la complexité de l'argumentation soit fonction de la façon dont est prise la décision, les explications devant être pertinentes et satisfaisantes pour l'utilisateur et pour l'expert.
Le procédé conforme à l'invention est un procédé permettant d'expliquer à un utilisateur une décision prise à l'aide d'un modèle d'agrégation multicritère compensatoire, selon lequel on établit un modèle d'agrégation multicritère compensatoire unique pour l'application considérée, décrit par un certain nombre de phénomènes et reproduisant une expertise déterminée, et selon une première caractéristique de l'invention, l'on ne fait pas référence dans l'explication aux spécificités du modèle d'agrégation si la décision prise avait été la même en remplaçant le modèle d'agrégation par tout autre modèle proche, que, si tel n'est pas le cas, l'on simplifie de plus en plus le modèle d'agrégation en prenant en compte de moins en moins de phénomènes tant que la décision prise reste la même, et l'on restitue alors à l'utilisateur une explication basée uniquement sur les phénomènes de compensation présents dans le modèle le plus simple précédemment déterminé.
Selon une deuxième caractéristique de l'invention, l'explication à fournir pour le modèle simplifié s'obtient par comparaison avec un modèle
<Desc/Clms Page number 4>
d'agrégation encore plus simple mais amenant à une décision non conforme au modèle unique.
Selon une troisième caractéristique de l'invention, la décision consiste à choisir une alternative parmi deux, puis on évalue le modèle pour ces deux alternatives, le résultat de la décision étant de choisir l'alternative de plus fort score, et l'on explique cette décision.
Selon une quatrième caractéristique de l'invention, le modèle d'agrégation comporte plusieurs niveaux de simplification emboîtés et représentés par une suite de fonctions de comparaison M1,...,MP entre les deux alternatives, la fonction M ' comporte tous les phénomènes de compensation présents dans Mi-1 plus d'autres, la fonction Mpreprésente la comparaison avec le modèle d'agrégation initial et comporte l'ensemble des phénomènes de compensation possibles, la fonction M1 ne comporte aucun phénomène de compensation spécifique au modèle d'agrégation, si M1 fournit la même décision que le modèle d'agrégation, l'explication à fournir ne fait pas référence aux spécificités du modèle d'agrégation, et dans le cas contraire, l'explication se base sur la fonction Mq telle que Mq fournit la même décision que le modèle d'agrégation et les fonctions de comparaison précédentes M1,..., M q-1 fournissent la décision opposée.
Selon une cinquième caractéristique de l'invention, l'explication de la décision prise par la fonction de comparaison M q se fait par comparaison avec une fonction de comparaison Mj, avec j<q, plus simplifiée mais fournissant la mauvaise décision, les phénomènes de compensation utilisés dans l'explication sont ceux contenus dans M q mais non contenus dans Mj, et pour déterminer parmi ces phénomènes ceux qui ont vraiment compté dans la décision prise, on rajoute progressivement des comportements à Mjusqu'à ce que la décision prise soit conforme au modèle unique.
<Desc/Clms Page number 5>
Selon une sixième caractéristique de l'invention, le modèle d'agrégation correspond à une somme pondérée ou une intégrale de Choquet 2-additive.
Selon une septième caractéristique de l'invention, il y a quatre fonctions de comparaison, la première fonction de comparaison M1 indique qu'une alternative est préférée à une seconde si la première alternative est meilleure que la seconde suivant tous les critères, la deuxième fonction de comparaison M2 correspond à la comparaison par une moyenne arithmétique, la troisième fonction de comparaison M3 ne contient que les phénomènes d'importance des critères, la quatrième fonction de comparaison M4 contient l'ensemble des phénomènes d'importance et d'interaction entre critères, si la première fonction de comparaison donnant la décision conforme au modèle unique est M3, alors on détermine les phénomènes à mettre dans l'explication par comparaison avec M2, et si la première fonction de comparaison donnant la décision conforme au modèle unique est M4, alors on détermine les phénomènes de compensation à inclure dans l'explication par comparaison avec M2.
Selon une huitième caractéristique de l'invention, la décision à prendre consiste à évaluer une alternative, à évaluer le modèle pour cette alternative et à expliquer cette évaluation.
Selon une neuvième caractéristique de l'invention, l'ensemble des évaluations est découpé en 2m+1 niveaux ordonnés N~m, ..., No, ..., Nm, le niveau N~m est le plus mauvais, le niveau No est moyen, c'est-à-dire ni bon ni mauvais, Nm est le meilleur niveau, chaque niveau est caractérisé par une valeur minimale et une valeur maximale, on détermine pour l'alternative le niveau Nk correspondant à son évaluation par le modèle, on explique pourquoi l'alternative est préférée à une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du
<Desc/Clms Page number 6>
niveau Nk en appliquant l'une des caractéristiques 2 à 7, et l'on explique pourquoi l'alternative est moins bien préférée à une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau Nk en appliquant l'une des caractéristiques 2 à 7.
Selon une dixième caractéristique de l'invention, lorsque k>0, l'on indique que l'alternative est Nk en appliquant l'une des caractéristiques 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau Nk, et l'on indique que l'alternative n'est pas Nk+1 en appliquant l'une des caractéristiques 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau Nk.
Selon une onzième caractéristique de l'invention, lorsque k<0, l'on indique que l'alternative est Nk en appliquant l'une des caractéristiques 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau Nk, et l'on indique que l'alternative n'est pas Nk-1 en appliquant l'une des caractéristiques 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau Nk.
Selon une douzième caractéristique de l'invention, lorsque k=0, l'on indique que l'alternative n'est pas N1 en appliquant l'une des l'une des caractéristiques 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau No, et l'on indique que l'alternative n'est pas
N-1 en appliquant l'une des l'une des caractéristiques 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau No.
<Desc/Clms Page number 7>
La présente invention sera mieux comprise à la lecture de la description détaillée d'un mode de mise en oeuvre, pris à titre d'exemple non limitatif et illustré par le dessin annexé, sur lequel : - la figure 1 est un diagramme d'un exemple classique de modélisation par des ensembles flous permettant d'expliquer le degré d'appartenance à un niveau d'une alternative, - la figure 2 est une représentation par un ensemble non flou de l'exemple de la figure 1, et - la figure 3 est un diagramme simplifié de description d'un exemple applicatif auquel se réfère l'invention.
Deux problèmes sont traités ici : l'explication de la comparaison entre deux alternatives, et l'explication du score global d'une alternative.
L'approche selon l'invention consiste à simplifier le modèle décisionnel tant que la décision prise reste la même. Cela permet de déterminer les phénomènes élémentaires de décision qui sont réellement à l'origine de la décision prise. De manière plus précise, l'invention propose, à partir des phénomènes élémentaires composant le modèle décisionnel, une suite de modèles comportant de plus en plus de phénomènes élémentaires. Le premier n'en comporte aucun et le dernier les comporte tous. On cherche alors le plus petit modèle amenant à la même décision que le modèle complet. Ainsi, lors de la génération des explications, on ne se basera que sur les phénomènes élémentaires dans ce plus petit modèle. Cette approche est directement appliquée pour générer l'explication de la comparaison entre deux alternatives. Concernant l'explication du score global d'une alternative, on se ramène à deux comparaisons entre alternatives, par découpage de l'ensemble des scores possibles en une partition de niveaux (par exemple Très Bon, Bon, Moyen, Mauvais, Très Mauvais). Après détermination du niveau auquel appartient l'alternative, les deux comparaisons consistent à expliquer pourquoi l'alternative n'appartient ni au niveau juste supérieur, ni au niveau juste inférieur. Par
<Desc/Clms Page number 8>
exemple, pour une alternative x qui est jugée Bonne, on veut expliquer pourquoi x n'est ni Moyen, ni Très Bon.
On décrit maintenant rapidement la théorie de la décision multicritère.
Il s'agit de modéliser la relation de préférence notée - que les experts peuvent avoir sur les alternatives. L'aspect multicritère provient du fait que les alternatives sont décrites par différents points de vue à prendre en compte. Plus précisément, nous proposons d'utiliser la théorie de l'utilité multi-attribut (R.L. Keeney and H. Raiffa, Décision with Multiple Objectives , Wiley, New York, 1976). Il s'agit de modéliser la relation de préférence sur les résultats des élèves par une utilité globale (score
Figure img00080001

global) : y>x # U(y)>~ZI(x) A chaque alternative x, est donc associée une utilité globale U(x) qui traduit le degré de préférence que l'expert accorde à x. Pour décrire la théorie de l'utilité multi-attribut, on suppose que l'on dispose de n points de vue X1 ,..., X" décrivant les différents aspects à prendre en compte pour évaluer un élève. La fonction d'utilité globale U est prise sous la forme suivante :
Figure img00080002

U(x)= F(u(x),...,u,,(x,,)) où F est la fonction d'agrégation et les u, sont les fonctions d'utilité. Les n points de vue étant donnés dans des unités de mesure différentes, les fonctions d'utilité servent à passer à une échelle unique C de commensurabilité. Les fonctions d'utilité servent donc à pouvoir comparer des valeurs données suivant différents points de vue. L'échelle C est un intervalle de R (typiquement C=[0,1]). Le nombre u,(x,) correspond au degré de satisfaction que l'expert accorde à l'alternative concernant uniquement le point de vue X,. La fonction d'agrégation F agrège donc les degrés de satisfaction d'une alternative suivant les différents points de vue, et retourne le degré de satisfaction global. On rappelle qu'une fonction F de [0,1]" dans [0,1] est dite d'agrégation si elle satisfait deux propriétés élémentaires : croissance (si pour tout i on a yi#xi, alors F(y)>F(x)) et compensation (c'est à dire min, y, <F(y) <max, y,).
<Desc/Clms Page number 9>
our déterminer entièrement le modèle, on passe par les deux phases jivantes : o Phase 1 : Formalisation des critères. Un certain nombre de logiciels permettent de déterminer les fonctions d'utilité u, ( Expert Choice , Critérium Decision Plus , MACBETH poids ).
# Phase 2 : Détermination de la fonction d'agrégation : De nombreux logiciels et techniques permettent de déterminer la fonction d'agrégation F lorsque cette dernière est une somme pondérée : Expert Choice , Critérium Decision Plus , MACBETH côtes , TOPSIS , DESCRIPTOR . La restriction à une somme pondérée ne permet pas de modéliser les stratégies un peu fines de décision.
Pour pallier cela, l'intégrale de Choquet (G. Choquet, Theory of capacities , Annales de l'Institut Fourier, No 3, PP. 131-295, 1953) a été introduite comme fonction d'agrégation. Elle permet de modéliser l'importance des critères, l'interaction entre critères et les stratégies typiques de décision (veto, faveur, tolérance, intolérance) (M. Grabisch, The application of fuzzy integrals in multicriteria decision making ,
Europ. J. of Operationnal Research, No 89, PP. 445-456, 1996).
Plusieurs méthodes permettent de déterminer les paramètres de l'intégrale de Choquet à partir de données d'apprentissage fournies par l'expert : on peut mentionner une méthode heuristique (M. Grabisch, A new algorithm for identifying fuzzy measures and its application to pattern recignition , dans Int. Fuzzy Engeneering Symposium, PP 145-150,
Yokohama, Japan, 1995), et une méthode linéaire (J. L. Marichal, M.
Roubens, Dependence between criteria and multple criteria decision
Figure img00090001

aid , dans 2"d lnt. Workshop on Préférences and Decisions, PP. 69-75, Trento, Italy, 1998).
La description ci-dessus concerne le cas où tous les points de vue sont agrégés au même niveau. Néanmoins, lorsque le nombre de points de vue devient assez important, on réalise dans la pratique plusieurs
<Desc/Clms Page number 10>
niveaux d'agrégation en cascade. Dans ce cas, on génère une explication en cascade à chaque niveau, en commençant par le niveau le plus haut.
Une fois que le modèle décisionnel est déterminé, les deux problèmes traités se décrivent sous la forme suivante : expliquer pourquoi une alternative y est meilleure qu'une alternative x d'après le modèle, c'est à dire U(x)<U(y), et expliquer le score global U (x) d'une alternative x d'après le modèle.
On décrit maintenant plus précisément un cas particulier de l'intégrale de Choquet connnu sous le nom d'intégrale de Choquet 2-additive. Bien entendu, cette fonction d'agrégation multicritère n'est pas la seule possible dans le cadre de l'invention. On suppose que l'on dispose de n critères que l'on désire synthétiser pour obtenir une évaluation globale. On suppose que ces critères sont déjà rendus commensurables grâce à l'introduction de fonctions d'utilité. Autrement dit, les scores suivant chaque critère sont donnés directement dans l'intervalle [0,1] des nombres compris entre 0 et 1. Tout autre intervalle est parfaitement envisageable. On aurait pu aussi bien prendre n'importe quelle intervalle de R. Ces scores correspondent à un degré de satisfaction. Par exemple, le score 0,6 correspond à un degré de satisfaction plutôt bon. On note x, le score de l'action x suivant le critère i. Le score x, correspond au degré de satisfaction de l'alternative x concernant le point de vue N i. La large majorité des modèles d'agrégation utilisés dans la pratique correspondent à une somme pondérée :
Figure img00100001

F(x) = a1X1+...+anxn où chaque coefficient a, est compris entre 0 et 1, et leur somme vaut 1 : a1+...+an =1. Le coefficient a; représente l'importance du critère i dans l'évaluation globale. La condition a1+...+an =1 implique que H(t,...t)=t pour tout nombre t. Si le nombre t correspond par exemple au niveau bon (typiquement t=0. 7), cette relation signifie qu'une alternative qui est jugée bonne suivant tous les critères est jugée globalement bonne. Ceci traduit l'idée de commensurabilité.
<Desc/Clms Page number 11>
La somme pondérée est la fonction d'agrégation compensatoire la plus simple. Elle ne permet de modéliser que l'importance relative des critères entre eux. D'autres phénomènes très importants sont aussi présents dans l'agrégation de critères. Il s'agit principalement de l'interaction entre critères. Il y a deux types d'interaction. Le premier type d'interaction est dit positif et correspond à un expert intolérant. Ce dernier est satisfait si plusieurs critères sont satisfaits en même temps. Il ne veut pas qu'il y ait de points faibles. Cette manière d'agréger correspond à la fonction min : le score global est le plus petit parmi les scores. Le second type d'interaction est dit négatif et correspond à un expert tolérant. Pour qu'il soit satisfait, il suffit qu'un seul critère soit bien satisfait. Cela n'apporte rien d'être bon suivant plusieurs critères en même temps. Cette manière d'agréger correspond à la fonction max : le score global est le plus grand parmi les scores. Ces deux attitudes de tolérance et d'intolérance sont extrêmes. La plupart des cas correspondent à une combinaison d'attitudes de ce type appliquée à un sous-ensemble de critères. En se limitant à des interactions entre couples de critères, on obtient :
Figure img00110001

F(x) = a1X1+...+anxn + bl,2Min(x,,X2)+...+b,-,,,min(x,-,,Xn) + Cl,2maX(X1,X2)+...+Cn-l,nmaXXn~l,Xn) où chaque coefficient est compris entre 0 et 1, et leur somme vaut 1 : a+...+an - b1,2-I-...-bn-1,n'" C1,2+...+Cn-i,n=1. On peut montrer que l'expression précédente s'écrit sous la forme suivante F(x)=Ei vi # Xj - E{i.j) 1 X-Xj 1;I2. Dans cette expression, le terme 1 xI-x] 1/2 correspond à l'interaction entre les critères i et j. Le signe de li donne le type d'interaction, positive ou négative. Ce type d'opérateur d'agrégation est appelé intégrale de Choquet 2-additive. On le notera C2 dans la suite. Il est bien sûr possible d'utiliser des opérateurs d'agrégation plus complexes comme par exemple l'intégrale de Choquet générale.
Selon le principe général du procédé de l'invention, on désire expliquer les décisions et les choix issus de la fonction d'agrégation F. Les alternatives sont supposées décrites directement par leurs performances
<Desc/Clms Page number 12>
Figure img00120001

suivant les n critères à prendre en compte. On note X=(X1,...,Xn) une telle alternative. Il s'agit de fournir à un expert une explication écrite qui soit comprise par l'expert et qui le convainque. Elle doit donc être la plus simple possible afin de ne pas noyer l'expert. Elle doit toutefois être complète et refléter ce qui a réellement été à l'origine de la décision prise. On s'intéresse aux deux problèmes suivants : # Expliquer pourquoi x < y, c'est à dire F(x) < F(y).
# Expliquer le score F(x) d'une alternative x.
Le traitement du second problème se fera en le ramenant au premier cas.
Expliquer pourquoi x < y, c'est à dire F(x) < F(y)
On commence par décrire les principes généraux que l'on propose pour expliquer pourquoi x < y, c'est à dire F(x) < F(y).
Le procédé de l'invention se base sur les trois principes suivants : # Le premier principe est que ce n'est pas forcément la peine de faire référence aux spécificités de la fonction d'agrégation si la décision prise avait été la même en remplaçant l'opérateur d'agrégation par une grande variété d'autres opérateurs d'agrégation.
# On a vu précédemment que l'intégrale de Choquet 2-additive s'écrit comme une combinaison d'attitudes particulières, typiques de décisions (tolérance, intolérance,...). Toute fonction d'agrégation compensatoire peut se décomposer sous cette forme, c'est-à-dire sous la forme d'une somme convexe d'attitudes typiques de décision.
On se base en grande partie sur cette décomposition. Il ne faut pas pour autant faire référence dans l'explication à l'ensemble des phénomènes. Afin de ne pas noyer l'expert, l'idée est de mentionner uniquement les arguments déterminants ayant réellement contribué à la prise de décision. Le second principe est donc que l'on simplifie l'opérateur d'agrégation (en prenant en compte de moins en moins de phénomènes) tant que la décision prise reste la même. Cela permet de déterminer les phénomènes de décision qui sont réellement à l'origine de la décision prise.
<Desc/Clms Page number 13>
# Le troisième principe est que l'explication est déterminée par comparaison entre deux fonctions d'agrégation fournissant des décisions opposées. On cherche alors à savoir ce qui fait pencher la décision en faveur d'une alternative. On appliquera ce principe à différents opérateurs et à différentes alternatives.
L'ensemble des phénomènes de décision modélisés par F sont regroupés en sous-ensembles emboîtés. Cela amène à définir p niveaux de complexité croissante comportant de plus en plus de phénomènes de décision. A chaque niveau, on doit spécifier si x est préféré ou non à y. Afin que l'exposé soit le plus général possible, les comparaisons sont réalisées au travers de fonctions dites de comparaison. Cela fournit une
Figure img00130001

suite de fonctions de comparaison M1k(x,y),..., M pk(x,y) entre x et y. M ik(x,y) représente la famille N i indicée par k décrivant l'ensemble des phénomènes possibles au niveau i. Le signe de M ik(x,y) indique si la décision prise, en ne prenant en compte que la famille N i de phénomènes, est la même ou non qu'avec F. Si M 'k(x,y)<0, alors la décision prise est la même que F. Au fur et à mesure que i croît, Mik(x,y) comporte de plus en plus de phénomènes. On a Mpk(x,y) = F(x)-F(y).
Lorsque pour tout i, on a xi<yi, alors n'importe quelle fonction d'agrégation indiquera que y est préféré à x. Ce n'est donc pas la peine dans ce cas d'invoquer les spécificités de l'opérateur d'agrégation F pour expliquer la décision prise. On applique ici le premier principe. Cela
Figure img00130002

amène à prendre pour la première approximation M1 dx,y)=miniE{1,...,n} (x, y,). On a en effet M1 k(X, y) <0 si pour tout i, on a x,<y,.
Le second principe indique que, dans l'explication, on remplace F par l'approximation la plus simple fournissant la même décision, c'est-à-dire
Figure img00130003

le plus petit i tel que M\(x,y)>0,..., M i-1dx,y)() et M k(x,y)<0 . Le troisième principe consiste alors à expliquer pourquoi M 'k(x,y)<0 alors
Figure img00130004

que Mk(x,y)>0, poury</, fournissent des décision opposées. On ne prend pas toujours j=i-1.
<Desc/Clms Page number 14>
De façon résumée, selon l'invention, on calcule l'indice i pour lequel
Figure img00140001

M'k(x,y)>0,..., M]'\(x,y)>0 et M'k(x,y)<0. Si Í=1, alors il suffit d'indiquer que la décision est triviale puisque tous les scores de y sont meilleurs que
Figure img00140002

ceux de x. Si />1, alors on explique pourquoi M k(x,y)<0 alors que M 'k(x,y)>0, pour j<i. On se base alors sur les phénomènes élémentaires présents au niveau i et absents au niveau j. On peut aussi éventuellement expliquer pourquoi M jk(x,y)#0 en appliquant le procédé d'explication récursivement à Mjk.
Selon ce procédé, la complexité de l'explication générée dépend naturellement de la marge que l'on a sur la décision prise (la décision a-telle été prise de peu ou non ?).
Expliquer le score F(x) d'une alternative x
On désire maintenant expliquer le score global de x, c'est-à-dire expliquer pourquoi F (x) une certaine valeur a. Il n'y a aucun intérêt à expliquer la valeur exacte de a. Par contre, un expert souhaite savoir pourquoi a est jugé plutôt mauvais, plutôt bon ou moyen. On veut donc expliquer pourquoi a appartient à un certain niveau flou. On suppose que l'on dispose de 2m+1 niveaux flous: N~m, ..., No,..., Nm. Le niveau N~m est le plus mauvais (TRÈS MAUVAIS), No est moyen (ni bon ni mauvais) et Nm est le meilleur niveau (TRÈS BON). Dans la théorie des ensembles flous, il est classique de modéliser de tels niveaux par des ensembles flous (cf. Figure 1, sur laquelle on a représenté cinq ensemble flous, allant de très mauvais à très bon ). Afin d'éviter l'utilisation de modificateurs linguistiques (qui sont inévitables pour caractériser les valeurs intermédiaires entre deux ensembles flous) qui rajouteraient une complexité supplémentaire dans l'explication, on représente chaque niveau linguistique par un ensemble non flou: Ni = ] mi , M, ]. Les niveaux linguistiques forment un pavage si l'on suppose que pour tout i, M, = mi+1. Cela correspond à la Figure 2, sur laquelle on a représenté les cinq
<Desc/Clms Page number 15>
ensembles non flous correspondant à ceux de la figure 1. N'importe quel score appartient alors à un unique niveau avec un degré 1.
Connaissant a, on détermine tout d'abord le niveau flou correspondant, c'est-à-dire l'entier iE{-p,...,p} tel que [alpha]#] m, , M, ]. Expliquer pourquoi a est N, (c'est à dire que a appartient à N,) revient à montrer pourquoi a n'est ni Ni+1 (c'est à dire a < m,+i ) ni NI-1 (c'est à dire
Figure img00150001

a > Me ) . On veut donc expliquer pourquoi a < M, et a > m; . Autrement dit, en utilisant la propriété que F(t,...,t)=t pour tout t, on se ramène à ce qui est exposé ci-dessous à propos de la détermination de la première ou de la seconde solution pour l'explication d'une comparaison entre deux alternatives, en expliquant pourquoi x < (M,, ..., M,) et pourquoi x > (m,, ..., m,), où (t,...,t) est l'alternative qui vaut t suivant tous les critères.
Le principe de l'explication est alors le suivant : on commence par donner la tendance générale ( plutôt bon ou plutôt mauvais ), puis on affine.
# Si i>0, on commence par expliquer pourquoi a est plutôt bon. En utilisant l'argumentation de l'explication de x > (m,, ..., m,), l'explication à fournir est : x est N, puisque ...
Ensuite, il faut expliquer pourquoi a n'est pas excellent, si a ne l'est pas déjà. Donc si i<p, en utilisant l'argumentation de l'explication de x < (M,, Mi), le second volet de l'explication est donc : x n'est pas NI+1 puisque ... # Si i<0, on commence par expliquer pourquoi a est plutôt mauvais. En utilisant l'argumentation de l'explication de x < (M,, ..., M,), l'explication à fournir est : x est N, puisque ...
Ensuite, il faut ensuite expliquer pourquoi a n'est pas parfaitement nul, si a ne l'est pas déjà. Donc si i>-p, en utilisant l'argumentation de
<Desc/Clms Page number 16>
l'explication de x > (m,, ..., m,), le second volet de l'explication est donc : x n'est pas Ni-1 puisque ... # Lorsque i=0, on explique pourquoi a n'est ni bon ni mauvais. En utilisant l'argumentation de l'explication de x < (M,, ..., M,), l'explication à fournir est : x n'est pas N1 puisque ...
En utilisant l'argumentation de l'explication de x > (m,, mi), le second volet de l'explication est donc : x n'est pas N~1 puisque ...
On va décrire par la suite deux solutions concrètes dans le cas où F est l'intégrale de Choquet 2-additive. D'après le procédé qui vient d'être décrit, il suffit d'expliciter l'explication pour une comparaison entre deux alternatives, l'explication du score global s'en déduisant.
Détermination d'une première solution pour l'explication d'une comparaison entre deux alternatives.
On va détailler ici une première solution pour l'explication d'une comparaison entre deux alternatives, dans le cas où F est l'intégrale de Choquet 2-additive. Conformément l'approche générale décrite, il faut définir une série emboîtée d'approximations de C2 . :
Figure img00160001

La première approximation est M1 '/f(x,yj=min,e(...,n; (Xi-y). On a M'k(x,y)<0 si pour tout i, on a x,<y,.
La seconde approximation est /,)=5(x)-S(y), où S est la moyenne arithmétique, c'est à dire S(x)=(x1+...+xn)/n .
La troisième approximation est M'\(x,y)= C1[j{x)-C1ij{y), où C'r est une somme pondérée. La fonction C1 ne fait intervenir que les
Figure img00160002

phénomènes d'importance des critères. On a ClfJ(X)=.Lï v; x, . Les indices k matérialisent donc les phénomènes d'importance des critères.
<Desc/Clms Page number 17>
Figure img00170001

#La dernière approximation est Mk(x,y)= C2P(X)-C2P(Y). Il s'agit donc du modèle décisionnel complet. Les phénomènes d'importance des critères, et d'interaction entre couples de critères sont modélisés. Les indices k matérialisent donc les phénomènes d'importance et d'interaction.
Conformément au procédé général décrit précédemment, on détermine la plus petite approximation amenant à la même décision que C2 . On va exposer maintenant l'explication à fournir dans chaque cas.
Figure img00170002
Cas où xi<yi pour tout i , c'est-à-dire où M'k(x,y)<0 : On a Mlk(x,y)<0 si pour tout i, on a x,<y;. Dans ce cas, n'importe quelle fonction d'agrégation indiquera que y est préféré à x. Ce n'est donc pas la peine dans ce cas d'invoquer les spécificités de l'opérateur d'agrégation C2 pour expliquer la décision prise. On applique ici le premier principe.
L'explication à fournir est donc simplement la suivante : y est préféré à x puisque TOUS les scores de y sont meilleurs que ceux de x.
Figure img00170003

Cas où S(x)<S(y) mais 3i tel que x;>y; , c'est-à-dire où M2,x, y)<D et M1k (x,y)#0:
Lorsque certains critères de x sont mieux satisfaits que ceux de y, et vice versa, on doit faire référence un minimum à une fonction d'agrégation pour expliquer le score. Le premier opérateur d'agrégation qui vient à l'esprit est la moyenne arithmétique. Il s'agit de l'opérateur d'agrégation que l'on utiliserait en l'absence d'information : tousles critères ont la même importance, et il n'y a pas d'interaction particulière entre les critères. Lorsque S(x)<S(y), il peut être suffisant de dire que x est en moyenne moins bon que y pour expliquer x<y. On applique ici les deux premiers principes. L'explication à fournir est alors la suivante : y est préféré à x puisque les scores de y sont en moyenne meilleurs que ceux de x.
<Desc/Clms Page number 18>
Figure img00180001

Cas où C1J1(X}<C1J1(Y} mais S(x)>S(y), c'est à dire où lVlklx,y)<0, rJ2tlx, v):?O et M\(x,v)>0\ Lorsque C'N(x)<C'N(y), on utilise d'après le second principe la fonction d'agrégation C1 dans l'explication. On suppose ici que S(x)>S(y).
Figure img00180002

Lorsque C'p(x)<C'p(y) mais que S(x)>S(y), on sent intuitivement que les critères pour lesquels y est meilleur que x sont plus importants en moyenne que les critères pour lesquels x est meilleur que y. Il s'agit ici d'appliquer le troisième principe.
Pour trouver parmi les coefficients v, ceux qui ont réellement compté dans la décision, on utilise encore une fois le second principe. Plus précisément, on remplace progressivement les poids v, par 1/n tant que la décision prise reste la même. Soit N={1,...,n} l'ensemble des critères.
Figure img00180003
Pour AcN, on définit C,/4= x, + Lf!A x,ln. Soit donc S2={ AcN, C1fj,A(x) < C1u,A(y)}. L'ensemble .0 regroupe donc tous les sousensembles de phénomènes d'importance de critères amenant à la même décision que C2, . On a 0{l:.o et NE S2.
On pose le lemme suivant : Lemme 1 : SoitA##. On note p le nombre d'éléments de A.
Alors il existe au moins un n-p uplet de critères distincts deux à
Figure img00180004

deux notés Cl,...,Cn-p tels que AV{C1}ES2, AV{C1,C2}ESZ, ..., AJ{C1,...,Cn~P}ESZ et AU{C1,...,Cn-p}=N.
Ce lemme est très important puisqu'il donne une justification du remplacement de C1 par C1 ,A dans l'explication. En effet, il indique que l'on a :
Figure img00180005

C1fj,A(x) < C1iu,A(y) , Clf.!,Au{C1}(X) < Clf.!,Au{C1}(Y), C'r,A{C1,C2}(x) < C'N,Av{c,c2}(Y) , ... C'p,A{c1, ... C"~p} (x) = C1ij(x) < C'N(YJ = C'p,A{c 1, ... cn~P} (Y)
Par conséquent, le lemme précédent prouve que l'on peut passer progressivement de l'opérateur C1 à l'opérateur C1 @A (en conservant tout
<Desc/Clms Page number 19>
le temps la même décision prise), en ne modifiant qu'un seul poids à la fois.
Figure img00190001

On peut alors remplacer C1 J1 par Clp,A dans l'explication à fournir.
Afin de simplifier l'explication, on cherche donc les coalitions AeQ de plus petite cardinalité. On cherche donc les A## minimaux au sens de
Figure img00190002

l'inclusion. Il s'agit des coalitions AE SZ telles que Vie A, A1{i} 52,. Comme le montre le lemme suivant, de telles coalitions satisfont des propriétés intéressantes :
Figure img00190003

Lemme 2: Soit AES2 minimal. Alors nécessairement, x,<yi pour tout i#A tel que v,>1/n, et x,>y, pour tout i#A tel que v,<1/n.
Autrement dit, si A## est minimal, alors les critères de A pour lesquels y est meilleur que x sont importants (i.e. v,>1/n), alors que les critères de A pour lesquels x est meilleur que y sont peu importants (i.e. v,<1/n). On retrouve donc exactement l'intuition donnée ci-dessus. Le lemme précédent est essentiel car il permet de générer une explication complète et très simple.
Figure img00190004
Soit !'"={ie N, x,>y,} et r={J6 N, x,<y,}.
Si A n I- :;t:0, alors l'explication à fournir est : Bien que x soit en moyenne meilleur que y, y est quand même préféré à x puisque y est meilleur que x sur les critères A # l- qui sont importants, alors que y est moins bon que x sur les critères A n l+ qui sont peu importants .
# Si A n l- =0, alors l'explication à fournir est : y est préféré à x puisque les critères A n l+ sur lesquels x est meilleur que y sont peu importants, et ne compensent pas le fait que y est en moyenne meilleur que x sur les autres critères.
Figure img00190005

Cas où C2N (x)<C2r (y) mais C1J.1 (X)1fJ (y) et S(x)>S(y), c'est-à-dire où k(X,V<0, M'3Ilx,v)(), M2k(x, y)->O et M\(x,v)>0\ On suppose ici que C2 (x)<C2 (y) mais que C1J1 (x)> C1fJ (y) et S(x) >S(y). On a dJ1(X)=, vi x. - {i,i) 1 xI-x] 1. 1,/2. Le fait que C1J.1 (x)> C1J1 (y) ne nous amène pas à baser l'explication uniquement sur les phénomènes
<Desc/Clms Page number 20>
d'interaction. En effet, les phénomènes d'importance ont aussi compté dans la décision prise, mais ils n'ont pas été suffisants. On veut donc expliquer,
Figure img00200001

d'après le troisième principe, pourquoi C2p (x)<C2p (y) alors que 5(x) 25(y).
Comme précédemment, afin de simplifier au maximum l'explication, on désire enlever certaines interactions et remplacer certains vi par 1/n. On notera encore A les critères pour lesquels on garde les termes d'importance
Figure img00200002

v,. L'ensemble N"={ {i,j}E NxN, ij} fournit l'ensemble des couples d'indices pouvant apparaître dans les termes d'interaction. On note A* les termes d'interaction qui sont conservés. Pour AçN, on définit v,=v, si iEA et v*j=1/n si i A. Pour A"cN", on définit /'IJ=IIJ si {i,j}eA" et rv=0 si {i,j} Ak. Les coefficients v'i et l'ij correspondent aux nouveaux coefficients d'importance et d'interaction.
Les coefficients d'importance v", et les coefficients d'interaction l*ij doivent satisfaire certaines conditions. Ce sont les conditions dites de monotonie . Ces conditions sont équivalentes au fait que la fonction d'agrégation correspondante est croissante. Ces conditions s'écrivent sous la
Figure img00200003

forme : Vie N, v', + Yi,, l$,l2 > D pour toutes les combinaisons possibles de + et de -. Le lemme suivant donne des conditions pour lesquelles la monotonie est vérifiée.
Lemme 3 : SiAcN et A*#N* vérifient la condition
Figure img00200004

{i,jlcz A* => iE A et je A alors la mesure 2-additive formée des v*i et des l*ij est monotone.
On supposera par la suite que cette condition est satisfaite.
On définit alors :
Figure img00200005

d;,A,A '(x) = El v, x, - I{I,j} 1 xI-X 1 ris/2 = 16A VI x, + l'''A yin I{I,j)6A* 1 -Xi I ' In2 .
Soit donc : S2'={ AxAçNxN%, C2p,A,A'(x) < C2p ,A,A'(y) et {i,j}e A => i,jE A }.
<Desc/Clms Page number 21>
Il s'agit des ensembles d'importance et d'interaction amenant à la
Figure img00210001

même décision que C7. On a (C,) S2 et (N,N')E S2*. Comme précédemment, on s'intéresse aux éléments minimaux de #*. Le lemme suivant donne des propriétés intéressantes satisfaites par de tels éléments.
Figure img00210002
Lemme 4: Soit (A,A')E S2' minimal. Alors o I, > 0 pour tout {i,j}E A' tel que 1 x/-À} 1> 1 Y-jj o !,J < 0 pour tout li,j)cz A tel que xyz ! < ! 1 Yd'i o diE Anl+, on a v,-1/n < I).{!,))6A* (lx-x1 yiYi 1 )/(x-y,). 11f12 o ViEAnl-, on a v,-1/n > Xj,{i,j}6a* (1 x,-xjl -\yr Yj 1 )/(x-y,). Ilj/2 Comme les phénomènes d'interaction sont déterminants pour expliquer la
Figure img00210003

décision prise, on s'intéresse aux (A,AX)ES2' minimaux dans S2 tels que A ';t0. Soit D+ ={ {i,j}eN*, /## > 0} et D*1" ={ {i,nE W, IiI < 01. Soit D- ={iEN, v,>1/n} et D+ ={i#N, v,<1/n}. Tous les termes d'interaction de A* sont utilisés dans l'explication. Par contre, on n'utilise pas forcément tous les termes d'importance de A dans l'explication. D'après le lemme 3, certains termes d'importance ne sont présents dans A que pour satisfaire à la condition de monotonie. Ils n'ont pas réellement compté dans la décision prise. En conséquence, on ne mentionne dans l'explication que les termes d'importance satisfaisant les conditions du lemme 2. Autrement dit, on ne mentionne dans l'explication que les termes d'importance appartenant soit à Anl-n D+ soit à Anl-n D+. L'explication à fournir est la suivante : y est préféré à x puisque l'interaction est positive sur les couples A*# D@+ pour lesquels l'écart sur les scores de x est supérieur à ceux sur les scores de y, l'interaction est négative sur les couples A*n D*' pour lesquels l'écart sur les scores de x est inférieur à ceux sur les scores de y, x est moins bon que y sur les critères Anl-n D+ qui sont
<Desc/Clms Page number 22>
importants, et x est meilleur que y sur les critères Anl-n D+ qui sont peu importants.
Pour rendre l'explication plus convaincante au sujet des termes d'interaction, on propose de reprendre les résultats du lemme 4. Soit {i,j}e A*
Figure img00220001

tel que IIJ> 0. Alors d'après le lemme 4, on a 1 xI-X 1> 1 YI-JI 1. On suppose par exemple que x, > xj. Alors l'explication à fournir sur un terme d'interaction positive est : ... le score de x sur le critère i est pénalisé par un plus mauvais score suivant le critère j(les critères i et jdoivent être satisfaits tous les deux) ...
On considère maintenant le cas des interactions négatives. Soit {i,j}E
Figure img00220002

A' tel que 1,, < 0. Alors d'après le lemme 4, on a 1 x,-x, 1 < 1 YI-JI 1. On suppose par exemple que y, < yj. Alors, l'explication à fournir sur un terme d'interaction négative est : ... le score de y sur le critère i a été sauvé par un meilleur score sur le critère (il suffit de satisfaire l'un des deux critères /ou y) ...
L'explication ainsi générée ne présuppose aucune connaissance de l'utilisateur sur les phénomènes d'interaction et est facilement compréhensible.
Figure img00220003
On suppose que A'n Df'+ ~ {(ll,J1),...,(Ip,Jp)} et A'n D" = ki,il),...,(kq,iq)l avec x, > xi ,...,x,p > Xp et yk, < Y,1 ,..., yk4 < ylq. L'explication à fournir est donc la suivante : y est préféré à x puisque le score de x sur le critère j1 est pénalisé par un plus mauvais score suivant le critère j1 (les critères il et ji doivent être satisfaits tous les deux), ... , le score de x sur le critère ip est pénalisé par un plus mauvais score suivant le critère jp (les critères ip et jp doivent être satisfaits tous les deux), le score de y sur le critère k1 a été sauvé par un meilleur score sur le critère Il (il suffit de satisfaire l'un des deux critères k1 ou Il ),... , le score de y sur le critère kq a été sauvé par un meilleur score sur le critère lq (il suffit de
<Desc/Clms Page number 23>
satisfaire l'un des deux critères kq ou lq), x est moins bon que y sur les critères Anl-n D+ qui sont importants, et x est meilleur que y sur les critères Anl-n D+ qui sont peu importants.
Détermination d'une seconde solution pour l'explication d'une comparaison entre deux alternatives :
On va maintenant détailler une seconde solution pour l'explication d'une comparaison entre deux alternatives, dans le cas où F est l'intégrale de Choquet 2-additive. La méthode décrite dans la section précédente mérite d'être raffinée. Par exemple, il n'est pas toujours suffisant de dire que y est préféré à x puisque les scores de y sont en moyenne meilleurs que ceux de x dès que la moyenne arithmétique fournit la même décision que C2 . D'autre part, il peut être opportun de ne remplacer C2 par une fonction d'agrégation plus simple que si la décision prise avec ces deux fonctions d'agrégation est certes la même mais, de plus, est grosso modo aussi tranchée.
Il n'est plus aussi facile d'expliciter les fonctions de comparaisons M 'k(x,y) que précédemment. La plupart du temps, on ne spécifiera pas ces fonctions. On donnera uniquement les conditions sous lesquelles on a M
Figure img00230001

'k(x, y)<0 et M'k(x,Y)D.
Algorithme général
Les différentes constantes # données plus bas sont des nombres compris entre 0 et 1 (typiquement 0.3).
Cas 1: Lorsque Vie N, xi < y;, on utilise ce qui se trouve dans la section ci-dessus traitant du cas où x,<y, pour tout i.
Cas 2 : Lorsqueles trois fonctions d'agrégation S, C1 et C2 fournissent la même décision et que ces décision prises sont très tranchées, alors un grand nombre de fonctions d'agrégation fourniront la
Figure img00230002

même décision. Par des arguments de continuité, si C1 J.1(x) < C1 J.1(Y) alors il existe une multitude poids , proches de v (v étant les indices
Figure img00230003

d'importance) fournissant la même décision que C1g c'est à dire L, /.." Xi < Si A., y, . Pour être plus précis, on se place dans l'ensemble 9\n des poids
<Desc/Clms Page number 24>
possibles. On peut alors montrer qu'il existe dans Rn une boule de centre
Figure img00240001

v et de rayon C 1/,(Y)-C',(x) composée uniquement de poids 1 pour 1 ,x - y} 1, (XI -Y,)2 lesquels la décision prise est la même qu'avec C1 . Plus le rayon de cette boule est important, moins il est nécessaire de mentionner les spécificités des fonctions d'agrégation dans l'explication. Ceci est valable aussi pour S et C2 . Autrement dit, lorsque
Figure img00240002

alors on n'utilise aucun phénomène particulier de l'opérateur d'agrégation pour expliquer la décision prise. La condition précédente
Figure img00240003

est la condition permettant d'avoir lVhk(x,y)<0. L'explication à fournir est donc la suivante : y est préféré à x puisque les scores de y sont en moyenne meilleurs que ceux de x. Cas 3 : LorsqueC1 fournit la bonne décision et que la décision prise
Figure img00240004

avec C1fJ est quasiment aussi tranchée qu'avec C2r, alors on n'utilise dans l'explication que les termes d'importance. Autrement dit, on
Figure img00240005

remplace d fJ par C1 fJ uniquement lorsque les décisions prises par ces deux opérateurs sont relativement similaires. La condition demandant que C1 soit quasiment aussi tranchée qu'avec C2 se décompose en deux parties. Tout d'abord, il faut préciser que la décision prise avec C1 ne doit pas être largement plus tranchée qu'avec C2 . Ceci peut se
Figure img00240006

traduire par l'inégalité : C1fJ(x) - C1fJ(Y) > i2 (C2N(x) - Cffjiy) ). Ensuite, la décision prise avec C2,u ne doit pas être largement plus tranchée qu'avec C1 fJ. Ceci peut être traduit par l'inégalité : C2N(x) - C2P(Y) > T4 ( C1 fJ(x) C1 fJ(Y) ). La condition finale de remplacement de C2r par C1 fJ est donc : C1fJ(x) < C1fJ(Y) et C1fJ(x) - C1fJ(Y) > i2 (C2p(X) ~ dfJ(Y) ) et C2P(X) - C2P(Y) > 't4 ( C1 fJ(x) - C1 fJ(Y) ).
<Desc/Clms Page number 25>
Figure img00250001

C'est la condition pour avoir M'3k(x,y)<0.
Ce cas 3 comporte quatre sous-cas :
Cas 3a: Ici, on suppose que la moyenne arithmétique donne la même décision que C1 mais que la décision est plus tranchée avec C1 qu'avec la moyenne arithmétique. Ceci signifie que
Figure img00250002

C1 fJ(x) - C1 fJ(Y) S(x)-S(y) <~ 0. On obtient donc les conditions suivantes : 5(x) < S(y) et C1 fJ(x) < C1 fJ(Y) et C1 fJ(x) - C1 fJ(Y) < (1 ±Ci) (S(x)- S(y)).
Figure img00250003

C'est la condition pour avoir M3ak(x,y)<0. On utilise alors les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 3a.
Cas 3b: Ici, on suppose que la décision est moins tranchée avec l'opérateur de Shapley qu'avec la moyenne arithmétique.
Figure img00250004

Autrement dit, S(x)-S(y) C1fJ(x) - C1fJ(Y) < 0. On obtient donc les conditions suivantes : S(x) < S(y) et C1fJ(x) < C1fJ(Y) et S(x)-S(y) < (1-nn) (C'u(x) - C1 (y) ).
Figure img00250005

C'est la condition pour avoir M3bk(x,y)<0. On utilise alors alors les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 3b.
Cas 3c: Ici, on suppose que la décision est aussi tranchée avec l'opérateur de Shapley qu'avec la moyenne arithmétique.
Figure img00250006

Autrement dit, C1 fJ(x) - C1 fJ(y) = S(x)-S(y) < 0. On obtient les conditions suivantes : S(x) bzz S(y) et C1 fJ(x) < C1 fJ(y) et C(x) - C1 fJ(y) (1 ±ci) (S(x)S(y)) et S(x)-S(Y) '- (1+xi) (C1 fJ(x) - C1 fJ(y) ).
<Desc/Clms Page number 26>
Figure img00260001

C'est la condition pour avoir Nl k(x,y)<0. On utilise alors alors les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 3c.
Figure img00260002

Cas 3d: Lorsque S(x) > S(y) et e1fJ(x) < e1p(y), alors la décision n'est pas la même avec l'opérateur de Shapley qu'avec la moyenne arithmétique. C'est la condition pour avoir
Figure img00260003

M3k(x,y)<0. On utilise alors ce qui a été exposé ci-dessus dans la description du cas où e1 fJ(x)<e1 fJ(y) mais S(x)>S(y)
Lorsque, dans les cas 3a, 3b et 3c, on tombe dans une situation dans laquelle l'explication n'est pas parfaitement intuitive, alors on doit utiliser une autre explication. On peut alors avoir recours à des termes d'interaction, et donc on se reporte au cas 5 suivant. Il est aussi envisageable d'utiliser une méthode joker ne se servant que des termes d'importance. Cette méthode peut consister à baser l'explication sur les termes de plus grand module, le nombre de termes considérés étant déterminé de manière dynamique en fonction de la marge sur la décision prise. On peut alors générer un texte similaire à ce qui est généré dans les autres cas.
Cas 4 : Sil'on ne se trouve dans aucun des cas précédents, alors il faut faire référence aux interactions ainsi qu'aux importances. Lorsque l'on se trouve ici, c'est principalement par ce que le cas précédent a échoué. Voici la contraposée de la condition d'applicabilité du cas précédent :
Figure img00260004

e1 fJ(x) e1 p(y) , ou e1 fJ(x) - e1 fJ(Y) S 't2 (d p(x) - d fJ(Y) ) ou C2N(x) - C2u(Y) T4 ( C1 fJ(x) - e1 fJ(Y) ).
C'est la condition pour avoir Mk(x,y)<0. On remarquera que l'on peut aussi avoir à remplacera et #4 par #0, conformément à ce qui a été dit précédemment. o Cas 4a : Dansle premier cas, on suppose que S et C2 conduisent à des décisions prises différentes et que C1 (x) -
<Desc/Clms Page number 27>
Figure img00270001

c1jJ(Y) est compris entre S(x)-S(y) et C2p(x) - C2p(y). La condition S(x)>S(y) signifie que S et C2 conduisent à des décisions prises différentes. La condition :
Figure img00270002

(Clp(X) - Clp(y ~ (S(x)-S(y)) X [ (C1N(x) - Clp(y ~ (C2p(X) - C2p(y ] < 0. signifie que C1 p(x) - C1 p(y) est compris entre S(x)-S(y) et C2N{x) - C2N(y) . Autrement dit, le terme C1p(x) - C1p(y) ne sert à rien et peut être oublié dans l'explication. Il suffit de se baser sur la comparaison entre S et C2 . On se place donc dans les conditions suivantes :
S(x)>S(y) et
Figure img00270003

[ (C1 p(x) - C1 p(y)) - (S(x)-S(y)) ] x [ (C1 p(x) - C1 p(y)) - (C2p(X) - C2p(y ] < o.
C'est la condition pour avoir Niak(x,y)<0. On a alors deux cas: Si S(x)-S(y) < C2N(x) - C2N(y) , alors la décision prise avec la moyenne arithmétique est la bonne et est plus tranchée qu'avec le modèle 2-additif. L'explication de
Figure img00270004

la relation S(x)-S(y) < G'N(x) - C2p(y) atténue l'explication de S(x)-S(y) < 0. L'explication à fournir est donc : y est préféré à x puisque y est en moyenne meilleur que x. Ceci a été partiellement atténué par le fait que ... où ... contient l'explication de la relation
Figure img00270005

S(x)-S(y) < Cp(X) ~ N(Y) - Si C2p(x) - C2p(y) < 0 < S(x)-S(y) , alors la moyenne arithmétique et le modèle 2-additif donnent des décisions opposées. L'explication à fournir est donc :
<Desc/Clms Page number 28>
Bien que y soit en moyenne moins bon que x, y est quand même préféré à x puisque ...... où ... contient l'explication de la relation
Figure img00280001

S(x)-S(y) < C2p(X) ~ C2p(y).
Les détails de la méthode utilisée dans ce cas se trouvent dans les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 4a.
Cas 4b : considère tous les cas non traités précédemment.
Figure img00280002
- Si e1 fJ(x) - e1 fJ(Y) < C2p(x) - C2(y) < 0, alors la décision prise avec l'opérateur de Shapley est plus tranchée qu'avec le modèle 2-additif. On commence
Figure img00280003

alors par expliquer pourquoi e1 fJ(x) - e1 fJ(Y) < 0. On utilise alors ce qui a été fait dans le cas 3. Ensuite, il faut expliquer pourquoi le modèle 2-additif donne une décision moins tranchée. L'explication à fournir est donc : y est préféré à x puisque .... Ceci a été partiellement atténué par le fait que ... où les premiers ... contiennent l'explication de la
Figure img00280004

relation e1 fJ(x) - e1 fJ(Y) < 0, et les seconds ... contiennent l'explication de la relation C1jj{x) e1fJ(Y) < C2p(x) - C2r(y). L'explication de la relation e1 fJ(x) - e1 fJ(Y) < d fJ(x) - C(y) est décrite plus précisément dans les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 4b.
Figure img00280005
- Si C(x) - C2r(y) < e1fJ(x) - e1fJ(Y) < 0, alors la décision prise avec l'opérateur de Shapley est moins tranchée qu'avec le modèle 2-additif. On commence
<Desc/Clms Page number 29>
par expliquer pourquoi le modèle 2-additif donne une décision plus tranchée que l'opérateur de Shapley.
Figure img00290001

Comme e1 J.1(x) - C1jj{y) < 0, l'opérateur de Shapley va globalement dans la même direction que le modèle 2-additif, c'est à dire que y est préféré à x.
Figure img00290002

Ainsi, l'explication de e1J.1(x) - e1J.1(Y) < 0, bien que modérant un peu la décision prise par le modèle 2additif, est présentée comme un point qui va dans le même sens que le modèle 2-additif. L'explication à fournir est donc : y est préféré à x puisque .... Ceci a été accentué par le fait que ... où les premiers ... contiennent l'explication de la
Figure img00290003

relation C(x) - cf J.1(y) < C1fj{x) - e1 J.1(y) , et les seconds ... contiennent l'explication de la relation e1 J.1(x) - e1 J.1(y) < 0. L'explication de la relation C2N{x) - cfJ.1(y) < C1/j(x) - C1/j(y) est décrit plus précisément dans les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 4b.
Figure img00290004

Si cfJ.1(x) - cfJ.1(y) < 0 < e1J.1(x) - e1J.1(Y) , alors la décision prise avec l'opérateur de Shapley est contraire à celle prise par le modèle 2-additif. On commence par expliquer pourquoi le modèle 2-additif donne une décision opposée à celle de l'opérateur de Shapley.
Figure img00290005
Comme e1J.1(x) - C1jj{y) > 0, l'explication de la décision prise par l'opérateur de Shapley va dans la direction opposée à celle du modèle 2-additif. Ainsi,
Figure img00290006

l'explication de e1 J.1(x) - e1 J.1(y) > 0 est donnée
<Desc/Clms Page number 30>
comme atténuant un peu la décision prise par le modèle 2-additif. L'explication à fournir est donc : y est préféré à x puisque .... Ceci a été partiellement atténué par le fait que ... où les premiers ... contiennent l'explication de la
Figure img00300001

relation C2p(X) ~ C2r(y) < C1fJ(x) - C1fJ(Y), et les seconds ... contiennent l'explication de la relation C1 fJ(x) - C1 fJ(Y) > 0. L'explication de la relation C2p(x) - C2p(y) < C1 fJ(x) - C1 fJ(Y) est décrite plus précisément dans les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas
4b.
On va décrire maintenant de façon plus détaillée les différents souscas des cas 3 et 4.
Figure img00300002
Sous-cas 3a : C1 f.J(x) - C1 f.J(y) S(x)-S(y) < 0 Lorsque S(x) < S(y) et C1fJ(x) < C1fJ(Y) et C1fJ(x) - C1fJ(Y) < (1+ii) (S(x)-S(y)), alors la décision est plus tranchée avec l'opérateur de Shapley qu'avec la moyenne arithmétique. On désire expliquer pourquoi la décision est plus tranchée avec l'opérateur de Shapley qu'avec la moyenne
Figure img00300003

arithmétique. Soit T)=[(C1fJ(X)-C1fJ(Y)) + (S(x)-S(y))]/2. On a ri<0. On veut expliquer en utilisant les principes développés dans le cas où C1 fJ(x)<C1 fJ(Y) mais S(x)>S(y), pourquoi C1fJ(X)-C1fJ(Y)< rl et 5(x)-S(y)>T). Dans le même esprit que ce qui a été fait dans ces conclusions, soit : S2={ AçN, C1 .A(x-T)) < C1 .A(y)}.
On a 0\l Q et NE Q. On peut alors remplacer C1 fJpar C1 .Adans l'explication à fournir. Afin de simplifier l'explication, on cherche donc les coalitions A## de plus petite cardinalité. De manière similaire à ce qui a été exposé au lemme 2, on a le résultat suivant :
Figure img00300004

Lemme 5: Soit AE Q minimal. Alors nécessairement, x-Y<T) pour tout iE A tel que v;> 1/n, et X-Y>TJ pour tout iE A tel que v1<1/n.
<Desc/Clms Page number 31>
Figure img00310001

Soit 1\,={iE A, XI-Y>11} et - ={ieA, x,-y,<ill. Afin de fournir une explication simple à comprendre, on désire, conformément au lemme 2, ne mentionner que les critères importants appartenant à l- et les critères peu importants appartenant à l+. D'après le lemme 5, si i#A est important
Figure img00310002

(v,>1/n), alors iE 1-11' Comme il<O, cela implique que iE 1-. Par contre, si i est peu important, on n'a pas forcément i# l+. On a donc les cas suivants: # Si A n 1-il ##, alors l'explication à fournir est : y est préféré à x puisque y est en moyenne meilleur que x .
Ceci a été amplifié par le fait que y est meilleur que x sur les critères A n l-# qui sont importants, alors que y est moins bon que x sur les critères A n l+ qui sont peu importants.
Figure img00310003

Si A n 1-11 =0 et A n 1+ *0, alors l'explication à fournir est : y est préféré à x puisque les critères A n l+ sur lesquels x est meilleur que ysont peu importants, et ne compensent pas le fait que y est en moyenne meilleur que x sur les autres critères.
Figure img00310004

Si A n 1-ri =0 et A n I+ =0, alors Aç 1+,,\ F. L'utilisation des critères de A fournirait une explication peu intuitive. Une autre méthode doit être utilisée ici. On peut utiliser à cet effet la méthode alternative décrite plus loin pour générer des arguments pour l'explication d'une comparaison entre deux alternatives.
Figure img00310005
Sous-cas 3b : S(x)-S(y) e1 J1(x) - e1 J1(y) < 0 Lorsque S(x) S(y) et C1p(x) < C1p(y) et S(x)-S(y) < (1+ti) (C1p(x) - C1 (y) ), la décision est moins tranchée avec l'opérateur de Shapley qu'avec la moyenne arithmétique. On désire expliquer ceci. Soit
Figure img00310006

11=[( C1 p(x)-C1 p(y)) + (S(x)-S(y))]/2. On a il<O. On veut expliquer en utilisant les principes développés dans le cas où C1 p(x)<C1 p(y) mais S(x)>S(y), pourquoi C1p(X)-C1p(y il et (S(x)-S(y)<il. Dans le même esprit que ce qui a été fait dans le cas où C1 J(x)<C1 p(y) mais S(x)>S(y), on a : S2={ AçN, C1J.!A(y) < C1J.!A(x-11)}.
<Desc/Clms Page number 32>
Figure img00320001

On a 0!2Ô Q et NeQ. On peut alors remplacer C1 jJ par C1 .A dans l'explication à fournir. Afin de simplifier l'explication, on cherche donc les coalitions A## de plus petite cardinalité. De manière similaire à celle exposée au lemme 2, on a le résultat suivant : Lemme 6 : SoitA## minimal. Alors nécessairement, xi-yi>#
Figure img00320002

pour tout iEA tel que v,>1/n, et x,-y,<-q pour tout iEA tel que v,<1/n.
Soit I+,={iE A, x,-y<Y}} et r" ={iE A, x,-y,>,nl. On procède grosso modo comme dans la section précédente:
Figure img00320003

Si A cc 1+11\ 1+, alors au moins l'un des deux ensembles A n I- ou A n l+ est non vide. Dans l'explication, on écarte les indices appartenant à l+#\ l+. L'explication à fournir est : y est préféré à x puisque y est en moyenne meilleur que x.
Ceci a été partiellement atténué par le fait que x est meilleur que y sur les critères A # l+ qui sont importants, alors que y est meilleur que x sur les critères A n l-# qui sont peu importants. # Si A c l+#\ l+ l'utilisation des critères de A fournirait une explication peu intuitive. Une autre méthode doit être utilisée ici. On peut utiliser à cet effet la méthode alternative décrite plus loin pour générer des arguments pour l'explication d'une comparaison entre deux alternatives.
Figure img00320004
- Sous-cas 3c : C1 J1(x) - C1 J1(y) "" S(x)-S(y) < 0 Lorsque C1jJ(x) C1jj{y), ou C1jJ(x) - C'(y) 5 i2 (C2r(x) - C2p(y) ) ou C2p(x) - C2p(y) :9 'rua ( C1 jJ(x) - C1 jJ(Y) ) S(x) S(y) et C1 fJ(x) < C1 fJ(Y) et C1 jJ(x) - C1 jJ(Y) < (1+i1) (S(x)-S(y)), alors la décision est aussi tranchée avec l'opérateur de Shapley qu'avec la moyenne. On ne peut plus utiliser ici la méthode consistant à baser l'explication sur une comparaison avec la moyenne arithmétique. La solution est alors de remplacer la moyenne arithmétique par une fonction d'agrégation de référence. Il va s'agir d'une autre somme pondérée. On note ()) les nouveaux poids de référence.
<Desc/Clms Page number 33>
Figure img00330001
,=a si x,>y; , ,=B si x,<y, et 1=1/n si x,=yi Soit 11=C\/(X)-C1 fJ(Y). On note : n+= 1 l' 1 , n-= 11- l , Ixyl+= [ liE 1+ Ix,-yJ ] 1 n+ et Ixyl-= [ l'EI- Ix,-y,l ] / n- .
On note S(x) Il IX1. On cherche a et p de telle sorte que 7-j ,=1 et S(x) - S#(y) = - #. Cela donne : n+ a + n- ss = (n+ + n-)/n et n+ Ixyl+ a - n- Ixyl- ss = - #.
On obtient : a =[- # + #xy#- (n+ + n-)/n ] [ n+ (Ixyl++Ixyl- ) ] ss = [# + Ixyl+ (n+ + n-)/n ] / [ n- (Ixyl++Ixyl-) ] On a le résultat suivant : Lemme 7 : a a,pe[0,1] si et seulement si Ixyl+ (n+ + n-)/n#-#,
Figure img00330002

Pour AçN, on définit C1f-!cf!A(x) =1,,A VI XI + 2Ii!A i X . Dans le même esprit que ce qui a été fait dans le cas où C1fJ(X)<C1fJ(Y) mais S(x)>S(y) , on a: S2={ AçN, C1f-!cf!A(x) < C1f-!A(y)}.
On a oye Q et Ne puisque C1 fJ(x) - C1 fJ(y) = ri<0 et S(x) - S())(y) = - ri>0. On peut alors remplacer C1jjpar C1 f-!cf!A dans l'explication à fournir. Afin de simplifier l'explication, on cherche donc les coalitions A## de plus petite cardinalité. De manière similaire à celle exposée au lemme 2, on a le résultat suivant : Lemme 8 : SoitA## minimal. Alors nécessairement, x,<y, pour
Figure img00330003

tout iEA tel que v,>P, et x,>y, pour tout iEA tel que vi x.
Afin de pouvoir interpréter les relations vi>ss et vi<[alpha], on a le lemme suivant :
Lemme 9 : Sous la condition S(x) - S(y) < - #, on a a>1/n et P<1/n.
Comme S(x) - S(y) < 0 < - #, on a a>1/n et ss<1/n. Ainsi, les critères satisfaisant v1>ss ne sont pas nécessairement importants (vi>1/n). De même, les critères satisfaisant vi>[alpha] ne sont pas nécessairement peu importants (v,<1/n). Afin de fournir une explication simple à comprendre, on désire,
<Desc/Clms Page number 34>
conformément au lemme 2, ne mentionner que les critères importants appartenant à l- et les critères peu importants appartenant à l+. On pose donc :
Figure img00340001

D={iE N, v,>1/n} et D-={iE N, v,<1/n} .
On a donc les cas suivants: # Si A n l-# D+ ##, alors l'explication à fournir est : y est préféré à x puisque y est meilleur que x sur les critères
A n l-# D+ qui sont importants, alors que y est moins bon que xsur les critères A#l+#D- qui sont peu importants.
Figure img00340002

#Si A n I-n 0+ =0 et A n 1+ n D- *0, alors l'explication à fournir est : y est préféré à x puisque les critères A n l+# D- sur lesquels x est meilleur que y sont peu importants, et ne compensent pas le fait que y est en moyenne meilleur que x sur les autres critères. # Si A n l- n D+ =0 et A n l+ n D- =0, alors l'utilisation des critères de
A fournirait une explication peu intuitive. Une autre méthode doit être utilisée ici. On peut utiliser à cet effet la méthode alternative décrite plus loin pour générer des arguments pour l'explication d'une comparaison entre deux alternatives.
Sous-cas 4a
Figure img00340003

On se trouve dans l'un des deux cas suivants : S(x)-S(y) < G'(x) - G'N(y) < 0 ou GN(x) - G'r(y) < 0 < S(x)-S(y). On définit : l1=[(dp(x)-dp(y)) + (S(x)-S(y))]/2 si S(x)-S(y) < C2p(x) - C(y) < 0
Figure img00340004

11=0 si C2p(X) ~ G'2N(Y) < 0 < S(x)-S(y). et :
Figure img00340005

E = -1 si S(x)-S(y) < Cp(x) - G(y) < 0 e = 1 si C2 (x)- C2 (y) < 0 < S(x)-S(y).
<Desc/Clms Page number 35>
Figure img00350001

Avec ces notations, on a : 8 (c1p(x-ll) - C2p(y < 0 et E (S(x-T))-5(y) )) > 0. On veut donc expliquer cette différence de signe. De manière similaire à ce qui vient d'être exposé ci-dessus pour le sous-cas 3a, on définit :
Figure img00350002

Q'={ AxA'çNxNM, e (c1u,A,A'(x-ll) - c1p,A,A'(y)) < 0 et {i,j}e A* i,jE A }.
On a (0,O)e2' et (N,N')EE2'. Comme précédemment, on s'intéresse aux éléments minimaux de #-/-. On a des propriétés similaires à celles du lemme 4. L'explication à fournir est donc similaire à ce qui a été fait dans
Figure img00350003

l'exposé du cas où c1p (x)<C2ij (y) mais C'r (X);?C1p (y) et S(x)>S(y) On suppose que A'n D'@' = {(i1,h),...,(ip,jp)} et A*n D*,- {(k1,11),...,(kq,lq)} avec xi > x!i ,...,x,p > x,p et Yk1 < YI1,..., Yxq < yq.
Lorsque = 1, l'explication est la suivante : Bien que y soit en moyenne moins bon que x, y est quand même préféré à x puisque le score de x sur le critère il est pénalisé par un plus mauvais score suivant le critère j1 (les critères i1 et ji doivent être satisfaits tous les deux), ... , le score de x sur le critère ip est pénalisé par un plus mauvais score suivant le critère jp (les critères ip et jp doivent être satisfaits tous les deux), le score de y sur le critère k1 a été sauvé par un meilleur score sur le critère l1 (il suffit de satisfaire l'un des deux critères k1 ou !, ),... , le score de y sur le critère kq a été sauvé par un meilleur score sur le critère lq (il suffit de satisfaire l'un des deux critères kq ou lq), x est moins bon que y sur les critères Anl-n D+ qui sont importants, et x est meilleur que y sur les critères Anl-n D+ qui sont peu importants. Lorsque # = -1, l'explication est la suivante : y est préféré à x puisque y est en moyenne meilleur que x.
Ceci a été partiellement compensé par le fait que le score de x sur le critère il est pénalisé par un plus mauvais score suivant le critère // (les critères i1 et j1 doivent être satisfaits tous les
<Desc/Clms Page number 36>
deux),... , le score de x sur le critère ip est pénalisé par un plus mauvais score suivant le critère jp (les critères ip et jp doivent être satisfaits tous les deux), le score de y sur le critère k1 a été sauvé par un meilleur score sur le critère Il (il suffit de satisfaire l'un des deux critères k1 ou l1 ), ... , le score de y sur le critère kq a été sauvé par un meilleur score sur le critère lq (il suffit de satisfaire l'un des deux critères kq ou lq), x est moins bon que y sur les critères Anl-n D+ qui sont importants, et x est meilleur que y sur les critères Anl-n D+ qui sont peu importants. Sous-cas 4b :
Figure img00360001

On se trouve dans l'un des trois cas suivants : C1/j{x) - C1/j{y) < dJ.1(x) - dJ.1(Y) < 0, dJ.1(x) - dJ.1(Y) < e1J.1(x) - e1J.1(Y) < 0 ou C2h(x) - C2N(y) <0 < e1 J.1(x) - e1 J.1(y). On se limite ici à expliquer la comparaison entre e1 J.1 et dJ.1. On définit : r=[( d J.1(x)-d J.1(y)) + (e1 J.1(x) - C1N(Y))2 si e1 J.1(x) - e1 J.1(y) ::; 0 #=0 sinon. et :
Figure img00360002

8 = -1 si e1 J.1(x) - e1 J.1(y) < d J.1(x) - d J.1(y) e= 1 sinon.
Avec ces notations, on a :
Figure img00360003

8 (dJ.1(x-r) - dJ.1(Y)) < 0 et s (e1fJ(x-r) - e1fJ(Y) )) > 0.
On veut donc expliquer cette différence de signe. De manière similaire à celle exposée ci-dessus pour le sous-cas 3c, on définit :
Figure img00360004

C2p, A -(x) = 'EN V, Xi - 7-(ij),FA* 1 XI-X 1-/j/2 . Tous les coefficients d'importance sont conservés. On cherche donc à déterminer les termes d'interaction qui sont à l'origine de la décision prise. Comme tous les termes d'importance sont présents, on n'a pas de problème de monotonie de la mesure floue (cf. lemme 3). Soit :
Figure img00360005

S2={ A.cN, e (C2N,A(x-l) - GN,A'(Y ) < 0 }.
<Desc/Clms Page number 37>
On a ###* et N*##*. Comme précédemment, on s'intéresse aux éléments minimaux de #*. On a des propriétés similaires à celles du lemme 4. L'explication à fournir est donc similaire à ce qui a été fait dans le cas où
Figure img00370001

C2r (x)<C2p (y) mais e1fl (X) 1fl (y) et S(x)>S(y). On suppose que An Du = {(i1,h),... , (ip,Jp)} et A'n D'- = {(k1,/1),...,(kq,/q)} avec xi > Xl1 ,... ,xp > x,p et Yk1 <Yl1 ' '" ykq < ylq.
Lorsque e1 f.1(x) - e1 fl(Y) < C2N(x} - C21(y) < 0, on doit expliquer pourquoi le modèle 2-additif donne une décision moins tranchée que C1 .
Cela donne l'explication suivante : y est préféré à x puisque .... Ceci a été partiellement compensé par le fait que le score de x sur le critère i1 est pénalisé par un plus mauvais score suivant le critère ji (les critères i1 et ji doivent être satisfaits tous les deux),... , le score de x sur le critère ip est pénalisé par un plus mauvais score suivant le critère jp (les critères ip et jp doivent être satisfaits tous les deux), le score de y sur le critère k1 a été sauvé par un meilleur score sur le critère l1 (il suffit de satisfaire l'un des deux critères k1 ou l1 ), ... , le score de y sur le critère kq a été sauvé par un meilleur score sur le critère lq (il suffit de satisfaire l'un des deux critères kq ou lq).
Figure img00370002

où ... contient l'explication de la relation e1 fJ(x) - e1 fJ(Y) < 0.
Lorsque C2N(x) - C2N(y) < e1 f.1(x) - e1fl(Y) < 0, on commence par expliquer pourquoi le modèle 2-additif donne une décision plus tranchée que C1 . Cela donne l'explication suivante : y est préféré à x puisque le score de x sur le critère il est pénalisé par un plus mauvais score suivant le critère j1 (les critères il et j1 doivent être satisfaits tous les deux),... , le score de x sur le critère ip est pénalisé par un plus mauvais score suivant le critère jp (les critères ip et jp doivent être satisfaits tous les deux), le score de y sur le critère k1 a été
<Desc/Clms Page number 38>
sauvé par un meilleur score sur le critère Il (il suffit de satisfaire l'un des deux critères k1 ou l1 ),..., le score de y sur le critère kq a été sauvé par un meilleur score sur le critère lq (il suffit de satisfaire l'un des deux critères kq ou lq). Ceci a été accentué par le fait que ...
Figure img00380001

où ... contient l'explication de la relation e1 p(x) - e1 p(y) < 0.
Lorsque C2(x) - C2(y) < 0 < e1p(x) - e1p(y), on explique pourquoi le modèle 2-additif donne une décision plus tranchée que C1 . Cela donne l'explication suivante : y est préféré à x puisque le score de x sur le critère il est pénalisé par un plus mauvais score suivant le critère ji (les critères i1 et j1 doivent être satisfaits tous les deux), ... , le score de x sur le critère ip est pénalisé par un plus mauvais score suivant le critère jp (les critères ip et jp doivent être satisfaits tous les deux), le score de y sur le critère k1 a été sauvé par un meilleur score sur le critère l1 (il suffit de satisfaire l'un des deux critères k1 ou l1), ... , le score de y sur le critère kq a été sauvé par un meilleur score sur le critère lq (il suffit de satisfaire l'un des deux critères kq ou lq). Ceci a été partiellement atténué par le fait que ...
Figure img00380002

où ... contient l'explication de la relation e1 p(x) - e1 p(y) > 0.
Méthode alternative pour générer des arguments pour l'explication d'une comparaison entre deux alternatives :
Figure img00380003

On suppose que l'on souhaite expliquer pourquoi C 1f.1(X) < C 1f.1 (y). On écrit :
Figure img00380004
Figure img00380005

On veut déterminer les phénomènes les plus importants dans C 1f.1(X)-G 1f.1(Y). Du point de vue comptable, il s'agit des indices i pour lesquels v, lxi-yil est grand. Soit donc n=111, et la permutation 0±: {1,...,n} 1- telle que :
<Desc/Clms Page number 39>
Figure img00390001
Figure img00390002

On cherche i+E {1,...,n+} et i-E {1,...,n-} qui satisfont les exigences suivantes: # On veut que les phénomènes retenus contiennent en valeur absolue la plupart des phénomènes existants. On veut donc que :
Figure img00390003

soit grand . Le terme grand est réglé par la fonction d'appartenance
F. a On veut que la valeur moyenne de la valeur absolue des phénomènes retenus ne soit pas négligeable par rapport au phénomène le plus important. On veut donc que :
Figure img00390004

soit grand . Le terme grand est réglé par la fonction d'appartenance
G.
# On veut qu'aucun phénomène positif retenu soit inutile. Autrement dit, le rapport entre le phénomène le moins important retenu et le plus important ne doit pas être trop petit. On veut donc que :
Figure img00390005

soit grand . Le terme grand est réglé par la fonction d'appartenance
H~. a On ne veut pas oublier un phénomène positif important : rapport entre le phénomène le plus important non pris en compte et le phénomène le plus important doit donc être faible. On veut donc que :
<Desc/Clms Page number 40>
Figure img00400001

soit petit . Le terme petit est réglé par la fonction d'appartenance
K~. o On veut que la décision prise soit approximativement la même. Par conséquent, la somme des phénomènes retenus doit être assez proche de S (x)<S (y). On veut que :
Figure img00400002

soit le plus proche possible de 0. Ceci est traduit par la fonction d'appartenance L.
Figure img00400003
On cherche i+E {1,...,n+} et i-e (1 , .... n-1 qui maximise : F(P) a Gty) ^ H+(7+) ^ H (7 ) A K+(B+) ^ K-(6-) A L(rjJ) On peut générer une explication du genre : y est préféré à x puisque y est meilleur que x sur les critères
Figure img00400004

6 (1 ),...,6 (i-) qui ont contribué largement dans la décision prise. Si #+/(#-+#+) est assez grand , alors il faut mentionner dans l'explication les
Figure img00400005

termes 6+(1 ),...,6+(i+). On rajoute donc au texte précédent la ligne suivante : Ceci a été partiellement compensé par le fait que x est meilleur que
Figure img00400006

y sur les critères 6+(1 ),...,6+(i+).
Arrangement des différents arguments.
Comme on vient de le voir, l'explication globale peut être charpentée en plusieurs points (par exemple expliquer pourquoi Mik(x,y)<0 alors que M
Figure img00400007

k(x,y)>0, puis expliquer pourquoi M 'k(x,y)>0). Chaque point peut faire référence à plusieurs arguments. Le problème qui survient est alors tout d'abord d'organiser les arguments dans le bon ordre (afin que ce soit logique et compréhensible par un utilisateur), et ensuite de construire l'explication générale en mettant les bons mots de liaison entre les différents arguments.
<Desc/Clms Page number 41>
Pour ce faire, on stocke dans une pile les arguments les uns après les autres. Pour chaque argument, on indique en complément de quel argument il vient, et s'il va dans le même sens ou dans le sens contraire à cet argument.
On souhaite comparer deux actions X et Y. On suppose que l'on
Figure img00410001

obtient S(X)-S(Y)=0.08, C'r(X)-C'r(Y)=0.06 et C2(X)-C2(Y)= -0.11. On a donc globalement Y>X. En appliquant les principes donnés précédemment, l'explication à fournir s'organise de la manière suivante :
Figure img00410002

On commence par expliquer pourquoi C2(X)-C2r(Y) < 0 alors que C1 J(X)-C1 J(Y) > 0. On se trouve alors dans le cas 4b. Cela donne, par exemple : Y est préféré à X puisque le score de X sur le critère 0 est pénalisé par un plus mauvais score sur le critère 1 (les critères 0 et 1 doivent être satisfaits tous les deux).
Figure img00410003

Il faut ensuite expliquer pourquoi C1J(X)-C1J(Y) > 0. Ce point va donc en modération du précédent. Comme S(X)-S(Y) > C1J(X)-C1J(Y) > 0, on se trouve alors dans le cas 3b. L'argument est donc composé de deux points : o Le premier argument indique que S(X)-S(Y)>0 : X est en moyenne meilleur que Y. o Le second argument vient en modération du précédent, et explique pourquoi la décision prise avec l'opérateur de Shapley est moins tranchée qu'avec la moyenne arithmétique : X est meilleur que Y sur le critère 4 qui est peu important.
On voit que le troisième argument vient en modération du second argument qui lui-même vient en modération du premier. Par voie de conséquence, le troisième vient en fait en complément du premier argument.
<Desc/Clms Page number 42>
Ainsi, l'explication globale se base sur ces trois arguments dans l'ordre donné précédemment, on obtient : Y est préféré à X puisque le score de X sur le critère 0 est pénalisé par un plus mauvais score sur le critère 1 (les critères 0 et 1 doivent être satisfaits tous les deux).
Ceci a été partiellement compensé par le fait que X est en moyenne meilleur que Y. Ceci a été partiellement atténué par le fait que X est meilleur que Y sur le critère 4 qui est peu important.
L'utilisateur risque d'être trompé par la signification réelle du dernier argument. On ne sait pas clairement quel argument le dernier atténue. Afin de clarifier les explications, la solution est alors de remonter le dernier argument en seconde position, c'est à dire de commencer par les arguments qui vont dans le même sens que le premier argument, et de terminer par les autres. Cela donne dans l'exemple pris ici : Y est préféré à X puisque le score de X sur le critère 0 est pénalisé par un plus mauvais score sur le critère 1 (les critères 0 et 1 doivent être satisfaits tous les deux).
Ceci a été amplifié par le fait que X est meilleur que Y sur le critère 4 qui est peu important. Néanmoins, ceci a été partiellement atténué par le fait que X est en moyenne meilleur que Y.
On détermine pour chaque argument de la pile s'il va en complément ou en modération de l'argument principal. On réordonne alors la pile en plaçant en premier les arguments qui vont en complément à l'argument principal. Les arguments sont alors générés dans cet ordre, en commençant les arguments qui vont en complément par Ceci a été amplifié par le fait que , en commençant le premier argument qui va en modération à l'argument principal par Néanmoins, ceci a été partiellement atténué par le fait que , et en commençant les autre arguments qui vont en modération de l'argument principal par De plus .
<Desc/Clms Page number 43>
Exemples d'explications générées.
On va exposer maintenant des exemples d'explications générées pour les deux problèmes cités ci-dessus dans l'exposé du principe général du procédé de l'invention. Pour ce faire, on part d'un exemple d'agrégation multicritère.
On considère l'exemple simplifié de l'évaluation d'une voiture suivant cinq critères : Prix (Pri) ;Sécurité (Sec) ; Esthétique (Est) ; Puissance (Pui) et Confort (Con), comme représenté en figure 3.
A titre d'exemple, on considère les indices d'importance suivants :
Pri : 0.367 ; Sec : 0.216 ; Est : 0.121 ; Pui : 0.254 ; Con :0.042 Les indices d'interactions non nuls sont donnés ci-dessous : (Pri,Sec): 0.254 ; (Pri,Est): 0.085 ; (Pri,Pui): 0.253 ; (Sec,Pui):
0.151 ; (Sec,Con): 0.027 ; (Est,Pui): 0.062 ; (Est,Con): 0. 058
On va exposer les explications de la comparaison entre deux alternatives et on va donner ici quelques exemples de textes générés avec la seconde solution (exposée ci-dessus), dans tous les cas possibles.
Cas 1 de la seconde solution : X=( Pri = 0.93 ; = 0.98 ; = 0.76 ; = 0.21; Con = 0. 38 ) et Y=( Pri = 0.22 ; Sec = 0.61; Est = 0.39 ; = 0.20 ; = 0. 27). On a Y<X.
L'explication générée est la suivante : X est préféré à Y puisque TOUS les scores de X sont meilleurs que ceux de Y.
Cas 2 de la seconde solution : X=( Pri = 0.76 ; = 0.71; Est = 0.59 ; = 0.91; Con = 0. 80 ) et Y=( Pri = 0.38 ; Sec = 0.67 ; = 0.89; Pui = 0.21 ; = 0. 39). On a Y<X.
L'explication générée est la suivante : X est préféré à Y puisque les scores de X sont en moyenne bien meilleurs que ceux de Y.
Cas 3a de la seconde solution :
<Desc/Clms Page number 44>
X=( Pri = 0.95 ; = 0.66 ; = 0.59 ; = 0.71 ; = 0. 56 ) et Y=( Pri = 0.28 ; Sec = 0.66 ; = 0.68 ; = 0.32; Con = 0.90). On a Y<X.
L'explication générée est la suivante : X est préféré à Y puisque X est en moyenne meilleur que Y. Ceci a été amplifié par le fait que X est meilleur que Y sur le critère PRI qui est important, alors que Y est meilleur que X sur le critère CON qui est peu important.
Cas 3b de la seconde solution : X=( Pri = 0.93 ; = 0.36 ; = 0.97 ; = 0.39 ; = 0. 99 ) et Y=( Pri = 0.78; Sec = 0.27; Est = 0.40; Pui = 0.59; Con = 0.49). On a Y<X.
L'explication générée est la suivante : X est préféré à Y puisque X est en moyenne meilleur que Y. Ceci a été partiellement atténué par le fait que X est meilleur que Y sur les critères EST, CON qui sont peu importants.
Cas 3c de la seconde solution : X=( Pri = 0.56 ; Sec= 0.11; Est = 0.92 ; = 0.42 ; = 0.16 ) et Y=( Pri = 0.54; Sec = 0.53; Est = 0.30; Pui = 0.75; Con = 0.65). On a X<Y.
L'explication générée est la suivante : Y est préféré à X puisque le critère EST pour lequel X est meilleur que Y est peu important, et ne compense pas le fait que Y est en moyenne meilleur que X sur les autres critères.
Cas 3d de la seconde solution : X=( Pri = 0.28 ; = 0.75 ; = 0.24 ; = 0.50 ; Con= 0.51 ) et Y=( Pri = 0.27; Sec = 0.51 ; = 0.44; Pui = 0.35; Con = 0.92). On a Y<X.
L'explication générée est la suivante :
X est préféré à Y puisque le critère CON pour lequel Y est meilleur que X est peu important, et ne compense pas le fait que X est en moyenne meilleur que Y sur les autres critères.
Si on a:
<Desc/Clms Page number 45>
X=( Pri = 0.61 ; = 0.43 ; = 0.96 ; = 0.01 ; = 0. 60 ) et Y=( Pri = 0.86 ; Sec = 0.29 ; = 0.23 ; Pui= 0.33; Con = 0. 30). On obtient X<Y.
L'explication générée est la suivante : Bien que Y soit en moyenne moins bon que X, Y est quand même préféré à X puisque Y est meilleur que X sur le critère PRI qui est important, alors que X est meilleur que Y sur les critères EST, CON qui sont peu importants. Cas 4a de la seconde solution : X=( Pri = 0.99 ; = 0.83 ; = 0.97 ; = 0.16; Con = 0. 64 ) et Y=( Pri = 0.71 ; Sec = 0.65 ; = 0.36 ; = 0.90 ; = 0. 18). On a X<Y.
L'explication générée est la suivante : Bien que Y soit en moyenne moins bon que X, Y est quand même préféré à X puisque le score de X sur le critère PRI est pénalisé par un plus mauvais score sur le critère PUI (les critères PRI et PUI doivent être satisfaits tous les deux), le score de X sur le critère SEC est pénalisé par un plus mauvais score sur le critère PUI (les critères
SEC et PUI doivent être satisfaits tous les deux), Y est meilleur que
X sur le critère PUI qui est important et X est meilleur que Y sur le critère CON qui est peu important. Si on a : X=( Pri = 0.27; Sec = 0.47 ; = 0.70 ; = 0.97 ; = 0. 51 ) et Y=( Pri = 0.51 ; Sec = 0.24 ; = 0.69 ; Pui= 0.48; Con = 0. 01). On obtient Y<X.
L'explication générée est la suivante : X est préféré à Y puisque X est en moyenne meilleur que Y. Ceci a été partiellement atténué par le fait que le score de X sur le critère
PUI est pénalisé par un plus mauvais score sur le critère PRI (les critères PUI et PRI doivent être satisfaits tous les deux) et Y est meilleur que X sur le critère PRI qui est important. Cas 4b de la seconde solution :
<Desc/Clms Page number 46>
X=( Pri = 0.33 ; = 0.60; Est = 0.25 ; = 0.79; Con = 0. 24 ) et Y=( Pri = 0.27 ; Sec = 0.46 ; = 0.93 ; = 0.57 ; = 0. 63). On a X<Y.
L'explication générée est la suivante : Y est préféré à X puisque le score de X sur le critère SEC est pénalisé par un plus mauvais score sur le critère PRI (les critères
SEC et PRI doivent être satisfaits tous les deux). Ceci a été partiellement atténué par le fait que X est meilleur que Y sur les critères PRI, PUI qui sont importants, alors que Y est meilleur que X sur les critères EST, CON qui sont peu importants. Si on a: X=( Pri = 0.96 ; = 0.01 ; = 0.49 ; = 0.16 ; = 0. 32 ) et Y=( Pri = 0.27 ; Sec = 0.17 ; = 0.26 ; Pui= 0.08; Con = 0. 43). On obtient Y<X.
L'explication générée est la suivante : X est préféré à Y puisque X est en moyenne meilleur que Y. Ceci a été amplifié par le fait que X est meilleur que Y sur le critère PRI qui est important. Néanmoins, ceci a été partiellement atténué par le fait que le score de X sur le critère PRI est pénalisé par un plus mauvais score sur le critère SEC (les critères PRI et SEC doivent être satisfaits tous les deux).
Explications du score global de x.
On va exposer ici quelques exemples de textes générés de l'explication du score global d'une alternative X en se basant sur la seconde méthode.
Si : X=( Pri = 1 ; = 1 ; = 1 ; = 0.97 ; Con = 1). Score global=0.97 , l'explication générée est la suivante : X est TRÈS BON puisque TOUS les scores de X sont TRÈS BON.
Si : X=( Pri = 0.98 ; = 0.92 ; = 0.69 ; = 0.63 ; Con = 0. 02). Score global=0.68 , l'explication générée est la suivante :
<Desc/Clms Page number 47>
X est BON puisque le critère Con pour lequel X n'est pas BON est peu important, et ne compense pas le fait que X est en moyenne
BON sur les autres critères.
X n'est pas EXCELLENT puisque le score de X sur le critère Pri est pénalisé par un plus mauvais score sur le critère Pui (les critères Pri et Pui doivent être satisfaits tous les deux). D'autre part, les scores suivant les différents critères se compensent plus ou moins les uns avec les autres. Si : X=( Pri = 0.72 ; = 0.56 ; = 0.88 ; = 0.16 ; Con = 0.01). Score global=0.35. L'explication générée est la suivante : Bien que X ne soit pas en moyenne MAUVAIS, X est quand même
MAUVAIS puisque le score de X sur le critère Est est pénalisé par un plus mauvais score sur le critère Pui (les critères Est et Pui doivent être satisfaits tous les deux), X est MAUVAIS sur le critère Pui qui est important et X n'est pas MAUVAIS sur le critère Est qui est peu important.
X n'est pas EXÉCRABLE puisque X n'est pas EXÉCRABLE sur le critère Pri qui est important.
Si: X=( Pri = 0.72 ; = 0.07 ; = 0.75 ; = 0.29 ; = 0. 74). Score global=0.30 . L'explication générée est la suivante : Bien que X ne soit pas en moyenne MAUVAIS, X est quand même
MAUVAIS puisque le score de X sur le critère Pri est pénalisé par un plus mauvais score sur le critère Sec (les critères Pri et Sec doivent être satisfaits tous les deux), X est MAUVAIS sur le critère Sec qui est important et X n'est pas MAUVAIS sur les critères Est, Con qui sont peu importants.
X n'est pas EXÉCRABLE puisque X n'est pas EXÉCRABLE sur le critère Pri qui est important.

Claims (12)

REVENDICATIONS
1. Procédé de génération d'explications pour expliquer à un utilisateur une décision prise à l'aide d'un modèle d'agrégation multicritère compensatoire pour une application donnée, selon lequel on établit un modèle d'agrégation multicritère compensatoire unique pour l'application considérée, modèle décrit par un certain nombre de phénomènes et reproduisant une expertise déterminée, caractérisé par le fait que l'on recherche dans le modèle décisionnel les phénomènes élémentaires de décision qui sont à l'origine de la décision prise, qu'à partir de ces phénomènes élémentaires on établit une suite de modèles comportant de plus en plus de phénomènes élémentaires, que l'on recherche le plus petit modèle amenant à la même décision que le modèle complet, que l'on ne produit les explications que sur les phénomènes élémentaires de ce plus plus petit modèle, et que l'explication du score global d'une alternative est faite par deux comparaisons entre alternatives.
2. Procédé selon la revendication 1, caractérisé par le fait que l'explication à fournir pour le modèle simplifié s'obtient par comparaison avec un modèle d'agrégation encore plus simple mais amenant à une décision non conforme au modèle unique.
3. Procédé selon l'une des revendications 1 à 2, caractérisé par le fait que la décision consiste à choisir une alternative parmi deux, que l'on évalue le modèle pour ces deux alternatives, que la décision sera de choisir l'alternative de plus fort score, et qu'on explique cette décision.
4. Procédé selon la revendication 2, caractérisé par le fait que le modèle d'agrégation comporte plusieurs niveaux de simplification emboîtés et représentés par une suite de fonctions de comparaison M1,...,M p entre les deux alternatives, que la fonction M ' comporte tous les phénomènes compensatoires présents dans M '-' plus d'autres phénomènes, que la
<Desc/Clms Page number 49>
fonction M P représente la comparaison avec le modèle d'agrégation initial et comporte l'ensemble des phénomènes de compensation possibles, que la fonction M1 ne comporte aucun phénomène de compensation spécifique au modèle d'agrégation, que si M1 fournit la même décision que le modèle d'agrégation, l'explication à fournir ne fait pas référence aux spécificités du modèle d'agrégation, que dans le cas contraire l'explication se base sur la fonction M q telle que M q fournit la même décision que le modèle d'agrégation et que les fonctions de comparaison précédentes M1,..., M q- 1 fournissent la décision opposée.
5. Procédé selon la revendication 4, caractérisé par le fait que l'explication de la décision prise par la fonction de comparaison M q se fait par comparaison avec une fonction de comparaison Mj, avec j<q, plus simplifiée mais fournissant une décision non conforme au modèle unique, que les phénomènes de compensation utilisés dans l'explication sont ceux contenus dans M q mais non contenus dans Mj, et que pour déterminer parmi ces phénomènes ceux qui ont vraiment compté dans la décision prise, on rajoute progressivement des comportements à Mj jusqu'à ce que la décision prise soit conforme au modèle unique.
6. Procédé selon la revendication 5, caractérisé par le fait que le modèle d'agrégation correspond à une somme pondérée ou une intégrale de Choquet 2-additive.
7. Procédé selon la revendication 6, caractérisé par le fait qu'il y a quatre fonctions de comparaison, que la première fonction de comparaison M1 indique qu'une alternative est préférée à une seconde si la première alternative est meilleure que la seconde suivant tous les critères, que la deuxième fonction de comparaison M2 correspond à la comparaison par une moyenne arithmétique, que la troisième fonction de comparaison M3 ne contient que les phénomènes d'importance des critères, que la quatrième fonction de comparaison M4 contient l'ensemble des phénomènes
<Desc/Clms Page number 50>
d'importance et d'interaction entre critères, que si la première fonction de comparaison donnant la décision conforme au modèle unique est M3, alors on détermine les phénomènes à mettre dans l'explication par comparaison avec M2, et que si la première fonction de comparaison donnant la décision conforme au modèle unique est M4, alors on détermine les phénomènes de compensation à inclure dans l'explication par comparaison avec M2.
8. Procédé selon la revendication 1, caractérisé par le fait que la décision à prendre consiste à évaluer une alternative, que l'on évalue le modèle pour cette alternative et qu'on explique cette évaluation.
9. Procédé selon la revendication 8, caractérisé par le fait que l'ensemble des évaluations est découpé en 2m+1 niveaux ordonnés N~m, No, Nm, que le niveau N~m est le plus mauvais, que le niveau No est moyen, c'est-à-dire ni bon ni mauvais, que Nm est le meilleur niveau, que chaque niveau est caractérisé par une valeur minimale et une valeur maximale, que l'on détermine pour l'alternative le niveau Nk correspondant à son évaluation par le modèle, que l'on explique pourquoi l'alternative est préférée à une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau Nk en appliquant le procédé selon l'une des revendications 2 à 7, et que l'on explique pourquoi l'alternative est moins bien préférée à une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau Nk en appliquant le procédé selon l'une des revendications 2 à 7.
10. Procédé selon la revendication 9, caractérisé par le fait que k>0, que l'on indique que l'alternative est Nk en appliquant le procédé selon l'une des revendications 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau Nk, et que l'on indique que l'alternative n'est pas Nk+1 en appliquant le procédé selon l'une des revendications 2 à 7 à la
<Desc/Clms Page number 51>
comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau Nk.
11. Procédé selon la revendication 9, caractérisé par le fait que k<0, que l'on indique que l'alternative est Nk en appliquant le procédé selon l'une des revendications 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau Nk, et que l'on indique que l'alternative n'est pas Nk~1 en appliquant le procédé selon l'une des revendications 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau Nk.
12. Procédé selon la revendication 9, caractérisé par le fait que k=0, que l'on indique que l'alternative n'est pas Ni en appliquant le procédé selon l'une des revendications 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau No, et que l'on indique que l'alternative n'est pas N-1 en appliquant le procédé selon l'une des revendications 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau No.
FR0215064A 2002-11-29 2002-11-29 Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire Withdrawn FR2848006A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
FR0215064A FR2848006A1 (fr) 2002-11-29 2002-11-29 Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire
PCT/EP2003/050879 WO2004051562A2 (fr) 2002-11-29 2003-11-24 Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire
AU2003298314A AU2003298314A1 (en) 2002-11-29 2003-11-24 Method of explaining a decision taken by a compensatory multi-criteria aggregation model
US10/536,427 US7236964B2 (en) 2002-11-29 2003-11-24 Method of explaining a decision taken by a compensatory multi-criteria aggregation model
EP03796046A EP1573668A2 (fr) 2002-11-29 2003-11-24 Procede permettant d expliquer une decision prise par un mod ele d agregation multicritere compensatoire

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0215064A FR2848006A1 (fr) 2002-11-29 2002-11-29 Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire

Publications (1)

Publication Number Publication Date
FR2848006A1 true FR2848006A1 (fr) 2004-06-04

Family

ID=32309857

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0215064A Withdrawn FR2848006A1 (fr) 2002-11-29 2002-11-29 Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire

Country Status (5)

Country Link
US (1) US7236964B2 (fr)
EP (1) EP1573668A2 (fr)
AU (1) AU2003298314A1 (fr)
FR (1) FR2848006A1 (fr)
WO (1) WO2004051562A2 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016151145A1 (fr) * 2015-03-26 2016-09-29 Thales Procédé d'explication d'un score

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2008073475A2 (fr) * 2006-12-11 2008-06-19 Tufts University Procédé d'échantillonnage spatial multi-étage à critères multiples
US20140278375A1 (en) * 2013-03-14 2014-09-18 Trinity College Dublin Methods and system for calculating affect scores in one or more documents
US10395198B2 (en) 2013-10-04 2019-08-27 International Business Machines Corporation Forecasting a time series based on actuals and a plan
US10318970B2 (en) 2013-10-04 2019-06-11 International Business Machines Corporation Generating a succinct approximate representation of a time series
WO2016061576A1 (fr) 2014-10-17 2016-04-21 Zestfinance, Inc. Api pour l'implémentation de fonctions de notation
US10339467B2 (en) 2015-06-02 2019-07-02 International Business Machines Corporation Quantitative discovery of name changes
US20180322406A1 (en) * 2017-05-04 2018-11-08 Zestfinance, Inc. Systems and methods for providing machine learning model explainability information
US11941650B2 (en) 2017-08-02 2024-03-26 Zestfinance, Inc. Explainable machine learning financial credit approval model for protected classes of borrowers
WO2019173734A1 (fr) 2018-03-09 2019-09-12 Zestfinance, Inc. Systèmes et procédés permettant de fournir une évaluation de modèle d'apprentissage machine au moyen d'une décomposition
CA3098838A1 (fr) 2018-05-04 2019-11-07 Zestfinance, Inc. Systemes et procedes pour enrichir des outils de modelisation et une infrastructure de modelisation en elements semantiques
CN111062548A (zh) * 2018-10-17 2020-04-24 南方电网科学研究院有限责任公司 一种企业决策辅助实时数据采集及评价方法
US11816541B2 (en) 2019-02-15 2023-11-14 Zestfinance, Inc. Systems and methods for decomposition of differentiable and non-differentiable models
CA3134043A1 (fr) 2019-03-18 2020-09-24 Sean Javad Kamkar Systemes et procedes d'equite de modele
US11321638B2 (en) 2020-03-16 2022-05-03 Kyndryl, Inc. Interoperable smart AI enabled evaluation of models
CN112116028B (zh) * 2020-09-29 2024-04-26 联想(北京)有限公司 模型决策解释实现方法、装置及计算机设备
US11720962B2 (en) 2020-11-24 2023-08-08 Zestfinance, Inc. Systems and methods for generating gradient-boosted models with improved fairness

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5995728A (en) * 1995-06-30 1999-11-30 Forman; Ernest H. Computer implemented method of generating and displaying objectives from pros and cons for evaluating decision alternatives
US5717865A (en) * 1995-09-25 1998-02-10 Stratmann; William C. Method for assisting individuals in decision making processes
US5983220A (en) * 1995-11-15 1999-11-09 Bizrate.Com Supporting intuitive decision in complex multi-attributive domains using fuzzy, hierarchical expert models
US5832465A (en) * 1997-04-07 1998-11-03 General Electric Company Method for building a self-learning evidential reasoning system
US6826552B1 (en) * 1999-02-05 2004-11-30 Xfi Corporation Apparatus and methods for a computer aided decision-making system
US6304833B1 (en) * 1999-04-27 2001-10-16 The United States Of America As Represented By The Secretary Of The Navy Hypothesis selection for evidential reasoning systems
US6697799B1 (en) * 1999-09-10 2004-02-24 Requisite Technology, Inc. Automated classification of items using cascade searches
US6751600B1 (en) * 2000-05-30 2004-06-15 Commerce One Operations, Inc. Method for automatic categorization of items
US6826541B1 (en) * 2000-11-01 2004-11-30 Decision Innovations, Inc. Methods, systems, and computer program products for facilitating user choices among complex alternatives using conjoint analysis
US6951008B2 (en) * 2001-03-29 2005-09-27 General Electric Company Evidential reasoning system and method
US6957202B2 (en) * 2001-05-26 2005-10-18 Hewlett-Packard Development Company L.P. Model selection for decision support systems
US20030078900A1 (en) * 2001-06-29 2003-04-24 Dool Jacques Van Den Distributed decision processing system with advanced comparison engine

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
No Search *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016151145A1 (fr) * 2015-03-26 2016-09-29 Thales Procédé d'explication d'un score
FR3034230A1 (fr) * 2015-03-26 2016-09-30 Thales Sa Procede d'explication d'un score
US11195110B2 (en) 2015-03-26 2021-12-07 Thales Method of explaining a score

Also Published As

Publication number Publication date
WO2004051562A8 (fr) 2005-11-10
US7236964B2 (en) 2007-06-26
US20060047613A1 (en) 2006-03-02
WO2004051562A2 (fr) 2004-06-17
AU2003298314A1 (en) 2004-06-23
EP1573668A2 (fr) 2005-09-14

Similar Documents

Publication Publication Date Title
FR2848006A1 (fr) Procede permettant d&#39;expliquer une decision prise par un modele d&#39;agregation multicritere compensatoire
Grodal et al. The coevolution of technologies and categories during industry emergence
US9230026B2 (en) Persistent search object in a method and apparatus for keeping and finding information
Chu et al. Development of information search expertise: Postgraduates' knowledge of searching skills
Ebbs Carnap and Quine on truth by convention
Birukou et al. Implicit: a multi-agent recommendation system for web search
Berg et al. The digital constellation
Haydar et al. Local trust versus global trust networks in subjective logic
Fenstermacher The tyranny of tacit knowledge: What artificial intelligence tells us about knowledge representation
Kato et al. Related verification of emotional value and company brand emitted from pure recall
Bianchini et al. Capability Matching and Similarity Reasoning in Service Discovery.
Rodriguez Social decision making with multi-relational networks and grammar-based particle swarms
Khenissi et al. Automatic generation of fuzzy logic components for enhancing the mechanism of learner's modeling while using educational games
Tsao et al. Design for product experience: a study on the analepsis construction of product use
Makarova et al. A case-based reasoning approach with fuzzy linguistic rules: Accuracy validation and application in interface design-support intelligent system
Kleinberg American paranoia: Trump, Sanders and theoretical reflections on researching populism as performance
Herman The Danger of Filter Bubbles and Digital Isolation: Exploring Ethical Research Practices
Jesus et al. Why digital platforms by incumbents fail: Results from a Delphi study
Setchi et al. Multimodal Reasoning in a Knowledge Engineering Framework for Product Support
Destercke Uncertainty representation and combination: new results with application to nuclear safety issues
IDRISSI et al. Impact des médias sociaux sur l’engagement politique à l’ère du numérique: Cas du Maroc
Madhani et al. An Empirical Study On Factors Influencing Adoption Of Voice Assistant For Among Generation Z
Popovski Users’ Perception of Conversational AI According to Their age and Origin
Kolomiets et al. The Method of Dynamic Design of a Search Engine Based on Automated Analysis of User Requests
Zacarias et al. Search for Answers in Domain-Specific Supported by Intelligent Agents

Legal Events

Date Code Title Description
ST Notification of lapse

Effective date: 20090731