FR2848006A1 - Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire - Google Patents
Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire Download PDFInfo
- Publication number
- FR2848006A1 FR2848006A1 FR0215064A FR0215064A FR2848006A1 FR 2848006 A1 FR2848006 A1 FR 2848006A1 FR 0215064 A FR0215064 A FR 0215064A FR 0215064 A FR0215064 A FR 0215064A FR 2848006 A1 FR2848006 A1 FR 2848006A1
- Authority
- FR
- France
- Prior art keywords
- alternative
- decision
- model
- criteria
- explanation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/048—Fuzzy inferencing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/02—Computing arrangements based on specific mathematical models using fuzzy logic
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Software Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Automation & Control Theory (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Fuzzy Systems (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Algebra (AREA)
- Computational Mathematics (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Pure & Applied Mathematics (AREA)
- Complex Calculations (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Le procédé conforme à l'invention est un procédé permettant d'expliquer une décision prise par un modèle d'agrégation multicritère compensatoire, selon lequel on établit un modèle d'agrégation multicritère compensatoire unique pour l'application considérée, décrit par un certain nombre de phénomènes et reproduisant une expertise déterminée, et il est caractérisé par le fait que l'on ne fait pas référence dans l'explication aux spécificités du modèle d'agrégation si la décision prise avait été la même en remplaçant le modèle d'agrégation par tout autre modèle proche, que, si tel n'est pas le cas, l'on simplifie le modèle d'agrégation en prenant en compte de moins en moins de phénomènes tant que la décision prise reste la même, et que l'on restitue à l'expert une explication basée uniquement sur les phénomènes de compensation présents dans le modèle le plus simple précédemment déterminé.
Description
<Desc/Clms Page number 1>
Procédé permettant d'expliquer une décision prise par un modèle d'agrégation multicritère compensatoire
La présente invention se rapporte à un procédé permettant d'expliquer une décision prise par un modèle d'agrégation multicritère compensatoire.
La présente invention se rapporte à un procédé permettant d'expliquer une décision prise par un modèle d'agrégation multicritère compensatoire.
Les outils ou méthodes d'aide à la décision reposent sur des modèles mathématiques permettant de représenter la connaissance des experts ou décideurs. Dans le processus global d'aide à la décision, le modèle décisionnel est déterminé par interview avec les experts, puis exécuté pour fournir des préconisations. Il est alors crucial dans cette seconde phase d'exploitation du modèle que les préconisations déterminées au travers du modèle soient expliquées à l'expert.
On se place dans le cadre d'un problème de décision multicritère, c'est-à-dire consistant à modéliser les préférences qu'un expert peut avoir entre différentes alternatives, ces alternatives étant décrites par différents attributs ou points de vue. Le terme alternative est utilisé dans la présente description au sens de l'une des possibilités offertes par un choix. Prendre en compte tous les points de vue en même temps demande de faire des compromis entre les critères bien satisfaits et les critères moins bien satisfaits. Cette recherche de compromis demande l'utilisation de modèles décisionnels compensatoires. Les modèles sont compensatoires dans le sens où des critères bien satisfaits compensent des critères mal satisfaits. Les modèles compensatoires se basent sur l'utilisation d'opérations arithmétiques permettant de combiner des phénomènes élémentaires de décision.
La présente invention se rapporte plus particulièrement à la phase d'exploitation du modèle et en particulier à l'explication des préconisations déterminées au travers du modèle. La difficulté est de générer des explications pertinentes, complètes et qui soient compréhensibles pour l'expert.
<Desc/Clms Page number 2>
Certains logiciels (par exemple Which & Why commercialisé par la société américaine Arlington Software Corp. ) permettent de réaliser des traitements sur le modèle décisionnel une fois qu'il a été déterminé. Ils se concentrent sur une analyse de sensibilité des paramètres du modèle décisionnel. L'expert a la possibilité de constater comment les données (qu'il a fournies pour la détermination des paramètres) sont sensibles à la valeur des paramètres, et inversement d'étudier comment une variation sur les paramètres affecte les comparaisons entre différentes alternatives. Ce faisant, l'expert se persuade de la pertinence du modèle. Il fera ensuite parfaitement confiance à ce modèle, et il l'appliquera donc en toute confiance. Il n'aura pas besoin d'une explication à chaque exécution du modèle.
Toutefois, dans les systèmes d'aide à la décision, l'utilisateur n'est pas forcément l'expert avec qui le modèle a été établi. Il est donc nécessaire de générer une explication dans la phase d'exploitation du modèle. Dans ce cas, les logiciels précédemment mentionnés ne sont pas suffisants et ne répondent à ce problème.
Il existe dans le domaine de l'Intelligence Artificielle un courant concernant l'argumentation. Cela concerne principalement l'agencement de différents arguments (positifs ou négatifs) afin de convaincre un utilisateur. Certains travaux portent sur l'explication d'un modèle d'agrégation compensatoire du type somme pondérée (cf. J. Montmain, A.
Akharraz, G. Mauris Knowledge management as a support for collective decision-making and argumentation processes IPMU 2002, pp. 91-98,
Annecy, France). Leur méthode consiste uniquement à générer, parmi l'ensemble des termes présents dans le modèle d'agrégation, les k termes de plus grand module, où k est directement lié au degré de précision souhaité par l'expert (par exemple, k=1 si l'expert ne souhaite que très peu d'information). L'argumentation ainsi générée ne fait que redonner plus ou moins de termes présents dans la fonction d'agrégation.
Annecy, France). Leur méthode consiste uniquement à générer, parmi l'ensemble des termes présents dans le modèle d'agrégation, les k termes de plus grand module, où k est directement lié au degré de précision souhaité par l'expert (par exemple, k=1 si l'expert ne souhaite que très peu d'information). L'argumentation ainsi générée ne fait que redonner plus ou moins de termes présents dans la fonction d'agrégation.
La complexité de l'argumentation (le nombre k de termes utilisés) dépend
<Desc/Clms Page number 3>
uniquement du souhait de l'expert, alors qu'elle devrait dépendre de la marge que l'on a sur la décision prise. En effet, si la décision est prise sans conteste, ce n'est pas la peine de s'étendre sur l'explication. A l'opposé, si la décision est prise de justesse, l'argumentation devra être plus fournie. De plus, aucune analyse des facteurs qui sont réellement à l'origine de la décision prise n'est faite dans cette méthode. Cette approche est estimée largement insuffisante pour fournir une explication pertinente et satisfaisante pour un expert.
La présente invention a pour objet un procédé permettant d'expliquer une décision prise par un modèle d'agrégation multicritère compensatoire, pour lequel la complexité de l'argumentation soit fonction de la façon dont est prise la décision, les explications devant être pertinentes et satisfaisantes pour l'utilisateur et pour l'expert.
Le procédé conforme à l'invention est un procédé permettant d'expliquer à un utilisateur une décision prise à l'aide d'un modèle d'agrégation multicritère compensatoire, selon lequel on établit un modèle d'agrégation multicritère compensatoire unique pour l'application considérée, décrit par un certain nombre de phénomènes et reproduisant une expertise déterminée, et selon une première caractéristique de l'invention, l'on ne fait pas référence dans l'explication aux spécificités du modèle d'agrégation si la décision prise avait été la même en remplaçant le modèle d'agrégation par tout autre modèle proche, que, si tel n'est pas le cas, l'on simplifie de plus en plus le modèle d'agrégation en prenant en compte de moins en moins de phénomènes tant que la décision prise reste la même, et l'on restitue alors à l'utilisateur une explication basée uniquement sur les phénomènes de compensation présents dans le modèle le plus simple précédemment déterminé.
Selon une deuxième caractéristique de l'invention, l'explication à fournir pour le modèle simplifié s'obtient par comparaison avec un modèle
<Desc/Clms Page number 4>
d'agrégation encore plus simple mais amenant à une décision non conforme au modèle unique.
Selon une troisième caractéristique de l'invention, la décision consiste à choisir une alternative parmi deux, puis on évalue le modèle pour ces deux alternatives, le résultat de la décision étant de choisir l'alternative de plus fort score, et l'on explique cette décision.
Selon une quatrième caractéristique de l'invention, le modèle d'agrégation comporte plusieurs niveaux de simplification emboîtés et représentés par une suite de fonctions de comparaison M1,...,MP entre les deux alternatives, la fonction M ' comporte tous les phénomènes de compensation présents dans Mi-1 plus d'autres, la fonction Mpreprésente la comparaison avec le modèle d'agrégation initial et comporte l'ensemble des phénomènes de compensation possibles, la fonction M1 ne comporte aucun phénomène de compensation spécifique au modèle d'agrégation, si M1 fournit la même décision que le modèle d'agrégation, l'explication à fournir ne fait pas référence aux spécificités du modèle d'agrégation, et dans le cas contraire, l'explication se base sur la fonction Mq telle que Mq fournit la même décision que le modèle d'agrégation et les fonctions de comparaison précédentes M1,..., M q-1 fournissent la décision opposée.
Selon une cinquième caractéristique de l'invention, l'explication de la décision prise par la fonction de comparaison M q se fait par comparaison avec une fonction de comparaison Mj, avec j<q, plus simplifiée mais fournissant la mauvaise décision, les phénomènes de compensation utilisés dans l'explication sont ceux contenus dans M q mais non contenus dans Mj, et pour déterminer parmi ces phénomènes ceux qui ont vraiment compté dans la décision prise, on rajoute progressivement des comportements à Mjusqu'à ce que la décision prise soit conforme au modèle unique.
<Desc/Clms Page number 5>
Selon une sixième caractéristique de l'invention, le modèle d'agrégation correspond à une somme pondérée ou une intégrale de Choquet 2-additive.
Selon une septième caractéristique de l'invention, il y a quatre fonctions de comparaison, la première fonction de comparaison M1 indique qu'une alternative est préférée à une seconde si la première alternative est meilleure que la seconde suivant tous les critères, la deuxième fonction de comparaison M2 correspond à la comparaison par une moyenne arithmétique, la troisième fonction de comparaison M3 ne contient que les phénomènes d'importance des critères, la quatrième fonction de comparaison M4 contient l'ensemble des phénomènes d'importance et d'interaction entre critères, si la première fonction de comparaison donnant la décision conforme au modèle unique est M3, alors on détermine les phénomènes à mettre dans l'explication par comparaison avec M2, et si la première fonction de comparaison donnant la décision conforme au modèle unique est M4, alors on détermine les phénomènes de compensation à inclure dans l'explication par comparaison avec M2.
Selon une huitième caractéristique de l'invention, la décision à prendre consiste à évaluer une alternative, à évaluer le modèle pour cette alternative et à expliquer cette évaluation.
Selon une neuvième caractéristique de l'invention, l'ensemble des évaluations est découpé en 2m+1 niveaux ordonnés N~m, ..., No, ..., Nm, le niveau N~m est le plus mauvais, le niveau No est moyen, c'est-à-dire ni bon ni mauvais, Nm est le meilleur niveau, chaque niveau est caractérisé par une valeur minimale et une valeur maximale, on détermine pour l'alternative le niveau Nk correspondant à son évaluation par le modèle, on explique pourquoi l'alternative est préférée à une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du
<Desc/Clms Page number 6>
niveau Nk en appliquant l'une des caractéristiques 2 à 7, et l'on explique pourquoi l'alternative est moins bien préférée à une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau Nk en appliquant l'une des caractéristiques 2 à 7.
Selon une dixième caractéristique de l'invention, lorsque k>0, l'on indique que l'alternative est Nk en appliquant l'une des caractéristiques 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau Nk, et l'on indique que l'alternative n'est pas Nk+1 en appliquant l'une des caractéristiques 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau Nk.
Selon une onzième caractéristique de l'invention, lorsque k<0, l'on indique que l'alternative est Nk en appliquant l'une des caractéristiques 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau Nk, et l'on indique que l'alternative n'est pas Nk-1 en appliquant l'une des caractéristiques 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau Nk.
Selon une douzième caractéristique de l'invention, lorsque k=0, l'on indique que l'alternative n'est pas N1 en appliquant l'une des l'une des caractéristiques 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau No, et l'on indique que l'alternative n'est pas
N-1 en appliquant l'une des l'une des caractéristiques 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau No.
N-1 en appliquant l'une des l'une des caractéristiques 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau No.
<Desc/Clms Page number 7>
La présente invention sera mieux comprise à la lecture de la description détaillée d'un mode de mise en oeuvre, pris à titre d'exemple non limitatif et illustré par le dessin annexé, sur lequel : - la figure 1 est un diagramme d'un exemple classique de modélisation par des ensembles flous permettant d'expliquer le degré d'appartenance à un niveau d'une alternative, - la figure 2 est une représentation par un ensemble non flou de l'exemple de la figure 1, et - la figure 3 est un diagramme simplifié de description d'un exemple applicatif auquel se réfère l'invention.
Deux problèmes sont traités ici : l'explication de la comparaison entre deux alternatives, et l'explication du score global d'une alternative.
L'approche selon l'invention consiste à simplifier le modèle décisionnel tant que la décision prise reste la même. Cela permet de déterminer les phénomènes élémentaires de décision qui sont réellement à l'origine de la décision prise. De manière plus précise, l'invention propose, à partir des phénomènes élémentaires composant le modèle décisionnel, une suite de modèles comportant de plus en plus de phénomènes élémentaires. Le premier n'en comporte aucun et le dernier les comporte tous. On cherche alors le plus petit modèle amenant à la même décision que le modèle complet. Ainsi, lors de la génération des explications, on ne se basera que sur les phénomènes élémentaires dans ce plus petit modèle. Cette approche est directement appliquée pour générer l'explication de la comparaison entre deux alternatives. Concernant l'explication du score global d'une alternative, on se ramène à deux comparaisons entre alternatives, par découpage de l'ensemble des scores possibles en une partition de niveaux (par exemple Très Bon, Bon, Moyen, Mauvais, Très Mauvais). Après détermination du niveau auquel appartient l'alternative, les deux comparaisons consistent à expliquer pourquoi l'alternative n'appartient ni au niveau juste supérieur, ni au niveau juste inférieur. Par
<Desc/Clms Page number 8>
exemple, pour une alternative x qui est jugée Bonne, on veut expliquer pourquoi x n'est ni Moyen, ni Très Bon.
On décrit maintenant rapidement la théorie de la décision multicritère.
Il s'agit de modéliser la relation de préférence notée - que les experts peuvent avoir sur les alternatives. L'aspect multicritère provient du fait que les alternatives sont décrites par différents points de vue à prendre en compte. Plus précisément, nous proposons d'utiliser la théorie de l'utilité multi-attribut (R.L. Keeney and H. Raiffa, Décision with Multiple Objectives , Wiley, New York, 1976). Il s'agit de modéliser la relation de préférence sur les résultats des élèves par une utilité globale (score
global) : y>x # U(y)>~ZI(x) A chaque alternative x, est donc associée une utilité globale U(x) qui traduit le degré de préférence que l'expert accorde à x. Pour décrire la théorie de l'utilité multi-attribut, on suppose que l'on dispose de n points de vue X1 ,..., X" décrivant les différents aspects à prendre en compte pour évaluer un élève. La fonction d'utilité globale U est prise sous la forme suivante :
U(x)= F(u(x),...,u,,(x,,)) où F est la fonction d'agrégation et les u, sont les fonctions d'utilité. Les n points de vue étant donnés dans des unités de mesure différentes, les fonctions d'utilité servent à passer à une échelle unique C de commensurabilité. Les fonctions d'utilité servent donc à pouvoir comparer des valeurs données suivant différents points de vue. L'échelle C est un intervalle de R (typiquement C=[0,1]). Le nombre u,(x,) correspond au degré de satisfaction que l'expert accorde à l'alternative concernant uniquement le point de vue X,. La fonction d'agrégation F agrège donc les degrés de satisfaction d'une alternative suivant les différents points de vue, et retourne le degré de satisfaction global. On rappelle qu'une fonction F de [0,1]" dans [0,1] est dite d'agrégation si elle satisfait deux propriétés élémentaires : croissance (si pour tout i on a yi#xi, alors F(y)>F(x)) et compensation (c'est à dire min, y, <F(y) <max, y,).
global) : y>x # U(y)>~ZI(x) A chaque alternative x, est donc associée une utilité globale U(x) qui traduit le degré de préférence que l'expert accorde à x. Pour décrire la théorie de l'utilité multi-attribut, on suppose que l'on dispose de n points de vue X1 ,..., X" décrivant les différents aspects à prendre en compte pour évaluer un élève. La fonction d'utilité globale U est prise sous la forme suivante :
U(x)= F(u(x),...,u,,(x,,)) où F est la fonction d'agrégation et les u, sont les fonctions d'utilité. Les n points de vue étant donnés dans des unités de mesure différentes, les fonctions d'utilité servent à passer à une échelle unique C de commensurabilité. Les fonctions d'utilité servent donc à pouvoir comparer des valeurs données suivant différents points de vue. L'échelle C est un intervalle de R (typiquement C=[0,1]). Le nombre u,(x,) correspond au degré de satisfaction que l'expert accorde à l'alternative concernant uniquement le point de vue X,. La fonction d'agrégation F agrège donc les degrés de satisfaction d'une alternative suivant les différents points de vue, et retourne le degré de satisfaction global. On rappelle qu'une fonction F de [0,1]" dans [0,1] est dite d'agrégation si elle satisfait deux propriétés élémentaires : croissance (si pour tout i on a yi#xi, alors F(y)>F(x)) et compensation (c'est à dire min, y, <F(y) <max, y,).
<Desc/Clms Page number 9>
our déterminer entièrement le modèle, on passe par les deux phases jivantes : o Phase 1 : Formalisation des critères. Un certain nombre de logiciels permettent de déterminer les fonctions d'utilité u, ( Expert Choice , Critérium Decision Plus , MACBETH poids ).
# Phase 2 : Détermination de la fonction d'agrégation : De nombreux logiciels et techniques permettent de déterminer la fonction d'agrégation F lorsque cette dernière est une somme pondérée : Expert Choice , Critérium Decision Plus , MACBETH côtes , TOPSIS , DESCRIPTOR . La restriction à une somme pondérée ne permet pas de modéliser les stratégies un peu fines de décision.
Pour pallier cela, l'intégrale de Choquet (G. Choquet, Theory of capacities , Annales de l'Institut Fourier, No 3, PP. 131-295, 1953) a été introduite comme fonction d'agrégation. Elle permet de modéliser l'importance des critères, l'interaction entre critères et les stratégies typiques de décision (veto, faveur, tolérance, intolérance) (M. Grabisch, The application of fuzzy integrals in multicriteria decision making ,
Europ. J. of Operationnal Research, No 89, PP. 445-456, 1996).
Europ. J. of Operationnal Research, No 89, PP. 445-456, 1996).
Plusieurs méthodes permettent de déterminer les paramètres de l'intégrale de Choquet à partir de données d'apprentissage fournies par l'expert : on peut mentionner une méthode heuristique (M. Grabisch, A new algorithm for identifying fuzzy measures and its application to pattern recignition , dans Int. Fuzzy Engeneering Symposium, PP 145-150,
Yokohama, Japan, 1995), et une méthode linéaire (J. L. Marichal, M.
Yokohama, Japan, 1995), et une méthode linéaire (J. L. Marichal, M.
Roubens, Dependence between criteria and multple criteria decision
aid , dans 2"d lnt. Workshop on Préférences and Decisions, PP. 69-75, Trento, Italy, 1998).
aid , dans 2"d lnt. Workshop on Préférences and Decisions, PP. 69-75, Trento, Italy, 1998).
La description ci-dessus concerne le cas où tous les points de vue sont agrégés au même niveau. Néanmoins, lorsque le nombre de points de vue devient assez important, on réalise dans la pratique plusieurs
<Desc/Clms Page number 10>
niveaux d'agrégation en cascade. Dans ce cas, on génère une explication en cascade à chaque niveau, en commençant par le niveau le plus haut.
Une fois que le modèle décisionnel est déterminé, les deux problèmes traités se décrivent sous la forme suivante : expliquer pourquoi une alternative y est meilleure qu'une alternative x d'après le modèle, c'est à dire U(x)<U(y), et expliquer le score global U (x) d'une alternative x d'après le modèle.
On décrit maintenant plus précisément un cas particulier de l'intégrale de Choquet connnu sous le nom d'intégrale de Choquet 2-additive. Bien entendu, cette fonction d'agrégation multicritère n'est pas la seule possible dans le cadre de l'invention. On suppose que l'on dispose de n critères que l'on désire synthétiser pour obtenir une évaluation globale. On suppose que ces critères sont déjà rendus commensurables grâce à l'introduction de fonctions d'utilité. Autrement dit, les scores suivant chaque critère sont donnés directement dans l'intervalle [0,1] des nombres compris entre 0 et 1. Tout autre intervalle est parfaitement envisageable. On aurait pu aussi bien prendre n'importe quelle intervalle de R. Ces scores correspondent à un degré de satisfaction. Par exemple, le score 0,6 correspond à un degré de satisfaction plutôt bon. On note x, le score de l'action x suivant le critère i. Le score x, correspond au degré de satisfaction de l'alternative x concernant le point de vue N i. La large majorité des modèles d'agrégation utilisés dans la pratique correspondent à une somme pondérée :
F(x) = a1X1+...+anxn où chaque coefficient a, est compris entre 0 et 1, et leur somme vaut 1 : a1+...+an =1. Le coefficient a; représente l'importance du critère i dans l'évaluation globale. La condition a1+...+an =1 implique que H(t,...t)=t pour tout nombre t. Si le nombre t correspond par exemple au niveau bon (typiquement t=0. 7), cette relation signifie qu'une alternative qui est jugée bonne suivant tous les critères est jugée globalement bonne. Ceci traduit l'idée de commensurabilité.
F(x) = a1X1+...+anxn où chaque coefficient a, est compris entre 0 et 1, et leur somme vaut 1 : a1+...+an =1. Le coefficient a; représente l'importance du critère i dans l'évaluation globale. La condition a1+...+an =1 implique que H(t,...t)=t pour tout nombre t. Si le nombre t correspond par exemple au niveau bon (typiquement t=0. 7), cette relation signifie qu'une alternative qui est jugée bonne suivant tous les critères est jugée globalement bonne. Ceci traduit l'idée de commensurabilité.
<Desc/Clms Page number 11>
La somme pondérée est la fonction d'agrégation compensatoire la plus simple. Elle ne permet de modéliser que l'importance relative des critères entre eux. D'autres phénomènes très importants sont aussi présents dans l'agrégation de critères. Il s'agit principalement de l'interaction entre critères. Il y a deux types d'interaction. Le premier type d'interaction est dit positif et correspond à un expert intolérant. Ce dernier est satisfait si plusieurs critères sont satisfaits en même temps. Il ne veut pas qu'il y ait de points faibles. Cette manière d'agréger correspond à la fonction min : le score global est le plus petit parmi les scores. Le second type d'interaction est dit négatif et correspond à un expert tolérant. Pour qu'il soit satisfait, il suffit qu'un seul critère soit bien satisfait. Cela n'apporte rien d'être bon suivant plusieurs critères en même temps. Cette manière d'agréger correspond à la fonction max : le score global est le plus grand parmi les scores. Ces deux attitudes de tolérance et d'intolérance sont extrêmes. La plupart des cas correspondent à une combinaison d'attitudes de ce type appliquée à un sous-ensemble de critères. En se limitant à des interactions entre couples de critères, on obtient :
F(x) = a1X1+...+anxn + bl,2Min(x,,X2)+...+b,-,,,min(x,-,,Xn) + Cl,2maX(X1,X2)+...+Cn-l,nmaXXn~l,Xn) où chaque coefficient est compris entre 0 et 1, et leur somme vaut 1 : a+...+an - b1,2-I-...-bn-1,n'" C1,2+...+Cn-i,n=1. On peut montrer que l'expression précédente s'écrit sous la forme suivante F(x)=Ei vi # Xj - E{i.j) 1 X-Xj 1;I2. Dans cette expression, le terme 1 xI-x] 1/2 correspond à l'interaction entre les critères i et j. Le signe de li donne le type d'interaction, positive ou négative. Ce type d'opérateur d'agrégation est appelé intégrale de Choquet 2-additive. On le notera C2 dans la suite. Il est bien sûr possible d'utiliser des opérateurs d'agrégation plus complexes comme par exemple l'intégrale de Choquet générale.
F(x) = a1X1+...+anxn + bl,2Min(x,,X2)+...+b,-,,,min(x,-,,Xn) + Cl,2maX(X1,X2)+...+Cn-l,nmaXXn~l,Xn) où chaque coefficient est compris entre 0 et 1, et leur somme vaut 1 : a+...+an - b1,2-I-...-bn-1,n'" C1,2+...+Cn-i,n=1. On peut montrer que l'expression précédente s'écrit sous la forme suivante F(x)=Ei vi # Xj - E{i.j) 1 X-Xj 1;I2. Dans cette expression, le terme 1 xI-x] 1/2 correspond à l'interaction entre les critères i et j. Le signe de li donne le type d'interaction, positive ou négative. Ce type d'opérateur d'agrégation est appelé intégrale de Choquet 2-additive. On le notera C2 dans la suite. Il est bien sûr possible d'utiliser des opérateurs d'agrégation plus complexes comme par exemple l'intégrale de Choquet générale.
Selon le principe général du procédé de l'invention, on désire expliquer les décisions et les choix issus de la fonction d'agrégation F. Les alternatives sont supposées décrites directement par leurs performances
<Desc/Clms Page number 12>
suivant les n critères à prendre en compte. On note X=(X1,...,Xn) une telle alternative. Il s'agit de fournir à un expert une explication écrite qui soit comprise par l'expert et qui le convainque. Elle doit donc être la plus simple possible afin de ne pas noyer l'expert. Elle doit toutefois être complète et refléter ce qui a réellement été à l'origine de la décision prise. On s'intéresse aux deux problèmes suivants : # Expliquer pourquoi x < y, c'est à dire F(x) < F(y).
# Expliquer le score F(x) d'une alternative x.
Le traitement du second problème se fera en le ramenant au premier cas.
Expliquer pourquoi x < y, c'est à dire F(x) < F(y)
On commence par décrire les principes généraux que l'on propose pour expliquer pourquoi x < y, c'est à dire F(x) < F(y).
On commence par décrire les principes généraux que l'on propose pour expliquer pourquoi x < y, c'est à dire F(x) < F(y).
Le procédé de l'invention se base sur les trois principes suivants : # Le premier principe est que ce n'est pas forcément la peine de faire référence aux spécificités de la fonction d'agrégation si la décision prise avait été la même en remplaçant l'opérateur d'agrégation par une grande variété d'autres opérateurs d'agrégation.
# On a vu précédemment que l'intégrale de Choquet 2-additive s'écrit comme une combinaison d'attitudes particulières, typiques de décisions (tolérance, intolérance,...). Toute fonction d'agrégation compensatoire peut se décomposer sous cette forme, c'est-à-dire sous la forme d'une somme convexe d'attitudes typiques de décision.
On se base en grande partie sur cette décomposition. Il ne faut pas pour autant faire référence dans l'explication à l'ensemble des phénomènes. Afin de ne pas noyer l'expert, l'idée est de mentionner uniquement les arguments déterminants ayant réellement contribué à la prise de décision. Le second principe est donc que l'on simplifie l'opérateur d'agrégation (en prenant en compte de moins en moins de phénomènes) tant que la décision prise reste la même. Cela permet de déterminer les phénomènes de décision qui sont réellement à l'origine de la décision prise.
<Desc/Clms Page number 13>
# Le troisième principe est que l'explication est déterminée par comparaison entre deux fonctions d'agrégation fournissant des décisions opposées. On cherche alors à savoir ce qui fait pencher la décision en faveur d'une alternative. On appliquera ce principe à différents opérateurs et à différentes alternatives.
L'ensemble des phénomènes de décision modélisés par F sont regroupés en sous-ensembles emboîtés. Cela amène à définir p niveaux de complexité croissante comportant de plus en plus de phénomènes de décision. A chaque niveau, on doit spécifier si x est préféré ou non à y. Afin que l'exposé soit le plus général possible, les comparaisons sont réalisées au travers de fonctions dites de comparaison. Cela fournit une
suite de fonctions de comparaison M1k(x,y),..., M pk(x,y) entre x et y. M ik(x,y) représente la famille N i indicée par k décrivant l'ensemble des phénomènes possibles au niveau i. Le signe de M ik(x,y) indique si la décision prise, en ne prenant en compte que la famille N i de phénomènes, est la même ou non qu'avec F. Si M 'k(x,y)<0, alors la décision prise est la même que F. Au fur et à mesure que i croît, Mik(x,y) comporte de plus en plus de phénomènes. On a Mpk(x,y) = F(x)-F(y).
suite de fonctions de comparaison M1k(x,y),..., M pk(x,y) entre x et y. M ik(x,y) représente la famille N i indicée par k décrivant l'ensemble des phénomènes possibles au niveau i. Le signe de M ik(x,y) indique si la décision prise, en ne prenant en compte que la famille N i de phénomènes, est la même ou non qu'avec F. Si M 'k(x,y)<0, alors la décision prise est la même que F. Au fur et à mesure que i croît, Mik(x,y) comporte de plus en plus de phénomènes. On a Mpk(x,y) = F(x)-F(y).
Lorsque pour tout i, on a xi<yi, alors n'importe quelle fonction d'agrégation indiquera que y est préféré à x. Ce n'est donc pas la peine dans ce cas d'invoquer les spécificités de l'opérateur d'agrégation F pour expliquer la décision prise. On applique ici le premier principe. Cela
amène à prendre pour la première approximation M1 dx,y)=miniE{1,...,n} (x, y,). On a en effet M1 k(X, y) <0 si pour tout i, on a x,<y,.
amène à prendre pour la première approximation M1 dx,y)=miniE{1,...,n} (x, y,). On a en effet M1 k(X, y) <0 si pour tout i, on a x,<y,.
Le second principe indique que, dans l'explication, on remplace F par l'approximation la plus simple fournissant la même décision, c'est-à-dire
le plus petit i tel que M\(x,y)>0,..., M i-1dx,y)() et M k(x,y)<0 . Le troisième principe consiste alors à expliquer pourquoi M 'k(x,y)<0 alors
que Mk(x,y)>0, poury</, fournissent des décision opposées. On ne prend pas toujours j=i-1.
le plus petit i tel que M\(x,y)>0,..., M i-1dx,y)() et M k(x,y)<0 . Le troisième principe consiste alors à expliquer pourquoi M 'k(x,y)<0 alors
que Mk(x,y)>0, poury</, fournissent des décision opposées. On ne prend pas toujours j=i-1.
<Desc/Clms Page number 14>
De façon résumée, selon l'invention, on calcule l'indice i pour lequel
M'k(x,y)>0,..., M]'\(x,y)>0 et M'k(x,y)<0. Si Í=1, alors il suffit d'indiquer que la décision est triviale puisque tous les scores de y sont meilleurs que
ceux de x. Si />1, alors on explique pourquoi M k(x,y)<0 alors que M 'k(x,y)>0, pour j<i. On se base alors sur les phénomènes élémentaires présents au niveau i et absents au niveau j. On peut aussi éventuellement expliquer pourquoi M jk(x,y)#0 en appliquant le procédé d'explication récursivement à Mjk.
M'k(x,y)>0,..., M]'\(x,y)>0 et M'k(x,y)<0. Si Í=1, alors il suffit d'indiquer que la décision est triviale puisque tous les scores de y sont meilleurs que
ceux de x. Si />1, alors on explique pourquoi M k(x,y)<0 alors que M 'k(x,y)>0, pour j<i. On se base alors sur les phénomènes élémentaires présents au niveau i et absents au niveau j. On peut aussi éventuellement expliquer pourquoi M jk(x,y)#0 en appliquant le procédé d'explication récursivement à Mjk.
Selon ce procédé, la complexité de l'explication générée dépend naturellement de la marge que l'on a sur la décision prise (la décision a-telle été prise de peu ou non ?).
Expliquer le score F(x) d'une alternative x
On désire maintenant expliquer le score global de x, c'est-à-dire expliquer pourquoi F (x) une certaine valeur a. Il n'y a aucun intérêt à expliquer la valeur exacte de a. Par contre, un expert souhaite savoir pourquoi a est jugé plutôt mauvais, plutôt bon ou moyen. On veut donc expliquer pourquoi a appartient à un certain niveau flou. On suppose que l'on dispose de 2m+1 niveaux flous: N~m, ..., No,..., Nm. Le niveau N~m est le plus mauvais (TRÈS MAUVAIS), No est moyen (ni bon ni mauvais) et Nm est le meilleur niveau (TRÈS BON). Dans la théorie des ensembles flous, il est classique de modéliser de tels niveaux par des ensembles flous (cf. Figure 1, sur laquelle on a représenté cinq ensemble flous, allant de très mauvais à très bon ). Afin d'éviter l'utilisation de modificateurs linguistiques (qui sont inévitables pour caractériser les valeurs intermédiaires entre deux ensembles flous) qui rajouteraient une complexité supplémentaire dans l'explication, on représente chaque niveau linguistique par un ensemble non flou: Ni = ] mi , M, ]. Les niveaux linguistiques forment un pavage si l'on suppose que pour tout i, M, = mi+1. Cela correspond à la Figure 2, sur laquelle on a représenté les cinq
On désire maintenant expliquer le score global de x, c'est-à-dire expliquer pourquoi F (x) une certaine valeur a. Il n'y a aucun intérêt à expliquer la valeur exacte de a. Par contre, un expert souhaite savoir pourquoi a est jugé plutôt mauvais, plutôt bon ou moyen. On veut donc expliquer pourquoi a appartient à un certain niveau flou. On suppose que l'on dispose de 2m+1 niveaux flous: N~m, ..., No,..., Nm. Le niveau N~m est le plus mauvais (TRÈS MAUVAIS), No est moyen (ni bon ni mauvais) et Nm est le meilleur niveau (TRÈS BON). Dans la théorie des ensembles flous, il est classique de modéliser de tels niveaux par des ensembles flous (cf. Figure 1, sur laquelle on a représenté cinq ensemble flous, allant de très mauvais à très bon ). Afin d'éviter l'utilisation de modificateurs linguistiques (qui sont inévitables pour caractériser les valeurs intermédiaires entre deux ensembles flous) qui rajouteraient une complexité supplémentaire dans l'explication, on représente chaque niveau linguistique par un ensemble non flou: Ni = ] mi , M, ]. Les niveaux linguistiques forment un pavage si l'on suppose que pour tout i, M, = mi+1. Cela correspond à la Figure 2, sur laquelle on a représenté les cinq
<Desc/Clms Page number 15>
ensembles non flous correspondant à ceux de la figure 1. N'importe quel score appartient alors à un unique niveau avec un degré 1.
Connaissant a, on détermine tout d'abord le niveau flou correspondant, c'est-à-dire l'entier iE{-p,...,p} tel que [alpha]#] m, , M, ]. Expliquer pourquoi a est N, (c'est à dire que a appartient à N,) revient à montrer pourquoi a n'est ni Ni+1 (c'est à dire a < m,+i ) ni NI-1 (c'est à dire
a > Me ) . On veut donc expliquer pourquoi a < M, et a > m; . Autrement dit, en utilisant la propriété que F(t,...,t)=t pour tout t, on se ramène à ce qui est exposé ci-dessous à propos de la détermination de la première ou de la seconde solution pour l'explication d'une comparaison entre deux alternatives, en expliquant pourquoi x < (M,, ..., M,) et pourquoi x > (m,, ..., m,), où (t,...,t) est l'alternative qui vaut t suivant tous les critères.
a > Me ) . On veut donc expliquer pourquoi a < M, et a > m; . Autrement dit, en utilisant la propriété que F(t,...,t)=t pour tout t, on se ramène à ce qui est exposé ci-dessous à propos de la détermination de la première ou de la seconde solution pour l'explication d'une comparaison entre deux alternatives, en expliquant pourquoi x < (M,, ..., M,) et pourquoi x > (m,, ..., m,), où (t,...,t) est l'alternative qui vaut t suivant tous les critères.
Le principe de l'explication est alors le suivant : on commence par donner la tendance générale ( plutôt bon ou plutôt mauvais ), puis on affine.
# Si i>0, on commence par expliquer pourquoi a est plutôt bon. En utilisant l'argumentation de l'explication de x > (m,, ..., m,), l'explication à fournir est : x est N, puisque ...
Ensuite, il faut expliquer pourquoi a n'est pas excellent, si a ne l'est pas déjà. Donc si i<p, en utilisant l'argumentation de l'explication de x < (M,, Mi), le second volet de l'explication est donc : x n'est pas NI+1 puisque ... # Si i<0, on commence par expliquer pourquoi a est plutôt mauvais. En utilisant l'argumentation de l'explication de x < (M,, ..., M,), l'explication à fournir est : x est N, puisque ...
Ensuite, il faut ensuite expliquer pourquoi a n'est pas parfaitement nul, si a ne l'est pas déjà. Donc si i>-p, en utilisant l'argumentation de
Ensuite, il faut expliquer pourquoi a n'est pas excellent, si a ne l'est pas déjà. Donc si i<p, en utilisant l'argumentation de l'explication de x < (M,, Mi), le second volet de l'explication est donc : x n'est pas NI+1 puisque ... # Si i<0, on commence par expliquer pourquoi a est plutôt mauvais. En utilisant l'argumentation de l'explication de x < (M,, ..., M,), l'explication à fournir est : x est N, puisque ...
Ensuite, il faut ensuite expliquer pourquoi a n'est pas parfaitement nul, si a ne l'est pas déjà. Donc si i>-p, en utilisant l'argumentation de
<Desc/Clms Page number 16>
l'explication de x > (m,, ..., m,), le second volet de l'explication est donc : x n'est pas Ni-1 puisque ... # Lorsque i=0, on explique pourquoi a n'est ni bon ni mauvais. En utilisant l'argumentation de l'explication de x < (M,, ..., M,), l'explication à fournir est : x n'est pas N1 puisque ...
En utilisant l'argumentation de l'explication de x > (m,, mi), le second volet de l'explication est donc : x n'est pas N~1 puisque ...
On va décrire par la suite deux solutions concrètes dans le cas où F est l'intégrale de Choquet 2-additive. D'après le procédé qui vient d'être décrit, il suffit d'expliciter l'explication pour une comparaison entre deux alternatives, l'explication du score global s'en déduisant.
En utilisant l'argumentation de l'explication de x > (m,, mi), le second volet de l'explication est donc : x n'est pas N~1 puisque ...
On va décrire par la suite deux solutions concrètes dans le cas où F est l'intégrale de Choquet 2-additive. D'après le procédé qui vient d'être décrit, il suffit d'expliciter l'explication pour une comparaison entre deux alternatives, l'explication du score global s'en déduisant.
Détermination d'une première solution pour l'explication d'une comparaison entre deux alternatives.
On va détailler ici une première solution pour l'explication d'une comparaison entre deux alternatives, dans le cas où F est l'intégrale de Choquet 2-additive. Conformément l'approche générale décrite, il faut définir une série emboîtée d'approximations de C2 . :
La première approximation est M1 '/f(x,yj=min,e(...,n; (Xi-y). On a M'k(x,y)<0 si pour tout i, on a x,<y,.
La première approximation est M1 '/f(x,yj=min,e(...,n; (Xi-y). On a M'k(x,y)<0 si pour tout i, on a x,<y,.
La seconde approximation est /,)=5(x)-S(y), où S est la moyenne arithmétique, c'est à dire S(x)=(x1+...+xn)/n .
La troisième approximation est M'\(x,y)= C1[j{x)-C1ij{y), où C'r est une somme pondérée. La fonction C1 ne fait intervenir que les
phénomènes d'importance des critères. On a ClfJ(X)=.Lï v; x, . Les indices k matérialisent donc les phénomènes d'importance des critères.
phénomènes d'importance des critères. On a ClfJ(X)=.Lï v; x, . Les indices k matérialisent donc les phénomènes d'importance des critères.
<Desc/Clms Page number 17>
#La dernière approximation est Mk(x,y)= C2P(X)-C2P(Y). Il s'agit donc du modèle décisionnel complet. Les phénomènes d'importance des critères, et d'interaction entre couples de critères sont modélisés. Les indices k matérialisent donc les phénomènes d'importance et d'interaction.
Conformément au procédé général décrit précédemment, on détermine la plus petite approximation amenant à la même décision que C2 . On va exposer maintenant l'explication à fournir dans chaque cas.
Cas où xi<yi pour tout i , c'est-à-dire où M'k(x,y)<0 : On a Mlk(x,y)<0 si pour tout i, on a x,<y;. Dans ce cas, n'importe quelle fonction d'agrégation indiquera que y est préféré à x. Ce n'est donc pas la peine dans ce cas d'invoquer les spécificités de l'opérateur d'agrégation C2 pour expliquer la décision prise. On applique ici le premier principe.
L'explication à fournir est donc simplement la suivante : y est préféré à x puisque TOUS les scores de y sont meilleurs que ceux de x.
Cas où S(x)<S(y) mais 3i tel que x;>y; , c'est-à-dire où M2,x, y)<D et M1k (x,y)#0:
Lorsque certains critères de x sont mieux satisfaits que ceux de y, et vice versa, on doit faire référence un minimum à une fonction d'agrégation pour expliquer le score. Le premier opérateur d'agrégation qui vient à l'esprit est la moyenne arithmétique. Il s'agit de l'opérateur d'agrégation que l'on utiliserait en l'absence d'information : tousles critères ont la même importance, et il n'y a pas d'interaction particulière entre les critères. Lorsque S(x)<S(y), il peut être suffisant de dire que x est en moyenne moins bon que y pour expliquer x<y. On applique ici les deux premiers principes. L'explication à fournir est alors la suivante : y est préféré à x puisque les scores de y sont en moyenne meilleurs que ceux de x.
Cas où S(x)<S(y) mais 3i tel que x;>y; , c'est-à-dire où M2,x, y)<D et M1k (x,y)#0:
Lorsque certains critères de x sont mieux satisfaits que ceux de y, et vice versa, on doit faire référence un minimum à une fonction d'agrégation pour expliquer le score. Le premier opérateur d'agrégation qui vient à l'esprit est la moyenne arithmétique. Il s'agit de l'opérateur d'agrégation que l'on utiliserait en l'absence d'information : tousles critères ont la même importance, et il n'y a pas d'interaction particulière entre les critères. Lorsque S(x)<S(y), il peut être suffisant de dire que x est en moyenne moins bon que y pour expliquer x<y. On applique ici les deux premiers principes. L'explication à fournir est alors la suivante : y est préféré à x puisque les scores de y sont en moyenne meilleurs que ceux de x.
<Desc/Clms Page number 18>
Cas où C1J1(X}<C1J1(Y} mais S(x)>S(y), c'est à dire où lVlklx,y)<0, rJ2tlx, v):?O et M\(x,v)>0\ Lorsque C'N(x)<C'N(y), on utilise d'après le second principe la fonction d'agrégation C1 dans l'explication. On suppose ici que S(x)>S(y).
Lorsque C'p(x)<C'p(y) mais que S(x)>S(y), on sent intuitivement que les critères pour lesquels y est meilleur que x sont plus importants en moyenne que les critères pour lesquels x est meilleur que y. Il s'agit ici d'appliquer le troisième principe.
Pour trouver parmi les coefficients v, ceux qui ont réellement compté dans la décision, on utilise encore une fois le second principe. Plus précisément, on remplace progressivement les poids v, par 1/n tant que la décision prise reste la même. Soit N={1,...,n} l'ensemble des critères.
Pour AcN, on définit C,/4= x, + Lf!A x,ln. Soit donc S2={ AcN, C1fj,A(x) < C1u,A(y)}. L'ensemble .0 regroupe donc tous les sousensembles de phénomènes d'importance de critères amenant à la même décision que C2, . On a 0{l:.o et NE S2.
On pose le lemme suivant : Lemme 1 : SoitA##. On note p le nombre d'éléments de A.
Alors il existe au moins un n-p uplet de critères distincts deux à
deux notés Cl,...,Cn-p tels que AV{C1}ES2, AV{C1,C2}ESZ, ..., AJ{C1,...,Cn~P}ESZ et AU{C1,...,Cn-p}=N.
deux notés Cl,...,Cn-p tels que AV{C1}ES2, AV{C1,C2}ESZ, ..., AJ{C1,...,Cn~P}ESZ et AU{C1,...,Cn-p}=N.
Ce lemme est très important puisqu'il donne une justification du remplacement de C1 par C1 ,A dans l'explication. En effet, il indique que l'on a :
C1fj,A(x) < C1iu,A(y) , Clf.!,Au{C1}(X) < Clf.!,Au{C1}(Y), C'r,A{C1,C2}(x) < C'N,Av{c,c2}(Y) , ... C'p,A{c1, ... C"~p} (x) = C1ij(x) < C'N(YJ = C'p,A{c 1, ... cn~P} (Y)
Par conséquent, le lemme précédent prouve que l'on peut passer progressivement de l'opérateur C1 à l'opérateur C1 @A (en conservant tout
C1fj,A(x) < C1iu,A(y) , Clf.!,Au{C1}(X) < Clf.!,Au{C1}(Y), C'r,A{C1,C2}(x) < C'N,Av{c,c2}(Y) , ... C'p,A{c1, ... C"~p} (x) = C1ij(x) < C'N(YJ = C'p,A{c 1, ... cn~P} (Y)
Par conséquent, le lemme précédent prouve que l'on peut passer progressivement de l'opérateur C1 à l'opérateur C1 @A (en conservant tout
<Desc/Clms Page number 19>
le temps la même décision prise), en ne modifiant qu'un seul poids à la fois.
On peut alors remplacer C1 J1 par Clp,A dans l'explication à fournir.
On peut alors remplacer C1 J1 par Clp,A dans l'explication à fournir.
Afin de simplifier l'explication, on cherche donc les coalitions AeQ de plus petite cardinalité. On cherche donc les A## minimaux au sens de
l'inclusion. Il s'agit des coalitions AE SZ telles que Vie A, A1{i} 52,. Comme le montre le lemme suivant, de telles coalitions satisfont des propriétés intéressantes :
Lemme 2: Soit AES2 minimal. Alors nécessairement, x,<yi pour tout i#A tel que v,>1/n, et x,>y, pour tout i#A tel que v,<1/n.
l'inclusion. Il s'agit des coalitions AE SZ telles que Vie A, A1{i} 52,. Comme le montre le lemme suivant, de telles coalitions satisfont des propriétés intéressantes :
Lemme 2: Soit AES2 minimal. Alors nécessairement, x,<yi pour tout i#A tel que v,>1/n, et x,>y, pour tout i#A tel que v,<1/n.
Autrement dit, si A## est minimal, alors les critères de A pour lesquels y est meilleur que x sont importants (i.e. v,>1/n), alors que les critères de A pour lesquels x est meilleur que y sont peu importants (i.e. v,<1/n). On retrouve donc exactement l'intuition donnée ci-dessus. Le lemme précédent est essentiel car il permet de générer une explication complète et très simple.
Soit !'"={ie N, x,>y,} et r={J6 N, x,<y,}.
Si A n I- :;t:0, alors l'explication à fournir est : Bien que x soit en moyenne meilleur que y, y est quand même préféré à x puisque y est meilleur que x sur les critères A # l- qui sont importants, alors que y est moins bon que x sur les critères A n l+ qui sont peu importants .
# Si A n l- =0, alors l'explication à fournir est : y est préféré à x puisque les critères A n l+ sur lesquels x est meilleur que y sont peu importants, et ne compensent pas le fait que y est en moyenne meilleur que x sur les autres critères.
Cas où C2N (x)<C2r (y) mais C1J.1 (X)1fJ (y) et S(x)>S(y), c'est-à-dire où k(X,V<0, M'3Ilx,v)(), M2k(x, y)->O et M\(x,v)>0\ On suppose ici que C2 (x)<C2 (y) mais que C1J1 (x)> C1fJ (y) et S(x) >S(y). On a dJ1(X)=, vi x. - {i,i) 1 xI-x] 1. 1,/2. Le fait que C1J.1 (x)> C1J1 (y) ne nous amène pas à baser l'explication uniquement sur les phénomènes
Cas où C2N (x)<C2r (y) mais C1J.1 (X)1fJ (y) et S(x)>S(y), c'est-à-dire où k(X,V<0, M'3Ilx,v)(), M2k(x, y)->O et M\(x,v)>0\ On suppose ici que C2 (x)<C2 (y) mais que C1J1 (x)> C1fJ (y) et S(x) >S(y). On a dJ1(X)=, vi x. - {i,i) 1 xI-x] 1. 1,/2. Le fait que C1J.1 (x)> C1J1 (y) ne nous amène pas à baser l'explication uniquement sur les phénomènes
<Desc/Clms Page number 20>
d'interaction. En effet, les phénomènes d'importance ont aussi compté dans la décision prise, mais ils n'ont pas été suffisants. On veut donc expliquer,
d'après le troisième principe, pourquoi C2p (x)<C2p (y) alors que 5(x) 25(y).
d'après le troisième principe, pourquoi C2p (x)<C2p (y) alors que 5(x) 25(y).
Comme précédemment, afin de simplifier au maximum l'explication, on désire enlever certaines interactions et remplacer certains vi par 1/n. On notera encore A les critères pour lesquels on garde les termes d'importance
v,. L'ensemble N"={ {i,j}E NxN, ij} fournit l'ensemble des couples d'indices pouvant apparaître dans les termes d'interaction. On note A* les termes d'interaction qui sont conservés. Pour AçN, on définit v,=v, si iEA et v*j=1/n si i A. Pour A"cN", on définit /'IJ=IIJ si {i,j}eA" et rv=0 si {i,j} Ak. Les coefficients v'i et l'ij correspondent aux nouveaux coefficients d'importance et d'interaction.
v,. L'ensemble N"={ {i,j}E NxN, ij} fournit l'ensemble des couples d'indices pouvant apparaître dans les termes d'interaction. On note A* les termes d'interaction qui sont conservés. Pour AçN, on définit v,=v, si iEA et v*j=1/n si i A. Pour A"cN", on définit /'IJ=IIJ si {i,j}eA" et rv=0 si {i,j} Ak. Les coefficients v'i et l'ij correspondent aux nouveaux coefficients d'importance et d'interaction.
Les coefficients d'importance v", et les coefficients d'interaction l*ij doivent satisfaire certaines conditions. Ce sont les conditions dites de monotonie . Ces conditions sont équivalentes au fait que la fonction d'agrégation correspondante est croissante. Ces conditions s'écrivent sous la
forme : Vie N, v', + Yi,, l$,l2 > D pour toutes les combinaisons possibles de + et de -. Le lemme suivant donne des conditions pour lesquelles la monotonie est vérifiée.
forme : Vie N, v', + Yi,, l$,l2 > D pour toutes les combinaisons possibles de + et de -. Le lemme suivant donne des conditions pour lesquelles la monotonie est vérifiée.
Lemme 3 : SiAcN et A*#N* vérifient la condition
{i,jlcz A* => iE A et je A alors la mesure 2-additive formée des v*i et des l*ij est monotone.
{i,jlcz A* => iE A et je A alors la mesure 2-additive formée des v*i et des l*ij est monotone.
On supposera par la suite que cette condition est satisfaite.
On définit alors :
d;,A,A '(x) = El v, x, - I{I,j} 1 xI-X 1 ris/2 = 16A VI x, + l'''A yin I{I,j)6A* 1 -Xi I ' In2 .
d;,A,A '(x) = El v, x, - I{I,j} 1 xI-X 1 ris/2 = 16A VI x, + l'''A yin I{I,j)6A* 1 -Xi I ' In2 .
Soit donc : S2'={ AxAçNxN%, C2p,A,A'(x) < C2p ,A,A'(y) et {i,j}e A => i,jE A }.
<Desc/Clms Page number 21>
Il s'agit des ensembles d'importance et d'interaction amenant à la
même décision que C7. On a (C,) S2 et (N,N')E S2*. Comme précédemment, on s'intéresse aux éléments minimaux de #*. Le lemme suivant donne des propriétés intéressantes satisfaites par de tels éléments.
même décision que C7. On a (C,) S2 et (N,N')E S2*. Comme précédemment, on s'intéresse aux éléments minimaux de #*. Le lemme suivant donne des propriétés intéressantes satisfaites par de tels éléments.
Lemme 4: Soit (A,A')E S2' minimal. Alors o I, > 0 pour tout {i,j}E A' tel que 1 x/-À} 1> 1 Y-jj o !,J < 0 pour tout li,j)cz A tel que xyz ! < ! 1 Yd'i o diE Anl+, on a v,-1/n < I).{!,))6A* (lx-x1 yiYi 1 )/(x-y,). 11f12 o ViEAnl-, on a v,-1/n > Xj,{i,j}6a* (1 x,-xjl -\yr Yj 1 )/(x-y,). Ilj/2 Comme les phénomènes d'interaction sont déterminants pour expliquer la
décision prise, on s'intéresse aux (A,AX)ES2' minimaux dans S2 tels que A ';t0. Soit D+ ={ {i,j}eN*, /## > 0} et D*1" ={ {i,nE W, IiI < 01. Soit D- ={iEN, v,>1/n} et D+ ={i#N, v,<1/n}. Tous les termes d'interaction de A* sont utilisés dans l'explication. Par contre, on n'utilise pas forcément tous les termes d'importance de A dans l'explication. D'après le lemme 3, certains termes d'importance ne sont présents dans A que pour satisfaire à la condition de monotonie. Ils n'ont pas réellement compté dans la décision prise. En conséquence, on ne mentionne dans l'explication que les termes d'importance satisfaisant les conditions du lemme 2. Autrement dit, on ne mentionne dans l'explication que les termes d'importance appartenant soit à Anl-n D+ soit à Anl-n D+. L'explication à fournir est la suivante : y est préféré à x puisque l'interaction est positive sur les couples A*# D@+ pour lesquels l'écart sur les scores de x est supérieur à ceux sur les scores de y, l'interaction est négative sur les couples A*n D*' pour lesquels l'écart sur les scores de x est inférieur à ceux sur les scores de y, x est moins bon que y sur les critères Anl-n D+ qui sont
décision prise, on s'intéresse aux (A,AX)ES2' minimaux dans S2 tels que A ';t0. Soit D+ ={ {i,j}eN*, /## > 0} et D*1" ={ {i,nE W, IiI < 01. Soit D- ={iEN, v,>1/n} et D+ ={i#N, v,<1/n}. Tous les termes d'interaction de A* sont utilisés dans l'explication. Par contre, on n'utilise pas forcément tous les termes d'importance de A dans l'explication. D'après le lemme 3, certains termes d'importance ne sont présents dans A que pour satisfaire à la condition de monotonie. Ils n'ont pas réellement compté dans la décision prise. En conséquence, on ne mentionne dans l'explication que les termes d'importance satisfaisant les conditions du lemme 2. Autrement dit, on ne mentionne dans l'explication que les termes d'importance appartenant soit à Anl-n D+ soit à Anl-n D+. L'explication à fournir est la suivante : y est préféré à x puisque l'interaction est positive sur les couples A*# D@+ pour lesquels l'écart sur les scores de x est supérieur à ceux sur les scores de y, l'interaction est négative sur les couples A*n D*' pour lesquels l'écart sur les scores de x est inférieur à ceux sur les scores de y, x est moins bon que y sur les critères Anl-n D+ qui sont
<Desc/Clms Page number 22>
importants, et x est meilleur que y sur les critères Anl-n D+ qui sont peu importants.
Pour rendre l'explication plus convaincante au sujet des termes d'interaction, on propose de reprendre les résultats du lemme 4. Soit {i,j}e A*
tel que IIJ> 0. Alors d'après le lemme 4, on a 1 xI-X 1> 1 YI-JI 1. On suppose par exemple que x, > xj. Alors l'explication à fournir sur un terme d'interaction positive est : ... le score de x sur le critère i est pénalisé par un plus mauvais score suivant le critère j(les critères i et jdoivent être satisfaits tous les deux) ...
Pour rendre l'explication plus convaincante au sujet des termes d'interaction, on propose de reprendre les résultats du lemme 4. Soit {i,j}e A*
tel que IIJ> 0. Alors d'après le lemme 4, on a 1 xI-X 1> 1 YI-JI 1. On suppose par exemple que x, > xj. Alors l'explication à fournir sur un terme d'interaction positive est : ... le score de x sur le critère i est pénalisé par un plus mauvais score suivant le critère j(les critères i et jdoivent être satisfaits tous les deux) ...
On considère maintenant le cas des interactions négatives. Soit {i,j}E
A' tel que 1,, < 0. Alors d'après le lemme 4, on a 1 x,-x, 1 < 1 YI-JI 1. On suppose par exemple que y, < yj. Alors, l'explication à fournir sur un terme d'interaction négative est : ... le score de y sur le critère i a été sauvé par un meilleur score sur le critère (il suffit de satisfaire l'un des deux critères /ou y) ...
L'explication ainsi générée ne présuppose aucune connaissance de l'utilisateur sur les phénomènes d'interaction et est facilement compréhensible.
A' tel que 1,, < 0. Alors d'après le lemme 4, on a 1 x,-x, 1 < 1 YI-JI 1. On suppose par exemple que y, < yj. Alors, l'explication à fournir sur un terme d'interaction négative est : ... le score de y sur le critère i a été sauvé par un meilleur score sur le critère (il suffit de satisfaire l'un des deux critères /ou y) ...
L'explication ainsi générée ne présuppose aucune connaissance de l'utilisateur sur les phénomènes d'interaction et est facilement compréhensible.
On suppose que A'n Df'+ ~ {(ll,J1),...,(Ip,Jp)} et A'n D" = ki,il),...,(kq,iq)l avec x, > xi ,...,x,p > Xp et yk, < Y,1 ,..., yk4 < ylq. L'explication à fournir est donc la suivante : y est préféré à x puisque le score de x sur le critère j1 est pénalisé par un plus mauvais score suivant le critère j1 (les critères il et ji doivent être satisfaits tous les deux), ... , le score de x sur le critère ip est pénalisé par un plus mauvais score suivant le critère jp (les critères ip et jp doivent être satisfaits tous les deux), le score de y sur le critère k1 a été sauvé par un meilleur score sur le critère Il (il suffit de satisfaire l'un des deux critères k1 ou Il ),... , le score de y sur le critère kq a été sauvé par un meilleur score sur le critère lq (il suffit de
<Desc/Clms Page number 23>
satisfaire l'un des deux critères kq ou lq), x est moins bon que y sur les critères Anl-n D+ qui sont importants, et x est meilleur que y sur les critères Anl-n D+ qui sont peu importants.
Détermination d'une seconde solution pour l'explication d'une comparaison entre deux alternatives :
On va maintenant détailler une seconde solution pour l'explication d'une comparaison entre deux alternatives, dans le cas où F est l'intégrale de Choquet 2-additive. La méthode décrite dans la section précédente mérite d'être raffinée. Par exemple, il n'est pas toujours suffisant de dire que y est préféré à x puisque les scores de y sont en moyenne meilleurs que ceux de x dès que la moyenne arithmétique fournit la même décision que C2 . D'autre part, il peut être opportun de ne remplacer C2 par une fonction d'agrégation plus simple que si la décision prise avec ces deux fonctions d'agrégation est certes la même mais, de plus, est grosso modo aussi tranchée.
Détermination d'une seconde solution pour l'explication d'une comparaison entre deux alternatives :
On va maintenant détailler une seconde solution pour l'explication d'une comparaison entre deux alternatives, dans le cas où F est l'intégrale de Choquet 2-additive. La méthode décrite dans la section précédente mérite d'être raffinée. Par exemple, il n'est pas toujours suffisant de dire que y est préféré à x puisque les scores de y sont en moyenne meilleurs que ceux de x dès que la moyenne arithmétique fournit la même décision que C2 . D'autre part, il peut être opportun de ne remplacer C2 par une fonction d'agrégation plus simple que si la décision prise avec ces deux fonctions d'agrégation est certes la même mais, de plus, est grosso modo aussi tranchée.
Il n'est plus aussi facile d'expliciter les fonctions de comparaisons M 'k(x,y) que précédemment. La plupart du temps, on ne spécifiera pas ces fonctions. On donnera uniquement les conditions sous lesquelles on a M
'k(x, y)<0 et M'k(x,Y)D.
'k(x, y)<0 et M'k(x,Y)D.
Algorithme général
Les différentes constantes # données plus bas sont des nombres compris entre 0 et 1 (typiquement 0.3).
Les différentes constantes # données plus bas sont des nombres compris entre 0 et 1 (typiquement 0.3).
Cas 1: Lorsque Vie N, xi < y;, on utilise ce qui se trouve dans la section ci-dessus traitant du cas où x,<y, pour tout i.
Cas 2 : Lorsqueles trois fonctions d'agrégation S, C1 et C2 fournissent la même décision et que ces décision prises sont très tranchées, alors un grand nombre de fonctions d'agrégation fourniront la
même décision. Par des arguments de continuité, si C1 J.1(x) < C1 J.1(Y) alors il existe une multitude poids , proches de v (v étant les indices
d'importance) fournissant la même décision que C1g c'est à dire L, /.." Xi < Si A., y, . Pour être plus précis, on se place dans l'ensemble 9\n des poids
même décision. Par des arguments de continuité, si C1 J.1(x) < C1 J.1(Y) alors il existe une multitude poids , proches de v (v étant les indices
d'importance) fournissant la même décision que C1g c'est à dire L, /.." Xi < Si A., y, . Pour être plus précis, on se place dans l'ensemble 9\n des poids
<Desc/Clms Page number 24>
possibles. On peut alors montrer qu'il existe dans Rn une boule de centre
v et de rayon C 1/,(Y)-C',(x) composée uniquement de poids 1 pour 1 ,x - y} 1, (XI -Y,)2 lesquels la décision prise est la même qu'avec C1 . Plus le rayon de cette boule est important, moins il est nécessaire de mentionner les spécificités des fonctions d'agrégation dans l'explication. Ceci est valable aussi pour S et C2 . Autrement dit, lorsque
alors on n'utilise aucun phénomène particulier de l'opérateur d'agrégation pour expliquer la décision prise. La condition précédente
est la condition permettant d'avoir lVhk(x,y)<0. L'explication à fournir est donc la suivante : y est préféré à x puisque les scores de y sont en moyenne meilleurs que ceux de x. Cas 3 : LorsqueC1 fournit la bonne décision et que la décision prise
avec C1fJ est quasiment aussi tranchée qu'avec C2r, alors on n'utilise dans l'explication que les termes d'importance. Autrement dit, on
remplace d fJ par C1 fJ uniquement lorsque les décisions prises par ces deux opérateurs sont relativement similaires. La condition demandant que C1 soit quasiment aussi tranchée qu'avec C2 se décompose en deux parties. Tout d'abord, il faut préciser que la décision prise avec C1 ne doit pas être largement plus tranchée qu'avec C2 . Ceci peut se
traduire par l'inégalité : C1fJ(x) - C1fJ(Y) > i2 (C2N(x) - Cffjiy) ). Ensuite, la décision prise avec C2,u ne doit pas être largement plus tranchée qu'avec C1 fJ. Ceci peut être traduit par l'inégalité : C2N(x) - C2P(Y) > T4 ( C1 fJ(x) C1 fJ(Y) ). La condition finale de remplacement de C2r par C1 fJ est donc : C1fJ(x) < C1fJ(Y) et C1fJ(x) - C1fJ(Y) > i2 (C2p(X) ~ dfJ(Y) ) et C2P(X) - C2P(Y) > 't4 ( C1 fJ(x) - C1 fJ(Y) ).
v et de rayon C 1/,(Y)-C',(x) composée uniquement de poids 1 pour 1 ,x - y} 1, (XI -Y,)2 lesquels la décision prise est la même qu'avec C1 . Plus le rayon de cette boule est important, moins il est nécessaire de mentionner les spécificités des fonctions d'agrégation dans l'explication. Ceci est valable aussi pour S et C2 . Autrement dit, lorsque
alors on n'utilise aucun phénomène particulier de l'opérateur d'agrégation pour expliquer la décision prise. La condition précédente
est la condition permettant d'avoir lVhk(x,y)<0. L'explication à fournir est donc la suivante : y est préféré à x puisque les scores de y sont en moyenne meilleurs que ceux de x. Cas 3 : LorsqueC1 fournit la bonne décision et que la décision prise
avec C1fJ est quasiment aussi tranchée qu'avec C2r, alors on n'utilise dans l'explication que les termes d'importance. Autrement dit, on
remplace d fJ par C1 fJ uniquement lorsque les décisions prises par ces deux opérateurs sont relativement similaires. La condition demandant que C1 soit quasiment aussi tranchée qu'avec C2 se décompose en deux parties. Tout d'abord, il faut préciser que la décision prise avec C1 ne doit pas être largement plus tranchée qu'avec C2 . Ceci peut se
traduire par l'inégalité : C1fJ(x) - C1fJ(Y) > i2 (C2N(x) - Cffjiy) ). Ensuite, la décision prise avec C2,u ne doit pas être largement plus tranchée qu'avec C1 fJ. Ceci peut être traduit par l'inégalité : C2N(x) - C2P(Y) > T4 ( C1 fJ(x) C1 fJ(Y) ). La condition finale de remplacement de C2r par C1 fJ est donc : C1fJ(x) < C1fJ(Y) et C1fJ(x) - C1fJ(Y) > i2 (C2p(X) ~ dfJ(Y) ) et C2P(X) - C2P(Y) > 't4 ( C1 fJ(x) - C1 fJ(Y) ).
<Desc/Clms Page number 25>
Ce cas 3 comporte quatre sous-cas :
Cas 3a: Ici, on suppose que la moyenne arithmétique donne la même décision que C1 mais que la décision est plus tranchée avec C1 qu'avec la moyenne arithmétique. Ceci signifie que
C1 fJ(x) - C1 fJ(Y) S(x)-S(y) <~ 0. On obtient donc les conditions suivantes : 5(x) < S(y) et C1 fJ(x) < C1 fJ(Y) et C1 fJ(x) - C1 fJ(Y) < (1 ±Ci) (S(x)- S(y)).
C'est la condition pour avoir M3ak(x,y)<0. On utilise alors les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 3a.
Cas 3a: Ici, on suppose que la moyenne arithmétique donne la même décision que C1 mais que la décision est plus tranchée avec C1 qu'avec la moyenne arithmétique. Ceci signifie que
C1 fJ(x) - C1 fJ(Y) S(x)-S(y) <~ 0. On obtient donc les conditions suivantes : 5(x) < S(y) et C1 fJ(x) < C1 fJ(Y) et C1 fJ(x) - C1 fJ(Y) < (1 ±Ci) (S(x)- S(y)).
C'est la condition pour avoir M3ak(x,y)<0. On utilise alors les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 3a.
Cas 3b: Ici, on suppose que la décision est moins tranchée avec l'opérateur de Shapley qu'avec la moyenne arithmétique.
Autrement dit, S(x)-S(y) C1fJ(x) - C1fJ(Y) < 0. On obtient donc les conditions suivantes : S(x) < S(y) et C1fJ(x) < C1fJ(Y) et S(x)-S(y) < (1-nn) (C'u(x) - C1 (y) ).
C'est la condition pour avoir M3bk(x,y)<0. On utilise alors alors les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 3b.
Autrement dit, S(x)-S(y) C1fJ(x) - C1fJ(Y) < 0. On obtient donc les conditions suivantes : S(x) < S(y) et C1fJ(x) < C1fJ(Y) et S(x)-S(y) < (1-nn) (C'u(x) - C1 (y) ).
C'est la condition pour avoir M3bk(x,y)<0. On utilise alors alors les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 3b.
Cas 3c: Ici, on suppose que la décision est aussi tranchée avec l'opérateur de Shapley qu'avec la moyenne arithmétique.
Autrement dit, C1 fJ(x) - C1 fJ(y) = S(x)-S(y) < 0. On obtient les conditions suivantes : S(x) bzz S(y) et C1 fJ(x) < C1 fJ(y) et C(x) - C1 fJ(y) (1 ±ci) (S(x)S(y)) et S(x)-S(Y) '- (1+xi) (C1 fJ(x) - C1 fJ(y) ).
Autrement dit, C1 fJ(x) - C1 fJ(y) = S(x)-S(y) < 0. On obtient les conditions suivantes : S(x) bzz S(y) et C1 fJ(x) < C1 fJ(y) et C(x) - C1 fJ(y) (1 ±ci) (S(x)S(y)) et S(x)-S(Y) '- (1+xi) (C1 fJ(x) - C1 fJ(y) ).
<Desc/Clms Page number 26>
C'est la condition pour avoir Nl k(x,y)<0. On utilise alors alors les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 3c.
Cas 3d: Lorsque S(x) > S(y) et e1fJ(x) < e1p(y), alors la décision n'est pas la même avec l'opérateur de Shapley qu'avec la moyenne arithmétique. C'est la condition pour avoir
M3k(x,y)<0. On utilise alors ce qui a été exposé ci-dessus dans la description du cas où e1 fJ(x)<e1 fJ(y) mais S(x)>S(y)
Lorsque, dans les cas 3a, 3b et 3c, on tombe dans une situation dans laquelle l'explication n'est pas parfaitement intuitive, alors on doit utiliser une autre explication. On peut alors avoir recours à des termes d'interaction, et donc on se reporte au cas 5 suivant. Il est aussi envisageable d'utiliser une méthode joker ne se servant que des termes d'importance. Cette méthode peut consister à baser l'explication sur les termes de plus grand module, le nombre de termes considérés étant déterminé de manière dynamique en fonction de la marge sur la décision prise. On peut alors générer un texte similaire à ce qui est généré dans les autres cas.
Cas 4 : Sil'on ne se trouve dans aucun des cas précédents, alors il faut faire référence aux interactions ainsi qu'aux importances. Lorsque l'on se trouve ici, c'est principalement par ce que le cas précédent a échoué. Voici la contraposée de la condition d'applicabilité du cas précédent :
e1 fJ(x) e1 p(y) , ou e1 fJ(x) - e1 fJ(Y) S 't2 (d p(x) - d fJ(Y) ) ou C2N(x) - C2u(Y) T4 ( C1 fJ(x) - e1 fJ(Y) ).
e1 fJ(x) e1 p(y) , ou e1 fJ(x) - e1 fJ(Y) S 't2 (d p(x) - d fJ(Y) ) ou C2N(x) - C2u(Y) T4 ( C1 fJ(x) - e1 fJ(Y) ).
C'est la condition pour avoir Mk(x,y)<0. On remarquera que l'on peut aussi avoir à remplacera et #4 par #0, conformément à ce qui a été dit précédemment. o Cas 4a : Dansle premier cas, on suppose que S et C2 conduisent à des décisions prises différentes et que C1 (x) -
<Desc/Clms Page number 27>
c1jJ(Y) est compris entre S(x)-S(y) et C2p(x) - C2p(y). La condition S(x)>S(y) signifie que S et C2 conduisent à des décisions prises différentes. La condition :
(Clp(X) - Clp(y ~ (S(x)-S(y)) X [ (C1N(x) - Clp(y ~ (C2p(X) - C2p(y ] < 0. signifie que C1 p(x) - C1 p(y) est compris entre S(x)-S(y) et C2N{x) - C2N(y) . Autrement dit, le terme C1p(x) - C1p(y) ne sert à rien et peut être oublié dans l'explication. Il suffit de se baser sur la comparaison entre S et C2 . On se place donc dans les conditions suivantes :
S(x)>S(y) et
[ (C1 p(x) - C1 p(y)) - (S(x)-S(y)) ] x [ (C1 p(x) - C1 p(y)) - (C2p(X) - C2p(y ] < o.
C'est la condition pour avoir Niak(x,y)<0. On a alors deux cas: Si S(x)-S(y) < C2N(x) - C2N(y) , alors la décision prise avec la moyenne arithmétique est la bonne et est plus tranchée qu'avec le modèle 2-additif. L'explication de
la relation S(x)-S(y) < G'N(x) - C2p(y) atténue l'explication de S(x)-S(y) < 0. L'explication à fournir est donc : y est préféré à x puisque y est en moyenne meilleur que x. Ceci a été partiellement atténué par le fait que ... où ... contient l'explication de la relation
S(x)-S(y) < Cp(X) ~ N(Y) - Si C2p(x) - C2p(y) < 0 < S(x)-S(y) , alors la moyenne arithmétique et le modèle 2-additif donnent des décisions opposées. L'explication à fournir est donc :
la relation S(x)-S(y) < G'N(x) - C2p(y) atténue l'explication de S(x)-S(y) < 0. L'explication à fournir est donc : y est préféré à x puisque y est en moyenne meilleur que x. Ceci a été partiellement atténué par le fait que ... où ... contient l'explication de la relation
S(x)-S(y) < Cp(X) ~ N(Y) - Si C2p(x) - C2p(y) < 0 < S(x)-S(y) , alors la moyenne arithmétique et le modèle 2-additif donnent des décisions opposées. L'explication à fournir est donc :
<Desc/Clms Page number 28>
Bien que y soit en moyenne moins bon que x, y est quand même préféré à x puisque ...... où ... contient l'explication de la relation
S(x)-S(y) < C2p(X) ~ C2p(y).
S(x)-S(y) < C2p(X) ~ C2p(y).
Les détails de la méthode utilisée dans ce cas se trouvent dans les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 4a.
- Si e1 fJ(x) - e1 fJ(Y) < C2p(x) - C2(y) < 0, alors la décision prise avec l'opérateur de Shapley est plus tranchée qu'avec le modèle 2-additif. On commence
alors par expliquer pourquoi e1 fJ(x) - e1 fJ(Y) < 0. On utilise alors ce qui a été fait dans le cas 3. Ensuite, il faut expliquer pourquoi le modèle 2-additif donne une décision moins tranchée. L'explication à fournir est donc : y est préféré à x puisque .... Ceci a été partiellement atténué par le fait que ... où les premiers ... contiennent l'explication de la
relation e1 fJ(x) - e1 fJ(Y) < 0, et les seconds ... contiennent l'explication de la relation C1jj{x) e1fJ(Y) < C2p(x) - C2r(y). L'explication de la relation e1 fJ(x) - e1 fJ(Y) < d fJ(x) - C(y) est décrite plus précisément dans les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 4b.
alors par expliquer pourquoi e1 fJ(x) - e1 fJ(Y) < 0. On utilise alors ce qui a été fait dans le cas 3. Ensuite, il faut expliquer pourquoi le modèle 2-additif donne une décision moins tranchée. L'explication à fournir est donc : y est préféré à x puisque .... Ceci a été partiellement atténué par le fait que ... où les premiers ... contiennent l'explication de la
relation e1 fJ(x) - e1 fJ(Y) < 0, et les seconds ... contiennent l'explication de la relation C1jj{x) e1fJ(Y) < C2p(x) - C2r(y). L'explication de la relation e1 fJ(x) - e1 fJ(Y) < d fJ(x) - C(y) est décrite plus précisément dans les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 4b.
- Si C(x) - C2r(y) < e1fJ(x) - e1fJ(Y) < 0, alors la décision prise avec l'opérateur de Shapley est moins tranchée qu'avec le modèle 2-additif. On commence
<Desc/Clms Page number 29>
par expliquer pourquoi le modèle 2-additif donne une décision plus tranchée que l'opérateur de Shapley.
Comme e1 J.1(x) - C1jj{y) < 0, l'opérateur de Shapley va globalement dans la même direction que le modèle 2-additif, c'est à dire que y est préféré à x.
Ainsi, l'explication de e1J.1(x) - e1J.1(Y) < 0, bien que modérant un peu la décision prise par le modèle 2additif, est présentée comme un point qui va dans le même sens que le modèle 2-additif. L'explication à fournir est donc : y est préféré à x puisque .... Ceci a été accentué par le fait que ... où les premiers ... contiennent l'explication de la
relation C(x) - cf J.1(y) < C1fj{x) - e1 J.1(y) , et les seconds ... contiennent l'explication de la relation e1 J.1(x) - e1 J.1(y) < 0. L'explication de la relation C2N{x) - cfJ.1(y) < C1/j(x) - C1/j(y) est décrit plus précisément dans les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 4b.
Si cfJ.1(x) - cfJ.1(y) < 0 < e1J.1(x) - e1J.1(Y) , alors la décision prise avec l'opérateur de Shapley est contraire à celle prise par le modèle 2-additif. On commence par expliquer pourquoi le modèle 2-additif donne une décision opposée à celle de l'opérateur de Shapley.
Comme e1 J.1(x) - C1jj{y) < 0, l'opérateur de Shapley va globalement dans la même direction que le modèle 2-additif, c'est à dire que y est préféré à x.
Ainsi, l'explication de e1J.1(x) - e1J.1(Y) < 0, bien que modérant un peu la décision prise par le modèle 2additif, est présentée comme un point qui va dans le même sens que le modèle 2-additif. L'explication à fournir est donc : y est préféré à x puisque .... Ceci a été accentué par le fait que ... où les premiers ... contiennent l'explication de la
relation C(x) - cf J.1(y) < C1fj{x) - e1 J.1(y) , et les seconds ... contiennent l'explication de la relation e1 J.1(x) - e1 J.1(y) < 0. L'explication de la relation C2N{x) - cfJ.1(y) < C1/j(x) - C1/j(y) est décrit plus précisément dans les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas 4b.
Si cfJ.1(x) - cfJ.1(y) < 0 < e1J.1(x) - e1J.1(Y) , alors la décision prise avec l'opérateur de Shapley est contraire à celle prise par le modèle 2-additif. On commence par expliquer pourquoi le modèle 2-additif donne une décision opposée à celle de l'opérateur de Shapley.
Comme e1J.1(x) - C1jj{y) > 0, l'explication de la décision prise par l'opérateur de Shapley va dans la direction opposée à celle du modèle 2-additif. Ainsi,
l'explication de e1 J.1(x) - e1 J.1(y) > 0 est donnée
l'explication de e1 J.1(x) - e1 J.1(y) > 0 est donnée
<Desc/Clms Page number 30>
comme atténuant un peu la décision prise par le modèle 2-additif. L'explication à fournir est donc : y est préféré à x puisque .... Ceci a été partiellement atténué par le fait que ... où les premiers ... contiennent l'explication de la
relation C2p(X) ~ C2r(y) < C1fJ(x) - C1fJ(Y), et les seconds ... contiennent l'explication de la relation C1 fJ(x) - C1 fJ(Y) > 0. L'explication de la relation C2p(x) - C2p(y) < C1 fJ(x) - C1 fJ(Y) est décrite plus précisément dans les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas
4b.
relation C2p(X) ~ C2r(y) < C1fJ(x) - C1fJ(Y), et les seconds ... contiennent l'explication de la relation C1 fJ(x) - C1 fJ(Y) > 0. L'explication de la relation C2p(x) - C2p(y) < C1 fJ(x) - C1 fJ(Y) est décrite plus précisément dans les conclusions qui sont exposées ci-dessous dans la description détaillée du sous-cas
4b.
Sous-cas 3a : C1 f.J(x) - C1 f.J(y) S(x)-S(y) < 0 Lorsque S(x) < S(y) et C1fJ(x) < C1fJ(Y) et C1fJ(x) - C1fJ(Y) < (1+ii) (S(x)-S(y)), alors la décision est plus tranchée avec l'opérateur de Shapley qu'avec la moyenne arithmétique. On désire expliquer pourquoi la décision est plus tranchée avec l'opérateur de Shapley qu'avec la moyenne
arithmétique. Soit T)=[(C1fJ(X)-C1fJ(Y)) + (S(x)-S(y))]/2. On a ri<0. On veut expliquer en utilisant les principes développés dans le cas où C1 fJ(x)<C1 fJ(Y) mais S(x)>S(y), pourquoi C1fJ(X)-C1fJ(Y)< rl et 5(x)-S(y)>T). Dans le même esprit que ce qui a été fait dans ces conclusions, soit : S2={ AçN, C1 .A(x-T)) < C1 .A(y)}.
arithmétique. Soit T)=[(C1fJ(X)-C1fJ(Y)) + (S(x)-S(y))]/2. On a ri<0. On veut expliquer en utilisant les principes développés dans le cas où C1 fJ(x)<C1 fJ(Y) mais S(x)>S(y), pourquoi C1fJ(X)-C1fJ(Y)< rl et 5(x)-S(y)>T). Dans le même esprit que ce qui a été fait dans ces conclusions, soit : S2={ AçN, C1 .A(x-T)) < C1 .A(y)}.
On a 0\l Q et NE Q. On peut alors remplacer C1 fJpar C1 .Adans l'explication à fournir. Afin de simplifier l'explication, on cherche donc les coalitions A## de plus petite cardinalité. De manière similaire à ce qui a été exposé au lemme 2, on a le résultat suivant :
Lemme 5: Soit AE Q minimal. Alors nécessairement, x-Y<T) pour tout iE A tel que v;> 1/n, et X-Y>TJ pour tout iE A tel que v1<1/n.
Lemme 5: Soit AE Q minimal. Alors nécessairement, x-Y<T) pour tout iE A tel que v;> 1/n, et X-Y>TJ pour tout iE A tel que v1<1/n.
<Desc/Clms Page number 31>
Soit 1\,={iE A, XI-Y>11} et - ={ieA, x,-y,<ill. Afin de fournir une explication simple à comprendre, on désire, conformément au lemme 2, ne mentionner que les critères importants appartenant à l- et les critères peu importants appartenant à l+. D'après le lemme 5, si i#A est important
(v,>1/n), alors iE 1-11' Comme il<O, cela implique que iE 1-. Par contre, si i est peu important, on n'a pas forcément i# l+. On a donc les cas suivants: # Si A n 1-il ##, alors l'explication à fournir est : y est préféré à x puisque y est en moyenne meilleur que x .
Ceci a été amplifié par le fait que y est meilleur que x sur les critères A n l-# qui sont importants, alors que y est moins bon que x sur les critères A n l+ qui sont peu importants.
Si A n 1-11 =0 et A n 1+ *0, alors l'explication à fournir est : y est préféré à x puisque les critères A n l+ sur lesquels x est meilleur que ysont peu importants, et ne compensent pas le fait que y est en moyenne meilleur que x sur les autres critères.
Si A n 1-ri =0 et A n I+ =0, alors Aç 1+,,\ F. L'utilisation des critères de A fournirait une explication peu intuitive. Une autre méthode doit être utilisée ici. On peut utiliser à cet effet la méthode alternative décrite plus loin pour générer des arguments pour l'explication d'une comparaison entre deux alternatives.
Sous-cas 3b : S(x)-S(y) e1 J1(x) - e1 J1(y) < 0 Lorsque S(x) S(y) et C1p(x) < C1p(y) et S(x)-S(y) < (1+ti) (C1p(x) - C1 (y) ), la décision est moins tranchée avec l'opérateur de Shapley qu'avec la moyenne arithmétique. On désire expliquer ceci. Soit
11=[( C1 p(x)-C1 p(y)) + (S(x)-S(y))]/2. On a il<O. On veut expliquer en utilisant les principes développés dans le cas où C1 p(x)<C1 p(y) mais S(x)>S(y), pourquoi C1p(X)-C1p(y il et (S(x)-S(y)<il. Dans le même esprit que ce qui a été fait dans le cas où C1 J(x)<C1 p(y) mais S(x)>S(y), on a : S2={ AçN, C1J.!A(y) < C1J.!A(x-11)}.
11=[( C1 p(x)-C1 p(y)) + (S(x)-S(y))]/2. On a il<O. On veut expliquer en utilisant les principes développés dans le cas où C1 p(x)<C1 p(y) mais S(x)>S(y), pourquoi C1p(X)-C1p(y il et (S(x)-S(y)<il. Dans le même esprit que ce qui a été fait dans le cas où C1 J(x)<C1 p(y) mais S(x)>S(y), on a : S2={ AçN, C1J.!A(y) < C1J.!A(x-11)}.
<Desc/Clms Page number 32>
On a 0!2Ô Q et NeQ. On peut alors remplacer C1 jJ par C1 .A dans l'explication à fournir. Afin de simplifier l'explication, on cherche donc les coalitions A## de plus petite cardinalité. De manière similaire à celle exposée au lemme 2, on a le résultat suivant : Lemme 6 : SoitA## minimal. Alors nécessairement, xi-yi>#
pour tout iEA tel que v,>1/n, et x,-y,<-q pour tout iEA tel que v,<1/n.
Soit I+,={iE A, x,-y<Y}} et r" ={iE A, x,-y,>,nl. On procède grosso modo comme dans la section précédente:
Si A cc 1+11\ 1+, alors au moins l'un des deux ensembles A n I- ou A n l+ est non vide. Dans l'explication, on écarte les indices appartenant à l+#\ l+. L'explication à fournir est : y est préféré à x puisque y est en moyenne meilleur que x.
Ceci a été partiellement atténué par le fait que x est meilleur que y sur les critères A # l+ qui sont importants, alors que y est meilleur que x sur les critères A n l-# qui sont peu importants. # Si A c l+#\ l+ l'utilisation des critères de A fournirait une explication peu intuitive. Une autre méthode doit être utilisée ici. On peut utiliser à cet effet la méthode alternative décrite plus loin pour générer des arguments pour l'explication d'une comparaison entre deux alternatives.
Si A cc 1+11\ 1+, alors au moins l'un des deux ensembles A n I- ou A n l+ est non vide. Dans l'explication, on écarte les indices appartenant à l+#\ l+. L'explication à fournir est : y est préféré à x puisque y est en moyenne meilleur que x.
Ceci a été partiellement atténué par le fait que x est meilleur que y sur les critères A # l+ qui sont importants, alors que y est meilleur que x sur les critères A n l-# qui sont peu importants. # Si A c l+#\ l+ l'utilisation des critères de A fournirait une explication peu intuitive. Une autre méthode doit être utilisée ici. On peut utiliser à cet effet la méthode alternative décrite plus loin pour générer des arguments pour l'explication d'une comparaison entre deux alternatives.
- Sous-cas 3c : C1 J1(x) - C1 J1(y) "" S(x)-S(y) < 0 Lorsque C1jJ(x) C1jj{y), ou C1jJ(x) - C'(y) 5 i2 (C2r(x) - C2p(y) ) ou C2p(x) - C2p(y) :9 'rua ( C1 jJ(x) - C1 jJ(Y) ) S(x) S(y) et C1 fJ(x) < C1 fJ(Y) et C1 jJ(x) - C1 jJ(Y) < (1+i1) (S(x)-S(y)), alors la décision est aussi tranchée avec l'opérateur de Shapley qu'avec la moyenne. On ne peut plus utiliser ici la méthode consistant à baser l'explication sur une comparaison avec la moyenne arithmétique. La solution est alors de remplacer la moyenne arithmétique par une fonction d'agrégation de référence. Il va s'agir d'une autre somme pondérée. On note ()) les nouveaux poids de référence.
<Desc/Clms Page number 33>
,=a si x,>y; , ,=B si x,<y, et 1=1/n si x,=yi Soit 11=C\/(X)-C1 fJ(Y). On note : n+= 1 l' 1 , n-= 11- l , Ixyl+= [ liE 1+ Ix,-yJ ] 1 n+ et Ixyl-= [ l'EI- Ix,-y,l ] / n- .
On note S(x) Il IX1. On cherche a et p de telle sorte que 7-j ,=1 et S(x) - S#(y) = - #. Cela donne : n+ a + n- ss = (n+ + n-)/n et n+ Ixyl+ a - n- Ixyl- ss = - #.
On obtient : a =[- # + #xy#- (n+ + n-)/n ] [ n+ (Ixyl++Ixyl- ) ] ss = [# + Ixyl+ (n+ + n-)/n ] / [ n- (Ixyl++Ixyl-) ] On a le résultat suivant : Lemme 7 : a a,pe[0,1] si et seulement si Ixyl+ (n+ + n-)/n#-#,
Pour AçN, on définit C1f-!cf!A(x) =1,,A VI XI + 2Ii!A i X . Dans le même esprit que ce qui a été fait dans le cas où C1fJ(X)<C1fJ(Y) mais S(x)>S(y) , on a: S2={ AçN, C1f-!cf!A(x) < C1f-!A(y)}.
Pour AçN, on définit C1f-!cf!A(x) =1,,A VI XI + 2Ii!A i X . Dans le même esprit que ce qui a été fait dans le cas où C1fJ(X)<C1fJ(Y) mais S(x)>S(y) , on a: S2={ AçN, C1f-!cf!A(x) < C1f-!A(y)}.
On a oye Q et Ne puisque C1 fJ(x) - C1 fJ(y) = ri<0 et S(x) - S())(y) = - ri>0. On peut alors remplacer C1jjpar C1 f-!cf!A dans l'explication à fournir. Afin de simplifier l'explication, on cherche donc les coalitions A## de plus petite cardinalité. De manière similaire à celle exposée au lemme 2, on a le résultat suivant : Lemme 8 : SoitA## minimal. Alors nécessairement, x,<y, pour
tout iEA tel que v,>P, et x,>y, pour tout iEA tel que vi x.
tout iEA tel que v,>P, et x,>y, pour tout iEA tel que vi x.
Afin de pouvoir interpréter les relations vi>ss et vi<[alpha], on a le lemme suivant :
Lemme 9 : Sous la condition S(x) - S(y) < - #, on a a>1/n et P<1/n.
Lemme 9 : Sous la condition S(x) - S(y) < - #, on a a>1/n et P<1/n.
Comme S(x) - S(y) < 0 < - #, on a a>1/n et ss<1/n. Ainsi, les critères satisfaisant v1>ss ne sont pas nécessairement importants (vi>1/n). De même, les critères satisfaisant vi>[alpha] ne sont pas nécessairement peu importants (v,<1/n). Afin de fournir une explication simple à comprendre, on désire,
<Desc/Clms Page number 34>
conformément au lemme 2, ne mentionner que les critères importants appartenant à l- et les critères peu importants appartenant à l+. On pose donc :
D={iE N, v,>1/n} et D-={iE N, v,<1/n} .
D={iE N, v,>1/n} et D-={iE N, v,<1/n} .
On a donc les cas suivants: # Si A n l-# D+ ##, alors l'explication à fournir est : y est préféré à x puisque y est meilleur que x sur les critères
A n l-# D+ qui sont importants, alors que y est moins bon que xsur les critères A#l+#D- qui sont peu importants.
#Si A n I-n 0+ =0 et A n 1+ n D- *0, alors l'explication à fournir est : y est préféré à x puisque les critères A n l+# D- sur lesquels x est meilleur que y sont peu importants, et ne compensent pas le fait que y est en moyenne meilleur que x sur les autres critères. # Si A n l- n D+ =0 et A n l+ n D- =0, alors l'utilisation des critères de
A fournirait une explication peu intuitive. Une autre méthode doit être utilisée ici. On peut utiliser à cet effet la méthode alternative décrite plus loin pour générer des arguments pour l'explication d'une comparaison entre deux alternatives.
A n l-# D+ qui sont importants, alors que y est moins bon que xsur les critères A#l+#D- qui sont peu importants.
#Si A n I-n 0+ =0 et A n 1+ n D- *0, alors l'explication à fournir est : y est préféré à x puisque les critères A n l+# D- sur lesquels x est meilleur que y sont peu importants, et ne compensent pas le fait que y est en moyenne meilleur que x sur les autres critères. # Si A n l- n D+ =0 et A n l+ n D- =0, alors l'utilisation des critères de
A fournirait une explication peu intuitive. Une autre méthode doit être utilisée ici. On peut utiliser à cet effet la méthode alternative décrite plus loin pour générer des arguments pour l'explication d'une comparaison entre deux alternatives.
Sous-cas 4a
On se trouve dans l'un des deux cas suivants : S(x)-S(y) < G'(x) - G'N(y) < 0 ou GN(x) - G'r(y) < 0 < S(x)-S(y). On définit : l1=[(dp(x)-dp(y)) + (S(x)-S(y))]/2 si S(x)-S(y) < C2p(x) - C(y) < 0
11=0 si C2p(X) ~ G'2N(Y) < 0 < S(x)-S(y). et :
E = -1 si S(x)-S(y) < Cp(x) - G(y) < 0 e = 1 si C2 (x)- C2 (y) < 0 < S(x)-S(y).
On se trouve dans l'un des deux cas suivants : S(x)-S(y) < G'(x) - G'N(y) < 0 ou GN(x) - G'r(y) < 0 < S(x)-S(y). On définit : l1=[(dp(x)-dp(y)) + (S(x)-S(y))]/2 si S(x)-S(y) < C2p(x) - C(y) < 0
11=0 si C2p(X) ~ G'2N(Y) < 0 < S(x)-S(y). et :
E = -1 si S(x)-S(y) < Cp(x) - G(y) < 0 e = 1 si C2 (x)- C2 (y) < 0 < S(x)-S(y).
<Desc/Clms Page number 35>
Avec ces notations, on a : 8 (c1p(x-ll) - C2p(y < 0 et E (S(x-T))-5(y) )) > 0. On veut donc expliquer cette différence de signe. De manière similaire à ce qui vient d'être exposé ci-dessus pour le sous-cas 3a, on définit :
Q'={ AxA'çNxNM, e (c1u,A,A'(x-ll) - c1p,A,A'(y)) < 0 et {i,j}e A* i,jE A }.
On a (0,O)e2' et (N,N')EE2'. Comme précédemment, on s'intéresse aux éléments minimaux de #-/-. On a des propriétés similaires à celles du lemme 4. L'explication à fournir est donc similaire à ce qui a été fait dans
l'exposé du cas où c1p (x)<C2ij (y) mais C'r (X);?C1p (y) et S(x)>S(y) On suppose que A'n D'@' = {(i1,h),...,(ip,jp)} et A*n D*,- {(k1,11),...,(kq,lq)} avec xi > x!i ,...,x,p > x,p et Yk1 < YI1,..., Yxq < yq.
l'exposé du cas où c1p (x)<C2ij (y) mais C'r (X);?C1p (y) et S(x)>S(y) On suppose que A'n D'@' = {(i1,h),...,(ip,jp)} et A*n D*,- {(k1,11),...,(kq,lq)} avec xi > x!i ,...,x,p > x,p et Yk1 < YI1,..., Yxq < yq.
Lorsque = 1, l'explication est la suivante : Bien que y soit en moyenne moins bon que x, y est quand même préféré à x puisque le score de x sur le critère il est pénalisé par un plus mauvais score suivant le critère j1 (les critères i1 et ji doivent être satisfaits tous les deux), ... , le score de x sur le critère ip est pénalisé par un plus mauvais score suivant le critère jp (les critères ip et jp doivent être satisfaits tous les deux), le score de y sur le critère k1 a été sauvé par un meilleur score sur le critère l1 (il suffit de satisfaire l'un des deux critères k1 ou !, ),... , le score de y sur le critère kq a été sauvé par un meilleur score sur le critère lq (il suffit de satisfaire l'un des deux critères kq ou lq), x est moins bon que y sur les critères Anl-n D+ qui sont importants, et x est meilleur que y sur les critères Anl-n D+ qui sont peu importants. Lorsque # = -1, l'explication est la suivante : y est préféré à x puisque y est en moyenne meilleur que x.
Ceci a été partiellement compensé par le fait que le score de x sur le critère il est pénalisé par un plus mauvais score suivant le critère // (les critères i1 et j1 doivent être satisfaits tous les
<Desc/Clms Page number 36>
deux),... , le score de x sur le critère ip est pénalisé par un plus mauvais score suivant le critère jp (les critères ip et jp doivent être satisfaits tous les deux), le score de y sur le critère k1 a été sauvé par un meilleur score sur le critère Il (il suffit de satisfaire l'un des deux critères k1 ou l1 ), ... , le score de y sur le critère kq a été sauvé par un meilleur score sur le critère lq (il suffit de satisfaire l'un des deux critères kq ou lq), x est moins bon que y sur les critères Anl-n D+ qui sont importants, et x est meilleur que y sur les critères Anl-n D+ qui sont peu importants. Sous-cas 4b :
On se trouve dans l'un des trois cas suivants : C1/j{x) - C1/j{y) < dJ.1(x) - dJ.1(Y) < 0, dJ.1(x) - dJ.1(Y) < e1J.1(x) - e1J.1(Y) < 0 ou C2h(x) - C2N(y) <0 < e1 J.1(x) - e1 J.1(y). On se limite ici à expliquer la comparaison entre e1 J.1 et dJ.1. On définit : r=[( d J.1(x)-d J.1(y)) + (e1 J.1(x) - C1N(Y))2 si e1 J.1(x) - e1 J.1(y) ::; 0 #=0 sinon. et :
8 = -1 si e1 J.1(x) - e1 J.1(y) < d J.1(x) - d J.1(y) e= 1 sinon.
On se trouve dans l'un des trois cas suivants : C1/j{x) - C1/j{y) < dJ.1(x) - dJ.1(Y) < 0, dJ.1(x) - dJ.1(Y) < e1J.1(x) - e1J.1(Y) < 0 ou C2h(x) - C2N(y) <0 < e1 J.1(x) - e1 J.1(y). On se limite ici à expliquer la comparaison entre e1 J.1 et dJ.1. On définit : r=[( d J.1(x)-d J.1(y)) + (e1 J.1(x) - C1N(Y))2 si e1 J.1(x) - e1 J.1(y) ::; 0 #=0 sinon. et :
8 = -1 si e1 J.1(x) - e1 J.1(y) < d J.1(x) - d J.1(y) e= 1 sinon.
On veut donc expliquer cette différence de signe. De manière similaire à celle exposée ci-dessus pour le sous-cas 3c, on définit :
C2p, A -(x) = 'EN V, Xi - 7-(ij),FA* 1 XI-X 1-/j/2 . Tous les coefficients d'importance sont conservés. On cherche donc à déterminer les termes d'interaction qui sont à l'origine de la décision prise. Comme tous les termes d'importance sont présents, on n'a pas de problème de monotonie de la mesure floue (cf. lemme 3). Soit :
S2={ A.cN, e (C2N,A(x-l) - GN,A'(Y ) < 0 }.
C2p, A -(x) = 'EN V, Xi - 7-(ij),FA* 1 XI-X 1-/j/2 . Tous les coefficients d'importance sont conservés. On cherche donc à déterminer les termes d'interaction qui sont à l'origine de la décision prise. Comme tous les termes d'importance sont présents, on n'a pas de problème de monotonie de la mesure floue (cf. lemme 3). Soit :
S2={ A.cN, e (C2N,A(x-l) - GN,A'(Y ) < 0 }.
<Desc/Clms Page number 37>
On a ###* et N*##*. Comme précédemment, on s'intéresse aux éléments minimaux de #*. On a des propriétés similaires à celles du lemme 4. L'explication à fournir est donc similaire à ce qui a été fait dans le cas où
C2r (x)<C2p (y) mais e1fl (X) 1fl (y) et S(x)>S(y). On suppose que An Du = {(i1,h),... , (ip,Jp)} et A'n D'- = {(k1,/1),...,(kq,/q)} avec xi > Xl1 ,... ,xp > x,p et Yk1 <Yl1 ' '" ykq < ylq.
C2r (x)<C2p (y) mais e1fl (X) 1fl (y) et S(x)>S(y). On suppose que An Du = {(i1,h),... , (ip,Jp)} et A'n D'- = {(k1,/1),...,(kq,/q)} avec xi > Xl1 ,... ,xp > x,p et Yk1 <Yl1 ' '" ykq < ylq.
Lorsque e1 f.1(x) - e1 fl(Y) < C2N(x} - C21(y) < 0, on doit expliquer pourquoi le modèle 2-additif donne une décision moins tranchée que C1 .
Cela donne l'explication suivante : y est préféré à x puisque .... Ceci a été partiellement compensé par le fait que le score de x sur le critère i1 est pénalisé par un plus mauvais score suivant le critère ji (les critères i1 et ji doivent être satisfaits tous les deux),... , le score de x sur le critère ip est pénalisé par un plus mauvais score suivant le critère jp (les critères ip et jp doivent être satisfaits tous les deux), le score de y sur le critère k1 a été sauvé par un meilleur score sur le critère l1 (il suffit de satisfaire l'un des deux critères k1 ou l1 ), ... , le score de y sur le critère kq a été sauvé par un meilleur score sur le critère lq (il suffit de satisfaire l'un des deux critères kq ou lq).
où ... contient l'explication de la relation e1 fJ(x) - e1 fJ(Y) < 0.
où ... contient l'explication de la relation e1 fJ(x) - e1 fJ(Y) < 0.
Lorsque C2N(x) - C2N(y) < e1 f.1(x) - e1fl(Y) < 0, on commence par expliquer pourquoi le modèle 2-additif donne une décision plus tranchée que C1 . Cela donne l'explication suivante : y est préféré à x puisque le score de x sur le critère il est pénalisé par un plus mauvais score suivant le critère j1 (les critères il et j1 doivent être satisfaits tous les deux),... , le score de x sur le critère ip est pénalisé par un plus mauvais score suivant le critère jp (les critères ip et jp doivent être satisfaits tous les deux), le score de y sur le critère k1 a été
<Desc/Clms Page number 38>
sauvé par un meilleur score sur le critère Il (il suffit de satisfaire l'un des deux critères k1 ou l1 ),..., le score de y sur le critère kq a été sauvé par un meilleur score sur le critère lq (il suffit de satisfaire l'un des deux critères kq ou lq). Ceci a été accentué par le fait que ...
où ... contient l'explication de la relation e1 p(x) - e1 p(y) < 0.
où ... contient l'explication de la relation e1 p(x) - e1 p(y) < 0.
Lorsque C2(x) - C2(y) < 0 < e1p(x) - e1p(y), on explique pourquoi le modèle 2-additif donne une décision plus tranchée que C1 . Cela donne l'explication suivante : y est préféré à x puisque le score de x sur le critère il est pénalisé par un plus mauvais score suivant le critère ji (les critères i1 et j1 doivent être satisfaits tous les deux), ... , le score de x sur le critère ip est pénalisé par un plus mauvais score suivant le critère jp (les critères ip et jp doivent être satisfaits tous les deux), le score de y sur le critère k1 a été sauvé par un meilleur score sur le critère l1 (il suffit de satisfaire l'un des deux critères k1 ou l1), ... , le score de y sur le critère kq a été sauvé par un meilleur score sur le critère lq (il suffit de satisfaire l'un des deux critères kq ou lq). Ceci a été partiellement atténué par le fait que ...
où ... contient l'explication de la relation e1 p(x) - e1 p(y) > 0.
où ... contient l'explication de la relation e1 p(x) - e1 p(y) > 0.
Méthode alternative pour générer des arguments pour l'explication d'une comparaison entre deux alternatives :
On suppose que l'on souhaite expliquer pourquoi C 1f.1(X) < C 1f.1 (y). On écrit :
On suppose que l'on souhaite expliquer pourquoi C 1f.1(X) < C 1f.1 (y). On écrit :
On veut déterminer les phénomènes les plus importants dans C 1f.1(X)-G 1f.1(Y). Du point de vue comptable, il s'agit des indices i pour lesquels v, lxi-yil est grand. Soit donc n=111, et la permutation 0±: {1,...,n} 1- telle que :
<Desc/Clms Page number 39>
On cherche i+E {1,...,n+} et i-E {1,...,n-} qui satisfont les exigences suivantes: # On veut que les phénomènes retenus contiennent en valeur absolue la plupart des phénomènes existants. On veut donc que :
soit grand . Le terme grand est réglé par la fonction d'appartenance
F. a On veut que la valeur moyenne de la valeur absolue des phénomènes retenus ne soit pas négligeable par rapport au phénomène le plus important. On veut donc que :
soit grand . Le terme grand est réglé par la fonction d'appartenance
G.
# On veut qu'aucun phénomène positif retenu soit inutile. Autrement dit, le rapport entre le phénomène le moins important retenu et le plus important ne doit pas être trop petit. On veut donc que :
soit grand . Le terme grand est réglé par la fonction d'appartenance
H~. a On ne veut pas oublier un phénomène positif important : rapport entre le phénomène le plus important non pris en compte et le phénomène le plus important doit donc être faible. On veut donc que :
soit grand . Le terme grand est réglé par la fonction d'appartenance
H~. a On ne veut pas oublier un phénomène positif important : rapport entre le phénomène le plus important non pris en compte et le phénomène le plus important doit donc être faible. On veut donc que :
<Desc/Clms Page number 40>
soit petit . Le terme petit est réglé par la fonction d'appartenance
K~. o On veut que la décision prise soit approximativement la même. Par conséquent, la somme des phénomènes retenus doit être assez proche de S (x)<S (y). On veut que :
soit le plus proche possible de 0. Ceci est traduit par la fonction d'appartenance L.
On cherche i+E {1,...,n+} et i-e (1 , .... n-1 qui maximise : F(P) a Gty) ^ H+(7+) ^ H (7 ) A K+(B+) ^ K-(6-) A L(rjJ) On peut générer une explication du genre : y est préféré à x puisque y est meilleur que x sur les critères
6 (1 ),...,6 (i-) qui ont contribué largement dans la décision prise. Si #+/(#-+#+) est assez grand , alors il faut mentionner dans l'explication les
termes 6+(1 ),...,6+(i+). On rajoute donc au texte précédent la ligne suivante : Ceci a été partiellement compensé par le fait que x est meilleur que
y sur les critères 6+(1 ),...,6+(i+).
Arrangement des différents arguments.
6 (1 ),...,6 (i-) qui ont contribué largement dans la décision prise. Si #+/(#-+#+) est assez grand , alors il faut mentionner dans l'explication les
termes 6+(1 ),...,6+(i+). On rajoute donc au texte précédent la ligne suivante : Ceci a été partiellement compensé par le fait que x est meilleur que
y sur les critères 6+(1 ),...,6+(i+).
Arrangement des différents arguments.
Comme on vient de le voir, l'explication globale peut être charpentée en plusieurs points (par exemple expliquer pourquoi Mik(x,y)<0 alors que M
k(x,y)>0, puis expliquer pourquoi M 'k(x,y)>0). Chaque point peut faire référence à plusieurs arguments. Le problème qui survient est alors tout d'abord d'organiser les arguments dans le bon ordre (afin que ce soit logique et compréhensible par un utilisateur), et ensuite de construire l'explication générale en mettant les bons mots de liaison entre les différents arguments.
k(x,y)>0, puis expliquer pourquoi M 'k(x,y)>0). Chaque point peut faire référence à plusieurs arguments. Le problème qui survient est alors tout d'abord d'organiser les arguments dans le bon ordre (afin que ce soit logique et compréhensible par un utilisateur), et ensuite de construire l'explication générale en mettant les bons mots de liaison entre les différents arguments.
<Desc/Clms Page number 41>
Pour ce faire, on stocke dans une pile les arguments les uns après les autres. Pour chaque argument, on indique en complément de quel argument il vient, et s'il va dans le même sens ou dans le sens contraire à cet argument.
On souhaite comparer deux actions X et Y. On suppose que l'on
obtient S(X)-S(Y)=0.08, C'r(X)-C'r(Y)=0.06 et C2(X)-C2(Y)= -0.11. On a donc globalement Y>X. En appliquant les principes donnés précédemment, l'explication à fournir s'organise de la manière suivante :
On commence par expliquer pourquoi C2(X)-C2r(Y) < 0 alors que C1 J(X)-C1 J(Y) > 0. On se trouve alors dans le cas 4b. Cela donne, par exemple : Y est préféré à X puisque le score de X sur le critère 0 est pénalisé par un plus mauvais score sur le critère 1 (les critères 0 et 1 doivent être satisfaits tous les deux).
Il faut ensuite expliquer pourquoi C1J(X)-C1J(Y) > 0. Ce point va donc en modération du précédent. Comme S(X)-S(Y) > C1J(X)-C1J(Y) > 0, on se trouve alors dans le cas 3b. L'argument est donc composé de deux points : o Le premier argument indique que S(X)-S(Y)>0 : X est en moyenne meilleur que Y. o Le second argument vient en modération du précédent, et explique pourquoi la décision prise avec l'opérateur de Shapley est moins tranchée qu'avec la moyenne arithmétique : X est meilleur que Y sur le critère 4 qui est peu important.
On voit que le troisième argument vient en modération du second argument qui lui-même vient en modération du premier. Par voie de conséquence, le troisième vient en fait en complément du premier argument.
obtient S(X)-S(Y)=0.08, C'r(X)-C'r(Y)=0.06 et C2(X)-C2(Y)= -0.11. On a donc globalement Y>X. En appliquant les principes donnés précédemment, l'explication à fournir s'organise de la manière suivante :
On commence par expliquer pourquoi C2(X)-C2r(Y) < 0 alors que C1 J(X)-C1 J(Y) > 0. On se trouve alors dans le cas 4b. Cela donne, par exemple : Y est préféré à X puisque le score de X sur le critère 0 est pénalisé par un plus mauvais score sur le critère 1 (les critères 0 et 1 doivent être satisfaits tous les deux).
Il faut ensuite expliquer pourquoi C1J(X)-C1J(Y) > 0. Ce point va donc en modération du précédent. Comme S(X)-S(Y) > C1J(X)-C1J(Y) > 0, on se trouve alors dans le cas 3b. L'argument est donc composé de deux points : o Le premier argument indique que S(X)-S(Y)>0 : X est en moyenne meilleur que Y. o Le second argument vient en modération du précédent, et explique pourquoi la décision prise avec l'opérateur de Shapley est moins tranchée qu'avec la moyenne arithmétique : X est meilleur que Y sur le critère 4 qui est peu important.
On voit que le troisième argument vient en modération du second argument qui lui-même vient en modération du premier. Par voie de conséquence, le troisième vient en fait en complément du premier argument.
<Desc/Clms Page number 42>
Ainsi, l'explication globale se base sur ces trois arguments dans l'ordre donné précédemment, on obtient : Y est préféré à X puisque le score de X sur le critère 0 est pénalisé par un plus mauvais score sur le critère 1 (les critères 0 et 1 doivent être satisfaits tous les deux).
Ceci a été partiellement compensé par le fait que X est en moyenne meilleur que Y. Ceci a été partiellement atténué par le fait que X est meilleur que Y sur le critère 4 qui est peu important.
L'utilisateur risque d'être trompé par la signification réelle du dernier argument. On ne sait pas clairement quel argument le dernier atténue. Afin de clarifier les explications, la solution est alors de remonter le dernier argument en seconde position, c'est à dire de commencer par les arguments qui vont dans le même sens que le premier argument, et de terminer par les autres. Cela donne dans l'exemple pris ici : Y est préféré à X puisque le score de X sur le critère 0 est pénalisé par un plus mauvais score sur le critère 1 (les critères 0 et 1 doivent être satisfaits tous les deux).
L'utilisateur risque d'être trompé par la signification réelle du dernier argument. On ne sait pas clairement quel argument le dernier atténue. Afin de clarifier les explications, la solution est alors de remonter le dernier argument en seconde position, c'est à dire de commencer par les arguments qui vont dans le même sens que le premier argument, et de terminer par les autres. Cela donne dans l'exemple pris ici : Y est préféré à X puisque le score de X sur le critère 0 est pénalisé par un plus mauvais score sur le critère 1 (les critères 0 et 1 doivent être satisfaits tous les deux).
Ceci a été amplifié par le fait que X est meilleur que Y sur le critère 4 qui est peu important. Néanmoins, ceci a été partiellement atténué par le fait que X est en moyenne meilleur que Y.
On détermine pour chaque argument de la pile s'il va en complément ou en modération de l'argument principal. On réordonne alors la pile en plaçant en premier les arguments qui vont en complément à l'argument principal. Les arguments sont alors générés dans cet ordre, en commençant les arguments qui vont en complément par Ceci a été amplifié par le fait que , en commençant le premier argument qui va en modération à l'argument principal par Néanmoins, ceci a été partiellement atténué par le fait que , et en commençant les autre arguments qui vont en modération de l'argument principal par De plus .
On détermine pour chaque argument de la pile s'il va en complément ou en modération de l'argument principal. On réordonne alors la pile en plaçant en premier les arguments qui vont en complément à l'argument principal. Les arguments sont alors générés dans cet ordre, en commençant les arguments qui vont en complément par Ceci a été amplifié par le fait que , en commençant le premier argument qui va en modération à l'argument principal par Néanmoins, ceci a été partiellement atténué par le fait que , et en commençant les autre arguments qui vont en modération de l'argument principal par De plus .
<Desc/Clms Page number 43>
Exemples d'explications générées.
On va exposer maintenant des exemples d'explications générées pour les deux problèmes cités ci-dessus dans l'exposé du principe général du procédé de l'invention. Pour ce faire, on part d'un exemple d'agrégation multicritère.
On considère l'exemple simplifié de l'évaluation d'une voiture suivant cinq critères : Prix (Pri) ;Sécurité (Sec) ; Esthétique (Est) ; Puissance (Pui) et Confort (Con), comme représenté en figure 3.
A titre d'exemple, on considère les indices d'importance suivants :
Pri : 0.367 ; Sec : 0.216 ; Est : 0.121 ; Pui : 0.254 ; Con :0.042 Les indices d'interactions non nuls sont donnés ci-dessous : (Pri,Sec): 0.254 ; (Pri,Est): 0.085 ; (Pri,Pui): 0.253 ; (Sec,Pui):
0.151 ; (Sec,Con): 0.027 ; (Est,Pui): 0.062 ; (Est,Con): 0. 058
On va exposer les explications de la comparaison entre deux alternatives et on va donner ici quelques exemples de textes générés avec la seconde solution (exposée ci-dessus), dans tous les cas possibles.
Pri : 0.367 ; Sec : 0.216 ; Est : 0.121 ; Pui : 0.254 ; Con :0.042 Les indices d'interactions non nuls sont donnés ci-dessous : (Pri,Sec): 0.254 ; (Pri,Est): 0.085 ; (Pri,Pui): 0.253 ; (Sec,Pui):
0.151 ; (Sec,Con): 0.027 ; (Est,Pui): 0.062 ; (Est,Con): 0. 058
On va exposer les explications de la comparaison entre deux alternatives et on va donner ici quelques exemples de textes générés avec la seconde solution (exposée ci-dessus), dans tous les cas possibles.
Cas 1 de la seconde solution : X=( Pri = 0.93 ; = 0.98 ; = 0.76 ; = 0.21; Con = 0. 38 ) et Y=( Pri = 0.22 ; Sec = 0.61; Est = 0.39 ; = 0.20 ; = 0. 27). On a Y<X.
L'explication générée est la suivante : X est préféré à Y puisque TOUS les scores de X sont meilleurs que ceux de Y.
Cas 2 de la seconde solution : X=( Pri = 0.76 ; = 0.71; Est = 0.59 ; = 0.91; Con = 0. 80 ) et Y=( Pri = 0.38 ; Sec = 0.67 ; = 0.89; Pui = 0.21 ; = 0. 39). On a Y<X.
Cas 2 de la seconde solution : X=( Pri = 0.76 ; = 0.71; Est = 0.59 ; = 0.91; Con = 0. 80 ) et Y=( Pri = 0.38 ; Sec = 0.67 ; = 0.89; Pui = 0.21 ; = 0. 39). On a Y<X.
L'explication générée est la suivante : X est préféré à Y puisque les scores de X sont en moyenne bien meilleurs que ceux de Y.
Cas 3a de la seconde solution :
Cas 3a de la seconde solution :
<Desc/Clms Page number 44>
X=( Pri = 0.95 ; = 0.66 ; = 0.59 ; = 0.71 ; = 0. 56 ) et Y=( Pri = 0.28 ; Sec = 0.66 ; = 0.68 ; = 0.32; Con = 0.90). On a Y<X.
L'explication générée est la suivante : X est préféré à Y puisque X est en moyenne meilleur que Y. Ceci a été amplifié par le fait que X est meilleur que Y sur le critère PRI qui est important, alors que Y est meilleur que X sur le critère CON qui est peu important.
Cas 3b de la seconde solution : X=( Pri = 0.93 ; = 0.36 ; = 0.97 ; = 0.39 ; = 0. 99 ) et Y=( Pri = 0.78; Sec = 0.27; Est = 0.40; Pui = 0.59; Con = 0.49). On a Y<X.
Cas 3b de la seconde solution : X=( Pri = 0.93 ; = 0.36 ; = 0.97 ; = 0.39 ; = 0. 99 ) et Y=( Pri = 0.78; Sec = 0.27; Est = 0.40; Pui = 0.59; Con = 0.49). On a Y<X.
L'explication générée est la suivante : X est préféré à Y puisque X est en moyenne meilleur que Y. Ceci a été partiellement atténué par le fait que X est meilleur que Y sur les critères EST, CON qui sont peu importants.
Cas 3c de la seconde solution : X=( Pri = 0.56 ; Sec= 0.11; Est = 0.92 ; = 0.42 ; = 0.16 ) et Y=( Pri = 0.54; Sec = 0.53; Est = 0.30; Pui = 0.75; Con = 0.65). On a X<Y.
Cas 3c de la seconde solution : X=( Pri = 0.56 ; Sec= 0.11; Est = 0.92 ; = 0.42 ; = 0.16 ) et Y=( Pri = 0.54; Sec = 0.53; Est = 0.30; Pui = 0.75; Con = 0.65). On a X<Y.
L'explication générée est la suivante : Y est préféré à X puisque le critère EST pour lequel X est meilleur que Y est peu important, et ne compense pas le fait que Y est en moyenne meilleur que X sur les autres critères.
Cas 3d de la seconde solution : X=( Pri = 0.28 ; = 0.75 ; = 0.24 ; = 0.50 ; Con= 0.51 ) et Y=( Pri = 0.27; Sec = 0.51 ; = 0.44; Pui = 0.35; Con = 0.92). On a Y<X.
Cas 3d de la seconde solution : X=( Pri = 0.28 ; = 0.75 ; = 0.24 ; = 0.50 ; Con= 0.51 ) et Y=( Pri = 0.27; Sec = 0.51 ; = 0.44; Pui = 0.35; Con = 0.92). On a Y<X.
L'explication générée est la suivante :
X est préféré à Y puisque le critère CON pour lequel Y est meilleur que X est peu important, et ne compense pas le fait que X est en moyenne meilleur que Y sur les autres critères.
X est préféré à Y puisque le critère CON pour lequel Y est meilleur que X est peu important, et ne compense pas le fait que X est en moyenne meilleur que Y sur les autres critères.
Si on a:
<Desc/Clms Page number 45>
X=( Pri = 0.61 ; = 0.43 ; = 0.96 ; = 0.01 ; = 0. 60 ) et Y=( Pri = 0.86 ; Sec = 0.29 ; = 0.23 ; Pui= 0.33; Con = 0. 30). On obtient X<Y.
L'explication générée est la suivante : Bien que Y soit en moyenne moins bon que X, Y est quand même préféré à X puisque Y est meilleur que X sur le critère PRI qui est important, alors que X est meilleur que Y sur les critères EST, CON qui sont peu importants. Cas 4a de la seconde solution : X=( Pri = 0.99 ; = 0.83 ; = 0.97 ; = 0.16; Con = 0. 64 ) et Y=( Pri = 0.71 ; Sec = 0.65 ; = 0.36 ; = 0.90 ; = 0. 18). On a X<Y.
L'explication générée est la suivante : Bien que Y soit en moyenne moins bon que X, Y est quand même préféré à X puisque le score de X sur le critère PRI est pénalisé par un plus mauvais score sur le critère PUI (les critères PRI et PUI doivent être satisfaits tous les deux), le score de X sur le critère SEC est pénalisé par un plus mauvais score sur le critère PUI (les critères
SEC et PUI doivent être satisfaits tous les deux), Y est meilleur que
X sur le critère PUI qui est important et X est meilleur que Y sur le critère CON qui est peu important. Si on a : X=( Pri = 0.27; Sec = 0.47 ; = 0.70 ; = 0.97 ; = 0. 51 ) et Y=( Pri = 0.51 ; Sec = 0.24 ; = 0.69 ; Pui= 0.48; Con = 0. 01). On obtient Y<X.
SEC et PUI doivent être satisfaits tous les deux), Y est meilleur que
X sur le critère PUI qui est important et X est meilleur que Y sur le critère CON qui est peu important. Si on a : X=( Pri = 0.27; Sec = 0.47 ; = 0.70 ; = 0.97 ; = 0. 51 ) et Y=( Pri = 0.51 ; Sec = 0.24 ; = 0.69 ; Pui= 0.48; Con = 0. 01). On obtient Y<X.
L'explication générée est la suivante : X est préféré à Y puisque X est en moyenne meilleur que Y. Ceci a été partiellement atténué par le fait que le score de X sur le critère
PUI est pénalisé par un plus mauvais score sur le critère PRI (les critères PUI et PRI doivent être satisfaits tous les deux) et Y est meilleur que X sur le critère PRI qui est important. Cas 4b de la seconde solution :
PUI est pénalisé par un plus mauvais score sur le critère PRI (les critères PUI et PRI doivent être satisfaits tous les deux) et Y est meilleur que X sur le critère PRI qui est important. Cas 4b de la seconde solution :
<Desc/Clms Page number 46>
X=( Pri = 0.33 ; = 0.60; Est = 0.25 ; = 0.79; Con = 0. 24 ) et Y=( Pri = 0.27 ; Sec = 0.46 ; = 0.93 ; = 0.57 ; = 0. 63). On a X<Y.
L'explication générée est la suivante : Y est préféré à X puisque le score de X sur le critère SEC est pénalisé par un plus mauvais score sur le critère PRI (les critères
SEC et PRI doivent être satisfaits tous les deux). Ceci a été partiellement atténué par le fait que X est meilleur que Y sur les critères PRI, PUI qui sont importants, alors que Y est meilleur que X sur les critères EST, CON qui sont peu importants. Si on a: X=( Pri = 0.96 ; = 0.01 ; = 0.49 ; = 0.16 ; = 0. 32 ) et Y=( Pri = 0.27 ; Sec = 0.17 ; = 0.26 ; Pui= 0.08; Con = 0. 43). On obtient Y<X.
SEC et PRI doivent être satisfaits tous les deux). Ceci a été partiellement atténué par le fait que X est meilleur que Y sur les critères PRI, PUI qui sont importants, alors que Y est meilleur que X sur les critères EST, CON qui sont peu importants. Si on a: X=( Pri = 0.96 ; = 0.01 ; = 0.49 ; = 0.16 ; = 0. 32 ) et Y=( Pri = 0.27 ; Sec = 0.17 ; = 0.26 ; Pui= 0.08; Con = 0. 43). On obtient Y<X.
L'explication générée est la suivante : X est préféré à Y puisque X est en moyenne meilleur que Y. Ceci a été amplifié par le fait que X est meilleur que Y sur le critère PRI qui est important. Néanmoins, ceci a été partiellement atténué par le fait que le score de X sur le critère PRI est pénalisé par un plus mauvais score sur le critère SEC (les critères PRI et SEC doivent être satisfaits tous les deux).
Explications du score global de x.
Explications du score global de x.
On va exposer ici quelques exemples de textes générés de l'explication du score global d'une alternative X en se basant sur la seconde méthode.
Si : X=( Pri = 1 ; = 1 ; = 1 ; = 0.97 ; Con = 1). Score global=0.97 , l'explication générée est la suivante : X est TRÈS BON puisque TOUS les scores de X sont TRÈS BON.
Si : X=( Pri = 0.98 ; = 0.92 ; = 0.69 ; = 0.63 ; Con = 0. 02). Score global=0.68 , l'explication générée est la suivante :
<Desc/Clms Page number 47>
X est BON puisque le critère Con pour lequel X n'est pas BON est peu important, et ne compense pas le fait que X est en moyenne
BON sur les autres critères.
BON sur les autres critères.
X n'est pas EXCELLENT puisque le score de X sur le critère Pri est pénalisé par un plus mauvais score sur le critère Pui (les critères Pri et Pui doivent être satisfaits tous les deux). D'autre part, les scores suivant les différents critères se compensent plus ou moins les uns avec les autres. Si : X=( Pri = 0.72 ; = 0.56 ; = 0.88 ; = 0.16 ; Con = 0.01). Score global=0.35. L'explication générée est la suivante : Bien que X ne soit pas en moyenne MAUVAIS, X est quand même
MAUVAIS puisque le score de X sur le critère Est est pénalisé par un plus mauvais score sur le critère Pui (les critères Est et Pui doivent être satisfaits tous les deux), X est MAUVAIS sur le critère Pui qui est important et X n'est pas MAUVAIS sur le critère Est qui est peu important.
MAUVAIS puisque le score de X sur le critère Est est pénalisé par un plus mauvais score sur le critère Pui (les critères Est et Pui doivent être satisfaits tous les deux), X est MAUVAIS sur le critère Pui qui est important et X n'est pas MAUVAIS sur le critère Est qui est peu important.
X n'est pas EXÉCRABLE puisque X n'est pas EXÉCRABLE sur le critère Pri qui est important.
Si: X=( Pri = 0.72 ; = 0.07 ; = 0.75 ; = 0.29 ; = 0. 74). Score global=0.30 . L'explication générée est la suivante : Bien que X ne soit pas en moyenne MAUVAIS, X est quand même
MAUVAIS puisque le score de X sur le critère Pri est pénalisé par un plus mauvais score sur le critère Sec (les critères Pri et Sec doivent être satisfaits tous les deux), X est MAUVAIS sur le critère Sec qui est important et X n'est pas MAUVAIS sur les critères Est, Con qui sont peu importants.
Si: X=( Pri = 0.72 ; = 0.07 ; = 0.75 ; = 0.29 ; = 0. 74). Score global=0.30 . L'explication générée est la suivante : Bien que X ne soit pas en moyenne MAUVAIS, X est quand même
MAUVAIS puisque le score de X sur le critère Pri est pénalisé par un plus mauvais score sur le critère Sec (les critères Pri et Sec doivent être satisfaits tous les deux), X est MAUVAIS sur le critère Sec qui est important et X n'est pas MAUVAIS sur les critères Est, Con qui sont peu importants.
X n'est pas EXÉCRABLE puisque X n'est pas EXÉCRABLE sur le critère Pri qui est important.
Claims (12)
1. Procédé de génération d'explications pour expliquer à un utilisateur une décision prise à l'aide d'un modèle d'agrégation multicritère compensatoire pour une application donnée, selon lequel on établit un modèle d'agrégation multicritère compensatoire unique pour l'application considérée, modèle décrit par un certain nombre de phénomènes et reproduisant une expertise déterminée, caractérisé par le fait que l'on recherche dans le modèle décisionnel les phénomènes élémentaires de décision qui sont à l'origine de la décision prise, qu'à partir de ces phénomènes élémentaires on établit une suite de modèles comportant de plus en plus de phénomènes élémentaires, que l'on recherche le plus petit modèle amenant à la même décision que le modèle complet, que l'on ne produit les explications que sur les phénomènes élémentaires de ce plus plus petit modèle, et que l'explication du score global d'une alternative est faite par deux comparaisons entre alternatives.
2. Procédé selon la revendication 1, caractérisé par le fait que l'explication à fournir pour le modèle simplifié s'obtient par comparaison avec un modèle d'agrégation encore plus simple mais amenant à une décision non conforme au modèle unique.
3. Procédé selon l'une des revendications 1 à 2, caractérisé par le fait que la décision consiste à choisir une alternative parmi deux, que l'on évalue le modèle pour ces deux alternatives, que la décision sera de choisir l'alternative de plus fort score, et qu'on explique cette décision.
4. Procédé selon la revendication 2, caractérisé par le fait que le modèle d'agrégation comporte plusieurs niveaux de simplification emboîtés et représentés par une suite de fonctions de comparaison M1,...,M p entre les deux alternatives, que la fonction M ' comporte tous les phénomènes compensatoires présents dans M '-' plus d'autres phénomènes, que la
<Desc/Clms Page number 49>
fonction M P représente la comparaison avec le modèle d'agrégation initial et comporte l'ensemble des phénomènes de compensation possibles, que la fonction M1 ne comporte aucun phénomène de compensation spécifique au modèle d'agrégation, que si M1 fournit la même décision que le modèle d'agrégation, l'explication à fournir ne fait pas référence aux spécificités du modèle d'agrégation, que dans le cas contraire l'explication se base sur la fonction M q telle que M q fournit la même décision que le modèle d'agrégation et que les fonctions de comparaison précédentes M1,..., M q- 1 fournissent la décision opposée.
5. Procédé selon la revendication 4, caractérisé par le fait que l'explication de la décision prise par la fonction de comparaison M q se fait par comparaison avec une fonction de comparaison Mj, avec j<q, plus simplifiée mais fournissant une décision non conforme au modèle unique, que les phénomènes de compensation utilisés dans l'explication sont ceux contenus dans M q mais non contenus dans Mj, et que pour déterminer parmi ces phénomènes ceux qui ont vraiment compté dans la décision prise, on rajoute progressivement des comportements à Mj jusqu'à ce que la décision prise soit conforme au modèle unique.
6. Procédé selon la revendication 5, caractérisé par le fait que le modèle d'agrégation correspond à une somme pondérée ou une intégrale de Choquet 2-additive.
7. Procédé selon la revendication 6, caractérisé par le fait qu'il y a quatre fonctions de comparaison, que la première fonction de comparaison M1 indique qu'une alternative est préférée à une seconde si la première alternative est meilleure que la seconde suivant tous les critères, que la deuxième fonction de comparaison M2 correspond à la comparaison par une moyenne arithmétique, que la troisième fonction de comparaison M3 ne contient que les phénomènes d'importance des critères, que la quatrième fonction de comparaison M4 contient l'ensemble des phénomènes
<Desc/Clms Page number 50>
d'importance et d'interaction entre critères, que si la première fonction de comparaison donnant la décision conforme au modèle unique est M3, alors on détermine les phénomènes à mettre dans l'explication par comparaison avec M2, et que si la première fonction de comparaison donnant la décision conforme au modèle unique est M4, alors on détermine les phénomènes de compensation à inclure dans l'explication par comparaison avec M2.
8. Procédé selon la revendication 1, caractérisé par le fait que la décision à prendre consiste à évaluer une alternative, que l'on évalue le modèle pour cette alternative et qu'on explique cette évaluation.
9. Procédé selon la revendication 8, caractérisé par le fait que l'ensemble des évaluations est découpé en 2m+1 niveaux ordonnés N~m, No, Nm, que le niveau N~m est le plus mauvais, que le niveau No est moyen, c'est-à-dire ni bon ni mauvais, que Nm est le meilleur niveau, que chaque niveau est caractérisé par une valeur minimale et une valeur maximale, que l'on détermine pour l'alternative le niveau Nk correspondant à son évaluation par le modèle, que l'on explique pourquoi l'alternative est préférée à une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau Nk en appliquant le procédé selon l'une des revendications 2 à 7, et que l'on explique pourquoi l'alternative est moins bien préférée à une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau Nk en appliquant le procédé selon l'une des revendications 2 à 7.
10. Procédé selon la revendication 9, caractérisé par le fait que k>0, que l'on indique que l'alternative est Nk en appliquant le procédé selon l'une des revendications 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau Nk, et que l'on indique que l'alternative n'est pas Nk+1 en appliquant le procédé selon l'une des revendications 2 à 7 à la
<Desc/Clms Page number 51>
comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau Nk.
11. Procédé selon la revendication 9, caractérisé par le fait que k<0, que l'on indique que l'alternative est Nk en appliquant le procédé selon l'une des revendications 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau Nk, et que l'on indique que l'alternative n'est pas Nk~1 en appliquant le procédé selon l'une des revendications 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau Nk.
12. Procédé selon la revendication 9, caractérisé par le fait que k=0, que l'on indique que l'alternative n'est pas Ni en appliquant le procédé selon l'une des revendications 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur maximale du niveau No, et que l'on indique que l'alternative n'est pas N-1 en appliquant le procédé selon l'une des revendications 2 à 7 à la comparaison entre l'alternative et une alternative dont les valeurs suivant tous les critères sont égales à la valeur minimale du niveau No.
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0215064A FR2848006A1 (fr) | 2002-11-29 | 2002-11-29 | Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire |
PCT/EP2003/050879 WO2004051562A2 (fr) | 2002-11-29 | 2003-11-24 | Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire |
AU2003298314A AU2003298314A1 (en) | 2002-11-29 | 2003-11-24 | Method of explaining a decision taken by a compensatory multi-criteria aggregation model |
US10/536,427 US7236964B2 (en) | 2002-11-29 | 2003-11-24 | Method of explaining a decision taken by a compensatory multi-criteria aggregation model |
EP03796046A EP1573668A2 (fr) | 2002-11-29 | 2003-11-24 | Procede permettant d expliquer une decision prise par un mod ele d agregation multicritere compensatoire |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0215064A FR2848006A1 (fr) | 2002-11-29 | 2002-11-29 | Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire |
Publications (1)
Publication Number | Publication Date |
---|---|
FR2848006A1 true FR2848006A1 (fr) | 2004-06-04 |
Family
ID=32309857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
FR0215064A Withdrawn FR2848006A1 (fr) | 2002-11-29 | 2002-11-29 | Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire |
Country Status (5)
Country | Link |
---|---|
US (1) | US7236964B2 (fr) |
EP (1) | EP1573668A2 (fr) |
AU (1) | AU2003298314A1 (fr) |
FR (1) | FR2848006A1 (fr) |
WO (1) | WO2004051562A2 (fr) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016151145A1 (fr) * | 2015-03-26 | 2016-09-29 | Thales | Procédé d'explication d'un score |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2008073475A2 (fr) * | 2006-12-11 | 2008-06-19 | Tufts University | Procédé d'échantillonnage spatial multi-étage à critères multiples |
US20140278375A1 (en) * | 2013-03-14 | 2014-09-18 | Trinity College Dublin | Methods and system for calculating affect scores in one or more documents |
US10395198B2 (en) | 2013-10-04 | 2019-08-27 | International Business Machines Corporation | Forecasting a time series based on actuals and a plan |
US10318970B2 (en) | 2013-10-04 | 2019-06-11 | International Business Machines Corporation | Generating a succinct approximate representation of a time series |
WO2016061576A1 (fr) | 2014-10-17 | 2016-04-21 | Zestfinance, Inc. | Api pour l'implémentation de fonctions de notation |
US10339467B2 (en) | 2015-06-02 | 2019-07-02 | International Business Machines Corporation | Quantitative discovery of name changes |
US20180322406A1 (en) * | 2017-05-04 | 2018-11-08 | Zestfinance, Inc. | Systems and methods for providing machine learning model explainability information |
US11941650B2 (en) | 2017-08-02 | 2024-03-26 | Zestfinance, Inc. | Explainable machine learning financial credit approval model for protected classes of borrowers |
WO2019173734A1 (fr) | 2018-03-09 | 2019-09-12 | Zestfinance, Inc. | Systèmes et procédés permettant de fournir une évaluation de modèle d'apprentissage machine au moyen d'une décomposition |
CA3098838A1 (fr) | 2018-05-04 | 2019-11-07 | Zestfinance, Inc. | Systemes et procedes pour enrichir des outils de modelisation et une infrastructure de modelisation en elements semantiques |
CN111062548A (zh) * | 2018-10-17 | 2020-04-24 | 南方电网科学研究院有限责任公司 | 一种企业决策辅助实时数据采集及评价方法 |
US11816541B2 (en) | 2019-02-15 | 2023-11-14 | Zestfinance, Inc. | Systems and methods for decomposition of differentiable and non-differentiable models |
CA3134043A1 (fr) | 2019-03-18 | 2020-09-24 | Sean Javad Kamkar | Systemes et procedes d'equite de modele |
US11321638B2 (en) | 2020-03-16 | 2022-05-03 | Kyndryl, Inc. | Interoperable smart AI enabled evaluation of models |
CN112116028B (zh) * | 2020-09-29 | 2024-04-26 | 联想(北京)有限公司 | 模型决策解释实现方法、装置及计算机设备 |
US11720962B2 (en) | 2020-11-24 | 2023-08-08 | Zestfinance, Inc. | Systems and methods for generating gradient-boosted models with improved fairness |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5995728A (en) * | 1995-06-30 | 1999-11-30 | Forman; Ernest H. | Computer implemented method of generating and displaying objectives from pros and cons for evaluating decision alternatives |
US5717865A (en) * | 1995-09-25 | 1998-02-10 | Stratmann; William C. | Method for assisting individuals in decision making processes |
US5983220A (en) * | 1995-11-15 | 1999-11-09 | Bizrate.Com | Supporting intuitive decision in complex multi-attributive domains using fuzzy, hierarchical expert models |
US5832465A (en) * | 1997-04-07 | 1998-11-03 | General Electric Company | Method for building a self-learning evidential reasoning system |
US6826552B1 (en) * | 1999-02-05 | 2004-11-30 | Xfi Corporation | Apparatus and methods for a computer aided decision-making system |
US6304833B1 (en) * | 1999-04-27 | 2001-10-16 | The United States Of America As Represented By The Secretary Of The Navy | Hypothesis selection for evidential reasoning systems |
US6697799B1 (en) * | 1999-09-10 | 2004-02-24 | Requisite Technology, Inc. | Automated classification of items using cascade searches |
US6751600B1 (en) * | 2000-05-30 | 2004-06-15 | Commerce One Operations, Inc. | Method for automatic categorization of items |
US6826541B1 (en) * | 2000-11-01 | 2004-11-30 | Decision Innovations, Inc. | Methods, systems, and computer program products for facilitating user choices among complex alternatives using conjoint analysis |
US6951008B2 (en) * | 2001-03-29 | 2005-09-27 | General Electric Company | Evidential reasoning system and method |
US6957202B2 (en) * | 2001-05-26 | 2005-10-18 | Hewlett-Packard Development Company L.P. | Model selection for decision support systems |
US20030078900A1 (en) * | 2001-06-29 | 2003-04-24 | Dool Jacques Van Den | Distributed decision processing system with advanced comparison engine |
-
2002
- 2002-11-29 FR FR0215064A patent/FR2848006A1/fr not_active Withdrawn
-
2003
- 2003-11-24 WO PCT/EP2003/050879 patent/WO2004051562A2/fr not_active Application Discontinuation
- 2003-11-24 EP EP03796046A patent/EP1573668A2/fr not_active Ceased
- 2003-11-24 AU AU2003298314A patent/AU2003298314A1/en not_active Abandoned
- 2003-11-24 US US10/536,427 patent/US7236964B2/en not_active Expired - Lifetime
Non-Patent Citations (1)
Title |
---|
No Search * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016151145A1 (fr) * | 2015-03-26 | 2016-09-29 | Thales | Procédé d'explication d'un score |
FR3034230A1 (fr) * | 2015-03-26 | 2016-09-30 | Thales Sa | Procede d'explication d'un score |
US11195110B2 (en) | 2015-03-26 | 2021-12-07 | Thales | Method of explaining a score |
Also Published As
Publication number | Publication date |
---|---|
WO2004051562A8 (fr) | 2005-11-10 |
US7236964B2 (en) | 2007-06-26 |
US20060047613A1 (en) | 2006-03-02 |
WO2004051562A2 (fr) | 2004-06-17 |
AU2003298314A1 (en) | 2004-06-23 |
EP1573668A2 (fr) | 2005-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
FR2848006A1 (fr) | Procede permettant d'expliquer une decision prise par un modele d'agregation multicritere compensatoire | |
Grodal et al. | The coevolution of technologies and categories during industry emergence | |
US9230026B2 (en) | Persistent search object in a method and apparatus for keeping and finding information | |
Chu et al. | Development of information search expertise: Postgraduates' knowledge of searching skills | |
Ebbs | Carnap and Quine on truth by convention | |
Birukou et al. | Implicit: a multi-agent recommendation system for web search | |
Berg et al. | The digital constellation | |
Haydar et al. | Local trust versus global trust networks in subjective logic | |
Fenstermacher | The tyranny of tacit knowledge: What artificial intelligence tells us about knowledge representation | |
Kato et al. | Related verification of emotional value and company brand emitted from pure recall | |
Bianchini et al. | Capability Matching and Similarity Reasoning in Service Discovery. | |
Rodriguez | Social decision making with multi-relational networks and grammar-based particle swarms | |
Khenissi et al. | Automatic generation of fuzzy logic components for enhancing the mechanism of learner's modeling while using educational games | |
Tsao et al. | Design for product experience: a study on the analepsis construction of product use | |
Makarova et al. | A case-based reasoning approach with fuzzy linguistic rules: Accuracy validation and application in interface design-support intelligent system | |
Kleinberg | American paranoia: Trump, Sanders and theoretical reflections on researching populism as performance | |
Herman | The Danger of Filter Bubbles and Digital Isolation: Exploring Ethical Research Practices | |
Jesus et al. | Why digital platforms by incumbents fail: Results from a Delphi study | |
Setchi et al. | Multimodal Reasoning in a Knowledge Engineering Framework for Product Support | |
Destercke | Uncertainty representation and combination: new results with application to nuclear safety issues | |
IDRISSI et al. | Impact des médias sociaux sur l’engagement politique à l’ère du numérique: Cas du Maroc | |
Madhani et al. | An Empirical Study On Factors Influencing Adoption Of Voice Assistant For Among Generation Z | |
Popovski | Users’ Perception of Conversational AI According to Their age and Origin | |
Kolomiets et al. | The Method of Dynamic Design of a Search Engine Based on Automated Analysis of User Requests | |
Zacarias et al. | Search for Answers in Domain-Specific Supported by Intelligent Agents |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ST | Notification of lapse |
Effective date: 20090731 |