FR2948209A1 - Simulation d'un agregat evolutif du monde reel, notamment pour gestion de risque - Google Patents

Simulation d'un agregat evolutif du monde reel, notamment pour gestion de risque Download PDF

Info

Publication number
FR2948209A1
FR2948209A1 FR0903456A FR0903456A FR2948209A1 FR 2948209 A1 FR2948209 A1 FR 2948209A1 FR 0903456 A FR0903456 A FR 0903456A FR 0903456 A FR0903456 A FR 0903456A FR 2948209 A1 FR2948209 A1 FR 2948209A1
Authority
FR
France
Prior art keywords
aggregate
parameters
parameter
world
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
FR0903456A
Other languages
English (en)
Inventor
Raphael Douady
Ingmar Adlerberg
Marois Olivier Le
Bertrand Cabrit
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Stochastics Financial Software Sa Fr
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to FR0903456A priority Critical patent/FR2948209A1/fr
Priority to EP10736757A priority patent/EP2454714A1/fr
Priority to US13/384,093 priority patent/US20130035909A1/en
Priority to PCT/FR2010/000506 priority patent/WO2011007058A1/fr
Publication of FR2948209A1 publication Critical patent/FR2948209A1/fr
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/06Asset management; Financial planning or analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • Development Economics (AREA)
  • Operations Research (AREA)
  • Game Theory and Decision Science (AREA)
  • Human Resources & Organizations (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Technology Law (AREA)
  • Physics & Mathematics (AREA)
  • General Business, Economics & Management (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

L'invention vise un dispositif informatique de simulation d'un agrégat évolutif du monde réel comprenant une mémoire, pour stocker des structures de données, propres, pour un élément donné du monde réel, avec un identifiant-élément et une suite de grandeurs-élément associées à des dates-élément respectives. La mémoire stocke ensuite des données d'agrégat, lequel est défini par des groupes d'identifiants-élément, chaque groupe étant associé à une date-groupe, tandis qu'une grandeur-agrégat peut être tirée des grandeurs-éléments qui correspondent aux identifiants-élément du groupe, à chaque date-groupe. Le dispositif comprend en outre un générateur de simulation, agencé pour établir un modèle informatique relatif à un agrégat pour faire correspondre des fonctions particulières à des paramètres directeurs respectifs, sélectionnés pour l'agrégat concerné, chaque fonction particulière résultant de l'ajustement de l'historique de la grandeur-agrégat par rapport à l'historique de son paramètre directeur respectif, à un résidu près, l'ajustement étant assorti d'un score de qualité. De plus, le modèle relatif à l'agrégat comprend une collection de modèles mono-factoriels, laquelle collection est définie par une liste des paramètres directeurs, une liste des fonctions particulières qui leur sont associées, avec leurs scores de qualité respectifs.

Description

Simulation d'un agrégat évolutif du monde réel, notamment pour gestion de risque.
L'invention se rapporte à la simulation informatique de phénomènes du monde réel.
On sait la plupart du temps construire une simulation informatique intrinsèque d'un élément donné du monde réel, par exemple une machine donnée, considérée isolément. Une telle machine peut être considérée comme un élément homogène du monde réel.
Mais cette simulation intrinsèque ne tient pas compte de l'interaction éventuelle de la machine avec le reste du monde réel. Par exemple, une tornade peut mettre la machine hors d'usage.
Il est beaucoup plus difficile de construire une simulation extrinsèque de la machine, qui prenne par exemple en compte l'éventualité d'une tornade. Cela relève de la gestion de risque (en anglais : risk management ). La gestion de risque trouve des applications nombreuses et diverses, parmi lesquelles on peut citer : en architecture, le calcul de la résistance des structures soumises à des stress internes ou externes, qu'il s'agisse de bâtiments, de navires, de véhicules, d'usines, etc. Les stress peuvent être d'origine externe : tellurique, météorologique, etc. ou internes : activité industrielle, moteurs, environnement direct, etc. - le calcul de trajectoires (système de navigation, aérospatial ou autre) avec la prise en compte notamment de la météo prévue, des risques de panne ou d'accidents (probabilité d'accidents en relation avec une modélisation de l'environnement par exemple), et d'aléas divers et variés pouvant engendrer un retard la simulation d'un montant de gains ou de pertes associés à des opérations sur les marchés financiers visant à maîtriser les coûts d'une activité industrielle (par exemple les remboursements d'emprunts, les coûts d'approvisionnement en essence ou en électricité, etc.) - la simulation d'une production industrielle avec la prise en compte notamment l'estimation du temps de livraisons de matière première, la probabilité des employés actifs (par rapport aux employés en arrêt maladie ou en grève par exemple), la probabilité d'une continuité de production (fonctionnement des machines, entretiens et pannes à prévoir), la simulation de réseaux informatiques et de la masse de données à traiter par un noeud du système au cours d'une période donnée, - la simulation de réseaux d'alimentation électrique et de la surcharge possible d'un noeud du réseau à un instant donné, ou la simulation bioinformatique des relations et interactions entre différentes parties d'un système biologique (par exemple réseau de protéines/enzymes ou réactions biochimiques d'une voie métabolique donnée) en tenant compte des paramètres y intervenant (par exemple la capacité de catalyse régio- et/ou stéréospécifique d'une enzyme) en vue d'établir un modèle de fonctionnement de la totalité du système.
Ces quelques exemples montrent que les applications de la gestion de risque sont très diversifiées.
De manière générale, la gestion de risque aboutit à une quantité de mesure de risque. L'une de ces quantités est la valeur à risque (usuellement notée VaR, de l'anglais value at risk ), sur laquelle on reviendra plus loin dans la description détaillée.
La présente invention peut s'appliquer à des agrégats physiques, dont chacun comprend un ensemble massif, c'est à dire volumineux, d'éléments hétérogènes du monde réel. L'expression élément hétérogène s'oppose ici à l'élément homogène que constitue une machine donnée, prise isolément.
Selon une approche connue, la simulation comprend l'analyse historique de l'agrégat dont on veut contrôler le risque, en ignorant son environnement, de manière à en déduire les bornes possibles de son évolution. Une approche plus élaborée tient compte de l'environnement. La simulation comprend alors l'ajustement d'une fonction-modèle de type choisi, pour qu'elle corresponde le30 mieux possible à l'évolution historique de l'agrégat en fonction de son environnement. Ensuite, on simule l'évolution de l'environnement, puis on en déduit, par la fonction-modèle, l'évolution de l'agrégat. La fonction-modèle peut comprendre une composante aléatoire, ce qui amène à un complément décrit plus loin.
S'agissant d'un agrégat volumineux, dont la composition se modifie au cours de son historique, il n'est pas possible de se référer aux différents éléments que comprend l'agrégat. Ladite fonction-modèle va donc utiliser des arguments, en nombre limité, choisis d'une manière que l'on décrira plus loin. Définition de l'invention Ces approches ne sont pas totalement satisfaisantes, pour des raisons sur lesquelles on reviendra également. Elles ont différents inconvénients, dont le fait de mal prendre en 15 compte les situations d'exception, du type de la tornade précitée.
L'invention vient améliorer la situation en utilisant une approche plus exhaustive, et nettement différente de ce qui est connu dans l'état de la technique.
20 À cet effet, l'invention vient introduire un dispositif informatique de simulation d'un agrégat évolutif du monde réel, comprenant : une mémoire, pour stocker • des données de base, relatives à l'historique d'éléments du monde réel, ces données de base comprenant des structures de données (Datai ; Data2), propres, pour un élément donné du monde réel, à établir un identifiant-élément, ainsi qu'une suite de grandeurs-élément associées à des dates-élément respectives, ainsi que • des données d'agrégat, où chaque agrégat (A) est défini par des groupes d'identifiants-élément (Data3), chaque groupe étant associé à une date-groupe, tandis qu'une grandeur-agrégat peut être tirée des grandeurs-éléments qui correspondent aux identifiants-élément du groupe, à chaque date-groupe, et 10 25 30 un générateur de simulation, agencé pour établir un modèle informatique relatif à un agrégat.
Selon un premier aspect de l'invention, pour un agrégat donné (A), le générateur de simulation est agencé pour faire correspondre des fonctions particulières (Fi) à des paramètres directeurs respectifs (Yi), sélectionnés pour l'agrégat concerné (A), chaque fonction particulière résultant de l'ajustement de l'historique de la grandeur-agrégat par rapport à l'historique de son paramètre directeur respectif, à un résidu près (Ress), l'ajustement étant assorti d'un score de qualité (PVV).
Ensuite, le modèle relatif à l'agrégat (A) comprend une collection de modèles mono-factoriels, laquelle collection est définie par une liste des paramètres directeurs (Yi), une liste des fonctions particulières (Fi) qui leur sont associées, avec leurs scores de qualité (PVi) respectifs. Les résidus (Res3) sont optionnels.
Selon un autre aspect de l'invention, le générateur de simulation comprend : - un sélectionneur, capable, sur désignation d'un agrégat (A), de parcourir un ensemble (SE) des éléments du monde réel définis dans les données de base, pour y sélectionner des paramètres directeurs (Yj) en fonction d'une condition de sélection, cette condition de sélection comprenant le fait qu'un critère d'influence du paramètre directeur sur l'agrégat (A) représente une influence qui dépasse un seuil minimal, et - un calibreur, agencé pour faire correspondre des fonctions particulières respectives (Fi) à chacun des paramètres directeurs sélectionnés (Yi), chaque fonction particulière résultant de l'ajustement de l'historique de la grandeur-agrégat par rapport à l'historique du paramètre directeur concerné, à un résidu près (Resi), l'ajustement étant assorti d'un score de qualité (PVV).
D'autres caractéristiques et avantages de l'invention apparaîtront à l'examen de la description détaillée ci-après, et des dessins annexés, sur lesquels : - la figure 1 illustre la structure générale d'un dispositif de simulation, la figure 2 illustre le schéma d'un dispositif de simulation connu, la figure 3 illustre le schéma d'un dispositif de simulation tel que proposé ici, la figure 4 est un diagramme de flux d'un mécanisme de sélection des paramètres directeurs selon l'invention, la figure 5 montre une mise en oeuvre de l'invention pour estimer un niveau de risque résultant à partir d'une collection de modèles individuels, sans utiliser de modélisation particulière des interactions entre les différents modèles, la figure 6 montre une seconde mise en oeuvre de l'invention pour estimer un niveau de risque résultant à partir d'une collection de modèles individuels, utilisant une modélisation des corrélations entre les paramètres directeurs des différents modèles, la figure 7 montre une mise en oeuvre de l'invention pour estimer un niveau de stress résultant à partir d'une collection de modèles individuels, sous une hypothèse de scénario environnemental, et - la figure 8 montre une mise en oeuvre de l'invention pour estimer un niveau de risque résultant à partir d'une collection de modèles individuels, en utilisant une simulation pseudo-aléatoire dite Monte-Carlo des paramètres directeurs.
Les dessins et la description ci-après contiennent, pour l'essentiel, des éléments à caractère certain. Les dessins font partie intégrante de la description et pourront donc non seulement servir à mieux faire comprendre la présente invention, mais aussi contribuer à sa définition, le cas échéant.
En outre, la description détaillée est augmentée par l'annexe A qui regroupe les expressions, relations et/ou formules lesquelles interviennent dans la description détaillée ci-après. L'annexe est déconnectée de la description dans un but de clarification d'une part, et pour faciliter les renvois d'autres part. Tout comme les dessins, l'annexe fait partie intégrante de la description, et peut donc non seulement servir à mieux faire comprendre la présente invention, mais aussi contribuer à sa définition, le cas échéant.
Les numéros des relations sont entre parenthèses dans l'annexe, mais entre crochets droits dans la description (pour plus de clarté). De même, à certains endroits, on note les indices en les faisant précéder d'un trait de soulignement ; ainsi, Ti correspond à T.
Description d'un appareil général de simulation La figure 1 illustre la structure générale d'un appareil de simulation.
Il convient tout d'abord de disposer d'une collection importante de données du monde réel, qui sont ici stockées dans une mémoire monde réel 1000. Le mode de réalisation décrit fait référence à une mémoire 1000 comprenant différentes zones de mémoires comprenant chacune des données distinctes, pour clarifier l'exposé. Bien entendu, la mémoire 1000 peut stocker les données distinctes dans une seule zone de mémoire physique. A l'opposé, chaque zone de mémoire pourrait être comprise dans une mémoire physique qui lui serait propre (par exemples pour quatre zones de mémoire, on aurait quatre mémoires physiques distinctes).
Les données peuvent être de nature très variable et comprendre des éléments du monde réel, des paramètres ayant une influence directe ou indirecte sur ces éléments, des sous-ensembles d'éléments (agrégats) ou encore des ensembles de sous-ensembles (plusieurs agrégats) sur lesquels on reviendra ci-dessous.
Ici, le mot "élément" vise tout élément de l'univers de données du monde réel, y compris les paramètres. En fait, dès lors qu'une grandeur, même calculée ù par exemple une corrélation ù est considérée comme une source de risque, elle doit être labellisée, et faire l'objet d'un historique. De ce fait, elle devient un élément .
A la base, la mémoire 1000 contient d'abord des données (Datai, ou "premières données") sur des éléments ou objets du monde réel. Une première donnée (Datai) peut être décrite comme un multiplet, qui comprend un identifiant-élément (id), une valeur-élément (V) et une date-élément (t), comme illustré par l'expression [1] annexée. La donnée Datai se comprend ainsi : le multiplet représente la valeur-élément, à la date- élément indiquée, d'un élément du monde réel désigné par l'identifiant-élément. La date-élément peut être une date et un temps (à la précision voulue), ou un temps seulement, ou une date seulement, selon la cadence d'évolution choisie pour l'ensemble des éléments considérés.
Ces multiplets sont rangés dans une ou plusieurs tables d'une ou plusieurs bases de données. Bien entendu, d'autres représentations informatiques équivalentes sont possibles.
Chaque élément évolue au cours du temps. Cette évolution peut être suivie et enregistrée au moyen des multiplets et plus précisément par l'association de valeurs-élément avec des dates-élément compris dans ces multiplets. La distinction entre l'évolution d'un élément par rapport à un autre est facilitée par les identifiants-élément lesquelles sont propres pour chaque élément distinct (il y a un identifiant-élément unique pour un élément donné).
La mémoire 1000 contient également des données Data2 ("secondes données"). Une seconde donnée Data2 représente l'évolution d'un élément au cours du temps. Selon la formule [2], la seconde donnée Data2 est une collection de valeurs Datai, depuis un temps initial to jusqu'à un temps final tF, avec une périodicité temporelle choisie (cadence d'échantillonnage). Comme l'identifiant id est commun à tous les multiplets Datai de la formule [2], il peut en être sorti, pour être associé directement à Data2. On obtient alors la formule [3]. Elle s'écrit plus symboliquement selon la formule [4], dans laquelle l'indice i de Ei correspond à l'identifiant id de l'élément Ei et l'indice k correspond à l'échantillonnage temporel tk. Sa liste de valeurs Vj(tk) peut être vue comme un tableau informatique de type "array" Vi (ou vecteur, au sens informatique du terme). En bref, le vecteur Vi représente sensiblement l'évolution au cours du temps de l'élément Ei.
La mémoire 1000 contient encore des données Data3 ("troisièmes données"). Une troisième donnée Data3 représente un agrégat d'éléments du monde réel. La formule [5] indique la composition à l'instant to de l'agrégat Ap (l'indice p est un identifiant-agrégat).
Cet agrégat contient des éléments Ei, en quantités respectives qi. Le nombre des éléments Ei à l'instant to est noté CardAp(to). Une troisième donnée Data3 peut comprendre trois vecteurs de taille CardAp(to), comme illustré par la formule [5] : un vecteur d'identifiants id;, contenant les id respectifs des différents éléments E;, un vecteur Q contenant les quantités q;, et un vecteur V contenant les valeurs V, correspondantes. Il s'agit de la valeur-élément V; de l'élément E; ayant l'identifiant id; concerné. En variante, on peut enregistrer le produit de la quantité qi par la valeur-élément Vä pour éviter d'avoir à faire ce produit ensuite. On peut enregistrer d'une part la valeur totale de l'agrégat VT(Ap) comme illustré par la formule [6], et d'autre part les poids W; de chacun des éléments E; dans l'agrégat, c'est-à-dire les ratios = q;V;/VT(Ap), comme illustré par la formule [7].
Ces vecteurs forment un tableau à trois dimensions ("array" multidimensionnel), que l'on appelle ici matrice-agrégat.
Ainsi une troisième donnée Data3 peut être décrite au format identifiant- agrégat/matrice-agrégat/date-agrégat, où l'identifiant-agrégat désigne un agrégat, tandis que la matrice-agrégat désigne la composition en éléments et/ou la valeur en éléments de cet agrégat à la date-agrégat indiquée, ici to (c'est-à-dire quels éléments font partie d'un agrégat donné à une date donnée, en quelles quantités, et avec quelle valeur, individuelle ou globale). On notera que la composition de l'agrégat peut évoluer en fonction du temps. Par conséquent, le nombre CardAp(tk) des éléments E; à l'instant tk peut être différent de CardAp(to).
Dans la matrice-agrégat, les identifiants-élément peuvent être implicites, par exemple si la matrice a autant de lignes qu'il y a d'éléments considérés. Dans ce cas, la ligne de rang i est toujours affectée au même élément E. La matrice-agrégat peut alors se réduire au vecteur Q des quantités q; et au vecteur V des valeurs. C'est ce que montre la formule [8], pour l'état de l'agrégat Ap à l'instant t.
Un cas particulier est lorsque l'agrégat Ap est réduit à un seul élément Ei. Dans ce cas, la matrice-agrégat n'a qu'une seule ligne et l'agrégat peut être identifié à cet élément Ei. Ceci n'empêche pas que deux structures de données Data2 et Data3 distinctes coexistent, puisque Data3 peut contenir aussi bien des agrégats réellement multiples et d'autres réduits à un seul élément.
Dans ce qui concerne l'agrégat Ap ci-dessus, il n'est question que d'un seul temps, en l'occurrence to. Sur l'intervalle de temps qui va de to à tF, l'état de l'agrégat sera représenté par une pluralité de lignes semblables aux formules [5] et/ou [8]. Ainsi, dans les notations V;(t) et K; ) de la formule [8], la terminaison (t) rappelle qu'il s'agit de variables fonction du temps, ou plus précisément, d'une suite d'échantillons dans le temps.
Cela correspond à une pluralité de matrices, comme le résume symboliquement la formule [9]. C'est ce que l'on appellera ci-après historique matriciel , pour l'agrégat Ap considéré.
Plus généralement, les troisièmes données (Data3) sont des sous-ensembles d'éléments choisis, formant des groupes de multiplets. Chaque groupe est désigné par un identifiant-agrégat. L'ensemble des groupes, en fonction du temps, est rangé dans une ou des tables d'une ou plusieurs bases de données. Bien entendu, d'autres représentations informatiques équivalentes sont possibles. Au minimum, un agrégat est un fichier de dates et de valeurs.
Optionnellement, des agrégats d'agrégats peuvent être définis. Dans ce cas, la mémoire 1000 peut comprendre un jeu de quatrièmes données Data4, sous forme d'une représentation informatique de données qui reflète un groupe de pluralités de matrices, où chaque pluralité de matrices correspond à l'évolution en fonction du temps d'un agrégat. Ces quatrièmes données sont directement déterminables à partir des premières, deuxièmes et troisièmes données, comme illustré par les formules [10] et [11], dans laquelle la lettre B représente un agrégat d'agrégat et ww(t) le poids de l'agrégat Ap dans B à la date (t). Elles peuvent être utiles notamment en tant que données intermédiaires, facilitant l'établissement du modèle informatique par l'outil de calibrage, comme on le verra, ou plus simplement comme représentation d'un système composite qui se décompose naturellement en sous-systèmes eux-mêmes composites.
En référence à la figure 1, dans un système informatique 2000, les données du monde réel vont d'abord servir à la préparation d'un modèle physique (propre à une mise en oeuvre informatique). Cela se fait dans un outil de calibrage 2100, après quoi une représentation informatique du modèle est stockée dans une mémoire 2600. Pour cela l'outil de calibrage 2100 accède aux données stockées dans la mémoire 1000. Les données de simulation sont des données de simulation d'états passés fictifs et/ou de prédiction d'états futurs du monde réel.
10 L'appareil de simulation peut servir en architecture au dimensionnement des constructions, qu'il s'agisse de bâtiments, de véhicules, de navires, notamment. Il peut aussi servir au pilotage d'un réseau électrique de puissance maillé, des réseaux téléphoniques, ou encore du réseau Internet. Il peut servir également au contrôle de qualité d'une chaîne de production chimique, pharmaceutique ou alimentaire. Il peut 15 servir encore à l'étude des risques hydrographiques ou météorologiques. D'autres applications sont la gestion logistique des réseaux de transport, comme des flottes de taxi, ou encore la modélisation de la propagation de risques épidémiques, ou de risques de pollution. L'appareil de simulation peut naturellement servir aussi à l'analyse de risques financiers. 20 L'art antérieur La réalisation d'un dispositif de simulation selon l'art antérieur est illustrée sur la figure 2. 25 La figure 2 montre comment s'effectue le calibrage 2100, pour aboutir à une fonction d'ajustement en 2120 : a. on dispose des données observées et/ou mesurées sur l'agrégat : V(t) et Q(t), ces données étant stockées dans la mémoire monde réel 1000 ; 30 b. un sélectionneur 2110 choisit un jeu de facteurs explicatifs du modèle Y , que l'on appelle ici paramètres directeurs ; et il mémorise leurs désignations dans la mémoire 1000 ; c. un calibreur 2120 réalise un ajustement par optimisation d'un critère (en terminologie anglaise : "best fit"), qui permet de déterminer l'expression précise d'une fonction f(Y) où Y = (Y1,...,Y),...,Y.) est le vecteur représentant l'ensemble des paramètres directeurs, et un résidu Res. L'ajustement consiste par exemple à déterminer les coefficients de la fonction f(). Le résidu Res représente l'écart entre le modèle f(Y) et la valeur observée V.
En fait, cela dépend du temps, et il faut parler de V(t), de Y(t), et de Res(t).
Une nouvelle source de complexité apparaît alors avec les possibles effets retard , c'est-à-dire que la modélisation correcte de la valeur V(t) nécessite d'inclure dans le modèle les valeurs des paramètres directeurs Y à des dates t' antérieures. Typiquement, l'expression du modèle retenu pour V(tk) fera intervenir les Y(th) pour des indices de date h<k.
Ainsi, selon une approche de modélisation connue, on considère (à l'opération b) que l'évolution des éléments est directement ou indirectement liée à certains paramètres, que l'on peut qualifier de paramètres directeurs de l'état du système, ou encore de facteurs explicatifs du modèle . Physiquement, ces paramètres peuvent être considérés comme des variables d'état dans l'espace des phases du monde réel. On trouvera plus de détails sur ces grandeurs notamment à l'aide des liens : http://fr.wikipedia.org/wiki/Espace Des Phases http://fr.wikipedia.org/wiki/Représentation d'état J. Lifermann Systèmes linéaires. Variables d'état , 1972 A l'étape c, l'expression précise ou particulière de la fonction f(Y) peut être déterminée en partant d'une expression générique (paramétrée) de la fonction f(Y). Cette expression générique peut être stockée dans le calibreur 2120, ou bien séparément, en 2125. Par exemple, si la fonction f(Y) est une combinaison linéaire, son expression générique est donnée par la relation [12] annexée, où les y1 sont des variables, et les ai des coefficients à déterminer. L'entier j est l'indexation des paramètres directeurs sélectionnés.
Autrement dit, le calibreur (2120) opère pour établir les fonctions particulières à partir d'un jeu d'expressions de fonctions génériques à coefficients inconnus (2160). Ce jeu d'expressions de fonctions génériques à coefficients inconnus (2160) peut comprendre des expressions de fonctions génériques non linéaires.
Après optimisation (ajustement), l'expression particulière précise de la fonction f(Y), avec les valeurs des af est stockée en 2600. Le modèle s'exprime alors selon la relation [13] annexée, où les Y sont les paramètres directeurs, et Res désigne un résidu, qui contient un historique, et qui reflète l'imperfection de la fonction f à représenter précisément l'agrégat.
La modélisation comprend donc : le choix des paramètres directeurs: Y1, Y2, ... Y, ...Y, ; le choix de la forme mathématique de la fonction f(Y) qui convient à l'état de 15 l'agrégat, y compris le nombre de retards autorisés, la recherche des coefficients de la fonction f(Y) et la détermination du résidu historique Res(t), ainsi que d'une ou plusieurs grandeurs reliées, comme un risque associé au résidu. 20 Le modèle qui résulte du calibrage est ici stocké en 2600, et comprend : la liste des identifiants ri des paramètres directeurs, une représentation informatique de l'expression précise de la fonction f, en général une liste de coefficients, notamment lorsque la fonction f() est linéaire, 25 - éventuellement, le résidu historique Res(t), éventuellement, des grandeurs liées à la qualité du calibrage.
On expliquera maintenant un phénomène qui se produit lorsque l'on s'applique cette technique à un agrégat A de grande taille, avec un nombre élevé d'indices. La difficulté est que le nombre de coefficients du modèle f(Y) (ce que l'on cherche) est potentiellement supérieur au nombre total de données historiques, les V(t) (ce dont on 30 dispose). Dans ce cas, le problème est du type dit sous-spécifié , c'est-à-dire que le calibreur peut fournir de manière aléatoire des solutions très différentes, ce qui le rend peu fiable, et par conséquent non utilisable. De plus, même dans le cas où le problème n'est pas à proprement parler sous-spécifié , c'est-à-dire que l'on a suffisamment de données historiques, le calibrage peut devenir numériquement instable et imprécis en raison de colinéarités entre les séries historiques des paramètres directeurs.
Le même phénomène se produit lorsque l'expression mathématique de la fonction f() est par exemple un polynôme d'ordre élevé, plus généralement une forme mathématique d'une complexité telle, à cause des non-linéarités et des effets retard, que le nombre de coefficients à déterminer est supérieur au nombre total de données historiques dont on dispose, ou encore lorsqu'il existe des colinéarités entre les séries historiques des briques élémentaires de la forme mathématique du modèle.
En pratique, on va partir d'un jeu limité de n facteurs ou paramètres directeurs Y , de composition constante dans le temps. La recherche de la fonction f(Y) qui convient à l'état de l'agrégat A peut s'effectuer par des techniques connues d'ajustement linéaire ou non linéaire. Le jeu de n paramètres directeurs ri est lui-même un agrégat, de composition constante. Pour le distinguer, on l'appellera ici pseudo-agrégat.
Les paramètres directeurs viennent du monde réel. La fonction est généralement une simple combinaison linéaire. Autrement dit, on constitue un pseudo-agrégat de paramètres directeurs, de composition constante dans le temps, qui est supposé représenter l'évolution de l'agrégat considéré. Reste à traiter le fait que le problème est sous-spécifié , c'est à dire à réduire le nombre n de paramètres directeurs de l'agrégat. On peut le faire automatiquement par une technique dite de sélection de modèle : à 30 partir d'un grand nombre de paramètres directeurs possibles, on calibre des modèles ne faisant intervenir que des sous-ensembles de paramètres directeurs (en nombre restreint), et l'on sélectionne le modèle, c'est-à-dire le sous-ensemble de paramètres, qui optimise25 un certain critère (par exemple par stepwise regression ). Des informations plus détaillées pourront être trouvées à l'aide des liens : http://en.wikipedia.org/wiki/Stepwise regression http://en.wikipedia.org/wiki/Model selection D'autres informations sur les techniques de calibrage connues pourront être trouvés notamment dans les ouvrages : - Ch. Gouriéroux, A. Monfort Séries temporelles et modèles dynamiques Economica, 1995 J.D. Hamilton Time Series Analysis Princeton University Press 1994
Dans la pratique, ces procédés purement automatiques ne sont pas toujours totalement satisfaisants. Ils ont tendance à fournir un modèle qui va bien fonctionner en situation courante, mais diverger dès que l'on rencontre une situation exceptionnelle, comme des conditions extrêmes. On est tenté de re-calibrer le modèle, ce qui, souvent, le fait changer complètement et rend le calibrage instable.
Pour ces raisons, l'homme du métier va tendre vers une approche intuitive, en forçant le pseudo-agrégat à contenir des paramètres directeurs choisis par lui. Il choisit ces paramètres directeurs forcés sur la base de sa perception et de sa compréhension des phénomènes en cause, et naturellement de son expérience. De plus, et toujours sur la base de sa connaissance du problème, il choisira a priori la forme mathématique de la fonction f, en essayant de maîtriser la complexité, souvent au détriment de la pertinence du modèle, par exemple en rejetant les non-linéarités et les effets retard, même si ceux-ci sont corroborés par l'expérience. En bref, cette technique est largement dépendante des qualifications du spécialiste, et perd le côté d'automatisation.
Les paramètres directeurs sont choisis généralement parmi les éléments du monde réel qui sont susceptibles d'influencer le comportement de l'agrégat A du monde réel lorsque celui-ci est soumis à des mouvements de grande amplitude. Le but est de trouver ceux qui ont le plus d'influence dans ces conditions.
Ce genre de modélisation est par exemple utilisé pour déterminer comment se comporte l'agrégat, sous telle ou telle condition, en faisant varier les valeurs des paramètres directeurs Y. C'est ce que l'on appelle un stress test , dont la qualité peut être très compromise si un paramètre directeur a été ignoré. L'invention viendra notamment améliorer la précision et la fiabilité des stress test .
Ensuite, on pourra mettre en oeuvre tout ou partie de trois grandes étapes : la sélection des paramètres directeurs pertinents ; l'estimation des hypothèses d'évolution possibles des paramètres directeurs ; et l'estimation de l'évolution de l'agrégat selon ces différentes hypothèses.
Le cas où l'on ignore l'environnement revient à supposer que le seul paramètre directeur est l'évolution passée de l'agrégat lui-même.
Un tel appareil de simulation peut simuler le comportement de différentes sortes d'agrégats du monde réel, à partir d'un historique du passé. Ce genre de simulation s'applique à des systèmes complexes, sujets à des sources de risques qui sont potentiellement très nombreuses et de nature très différente. En pareil cas, on peut observer des perturbations extrêmes, voire un comportement chaotique et/ou imprévisible.
En effet, les phénomènes se déroulant dans le monde réel sont à la fois de nature et de comportement très variés. Ils évoluent selon des lois d'évolution qui peuvent être déterministes et/ou aléatoires. Grossièrement, les lois d'évolution sont propres à chacun des agrégats et dépendent des éléments hétérogènes qui les composent.
Il s'ensuit qu'une simulation en vue d'une prédiction de comportements de phénomènes du monde réel, nécessite la prise en compte d'une pluralité de paramètres généralement difficiles à identifier. Logiquement, ces paramètres doivent être en relation directe ou indirecte avec les éléments hétérogènes qui composent les agrégats.
Par exemple, dans le cadre de la prédiction météorologique, l'agrégat comprend notamment un paramètre lié au mouvement de l'air (qui lui-même est dépendant de différents éléments parmi lesquels on peut citer la pression de l'air, la température de l'air, la densité de l'air et la teneur en eau de l'air), un paramètre lié à l'atmosphère (généralement il s'agit d'un système avec changement de variable en chaque point), un paramètre lié au positionnement des stations de sondage, un paramètre lié au comportement de l'air à grande échelle et un paramètre lié au comportement de l'air à petite échelle.
Dans le cadre d'un portefeuille d'instruments financiers, il n'est pas trivial de définir et de choisir quels paramètres sont en relation avec les éléments hétérogènes d'un agrégat donné. Classiquement, on tient compte de la distribution des rendements du portefeuille étudié. Cette distribution est souvent supposée suivre une des classes connues de distribution de probabilités, par exemple la distribution dite normale ou gaussienne, en vue de généraliser les rendements du portefeuille par une fonction mathématique.
Une autre approche dans le cadre d'un portefeuille financier est l'utilisation de distributions historiques ou échantillons historiques. Dans cette approche, on tient compte des distributions passées pour finalement prévoir un comportement que pourrait suivre un portefeuille donné dans une situation future, présumée similaire à une situation passée.
Toutefois, cette approche présente des inconvénients. Par exemple, l'approche en question est dépendante de la taille de l'échantillon historique considéré. Lorsque celui- ci est trop petit, les simulations sont peu précises, et lorsqu'il est trop grand on rencontre des problèmes de cohérence temporelle (comparaison de résultats non-comparables, changement de composition du portefeuille ou de stratégie d'investissement).
Dans le domaine financier, les paramètres directeurs YI, Y2, ... Y, ...Y, peuvent être, pour l'essentiel, les valeurs de titres sur le marché, des indices ou des taux. Ils sont sensibles à une vaste étendue de facteurs du monde réel, qui vont jusqu'aux catastrophes naturelles, guerres, notamment. La maîtrise de leur impact peut s'avérer vitale pour un fonds d'investissement censé garantir le paiement d'assurances ou de retraites à des particuliers, dont les montants sont eux-mêmes soumis aux aléas du marché et/ou de paramètres socio-économiques comme l'inflation ou la démographie.
Dans le domaine agro-alimentaire, comme la fabrication d'un produit laitier, les paramètres directeurs peuvent être les teneurs du lait en différents nutriments et/ou micro-organismes, dont on devra tenir compte afin de contrôler la composition du produit fini.
Dans le domaine architectural, les paramètres directeurs peuvent être des vitesses de vents et/ou de courants, des amplitudes de secousses, etc. et l'on cherche à anticiper la valeur des contraintes imposées aux structures afin de les dimensionner en conséquence.
En médecine et en pharmacologie, on déterminera in vitro l'amplitude û quantifiable û de la réaction d'un élément biologique à certaines quantités de produits qu'on lui soumet. On fera ensuite le même test in vivo sur des animaux, puis sur des êtres humains. Dans ce cas, les réactions extrêmes doivent impérativement être anticipées et les interactions entre produits prises en compte. L'influence de paramètres autres que les quantités de produit injectées est aussi importante : température, analyse sanguine du patient, etc.
La simulation comprend l'élaboration d'un modèle qui reflète une représentation globale de l'évolution d'un agrégat choisi dans des circonstances données (phénomène). Même si le modèle concerné peut être qualifié de "modèle mathématique", il faut conserver à l'esprit qu'il s'agit en réalité d'un modèle du monde réel, à savoir un modèle physique, utilisant des expressions mathématiques. La différence est importante : une formule mathématique en tant que telle reste valable quelles que soient les grandeurs d'entrée qu'on lui applique ; en revanche, un modèle physique n'est valable que s'il correspond à ce qui se passe dans le monde réel ; il est inutile pour le reste, qui constitue la majeure partie des cas.
Ainsi, la tenue d'une comptabilité relève des formules mathématiques : les opérations arithmétiques qui interviennent sont valables quels que soient les chiffres appliqués.
C'est vrai pour d'autres méthodes d'ordre économique, dont le mécanisme opère quelles que soient les valeurs considérées.
Il en est différemment pour des techniques extra-comptables, comme la prévision, la simulation ou l'estimation de risque. Il existe un domaine restreint d'application où ces techniques sont valables ; pour le reste, leurs résultats ne signifient rien. Ces techniques doivent donc être considérées comme relevant des modèles physiques, remarque étant faite qu'elles s'appliquent la plupart du temps à différentes classes d'objets, matériels ou non, du monde réel.
La modélisation permet notamment de faire des stress tests , c'est-à-dire d'évaluer le comportement d'un système lorsque son environnement le soumet à des conditions extrêmes. Il est donc essentiel que le modèle reste valable dans les conditions extrêmes.
La modélisation permet également d'évaluer les risques qu'encourt l'agrégat A. On connaît de telles mesures de risque, comme la volatilité, ou encore la VaR (Value at Risk).
Comme déjà indiqué, une première façon d'obtenir une mesure de risque de l'agrégat A consiste à étudier les propriétés statistiques de la série temporelle des valeurs totales VT(tk) et à en déduire un intervalle de confiance de ses variations. Cette approche, bien que souvent utilisée, est évidemment très limitative, car il se peut très bien que l'historique enregistré de l'agrégat ne comporte aucune situation extrême, alors que celles-ci sont tout à fait possibles.
Une façon plus élaborée d'obtenir une mesure de risque, toujours selon l'art antérieur, consiste à estimer la distribution jointe des paramètres directeurs Y, et à l'appliquer à la fonction f0. La distribution jointe fournit un domaine de confiance du multiplet des valeurs de ces paramètres directeurs. Après application de la fonction f0, il en découle un intervalle de confiance de la valeur de l'agrégat. La plus défavorable des bornes de cet intervalle de confiance est une mesure de risque, dont on peut déduire la VaR.
La distribution jointe (joint distribution) des paramètres directeurs Y1, Y2, ...ri, ... Y, peut être définie à partir de l'historique complet relatif à ces paramètres directeurs (contenu dans les premières données). Cet historique est en général long et riche. Cependant, dans certains domaines, l'art antérieur simplifie les choses en commençant par réduire l'information historique aux seules dates tk des données de la base Data2 (dates où des données existent pour le ou les agrégats), et/ou en faisant l'hypothèse que la distribution jointe des paramètres directeurs Y est une simple matrice de covariance.
La modélisation ne fonctionne pas toujours comme on le désire.
En résumé, il est vrai que le suivi de l'évolution d'un ou plusieurs pseudo-agrégats bien choisis peut permettre de modéliser l'évolution d'un système, dont l'étude est fondée sur un ou des phénomènes du monde réel. En revanche, pour un système complexe, la tâche est difficile, voire considérée dans certains cas comme impossible, pour une ou plusieurs des raisons suivantes : étendue du système, et complexité correspondante des structures de données, avec une grande variabilité des possibles sources de risques ; non-linéarités et/ou changements de régime, dans les interactions susceptibles d'intervenir , nécessité que la modélisation soit robuste en toutes circonstances, y compris les circonstances extrêmes ; effets retard entre la source de risque et son impact observables sur le système ; - souhait que la modélisation permette la prédiction, c'est-à-dire d'anticiper de façon fiable le comportement du système analysé en fonction des mouvements sur les paramètres directeurs ; respect de normes industrielles de risque applicables dans le domaine.
Comme on l'a vu, de nombreux problèmes se posent : - rigidité des modèles, car le nombre de paramètres directeurs doit être limité, si l'on 30 veut éviter la difficulté d'un problème sous-spécifié ; instabilité du calibrage, car là où deux paramètres directeurs ont temporairement le même effet sur l'agrégat, la simulation peut se méprendre sur les poids respectifs de ces deux paramètres directeurs (phénomènes de colinéarité) ; approximation trop grossière, qui se traduit par une valeur trop élevée du résidu Res ; mauvaises performances prédictives en raison des changements de régime, en particulier aux situations extrêmes.
De plus, il n'est pas possible d'une manière simple de simuler la réunion de plusieurs agrégats dont les simulations respectives utilisent des ensembles d'éléments ou 10 paramètres différents. La contrainte de stabilité du calibrage impose la parcimonie des modèles, et il faut donc utiliser un nombre limité de paramètres directeurs pour chaque agrégat. Le choix de cet ensemble limité de paramètres directeurs sera différent pour chaque agrégat ; et il ne sera plus possible de modéliser une réunion d'agrégats de manière homogène et fiable, à partir des modèles des agrégats individuels. 15 Description de l'invention La présente invention est fondée sur un certain nombre d'observations.
20 Tout d'abord, dans le cas le plus simple (et le plus fréquent), les paramètres directeurs seront tout simplement un premier jeu d'éléments du monde réel, ayant une influence sur un second jeu d'éléments du monde réel (les deux jeux n'étant pas nécessairement disjoints).
25 Ce cas le plus simple et le plus fréquent sous-tend l'approche de l'art antérieur, suivant laquelle il est possible de choisir les paramètres directeurs de manière intuitive. Il demeure que cette approche intuitive n'est pas nécessairement exacte.
Autrement dit, la connaissance des paramètres directeurs (le premier jeu d'éléments) 30 permet de déterminer, pour l'essentiel, le comportement des éléments du second jeu. L'expression pour l'essentiel signifie en principe que l'on connaît ce comportement dans un pourcentage satisfaisant des cas possibles (par exemple 95 %), le reste représentant un risque résiduel acceptable pour l'utilisateur, et contrôlable par lui. Il a été observé qu'en réalité, l'approche intuitive ne permet pas d'obtenir un risque résiduel acceptable pour l'utilisateur, et contrôlable par lui, car les situations extrêmes sont généralement dans les 5% non correctement modélisés. De plus, il peut exister un facteur (un candidat paramètre directeur) qui ne se trouve pas lié à un élément dans le cas général, mais qui se manifeste seulement lorsqu'un scénario particulier se déroule, spécifiquement un scénario extrême. Ce type d'influence s'associe par exemple à un effet de seuil, susceptible d'engendrer un changement de régime. 10 Dans le cas d'une réunion d'agrégats (un agrégat d'agrégats ), l'influence peut être encore plus complexe. Les paramètres directeurs peuvent n'avoir qu'une influence minime sur les agrégats individuels, considérés un à un ; par contre, la synergie entre certains agrégats individuels peut faire que le jeu de paramètres aura un impact important 15 sur la réunion des agrégats. Il y a là un autre effet de seuil, lié au moment où la synergie concernée apparaît, par exemple du fait d'un changement des corrélations entre les agrégats individuels, voire entre agrégats individuels et certains paramètres directeurs.
La présente invention vise à prendre en compte notamment ces types de situations 20 particulières, qui échappent souvent à la modélisation classique.
La Demanderesse a observé qu'à certains changements de régime intéressants, il se produit des changements de corrélations systématiques, et qu'il est possible de modéliser ceux-ci, notamment aux situations extrêmes. 25 L'invention peut se résumer à la mise en oeuvre tout ou partie de quatre grandes étapes : l'évaluation de la pertinence ou scoring de chaque facteur qui est un candidat paramètre directeur, suivie de la sélection des facteurs dont la pertinence dépasse un certain seuil ; 30 l'estimation des hypothèses possibles d'évolution de chaque paramètre directeur sélectionné, en liaison ou non avec certaines hypothèses sur l'environnement global ; l'estimation de leur impact sur l'agrégat selon les différentes hypothèses ;5 la modélisation globale elle-même pour l'estimation du risque et des stress tests. Sélection des paramètres directeurs Pour cela, la Demanderesse propose une approche complètement différente. Cette approche est illustrée sur la figure 3. Elle diffère de la figure 2 notamment comme suit : les ingrédients choisis a priori pour définir le modèle sont de deux natures, à savoir des identifiants de paramètres directeurs Y (bloc 2150), et des identifiants d'expressions génériques de fonctions correspondantes F) (bloc 2160), à raison d'une par paramètre directeur. Deux blocs séparés sont représentés sur la figure 3 pour faciliter l'exposé. En pratique, on peut stocker des couples d'identifiants :
(paramètre Y, fonction Fi) Il est précisé que le mot fonction vise ici un objet informatique. En informatique, une fonction peut être déterminée par exemple par : l'identification d'une forme mathématique, indiquant qu'il s'agit par exemple d'une combinaison linéaire, ou d'un polynôme de degré d, ou de toute autre forme mathématique prédéfinie par le concepteur du système, et une liste de paramètres ou coefficients, cohérente avec la forme mathématique désignée par l'identifiant.
Ce qui précède s'appelle une représentation paramétrique d'une fonction. On peut utiliser aussi des représentations non paramétriques , où la fonction Fi est représentée par un tableau de valeurs ( look-up table ), ainsi que par des règles d'interpolation entre ces valeurs.. Dans ce cas, ce qu'on appelle ici liste des fonctions Fi peut comprendre, pour partie au moins, une liste d'identifiants de tableaux de valeurs. 30 Il existe aussi des représentations semi-paramétriques qui combinent des tableaux de valeurs d'entrée de la fonction et une représentation paramétrique sur chaque intervalle ou cellule (dans le cas multidimensionnel) définis par ce tableau de valeurs d'entrées.
Le sélectionneur ou sélecteur du bloc 2150 est important. Il doit être sensible à une grande variété de types de dépendances agrégat/paramètres et, en même temps, minimiser le risque qu'un paramètre soit retenu à tort, par exemple sur un artefact, un effet du hasard ou une erreur.
Un mode de réalisation particulier du mécanisme de sélection des paramètres directeurs sera maintenant décrit en référence à la figure 4. Après l'entrée 410, l'opération 412 établit un sous-ensemble très vaste SE de l'univers des éléments, ou même de la totalité de cet univers.
En fait, un agrégat obéit la plupart du temps à des règles de composition : on ne peut y mettre que certains types d'éléments de l'univers, et pas d'autres. Ce sont ces types d'éléments qu'il y a lieu de considérer comme le sous-ensemble très vaste de l'univers SE précité. On note NS le nombre d'éléments de ce sous-ensemble SE, qui s'écrit selon la formule (21) annexée, avec NS très grand (typiquement NS 100).
On procède ensuite à l'évaluation de chacun des NS éléments du sous-ensemble SE. L'opération 414 comprend la sélection d'un premier élément. L'opération 414 fixe donc j = 1. Ensuite, l'opération 420 travaille sur l'élément courant Y du sous-ensemble SE.
On dispose d'une expression générique d'un modèle dynamique non linéaire F(Y). On en donnera plus loin un exemple. Ici, dynamique signifie l'existence de possibles effets retard, alors que non-linéaire se réfère, entre autres, à des changements de corrélations et des effets de seuil, étant entendu que la classe des modèles dynamiques non-linéaires englobe les classes plus restrictives comme les modèles linéaires et/ou statiques (i.e. sans effets retard).
On recherche alors une expression particulière Fi du modèle F qui s'ajuste le mieux sur les variations de l'agrégat A en fonction de l'élément Y ; en même temps, on obtient une mesure PV de la qualité de l'ajustement, que l'on appelle ici p-valeur (en anglais : p-value ), et un résidu Res1. Selon les conventions communément admises, la p-valeur représente une estimation de la probabilité que la relation empiriquement observée entre l'agrégat et le paramètre directeur soit un pur effet du hasard. Par conséquent, meilleur est l'ajustement, plus petite est la p-valeur. Une description plus détaillée de la p-valeur se trouve sur : httpi/en.wikipedia.org/wiki/P-value Ceci est répété pour chacun des paramètres, par l'incrémentation de j en 422, et par le test 428 jusqu'à ce que l'on atteigne la fin de l'ensemble SE (j = NS).
Les différents paramètres sont alors classés en fonction de leurs p-valeurs respectives. Ce classement correspond sensiblement à la fiabilité de l'influence observée de chaque paramètre sur le comportement global de l'agrégat. Typiquement, on ne retient que le haut de classement, dont les p-valeurs sont en deçà d'un seuil TH. Ce seuil TH peut être fixé au niveau qui élimine les relations erratiques, à l'opération 430. Les opérations 440 à 448 forment une boucle qui sélectionne ceux des éléments qui seront retenus comme paramètres directeurs effectifs.
En phase finale (490), on se limite ainsi à une partie PSE du sous-ensemble SE. On note NP le nombre d'éléments de PSE, qui s'écrit selon la formule [22] annexée, avec NP NS. Dans son ensemble, l'agrégat A est alors modélisé par une collection d'expressions selon la relation [23] annexée, en nombre NP, où les Fi et Resi sont ceux calculés ci-dessus.
Autrement dit, le sélectionneur (2150) opère en interaction avec le calibreur (2120), afin 30 de réaliser l'ajustement des fonctions particulières sur ledit ensemble (SE) des éléments du monde réel. Les paramètres directeurs (Yi) sont sélectionnés ensuite en fonction d'une25 condition de sélection, laquelle comprend le fait que le score de qualité (PV) obtenu lors de l'ajustement représente une influence qui dépasse un seuil minimal (TH).
La technique décrite en référence à la figure 4 peut être vue comme une collection d'analyses mono-factorielles, qui réalise à la fois la sélection des paramètres directeurs au sein de l'ensemble initial SE, en leur attribuant un mesure de fiabilité, et la détermination des modèles Fi avec leurs résidus respectifs Res. Toutefois, il reste possible de déconnecter les rôles du sélectionneur (2150) et du calibreur (2120).
Le processus est entièrement automatique. La détermination du seuil TH peut se faire automatiquement, à une valeur fixe, 5% par exemple, ou encore à une valeur ajustée en fonction du nombre NS. Il peut être nécessaire d'ajuster le seuil au moins dans certains cas. En particulier, selon une variante de l'invention, le seuil TH peut faire l'objet d'un post-ajustement entièrement automatisé, selon un algorithme qui prend en compte la série des p-valeurs obtenues pour les différents paramètres directeurs Y.
Il peut arriver qu'un agrégat récemment apparu ou créé comprenne certains éléments hétérogènes du monde réel qui sont plus anciens que l'agrégat. Dans ce cas, on peut procéder de la manière suivante : a. l'historique court de l'agrégat est utilisé pour sélectionner les paramètres directeurs pertinents, b. on calibre alors un modèle selon la relation [23].
Ainsi, pour chaque paramètre directeur Y, sur lequel on dispose d'un historique très long, on estime sa distribution la plus probable dans le futur proche, dont on se servira pour appliquer le modèle par la suite, afin d'avoir une bonne estimée de la distribution future des valeurs de l'agrégat (par exemple les rendements du fonds),
Autrement dit, le générateur de simulation (2100) est agencé pour sélectionner les paramètres directeurs (Yi) en se limitant à une tranche historique récente disponible pour l'agrégat (A), mais pour appliquer la fonction particulière associée (Fi) à une distribution future la plus probable des paramètres directeurs, en fonction de l'historique complet de ceux-ci.
Sur un autre plan, la collection d'expressions selon la relation [23] est susceptible de 5 différentes applications.
A cet effet, le dispositif peut être complété par un constructeur d'états simulés du monde réel (3200), ainsi que par un moteur (3800) agencé pour appliquer la collection de modèles relative à l'agrégat (2700) auxdits états simulés du monde réel, afin de 10 déterminer au moins une grandeur de sortie relative à un état simulé (3900) de l'agrégat (A), en fonction d'une condition de sortie. De préférence, mais non exclusivement, la condition de sortie peut être définie ou choisie pour former une mesure de risque. Estimation de la Factor VaR Une manière 510 d'exploiter le modèle est illustrée sur la figure 5.
Dans ces modes de réalisation, le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer une gamme de valeurs possibles pour chaque paramètre directeur 20 (Yi), et le moteur (3800) est agencé pour calculer les transformés de chaque valeur possible de chaque gamme associée à un paramètre directeur (Yi), à chaque fois à l'aide de la fonction particulière (Fi) correspondant au paramètre directeur (Yi) concerné, tandis que ladite grandeur de sortie relative à un état simulé (3900) de l'agrégat (A) est déterminée par analyse de l'ensemble des transformés, en fonction de ladite condition de 25 sortie.
On dispose par ailleurs (531), comme on l'a dit plus haut, des données historiques sur les Y. On en déduit, pour chaque ri, un intervalle de confiance individuel Clé = [Cl3 , Clé+] avec un certain degré de confiance déterminé à l'avance c qui représente la probabilité 30 que le paramètre directeur reste à l'intérieur de l'intervalle de confiance, comme indiqué dans la formule [24]. En fait, il y a . deux variantes : le cas où l'intervalle de confiance de 15 Yj ne dépend que de son historique, et celui où il dépend aussi des historiques des autres Y~.
Selon une première variante, la détermination de l'intervalle de confiance CI; n'utilise que les données historiques du paramètre Y. Pour ce faire, on estime une distribution de probabilité des valeurs de Y(t) ou des variations de ces valeurs, éventuellement en calibrant un modèle de série temporelle (tel que ceux décrits dans l'ouvrage de C. Gouriéroux cité plus haut), puis on détermine les quantiles de cette distribution aux probabilités c et 1 û c.
Selon une seconde variante, l'historique de tous les éléments de la base DATAI, ou d'une partie d'entre eux, est utilisé pour calibrer un modèle dynamique d'évolution de ces paramètres, pour enfin en déduire la distribution de probabilité des valeurs de ri et l'intervalle de confiance q. Cette étape peut éventuellement utiliser la simulation pseudo-aléatoire (dite Monte-Carlo ) de valeurs de tout ou partie des éléments de la base DATA 1, puis du paramètre Y comme décrit plus bas.
Les opérations 512 à 528_forment une boucle de traitement individuel de chacun des paramètres directeurs Y.
Connaissant l'intervalle de confiance individuel CI1 = [CIE, CIJ+] de Y, on sait établir en 514 une gamme de valeurs de Y. qui couvre cet intervalle de confiance avec une précision suffisante pour que les valeurs des fonctions F) évaluée aux points de cette gamme fournisse une mesure fiable du risque de l'agrégat lié à ce paramètre directeur, selon le procédé décrit ci-dessous. Cette peut être par exemple un échantillon, à intervalles réguliers ou non, de valeurs du paramètre directeur. Elle peut aussi résulter d'une simulation pseudo-aléatoire de ces valeurs, par exemple celle qui a servi à calculer les bornes de l'intervalle Cl).
On considère maintenant le modèle individuel F() de l'agrégat par rapport au paramètre directeur Y.
En 520, l'application de ce modèle à ladite gamme de valeurs de ri permet de déduire un intervalle de confiance FCIi = [FCh, FCh+], pour l'agrégat (sur la base du modèle F, et de l'intervalle CIE) selon la formule [25]. Il convient d'y ajouter l'incertitude E1 liée au résidu Ress selon la formule [26].
En 530, la réunion de ces intervalles de confiance FCI pour tous les paramètres directeurs (sélectionnés dans l'ensemble PSE) fournit un intervalle de confiance global FCImax attribué à l'agrégat, selon la formule [27], toujours selon le degré de confiance c précité.
A la base, la borne la plus défavorable de ce dernier intervalle (inférieure ou supérieure selon le contexte) représente une mesure de risque de l'agrégat A, comme résultat final en 534.
15 Cette mesure peut être dénommée Factor VaR , alors que les bornes les plus défavorables des différents intervalles Fj(Cli), c'est-à-dire, selon la formule [26], les intervalles [Ki-, Ki+] dans lesquels l'incertitude résiduelle E1 n'est pas prise en compte, sont dénommées Factor VaR attachée au risque ri , la raison pour ne pas tenir compte de l'incertitude résiduelle étant que l'on a besoin dans de nombreux cas de 20 connaître l'impact spécifique du paramètre Y comme source de risque.
De manière plus générale, on peut déterminer plusieurs intervalles de confiance globaux FCImax(c), pour différentes valeurs de c, et en tirer une distribution de probabilité de la valeur de l'agrégat, qui permet le calcul de mesures de risques plus élaborées. Voir par 25 exemple l'article de P. Artzner & al. Coherent risk measures Mathematical Finance 9, 1999, No. 3, 203-228.
Dans ce mode de réalisation, le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer, pour chaque paramètre directeur (Yi), une gamme de valeurs 30 possibles qui couvre l'intervalle de confiance du paramètre directeur (Y) considéré, en ce que le moteur (3800) est agencé pour calculer les transformés de chaque valeur possible de chaque gamme associée à un paramètre directeur (Y), à chaque fois à l'aide de la 10 fonction particulière (Fi) correspondant au paramètre directeur (Yi) concerné, afin d'en tirer à chaque fois un intervalle de confiance de l'agrégat (A) au vu du paramètre directeur (Yi) concerné, et en ce que ladite condition de sortie comprend une condition d'extrémité, appliquée à l'ensemble des intervalles de confiance de l'agrégat (A) pour les différents paramètres directeurs (Yi). Monte-Carlo pondéré Ainsi qu'on l'a mentionné plus haut, une variante consiste à simuler la distribution jointe des Y par une série pseudo-aléatoire de taille M ayant les propriétés statistiques des séries historiques concernées, ou bien des propriétés statistiques déterminées selon un modèle dynamique de série temporelle, choisi en fonction de la situation.
On obtient ici encore une gamme de valeurs pour chaque paramètre directeur Y constituée de valeurs pseudo-aléatoires simulées.
Cette simulation se représente comme une matrice rectangulaire d'ordre N x M On note Y:m l'élément courant de cette matrice, m = 1...M, et l'on calcule Fj(Y;m), auquel on peut ajouter une contribution Resi,m aléatoirement tirée du résidu Res. Par ailleurs, par la p-valeur PV , on dispose d'un score Si de chaque Y. Ce score, que l'on supposera compris dans l'intervalle [0,1] sera d'autant plus élevé (i.e. proche de 1) que la p-valeur PV sera faible (i.e. proche de 0).
25 Le choix de la fonction H(PV) attribuant un score S, à la p-valeur PV se fera en fonction du contexte, en respectant les contraintes suivantes : • H(PV) = 0 si PV TH • H(0) = 1 • 0<H(PV)<1si 0<PV<TH Ici, le constructeur d'états simulés'du monde réel (3200) est agencé pour engendrer, pour chaque paramètre directeur (Yi), une gamme de valeurs possibles établie de façon 30 pseudo-aléatoire à partir de la distribution jointe des paramètres directeurs (Yi) ; le moteur (3800) est agencé pour calculer les transformés de chaque valeur possible de chaque gamme associée à un paramètre directeur (Yi), à chaque fois à l'aide de la fonction particulière (Fi) correspondant au paramètre directeur (Y) concerné ; et la condition de sortie est tirée d'une condition de simulation extrême appliquée à l'ensemble des transformés.
Selon une variante, la fonction H et le seuil TH peuvent différer selon le paramètre directeur choisi Y an fonction de propriétés statistiques fines des séries historiques du paramètre (à titre d'exemple, le seuil TH peut être amené à dépendre de l'autocorrélation de cette série, ainsi que cela est recommandé dans plusieurs ouvrages d'économétrie, comme celui de Hamilton cité plus haut).
Si l'on considère maintenant la série globale des N x M valeurs Fj(Y;m) + Resj,m comme une série pseudo aléatoire pondérée de valeurs de l'agrégat, les poids étant proportionnels aux scores Si, on obtient la simulation d'une distribution aléatoire dont les quantiles fournissent la mesure de risque de l'agrégat A, recherchée.
Une sous-variante de cette technique consiste à rechercher, dans le passé, des périodes où la statistique jointe des paramètres directeurs ri se rapproche de celle de l'évolution récente de ces paramètres, et de surpondérer, voire uniquement sélectionner, les périodes qui suivent ces périodes qui se rapprochent du passé récent, comme un modèle plus fiable de l'avenir proche.
En variante de cette sous-variante, on pourra aussi attribuer à chaque paramètre directeur un coefficient influencé par l'évolution des éléments. Ces coefficients viennent multiplier les scores pour obtenir les poids des différents paramètres directeurs, respectivement. Ceci permet d'éviter de surpondérer des paramètres directeurs qui sont très corrélés entre eux et dont la répétition viendrait masquer d'autres sources importantes de risque.
Une autre variante consiste à déduire mathématiquement un modèle multifactoriel de l'agrégat par rapport à l'ensemble des Y, en partant de la collection des modèles individuels P,, et de la distribution jointe des Y. L'algorithme mathématique du modèle multifactoriel est décrit dans l'article : R. Douady, A. Cherny On measuring risk with scarce observations Social Science Research Network, 1113730, (2008), auquel le lecteur est invité à se référer.
Cette technique sera maintenant décrite plus en détail en référence à la figure 6. En 610, on dispose de l'historique des Yi (DATA1), dont on peut déduire la distribution jointe des Yi en 612. Par ailleurs, en 620, on a la collection des modèles Fi(Yi) pour tous les paramètres directeurs sélectionnés. Des blocs 612 et 620, on peut tirer en 630 un Modèle joint V = f(Y1...Yn). De la distribution jointe des Yi en 612, on peut tirer en 632 une simulation des valeurs des Y~.. A partir des blocs 612 et 620, l'opération 640 peut maintenant faire application dudit modèle joint au vecteur de valeurs simulées des Y~.
Autrement dit, le moteur (3800) est agencé pour établir d'abord un modèle joint multifactoriel de l'agrégat (A), à partir de la collection (2700) de modèles mono-factoriels relative à l'agrégat (A), et de la distribution jointe (2700) des paramètres directeurs (Yi) de l'agrégat (A), et pour travailler ensuite sur ledit modèle joint. Les techniques de l'art antérieur sont alors applicables pour obtenir l'intervalle de confiance, en tant qu'évaluation du risque en 690. Stress Tests 25 Les variantes ci-dessus s'intéressent à un intervalle de confiance, qui est un chiffre de risque pour l'agrégat. On peut souhaiter faire un stress test , c'est-à-dire connaître l'impact possible d'un scénario particulier, notamment dans le but de satisfaire certaines normes industrielles. On simule alors les ri, mais sous condition de ce scénario 30 particulier. C'est-à-dire que la distribution des ri est volontairement biaisée par l'hypothèse de la réalisation du scénario voulu.20 Cette technique sera maintenant décrite plus en détail en référence à la figure 7. En 710, on dispose de l'historique des Yi (DATA 1), dont on peut déduire la distribution jointe des Yi en 722, mais cette fois ci, conditionnellement à un stress, lequel est ici défini par un jeu de valeurs de stress pour les Yi (720). Par ailleurs, en 730, on a la collection des modèles Fi(Yi) pour tous les paramètres directeurs sélectionnés. Des blocs 722 et 730, on peut tirer en 740 un Modèle joint V = f(Y1...Yä ). A partir des blocs 720 et 740, l'opération 750 peut maintenant faire application dudit modèle joint au vecteur de valeurs simulées des Yi, défini ici par le jeu de valeurs de stress pour les Yi (720).
Dans cette variante, le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer une expression de condition de stress pour chaque paramètre directeur (Yi) ; et le moteur (3800) est agencé pour établir d'abord la distribution jointe (2700) conditionnellement à ladite expression de condition de stress pour les paramètres directeurs (Yi) de l'agrégat (A), puis pour établir un modèle joint multifactoriel de l'agrégat (A), à partir de la collection (2700) de modèles mono-factoriels relative à l'agrégat (A), et de ladite distribution jointe conditionnelle (2700) des paramètres directeurs (Yi) de l'agrégat, et pour travailler ensuite sur ce modèle joint.
Les techniques de l'art antérieur (sur des modèles multifactoriels obtenus différemment) sont alors applicables pour faire une évaluation du stress test en 790. On peut ici calculer les intervalles de confiance, comme précédemment, et aussi la valeur moyenne (espérance conditionnelle).
Deux types de stress tests sont envisageables :
Les stress tests déterministes , dans lesquels le comportement de l'environnement est entièrement décrit dans un scénario précis, c'est-à-dire qu'on se donne précisément les valeurs (ou les variations de valeurs) SY de tous les paramètres directeurs Y (comme sur la figure 7). On cherche alors à estimer le comportement de l'agrégat sous cette hypothèse. Mathématiquement, il s'agit de l'espérance conditionnelle de la valeur ou de la variation de valeur de l'agrégat sous condition de réalisation du scénario spécifié.
Les stress tests aléatoires , dans lesquels le comportement de l'environnement n'est que partiellement décrit, soit qu'on ne spécifie que la valeur (ou la variation de valeur) de certains éléments, les autres devant être estimés, soit que les valeurs des paramètres directeurs sont spécifiés de façon imprécise, par un intervalle, par une distribution de probabilité donnée par une formule ou encore par une distribution de probabilité donnée par une simulation pseudo-aléatoire (dite Monte-Carlo ).
Dans le cas des stress tests aléatoires , comme pour le calcul de la VaR, on disposera d'une représentation aléatoire de l'agrégat, dont on cherchera à déterminer une mesure de risque. La seule différence avec une mesure de risque classique vient du fait que la distribution de probabilité que l'on suppose pour les paramètres directeurs est volontairement biaisée par l'hypothèse qu'un scénario û précis ou imprécis û se réalise sur tout ou partie des paramètres directeurs, ou encore sur certains éléments de l'environnement.
Selon une première variante de stress test déterministe, pour chaque paramètre directeur Y sélectionné, on applique la fonction Fi à la valeur spécifiée SY du paramètre directeur selon le stress test. On obtient ainsi une collection de valeurs stressées de l'agrégat F,(SY), dont on choisira la plus défavorable parmi les paramètres dont la p-valeur PV est inférieure à un certain seuil.
Un cas particulier de cette variante est lorsqu'on choisit uniquement le paramètre directeur ayant la plus petite p-valeur : il suffit de fixer le seuil égal à cette plus petite A-valeur.
Selon une seconde variante, on fusionne les modèles mono-factoriels, c'est-à-dire que l'on calcule, à partir des modèles mono-factoriels Fi correspondant à chacun des paramètres directeurs sélectionnés, un modèle multi-varié, selon un principe identique à celui appliqué plus haut pour le calcul de la Factor VaR , par exemple par l'approche développée dans l'article Douady-Cherny cité plus haut.
La fusion de modèles linéaires pour obtenir un modèle linéaire multi-varié avec l'aide de la matrice de covariance des paramètres directeurs est un. cas particulier du modèle ci-dessus mentionné dans l'article Douady-Cherny. Pour un implémentation correcte de cette approche, il conviendra d'utiliser une matrice de covariances conditionnelles au stress test effectué, qui peut par exemple s'estimer par un procédé dit de Loess regression . Voir à ce propos : http://en.wikipedia.org/wiki/.Loess regression
Selon une troisième variante, le stress test est aléatoire, ce qui implique que les valeurs de stress SY des paramètres directeurs Y ne sont pas données avec précision mais seulement un intervalle de valeurs possibles est fourni. Dans ce cas, on choisira, pour chaque paramètre directeur, une gamme de valeurs couvrant l'intervalle spécifié et l'on attribuera au stress test la plus défavorable des valeurs obtenues parmi les paramètres directeurs dont la p-valeur PV. est en-deçà d'un certain seuil.
Selon une quatrième variante, au lieu d'intervalles de valeurs possibles, on fournit une distribution de probabilité jointe des paramètres directeurs. Dans ce cas, on représentera cette distribution de probabilité par une simulation pseudo-aléatoire ( Monte-Carlo ) et on déterminera le stress test soit comme une moyenne pondérée des valeurs obtenues par application des modèles mono-factoriels Fi (auxquels on peut éventuellement ajouter une valeur aléatoirement simulée du résidu Resi), soit par une mesure de risque, par exemple un quantile, de la distribution de ces valeurs. La pondération peut faire intervenir les scores Si calculés à partir des p-valeurs PV.
Selon une cinquième variante, le stress test est, au sens décrit ci-dessus, qualifié d'aléatoire, mais défini par la donnée û précise ou imprécise û de la valeur ou de la variation de valeur d'un ou plusieurs éléments de la base DATA 1, ces éléments pouvant être ou non des paramètres directeurs de l'aléa. Dans ce cas, on estimera (par exemple par un procédé de Loess regression , mais d'autres approches sont possibles) la distribution jointe des paramètres directeurs sélectionnés conditionnellement aux valeurs spécifiées du ou des éléments identifiés. On applique ensuite le procédé décrit dans la quatrième variante ci-dessus.
De façon générale, le générateur de simulation (2100) peut être agencé pour permettre de spécifier un ou plusieurs identifiants-éléments parmi les données de base (Datai), ainsi que des valeurs de stress pour ces éléments, puis d'estimer la distribution future la plus probable des paramètres directeurs (Y), conditionnellement à ces valeurs de stress. On peut alors, par exemple, surpondérer les dates historiques en fonction de la proximité des grandeurs-éléments ou de leurs variations (à une date historique) avec les valeurs de stress spécifiées.
Dans ce qui précède, on a identifié un certain nombre de paramètres ri auxquels le fonds est sensible. Et on a pu réaliser la calibration selon la relation [21]. Il peut être intéressant de prendre en compte un paramètre plus global, comme par exemple l'indice dit CAC40 en France, qui représente la tendance d'ensemble du marché.
Mais, il se peut que l'on n'ait pas identifié de relation fiable entre cet indice global et 20 l'agrégat concerné (un fonds en finances). Dans ce cas, l'indice global ne va pas apparaître parmi les paramètres directeurs Y choisis pour la modélisation.
Il peut être tentant d'essayer quand même de faire une calibration sur l'indice global (que l'on note Yspl), de la forme : 25 R = Fsp1 (Ysp1) + Res i
Toutefois, la Demanderesse a observé que, dans le cas où il y a une faible corrélation entre l'évolution du fonds et celle de l'indice global, la fonction Fspl(Yspl) sera presque plate. Par conséquent, le risque pour le fonds à raison d'une chute sévère du marché, par 30 exemple si le CAC40 chute de 20%, sera fortement sous-estimé. Il est alors proposé de procéder comme suit : i) choisir un chiffre cible de variation, en principe à la baisse, par exemple 20%,15 ii) rechercher et identifier, dans un historique très long terme, les échantillons (datés) où l'indice global (le CAC40) a fait une chute importante (mais sensiblement moins que 20%), iii) attribuer à chacun de ces échantillons un poids lié à la proximité entre la chute réelle et le chiffre cible de 20%, iv) Puis, pour chaque paramètre qui a été sélectionné, générer une série Monte-Carlo ayant les propriétés statistiques de la série historique du facteur en tenant compte de la pondération, v) appliquer la fonction F, du facteur à ce Monte-Carlo du facteur, ce qui donne une distribution de la série du fonds par rapport à ce facteur, vi) en déduire une VaR factorielle, et vii) déterminer le maximum de ces différentes mesures par rapport à ces paramètres directeurs, ce qui donne un chiffre de risque global.
Ceci peut être vu comme l'élaboration d'un Stress test par méthode Monte-Carlo calibrée sur un historique pondéré. Exemples de mise en oeuvre L'invention s'applique notamment au dimensionnement de constructions pour résister aux secousses sismiques. On sait qu'il existe plusieurs types répertoriés d'ondes sismiques : ondes de volume de type P (compression) et S (cisaillement), ondes de surface de type L (L) et R (Rayleigh). http://fr.wikipedia.org/wiki/Tremblement de terre Selon l'art antérieur, on simulerait séparément les impacts des différents types d'ondes. C'est insuffisant, car l'effet conjoint de deux types d'ondes différents peut s'avérer pire que la somme des effets individuels de ces deux ondes.
Dans ce cas, l'invention permet de simuler individuellement un grand nombre de combinaisons d'ondes possibles: Pour chaque combinaison, on calibre empiriquement la fonction-modèle sur l'ensemble des petites secousses observées, puis on extrapole cette fonction, selon un modèle de structure prédéterminé, pour anticiper l'impact d'une secousse ayant une amplitude spécifiée par les normes antisismiques, toujours dans la direction de la combinaison choisie.
Une seconde mise en oeuvre de l'invention concerne la simulation des risques d'un investissement financier, par exemple un fonds commun de placement ou une SICAV (en anglais mutual fund ).
Selon l'art antérieur, les rendements du fonds vont être modélisés à partir d'un certain nombre d'indices financiers, comme une combinaison linéaire des rendements de ces indices. Cette modélisation est inadéquate lorsque les marchés financiers sont soumis à de grands mouvements, voire des crises, car les coefficients de la combinaison linéaire ne sont plus valables en de telles circonstances exceptionnelles. De plus, il peut devenir nécessaire de faire entrer, dans la combinaison linéaire, un ou des indices qui n'y apparaissaient pas précédemment.
Grâce à l'invention, on considérera un très grand nombre d'indices boursiers ; on estimera la fonction-modèle attachée à chacun d'entre eux, y compris lorsque ces indices n'ont qu'un impact mineur dans des conditions de marché normales ; puis on extrapole cette fonction, pour anticiper l'impact d'une circonstance exceptionnelle ; en ce qui concerne la modélisation de l'environnement, une telle circonstance exceptionnelle peut être spécifiée en fonction de crises économiques ou financières historiquement répertoriées, ou anticipée par des études économiques contemporaines, par exemple.
A titre d'exemple, on rappellera que lors de la crise dite des subprimes à l'été 2007, un certain nombre de SICAV dites monétaires dynamiques (ou encore des monetary funds ), et qui étaient investies dans des produits dits toxiques , sans l'avoir déclaré, ont perdu jusqu'à 20% de leur valeur, ce qui a causé d'énormes difficultés économiques aux nombreuses entreprises industrielles dont la trésorerie est classiquement investie dans ce type de produits financiers.
Selon l'art antérieur, sans simulation de l'environnement, il apparaîtra que le fonds en question n'a jamais connu de pertes avant la crise. Le modèle considérera donc une telle perte comme impossible.
Selon l'art antérieur, avec simulation de l'environnement selon une fonction, qui est une combinaison linéaire d'indices, s'agissant de fonds monétaires, on utilisera les indices qui correspondent à des taux d'intérêt à court terme, et, éventuellement, certains indices de crédit ( credit spread ). Il se trouve qu'en conditions normales de marché, le fonds est essentiellement soumis aux taux d'intérêt à court terme, et très peu sensible aux indices de crédit. Une simulation même extrême de ces paramètres (par exemple les valeurs observées lors de la crise russe mentionnée ci-après) va ignorer l'effet des indices de crédit, et par conséquent, de nouveau, les pertes sont considérées comme négligeables, voire impossibles.
Grâce à l'invention, pour chaque indice de crédit, on estimera une fonction-modèle non linéaire respective. Au niveau de la modélisation de l'environnement, on prendra en compte les mouvements des indices de crédit observés lors de la crise de 1998 (crise russe). L'application de la fonction non-linéaire à chacun de ces indices, et la prise en compte du pire cas obtenu, permet d'anticiper les pertes qui ont été observées peu après.
Le tableau ci-dessous montre les performances moyennes des fonds monétaires dynamiques , tous considérés comme peu ou pas risqués par l'art antérieur, selon que l'invention les a identifiés comme risqués ou non. Niveau de risque Faible Elevé (vu par l'invention) Nombre de fonds 93 29 Pertes réelles -0.32% -2.34% Pertes anticipées -0.30% -1.63%25 Classes de risque L'univers des paramètres directeurs SE peut être classifié en plusieurs sous-catégories SE;, i = 1...p. On peut alors distinguer le risque provenant de chacune de ces sous- catégories en effectuant le calcul qui précède sur chaque sous-ensemble SE; en n'incluant pas l'incertitude résiduelle 4. On appellera le résultat obtenu la Factor VaR attachée au risque de classe SE; .
On peut ainsi estimer l'impact d'une variation abrupte qui interviendrait sur un ou plusieurs paramètres directeurs de cette classe.
On considère par exemple une construction, soumise à des risques météorologiques, ainsi qu'à des risques sismiques, tout deux faisant l'objet de normes industrielles. Le dimensionnement des éléments de la construction sera effectué en fonction des contraintes maximales admissibles, selon un certain niveau de confiance. Pour cela, on détermine la Factor VaR sur l'ensemble des risques auxquels la construction est soumise. Si une contrainte technique est révisée dans l'une des normes (par exemple le vent maximal admissible), il y aura lieu de revoir le calcul de la Factor VaR attachée au risque de la classe SE; qui correspond à la norme révisée (par exemple le risque lié aux différents modes de vent). Alternative Variations/Niveaux Dans ce qui précède, on considère implicitement que les paramètres directeurs 25 représentent des grandeurs physiques mesurables. Et les fonctions-modèles donnent la valeur de l'agrégat.
Une variante travaille sur des variations. Dans ce cas, un paramètre directeur est calculé comme la variation d'une grandeur physique à une cadence déterminée (par exemple la 30 cadence d'échantillonnage). Cette variation peut être un écart absolu, ou un écart relatif, en pourcentage par exemple. . 39 De même, la fonction modèle va représenter les variations (absolues ou relatives) de la valeur de l'agrégat, que l'on ajoutera à la valeur courante, si nécessaire.
Des cas mixtes peuvent être utilisés : les fonctions modèles représentent les variations des valeurs de l'agrégat, mais certains paramètres directeurs sont directement des grandeurs physiques alors que d'autres sont des variations de grandeurs. - Les fonctions-modèles représentent les valeurs de l'agrégat elles-mêmes, et de nouveau, certains paramètres directeurs sont directement des grandeurs physiques alors que d'autres sont des variations de grandeurs. Estimation de la p-valeur Un des points clé de l'invention est l'estimation de la p-valeur, qui détermine la sélection ou non des paramètres directeurs de l'agrégat. Nous donnons ici les principes de cette estimation et deux exemples de procédures algorithmiques amenant à cette estimation.
La pertinence d'un paramètre directeur donné ri peut être évaluée en comparant deux modèles : L'un des modèles, appelé hypothèse nulle , ne retient que les valeurs passées de l'agrégat pour expliquer , c'est-à-dire anticiper ses valeurs futures, comme si le paramètre directeur ri n'avait aucune influence. L'autre modèle, dit hypothèse alternative , inclut une forme générique de la fonction Fi, dont les coefficients seront à estimer.
Par définition, la p-valeur est la probabilité que, en supposant qu'on soit dans l'hypothèse nulle, on ait obtenu l'échantillon observé et, par voie de conséquence, estimé les coefficients de la fonction Fi selon l'hypothèse alternative et obtenu les valeurs trouvées. Le principe d'estimation de la p-valeur consiste donc à évaluer l'incertitude sur le vecteur de coefficients de F;, à supposer l'hypothèse nulle, puis à estimer la probabilité d'estimer un vecteur au moins aussi éloigné du vecteur nul (correspondant à l'hypothèse. nulle) que celui empiriquement obtenu à partir de l'échantillon.
Selon une première variante, la p-valeur est estimée par le procédé de Fischer dit F-test . La statistique de Fischer liée à ce test, traditionnellement notée F mais que nous noterons ici FI pour éviter les confusions avec d'autres variables, existe dans toutes les version du logiciel Excel de la société Microsoft, comme sortie optionnelle de la fonction DroiteReg() (créer une droite de régression). Son principe consiste en un traitement mathématique de la comparaison entre le R2 de la régression selon l'hypothèse nulle, que l'on peut noter R20 et celui que l'on obtient par l'hypothèse alternative, que l'on peut noter R2ait. La fonction qui transforme la statistique de Fischer FI en p-valeur PV existe aussi dans la logiciel Excel sous le nom FDistÇ et fait intervenir, entre autres, le nombre de régresseurs et la taille de l'échantillon. Une formule explicite de la statistique de Fisher FI se trouve dans l'article : http://en.wikipedia.org/wiki/F-test Hamilton (précité) suggère d'autres procédés : test de Wald, procédé du log-vraisemblance , etc.
Lutkepol, dans son ouvrage Small sample econometrics , met en garde contre les biais d'estimation lorsque la taille de l'échantillon est limitée et propose divers correctifs, soit sous formes de formules mathématiques faisant intervenir les moments d'ordre supérieur des échantillons, soit de nombreuses tables empiriques, qui ont été établies à l'aide de simulations pseudo-aléatoires.
Madala, dans l'ouvrage Cointegration , fait une étude très exhaustive de la littérature sur le sujet dans le cadre des modèles à correction d'erreur (en anglais Error Correction Models ou ERM ), connus aussi sous de nom de co-intégration .
Cependant, toutes ces approches se placent dans le cadre d'une régression linéaire multivariée sur les valeurs ou bien les variations de valeurs de l'agrégat et des paramètres directeurs, voire des modèles mixtes mélangeant valeurs et variations dans le cas de la co-intégration.
Or on a vu que la non linéarité peut être une caractéristique importante de l'invention pour prendre en compte correctement le risque des situations extrêmes.
La Demanderesse propose une approche différente et innovante dans ce cadre, bien que connue dans d'autres cadres sous le nom de bootstrap . Selon cette variante, afin d'estimer l'incertitude du modèle calibré lorsqu'on est dans l'hypothèse nulle, mais tout en conservant les propriétés statistiques de l'échantillon de l'agrégat et du paramètre directeur, on tire aléatoirement une permutation g,,,, m = 1...M des indices temporels k de l'historique des tk.
Selon une seconde variante, on génère M échantillons pseudo-aléatoires de dates gm(k), k = 0...F (dans le cas de valeurs) ou k = 1...F (dans le cas de variations), et m = 1...M (ces échantillons peuvent être soumis ou non à des contraintes du type : gm(k) ~ gm(k') pour k ~ k', ou encore gm(k) ~ k, ou même imposer une différence minimale en fonction de l'effet retard toléré par le modèle). Pour chaque tirage m, on remplace les séries temporelles de régresseurs spécifiques de l'hypothèse alternative Y(tk) par Y(tgä,(k)) et on obtient ainsi une valeur R2m et une statistique de Fischer FIm. A partir de cet échantillon de valeurs, on estime, de manière paramétrique ou purement empirique, une distribution de probabilité sur la demi-droite réelle et on calcule la probabilité de dépasser la valeur Fiait calculée à partir du R20 de l'hypothèse nulle et du R2ait de l'hypothèse alternative (avec dates non randomisées). Cette probabilité sera notre estimation de la p-valeur PV .
Selon une sous-variante, les tirages d'indices en ne sont pas pseudo-aléatoires, c'est-à-dire n'utilisent pas un générateur informatique de nombres aléatoires, mais sont obtenus par un algorithme déterministe et répétable à l'identique, par exemple celui décrit par la formule suivante : gm(k) = am k + bm (mod F) où am décrit un sous-ensemble de l'ensemble des nombres entiers premiers au nombre F de dates dans l'échantillon et bm un sous-ensemble de l'ensemble {0,...,Fû1} dont la taille dépend du nombre de tirages M souhaité. D'autres algorithmes déterministes sont possibles, en particulier pour tenir compte des contraintes imposées aux tirages d'indices gm Cette sous-variante, que l'on peut qualifier de bootstrap déterministe permet de comparer les p-valeurs des différents paramètres directeurs sans que cette comparaison comporte un élément aléatoire. Elle est plus fiable que le fait de spécifier une graine commune aux différents tirages pseudo-aléatoires.
Dans la description détaillée ci-dessus, on a parlé pour simplifier de "valeur" pour un élément du monde réel, ainsi que pour un agrégat de tels éléments. Il s'agit plus généralement de la valeur d'une grandeur intensive qui caractérise l'élément. En principe, les éléments d'un agrégat donné ont des valeurs respectives qui portent sur la même grandeur intensive.
De façon plus générale, notamment dans les revendications ci-après, on appellera "grandeur" toute valeur mesurable relative à un élément physique du monde réel. Par "élément physique du monde réel", on entend tout élément présent dans le monde réel, qu'il soit matériel ou immatériel. De même, un agrégat est un ensemble d'éléments du monde réel, matériel ou immatériel. Un élément peut être créé par la nature ou par l'homme, pourvu que son évolution ne soit pas entièrement contrôlée par l'homme.
L'invention ne se limite pas aux exemples de dispositif décrits ci-avant, seulement à titre d'illustration.
La présente invention peut également être exprimée sous forme de procédés, notamment en référence aux opérations définies dans la description et/ou qui apparaissent dans les dessins annexés. Elle peut aussi être exprimée sous forme de programmes d'ordinateur, capables, en coopération avec un ou plusieurs processeurs, de mettre en oeuvre lesdits procédés et/ou de faire partie des dispositifs de simulation décrits pour les animer.
Annexe 1 1 Bases Datai = {id, V, t} (1)
Data2 = {Datai(to), Datai(ti), , Datai(tq), , Datai(tF)} (2) {Data2, id} = { (V0, t0), (V1, t1), . , (Vk, tk), ... , (VF, tF)} (3)
Ei = {Data2, id} V(t) = {Vk j k =0...F} (4)
Ap(to) = { idi(to), gi(to), V (to)} i =1... CardAp(to) (5) CardAp (to ) VT(Ap(to)) = gi(to)V (to) (6) i=1
wi(to) = gi(to) V (to) VT(Ap(to)) Ap(t) = V(t) Q(t) = {V(t), qi(t)} i =1... CardAp(t) (8)
Data3 = {Ap(tk)} k = 0...F (9)
Data4 = {B(tk)} k = 0...F (10)
B(t) = {wp(t), Ap(t) } p =1... CardB(t) (li) n f (2J1 ... 2fj ... fin) _ E ajyj 3=1
VT = f(YI, Y2, ... , Yi, ... , Yn) + Res 44 (7) (12) (13) 2 Fonction SE = { Y1, Y2, ... ,1', ... YNS} NS 100 (21) PSE={Yi, j= ..,iNP} NP < NS (22) VT = Fi(Y) + Resi j = il, ... , jNP (23) Pr[CÇ G ri < Ch] = c j = ji, ... ,jNP (24) FCh = [FCÇ, FCI37'] j (25) Fi(CI,) = [Ki, K~ ] FCh = Ki ù Ei FCh = K;' + Ei (26) FCImax = [ min (FCh), max (FCh)] (27) 31..•3NP 31...JNP

Claims (19)

  1. Revendications1. Dispositif informatique de simulation d'un agrégat évolutif du monde réel, comprenant : une mémoire (1000), pour stocker • des données de base, relatives à l'historique d'éléments du monde réel, ces données de base comprenant des structures de données (Datai ; Data2), propres, pour un élément donné du monde réel, à établir un identifiant-élément, ainsi qu'une suite de grandeurs-élément associées à des dates-élément respectives, ainsi que • des données d'agrégat, où chaque agrégat (A) est défini par des groupes d'identifiants-élément (Datai), chaque groupe étant associé à une date-groupe, tandis qu'une grandeur-agrégat peut être tirée des grandeurs-éléments qui correspondent aux identifiants-élément du groupe, à chaque date-groupe, et un générateur de simulation (2100), agencé pour établir un modèle informatique relatif à un agrégat, caractérisé en ce que, pour un agrégat donné (A), le générateur de simulation (2100) est agencé pour faire correspondre des fonctions particulières (Fi) à des 20 paramètres directeurs respectifs (Yi), sélectionnés pour l'agrégat concerné (A), chaque fonction particulière résultant de l'ajustement de l'historique de la grandeur-agrégat par rapport à l'historique de son paramètre directeur respectif, à un résidu près (Resi), l'ajustement étant assorti d'un score de qualité (PVi), et en ce que le modèle (2700) relatif à l'agrégat (A) comprend une collection de 25 modèles mono-factoriels, laquelle collection est définie par une liste des paramètres directeurs (Yi), une liste des fonctions particulières (Fi) qui leur sont associées, avec leurs scores de qualité (PVV) respectifs.
  2. 2. Dispositif selon la revendication 1, caractérisé en ce que le générateur de simulation 30 (2100) comprend : - un sélectionneur (2150), capable, sur désignation d'un agrégat (A), de parcourir un ensemble (SE) des éléments du monde réel définis dans les données de base, pour y 46 15sélectionner des paramètres directeurs (Yi) en fonction d'une condition de sélection, cette condition de sélection comprenant le fait qu'un critère d'influence du paramètre directeur sur l'agrégat (A) représente une influence qui dépasse un seuil minimal, et - un calibreur (2120), agencé pour faire correspondre des fonctions particulières respectives (Fi) à chacun des paramètres directeurs sélectionnés (Yi), chaque fonction particulière résultant de l'ajustement de l'historique de la grandeur-agrégat par rapport à l'historique du paramètre directeur concerné, à un résidu près (Resi), l'ajustement étant assorti d'un score de qualité (PVV).
  3. 3. Dispositif selon la revendication 2, caractérisé en ce que le sélectionneur (2150) opère en interaction avec le calibreur (2120), afin de réaliser l'ajustement des fonctions particulières sur ledit ensemble (SE) des éléments du monde réel, pour sélectionner ensuite les paramètres directeurs (Yi) en fonction de ladite condition de sélection, tandis que cette même condition de sélection comprend le fait que ledit score de qualité obtenu lors de l'ajustement représente une influence qui dépasse un seuil minimal.
  4. 4. Dispositif selon l'une des revendications 2 et 3, caractérisé en ce que le calibreur (2120) opère pour établir lesdites fonctions particulières à partir d'un jeu d'expressions de fonctions génériques à coefficients inconnus (2160).
  5. 5. Dispositif selon la revendication 4, caractérisé en ce que le jeu d'expressions de fonctions génériques à coefficients inconnus (2160) comprend des expressions de fonctions génériques non linéaires. 25
  6. 6. Dispositif selon l'une des revendications précédentes, caractérisé en ce qu'il comporte en outre un constructeur d'états simulés du monde réel (3200), ainsi qu'un moteur (3800) agencé pour appliquer la collection de modèles relative à l'agrégat (2700) auxdits états simulés du monde réel, afin de déterminer au moins une grandeur de sortie relative à un état simulé (3900) de l'agrégat (A), en fonction d'une condition de sortie. 30
  7. 7. Dispositif la revendication 6, caractérisé en ce que la condition de sortie est choisie pour former une mesure de risque.20
  8. 8. Dispositif selon l'une des revendications 6 et 7, caractérisé en ce que le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer une gamme de valeurs possibles pour chaque paramètre directeur (Yi), en ce que le moteur (3800) est agencé pour calculer les transformés de chaque valeur possible de chaque gamme associée à un paramètre directeur (Yi), à chaque fois à l'aide de la fonction particulière (Fi) correspondant au paramètre directeur (Yi) concerné, tandis que ladite grandeur de sortie relative à un état simulé (3900) de l'agrégat (A) est déterminée par analyse de l'ensemble des transformés, en fonction de ladite condition de sortie.
  9. 9. Dispositif selon la revendication 8, caractérisé en ce que le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer, pour chaque paramètre directeur (Yi), une gamme de valeurs possibles qui couvre l'intervalle de confiance du paramètre directeur (Yi) considéré, en ce que le moteur (3800) est agencé pour calculer les transformés de chaque valeur possible de chaque gamme associée à un paramètre directeur (Yi), à chaque fois à l'aide de la fonction particulière (Fi) correspondant au paramètre directeur (Yi) concerné, afin d'en tirer à chaque fois un intervalle de confiance de l'agrégat (A) au vu du paramètre directeur (Yi) concerné, et en ce que ladite condition de sortie comprend une condition d'extrémité, appliquée à l'ensemble des intervalles de confiance de l'agrégat (A) pour les différents paramètres directeurs (Yi).
  10. 10. Dispositif selon la revendication 8, caractérisé en ce que le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer, pour chaque paramètre directeur (Yi), une gamme de valeurs possibles établie de façon pseudo-aléatoire à partir de la distribution jointe des paramètres directeurs (Yi), en ce que le moteur (3800) est agencé pour calculer les transformés de chaque valeur possible de chaque gamme associée à un paramètre directeur (Yi), à chaque fois à l'aide de la fonction particulière (Fi) correspondant au paramètre directeur (Yi) concerné, et en ce que la condition de sortie est tirée d'une condition de simulation extrême appliquée à l'ensemble des transformés.
  11. 11. Dispositif selon l'une des revendications 6 à 10, caractérisé en ce que le moteur (3800) est agencé pour établir d'abord un modèle joint multifactoriel de l'agrégat (A), à partir de la collection (2700) de modèles mono-factoriels relative à l'agrégat (A), et de la distribution jointe (2700) des paramètres directeurs (Yi) de l'agrégat (A), et pour travailler ensuite sur ledit modèle joint.
  12. 12. Dispositif selon la revendication 11, caractérisé en ce que le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer une expression de condition de stress pour chaque paramètre directeur (Yi), et en ce que le moteur (3800) est agencé pour établir d'abord la distribution jointe (2700) conditionnellement à ladite expression de condition de stress pour les paramètres directeurs (Yi) de l'agrégat (A), puis pour établir un modèle joint multifactoriel de l'agrégat (A), à partir de la collection (2700) de modèles mono-factoriels relative à l'agrégat (A), et de ladite distribution jointe conditionnelle (2700) des paramètres directeurs (Yi) de l'agrégat, et pour travailler ensuite sur ce modèle joint.
  13. 13. Dispositif selon l'une des revendications précédentes, caractérisé en ce que le générateur de simulation (2100) est agencé pour établir un score de qualité (PVj) par le procédé dit "F-Test".
  14. 14. Dispositif selon l'une des revendications précédentes, caractérisé en ce que le générateur de simulation (2100) est agencé pour établir un score de qualité (PVj) par le procédé dit "bootstrap". 25
  15. 15. Dispositif selon l'une des revendications précédentes, caractérisé en ce que le générateur de simulation (2100) est agencé pour établir un score de qualité (PVj) par le procédé dit "bootstrap déterministe".
  16. 16. Dispositif selon l'une des revendications précédentes, caractérisé en ce que certains 30 au moins des paramètres directeurs (Yi) sont pris en compte par leurs variations dans la fonction particulière (Fi) associée.20
  17. 17. Dispositif selon l'une des revendications précédentes, caractérisé en ce que certaines au moins des fonctions particulières (Fi) expriment la variation de la grandeur-agrégat.
  18. 18. Dispositif selon l'une des revendications précédentes, caractérisé en ce que le générateur de simulation (2100) est agencé pour sélectionner les paramètres directeurs (Yi) en se limitant à une tranche historique récente disponible pour l'agrégat (A), mais pour appliquer la fonction particulière associée (Fi) à une distribution future la plus probable des paramètres directeurs, en fonction de l'historique complet de ceux-ci.
  19. 19. Dispositif selon l'une des revendications précédentes, caractérisé en ce que le générateur de simulation (2100) est agencé pour permettre de spécifier un ou plusieurs identifiants-éléments parmi les données de base (Datai), ainsi que des valeurs de stress pour ces éléments, puis d'estimer la distribution future la plus probable des paramètres directeurs (Yi), conditionnellement à ces valeurs de stress, en surpondérant les dates historiques en fonction de la proximité des grandeurs-éléments ou de leurs variations avec les valeurs de stress spécifiées.
FR0903456A 2009-07-15 2009-07-15 Simulation d'un agregat evolutif du monde reel, notamment pour gestion de risque Withdrawn FR2948209A1 (fr)

Priority Applications (4)

Application Number Priority Date Filing Date Title
FR0903456A FR2948209A1 (fr) 2009-07-15 2009-07-15 Simulation d'un agregat evolutif du monde reel, notamment pour gestion de risque
EP10736757A EP2454714A1 (fr) 2009-07-15 2010-07-13 Simulation d'un agrégat évolutif du monde réel, notamment pour gestion de risque
US13/384,093 US20130035909A1 (en) 2009-07-15 2010-07-13 Simulation of real world evolutive aggregate, in particular for risk management
PCT/FR2010/000506 WO2011007058A1 (fr) 2009-07-15 2010-07-13 Simulation d'un agrégat évolutif du monde réel, notamment pour gestion de risque

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR0903456A FR2948209A1 (fr) 2009-07-15 2009-07-15 Simulation d'un agregat evolutif du monde reel, notamment pour gestion de risque

Publications (1)

Publication Number Publication Date
FR2948209A1 true FR2948209A1 (fr) 2011-01-21

Family

ID=42198409

Family Applications (1)

Application Number Title Priority Date Filing Date
FR0903456A Withdrawn FR2948209A1 (fr) 2009-07-15 2009-07-15 Simulation d'un agregat evolutif du monde reel, notamment pour gestion de risque

Country Status (4)

Country Link
US (1) US20130035909A1 (fr)
EP (1) EP2454714A1 (fr)
FR (1) FR2948209A1 (fr)
WO (1) WO2011007058A1 (fr)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5725547B2 (ja) * 2011-03-29 2015-05-27 日本電気株式会社 リスク管理装置
KR102033999B1 (ko) * 2012-12-21 2019-10-21 삼성전자주식회사 컨텐트 중심 네트워크에서의 통신 방법 및 장치
KR101540631B1 (ko) * 2012-12-28 2015-07-30 삼성에스디에스 주식회사 가상 클러스터의 동적 확장 시스템, 방법 및 그 프로그램이 저장된 기록매체
US9436725B1 (en) * 2013-02-28 2016-09-06 Amazon Technologies, Inc. Live data center test framework
US9444717B1 (en) * 2013-02-28 2016-09-13 Amazon Technologies, Inc. Test generation service
US9396160B1 (en) * 2013-02-28 2016-07-19 Amazon Technologies, Inc. Automated test generation service
US20140278733A1 (en) * 2013-03-15 2014-09-18 Navin Sabharwal Risk management methods and systems for enterprise processes
US9569205B1 (en) * 2013-06-10 2017-02-14 Symantec Corporation Systems and methods for remotely configuring applications
WO2015065383A1 (fr) * 2013-10-30 2015-05-07 Intel Corporation Traitement de messages à l'aide de critères de thème et de modalité
US10057325B2 (en) * 2014-03-31 2018-08-21 Nuvestack, Inc. Remote desktop infrastructure
US9953053B2 (en) * 2014-12-18 2018-04-24 International Business Machines Corporation Reliability improvement of distributed transaction processing optimizations based on connection status
US9671776B1 (en) * 2015-08-20 2017-06-06 Palantir Technologies Inc. Quantifying, tracking, and anticipating risk at a manufacturing facility, taking deviation type and staffing conditions into account
US11222034B2 (en) * 2015-09-15 2022-01-11 Gamesys Ltd. Systems and methods for long-term data storage
CN111539118B (zh) * 2020-04-29 2023-04-25 昆船智能技术股份有限公司 一种环行穿梭车系统的仿真计算方法及计算机程序产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001086473A2 (fr) * 2000-05-11 2001-11-15 Kovalenko, Ivan Procede de simulation stochastique centralisee
US20030135448A1 (en) * 2002-01-10 2003-07-17 Scott Aguias System and methods for valuing and managing the risk of credit instrument portfolios

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7440916B2 (en) * 2001-06-29 2008-10-21 Goldman Sachs & Co. Method and system for simulating implied volatility surfaces for basket option pricing
US7149715B2 (en) * 2001-06-29 2006-12-12 Goldman Sachs & Co. Method and system for simulating implied volatility surfaces for use in option pricing simulations
US7937313B2 (en) * 2001-06-29 2011-05-03 Goldman Sachs & Co. Method and system for stress testing simulations of the behavior of financial instruments
US7228290B2 (en) * 2001-06-29 2007-06-05 Goldman Sachs & Co. Method and system for simulating risk factors in parametric models using risk neutral historical bootstrapping
CA2367091A1 (fr) * 2002-01-10 2003-07-10 Algorithmics International Corp. Systeme et methodes d'evaluation et de gestion du risque des portefeuilles d'instruments de credit
US20070055619A1 (en) * 2005-08-26 2007-03-08 Sas Institute Inc. Systems and methods for analyzing disparate treatment in financial transactions
US20070208600A1 (en) * 2006-03-01 2007-09-06 Babus Steven A Method and apparatus for pre-emptive operational risk management and risk discovery
US8548884B2 (en) * 2007-10-24 2013-10-01 Barclays Capital Inc. Systems and methods for portfolio analysis
US8515862B2 (en) * 2008-05-29 2013-08-20 Sas Institute Inc. Computer-implemented systems and methods for integrated model validation for compliance and credit risk

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001086473A2 (fr) * 2000-05-11 2001-11-15 Kovalenko, Ivan Procede de simulation stochastique centralisee
US20030135448A1 (en) * 2002-01-10 2003-07-17 Scott Aguias System and methods for valuing and managing the risk of credit instrument portfolios

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHERNY A ET AL: "On measuring risk with scarce observations", 27 March 2008 (2008-03-27), XP002584982, Retrieved from the Internet <URL:http://ssrn.com/abstract=1113730> [retrieved on 20100531] *

Also Published As

Publication number Publication date
US20130035909A1 (en) 2013-02-07
EP2454714A1 (fr) 2012-05-23
WO2011007058A1 (fr) 2011-01-20

Similar Documents

Publication Publication Date Title
FR2948209A1 (fr) Simulation d&#39;un agregat evolutif du monde reel, notamment pour gestion de risque
Derdenger et al. The dynamic effects of bundling as a product strategy
Korstanje Advanced forecasting with Python
CN109325640B (zh) 用户价值预测方法、装置、存储介质及设备
US10346782B2 (en) Adaptive augmented decision engine
US20140122370A1 (en) Systems and methods for model selection
CN111352962B (zh) 客户画像构建方法及装置
CN107798607A (zh) 资产配置策略获取方法、装置、计算机设备和存储介质
WO2019112993A1 (fr) Système et procédé de prédiction de valeur sur la durée de vie au niveau de l&#39;utilisateur
De Silva et al. The vector innovations structural time series framework: a simple approach to multivariate forecasting
US20110238490A1 (en) Auction flighting
Ershov Consumer product discovery costs, entry, quality and congestion in online markets
WO2013067247A1 (fr) Génération d&#39;agent pour systèmes de modélisation en mode agent
Aggrawal et al. Modelling successive generations for products-in-use and number of products sold in the market
Hopper New product development
US10248957B2 (en) Agent awareness modeling for agent-based modeling systems
US20130110479A1 (en) Auto-Calibration for Agent-Based Purchase Modeling Systems
EP1688872A2 (fr) Outil informatique de prévision
US20110313800A1 (en) Systems and Methods for Impact Analysis in a Computer Network
US20190266548A1 (en) Project Progress Prediction Device and Project Progress Prediction System
CN103544371A (zh) 评估模型稳定性和拟合度的方法和装置
CA2981268A1 (fr) Systemes et procedes de planification d&#39;encaissement
Ersan Multilayer probability of informed trading
EP3622445A1 (fr) Procede, mise en oeuvre par ordinateur, de recherche de regles d&#39;association dans une base de donnees
US20230385755A1 (en) Methods, systems, articles of manufacture and apparatus to regress independent and dependent variable data

Legal Events

Date Code Title Description
TP Transmission of property

Owner name: STOCHASTICS FINANCIAL SOFTWARE SA, FR

Effective date: 20130515

ST Notification of lapse

Effective date: 20160331