WO2011007058A1 - Simulation d'un agrégat évolutif du monde réel, notamment pour gestion de risque - Google Patents

Simulation d'un agrégat évolutif du monde réel, notamment pour gestion de risque Download PDF

Info

Publication number
WO2011007058A1
WO2011007058A1 PCT/FR2010/000506 FR2010000506W WO2011007058A1 WO 2011007058 A1 WO2011007058 A1 WO 2011007058A1 FR 2010000506 W FR2010000506 W FR 2010000506W WO 2011007058 A1 WO2011007058 A1 WO 2011007058A1
Authority
WO
WIPO (PCT)
Prior art keywords
aggregate
parameters
parameter
values
model
Prior art date
Application number
PCT/FR2010/000506
Other languages
English (en)
Inventor
Raphaël DOUADY
Ingmar Adlerberg
Olivier Le Marois
Bertrand Cabrit
Original Assignee
Douady Raphael
Ingmar Adlerberg
Olivier Le Marois
Bertrand Cabrit
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Douady Raphael, Ingmar Adlerberg, Olivier Le Marois, Bertrand Cabrit filed Critical Douady Raphael
Priority to US13/384,093 priority Critical patent/US20130035909A1/en
Priority to EP10736757A priority patent/EP2454714A1/fr
Publication of WO2011007058A1 publication Critical patent/WO2011007058A1/fr

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/06Asset management; Financial planning or analysis

Definitions

  • the invention relates to computer simulation of real-world phenomena.
  • Risk management has many and diverse applications, including:
  • the simulation of an industrial production with the taking into account in particular the estimate of the time of deliveries of raw material, the probability of the active employees (as opposed to employees on sick leave or on strike, for example), the probability of continuity of production (machine operation, maintenance and breakdowns to be expected),
  • VaR Value at Risk
  • the present invention can be applied to physical aggregates, each of which comprises a massive, ie voluminous, set of heterogeneous elements of the real world.
  • heterogeneous element is opposed here to the homogeneous element that constitutes a given machine, taken in isolation.
  • simulation includes the historical analysis of the aggregate whose risk is to be controlled, by ignoring its environment, so as to deduce the possible limits of its evolution.
  • the simulation then includes the adjustment of a "function-model" of the chosen type, so that it corresponds to the better possible to the historical evolution of the aggregate according to its environment. Then, we simulate the evolution of the environment, then we deduce, by the function-model, the evolution of the aggregate.
  • the model function can comprise a random component, which leads to a complement described below.
  • the invention improves the situation by using a more comprehensive approach, and clearly different from what is known in the state of the art.
  • the invention introduces a computer device for simulating an evolutive aggregate of the real world, comprising:
  • Basic data relating to the history of elements of the real world comprising data structures (Datai; Data2), which are specific for a given element of the real world, to establish an element identifier, as well as a series of element-quantities associated with respective element-dates, as well as
  • each aggregate (A) is defined by groups of element-identifiers (Data3), each group being associated with a group-date, while an aggregate-size can be derived from the elements that correspond to the element-identifiers of the group, at each date-group, and a simulation generator, arranged to establish a computer model relating to an aggregate.
  • the simulation generator is arranged to match particular functions (F j ) with respective master parameters (Y j ) selected for the aggregate concerned ( A), each particular function resulting from the adjustment of the history of the aggregate-magnitude with respect to the history of its respective master parameter, to a residual (ReS j ), the adjustment being accompanied by a score quality (PVj).
  • the aggregate model (A) comprises a collection of single-factor models, which collection is defined by a list of the master parameters (Y j ), a list of the particular functions (F j ) associated with them, with their respective quality scores (PV j ). Residues (ReS j ) are optional.
  • the simulation generator comprises:
  • a selector capable, on designation of an aggregate (A), of traversing a set (SE) of the elements of the real world defined in the basic data, in order to select steering parameters (Yj) according to a condition of selection, this selection condition comprising the fact that a criterion of influence of the directional parameter on the aggregate (A) represents an influence which exceeds a minimum threshold, and
  • a calibrator arranged to correspond respective particular functions (F j ) to each of the selected master parameters (Y j ), each particular function resulting from the adjustment of the history of the aggregate-magnitude with respect to the history of the relevant director parameter, to a residual (ReS j ), the adjustment being accompanied by a quality score (PV j ).
  • FIG. 1 illustrates the general structure of a simulation device
  • FIG. 2 illustrates the diagram of a known simulation device
  • FIG. 3 illustrates the diagram of a simulation device as proposed here
  • FIG. 4 is a flow diagram of a mechanism for selecting the master parameters according to the invention
  • FIG. 5 shows an implementation of the invention for estimating a risk level resulting from a collection of individual models, without using any particular modeling of the interactions between the different models,
  • FIG. 6 shows a second implementation of the invention for estimating a risk level resulting from a collection of individual models, using a modeling of the correlations between the master parameters of the different models
  • FIG. 7 shows an implementation of the invention for estimating a stress level resulting from a collection of individual models, under an environmental scenario hypothesis, and
  • FIG. 8 shows an implementation of the invention for estimating a risk level resulting from a collection of individual models, by using a so-called "Monte-Carlo" pseudo-random simulation of the master parameters.
  • Appendix A which groups the expressions, relations and / or formulas which are used in the detailed description below.
  • the appendix is disconnected from the description for the purpose of clarification on the one hand, and to facilitate referrals on the other hand.
  • the appendix is an integral part of the description, and thus can not only serve to better understand the present invention, but also contribute to its definition, if any.
  • Relationship numbers are in parentheses in the appendix, but in square brackets in the description (for clarity). Similarly, in some places, the indices are marked by an underscore; thus, T i corresponds to T t .
  • Figure 1 illustrates the general structure of a simulation apparatus.
  • the described embodiment refers to a memory 1000 comprising different memory areas each comprising data. to clarify the presentation.
  • the memory 1000 can store the separate data in a single area of physical memory.
  • each memory area could be included in a physical memory of its own (for example for four areas of memory, there would be four separate physical memories).
  • the data can be very variable in nature and include elements of the real world, parameters having a direct or indirect influence on these elements, subsets of elements (aggregates) or sets of subsets (several aggregates) which will be discussed below.
  • the word "element” refers to any element of the real world data universe, including parameters.
  • the memory 1000 first contains data (Datai, or "first data") on elements or objects of the real world.
  • a first datai can be described as a multiplet, which includes an element-identifier (id), an element-value (V) and a date-element (t), as illustrated by the appended expression [1].
  • the Datai datum is understood as follows: the multiplet represents the element-value, on the specified element-date, of an element of the real world designated by Y element-identifier.
  • the date-element can be a date and a time (to the desired precision), or a time only, or a date only, according to the rate of evolution chosen for all the elements considered.
  • the memory 1000 also contains Data2 data ("second data").
  • a second datum Data2 represents the evolution of an element over time. According to the formula [2], the second datum Data2 is a collection of Datai values, from an initial time t 0 to a final time tp, with a chosen periodicity (sampling rate).
  • the identifier id is common to all Datai bytes of the formula [2], it can be outputted, to be directly associated with Data2.
  • the formula [3] It is written more symbolically according to the formula [4], in which the index i of E corresponds to the identifier id of the element E i and the index k corresponds to the temporal sampling 4.
  • Its list of values V i ⁇ t k ) can be seen as an array of type "array" F, (or vector, in the computer sense of the term).
  • the vector V i substantially represents the evolution over time of the element E i .
  • a third datum Data3 represents an aggregate of real world elements.
  • the formula [5] indicates the composition at time t 0 of the aggregate A p (the index p is an aggregate-identifier).
  • This aggregate contains elements E i , in respective quantities q i .
  • the number of elements Ei at instant to is noted CarcLA p (t 0 ).
  • a third datum Data3 can comprise three vectors of size Card-A p (to), as illustrated by the formula [5]: a vector of identifiers id ,, containing the respective ids of the different elements E 1 ,
  • array multidimensional array
  • a third datum Data3 can be described in the format identifier-aggregate / matrix-aggregate / date-aggregate, where Y aggregate-identifier denotes an aggregate, while the aggregate-matrix designates the elemental composition and / or the elementary value.
  • this aggregate at the indicated aggregate date, here t 0 ie what elements are part of a given aggregate on a given date, in what quantities, and with what value, individual or global.
  • the composition of the aggregate may change as a function of time. Therefore, the Card-A number p (t k ) of elements E 1 at time t k may be different from
  • element-identifiers can be implicit, for example if the matrix has as many rows as there are elements considered. In this case, the line of rank i is always assigned to the same element E 1 .
  • the aggregate matrix can then be reduced to the vector Q of the quantities q, and to the vector V of the values. This is shown by the formula [8], for the state of the aggregate A p at time t.
  • a special case is when the aggregate A p is reduced to a single element E 1 .
  • the aggregate matrix has only one row and the aggregate can be identified with this element E 1 .
  • matrix history for the aggregate A p considered.
  • the third data are subsets of selected elements, forming groups of bytes. Each group is designated by an aggregate-identifier.
  • the set of groups, as a function of time, is stored in one or more tables of one or more databases.
  • an aggregate is a file of dates and values.
  • the memory 1000 may comprise a set of fourth data Data4, in the form of a computer data representation which reflects a group of pluralities of matrices, where each plurality of matrices corresponds to the evolution as a function of time. an aggregate.
  • fourth data are directly determinable from the first, second and third data, as illustrated by the formulas [10] and [11], in which the letter B represents an "aggregate aggregate” and w p (t) the weight of the aggregate A p in B at the date (t).
  • a computer system 2000 real-world data will first be used to prepare a physical model (specific to a computer implementation). This is done in a calibration tool 2100, after which a computer representation of the model is stored in a memory 2600. For this the calibration tool 2100 accesses the data stored in the memory 1000.
  • the simulation data are simulation data fictitious past states and / or predicting future states of the real world.
  • the simulation apparatus can be used in architecture for the dimensioning of constructions, whether buildings, vehicles, ships, in particular.
  • the simulation device can naturally also be used for financial risk analysis.
  • FIG. 1 The production of a simulation device according to the prior art is illustrated in FIG.
  • Figure 2 shows how calibration 2100 is performed, to arrive at an adjustment function in 2120:
  • a selector 2110 chooses a set of explanatory factors of the model Yj 1, which is called here "master parameters"; and it memorizes their designations in the memory 1000;
  • vs. a calibrator 2120 performs an optimization adjustment of a criterion (in English terminology: "best fit"), which makes it possible to determine the precise expression of a function is the vector representing all the leading parameters, and a residue Res.
  • the adjustment consists, for example, in determining the coefficients of the function ⁇ ).
  • the Res residue represents the difference between the model and the observed value V.
  • V (t) In fact, it depends on time, and we must speak of V (t), Y (f), and Res (t). A new source of complexity then appears with the possible "lag effects", that is to say that the correct modeling of the value V (t) requires the inclusion in the model of the values of the parameter parameters Y 1 on dates t earlier.
  • the expression of the model retained for V (t k ) will involve Yj (t h ) for date indices h ⁇ k.
  • step c the precise or particular expression of the function can be determined in
  • the calibrator 2120 operates to establish the particular functions from a set of generic function expressions with unknown coefficients (2160).
  • This set of generic function expressions with unknown coefficients (2160) may include nonlinear generic function expressions.
  • the modeling therefore includes:
  • the model resulting from the calibration is here stored in 2600, and includes:
  • the difficulty is that the number of coefficients of the model flX) (what we are looking for) is potentially greater than the total number of historical data, the V (t) (which we has).
  • the problem is of the type called "under-specified", that is to say that the calibrator can provide very different solutions in a random manner, which makes it unreliable, and therefore not usable.
  • the calibration may become numerically unstable and imprecise because of "colinearities" between the historical series of the guiding parameters.
  • the guiding parameters come from the real world.
  • the function is usually a simple linear combination.
  • model selection from a large number of possible guiding parameters, models are calibrated involving only subsets of master parameters (in limited numbers), and we select the model, that is to say the subset of parameters, which optimizes a certain criterion (for example by “stepwise regression”). More detailed information can be found using the links:
  • the guiding parameters are generally chosen from real-world elements that are likely to influence the behavior of the real-world aggregate A when it is subjected to large amplitude movements. The goal is to find those who have the most influence in these conditions.
  • This kind of modeling is used, for example, to determine how the aggregate behaves, under such or such condition, by varying the values of the direction parameters Y 1 . This is called a "stress test", the quality of which can be very compromised if a master parameter has been ignored.
  • the invention will notably improve the accuracy and reliability of stress tests.
  • the aggregate includes in particular a parameter related to the movement of air (which itself is dependent on various elements among which we can mention the air pressure, the temperature of the air air, air density and water content of the air), a parameter related to the atmosphere (usually it is a system with variable change in each point), a related parameter the positioning of sounding stations, a parameter related to large-scale air behavior and a parameter related to small-scale air behavior.
  • Another approach in a financial portfolio is the use of historical distributions or historical samples.
  • past distributions are taken into account in order to predict how a given portfolio might behave in a future situation, presumed to be similar to a past situation.
  • the guiding parameters Yi, Y 2 , ... Y j , ... Y n can be, essentially, securities securities on the market, indices or rates. They are sensitive to a wide range of real-world factors, including natural disasters, wars and so on. Controlling their impact can be vital for a investment fund intended to guarantee the payment of insurance or pensions to individuals, the amounts of which are themselves subject to the vagaries of the market and / or socio-economic parameters such as inflation or demography.
  • the main parameters may be the milk content in different nutrients and / or microorganisms, which must be taken into account in order to control the composition of the finished product.
  • the guiding parameters may be wind and / or current speeds, shake amplitudes, etc. and we try to anticipate the value of the constraints imposed on the structures in order to size them accordingly.
  • Simulation involves the development of a model that reflects a global representation of the evolution of an aggregate chosen in given circumstances (phenomenon). Even if the model concerned can be qualified as a "mathematical model", it must be kept in mind that it is in fact a real-world model, namely a physical model, using mathematical expressions. The difference is important: a mathematical formula as such remains valid regardless of the input quantities applied to it; on the other hand, a physical model is valid only if it corresponds to what happens in the real world; it is useless for the rest, which constitutes the majority of cases.
  • Modeling makes it possible to perform "stress tests”, that is to say to evaluate the behavior of a system when its environment subjects it to extreme conditions. It is therefore essential that the model remains valid under extreme conditions. Modeling also makes it possible to evaluate the risks of aggregate A. Such risk measures, such as volatility, or VaR (Value at Risk), are known.
  • a first way of obtaining a risk measure of the aggregate A is to study the statistical properties of the time series of the total values VT (t k ) and to deduce a confidence interval from its variations. This approach, although often used, is obviously very limiting, because it is possible very well that the recorded history of the aggregate does not involve any extreme situation, whereas these are quite possible.
  • a more elaborate way of obtaining a risk measure is to estimate the joint distribution of the direction parameters Y ⁇ , and to apply it to the function / #.
  • the attached distribution provides a "confidence domain" of the multiplet of values of these master parameters.
  • a confidence interval of the aggregate value results.
  • the most unfavorable of the limits of this confidence interval is a measure of risk from which the VaR can be deduced.
  • the joint distribution ⁇ joint distribution) of the guiding parameters Yi, Y 2 , ... Y j , ... Y n can be defined from the complete history relative to these guiding parameters (contained in the first data). This history is generally long and rich.
  • the prior art simplifies things by first reducing the historical information to only dates 4 of the data in the database Data2 (dates where data exist for the one or more aggregates), and / or by doing the same.
  • the assumption that the joint distribution of the governing parameters Y j is a simple covariance matrix.
  • the present invention is based on a number of observations.
  • the guiding parameters will simply be a first set of real world elements, influencing a second set of real world elements (both games not necessarily disjoint).
  • This simplest and most frequent case underlies the approach of the prior art, according to which it is possible to choose the guiding parameters intuitively. It remains that this intuitive approach is not necessarily accurate.
  • the knowledge of the guiding parameters makes it possible to determine, essentially, the behavior of the elements of the second game.
  • a leadership parameter candidate that is not linked to an element in the general case, but that manifests itself only when a particular scenario unfolds, specifically an extreme scenario. This type of influence is associated, for example, with a threshold effect, which is likely to cause a change of regime.
  • the influence can be even more complex.
  • the guiding parameters may have only a minimal influence on individual aggregates, considered one by one; on the other hand, the synergy between some individual aggregates can make the set of parameters have a big impact on the aggregation of aggregates. This is another threshold effect, linked to the moment when the synergy concerned appears, for example due to a change in the correlations between the individual aggregates, or even between individual aggregates and certain key parameters.
  • the present invention aims to take into account in particular these types of particular situations, which are often beyond conventional modeling.
  • the invention can be summarized as the implementation in whole or in part of four major steps: the evaluation of the relevance or "scoring" of each factor that is a candidate master parameter, followed by the selection of factors whose relevance exceeds a certain threshold;
  • the risk estimate derives from the parameters allowing complementary calculations, such as calculations for the estimation of efficiency or expectation of return.
  • the risk estimate provides mathematical data for estimating the distribution of aggregate returns. We can then deduce the expected performance of an aggregate and aim for an optimization of the expected return in relation to the risk. Selection of the guiding parameters
  • the Applicant proposes a completely different approach.
  • This approach is illustrated in FIG. 3. It differs from FIG. 2 in particular as follows: the ingredients chosen a priori to define the model are of two kinds, namely identifiers of master parameters Y j (block 2150), and identifiers of generic expressions of corresponding functions F j (block 2160), at a rate of one per master parameter. Two separate blocks are shown in Figure 3 for ease of presentation. In practice, pairs of identifiers can be stored: (parameter Y j , function FJ)
  • a function refers to a computer object.
  • a function can be determined for example by:
  • identifying a mathematical form indicating that it is for example a linear combination, or a polynomial of degree d, or any other mathematical form predefined by the designer of the system,
  • NS is the number of elements of this subset SE, which is written according to the formula (21) annexed, with NS very large (typically NS "100).
  • Y j we have a generic expression of a "nonlinear dynamic" model F (Y j ).
  • “dynamic” means the existence of possible delay effects
  • non-linear refers, among other things, to changes in correlations and threshold effects, it being understood that the class of "nonlinear dynamic models” encompasses more restrictive classes such as linear and / or static models (ie without delay effects).
  • the different parameters are then classified according to their respective p-values.
  • This ranking corresponds substantially to the reliability of the observed influence of each parameter on the overall behavior of the aggregate.
  • This threshold TH can be set at the level that eliminates the erratic relations, at the operation 430.
  • the operations 440 to 448 form a loop that selects those elements that will be retained as effective master parameters.
  • NP the number of elements of PSE, which is written according to the formula [22] annexed, with NP ⁇ NS.
  • the aggregate A is then modeled by a collection of expressions according to the annexed relation [23], in number NP, where the F j and ReS j are those computed above.
  • the selector (2150) operates in interaction with the calibrator (2120), in order to perform the adjustment of the particular functions on said set (SE) of the elements of the real world.
  • the guiding parameters (Y j ) are then selected according to a selection condition, which includes the fact that the quality score (PV j ) obtained during the adjustment represents an influence that exceeds a minimum threshold (TH).
  • the technique described with reference to FIG. 4 can be seen as a collection of mono-factorial analyzes, which carries out at the same time the selection of the guiding parameters within the initial set SE, by attributing to them a measurement of reliability, and the determination of the models F j with their respective residues Res j .
  • the process is fully automatic.
  • the determination of the threshold TH can be done automatically, at a fixed value, for example 5%, or at a value adjusted according to the number NS. It may be necessary to adjust the threshold at least in some cases.
  • the threshold TH can be the subject of a "post-adjustment" fully automated, according to an algorithm that takes into account the series of p-values obtained for the different parameters Y director j . It may happen that a recently emerged or created aggregate includes some heterogeneous elements of the real world that are older than the aggregate. In this case, we can proceed as follows:
  • the simulation generator (2100) is arranged to select the leading parameters (Y j ) by limiting itself to a recent historical slice available for the aggregate (A), but to apply the associated particular function (F j ) to a most likely future distribution of the master parameters, based on their full history.
  • the device may be supplemented by a real-world simulated state constructor (3200), as well as by a motor (3800) arranged to apply the aggregate-related model collection (2700) to said simulated states of the real world, in order to determine at least one output quantity relative to a simulated state (3900) of the aggregate (A), as a function of an output condition.
  • the exit condition may be defined or chosen to form a risk measure.
  • the real-world simulated state constructor (3200) is arranged to generate a range of possible values for each director parameter (Y j ), and the engine (3800) is arranged to compute the transforms of each possible value of each range associated with a director parameter (Y j ), each time using the particular function (F j ) corresponding to the director parameter (Y j ) concerned, whereas said output quantity relating to a state simulated (3900) of the aggregate (A) is determined by analyzing all the transforms, according to said output condition.
  • historical data on Y j are available .
  • the determination of the confidence interval CI j uses only the historical data of the parameter Y j . To do this, we estimate a probability distribution of the values of Yj (t) or variations of these values, possibly by calibrating a time series model (such as those described in the work of C. Gouriéroux cited above), then the "quantiles" of this distribution are determined at probabilities c and 1 - c.
  • the history of all the elements of the DATAI database, or of a part of them, is used to calibrate a dynamic model of evolution of these parameters, to finally deduce the probability distribution of them.
  • values of Y j and the confidence interval CI j may optionally use the pseudo-random simulation (called "Monte-Carlo") of values of all or part of the elements of the DATAI database, then of the parameter Y j as described below.
  • the most unfavorable bound of this last interval represents a risk measure of aggregate A, as a final result in 534.
  • This measurement may be called “F ⁇ ctor VaR”, while the most unfavorable terminals of the various intervals F j (CI j ), that is to say, according to the formula [26], the intervals [K /, Kf] in which the residual uncertainty E j is not taken into account, are referred to as "Risk factor VaR attached to the risk Y j ", the reason for not taking into account the residual uncertainty being that in many case of the specific impact of the parameter Y j as a source of risk. More generally, we can determine several FCI max confidence intervals (c), for different values of c, and derive a probability distribution from the value of the aggregate, which allows the calculation of more elaborate risk measures. . See for example the article by P. Artzner & al. "Cohérent risk measures” Mathematical Finance 9, 1999, No. 3, 203-228.
  • the real-world simulated state constructor (3200) is arranged to generate, for each director parameter (Y j ), a range of values possible that covers the confidence interval of the parameter director (Y j ) considered, in that the engine (3800) is arranged to calculate the transforms of each possible value of each range associated with a director parameter (Y j ), to each times using the particular function (F j ) corresponding to the director parameter (Y j ) concerned, in order to draw each time a confidence interval of the aggregate (A) in view of the director parameter (Y j ) concerned, and in that said output condition comprises an end condition, applied to all the confidence intervals of the aggregate (A) for the different leading parameters (Y j ).
  • Variants of Figure 5 can be designed, including the following:
  • one or more statistical functions are applied to the values Xij, for example a probability weighted average
  • This variant illustrates, in particular, the manner of making an estimation of the performance of an aggregate, as has been described previously.
  • one variant consists in simulating the joint distribution of Y j by a pseudo-random series of size M having the statistical properties of the relevant historical series, or statistical properties determined according to a dynamic model. time series, chosen according to the situation.
  • Y j a range of values for each director parameter Y j consisting of simulated pseudo-random values.
  • This simulation is represented as a rectangular matrix of order Nx M.
  • the real-world simulated state constructor (3200) is arranged to generate, for each director parameter (Y j ), a range of possible values established pseudo-randomly from the joint distribution of the master parameters (Y j ); the motor (3800) is arranged to calculate the transforms of each possible value of each range associated with a director parameter (Y j ), each time using the particular function (F j ) corresponding to the director parameter (Y j ) concerned; and the output condition is derived from an extreme simulation condition applied to all transforms.
  • the function H and the threshold TH may differ according to the chosen control parameter Y j an function of fine statistical properties of the historical series of the parameter (for example, the threshold TH may be made to depend on the autocorrelation of this series, as is recommended in several books of econometrics, such as that of ⁇ amilton cited above). If we now consider the global series of as a weighted pseudo random series of values of the aggregate, the weights being proportional to the scores S j , we obtain the simulation of a random distribution whose "quantities" provide the risk measure of the aggregate A, sought.
  • a sub-variant of this technique is to look in the past, periods when the attached statistical Y j guiding parameters resembles that of the recent evolution of these parameters, and overweight or select only the periods follow these periods, which are close to the recent past, as a more reliable model of the near future.
  • Another variant is to mathematically deduce a multifactorial model of the aggregate from the set of Y j , starting from the collection of the individual models F j , and the joint distribution of Y j .
  • the mathematical algorithm of the multifactorial model is described in the article: R. Douady, A. Cherny, "Social Science Research Network, 1113730, (2008), which the reader is invited to refer to.
  • the engine (3800) is arranged to first establish a multifactorial joint model of the aggregate (A), from the collection (2700) of single-factor models relating to the aggregate (A), and of the joint distribution (2700) of the leading parameters (Y j ) of the aggregate (A), and then working on said joined model.
  • the above variants are concerned with a confidence interval, which is a "risk figure” for the aggregate.
  • a "stress test” ie to know the possible impact of a particular scenario, especially in order to meet certain industrial standards.
  • the real-world simulated state constructor (3200) is arranged to generate a stress condition expression for each director parameter (Y j ); and the motor (3800) is arranged to first establish the joint distribution (2700) conditionally to said stress condition expression for the parameters managers (Yj) of the aggregate (A), then to establish a multifactorial joint model of the aggregate (A), from the collection (2700) of mono-factorial models relating to the aggregate (A), and of said conditional joint distribution (2700) of the master parameters (Yj) of the aggregate, and then to work on this joined model.
  • a first variant of deterministic stress test for each director parameter Y j selected, the function F 1 is applied to the specified value SY 1 of the master parameter according to the stress test.
  • SY J the specified value of the master parameter according to the stress test.
  • a collection of stressed values of the aggregate F J (SY J ) is obtained, the worst of which will be chosen among the parameters whose p-value PV j is below a certain threshold.
  • a special case of this variant is when one chooses only the director parameter having the smallest p-value: it suffices to set the threshold equal to this smallest p-value.
  • the mono-factorial models are "merged", that is to say, from the mono-factorial models F j corresponding to each of the selected master parameters, a multi-variate model is calculated.
  • a multi-variate model is calculated.
  • the merging of linear models to obtain a multivariate linear model with the aid of the covariance matrix of the master parameters is a special case of the model mentioned above in the Douady-Cherny article.
  • the stress test is random, which implies that the stress values SY j of the directional parameters Y ⁇ are not given accurately, but only an interval of possible values is provided. In this case, a range of values covering the specified interval will be chosen for each will assign to the worst-case stress test the values obtained among the master parameters whose p-value PV j is below a certain threshold.
  • a joint probability distribution of the master parameters is provided.
  • this probability distribution will be represented by a pseudo-random simulation ("Monte-Carlo") and the stress test will be determined either as a weighted average of the values obtained by applying the mono-factorial models F j (which can be possibly adding a randomly simulated value of the residue Res j ), or by a measure of risk, for example a quantity, of the distribution of these values.
  • the weighting may involve the scores S j calculated from the p-values PV j .
  • the stress test is, in the sense described above, qualified as random, but defined by the data - precise or imprecise - of the value or the variation of value of one or more elements of the base.
  • DATAI these elements may or may not be the master parameters of the hazard.
  • it will be estimated (for example by a "Loess regression" method, but other approaches are possible) the joint distribution of the governing parameters selected conditionally to the specified values of the identified element (s). The method described in the fourth variant above is then applied.
  • the simulation generator (2100) can be arranged to allow to specify one or more element-identifiers among the basic data (Datai), as well as stress values for these elements, then to estimate the future distribution. most likely of the guiding parameters (Y j ), conditional on these stress values.
  • Y j guiding parameters
  • Y j a number of parameters Y j have been identified to which the fund is sensitive.
  • i) choose a target number of variation, in principle decreasing, for example 20%, ii) search and identify, in a very long-term history, samples (dated) where the overall index (the CAC40) has significant drop (but significantly less than 20%),
  • the invention is particularly applicable to the dimensioning of constructions to resist seismic shaking. It is known that there are several types of seismic wave types: P-type (compression) and S (shear) volume waves, L (L) and R (Rayleigh) type surface waves.
  • the invention makes it possible to individually simulate a large number of possible wave combinations.
  • the "model function" is empirically calibrated on all the small shakes observed, then this function is extrapolated, according to a predetermined structure model, to anticipate the impact of a jolt having an amplitude specified by the anti-seismic standards, always in the direction of the chosen combination.
  • a second implementation of the invention relates to the simulation of the risks of a financial investment, for example a mutual fund or a SICAV (in English "mutualfund").
  • the fund's returns will be modeled from a number of financial indices, such as a linear combination of the returns of these indices.
  • This modeling is inadequate when the financial markets are subject to large movements, or even crises, because the coefficients of the linear combination are no longer valid in such exceptional circumstances. Moreover, he can become necessary to introduce into the linear combination, one or more indices that did not appear previously.
  • a variant works on variations.
  • a master parameter is calculated as the variation of a physical quantity at a given rate (for example the sampling rate).
  • This variation can be an absolute difference, or a relative difference, in percentage for example.
  • model function will represent the variations (absolute or relative) of the value of the aggregate, which will be added to the current value, if necessary.
  • model functions represent the variations of the values of the aggregate, but certain directing parameters are directly physical quantities while others are variations of magnitudes.
  • model functions represent the values of the aggregate themselves, and again, some direct parameters are directly physical magnitudes while others are variations of magnitudes.
  • the "p-value" is the probability that, assuming that we are in the null hypothesis, we obtained the observed sample and, consequently, estimated the coefficients of the function F j according to the alternative hypothesis and obtained the values found.
  • the principle of estimating the p-value therefore consists of evaluating the uncertainty on the vector of coefficients of F j to assume the null hypothesis, then of estimating the probability of estimating a vector at least as far from the null vector ( corresponding to the null hypothesis) than that empirically obtained from the sample.
  • the p-value is estimated by the so-called "F-test” Fischer method.
  • the Fischer statistic linked to this test traditionally denoted “F” but which we will note here FI to avoid confusion with other variables, exists in all versions of Microsoft Excel® software, as an optional output of the function.
  • "RightReg ()” create a regression line). Its principle consists in a mathematical treatment of the comparison between the "R2" of the regression according to the null hypothesis, that one can note R2 0 and that which one obtains by the alternative hypothesis, that one can note R2 a i t .
  • the Applicant proposes a different and innovative approach in this context, although known in other settings under the name of "bootstrap".
  • m describes a subset of the set of prime numbers to the number F of dates in the sample and b m a subset of the set ⁇ 0, ..., Fl ⁇ whose size depends on number of M prints desired.
  • Other deterministic algorithms are possible, in particular to take into account the constraints imposed on the drawing of indices
  • This subvariant which can be described as a "deterministic bootstrap” makes it possible to compare the p-values of the different master parameters without this comparison having a random element. It is more reliable than specifying a "seed" common to the various pseudo-random draws.
  • the present invention may also be expressed in the form of methods, in particular with reference to the operations defined in the description and / or which appear in the appended drawings. It can also be expressed in the form of computer programs capable, in cooperation with one or more processors, of implementing said methods and / or of being part of the simulation devices described for animating them.

Abstract

L'invention vise un dispositif informatique de simulation d'un agrégat évolutif du monde réel comprenant une mémoire, pour stocker des structures de données, propres, pour un élément donné du monde réel, avec un identifiant-élément et une suite de grandeurs-élément associées à des dates-élément respectives. La mémoire stocke ensuite des données d'agrégat, lequel est défini par des groupes d'identifiants-élément, chaque groupe étant associé à une date-groupe, tandis qu'une grandeur-agrégat peut être tirée des grandeurs-éléments qui correspondent aux identifiants-élément du groupe, à chaque date-groupe. Le dispositif comprend en outre un générateur de simulation, agencé pour établir un modèle informatique relatif à un agrégat pour faire correspondre des fonctions particulières à des paramètres directeurs respectifs, sélectionnés pour l'agrégat concerné, chaque fonction particulière résultant de l'ajustement de l'historique de la grandeur-agrégat par rapport à l'historique de son paramètre directeur respectif, à un résidu près, l'ajustement étant assorti d'un score de qualité. De plus, le modèle relatif à l'agrégat comprend une collection de modèles mono-factoriels, laquelle collection est définie par une liste des paramètres directeurs, une liste des fonctions particulières qui leur sont associées, avec leurs scores de qualité respectifs.

Description

Simulation d'un agrégat évolutif du monde réel, notamment pour gestion de risque.
L'invention se rapporte à la simulation informatique de phénomènes du monde réel.
On sait la plupart du temps construire une simulation informatique « intrinsèque » d'un élément donné du monde réel, par exemple une machine donnée, considérée isolément. Une telle machine peut être considérée comme un élément homogène du monde réel. Mais cette simulation intrinsèque ne tient pas compte de l'interaction éventuelle de la machine avec le reste du monde réel. Par exemple, une tornade peut mettre la machine hors d'usage.
Il est beaucoup plus difficile de construire une simulation « extrinsèque » de la machine, qui prenne par exemple en compte l'éventualité d'une tornade. Cela relève de la gestion de risque (en anglais : « risk management »). La gestion de risque trouve des applications nombreuses et diverses, parmi lesquelles on peut citer :
en architecture, le calcul de la résistance des structures soumises à des stress internes ou externes, qu'il s'agisse de bâtiments, de navires, de véhicules, d'usines, etc. Les stress peuvent être d'origine externe : tellurique, météorologique, etc. ou internes : activité industrielle, moteurs, environnement direct, etc.
le calcul de trajectoires (système de navigation, aérospatial ou autre) avec la prise en compte notamment de la météo prévue, des risques de panne ou d'accidents (probabilité d'accidents en relation avec une modélisation de l'environnement par exemple), et d'aléas divers et variés pouvant engendrer un retard
la simulation d'un montant de gains ou de pertes associés à des opérations sur les marchés financiers visant à maîtriser les coûts d'une activité industrielle (par exemple les remboursements d'emprunts, les coûts d'approvisionnement en essence ou en électricité, etc.)
la simulation d'une production industrielle avec la prise en compte notamment l'estimation du temps de livraisons de matière première, la probabilité des employés actifs (par rapport aux employés en arrêt maladie ou en grève par exemple), la probabilité d'une continuité de production (fonctionnement des machines, entretiens et pannes à prévoir),
la simulation de réseaux informatiques et de la masse de données à traiter par un nœud du système au cours d'une période donnée,
la simulation de réseaux d'alimentation électrique et de la surcharge possible d'un nœud du réseau à un instant donné, ou
la simulation bioinformatique des relations et interactions entre différentes parties d'un système biologique (par exemple réseau de protéines/enzymes ou réactions biochimiques d'une voie métabolique donnée) en tenant compte des paramètres y intervenant (par exemple la capacité de catalyse régio- et/ou stéréospécifique d'une enzyme) en vue d'établir un modèle de fonctionnement de la totalité du système. Ces quelques exemples montrent que les applications de la gestion de risque sont très diversifiées.
De manière générale, la gestion de risque aboutit à une quantité de mesure de risque. L'une de ces quantités est la « valeur à risque » (usuellement notée VaR, de l'anglais « value at risk »), sur laquelle on reviendra plus loin dans la description détaillée.
La présente invention peut s'appliquer à des agrégats physiques, dont chacun comprend un ensemble massif, c'est à dire volumineux, d'éléments hétérogènes du monde réel. L'expression « élément hétérogène » s'oppose ici à l'élément homogène que constitue une machine donnée, prise isolément.
Selon une approche connue, la simulation comprend l'analyse historique de l'agrégat dont on veut contrôler le risque, en ignorant son environnement, de manière à en déduire les bornes possibles de son évolution.
Une approche plus élaborée tient compte de l'environnement. La simulation comprend alors l'ajustement d'une « fonction-modèle » de type choisi, pour qu'elle corresponde le mieux possible à l'évolution historique de l'agrégat en fonction de son environnement. Ensuite, on simule l'évolution de l'environnement, puis on en déduit, par la fonction- modèle, l'évolution de l'agrégat. La fonction-modèle peut comprendre une composante aléatoire, ce qui amène à un complément décrit plus loin.
S'agissant d'un agrégat volumineux, dont la composition se modifie au cours de son historique, il n'est pas possible de se référer aux différents éléments que comprend l'agrégat. Ladite « fonction-modèle » va donc utiliser des arguments, en nombre limité, choisis d'une manière que l'on décrira plus loin.
Définition de l'invention
Ces approches ne sont pas totalement satisfaisantes, pour des raisons sur lesquelles on reviendra également. Elles ont différents inconvénients, dont le fait de mal prendre en compte les situations d'exception, du type de la tornade précitée.
L'invention vient améliorer la situation en utilisant une approche plus exhaustive, et nettement différente de ce qui est connu dans l'état de la technique. À cet effet, l'invention vient introduire un dispositif informatique de simulation d'un agrégat évolutif du monde réel, comprenant :
- une mémoire, pour stocker
• des données de base, relatives à l'historique d'éléments du monde réel, ces données de base comprenant des structures de données (Datai ; Data2), propres, pour un élément donné du monde réel, à établir un identifiant-élément, ainsi qu'une suite de grandeurs- élément associées à des dates-élément respectives, ainsi que
• des données d'agrégat, où chaque agrégat (A) est défini par des groupes d'identifiants-élément (Data3), chaque groupe étant associé à une date-groupe, tandis qu'une grandeur-agrégat peut être tirée des grandeurs-éléments qui correspondent aux identifiants-élément du groupe, à chaque date-groupe, et - un générateur de simulation, agencé pour établir un modèle informatique relatif à un agrégat.
Selon un premier aspect de l'invention, pour un agrégat donné (A), le générateur de simulation est agencé pour faire correspondre des fonctions particulières (Fj) à des paramètres directeurs respectifs (Yj), sélectionnés pour l'agrégat concerné (A), chaque fonction particulière résultant de l'ajustement de l'historique de la grandeur-agrégat par rapport à l'historique de son paramètre directeur respectif, à un résidu près (ReSj), l'ajustement étant assorti d'un score de qualité (PVj).
Ensuite, le modèle relatif à l'agrégat (A) comprend une collection de modèles mono- factoriels, laquelle collection est définie par une liste des paramètres directeurs (Yj), une liste des fonctions particulières (Fj) qui leur sont associées, avec leurs scores de qualité (PVj) respectifs. Les résidus (ReSj) sont optionnels.
Selon un autre aspect de l'invention, le générateur de simulation comprend :
- un sélectionneur, capable, sur désignation d'un agrégat (A), de parcourir un ensemble (SE) des éléments du monde réel définis dans les données de base, pour y sélectionner des paramètres directeurs (Yj) en fonction d'une condition de sélection, cette condition de sélection comprenant le fait qu'un critère d'influence du paramètre directeur sur l'agrégat (A) représente une influence qui dépasse un seuil minimal, et
- un calibreur, agencé pour faire correspondre des fonctions particulières respectives (Fj) à chacun des paramètres directeurs sélectionnés (Yj), chaque fonction particulière résultant de l'ajustement de l'historique de la grandeur-agrégat par rapport à l'historique du paramètre directeur concerné, à un résidu près (ReSj), l'ajustement étant assorti d'un score de qualité (PVj).
D'autres caractéristiques et avantages de l'invention apparaîtront à l'examen de la description détaillée ci-après, et des dessins annexés, sur lesquels :
- la figure 1 illustre la structure générale d'un dispositif de simulation,
- la figure 2 illustre le schéma d'un dispositif de simulation connu,
- la figure 3 illustre le schéma d'un dispositif de simulation tel que proposé ici, - la figure 4 est un diagramme de flux d'un mécanisme de sélection des paramètres directeurs selon l'invention,
- la figure 5 montre une mise en œuvre de l'invention pour estimer un niveau de risque résultant à partir d'une collection de modèles individuels, sans utiliser de modélisation particulière des interactions entre les différents modèles,
- la figure 6 montre une seconde mise en œuvre de l'invention pour estimer un niveau de risque résultant à partir d'une collection de modèles individuels, utilisant une modélisation des corrélations entre les paramètres directeurs des différents modèles,
- la figure 7 montre une mise en œuvre de l'invention pour estimer un niveau de stress résultant à partir d'une collection de modèles individuels, sous une hypothèse de scénario environnemental, et
- la figure 8 montre une mise en œuvre de l'invention pour estimer un niveau de risque résultant à partir d'une collection de modèles individuels, en utilisant une simulation pseudo-aléatoire dite « Monte-Carlo » des paramètres directeurs.
Les dessins et la description ci-après contiennent, pour l'essentiel, des éléments à caractère certain. Les dessins font partie intégrante de la description et pourront donc non seulement servir à mieux faire comprendre la présente invention, mais aussi contribuer à sa définition, le cas échéant.
En outre, la description détaillée est augmentée par l'annexe A qui regroupe les expressions, relations et/ou formules lesquelles interviennent dans la description détaillée ci-après. L'annexe est déconnectée de la description dans un but de clarification d'une part, et pour faciliter les renvois d'autres part. Tout comme les dessins, l'annexe fait partie intégrante de la description, et peut donc non seulement servir à mieux faire comprendre la présente invention, mais aussi contribuer à sa définition, le cas échéant.
Les numéros des relations sont entre parenthèses dans l'annexe, mais entre crochets droits dans la description (pour plus de clarté). De même, à certains endroits, on note les indices en les faisant précéder d'un trait de soulignement ; ainsi, T i correspond à Tt. Description d'un appareil général de simulation
La figure 1 illustre la structure générale d'un appareil de simulation.
II convient tout d'abord de disposer d'une collection importante de données du monde réel, qui sont ici stockées dans une mémoire monde réel 1000. Le mode de réalisation décrit fait référence à une mémoire 1000 comprenant différentes zones de mémoires comprenant chacune des données distinctes, pour clarifier l'exposé. Bien entendu, la mémoire 1000 peut stocker les données distinctes dans une seule zone de mémoire physique. A l'opposé, chaque zone de mémoire pourrait être comprise dans une mémoire physique qui lui serait propre (par exemples pour quatre zones de mémoire, on aurait quatre mémoires physiques distinctes). Les données peuvent être de nature très variable et comprendre des éléments du monde réel, des paramètres ayant une influence directe ou indirecte sur ces éléments, des sous- ensembles d'éléments (agrégats) ou encore des ensembles de sous-ensembles (plusieurs agrégats) sur lesquels on reviendra ci-dessous. Ici, le mot "élément" vise tout élément de l'univers de données du monde réel, y compris les paramètres. En fait, dès lors qu'une grandeur, même calculée - par exemple une corrélation - est considérée comme une source de risque, elle doit être labellisée, et faire l'objet d'un historique. De ce fait, elle devient un « élément ». A la base, la mémoire 1000 contient d'abord des données (Datai, ou "premières données") sur des éléments ou objets du monde réel. Une première donnée (Datai) peut être décrite comme un multiplet, qui comprend un identifiant-élément (id), une valeur- élément (V) et une date-élément (t), comme illustré par l'expression [1] annexée. La donnée Datai se comprend ainsi : le multiplet représente la valeur-élément, à la date- élément indiquée, d'un élément du monde réel désigné par Y identifiant-élément. La date- élément peut être une date et un temps (à la précision voulue), ou un temps seulement, ou une date seulement, selon la cadence d'évolution choisie pour l'ensemble des éléments considérés.
Ces multiplets sont rangés dans une ou plusieurs tables d'une ou plusieurs bases de données. Bien entendu, d'autres représentations informatiques équivalentes sont possibles.
Chaque élément évolue au cours du temps. Cette évolution peut être suivie et enregistrée au moyen des multiplets et plus précisément par l'association de valeurs-élément avec des dates-élément compris dans ces multiplets. La distinction entre l'évolution d'un élément par rapport à un autre est facilitée par les identifiants-élément lesquelles sont propres pour chaque élément distinct (il y a un identifiant-élément unique pour un élément donné). La mémoire 1000 contient également des données Data2 ("secondes données"). Une seconde donnée Data2 représente l'évolution d'un élément au cours du temps. Selon la formule [2], la seconde donnée Data2 est une collection de valeurs Datai, depuis un temps initial t0 jusqu'à un temps final tp, avec une périodicité temporelle choisie (cadence d'échantillonnage). Comme l'identifiant id est commun à tous les multiplets Datai de la formule [2], il peut en être sorti, pour être associé directement à Data2. On obtient alors la formule [3]. Elle s'écrit plus symboliquement selon la formule [4], dans laquelle l'indice i de E, correspond à l'identifiant id de l'élément Ei et l'indice k correspond à l'échantillonnage temporel 4. Sa liste de valeurs Vi{tk) peut être vue comme un tableau informatique de type "array" F, (ou vecteur, au sens informatique du terme). En bref, le vecteur Vi représente sensiblement l'évolution au cours du temps de l'élément E;.
La mémoire 1000 contient encore des données Data3 ("troisièmes données"). Une troisième donnée Data3 représente un agrégat d'éléments du monde réel. La formule [5] indique la composition à l'instant t0 de l'agrégat Ap (l'indice p est un identifiant-agrégat). Cet agrégat contient des éléments Ei, en quantités respectives qi. Le nombre des éléments Ei à l'instant to est noté CarcLAp(t0). Une troisième donnée Data3 peut comprendre trois vecteurs de taille Card-Ap(to), comme illustré par la formule [5] : - un vecteur d'identifiants id,, contenant les id respectifs des différents éléments E1,
- un vecteur Q contenant les quantités q,, et
- un vecteur V contenant les valeurs V1 correspondantes. Il s'agit de la valeur-élément V1 de l'élément E, ayant l'identifiant id, concerné. En variante, on peut enregistrer le produit de la quantité q, par la valeur-élément V1, pour éviter d'avoir à faire ce produit ensuite. On peut enregistrer d'une part la valeur totale de l'agrégat VT(AP) comme illustré par la formule [6], et d'autre part les « poids » W1 de chacun des éléments E1 dans l'agrégat, c'est-à-dire les ratios
Figure imgf000010_0002
Figure imgf000010_0003
, comme illustré par la formule
[7]
Ces vecteurs forment un tableau à trois dimensions ("array" multidimensionnel), que l'on appelle ici matrice-agrégat.
Ainsi une troisième donnée Data3 peut être décrite au format identifiant- agrégat/matrice-agrégat/date-agrégat, où Y identifiant-agrégat désigne un agrégat, tandis que la matrice-agrégat désigne la composition en éléments et/ou la valeur en éléments de cet agrégat à la date-agrégat indiquée, ici t0 (c'est-à-dire quels éléments font partie d'un agrégat donné à une date donnée, en quelles quantités, et avec quelle valeur, individuelle ou globale). On notera que la composition de l'agrégat peut évoluer en fonction du temps. Par conséquent, le nombre Card-Ap(tk) des éléments E1 à l'instant tk peut être différent de
Figure imgf000010_0001
Dans la matrice-agrégat, les identifiants-élément peuvent être implicites, par exemple si la matrice a autant de lignes qu'il y a d'éléments considérés. Dans ce cas, la ligne de rang i est toujours affectée au même élément E1. La matrice-agrégat peut alors se réduire au vecteur Q des quantités q, et au vecteur V des valeurs. C'est ce que montre la formule [8], pour l'état de l'agrégat Ap à l'instant t.
Un cas particulier est lorsque l'agrégat Ap est réduit à un seul élément E1. Dans ce cas, la matrice-agrégat n'a qu'une seule ligne et l'agrégat peut être identifié à cet élément E1.
Ceci n'empêche pas que deux structures de données Data2 et Data3 distinctes coexistent, puisque Data3 peut contenir aussi bien des agrégats réellement multiples et d'autres réduits à un seul élément.
Dans ce qui concerne l'agrégat Ap ci-dessus, il n'est question que d'un seul temps, en l'occurrence t0. Sur l'intervalle de temps qui va de to à tF, l'état de l'agrégat sera représenté par une pluralité de lignes semblables aux formules [5] et/ou [8]. Ainsi, dans les notations Vt(t) et Kt(t) de la formule [8], la terminaison (t) rappelle qu'il s'agit de variables fonction du temps, ou plus précisément, d'une suite d'échantillons dans le temps.
Cela correspond à une pluralité de matrices, comme le résume symboliquement la formule [9]. C'est ce que l'on appellera ci-après « historique matriciel », pour l'agrégat Ap considéré. Plus généralement, les troisièmes données (Data3) sont des sous-ensembles d'éléments choisis, formant des groupes de multiplets. Chaque groupe est désigné par un identifiant-agrégat. L'ensemble des groupes, en fonction du temps, est rangé dans une ou des tables d'une ou plusieurs bases de données. Bien entendu, d'autres représentations informatiques équivalentes sont possibles. Au minimum, un agrégat est un fichier de dates et de valeurs.
Optionnellement, des « agrégats d'agrégats » peuvent être définis. Dans ce cas, la mémoire 1000 peut comprendre un jeu de quatrièmes données Data4, sous forme d'une représentation informatique de données qui reflète un groupe de pluralités de matrices, où chaque pluralité de matrices correspond à l'évolution en fonction du temps d'un agrégat. Ces quatrièmes données sont directement déterminables à partir des premières, deuxièmes et troisièmes données, comme illustré par les formules [10] et [11], dans laquelle la lettre B représente un « agrégat d'agrégat » et wp(t) le poids de l'agrégat Ap dans B à la date (t). Elles peuvent être utiles notamment en tant que données intermédiaires, facilitant l'établissement du modèle informatique par l'outil de calibrage, comme on le verra, ou plus simplement comme représentation d'un système composite qui se décompose naturellement en sous-systèmes eux-mêmes composites. En référence à la figure 1, dans un système informatique 2000, les données du monde réel vont d'abord servir à la préparation d'un modèle physique (propre à une mise en œuvre informatique). Cela se fait dans un outil de calibrage 2100, après quoi une représentation informatique du modèle est stockée dans une mémoire 2600. Pour cela l'outil de calibrage 2100 accède aux données stockées dans la mémoire 1000. Les données de simulation sont des données de simulation d'états passés fictifs et/ou de prédiction d'états futurs du monde réel. L'appareil de simulation peut servir en architecture au dimensionnement des constructions, qu'il s'agisse de bâtiments, de véhicules, de navires, notamment. Il peut aussi servir au pilotage d'un réseau électrique de puissance maillé, des réseaux téléphoniques, ou encore du réseau Internet. Il peut servir également au contrôle de qualité d'une chaîne de production chimique, pharmaceutique ou alimentaire. Il peut servir encore à l'étude des risques hydrographiques ou météorologiques. D'autres applications sont la gestion logistique des réseaux de transport, comme des flottes de taxi, ou encore la modélisation de la propagation de risques épidémiques, ou de risques de pollution. L'appareil de simulation peut naturellement servir aussi à l'analyse de risques financiers.
L'art antérieur
La réalisation d'un dispositif de simulation selon l'art antérieur est illustrée sur la figure 2.
La figure 2 montre comment s'effectue le calibrage 2100, pour aboutir à une fonction d'ajustement en 2120 :
a. on dispose des données observées et/ou mesurées sur l'agrégat : V(t) et Q(t), ces données étant stockées dans la mémoire monde réel 1000 ;
b. un sélectionneur 2110 choisit un jeu de facteurs explicatifs du modèle Yj1 que l'on appelle ici « paramètres directeurs » ; et il mémorise leurs désignations dans la mémoire 1000 ; c. un calibreur 2120 réalise un ajustement par optimisation d'un critère (en terminologie anglaise : "best fit"), qui permet de déterminer l'expression précise d'une fonction
Figure imgf000013_0001
est le vecteur représentant l'ensemble des paramètres directeurs, et un résidu Res. L'ajustement consiste par exemple à déterminer les coefficients de la fonction β). Le résidu Res représente l'écart entre le modèle et la valeur observée V.
Figure imgf000013_0004
En fait, cela dépend du temps, et il faut parler de V(t), de Y{f), et de Res(t). Une nouvelle source de complexité apparaît alors avec les possibles « effets retard », c'est-à-dire que la modélisation correcte de la valeur V(t) nécessite d'inclure dans le modèle les valeurs des paramètres directeurs Y1 à des dates t' antérieures. Typiquement, l'expression du modèle retenu pour V(tk) fera intervenir les Yj(th) pour des indices de date h < k.
Ainsi, selon une approche de modélisation connue, on considère (à l'opération b) que l'évolution des éléments est directement ou indirectement liée à certains paramètres, que l'on peut qualifier de « paramètres directeurs » de l'état du système, ou encore de « facteurs explicatifs du modèle ». Physiquement, ces paramètres peuvent être considérés comme des « variables d'état » dans « l'espace des phases » du monde réel. On trouvera plus de détails sur ces grandeurs notamment à l'aide des liens :
http://fr.wikipedia.org/wiki /Espace Des Phases
http://fr.wikipedia.org/wiki/Representation d'état
J. Lifermann « Systèmes linéaires. Variables d'état », 1972
A l'étape c, l'expression précise ou particulière de la fonction Peut être déterminée en
Figure imgf000013_0002
partant d'une expression générique (paramétrée) de la fonction
Figure imgf000013_0003
Cette expression générique peut être stockée dans le calibreur 2120, ou bien séparément, en 2125. Par exemple, si la fonction f(Y) est une combinaison linéaire, son expression générique est donnée par la relation [12] annexée, où les yj sont des variables, et les aj des coefficients à déterminer. L'entier j est l'indexation des paramètres directeurs sélectionnés. Autrement dit, le calibreur (2120) opère pour établir les fonctions particulières à partir d'un jeu d'expressions de fonctions génériques à coefficients inconnus (2160). Ce jeu d'expressions de fonctions génériques à coefficients inconnus (2160) peut comprendre des expressions de fonctions génériques non linéaires.
Après optimisation (ajustement), l'expression particulière précise de la fonction f(Y), avec les valeurs des αy est stockée en 2600. Le modèle s'exprime alors selon la relation [13] annexée, où les Yj sont les paramètres directeurs, et Res désigne un résidu, qui contient un historique, et qui reflète l'imperfection de la fonction / à représenter précisément l'agrégat.
La modélisation comprend donc :
- le choix des paramètres directeurs: Yi, Y 2, ...Yj, -- .Yn ,'
- le choix de la forme mathématique de la fonction f(Y) qui convient à l'état de l'agrégat, y compris le nombre de retards autorisés,
- la recherche des coefficients de la fonction J(Y)
et
- la détermination du résidu historique Res(t), ainsi que d'une ou plusieurs grandeurs reliées, comme un risque associé au résidu.
Le modèle qui résulte du calibrage est ici stocké en 2600, et comprend :
- la liste des identifiants Y1 des paramètres directeurs,
une représentation informatique de l'expression précise de la fonction f, en général une liste de coefficients, notamment lorsque la fonction^ est linéaire,
- éventuellement, le résidu historique Res(t),
éventuellement, des grandeurs liées à la qualité du calibrage.
On expliquera maintenant un phénomène qui se produit lorsque l'on s'applique cette technique à un agrégat A de grande taille, avec un nombre élevé d'indices.
La difficulté est que le nombre de coefficients du modèle flX) (ce que l'on cherche) est potentiellement supérieur au nombre total de données historiques, les V(t) (ce dont on dispose). Dans ce cas, le problème est du type dit « sous-spécifié », c'est-à-dire que le calibreur peut fournir de manière aléatoire des solutions très différentes, ce qui le rend peu fiable, et par conséquent non utilisable. De plus, même dans le cas où le problème n'est pas à proprement parler « sous-spécifié », c'est-à-dire que l'on a suffisamment de données historiques, le calibrage peut devenir numériquement instable et imprécis en raison de « colinéarités » entre les séries historiques des paramètres directeurs.
Le même phénomène se produit lorsque l'expression mathématique de la fonction JQ est par exemple un polynôme d'ordre élevé, plus généralement une forme mathématique d'une complexité telle, à cause des non-linéarités et des effets retard, que le nombre de coefficients à déterminer est supérieur au nombre total de données historiques dont on dispose, ou encore lorsqu'il existe des colinéarités entre les séries historiques des « briques élémentaires » de la forme mathématique du modèle. En pratique, on va partir d'un jeu limité de n facteurs ou paramètres directeurs Yj , de composition constante dans le temps. La recherche de la fonction f(Y) qui convient à l'état de l'agrégat A peut s'effectuer par des techniques connues d'ajustement linéaire ou non linéaire. Le jeu de n paramètres directeurs Yj est lui-même un agrégat, de composition constante. Pour le distinguer, on l'appellera ici pseudo-agrégat.
Les paramètres directeurs viennent du monde réel. La fonction est généralement une simple combinaison linéaire. Autrement dit, on constitue un pseudo-agrégat de paramètres directeurs, de composition constante dans le temps, qui est supposé représenter l'évolution de l'agrégat considéré.
Reste à traiter le fait que le problème est « sous-spécifié », c'est à dire à réduire le nombre n de paramètres directeurs de l'agrégat.
On peut le faire automatiquement par une technique dite de « sélection de modèle » : à partir d'un grand nombre de paramètres directeurs possibles, on calibre des modèles ne faisant intervenir que des sous-ensembles de paramètres directeurs (en nombre restreint), et l'on sélectionne le modèle, c'est-à-dire le sous-ensemble de paramètres, qui optimise un certain critère (par exemple par « stepwise régression »). Des informations plus détaillées pourront être trouvées à l'aide des liens :
http://en.wikipedia.org/wiki/Stepwise régression
http://en.wikipedia.org/wiki/Model selection
D'autres informations sur les techniques de calibrage connues pourront être trouvés notamment dans les ouvrages :
- Ch. Gouriéroux, A. Monfort « Séries temporelles et modèles dynamiques »
Economica, 1995
- J.D. Hamilton « Time Séries Analysis » Princeton University Press 1994
Dans la pratique, ces procédés purement automatiques ne sont pas toujours totalement satisfaisants. Ils ont tendance à fournir un modèle qui va bien fonctionner en situation courante, mais diverger dès que l'on rencontre une situation exceptionnelle, comme des conditions extrêmes. On est tenté de re-calibrer le modèle, ce qui, souvent, le fait changer complètement et rend le calibrage instable.
Pour ces raisons, l'homme du métier va tendre vers une approche intuitive, en forçant le pseudo-agrégat à contenir des paramètres directeurs choisis par lui. Il choisit ces paramètres directeurs « forcés » sur la base de sa perception et de sa compréhension des phénomènes en cause, et naturellement de son expérience. De plus, et toujours sur la base de sa connaissance du problème, il choisira a priori la forme mathématique de la fonction/ en essayant de maîtriser la complexité, souvent au détriment de la pertinence du modèle, par exemple en rejetant les non-linéarités et les effets retard, même si ceux-ci sont corroborés par l'expérience. En bref, cette technique est largement dépendante des qualifications du spécialiste, et perd le côté d'automatisation.
Les paramètres directeurs sont choisis généralement parmi les éléments du monde réel qui sont susceptibles d'influencer le comportement de l'agrégat A du monde réel lorsque celui-ci est soumis à des mouvements de grande amplitude. Le but est de trouver ceux qui ont le plus d'influence dans ces conditions. Ce genre de modélisation est par exemple utilisé pour déterminer comment se comporte l'agrégat, sous telle ou telle condition, en faisant varier les valeurs des paramètres directeurs Y1. C'est ce que l'on appelle un « stress test », dont la qualité peut être très compromise si un paramètre directeur a été ignoré. L'invention viendra notamment améliorer la précision et la fiabilité des « stress test ».
Ensuite, on pourra mettre en oeuvre tout ou partie de trois grandes étapes : la sélection des paramètres directeurs pertinents ; l'estimation des hypothèses d'évolution possibles des paramètres directeurs ; et l'estimation de l'évolution de l'agrégat selon ces différentes hypothèses.
Le cas où l'on ignore l'environnement revient à supposer que le seul paramètre directeur est l'évolution passée de l'agrégat lui-même. Un tel appareil de simulation peut simuler le comportement de différentes sortes d'agrégats du monde réel, à partir d'un historique du passé. Ce genre de simulation s'applique à des systèmes complexes, sujets à des sources de risques qui sont potentiellement très nombreuses et de nature très différente. En pareil cas, on peut observer des perturbations extrêmes, voire un comportement chaotique et/ou imprévisible.
En effet, les phénomènes se déroulant dans le monde réel sont à la fois de nature et de comportement très variés. Ils évoluent selon des lois d'évolution qui peuvent être déterministes et/ou aléatoires. Grossièrement, les lois d'évolution sont propres à chacun des agrégats et dépendent des éléments hétérogènes qui les composent.
Il s'ensuit qu'une simulation en vue d'une prédiction de comportements de phénomènes du monde réel, nécessite la prise en compte d'une pluralité de paramètres généralement difficiles à identifier. Logiquement, ces paramètres doivent être en relation directe ou indirecte avec les éléments hétérogènes qui composent les agrégats. Par exemple, dans le cadre de la prédiction météorologique, l'agrégat comprend notamment un paramètre lié au mouvement de l'air (qui lui-même est dépendant de différents éléments parmi lesquels on peut citer la pression de l'air, la température de l'air, la densité de l'air et la teneur en eau de l'air), un paramètre lié à l'atmosphère (généralement il s'agit d'un système avec changement de variable en chaque point), un paramètre lié au positionnement des stations de sondage, un paramètre lié au comportement de l'air à grande échelle et un paramètre lié au comportement de l'air à petite échelle. Dans le cadre d'un portefeuille d'instruments financiers, il n'est pas trivial de définir et de choisir quels paramètres sont en relation avec les éléments hétérogènes d'un agrégat donné. Classiquement, on tient compte de la distribution des rendements du portefeuille étudié. Cette distribution est souvent supposée suivre une des classes connues de distribution de probabilités, par exemple la distribution dite normale ou gaussienne, en vue de généraliser les rendements du portefeuille par une fonction mathématique.
Une autre approche dans le cadre d'un portefeuille financier est l'utilisation de distributions historiques ou échantillons historiques. Dans cette approche, on tient compte des distributions passées pour finalement prévoir un comportement que pourrait suivre un portefeuille donné dans une situation future, présumée similaire à une situation passée.
Toutefois, cette approche présente des inconvénients. Par exemple, l'approche en question est dépendante de la taille de l'échantillon historique considéré. Lorsque celui- ci est trop petit, les simulations sont peu précises, et lorsqu'il est trop grand on rencontre des problèmes de cohérence temporelle (comparaison de résultats non-comparables, changement de composition du portefeuille ou de stratégie d'investissement).
Dans le domaine financier, les paramètres directeurs Yi, Y 2, ...Yj, ...Yn peuvent être, pour l'essentiel, les valeurs de titres sur le marché, des indices ou des taux. Ils sont sensibles à une vaste étendue de facteurs du monde réel, qui vont jusqu'aux catastrophes naturelles, guerres, notamment. La maîtrise de leur impact peut s'avérer vitale pour un fonds d'investissement censé garantir le paiement d'assurances ou de retraites à des particuliers, dont les montants sont eux-mêmes soumis aux aléas du marché et/ou de paramètres socio-économiques comme l'inflation ou la démographie. Dans le domaine agro-alimentaire, comme la fabrication d'un produit laitier, les paramètres directeurs peuvent être les teneurs du lait en différents nutriments et/ou micro-organismes, dont on devra tenir compte afin de contrôler la composition du produit fini. Dans le domaine architectural, les paramètres directeurs peuvent être des vitesses de vents et/ou de courants, des amplitudes de secousses, etc. et l'on cherche à anticiper la valeur des contraintes imposées aux structures afin de les dimensionner en conséquence.
En médecine et en pharmacologie, on déterminera in vitro l'amplitude - quantifiable - de la réaction d'un élément biologique à certaines quantités de produits qu'on lui soumet. On fera ensuite le même test in vivo sur des animaux, puis sur des êtres humains. Dans ce cas, les réactions extrêmes doivent impérativement être anticipées et les interactions entre produits prises en compte. L'influence de paramètres autres que les quantités de produit injectées est aussi importante : température, analyse sanguine du patient, etc.
La simulation comprend l'élaboration d'un modèle qui reflète une représentation globale de l'évolution d'un agrégat choisi dans des circonstances données (phénomène). Même si le modèle concerné peut être qualifié de "modèle mathématique" , il faut conserver à l'esprit qu'il s'agit en réalité d'un modèle du monde réel, à savoir un modèle physique, utilisant des expressions mathématiques. La différence est importante : une formule mathématique en tant que telle reste valable quelles que soient les grandeurs d'entrée qu'on lui applique ; en revanche, un modèle physique n'est valable que s'il correspond à ce qui se passe dans le monde réel ; il est inutile pour le reste, qui constitue la majeure partie des cas.
Ainsi, la tenue d'une comptabilité relève des formules mathématiques : les opérations arithmétiques qui interviennent sont valables quels que soient les chiffres appliqués. C'est vrai pour d'autres méthodes d'ordre économique, dont le mécanisme opère quelles que soient les valeurs considérées.
Il en est différemment pour des techniques extra-comptables, comme la prévision, la simulation ou l'estimation de risque. Il existe un domaine restreint d'application où ces techniques sont valables ; pour le reste, leurs résultats ne signifient rien. Ces techniques doivent donc être considérées comme relevant des modèles physiques, remarque étant faite qu'elles s'appliquent la plupart du temps à différentes classes d'objets, matériels ou non, du monde réel.
La modélisation permet notamment de faire des « stress tests », c'est-à-dire d'évaluer le comportement d'un système lorsque son environnement le soumet à des conditions extrêmes. Il est donc essentiel que le modèle reste valable dans les conditions extrêmes. La modélisation permet également d'évaluer les risques qu'encourt l'agrégat A. On connaît de telles mesures de risque, comme la volatilité, ou encore la VaR {Value at Risk).
Comme déjà indiqué, une première façon d'obtenir une mesure de risque de l'agrégat A consiste à étudier les propriétés statistiques de la série temporelle des valeurs totales VT(tk) et à en déduire un intervalle de confiance de ses variations. Cette approche, bien que souvent utilisée, est évidemment très limitative, car il se peut très bien que l'historique enregistré de l'agrégat ne comporte aucune situation extrême, alors que celles-ci sont tout à fait possibles.
Une façon plus élaborée d'obtenir une mesure de risque, toujours selon l'art antérieur, consiste à estimer la distribution jointe des paramètres directeurs Y}, et à l'appliquer à la fonction /#. La distribution jointe fournit un « domaine de confiance » du multiplet des valeurs de ces paramètres directeurs. Après application de la fonction f(), il en découle un intervalle de confiance de la valeur de l'agrégat. La plus défavorable des bornes de cet intervalle de confiance est une mesure de risque, dont on peut déduire la VaR. La distribution jointe {joint distribution) des paramètres directeurs Yi, Y2, ...Yj, ... Yn peut être définie à partir de l'historique complet relatif à ces paramètres directeurs (contenu dans les premières données). Cet historique est en général long et riche. Cependant, dans certains domaines, l'art antérieur simplifie les choses en commençant par réduire l'information historique aux seules dates 4 des données de la base Data2 (dates où des données existent pour le ou les agrégats), et/ou en faisant l'hypothèse que la distribution jointe des paramètres directeurs Yj est une simple matrice de covariance.
La modélisation ne fonctionne pas toujours comme on le désire.
En résumé, il est vrai que le suivi de l'évolution d'un ou plusieurs pseudo-agrégats bien choisis peut permettre de modéliser l'évolution d'un système, dont l'étude est fondée sur un ou des phénomènes du monde réel. En revanche, pour un système complexe, la tâche est difficile, voire considérée dans certains cas comme impossible, pour une ou plusieurs des raisons suivantes :
étendue du système, et complexité correspondante des structures de données, avec une grande variabilité des possibles sources de risques ;
non-linéarités et/ou changements de régime, dans les interactions susceptibles d'intervenir ;
- nécessité que la modélisation soit robuste en toutes circonstances, y compris les circonstances extrêmes ;
- effets retard entre la source de risque et son impact observables sur le système ;
souhait que la modélisation permette la prédiction, c'est-à-dire d'anticiper de façon fiable le comportement du système analysé en fonction des mouvements sur les paramètres directeurs ;
- respect de normes industrielles de risque applicables dans le domaine.
Comme on l'a vu, de nombreux problèmes se posent :
rigidité des modèles, car le nombre de paramètres directeurs doit être limité, si l'on veut éviter la difficulté d'un problème sous-spécifié ; instabilité du calibrage, car là où deux paramètres directeurs ont temporairement le même effet sur l'agrégat, la simulation peut se méprendre sur les poids respectifs de ces deux paramètres directeurs (phénomènes de colinéarité) ;
- approximation trop grossière, qui se traduit par une valeur trop élevée du résidu Res ; - mauvaises performances prédictives en raison des changements de régime, en particulier aux situations extrêmes.
De plus, il n'est pas possible d'une manière simple de simuler la réunion de plusieurs agrégats dont les simulations respectives utilisent des ensembles d'éléments ou paramètres différents. La contrainte de stabilité du calibrage impose la parcimonie des modèles, et il faut donc utiliser un nombre limité de paramètres directeurs pour chaque agrégat. Le choix de cet ensemble limité de paramètres directeurs sera différent pour chaque agrégat ; et il ne sera plus possible de modéliser une réunion d'agrégats de manière homogène et fiable, à partir des modèles des agrégats individuels.
Description de l'invention
La présente invention est fondée sur un certain nombre d'observations. Tout d'abord, dans le cas le plus simple (et le plus fréquent), les paramètres directeurs seront tout simplement un premier jeu d'éléments du monde réel, ayant une influence sur un second jeu d'éléments du monde réel (les deux jeux n'étant pas nécessairement disjoints). Ce cas le plus simple et le plus fréquent sous-tend l'approche de l'art antérieur, suivant laquelle il est possible de choisir les paramètres directeurs de manière intuitive. Il demeure que cette approche intuitive n'est pas nécessairement exacte.
Autrement dit, la connaissance des paramètres directeurs (le premier jeu d'éléments) permet de déterminer, pour l'essentiel, le comportement des éléments du second jeu.
L'expression « pour l'essentiel » signifie en principe que l'on connaît ce comportement dans un pourcentage satisfaisant des cas possibles (par exemple 95 %), le reste représentant un risque résiduel acceptable pour l'utilisateur, et contrôlable par lui. Il a été observé qu'en réalité, l'approche intuitive ne permet pas d'obtenir un risque résiduel acceptable pour l'utilisateur, et contrôlable par lui, car les situations extrêmes sont généralement dans les 5% non correctement modélisés.
De plus, il peut exister un facteur (un candidat paramètre directeur) qui ne se trouve pas lié à un élément dans le cas général, mais qui se manifeste seulement lorsqu'un scénario particulier se déroule, spécifiquement un scénario extrême. Ce type d'influence s'associe par exemple à un effet de seuil, susceptible d'engendrer un changement de régime.
Dans le cas d'une réunion d'agrégats (un « agrégat d'agrégats »), l'influence peut être encore plus complexe. Les paramètres directeurs peuvent n'avoir qu'une influence minime sur les agrégats individuels, considérés un à un ; par contre, la synergie entre certains agrégats individuels peut faire que le jeu de paramètres aura un impact important sur la réunion des agrégats. Il y a là un autre effet de seuil, lié au moment où la synergie concernée apparaît, par exemple du fait d'un changement des corrélations entre les agrégats individuels, voire entre agrégats individuels et certains paramètres directeurs.
La présente invention vise à prendre en compte notamment ces types de situations particulières, qui échappent souvent à la modélisation classique.
La Demanderesse a observé qu'à certains changements de régime intéressants, il se produit des changements de corrélations systématiques, et qu'il est possible de modéliser ceux-ci, notamment aux situations extrêmes.
L'invention peut se résumer à la mise en œuvre tout ou partie de quatre grandes étapes : l'évaluation de la pertinence ou « scoring » de chaque facteur qui est un candidat paramètre directeur, suivie de la sélection des facteurs dont la pertinence dépasse un certain seuil ;
- l'estimation des hypothèses possibles d'évolution de chaque paramètre directeur sélectionné, en liaison ou non avec certaines hypothèses sur l'environnement global ; - l'estimation de leur impact sur l'agrégat selon les différentes hypothèses ; - la modélisation globale elle-même pour l'estimation du risque et des stress tests.
De l'estimation de risque découlent des paramètres permettant des calculs complémentaires, tels que des calculs pour l'estimation d'efficacité ou d'espérance de rendement.
En effet, l'estimation du risque apporte des données mathématiques permettant d'estimer la distribution des rendements des agrégats. On peut alors déduire la performance espérée d'un agrégat et viser une optimisation du rendement espéré par rapport au risque. Sélection des paramètres directeurs
Pour cela, la Demanderesse propose une approche complètement différente. Cette approche est illustrée sur la figure 3. Elle diffère de la figure 2 notamment comme suit : les ingrédients choisis a priori pour définir le modèle sont de deux natures, à savoir des identifiants de paramètres directeurs Yj (bloc 2150), et des identifiants d'expressions génériques de fonctions correspondantes Fj (bloc 2160), à raison d'une par paramètre directeur. Deux blocs séparés sont représentés sur la figure 3 pour faciliter l'exposé. En pratique, on peut stocker des couples d'identifiants : (paramètre Yj, fonction FJ)
II est précisé que le mot « fonction » vise ici un objet informatique. En informatique, une fonction peut être déterminée par exemple par :
l'identification d'une forme mathématique, indiquant qu'il s'agit par exemple d'une combinaison linéaire, ou d'un polynôme de degré d, ou de toute autre forme mathématique prédéfinie par le concepteur du système,
et
- une liste de paramètres ou coefficients, cohérente avec la forme mathématique désignée par l'identifiant.
Ce qui précède s'appelle une « représentation paramétrique » d'une fonction. On peut utiliser aussi des représentations « non paramétriques », où la fonction Fj est représentée par un tableau de valeurs (« look-up table »), ainsi que par des règles d'interpolation entre ces valeurs.. Dans ce cas, ce qu'on appelle ici liste des fonctions Fj peut comprendre, pour partie au moins, une liste d'identifiants de tableaux de valeurs.
II existe aussi des « représentations semi-paramétriques » qui combinent des tableaux de valeurs d'entrée de la fonction et une représentation paramétrique sur chaque intervalle ou cellule (dans le cas multidimensionnel) définis par ce tableau de valeurs d'entrées. Le sélectionneur ou sélecteur du bloc 2150 est important. Il doit être sensible à une grande variété de types de dépendances agrégat/paramètres et, en même temps, minimiser le risque qu'un paramètre soit retenu à tort, par exemple sur un artefact, un effet du hasard ou une erreur. Un mode de réalisation particulier du mécanisme de sélection des paramètres directeurs sera maintenant décrit en référence à la figure 4. Après l'entrée 410, l'opération 412 établit un sous-ensemble très vaste SE de l'univers des éléments, ou même de la totalité de cet univers. En fait, un agrégat obéit la plupart du temps à des règles de composition : on ne peut y mettre que certains types d'éléments de l'univers, et pas d'autres. Ce sont ces types d'éléments qu'il y a lieu de considérer comme le « sous-ensemble très vaste de l'univers SE » précité. On note NS le nombre d'éléments de ce sous-ensemble SE, qui s'écrit selon la formule (21) annexée, avec NS très grand (typiquement NS » 100).
On procède ensuite à l'évaluation de chacun des NS éléments du sous-ensemble SE. L'opération 414 comprend la sélection d'un premier élément. L'opération 414 fixe donc y = l. Ensuite, l'opération 420 travaille sur l'élément courant Yj du sous-ensemble SE. On dispose d'une expression générique d'un modèle « dynamique non linéaire » F(Yj). On en donnera plus loin un exemple. Ici, « dynamique » signifie l'existence de possibles effets retard, alors que « non-linéaire » se réfère, entre autres, à des changements de corrélations et des effets de seuil, étant entendu que la classe des modèles « dynamiques non-linéaires » englobe les classes plus restrictives comme les modèles linéaires et/ou statiques (i.e. sans effets retard). On recherche alors une expression particulière Fj du modèle F qui s'ajuste le mieux sur les variations de l'agrégat A en fonction de l'élément Y1 ; en même temps, on obtient une mesure PVj de la qualité de l'ajustement, que l'on appelle ici p-valeur (en anglais : «p- value »), et un résidu ReSj. Selon les conventions communément admises, la p-valeur représente une estimation de la probabilité que la relation empiriquement observée entre l'agrégat et le paramètre directeur soit un pur effet du hasard. Par conséquent, meilleur est l'ajustement, plus petite est la p-valeur. Une description plus détaillée de la p-valeur se trouve sur :
http://en.wikipedia.org/wiki/P-value Ceci est répété pour chacun des paramètres, par l'incrémentation de je en 422, et par le test 428 jusqu'à ce que l'on atteigne la fin de l'ensemble SE (j = NS).
Les différents paramètres sont alors classés en fonction de leurs p-valeurs respectives. Ce classement correspond sensiblement à la fiabilité de l'influence observée de chaque paramètre sur le comportement global de l'agrégat. Typiquement, on ne retient que le haut de classement, dont les p-valeurs sont en deçà d'un seuil TH. Ce seuil TH peut être fixé au niveau qui élimine les relations erratiques, à l'opération 430. Les opérations 440 à 448 forment une boucle qui sélectionne ceux des éléments qui seront retenus comme paramètres directeurs effectifs.
En phase finale (490), on se limite ainsi à une partie PSE du sous-ensemble SE. On note NP le nombre d'éléments de PSE, qui s'écrit selon la formule [22] annexée, avec NP≤ NS. Dans son ensemble, l'agrégat A est alors modélisé par une collection d'expressions selon la relation [23] annexée, en nombre NP, où les Fj et ReSj sont ceux calculés ci-dessus. Autrement dit, le sélectionneur (2150) opère en interaction avec le calibreur (2120), afin de réaliser l'ajustement des fonctions particulières sur ledit ensemble (SE) des éléments du monde réel. Les paramètres directeurs (Yj) sont sélectionnés ensuite en fonction d'une condition de sélection, laquelle comprend le fait que le score de qualité (PVj) obtenu lors de l'ajustement représente une influence qui dépasse un seuil minimal (TH).
La technique décrite en référence à la figure 4 peut être vue comme une collection d'analyses mono-factorielles, qui réalise à la fois la sélection des paramètres directeurs au sein de l'ensemble initial SE, en leur attribuant un mesure de fiabilité, et la détermination des modèles Fj avec leurs résidus respectifs Resj. Toutefois, il reste possible de déconnecter les rôles du sélectionneur (2150) et du calibreur (2120).
Le processus est entièrement automatique. La détermination du seuil TH peut se faire automatiquement, à une valeur fixe, 5% par exemple, ou encore à une valeur ajustée en fonction du nombre NS. Il peut être nécessaire d'ajuster le seuil au moins dans certains cas. En particulier, selon une variante de l'invention, le seuil TH peut faire l'objet d'un « post-ajustement » entièrement automatisé, selon un algorithme qui prend en compte la série des p-valeurs obtenues pour les différents paramètres directeurs Yj. II peut arriver qu'un agrégat récemment apparu ou créé comprenne certains éléments hétérogènes du monde réel qui sont plus anciens que l'agrégat. Dans ce cas, on peut procéder de la manière suivante :
a. l'historique court de l'agrégat est utilisé pour sélectionner les paramètres directeurs pertinents,
b. on calibre alors un modèle selon la relation [23].
Ainsi, pour chaque paramètre directeur Yp sur lequel on dispose d'un historique très long, on estime sa distribution la plus probable dans le futur proche, dont on se servira pour appliquer le modèle par la suite, afin d'avoir une bonne estimée de la distribution future des valeurs de l'agrégat (par exemple les rendements du fonds), Autrement dit, le générateur de simulation (2100) est agencé pour sélectionner les paramètres directeurs (Yj) en se limitant à une tranche historique récente disponible pour l'agrégat (A), mais pour appliquer la fonction particulière associée (Fj) à une distribution future la plus probable des paramètres directeurs, en fonction de l'historique complet de ceux-ci.
Sur un autre plan, la collection d'expressions selon la relation [23] est susceptible de différentes applications. A cet effet, le dispositif peut être complété par un constructeur d'états simulés du monde réel (3200), ainsi que par un moteur (3800) agencé pour appliquer la collection de modèles relative à l'agrégat (2700) auxdits états simulés du monde réel, afin de déterminer au moins une grandeur de sortie relative à un état simulé (3900) de l'agrégat (A), en fonction d'une condition de sortie. De préférence, mais non exclusivement, la condition de sortie peut être définie ou choisie pour former une mesure de risque.
Estimation de la « Factor VaR »
Une manière 510 d'exploiter le modèle est illustrée sur la figure 5.
Dans ces modes de réalisation, le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer une gamme de valeurs possibles pour chaque paramètre directeur (Yj), et le moteur (3800) est agencé pour calculer les transformés de chaque valeur possible de chaque gamme associée à un paramètre directeur (Yj), à chaque fois à l'aide de la fonction particulière (Fj) correspondant au paramètre directeur (Yj) concerné, tandis que ladite grandeur de sortie relative à un état simulé (3900) de l'agrégat (A) est déterminée par analyse de l'ensemble des transformés, en fonction de ladite condition de sortie. On dispose par ailleurs (531), comme on l'a dit plus haut, des données historiques sur les Yj. On en déduit, pour chaque Yj, un intervalle de confiance individuel CT, = [CIf, Cl/] avec un certain degré de confiance déterminé à l'avance c qui représente la probabilité que le paramètre directeur reste à l'intérieur de l'intervalle de confiance, comme indiqué dans la formule [24]. En fait, il y a deux variantes : le cas où l'intervalle de confiance de Y, ne dépend que de son historique, et celui où il dépend aussi des historiques des autres
YJ.
Selon une première variante, la détermination de l'intervalle de confiance CIj n'utilise que les données historiques du paramètre Yj. Pour ce faire, on estime une distribution de probabilité des valeurs de Yj(t) ou des variations de ces valeurs, éventuellement en calibrant un modèle de série temporelle (tel que ceux décrits dans l'ouvrage de C. Gouriéroux cité plus haut), puis on détermine les « quantiles » de cette distribution aux probabilités c et 1 - c.
Selon une seconde variante, l'historique de tous les éléments de la base DATAI, ou d'une partie d'entre eux, est utilisé pour calibrer un modèle dynamique d'évolution de ces paramètres, pour enfin en déduire la distribution de probabilité des valeurs de Yj et l'intervalle de confiance CIj. Cette étape peut éventuellement utiliser la simulation pseudo-aléatoire (dite « Monte-Carlo ») de valeurs de tout ou partie des éléments de la base DATAI, puis du paramètre Yj comme décrit plus bas. Les opérations 512 à 528_forment une boucle de traitement individuel de chacun des paramètres directeurs Yj.
Connaissant l'intervalle de confiance individuel CIj = [CIj-, CIj +] de Yj, on sait établir en 514 une gamme de valeurs de Yj. qui couvre cet intervalle de confiance avec une précision suffisante pour que les valeurs des fonctions Fj évaluée aux points de cette gamme fournisse une mesure fiable du risque de l'agrégat lié à ce paramètre directeur, selon le procédé décrit ci-dessous. Cette peut être par exemple un échantillon, à intervalles réguliers ou non, de valeurs du paramètre directeur. Elle peut aussi résulter d'une simulation pseudo-aléatoire de ces valeurs, par exemple celle qui a servi à calculer les bornes de l'intervalle CIj. On considère maintenant le modèle individuel FjQ de l'agrégat par rapport au paramètre directeur Yj.
En 520, l'application de ce modèle à ladite gamme de valeurs de Yj permet de déduire un intervalle de confiance pour l'agrégat (sur la base du modèle Fj et
Figure imgf000030_0001
de l'intervalle CIJ) selon la formule [25]. Il convient d'y ajouter l'incertitude E, liée au résidu Resj selon la formule [26].
En 530, la réunion de ces intervalles de confiance FCIj pour tous les paramètres directeurs (sélectionnés dans l'ensemble PSE) fournit un intervalle de confiance global FCImax attribué à l'agrégat, selon la formule [27], toujours selon le degré de confiance c précité.
A la base, la borne la plus défavorable de ce dernier intervalle (inférieure ou supérieure selon le contexte) représente une mesure de risque de l'agrégat A, comme résultat final en 534.
Cette mesure peut être dénommée « Fαctor VaR », alors que les bornes les plus défavorables des différents intervalles Fj(CIj), c'est-à-dire, selon la formule [26], les intervalles [K/, Kf] dans lesquels l'incertitude résiduelle Ej n'est pas prise en compte, sont dénommées « Factor VaR attachée au risque Yj », la raison pour ne pas tenir compte de l'incertitude résiduelle étant que l'on a besoin dans de nombreux cas de connaître l'impact spécifique du paramètre Yj comme source de risque. De manière plus générale, on peut déterminer plusieurs intervalles de confiance globaux FCImax(c), pour différentes valeurs de c, et en tirer une distribution de probabilité de la valeur de l'agrégat, qui permet le calcul de mesures de risques plus élaborées. Voir par exemple l'article de P. Artzner & al. « Cohérent risk measures » Mathematical Finance 9, 1999, No. 3, 203-228.
Dans ce mode de réalisation, le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer, pour chaque paramètre directeur (Yj), une gamme de valeurs possibles qui couvre l'intervalle de confiance du paramètre directeur (Yj) considéré, en ce que le moteur (3800) est agencé pour calculer les transformés de chaque valeur possible de chaque gamme associée à un paramètre directeur (Yj), à chaque fois à l'aide de la fonction particulière (Fj) correspondant au paramètre directeur (Yj) concerné, afin d'en tirer à chaque fois un intervalle de confiance de l'agrégat (A) au vu du paramètre directeur (Yj) concerné, et en ce que ladite condition de sortie comprend une condition d'extrémité, appliquée à l'ensemble des intervalles de confiance de l'agrégat (A) pour les différents paramètres directeurs (Yj). On peut concevoir des variantes de la figure 5, dont la suivante :
- Dans le bloc 514, on prend non seulement un jeu de valeurs possibles Yij des paramètres directeurs Yj, mais aussi la probabilité pij de chaque valeur Yij ;
- Au bloc 521, en plus de calculer l'intervalle de confiance de l'agrégat, on détermine un jeu de valeurs possibles de l'agrégat Xij = Fi (Yj), avec les probabilités associées pij ;
- Au bloc 530, on applique une ou des fonctions statistiques aux valeurs Xij , par exemple une moyenne pondérée par les probabilités;
Au bloc 534, on obtient alors, à partir des valeurs des fonctions statistiques obtenues pour chaque paramètre directeur, une estimation de l'espérance de valeur de l'agrégat, en absolu, ou en relatif par rapport à sa valeur courante.
Cette variante illustre notamment la manière de réaliser une estimation de la performance d'un agrégat, comme cela a été décrit précédemment.
Monte-Carlo pondéré
Ainsi qu'on l'a mentionné plus haut, une variante consiste à simuler la distribution jointe des Yj par une série pseudo-aléatoire de taille M ayant les propriétés statistiques des séries historiques concernées, ou bien des propriétés statistiques déterminées selon un modèle dynamique de série temporelle, choisi en fonction de la situation. On obtient ici encore une gamme de valeurs pour chaque paramètre directeur Yj constituée de valeurs pseudo-aléatoires simulées.
Cette simulation se représente comme une matrice rectangulaire d'ordre Nx M. On note Yj ,m l'élément courant de cette matrice, m = 1...M, et l'on calcule Fj(Yj,m), auquel on peut ajouter une contribution Resj ,m aléatoirement tirée du résidu Resj.
Par ailleurs, par la p-valeur PVj, on dispose d'un « score » Sj de chaque Yj. Ce score, que l'on supposera compris dans l'intervalle [0,1] sera d'autant plus élevé (i.e. proche de 1) que la p-valeur PVj sera faible (i.e. proche de 0).
Le choix de la fonction H(PV) attribuant un score Sj à la p-valeur PVj se fera en fonction du contexte, en respectant les contraintes suivantes :
• H(PV) = O si PV≥TH
• H(O) - I
• 0 < H(PV) < 1 si 0 < PV< TH
Ici, le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer, pour chaque paramètre directeur (Yj), une gamme de valeurs possibles établie de façon pseudo-aléatoire à partir de la distribution jointe des paramètres directeurs (Yj) ; le moteur (3800) est agencé pour calculer les transformés de chaque valeur possible de chaque gamme associée à un paramètre directeur (Yj), à chaque fois à l'aide de la fonction particulière (Fj) correspondant au paramètre directeur (Yj) concerné ; et la condition de sortie est tirée d'une condition de simulation extrême appliquée à l'ensemble des transformés.
Selon une variante, la fonction H et le seuil TH peuvent différer selon le paramètre directeur choisi Yj an fonction de propriétés statistiques fines des séries historiques du paramètre (à titre d'exemple, le seuil TH peut être amené à dépendre de l'autocorrélation de cette série, ainsi que cela est recommandé dans plusieurs ouvrages d'économétrie, comme celui de Ηamilton cité plus haut). Si l'on considère maintenant la série globale des
Figure imgf000033_0001
comme une série pseudo aléatoire pondérée de valeurs de l'agrégat, les poids étant proportionnels aux scores Sj, on obtient la simulation d'une distribution aléatoire dont les « quantités » fournissent la mesure de risque de l'agrégat A, recherchée.
Une sous-variante de cette technique consiste à rechercher, dans le passé, des périodes où la statistique jointe des paramètres directeurs Yj se rapproche de celle de l'évolution récente de ces paramètres, et de surpondérer, voire uniquement sélectionner, les périodes qui suivent ces périodes qui se rapprochent du passé récent, comme un modèle plus fiable de l'avenir proche.
En variante de cette sous- variante, on pourra aussi attribuer à chaque paramètre directeur un coefficient influencé par l'évolution des éléments. Ces coefficients viennent multiplier les scores pour obtenir les poids des différents paramètres directeurs, respectivement. Ceci permet d'éviter de surpondérer des paramètres directeurs qui sont très corrélés entre eux et dont la répétition viendrait masquer d'autres sources importantes de risque.
Une autre variante consiste à déduire mathématiquement un modèle multifactoriel de l'agrégat par rapport à l'ensemble des Yj, en partant de la collection des modèles individuels Fj, et de la distribution jointe des Yj. L'algorithme mathématique du modèle multifactoriel est décrit dans l'article : R. Douady, A. Cherny « On measuring risk with scarce observations » Social Science Research Network, 1113730, (2008), auquel le lecteur est invité à se référer.
Cette technique sera maintenant décrite plus en détail en référence à la figure 6. En 610, on dispose de l'historique des Yj (DATAI), dont on peut déduire la distribution jointe des Yj en 612. Par ailleurs, en 620, on a la collection des modèles Fj(Yj) pour tous les paramètres directeurs sélectionnés. Des blocs 612 et 620, on peut tirer en 630 un Modèle joint V = f(Yi...Yn). De la distribution jointe des Yj en 612, on peut tirer en 632 une simulation des valeurs des Yj.. A partir des blocs 612 et 620, l'opération 640 peut maintenant faire application dudit modèle joint au vecteur de valeurs simulées des Yj. Autrement dit, le moteur (3800) est agencé pour établir d'abord un modèle joint multifactoriel de l'agrégat (A), à partir de la collection (2700) de modèles mono- factoriels relative à l'agrégat (A), et de la distribution jointe (2700) des paramètres directeurs (Yj) de l'agrégat (A), et pour travailler ensuite sur ledit modèle joint.
Les techniques de l'art antérieur sont alors applicables pour obtenir l'intervalle de confiance, en tant qu'évaluation du risque en 690.
Stress Tests
Les variantes ci-dessus s'intéressent à un intervalle de confiance, qui est un « chiffre de risque » pour l'agrégat. On peut souhaiter faire un « stress test », c'est-à-dire connaître l'impact possible d'un scénario particulier, notamment dans le but de satisfaire certaines normes industrielles. On simule alors les Yj, mais sous condition de ce scénario particulier. C'est-à-dire que la distribution des Yj est volontairement biaisée par l'hypothèse de la réalisation du scénario voulu.
Cette technique sera maintenant décrite plus en détail en référence à la figure 7. En 710, on dispose de l'historique des Yj (DATAI), dont on peut déduire la distribution jointe des
Yj en 722, mais cette fois ci, conditionnellement à un stress, lequel est ici défini par un jeu de valeurs de stress pour les Yj (720). Par ailleurs, en 730, on a la collection des modèles Fj(Yj) pour tous les paramètres directeurs sélectionnés. Des blocs 722 et 730, on peut tirer en 740 un Modèle joint V = f(Yi...Yn). A partir des blocs 720 et 740, l'opération 750 peut maintenant faire application dudit modèle joint au vecteur de valeurs simulées des Yj, défini ici par le jeu de valeurs de stress pour les Yj (720).
Dans cette variante, le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer une expression de condition de stress pour chaque paramètre directeur (Yj) ; et le moteur (3800) est agencé pour établir d'abord la distribution jointe (2700) conditionnellement à ladite expression de condition de stress pour les paramètres directeurs (Yj) de l'agrégat (A), puis pour établir un modèle joint multifactoriel de l'agrégat (A), à partir de la collection (2700) de modèles mono-factoriels relative à l'agrégat (A), et de ladite distribution jointe conditionnelle (2700) des paramètres directeurs (Yj) de l'agrégat, et pour travailler ensuite sur ce modèle joint.
Les techniques de l'art antérieur (sur des modèles multifactoriels obtenus différemment) sont alors applicables pour faire une évaluation du stress test en 790. On peut ici calculer les intervalles de confiance, comme précédemment, et aussi la valeur moyenne (espérance conditionnelle).
Deux types de stress tests sont envisageables :
Les stress tests « déterministes », dans lesquels le comportement de l'environnement est entièrement décrit dans un scénario précis, c'est-à-dire qu'on se donne précisément les valeurs (ou les variations de valeurs) SYj de tous les paramètres directeurs Yj (comme sur la figure 7). On cherche alors à estimer le comportement de l'agrégat sous cette hypothèse. Mathématiquement, il s'agit de l'espérance conditionnelle de la valeur ou de la variation de valeur de l'agrégat sous condition de réalisation du scénario spécifié.
- Les stress tests « aléatoires », dans lesquels le comportement de l'environnement n'est que partiellement décrit, soit qu'on ne spécifie que la valeur (ou la variation de valeur) de certains éléments, les autres devant être estimés, soit que les valeurs des paramètres directeurs sont spécifiés de façon imprécise, par un intervalle, par une distribution de probabilité donnée par une formule ou encore par une distribution de probabilité donnée par une simulation pseudo-aléatoire (dite « Monte-Carlo »).
Dans le cas des stress tests « aléatoires », comme pour le calcul de la VaR, on disposera d'une représentation aléatoire de l'agrégat, dont on cherchera à déterminer une mesure de risque. La seule différence avec une mesure de risque classique vient du fait que la distribution de probabilité que l'on suppose pour les paramètres directeurs est volontairement biaisée par l'hypothèse qu'un scénario - précis ou imprécis - se réalise sur tout ou partie des paramètres directeurs, ou encore sur certains éléments de l'environnement.
Selon une première variante de stress test déterministe, pour chaque paramètre directeur Yj sélectionné, on applique la fonction F1 à la valeur spécifiée SY1 du paramètre directeur selon le stress test. On obtient ainsi une collection de valeurs stressées de l'agrégat FJ(SYJ), dont on choisira la plus défavorable parmi les paramètres dont la p- valeur PVj est inférieure à un certain seuil. Un cas particulier de cette variante est lorsqu'on choisit uniquement le paramètre directeur ayant la plus petite p-valeur : il suffit de fixer le seuil égal à cette plus petite p- valeur.
Selon une seconde variante, on « fusionne » les modèles mono-factoriels, c'est-à-dire que l'on calcule, à partir des modèles mono-factoriels Fj correspondant à chacun des paramètres directeurs sélectionnés, un modèle multi-varié, selon un principe identique à celui appliqué plus haut pour le calcul de la « Factor VaR », par exemple par l'approche développée dans l'article Douady-Cherny cité plus haut. La fusion de modèles linéaires pour obtenir un modèle linéaire multi-varié avec l'aide de la matrice de covariance des paramètres directeurs est un cas particulier du modèle ci- dessus mentionné dans l'article Douady-Cherny. Pour un implémentation correcte de cette approche, il conviendra d'utiliser une matrice de covariances conditionnelles au stress test effectué, qui peut par exemple s'estimer par un procédé dit de « Loess régression ». Voir à ce propos :
http://en.wikipedia.org/wiki/Loess régression
Selon une troisième variante, le stress test est aléatoire, ce qui implique que les valeurs de stress SYj des paramètres directeurs Y} ne sont pas données avec précision mais seulement un intervalle de valeurs possibles est fourni. Dans ce cas, on choisira, pour chaque paramètre directeur, une gamme de valeurs couvrant l'intervalle spécifié et l'on attribuera au stress test la plus défavorable des valeurs obtenues parmi les paramètres directeurs dont la p-valeur PVj est en-deçà d'un certain seuil.
Selon une quatrième variante, au lieu d'intervalles de valeurs possibles, on fournit une distribution de probabilité jointe des paramètres directeurs. Dans ce cas, on représentera cette distribution de probabilité par une simulation pseudo-aléatoire (« Monte-Carlo ») et on déterminera le stress test soit comme une moyenne pondérée des valeurs obtenues par application des modèles mono-factoriels Fj (auxquels on peut éventuellement ajouter une valeur aléatoirement simulée du résidu Resj), soit par une mesure de risque, par exemple un quantité, de la distribution de ces valeurs. La pondération peut faire intervenir les scores Sj calculés à partir des p- valeurs PVj.
Selon une cinquième variante, le stress test est, au sens décrit ci-dessus, qualifié d'aléatoire, mais défini par la donnée - précise ou imprécise - de la valeur ou de la variation de valeur d'un ou plusieurs éléments de la base DATAI, ces éléments pouvant être ou non des paramètres directeurs de l'aléa. Dans ce cas, on estimera (par exemple par un procédé de « Loess régression », mais d'autres approches sont possibles) la distribution jointe des paramètres directeurs sélectionnés conditionnellement aux valeurs spécifiées du ou des éléments identifiés. On applique ensuite le procédé décrit dans la quatrième variante ci-dessus.
De façon générale, le générateur de simulation (2100) peut être agencé pour permettre de spécifier un ou plusieurs identifiants-éléments parmi les données de base (Datai), ainsi que des valeurs de stress pour ces éléments, puis d'estimer la distribution future la plus probable des paramètres directeurs (Yj), conditionnellement à ces valeurs de stress. On peut alors, par exemple, surpondérer les dates historiques en fonction de la proximité des grandeurs-éléments ou de leurs variations (à une date historique) avec les valeurs de stress spécifiées. Dans ce qui précède, on a identifié un certain nombre de paramètres Yj auxquels le fonds est sensible. Et on a pu réaliser la calibration selon la relation [21]. II peut être intéressant de prendre en compte un paramètre plus global, comme par exemple l'indice dit CAC40 en France, qui représente la tendance d'ensemble du marché.
Mais, il se peut que l'on n'ait pas identifié de relation fiable entre cet indice global et l'agrégat concerné (un fonds en finances). Dans ce cas, l'indice global ne va pas apparaître parmi les paramètres directeurs Yj choisis pour la modélisation.
Il peut être tentant d'essayer quand même de faire une calibration sur l'indice global (que l'on note Yspi), de la forme :
Figure imgf000038_0001
Toutefois, la Demanderesse a observé que, dans le cas où il y a une faible corrélation entre l'évolution du fonds et celle de l'indice global, la fonction Fspl(Yspi) sera presque plate. Par conséquent, le risque pour le fonds à raison d'une chute sévère du marché, par exemple si le CAC40 chute de 20%, sera fortement sous-estimé. Il est alors proposé de procéder comme suit :
i) choisir un chiffre cible de variation, en principe à la baisse, par exemple 20%, ii) rechercher et identifier, dans un historique très long terme, les échantillons (datés) où l'indice global (le CAC40) a fait une chute importante (mais sensiblement moins que 20%),
iii) attribuer à chacun de ces échantillons un poids lié à la proximité entre la chute réelle et le chiffre cible de 20%,
iv) Puis, pour chaque paramètre qui a été sélectionné, générer une série Monte- Carlo ayant les propriétés statistiques de la série historique du facteur en tenant compte de la pondération,
v) appliquer la fonction Fj du facteur à ce Monte-Carlo du facteur, ce qui donne une distribution de la série du fonds par rapport à ce facteur,
vi) en déduire une VaR factorielle, et
vii) déterminer le maximum de ces différentes mesures par rapport à ces paramètres directeurs, ce qui donne un chiffre de risque global. Ceci peut être vu comme l'élaboration d'un Stress test par méthode Monte-Carlo calibrée sur un historique pondéré.
Exemples de mise en œuvre
L'invention s'applique notamment au dimensionnement de constructions pour résister aux secousses sismiques. On sait qu'il existe plusieurs types répertoriés d'ondes sismiques : ondes de volume de type P (compression) et S (cisaillement), ondes de surface de type L (L) et R (Rayleigh).
http://fr.wikipedia.org/wiki/Tremblement de terre
Selon l'art antérieur, on simulerait séparément les impacts des différents types d'ondes. C'est insuffisant, car l'effet conjoint de deux types d'ondes différents peut s'avérer pire que la somme des effets individuels de ces deux ondes.
Dans ce cas, l'invention permet de simuler individuellement un grand nombre de combinaisons d'ondes possibles. Pour chaque combinaison, on calibre empiriquement la « fonction-modèle » sur l'ensemble des petites secousses observées, puis on extrapole cette fonction, selon un modèle de structure prédéterminé, pour anticiper l'impact d'une secousse ayant une amplitude spécifiée par les normes antisismiques, toujours dans la direction de la combinaison choisie.
Une seconde mise en œuvre de l'invention concerne la simulation des risques d'un investissement financier, par exemple un fonds commun de placement ou une SICAV (en anglais « mutualfund »).
Selon l'art antérieur, les rendements du fonds vont être modélisés à partir d'un certain nombre d'indices financiers, comme une combinaison linéaire des rendements de ces indices. Cette modélisation est inadéquate lorsque les marchés financiers sont soumis à de grands mouvements, voire des crises, car les coefficients de la combinaison linéaire ne sont plus valables en de telles circonstances exceptionnelles. De plus, il peut devenir nécessaire de faire entrer, dans la combinaison linéaire, un ou des indices qui n'y apparaissaient pas précédemment.
Grâce à l'invention, on considérera un très grand nombre d'indices boursiers ; on estimera la « fonction-modèle » attachée à chacun d'entre eux, y compris lorsque ces indices n'ont qu'un impact mineur dans des conditions de marché normales ; puis on extrapole cette fonction, pour anticiper l'impact d'une circonstance exceptionnelle ; en ce qui concerne la modélisation de l'environnement, une telle circonstance exceptionnelle peut être spécifiée en fonction de crises économiques ou financières historiquement répertoriées, ou anticipée par des études économiques contemporaines, par exemple.
A titre d'exemple, on rappellera que lors de la crise dite des « subprimes » à l'été 2007, un certain nombre de SICAV dites « monétaires dynamiques » (ou encore des « monetary funds »), et qui étaient investies dans des produits dits « toxiques », sans l'avoir déclaré, ont perdu jusqu'à 20% de leur valeur, ce qui a causé d'énormes difficultés économiques aux nombreuses entreprises industrielles dont la trésorerie est classiquement investie dans ce type de produits financiers. Selon l'art antérieur, sans simulation de l'environnement, il apparaîtra que le fonds en question n'a jamais connu de pertes avant la crise. Le modèle considérera donc une telle perte comme impossible.
Selon l'art antérieur, avec simulation de l'environnement selon une fonction, qui est une combinaison linéaire d'indices, s'agissant de fonds monétaires, on utilisera les indices qui correspondent à des taux d'intérêt à court terme, et, éventuellement, certains indices de crédit (« crédit spread »). Il se trouve qu'en conditions normales de marché, le fonds est essentiellement soumis aux taux d'intérêt à court terme, et très peu sensible aux indices de crédit. Une simulation même extrême de ces paramètres (par exemple les valeurs observées lors de la crise russe mentionnée ci-après) va ignorer l'effet des indices de crédit, et par conséquent, de nouveau, les pertes sont considérées comme négligeables, voire impossibles. Grâce à l'invention, pour chaque indice de crédit, on estimera une « fonction-modèle » non linéaire respective. Au niveau de la modélisation de l'environnement, on prendra en compte les mouvements des indices de crédit observés lors de la crise de 1998 (crise russe). L'application de la fonction non-linéaire à chacun de ces indices, et la prise en compte du pire cas obtenu, permet d'anticiper les pertes qui ont été observées peu après.
Le tableau ci-dessous montre les performances moyennes des fonds « monétaires dynamiques », tous considérés comme peu ou pas risqués par l'art antérieur, selon que l'invention les a identifiés comme risqués ou non.
Figure imgf000041_0001
Classes de risque
L'univers des paramètres directeurs SE peut être classifié en plusieurs sous-catégories SE1, i = 1...p. On peut alors distinguer le « risque » provenant de chacune de ces sous- catégories en effectuant le calcul qui précède sur chaque sous-ensemble SE, en n'incluant pas l'incertitude résiduelle Ej. On appellera le résultat obtenu la « Factor VaR attachée au risque de classe SE, ».
On peut ainsi estimer l'impact d'une variation abrupte qui interviendrait sur un ou plusieurs paramètres directeurs de cette classe. On considère par exemple une construction, soumise à des risques météorologiques, ainsi qu'à des risques sismiques, tout deux faisant l'objet de normes industrielles. Le dimensionnement des éléments de la construction sera effectué en fonction des contraintes maximales admissibles, selon un certain niveau de confiance. Pour cela, on détermine la « Factor VaR » sur l'ensemble des risques auxquels la construction est soumise. Si une contrainte technique est révisée dans l'une des normes (par exemple le vent maximal admissible), il y aura lieu de revoir le calcul de la « Factor VaR » attachée au risque de la classe SEi qui correspond à la norme révisée (par exemple le risque lié aux différents modes de vent).
Alternative « Variations/Niveaux » Dans ce qui précède, on considère implicitement que les paramètres directeurs représentent des grandeurs physiques mesurables. Et les fonctions-modèles donnent la valeur de l'agrégat.
Une variante travaille sur des variations. Dans ce cas, un paramètre directeur est calculé comme la variation d'une grandeur physique à une cadence déterminée (par exemple la cadence d'échantillonnage). Cette variation peut être un écart absolu, ou un écart relatif, en pourcentage par exemple.
De même, la fonction modèle va représenter les variations (absolues ou relatives) de la valeur de l'agrégat, que l'on ajoutera à la valeur courante, si nécessaire.
Des cas mixtes peuvent être utilisés :
les fonctions modèles représentent les variations des valeurs de l'agrégat, mais certains paramètres directeurs sont directement des grandeurs physiques alors que d'autres sont des variations de grandeurs.
- Les fonctions-modèles représentent les valeurs de l'agrégat elles-mêmes, et de nouveau, certains paramètres directeurs sont directement des grandeurs physiques alors que d'autres sont des variations de grandeurs.
Estimation de la p-valeur Un des points clé de l'invention est l'estimation de la p-valeur, qui détermine la sélection ou non des paramètres directeurs de l'agrégat. Nous donnons ici les principes de cette estimation et deux exemples de procédures algorithmiques amenant à cette estimation. La pertinence d'un paramètre directeur donné Yj peut être évaluée en comparant deux modèles :
L'un des modèles, appelé « hypothèse nulle », ne retient que les valeurs passées de l'agrégat pour « expliquer », c'est-à-dire anticiper ses valeurs futures, comme si le paramètre directeur Y1 n'avait aucune influence.
- L'autre modèle, dit « hypothèse alternative », inclut une forme générique de la fonction Fj, dont les coefficients seront à estimer.
Par définition, la « p-valeur » est la probabilité que, en supposant qu'on soit dans l'hypothèse nulle, on ait obtenu l'échantillon observé et, par voie de conséquence, estimé les coefficients de la fonction Fj selon l'hypothèse alternative et obtenu les valeurs trouvées. Le principe d'estimation de la p-valeur consiste donc à évaluer l'incertitude sur le vecteur de coefficients de Fj à supposer l'hypothèse nulle, puis à estimer la probabilité d'estimer un vecteur au moins aussi éloigné du vecteur nul (correspondant à l'hypothèse nulle) que celui empiriquement obtenu à partir de l'échantillon.
Selon une première variante, la p-valeur est estimée par le procédé de Fischer dit « F- test ». La statistique de Fischer liée à ce test, traditionnellement notée « F » mais que nous noterons ici FI pour éviter les confusions avec d'autres variables, existe dans toutes les version du logiciel Excel® de la société Microsoft, comme sortie optionnelle de la fonction « DroiteReg() » (créer une droite de régression). Son principe consiste en un traitement mathématique de la comparaison entre le « R2 » de la régression selon l'hypothèse nulle, que l'on peut noter R20 et celui que l'on obtient par l'hypothèse alternative, que l'on peut noter R2ait. La fonction qui transforme la statistique de Fischer FI en p-valeur PV existe aussi dans la logiciel Excel® sous le nom FDist() et fait intervenir, entre autres, le nombre de régresseurs et la taille de l'échantillon. Une formule explicite de la statistique de Fisher FI se trouve dans l'article :
http://en.wikipedia.org/wiki/F-test Hamilton (précité) suggère d'autres procédés : test de WaId, procédé du « log- vraisemblance », etc. Lutkepol, dans son ouvrage « Small sample econometrics », met en garde contre les biais d'estimation lorsque la taille de l'échantillon est limitée et propose divers correctifs, soit sous formes de formules mathématiques faisant intervenir les moments d'ordre supérieur des échantillons, soit de nombreuses tables empiriques, qui ont été établies à l'aide de simulations pseudo-aléatoires.
Madala, dans l'ouvrage « Cointegration », fait une étude très exhaustive de la littérature sur le sujet dans le cadre des « modèles à correction d'erreur » (en anglais « Error Correction Models » ou « ERM »), connus aussi sous de nom de « co-intégration ». Cependant, toutes ces approches se placent dans le cadre d'une régression linéaire multi- variée sur les valeurs ou bien les variations de valeurs de l'agrégat et des paramètres directeurs, voire des modèles mixtes mélangeant valeurs et variations dans le cas de la co-intégration. Or on a vu que la non linéarité peut être une caractéristique importante de l'invention pour prendre en compte correctement le risque des situations extrêmes.
La Demanderesse propose une approche différente et innovante dans ce cadre, bien que connue dans d'autres cadres sous le nom de « bootstrap ». Selon cette variante, afin d'estimer l'incertitude du modèle calibré lorsqu'on est dans l'hypothèse nulle, mais tout en conservant les propriétés statistiques de l'échantillon de l'agrégat et du paramètre directeur, on tire aléatoirement une « permutation » gm, m = X ...M des indices temporels k de l'historique des h. Selon une seconde variante, on génère M échantillons pseudo-aléatoires de dates gm(k), k = 0...F (dans le cas de valeurs) ou k = 1...F (dans le cas de variations), et m = X ...M (ces échantillons peuvent être soumis ou non à des contraintes du type : gm(k)≠ gm(k') pour k≠ k\ ou encore gm(k)≠ k, ou même imposer une différence minimale en fonction de l'effet retard toléré par le modèle). Pour chaque tirage m, on remplace les séries temporelles de régresseurs spécifiques de l'hypothèse alternative Y
Figure imgf000045_0002
par et on
Figure imgf000045_0003
obtient ainsi une valeur R2m et une statistique de Fischer FIm. A partir de cet échantillon de valeurs, on estime, de manière paramétrique ou purement empirique, une distribution de probabilité sur la demi-droite réelle et on calcule la probabilité de dépasser la valeur Flalt calculée à partir du R20 de l'hypothèse nulle et du R2alt de l'hypothèse alternative (avec dates non randomisées). Cette probabilité sera notre estimation de la p- valeur PVj. Selon une sous- variante, les « tirages » d'indices gm ne sont pas pseudo-aléatoires, c'est- à-dire n'utilisent pas un générateur informatique de nombres aléatoires, mais sont obtenus par un algorithme déterministe et répétable à l'identique, par exemple celui décrit par la formule suivante :
Figure imgf000045_0001
où am décrit un sous-ensemble de l'ensemble des nombres entiers premiers au nombre F de dates dans l'échantillon et bm un sous-ensemble de l'ensemble {0,...,F-l} dont la taille dépend du nombre de tirages M souhaité. D'autres algorithmes déterministes sont possibles, en particulier pour tenir compte des contraintes imposées aux tirages d'indices
Cette sous- variante, que l'on peut qualifier de « bootstrap déterministe » permet de comparer les p-valeurs des différents paramètres directeurs sans que cette comparaison comporte un élément aléatoire. Elle est plus fiable que le fait de spécifier une « graine » commune aux différents tirages pseudo-aléatoires.
Dans la description détaillée ci-dessus, on a parlé pour simplifier de "valeur" pour un élément du monde réel, ainsi que pour un agrégat de tels éléments. Il s'agit plus généralement de la valeur d'une grandeur intensive qui caractérise l'élément. En principe, les éléments d'un agrégat donné ont des valeurs respectives qui portent sur la même grandeur intensive. De façon plus générale, notamment dans les revendications ci-après, on appellera "grandeur" toute valeur mesurable relative à un élément physique du monde réel. Par "élément physique du monde réel", on entend tout élément présent dans le monde réel, qu'il soit matériel ou immatériel. De même, un agrégat est un ensemble d'éléments du monde réel, matériel ou immatériel. Un élément peut être créé par la nature ou par l'homme, pourvu que son évolution ne soit pas entièrement contrôlée par l'homme.
L'invention ne se limite pas aux exemples de dispositif décrits ci-avant, seulement à titre d'illustration.
La présente invention peut également être exprimée sous forme de procédés, notamment en référence aux opérations définies dans la description et/ou qui apparaissent dans les dessins annexés. Elle peut aussi être exprimée sous forme de programmes d'ordinateur, capables, en coopération avec un ou plusieurs processeurs, de mettre en œuvre lesdits procédés et/ou de faire partie des dispositifs de simulation décrits pour les animer.
Figure imgf000047_0001
Figure imgf000048_0001

Claims

Revendications
1. Dispositif informatique de simulation d'un agrégat évolutif du monde réel, comprenant :
- une mémoire (1000), pour stocker
• des données de base, relatives à l'historique d'éléments du monde réel, ces données de base comprenant des structures de données (Datai ; Data2), propres, pour un élément donné du monde réel, à établir un identifiant-élément, ainsi qu'une suite de grandeurs- élément associées à des dates-élément respectives, ainsi que
• des données d'agrégat, où chaque agrégat (A) est défini par des groupes d'identifiants-élément (Data3), chaque groupe étant associé à une date-groupe, tandis qu'une grandeur-agrégat peut être tirée des grandeurs-éléments qui correspondent aux identifiants-élément du groupe, à chaque date-groupe, et
- un générateur de simulation (2100), agencé pour établir un modèle informatique relatif à un agrégat,
caractérisé en ce que, pour un agrégat donné (A), le générateur de simulation (2100) est agencé pour faire correspondre des fonctions particulières (Fj) à des paramètres directeurs respectifs (Yj), sélectionnés pour l'agrégat concerné (A), chaque fonction particulière résultant de l'ajustement de l'historique de la grandeur-agrégat par rapport à l'historique de son paramètre directeur respectif, à un résidu près (ReSj), l'ajustement étant assorti d'un score de qualité (PVj), et
en ce que le modèle (2700) relatif à l'agrégat (A) comprend une collection de modèles mono-factoriels, laquelle collection est définie par une liste des paramètres directeurs (Yj), une liste des fonctions particulières (Fj) qui leur sont associées, avec leurs scores de qualité (PVj) respectifs.
2. Dispositif selon la revendication 1, caractérisé en ce que le générateur de simulation (2100) comprend :
- un sélectionneur (2150), capable, sur désignation d'un agrégat (A), de parcourir un ensemble (SE) des éléments du monde réel définis dans les données de base, pour y sélectionner des paramètres directeurs (Yj) en fonction d'une condition de sélection, cette condition de sélection comprenant le fait qu'un critère d'influence du paramètre directeur sur l'agrégat (A) représente une influence qui dépasse un seuil minimal, et - un calibreur (2120), agencé pour faire correspondre des fonctions particulières respectives (Fj) à chacun des paramètres directeurs sélectionnés (Yj), chaque fonction particulière résultant de l'ajustement de l'historique de la grandeur-agrégat par rapport à l'historique du paramètre directeur concerné, à un résidu près (ReSj), l'ajustement étant assorti d'un score de qualité (PVj).
3. Dispositif selon la revendication 2, caractérisé en ce que le sélectionneur (2150) opère en interaction avec le calibreur (2120), afin de réaliser l'ajustement des fonctions particulières sur ledit ensemble (SE) des éléments du monde réel, pour sélectionner ensuite les paramètres directeurs (Yj) en fonction de ladite condition de sélection, tandis que cette même condition de sélection comprend le fait que ledit score de qualité obtenu lors de l'ajustement représente une influence qui dépasse un seuil minimal.
4. Dispositif selon l'une des revendications 2 et 3, caractérisé en ce que le calibreur (2120) opère pour établir lesdites fonctions particulières à partir d'un jeu d'expressions de fonctions génériques à coefficients inconnus (2160).
5. Dispositif selon la revendication 4, caractérisé en ce que le jeu d'expressions de fonctions génériques à coefficients inconnus (2160) comprend des expressions de fonctions génériques non linéaires.
6. Dispositif selon l'une des revendications précédentes, caractérisé en ce qu'il comporte en outre un constructeur d'états simulés du monde réel (3200), ainsi qu'un moteur (3800) agencé pour appliquer la collection de modèles relative à l'agrégat (2700) auxdits états simulés du monde réel, afin de déterminer au moins une grandeur de sortie relative à un état simulé (3900) de l'agrégat (A), en fonction d'une condition de sortie.
7. Dispositif la revendication 6, caractérisé en ce que la condition de sortie est choisie pour former une mesure de risque.
8. Dispositif selon l'une des revendications 6 et 7, caractérisé en ce que le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer une gamme de valeurs possibles pour chaque paramètre directeur (Yj), en ce que le moteur (3800) est agencé pour calculer les transformés de chaque valeur possible de chaque gamme associée à un paramètre directeur (Yj), à chaque fois à l'aide de la fonction particulière (Fj) correspondant au paramètre directeur (Yj) concerné, tandis que ladite grandeur de sortie relative à un état simulé (3900) de l'agrégat (A) est déterminée par analyse de l'ensemble des transformés, en fonction de ladite condition de sortie.
9. Dispositif selon la revendication 8, caractérisé en ce que le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer, pour chaque paramètre directeur (Yj), une gamme de valeurs possibles qui couvre l'intervalle de confiance du paramètre directeur (Yj) considéré, en ce que le moteur (3800) est agencé pour calculer les transformés de chaque valeur possible de chaque gamme associée à un paramètre directeur (Yj), à chaque fois à l'aide de la fonction particulière (Fj) correspondant au paramètre directeur (Yj) concerné, afin d'en tirer à chaque fois un intervalle de confiance de l'agrégat (A) au vu du paramètre directeur (Yj) concerné, et en ce que ladite condition de sortie comprend une condition d'extrémité, appliquée à l'ensemble des intervalles de confiance de l'agrégat (A) pour les différents paramètres directeurs (Yj).
10. Dispositif selon la revendication 8, caractérisé en ce que le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer, pour chaque paramètre directeur (Yj), une gamme de valeurs possibles établie de façon pseudo-aléatoire à partir de la distribution jointe des paramètres directeurs (Yj), en ce que le moteur (3800) est agencé pour calculer les transformés de chaque valeur possible de chaque gamme associée à un paramètre directeur (Yj), à chaque fois à l'aide de la fonction particulière (Fj) correspondant au paramètre directeur (Yj) concerné, et en ce que la condition de sortie est tirée d'une condition de simulation extrême appliquée à l'ensemble des transformés.
11. Dispositif selon l'une des revendications 6 à 10, caractérisé en ce que le moteur (3800) est agencé pour établir d'abord un modèle joint multifactoriel de l'agrégat (A), à partir de la collection (2700) de modèles mono-factoriels relative à l'agrégat (A), et de la distribution jointe (2700) des paramètres directeurs (Yj) de l'agrégat (A), et pour travailler ensuite sur ledit modèle joint.
12. Dispositif selon la revendication 11, caractérisé en ce que le constructeur d'états simulés du monde réel (3200) est agencé pour engendrer une expression de condition de stress pour chaque paramètre directeur (Yj), et en ce que le moteur (3800) est agencé pour établir d'abord la distribution jointe (2700) conditionnellement à ladite expression de condition de stress pour les paramètres directeurs (Yj) de l'agrégat (A), puis pour établir un modèle joint multifactoriel de l'agrégat (A), à partir de la collection (2700) de modèles mono-factoriels relative à l'agrégat (A), et de ladite distribution jointe conditionnelle (2700) des paramètres directeurs (Yj) de l'agrégat, et pour travailler ensuite sur ce modèle joint.
13. Dispositif selon l'une des revendications précédentes, caractérisé en ce que le générateur de simulation (2100) est agencé pour établir un score de qualité (PVj) par le procédé dit "F-Test".
14. Dispositif selon l'une des revendications précédentes, caractérisé en ce que le générateur de simulation (2100) est agencé pour établir un score de qualité (PVj) par le procédé dit "bootstrap".
15. Dispositif selon l'une des revendications précédentes, caractérisé en ce que le générateur de simulation (2100) est agencé pour établir un score de qualité (PVj) par le procédé dit "bootstrap déterministe".
16. Dispositif selon l'une des revendications précédentes, caractérisé en ce que certains au moins des paramètres directeurs (Yj) sont pris en compte par leurs variations dans la fonction particulière (Fj) associée.
17. Dispositif selon l'une des revendications précédentes, caractérisé en ce que certaines au moins des fonctions particulières (Fj) expriment la variation de la grandeur-agrégat.
18. Dispositif selon l'une des revendications précédentes, caractérisé en ce que le générateur de simulation (2100) est agencé pour sélectionner les paramètres directeurs
(Yj) en se limitant à une tranche historique récente disponible pour l'agrégat (A), mais pour appliquer la fonction particulière associée (Fj) à une distribution future la plus probable des paramètres directeurs, en fonction de l'historique complet de ceux-ci.
19. Dispositif selon l'une des revendications précédentes, caractérisé en ce que le générateur de simulation (2100) est agencé pour permettre de spécifier un ou plusieurs identifiants-éléments parmi les données de base (Datai), ainsi que des valeurs de stress pour ces éléments, puis d'estimer la distribution future la plus probable des paramètres directeurs (Yj), conditionnellement à ces valeurs de stress, en surpondérant les dates historiques en fonction de la proximité des grandeurs-éléments ou de leurs variations avec les valeurs de stress spécifiées.
PCT/FR2010/000506 2009-07-15 2010-07-13 Simulation d'un agrégat évolutif du monde réel, notamment pour gestion de risque WO2011007058A1 (fr)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/384,093 US20130035909A1 (en) 2009-07-15 2010-07-13 Simulation of real world evolutive aggregate, in particular for risk management
EP10736757A EP2454714A1 (fr) 2009-07-15 2010-07-13 Simulation d'un agrégat évolutif du monde réel, notamment pour gestion de risque

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
FR0903456A FR2948209A1 (fr) 2009-07-15 2009-07-15 Simulation d'un agregat evolutif du monde reel, notamment pour gestion de risque
FR0903456 2009-07-15

Publications (1)

Publication Number Publication Date
WO2011007058A1 true WO2011007058A1 (fr) 2011-01-20

Family

ID=42198409

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/FR2010/000506 WO2011007058A1 (fr) 2009-07-15 2010-07-13 Simulation d'un agrégat évolutif du monde réel, notamment pour gestion de risque

Country Status (4)

Country Link
US (1) US20130035909A1 (fr)
EP (1) EP2454714A1 (fr)
FR (1) FR2948209A1 (fr)
WO (1) WO2011007058A1 (fr)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111539118A (zh) * 2020-04-29 2020-08-14 昆明昆船物流信息产业有限公司 一种环行穿梭车系统的仿真计算方法及计算机程序产品

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5725547B2 (ja) * 2011-03-29 2015-05-27 日本電気株式会社 リスク管理装置
KR102033999B1 (ko) * 2012-12-21 2019-10-21 삼성전자주식회사 컨텐트 중심 네트워크에서의 통신 방법 및 장치
KR101540631B1 (ko) * 2012-12-28 2015-07-30 삼성에스디에스 주식회사 가상 클러스터의 동적 확장 시스템, 방법 및 그 프로그램이 저장된 기록매체
US9396160B1 (en) * 2013-02-28 2016-07-19 Amazon Technologies, Inc. Automated test generation service
US9444717B1 (en) * 2013-02-28 2016-09-13 Amazon Technologies, Inc. Test generation service
US9436725B1 (en) * 2013-02-28 2016-09-06 Amazon Technologies, Inc. Live data center test framework
US20140278733A1 (en) * 2013-03-15 2014-09-18 Navin Sabharwal Risk management methods and systems for enterprise processes
US9569205B1 (en) * 2013-06-10 2017-02-14 Symantec Corporation Systems and methods for remotely configuring applications
WO2015065383A1 (fr) * 2013-10-30 2015-05-07 Intel Corporation Traitement de messages à l'aide de critères de thème et de modalité
US10057325B2 (en) * 2014-03-31 2018-08-21 Nuvestack, Inc. Remote desktop infrastructure
US9953053B2 (en) 2014-12-18 2018-04-24 International Business Machines Corporation Reliability improvement of distributed transaction processing optimizations based on connection status
US9671776B1 (en) * 2015-08-20 2017-06-06 Palantir Technologies Inc. Quantifying, tracking, and anticipating risk at a manufacturing facility, taking deviation type and staffing conditions into account
US11222034B2 (en) * 2015-09-15 2022-01-11 Gamesys Ltd. Systems and methods for long-term data storage

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001086473A2 (fr) * 2000-05-11 2001-11-15 Kovalenko, Ivan Procede de simulation stochastique centralisee
US20030135448A1 (en) * 2002-01-10 2003-07-17 Scott Aguias System and methods for valuing and managing the risk of credit instrument portfolios

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7440916B2 (en) * 2001-06-29 2008-10-21 Goldman Sachs & Co. Method and system for simulating implied volatility surfaces for basket option pricing
US7228290B2 (en) * 2001-06-29 2007-06-05 Goldman Sachs & Co. Method and system for simulating risk factors in parametric models using risk neutral historical bootstrapping
US7937313B2 (en) * 2001-06-29 2011-05-03 Goldman Sachs & Co. Method and system for stress testing simulations of the behavior of financial instruments
US7149715B2 (en) * 2001-06-29 2006-12-12 Goldman Sachs & Co. Method and system for simulating implied volatility surfaces for use in option pricing simulations
CA2367091A1 (fr) * 2002-01-10 2003-07-10 Algorithmics International Corp. Systeme et methodes d'evaluation et de gestion du risque des portefeuilles d'instruments de credit
US20070055619A1 (en) * 2005-08-26 2007-03-08 Sas Institute Inc. Systems and methods for analyzing disparate treatment in financial transactions
US20070208600A1 (en) * 2006-03-01 2007-09-06 Babus Steven A Method and apparatus for pre-emptive operational risk management and risk discovery
US8548884B2 (en) * 2007-10-24 2013-10-01 Barclays Capital Inc. Systems and methods for portfolio analysis
US8521631B2 (en) * 2008-05-29 2013-08-27 Sas Institute Inc. Computer-implemented systems and methods for loan evaluation using a credit assessment framework

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001086473A2 (fr) * 2000-05-11 2001-11-15 Kovalenko, Ivan Procede de simulation stochastique centralisee
US20030135448A1 (en) * 2002-01-10 2003-07-17 Scott Aguias System and methods for valuing and managing the risk of credit instrument portfolios

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHERNY A ET AL: "On measuring risk with scarce observations", 27 March 2008 (2008-03-27), XP002584982, Retrieved from the Internet <URL:http://ssrn.com/abstract=1113730> [retrieved on 20100531] *
P. ARTZNER, COHERENT RISK MEASURES » MATHEMATICAL FINANCE, vol. 9, no. 3, 1999, pages 203 - 228

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111539118A (zh) * 2020-04-29 2020-08-14 昆明昆船物流信息产业有限公司 一种环行穿梭车系统的仿真计算方法及计算机程序产品

Also Published As

Publication number Publication date
EP2454714A1 (fr) 2012-05-23
FR2948209A1 (fr) 2011-01-21
US20130035909A1 (en) 2013-02-07

Similar Documents

Publication Publication Date Title
WO2011007058A1 (fr) Simulation d&#39;un agrégat évolutif du monde réel, notamment pour gestion de risque
Derdenger et al. The dynamic effects of bundling as a product strategy
CN108475393A (zh) 通过合成特征和梯度提升决策树进行预测的系统和方法
US20140122370A1 (en) Systems and methods for model selection
Orlando et al. Forecasting interest rates through Vasicek and CIR models: A partitioning approach
CN111352962B (zh) 客户画像构建方法及装置
De Silva et al. The vector innovations structural time series framework: a simple approach to multivariate forecasting
US20170364825A1 (en) Adaptive augmented decision engine
WO2019112993A1 (fr) Système et procédé de prédiction de valeur sur la durée de vie au niveau de l&#39;utilisateur
US11734606B2 (en) Method for predicting operational effectiveness
Kaeck et al. Stochastic Volatility Jump‐Diffusions for European Equity Index Dynamics
Sheng et al. Truncated product methods for panel unit root tests
Di Mari et al. Clusterwise linear regression modeling with soft scale constraints
US20110238490A1 (en) Auction flighting
WO2013067247A1 (fr) Génération d&#39;agent pour systèmes de modélisation en mode agent
Burnicki et al. Propagating error in land-cover-change analyses: impact of temporal dependence under increased thematic complexity
Aggrawal et al. Modelling successive generations for products-in-use and number of products sold in the market
Tesser et al. Selecting efficient VM types to train deep learning models on Amazon SageMaker
Lyhagen et al. Beating the var: Improving swedish gdp forecasts using error and intercept corrections
US20130110479A1 (en) Auto-Calibration for Agent-Based Purchase Modeling Systems
US20160300308A1 (en) Systems and methods for retirement planning
EP1688872A2 (fr) Outil informatique de prévision
Stark et al. Response to Coomes & Allen (2009)‘Testing the metabolic scaling theory of tree growth’
Dryver et al. Validating risk models with a focus on credit scoring models
CN103544371A (zh) 评估模型稳定性和拟合度的方法和装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10736757

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2010736757

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13384093

Country of ref document: US