WO2005024717A1 - System und verfahren zur automatisierten erfahrungstarifierung und/oder schadensreservierung - Google Patents

System und verfahren zur automatisierten erfahrungstarifierung und/oder schadensreservierung Download PDF

Info

Publication number
WO2005024717A1
WO2005024717A1 PCT/CH2003/000612 CH0300612W WO2005024717A1 WO 2005024717 A1 WO2005024717 A1 WO 2005024717A1 CH 0300612 W CH0300612 W CH 0300612W WO 2005024717 A1 WO2005024717 A1 WO 2005024717A1
Authority
WO
WIPO (PCT)
Prior art keywords
development
values
neural network
time interval
events
Prior art date
Application number
PCT/CH2003/000612
Other languages
English (en)
French (fr)
Inventor
Frank Cuypers
Original Assignee
Swiss Reinsurance Company
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Swiss Reinsurance Company filed Critical Swiss Reinsurance Company
Priority to AU2003257361A priority Critical patent/AU2003257361A1/en
Priority to CA002504810A priority patent/CA2504810A1/en
Priority to EP03817702A priority patent/EP1530780A1/de
Priority to PCT/CH2003/000612 priority patent/WO2005024717A1/de
Priority to US10/531,459 priority patent/US20060015373A1/en
Priority to CNA038245515A priority patent/CN1689036A/zh
Priority to JP2005508663A priority patent/JP2006522376A/ja
Publication of WO2005024717A1 publication Critical patent/WO2005024717A1/de

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Definitions

  • the invention relates in particular to a computer program product for performing this method.
  • Experience classification refers to the state of the art
  • Time intervals The event values of the same event show a dependent time-related development over the different development years or development time intervals.
  • the experience rating of the values takes place by extrapolation or comparison with the development of values of known similar events in the past.
  • a typical example in the state of the art is the multi-year experience rating based on damage claims, for example the payment status Z or the reserve balance R of a loss case with insurance companies or reinsurers.
  • an insurance company knows the development of each individual damage case from the time of the damage report up to the current status or up to the regulation.
  • the classic credibility formula was founded about 30 years ago using a stochastic model; Since then, numerous variants of the model have been developed, so that today one can speak of an actual credibility theory.
  • the main problem with the application of credibility formulas are the unknown parameters are determined by the structure of the stock.
  • the actuary or actuary knows bounds for the parameters and determines the optimal premium for the worst case.
  • Credibility theory also includes a number of models for reserving late claims. There are a variety of reservation procedures that, unlike the credibility formula, do not depend on unknown parameters.
  • the prior art includes methods using stochastic models that describe the generation of the data. A number of results are available especially for the chain ladder method as one of the best known methods for calculating outstanding payment claims or for extrapolating claims.
  • the strengths of the chain ladder process are, on the one hand, its simplicity, on the other hand, that the process is almost distribution-free, ie the process is based on almost no assumptions.
  • Distribution-free or non-parametric methods are particularly suitable for cases in which the user can only provide insufficient or no information about the expected distribution (eg Gaussian distribution, etc.) of the parameters to be developed.
  • an event Pj f consists of a sequence of points from which the first K + 1 - i points are known and the still unknown points (Pj, ⁇ + 2-i, f, ⁇ • ⁇ , Pi, ⁇ , f) are to be forecast.
  • the values of the events Pj f form a so-called damage triangle or more generally an event value triangle
  • the rows and columns are formed by the years of loss and the settlement years. Expressed in general terms, the rows contain, for example, the initial years and the columns the years of development of the events examined, although the presentation can also be different.
  • the chain ladder procedure is now based on the cumulative damage triangles, the entries Cy of which are, for example, either pure damage payments or damage expenses (damage payments plus change in damage reserves). The same applies to the cumulative matrix elements Cy
  • the individual event can also be inferred from the cumulative values interpolated using the chain ladder method, in that a specific distribution, for example typically a Pareto distribution, is adopted for the values.
  • the Pareto distribution is particularly suitable for types of insurance such as insurance for large claims or reinsurers etc.
  • T is a threshold
  • is the fit parameter.
  • the simplicity of the chain ladder process lies in the fact that it does not need more than the above damage triangle (cumulated over the development values of the individual events) and, for example, no information about registration data, reservation processing or assumptions about possible damage amount distributions etc.
  • Damage frequencies are to be attributed, since the estimators of the chain ladder method correspond to the maximum likelihood estimators of a model by means of a modified Poisson distribution. Caution is therefore advisable, for example, for years in which changes to the distribution of damage amounts (eg an increase in the maximum amount of liability or changes in the deductible) are made, since these changes can lead to broken structures in the chain ladder process.
  • changes to the distribution of damage amounts eg an increase in the maximum amount of liability or changes in the deductible
  • the use of the chain ladder method also leads to useful results in many cases, although information such as a reliable estimate of the final loss rate is rarely available due to the long processing time.
  • the main disadvantage of the chain ladder process is that the chain ladder process is based on the cumulative damage triangle, i.e.
  • the IBNER reserve is particularly useful for classifying the experience of loss reinsurance reinsurance contracts, where the reinsurer generally receives the necessary individual loss data at least for the relevant major claims.
  • the development of a portfolio of risks over time describes a risk process in which claims numbers and amounts are modeled, which leads to the phenomenon of accidental dilution of the risk process in loss excess reinsurance during the transition from primary to reinsurer; on the other hand, reinsurance brings together holdings from several primary insurers, thereby overlaying risk processes.
  • the effects of dilution and overlay have so far been examined primarily for Poisson's risk processes.
  • ITiaX d P .. f , P.
  • (Maximum distance) l ⁇ j ⁇ K + 1-i UJ J or (current distance) is minimal.
  • the current distance is normally used. This means that for a damage (P ⁇ , ..., P k ), the processing of which is known until the kth year of development, of all other damages (i 5 ⁇ , ..., i 3 J ), the development of which is at least until year of development j> k + 1 is known, the one for which the current distance d (P k , P k ) is smallest is considered the most similar.
  • Neural networks are fundamentally known in the prior art and are used, for example, to solve optimization tasks, image recognition (pattern recovery), in artificial intelligence, etc.
  • a neural network consists of a large number of network nodes, so-called neurons, which are interconnected via weighted connections (synapses). The neurons are organized and interconnected in network layers. The individual neurons are activated depending on their input signals and generate a corresponding output signal. The activation of a neuron takes place via an individual weighting factor through the summation via the input signals.
  • Such neural networks are capable of learning by systematically changing the weighting factors as a function of predetermined exemplary input and output values until the neural network shows a desired behavior in a defined, predictable error range, such as e.g. B.
  • Neural networks thus have adaptive skills for learning and storing knowledge and associative skills for comparing new information with stored knowledge.
  • the neurons can assume an idle state or an excited state.
  • Each neuron has several inputs and exactly one output, which is connected to the inputs of other neurons of the subsequent network layer or represents a corresponding output value in the case of an output node.
  • a neuron changes to the excitation state when a sufficient number of the inputs of the neuron are excited above a certain threshold value of the neuron, ie if the summation above the inputs reaches a certain threshold value.
  • Knowledge is stored in the weights of the inputs of a neuron and in the threshold value of the neuron by adaptation.
  • the weights of a neural network are trained by means of a learning process (see, for example, G. Cybenko, "Approximation by Superpositions of a sigmoidal function", Math. Control, Sig. Syst., 2, 1989, pp 303-314; MT Hagan, MB Menjaj, "Training Feedforward Networks with the Marquardt Algorithm", IEEE Transactions on Neural Networks, Vol. 5, No. 6, pp 989-993, November 1994; K. Hornik, M. Stinchcombe, H. White, "Multilayer Feedforward Networks are universal Approximators ", Neural Networks, 2, 989, pp 359-366 etc.).
  • an automated, simple and rational method is to be proposed in order to further develop a given damage with an individual increase or factor, so that subsequently all the information about the development of a single damage is available.
  • as few as possible assumptions about the distribution should be made from the outset and at the same time the maximum possible information of the given cases should be used.
  • ⁇ , P ⁇ , ⁇ , f at least one neural network is used.
  • the start time interval can be assigned to a start year and the development intervals can be assigned to development years.
  • the development values Pj kf of the various events Pj , f can be standardized according to their starting time interval using at least one standardization factor.
  • the standardization of the development values Pj kf has the advantage, among other things, that the development values are comparable at different times.
  • This embodiment variant has the further advantage, among other things, that no model assumptions, for example via value distributions, system dynamics, etc., have to be assumed for automated experience classification. In particular, the experience rating is free from proxy prerequisites such as the Euclidean measure etc. This is not possible with the prior art.
  • the entire information of the data sample is used without the data records being accumulated. The complete information about the individual events remains in each stage received and can be retrieved at the end.
  • the advantage of standardization is that data records with different initial time intervals receive comparable orders of magnitude and can therefore be compared better.
  • This embodiment variant has the advantage, among other things, that, as in the previous embodiment variant, the entire information of the data sample is used without the data records being accumulated. The complete information about the individual events is retained in each stage and can be called up again at the end.
  • the networks can be further optimized by minimizing a globally introduced error.
  • the neural networks Nj j are trained identically for the same development years and / or development intervals j , the neural network being used for an initial time interval and / or initial year i + 1 is generated and all other neural networks Nj + ⁇ , j ⁇ j are taken from earlier start time intervals and / or start years.
  • This embodiment variant has the advantage, among other things, that only known data are used to classify experience and certain data are no longer used by the system, thereby preventing the correlation of the errors or the data.
  • f with an initial time interval i ⁇ 1 are additionally used for the determination, all development values Pj ⁇ , k , f being known for the events Pj ⁇ 1 , f.
  • This embodiment variant has the advantage, among other things, that the additional data sets enable the neural networks to be better optimized and their error to be minimized.
  • a system comprises neural networks Nj, each with an input layer with at least one input segment and an output layer, which input and output layer comprises a multiplicity of neurons which are weightedly connected to one another, the neural networks Nj using a computing unit software and / or can be generated iteratively in terms of hardware, a neural network N i + ⁇ recursively depending on the neural network Nj and each network Nj + i each comprising one input segment more than the network Nj, each neural network Nj starting with the neural network Ni by means of a minimization module by minimization of a locally propagated error can be trained, and the recursive system of neural networks using a minimization module by minimizing a globally propagated one Error based on the local errors of the neural networks Nj is trainable.
  • This embodiment variant has the advantage, among other things, that the recursively generated neural networks can be additionally optimized by means of the global error. Among other things, it is the combination of the recursive generation of the neural network structure with a double minimization by means of locally propagated errors and globally propagated errors, which gives the advantages of this embodiment variant.
  • the output layer of the neural network Nj is associated with at least one input segment of the input layer of the neural network Nj + i.
  • Design variant has among other things the advantage that the system of neural networks can in turn be understood as a neural network. In this way, subnetworks of an entire network can be weighted locally and their behavior can also be checked and monitored in the case of global learning by means of the corresponding data sets. Until now, this was not possible in the prior art.
  • the present invention also relates to a system for carrying out this method. Furthermore, it is not limited to the system and method mentioned, but also relates to recursively nested systems of neural networks and a computer program product for implementing the method according to the invention.
  • Figure 1 shows a block diagram which schematically shows the training or. Determination phase or presentation phase of a neural network for determining the event value P 2
  • 5 , f of an event Pf in an upper 5x5 matrix, ie at K 5.
  • the dashed line T gives the training phase and the solid line R the determination phase after learning.
  • FIG. 2 also shows a block diagram which, like FIG. 1, schematically shows the training or determination phase of a neural network for determining the event value P ⁇ for the third year of the beginning.
  • FIG. 3 shows a block diagram which, like FIG. 1, schematically shows the training or determination phase of a neural network for determining the event value P 3 , 5 , f for the third year.
  • Figure 4 shows a block diagram which schematically shows only the
  • Training phase for determining P 3 ⁇ 4 , f and P 3 , 5 , f shows, the calculated values P 3 ⁇ 4 ⁇ f being used to train the network for determining P3, 5 , f .
  • FIG. 5 shows a block diagram which schematically shows the recursive generation of neural networks for determining the values in line 3 of a 5 ⁇ 5 matrix, 2 networks being generated.
  • FIG. 6 shows a block diagram which schematically shows the recursive generation of neural networks for determining the values in line 5 of a 5 ⁇ 5 matrix, 4 networks being generated.
  • FIG. 7 shows a block diagram, which likewise schematically shows a system according to the invention, the training basis being restricted to the known event values Ay.
  • FIG. 1 to 7 schematically illustrate an architecture that can be used to implement the invention.
  • a specific event Pj, f of an initial year i includes development values Pjkf for automated experience classification of events and / or damage reservation.
  • the development value Pj kf (Z ikf , Rj kf , ...) is an arbitrary vector and / or n-tuple of development parameters j kf , Ri kf . • ⁇ • which should be developed for an event.
  • Pj kf Zj kf can be the payment status, Rj kf the reserve status, etc. Any other relevant parameters for an event can be envisaged without affecting the scope of the invention.
  • Pi kf is therefore an n-tuple consisting of the sequence of points and / or matrix elements
  • Block matrix will.
  • Pj kf is a sequence of points
  • Pi, ⁇ , f (Zi, ⁇ + 2-i, f, Ri, ⁇ + 2-i, f), -, (Zi, ⁇ , f, R ⁇ , ⁇ , f) includes the system and / or method at least one neural network.
  • neural networks For example, conventional static and / or dynamic neural networks, such as feedforward (heteroassociative) networks such as a perceptron or a multi-layer perceptron (MLP) can be selected, but other network structures, such as recurrent network structures, are also conceivable.
  • feedforward networks such as a perceptron or a multi-layer perceptron (MLP) can be selected, but other network structures, such as recurrent network structures, are also conceivable.
  • the different network structure of the feedforward networks in contrast to networks with feedback (recurrent networks) determines the way in which information is processed by the network.
  • MLP multi-layer perceptrons
  • An MLP consists of several neuron layers with at least one input layer and one output layer.
  • the structure is strictly forward-looking and belongs to the group of feed-forward networks.
  • neural networks map an m-dimensional input signal to an n-dimensional output signal.
  • the information to be processed is taken up by a layer with input neurons, the input layer, in the feed forward network considered here.
  • the input neurons process the input signals and pass them on via weighted connections, so-called synapses, to one or more hidden neuron layers, the hidden layers.
  • the signal is also transmitted from the hidden layers to neurons of an output layer by means of weighted synapses, which in turn generate the output signal of the neural network.
  • each neuron in a particular layer is connected to all neurons in the subsequent layer.
  • the simplest way is to determine the ideal network structure empirically. It should be noted that if the number of neurons selected is too large, the network has a purely imaging function instead of learning, while if the number of neurons is too small, the parameters shown are correlated. In other words, if the number of neurons is chosen too small, the function may not be shown.
  • the matter is allowed to cool so slowly that the molecules still have enough energy to jump out of a local minimum.
  • the variable T is introduced in a slightly modified error function. Ideally, this converges to a global minimum.
  • neural networks with at least a three-layer structure have proven to be useful for the application of experience classification. This means that the networks include at least one input layer, one hidden layer and one output layer. The three processing steps of propagation, activation and output take place within each neuron. The output of the i-th neuron of the k-th layer results
  • Ni becomes the number of neurons in the layer k-1.
  • w is referred to as weight and b as bias (threshold value).
  • the bias b can be selected to be the same or different for all neurons of a specific layer.
  • a log-sigmoidal function for example, can be selected as the activation function
  • the activation function (or transfer function) is used in every neuron. Other activation functions such as tangential functions etc., however, are also possible according to the invention. With the back propagation method, however, it must be ensured that a differentiable activation function, such as a sigmoid function, as this is a prerequisite for the method. Ie, for example, binary activation function such as
  • the set of training patterns (index ⁇ ) consists of the input signal
  • the training patterns also include the known events Pj ⁇ f the known development values Pj kf for all k, f and i.
  • the development values of the events to be extrapolated can of course not be used for training the neural networks, since the corresponding output value is missing for them.
  • the initialization of the weights of the hidden layers, in this exemplary embodiment thus of the neurons can be carried out, for example with a log-sigmoid activation function, for example according to Nguyen-Widrow (D. Nguyen, B.
  • the task of the training method is to determine the synapse weights Wj j and Determine the bias bj j within the weighting matrix W or the bias matrix B in such a way that the input patterns Y ⁇ are mapped to the corresponding output patterns U ⁇ .
  • the absolute quadratic error can be used to assess the learning stage be used.
  • the error Err takes into account all the patterns P ikf of the training base, in which the effective output signals U ⁇ ff show the target reactions U “specified in the training base.
  • the back propagation method should be selected as the learning method.
  • the back propagation method is a recursive method for optimizing the weight factors w, j.
  • an input pattern Y ⁇ is selected at random and propagated through the network (forward propagation).
  • the error generated by the network-generated output signal with the target reaction U ⁇ “specified in the training base is converted to the error Err ⁇ presented input patterns determined.
  • the changes in the individual weights w after the presentation of the ⁇ th training pattern are proportional to the negative partial derivation of the error Err ⁇ according to the weight wy (so-called gradient descent method)
  • the adaptation rules for the elements of the weighting matrix known as back propagation rule for the presentation of the ⁇ th training pattern can be derived from the partial derivation.
  • ⁇ ⁇ f ⁇ ⁇ (u ⁇ - ue ⁇ ff ) for the output layer or for the hidden layers.
  • the error starts with the
  • the proportionality factor s is called the learning factor.
  • the training phase a limited number of training patterns are presented to a neural network, which characterize the mapping to be learned with sufficient accuracy.
  • the training patterns can include all known events Pj, f with the known development values Pj kf for all k, f and i. A selection from the known events Pj, f is also conceivable. If the network is then presented with an input signal that does not match the If the pattern of the training base matches, the network interpolates or extrapolates between the training patterns as part of the learned mapping function.
  • neural networks This property is known as the generalization capability of the networks. It is characteristic of neural networks that neural networks have a good fault tolerance. This is another advantage over the prior art systems. Since neural networks map a large number of (partially redundant) input signals to the desired output signal (s), the networks prove to be robust against failure of individual input signals or against signal noise. Another interesting property of neural networks is their ability to learn. In principle, it is therefore possible to have a system once trained trained / relearned or adapted permanently during operation, which is also an advantage over the systems of the prior art. Of course, other methods can also be used for the learning method, such as a method according to Levenberg-Marquardt (D.
  • Marquardt "An Algorithm for least Square estimation of nonlinear Parameters", J.Soc.lnd.Appl.Math, pp 431-441 , 1963 and MT Hagan, MBMenjaj, "Training Feedforward Networks with the Marquardt Algorithm", IEEE-Transactions on Neural Networks, Vol 5, No. 6, pp 989-993, November 1994).
  • the Levenberg-Marquardt method is a combination of the gradient method and the Newton method and has the advantage that it converges faster than the backpropagation method mentioned above, but requires a higher storage capacity during the training phase.
  • the neural network Njj + ⁇ depends recursively on the neural network Njj. For weighting, ie for training, a certain neural network Njj, for example, everyone can
  • the data of the events P pq can be read out from a database and via, for example a computing unit are presented to the system.
  • a calculated development value P i ⁇ klf can, for example, be assigned to the corresponding event Pj , f of an initial year i and can itself be presented to the system for determining the next development value (for example Pi, k + ⁇ , f) (Fig. 1 to 6) or the assignment can be found only after the end of the determination of all sought development values P instead (Fig. 7).
  • Each input segment comprises at least one input neuron or at least as many input neurons in order to obtain the input signal for a development value Pj, k , f .
  • the neural networks are generated automatically by the system and can be implemented in hardware or software.
  • the neural network Nj j with the available events Ej, f of all initial years m 1, .., (i-1) using the development values Pm, ⁇ .. ⁇ - (ij), f as input and Pm , ⁇ .. ⁇ - (ij) + ⁇ , f weighted as output.
  • the neural network Nj j determines the output values Oj , f for all events P i ⁇ f of the starting year i, the output value Oj, f being the development value Pi, ⁇ - (i- j ) + ⁇ , f of the event Pj , f is assigned and the neural network Nj j recursively depends on the neural network Nj j + i.
  • the dashed line T indicates the training phase and the solid line R the determination phase after learning.
  • Figure 2 shows the same for the third year of the beginning for the determination of P 3 , 4 , f (B 34 ) and Figure 3 for
  • FIG. 4 shows only the training phase for determining P 3 , 4, f and P 3 , 5 , f , the generated values P 3 ⁇ 4 ⁇ f (B 34 ) being used to train the network for determining P 3 , 5 , f.
  • Ay indicates the known values in the figures, while By determined using the networks Displays values.
  • FIG. 5 shows the recursive generation of the neural networks for determining the values in line 3 of a 5x5 matrix, whereby i-1 networks are generated, that is to say 2.
  • FIG. 6, shows the recursive generation of the neural networks for determining the values in line 3 of a 5x5 Matrix, whereby again i-1 networks are generated, i.e. 4.
  • FIG. 7 shows such a method, the training basis being restricted to the known event values Ay.
  • different neural networks can be trained, for example, based on different data.
  • the networks can be trained based on the paid claims, based on the accrued claims, based on the paid and outstanding claims (reserves) and / or based on the paid and accrued claims.
  • the best neural network for each case can be determined, for example, by minimizing the absolute mean error of the predicted values and the real values.
  • the ratio of the mean error to the mean predicted value (known requirements) can be applied to the predicted values of the modeled values to obtain the error.
  • the error must of course be accumulated accordingly. This can, for example can be achieved using the square root of the sum of the squares of the individual errors of each model.
  • the predicted values are also fitted using the Pareto distribution mentioned.
  • Estimation can also be used to e.g. to determine the best neural network of neural networks trained with (as described in the last section) different data sets (e.g. paid claims, outstanding claims etc.). This follows with the Pareto distribution
  • T (i) Th ((lP (i) y- i! A) )
  • is the fit parameter
  • Th is the threshold value
  • T (i) is the theoretical value of the i-th payment claim
  • O (i ) the observed value of the i-th payment claim
  • E (i) is the error of the i-th payment claim
  • P (i) is the cumulative probability of the i-th payment claim with
  • the error shown here corresponds to the standard deviation, ie the ⁇ i error, of the specified values.
  • the system based on neural networks shows a clear advantage over the methods of the prior art when determining the values in that the errors remain essentially stable. This is not the case in the prior art, since the error there does not increase proportionally for increasing i.
  • i there is a clear difference in the amount of the cumulative values between the chain ladder values and those which were obtained with the method according to the invention. This deviation is due to the fact that the IBNYR (Incurred But Not Yet Reported) damage is also taken into account in the chain ladder process.
  • the IBNYR damage would have to be added to the values of the method according to the invention shown above.
  • the IBNYR damage can be taken into account by means of a separate development (eg chain ladder).
  • the IBNYR losses do not play a role in the reservation of individual losses or in the determination of loss level distributions.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Finance (AREA)
  • Accounting & Taxation (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • Economics (AREA)
  • Marketing (AREA)
  • Strategic Management (AREA)
  • Technology Law (AREA)
  • General Business, Economics & Management (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Complex Calculations (AREA)

Abstract

System sowie Verfahren zur automatisierten Erfahrungstarifierung und/oder Schadensreservierung von Ereignissen, wobei ein bestimmtes Ereignis Pi,f eines Anfangsjahres i Entwicklungswerte Pikf mit Entwicklungsjahr k umfasst. Für i, k gilt i=1,..;K und k=1,..,K, wobei K das letzt bekannte Entwicklungsjahr ist und wobei das erste Anfangsjahr i=1 alle Entwicklungswerte P1kf vorgegeben umfasst. Zur Bestimmung der Entwicklungswerte Pi,K-(i-j)+1,f werden für jedes Anfangsjahr i iterativ (i-1) neuronale Netzwerke Ni,j erzeugt, wobei die Anzahl Iterationen für ein bestimmtes Anfangsjahr i sind und wobei das neuronale Netzwerk Ni,j+1 rekursiv vom neuronalen Netzwerk Ni,j abhängt. Insbesondere eignet sich das System und Verfahren zur Erfahrungstarifierung von Versicherungsverträgen und/oder Schadenexzendenten-Rückversicherungsverträgen.

Description

System und Verfahren zur automatisierten Erfahrungstarifierung und/oder Schadensreservierung
Die Erfindung betrifft ein System und ein Verfahren zur automatisierten Erfahrungstarifierung und/oder Schadensreservierung, wobei ein bestimmtes Ereignis Pjf eines Anfangszeitintervalles i mit f=1 ,...,Fj für eine
Folge von Entwicklungsintervallen k=1 K Entwicklungswerte Pjkf umfasst. Für die Ereignisse Pif des ersten Anfangszeitintervall i=1 sind alle Entwicklungswerte P kf f=1 ,...,F1 bekannt. Die Erfindung betrifft insbesondere ein Computerprogrammprodukt zur Durchführung dieses Verfahrens. Erfahrungstarifierung bezieht sich im Stand der Technik auf
Werteentwicklungen von Parametern von Ereignissen, die sich in einem bestimmten Jahr, dem Anfallsjahr oder Anfangsjahr, zum ersten Mal ereignen, und deren Folgen sich über mehrere Jahre fortpflanzen, den sog. Entwicklungsjahren. Allgemeiner ausgedrückt ereignen sich die Ereignisse zu einem bestimmten Zeitpunkt und entwickeln sich in vorgegebenen
Zeitintervallen. Die Ereigniswerte des gleichen Ereignisses zeigen dabei über die verschiedenen Entwicklungsjahre oder Entwicklungszeitintervalle eine abhängige zeitrückbezogene Entwicklung. Die Erfahrungstarifierung der Werte findet durch Extrapolation bzw. den Vergleich mit der Werteentwicklung bekannter ähnlicher, zeitlich zurückliegender Ereignisse statt.
Ein typisches Beispiel im Stand der Technik ist die mehrjährige Erfahrungstarifierung anhand von Schadenfällen, z.B. des Zahlungsstandes Z oder des Reservestandes R eines Schadensfalles bei Versicherungsgesellschaften oder Rückversicherern. Bei der Erfahrungstarifierung von Schadensfällen kennt ein Versicherungsunternehmen die Entwicklung jedes einzelnen Schadensfalls vom Zeitpunkt der Schadensmeldung bis zum aktuellen Stand oder bis zur Regulierung. Bei der Erfahrungstarifierung liegt die Begründung der klassischen Credibility-Formel durch ein stochastisches Modell etwa 30 Jahre zurück; seitdem sind zahlreiche Varianten des Modells entwickelt worden, so dass man heute von einer eigentlichen Credibility-Theorie sprechen kann. Das Hauptproblem bei der Anwendung von Credibility-Formeln bilden die unbekannten Parameter, die durch die Struktur des Bestandes bestimmt sind. Als Alternative zu bekannten Schätzverfahren bietet sich im Stand der Technik z.B. auch ein spieltheoretischer Ansatz an: Der Aktuar oder Versicherungsmathematiker kennt Schranken für die Parameter und bestimmt die optimale Prämie für den ungünstigsten Fall. Die Credibility-Theorie umfasst auch eine Reihe von Modellen zur Reservierung für Spätschäden. Dabei gibt es eine Vielfalt von Reservierungsverfahren, die, anders als die Credibility-Formel, nicht von unbekannten Parametern abhängen. Auch hier umfasst der Stand der Technik Verfahren durch stochastische Modelle, die die Erzeugung der Daten beschreiben. Eine Reihe von Ergebnissen liegt vor allem für das Chain-Ladder- Verfahren als eines der bekanntesten Verfahren zum Berechnen von ausstehenden Zahlungsforderungen bzw. zur Extrapolation der Schadensfälle vor. Die Stärken des Chain-Ladder-Verfahrens liegen einerseits in seiner Einfachheit anderseits darin, dass das Verfahren annähernd verteilungsfrei ist, d.h., das Verfahren basiert auf beinahe keinen Annahmen. Verteilungsfreie oder nicht parametrische Verfahren sind besonders für Fälle geeignet, in welchen der Anwender nur ungenügend oder gar keine Angaben über die zu erwartende Verteilung (z.B. Gaussverteilung etc.) der zu entwickelnden Parameter machen kann. Das Chain-Ladder-Verfahren bedeutet, dass von einem Ereignis oder Schaden Pjf mit f=1 , 2,...,Fj aus Anfalljahr i=1 ,...,! Werte Pjkf bekannt sind, wobei Pjkf z.B. den Zahlungsstand oder den Reservestand zum Ende jedes Abwicklungsjahres k=1 ,...,K sein kann. Ein Ereignis Pjf besteht in diesem Fall also in einer Folge von Punkten
Figure imgf000004_0001
von der die ersten K+ 1 - i Punkte bekannt sind und die noch unbekannten Punkte (Pj,κ+2-i,f, ■•■ , Pi,κ,f), prognostiziert werden sollen. Die Werte der Ereignisse Pjf bilden ein sog. Schadensdreieck oder allgemeiner ein Ereigniswertedreieck
Figure imgf000005_0001
Die Zeilen und Spalten werden gebildet durch die Schadensanfalljahre und die Abwicklungsjahre. Allgemein ausgedrückt stehen in den Zeilen z.B. die Anfangsjahre und in den Spalten die Entwicklungsjahre der untersuchten Ereignisse, wobei die Darstellung auch verschieden dazu sein kann. Das Chain-Ladder-Verfahren basiert nun auf den kumulierten Schadensdreiecken, deren Einträge Cy z.B. entweder reine Schadenszahlungen oder Schadensaufwendungen (Schadenszahlungen plus Veränderung der Schadensreserven) sind. Für die kumulierten Matrixelemente Cy gilt
Figure imgf000005_0002
damit folgt
Figure imgf000005_0003
Aus den mit dem Chain-Ladder-Verfahren interpolierten kumulierten Werten kann auch wieder auf das Einzelereignis geschlossen werden, indem eine Bestimmte Verteilung, z.B. typischerweise eine Pareto-Verteilung, der Werte angenommen wird. Die Pareto-Verteilung ist insbesondere für Versicherungsarten wie z.B. Versicherungen von Grossschäden oder Rückversicherer etc. geeignet. Die Pareto-Verteilung hat folgende Form X Θ(x) =l - ~T , wobei T ein Schwellwert und α der Fitparameter ist. Die Einfachheit des Chain-Ladder-Verfahrens liegt insbesondere darin, dass es zur Anwendung nicht mehr als obiges (über den Entwicklungswerten der einzelnen Ereignisse kumuliertes) Schadensdreieck und z.B. keine Informationen über Meldedaten, Reservierungsabwicklungen oder Annahmen über mögliche Schadenshöhenverteilungen etc. braucht. Die Nachteile des Chain-Ladder- Verfahrens sind im Stand der Technik hinlänglich bekannt (siehe z.B. Thomas Mack, Measuring the Variability of Chain Ladder Reserve Estimates, submitted CAS Prize Paper Competition 1993, Greg Taylor, Chain Ladder Bias, Centre for Actuarial Studies, University of Melbourne, Australia, March 2001 , pp 3). Um einen guten Schätzwert zu erhalten ist einen ausreichende Datenhistorie notwendig. Insbesondere bewährt sich das Chain Ladder Verfahren bei Sparten, wie z.B. Kfz-Haftpflichtversicherungen, bei welchen die Unterschiede in den Schadensjahren zu grossen Teilen auf Unterschiede in den
Schadenfrequenzen zurückzuführen sind, da die Schätzer des Chain-Ladder- Verfahrens den Maximum-Likelihood Schätzern eines Models mittels modifizierter Poissonverteilung entsprechen. Vorsicht ist daher z.B. bei Jahren geboten, in denen Änderungen an der Schadenshöhenverteilung (z.B. eine Erhöhung der Höchsthaftungssumme oder Änderungen im Selbstbehalt) vorgenommen werden, da diese Änderungen zu Struckturbrüchen im Chain- Ladder-Verfahren führen können. Bei Sparten mit extrem langer Abwicklungsdauer - wie z.B. bei der allgemeinen Haftpflichtversicherung - führt in vielen Fällen die Anwendung des Chain-Ladder-Verfahrens ebenfalls zu brauchbaren Ergebnissen, obwohl Informationen, wie z.B. eine zuverlässige Schätzung der Endschadensquote, aufgrund der langen Abwicklungsdauer selten verfügbar sind. Der Hauptnachteil des Chain-Ladder-Verfahrens liegt jedoch darin, dass das Chain-Ladder-Verfahrens auf dem kumulierten Schadensdreieck basiert, d.h. durch die Kumulierung der Ereigniswerte der Ereignisse mit gleichem Anfangsjahr geht wesentliche Information über die einzelnen Schäden bzw. Ereignisse verloren, die später nicht mehr zurückerhalten werden kann. Im Stand der Technik ist ein Verfahren von T. Mack bekannt (Thomas Mack, Schriftreihe Angewandte Versicherungsmathematik, Heft 28, p 310ff, Verlag Versicherungswirtschaft E.V., Karlsruhe 1997), bei welchem die Werte fortgepflanzt werden können, d.h. die Werte im Schadensdreieck extrapoliert werden können, ohne dass die Informationen der Einzelereignisse verloren geht. Mit dem Mack'schen Verfahren kann also unter Ausnutzung der vollständigen Zahlenbasis für jeden Schaden eine individuelle IBNER-Reserve berechnet werden (IBNER: Incurred But Not Enough Reported). Unter IBNER- Forderungen versteht man Zahlungsforderungen, welche entweder über den prognostizierten Werten liegen oder noch ausstehend sind. Die IBNER-Reserve ist insbesondere zur Erfahrungstarifierung von Schadenexzendenten- Rückversicherungsverträgen nützlich, wo der Rückversicherer in der Regel zumindest für die relevanten Grossschäden die erforderlichen Einzelschadensdaten erhält. Beim Rückversicherer beschreibt die zeitliche Entwicklung eines Bestandes von Risiken durch einen Risiko-Prozess, in dem Schadenzahlen und Schadenhöhen modelliert werden, wodurch in der Schadenexzedenten-Rückversicherung beim Übergang vom Erst- zum Rückversicherer das Phänomen der zufälligen Verdünnung des Risiko- Prozesses entsteht; andererseits werden durch Rückversicherung Bestände von mehreren Erstversicherern zusammengeführt und damit Risiko-Prozesse überlagert. Die Auswirkungen von Verdünnung und Überlagerung wurden bisher vor allem für Poisson'sche Risiko-Prozesse untersucht. Für Versicherungen/Rückversicherungen bedeutet die Erfahrungstarifierung mittels des Mack'schen Verfahrens, dass von jedem Schaden Pjf mit f=1 , 2,...,Fj aus Anfalljahr oder Anfangsjahr i=1 ,...,! der Zahlungsstand ∑M und der
Reservestand Rjkf zum Ende jedes Abwicklungsjahres oder Entwicklungsjahres k=1 ,...,K bis zum aktuellen Stand (Zj,κ+Hf> Rι,κ+ι-i,f) bekannt ist. Ein Schaden Pjf besteht in diesem Fall also in einer Folge von Punkten
Pif = (Zuf, Ruf), (Zj2f, Ri2t), .--, (ZiKf, RiKf) in der Zahlungs-Reserve-Ebene, von der die ersten K+ 1 - i Punkte bekannt sind und die noch unbekannten Punkte (Zj,κ+2-i,f, Ri,κ+2-i, > ••■ , (Zj,κ,f, Ri f), prognostiziert werden sollen. Insbesondere interessiert natürlich der Endstand (Zj,κ,f, Ri,κ,f)> wobei im Idealfall RiιK,f = 0 ist, d.h. der Schaden als vollständig reguliert angesehen wird; ob dies erreichbar ist, hängt von der Länge K des betrachteten Entwicklungszeitraums ab. Ein Schadensstand (Zi.κ+1-ι.f, Ri,κ+Hf) wird im Stand der Technik, wie z.B. im Mack'schen Verfahren, so fortgesetzt, wie dies bei ähnlichen Schäden aus früheren Anfalljahren der Fall war. In den herkömmlichen Verfahren muss also zum einen festgelegt werden, wann zwei Schäden "ähnlich" sind und zum anderen, was es heisst einen Schaden "fortzusetzen". Ausserdem muss neben der sich so ergebenden IBNER-Reserve in einem zweiten Schritt festgelegt werden, wie die echten Spätschäden zu berechnen sind, von denen zum aktuellen Zeitpunkt noch nichts bekannt ist.
Zur Qualifizierung der Ähnlichkeit wird im Stand der Technik z.B. der Euklidische Abstand d((Z,R), (Z, R)) = Λj(Z-Z)2 + (R-R)2 in der Zahlungs-Reserve-Ebene verwendet. Aber auch mit dem Euklidischen Abstand gibt es viele Möglichkeiten, um zu einem gegebenen Schaden (Pj,ι,f, Pi,2,f,—, Pι,κ+ι-ι,f) den nächst ähnlichsten Schaden eines früheren Anfalljahrs zu finden, d.h. den Schaden (P <[,..., Pk) mit k > K+1-i, für den entweder d(PiJf,Pj) (Summe aller bisherigen Abstände) 7=1 oder
K+l-i ∑; • d(Pijf,Pj) (gewichtete Summe aller Abstände) 7=1 oder
ITiaX d(P..f,P.) (maximaler Abstand) l≤j≤K+1-i UJ J oder
Figure imgf000009_0001
(aktueller Abstand) minimal ist.
Beim Beispiel des Mack'schen Verfahrens wird im Normalfall der aktuelle Abstand benutzt. Dies bedeutet, dass zu einem Schaden (Pι,...,Pk), dessen Abwicklung bis zum k-ten Entwicklungsjahr bekannt ist, von allen anderen Schäden (i5ι,...,i3 J), deren Entwicklung mindestens bis Entwicklungsjahr j > k + 1 bekannt ist, derjenige als der Ähnlichste betrachtet wird, für den der aktuelle Abstand d(Pk,Pk) am kleinsten ist.
Der Schaden (Pι,...,Pk) wird nun so fortgesetzt, wie dies bei seinem abstandsnächsten „Vorbild"^,..., _P.PA+p...,.?,) der Fall ist. Hierfür gibt es die Möglichkeit, um ein einziges Abwicklungsjahr (d.h. bis PR+I) oder um mehrere Entwicklungsjahre zugleich (z.B. bis Pj) fortzusetzen. Bei Verfahren, wie z.B. dem Mack'schen-Verfahren wird typischerweise zunächst nur um ein Abwicklungsjahr fortgesetzt, um dann wieder einen neuen ähnlichsten Schaden zu suchen, womit der gerade fortgesetzte Schaden um ein weiteres Entwicklungsjahr fortgesetzt wird. Der nächste gefundene Schaden kann natürlich auch wieder derselbe sein. Zur Fortsetzung der Schadensfälle gibt es zwei Möglichkeiten. Die additive Fortsetzung von Pk = (Zk,Rk)
-P/c+i = ( *+ι>- ft+ι) = Zk + Zk+l - Zk,Rk + Rk+Ϊ - Rk) , und die multiplikative Fortsetzung von Pk = (Zk,Rk)
Figure imgf000009_0002
Es ist einfach zu sehen, dass einer der Nachteile des Standes der Technik, insbesondere des Mack'schen Verfahrens, u.a. in der Art der Fortsetzung der Schadensfälle liegt. Die multiplikative Fortsetzung ist nur für so genannt offene Schadensstände, d.h. Zk > 0, Rk > 0 sinnvoll. Bei mutmasslichen Schadensständen Pk = (0, Rk), Rk > 0, muss die multiplikative Fortsetzung diversifiziert werden, da andernfalls keine Fortsetzung erfolgt. Ausserdem, falls Zk = 0 oder Rk = 0, erfolgt eine Division durch 0. Ähnlich, falls Zk oder Rk klein ist, kann das multiplikative Verfahren leicht zu unrealistisch hohen Fortsetzungen führen. Dies lässt eine konsistente Behandlung der Fälle nicht zu. D.h. die Reserve Rk kann in diesem Fall nicht einfach fortgesetzt werden. Ebenso kann ein ausregulierter Schadensstand Pk = (Zk, 0), Zk > 0 ebenfalls nicht weiterentwickelt werden. Eine Möglichkeit ist, ihn einfach unverändert zu lassen. Ein Wiederaufleben eines Schadens wird damit jedoch verhindert. Allenfalls könnte man ihn anhand des nächstliegenden ausregulierten Vorbildes fortsetzten, was ebenfalls eine konsistente Behandlung der Fälle nicht zulässt. Auch bei der additiven Fortsetzung sollten sinnvollerweise mutmassliche Schadensstände nur anhand eines ebenfalls mutmasslichen Vorbildes fortgesetzt werden, um den Euklidischen Abstand zu minimieren und um eine entsprechende Qualifizierung der Ähnlichkeit zu garantieren. Ein analoger Nachteil entsteht bei ausregulierten Schadensständen, falls ein Wiederaufleben zugelassen werden soll und negative Reserven vermieden werden sollen. Ganz allgemein kann das additive Verfahren leicht zu negativen Zahlungen und/oder Reserven führen. Zusätzlich kann im Stand der Technik ein Schaden Pk nicht fortgesetzt werden, wenn kein entsprechendes Vorbild existiert, ohne dass nicht weitere Annahmen in das Verfahren gesteckt werden. Als Beispiel dazu ist ein offener Schaden Pk, wenn es im gleichen Abwicklungsjahr k keinen Schaden aus früheren Anfallsjahren gibt, bei dem Pk ebenfalls offen ist. Ein Ausweg aus dem Dilemma kann dadurch gefunden werden, dass für diesen Fall Pk unverändert gelassen wird, d.h. Pk+i =Pk, was natürlich keiner echten Fortsetzung entspricht.
Insgesamt wird somit im Stand der Technik jeder aktuelle Schadensstand Pι,κ+ι-ι.f = (Zi,κ+Hf. Ri, +ι-i,f) schrittweise bis zum Entwicklungsbzw. Abwicklungsende nach K-Entwicklungsjahren entweder additiv oder multiplikativ weiterentwickelt. Dabei wird in jedem Schritt der jeweils gemäss Euklidischem Abstand nächstliegende Vorbildschadensstand vom gleichen Schadensstandstyp (mutmasslich, offen oder ausreguliert) festgestellt und der fortzusetzende Schadensstand entsprechend der Weiterentwicklung des Vorbildschadens entweder additiv oder multiplikativ fortgesetzt. Für das Mack'sche Verfahren ist es ebenfalls sinnvoll, als Vorbild stets nur tatsächlich beobachtete Schadensentwicklungen Pkfc+1 in Betracht zu ziehen und keine extrapolierte, d.h. entwickelten Schadenentwicklungen, da andernfalls eine Korrelation und/oder ein entsprechender Bias der Ereignisse nicht zu vermeiden ist. Umgekehrt erhält man damit jedoch den Nachteil, dass bereits bekannte Information von Ereignissen verloren geht.
Von der Konstruktion der Verfahren des Standes der Technik leuchtet es unmittelbar ein, dass die Verfahren auch getrennt, einerseits auf das Dreieck der Zahlungen, andererseits auf das Dreieck der Reserven, angewandt werden können. Natürlich könnten bei der beschriebenen Vorgehensweise auch andere Möglichkeiten zugelassen werden, um den jeweils nächstliegenden Schadensstand als Vorbild zu finden. Dies würde sich jedoch insbesondere auf die Verteilungsfreiheit des Verfahrens auswirken. Damit lässt sich sagen, dass sich beim Standes der Technik die oben genannten systematischen Probleme auch durch entsprechende Modifikationen nicht beheben lassen oder allenfalls nur dadurch, dass weitere Modellannahmen in das Verfahren gesteckt werden. Gerade aber bei komplexen dynamisch nichtlinearen Prozessen, wie z.B. die Entwicklung von Schadensfällen, ist dies in den aller meisten Fällen nicht wünschenswert. Selbst wenn man die genannten Nachteile ausser Acht lässt, muss bei dem herkömmlichen Verfahren nach T. Mack immer noch festgelegt werden, wann zwei Schäden ähnlich sind und was es heisst, einen Schaden fortzusetzen, wodurch also minimale Grundannahmen bzw. Modelannahmen getroffen werden müssen. Im Stand der Technik ist jedoch nicht nur die Wahl der euklidschen Metrik arbiträr, sondern auch die Wahl zwischen dem erwähnten multiplikativen und additiven Verfahren. Weiter wird im Stand der Technik die Fehlerschätzung nicht näher definiert. Zwar ist es vorstellbar, einen Fehler z.B. basierend auf der inversen Distanz zu definieren. Dies wird aber im Stand der Technik nicht offenbart. Ein wichtiger Nachteil des Standes der Technik ist jedoch auch, dass jedes Ereignis mit allen vorherigen verglichen werden muss, um fortgesetzt werden zu können. Der Aufwand steigt linear mit der Anzahl Jahre und linear mit der Anzahl Schäden im Portefeuille. Wenn Portefeuilles aggregiert, steigt der Rechenaufwand und der Speicherbedarf entsprechend.
Neuronale Netze sind grundsätzlich im Stand der Technik bekannt und werden z.B. zum Lösen von Optimierungsaufgaben, Bildererkennung (Patternrecogition), in der künstlichen Intelligenz etc. eingesetzt. Entsprechend biologischer Nervennetze besteht ein neuronales Netzwerk aus einer Vielzahl von Netzknoten, sog. Neuronen, die über gewichtete Verbindungen (Synapsen) miteinander verbunden sind. Die Neuronen sind in Netzschichten (Layers) organisiert und zusammengeschaltet. Die einzelnen Neuronen werden in Abhängigkeit ihrer Eingangssignale aktiviert und erzeugen ein entsprechendes Ausgangssignal. Die Aktivierung eines Neurons erfolgt über einen individuellen Gewichtsfaktor durch die Summation über die Eingangssignale. Derartige neuronale Netze sind lernfähig, indem die Gewichtsfaktoren in Abhängigkeit von vorgegebenen beispielhaften Eingangs- und Ausgangswerten systematisch so lange verändert werden, bis das neuronale Netz in einem definierten vorhersagbaren Fehlerbereich ein gewünschtes Verhalten zeigt, wie z. B. die Vorhersage von Ausgabewerten für zukünftige Eingangswerte. Damit weisen neuronale Netze adaptive Fähigkeiten zur Erlernung und Speicherung von Wissen und assoziative Fähigkeiten zum Vergleich von neuen Informationen mit gespeichertem Wissen auf. Die Neuronen (Netzknoten) können einen Ruhezustand oder einen Erregungszustand einnehmen. Jedes Neuron hat mehrere Eingänge und genau einen Ausgang, der mit den Eingängen anderer Neuronen der nachfolgenden Netzschicht verbunden ist oder im Falle eines Ausgangsknotens einen entsprechenden Ausgangswert repräsentiert. Ein Neuron geht in den Erregungszustand über, wenn eine genügende Anzahl der Eingänge des Neurons über einem bestimmten Schwellenwert des Neurons erregt sind, d.h. falls die Summation über den Eingängen einen bestimmten Schwellwert erreicht. In den Gewichten der Eingänge eines Neurons und in dem Schwellenwert des Neurons ist das Wissen durch Adaption abgespeichert. Mittels Lernvorgang werden die Gewichte eines neuronalen Netzes trainiert (siehe z.B. G. Cybenko, "Approximation by Superpositions of a sigmoidal function", Math. Control, Sig. Syst., 2, 1989, pp 303-314; M.T. Hagan, M.B. Menjaj, "Training Feedforward Networks with the Marquardt Algorithm", IEEE Transactions on Neural Networks, Vol. 5, Nr. 6, pp 989-993, November 1994; K. Hornik, M. Stinchcombe, H. White, "Multilayer Feedforward Networks are universal Approximators", Neural Networks, 2, 989, pp 359-366 etc.).
Es ist eine Aufgabe dieser Erfindung, ein neues System und Verfahren zur automatisierten Erfahrungstarifierung von Ereignissen und/oder Schadensreservierung vorzuschlagen, das die oben genannten Nachteile des Standes der Technik nicht aufweist. Insbesondere soll ein automatisiertes, einfaches und rationelles Verfahren vorgeschlagen werden, um einen vorgegebenen Schaden mit einem individuellen Zuwachs bzw. Faktor weiterzuentwickeln, so dass nachträglich die gesamte Information über die Entwicklung eines einzelne Schadens zur Verfügung steht. Bei dem Verfahren sollen so wenig wie möglich Annahmen über die Verteilung von vornherein getroffen werden und gleichzeitig soll die maximal mögliche Information der vorgegebenen Fälle ausgenutzt werden.
Gemäss der vorliegenden Erfindung wird dieses Ziel insbesondere durch die Elemente der unabhängigen Ansprüche erreicht. Weitere vorteilhafte Ausführungsformen gehen ausserdem aus den abhängigen Ansprüchen und der Beschreibung hervor.
Insbesondere werden diese Ziele durch die Erfindung dadurch erreicht, dass einem bestimmten Ereignis P^f eines Anfangszeitintervalles i Entwicklungswerte Pj,k,f mit Entwicklungsintervallen k=1 ,..,K zugeordnet werden, bei welchem K das letzt bekannte Entwicklungsintervall ist mit i=1 ,...,K und für die Ereignisse Pι,f alle Entwicklungswerte P^f bekannt sind, wobei zur Bestimmung der Entwicklungswerte Pi,κ+2-i,f. ■■■ , Pι,κ,f mindestens ein neuronales Netzwerk verwendet wird. Bei bestimmten Ereignissen kann z.B. das Anfangszeitintervall einem Anfangsjahr zugeordnet werden und die Entwicklungsintervalle Entwicklungsjahren zugeordnet werden. Die Entwicklungswerte Pjkf der verschiedenen Ereignisse Pj,f können entsprechend ihrem Anfangszeitintervall mittels mindestens einem Normierungsfaktor normiert werden. Die Normierung der Entwicklungswerte Pjkf hat u.a. den Vorteil, dass die Entwicklungswerte zu unterschiedlichen Zeitpunkten vergleichbar sind. Diese Ausführungsvariante hat weiter u.a. den Vorteil, dass zur automatisierten Erfahrungstarifierung keine Modelannahmen z.B. über Werteverteilungen, Systemdynamiken etc. vorausgesetzt werden müssen. Insbesondere ist die Erfahrungstarifierung frei von Proximationsvoraussetzungen wie z.B. das Euklidschen Mass etc. Dies ist beim Stand der Technik so nicht möglich. Zusätzlich wird die gesamte Information des Datensamples verwendet, ohne dass die Datensätze kumuliert werden. Die komplette Information über die einzelnen Ereignisse bleibt in jeder Stufe erhalten und kann am Ende wieder abgerufen werden. Die Normierung hat den Vorteil, dass Datensätze unterschiedlicher Anfangszeitintervalle vergleichbare Grössenordnungen erhalten und so besser verglichen werden können.
In einer Ausführungsvariante werden zur Bestimmung der Entwicklungswerte Pj,κ-(H)+ι,f iterativ (i-1 ) neuronale Netzwerke Njj für jedes
Anfangszeitintervall und/oder Anfangsjahr i erzeugt mit j=1 (i-1), wobei das neuronale Netzwerk Njj+ι rekursiv vom neuronalen Netzwerk Njj abhängt. Zum Gewichten eines bestimmten neuronalen Netzwerkes NJFJ können z.B. die Entwicklungswerte Pp,q,f mit p=1,...,(i-1) und q=1 K-(i-j) verwendet werden. Diese Ausführungsvariante hat u.a. den Vorteil, dass wie in der vorhergehenden Ausführungsvariante die gesamte Information des Datensamples verwendet wird, ohne dass die Datensätze kumuliert werden. Die komplette Information über die einzelnen Ereignisse bleibt in jeder Stufe erhalten und kann am Ende wieder abgerufen werden. Mittels einer Minimierung eines global eingeführten Fehlers können die Netzwerke zusätzlich optimiert werden.
In einer anderen Ausführungsvariante werden die neuronalen Netzwerk Njj für gleiche Entwicklungsjahre und/oder Entwicklungsintervalle j identisch trainiert, wobei für ein Anfangszeitintervall und/oder Anfangsjahr i+1 das neuronales Netzwerk
Figure imgf000014_0001
erzeugt wird und alle anderen neuronalen Netzwerke Nj+ι,j<j von früheren Anfangszeitintervallen und/oder Anfangsjahren übernommen werden. Diese Ausführungsvariante hat u.a. den Vorteil, dass nur bekannte Daten zur Erfahrungstarifierung verwendet werden und vom System bestimmte Daten nicht weiter verwendet werden, wodurch die Korrelation der Fehler bzw. der Daten verhindert wird.
In einer wieder anderen Ausführungsvariante werden zur Bestimmung zusätzlich Ereignisse Pi|f mit Anfangszeitintervall i<1 verwendet werden, wobei für die Ereignisse Pj<1,f alle Entwicklungswerte Pj<ι,k,f bekannt sind. Diese Ausführungsvariante hat u.a. den Vorteil, dass durch die zusätzlichen Datensätze die neuronalen Netzwerke besser optimiert werden können und ihr Fehler minimiert werden kann. In einer weiteren Ausführungsvariante werden zur automatisierten Erfahrungstarifierung und/oder Schadensreservierung einem bestimmten Ereignis Pj,f eines Anfangszeitintervalles i Entwicklungswerte Pi>k)f mit Entwicklungsintervallen k=1,..,K zugeordnet abgespeichert, bei welchem i = 1 ,..,K und K das letzt bekannte Entwicklungsintervall ist und bei welchem für das erste Anfangszeitintervall alle Entwicklungswerte Pι, ,f bekannt sind, wobei für jedes Anfangszeitintervall i=2,..,K mittels Iterationen j=1 ,..,(i-1) bei jeder Iteration j in einem ersten Schritt ein neuronales Netzwerk Njj mit einem Inputlayer mit K-(i-j) Inputsegmenten und einem Outputlayer erzeugt wird, welche Inputsegmente mindestens ein Inputneuron umfassen und einem Entwicklungswert Pj,k,f zugeordnet werden, wobei in einem zweiten Schritt das neuronale Netzwerk Njj mit den verfügbaren Ereignissen Pjjf aller Anfangszeitintervalle m=1,..,(i-1) mittels der Entwicklungswerte Pm,ι..κ-(i-i),f als Input und Pm,ι..κ-(i-j)+ι,f als Output gewichtet wird, und wobei in einem dritten Schritt mittels des neuronalen Netzwerkes Njj die Outputwerte 0\f für alle Ereignisse Pj,f des Anfangszeitintervalles i bestimmt werden, wobei der Outputwert Oj,f dem Entwicklungswert Pj,κ-(i-j)+ι,f des Ereignisses Pj,f zugeordnet wird und wobei das neuronale Netzwerk Njj rekursiv vom neuronalen Netzwerk Njj+ι abhängt. Bei bestimmten Ereignissen kann z.B. das Anfangszeitintervall einem Anfangsjahr zugeordnet werden und die Entwicklungsintervalle
Entwicklungsjahren zugeordnet werden. Diese Ausführungsvariante hat u.a. die gleichen Vorteile wie die vorhergehenden Ausführungsvarianten.
In einer Ausführungsvariante umfasst ein System neuronale Netzwerke Nj mit jeweils einen Inputlayer mit mindestens einem Inputsegment und einen Outputlayer, welcher Input- und Outputlayer eine Vielzahl von Neuronen umfasst, die gewichtet miteinander verbunden sind, wobei die neuronalen Netzwerke Nj mittels einer Recheneinheit Software- und/oder hardwaremässig iterativ erzeugbar sind, wobei ein neuronales Netzwerk Ni+ι rekursiv vom neuronalen Netzwerk Nj abhängt und jedes Netzwerk Nj+i jeweils ein Inputsegment mehr als das Netzwerk Nj umfasst, wobei jedes neuronale Netzwerk Nj beginnend beim neuronalen Netzwerk Ni mittels eines Minimierungsmoduls durch Minimierung eines lokal propagierten Fehlers trainierbar ist, und wobei das rekursive System von neuronalen Netzwerken mittels einem Minimierungsmodul durch Minimierung eines global propagierten Fehlers basierend auf den lokalen Fehlem der neuronalen Netzwerke Nj trainierbar ist. Diese Ausführungsvariante hat u.a. den Vorteil, dass die rekursiv erzeugten neuronalen Netzwerke mittels des globalen Fehlers zusätzlich optimiert werden können. U.a. ist es die Kombination der Rekursiven Erzeugung der neuronalen Netzwerkstruktur mit einer doppelten Minimierung mittels lokal propagiertem Fehler und global propagierten Fehler, welches die Vorteile dieser Ausführungsvariante ergibt.
In einer anderen Ausführungsvariante ist der Outputlayer des neuronalen Netzwerkes Nj mit mindestens einem Inputsegment des Inputlayers des neuronalen Netzwerkes Nj+i zugeordnet verbunden. Diese
Ausführungsvariante hat u.a. den Vorteil, dass das System von neuronalen Netzwerken wiederum als neuronales Netzwerk aufgefasst werden kann. Damit können Teilnetzwerke eines ganzen Netzwerkes lokal gewichtet werden und auch bei einem globalen Lernen durch das System mittels den entsprechenden Datensätzen in ihrem Verhalten kontrolliert und überwacht werden. Dies war bis anhin im Stand der Technik so nicht möglich.
An dieser Stelle soll festgehalten werden, dass sich die vorliegende Erfindung neben dem erfindungsgemässen Verfahren auch auf ein System zur Ausführung dieses Verfahrens bezieht. Ferner beschränkt es sich nicht auf das genannte System und Verfahren, sondern bezieht sich ebenso auf rekursiv geschachtelte Systeme von neuronalen Netzwerken und ein Computerprogrammprodukt zur Realisierung des erfindungsgemässen Verfahrens.
Nachfolgend werden Ausführungsvarianten der vorliegenden Erfin- düng anhand von Beispielen beschrieben. Die Beispiele der Ausführungen werden durch folgende beigelegte Figuren illustriert:
Figur 1 zeigt ein Blockdiagramm, welches schematisch die Trainingsbzw. Bestimmungsphase oder Präsentationsphase eines neuronalen Netzwerkes zur Bestimmung des Ereigniswertes P2|5,f eines Ereignisses Pf in einer oberen 5x5 Matrix, d.h. bei K=5, wiedergibt. Die gestrichelte Linie T gibt die Trainingsphase an und die ausgezogene Linie R die Bestimmungsphase nach dem Lernen.
Figur 2 zeigt ebenfalls ein Blockdiagramm, welches wie Fig. 1 schematisch die Trainings- bzw. Bestimmungsphase eines neuronalen Netzwerkes zur Bestimmung des Ereigniswertes P^ für das dritte Anfangsjahr wiedergibt.
Figur 3 zeigt ein Blockdiagramm, welches wie Fig. 1 schematisch die Trainings- bzw. Bestimmungsphase eines neuronalen Netzwerkes zur Bestimmung des Ereigniswertes P3,5,f für das dritte Anfangsjahr wiedergibt. Figur 4 zeigt ein Blockdiagramm, welches schematisch nur die
Trainingsphase zur Bestimmung von P3ι4,f und P3,5,f zeigt, wobei die berechneten Werte P3ι4ιf zum Trainieren des Netzwerkes zur Bestimmung von P3,5,f verwendet werden.
Figur 5 zeigt ein Blockdiagramm, welches schematisch die rekursive Erzeugung neuronaler Netzwerke zur Bestimmung der Werte in Zeile 3 einer 5x5 Matrix zeigt, wobei 2 Netzwerke erzeugt werden.
Figur 6 zeigt ein Blockdiagramm, welches schematisch die rekursive Erzeugung neuronaler Netzwerke zur Bestimmung der Werte in Zeile 5 einer 5x5 Matrix zeigt, wobei 4 Netzwerke erzeugt werden. Figur 7 zeigt ein Blockdiagramm, welches schematisch ebenfalls ein erfindungsgemässes System zeigt, wobei die Trainingsbasis auf die bekannten Ereigniswerte Ay eingeschränkt ist.
Figur 1 bis 7 illustrieren schematisch eine Architektur, die zur Realisierung der Erfindung verwendet werden kann. In diesem Ausführungsbeispiel umfasst zur automatisierten Erfahrungstarifierung von Ereignissen und/oder Schadensreservierung ein bestimmtes Ereignis Pj,f eines Anfangsjahres i Entwicklungswerte Pjkf. Der Index f läuft über alle Ereignisse Pj,f für ein bestimmtes Anfangsjahr i mit f = 1 ,...,Fj. Der Entwicklungswert Pjkf = (Zikf, Rjkf, ...) ist ein beliebiger Vektor und/oder n-Tupel von Entwicklungsparametern jkf, Rikf. •■• , welche für ein Ereignis entwickelt werden sollen. So kann z.B. bei Versicherungen für einen Schadensfall Pjkf Zjkf der Zahlungsstand sein, Rjkf der Reservestand, etc. Beliebige weitere relevante Parameter für ein Ereignis sind vorstellbar, ohne dass dies den Schutzbereich der Erfindung berühren würde. Die Entwicklungsjahre k gehen aus von k=1 ,..,K und die Anfangsjahre i = 1 ,..,l. K ist das letzt bekannte Entwicklungsjahr. Für das erste Anfangsjahr i = 1 sind alle Entwicklungswerte Pikf vorgegeben. Wie bereits angegeben, sollen für dieses Beispiel die Anzahl Anfangsjahre I und die Anzahl Entwicklungsjahre K gleich sein, d.h. I = K. Es ist aber durchaus vorstellbar, dass I ≠ K, ohne dass das Verfahren oder das System dadurch eingeschränkt würde. Pikf ist also ein n-Tupel bestehend aus der Folge von Punkten und/oder Matrixelementen
(Zikm Rikn, ■■■) mit k = 1 , 2, ..., K
Mit I = K ergibt sich dadurch eine quadratische obere Dreiecksmatrix und/oder Blockdreieckmatrix für die bekannten Entwicklungswerte Pjkf
Figure imgf000018_0001
wobei f=1 ,..,Fj wieder über alle Ereignisse für ein bestimmtes Anfangsjahr i geht. Damit sind die Zeilen der Matrix den Anfangsjahren und die Spalten der Matrix den Entwicklungsjahren zugeordnet. In dem Ausführungsbeispiel soll Pjkf auf das Beispiel von Schadensfällen bei
Versicherungen beschränkt werden, da insbesondere das Verfahren bzw. das System z.B. zur Erfahrungstarifierung von Versicherungsverträgen und/oder Schadenexzendenten-Rückversicherungsverträgen sehr geeignet ist. Es muss betont werden, dass die Matrixelemente Pjkf selbst wieder Vektoren und/oder Matrixen sein können, womit die obige Matrix zu einer entsprechende
Blockmatrix wird. Das erfindungsgemässe Verfahren und System eignet sich jedoch für Erfahrungstarifierung bzw. zur Extrapolation von zeitverzögerten nichtlinearen Prozessen ganz allgemein. Mit dem Gesagten ist Pjkf eine Folge von Punkten
(Zjkn. Rikn) mit k = 1 , 2, ..., K in der Zahlungs-Reserve-Ebene, von der die ersten K+ 1 - i Punkte bekannt sind und die noch unbekannten Punkte (Zj,κ+2.j,f, Rj,κ+2-i,f), — , (Zi,κ,f, RjFκ,f), prognostiziert werden sollen. Teilt man für diese Beispiel Pi f nach Zahlungsebene und die Reserveebene auf, erhält man analog für die Zahlungsebene die Dreiecksmatrix
Figure imgf000019_0001
und für die Reserveebene die Dreiecksmatrix
Figure imgf000019_0002
Bei der Erfahrungstarifierung von Schadensfällen ist somit die Entwicklung jedes einzelnen Schadensfalls fj vom Zeitpunkt der
Schadensmeldung im Anfangsjahr i bis zum aktuellen Stand (aktuelles Entwicklungsjahr k) oder bis zur Regulierung bekannt. Diese Information kann in einer Datenbank abgespeichert sein, welche Datenbank z.B. über ein Netzwerk mittels einer Recheneinheit abgerufen werden kann. Die Datenbank kann jedoch auch direkt über einen internen Datenbus des erfindungsgemässen Systems zugreifbar sein oder anders ausgelesen werden. Um die Daten im Beispiel der Schadensfälle zu verwenden, werden die Dreiecksmatrizen in einem ersten Schritt normiert, d.h. die Schadenswerte müssen erst in Relation zum zugeordneten Zeitpunkt mittels der entsprechenden Inflationswerte vergleichbar gemacht werden. Der Inflationsindex kann ebenfalls aus entsprechenden Datenbanken ausgelesen werden oder mittels Eingabeeinheiten dem System eingegeben werden. Der Inflationsindex für ein Land kann z.B. folgendermassen aussehen:
Figure imgf000020_0001
Weitere Normierungsfaktoren sind ebenso vorstellbar, wie z.B. regionale Abhängigkeiten etc. Werden Schadensfälle länderübergreifend verglichen bzw. extrapoliert, kommen entsprechende Länderabhängigkeiten dazu. Für den allgemeinen, nicht versicherungsspezifischen Fall kann sich die Normierung auch auf Abhängigkeiten, wie z.B. das mittlere Alter bei Populationen von Lebewesen, Natureinflüssen etc. etc. beziehen. Zur automatisierten Bestimmung der Entwicklungswerte Pι,κ+2-i,f>.
Pi,κ,f = (Zi,κ+2-i,f, Ri,κ+2-i,f), - , (Zi,κ,f, Rι,κ,f) umfasst das System und/oder Verfahren mindestens ein neuronales Netzwerk. Als neuronale Netzwerke können z.B. konventionelle statische und/oder dynamische neuronale Netzwerke, wie beispielsweise feedforward (heteroassoziative) Netzwerke wie ein Perceptron oder ein Multi-Layer-Perceptron (MLP) gewählt werden, aber auch andere Netzwerkstrukturen, wie z.B. rekurrente Netzwerkstrukturen, sind vorstellbar. Die unterschiedliche Netzwerkstruktur der feedforward Netze im Gegensatz zu Netzwerke mit Rückkopplung (rekurrente Netzwerke) bestimmt, in welcher Art Informationen durch das Netzwerk verarbeitet werden. Im Falle eines statischen neuronalen Netzwerkes soll die Struktur die Nachbildung statischer Kennfelder mit ausreichender Approximationsgüte gewährleisten. Für dieses Ausführungsbeispiel seien als Beispiel Multi-Layer-Perceptrons gewählt. Ein MLP besteht aus mehreren Neuronenschichten mit mindestens einem Inputlayer und einem Outputlayer. Die Struktur ist strikt vorwärts gerichtet und gehört zur Gruppe der Feed-Forward-Netzen. Neuronale Netzwerke bilden ganz allgemein ein m-dimensionales Eingabesignal auf ein n-dimensionales Ausgabesignal ab. Die zu verarbeitende Information wird im hier betrachteten Feedforward-Netzwerk von einer Schicht mit Inputneuronen, dem Inputlayer, aufgenommen. Die Inputneuronen verarbeiten die Eingangssignale und geben sie über gewichtete Verbindungen, sog. Synapsen, an eine oder mehrere verdeckte Neuronenschichten, den Hiddenlayers, weiter. Von den Hiddenlayers wird das Signal ebenfalls mittels gewichteter Synapsen auf Neuronen eines Outputlayers übertragen, welcher ihrerseits das Ausgangssignal des neuronalen Netzwerkes generieren. In einem vorwärtsgerichteten, vollständig verbundenen MLP ist jedes Neuron eines bestimmten Layers mit allen Neuronen des nachfolgenden Layers verbunden. Die Wahl der Anzahl von Layers und Neuronen (Netzknoten) in einem bestimmten Layer ist wie üblich dem entsprechenden Problem anzupassen. Die einfachste Möglichkeit ist die ideale Netzstruktur empirisch zu ermitteln. Dabei ist zu beachten, dass bei einer zu gross gewählten Anzahl von Neuronen das Netzwerk anstatt zu lernen, rein abbildend wirkt, während es bei einer zu kleinen Anzahl von Neuronen zu Korrelationen der abgebildeten Parameter kommt. Anders ausgedrückt ist es so, dass wenn die Anzahl der Neuronen zu klein gewählt wird, dann kann die Funktion möglicherweise nicht dargestellt werden. Mit der Erhöhung der Anzahl der versteckten Neuronen steigt jedoch auch die Anzahl der unabhängigen Variablen in der Fehlerfunktion. Dies führt zu mehr lokalen Minima und der höheren Wahrscheinlichkeit in genau einer dieser Minima zu landen. Im Spezialfall des Backpropagation kann dieses Problem z.B. mittels Simulated Annealing mindestens minimiert werden. Beim Simulated Annealing wird den Zuständen des Netzes eine Wahrscheinlichkeit zugeordnet. In der Analogie zum Kühlen von flüssiger Materie, aus denen Kristalle entstehen, wird eine große Anfangstemperatur T gewählt. Diese wird nach und nach verkleinert, je kleiner umso langsamer. In der Analogie der Bildung von Kristallen aus Flüssigkeit geht man davon aus, dass falls man die Materie zu schnell abkühlen lässt, die Moleküle sich nicht gemäss der Gitterstruktur anordnen. Der Kristall wird unrein und an den betroffenen Stellen instabil. Um dies zu verhindern, lässt man die Materie nun so langsam abkühlen, dass die Moleküle immer noch genügend Energie haben, um aus einen lokalen Minimum herauszuspringen. Bei den neuronalen Netzen wird nichts anderes gemacht: Es wird zusätzlich die Größe T in einer leicht veränderten Fehlerfunktion eingeführt. Diese konvergiert dann im Idealfall gegen ein globales Minimum. Für die Anwendung zur Erfahrungstarifierung haben sich bei MLP neuronale Netzwerke mit einer mindestens dreischichtigen Struktur als sinnvoll erwiesen. Das heisst, dass die Netzwerke mindestens einen Inputlayer, einen Hiddenlayer und einen Outputlayer umfassen. Innerhalb jedes Neurons finden die drei Verarbeitungsschritte Propagierung, Aktivierung und Ausgabe statt. Als Ausgang des i-ten Neurons der k-ten Schicht ergibt sich
Figure imgf000022_0001
wobei z.B. für k=2, als Bereich der Laufvariable j=1 ,2 Ni gilt, mit
Ni wird die Anzahl der Neuronen des Layers k-1. w als Gewicht und b als Bias (Schwellwert) bezeichnet. Der Bias b kann je nach Anwendung für alle Neuronen eines bestimmten Layers gleich oder unterschiedlich gewählt sein. Als Aktivierungsfunktion kann z.B. eine log-sigmoidale Funktion gewählt werden, wie
Figure imgf000022_0002
Die Aktivierungsfunktion (oder Transferfunktion) wird in jedem Neuron eingesetzt. Andere Aktivierungsfunktionen wie Tangentialfunktionen etc. sind jedoch erfindungsgemäss ebenfalls möglich. Beim Backpropagation- Verfahren ist jedoch darauf zu achten, dass eine differenzierbare Aktivierungsfunktion, wie z.B. eine sigmoide Funktion, da dies Voraussetzung für das Verfahren ist. D.h. also z.B. binäre Aktivierungsfunktion wie z.B.
„ fl falls JC > 0 f{x) := \ [θ falls* < 0 gehen für das Backpropagation Verfahren nicht. In den Neuronen der Ausgangsschicht werden die Ausgänge des letzten Hiddenlayers gewichtet aufsummiert. Die Aktivierungsfunktion des Outputlayers kann auch linear sein. Die Gesamtheit der Gewichtungen Wt und Bias 2?*7 zusammengefasst in den Parameter- bzw. Wichtungsmatrizen bestimmen das Verhalten der neuronalen Netzstruktur
Damit ergibt sich ok = Bk + Wk - (l + e-^"1^"1 »))"1 Die Art und Weise, wie das Netzwerk ein Eingabesignal auf ein
Ausgabesignal abbilden soll, d.h. die Bestimmung der gewünschten Gewichte und Bias des Netzwerkes, wird erreicht, indem das Netzwerk mittels Trainingsmuster trainiert wird. Der Satz der Trainingsmuster (Index μ) besteht aus dem Eingangssignal
Figure imgf000023_0001
und einem Ausgangssignal
Uμ = [ ,..., _]
In diesem Ausführungsbeispiel mit der Erfahrungstarifierung von Schadensfällen umfassen die Trainingsmuster die bekannten Ereignisse Pjιf mit den bekannten Entwicklungswerten Pjkf für alle k, f und i. Die Entwicklungswerte der zu extrapolierenden Ereignisse können dabei natürlich zum Training der neuronalen Netzwerke nicht verwendet werden, da zu ihnen der entsprechende Outputwert fehlt. Zu Beginn des Lernvorgangs kann die Initialisierung der Gewichte der Hiddenlayers, in diesem Ausführungsbeispiel also der Neuronen, z.B. mit einer log-sigmoidale Aktivierungsfunktion, z.B. nach Nguyen-Widrow (D. Nguyen, B. Widrow, "Improving the Learning Speed of 2-Layer Neural Networks by Choosing Initial Values of Adaptive Weights", International Joint Conference of Neural Networks, vol 3, pp 21-26, July 1990) durchgeführt werden. Falls für die Neuronen des Outputlayers eine lineare Aktivierungsfunktion gewählt wurde, könne die Gewichte z.B. mittels eines symmetrischen Zufallsgenerators initialisiert werden. Zum Training des Netzwerkes können verschiedene Lernverfahren des Standes der Technik verwendet werden, wie z.B. das Backpropagation-Verfahren, Learning Vector Quantization, Radial Basis Funktion, Hopfield-Algorithmus oder Kohonen-Algorithmus etc. Die Aufgabe des Trainingsverfahrens besteht darin, die Synapsengewichte Wjj und Bias bjj innerhalb der Wichtungsmatrix W bzw. der Biasmatrix B so zu bestimmen, dass die Eingabemuster Yμ auf die entsprechenden Ausgabemuster Uμ abgebildet werden. Zur Beurteilung des Lernstadiums kann z.B. der absolute quadratische Fehler
Figure imgf000024_0001
verwendet werden. Der Fehler Err berücksichtigt dabei alle Muster Pikf der Trainingsbasis, bei welchen die effektiven Ausgabesignale Uμ ff von den in der Trainingsbasis vorgegebenen Sollreaktionen U „ zeigen. Für dieses Ausführungsbeispiel soll als Lernverfahren das Backpropagation-Verfahren gewählt werden. Das Backpropagation-Verfahren ist ein rekursives Verfahren zur Optimierung der Gewichtsfaktoren w,j. Bei jedem Lernschritt wird nach dem Zufallsprinzip ein Eingabemuster Yμ ausgewählt und durch das Netz propagiert (Forwardpropagation). Mittels der oben beschriebenen Fehlerfunktion Err wird aus dem vom Netzwerk generierten Ausgabesignal mit der in der Trainingsbasis vorgegebenen Sollreaktion Uμ„ der Fehler Errμ auf das präsentierte Eingabemuster bestimmt. Die Änderungen der einzelnen Gewichte w nach der Präsentation des μ-ten Trainingsmusters sind dabei proportional zur negativen partiellen Ableitung des Fehlers Errμ nach dem Gewicht wy (sog. Gradientenabstiegsverfahren)
Δwr. «
Mit Hilfe der Kettenregel können aus der partiellen Ableitung die als Backpropagation-Regel bekannten Adaptionsvorschriften für die Elemente der Wichtungmatrix bei der Präsentation des μ-ten Trainingsmusters hergeleitet werden.
Figure imgf000025_0001
mit δμ =f ξμ (uμ -ue μ ff ) für den Outputlayer bzw.
Figure imgf000025_0002
für die Hiddenlayers. Der Fehler wird dabei beginnend mit dem
Outputlayer in umgekehrter Richtung durch das Netzwerk propagiert (Backpropagation) und gewissermassen nach dem Verursacherprinzip auf die einzelnen Neuronen aufgeteilt. Der Proportionalitätsfaktor s wird als Lernfaktor bezeichnet. Während der Trainingsphase wird einem neuronalen Netzwerk eine begrenzte Anzahl an Trainingsmustern präsentiert, welche die zu erlernende Abbildung ausreichend genau charakterisieren. In diesem Ausführungsbeispiel mit der Erfahrungstarifierung von Schadensfällen können die Trainingsmuster alle bekannten Ereignisse Pj,f mit den bekannten Entwicklungswerten Pjkf für alle k, f und i umfassen. Aber auch eine Auswahl aus den bekannten Ereignissen Pj,f ist vorstellbar. Wird dem Netzwerk anschliessend ein Eingabesignal präsentiert, welches nicht exakt mit den Mustern der Trainingsbasis übereinstimmt, so inter- bzw. extrapoliert das Netzwerk im Rahmen der erlernten Abbildungsfunktion zwischen den Trainingsmustern. Diese Eigenschaft wird als Generalisierungsfähigkeit der Netzwerke bezeichnet. Es ist charakteristisch für neuronale Netzwerke, dass neuronale Netzwerke eine gute Fehlertoleranz besitzen. Dies ist ein weiterer Vorteil gegenüber den Systemen des Standes der Technik. Da neuronale Netzwerke eine Vielzahl von (teilweise redundanten) Eingangssignalen auf das/die gewünschten Ausgabesignal/e abbilden, erweisen sich die Netzwerke als robust gegenüber Ausfall einzelner Eingangssignale bzw. gegenüber Signalrauschen. Eine weitere interessante Eigenschaft neuronaler Netzwerke ist deren Lernfähigkeit. Prinzipiell ist es daher möglich, ein einmal trainiertes System während des Betriebs permanent/periodisch nachlernen oder anpassen zu lassen, was ebenfalls ein Vorteil gegenüber den Systemen des Standes der Technik ist. Für das Lernverfahren können natürlich auch andere Verfahren verwendet werden, wie z.B. ein Verfahren nach Levenberg- Marquardt (D. Marquardt, "An Algorithm for least Square estimation of nonlinear Parameters", J.Soc.lnd.Appl.Math, pp 431-441 , 1963 sowie M.T. Hagan, M.B.Menjaj, "Training Feedforward Networks with the Marquardt Algorithm", lEEE-Transactions on Neural Networks, Vol 5, Nr 6, pp 989-993, November 1994). Das Levenberg-Marquardt-Verfahren ist eine Kombination der Gradient- Methode und des Newton-Verfahrens und hat den Vorteil, dass es schneller konvergiert als das oben erwähnte Backpropagation Verfahren, jedoch eine höhere Speicherkapazität während der Trainingsphase benötigt.
In dem Ausführungsbeispiel werden zur Bestimmung der Entwicklungswerte Pi,κ-(H)+ι,f fur jedes Anfangsjahr i iterativ (i-1 ) neuronale Netzwerke Njj erzeugt, j gibt für ein bestimmtes Anfangsjahr i die Anzahl Iterationen an mit j=1,...,(i-1). Damit werden für das i-te Anfangsjahr i-1 neuronale Netzwerke Njj erzeugt. Das neuronale Netzwerk Njj+ι hängt dabei rekursiv vom neuronalen Netzwerk Njj ab. Zum Gewichten, d.h. zum Trainieren, eines bestimmten neuronalen Netzwerkes Njj können z.B. alle
Entwicklungswerte Pq,f mit p=1 ,...,(i-1 ) und q=1 ,...,K-(i-j) der Ereignisse oder Schadensfälle Ppq verwendet werden. Eine eingeschränkte Auswahl kann je nach Anwendung jedoch ebenfalls sinnvoll sein. Die Daten der Ereignisse Ppq können z.B. wie erwähnt aus einer Datenbank ausgelesen werden und über eine Recheneinheit dem System präsentiert werden. Ein errechneter Entwicklungswert Piιklf kann z.B. dem entsprechenden Ereignis Pj,f eines Anfangsjahres i zugeordnet werden und selbst zur Bestimmung des nächsten Entwicklungswertes (z.B. Pi,k+ι,f) dem System präsentiert werden (Fig. 1 bis 6) oder die Zuordnung findet erst nach Ende der Bestimmung aller gesuchten Entwicklungswerte P statt (Fig. 7).
Im ersten Fall (Fig. 1 bis 6) werden, wie beschrieben, einem bestimmten Ereignis Pi,f eines Anfangsjahres i Entwicklungswerte Pij )f mit Entwicklungsjahr k=1 ,..,K zugeordnet, wobei für die Anfangsjahre i = 1 ,..,K und K das letzt bekannte Entwicklungsjahr ist. Für das erste Anfangsjahr i=1 sind alle Entwicklungswerte Pι,k,f bekannt. Für jedes Anfangsjahr i=2,..,K mittels Iterationen j=1 ,..,(i-1) wird bei jeder Iteration j in einem ersten Schritt ein neuronales Netzwerk Njj mit einem Inputlayer mit K-(i-j) Inputsegmenten und einem Outputlayer erzeugt. Jedes Inputsegment umfasst mindestens ein Inputneuron bzw. mindestens so viele Inputneurone, um das Inputsignal für einen Entwicklungswert Pj,k,f zu erhalten. Die neuronalen Netzwerke werden automatisch durch das System erzeugt und können hardwaremässig oder softwaremässig realisiert sein. In einem zweiten Schritt wird das neuronale Netzwerk Njj mit den verfügbaren Ereignissen Ej,f aller Anfangsjahre m=1 ,..,(i-1 ) mittels der Entwicklungswerte Pm,ι..κ-(i-j),f als Input und Pm,ι..κ-(i-j)+ι,f als Output gewichtet. In einem dritten Schritt werden mittels des neuronalen Netzwerkes Njj die Outputwerte Oj,f für alle Ereignisse Piιf des Anfangsjahres i bestimmt, wobei der Outputwert Oj,f dem Entwicklungswert Pi,κ-(i-j)+ι,f des Ereignisses Pj,f zugeordnet wird und wobei das neuronale Netzwerk Njj rekursiv vom neuronalen Netzwerk Njj+i abhängt. Fig. 1 zeigt die Trainings- bzw. Präsentationsphase eines neuronalen Netzwerkes zur Bestimmung des Ereigniswertes P2,5,f eines Ereignisses Pf in einer oberen 5x5 Matrix, d.h. bei K=5. Die gestrichelte Linie T gibt die Trainingsphase an und die ausgezogene Linie R die Bestimmungsphase nach dem Lernen. Figur 2 zeigt das Gleiche für das dritte Anfangsjahr zur Bestimmung von P3,4,f (B34) und Figur 3 zur
Bestimmung von P3,5,f. Figur 4 zeigt nur die Trainingsphase zur Bestimmung von P3,4,f und P3,5,f, wobei die erzeugten Werte P3ι4ιf (B34) zum Trainieren des Netzwerkes zur Bestimmung von P3,5,f verwendet werden. Ay gibt in den Figuren die bekannten Werte an, während By mittels der Netzwerke bestimmte Werte anzeigt. Figur 5 zeigt die rekursive Erzeugung der neuronalen Netzwerke zur Bestimmung der Werte in Zeile 3 einer 5x5 Matrix, wobei i-1 Netzwerke erzeugt werden, also 2. Figur 6 zeigt dagegen die rekursive Erzeugung der neuronalen Netzwerke zur Bestimmung der Werte in Zeile 3 einer 5x5 Matrix, wobei wiederum i-1 Netzwerke erzeugt werden, also 4.
Es ist wichtig darauf hinzuweisen, dass als Ausführungsbeispiel die Zuordnung der mittels des Systems erzeugten Ereigniswerte By auch erst nach der Bestimmung aller gesuchten Entwicklungswerte P stattfinden kann. Die neu bestimmten Werte stehen dann nicht als Inputwerte zur Bestimmung weiterer Ereigniswerte zur Verfügung. Figur 7 zeigt ein solches Verfahren, wobei die Trainingsbasis auf die bekannten Ereigniswerte Ay eingeschränkt ist. Anders ausgedrückt können die neuronalen Netzwerk Njj für gleiche j identisch sein, wobei für ein Anfangszeitintervall i+1 das neuronales Netzwerk Nj+ι j=i erzeugt wird und alle anderen neuronalen Netzwerke Nj+ij<i Netzwerken früheren Anfangszeitintervallen entsprechen. D.h. ein Netzwerk, das einmal zur
Berechnung eines bestimmten Ereigniswertes Py erzeugt wurde, wird für alle Eregniswerte mit einem Anfangsjahr a>i für die Werte Py mit gleichem j weiterverwendet.
Unterschiedliche neuronalen Netzwerke können im Falle der hier diskutierten Versicherungsfälle z.B. basierend auf unterschiedlichen Daten trainiert werden. Z.B. können die Netzwerke basierend auf den bezahlten Forderungen, basierend auf den angefallenen Forderungen, basierend auf den bezahlten und noch ausstehenden Forderungen (Reserven) und/oder basierend auf den bezahlten und angefallenen Forderungen trainiert werden. Das beste neuronale Netzwerk für jeden Fall kann z.B. mittels Minimierung des absoluten mittleren Fehlers der vorhergesagten Werte und den wirklichen Werte bestimmt werden. Z.B. lässt sich das Verhältnis des mittleren Fehlers zum mittleren vorhergesagten Wert (der bekannten Forderungen) auf die vorhergesagten Werte der modellierten Werte anwenden, um den Fehler zu erhalten. Für den Fall, dass die vorhergesagten Werte der vorgängigen Anfangsjahre zur Berechung der folgenden Anfangsjahre mitverwendet wird, muss der Fehler natürlich entsprechend kumuliert werden. Dies kann z.B. erreicht werden, indem die Quadratwurzel der Summe der Quadrate der individuellen Fehler jedes Modells verwendet wird.
Um eine weitere Abschätzung der Qualität bzw. des Trainingstandes der neuronalen Netzwerke zu erhalten, können z.B. die vorhergesagten Werte auch mittels der genannten Pareto-Verteilung gefittet werden. Diese
Abschätzung kann ebenfalls verwendet werden, um z.B. das beste neuronale Netzwerk von mit (wie im letzten Abschnitt beschrieben) unterschiedlichen Datensets trainierten neuronalen Netzwerken (z.B. bezahlten Forderungen, ausstehenden Forderungen etc.) zu bestimmen. Damit folgt mit der Pareto- Verteilung
Figure imgf000029_0001
mit
T(i) = Th((l-P(i)y-i!a)) wobei α der Fit-Parameter, Th der Schwellparameter (Threshold Value), T(i) der theoretische Wert der i-ten Zahlungsforderung, O(i) der beobachtete Wert der i-ten Zahlungsforderung, E(i) ist der Fehler der i-ten Zahlungsforderung und P(i) ist die kummulierte Wahrscheinlichkeit der i-ten Zahlungsforderung mit
P(l) = (—2n) und
P(z + l) = P( + - n und n die Anzahl Zahlungsforderungen. Für das hier beschriebene Ausführungsbeispiel wurde der Fehler der Systeme basierend auf den vorgeschlagenen neuronalen Netzwerken mit dem Chain-Ladder-Verfahren anhand von Kraftfahrzeugversicherungsdaten verglichen. Die Netzwerke wurden einmal mit den bezahlten Zahlungsforderungen und einmal mit den angefallenen Zahlungsforderungen verglichen. Um die Daten zu Vergleichen, wurden die einzelnen Werte in den Entwicklungsjahren kumuliert. Der direkte Vergleich zeigte für die gewählten Beispielsdaten pro 1000 folgende Resultate
Figure imgf000030_0001
Der hier gezeigte Fehler entspricht der Standardabweichung, d.h. dem σi-Fehler, der angegebenen Werte. Besonders für spätere Anfangsjahre, d.h. Anfangsjahre mit grösserem i zeigt das System basierend auf neuronalen Netzwerken bei der Bestimmung der Werte einen klaren Vorteil gegenüber den Verfahren des Standes der Technik, indem die Fehler im wesentlichen stabil bleiben. Dies ist beim Stand der Technik nicht der Fall, da der Fehler dort für zunehmende i nicht proportional zunimmt. Für grössere Anfangsjahre i zeigt sich eine deutliche Abweichung in der Höhe der kumulierten Werte zwischen den Chain Ladder Werten und denen, welche mit dem erfindungsgemässen Verfahren erhalten wurden. Diese Abweichung beruht auf der Tatsache, dass beim Chain Ladder Verfahren zusätzlich die IBNYR (Incurred But Not Yet Reported) Schäden berücksichtigt werden. Die IBNYR Schäden müssten zu den obengezeigten Werten des erfindungsgemässen Verfahrens addiert werden. Z.B. kann zur Berechnung von Portefeuillereserven die IBNYR Schäden mittels einer separaten Entwicklung (z.B. Chain Ladder) berücksichtigt werden. Bei der Reservierung von Einzelschäden oder bei der Ermittlung von Schadenshöhenverteilungen spielen die IBNYR Schäden jedoch keine Rolle.

Claims

Ansprüche
1. Computergestütztes System zur automatisierten Erfahrungstarifierung und/oder Schadensreservierung, wobei ein bestimmtes Ereignis Pj,f eines Anfangszeitintervalles i Entwicklungswerte Pikf der Entwicklungsintervalle k=1 ,..,K umfasst, wobei K das letzt bekannte Entwicklungsintervall ist mit i=1 ,...,K und wobei für die Ereignisse Pι,f alle Entwicklungswerte P1kf bekannt sind, dadurch gekennzeichnet, dass das System zur automatisierten Bestimmung der Entwicklungswerte Pj,κ+2-i,f, ■■■ , Pj,κ,f mindestens ein neuronales Netzwerk umfasst.
2. Computergestütztes System nach Anspruch 1 , dadurch gekennzeichnet, dass für die Ereignisse das Anfangszeitintervall einem Anfangsjahr entspricht und die Entwicklungsintervalle Entwicklungsjahren entsprechen.
3. Computergestütztes System nach einem der Ansprüche 1 oder 2, dadurch gekennzeichnet, dass das System zur Bestimmung der Entwicklungswerte Pj,κ+2-i,f. ■■■ , Pi,κ,f eines Ereignis Pj,f (i-1) iterativ erzeugte neuronale Netzwerke Njj für jedes Anfangszeitintervall i umfasst mit j=1 ,...,(i-1), wobei das neuronale Netzwerk Njj+i rekursiv vom neuronalen Netzwerk Njj abhängt.
4. Computergestütztes System nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass Trainingswerte zum Gewichten eines bestimmten neuronalen Netzwerkes Njj die Entwicklungswerte PPιq,f mit p=1 ,...,(i-1 ) und q=1 ,...,K-(i-j) umfassen.
5. Computergestütztes System nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die neuronalen Netzwerk Njj für gleiche j identisch sind, wobei für ein Anfangszeitintervall i+1 das neuronales Netzwerk erzeugt wird und alle anderen neuronalen Netzwerke Nj+ι j<j Netzwerken früheren Anfangszeitintervallen entsprechen.
6. Computergestütztes System nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass das System zusätzlich Ereignisse Pj,f mit Anfangszeitintervall i<1 umfasst, wobei für die Ereignisse Pj<ι,f alle Entwicklungswerte PKI. bekannt sind.
7. Computergestütztes System nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass das System mindestens einen Normierungsfaktor umfasst, mittels welchem die Entwicklungswerte Pjkf der verschiedenen Ereignis Pj,f entsprechend ihrem Anfangszeitintervall normierbar sind.
8. Computergestütztes Verfahren zur automatisierten
Erfahrungstarifierung und/oder Schadensreservierung, wobei einem bestimmten Ereignis Pj,f eines Anfangszeitintervalles i Entwicklungswerte Pi>k>f mit Entwicklungsintervallen k=1 ,..,K zugeordnet werden, wobei K das letzt bekannte Entwicklungsintervall ist mit i=1 ,...,K und wobei für die Ereignisse Pι,f alle Entwicklungswerte
Figure imgf000032_0001
bekannt sind, dadurch gekennzeichnet, dass zur Bestimmung der Entwicklungswerte Pj,κ+2-i,f, •■• , Pι, ,f mindestens ein neuronales Netzwerk verwendet wird.
9. Computergestütztes Verfahren nach Anspruch 8, dadurch gekennzeichnet, dass für die Ereignisse das Anfangszeitintervall einem Anfangsjahr zugeordnet wird und die Entwicklungsintervalle Entwicklungsjahren zugeordnet werden.
10. Computergestütztes Verfahren nach einem der Ansprüche 8 oder 9, dadurch gekennzeichnet, dass zur Bestimmung der Entwicklungswerte Pi,κ-(i-j)-n,f iterativ (i-1) neuronale Netzwerke Nj für jeden Anfangszeitintervall i erzeugt werden mit j=1 ,...,(i-1 ), wobei das neuronale Netzwerk Njj+1 rekursiv vom neuronalen Netzwerk Njj abhängt.
11. Computergestütztes Verfahren nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass zum Gewichten eines bestimmten neuronalen Netzwerkes N-,j die Entwicklungswerte Pp,qιf mit p=1 ,...,(i-1) und q=1,...,K-(i-j) verwendet werden.
12. Computergestütztes Verfahren nach einem der Ansprüche 8 bis 10, dadurch gekennzeichnet, dass die neuronalen Netzwerk N,j für gleiche j identisch trainiert werden, wobei für ein Anfangszeitintervall i+1 das neuronales Netzwerk N,+ι,j=f erzeugt wird und alle anderen neuronalen Netzwerke Nj+ι j<j von früheren Anfangszeitintervall übernommen werden.
13. Computergestütztes Verfahren nach einem der Ansprüche 8 bis
12, dadurch gekennzeichnet, dass zur Bestimmung zusätzlich Ereignisse Piιf mit Anfangszeitintervall i<1 verwendet werden, wobei für die Ereignisse Pj<ι,f alle Entwicklungswerte Pκι,k,f bekannt sind.
14. Computergestütztes Verfahren nach einem der Ansprüche 8 bis
13, dadurch gekennzeichnet, dass mittels mindestens einen Normierungsfaktor die Entwicklungswerte Pikf der verschiedenen Ereignis P,,f entsprechend ihrem Anfangszeitintervall normiert werden.
15. Computergestütztes Verfahren zur automatisierten Erfahrungstarifierung und/oder Schadensreservierung, wobei einem bestimmten Ereignis Pj,f eines Anfangszeitintervall i Entwicklungswerte P-I> ιf mit Entwicklungsintervallen k=1 ,..,K zugeordnet abgespeichert werden, wobei i = 1 ,..,K und K das letzt bekannte Entwicklungsintervallen ist und wobei für das erste Anfangszeitintervall alle Entwicklungswerte Pι,k,f bekannt sind, dadurch gekennzeichnet, dass für jedes Anfangszeitintervall i=2,..,K mittels Iterationen j=1 ,..,(i- 1 ) bei jeder Iteration j in einem ersten Schritt ein neuronales Netzwerk N-,j mit einem Inputlayer mit K-(i-j) Inputsegmenten und einem Outputlayer erzeugt wird, wobei jedes Inputsegment mindestens ein Inputneuron umfasst und einem Entwicklungswert Piιk,f zugeordnet wird, dass in einem zweiten Schritt das neuronale Netzwerk Njj mit den verfügbaren Ereignissen Pj,f aller Anfangszeitintervalle m=1 ,..,(i-1) mittels der Entwicklungswerte Pm,ι..κ-(i-j),f als Input und Pm,ι..κ-(i-j)+ι,f als Output gewichtet wird, und dass in einem dritten Schritt mittels des neuronalen Netzwerkes Njj die Outputwerte Oj,f für alle Ereignisse Pj,f des Anfangsjahres i bestimmt werden, wobei der Outputwert Oj,f dem Entwicklungswert Pi,κ-(i-j)+ι ,f des
Ereignisses Pj,f zugeordnet wird und wobei das neuronale Netzwerk Nj rekursiv vom neuronalen Netzwerk Njj+i abhängt.
16. Computergestütztes Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass für die Ereignisse das Anfangszeitintervall einem Anfangsjahr zugeordnet wird und die Entwicklungsintervalle Entwicklungsjahren zugeordnet werden.
17. System von neuronalen Netzwerken, welche neuronalen Netzwerke Nj jeweils einen Inputlayer mit mindestens einem Inputsegment und einen Outputlayer umfassen, wobei der Input- und Outputlayer eine Vielzahl von Neuronen umfasst, die gewichtet miteinander verbunden sind, dadurch gekennzeichnet, dass die neuronalen Netzwerke Nj mittels einer Recheneinheit Software- und/oder hardwaremässig iterativ erzeugbar sind, wobei ein neuronales Netzwerk Nj+i rekursiv vom neuronalen Netzwerk Nj abhängt und jedes Netzwerk Ni+1 jeweils ein Inputsegment mehr als das Netzwerk Nj umfasst, dass jedes neuronale Netzwerk Nj beginnend beim neuronalen Netzwerk Ni mittels eines Minimierungsmoduls durch Minimierung eines lokal propagierten Fehlers trainierbar ist, und dass das rekursive System von neuronalen Netzwerken mittels einem Minimierungsmodul durch Minimierung eines global propagierten Fehlers basierend auf den lokalen Fehlern der neuronalen Netzwerke Nj trainierbar ist.
18. System von neuronalen Netzwerken nach Anspruch 17, dadurch gekennzeichnet, dass der Outputlayer des neuronalen Netzwerkes Nj mit mindestens einem Inputsegment des Inputlayers des neuronalen Netzwerkes Nj+ι zugeordnet verbunden ist.
19. Computerprogrammprodukt, welches ein computerlesbares
Medium mit darin enthaltenen Computerprogrammcodemitteln zur Steuerung eines oder mehrerer Prozessoren eines computer-basierten Systems zur automatisierten Erfahrungstarifierung und/oder Schadensreservierung umfasst, wobei einem bestimmten Ereignis Pj,f eines Anfangszeitintervalles i Entwicklungswerte Pj,k,f mit Entwicklungsintervalles k=1 ,..,K zugeordnet abgespeichert umfasst, wobei i = 1 ,..,K und K das letzt bekannte Entwicklungsintervall ist und wobei für das erste Anfangszeitintervalles i=1 alle Entwicklungswerte Pι,k,f bekannt sind, dadurch gekennzeichnet, dass mittels des Computerprogrammproduktes mindestens ein neuronales Netzwerk softwaremässig generierbar ist und zur Bestimmung der Entwicklungswerte Pj,κ+2-i,f, ••• , Pι,κ,f verwendbar ist.
20. Computerprogrammprodukt nach Anspruch 19, dadurch gekennzeichnet, dass für die Ereignisse das Anfangszeitintervall einem Anfangsjahr zugeordnet ist und die Entwicklungsintervalle Entwicklungsjahren zugeordnet sind.
21. Computerprogrammprodukt nach einem der Ansprüche 19 oder
20, dadurch gekennzeichnet, dass zur Bestimmung der Entwicklungswerte Pj,«- (j-jj+i.f für jedes Anfangszeitintervall i mittels des Computerprogrammprodukt iterativ (i-1) neuronale Netzwerke Njj erzeugbar sind mit j=1 ,...,(i-1), wobei das neuronale Netzwerk Njj+i rekursiv vom neuronalen Netzwerk Njj abhängt.
22. Computerprogrammprodukt nach einem der Ansprüche 19 bis
21 , dadurch gekennzeichnet, dass zum Gewichten eines bestimmten neuronalen Netzwerkes Njj mittels des Computerprogrammprodukt die Entwicklungswerte Pp,q,f mit p=1 ,...,(i-1 ) und q=1 ,...,K-(i-j) aus einer Datenbank auslesbar sind.
23. Computerprogrammprodukt nach einem der Ansprüche 19 bis 21 , dadurch gekennzeichnet, dass beim Computerprogrammprodukt die neuronalen Netzwerk Njj für gleiche j identisch trainiert werden, wobei mittels des Computerprogrammprodukt für ein Anfangszeitintervall i+1 das neuronale Netzwerk
Figure imgf000036_0001
erzeugt wird und alle anderen neuronalen Netzwerke Ni+ι j<j von früheren Anfangszeitintervall übernommen werden.
24. Computerprogrammprodukt nach einem der Ansprüche 19 bis
23, dadurch gekennzeichnet, dass die Datenbank zusätzlich Ereignisse Pj,f mit Anfangszeitintervall i<1 abgespeichert umfasst, wobei für die Ereignisse Pi<1,f alle Entwicklungswerte Pj<ι,k,f bekannt sind.
25. Computerprogrammprodukt nach einem der Ansprüche 19 bis
24, dadurch gekennzeichnet, dass das Computerprogrammprodukt mindestens einen Normierungsfaktor umfasst, mittels welchem die Entwicklungswerte Pjkf der verschiedenen Ereignis Pj,f entsprechend ihrem Anfangszeitintervall normierbar sind.
26. Computerprogrammprodukt, welches in den internen Speicher eines digitalen Computers ladbar ist und Softwarecodeabschnitte umfasst, mit denen die Schritte gemäss einem der Ansprüche 8 bis 16 durchführbar sind, wenn das Produkt auf einem Computer läuft, wobei die neuronalen Netzwerke softwaremässig und/oder hardwaremässig generierbar sind.
PCT/CH2003/000612 2003-09-10 2003-09-10 System und verfahren zur automatisierten erfahrungstarifierung und/oder schadensreservierung WO2005024717A1 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
AU2003257361A AU2003257361A1 (en) 2003-09-10 2003-09-10 System and method for the automated establishment of experience ratings and/or risk reserves
CA002504810A CA2504810A1 (en) 2003-09-10 2003-09-10 System and method for the automated establishment of experience ratings and/or risk reserves
EP03817702A EP1530780A1 (de) 2003-09-10 2003-09-10 System und verfahren zur automatisierten erfahrungstarifierung und/oder schadensreservierung
PCT/CH2003/000612 WO2005024717A1 (de) 2003-09-10 2003-09-10 System und verfahren zur automatisierten erfahrungstarifierung und/oder schadensreservierung
US10/531,459 US20060015373A1 (en) 2003-09-10 2003-09-10 System and method for automated establishment of experience ratings and/or risk reserves
CNA038245515A CN1689036A (zh) 2003-09-10 2003-09-10 用于自动建立经验评级和/或风险准备金的系统和方法
JP2005508663A JP2006522376A (ja) 2003-09-10 2003-09-10 自動的な経験料率の設定、及び/又は、損失積立のためのシステム、及び、方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CH2003/000612 WO2005024717A1 (de) 2003-09-10 2003-09-10 System und verfahren zur automatisierten erfahrungstarifierung und/oder schadensreservierung

Publications (1)

Publication Number Publication Date
WO2005024717A1 true WO2005024717A1 (de) 2005-03-17

Family

ID=34230818

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CH2003/000612 WO2005024717A1 (de) 2003-09-10 2003-09-10 System und verfahren zur automatisierten erfahrungstarifierung und/oder schadensreservierung

Country Status (7)

Country Link
US (1) US20060015373A1 (de)
EP (1) EP1530780A1 (de)
JP (1) JP2006522376A (de)
CN (1) CN1689036A (de)
AU (1) AU2003257361A1 (de)
CA (1) CA2504810A1 (de)
WO (1) WO2005024717A1 (de)

Families Citing this family (44)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030125997A1 (en) * 2001-12-20 2003-07-03 Allison Stoltz System and method for risk assessment
US7818186B2 (en) * 2001-12-31 2010-10-19 Genworth Financial, Inc. System for determining a confidence factor for insurance underwriting suitable for use by an automated system
US7844477B2 (en) 2001-12-31 2010-11-30 Genworth Financial, Inc. Process for rule-based insurance underwriting suitable for use by an automated system
US20030182159A1 (en) * 2001-12-31 2003-09-25 Bonissone Piero Patrone Process for summarizing information for insurance underwriting suitable for use by an automated system
US8005693B2 (en) * 2001-12-31 2011-08-23 Genworth Financial, Inc. Process for determining a confidence factor for insurance underwriting suitable for use by an automated system
US7630910B2 (en) * 2001-12-31 2009-12-08 Genworth Financial, Inc. System for case-based insurance underwriting suitable for use by an automated system
US7895062B2 (en) 2001-12-31 2011-02-22 Genworth Financial, Inc. System for optimization of insurance underwriting suitable for use by an automated system
US8793146B2 (en) 2001-12-31 2014-07-29 Genworth Holdings, Inc. System for rule-based insurance underwriting suitable for use by an automated system
US7899688B2 (en) 2001-12-31 2011-03-01 Genworth Financial, Inc. Process for optimization of insurance underwriting suitable for use by an automated system
US7844476B2 (en) * 2001-12-31 2010-11-30 Genworth Financial, Inc. Process for case-based insurance underwriting suitable for use by an automated system
US20030177032A1 (en) * 2001-12-31 2003-09-18 Bonissone Piero Patrone System for summerizing information for insurance underwriting suitable for use by an automated system
US7813945B2 (en) * 2003-04-30 2010-10-12 Genworth Financial, Inc. System and process for multivariate adaptive regression splines classification for insurance underwriting suitable for use by an automated system
US7801748B2 (en) * 2003-04-30 2010-09-21 Genworth Financial, Inc. System and process for detecting outliers for insurance underwriting suitable for use by an automated system
US7567914B2 (en) * 2003-04-30 2009-07-28 Genworth Financial, Inc. System and process for dominance classification for insurance underwriting suitable for use by an automated system
US7383239B2 (en) * 2003-04-30 2008-06-03 Genworth Financial, Inc. System and process for a fusion classification for insurance underwriting suitable for use by an automated system
US20040236611A1 (en) * 2003-04-30 2004-11-25 Ge Financial Assurance Holdings, Inc. System and process for a neural network classification for insurance underwriting suitable for use by an automated system
US7711584B2 (en) * 2003-09-04 2010-05-04 Hartford Fire Insurance Company System for reducing the risk associated with an insured building structure through the incorporation of selected technologies
US9311676B2 (en) * 2003-09-04 2016-04-12 Hartford Fire Insurance Company Systems and methods for analyzing sensor data
US20050125253A1 (en) * 2003-12-04 2005-06-09 Ge Financial Assurance Holdings, Inc. System and method for using medication and medical condition information in automated insurance underwriting
US7698159B2 (en) * 2004-02-13 2010-04-13 Genworth Financial Inc. Systems and methods for performing data collection
US7664662B1 (en) * 2006-03-16 2010-02-16 Trurisk Llc Computerized medical modeling of group life and disability insurance using medical claims data
US7555439B1 (en) 2005-07-21 2009-06-30 Trurisk, Llc Computerized medical underwriting of group life insurance using medical claims data
US7555438B2 (en) * 2005-07-21 2009-06-30 Trurisk, Llc Computerized medical modeling of group life insurance using medical claims data
US7249040B1 (en) * 2006-03-16 2007-07-24 Trurisk, L.L.C. Computerized medical underwriting of group life and disability insurance using medical claims data
US20080077451A1 (en) * 2006-09-22 2008-03-27 Hartford Fire Insurance Company System for synergistic data processing
US8359209B2 (en) 2006-12-19 2013-01-22 Hartford Fire Insurance Company System and method for predicting and responding to likelihood of volatility
WO2008079325A1 (en) * 2006-12-22 2008-07-03 Hartford Fire Insurance Company System and method for utilizing interrelated computerized predictive models
US20090043615A1 (en) * 2007-08-07 2009-02-12 Hartford Fire Insurance Company Systems and methods for predictive data analysis
US9665910B2 (en) * 2008-02-20 2017-05-30 Hartford Fire Insurance Company System and method for providing customized safety feedback
US20100070398A1 (en) * 2008-08-08 2010-03-18 Posthuma Partners Ifm Bv System and method for combined analysis of paid and incurred losses
US8355934B2 (en) * 2010-01-25 2013-01-15 Hartford Fire Insurance Company Systems and methods for prospecting business insurance customers
US9460471B2 (en) 2010-07-16 2016-10-04 Hartford Fire Insurance Company System and method for an automated validation system
US8727991B2 (en) * 2011-08-29 2014-05-20 Salutron, Inc. Probabilistic segmental model for doppler ultrasound heart rate monitoring
US10937102B2 (en) * 2015-12-23 2021-03-02 Aetna Inc. Resource allocation
US10394871B2 (en) 2016-10-18 2019-08-27 Hartford Fire Insurance Company System to predict future performance characteristic for an electronic record
CN107784590A (zh) * 2017-02-16 2018-03-09 平安科技(深圳)有限公司 一种理赔准备金的评估方法和装置
US20210256615A1 (en) 2017-09-27 2021-08-19 State Farm Mutual Automobile Insurance Company Implementing Machine Learning For Life And Health Insurance Loss Mitigation And Claims Handling
US10460214B2 (en) * 2017-10-31 2019-10-29 Adobe Inc. Deep salient content neural networks for efficient digital object segmentation
CN109214937A (zh) * 2018-09-27 2019-01-15 上海远眸软件有限公司 保险理赔智能反欺诈判定方法和系统
WO2020130171A1 (ko) * 2018-12-18 2020-06-25 (주)아크릴 뉴럴 네트워크를 이용한 언더라이팅 자동화 장치 및 방법
JP6813827B2 (ja) * 2019-05-23 2021-01-13 株式会社アルム 情報処理装置、情報処理システム、および情報処理プログラム
CN110245879A (zh) * 2019-07-02 2019-09-17 中国农业银行股份有限公司 一种风险评级方法及装置
US20210295170A1 (en) * 2020-03-17 2021-09-23 Microsoft Technology Licensing, Llc Removal of engagement bias in online service
US12020400B2 (en) 2021-10-23 2024-06-25 Adobe Inc. Upsampling and refining segmentation masks

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5761442A (en) * 1994-08-31 1998-06-02 Advanced Investment Technology, Inc. Predictive neural network means and method for selecting a portfolio of securities wherein each network has been trained using data relating to a corresponding security
US5987444A (en) * 1997-09-23 1999-11-16 Lo; James Ting-Ho Robust neutral systems
WO2002047026A2 (de) * 2000-12-07 2002-06-13 Kates Ronald E Verfahren zur ermittlung konkurrierender risiken

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6430539B1 (en) * 1999-05-06 2002-08-06 Hnc Software Predictive modeling of consumer financial behavior
WO2002033628A2 (en) * 2000-10-18 2002-04-25 Johnson & Johnson Consumer Companies, Inc. Intelligent performance-based product recommendation system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5761442A (en) * 1994-08-31 1998-06-02 Advanced Investment Technology, Inc. Predictive neural network means and method for selecting a portfolio of securities wherein each network has been trained using data relating to a corresponding security
US5987444A (en) * 1997-09-23 1999-11-16 Lo; James Ting-Ho Robust neutral systems
WO2002047026A2 (de) * 2000-12-07 2002-06-13 Kates Ronald E Verfahren zur ermittlung konkurrierender risiken

Also Published As

Publication number Publication date
CN1689036A (zh) 2005-10-26
CA2504810A1 (en) 2005-03-17
EP1530780A1 (de) 2005-05-18
AU2003257361A1 (en) 2005-03-29
US20060015373A1 (en) 2006-01-19
JP2006522376A (ja) 2006-09-28

Similar Documents

Publication Publication Date Title
WO2005024717A1 (de) System und verfahren zur automatisierten erfahrungstarifierung und/oder schadensreservierung
EP2112568B1 (de) Verfahren zur rechnergestützten Steuerung und/oder Regelung eines technischen Systems
EP2185980B1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung mit hilfe neuronaler netze
DE112018004992B4 (de) Übertragung synaptischer gewichte zwischen leitfähigkeitspaaren mitpolaritätsumkehr zum verringern fester einheitenasymmetrien
DE102019116305A1 (de) Pipelining zur verbesserung der inferenzgenauigkeit neuronaler netze
DE102012009502A1 (de) Verfahren zum Trainieren eines künstlichen neuronalen Netzes
EP2106576A1 (de) Verfahren zur rechnergestützten steuerung und/oder regelung eines technischen systems
DE60125536T2 (de) Anordnung zur generierung von elementensequenzen
DE112020001369T5 (de) Gepulste synaptische elemente für gepulste neuronale netze
EP0925541B1 (de) Verfahren und vorrichtung zur rechnergestützten generierung mindestens eines künstlichen trainingsdatenvektors für ein neuronales netz
DE112020005613T5 (de) Neuromorphe Einheit mit Kreuzschienen-Array-Struktur
Nor et al. Neural network versus classical time series forecasting models
DE10139682A1 (de) Verfahren zum Generieren von neuronalen Netzen
DE60022398T2 (de) Sequenzgenerator
Yaakob et al. A hybrid intelligent algorithm for solving the bilevel programming models
DE10356655B4 (de) Verfahren und Anordnung sowie Computerprogramm mit Programmcode-Mitteln und Computerprogramm-Produkt zur Ermittlung eines zukünftigen Systemzustandes eines dynamischen Systems
DE102019216973A1 (de) Lernverfahren für neuronale netze basierend auf evolutionären algorithmen
EP0548127A1 (de) Neuronales Netzwerk und Schaltungsanordnung zur Bool&#39;schen Realisierung neuronaler Netze vom ADALINE-Typ.
DE102004059684B3 (de) Verfahren und Anordnung sowie Computerprogramm mit Programmmcode-Mitteln und Computerprogramm-Produkt zur Ermittlung eines zukünftigen Systemzustandes eines dynamischen Systems
WO2005048143A1 (de) System und verfahren zur automatisierten kreditrisikoindexierung
WO2000063751A1 (de) Verfahren und anordnung zur modellierung eines technischen systems
EP3710992A1 (de) Künstliches neuronales netz und verfahren hierzu
WO2013182176A1 (de) Verfahren zum trainieren eines künstlichen neuronalen netzes und computerprogrammprodukte
Ali et al. Modeling stock market exchange prices using artificial neural network: A study of amman stock exchange
WO2024110126A1 (de) Verfahren und maschinensteuerung zum steuern einer maschine

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2003817702

Country of ref document: EP

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): GH GM KE LS MW MZ SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IT LU MC NL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
ENP Entry into the national phase

Ref document number: 2006015373

Country of ref document: US

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 10531459

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2003257361

Country of ref document: AU

Ref document number: 646/CHENP/2005

Country of ref document: IN

WWE Wipo information: entry into national phase

Ref document number: 20038245515

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2504810

Country of ref document: CA

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWP Wipo information: published in national office

Ref document number: 2003817702

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2005508663

Country of ref document: JP

WWP Wipo information: published in national office

Ref document number: 10531459

Country of ref document: US

WWR Wipo information: refused in national office

Ref document number: 2003817702

Country of ref document: EP

WWW Wipo information: withdrawn in national office

Ref document number: 2003817702

Country of ref document: EP