JP2006522376A - 自動的な経験料率の設定、及び/又は、損失積立のためのシステム、及び、方法 - Google Patents

自動的な経験料率の設定、及び/又は、損失積立のためのシステム、及び、方法 Download PDF

Info

Publication number
JP2006522376A
JP2006522376A JP2005508663A JP2005508663A JP2006522376A JP 2006522376 A JP2006522376 A JP 2006522376A JP 2005508663 A JP2005508663 A JP 2005508663A JP 2005508663 A JP2005508663 A JP 2005508663A JP 2006522376 A JP2006522376 A JP 2006522376A
Authority
JP
Japan
Prior art keywords
neural network
progress
time interval
computer
event
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005508663A
Other languages
English (en)
Inventor
カウパース,フランク
Original Assignee
スイス リインシュアランス カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by スイス リインシュアランス カンパニー filed Critical スイス リインシュアランス カンパニー
Publication of JP2006522376A publication Critical patent/JP2006522376A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q40/00Finance; Insurance; Tax strategies; Processing of corporate or income taxes
    • G06Q40/08Insurance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Accounting & Taxation (AREA)
  • Finance (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Strategic Management (AREA)
  • General Business, Economics & Management (AREA)
  • Marketing (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Development Economics (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Technology Law (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Financial Or Insurance-Related Operations Such As Payment And Settlement (AREA)
  • Complex Calculations (AREA)

Abstract

イベントにおける自動経験料率設定、及び/又は、損失積立のためのシステム、及び、方法であって、初期年iの特定のイベントPi,fは、進展年kにおける進展値Pikfを含む。ここで、i,kにおいて、i=1,..,Kであり、k=1,...,Kであり、Kは最後の周知の進展年である。そして最初の初期年i=1は、特定の方法で全ての進展値P1kfを含む。進展値Pi,K-(i-j)+1,fを決定するために、ニューラルネットワークNi,jは、最初の時間間隔i毎に繰り返し(i−1)回形成される。ここで、j=1,...,(i−1)は、特定の初期年iにおける繰り返し数であり、そしてニューラルネットワークNi,j+1は、ニューラルネットワークNi,jに再帰的に依存している。特に、システム、及び、方法は、保険契約、及び/又は、過剰な損害再保険契約における経験料率の設定に適している。

Description

本発明は、自動的な経験料率の設定、及び/又は、損失積立のためのシステム、及び、方法、進展値Pikfを含む一連の進展期間k=1,...,Kに対する、f=1,...,Fiである最初の時間間隔iの特定のイベントPifに関する。最初の時間間隔i=1のイベントP1fにおいては、f=1,...,F1である全ての進展値P1kfが知られている。本発明は、特に、この方法を実行するためのコンピュータプログラム製品に関する。
経験料率の設定は、従来、特定の年(発生年、又は、初期年)に初めて行なわれるイベントのパラメータの値進展に関連し、そして、その影響は数年、いわゆる進展年数にわたって伝搬する。より一般的に言うと、イベントは、特定の時点で行なわれ、所定の時間間隔で進展する。また、同じイベントのイベント値は、様々な進展年数、又は、進展時間間隔にわたって、従属的で、遡及的な進展を示す。イベント値の経験料率の設定は、外挿法、及び/又は、過去の周知の同様のイベントの値進展との比較によって行なわれる。
従来技術の一般的な例は、例えば保険会社、又は、再保険会社における損害イベントの支払い状態Z、又は、積立状態Rに関する、損害イベントに基づく数年の経験料率の設定である。損害イベントの経験料率の設定において、保険会社は、損害の通知の時から現在の状態まで、あるいは調停まで、1つ1つの損害イベントの進展を認知している。経験料率の設定の場合、確率論的モデルによる伝統的な信頼性公式の確立は、約30年前から始まっており、それ以来、モデルの多数の変形例が開発されてきた。そのため、今日では、現実的な信頼性理論について話すことができる。信頼性公式の適用における主な問題は、ポートフォリオの仕組みによって決定される未知のパラメータにある。評価の周知の方法に代わるものとして、従来技術にあってはゲーム理論方法も提案されている。例えば、保険数理士、又は、保険統計学者は、パラメータに関する限界を認知しているとともに、最も都合が悪いケースにおける最適な保険料を決定する。また、信頼性理論は、長期にわたる影響のために積み立てを行なう多くのモデルを含む。信頼性公式とは異なり、未知のパラメータに依存しない様々な積立方法が含まれている。ここでも、従来技術は、データの発生を表わす確率論的モデルによる方法を含む。一連の結果は、とりわけ、未決済の支払い要求を計算するため、及び/又は、損害イベントを外挿するための最も良く知られた方法のうちの1つであるチェーンラダー方法のために存在する。チェーンラダー方法の長所は、一方では、その単純さであり、他方では、この方法がほとんど分布によらない方法であるという点、すなわち、この方法がほとんど仮説に基づかないという点である。分布によらない方法、すなわちノンパラメトリック方法は、進展するパラメータの予期される分布(例えばガウス分布等)に関する詳細をユーザが十分に与えることができない、あるいは、全く与えることができない場合に特に適している。
チェーンラダー方法とは、発生年i(i=1,...,l)からの、f=1,2,...,Fiであるイベント又は損失Pifのうち値Pikfが分かっている方法である。Pikfは、例えば、各取扱年k=1,...,Kの最後の支払い状態、又は、積立状態であっても良い。したがって、イベントPifは、この場合、以下の一連の点にあり、
Figure 2006522376
そのうちの最初の(K+1−i)個の点が知られ、そして未だ知られていない点(Pi,K+2-1,f,...,Pi,K,f)を予測しなければならない。イベントPifの値は、いわゆる損失トライアングル、更に一般的には、以下のようなイベント値トライアングルを形成する。
Figure 2006522376
行、及び、列は、損害発生年、及び、取扱年によって形成される。一般的に言えば、例えば、行は初期年を示しており、列は審査されたイベントの進展年を示しており、また、表示をそれと異ならせることもできる。ここで、チェーンラダー方法は、累積損失トライアングルに基づいており、そのエントリCijは、例えば、単なる損失支払い、又は、損失支出(損失支払い+損失積立の変化)である。有効な累積配列要素Cijは以下の通りであり、
Figure 2006522376
これから、以下のようになる。
Figure 2006522376
チェーンラダー方法によって内挿された累積値から、個々のイベントを、推定される値の特定の分布、例えば一般的にはパレート分布、の中で、再び判断することもできる。パレート分布は、例えば主要損失の保険、又は、再保険会社等のような保険タイプに特に適している。パレート分布は以下の形式をとる。
Figure 2006522376
ここで、Tは閾値であり、αはフィットパラメータである。チェーンラダー方法の単純さは、特に、適用において必要となるものが、(個々のイベントの進展値によって累積された)前述した損失トライアングルだけであり、例えば、報告日に関する情報、積立手続き、又は、損失額の予定される分布に関する仮定等が不要であるという点にある。チェーンラダー方法の欠点は、従来技術において十分に知られている(例えば、非特許文献1、及び、非特許文献2を参照)。良好な見積もり値を得るためには、十分なデータ履歴が必要である。特に、チェーンラダー方法は、自動車損害賠償保険等の事業の分野において成功を収めている。例えば、この場合、チェーンラダー方法の鑑定人は、修正ポアソン分布によるモデルの最尤推定量に対応しているので、損失年数の差は大部分において損失頻度の差によるものである。したがって、例えば、損失額分布の変化(例えば、最大損害賠償金額の増大、又は、保有額の変化)が起こる年の場合には、これらの変化によってチェーンラダー方法における構造上の欠陥が生じるおそれがあるため、注意する必要がある。一般的な損害賠償保険等の流出時間が極めて長い事業分野においてチェーンラダー方法を使用すると、多くの場合同様に使用できる結果が得られるが、流出時間が長いため、例えば、最終損失割当額の信頼できる評価等のデータは、めったに利用することができない。しかしながら、チェーンラダー方法の主な欠点は、チェーンラダー方法が累積損失トライアングルに基づいているという点にある。すなわち、同じ初期年のイベントにおけるイベント値の累積により、個々の損失、及び/又は、イベントに関する欠くことができない情報が失われ、もはや当該情報をその後に回復することができない。
従来技術においては、例えば、非特許文献3が知られている。この方法では、値を伝搬することができる。すなわち、個々のイベントに関する情報を失うことなく、損失トライアングルの値を外挿することができる。したがって、トーマス・マックの方法で、各損失のための完全な数値基準を使用することにより、個々のIBNER積立を計算することができる(IBNER:既発生不十分報告)。IBNER要求は、予測値を超えた支払い要求か、未決済の支払い要求かのいずれかを意味すると理解されている。IBNER積立は、一般に再保険会社が少なくとも関連する主要損失において必要な個々の損失データを受ける場合、過剰な損害再保険契約の経験料率の設定において特に有用である。再保険会社の場合、危険のポートフォリオの一時的な進展は、被害数値、及び、損失額がモデリングされる危険プロセスで表わし、これにより、過剰な損害再保険において、当初の保険会社から再保険会社への移行時、危険プロセスの不測の希釈現象が生じる。一方、再保険により、幾つかの当初の保険会社のポートフォリオが組み合わされ、それにより、危険プロセスが重なり合ってしまう。これまで、希釈、及び、重なり合いの影響は、特にポアソン危険プロセスにおいて検討されてきた。保険/再保険において、トーマス・マックの方法による経験料率の設定は、発生年又は初期年i(i=1,...,l)からの、f=1,2,....,Fiにおける各損失Pifのうち、現在の状態(Zi,K+1-i,f,Ri,K+1-i,f)までの各取扱年又は進展年k(k=1,...,K)の最後における支払い状態Zikf及び積立状態Rikfが知られていることを意味している。したがって、この場合の損失Pifは、支払い積立レベルにおける以下のような一連の点から成る。
Figure 2006522376
これらのうち、最初の(K+1−i)個の点は知られており、そして未だ知られていない点(Zi,K+2-i,f,Ri,K+2-i,f),...,(Zi,K,f,Ri,K,f)は予測しなければならない。無論、特に関心となるところは最後の状態(Zi,K,f,Ri,K,f)であり、Ri,K,fは、理想的な場合、ゼロに等しくなる。すなわち、クレームが完全に解決されたと見なされる。これが達成されることができるかどうかは、考慮される進展期間の長さKによって決まる。従来技術においては、例えばトーマス・マックの方法の場合のように、クレーム状態(Zi,K+1-i,f,Ri,K+1-i,f)は、先の発生年から、同様のクレームにおいてそうであったように継続する。したがって、従来の方法においては、一方で、2つのクレームがいつ「同様」であるかを決定しなければならず、そして他方で、クレームを「続ける」ことが何を意味するのかを決定しなければならない。また、このようにして生じるIBNER積立に加えて、第2段階では、本当に遅れたクレームをどのように計算すべきかを決定しなければならず、これについては、現在、何も分かっていない。
類似性を限定するため、例えば、以下のようなユークリッド距離が、従来技術において支払い積立レベルに使用される。
Figure 2006522376
しかし、ユークリッド距離を用いても、所定のクレーム(Pi,1,f,Pi,2,f,...,Pi,K+1-i,f)において、k>K+1−iである先の発生年の最も近似するクレーム、(すなわち、クレームP1〜(Pの頭上にチルダ記号〜:以下同様に表現する),...,Pk〜)を見出す多くの可能性がある。この場合、以下のうちのいずれかが最小となる。
Figure 2006522376
または、
Figure 2006522376
または、
Figure 2006522376
または、
Figure 2006522376
トーマス・マックの方法の例においては、通常、現在の距離が使用される。このことは、1つのクレーム(P1,...,Pk)においてはk番目の進展年まで知られている取り扱い、他の全てのクレーム(P〜1,...P〜j)のうちでは少なくとも進展年j≧k+1まで知られている進展、すなわち、最も類似すると見なされるものが、現在の距離d(Pk,P〜k)が最も短いものであることを意味している。
ここで、クレーム(P1,...,Pk)は、その最も近い距離「モデル」(P〜1,...,P〜k,P〜k+1,...,P〜j)における場合と同様に継続される。これを行なうため、1つの取扱年間(すなわち、最高でPk+iまで)にわたって継続する可能性があり、または、幾つかの進展年間(最高でPjまで)にわたって同時に継続する可能性がある。トーマス・マックの方法等の方法においては、例えば、その後に最も類似する新たなクレームを再び探すため、クレームは、一般には、最初に、ただ1つの取扱年継続され、それにより、ただ継続したクレームは、更なる1つの進展年にわたって継続される。無論、見出される次のクレームも再び、先と同じクレームであっても良い。損害クレームの継続においては、2つの可能性がある。Pk=(Zk,Rk)の加法的な続きは、以下の通りであり、
Figure 2006522376
また、Pk=(Zk,Rk)の乗法的な続きは、以下の通りである。
Figure 2006522376
従来技術の欠点のうちの1つ、特にトーマス・マックの方法の欠点のうちの1つが、特に、損害クレームの継続のタイプに内在することは言うまでもない。乗法的な継続は、いわゆるオープンクレーム状態(すなわち、Zk>0,Rk>0)においてのみ有用である。起こり得るクレーム状態Pk=(0,Rk),Rk>0の場合には、乗法的な継続が多様化されなければならない。なぜなら、そうでなければ、継続が行なわれないからである。また、Zk〜(Zの頭上にチルダ記号〜:以下同様に表現する)=0、又は、Rk〜(Rの頭上にチルダ記号〜:以下同様に表現する)=0の場合、0で割ることが行なわれる。同様に、Zk〜、又は、Rk〜が小さい場合には、乗法的な方法は、非現実的な高い継続性を容易に導く。これにより、ケースの一貫した処理が不可能になる。このことは、積立Rkがこの場合に全く継続することができないことを意味する。同様に、調整されたクレーム状態Pk=(Zk,0),Zk>0も同様に、更に進展することができない。1つの可能性は、それを単に不変状態のままにしておくことである。しかしながら、これによって、クレームの回復が妨げられる。良く見ても、ケースの一貫した処理が不可能な、最も近い調整モデルに基づいてしか継続することができない。また、加法的な継続において、起こり得るクレーム状態は、ユークリッド距離を最小にし、且つ、類似性の対応する認定を保証するために、同様の起こり得るモデルに基づいてのみ意味があるように継続されなければならない。もし回復が可能であると思われ、且つ、負の積立が避けられると考えられる場合には、類似の欠点が、調整されたクレーム状態の場合に生じる。一般に、加法的な方法は、負の支払い、及び/又は、積立を容易に導く。また、従来技術においては、もし対応するモデルが方法に挿入される更なる仮定なしに存在しない場合には、クレームPkを継続することができない。その一例として、同じ取扱年k中で、Pk〜が同様にオープンである先の発生年からクレームが存在しない時のオープンクレームPkを挙げることができる。このケースにおいては、Pkが不変のまま、すなわち、Pk+1^(Pの頭上にハット記号^:以下同様に表現する)=Pkであり、当然ながら真の継続に全く対応していないという点で、ジレンマから抜け出す1つの方法を見つけることができる。
したがって、全体的にみて、従来技術にあっては、現在の全てのクレーム状態Pi,K+1-i,f=(Zi,K+1-i,f,Ri,K+1-i,f)は、K−進展年後の進展、及び/又は、取扱いの最後に至るまで、加法的か乗法的かのいずれかで一歩一歩、更に進展される。ここで、各段階においては、各ケースのユークリッド距離にしたがい、クレーム状態のタイプ(起こり得るクレーム状態、オープンクレーム状態、調整されたクレーム状態)が同じである、最も近いモデルクレーム状態が確認され、そして継続されるクレーム状態は、モデルクレームの更なる進展にしたがって、加法的か乗法的かのいずれかで継続される。トーマス・マックの方法の場合、実際において見られるクレーム進展Pk〜→Pk+1〜、及び、外挿されていないクレーム進展、すなわち、進展されたクレーム進展のみをモデルとして考慮することも同様に、常に目的に適っている。なぜなら、そうしなければ、イベントの相関、及び/又は、対応するバイアスを避けることができないからである。しかしながら、逆に、既に周知のイベント情報が失われるという欠点が依然として付きまとう。
従来技術の方法の構成から、複数の方法を、一方では支払いのトライアングルに対して、他方では積立のトライアングルに対して、別々に適用することもできるということが直ぐに分かる。当然、前述した手続き方法を用いると、各ケースのモデルとして最も近いクレーム状態を見出すために、他の可能性も許容できる。しかしながら、これは、方法の分布自由度に対して、特に影響を与える。これにより、従来技術において、前述した系統的な問題を、それぞれの改良によってさえ、あるいは、良く見ても更なるモデル仮定が方法に挿入されるという点だけでは、排除できないと言うことができる。しかしながら、例えば損害クレームの進展として、複雑な動的に非線形なプロセスの場合には正に、このことは殆どの場合に望ましくない。前述した欠点は脇に置いたとしても、トーマス・マックに係る従来の方法においては、2つのクレームが何時類似し、そしてクレームを継続することが何を意味するのか、今なお常に判断しなければならず、したがって、これにより、最小の基本仮定、及び/又は、モデル仮定が作られなければならない。しかしながら、従来技術において、任意のユークリッド法を選択するだけでなく、前述した乗法的な方法と加法的な方法との間での選択も行なわれる。また、従来技術においては、誤差の評価が詳細に規定されない。例えば、逆の距離に基づいて誤差を規定することが考えられるのは事実である。しかしながら、このことは、従来技術には開示されていない。しかしながら、従来技術の重大な欠点は、各イベントを継続できるようにするためには、先の全てのイベントと比較しなければならないということでもある。支出は、年月を重ねるにつれて直線的に増大し、そしてポートフォリオのクレームの数に伴って直線的に増大する。ポートフォリオが集められると、それに伴って、コンピュータの労力、及び、必要メモリが増大する
ニューラルネットワークは、基本的に従来技術において知られており、例えば、最適化問題の解決、画像認識(パターン認識)、人工知能等において使用されている。生物の神経網に対応して、ニューラルネットワークは、重み付けられた接続部(シナプス)を介して互いに接続される複数のネットワークノード、いわゆるニューロンから成る。ニューロンは、ネットワーク層(層)内で組織化されて互いに接続される。個々のニューロンは、その入力信号に基づいて活性化され、そして対応する出力信号を生成する。ニューロンの活性化は、複数の入力信号の合計により、個々の重み因子を介して行なわれる。そのようなニューラルネットワークは、確定した予測可能な誤差範囲(例えば、今後の入力値に対する出力値の予測)内で、ニューラルネットワークが所望の動作を示すまで、所定の典型的な入力値、及び、出力値に応じて、重み因子を系統的に変えることにより適応できる。これにより、ニューラルネットワークは、学習して知識を記憶するための適応能力と、記憶された知識と新たな情報とを比較する連想能力とを示す。ニューロン(ネットワークノード)は、休止状態、又は、励起状態をとっても良い。各ニューロンは、複数の入力と、次のネットワーク層の他のニューロンの入力に接続されあるいは、出力ノードの場合には、対応する出力値を表すただ1つの出力とを有する。ニューロンは、十分な数のニューロンの入力がニューロンの特定の閾値を超えて励起されると、すなわち、もし複数の入力の合計が特定の閾値に到達すれば、励起状態に入る。ユーロンの入力の重みにおいて、そして、ニューロンの閾値において、知識は適応を通じて記憶される。ニューラルネットワークの重みは、学習プロセスによってトレーニングされる(例えば、非特許文献4〜6等を参照)。
トーマス・マック、チェーンラダー積立見積もりの変動の測定、1993年CAS賞論文コンペ提出 グレッグ・テイラー、チェーンラダーバイアス、保険経理士研究センター、メルボルン大学、オーストラリア、2001年3月、3頁 トーマス・マック、Schriftreihe Angewandte Versicherungsmathematik、小冊子28、310頁以下、Verlag Versicherungswirtschaft E.V.,Karlsruhe 1997 G.Cybenko、「S字状関数の重畳による近似」、Math.Control,Sig.Syst,.2,1989、303〜314頁 M.T.Hagan,M.B.Menjaj,「マルクワルトアルゴリズムを伴うフィードフォワードネットワークトレーニング」、ニューラルネットワークに関するIEEE報告書、第5刊、No.6、989〜993頁、1994年11月 K.Hornik,M.Stinchcombe,H.White,「多層フィードフォワードネットワークは普遍的な近似体である」、ニューラルネットワークス、2、1989年、359〜366頁
本発明の課題は、従来技術の前述した欠点を示さない自動経験料率設定、及び/又は、損失積立のための新規なシステム、及び、方法を提案することである。特に、単独のクレームの進展に関する情報の全てをその後に利用できるように、自動化された、簡単で、そして合理的な方法が、個々の増大、及び/又は、因子で所定のクレームを更に進展させるために提案されている。前記方法では、分布に関して最初から仮定ができる限り少なくなければならず、そして同時に、所定のケースに対する最大の可能性のある情報が利用されなければならない。
本発明において、この目的は、特に独立請求項の要素によって達成される。更なる有利な実施形態は、従属請求項、及び、明細書本文から更に得られる。
特に、これらの目的は、進展期間k=1,..,Kを持つ進展値Pi,k,fは、最初の時間間隔iの特定のイベントPi,fに割り当てられ、その中で、最後の周知の進展期間であるKは、i=1,...,Kであり、そしてイベントPi,fに対して、全ての進展値P1kfは周知であり、少なくとも1つのニューラルネットワークは、進展値Pi,K+2-i,f,...,Pi,K,fを決定するために使用される、本発明によって達成される。特定のイベントの場合、例えば、最初の時間間隔を初期年に対して割り当てることができ、そして前記進展期間を進展年に割り当てることができる。様々なイベントPi,fの進展値Pikfを、その最初の時間間隔にしたがって、少なくとも1つのスケーリング因子により、スケーリングすることができる。進展値Pikfのスケーリングは、特に、進展値が異なる時点で比較できるという利点を有する。また、この変形の実施形態は、特に、自動経験料率設定に対して、例えば、値の分布やシステム・ダイナミックス等に関して、モデル仮定を前提とする必要がないという利点を有する。特に、経験料率の設定は、例えばユークリッド尺度等の近似必須条件がない。これは、従来技術のこの方法では不可能である。また、データサンプルの全体の情報が、データ記録を累積することなく使用される。個々のイベントに関する完全な情報は、各ステップで維持され、そして最後に再び呼び出すことができる。スケーリングは、異なる最初の時間間隔のデータレコードは、比較できる桁違いのデータを受け、したがって当該データ記録をより良く比較することができるという利点を有する。
一つの変形の実施形態においては、進展値Pi,K-(i-j)+1,fを決定するために、それぞれ最初の時間間隔、及び/又は、初期年iに対する、(i−1)個のニューラルネットワークNi,j(j=1,...,(i−1))が繰り返し形成され、ニューラルネットワークNi,j+1は、ニューラルネットワークNi,jに再帰的に依存している。特定のニューラルネットワークNi,jを重み付けるために、例えば進展値Pp,q,f(p=1,...,(i−1)、及び、q=1,...,K−(i−j))を使用することができる。この変形の実施形態は、特に、先の変形の実施形態と同様、データサンプルの全体の情報が、データ記録を累積することなく使用されるという利点を有する。個々のイベントに関する完全な情報は、各ステップで維持され、そして最後に再び呼び出すことができる。全体的に導入された誤差を最小限に抑えることにより、ネットワークを更に最適化することができる。
他の変形の実施形態において、同一の進展年、及び/又は、進展期間jにおいて、ニューラルネットワークNijは等しくトレーニングされ、ニューラルネットワークNi+1,j=iは、最初の時間間隔、及び/又は、初期年i+1において形成され、そして他の全てのニューラルネットワークNi+1,j<iは、先の最初の時間間隔、及び/又は、初期年から引き継ぐ。この変形の実施形態は、特に、周知のデータだけが経験料率の設定のために使用され、特定のデータがシステムによって更に使用されず、それにより、誤差の相関、又は、データ個々が回避されるという利点を有する。
更に異なる変形の実施形態においては、最初の時間間隔i<1であるイベントPi,fが決定のために更に使用され、イベントPi<1,fにおける全ての進展値Pi<1,k,fが知られている。この変形の実施形態は、特に、更なるデータ記録により、ニューラルネットワークを更に良好に最適化することができ、そしてその誤差を最小にできるという利点を有する。
更なる変形の実施形態においては、自動経験料率設定、及び/又は、損失積立のため、記憶される進展期間k=1,...,Kにおける進展値Pi,k,fは、最初の時間間隔iの特定のイベントPifに割り当てられ、その中で、i=1,..,Kで、Kは最後の周知の進展期間であり、そしてその中で、第1の最初の時間間隔に対して、全ての進展値P1,k,fが周知であり、それぞれの繰り返しjにおける繰り返しj=1,...,(i−1)による、それぞれの最初の時間間隔i=2,...,Kに対して、第1のステップにおいて、形成されるニューラルネットワークNi,jは、(K−(i−j))個の入力セグメントを有する入力層と、出力層とを持ち、各入力セグメントは、少なくとも1つの入力ニューロンを含み、そして進展値Pi,k,fに割り当てられ、第2のステップにおいて、全ての最初の時間間隔m=1,...,(i−1)の利用可能なイベントPi,fを持ったニューラルネットワークNi,jは、入力としての進展値Pm,1..K-(i-j),fと出力としての進展値Pm,1K-(i-j)+1,fにより重み付けられ、第3のステップにおいて、ニューラルネットワークNi,jにより、出力値Oi,fは、最初の時間間隔iの全てのイベントPi,fに対して決定され、出力値Oi,fは、イベントPi,fの進展値Pi,K-(i-j)+1,fに割り当てられ、そしてニューラルネットワークNi,jは、ニューラルネットワークNi,j+1に再帰的に依存している。特定のイベントの場合、例えば、最初の時間間隔を初期年に割り当てることができ、そして前記進展期間を進展年に割り当てることができる。この変形の実施形態は、特に、先の変形の実施形態と同じ利点を有する。
一つの変形の実施形態において、システムは、ニューラルネットワークNiを備え、各ニューラルネットワークNiは、少なくとも1つの入力セグメントを持つ入力層と出力層とを含み、前記入力層、及び、前記出力層が重み付けられた方法で互いに接続される複数のニューロンを備え、ニューラルネットワークNiは、ソフトウェア、及び/又は、ハードウェアによるデータ処理ユニットにより、繰り返し形成可能であり、ニューラルネットワークNi+1は、ニューラルネットワークNiに再帰的に依存しており、そして各ネットワークNi+1は、それぞれの場合においてネットワークNiよりも1つ多い入力セグメントを備え、各ニューラルネットワークNiは、ニューラルネットワークN1から始まり、局所的に伝搬された誤差の最小限化による最小化モジュールにより、トレーニング可能であり、ニューラルネットワークの再帰的システムは、ニューラルネットワークNiの局所的な誤差に基づいて、全体的に伝搬された誤差の最小限化による最小化モジュールにより、トレーニング可能である。この変形の実施形態は、特に、再帰的に形成されたニューラルネットワークを、全体的な誤差によって更に最適化することができるという利点を有する。特に、それは、ニューラルネットワーク構造の再帰的形成と、局所的に伝搬された誤差、及び、全体的に伝搬された誤差による二重最小化との組み合わせであり、これにより本変形の実施形態の利点が得られる。
他の変形の実施形態において、ニューラルネットワークNiの前記出力層は、ニューラルネットワークNi+1の前記入力層の少なくとも1つの入力セグメントに対して割り当てられた方法で、接続される。この変形の実施形態は、特に、複数のニューラルネットワークから成るシステムを次々に、1つのニューラルネットワークとして解釈できるという利点を有する。したがって、全体のネットワークの一部のネットワークは、局所的に重み付けられても良く、そして全体的な学習の場合にも、対応するデータ記録を用いて、システムによりその挙動をチェックされ、監視されることができる。これは、従来技術による方法においては、これまで不可能であった。
この時点で言及しておくべきこととして、本発明は、本発明に係る方法以外に、この方法を実行するためのシステムにも関連している。また、本発明は、前記システム、及び、方法に限定されないが、再帰的に入れ子になったニューラルネットワークシステムと、本発明に係る方法を実施するためのコンピュータプログラム製品とに、同様に関連している。
以下、本発明の変形の実施形態を、例に基づいて下記に説明する。実施形態の例が下記の添付図面に示されている。
図1〜図7は、本発明を実施するために使用できるアーキテクチャを概略的に示している。この実施形態の例において、初期年iの特定のイベントPi,fは、自動的な経験料率の設定、及び/又は、損失積立のための進展値Pikfを含む。添字fは、特定の初期年iにおける全てのイベントPi,fで、f=1,...Fjと繰り返される。進展値Pikf=(Zikf,Rikf,...)は、1つのイベントにおいて進展するようになっている、進展パラメータZikf,Rikf,...の任意のベクトル、及び/又は、n−タプルである。したがって、例えば、損害イベントPikfにおける保険の場合、Zikfは支払い状態、Rikfは積立状態等であっても良い。本発明の保護範囲に影響を与えることなく、1つのイベントにおける更なる任意の所望の関連パラメータが、考えられる。進展年kはk=1,...,Kと進行し、そして初期年lはl=1,...,lと進行する。Kは最後の周知の進展年である。最初の初期年i=1においては、全ての進展値P1kfが与えられる。前述したように、この実施例において、初期年lの数、及び、進展年Kの数は同一、すなわち、l=Kでなければならない。しかしながら、1≠Kも考えられるが、これによって方法、及び、システムが制限されるものではない。したがって、Pikfは、以下のような一連の点、及び/又は、行列要素から成るn−タプルである。
Figure 2006522376
l=Kの場合、これにより、結果は、以下のように、周知の進展値Pikfにおける二次三角行列、及び/又は、ブロック三角行列となる。
Figure 2006522376
この場合も同様に、f=1,..,Fiが特定の初期年における全てのイベントにわたって用いられる。したがって、行列の行が初期年に割り当てられ、行列の列が進展年に割り当てられる。この実施形態の例において、Pikfは、保険を伴う損害イベントの例に限られるべきである。なぜなら特に、方法、及び/又は、システムが、例えば、保険契約、及び/又は、過剰損失再保険契約の経験料率の設定に非常に適しているからである。行列要素Pikf自体が同様にベクトル、及び/又は、行列であり、すぐに前記行列が対応するブロック行列になっても良いことを強調しなければならない。しかしながら、本発明に係る方法、及び、システムは、一般的には、経験料率の設定、及び/又は、時間遅延非線形プロセスの外挿法に完全に適している。そうは言っても、Pikfは、支払い積立レベルにおける以下のような一連の点であり、
Figure 2006522376
これらのうち、最初の(K+1−i)個の点は知られており、そして未だ知られていない点(Zi,K+2-i,f,Ri,K+2-i,f),...,(ZiKf,RiKf),は予測しなければならない。この実施例において、もしPikfが支払いレベルと積立レベルとに分割される場合、支払いレベルにおいて同様に得られる結果は、以下のような三角行列であり、
Figure 2006522376
そして積立レベルにおいて得られる結果は以下のような三角行列である。
Figure 2006522376
したがって、損害イベントの経験料率の設定において、それぞれの個々の損害イベントfiの進展は、現在の状態(現在の進展年k)までは、あるいは調整までは、初期年iの損害の報告の時点から知られる。この情報がデータベースに記憶されても良く、このデータベースが、例えば、データ処理ユニットによりネットワークを介して呼び出されても良い。しかしながら、データベースは、本発明に係るシステムの内部データバスにより直接にアクセスできるようになっていても良く、あるいは、他の方法で読み出されても良い。
クレームの例においてデータを使用するため、最初の段階で三角行列がスケーリングされる。すなわち、損害値は、各インフレ値により割り当てられた時間に関して、最初に比較できるようにされなければならない。インフレ指数は、対応するデータベースから同様に読み取られても良く、あるいは、入力ユニットによりシステム内に入力されても良い。一つの国におけるインフレ指数は、例えば以下のようになっていても良い。
Figure 2006522376
例えば、地域依存性等の更なるスケーリング因子も考えられる。もし損害イベントが複数の国で比較され、及び/又は、外挿される場合には、各国の依存性が加えられる。一般的な非保険固有のケースでは、スケーリングは、例えば、生物の集団の平均年齢や自然の影響等の依存性に関連してもよい。
進展値Pi,K+2-i,f,...,i,K,f=(Zi,K+2-i,f,Ri,K+2-i,f),...,(Zi,K,f,Ri,K,f)の自動決定において、システム、及び/又は、方法は、少なくとも1つのニューラルネットワークを含む。ニューラルネットワークとして、例えば、パーセプトロン、又は、多層パーセプトロン(MLP)等のフィードフォーワード(ヘテロ関連)ネットワーク等といった従来の静的、及び/又は、動的なニューラルネットワークが選択されても良いが、例えば回帰ネットワーク構造等の他のネットワーク構造も考えられる。フィードバックを伴うネットワーク(回帰ネットワーク)とは対照的に、フィードフォーワードネットワークの異なるネットワーク構造は、ネットワークによって情報を処理する方法を決定する。静的なニューラルネットワークの場合、構造は、十分な近似性を有する静特性領域の複製を保証するようになっている。この実施形態例において、多層パーセプトロンが一例として選択されることを許可する。MLPは、少なくとも1つの入力層と1つの出力層とを有する多数のニューロン層から成る。構造は、厳格に前方に方向付けられ、そしてフィードフォーワードネットワークのグループに属している。ニューラルネットワークは、一般に、m次元入力信号をn次元出力信号に完全にマッピングする。ここで考慮されるフィードフォーワードネットワークにおいて、処理される情報は、入力ニューロンを有する層すなわち入力層によって受け取られる。入力ニューロンは、入力信号を処理し、そしてそれらを重み付けられた接続部、いわゆるシナプスを介して、1つ以上の隠されたニューロン層すなわち隠れ層にへ転送する。隠れ層から、信号は、同じように重み付けられたシナプスにより、順々に、ニューラルネットワークの出力信号を生成する出力層のニューロンへ伝送される。前方に方向付けられた完全に接続されたMLPにおいて、特定の層の各ニューロンは、次の層の全てのニューロンに接続される。層の数、及び、特定の層内のニューロン(ネットワークノード)の数の選択は、従来どおり、それぞれの問題に適応されなければならない。最も簡単な可能性は、理想的なネットワーク構造を経験的に見つけることである。その際、選択されたニューロンの数が非常に多いと、ネットワークは、学習する代わりに単なる像形成を行ない、一方、選択されたニューロンの数が非常に少ないと、ネットワークは、マッピングされたパラメータの相関関係になるという点に留意しなければならない。言い換えると、選択されたニューロンの数が非常に少ない場合、関数を表わすことができなくなるおそれがある。しかしながら、隠されたニューロンの数が増大すると、誤差関数における独立変数の数も増大する。これにより、極小値が多くなり、これらの極小値のうちの1つに正確に入る可能性が高くなる。逆伝搬の特定の場合には、例えば模擬の焼きなまし法により、この問題を少なくとも最小限に抑えることができる。模擬の焼きなまし法において、確率がネットワークの状態へ割り当てられる。結晶が生成される液体材料の冷却と同様に、高い初期温度Tが選択される。この温度は、ゆっくりと下方へ徐々に下げられる。液体からの結晶の形成と同様に、もし材料を非常に急速に冷却できると、分子はそれ自体をグリッド構造にしたがって配置しないと仮定する。結晶は、影響を与えられた場所で不純、且つ、不安定となる。これを示すため、材料を非常にゆっくりと冷却することができ、そのため、分子は極小値から飛び出すことができる十分なエネルギを有する。ニューラルネットワークの場合、異なることは何も行なわれない。更に、大きさTが僅かに変更された誤差関数において導入される。理想的なケースにおいては、その後、これが全体の最小値に向かって収束する。
経験料率の設定への適用においては、少なくとも3層構造を有するニューラルネットワークがMLPにおいて有用であることが分かった。このことは、ネットワークが少なくとも1つの入力層、隠れ層、及び、出力層を備えることを意味している。各ニューロン内においては、伝搬、起動、及び、出力の3つの処理ステップが行なわれる。k番目の層のi番目のニューロンの出力としては、以下のようになる。
Figure 2006522376
これにより、例えばk=2においては、制御変数の範囲としてj=1,2,...,N1が有効である。この場合、層k−1のニューロンの数がN1で示され、また、重みとしてw、そしてバイアス(閾値)としてbが用いられる。用途に応じて、バイアスbは、特定の層の全てのニューロンに対して同一のものを選択しても良く、あるいは、異なるものを選択しても良い。起動関数として、例えば、以下のような対数S字関数が選択されても良い。
Figure 2006522376
起動関数(又は伝達関数)は各ニューロン内に挿入される。しかしながら、本発明においては、正接関数等の他の起動関数も同様に考えられる。しかしながら、逆伝搬方法を用いる場合には、例えば、S字関数等の微分可能な起動関数が<使用される>点に留意しなければならない。なぜなら、これが方法のための必須条件だからである。すなわち、したがって、例えば以下のような2値起動関数はバックプロパゲーション方法において役に立たない。
Figure 2006522376
出力層のニューロンにおいて、最後の隠れ層の出力は、重み付けられた方法で合計される。出力層の起動関数は線形であっても良い。パラメータ、及び/又は、重み行列内で組み合わされた重みWk i,j及びバイアスBk i,jの全体は、以下のように、ニューラルネットワーク構造の挙動を決定する。
Figure 2006522376
したがって、以下のような結果となる。
Figure 2006522376
ネットワークが入力信号を出力信号に変換(マッピング)するようになっている方法、すなわち、ネットワークの所望の重み、及び、バイアスの決定は、トレーニングパターンによりネットワークをトレーニングすることによって達成される。トレーニングパターンの組(インデックスμ)は、以下のような入力信号
Figure 2006522376
と、以下のような出力信号
Figure 2006522376
とから成る。
クレームの経験料率の設定を伴うこの実施形態例において、トレーニングパターンは、全てのk,f,及びiにおける周知の進展値Pikfを有する周知のイベントPi,fを含む。ここで、外挿されるイベントの進展値は、これらに対応する出力値が欠けているため、ニューラルネットワークをトレーニングするために使用されなくても良いことは言うまでもない。
学習操作の開始時に、従ってこのニューロンの典型的な例においては、例えば、グエン・ウイドロウ(D.Nguyen、B.Widrow、「適応重みの初期値の選択による2層ニューラルネットワークの学習速度の向上」、ニューラルネットワークの国際合同会議、第3刊、21〜26頁、1990年7月)に従って、例えば、対数S字状起動関数により、隠れ層の重みの初期化が実行される。もし、出力層のニューロンのために線形起動関数が選択された場合には、例えば、対称乱数発生器により重みが初期化されても良い。ネットワークをトレーニングするため、例えば、逆伝搬方法、学習ベクトル量子化、ラジアル基底関数、ホップフィールドアルゴリズム、又は、コホネンアルゴリズム等の様々な従来技術の学習方法が使用されても良い。トレーニング方法のタスクは、入力パターンYμが対応する出力パターンUμにマッピングされるような方法で、重み行列W、及び/又は、バイアス行列B内のシナプス重みwi,j及びバイアスbi,jを決定することにある。学習段階を判断するため、例えば、以下の絶対二次誤差が使用されても良い。
Figure 2006522376
その後、誤差Errは、実際の出力信号Uμeffがトレーニング基準において指定されたターゲット反応Uμsollを示すトレーニング基準の全てのパターンPikfを考慮に入れる。この実施形態例においては、学習方法として逆伝搬方法が選択されなければならない。逆伝搬方法は、重み因子wijを最適化するための再帰的方法である。各学習ステップにおいては、入力パターンYμが無作為に選択され、そしてネットワークを介して伝搬される(順方向伝搬)。与えられた入力パターンの誤差Errμは、前述した誤差関数Errにより、トレーニング基準で指定されたターゲット反応Uμsollにより、ネットワークによって生成された出力信号から決定される。これにより、μ番目のトレーニングパターンの表示後の個々の重みwijの変化は、重みwijにしたがった誤差Errμのマイナス偏微分に比例している(いわゆる勾配降下方法)。
Figure 2006522376
連鎖法則を用いると、μ番目のトレーニングパターンの表示における重み行列の要素のための、逆伝搬法則として知られる、周知の適合仕様は、以下の偏微分から得ることができる。各々、
Figure 2006522376
出力層においては、
Figure 2006522376
そして、隠れ層においては、
Figure 2006522376
である。ここで、誤差は、出力層で始まり、ネットワークを通じて反対方向に伝搬され(逆伝搬)、そしてコスト・バイ・コーズ(costs−by−cause)の原則に従って、個々のニューロンの間で分割される。比例因子sは学習因子と呼ばれる。トレーニング段階中で、限られた数のトレーニングパターンがニューラルネットワークに与えられ、そのパターンは、学習されるマップを十分正確に特徴付ける。損害イベントの経験料率の設定を伴うこの実施形態例において、トレーニングパターンは、全てのk、f、及び、iにおける周知の進展値Pikfを有する全ての周知のイベントPi,fを含んでいても良い。しかし、周知のイベントPi,fの選択も考えられる。もし、その後、ネットワークが、トレーニング基準のパターンと正確に一致しない入力信号を与えられると、このネットワークは、学習されたマッピング機能の範囲内において、トレーニングパターン間で内挿し、あるいは、外挿する。この特性は、ネットワークの一般化能力と呼ばれる。ニューラルネットワークの特徴は、それが良好な誤差許容範囲を有するという点である。これは、従来技術のシステムと比較した更なる利点である。ニューラルネットワークは、複数の(部分的に冗長な)入力信号を、所望の出力信号上にマッピングするので、ネットワークは、個々の入力信号の障害に対して、及び/又は、信号ノイズに対して、強くなることが分かる。ニューラルネットワークの更に興味深い特性は、その適応能力である。したがって、原理上、1回トレーニングされたシステムを再学習させること、あるいは、操作中に、永久に/定期的に適合させることが可能であり、これは同様に、従来技術のシステムと比較した利点である。学習方法においては、例えば、Levenberg−Marquardt(D.Marquardt,「非線形パラメータの最小2乗推定のためのアルゴリズム」、J.Soc.Lnd.Appl.Math.,431〜441頁、1963年、及び、M.T.Hagan,M.B..Menjaj,「マルクワルトアルゴリズムを用いたトレーニングフィードフォーワードネットワーク」、ニューラルネットワークに関するIEEE−報告書、第5刊、No.6、989〜993頁、1994年11月)に従った方法等の、他の方法を使用しても良いことは言うまでもない。Levenberg−Marquardt方法は、勾配方法とニュートン方法との組み合わせであり、そして前述したバックプロパゲーション法よりも速く収束するという利点を有するが、トレーニング段階中に大きな記憶容量を必要とする。
実施の形態例の中で、各初期年i毎に進展値Pi,K-(i-j)+1,fを決定するために、(i−1)個のニューラルネットワークNi,jが繰り返し形成される。この場合、jは、特定の初期年iにおいて、j=1,...,(i−1)である繰り返し数を示している。これにより、i番目の初期年i−1においては、ニューラルネットワークNi,jが形成される。ニューラルネットワークNi,j+1は、ニューラルネットワークNi,jからここで再帰的に依存する。重み付けにおいて、すなわち、トレーニングのため、特定のニューラルネットワークNi,j、例えば、p=1,...,(i−1),q=1,...,K−(i−j)であるイベントの全ての進展値Pp,q,f又は損失Ppqが使用されても良い。しかしながら、用途に応じて、限られた選択も有益かも知れない。例えば、前述したように、イベントPpqのデータは、データベースから読み取られても良く、また、データ処理ユニットを介してシステムに与えられても良い。例えば、計算された進展値Pi,k,fは、初期年iの各イベントPi,fに割り当てられるとともに、それ自体、次の進展値(例えば、Pi,k+1,f)を決定するためのシステムに対して与えられても良く(図1〜図6)、あるいは、求められた全ての進展値Pの決定が終わった後にのみ割り当てが行なわれる(図7)。
前述した最初のケース(図1〜図6)において、進展年k=1,..,Kにおける進展値Pi,k,fは、初期年iの特定のイベントPi,fに割り当てられ、i=1,...,Kであり、そしてKは最後の周知の前記進展期間である。最初の初期年i=1においては、全ての進展値P1,k,fが知られている。それぞれの初期年i=2,...,Kに対して、それぞれの繰り返しjにおける繰り返しj=1,...,(i−1)により、最初のステップで、(K−(i,j))個の入力セグメントを持つ入力層と、出力層とを有するニューラルネットワークNi,jが形成される。各入力セグメントは、少なくとも1つの入力ニューロン、及び/又は、1つの進展値Pi,k,fのための入力信号を得るための少なくとも同数の入力ニューロンを含む。ニューラルネットワークは、システムによって自動的に形成され、そしてハードウェア、又は、ソフトウェアによって実施されても良い。第2のステップにおいて、全ての初期年m=1,..,(i−1)の利用可能なイベントEi,fを有するニューラルネットワークNi,jは、入力としての進展値Pm,1K-(i-j),fと、出力としての進展値Pm,1K-(i-j)+1,fとによって重み付けられる。第3のステップにおいては、ニューラルネットワークNi,jにより、初期年iの全てのイベントPi,fに対して出力値Oi,fが決定され、この出力値Oi,fは、イベントPi,fの進展値Pi,K-(i-j)+1,fに割り当てられ、そしてニューラルネットワークNi,jは、ニューラルネットワークNi,j+1に再帰的に依存している。図1は、上側の5×5行列、すなわち、K+5におけるイベントPfのイベント値P2,5,fを決定するための、ニューラルネットワークのトレーニング、及び/又は、表示段階を示している。破線Tはトレーニング段階を示しており、実線Rは学習後の決定段階を示している。図2は、P3,4,f(B34)を決定するための3番目の初期年における同じものを示しており、そして図3は、P3,5,fを決定するためのものを示している。図4は、P3,4,f及びP3,5,fを決定するためのトレーニング段階だけを示しており、形成された値P3,4,f(B34)は、P3,5,fを決定するためのネットワークをトレーニングするために使用される。Aijは、図における周知の値を示しており、一方、Bijは、ネットワークによって特定の値を表示する。図5は、5×5行列における行3の値を決定するためのニューラルネットワークの再帰的な生成を示していおり、(i−1)個のネットワーク、従って2個のネットワークが生成される。一方、図6は、5×5行列における行3の値を決定するためのニューラルネットワークの再帰的な生成を示しており、この場合も同様に、(i−1)個のネットワーク、従って4個のネットワークが生成される。
一実施の形態例として、求められた全ての進展値Pの決定後にのみ、システムによって形成されたイベント値Bijの割り当てが行なわれても良いことを指摘することは重要である。新たに決定された値は、その後、更なるイベント値を決定するための入力値として利用することができない。図7は、そのような方法を示しており、トレーニング基準は周知のイベント値Aijに制限される。すなわち、ニューラルネットワークNijは、同じjにおいて同一であっても良く、ニューラルネットワークNi+1,j=iは、最初の時間間隔i+1において形成され、そして他の全てのニューラルネットワークNi+1,j<iは、先の最初の時間間隔のネットワークに対応している。このことは、特定のイベント値Pijの計算のために以前に形成されたネットワークが、jが同じイベント値Pijにおける初期年に関する全てのイベント値のために更に使用されることを意味している。
ここで述べた保険ケースの場合には、例えば、異なるデータに基づいて様々なニューラルネットワークがトレーニングされても良い。例えば、支払われたクレームに基づいて、被ったクレームに基づいて、支払われ且つ未決済のクレーム(積立)に基づいて、及び/又は、支払われ且つ被ったクレームに基づいて、ネットワークがトレーニングされても良い。各ケースにおける最良のニューラルネットワークは、例えば、予測された値、及び、実際の値の絶対平均誤差を最小にすることにより決定されても良い。例えば、(周知のクレームの)平均予測値に対する平均誤差の割合は、誤差を得るために、モデリングされた値の予測値に適用されても良い。先の初期年の予測値が、次の初期年の計算のために共通に使用される場合<sic.are>には、それに応じて誤差が累積されなければならないことは言うまでもない。これは、例えば、各モデルの個々の誤差の平方の合計の平方根が使用されるという点で、達成可能である。
ニューラルネットワークの品質、及び/又は、トレーニング状態の更なる評価を得るために、例えば、前述したパレート分布により予測値を適合させることもできる。この評価は、例えば、(直前の段落で説明した)異なるデータセットを用いてトレーニングされるニューラルネットワーク(例えば、支払われたクレーム、未決済のクレーム等)の間から最良のニューラルネットワークを決定するために使用することもできる。これにより、パレート分布を用いると以下のようになる。
Figure 2006522376
ここで、
Figure 2006522376
ここで、αは適合パラメータであり、Thは閾値パラメータ(閾値)であり、T(i)はi番目の支払い要求の理論値であり、O(i)はi番目の支払い要求の実際の値であり、E(i)はi番目の支払い要求の誤差であり、そしてP(i)はi番目の支払い要求の累積確率である。
ここで、
Figure 2006522376
そして、
Figure 2006522376
であり、そしてnは支払い要求の数である。ここでの実施の形態例において、提案されたニューラルネッワークに基づくシステムの誤差が、自動車保険データに関してチェーンラダー方法と比較された。ネットワークは、支払われたクレームと1回比較され、そして被ったクレームと1回比較された。データを比較するため、進展年において個々の値が累積された。以下に示される直接的な比較は、1000毎に選択されたデータ例における結果である。
Figure 2006522376
ここに示された誤差は、標準偏差、すなわち、表示された値に対するσ1−誤差に対応している。特に、その後の初期年、すなわち、iがより大きい初期年において、ニューラルネットワークに基づくシステムは、誤差がほぼ安定したままであるという点で、従来技術の方法と比べて値の決定において明らかな利点を示す。これは、従来の場合と異なる。なぜなら、iの増大に比例して誤差が増大しないからである。より大きな初期年iにおいて、累積値の合計における明らかな偏差が、チェーンラダー値と本発明に係る方法で得られた値との間で見られる。この偏差は、チェーンラダー方法においてIBNYR(既発生未報告)損害が更に考慮されたという事実に基づいている。IBNYR損害イベントは、先に示された本発明に係る方法の値に対して加えられなければならない。例えば、ポートフォリオ積立の計算においては、別の進展(例えば、チェーンラダー)により、IBNYR損害イベントを考慮することができる。しかしながら、個々の損失のための積立において、あるいは、損失額分布の決定においては、IBNYR損害イベントは全く役割を果たさない。
上側の5×5行列、すなわち、K+5におけるイベントPfのイベント値P2,5,fを決定するための、ニューラルネットワークのトレーニング、及び/又は、決定段階、又は、表示段階を概略的に再現するブロック図を示している。破線Tはトレーニング段階を示しており、実線Rは学習後の決定段階を示している。 3番目の初期年におけるイベント値P3,4,fを決定するためのニューラルネットワークのトレーニング、及び/又は、決定段階を概略的に再現する図1と同様のブロック図を示している。 3番目の初期年におけるイベント値P3,5,fを決定するためのニューラルネットワークのトレーニング、及び/又は、決定段階を概略的に再現する図1と同様のブロック図を示している。 3,4,f及びP3,5,fを決定するためのトレーニング段階だけを概略的に示すブロック図であって、P3,5,fを決定するためにネットワークをトレーニングするため使用される計算された値P3,4,fを示している。 5×5行列における行3の値を決定するためのニューラルネットワークの再帰的な生成を概略的に示すブロック図であって、生成される2個のネットワークを示している。 5×5行列における行5の値を決定するためのニューラルネットワークの再帰的な生成を概略的に示すブロック図であって、生成される4個のネットワークを示している。 本発明に係るシステムを同様に概略的に示すブロック図であって、周知のイベント値Aijに制限されるトレーニング基準を示している。
符号の説明
T トレーニング段階
L 学習後の決定段階
ij 周知のイベント値
ij システムによって形成されるイベント値

Claims (26)

  1. 自動経験料率設定、及び/又は、損失積立のためのコンピュータを使用するシステムであって、最初の時間間隔iの特定のイベントPifが、i=1,...,Kである、進展期間k=1,...,K(Kは最後の周知の前記進展期間)の進展値Pikfを含み、そして全ての進展値P1kfが知られているコンピュータを使用するシステムにおいて、
    前記進展値Pi,K+2-i,f,...,Pi,k,fの自動決定のための前記システムは、少なくとも1つのニューラルネットワークを備えること、
    を特徴とするコンピュータを使用するシステム。
  2. イベントにおいて、前記最初の時間間隔は、初期年に対応し、そして前記進展期間は、進展年に対応していること、
    を特徴とする請求項1に記載のコンピュータを使用するシステム。
  3. イベントPi,f(i−1)の前記進展値Pi,K+2-i,f,...,Pi,k,fの決定のために前記システムは、最初の時間間隔i毎に繰り返し形成されたj=1,...,(i−1)であるニューラルネットワークNi,jを備え、前記ニューラルネットワークNi,j+1は、前記ニューラルネットワークNi,jに再帰的に依存していること、
    を特徴とする請求項1または2に記載のコンピュータを使用するシステム。
  4. 特定のニューラルネットワークNijを重み付けるためのトレーニング値は、p=1,...,(i−1)、及び、q=1,...,K−(i−j)である前記進展値Pp,q,fを含むこと、
    を特徴とする請求項1〜3のいずれか一項に記載のコンピュータを使用するシステム。
  5. 同じ前記jにおける前記ニューラルネットワークNijは、同一であり、前記ニューラルネットワークNi+1,j=iは、最初の時間間隔i+1において形成され、そして他の全てのニューラルネットワークNi+1,j<iは、先の最初の時間間隔のネットワークに対応していること、
    を特徴とする請求項1〜3のいずれか一項に記載のコンピュータを使用するシステム。
  6. 前記システムは、最初の時間間隔iが1よりも小さいイベントPi,fを更に備え、全ての進展値Pi<1,k,fは、前記イベントPi<1,fにおいて知られていること、
    を特徴とする請求項1〜5のいずれか一項に記載のコンピュータを使用するシステム。
  7. 前記システムは、少なくとも1つのスケーリング因子を含み、このスケーリング因子により、異なる前記イベントPi,fの前記進展値Pikfは、その最初の時間間隔に従ってスケーリング可能であること、
    を特徴とする請求項1〜6のいずれか一項に記載のコンピュータを使用するシステム。
  8. 自動経験料率設定、及び/又は、損失積立のためのコンピュータを使用する方法であって、i=1,...,Kである、進展期間k=1,...,K(Kは最後の周知の前記進展期間)における進展値Pikfは、最初の時間間隔iの特定のイベントPifに割り当てられ、そして全ての進展値P1kfが前記イベントP1,fにおいて知られているコンピュータを使用する方法において、
    少なくとも1つのニューラルネットワークが、前記進展値Pi,K+2-i,f,...,Pi,k,fの決定のために使用されること、
    を特徴とするコンピュータを使用する方法。
  9. 前記イベントにおいて、前記最初の時間間隔は、初期年に割り当てられ、そして前記進展期間は、進展年に割り当てられること、
    を特徴とする請求項8に記載のコンピュータを使用する方法。
  10. 前記進展値Pi,K-(i-j)+1,fの決定のために、ニューラルネットワークNi,jは、j=1,...,(i−1)において最初の時間間隔i毎に繰り返し(i−1)回形成され、前記ニューラルネットワークNi,j+1は、前記ニューラルネットワークNi,jに再帰的に依存していること、
    を特徴とする請求項8または9に記載のコンピュータを使用する方法。
  11. 特定のニューラルネットワークNi,jを重み付けるために、p=1,...,(i−1)、及び、q=1,...,K−(i−j)である前記進展値Pp,q,fが使用されること、
    を特徴とする請求項8〜10のいずれか一項に記載のコンピュータを使用する方法。
  12. 同じjにおける前記ニューラルネットワークNijは、等しくトレーニングされ、前記ニューラルネットワークNi+1,j=iは、最初の時間間隔i+1において形成され、そして先の最初の時間間隔の他の全てのニューラルネットワークNi+1,,j<iは、引き継がれること
    を特徴とする請求項8〜10のいずれか一項に記載のコンピュータを使用する方法。
  13. 決定のために更に使用されるのは、最初の時間間隔iが1よりも小さいイベントPi,fであり、全ての進展値Pi<1,k,fは、前記イベントPi<1,fにおいて知られていること、
    を特徴とする請求項8〜12のいずれか一項に記載のコンピュータを使用する方法。
  14. 少なくとも1つのスケーリング因子により、異なる前記イベントPi,fの前記進展値Pikfは、その最初の時間間隔に従ってスケーリングされること、
    を特徴とする請求項8〜13のいずれか一項に記載のコンピュータを使用する方法。
  15. 自動経験料率設定、及び/又は、損失積立のためのコンピュータを使用する方法であって、進展期間k=1,...,Kにおける進展値Pikfは、最初の時間間隔iの特定のイベントPifに割り当てられ、i=1,...,Kであり、そしてKは最後の周知の前記進展期間であり、そして、全ての進展値P1kfは、前記最初の時間間隔において知られているコンピュータを使用する方法において、
    第1のステップにおいて、それぞれの最初の時間間隔i=2,...,Kに対して、それぞれの繰り返しjにおける繰り返しj=1,...,(i−1)により、ニューラルネットワークNi,jは、(K−(i−j))個の入力セグメントを有する入力層と、出力層とをもって形成され、各入力セグメントは、少なくとも1つの入力ニュートロンを備え、そして進展値Pi,k,fに割り当てられ、
    第2のステップにおいて、前記ニューラルネットワークNi,jは、入力としての前記進展値Pm,1K-(i-j),fと、出力としての前記進展値Pm,1K-(i-j)+1,fとにより、全ての最初の時間間隔m=1,...,(i−1)の利用可能な前記イベントPi,fを用いて重み付けられ、
    第3のステップにおいて、前記ニューラルネットワークNi,jにより、前記初期年iの全ての前記イベントPi,fに対して出力値Oi,fが決定され、前記出力値Oi,fは、前記イベントPi,fの前記進展値Pi,K-(i-j)+1,fに割り当てられ、そして前記ニューラルネットワークNi,jは、前記ニューラルネットワークNi,j+1に再帰的に依存していること、
    を特徴とするコンピュータを使用する方法。
  16. 前記イベントにおいて、前記最初の時間間隔は、初期年に割り当てられ、そして前記進展期間は、進展年に割り当てられること、
    を特徴とする請求項15に記載のコンピュータを使用する方法。
  17. ニューラルネットワークのシステムであって、ニューラルネットワークNiはそれぞれ、少なくとも1つの入力セグメントを有する入力層と、出力層とを備え、前記入力層、及び、前記出力層は、重み付けられた方法で互いに接続される複数のニューロンを備えるニューラルネットワークのシステムにおいて、
    前記ニューラルネットワークNiは、データ処理ユニットによりソフトウェア、及び/又は、ハードウェアを使用して繰り返し形成されることができ、ニューラルネットワークNi+1は、前記ニューラルネットワークNiに再帰的に依存しており、そして各ネットワークNi+1は、それぞれの場合において前記ネットワークNiよりも1つ多い入力セグメントを備え、
    前記ニューラルネットワークN1から始まり、各ニューラルネットワークNiは、局所的に伝搬された誤差を最小限に抑えることによる最小化モジュールにより、トレーニング可能であり、
    ニューラルネットワークの前記再帰的システムは、前記ニューラルネットワークNiの前記局所的な誤差に基づいて、全体的に伝搬された誤差を最小限に抑えることによる最小化モジュールにより、トレーニング可能であること、
    を特徴とするニューラルネットワークのシステム。
  18. 前記ニューラルネットワークNiの前記出力層は、割り当てられた方法で、前記ニューラルネットワークNi+1の前記入力層の少なくとも1つの入力セグメントに対して接続されること、
    を特徴とする請求項17に記載のニューラルネットワークのシステム。
  19. 自動経験料率設定、及び/又は、損失積立のためのコンピュータを使用するシステムの、1つ以上のプロセッサを制御するために、内部に含まれるコンピュータプログラムコード手段を有するコンピュータ読取可能媒体を備えるコンピュータプログラム製品であって、記憶される進展期間k=1,...,Kにおける進展値Pi,k,fは、最初の時間間隔iの特定のイベントPi,fに割り当てられ、i=1,...,Kであり、そしてKは最後の周知の前記進展期間であり、そして、全ての進展値P1kfは、前記最初の時間間隔i=1において知られているコンピュータプログラム製品において
    前記コンピュータプログラム製品により、少なくとも1つのニューラルネットワークは、ソフトウェアを使用して形成されることができ、進展値Pi,K+2-i,f,...,Pi,k,fの決定のために使用可能であること、
    を特徴とするコンピュータプログラム製品。
  20. 前記イベントにおいて、前記最初の時間間隔は、初期年に割り当てられ、そして前記進展期間は、進展年に割り当てられること、
    を特徴とする請求項19に記載のコンピュータプログラム製品。
  21. 前記進展値Pi,K-(i-j)+1,fの決定のために、ニューラルネットワークNi,jは、前記コンピュータプログラム製品により、最初の時間間隔i毎にそれぞれ繰り返し(i−1)回形成されることができ、前記ニューラルネットワークNi,j+1は、ニューラルネットワークNi,jに再帰的に依存していること、
    を特徴とする請求項19または20に記載のコンピュータプログラム製品。
  22. 前記コンピュータプログラム製品により特定のニューラルネットワークNijを重み付けるため、p=1,...,(i−1)、及び、q=1,...,K−(i−j)である前記進展値Pp,q,fは、データベースから読み取り可能であること、
    を特徴とする請求項19〜21のいずれか一項に記載のコンピュータプログラム製品。
  23. 前記コンピュータプログラム製品を用いて、前記ニューラルネットワークNi,jは、同じ前記jにおいて等しくトレーニングされ、前記ニューラルネットワークNi+1,j=iは、前記コンピュータプログラム製品により最初の時間間隔i+1において形成され、そして先の最初の時間間隔の他の全てのニューラルネットワークNi+1,j<iは、引き継がれること、
    を特徴とする請求項19〜21のいずれか一項に記載のコンピュータプログラム製品。
  24. 前記データベースは、記憶される方法で、最初の時間間隔iが1よりも小さいイベントPi,fを更に含み、全ての進展値Pi<1,k,fは、前記イベントPi<1,fにおいて知られていること、
    を特徴とする請求項19〜23のいずれか一項に記載のコンピュータプログラム製品。
  25. 前記コンピュータプログラム製品は、少なくとも1つのスケーリング因子を含み、このスケーリング因子により、異なる前記イベントPi,fの前記進展値Pikfは、その最初の時間間隔にしたがってスケーリング可能であること、
    を特徴とする請求項19〜24のいずれか一項に記載のコンピュータプログラム製品。
  26. デジタルコンピュータの内部メモリにロード可能であり、そして前記請求項8〜16のいずれか一項に記載の前記ステップが実行されることができるソフトウェアコードセグメントを備え、前記製品がコンピュータ上で実行されている時に、前記ニューラルネットワークは、ソフトウェア、及び/又は、ハードウェアにより形成されることができるコンピュータプログラム製品。
JP2005508663A 2003-09-10 2003-09-10 自動的な経験料率の設定、及び/又は、損失積立のためのシステム、及び、方法 Pending JP2006522376A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CH2003/000612 WO2005024717A1 (de) 2003-09-10 2003-09-10 System und verfahren zur automatisierten erfahrungstarifierung und/oder schadensreservierung

Publications (1)

Publication Number Publication Date
JP2006522376A true JP2006522376A (ja) 2006-09-28

Family

ID=34230818

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005508663A Pending JP2006522376A (ja) 2003-09-10 2003-09-10 自動的な経験料率の設定、及び/又は、損失積立のためのシステム、及び、方法

Country Status (7)

Country Link
US (1) US20060015373A1 (ja)
EP (1) EP1530780A1 (ja)
JP (1) JP2006522376A (ja)
CN (1) CN1689036A (ja)
AU (1) AU2003257361A1 (ja)
CA (1) CA2504810A1 (ja)
WO (1) WO2005024717A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020130171A1 (ko) * 2018-12-18 2020-06-25 (주)아크릴 뉴럴 네트워크를 이용한 언더라이팅 자동화 장치 및 방법
WO2020235520A1 (ja) * 2019-05-23 2020-11-26 株式会社アルム 情報処理装置、情報処理システム、および情報処理プログラム

Families Citing this family (41)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030125997A1 (en) * 2001-12-20 2003-07-03 Allison Stoltz System and method for risk assessment
US7899688B2 (en) 2001-12-31 2011-03-01 Genworth Financial, Inc. Process for optimization of insurance underwriting suitable for use by an automated system
US7844477B2 (en) 2001-12-31 2010-11-30 Genworth Financial, Inc. Process for rule-based insurance underwriting suitable for use by an automated system
US7630910B2 (en) * 2001-12-31 2009-12-08 Genworth Financial, Inc. System for case-based insurance underwriting suitable for use by an automated system
US8793146B2 (en) 2001-12-31 2014-07-29 Genworth Holdings, Inc. System for rule-based insurance underwriting suitable for use by an automated system
US20030182159A1 (en) * 2001-12-31 2003-09-25 Bonissone Piero Patrone Process for summarizing information for insurance underwriting suitable for use by an automated system
US7818186B2 (en) * 2001-12-31 2010-10-19 Genworth Financial, Inc. System for determining a confidence factor for insurance underwriting suitable for use by an automated system
US7895062B2 (en) 2001-12-31 2011-02-22 Genworth Financial, Inc. System for optimization of insurance underwriting suitable for use by an automated system
US20030177032A1 (en) * 2001-12-31 2003-09-18 Bonissone Piero Patrone System for summerizing information for insurance underwriting suitable for use by an automated system
US8005693B2 (en) * 2001-12-31 2011-08-23 Genworth Financial, Inc. Process for determining a confidence factor for insurance underwriting suitable for use by an automated system
US7844476B2 (en) * 2001-12-31 2010-11-30 Genworth Financial, Inc. Process for case-based insurance underwriting suitable for use by an automated system
US7801748B2 (en) * 2003-04-30 2010-09-21 Genworth Financial, Inc. System and process for detecting outliers for insurance underwriting suitable for use by an automated system
US7383239B2 (en) 2003-04-30 2008-06-03 Genworth Financial, Inc. System and process for a fusion classification for insurance underwriting suitable for use by an automated system
US7567914B2 (en) * 2003-04-30 2009-07-28 Genworth Financial, Inc. System and process for dominance classification for insurance underwriting suitable for use by an automated system
US7813945B2 (en) * 2003-04-30 2010-10-12 Genworth Financial, Inc. System and process for multivariate adaptive regression splines classification for insurance underwriting suitable for use by an automated system
US20040236611A1 (en) * 2003-04-30 2004-11-25 Ge Financial Assurance Holdings, Inc. System and process for a neural network classification for insurance underwriting suitable for use by an automated system
US9311676B2 (en) 2003-09-04 2016-04-12 Hartford Fire Insurance Company Systems and methods for analyzing sensor data
US7711584B2 (en) * 2003-09-04 2010-05-04 Hartford Fire Insurance Company System for reducing the risk associated with an insured building structure through the incorporation of selected technologies
US20050125253A1 (en) * 2003-12-04 2005-06-09 Ge Financial Assurance Holdings, Inc. System and method for using medication and medical condition information in automated insurance underwriting
US7698159B2 (en) * 2004-02-13 2010-04-13 Genworth Financial Inc. Systems and methods for performing data collection
US7555439B1 (en) 2005-07-21 2009-06-30 Trurisk, Llc Computerized medical underwriting of group life insurance using medical claims data
US7664662B1 (en) * 2006-03-16 2010-02-16 Trurisk Llc Computerized medical modeling of group life and disability insurance using medical claims data
US7555438B2 (en) * 2005-07-21 2009-06-30 Trurisk, Llc Computerized medical modeling of group life insurance using medical claims data
US7249040B1 (en) * 2006-03-16 2007-07-24 Trurisk, L.L.C. Computerized medical underwriting of group life and disability insurance using medical claims data
US20080077451A1 (en) * 2006-09-22 2008-03-27 Hartford Fire Insurance Company System for synergistic data processing
US8359209B2 (en) 2006-12-19 2013-01-22 Hartford Fire Insurance Company System and method for predicting and responding to likelihood of volatility
WO2008079325A1 (en) * 2006-12-22 2008-07-03 Hartford Fire Insurance Company System and method for utilizing interrelated computerized predictive models
US20090043615A1 (en) * 2007-08-07 2009-02-12 Hartford Fire Insurance Company Systems and methods for predictive data analysis
US9665910B2 (en) * 2008-02-20 2017-05-30 Hartford Fire Insurance Company System and method for providing customized safety feedback
US20100070398A1 (en) * 2008-08-08 2010-03-18 Posthuma Partners Ifm Bv System and method for combined analysis of paid and incurred losses
US8355934B2 (en) * 2010-01-25 2013-01-15 Hartford Fire Insurance Company Systems and methods for prospecting business insurance customers
US9460471B2 (en) 2010-07-16 2016-10-04 Hartford Fire Insurance Company System and method for an automated validation system
US8727991B2 (en) * 2011-08-29 2014-05-20 Salutron, Inc. Probabilistic segmental model for doppler ultrasound heart rate monitoring
US10937102B2 (en) * 2015-12-23 2021-03-02 Aetna Inc. Resource allocation
US10394871B2 (en) 2016-10-18 2019-08-27 Hartford Fire Insurance Company System to predict future performance characteristic for an electronic record
CN107784590A (zh) * 2017-02-16 2018-03-09 平安科技(深圳)有限公司 一种理赔准备金的评估方法和装置
US20210256616A1 (en) 2017-09-27 2021-08-19 State Farm Mutual Automobile Insurance Company Automobile Monitoring Systems and Methods for Risk Determination
US10460214B2 (en) * 2017-10-31 2019-10-29 Adobe Inc. Deep salient content neural networks for efficient digital object segmentation
CN109214937A (zh) * 2018-09-27 2019-01-15 上海远眸软件有限公司 保险理赔智能反欺诈判定方法和系统
CN110245879A (zh) * 2019-07-02 2019-09-17 中国农业银行股份有限公司 一种风险评级方法及装置
US20210295170A1 (en) * 2020-03-17 2021-09-23 Microsoft Technology Licensing, Llc Removal of engagement bias in online service

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5761442A (en) * 1994-08-31 1998-06-02 Advanced Investment Technology, Inc. Predictive neural network means and method for selecting a portfolio of securities wherein each network has been trained using data relating to a corresponding security
US5987444A (en) * 1997-09-23 1999-11-16 Lo; James Ting-Ho Robust neutral systems
US6430539B1 (en) * 1999-05-06 2002-08-06 Hnc Software Predictive modeling of consumer financial behavior
SG135048A1 (en) * 2000-10-18 2007-09-28 Johnson & Johnson Consumer Intelligent performance-based product recommendation system
EP1384199A2 (de) * 2000-12-07 2004-01-28 Ronald E. Kates Verfahren zur ermittlung konkurrierender risiken

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020130171A1 (ko) * 2018-12-18 2020-06-25 (주)아크릴 뉴럴 네트워크를 이용한 언더라이팅 자동화 장치 및 방법
WO2020235520A1 (ja) * 2019-05-23 2020-11-26 株式会社アルム 情報処理装置、情報処理システム、および情報処理プログラム

Also Published As

Publication number Publication date
AU2003257361A1 (en) 2005-03-29
US20060015373A1 (en) 2006-01-19
CA2504810A1 (en) 2005-03-17
EP1530780A1 (de) 2005-05-18
CN1689036A (zh) 2005-10-26
WO2005024717A1 (de) 2005-03-17

Similar Documents

Publication Publication Date Title
JP2006522376A (ja) 自動的な経験料率の設定、及び/又は、損失積立のためのシステム、及び、方法
CN107102969A (zh) 一种时间序列数据的预测方法和系统
JP7021732B2 (ja) 時系列予測装置、時系列予測方法及びプログラム
US20130204815A1 (en) Method for the computer-aided learning of a recurrent neural network for modeling a dynamic system
JP2006221310A (ja) 予測方法、予測装置、予測プログラムおよび記録媒体
Granata et al. Neuroforecasting of daily streamflows in the UK for short-and medium-term horizons: A novel insight
Shachmurove Applying artificial neural networks to business, economics and finance
Dat et al. Hybrid online model based multi seasonal decompose for short-term electricity load forecasting using ARIMA and online RNN
CN114861980A (zh) 一种基于bp-lstm模型的碳预测方法
JP2019159888A (ja) 機械学習システム
JP7279225B2 (ja) 破滅的忘却の発生を抑えつつ、転移学習を行う方法、情報処理装置及びプログラム
Borysenko et al. Intelligent forecasting in multi-criteria decision-making.
Al-Akashi Stock Market Index Prediction Using Artificial Neural Network
CN114528992A (zh) 一种基于区块链的电子商务业务分析模型的训练方法
CN113408183A (zh) 基于预测模型的车辆基地短期复合预测方法
Emamverdi et al. FORECASTING THE TOTAL INDEX OF TEHRAN STOCK EXCHANGE.
CN115081633A (zh) 时间序列预测模型的超参数配置方法
Morajda Neural networks and their economic applications
JP7190615B1 (ja) 材料特性予測方法及びモデル生成方法
Ho Forecasting Unemployment via Machine Learning: The use of Average Windows Forecasts
CN116029466B (zh) 一种碳排放量预测方法、装置、存储介质及设备
Zhu et al. Car Sales Prediction Using Gated Recurrent Units Neural Networks with Reinforcement Learning
US20240086678A1 (en) Method and information processing apparatus for performing transfer learning while suppressing occurrence of catastrophic forgetting
ADRIKO DEBO et al. Predicting Implicit Patterns and Optimizing Market Entry and Exit Decisions in Stock Prices using integrated Bayesian CNN-LSTM with Deep Q-Learning as a Meta-Labeller
JP2006185099A (ja) 確率モデル作成方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080826

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090210