JP2002520719A - ニューラルネット及びニューラルネットのトレーニング方法及び装置 - Google Patents

ニューラルネット及びニューラルネットのトレーニング方法及び装置

Info

Publication number
JP2002520719A
JP2002520719A JP2000559532A JP2000559532A JP2002520719A JP 2002520719 A JP2002520719 A JP 2002520719A JP 2000559532 A JP2000559532 A JP 2000559532A JP 2000559532 A JP2000559532 A JP 2000559532A JP 2002520719 A JP2002520719 A JP 2002520719A
Authority
JP
Japan
Prior art keywords
training
neural network
training data
data set
net
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000559532A
Other languages
English (en)
Inventor
シュテルツィング フォルクマール
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of JP2002520719A publication Critical patent/JP2002520719A/ja
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Feedback Control In General (AREA)
  • Measuring Pulse, Heart Rate, Blood Pressure Or Blood Flow (AREA)
  • Testing Or Calibration Of Command Recording Devices (AREA)

Abstract

(57)【要約】 第1のトレーニングフェーズ中、第1のニューラルネット(102)が、第1のトレーニングデータセットでトレーニングされる。第1のニューラルネットと前記第2のニューラルネット(103)とは、第2のトレーニングフェーズ中、第2のトレーニングデータセットでトレーニングされ、その際、第1のニューラルネットのネットパラメータは、第2のトレーニングフェーズ中、変えられない。

Description

【発明の詳細な説明】
【0001】 本発明は、ニューラルネットのトレーニングに関する。
【0002】 そのようなトレーニング方法は、[1]から公知である。
【0003】 公知のトレーニング方法では、技術的なシステムを記述する値が測定される。
【0004】 技術的なシステムとは、この関連では、技術的装置、例えば、化学的なリアク
タ又は下水設備、モデル化すべきプロセス、一般的には、測定された物理的な値
又は検出された、即ち、例えば、画像処理の際に記録された値を用いてモデリン
グ可能な各技術システムのことである。
【0005】 トレーニング方法用の基礎として、技術的なシステムを記述する値が測定され
る。物理的な測定値は、デジタル化されて、予備処理され、その結果、コンピュ
ータを用いて処理可能である。
【0006】 測定されたトレーニングデータを用いて、ニューラルネットがトレーニングさ
れる。
【0007】 トレーニングデータは、少なくとも1つの入力量と、少なくとも1つの、入力
量に対応した出力量、目的値を有している。
【0008】 トレーニング方法として、勾配上昇方法、例えば、逆伝搬法を使用することが
できる。同様に、グローバルな最適化方法、例えば、BFGS方法又は遺伝的ア
ルゴリズムを使用することができる。
【0009】 更に、[2]からは、ネット最適化方法を使用して、ニューラルネットの構造
を、トレーニングの領域内で最適化することが公知であり、その際、トレーニン
グデータセットに関する幾つかのネットパラメータ(重み、及び、ニューラルネ
ットのニューロン間の結合)が最適化される。
【0010】 トレーニングデータセットとは、任意の個数のトレーニングデータの集合のこ
とである。
【0011】 通常のネット最適化方法は、重みの枝刈り(Pruning)である。
【0012】 [3]からは、人工トレーニングデータのコンピュータ支援生成が公知である
【0013】 ニューラルネットを使用して、技術的なシステム用のモデルを形成する際、種
々異なるパラメータを記述する多数の測定値で、更に、大きな意義を有していな
いパラメータとは異なり、技術的なシステムの記述のために重要なパラメータは
検出されないという問題点が生じることが屡々ある。
【0014】 この問題設定で通常なのは、第1の測定期間中、技術的なシステムの値が測定
され、この値が第1のトレーニングデータセットとしてニューラルネットのトレ
ーニングのために使用される。この第1のトレーニング期間が終了後、第1のト
レーニング期間により、ニューラルネット内の技術的なシステムのモデル記述の
範囲内で比較的僅かな意義の入力量は、最早利用されない。
【0015】 第2の測定期間内では、入力量が、技術的なシステムの測定値として測定され
るにすぎず、第1のトレーニング期間内に検出されるような、技術的なシステム
のモデリングに関しての入力量の意義は、比較的高い。
【0016】 ニューラルネットは、第2の測定期間内で検出された値(第2のトレーニング
データセットを構成する)を用いて、第2のトレーニング期間中トレーニングさ
れる。
【0017】 第2のトレーニング期間内では、第2の測定期間内には最早測定されない第1
のトレーニング期間の値は、第2のトレーニング期間では最早考慮されない。
【0018】 [4]には、並列接続された多数のニューラル部分ネットを有するニューラル
ネットについて記載されており、このニューラル部分ネットは、共通のトレーニ
ングデータセットでトレーニングされ、その際、個別部分ネットが順次連続して
トレーニングされる。
【0019】 [5]からは、第1のニューラルネットの出力値が第2のニューラルネットの
入力値であるように相互に接続された2つのニューラルネットが公知である。両
ニューラルネットに対して、同一の入力データが使用される。
【0020】 [6]には、ニューラルネットが実際のプロセスの写像を形成するようにニュ
ーラルネットがトレーニングされるニューラルネット用の学習方法が記述されて
いる。更に、代表的なプロセスデータを用いて作動中に、比較的長い時間に亘っ
てプロセスの写像を形成するようにトレーニングされるバックグラウンドネット
(Hindergrundnetz)が設けられている。
【0021】 従って、本発明が基づく課題は、第2のトレーニング期間中、最早必要ない、
第1のトレーニング期間からのトレーニングデータを、トレーニングの領域内で
考慮することができる、ニューラルネット、並びに、ニューラルネットのトレー
ニング用の方法及び装置を提供することである。
【0022】 本発明によると、この課題は、請求項1記載の方法、請求項11記載のニュー
ラルネット並びに請求項15記載の装置により解決される。
【0023】 ニューラルネットのコンピュータ支援トレーニング用の方法において、ニュー
ラルネットは、第1のニューラルネットと第2のニューラルネットとを有してお
り、第1のニューラルネットは、第1のトレーニング期間中第1のトレーニング
データセットでトレーニングされる。第1のニューラルネットと第2のニューラ
ルネットとは、第2のトレーニング期間中、第2のトレーニングデータセットで
トレーニングされ、第2のトレーニング期間中、第1のニューラルネットのネッ
トパラメータは変えられない。
【0024】 第1のニューラルネットと第2のニューラルネットを有するニューラルネット
のトレーニング装置は、プロセッサを有しており、該プロセッサは、以下のステ
ップを実行可能であるように装置構成されており: −第1のニューラルネットを、第1のトレーニングフェーズ中、第1のトレーニ
ングデータセットでトレーニングし、 −第1のニューラルネット及び第2のニューラルネットを、第2のトレーニング
フェーズ中、第2のトレーニングデータセットでトレーニングし、 −第1のニューラルネットのネットパラメータを、第2のトレーニングフェーズ
中変化させない。
【0025】 ニューラルネットは、第1のニューラルネットと第2のニューラルネットとを
有しており、 −第1のニューラルネットは、第1のトレーニングフェーズ中、第1のトレーニ
ングデータでトレーニング可能であり、 −第2のニューラルネットは、第2のトレーニングフェーズ中第2のトレーニン
グデータセットでトレーニング可能であり、 −第1のニューラルネットのネットパラメータは、第2のトレーニングフェーズ
中変えることができないようにされている。
【0026】 本発明によると、トレーニングされるニューラルネットの一般化効率が著しく
上昇される。それと同時に、ニューラルネットによって形成される、技術的なシ
ステム用のモデルの安定性が、モデリングすべき量を含まない不完全なトレーニ
ングデータも、モデリングのために利用することができるようにして向上させる
ことができる。
【0027】 概観すると、本発明は、入力量を部分的に第2のトレーニング期間中に測定さ
れない、及び/又は、使用されないトレーニングデータを、技術的なシステムの
モデリングのために、即ち、技術的なシステム用のモデルとして使用されるニュ
ーラルネットのトレーニング用に使用する点にある。
【0028】 本発明の有利な実施例は、従属請求項から得られる。
【0029】 本発明の実施例では、第1のニューラルネットの少なくとも1つの出力量を、
第2のニューラルネットの入力量として使用すると有利である。この実施例によ
ると、モデリングすべき技術システムに関して、トレーニングされたニューラル
ネットの質が更に改善される。
【0030】 技術的なシステムに関して、ニューラルネットを更に改善するために、別の実
施例では、第1のニューラルネットでの第1のトレーニングフェーズ中、ネット
最適化方法を使用し、殊に、第1トレーニングフェーズ中、通常のように、比較
的僅かなトレーニングデータを使用し、従って、第1のニューラルネットのネッ
トパラメータの数をできる限り僅かであるようにすると有利である。
【0031】 本発明は、各ニューラルネットで、技術システムのモデリングのために使用す
ることができ、殊に、測定値が実際上技術システムに著しい影響を有しているト
レーニングの開始時には未だ分かっていないシステムで使用される。
【0032】 以下、本発明について図示の実施例を用いて詳細に説明する。
【0033】 その際、 図1は、本発明の実施例を示すニューラルネットの略図、 図2aから2cは、測定装置(図2a)、第1の測定期間のトレーニングデータ
を用いてトレーニングされる(図2b)ニューラルネット及び第1のトレーニン
グ期間後のトレーニングされた第1のニューラルネット(図2c)を有する下水
設備の略図、 図3は、第2の測定期間内で、第2のトレーニングデータセットが検出される測
定装置を有する下水設備の図を示す。
【0034】 図2aは、下水設備201を示す。所定のシステムパラメータ202で、第1
のトレーニング期間中で下水設備201の値203が、少なくとも1つの測定装
置204によって測定される。
【0035】 第1のトレーニング期間中、以下のシステムパラメータ202が設定される: −測定の時計時間、 −測定の週日、 −下水設備の流れの伝導度(Leitfaehigkeit) −流量、 −温度、 −全窒素含有量 −下水設備の流れのpH値 測定装置204により、下水設備201の種々異なる位置で、以下の値が測定
される: −アンモニアC(NH )の濃度、 −全窒素含有量、 −全イオウ含有量、 −燐酸 C(PO2- )の濃度、 −化学的総物質要求量(Summenstoffbedarf)(CSB)、 −分解された有機炭素(DOC)、 −種々の個所での下水設備201内の液体のpH値-log C(HO)、 −フィルタ除去可能物質の濃度、 −堆積性(absetzbar)物質の濃度 第1の測定期間は、更に説明する第2の測定期間に対して著しく大きな数の異
なった値203が測定されるが、しかし、比較的短い時間に亘ってでしかないこ
とが屡々である。
【0036】 システムパラメータ及び各々のシステムパラメータ202に対して測定された
値203は、各々組として記憶され、第1の測定期間内で検出された組は全て、
第1のトレーニングデータセット205を形成する。
【0037】 第1のトレーニングデータセットを用いて、第1のニューラルネット210(
図2b参照)がトレーニングされる。第1のニューラルネット210は、入力ニ
ューロン214を有する入力層211、隠れニューロン215を有する隠れ層2
12、出力ニューロン216を有する出力層を有している。
【0038】 第1のトレーニング期間中、第1のニューラルネット210は、第1のトレー
ニングデータセット205を用いてトレーニングされる。このトレーニングのフ
レーム内で、ネットパラメータ(各ニューロン間の結合の重み並びに各ニューロ
ン間の結合)は、公知のトレーニング方法、バックプロパゲーション方法により
トレーニングされる。
【0039】 その際、システムパラメータ202は、入力層211に供給され、第1ニュー
ラルネット210の出力量が検出される。
【0040】 出力側では、システムパラメータ202に対応付けされた各々の値203が、
トレーニング誤差が求められるように比較される。
【0041】 トレーニング誤差を用いて、第1のニューラルネット210がトレーニングさ
れる。[2]から公知のネット最適化方法を用いることにより、図2cに示され
たトレーニングされた第1のニューラルネット220が得られる。トレーニング
された第1のニューラルネット220は、更に、入力ニューロン224を有する
入力層221、隠れニューロン225を有する隠れ層222並びに出力ニューロ
ン226を有する出力層223を有している。
【0042】 しかし、トレーニングされた第1のニューラルネット220のネットパラメー
タは、トレーニングされていない第1のニューラルネット210のネットパラメ
ータに対して異なっている。
【0043】 僅かしか隠されていないニューロン225も、入力層221のニューロンと隠
れ層222との間の結合、並びに、出力層223のニューロンと隠れ層222の
ニューロンとの間の結合を有している。
【0044】 第1のトレーニング期間は、オフライン、即ち、第1のトレーニング期間中、
下水設備201内で、第1のトレーニングデータセット用の9つではないトレー
ニングデータが検出される。
【0045】 下水設備201は、図3では、301で示されている。
【0046】 第2のトレーニング期間中、第1のトレーニング期間の値203の一部分しか
、少なくとも1つの測定装置304によって、種々異なるシステムパラメータ3
02を用いて測定されない。
【0047】 第2のトレーニング期間は、僅かな個数の値203が測定される、この場合に
は、化学的総物質要求量(Summenstoffbedarf)CSB並びにアンモニアC(NH )ように特徴付けられる。
【0048】 そのために、第2の測定期間が、第1の測定期間に較べて長い時間に亘って実
行される。第2のトレーニング期間は、オンラインで行われる、即ち、第2のト
レーニング期間中、値303が第2の測定期間中下水設備301で測定されて、
トレーニングデータとして第2のトレーニングデータセット305に供給される
【0049】 図1には、第1のトレーニング期間中トレーニングされた第1のニューラルネ
ット102、並びに、第2のニューラルネット103を含むニューラルネット1
01が示されている。
【0050】 第1のニューラルネット102の出力側は、第2のニューラルネット103の
入力側に接続されている。第2のニューラルネット103の別の入力側は、シス
テムパラメータを入力するために設けられており、このシステムパラメータは、
第2の測定期間中、値303の測定のために、第2の測定期間内で使用される。
【0051】 第2の測定期間のシステムパラメータ302は、入力量として、トレーニング
された第1のニューラルネット102にも第2のニューラルネット103にも供
給される。
【0052】 トレーニングされた第1のニューラルネット102では、供給された入力量に
対して出力量が形成され、この出力量は、第2のニューラルネット103の別の
入力側に供給される。
【0053】 第2のニューラルネット103の隠れ層104では、この入力量が更に処理さ
れ、第2のニューラルネット105の出力層105に供給される。ニューラルネ
ットの出力層105は、同様にニューラルネット101の出力層も形成する。出
力層105では、少なくとも1つの出力量が形成される。出力量は、第2の測定
期間の測定された値303と比較され、その際、その都度測定された値303と
出力量との偏差が求められ、それから求められた誤差を用いてニューラルネット
101がトレーニングされ、その際、第1のニューラルネット102の後続のネ
ットパラメータは変えられない。
【0054】 入力層221と隠れ層222との間並びに前記隠れ層222と出力層223と
の接続及び該接続の重みは変化されない。
【0055】 しかし、ニューラルネット101のトレーニングの期間内では、トレーニング
された第1のニューラルネット102の出力層223のニューロン226と第2
のニューラルネット1103の隠れ層104のニューロンとの間の重みは変える
ことができ、第2のトレーニングデータセット305に依存して、場合によって
は、離隔することができる。
【0056】 つまり、具体的には、ニューラルネット101は、第2のトレーニングデータ
セット305を用いて学習方法によりトレーニングされ、その際、第1のニュー
ラルネット102のネットパラメータは、変えられない。
【0057】 以下、一般的に、本発明についてもう一度説明する。
【0058】 オンラインで測定された量x,x,x,・・・と、オフラインで解析に
よって検出された量z,z,z・・・とが関連付けられる。
【0059】 通常のように形成されている、オンラインで測定された量とオフラインで測定
された量との相互の分かっていない関連のために、ニューラルネットの入力量と
して、オンラインで測定された量もオフラインで測定された量も利用される場合
、出力量y=zを一層良好にモデリングすることができ、つまり、この出力量
は、以下の規定に応じて形成される: y=z=f(x,x,x,・・・,z,z・・・), (
1) その際、f(.)で、非線形写像が示される。
【0060】 第1のステップでは、第1のニューラルネットNN1が、オフラインで測定さ
れた全ての量z,z,z・・・に対して、以下の規定により検出される:
【0061】
【数1】
【0062】 その際、NN1(.)で、第1のニューラルネットによって形成される非線形写
像が示される。
【0063】 ニューラルネット全体に対して、以下の写像規則が得られる: y=NN2(x,x,x,・・・,NN1(x,x,x,・・・,
)), (3) その際、NN2(.)で、ニューラルネットによって構成される非線形写像が示
される。
【0064】 このようにして、測定値203が第1のトレーニング期間中使用されるが、第
2の測定期間中は測定されなず、使用されないトレーニングデータを、それにも
拘わらず技術的システム全体のモデリングのために初めて利用することができる
【0065】 このように、付加的に情報を得ることにより、ニューラルネットによる技術的
システムのモデリングを改善することができるようになる。
【0066】 本発明によると、第1のトレーニングデータセット205のトレーニングデー
タの有効利用が、ニューラルネット210の目的量としても入力量としても可能
となり、その際、それにより、ニューラルネット101を使用するのに何ら制限
されない。
【0067】 更に、上述の実施例の択一選択性及び一般化の手段が示されている: 本発明は、ニューラルネットの特殊な構造に制限されない。
【0068】 ニューラルネット内のニューロンの数も層の数も任意に設定可能である。
【0069】 本発明は、極めて種々広範な領域内で使用することができ、例えば: ・プロセスモデリング、 ・品質モデリング、例えば、種々異なったトレーニングフェーズ間で意味を変え
る製品特性のモデリングの生成、 ・例えば、金融市場で、例えば、ユーロの導入時に生起する比較的強い変化を考
慮するための金融データモデリング。
【0070】 トレーニングされた第1のニューラルネット220に対しては、トレーニング
される必要はない、即ち、オーバーフィッティングされる必要はないという点に
注意すべきである。
【0071】 この場合、安定してトレーニングされた第1のニューラルネット220を達成
するために、トレーニングされた第1のニューラルネット220の近似品質が少
し小さくなってしまうのが改善される。 この明細書の範囲内では、以下の刊行物が引用されている: [1] A.Zell, Simulation Neuronaler Netze, Addison Wesley Publishing, 1.
Auflage, ISBN 3-89319-554-8, S.97-114 及び555-574, 1994 [2] DE 19611732 C1 [3] WO 98/10352 [4] US 5095443 [5] DE 4330847 A1 [6] DE 19624301 A1
【図面の簡単な説明】
【図1】 本発明の実施例を示すニューラルネットの略図
【図2】 測定装置、第1の測定期間のトレーニングデータを用いてトレーニングされる
ニューラルネット及び第1のトレーニング期間後のトレーニングされた第1のニ
ューラルネットを有する下水設備の略図
【図3】 第2の測定期間内で、第2のトレーニングデータセットが検出される測定装置
を有する下水設備の図
【手続補正書】特許協力条約第34条補正の翻訳文提出書
【提出日】平成12年7月19日(2000.7.19)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】特許請求の範囲
【補正方法】変更
【補正内容】
【特許請求の範囲】

Claims (24)

    【特許請求の範囲】
  1. 【請求項1】 ニューラルネットのコンピュータ支援トレーニング用の方法
    において、ニューラルネットは、第1のニューラルネットと第2のニューラルネ
    ットとを有しており、 −前記第1のニューラルネットを、第1のトレーニングフェーズ中第1のトレー
    ニングデータセットでトレーニングし、 −前記第1のニューラルネットと前記第2のニューラルネットとを、第2のトレ
    ーニングフェーズ中、第2のトレーニングデータセットでトレーニングし、 −前記第2のトレーニングフェーズ中、前記第1のニューラルネットのネットパ
    ラメータを変えない ようにすることを特徴とする方法。
  2. 【請求項2】 第1のトレーニングデータセットのトレーニングデータを、
    少なくとも部分的に相互に一致させる請求項1記載の方法。
  3. 【請求項3】 第1のニューラルネットの少なくとも1つの出力量を、第2
    のトレーニングフェーズ中、第2のニューラルネットの入力量として使用する請
    求項1又は2記載の方法。
  4. 【請求項4】 第1のトレーニングフェーズ中、少なくとも1つのネット最
    適化方法を第1のニューラルネットに使用する請求項1から3迄の何れか1記載
    の方法。
  5. 【請求項5】 第1のトレーニングデータセットに、第2のトレーニングデ
    ータセットよりも少ないトレーニングデータを含ませる請求項1から4迄の何れ
    か1記載の方法。
  6. 【請求項6】 請求項1から5迄の何れか1記載の方法であって、 −技術的なシステムの値を測定し、 −第1のトレーニングデータセット及び/又は第2のトレーニングデータセット
    のトレーニングデータとして、測定された値を使用する方法。
  7. 【請求項7】 技術的なシステムを、化学的な反応器にする請求項6記載の
    方法。
  8. 【請求項8】 技術的なシステムを、下水設備(Klaeranlage)にする請求
    項6記載の方法。
  9. 【請求項9】 第1のトレーニングデータセット及び/又は第2のトレーニ
    ングデータセットのトレーニングデータの少なくとも一部分を人工的に生成する
    請求項1から8迄の何れか1記載の方法。
  10. 【請求項10】 請求項1から9迄の何れか1記載の方法であって、 −第2のトレーニングフェーズ中、技術的なシステムの値を、オンラインで測定
    し、 −測定された値を、少なくとも第2のトレーニングデータセットの部分として使
    用する方法。
  11. 【請求項11】 第1のニューラルネットと第2のニューラルネットとを有
    するニューラルネットであって、 −第1のニューラルネットは、第1のトレーニングフェーズ中、第1のトレーニ
    ングデータでトレーニング可能であり、 −第2のニューラルネットは、第2のトレーニングフェーズ中第2のトレーニン
    グデータセットでトレーニング可能であり、 −前記第1のニューラルネットのネットパラメータは、前記第2のトレーニング
    フェーズ中変えることができないようにしたことを特徴とするニューラルネット
  12. 【請求項12】 第1のトレーニングデータセット及び第2のトレーニング
    データセットのトレーニングデータは、少なくとも部分的に相互に一致している
    請求項11記載のニューラルネット。
  13. 【請求項13】 第1のニューラルネットの少なくとも1つの出力側が、第
    2のニューラルネットの入力側と接続されている請求項11又は12記載のニュ
    ーラルネット。
  14. 【請求項14】 第1のトレーニングデータセットは、第2のトレーニング
    データセットよりも少ないトレーニングデータを有している請求項11から13
    迄の何れか1記載のニューラルネット。
  15. 【請求項15】 第1のニューラルネットと第2のニューラルネットを有す
    るニューラルネットのトレーニング装置において、 プロセッサを有しており、該プロセッサは、以下のステップを実行可能であるよ
    うに装置構成されており: −第1のニューラルネットを、第1のトレーニングフェーズ中、第1のトレーニ
    ングデータセットでトレーニングし、 −前記第1のニューラルネット及び前記第2のニューラルネットを、第2のトレ
    ーニングフェーズ中、第2のトレーニングデータセットでトレーニングし、 −前記第1のニューラルネットのネットパラメータを、前記第2のトレーニング
    フェーズ中変化させない ことを特徴とするニューラルネットのトレーニング装置。
  16. 【請求項16】 プロセッサは、第1のトレーニングデータセットと第2の
    トレーニングデータセットのトレーニングデータが少なくとも部分的に一致する
    請求項15記載の装置。
  17. 【請求項17】 プロセッサは、第1のニューラルネットの少なくとも1つ
    の出力量が、第2のトレーニングフェーズ中、第2のニューラルネットの入力量
    として使用されるように装置構成されている請求項15又は16記載の装置。
  18. 【請求項18】 プロセッサは、第1のトレーニングフェーズ中、ネット最
    適化方法が、第1のニューラルネット上に使用されるように装置構成されている
    請求項15から17迄の何れか1記載の装置。
  19. 【請求項19】 第1のトレーニングデータセットは、第2のトレーニング
    データセットよりも僅かなトレーニングデータを有している請求項15から18
    迄の何れか1記載の装置。
  20. 【請求項20】 請求項15から19迄の何れか1記載の装置であって、 −技術的システムの値の測定用の測定装置が設けられており、該測定装置は、プ
    ロセッサと接続されており、 −前記プロセッサは、第1のトレーニングデータセット及び/又は第2のトレー
    ニングデータセットのトレーニングデータとして、測定値が使用される装置。
  21. 【請求項21】 技術的システムは、化学反応器である請求項20記載の装
    置。
  22. 【請求項22】 技術的システムは、下水設備である請求項20記載の装置
  23. 【請求項23】 プロセッサは、第1のトレーニングデータセット及び/又
    は第2のトレーニングデータセットのトレーニングデータの少なくとも一部分が
    人工的に生成されるように装置構成されている請求項15から22迄の何れか1
    記載の装置。
  24. 【請求項24】 請求項15から23迄の何れか1記載の装置であって、 −プロセッサは、第2のトレーニングフェーズ中、技術的システムの値がオンラ
    インで測定され、 −測定値は、第2のトレーニングデータセットの少なくとも部分として使用され
    る装置。
JP2000559532A 1998-07-08 1999-07-01 ニューラルネット及びニューラルネットのトレーニング方法及び装置 Withdrawn JP2002520719A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19830539.7 1998-07-08
DE19830539 1998-07-08
PCT/DE1999/001952 WO2000003355A2 (de) 1998-07-08 1999-07-01 Neuronales netz und verfahren und anordnung zum trainieren eines neuronalen netzes

Publications (1)

Publication Number Publication Date
JP2002520719A true JP2002520719A (ja) 2002-07-09

Family

ID=7873363

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000559532A Withdrawn JP2002520719A (ja) 1998-07-08 1999-07-01 ニューラルネット及びニューラルネットのトレーニング方法及び装置

Country Status (3)

Country Link
EP (1) EP1093639A2 (ja)
JP (1) JP2002520719A (ja)
WO (1) WO2000003355A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663495A (zh) * 2012-02-22 2012-09-12 天津大学 一种用于非线性器件建模的神经网络数据生成方法
WO2014188940A1 (ja) * 2013-05-23 2014-11-27 独立行政法人情報通信研究機構 ディープ・ニューラルネットワークの学習方法及び学習装置、並びにカテゴリー独立なサブネットワークの学習装置
KR20180094065A (ko) * 2015-12-23 2018-08-22 지멘스 악티엔게젤샤프트 에너지 생산자의 전력을 결정하기 위한 방법 및 소프트 센서

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9920950D0 (en) 1999-09-06 1999-11-10 Ici Ltd Apparatus and method for reducing residual solvent levels
DE102018206108A1 (de) * 2018-04-20 2019-10-24 Zf Friedrichshafen Ag Generieren von Validierungsdaten mit generativen kontradiktorischen Netzwerken
DE102019204136A1 (de) * 2019-03-26 2020-10-01 Robert Bosch Gmbh Verfahren und Vorrichtung für Training und Herstellung eines künstlichen neuronalen Netzes
EP3716238B1 (de) * 2019-03-27 2023-03-15 Siemens Aktiengesellschaft Verfahren zum ermitteln einer evakuierungsstrategie für eine evakuierung eines gebäudes

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0727748A1 (de) * 1995-02-17 1996-08-21 BODAMER, Edgar Verfahren und Anordnung zum mehrstufigen unüberwachten Lernen unter Verwendung einer Hierarchie von neuronalen Netzen

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102663495A (zh) * 2012-02-22 2012-09-12 天津大学 一种用于非线性器件建模的神经网络数据生成方法
WO2014188940A1 (ja) * 2013-05-23 2014-11-27 独立行政法人情報通信研究機構 ディープ・ニューラルネットワークの学習方法及び学習装置、並びにカテゴリー独立なサブネットワークの学習装置
JP2014229124A (ja) * 2013-05-23 2014-12-08 独立行政法人情報通信研究機構 ディープ・ニューラルネットワークの学習方法、ディープ・ニューラルネットワークのサブネットワークのパラメータを記憶した記憶媒体及びコンピュータプログラム
KR20180094065A (ko) * 2015-12-23 2018-08-22 지멘스 악티엔게젤샤프트 에너지 생산자의 전력을 결정하기 위한 방법 및 소프트 센서
KR102183563B1 (ko) * 2015-12-23 2020-11-26 지멘스 악티엔게젤샤프트 에너지 생산자의 전력을 결정하기 위한 방법 및 소프트 센서

Also Published As

Publication number Publication date
WO2000003355A3 (de) 2000-04-20
EP1093639A2 (de) 2001-04-25
WO2000003355A2 (de) 2000-01-20

Similar Documents

Publication Publication Date Title
Lawson et al. A data assimilation technique applied to a predator-prey model
CN109409431B (zh) 基于神经网络的多传感器姿态数据融合方法及系统
Battiti Accelerated backpropagation learning: Two optimization methods
Blasco et al. Modelling the temporal evolution of a reduced combustion chemical system with an artificial neural network
Giannakoglou et al. Aerodynamic shape design using evolutionary algorithms and new gradient-assisted metamodels
Karul et al. Case studies on the use of neural networks in eutrophication modeling
Hegazy et al. Developing practical neural network applications using back‐propagation
CN112445131A (zh) 一种线性系统自适应最优跟踪控制方法
US5553195A (en) Dynamic neural net
CN106022954B (zh) 基于灰色关联度的多重bp神经网络负荷预测方法
CN113505534B (zh) 一种考虑需求响应的负荷预测方法
JP2002520719A (ja) ニューラルネット及びニューラルネットのトレーニング方法及び装置
Bihlo Improving physics-informed neural networks with meta-learned optimization
Vasechkina et al. Evolving polynomial neural network by means of genetic algorithm: some application examples
CN109540089B (zh) 一种基于贝叶斯-克里金模型的桥面高程拟合方法
Mistani et al. JAX-DIPS: neural bootstrapping of finite discretization methods and application to elliptic problems with discontinuities
CN110909492B (zh) 一种基于极端梯度提升算法的污水处理过程软测量方法
Anuradha et al. Direct inverse neural network control of a continuous stirred tank reactor (CSTR)
CN116484904A (zh) 一种基于人工智能深度学习的监管数据处理实现方法
Wu et al. Improved saddle point prediction in stochastic two-player zero-sum games with a deep learning approach
CN107944552A (zh) 一种基于Elman神经网络的工业物联网参数预测方法
Vlah et al. Solving bilevel optimal bidding problems using deep convolutional neural networks
CN113569898A (zh) 基于bp神经网络的水质模型参数反演分析方法及系统
JP2674167B2 (ja) 神経回路網モデルを用いたプロセス制御方法
JP2000276459A (ja) 学習による変換関数を用いた乱数発生装置,乱数発生方法および乱数発生システム

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20060905