JP6382354B2 - ニューラルネットワーク及びニューラルネットワークのトレーニング方法 - Google Patents

ニューラルネットワーク及びニューラルネットワークのトレーニング方法 Download PDF

Info

Publication number
JP6382354B2
JP6382354B2 JP2016573707A JP2016573707A JP6382354B2 JP 6382354 B2 JP6382354 B2 JP 6382354B2 JP 2016573707 A JP2016573707 A JP 2016573707A JP 2016573707 A JP2016573707 A JP 2016573707A JP 6382354 B2 JP6382354 B2 JP 6382354B2
Authority
JP
Japan
Prior art keywords
correction
neuron
weight
input
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016573707A
Other languages
English (en)
Other versions
JP2017511948A (ja
Inventor
ペシャンスキー,ドミトリー
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Progress inc
Original Assignee
Progress inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Progress inc filed Critical Progress inc
Publication of JP2017511948A publication Critical patent/JP2017511948A/ja
Application granted granted Critical
Publication of JP6382354B2 publication Critical patent/JP6382354B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Complex Calculations (AREA)
  • Image Processing (AREA)

Description

関連出願の相互参照
本願は、2014年3月6日に出願された米国仮特許出願第61/949,210号明細書及び2015年1月22日に出願された米国仮特許出願第62/106,389号明細書の利益を主張するものであり、これらの内容全体は、参照により本明細書に援用される。
本開示は、人工ニューラルネットワーク及び人工ニューラルネットワークをトレーニングする方法に関する。
機械学習では、人工ニューラルネットワークは、生物学的神経系、すなわち、動物の中枢神経系、特に脳によって触発された統計学的学習アルゴリズムの一群である。人工ニューラルネットワークは主に、多数の入力に依存することができる一般的に未知の機能を推定又は近似するために使用される。そのようなニューラルネットワークは、コンピュータビジョン及び音声認識を含め、普通のルールベースのプログラミングを使用して分解することが難しい多種多様なタスクに使用されてきた。
人工ニューラルネットワークは一般に、入力から値を計算することができる「ニューロン」の系として提示され、その適応性の結果、機械学習及びパターン認識が可能である。各ニューロンは往々にして、シナプス重みを有するシナプスを通して幾つかの入力と接続する。
ニューラルネットワークは、典型的なソフトウェアとしてプログラムされず、トレーニングされる。そのようなトレーニングは通常、所与の入力画像セットが所与の出力画像セットに対応するように、十分な数の代表例の解析を介して、シナプス重みの統計学的又はアルゴリズム的選択により達成される。従来のニューラルネットワークの一般的な批判は、往々にしてトレーニングにかなりの時間及び他のリソースが必要とされることである。
様々な人工ニューラルネットワークが、以下の米国特許に記載されている:米国特許第4,979,124号明細書、同第5,479,575号明細書、同第5,493,688号明細書、同第5,566,273号明細書、同第5,682,503号明細書、同第5,870,729号明細書、同第7,577,631号明細書、及び同第7,814,038号明細書。
ニューラルネットワークは、入力値を有する入力信号を受信するようにそれぞれ構成されるような複数のネットワーク入力を有する。ニューラルネットワークは、複数のシナプスも含み、各シナプスは、複数の入力のうちの1つに接続され、複数の補正重みを含み、各補正重みは重み値によって定義される。ニューラルネットワークは、1組の分配器を更に含む。各分配器は、複数の入力のうちの1つに動作可能に接続されて、各入力信号を受信し、入力値に相関して、複数の補正重みから1つ又は複数の補正重みを選択するように構成される。ニューラルネットワークは、1組のニューロンも含む。各ニューロンは、少なくとも1つの出力を有し、複数のシナプスのうちの1つを介して複数の入力のうちの少なくとも1つに接続され、各ニューロンに接続された各シナプスから選択される補正重みの重み値を合算し、それにより、ニューロン和を生成するように構成される。さらに、ニューラルネットワークは、重み補正計算器を含み、重み補正計算器は、値を有する所望の出力信号を受信し、所望の出力信号値からのニューロン和の逸脱を特定し、特定された逸脱を使用して各補正重み値を変更するように構成される。変更された補正重み値を合算して、ニューロン和を特定することにより、所望の出力信号値からのニューロン和の逸脱が最小化され、ニューラルネットワークのトレーニングを提供する。
所望の出力信号からのニューロン和の逸脱の特定は、所望の出力信号値をニューロン和で除算し、それにより、逸脱係数を生成することを含み得る。さらに、各補正重み値の変更は、逸脱係数により、ニューロン和の生成に使用される各補正重みを乗算することを含み得る。
所望の出力信号からのニューロン和の逸脱は、所望の出力信号とニューロン和との数学的差分であり得る。そのような場合、各変更補正重みの生成は、ニューロン和の生成に使用される各補正重みへの数学的差分の配分を含み得る。各補正重みへのそのような数学的差分の配分は、各ニューロン和を所望の信号値に収束させることを意図する。
数学的差分の配分は、ニューロン和の生成に使用される各補正重み間で、特定された差分を等分割することを含むこともできる。
分配器は、各影響係数が所定の割合で複数の補正重みのうちの1つに割り当てられて、ニューロン和を生成するように、複数の影響係数を複数の補正重みに割り当てるように更に構成し得る。
複数の影響係数のそれぞれは、影響分布関数によって定義し得る。複数の入力値は、各入力値が各間隔内で受信され、各補正重みが間隔のうちの1つに対応するように、間隔分布関数に従って間隔に分割される値範囲の中で受信し得る。また、各分配器は、入力信号の受信される各入力値を使用して、各間隔を選択し得る。さらに、各分配器は、複数の影響係数のそれぞれを、選択された各間隔に対応する補正重み及び選択された各間隔に隣接する間隔に対応する少なくとも1つの補正重みに割り当て得る。
各ニューロンは、そのニューロンに接続された全てのシナプスでの補正重みと割り当てられた影響係数との積を合算するように構成し得る。
影響係数の所定の割合は、ガウス関数の使用等の統計学的分布に従って定義し得る。
重み補正計算器は、各影響係数によって確立される割合に従って、特定された差分の部分を、ニューロン和の生成に使用される各補正重みに適用するように構成し得る。
各補正重みは、1組のインデックスによって更に定義し得る。そのようなインデックスは、入力に対応する補正重みを識別するように構成される入力インデックスと、各補正重みに選択される間隔を指定するように構成される間隔インデックスと、ニューロンに対応する補正重みを指定するように構成されるニューロンインデックスとを含み得る。
各補正重みは、ニューラルネットワークのトレーニング中、各補正重みが入力信号によってアクセスされる回数を数えるように構成されるアクセスインデックスによって更に定義し得る。
そのようなニューラルネットワークをトレーニングする方法も開示される。
本開示の上記特徴及び利点並びに他の特徴及び利点は、添付図面及び添付の特許請求の範囲と併せて解釈される場合、以下の実施形態の詳細な説明及び記載される開示を実施する最良の形態から容易に理解される。
従来技術による従来の人工ニューラルネットワークの図である。 複数のシナプスと、1組の分配器と、各シナプスに関連付けられた複数の補正重みとを有する「プログレッシブニューラルネットワーク」(pネット)の図である。 複数のシナプスと、各分配器の上流に位置決めされる1つのシナプス重みとを有する、図2に示されるpネットの一部の図である。 複数のシナプスと、複数の補正重みのそれぞれの下流に位置決めされる1組のシナプス重みとを有する、図2に示されるpネットの一部の図である。 複数のシナプスと、各分配器の上流に位置決めされた1つのシナプス重みと、複数の補正重みのそれぞれの下流に位置決めされる1組のシナプス重みとを有する、図2に示されるpネットの一部の図である。 所与の入力の全てのシナプスに1つの分配器と、各分配器の上流に位置決めされる1つのシナプス重みとを有する、図2に示されるpネットの一部の図である。 所与の入力の全てのシナプスに1つの分配器と、複数の補正重みのそれぞれの下流に位置決めされる1組のシナプス重みとを有する、図2に示されるpネットの一部の図である。 所与の入力の全てのシナプスに1つの分配器と、各分配器の上流に位置決めされる1つのシナプス重みと、複数の補正重みのそれぞれの下流に位置決めされた1組のシナプス重みとを有する、図2に示されるpネットの一部の図である。 図2に示されるpネット内の個々の間隔への入力信号値範囲を分割する図である。 図2に示されるpネット内の補正重みの影響係数の値の分布の一実施形態の図である。 図2に示されるpネット内の補正重みの影響係数の値の分布の別の実施形態の図である。 図2に示されるpネット内の補正重みの影響係数の値の分布の更に別の実施形態の図である。 図2に示されるpネットの入力画像並びにデジタル符号の形態で画像を表す1つの対応するテーブル及び1組の各間隔と同じ画像を表す別の対応するテーブルの図である。 pネットが各画像の幾つかの特徴を含むピクチャを認識するように構成される、2つの別個の画像の認識に向けてトレーニングされた図2に示されるpネットの実施形態の図である。 「中央」ニューロンの周囲のシナプス重みの分布例を有する、図2に示されるpネットの実施形態の図である。 補正重み間のトレーニング逸脱の均一分布を示す、図2に示されるpネットの実施形態の図である。 pネットトレーニング中に補正重みの変更を利用する、図2に示されるpネットの実施形態の図である。 基本アルゴリズムが、出力ニューロン和のプライマリセットを生成し、生成されるセットは、維持又は増大された値を有する幾つかの「ウィナー」和の生成に使用され、残りの和の寄与は無視される、図2に示されるpネットの実施形態の図である。 複数の画像の要素を有する複雑な画像を認識する、図2に示されるpネットの実施形態の図である。 統一モデリング言語(UML)を使用する、図2に示されるpネットのオブジェクト指向プログラミングのモデルの図である。 図2に示されるpネットの一般形成シーケンスの図である。 代表的な解析及び図2に示されるpネットの形成に向けてのデータの準備の図である。 トレーニング及びpネット適用中の入力データとの図2に示されるpネットの対話を可能にする代表的な入力作成の図である。 図2に示されるpネットのニューロンユニットの代表的な作成の図である。 ニューロンユニットに接続された各シナプスの代表的な作成の図である。 図2に示されるpネットのトレーニングの図である。 図2に示されるpネットでのニューロンユニットトレーニングの図である。 図2に示されるpネットのトレーニング中のニューロン和の拡張の図である。 図2〜図22に示されるニューラルネットワークのトレーニングに使用される方法の流れ図である。
従来の人工ニューラルネットワーク10は、図1に示されるように、通常、入力デバイス12と、シナプス重み16を有するシナプス14と、加算器20及びアクティブ化機能デバイス22を含むニューロン18と、ニューロン出力24と、重み補正計算器26とを含む。各ニューロン18は、シナプス14を通して2つ以上の入力デバイス12に接続される。シナプス重み16の値は一般に、電気抵抗、導電率、電圧、電荷、磁気特性、又は他のパラメータを使用して表される。
従来のニューラルネットワーク10の教師付きトレーニングは一般に、1組のトレーニングペア28の適用に基づく。各トレーニングペア28は一般に、入力画像28−1及び所望の出力画像28−2、別名、監視信号からなる。従来のニューラルネットワーク10のトレーニングは通常、以下のように提供される。1組の入力信号(I〜I)の形態の入力画像が、入力デバイス12に入力され、初期重み(W)を有するシナプス重み16に転送される。入力信号の値は、重みにより、通常、各信号(I〜I)値を各重みで乗算又は除算することにより、変更される。シナプス重み16から、変更された入力信号は各ニューロン18に転送される。各ニューロン18は、1組の信号を、対象となるニューロン18に関連する1群のシナプス14から受信する。ニューロン18に含まれる加算器20は、重みにより変更され、対象となるニューロンにより受信された全ての入力信号を合算する。アクティブ化機能デバイス22は、その結果生成される各ニューロン和を受信し、数学的関数に従って和を変更し、したがって、ニューロン出力信号の集合(ΣF1、・・・、ΣFn)として各出力画像を形成する。
ニューロン出力信号によって定義される、取得ニューロン出力画像(ΣF1、・・・、ΣFn)は、重み補正計算器26によって所定の所望の出力画像(O〜O)と比較される。取得ニューロン出力画像ΣFnと所望の出力画像Oとの、特定される差分に基づいて、シナプス重み16を変更する補正信号が、予めプログラムされるアルゴリズムを使用して形成される。補正が全てのシナプス重み16に対して行われた後、1組の入力信号(I〜I)はニューラルネットワーク10に再び導入され、新しい補正が行われる。上記サイクルは、取得ニューロン出力画像ΣFnと所望の出力画像Oとの差が何らかの所定の誤差未満であると判断されるまで、繰り返される。個々の画像全てを用いてのネットワークトレーニングの1サイクルは通常、「トレーニングエポック」として識別される。一般に、トレーニングエポック毎に、誤差の大きさが低減する。しかし、個々の入力(I〜I)の数並びに入力及び出力の数に応じて、従来のニューラルネットワーク10のトレーニングでは、かなりの数のトレーニングエポックが必要であり得、場合によっては、これは何十万もの数であり得る。
ホップフィールドネットワーク、制限付きボルツマンマシン、放射基底関数ネットワーク、及びリカレントニューラルネットワークを含め、様々な従来のニューラルネットワークが存在する。分類及びクラスタ化の特定のタスクでは、特定のタイプのニューラルネットワークである、ネットワーク入力トレーニング情報として入力画像のみを使用する自己組織化写像が必要であり、一方、特定の入力画像に対応する所望の出力画像は、最大値を有する出力信号を有する1つの勝者ニューロンに基づいて、トレーニングプロセス中、直接形成される。
上述したように、ニューラルネットワーク10等の存在する従来のニューラルネットワークに伴う主な問題の1つは、そのトレーニングの成功に、かなりの時間が必要であり得ることである。従来のネットワークに伴う幾つかの更なる問題は、計算リソースの大量消費であり得、これは、強力なコンピュータの必要性を生じさせる。更なる問題は、ネットワークを完全に再トレーニングせずにはネットワークのサイズを増大することができないこと、「ネットワークの麻痺」及び「極小でのフリーズ」のような現象への傾向であり、これは、特定のニューラルネットワークが所与のシーケンスで所与の画像セットを用いてトレーニング可能であるか否かを予測することを不可能にする。また、トレーニング中に導入される画像の特定のシーケンシングに関連する制限もあり得、トレーニング画像の導入順を変更すると、ネットワークフリーズが生じると共に、既にトレーニングされたネットワークの更なるトレーニングを実行することができなくなり得る。
同様の参照番号が同様の構成要素を指す残りの図面を参照すると、図2は、プログレッシブニューラルネットワーク、以下「プログレッシブネットワーク」又は「pネット」100の概略図を示す。pネット100は、pネットの複数又は1組の入力102を含む。各入力102は、入力信号104を受信するように構成され、入力信号は、図2ではI、I、・・・、Iとして表される。各入力信号I、I、・・・、Iは、入力画像106の幾つかの特性の値、例えば、大きさ、周波数、位相、信号分極角度、又は入力画像106の異なる部分との関連を表す。各入力信号104は入力値を有し、一般に、複数の入力信号104は一緒に、入力画像106を記述する。
各入力値は、−∞と+∞との間にある値範囲内であり得、デジタル形態及び/又はアナログ形態で設定することができる。入力値の範囲は、1組のトレーニング画像に依存し得る。最も単純な場合、範囲入力値は、全てのトレーニング画像の入力信号の最小値と最大値との差であることができる。実際上の理由で、入力値の範囲は、あまりに高すぎると見なされる入力値をなくすことによって制限し得る。例えば、入力値の範囲のそのような制限は、重要度サンプリング等の分散を低減する既知の統計学的方法を介して達成し得る。入力値の範囲制限の別の例は、所定の最小レベルよりも低い全ての信号を特定の最小値に指定し、所定の最大レベルを超える全ての信号を特定の最大値に指定することであり得る。
pネット100は、複数又は1組のシナプス118も含む。各シナプス118は、図2に示されるように、複数の入力102のうちの1つに接続され、複数の補正重み112を含み、シナプス重み108を含むこともできる。各補正重み112は、各重み値112によって定義される。pネット100は、1組の分配器114も含む。各分配器114は、各入力信号104を受信する複数の入力102のうちの1つに動作可能に接続される。さらに、各分配器114は、入力値に相関して、複数の補正重み112から1つ又は複数の補正重みを選択するように構成される。
pネット100は、1組のニューロン116を更に含む。各ニューロン116は、少なくとも1つの出力117を有し、1つのシナプス118を介して複数の入力102のうちの少なくとも1つと接続される。各ニューロン116は、各ニューロン116に接続された各シナプス118から選択される補正重み112の補正重み値を合算又は加算し、それにより、Σとして別記されるニューロン和120を生成し出力するように構成される。図3A、図3B、及び図3Cに示されるように、別個の分配器114を所与の入力102の各シナプス118に使用してもよく、又は図4A、図4B、及び図4Cに示されるように、1つの分配器を全てのそのようなシナプスに使用してもよい。pネット100の形成又はセットアップ中、全ての補正重み112には初期値が割り当てられ、この値は、pネットトレーニングのプロセス中に可変である。補正重み112の初期値は、従来のニューラルネットワーク10と同様に割り当て得、例えば、重みは、ランダムに選択されてもよく、所定の数学的関数を用いて計算されてもよく、所定のテンプレートから選択されてもよい等である。
pネット100は、重み補正計算器122も含む。重み補正計算器122は、信号値を有し、出力画像126の部分を表す所望の、すなわち所定の出力信号124を受信するように構成される。重み補正計算器122は、所望の出力信号124の値からのニューロン和120の逸脱128、別名、トレーニング誤差を特定し、特定された逸脱128を使用して各補正重み値を変更するようにも構成される。その後、変更された補正重み値を合算して、ニューロン和120を特定することは、所望の出力信号124の値からの対象となるニューロン和の逸脱を最小化し、その結果、pネット100のトレーニングに効率的である。
図1に関して考察した従来のネットワーク10と同様に、逸脱128は、所望のニューロン和120と所望の出力信号124の値との間のトレーニング誤差と記述することもできる。図1に関して考察した従来のニューラルネットワーク10と比較して、pネット100では、入力信号104の入力値は、ネットワーク全体のセットアッププロセスにおいてのみ変更され、pネットのトレーニング中は変更されない。入力値を変更する代わりに、pネット100のトレーニングは、補正重み112の値112を変更することによって提供される。さらに、各ニューロン116は加算関数を含み、加算関数において、ニューロンは補正重み値を合算し、ニューロン116は、従来のニューラルネットワーク10内のアクティブ化機能デバイス22によって提供される等のアクティブ化機能を必要とせず、実際に、アクティブ化機能がないことを特徴とする。
従来のニューラルネットワーク10では、トレーニング中の重み補正は、シナプス重み16を変更することによって達成されるが、pネット100では、対応する重み補正は、図2に示されるように、補正重み値112を変更することによって提供される。各補正重み112は、シナプス118の全て又は幾つかに位置決めされる重み補正ブロック110に含まれ得る。ニューラルネットワークコンピュータエミュレーションでは、各シナプス及び補正重みは、メモリセル等のデジタルデバイス及び/又はアナログデバイスによって表され得る。ニューラルネットワークソフトウェアエミュレーションでは、補正重み112の値は、適切なプログラムされたアルゴリズムを介して提供し得、一方、ハードウェアエミュレーションでは、メモリ制御の既知の方法を使用することができる。
pネット100では、所望の出力信号124からのニューロン和120の逸脱128は、所望の出力信号124とニューロン和120との数学的に計算される差分として表し得る。さらに、各変更補正重み112の生成は、計算された差分の、ニューロン和120の生成に使用される各補正重みへの配分を含み得る。そのような実施形態では、各変更補正重み112の生成により、ニューロン和120は、少数のエポック内で、場合によっては1つのみのエポックしか必要とせずに、所望の出力信号値に収束することができ、pネット100を高速でトレーニングする。特定の場合、ニューロン和120の生成に使用される補正重み112間への数学的差分の配分は、各ニューロン和120の生成に使用される各補正重み間で、特定された差分を等分割することを含み得る。
別個の実施形態では、所望の出力信号値からのニューロン和120の逸脱128の特定は、所望の出力信号値をニューロン和で除算し、それにより、逸脱係数を生成することを含み得る。そのような特定の場合、各変更補正重み112の変更は、ニューロン和120の生成に使用される各補正重みを逸脱係数で乗算することを含む。各分配器114は、複数の影響係数134を複数の補正重み112に割り当てるように更に構成し得る。本実施形態では、各影響係数134を何らかの所定の割合で複数の補正重み112のうちの1つに割り当て、各ニューロン和120を生成し得る。各補正重み112に対応して、各影響係数134には、図に示されるように、「Ci,d,n」命名が割り当てられ得る。
特定のシナプス118に対応する複数の影響係数134のそれぞれは、各影響分布関数136によって定義される。影響分布関数136は、全ての影響係数134で同じであってもよく、又は特定のシナプス118対応する複数の影響係数134のみで同じであってもよい。複数の入力値のそれぞれは、各入力値が各間隔「d」内で受信され、各補正重みがそのような間隔のうちの1つに対応するように、間隔分布関数140に従って間隔又は下位区分「d」に分割された値範囲138の中で受信し得る。各分配器114は、受信した各入力値を使用して、各間隔「d」を選択し、複数の影響係数134のそれぞれを、選択された各間隔「d」に対応する補正重み112及びWi,d+1,n又はWi,d−1,n等の選択された各間隔に隣接する間隔に対応する少なくとも1つの補正重みに割り当て得る。別の非限定的な例では、統計学的分布に従って、影響係数134の所定の割合を定義し得る。
ニューロン和120の生成は、まず、入力値102に従って各影響係数134を各補正重み112に割り当て、次に、対象となる影響係数を、利用される各補正重み112の値で乗算することを含み得る。次に、各ニューロン116を介して、そのニューロンに接続された全てのシナプス118での補正重み112と割り当てられた影響係数134との個々の積を合算すること。
重み補正計算器122は、各影響係数134を適用して、各変更補正重み112を生成するように構成し得る。特に、重み補正計算器122は、各影響係数134によって確立される割合に従って、ニューロン和120と所望の出力信号124との数学的差分の部分を、ニューロン和120の生成に使用される各補正重み112に適用し得る。さらに、ニューロン和120の生成に使用される補正重み112の間で分割される数学的差分は、各影響係数134によって更に分割することができる。続けて、各影響係数134によりニューロン和120を除算した結果は、補正重み112に加算されて、所望の出力信号値にニューロン和120を収束させることができる。
通常、pネット100の形成は、pネットのトレーニングが開始される前に行われる。しかし、別個の実施形態では、トレーニング中、初期補正重みがない入力信号104をpネット100が受信する場合、適切な補正重み112を生成し得る。そのような場合、特定の分配器114が、特定の入力信号104に適切な間隔「d」を決定し、初期値を有する1群の補正重み112が、所与の入力102、所与の間隔「d」、及び全ての各ニューロン116に対して生成される。さらに、新たに生成された各補正重み112に、対応する影響係数134を割り当てることができる。
各補正重み112は、pネット100上の各補正重みの位置を識別するように構成される1組のインデックスによって定義し得る。1組のインデックスは特に、特定の入力102に対応する補正重み112を識別するように構成される入力インデックス「i」と、各補正重みに選択された上記間隔を指定するように構成される間隔インデックス「d」と、命名「Wi,d,n」を有する特定のニューロン116に対応する補正重み112を指定するように構成されるニューロンインデックス「n」とを含み得る。したがって、特定の入力102に対応する各補正重み112には、下付き文字中に特定のインデックス「i」が割り当てられて、対象となる位置を示す。同様に、特定のニューロン116及び各シナプス118に対応する各補正重み「W」には、下付き文字中に特定のインデックス「n」及び「d」が割り当てられて、pネット100での補正重みの対象となる位置を示す。1組のインデックスは、各補正重み112が、pネット100のトレーニング中、入力信号104によってアクセスされる回数を数えるように構成されるアクセスインデックス「a」を含むこともできる。換言すれば、特定の間隔「d」及び各補正重み112が、入力信号に相関して複数の補正重みからトレーニングに選択される都度、アクセスインデックス「a」はインクリメントされて、入力信号をカウントする。アクセスインデックス「a」は、命名「Wi,d,n,a」を利用することにより、各補正重みの現在の状態を更に特定又は定義するために使用し得る。各インデックス「i」、「d」、「n」、及び「a」は、0〜+∞の範囲内の数値であることができる。
入力信号104の範囲を間隔d、d、・・・、dに分割する様々な可能性を図5に示す。特定の間隔分布は、均一又は線形であることができ、これは例えば、同じサイズを有する全ての間隔「d」を指定することによって達成することができる。所定の最低レベルよりも低い各入力信号値を有する全ての入力信号104は、ゼロ値を有するものと見なすことができ、一方、所定の最高レベルよりも大きな各入力信号値を有する全ての入力信号には、そのような最高レベルを割り当てることができ、これも図5に示される。特定の間隔分布は、対称、非対称、又は無制限等の非均一又は非線形であることもできる。間隔「d」の非線形分布は、入力信号104の範囲が非実用的に大きいと見なされ、範囲の冒頭、中央、又は末尾等の範囲のうちの特定の部分が、最も重要であると見なされる入力信号を含むことができる場合、有用であり得る。特定の間隔分布は、ランダム関数によって記述することができる。先の全ての例は、間隔分布の他の変形も可能であるため、非限定的な性質のものである。
入力信号104の選択された範囲内の間隔「d」の数は、pネット100を最適化するように増大し得る。pネット100のそのような最適化は、例えば、入力画像106をトレーニングする複雑性の増大に伴い、望ましいことがある。例えば、単色画像と比較して、マルチカラー画像にはより多数の間隔が必要であり得、単純なグラフィックスよりも複雑なオーナメントの場合、より多数の間隔が必要であり得る。間隔の数の増大は、輪郭によって記述される画像と比較して複雑な色の勾配を有する画像の精密な認識及びより多数の全体トレーニング画像数の場合に必要であり得る。間隔「d」の数の低減も、ノイズが大きい場合、トレーニング画像の分散が高い場合、及び計算リソースの消費が過度の場合、必要であり得る。
pネット100が扱うタスク又は情報のタイプ、例えば、視覚又はテキストデータ、様々な性質のセンサからのデータに応じて、異なる数の間隔及びその分布タイプを割り当て得る。入力信号値間隔「d」毎に、インデックス「d」を有する所与のシナプスの対応する補正重みを割り当て得る。したがって、特定の間隔「d」は、所与の入力に関連するインデックス「i」と、所与の間隔に関連するインデックス「d」と、0〜nの全ての値のインデックス「n」とを有する全ての補正重み112を含む。pネット100のトレーニングプロセスにおいて、分配器114は、各入力信号値を定義し、したがって、対象となる入力信号104を対応する間隔「d」に関連付ける。例えば、0〜100の入力信号範囲内に10の等しい間隔「d」がある場合、30〜40の値を有する入力信号は、間隔3に関連することになり、すなわち、「d」=3である。
所与の入力102と接続された各シナプス118の全ての補正重み112に対して、分配器114は、特定の入力信号に関連する間隔「d」に従って影響係数134の値を割り当てることができる。分配器114は、正弦曲線、正規曲線、対数分布曲線、又はランダム分布関数等の影響係数134の値の所定の分布(図6に示される)に従って、影響係数134の値を割り当てることもできる。多くの場合、各シナプス118に関連する特定の入力信号102の影響係数134又はCi,d,nの和又は積分は、1の値を有する。
Σsynapsei,d,n=1 又は ∫synapsei,d,n=1 [1]
最も単純な場合、入力信号値に最も密接に対応する補正重み112には、影響係数134(Ci,d,n)に対して1の値を割り当て得、一方、他の間隔の補正重みは0の値を受け取り得る。
pネット100は、従来のニューロンネットワーク10と比較して、pネットのトレーニング中の時間量の低減及び他のリソースの使用に焦点を合わせている。pネット100の一部として本明細書に開示される要素の幾つかは、従来のニューラルネットワークに精通した者に既知の特定の名称又は識別子で示されるが、特定の名称は、簡潔にするために使用されており、従来のニューラルネットワークで対応するものとは異なって利用し得る。例えば、入力信号(I〜I)の大きさを制御するシナプス重み16は、従来のニューラルネットワーク10の全般セットアッププロセス中に設定され、従来のネットワークのトレーニング中、変更される。一方、pネット100のトレーニングは、補正重み112を変更することによって達成され、トレーニング中、シナプス重み108は変更されない。さらに、上述したように、各ニューロン116は、合算又は加算構成要素を含むが、従来のニューラルネットワーク10には典型的なアクティブ化機能デバイス22を含まない。
一般に、pネット100は、特定のニューロン並びに対象となるニューロンと接続される各シナプス118及び補正重み112を含め、各ニューロン116及び全ての接続シナプス118を含む各ニューロンユニット119をトレーニングすることにより、トレーニングされる。したがって、pネット100のトレーニングは、各ニューロン116に寄与する補正重み112を変更することを含む。補正重み112への変更は、以下の詳細に開示される方法200に含まれるグループトレーニングアルゴリズムに基づいて行われる。開示されるアルゴリズムでは、トレーニング誤差、すなわち逸脱128は、どの補正値が決定され、各ニューロン116によって得られる和の特定に使用される各重み112に割り当てられるかに基づいて、各ニューロンで特定される。トレーニング中のそのような補正値の導入は、対象となるニューロン116の逸脱128をゼロに低減する。追加の画像を用いてのトレーニング中、先に利用された画像に関連する新しい誤差が再び出現し得る。そのような更なる誤差をなくすために、1つのトレーニングエポックの完了後、pネット100全体の全てのトレーニング画像の誤差を計算し得、そのような誤差が所定の値よりも大きい場合、誤差が目標値又は所定の値未満になるまで、1つ又は複数の追加のトレーニングエポックを行い得る。
図23は、図2〜図22に関して上述したように、pネット100をトレーニングする方法200を示す。方法200は、枠202において開始され、枠202において、方法は、入力102を介して、入力値を有する入力信号104を受信することを含む。枠202に続き、方法は枠204に進む。枠204において、方法は、入力102に動作可能に接続された分配器114に入力信号104を通信することを含む。枠202又は枠204において、方法200は、1組のインデックスによって各補正重み112を定義することを含み得る。pネット100の構造に関して上述したように、1組のインデックスは、入力102に対応する補正重み112を識別するように構成される入力インデックス「i」を含み得る。1組のインデックスは、各補正重み112に選択される間隔を指定するように構成される間隔インデックス「d」と、「Wi,d,n」として特定のニューロン116に対応する補正重み112を指定するように構成されるニューロンインデックス「n」とを含むこともできる。1組のインデックスは、pネット100のトレーニング中、各補正重み112が入力信号104によってアクセスされる回数を数えるように構成されるアクセスインデックス「a」を更に含み得る。したがって、各補正重みの現在の状態は、命名「Wi,d,n,a」を利用し得る。
枠204後、方法は枠206に進み、枠206において、方法は、分配器114を介して、入力値に相関して、対象となる入力102に接続されたシナプス118に配置される複数の補正重みから1つ又は複数の補正重み112を選択することを含む。上述したように、各補正重み112は、各重み値によって定義される。枠206において、方法は、分配器114を介して、複数の影響係数134を複数の補正重み112に割り当てることを更に含み得る。枠206において、方法は、所定の割合で複数の補正重み112のうちの1つに各影響係数134を割り当て、ニューロン和120を生成することを含むこともできる。また、枠206において、方法は、ニューロン116を介して、ニューロン116に接続された全てのシナプス118での補正重み112と割り当てられた影響係数134との積を合算することを含むこともできる。さらに、枠206において、方法は、重み補正計算器122を介して、各影響係数134によって確立される割合に従って、特定された差分の部分をニューロン和120の生成に使用される各補正重み112に適用することを含み得る。
pネット100の構造に関して上述したように、複数の影響係数134は、影響分布関数136によって定義し得る。そのような場合、方法は、入力値が各間隔内で受信され、各補正重み112が間隔の1つに対応するように、間隔分布関数140に従って、間隔「d」に分割された値範囲138の中で入力値を受信することを更に含み得る。また、方法は、分配器114を介して、受信した入力値を使用して、各間隔「d」を選択し、複数の影響係数134を、選択された各間隔「d」に対応する補正重み112及び選択された各間隔「d」に隣接する間隔に対応する少なくとも1つの補正重みに割り当てることを含むこともできる。pネット100の構造に関して上述したように、選択された各間隔「d」に隣接する間隔に対応する補正重み112は、例えば、Wi,d+1,n又はWi,d−1,nとして識別し得る。
枠206に続き、方法は枠208に続く。枠208において、方法は、シナプス118を介して入力102と接続された特定のニューロン116により選択された補正重み112の重み値を合算して、ニューロン和120を生成することを含む。pネット100の構造に関して上述したように、各ニューロン116は、少なくとも1つの出力117を含む。枠208後、方法は枠210に進み、枠210において、方法は、重み補正計算器122を介して、信号値を有する所望の出力信号124を受信することを含む。枠210に続き、方法は枠212に進み、枠212において、方法は、重み補正計算器122を介して、所望の出力信号124の値からのニューロン和120の逸脱128を特定することを含む。
pネット100の説明において上述したように、所望の出力信号値からのニューロン和120の逸脱128の特定は、所望の出力信号値とニューロン和との数学的差分を特定することを含み得る。さらに、各補正重み112の変更は、ニューロン和120の生成に使用される各補正重みへの数学的差分の配分を含み得る。代替的には、数学的差分の配分は、ニューロン和120の生成に使用される各補正重み112間で、特定された差分を等分割することを含み得る。更に別の実施形態では、逸脱128の特定は、所望の出力信号124の値をニューロン和120で除算し、それにより、逸脱係数を生成することを含むこともできる。さらに、そのような場合、各補正重み112の変更は、ニューロン和120の生成に使用される各補正重み112を、生成された逸脱係数で乗算することを含み得る。
枠212後、方法は枠214に進む。枠214において、方法は、重み補正計算器122を介して、特定された逸脱128を使用して各補正重み値を変更することを含む。変更された補正重み値は続けて、加算又は合算され、次に、新しいニューロン和120の特定に使用することができる。合算された変更補正重み値は、次に、所望の出力信号124の値からのニューロン和120の逸脱を最小化し、それにより、pネット100をトレーニングするように機能することができる。枠214に続き、方法200は、所望の出力信号124の値からのニューロン和120の逸脱が十分に最小化されるまで、枠202に戻り、追加のトレーニングエポックを実行することを含むことができる。換言すれば、追加のトレーニングエポックを実行して、pネット100がトレーニングされ、新しい画像を用いて動作する準備ができたと見なすことができるように、所定の逸脱又は誤差値内で、所望の出力信号124にニューロン和120を収束させることができる。
一般に、入力画像106は、pネット100のトレーニングに向けて準備する必要がある。トレーニングに向けてのpネット100の準備は一般に、入力画像106及び大半の場合は対象となる入力画像に対応する所望の出力画像126を含め、1組のトレーニング画像の形成で開始される。pネット100のトレーニングに向けて入力信号I、I、・・・、Iによって定義される入力画像106(図2に示される)は、pネットが扱うように割り当てられるタスク、例えば、人の画像若しくは他の物体の認識、特定の活動の認識、クラスタ化若しくはデータ分類、統計学的データの解析、パターン認識、予測、又は特定のプロセスの制御に従って選択される。したがって、入力画像106は、例えば、テーブル、チャート、ダイアグラム及びグラフィックス、様々なドキュメントフォーマット、又はシンボルセットの形態でjpeg、gif、又はpptxフォーマットを使用して、コンピュータへの導入に適する任意のフォーマットで提示することができる。
pネット100のトレーニングに向けての準備は、pネット100による対象となる画像の処理に好都合である単一化に向けた、選択された入力画像106の変換、例えば、全ての画像の、同数の信号又はピクチャの場合では同数のピクセルを有するフォーマットへの変換を含むこともできる。カラー画像は、例えば、3つの基本色の組合せとして提示することができる。画像変換は、特性の変更、例えば、空間中での画像のシフト、解像度、輝度、コントラスト、色、視点、遠近感、焦点距離及び焦点等の画像の視覚的特性の変更、並びにシンボル、番号、又は備考の追加を含むこともできる。
間隔数の選択後、特定の入力画像は、間隔フォーマットの入力画像に変換し得、すなわち、実際の信号値は、対象となる各信号が属する間隔の番号として記録し得る。この手順は、所与の画像に対して各トレーニングエポックで実行することができる。しかし、画像は、1組の間隔番号として一度に形成することもできる。例えば、図7では、初期画像はピクチャとして提示され、一方、テーブル「デジタルフォーマットの画像」では、同じ画像はデジタル符号の形態で提示され、テーブル「間隔フォーマットの画像」では、画像は1組の間隔番号として提示され、ここでは、10個の値のデジタル符号に別個の間隔が割り当てられる。
pネット100の説明された構造及び説明されたトレーニングアルゴリズム又は方法200では、pネットの連続又は反復的トレーニングが可能であり、したがって、トレーニングプロセスの開始時に完全なトレーニング入力画像106のセットを形成する必要がない。トレーニング画像の比較的小さな開始セットを形成することが可能であり、そのような開始セットは、必要に応じて拡大することができる。入力画像106は、各カテゴリが1つの出力画像、そのような人の名前又は特定のラベルに対応するように、別個のカテゴリ、例えば、1人の人物の1組のピクチャ、猫の1組の写真、又は車の1組の写真に分割し得る。所望の出力画像126は、デジタルのフィールド又はテーブルを表し、各点は、−∞〜+∞の特定の数値又はアナログ値に対応する。所望の出力画像126の各点は、pネット100のニューロンのうちの1つの出力に対応し得る。所望の出力画像126は、バーコード等の画像のデジタル又はアナログ符号、テーブル、テキスト、式、シンボルセット、又はサウンドを用いて符号化することができる。
最も単純な場合、各入力画像106は、対象となる入力画像を符号化した出力画像に対応し得る。そのような出力画像の点の1つには、可能な限り最大の値、例えば100%を割り当て得、一方、他の全ての点には、可能な限り最小の値、例えば0を割り当て得る。そのような場合、トレーニングに続き、トレーニング画像との類似性の割合の形態での様々な画像の確率的認識が可能になる。図8は、正方形及び円という2つの画像の認識に向けてトレーニングされたpネット100がいかに、和が必ずしも100%に等しいわけではない状態で、割合で表された各図の幾つかの特徴を含むピクチャを認識し得るかの例を示す。トレーニングに使用される異なる画像の類似の割合を定義することによるそのようなパターン認識プロセスは、特定の画像の分類に使用することができる。
精度を改善し、誤差を除外するために、符号化は、1つの出力ではなく1組の幾つかのニューラル出力を使用して達成することができる(以下参照)。最も単純な場合、出力画像は、トレーニング前に準備し得る。しかし、トレーニング中に、pネット100に出力画像を形成させることも可能である。
pネット100では、入力画像及び出力画像が反転することもできる。換言すれば、入力画像106は、各点がpネットの1つの入力に対応する、デジタル又はアナログ値のフィールド又はテーブルの形態であることができ、一方、出力画像は、例えば、jpeg、gif、pptxフォーマットを使用して、テーブル、チャート、ダイアグラム及びグラフィクス、様々なドキュメントフォーマット、又はシンボルセットの形態で、コンピュータへの導入に適する任意のフォーマットで提示することができる。結果として生成されるpネット100は、アーカイブシステム、画像の連想探索、音楽的表現、方程式、又はデータセットにかなり適することができる。
入力画像106の準備に続き、通常、pネット100を形成する必要があり、且つ/又は所与のタスクの処理に向けて、既存のpネットのパラメータを設定しなければならない。pネット100の形成は、以下の指定を含み得る。
・入力の数及び出力の数によって定義されるpネット100の寸法、
・全ての入力のシナプス重み108、
・補正重み112の数、
・異なる値の入力信号104の補正重み影響係数(Ci,d,n)の分布、
・トレーニングの所望の精度。
入力の数は、入力画像106のサイズに基づいて特定される。例えば、ピクチャの場合、ピクセル数を使用することができ、一方、選択される出力数は、所望の出力画像126のサイズに依存することができる。幾つかの場合、選択される出力数は、トレーニング画像のカテゴリ数に依存し得る。
個々のシナプス重み108の値は、−∞〜+∞の範囲内であることができる。0未満のシナプス重み108の値は、信号増幅を示すことができ、信号増幅は、例えば、多数の異なる個人又は物体を含む写真において人の顔をより効率的に認識するために、特定の入力又は特定の画像からの信号の影響を強化するために使用することができる。他方、0よりも大きいシナプス重み108の値は、信号減衰を示すことができ、信号減衰は、必要な計算の数を低減し、pネット100の動作速度を増大させるために使用することができる。一般に、シナプス重みの値が大きいほど、対応するニューロンに送信される信号は減衰される。全ての入力に対応する全てのシナプス重み108が等しく、全てのニューロンは、全てのニューロンと等しく接続される場合、ニューラルネットワークは、普遍的になり、事前に画像の性質について殆ど分かっていない場合等の一般的なタスクに最も効率的になる。しかし、そのような構造は一般に、トレーニング及び動作中に必要な計算の数を増大させる。
図9は、入力と各ニューロンとの関係が、統計学的正規分布に従って低減するpネット100の実施形態を示す。シナプス重み108の不均一分布は、入力信号全体が、所与の入力のターゲット又は「中央」ニューロンに通信されることに繋がり得、したがって、ゼロ値を対象となるシナプス重みに割り当てる。さらに、シナプス重みの不均一分布は、例えば、正規分布、対数正規分布、正弦分布、又は他の分布を使用して、他のニューロンが低減された入力信号値を受信することに繋がり得る。低減された入力信号値を受け取るニューロン116のシナプス重み108の値は、「中央」ニューロンからの距離の増大に伴って増大し得る。そのような場合、計算の数を低減することができ、pネットの動作を加速化することができる。そのようなネットワークは、既知の完全に接続されたニューラルネットワークと完全には接続されていないニューラルネットワークとの組合せであり、強い内部パターンを有する画像の解析、例えば、人の顔又は映画フィルムの連続フレームの解析に極めて有効であり得る。
図9は、局所パターンの認識に有効なpネット100の実施形態を示す。共通パターンの識別を改善するために、シナプス重み108の値が小さいか、又はゼロである、強い接続の10%〜20%は、格子の形態又はランダム手法等で決定論的に、pネット100全体を通して分布することができる。特定のタスクを扱うことが意図されるpネット100の実際の形成は、例えば、シナプス、シナプス重み、分配器、補正重み、ニューロン等のpネットの主要素をソフトウェアオブジェクトとして生成する、オブジェクト指向プログラミング言語で書かれたプログラムを使用して実行される。そのようなプログラムは、顕著な物体と物体の動作を指定するアルゴリズムとの関係を割り当てることができる。特に、シナプス重み及び補正重みは、それらの初期値の設定と共に、pネット100の形成開始時に形成することができる。pネット100は、トレーニングの開始前に完全に形成することができ、必要に応じて、例えば、ネットワークの情報容量が枯渇するか、又は致命的なエラーの場合、後のフレームにおいて変更するか、又は追加することができる。pネット100の完了は、トレーニングの継続中であっても可能である。
pネット100が事前に形成される場合、特定のシナプスで選択される補正重みの数は、入力信号の範囲内の間隔数と同じであり得る。さらに、補正重みは、pネット100の形成後、個々の間隔の状況に応答して、信号として生成し得る。従来のニューラルネットワーク10と同様に、pネット100のパラメータの選択及び設定は、一連の的を絞った実験を用いて提供される。そのような実験は、(1)全ての入力で同じシナプス重み108を有するpネットの形成並びに(2)選択された画像への入力信号値の割り当て及び間隔数の初期選択を含むことができる。例えば、二値(単色)画像を認識する場合、2つのみの間隔で十分であり得、8ビット画像の定性的認識の場合、最高で256の間隔を使用することができ、複雑な統計的依存性の近似では、数十又は数百の間隔が必要であり得、大きなデータベースの場合、間隔数は千単位であり得る。
pネット100のトレーニングプロセスでは、入力信号の値は、特定の間隔間に分布する場合、まるめ得る。したがって、範囲の幅を間隔数で除算したものよりも大きい入力信号精度は、必要とされないことがある。例えば、入力値範囲が100単位に設定され、間隔数が10である場合、±5よりも良好な精度は求められない。そのような実験は、(3)入力信号の値の範囲全体を通して間隔の均一分布を選択することを含むこともでき、補正重み影響係数Ci,d,nの最も単純な分布では、特定の入力信号の間隔に対応する補正重みの場合、1に等しく設定することができ、一方、残りの全ての補正重みの補正重み影響は0に設定することができる。そのような実験は、(4)所定の精度で、1つ、2つ以上、又は全ての準備されたトレーニング画像を用いてpネット100をトレーニングすることを更に含むこともできる。
所定の精度に向けてのpネット100のトレーニング時間は、実験によって確立することができる。pネット100の精度及びトレーニング時間が満足のいくものである場合、選択された設定は、より有効な変形への探索が続けられる間、維持するか、又は変更することができる。必要とされる精度が達成されない場合、最適化を目的として、特定の変更の影響を評価し得、これは、一度に1つずつ又はグループで実行することができる。変更のそのような評価は、間隔の数の増大又は低減である変更、補正重み影響係数(Ci,d,n)の分布のタイプの変更、正規、べき乗、対数、又は対数正規分布等を使用しての間隔の非均一分布を有する変形のテスト、及びシナプス重み108の値の変更、例えば、シナプス重み108の非均一分布への移行を含み得る。
正確な結果に必要とされるトレーニング時間が過度であると見なされる場合、トレーニング時間への効果について、間隔数を増大させたトレーニングを評価することができる。その結果、トレーニング時間が短縮される場合、所要精度を失わずに所望のトレーニング時間が得られるまで、間隔数の増大を繰り返すことができる。トレーニング時間が、低減されるのではなく、間隔数の増大に伴って増える場合、間隔数を減らして、追加のトレーニングを実行することができる。間隔数の低減が、トレーニング時間の短縮に繋がる場合、所望のトレーニング時間が得られるまで、間隔数を更に低減することができる。
pネット100の設定の形成は、所定のトレーニング時間と、トレーニング精度の実験的特定とを用いてのトレーニングを介して行うことができる。パラメータは、上述したものと同様に、実験的変更を介して改善することができる。様々なpネットを用いる実務で、設定選択の手順が一般に単純であり、時間があまりかからないことが分かった。
図23に示される、方法200の一環としてのpネット100の実際のトレーニングは、入力画像信号I、I、・・・、Iをネットワーク入力デバイス102に供給することで開始され、ネットワーク入力デバイス102から、入力画像信号はシナプス118に送られ、シナプス重み108を通り、分配器(又は分配器群)114に入る。初期信号値に基づいて、分配器114は、所与の入力信号104が対応する間隔番号「d」を設定し、補正重み影響係数Ci,d,nを各入力102と接続された全てのシナプス118の重み補正ブロック110の全ての補正重み112に割り当てる。例えば、間隔「d」が、第1の入力で3に設定され得る場合、全ての重みW1,3,nに対して、C1,3,n=1は1に設定され、一方、i≠1及びd≠3を有する全ての他の重みでは、Ci,d,nは0に設定することができる。
以下の式中、「n」として識別されるニューロン116毎に、ニューロン出力和Σ、Σ、・・・、Σが、以下の式中、Wi,d,nとして識別される各補正重み112を、特定のニューロンに寄与する全てのシナプス118の対応する補正重み影響係数Ci,d,nで乗算し、得られた全ての値を合算することによって形成される。
Σn=Σi,d,ni,d,n×Ci,d,n [2]
i,d,n×Ci,d,nの乗算は、様々なデバイスにより、例えば、分配器114、重みが記憶されたデバイス、又はニューロン116によって直接、実行することができる。和は、ニューロン出力117を介して重み補正計算器122に転送される。所望の出力画像126を記述する所望の出力信号O、O、・・・、Oも計算器122に供給される。
上述したように、重み補正計算器122は、ニューロン出力和Σ、Σ、・・・、Σを所望の出力信号O、O、・・・、Oと比較することにより、補正重みの変更された値を計算する計算デバイスである。図11は、ニューロン出力和Σに寄与する1組の補正重みWi,d,1を示し、補正重みは対応する補正重み影響係数Ci,d,1で乗算され、これらの積は続けて、ニューロン出力和Σによって合算される。
Σ1=W1,0,1×C1,0,1・+W1,1,1×C1,1,1・+W1,2,1×C1,2,1・+...[3]
トレーニングが開始されるとき、すなわち、最初のエポック中、補正重みWi,d,1は、トレーニングに使用される入力画像106に対応せず、したがって、ニューロン出力和Σは、対応する所望の出力画像126に等しくない。初期補正重みWi,d,1に基づいて、重み補正システムは補正値Δ1を計算し、この補正値は、ニューロン出力和Σ(Wi,d,1)に寄与する全ての補正重みの変更に使用される。pネット100では、指定されたニューロン116に寄与する全ての補正重みWi,d,nの集合的補正信号の形成及び利用について、様々な選択肢又は変形が可能である。
以下は、集合的補正信号を形成し利用する2つの例示的で非限定的な変形である。変形1−以下のような、所望の出力信号と得られた出力和との差に基づく補正信号の形成及び利用:
・式
Δ=(O−Σ/S [4]
に従ったニューロン「n」に寄与する全ての補正重みで等しい補正値Δnの計算:
式中、
−ニューロン出力和Σに対応する所望の出力信号、
S−ニューロン「n」に接続されるシナプスの数。
・式
i,d,n modified=Wi,d,n+Δ/Ci,d,n [5]
に従ったニューロン「n」に寄与する全ての補正重みWi,d,nの変更。
変形2−以下のような、所望の出力信号と得られた出力和との比率に基づく補正信号の形成及び利用:
・式
Δ=O/Σ [6]
に従ったニューロン「n」に寄与する全ての補正重みで等しい補正値Δnの計算。
・式
i,d,n,modified=Wi,d,n,×Δ [7]
に従ったニューロン「n」に寄与する全ての補正重みWi,d,nの変更。
任意の利用可能な変形による補正重みWi,d,nの変更は、所望の出力信号の値に出力和Σを収束させることにより、各ニューロン116のトレーニング誤差を低減することが意図される。そのようにして、所与の画像のトレーニング誤差は、そのような誤差がゼロになるか、又はゼロに近づくまで、低減することができる。
トレーニング中の補正重みWi,d,nの変更の例を図11に示す。補正重みWi,d,nの値は、重み値が補正重み範囲から0±10%に設定されるランダム重み分布の形態で、トレーニング開始前に設定され、トレーニング後、最終的な重み分布に達する。集合的信号の記載される計算は、pネット100内の全てのニューロン116に対して行われる。1つのトレーニング画像について説明されるトレーニング手順は、他の全てのトレーニング画像に対して繰り返すことができる。そのような手順は、幾つかの補正重みWi,d,nが幾つかの画像に参加し得るため、前にトレーニングされた画像のうちの幾つかでのトレーニング誤差の外観を生じさせ得る。したがって、別の画像を用いてのトレーニングは、前の画像で形成された補正重みWi,d,nの分布を部分的に乱し得る。しかし、各シナプス118が1組の補正重みWi,d,nを含むことに起因して、場合によってはトレーニング誤差を増大させながらの新しい画像を用いてのトレーニングは、pネット100が前にトレーニングされた画像を削除しない。さらに、各ニューロン116に寄与するシナプス118が多く、各シナプスでの補正重みWi,d,nの数が多いほど、特定の画像でのトレーニングが、他の画像でのトレーニングに影響する程度は低くなる。
各トレーニングエポックは一般に、全てのトレーニング画像で総合トレーニング誤差及び/又は局所トレーニング誤差の実質的な収束で終了する。誤差は、例えば、平均二乗誤差(MSE)、平均絶対誤差(MAE)、又は標準誤差平均(SEM)等の既知の統計学的方法を使用して評価することができる。総合誤差又は局所誤差のうちの幾つかが高すぎる場合、誤差が所定の誤差値未満に低減するまで、追加のトレーニングエポックを行うことができる。トレーニングに使用される様々な画像間の類似性の割合を定義して画像を認識する上述したプロセス(図8に示される)はそれ自体、前に定義されたカテゴリに沿った画像の分類プロセスである。
クラスタ化のため、すなわち、前に指定されなかった自然クラス又は群に画像を分割するために、方法200の基本トレーニングアルゴリズムは、変更された自己組織化写像(SOM)手法を用いて変更することができる。所与の入力画像に対応する所望の出力画像126は、出力ニューロン和120の最大値を有する1組の勝者ニューロンに基づいて、pネット100をトレーニングするプロセスにおいて直接形成することができる。図22は、方法200の基本アルゴリズムの使用がいかに、出力ニューロン和のプライマリセットを生成することができるかを示し、セットは更に、幾つかのより大きな和が値を維持するか、又は増大させ、一方、全ての他の和はゼロに等しいと見なされるように変換される。出力ニューロン和のこの変換されたセットは、所望の出力画像126として受け入れることができる。
上述したように形成された1組の所望の出力画像126は、クラスタ又は群を含む。したがって、1組の所望の出力画像126は、線形に分離不可能な画像のクラスタ化を可能にし、これは従来のネットワーク10とは異なる。図13は、記載の手法が、複雑な仮説画像「猫−車」のクラスタ化をいかに支援することができるかを示し、この仮説画像では、画像の異なる特徴が異なるクラスタ−猫及び車に割り当てられる。説明されたように作成された1組の所望の出力画像126は、例えば、クラスタ化の結果として形成される基準に基づいて異なる分類、統計学的解析、画像選択を生み出すのに使用することができる。また、pネット100によって生成される所望の出力画像126は、別又は追加のpネットの入力画像として使用することができ、別又は追加のpネットも、対象となるpネット100について説明した文章に沿って形成することができる。そうして形成された所望の出力画像126は、マルチレイヤpネットの後続レイヤに使用し得る。
従来のニューラルネットワーク10のトレーニングは一般に、入力画像及び所望の出力画像の予備準備されるペアに基づく教師付きトレーニング方法を介して提供される。同じ一般的な方法は、pネット100のトレーニングにも使用されるが、pネット100のトレーニング速度の増大により、外部トレーナーを用いたトレーニングも可能である。外部トレーナーの役割は、例えば、個人又はコンピュータプログラムによって実行することができる。外部トレーナーとして動作して、個人は、物理的なタスクの実行に関わり得るか、又はゲーム環境で動作し得る。pネット100は、特定の状況及び特定の状況への変更に関するデータの形態で、入力信号を受信する。トレーナーの動作を反映した信号は、所望の出力画像126として導入することができ、pネット100を基本アルゴリズムに従ってトレーニングできるようにする。そのようにして、pネット100は、様々なプロセスのモデリングをリアルタイムで生成することができる。
例えば、道路状況及び運転者の動作に関する情報を受信することにより、車両を運転するようにpネット100をトレーニングすることができる。多種多様な危機的状況のモデリングを通して、同pネット100は、多くの異なる運転者によってトレーニングされ、任意の1人の運転者によって一般に可能な運転技能よりも多くの運転技能を蓄積することができる。pネット100は、特定の道路状況を0.1秒で、又はそれよりも高速で評価し、様々な状況での交通安全を強化することができる実質的な「運転経験」を蓄積することが可能である。pネット100は、コンピュータ、例えば、チェスプレイマシンと連携するようにトレーニングすることもできる。トレーニングモードから認識モード又はこの逆に容易にシフトするpネット100の能力により、pネット100が外部トレーナーによってトレーニングされる場合、「失敗から学習」モードを実現することができる。そのような場合、部分的にトレーニングされたpネット100は、例えば、技術的プロセスを制御するそれ自体の動作を生成することができる。トレーナーは、pネット100の動作を制御し、必要な場合にはpネット100の動作を補正することができる。したがって、pネット100の追加のトレーニングを提供することができる。
pネット100の情報容量は非常に大きいが、無限ではない。pネット100の入力数、出力数、及び間隔等の設定された寸法を用いて、pネットをトレーニングする画像数を増大させた場合、特定の画像数後、トレーニング誤差の数及び大きさも増大し得る。誤差生成のそのような増大が検出される場合、誤差の数及び/又は大きさは、pネット100のサイズを増大させることによって低減することができ、その理由は、pネットでは、トレーニングエポック間でpネット又はpネットの構成要素にわたり、ニューロン116の数及び/又は信号間隔「d」の数を増大することが可能なためである。pネット100の拡大は、新しいニューロン116を追加し、新しい入力102及びシナプス118を追加し、補正重み影響係数Ci,d,nの分布を変更し、既存の間隔「d」を分割することによって提供することができる。
大半の場合、pネット100はトレーニングされて、画像、パターン、画像又は1組の画像に固有の相関を認識する能力を保証する。最も単純な場合での認識プロセスは、方法200の一環として開示される基本アルゴリズムにより、トレーニングプロセスの最初の数ステップを繰り返す。特に、
・直接認識は、トレーニングに向けての画像のフォーマットに使用される同じ規則に従って画像をフォーマットすることで開始される。
・図8に示されるように、画像は、トレーニングされたpネット100の入力に送信され、分配器は、トレーニング中に設定された入力信号の値に対応する補正重みWi,d,nを割り当て、ニューロンは、各ニューロン和を生成する。
・出力画像126を表す、結果として生成される出力和が、pネット100をトレーニングしている画像の1つに完全に一致する場合、物体の厳密な認識がある。
・pネット100をトレーニングしている幾つかの画像に、出力画像126が部分的に一致する場合、その結果は、割合として、様々な画像との一致率を示す。図13は、猫又は車両の画像の組合せに基づいて行われる複雑な画像の認識中、出力画像126が所与の画像の組合せを表し、組合せへの各初期画像の寄与の割合を示すことを実証する。
例えば、特定の人の幾つかのピクチャがトレーニングに使用される場合、認識された画像は、90%は第1のピクチャに対応し、60%は第2のピクチャに対応し、35%は第3のピクチャに対応し得る。認識された画像が他の人々又は動物のピクチャに特定の確率で対応することがあり得、これは、ピクチャ間に幾らかの類似点があることを意味する。しかし、そのような類似点の確率は低くなりがちである。そのような確率に基づいて、例えば、ベイズの理論に基づいて認識の信頼性を特定することができる。
pネット100を用いて、アルゴリズム的方法とニューラルネットワーク認識方法の利点を組み合わせた多段階認識を実施することが可能である。そのような多段階認識は、以下を含むことができる。
・本明細書では「基本入力」として示される、入力の全てではなく1%〜10%のみの使用を介して予めトレーニングされたネットワークによる画像の初期認識。入力のそのような部分は、pネット100内で均一に、ランダムに、又は任意の他の分布関数によって分布することができる。例えば、複数の他の物体を含む写真中の人物の認識。
・更に詳細に認識するために最も多くの情報を含む物体又は物体の部分の選択。そのような選択は、アルゴリズム的方法と同様に、メモリに予め設定される特定の物体の構造に従って又は色の勾配、輝度、及び/又は画像の深度に従って提供することができる。例えば、ポートレートの認識では、以下の認識ゾーンを選択することができる:目、口角、鼻の形状、及びタトゥー等の特定の特徴、又は同様の手法を使用して、車両プレート番号若しくは家の番地を選択し、認識することもできる。
・必要であれば、選択された画像の詳細な認識も可能である。
pネット100のコンピュータエミュレーションの形成及びそのトレーニングは、任意のプログラミング言語を使用することにより、上記説明の基づいて提供することができる。例えば、オブジェクト指向プログラミングを使用することができ、その場合、シナプス重み108、補正重み112、分配器114、及びニューロン116は、プログラミングオブジェクト又はオブジェクトのクラスを表し、リンク又はメッセージを介してオブジェクトクラス間の関係が確立され、対話のアルゴリズムが、オブジェクト間及びオブジェクトクラス間に設定される。
pネット100ソフトウェアエミュレーションの形成及びトレーニングは、以下を含むことができる。
・所与のタスクに従った、組になったトレーニング入力画像のデジタル形式への変換、
・トレーニングに使用される入力信号のパラメータ、例えば、周波数、大きさ、位相、又は座標の選択を含め、結果として生成されるデジタル画像の分析、及び
・トレーニング信号の範囲、対象となる範囲内の間隔数、及び補正重み影響係数Ci,d,nの分布の設定。
2.以下を含むpネットソフトウェアエミュレーションの形成。
・pネット100への1組の入力の形成。例えば、入力数は、トレーニング入力画像内の信号数と同じであり得る。
・各ニューロンが加算デバイスを表す、1組のニューロンの形成。
・各シナプスが1つのpネット入力及び1つのニューロンに接続される、シナプス重みを有する1組のシナプスの形成。
・重み補正ブロックが分配器及び補正重みを含み、各補正重みが以下の特性を有する、各シナプス内の重み補正ブロックの形成:
・補正重み入力インデックス(i)、
・補正重みニューロンインデックス(n)、
・補正重み間隔インデックス(d)、及び
・補正重み初期値(Wi,d,n)。
・間隔と補正重みとの相関の指定。
3.以下を含む、1つの入力画像を用いての各ニューロンのトレーニング。
・以下を含む、補正重み影響係数Ci,d,nの指定:
・各入力によって受信されるトレーニング入力画像の入力信号に対応する間隔の特定、及び
・全てのシナプスの全ての補正重みへの補正重み影響係数Ci,d,nの大きさの指定。
・対応する補正重み影響係数Ci,d,nで乗算された、ニューロンに寄与する全てのシナプス重みの補正重み値Wi,d,nを合算することにより、各ニューロン「n」のニューロン出力和(Σn)を計算すること。
Σ=Σi,d,ni,d,n×Ci,d,n
・対応する所望の出力信号Oからニューロン出力和Σnを減算することを介して、逸脱又はトレーニング誤差(T)を計算すること。
=O−Σ
・トレーニング誤差を、ニューロン「n」に接続されたシナプス数「S」で除算することを介して、ニューロン「n」に寄与する全ての補正重みに等しい補正値(Δ)を計算すること。
Δ=T/S
・対応する補正重み影響係数Ci,d,nで除算した各補正重みに補正値Δを加算することにより、各ニューロンに寄与する全ての補正重みWi,d,nを変更すること。
i,d,n modified=Wi,d,n+Δ/Ci,d,n
等しい補正値(Δ)を計算し、ニューロン「n」に寄与する全ての補正重みの補正重みWi,d,nを変更する別の方法は、以下を含むことができる。
・所望の出力画像の信号Oをニューロン出力和Σで除算すること。
Δ=O/Σ
・補正重みを補正値Δで乗算することにより、ニューロンに寄与する補正重みWi,d,nを変更すること。
i,d,n modified=Wi,d,n×Δ
4.以下を含む、全てのトレーニング画像を使用してpネット100をトレーニングすること:
・1つのトレーニングエポックに含まれる選択された全てのトレーニング画像に対して、上述したプロセスを繰り返すこと、及び
・特定のトレーニングエポックの1つ又は複数の誤差を特定し、誤差を所定の許容可能な誤差レベルと比較し、トレーニング誤差が所定の許容可能な誤差レベル未満になるまで、トレーニングエポックを繰り返すこと。
オブジェクト指向プログラミングを使用したpネット100のソフトウェアエミュレーションの実際の例を以下に説明し、図14〜図21に示す。
NeuronUnitオブジェクトクラスの形成は、以下の形成を含むことができる:
・Synapseクラスの1組のオブジェクト、
・加算がトレーニング中に実行される、変数を提示するニューロン116、及び
・所望のニューロン和120の値が記憶され、補正値Δの計算が、トレーニングプロセス中に実行される、変数を提示する計算器122。
クラスNeuronUnitは、pネット100のトレーニングを提供し、以下を含むことができる:
・ニューロン和120の形成、
・所望の和の設定、
・補正値Δの計算、及び
・計算された補正値Δの補正重みWi,n,dへの加算。
オブジェクトクラスSynapseの形成は、以下を含むことができる:
・1組の補正重みWi,n,d、及び
・シナプス118に接続された入力を示すポインタ。
クラスSynapyseは以下の関数を実行することができる:
・補正重みWi,n,dの初期化、
・係数Ci,d,nで重みWi,n,dを乗算すること、及び
・重みWi,n,dの補正。
オブジェクトクラスInputSignalの形成は、以下を含むことができる:
・所与の入力102に接続されたシナプス118での1組のインデックス、
・入力信号104の値を含む変数、
・可能な最小入力信号及び最大入力信号の値、
・間隔数「d」、及び
・間隔長。
クラスInputSignalは、以下の関数を提供することができる。
・以下を含む、pネット100の構造の形成:
・入力102とシナプス118との間のリンクの追加及び除去、並びに
・特定の入力102のシナプス118の間隔数「d」の設定。
・最小入力信号及び最大入力信号104のパラメータの設定。
・pネット100の動作への寄与。
・入力信号104の設定、及び
・補正重み影響係数Ci,d,nの設定。
オブジェクトクラスPNetの形成は、1組のオブジェクトクラスを含む。
・NeuronUnit、及び
・InputSignal。
クラスPNetは、以下の機能を提供する:
・InputSignalクラスのオブジェクト数を設定すること、
・NeuronUnitクラスのオブジェクト数を設定すること、及び
・オブジェクトNeuronUnit及びInputSignalの関数のグループ要求。
トレーニングプロセス中、サイクルを形成することができ、
・サイクル開始前に、ゼロに等しいニューロン出力和が形成され、
・所与のNeuronUnitに寄与する全てのシナプスがレビューされる。シナプス118毎に、
・入力信号102に基づいて、分配器は、1組の補正重み影響係数Ci,d,nを形成し、
・上記シナプス118の全ての重みWi,n,dがレビューされ、重み毎に、
・重みWi,n,dの値が対応する補正重み影響係数Ci,d,nで乗算され、
・乗算の結果が、ニューロン出力和の形成に追加される。
・補正値Δが計算される。
・補正値Δが、補正重み影響係数Ci,d,nで除算される。すなわち、Δ/Ci,d,n
・所与のNeuronUnitに寄与する全てのシナプス118がレビューされる。シナプス118毎に、対象となるシナプスの全ての重みWi,n,dがレビューされ、重み毎に、その値は対応する補正値Δに変更される。
上述した、pネット100を更にトレーニング可能なことにより、画像認識とのトレーニングの組み合わせが可能であり、それにより、トレーニングプロセスが加速化され、精度が改善される。互いにわずかに異なるフィルムの連続フレームでのトレーニング等の1組の順次変化する画像でpネット100をトレーニングする場合、追加のトレーニングは、以下を含むことができる。
・最初の画像を用いてトレーニングすること。
・次の画像を認識し、新しい画像と、ネットワークが最初にトレーニングされた画像との類似性の割合を識別すること。認識誤差が所定の値未満である場合、追加のトレーニングは必要ない。
・認識誤差が所定の値を超える場合、追加のトレーニングが提供される。
上記基本トレーニングアルゴリズムによるpネット100のトレーニングは、画像認識の問題を解決するのに有効であるが、重複画像に起因するデータの損失又は破損を除外しない。したがって、メモリ目的でのpネット100の使用は、可能ではあるが、完全に信頼できるものではないことがある。本実施形態は、情報の損失又は破損からの保護を提供するpネット100のトレーニングについて説明する。あらゆる補正重みWi,n,dが1回しかトレーニングできないことを求める追加の制限を基本ネットワークトレーニングアルゴリズムに導入することができる。最初のトレーニングサイクル後、重みWi,n,dの値は固定又は一定のままである。これは、トレーニングプロセス中、対象となる補正重みWi,n,dへのアクセス回数を表す上述したインデックスである追加のアクセスインデックス「a」を各補正重みに入れることにより、達成することができる。
上述したように、各補正重みは、Wi,n,d,aの命名をとることができ、ここで、「a」は、トレーニングプロセス中の対象となる重みへのアクセス回数である。最も単純な場合、変更されない、すなわち、固定されない重みの場合、a=0であり、一方、上述した基本アルゴリズムによって変更又は固定された重みの場合、a=1である。さらに、基本アルゴリズムを適用しながら、固定値a=1を有する補正重みWi,n,d,aは、補正が行われている重みから除外することができる。そのような場合、式[5]、[6]、及び[7]は、以下のように変換することができる。
上記制限は、前にトレーニングされた補正重みWi,n,d,aの補正に部分的に適用することができるが、最も重要な画像を形成する重みに対してのみ適用可能である。例えば、1人の人物の1組のポートレートでのトレーニング内で、1つの特定の画像は、プライマリとして宣言され、優先度を与えることができる。そのような優先画像でのトレーニング後、トレーニングプロセスで変更される、すなわち、インデックスa=1であり、したがって、Wi,n,d,1として重みを示す場合、全ての補正重みWi,n,d,aは固定することができ、同じ人物の他の画像は変更可能なままであり得る。そのような優先は、例えば、暗号鍵として使用され、且つ/又は重要な数値データを含む他の画像を含み得る。
補正重みWi,n,d,aへの変更は、完全には阻止されず、インデックス「a」の増大に制限することもできる。すなわち、重みWi,n,d,aの各後続使用は、重みの変更能力の低減に使用することができる。特定の補正重みWi,n,d,aが頻繁に使用されるほど、各アクセスでその重みが変更される頻度は低くなり、したがって、後続画像でのトレーニング中、前の記憶された画像が変更される頻度は低く、受ける破損が低減する。例えば、a=0である場合、重みWi,n,d,aでの任意の変更が可能であり、a=1である場合、重みが変更する可能性は、重みの値の±50%に低減することができ、a=2の場合、変更の可能性は重みの値の±25%に低減することができる。
インデックス「a」によって示されるように、所定のアクセス回数に達した後、例えば、a=5である場合、重みWi,n,d,aの更なる変更を阻止し得る。そのような手法は、1つのpネット100内で高いインテリジェンスと情報安全との組合せを提供することができる。ネットワーク誤差計算メカニズムを使用して、許容される誤差レベルは、所定の精度範囲内の損失を有する情報を保存し得るように設定することができ、精度範囲は、特定のタスクに従って割り当てることができる。換言すれば、視覚的画像を用いて動作するpネット100の場合、誤差は、裸眼で捕捉することができないレベルに設定することができ、それにより、記憶容量の増大の大きな「因子」が提供される。上記は、視覚的情報、例えば、映画のかなり効率的な記憶の生成を可能にすることができる。
コンピュータメモリを選択的にクリーニングする能力は、pネット100の連続した高レベル機能に有価値であることができる。メモリのそのような選択的クリーニングは、記憶されている残りの情報を損失又は破損させずに特定の画像を除去することにより、行い得る。そのようなクリーニングは、以下のように提供することができる:
・例えば、画像をネットワークに導入するか、又は各画像に使用される補正重みのリストを編纂することによる、画像形成に参加する全ての補正重みWi,n,d,aの識別、
・各補正重みWi,n,d,aのインデックス「a」の低減、及び
・ゼロ又はインデックス「a」がゼロに低減される場合、対象となる重みの可能な値の範囲の中央に近いランダム値での補正重みWi,n,d,aの置換。
インデックス「a」を低減する適切な順序及び連続は、画像シーケンス内に隠れている強いパターンを識別するように実験的に選択することができる。例えば、トレーニング中、pネット100に導入される100の画像毎に、「a」がゼロ値に達するまで、1のカウントでインデックス「a」を低減することができる。そのような場合、「a」の値は、新しい画像の導入に対応して増大することができる。「a」の増大と低減との競合は、ランダム変更がメモリから徐々になくなり、その間、多数回、使用され確認された補正重みWi,n,d,aを保存することができる状況に繋がり得る。pネット100が、例えば、同じ被写体又は同様の環境という同様の特性を有する多数の画像でトレーニングされる場合、往々にして使用される補正重みWi,n,d,aは、値を常時確認し、これらのエリア内の情報は非常に安定する。さらに、ランダムノイズが徐々に消失する。換言すれば、インデックス「a」が徐々に低減するpネット100は、効率的なノイズフィルタとして機能することができる。
情報を損失させずにpネット100をトレーニングする、説明される実施形態では、高い容量及び信頼性を有するpネットメモリを生成することができる。そのようなメモリは、「キャッシュメモリ」システムよりも高速を提供する大容量の高速コンピュータメモリとして使用することができるが、「キャッシュメモリ」システムで典型的なコンピュータコスト及び複雑性を増大させない。公開されているデータによれば、一般に、ニューラルネットワークを用いて映画を記録する間、メモリは、記録品質を大きく失わずに数十回又は数百回圧縮することができる。換言すれば、ニューラルネットワークは、非常に効率的なアーカイブプログラムとして動作することが可能である。ニューラルネットワークのこの能力をpネット100の高速トレーニング能力と組み合わせることにより、高速データ伝送システム、高い記憶容量を有するメモリ、及び高速解読プログラムマルチメディアファイル、すなわち、コーデックスを生成することが可能になる。
pネット100では、データが、符号記録の一種である1組の補正重みWi,n,d,aとして記憶されることに起因して、同一のネットワーク及び鍵を使用せずに、既存の方法を介してpネットが復号化されるか、又はpネットが不正アクセスされる可能性は低い。したがって、pネット100は、相当な程度のデータ保護を提供することができる。また、従来のコンピュータメモリとは異なり、pネット100の個々の記憶要素へのダメージが呈する影響は、他の要素が失われた機能を大きく補うため、ごくわずかである。画像認識プロセスでは、使用されている画像の固有のパターンは実際に、1つ又は複数の要素が破損した結果として、歪まない。上記は、コンピュータの信頼性を劇的に改善することができ、通常の状況下では、かなり不完全な特定のメモリブロックを使用できるようにする。加えて、このタイプのメモリは、pネット100内の重要なバイトの永久アドレスがないことに起因して、ハッカーの攻撃への脆弱性がより低く、様々なコンピュータウィルスによるそのようなシステムの攻撃に耐えられるようにする。
トレーニングに使用される様々な画像の類似の割合の特定を用いる、上述した画像認識プロセスは、上述したように、前に定義されるカテゴリに従った画像分類プロセスとして利用することもできる。画像を予め定義されていない自然クラス又は群に分割することであるクラスタ化では、基本トレーニングプロセスを変更することができる。本実施形態は、以下を含むことができる。
・準備された出力画像を含めずに、1組の入力画像をトレーニングに向けて準備すること。
・基本アルゴリズムに従って行われるように、ニューロン出力和の形成を用いてネットワークを形成し、トレーニングすること。
・コホーネンネットワークと同様に編成することができる、最大出力和、すなわち、勝者出力又は勝者出力群を有する出力の、結果として生成される出力画像を選択すること。
・勝者出力又は勝者出力群が最大値を受け取る所望の出力画像の作成。同時に、
・選択される勝者出力の数は、例えば、1〜10の範囲内で予め決定することができるか、又は勝者出力は、「最大ニューロン和のN%以上」という規則に従って選択することができ、ここで、「N」は、例えば、90%〜100%内であり得る。
・他の全ての出力はゼロに等しく設定することができる。
・作成された所望の出力画像、図13を使用して、基本アルゴリズムに従ってトレーニングすること。
・異なる勝者又は勝者群の各画像を形成して、他の画像に対して全ての手順を繰り返すこと。
上記のようにして形成される1組の所望の出力画像は、複数の入力画像を自然に分けることができるクラスタ又はグループを記述するのに使用することができる。そのような1組の所望の出力画像は、確立された基準に従った、統計学的解析での画像の選択等の様々な分類を生成するのに使用することができる。上記は、入力画像及び出力画像の上記反転に使用することもできる。換言すれば、所望の出力画像は、別の、すなわち追加のネットワークへの入力画像として使用することができ、追加のネットワークの出力は、コンピュータ入力に適する任意の形態で提示される画像であることができる。
pネット100では、上述したアルゴリズムを用いた1サイクルのトレーニング後、トレーニングプロセスを遅くさせるとともに、精度を低減させるおそれがある出力和ばらつきが小さい、所望の出力画像を生成することができる。pネット100のトレーニングを改善するために、点の大きさのばらつきが、図21に示されるように、可能な出力値の全範囲、例えば、−50〜+50を網羅するように、点の初期ばらつきを人工的に増大又は拡張させることができる。点の初期ばらつきのそのような拡張は、線形であってもよく、又は非線形であってもよい。
特定の出力の最大値が外れ値又は誤り、例えば、ノイズの発現である状況が生じ得る。そのような状況は、多数の小さな信号によって囲まれる最大値の外観によって発現し得る。勝者出力が選択される場合、小さな信号値は、勝者として他の大きな信号によって囲まれる最大の信号を選択することを通して、無視することができる。このために、重要度サンプリング等の分散を低減する既知の統計学的技法を使用し得る。そのような手法では、基本の有価値パターンを維持しながら、ノイズを除去することができる。勝者群の生成により、図13に示されるように、線形不可分性画像、すなわち、2つ以上のクラスタに関連する画像のクラスタ化が可能になる。上記は、精度の大きな改善を提供し、クラスタ化誤差の数を低減することができる。
pネット100のトレーニングプロセスでは、補正を受ける典型的な誤差は、以下の通りである。
誤差補正は、外部トレーナーを用いたトレーニングにおいて上述したアルゴリズムを用いても可能である。
詳細な説明及び図又は図面は、本開示を支持し説明するものであるが、本開示の範囲は、特許請求の範囲のみによって規定される。請求項による本開示を実行する最良の形態及び他の実施形態の幾つかを詳細に説明したが、添付の特許請求の範囲において規定される本開示を実施するために、様々な代替の設計及び実施形態が存在する。さらに、図面に示される実施形態又は本説明において述べられる様々な実施形態の特徴は必ずしも、互いから独立した実施形態として理解される必要はない。むしろ、実施形態の例の1つに記載される各特徴が、他の実施形態からの1つ又は複数の他の所望の特徴と組み合わせることが可能であり、その結果として、言葉で説明されないか、又は図面を参照して説明されない他の実施形態を生成することが可能である。したがって、そのような他の実施形態は、添付の特許請求の範囲の枠組み内にある。

Claims (16)

  1. ニューラルネットワークであって、
    入力値を有する入力信号を受信するようにそれぞれ構成される、前記ニューラルネットワークの複数の入力と、
    複数のシナプスであって、各シナプスは、前記複数の入力のうちの1つに接続され、複数の補正重みを含み、各補正重みは重み値によって定義される、複数のシナプスと、
    1組の分配器であって、各分配器は、前記複数の入力のうちの1つに動作可能に接続されて、各入力信号を受信し、前記入力値に相関して、前記複数の補正重みから1つ又は複数の補正重みを選択するように構成される、1組の分配器と、
    1組のニューロンであって、各ニューロンは、少なくとも1つの出力を有し、前記複数のシナプスのうちの1つを介して前記複数の入力のうちの少なくとも1つに接続され、各ニューロンは、各ニューロンに接続された各シナプスから選択される前記補正重みの前記重み値を合算し、それにより、ニューロン和を生成するように構成される、1組のニューロンと、
    重み補正計算器であって、値を有する所望の出力信号を受信し、前記所望の出力信号値からの前記ニューロン和の逸脱を特定し、変更された補正重み値を合算して、ニューロン和を特定することにより、前記所望の出力信号値からの前記ニューロン和の前記逸脱が最小化され、それにより、前記ニューラルネットワークがトレーニングされるように、前記特定された逸脱を使用して各補正重み値を変更するように構成される、重み補正計算器と
    を備える、ニューラルネットワーク。
  2. 前記所望の出力信号からの前記ニューロン和の前記逸脱の前記特定は、前記所望の出力信号値を前記ニューロン和で除算し、それにより、逸脱係数を生成することを含み、
    各補正重み値の前記変更は、前記逸脱係数により、前記ニューロン和の生成に使用される各補正重みを乗算することを含む、請求項1に記載のニューラルネットワーク。
  3. 前記所望の出力信号からの前記ニューロン和の前記逸脱は、前記所望の出力信号と前記ニューロン和との数学的差分であり、
    各変更補正重みの前記生成は、前記ニューロン和の生成に使用される各補正重みへの前記数学的差分の配分を含む、請求項1に記載のニューラルネットワーク。
  4. 前記数学的差分の前記配分は、前記ニューロン和の生成に使用される各補正重み間で、前記特定された差分を等分割することを含む、請求項3に記載のニューラルネットワーク。
  5. 各分配器は、各影響係数が所定の割合で前記複数の補正重みのうちの1つに割り当てられて、各ニューロン和を生成するように、複数の影響係数を前記複数の補正重みのそれぞれに割り当てるように更に構成され、
    各ニューロンは、各ニューロンに接続された全ての前記シナプスについて、前記補正重みと前記割り当てられた影響係数との積を合算するように構成され、
    前記重み補正計算器は、各影響係数によって確立される前記積に従って、前記特定された差分の部分を、前記ニューロン和の生成に使用される各補正重みに適用するように構成される、請求項3に記載のニューラルネットワーク。
  6. 複数の影響係数のそれぞれは、影響分布関数によって定義され、
    前記複数の入力値は、各入力値が各間隔内で受信され、各補正重みが前記間隔のうちの1つに対応するように、間隔分布関数に従って前記間隔に分割される値範囲の中で受信され、
    各分配器は、前記受信される各入力値を使用して、各間隔を選択し、前記複数の影響係数のそれぞれを、前記選択された各間隔に対応する前記補正重み及び前記選択された各間隔に隣接する間隔に対応する少なくとも1つの補正重みに割り当てる、請求項5に記載のニューラルネットワーク。
  7. 各補正重みは、
    前記入力に対応する前記補正重みを識別するように構成される入力インデックスと、
    各補正重みに選択される前記間隔を指定するように構成される間隔インデックスと、
    前記ニューロンに対応する前記補正重みを指定するように構成されるニューロンインデックスと
    を含む1組のインデックスによって更に定義される、請求項6に記載のニューラルネットワーク。
  8. 各補正重みは、各補正重みが前記ニューラルネットワークのトレーニング中に前記入力信号によってアクセスされる回数を数えるように構成されるアクセスインデックスによって更に定義される、請求項7に記載のニューラルネットワーク。
  9. ニューラルネットワークをトレーニングする方法であって、
    前記ニューラルネットワークへの入力を介して、入力値を有する入力信号を受信することと、
    前記入力に動作可能に接続された分配器に前記入力信号を通信することと、
    前記分配器を介して、前記入力信号に相関して、複数の補正重みから1つ又は複数の補正重みを選択することであって、各補正重みは、重み値によって定義され、前記入力に接続されるシナプスに位置決めされる、選択することと、
    前記シナプスを介して前記入力に接続され、少なくとも1つの出力を有するニューロンを介して、前記選択された補正重みの前記重み値を合算することであって、それにより、ニューロン和を生成する、合算することと、
    重み補正計算器を介して、値を有する所望の出力信号を受信することと、
    前記重み補正計算器を介して、前記所望の出力信号値からの前記ニューロン和の逸脱を特定することと、
    前記重み補正計算器を介して、変更された補正重み値を合算して、前記ニューロン和を特定することにより、前記所望の出力信号からの前記ニューロン和の前記逸脱が最小化され、それにより、前記ニューラルネットワークをトレーニングするように、前記特定される逸脱を使用して各補正重み値を変更することと
    を含む、方法。
  10. 前記所望の出力信号値からの前記ニューロン和の前記逸脱を特定することは、前記所望の出力信号値を前記ニューロン和で除算し、それにより、逸脱係数を生成することを含み、
    前記各補正重みを変更することは、前記ニューロン和の生成に使用される各補正重みを前記逸脱係数で乗算することを含む、請求項9に記載の方法。
  11. 前記所望の出力信号値からの前記ニューロン和の前記逸脱を特定することは、前記所望の出力信号値と前記ニューロン和との数学的差分を特定することを含み、前記補正重みのそれぞれを変更することは、前記数学的差分を、前記ニューロン和の生成に使用される各補正重みに配分することを含む、請求項9に記載の方法。
  12. 前記数学的差分の前記配分は、前記ニューロン和の生成に使用される各補正重み間で、特定された差分を等分割することを含む、請求項11に記載の方法。
  13. 前記分配器を介して、複数の影響係数を前記複数の補正重みに割り当て、所定の割合で各影響係数を前記複数の補正重みのうちの1つに割り当て、前記ニューロン和を生成することを含む、割り当てることと、
    前記ニューロンを介して、前記ニューロンに接続される全ての前記シナプスについて、前記補正重みと前記割り当てられる影響係数との積を合算することと、
    前記重み補正計算器を介して、各影響係数のそれぞれによって確立される前記積に従って、前記特定された差分の部分を、前記ニューロン和の生成に使用される各補正重みに適用することと
    を更に含む、請求項9に記載の方法。
  14. 前記複数の影響係数は、影響分布関数によって定義され、前記方法は、
    前記入力値が各間隔内で受信され、各補正重みが前記間隔のうちの1つに対応するように、間隔分布関数に従って前記間隔に分割される値範囲の中で前記入力値を受信することと、
    前記分配器を介して、前記受信した入力値を使用することであって、それにより、前記間隔のそれぞれを選択し、前記複数の影響関数を、前記選択される各間隔に対応する前記補正重み及び前記選択される各間隔に隣接する間隔に対応する少なくとも1つの補正重みに割り当てる、使用することと
    を更に含む、請求項13に記載の方法。
  15. 1組のインデックスによって各補正重みを更に定義することを更に含み、前記1組のインデックスは、
    前記入力に対応する前記補正重みを識別するように構成される入力インデックスと、
    各補正重みに選択される前記間隔を指定するように構成される間隔インデックスと、
    前記ニューロンに対応する前記補正重みを指定するように構成されるニューロンインデックスと
    を含む、請求項14に記載の方法。
  16. アクセスインデックスによって各補正重みを更に定義することを更に含み、前記アクセスインデックスは、各補正重みが、前記ニューラルネットワークのトレーニング中、前記入力信号によってアクセスされる回数を数えるように構成される、請求項15に記載の方法。
JP2016573707A 2014-03-06 2015-03-06 ニューラルネットワーク及びニューラルネットワークのトレーニング方法 Active JP6382354B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201461949210P 2014-03-06 2014-03-06
US61/949,210 2014-03-06
US201562106389P 2015-01-22 2015-01-22
US62/106,389 2015-01-22
PCT/US2015/019236 WO2015134900A1 (en) 2014-03-06 2015-03-06 Neural network and method of neural network training

Publications (2)

Publication Number Publication Date
JP2017511948A JP2017511948A (ja) 2017-04-27
JP6382354B2 true JP6382354B2 (ja) 2018-08-29

Family

ID=54055917

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016573707A Active JP6382354B2 (ja) 2014-03-06 2015-03-06 ニューラルネットワーク及びニューラルネットワークのトレーニング方法

Country Status (14)

Country Link
US (1) US9390373B2 (ja)
EP (1) EP3114540B1 (ja)
JP (1) JP6382354B2 (ja)
KR (1) KR102166105B1 (ja)
CN (1) CN106104406B (ja)
AU (1) AU2015226983A1 (ja)
CA (1) CA2941352C (ja)
DK (1) DK3114540T3 (ja)
EA (1) EA035114B1 (ja)
ES (1) ES2864149T3 (ja)
IL (1) IL247533B (ja)
MX (1) MX357374B (ja)
SG (1) SG11201608265XA (ja)
WO (1) WO2015134900A1 (ja)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3185184A1 (en) 2015-12-21 2017-06-28 Aiton Caldwell SA The method for analyzing a set of billing data in neural networks
US10824945B2 (en) 2016-04-15 2020-11-03 Agreeya Mobility Inc. Machine-learning system and method thereof to manage shuffling of input training datasets
CN106022221B (zh) * 2016-05-09 2021-11-30 腾讯科技(深圳)有限公司 一种图像处理方法及处理系统
WO2017200597A1 (en) * 2016-05-20 2017-11-23 Google Llc Progressive neural networks
KR102558300B1 (ko) * 2016-06-09 2023-07-21 프로그레스, 인코포레이티드 신경망 및 신경망 트레이닝 방법
KR102335955B1 (ko) * 2016-11-07 2021-12-08 한국전자통신연구원 컨볼루션 신경망 시스템 및 그것의 동작 방법
US10599976B2 (en) 2016-11-07 2020-03-24 International Business Machines Corporation Update of attenuation coefficient for a model corresponding to time-series input data
WO2018133567A1 (zh) * 2017-01-20 2018-07-26 清华大学 神经元权重信息处理方法和系统、神经元信息处理方法和系统及计算机设备
CN106875010B (zh) * 2017-01-20 2019-11-22 清华大学 神经元权重信息处理方法和系统
JPWO2018234919A1 (ja) * 2017-06-21 2020-07-16 株式会社半導体エネルギー研究所 ニューラルネットワークを有する半導体装置
TWI754764B (zh) * 2017-06-30 2022-02-11 美商克萊譚克公司 由低解析度影像產生高解析度影像以用於半導體應用
KR20190044878A (ko) 2017-10-23 2019-05-02 삼성전자주식회사 뉴럴 네트워크에서 파라미터를 처리하는 방법 및 장치
WO2019082166A1 (en) * 2017-10-26 2019-05-02 Uber Technologies, Inc. PROPAGATION AND UNCERTAIN UNCERTAINTY
KR102459487B1 (ko) * 2017-11-03 2022-10-26 주식회사 케이티 컨볼루션 신경망에 기반한 제스처 분류장치 및 방법
KR102607208B1 (ko) 2017-11-16 2023-11-28 삼성전자주식회사 뉴럴 네트워크 학습 방법 및 디바이스
WO2019112084A1 (ko) * 2017-12-06 2019-06-13 한국과학기술원 Cnn을 이용한 압축 왜곡 제거 방법
CN108256681A (zh) * 2018-01-15 2018-07-06 吉浦斯信息咨询(深圳)有限公司 一种收入水平预测方法、装置、存储介质和系统
US11887003B1 (en) * 2018-05-04 2024-01-30 Sunil Keshav Bopardikar Identifying contributing training datasets for outputs of machine learning models
KR102183305B1 (ko) * 2018-08-03 2020-11-26 국민대학교산학협력단 신경망 피처 벡터 결정 장치 및 방법
CN108962247B (zh) * 2018-08-13 2023-01-31 南京邮电大学 基于渐进式神经网络多维语音信息识别系统及其方法
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
CN109447258B (zh) * 2018-09-19 2021-09-14 北京市商汤科技开发有限公司 神经网络模型的优化方法及装置、电子设备和存储介质
CN112771533A (zh) * 2018-11-08 2021-05-07 Tdk株式会社 积和运算器、积和运算方法、逻辑运算装置和神经形态器件
CN111208865B (zh) * 2018-11-22 2021-10-08 南京大学 光电计算单元、光电计算阵列及光电计算方法
FR3090953B1 (fr) 2018-12-21 2020-12-04 Psa Automobiles Sa Méthode de vérification de la robustesse d’un réseau neuronal
CN109620269B (zh) * 2019-01-28 2021-10-22 锦图计算技术(深圳)有限公司 疲劳检测方法、装置、设备及可读存储介质
KR102675806B1 (ko) 2019-05-03 2024-06-18 삼성전자주식회사 영상 처리 장치 및 그 영상 처리 방법
KR102514795B1 (ko) * 2020-03-12 2023-03-29 한국과학기술원 심층 인공 신경망에서 자연 발생되는 선택적 신경 반응을 기반으로 시각적 자극을 인식하기 위한 전자 장치 및 그의 동작 방법
US20220019909A1 (en) * 2020-07-14 2022-01-20 Adobe Inc. Intent-based command recommendation generation in an analytics system
KR102642528B1 (ko) * 2020-11-18 2024-03-04 한국전자통신연구원 인공 지능 시스템의 그것의 인공 신경망 학습 방법

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4918618A (en) 1988-04-11 1990-04-17 Analog Intelligence Corporation Discrete weight neural network
US4979124A (en) 1988-10-05 1990-12-18 Cornell Research Foundation Adaptive, neural-based signal processor
JP3088171B2 (ja) 1991-02-12 2000-09-18 三菱電機株式会社 自己組織型パタ−ン分類システム及び分類方法
US5493688A (en) 1991-07-05 1996-02-20 Booz, Allen & Hamilton, Inc. Pattern categoritzation system having self-organizing analog fields
US5253329A (en) 1991-12-26 1993-10-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Neural network for processing both spatial and temporal data with time based back-propagation
US5299285A (en) * 1992-01-31 1994-03-29 The United States Of America As Represented By The Administrator, National Aeronautics And Space Administration Neural network with dynamically adaptable neurons
JP3328953B2 (ja) * 1992-05-25 2002-09-30 烈 山川 非線形シナプスニューロン、そのデバイス及びそれを用いた予測方法
JPH06266868A (ja) 1992-12-24 1994-09-22 Olympus Optical Co Ltd ニューロン素子
US5566273A (en) 1993-12-30 1996-10-15 Caterpillar Inc. Supervised training of a neural network
US7577631B2 (en) 2001-09-10 2009-08-18 Feldhake Michael J Cognitive image filtering
EP1515270A1 (en) * 2003-09-09 2005-03-16 Semeion An artificial neural network
DE102005046747B3 (de) * 2005-09-29 2007-03-01 Siemens Ag Verfahren zum rechnergestützten Lernen eines neuronalen Netzes und neuronales Netz
US7904398B1 (en) * 2005-10-26 2011-03-08 Dominic John Repici Artificial synapse component using multiple distinct learning means with distinct predetermined learning acquisition times
EP2122542B1 (en) * 2006-12-08 2017-11-01 Medhat Moussa Architecture, system and method for artificial neural network implementation
US7814038B1 (en) 2007-12-06 2010-10-12 Dominic John Repici Feedback-tolerant method and device producing weight-adjustment factors for pre-synaptic neurons in artificial neural networks
KR101831247B1 (ko) * 2012-01-31 2018-02-22 한국전자통신연구원 다층 신경망을 이용한 시선 추적 시스템의 초점 측정 장치
US10346962B2 (en) 2012-02-10 2019-07-09 Corning Incorporated Nondestructive method to predict isostatic strength in ceramic substrates

Also Published As

Publication number Publication date
CN106104406A (zh) 2016-11-09
US9390373B2 (en) 2016-07-12
ES2864149T3 (es) 2021-10-13
SG11201608265XA (en) 2016-11-29
CA2941352C (en) 2022-09-20
EA201600637A1 (ru) 2016-12-30
MX357374B (es) 2018-07-04
US20160012330A1 (en) 2016-01-14
EP3114540A4 (en) 2017-11-08
CA2941352A1 (en) 2015-09-11
MX2016011438A (es) 2017-04-06
CN106104406B (zh) 2018-05-08
KR20160131071A (ko) 2016-11-15
IL247533B (en) 2019-06-30
AU2015226983A1 (en) 2016-10-06
EP3114540A1 (en) 2017-01-11
EA035114B1 (ru) 2020-04-29
JP2017511948A (ja) 2017-04-27
WO2015134900A1 (en) 2015-09-11
DK3114540T3 (da) 2021-04-19
KR102166105B1 (ko) 2020-10-16
EP3114540B1 (en) 2021-03-03
IL247533A0 (en) 2016-11-30

Similar Documents

Publication Publication Date Title
JP6382354B2 (ja) ニューラルネットワーク及びニューラルネットワークのトレーニング方法
US9619749B2 (en) Neural network and method of neural network training
KR102558300B1 (ko) 신경망 및 신경망 트레이닝 방법
TWI655587B (zh) 神經網路及神經網路訓練的方法
CN110796190A (zh) 具有深度学习特征的指数建模
CN113366494A (zh) 用于少样本无监督图像到图像转换的方法
US11250245B2 (en) Data-driven, photorealistic social face-trait encoding, prediction, and manipulation using deep neural networks
KR20200130759A (ko) 데이터 세트에 정의되지 않은 특성 정보를 자동으로 생성하는 제로샷 인식 장치 및 방법
CN109902823A (zh) 一种基于生成对抗网络的模型训练方法及设备
KR102100973B1 (ko) 공동 학습을 이용한 기계학습 시스템 및 그 방법
CN111488460B (zh) 数据处理方法、装置和计算机可读存储介质
Wang et al. Learning to augment for casual user recommendation
CN114461906A (zh) 一种聚焦于用户核心兴趣的序列推荐方法及装置
Zhang et al. Machine unlearning methodology based on stochastic teacher network
Rahtz et al. Safe deep rl in 3d environments using human feedback
Sunitha et al. Political optimizer-based automated machine learning for skin lesion data
JP6947460B1 (ja) プログラム、情報処理装置、及び方法
Green et al. Federated learning with highly imbalanced audio data
Jothiraj Phoenix: Federated Learning for Generative Diffusion Model
KR102584712B1 (ko) 인공지능을 기반으로 한 음원 유사 판단 및 블록체인을 기반으로 한 음원 인덱싱 정보 저장 및 관리 방법, 장치 및 시스템
WO2023062750A1 (ja) データ生成方法、データ生成プログラム及び情報処理装置
Stanley Jothiraj Phoenix: Federated Learning for Generative Diffusion Model
Mahner et al. Dimensions that matter: Interpretable object dimensions in humans and deep neural networks
Sharma et al. Robust GAN-Based CNN Model as Generative AI Application for Deepfake Detection
Arfeen et al. Unsupervised Projection Networks for Generative Adversarial Networks

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180227

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180227

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180508

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180801

R150 Certificate of patent or registration of utility model

Ref document number: 6382354

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250