JP3364242B2 - 人工的神経回路網のリンク学習装置 - Google Patents

人工的神経回路網のリンク学習装置

Info

Publication number
JP3364242B2
JP3364242B2 JP17653692A JP17653692A JP3364242B2 JP 3364242 B2 JP3364242 B2 JP 3364242B2 JP 17653692 A JP17653692 A JP 17653692A JP 17653692 A JP17653692 A JP 17653692A JP 3364242 B2 JP3364242 B2 JP 3364242B2
Authority
JP
Japan
Prior art keywords
value
pattern
learning
link
patterns
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17653692A
Other languages
English (en)
Other versions
JPH0619871A (ja
Inventor
節 鈴岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP17653692A priority Critical patent/JP3364242B2/ja
Priority to US08/085,050 priority patent/US5524177A/en
Publication of JPH0619871A publication Critical patent/JPH0619871A/ja
Application granted granted Critical
Publication of JP3364242B2 publication Critical patent/JP3364242B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Machine Translation (AREA)

Description

【発明の詳細な説明】 【0001】 【産業上の利用分野】本発明は、連想メモリとして用い
られる人工的神経回路網のリンク学習装置に関する。 【0002】 【従来の技術】コネクショニストモデルに基づく認識理
解技術は、日本語ワープロの同音語選択や自然言語翻訳
の訳語選択に適用できる。このモデルでは、偏ったパタ
ーンで連想メモリを学習しなければならない。しかし従
来の連想メモリではランダムパターン(パターンをN個
の0と1との列として表現すると、i番目の値とj(j
≠i)番目の値とが互いに独立に決まるようなパターン
をランダムパターンという。この場合パターンは集合と
して偏りのないパターンとなる)の学習にしか適してい
ないので、コネクショニストモデルに基づく認識理解技
術に従来型連想メモリを適用することは困難であった。
以下これについて以下の手順で詳しく述べる。 1.コネクショニストモデルを用いたかな漢字変換の例 2.パターンとは何か 3.コネクショニストモデルにおけるパターンの特徴 4.従来の実現方法とその問題点 5.共分散行列に用いた連想メモリ 1.コネクショニストモデルを用いたかな漢字変換の例 【0003】近年、コネクショニストモデルに基づく認
識理解の研究が行なわれている(David L. Walts and J
ordan B. Pollack. Massively parallel parsing: A st
rongly interactive model of natural language inter
pretation. Cognitive Science, Vol. 9, pp. 51-74, 1
985, 田村他 Connectioninst modelを用いた自然言語
処理システム。情報処理学会,Vol. 28, No. 2,pp. 202
-210, 1987)。この手法では、シンボルをノードとし、
シンボル間の関係をネットワークで表現し、ノードの活
性値をネットワークを介して伝播させることにより、入
力情報の話題を把握し意味理解を行なう。この技術は自
然言語処理、音声・文字認識の分野に適用が可能であ
る。これを日本語ワープロのかな漢字変換に適用する研
究が行なわれている(特願平1−157159号),鈴
岡他 神経回路網の連想機能を用いたかな漢字変換方式
−ニューロワープロへの展望。情報処理学会第40回全
国大会,Vol. 1C-3, pp. 105-106, 1990)。ここでは、
大量の実文書からネットワークを学習し、ユーザの入力
情報をキーとしてノードの活性値を伝播させ、入力文書
話題を把握する。この話題の情報を用いてかな漢字変換
の精度向上を目指す。このかな漢字変換のメカニズムを
以下により詳しく説明する。 【0004】ワープロでかな漢字変換する場合には、読
みを表すひらがな列を入力して表記を表すかな漢字混じ
り文字列を出力する。これは、入力されたひらがな列の
読みを持つかな漢字候補の中から、ユーザの意図にあっ
たものを選び出すことである。これを行なうのに、まず
語の使用上の近さを表すネットワークを作成しておく
(このネットワークでは、よく同時に用いられる二語に
対応するノードの間には正の大きな値のリンクが張られ
ている)。そしてある語が選択されたならばその語に対
応するノードの活性値を強制的に引き上げる。活性値の
上がったノードから活性値の伝播が行なわれ、現在の話
題に関係する語に対応するノードの活性値が高まる。活
性値の伝播はノードに接続されているリンクを介して行
われ、リンクの値が大きい程よく活性値が伝わるものと
する。従って、文章をワープロに入力していくと、現在
入力中の文章の話題に関係深い語に対応するノードの活
性値が高まるように活性値が伝播されるようになる。そ
こで同音語の中で最も活性値が高いものが現在の話題に
最も関係が深いと考え、それをかな漢字変換の第一候補
とする。例えば、図3のネットワークを用いてかな漢字
変換の例を説明する。「クロックの立ち上がりにおいて
この信号はプロセッサに取り込まれる」までが正しくか
な漢字変換されているとする。このとき「クロック」,
「信号」,プロセッサ」といった語が選択されているの
で、それらに関連した計算機のハードウェア関係の語に
対応するノードの活性値は高まる。ここで「どうき」を
かな漢字変換しようとした場合を考える。「どうき」に
は「同期」,「動悸」,「動機」と同音語があるが、そ
の中で計算機のハードウェア関係の語である「同期」に
対応するノードの活性値が最も高まっているので、「同
期」とかな漢字変換される。ここで用いるネットワーク
は入力情報(入力語)から話題を想起するものであるの
で、機能として神経回路網の連想メモリに相当する。 2.パターンとは何か 【0005】ワープロのかな漢字変換の場合に、この連
想メモリを学習するために使われるパターンについて説
明する(特願平1−317791号)。単語が1からN
の連続する整数の単語コードを持つとき(単語と単語コ
ードとは一対一に対応する)、パターンはN個の0もし
くは1の値を取るビットパターンで表現される。このビ
ットパターンは次の手順で決められる。 1.文章を段落ごとに切り分ける。 2.段落ごとに文章を単語に分解し、単語を単語コード
に変換する。 【0006】3.ある段落に含まれる単語の単語コード
に対応するビットの値は1とし、その段落に含まれない
単語の単語コードに対応するビットの値は0とする。例
えば、「今日は天気が良い。」という非常に短い段落が
あった場合には、まずその文章を単語に分解し、その段
落に含まれる単語コードの集合を作る。例えば、以下の
ように単語と単語コードとの対応があるとすると、 「今日」=10120 「は」 =123 「天気」=22378 「が」 =1034 「良い」=2876 次のような単語コード集合ができる。 {123,1034,2876,10120,2237
8} 単語数N=100000とすると、このパターンは10
0000ビットのパターンからなり、 {123,1034,2876,10120,2237
8}番目のビットのみが1で、それ以外のビットは0で
あるようなパターンである。 この場合重複は考慮されない。即ち、ある段落中に同じ
単語が二度以上出現しても二度目以降の出現は無視され
ビットは1のままとなる。このように定められた学習パ
ターンはノイズや偏りを含むことが本質的に避けられな
い。例えば、「昨日僕は本を買った。」という文章で
は、「昨日」と「本」とは直接意味的なつながりはない
が、同じ段落(この場合には同じ文)に「昨日」と
「本」とが現れているため、共に対応するビットが1と
なる。このように、実際の文章からのパターンはノイズ
や偏りを含むことが避けられないため、従来の連想メモ
リをそのまま適用することはできない。 【0007】まず、学習パターンの特徴について述べ
る。次に、そのような特徴があるパターンを従来の連想
メモリでは適切に連想することが困難であったことにつ
いて説明する。 3.コネクショニストモデルにおけるパターンの特徴 【0008】言語知識を扱うネットワークの学習に、実
際の文書を用いる場合、上述した手順で段落内に含まれ
る文章を単語(ネットワーク中のシンボルに相当)の集
合に変換したものを、学習パターンとする。これらのパ
ターンには以下の特徴がある。 P1 ノイズを含まない厳密に正しい記憶パターン(ネ
ットワーク中のシンボルを表すノードに1/0のビット
を割り当てたもの)は存在しない。 【0009】学習データとしてのパターン(実際の文章
例)はたくさんあるが、それは殆どの場合ノイズ(話題
と関係ない語)を含んでいる。そこで大量のパターンを
用いてノイズを避けた汎化パターンを学習しなければな
らない。これは逆に言えば、厳密なパターンを記憶して
おかなくてもよいということでもある。 P2 一つのパターンは全語種に対して非常に少ない語
種しか含まない。 【0010】日本語には数十万の語があり、一人使う語
に限っても数千語があるが、一つの段落に含まれるのは
数百語である。このようなパターンはスパースなパター
ンと言われている。 P3 語の出現頻度差が大きい。 【0011】「これ」という指示語は文章によらず頻繁
に出現するが、「奥書」という専門語は特殊な場合にし
か現れない。この頻度差は入力文章の話題により顕著に
なることもあれば、話題によらず頻度の高い語,低い語
もある。 P4 学習が追加的にできなければならない。 【0012】コネクショニストモデルでは大量の学習パ
ターン(実際の文章例)が次々に与えられる。これらに
即応するには新たな学習パターンを追加的に、すなわち
容易に学習できなければならない。 P5 パターンの出現頻度に偏りがある。 【0013】話題を明示できないため、全ての話題につ
いて均等にパターンを集めることはできない。例えば、
新聞記事からデータを集めれば、政治に関する文章を1
00集め、科学技術に関する文章を10集めたことにな
る可能性がある。このように話題によって出現頻度が異
なるが、どのような話題がどのくらいの頻度で現れたか
も知る術がない。 P6 パターン間の相関に偏りがある。 【0014】一般に話題間は独立ではなく、どのような
話題が密接に関係しているかは文章の状況によって異な
る。特に相関の程度にも話題によって偏りがあることに
注意する必要がある。例えば、「政治」と「科学技術」
とはあまり相関がないが、「政治」と「経済」とはかな
り強い相関がある。 4.従来の実現方法とその問題点 【0015】コネクショニストモデルに適した連想メモ
リとしては、多くの文章例から同時に良く出現する語群
としての話題を調べ上げ、ある入力文章が与えられた時
にその話題に相当する語群が提示できればよい。神経回
路網の連想メモリには、直交学習と相関学習とがある。
直交学習はノイズのないパターンを必要とする上に追加
学習にも不向きである。このような連想メモリには、ノ
イズを許容し、ノイズを含んだ多くのパターンから正し
いパターンを汎化によって獲得する能力が必要である。
それには相関学習による連想メモリが適している。相関
学習ではネットワークとして用いる行列について、相関
行列を用いた連想メモリと共分散行列を用いた連想メモ
リとがある。しかし、相関行列を用いた連想メモリはス
パースなパターンを記憶できない。以下に従来型連想メ
モリの中で最も有望である共分散行列を用いた連想メモ
リについて述べる。 5.共分散行列を用いた連想メモリ 【0016】ランダムスパースなパターン(P2)を記
憶するために、共分散行列用いた連想メモリが提案され
ている(S. Amari. Neural theory of association and
concept-formation. Bio. Cybern, Vol. 26, pp. 185-1
75, 1977, S. Amari. Characteristics of sparsely en
coded associative memory. Neural Netwaorks, Vol.2,
pp. 451-457, 1989, C. J. Perez-Vicente. Finite-si
ze capasity of sparse-coding models. Europhysics L
etters, Vol. 10, No. 7, pp. 627-631, 1989)。この連
想メモリではNこのノードからランダム1つのノードを
順次選び、(4)式に従ってその活性値を更新する。活
性値が変化するノードがなくなるまでこれを繰り返す。
ここで関数fは閾値関数である。このとき、(3)式の
エネルギーEは計数kの符号が負(正)ならば単調減少
(増加)することが保証される。 【0017】 【数1】【0018】以下、図面を参照しながら従来手法である
共分散行列を用いた連想メモリのリンクの学習装置につ
いて説明する。図4は連想メモリのリンクの学習装置の
構成例を示す図、図5はこの装置の処理の流れを表すフ
ロー図である。 【0019】図4の学習装置は、ネットワークのリンク
の重みと各ノードの活性確率とを学習する。そのために
この学習装置は、リンクの重み格納部46と活性確率格
納部43とを持つ。これらに格納されている値は、学習
を開始する前に初期化指示部48からの指示により、0
に初期化される。その後、パターン提示部41において
示された学習パターンについて、リンクの重み学習部4
5は古いリンクの値をリンクの重み格納部46から取り
出して、活性確率の情報も用いてリンクの値を更新し、
その結果をリンクの重み格納部46に格納する。同様に
活性確率更新部42は提示されたパターンについて、そ
の古い値を活性確率格納部43から取り出し、活性確率
を更新した後にそれを活性確率格納部43に戻す。 【0020】次にリンクの値の更新アルゴリズムを詳し
く図5のフロー図を用いて説明する。まず、501〜5
08は初期化ルーチンで、リンクの値Wjiを9に初期
化し、活性値の平均値aj を0に初期化する。そして学
習すべきパターンがある限り(509),510〜52
2を繰り返す。まず学習すべきパターンVを入力する
(510)。511〜518でWjiの値を(6)式に
従って更新する。ここでΔは、0<Δ<<1である。但
し、Wiiは0のままにするために、513によりWi
iの値を変えないようにする。519〜522では、活
性値の平均値ajを更新する。活性値の平均値の真の値
はわからないので、520のようにaj の値を少しずつ
修正しながら求める。そして学習すべきパターンが尽き
たならば(509)、リンクの値の配列Wと活性値の平
均値aとをファイル等に保存し(523)、処理を終了
させる。 【0021】記憶パターンはリンクの値として学習され
るので、P1は問題ない。この連想メモリはランダムス
パースなパターンを記憶するために考案されたものであ
るので、P2のようなスパースにエンコードされたパタ
ーンの記憶には適している。またP3の問題はノードの
活性値の活性確率aj の導入により解決されている。さ
らに(6)式にあるように記憶パターンを追加的に学習
できるので、P4も満たしている。 【0022】しかし、この連想メモリはパターンの出現
頻度が偏った場合(P5)には適していない。なぜなら
ば、良く現れるパターンのみを記憶する傾向にあるから
である。(6)式のリンク値を決める式からもわかるよ
うに、パターンが提示されるたびにそのパターンのため
のリンク値(Vj −aj )(Vi −ai )が元のリンク
の値Wjiに加算される。これに良く出現するパターン
程、よく学習が行なわれ、想起も良くなっていく。しか
し、出現頻度の低いパターンに対しては稀にしか学習し
ないため、正しい想起する確率は低い。 【0023】また、この連想メモリはパターン間に相関
に偏りがある場合(P6)にも適していない。この連想
メモリはパターン間に均質な相関がある場合(ランダム
スパースなパターンはその一例)にのみ適しているので
ある。 【0024】このことを以下に詳しく説明する。パター
ンの出現頻度に偏りがある場合(P5)には、高頻度で
出現するパターンしか記憶できないという問題がある。
これはエネルギー曲面により説明できる。学習パターン
が提示される度に従来型方式でリンクの値を更新する
と、図6.a(横軸はパターンを表し、各パターンに対
応するエネルギー値をプロットした概念図である)のよ
うに出現頻度の高いパターンAの方が頻度の低いパター
ンBよりエネルギー値が低くなる(以下の説明ではエネ
ルギーの係数kが負の定数であるとする。勿論kが正の
定数としても同様に説明ができる)。一般に連想メモリ
はエネルギーが低い状態にほど陥り易いので、エネルギ
ー値が低い出現頻度の高いパターンしか想起できない。 【0025】パターン間の相関に偏りがある場合(P
6)の問題は二つある。一つは、望ましいパターンでは
なく、相関の特に強い複数のパターンの中間のパターン
を想起するという問題である。しかし、この問題はあま
り重要ではない。なぜならば、パターン間の相関が弱け
ればこの問題は起こらないし、逆に強ければ中間のパタ
ーンを想起したとしても望ましいパターンとあまり違っ
ていないからである。もう一つは、相関のあまりないパ
ターンを想起できないという問題である。これもP5の
場合と同様にエネルギー曲面で説明できる。例えば、パ
ターン1〜3があり、それらが全てのパターンが同じ頻
度で出現した場合には、従来方式によりリンクの値を学
習すると、図7.aのようなエネルギー曲面になる。こ
のため、パターン1と2との中間パターンの想起は容易
となるが、パターン1及び2とあまり相関のないパター
ン3の想起は困難となる。 【0026】以上まとめると、人工的神経回路網におけ
る連想は、エネルギー値Eを極小化するようにノード
(人工的ニューロン)の活性値を更新(伝搬)していく
ことにより行われる。このため一般にエネルギー値が低
い状態に各ノードの活性値は落ち着く。学習パターンが
ランダムパターンである場合には、それらの従来型のリ
ンクの重みの決め方で作られた連想メモリにおけるエネ
ルギー値はほぼ一定を取るため、各ノードの活性値は適
切なパターンに落ち着く。しかし偏ったパターンの場合
には、従来型連想メモリにおけるエネルギー値にはパタ
ーンによって差が出るため、各ノードの活性値はエネル
ギー値の低いパターン(Aや1,2)にはなるが、それ
以外の想起してほしいパターン(Bや3)にはなりにく
い。 【0027】 【発明が解決しようとする課題】このように従来の連想
メモリは、学習パターンを提示してリンクの重みを最適
化する際、パターンの出現頻度やパターン間の相関に偏
りがあると、適切な連想を行えるようなリンクの重み学
習により獲得することができないとう問題があった。 【0028】本発明はコネクショニストモデルに基く認
識理解で現れるような偏ったパターンを想起するのに適
した、即ち上記P1〜P6の問題を同時に解決すること
のできる人工的神経回路網のリンク学習装置を提供する
ことにある。 【0029】 【課題を解決するための手段】本発明に係る人工的神経
回路網のリンクを学習する装置は以下のように構成され
る。即ち、複数のノードがリンクで結合されノードの活
性値をリンクの重みに基づいて伝搬させて連想を行うた
めの人工的神経回路網を備え、前記連想が適切に行われ
るよう前記リンクの重みを更新するものであって、各ノ
ードに対応する活性値を学習すべきパターンとして入力
する入力手段と、この入力手段により入力されたパター
ンの想起のされ易さの指標となるエネルギー値Eを計算
するE計算手段と、このE計算手段で計算されたエネル
ギー値Eと所定のエネルギー値Ethとの差に基づいて
リンクの重みを更新させる度合いを決定する学習量決定
手段と、前記入力手段により入力されたパターンに基づ
き、前記学習量決定手段により決定された度合いに従っ
て、リンクの重みを更新する更新手段とを具備するもの
である。 【0030】尚、入力された各ノードに対応する活性値
の複数パターン分の平均値に基づいて各ノードの活性確
率を求め、上記更新手段においてこの活性確率をも考慮
してリンクの重みを更新してもよい。 【0031】ここで言うエネルギー値Eとは(3)式の
ように決定され、リンクの重みを更新させる度合い(学
習量δ)は(2)式のように決定され、リンクの重みは
(1)式のように学習される。 【0032】 【数2】 【0033】 【作用】本発明によれば、学習パターンがどのようなも
のであってもエネルギー値をほぼ一定にするようにリン
クの値を学習する。これにより偏ったパターンについて
も適切に想起できるようになる。以下にこれについて詳
しく説明する。 【0034】本発明では、全ての記憶パターンのエネル
ギーが同じ値を持つように(図6.b,図7.b)、全
ての記憶パターンにおいてエネルギー値を一定の負の値
Ethとなるように学習を行なう。このため、次のよう
なエネルギー値で重み付けをした学習をする。まず学習
を行なう前に、提示パターンのエネルギー値Eを求め
る。その値が基準エネルギーEthよりも大きければ、
その大きさに応じて強く学習するよう学習量δを決定す
る。gはg(0)=0である、上下限のある単調増加関
数である。そしてδの値に応じて学習を行なう。 【0035】これにより、不得意なパターンを積極的に
学習するようになる。なお、この学習則は現に提示され
たパターンを覚えるのではなく忘れることもあることに
注意されたい。提示パターンのエネルギー値Ethより
も低くなった場合には、(E−Eth)は負の値とな
り、δも負数になる。このような場合には、過学習が行
なわれていると考えそのパターンを忘却するように学習
が働く。 【0036】 【実施例】本発明の一実施例に係わる人工的神経回路網
のリンク学習装置について以下の手順で説明する。 1. 一実施例についての概説 1.1 構成図の説明 1.2 アルゴリズムの説明 2. 実験 2.1 パターンの出現頻度に偏りがある場合 2.2 パターンの相関に偏りがある場合 2.3 学習の高速化についての実験 3. 応用例 3.1 ワープロのかな漢字変換技術に適用した例 3.2 自然言語翻訳における訳語選択に適用した例 1.一実施例についての概説 【0037】図面を参照して本発明の一実施例を説明す
る。図1は連想メモリのリンクの学習装置の構成例を示
す図、図2はこの装置の処理の流れを表すフロー図であ
る。 1.1 構成図の説明 図1の学習装置は、図4の従来型の学習装置と比較し
て、エネルギー計算部109と学習量δ算出部110が
ある点が異なる。 【0038】ネットワークのリンクの重みと各ノードの
活性確率とを学習する。そのためにこの学習装置は、リ
ンクの重み格納部106と活性確率格納部103とを持
つ。これらに格納されている値は、学習を開始する前に
初期化指示部108からの指示により、0に初期化され
る。パターン提示部101において示された学習パター
ンについて、エネルギー計算部109においてエネルギ
ー値Eを計算する。さらにその値Eと基準エネルギー値
記憶部111のEthとの差から学習量δを学習量δ算
出部110において求める。そして、リンクの重み学習
部105は古いリンクの値をリンクの重み格納部106
から取り出して、活性確率の情報も用いて学習量δ分だ
けリンクの値を更新し、その結果をリンクの重み格納部
106に格納する。同様に活性確率更新部42は提示さ
れたパターンについて、その古い値を活性確率格納部1
03から取り出し、活性確率を更新した後にそれを確率
格納部103に戻す。ここで学習したものについて、リ
ンクの重みはリンクの重み取出し部107を介して、ま
た活性確率については活性確率取出し部104を介し
て、値を取出す。 【0039】尚、ここでは活性確率をパターンを提示す
る毎に更新するようにしたが、活性確率を予め定められ
た値(例えば0.5)に固定しておいても、本方式はう
まく機能する。これら取出された値の用い方については
後述する。 1.2 アルゴリズムの説明 【0040】図2は本発明の実施例方式を適用した連想
メモリのリンク値の学習方式を示したフロー図である。
図5と基本的に異なるのは、211〜213の追加であ
る。まず、201〜208は初期化ルーチンで、リンク
のWjiを0に初期化し、活性値の平均値aj を0に初
期化する。そして学習すべきパターンがある限り(20
9)、210〜235を繰り返す。まず学習すべきパタ
ーンVを入力する(210)。211〜221でWji
の値を(1)式に従って更新する。図5の従来技術では
Wの更新量はΔで固定であったが、実施例方式では更新
量δがエネルギー値によって変わる。211で学習すべ
きパターンのエネルギー値Eを求める。次に関数gを作
用させて学習量δを計算する(212)。もしそのδが
0ならばリンクの値は変わらないので、214〜221
の処理を省略する(213)。また、Wiiは0のまま
にするために、216によりWiiの値を変えないよう
にする。222〜225では、活性値の平均値aj を更
新すると、活性値の平均値の真の値はわからないので、
223のようにaj の値を少しずつ修正しながら求め
る。そして学習すべきパターンが尽きたならば(20
9)、リンクの値は変わらないので、リンクの値の配列
Wと活性値の平均値aとをファイル等に保存し(42
6)、処理を終了させる。 【0041】ここで、上述したようにδが0の時には、
リンクの値を更新する処理を省略できる。このδの値は
関数gの出力である。この関数g(x)は、x=0のと
きに0を出力する上下限のある単調増加関数である。こ
こで、g(x)はx=0のときのみ0を出力するとする
と、x=0となる確率は非常に低いので、殆どの場合に
δは非零となりリンクの値の更新処理を行わなければな
らない。そこで、xの絶対値が0に近い場合にはg
(x)の出力を0にすることにより、δが0となる確率
が高くなる。これによってリンクの更新処理を省略でき
る確率が高まり、学習速度の高速化を達成することがで
きる。 2.実験 この方法による想起能力の向上を調べる為に、P5,P
6の条件下で実験を行った。 2.1 パターンの出現頻度に偏りがある場合の実験 【0042】従来手法の中で最も有望である共分散行列
を用いた連想メモリ(以下、従来型連想メモリと称す
る)と本発明方式による連想メモリとの性能を比較する
ために、パターンの出現頻度に偏りがある状況(P5)
で実験した。方法 【0043】パラーメータとしては、学習回数,ノイ
ズ,リンク密度がある。学習回数とはリンクの値を学習
するためのパターン提示回数である。ノイズとは提示さ
れる学習パターン及び、テスト時に提示される初期パタ
ーンに含まれるノイズを意味する。コネクショニストモ
デルでは、一つの段落といったある決まった量をデータ
として与えるのが普通である。そのため活性値が活性化
しているノード数は与えられたデータ量に比例する。従
ってノイズを含んでいてもいなくとも、パターン中の活
性化ノードの数は変わらないと考えるのが適切である。
ここでノイズがn(0≦N<1)であることは、次のこ
とを意味する。活性値が1であるべきノードの活性値が
確率nで0に反転しており、逆に活性値が0であるべき
ノードの活性値が確率pn/(1−p)で1に反転して
いる。このようにすると、ノイズを含んだパターンにお
ける活性ノードの比率の期待値は、 【0044】 【数3】 となり、ノイズを含まない場合と同じになる。また、ノ
イズを含まない記憶パターンとそれにノイズnを加えた
パターンとの間のハミング距離(ハミング距離とは、二
つのヘクトルの間で対応する要素の値が異なっているも
のの数である。要素数がNのとき、二つのベクトルが完
全に一致していればハミング距離は0であり、すべての
対応する要素の値が異なっていればハミング距離はNで
ある。ハミング距離が小さいほど二つのベクトルは似て
いると言える)の期待値は 2Npn である。リンク
密度とはネットワークのリンク数の完全結合時のリンク
数との比である。ノード数がNでリンク数がLであるな
らば、リンク密度1は1=L/N2 で与えられる。な
お、リンク数を減らす場合にはリンクの値の小さいリン
クから順に削除した。 【0045】ノイズを含まない記憶パターンとしてN=
1000要素(ノード)から成るM=100個のパター
ンをランダムに生成した。但し、どのパターンも100
0ノードのうち100ノードの活性値が1であるように
した(P2)。このときノードの活性値の平均値pは
0.1であった。 【0046】学習パターンにはノイズを含まない記憶パ
ターンにノイズnを学習時にランダムに与えた。即ち有
限個の学習パターン集合をあらかじめ用意しておくこと
はしなかった。このためある程度ノイズがあるならば、
毎回異なったパターンが学習パターンとして提示される
ことになる。更に、i番目(1≦i≦0)のパターンの
出現確率を2i/{M(M/1)}とした。これにより
最も出現しにくい1番目のパターンと最も出現しやすい
M番目のパターンとでは、出現頻度に100倍の差があ
ることになる。関数gとしては次のものを用いた。この
関数のグラフを図8に示す。 【0047】 【数4】 (3)式のkは−1/2とし、Eth=−1とした。 【0048】評価方法としては、ノイズを加える前の記
憶パターンと、それにノイズを加えたものを初期パター
ンとして想起されたパターンとの間のハミング距離を用
いた。一条件の実験のために5000回これを繰り返し
た。学習時も想起時も提示パターンのノイズおよび出現
確率は等しくした。想起時に与えられるパターンも動的
にランダム生成し、学習パターンとは異なるものとし
た。尚、活性値が共にpである二つのランダムパターン
の間のハミング距離の平均値は、2Np(1−p)であ
る。p=0.1,N=1000の時、この値は180で
ある。従って、想起結果として真のパターンとの間のハ
ミング距離が180近くになれば、想起に完全に失敗し
たと考えられる。 学習回数,ノイズ,リンク数を変えた実験 【0049】学習回数を50から50000に変化させ
た場合の両連想メモリの想起能力を図4に示す。但し、
ノイズn=0.0;0.4;0.5,リンク密度1=
0.2とした。学習回数が少ない場合には、両連想メモ
リの想起能力はほぼ同じであったが、学習回数がある程
度多くなると本連想メモリの方が従来型連想メモリより
も想起能力が高くなった。 【0050】リンク密度1を0.001から0.4に変
化させた場合の両連想メモリの想起能力の図9に示す。
但し、学習回数を10000,ノイズn=0.0,0.
4,0.5とした。リンク密度の増加と共に両連想メモ
リとも想起能力が高まったが、本連想メモリが常に従来
型連想メモリより優れていた。 【0051】また、図9,10からわかるようにこの想
起実験では、学習回数10000回、リンク密度0.2
で十分であることが分かった。そこで以降の実験ではこ
のパラメータを用いた。 【0052】ノイズnを0から0.8に変化させた割合
の両連想メモリの想起能力を図11に示す。この場合に
は本連想メモリが常に従来型連想メモリより優れてい
た。従来型連想メモリでは頻度の低いパターンの記憶が
できないために、ノイズが0であっても完全な想起をす
ることができなかった。これに対して本連想メモリでは
提示パターンのノイズが小さくなればそれに従って想起
結果も向上した。この理由については後で述べる。ノイ
ズを含まない記憶パターンとのハミング距離が初期提示
パターン(図11の破線)よりも想起によって得られた
パターンの方が向上していなければ想起の意味はない。
従来型連想メモリはノイズn=0.25〜0.6の範囲
でのみ有効であったが、本連想メモリはノイズn=0.
0〜0.6の範囲で有効であった。 本方式の特長 【0053】学習時の提示頻度の違いがリンクの形成に
どのような影響を与えるかを調べるために、学習時のパ
ターン提示頻度とそのノイズを含まない記憶パターンに
おけるエネルギー値との関係を調べた(図12)。ここ
での考察では、学習回数10000,リンク密度1=
0.2の場合についてであるが、他の場合にも同様のこ
とが言えた。 【0054】提示頻度の高いパターン程、またノイズが
小さい程、エネルギー値も低くなった。これはノイズが
大きいとリンクの値は様々なノイズを含んだ重みベクト
ルの和になるので、互いにある程度相殺しあってエネル
ギー値を高くしているからであると考えられる。 【0055】本連想メモリの場合には、ノイズnが0.
5以下では提示パターンの頻度に係わらずエネルギー値
がほぼ一定になっていた(図13)。ノイズnが0.6
になると従来型連想メモリのように提示頻度に従ってエ
ネルギーが低くなった。これは、ノイズn=0.6以上
では両者の連想メモリの性能の差はないという図11の
結果と符合している。なお、従来型連想メモリではノイ
ズが大きい程エネルギー値が高かったが、本連想メモリ
ではこれと逆になっていった。これは本連想メモリでは
十分学習したと思われるパターンについては更に学習を
しないため、そのようなパターンのためにリンクの値が
更新されないので、エネルギーが低くなることがない。
このことを示すために、提示頻度と学習量との関係を図
14に示す。ここで縦軸は一連の学習における学習総量
(即ち(6)式のδの和)である。図から明らかなよう
にノイズnが0.5以下の場合には、提示パターンの頻
度とは無関係に学習量が一定である。しかし、ノイズn
が0.6以上になると共分散行列を用いた連想メモリの
場合と同様に提示パターンの頻度に応じて学習量が増加
する。これは(6)式でδを定数に固定したことを相当
し、本連想メモリが従来型連想メモリと等しくなってい
ることが確認できる。 【0056】ノイズn=0.4のときの学習時のパター
ンの提示頻度と想起の良さとの関係を図15に示す。従
来型の連想メモリでは提示頻度が0.013以上でない
と適切な想起ができなかったが、本連想メモリでは提示
頻度が0.003程度でも適切な想起ができた。このよ
うに本連想メモリの方が提示頻度に偏りがある場合でも
良い想起ができた。 【0057】学習回数が2000回と20000回との
ときの想起能力の関係について調べてみた。いずれの連
想メモリにおいても学習回数を増やすことにより想起能
力は向上したが、本連想メモリの方が劇的に向上した。
本連想メモリでは提示頻度が0.001程度でも学習の
進行と共に想起能力は向上したが、従来型連想メモリで
は、提示頻度が0.007以下の場合には学習回数を増
やしても想起能力は向上しなかった。 【0058】リンク密度は0.2と0.002とに変え
て想起能力の違を調べた。リンク密度を下げるとリンク
の値の小さい方から順に削除される。このとき従来型連
想メモリでは出現頻度の低いパターンのリンクから順に
削除されるので、学習時の提示頻度が低いものから順に
想起能力が低下した。これに対して本連想メモリでは均
一にリンクが削除されるので、学習時の提示頻度に関係
なく全体的に想起能力が低下した。 2.2 パターンの相関に偏りがある場合の実験 従来型連想メモリと本連想メモリとについて、パターン
の相関に偏りがある場合(P6)の実験を行なった。 方法 【0059】この実験の場合にも予備実験を行ない、パ
タメータとして学習回数を10000回,リンク密度1
=0.2として十分であることを確認し、そのパラメー
タを用いた。ノイズnを0〜0.8の範囲で変化させて
実験を行なった。 【0060】ノイズを含まない記憶パターンとして前回
の実験と同様にN=1000要素(ノード)から成るM
=100個のパターンについて実験した。どのパターン
も1000ノードのうち100ノードの出力値1である
ようにした。i番目(1≦i≦75)の75パターンは
ランダムに生成し、j番目(76≦j≦100)のパタ
ーンは、(j−25)番目のパターンとハミング距離が
20離れたランダムに生成したパターンとした。つま
り、1番から50番までのパターンは独立なパターンで
あるが51番から100番までのパターンは25組の相
関のあるパターンとした。学習パターンも前回の実験と
同様にノイズを加えた。また今回は学習時も評価時もパ
ターンの提示頻度を等しくした。 ノイズを変えた実験 【0061】ノイズnを0〜0.8に変化させた場合の
想起能力を図16に示す。この図では、両連想メモリつ
いての相関のあるパターンとないパターンとを分けて想
起能力を示している。 【0062】相関のあるパターンに対する想起能力はい
ずれの場合もほぼ同じであった。この場合ノイズが全く
ない場合でも想起パターンとそれからノイズを除いたパ
ターンとの間のハミング距離は10程度であった。これ
は、51〜100番のパターンについてはハミング距離
が20離れたところにノイズを含まないパターンがある
ので、その中間のパターン(真のパターンとハミング距
離で10だけ離れている)が記憶されているためであ
る。 【0063】独立なパターンに対しては両連想メモリの
性能は全く異なった。従来型連想メモリではノイズ量に
無関係に初期提示パターンよりもハミング距離の点で悪
い結果を得た。これに対して本連想メモリでは良好な結
果を得た。ノイズnが0.5以下では、51〜100番
のパターンと同等の性能を得た。この場合ノイズが0の
場合にハミング距離も0となっているのは、近くに強い
相関のあるパターンがないため、干渉が起こらないから
である。 【0064】この現象をノイズを含まない記憶パターン
におけるエネルギー値という観点から説明する。従来型
の連想メモリにおける相関のあるパターンとないパター
ンの平均エネルギー値の図を図17に示す。図からわか
るように相関のないパターンのエネルギー値は、相関の
あるパターンのエネルギー値の約半分である。このため
相関のないエネルギー値はノイズに埋もれ易く、想起す
ることが困難であることがわかる。同様に本連想メモリ
のエネルギー値を図18に示す。ノイズnが0.5以下
では相関があるパターンもないパターンもほぼ等しいエ
ネルギー値を取り、一方のパターンを特に想起しやすい
ということはない。ノイズnが0.5以上で共にエネル
ギー値が上昇しているのは、パターンが急速に記憶でき
なくなっていることを表している。ノイズn=0.8で
はエネルギー値は共に非常に高くなり、もはやノイズを
含まないパターン付近で極小値を取り得なくなっている
ことがわかる。 2.3 学習の高速化についての実験 本実施例において、リンクの値の更新処理を省略する
と、どの程度処理が高速化できるかを示す実験を行っ
た。 【0065】学習時間(学習回数ではない)について両
連想メモリを比較する。本連想メモリでは学習時に提示
パターンのエネルギー値を求め、それが零でなければ実
際にリンクの値を更新する。ここで最も計算コストの高
い浮動小数点の乗算の計算量で速度を考える。リンク一
本当たり、エネルギー値を更新するのに2回の乗算が必
要であり、リンクの値を更新するのに3回の乗算が必要
である。従って、リンクの値を更新する(更新しない)
場合には、本連想メモリの学習則ではリンク当たり5回
(2回)の乗算が必要である。これに対して、従来型の
連想メモリの学習則では常にリンク当たり3回の乗算が
必要である。リンクの値を更新しないのはδ=0である
ときである。本実験では(7)式の関数gを用いている
ので、学習パターンのエネルギー値Eが目標エネルギー
値Ethに近い場合には学習を行わない(|E−Eth
|が一定値以下では学習しない)。本実験の場合のリン
ク当たりの乗算回数のグラフを図19に示す。学習回数
が多い程、またノイズ量が少ない程、本連想メモリの学
習装置の方が従来型の学習装置よりも計算量が少なくて
済むことが図からわかる。 3.応用例 3.1 ワープロのかな漢字変換技術に適用した例 【0066】従来技術の項で述べたコネクショニストモ
デルを用いたかな漢字変換方式で用いる連想メモリのリ
ンクの値を、ユーザが作成した文章(同音語選択が終了
した文章)から、学習する方法について説明する。この
場合以下の手順に従って学習を行う。 1.ユーザの文章を段落に分ける。 2.各段落について従来技術の2で述べたように、パタ
ーンを作る。 3.上記でできたパターンを学習パターンとして、それ
ぞれ本学習装置にてリンクの値を学習する。 このようにして、リンクのWjiとノードの活性確率aj
とが求まる。 【0067】次にかな漢字変換を行う手順について説明
する。初期状態として、ノードの活性値Vj =aj とす
る。そして、図1のリンクの重み取出部107、活性確
率取出部104を介して、本リンク学習装置からかな漢
字変換装置にリンクの値と活性確率とをロードしてお
く。かな漢字変換時にシステムが提示した単語コードが
jである変換候補をユーザが選択キーを押すことにより
受理(次候補キーを押すことにより拒否)した時には、
(4)式で閾値Ij と小さな(大きな)値としてノード
jの活性値Vj を大きく(小さく)する。この後、
(4)式に従って活性値が変更するが、ここで本学習装
置で求めたリンクの値Wjiと活性確率aj とが用いられ
る。活性値の更新により活性値が伝播する(詳しくは従
来技術の1.コネクショニストモデルを用いたかな漢字
変換の例を参照)。そして、かな漢字変換する場合には
同音語の中で最も大きな活性値Vを対応するノードに持
つ語が、現在の話題に最も近いと考えて第一候補として
選択される。 3.2 自然言語翻訳における訳語選択に適用した例 第一言語(入力言語)から第二言語(出力言語)へ翻訳
する場合に、言語Aの単語の曖昧さを解消することが問
題となる。例えば、 "The boys hasten to the playground with bats, ball
s, and gloves."という英文には次のような多義語が含
まれており、 bat …野球のバット/動物のこおもり ball …野球のボール/舞踏会 glove …野球のグローブ/手袋 文法および品詞を解析しただけでは、日本語に適切に翻
訳できない。そこで、コネクショニストモデルによる認
識理解技術を用いて訳語選択を行う。 【0068】まず、第二言語(ここの説明では日本語)
における語もしくは句の意味素の近さを表現する図20
のようなネットワークを作成しておく。図20では関係
の近いものの間にはそれぞれ近さに応じて異なる正の値
のリンクが張られている。逆に関係が近くないものの間
には負の値のリンクが張られているが、図では省略して
ある。 【0069】このネットワークを作成するのに、リンク
学習装置を用いる。すなわちかな漢字変換技術への応用
で述べたように、第二言語の文例からパターンを段落ご
とに取り出し、それらのパターンについてネットワーク
のリンクの値を学習する。 【0070】次に訳語選択をする場合に、上記で求まっ
たリンクの値Wjiと活性確率aj で定められる人工的神
経回路網を用いる。まず、翻訳装置に、図1のリンクの
重み取出部107、活性確率取出部104を介して、リ
ンクの値と活性確率とをロードする。そして、各ノード
の活性値Vj の初期値をaj とする。ある文章が正しく
翻訳できた場合には、その翻訳文中に現れる語に対応す
るノードの閾値を下げて、そのノードの活性値を高め
る。そして、(4)式に従って各ノードの活性値を更新
していく。第一言語のある語を第二言語に翻訳する場合
に、文法的に不適切なものを除去した後にも、その語に
対応する第二言語の語が複数ある場合には、それらの語
の中で対応するノードの活性値Vが最も高い語を、現在
の話題に最も関係する語であると考えそれを選択する。 【0071】 【発明の効果】以上に説明したように、本発明によれ
ば、コネクショニストモデルに基づく認識理解で、パタ
ーンの出現頻度が偏っていたり、パターンの相関が偏っ
ていたりする場合にも適切に想起ができるようなリンク
重みを持った人工的神経回路網を作成することができ
る。
【図面の簡単な説明】 【図1】 本発明の一実施例に係わる人工的神経回路網
のリンクの学習装置の構成例を示す図。 【図2】 本発明の一実施例に係わる人工的神経回路網
のリンクの学習アルゴリズムを示すフロー図。 【図3】 連想メモリを用いたかな漢字変換方式の説明
図。 【図4】 人工的神経回路網の従来のリンクの学習装置
の構成例を示す図。 【図5】 人工的神経回路網の従来のリンクの学習アル
ゴリズムを示すフロー図。 【図6】 パターンの提示頻度に偏りのある場合のエネ
ルギー局面の模式図。 【図7】 パターンの相関に偏りがある場合のエネルギ
ー局面の模式図。 【図8】 関数gの性質を表す図。 【図9】 学習回数の想起能力との関係を表す図。 【図10】 リンク密度と想起能力との関係を表す図。 【図11】 ノイズと想起能力との関係を表す図。 【図12】 従来型連想メモリにける提示頻度とハミン
グ距離との関係を表す図。 【図13】 本実施例方式による連想メモリにおける提
示頻度とハミング距離との関係を表す図。 【図14】 本実施例による連想メモリにおける提示頻
度と学習量との関係を表す図。 【図15】 提示頻度と想起能力との関係を表す図。 【図16】 パターンの相関の有無と想起能力との関係
を示す図。 【図17】 従来型連想メモリにおけるパターンの相関
の有無とエネルギー値との関係を示す図。 【図18】 本実施例方式による連想メモリにおけるパ
ターンの相関の有無とエネルギー値との関係を示す図。 【図19】 学習回数と乗算回数との関係を示す図。 【図20】 本発明を自然言語翻訳に適用した例を示す
図。 【符号の説明】 101…パターン提示部、 102…活性確率更新
部、103…活性確率格納部、 104…活性確率取
出部、105…リンクの重み学習部、106…リンクの
重み格納部、107…リンクの重み取出部、108…初
期化指示部、109…エネルギー計算部、 110…学
習量δ算出部、111…基準エネルギー値記憶部
フロントページの続き (56)参考文献 西山清・他,「冗長なニューロンをも つHopfieldニューラルネットワ ークに基づく連想記憶モデル(II I)」,電子情報通信学会技術研究報 告,日本,社団法人電子情報通信学会, 1992年3月19日,Vol.91,No. 530(NC91−132〜164),pp.1− 8 鈴岡節,「連想メモリにおけるスパー スにエンコードさらたパターンの連想能 力についての一考察」,電子情報通信学 会技術研究報告,日本,社団法人電子情 報通信学会,1992年1月18日,Vol. 91,No.414(NC91−82〜97),p p.65−70 天野真家・他,「ニューラルネットワ ークを用いたかな漢字変換技術」,東芝 レビュー,日本,株式会社東芝,1990年 12月1日,Vol.45,No.12,p p.987−990 (58)調査した分野(Int.Cl.7,DB名) G06N 1/00 - 7/08 G06G 7/60 JSTファイル(JOIS) CSDB(日本国特許庁)

Claims (1)

  1. (57)【特許請求の範囲】 【請求項1】複数のノードがリンクで結合されノードの
    活性値をリンクの重みに基づいて伝搬させて連想を行う
    ための人工的神経回路網を備え、前記連想が適切に行わ
    れるよう前記リンクの重みを更新する人工的神経回路網
    のリンク学習装置において、各ノードに対応する活性値
    を学習すべきパターンとして入力する入力手段と、この
    入力手段により入力されたパターンの想起のされ易さの
    指標となるエネルギー値Eを計算するE計算手段と、 このE計算手段で計算されたエネルギー値Eと所定のエ
    ネルギー値Ethとの差を変数とし、かつ、この変数が
    0のとき値が0となる所定の単調増加関数に基づいて学
    習量を決定する学習量決定手段と、 前記入力手段により入力されたパターンに基づき、前記
    学習量決定手段により決定された学習量が大きければ大
    きくなるような所定関数でリンクの重みを更新する更新
    手段とを具備することを特徴とする人工的神経回路網の
    リンク学習装置。
JP17653692A 1992-07-03 1992-07-03 人工的神経回路網のリンク学習装置 Expired - Fee Related JP3364242B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP17653692A JP3364242B2 (ja) 1992-07-03 1992-07-03 人工的神経回路網のリンク学習装置
US08/085,050 US5524177A (en) 1992-07-03 1993-07-02 Learning of associative memory in form of neural network suitable for connectionist model

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17653692A JP3364242B2 (ja) 1992-07-03 1992-07-03 人工的神経回路網のリンク学習装置

Publications (2)

Publication Number Publication Date
JPH0619871A JPH0619871A (ja) 1994-01-28
JP3364242B2 true JP3364242B2 (ja) 2003-01-08

Family

ID=16015321

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17653692A Expired - Fee Related JP3364242B2 (ja) 1992-07-03 1992-07-03 人工的神経回路網のリンク学習装置

Country Status (2)

Country Link
US (1) US5524177A (ja)
JP (1) JP3364242B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103038766A (zh) * 2010-07-02 2013-04-10 柳濑隆敏 逻辑运算系统

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6978274B1 (en) * 2001-08-31 2005-12-20 Attenex Corporation System and method for dynamically evaluating latent concepts in unstructured documents
US6778995B1 (en) 2001-08-31 2004-08-17 Attenex Corporation System and method for efficiently generating cluster groupings in a multi-dimensional concept space
US6888548B1 (en) * 2001-08-31 2005-05-03 Attenex Corporation System and method for generating a visualized data representation preserving independent variable geometric relationships
US7577631B2 (en) * 2001-09-10 2009-08-18 Feldhake Michael J Cognitive image filtering
US7271804B2 (en) * 2002-02-25 2007-09-18 Attenex Corporation System and method for arranging concept clusters in thematic relationships in a two-dimensional visual display area
CA2536864C (en) * 2002-08-29 2014-01-28 Paul Rudolf Associative memory device and method based on wave propagation
US20050171948A1 (en) * 2002-12-11 2005-08-04 Knight William C. System and method for identifying critical features in an ordered scale space within a multi-dimensional feature space
US7610313B2 (en) * 2003-07-25 2009-10-27 Attenex Corporation System and method for performing efficient document scoring and clustering
US7191175B2 (en) 2004-02-13 2007-03-13 Attenex Corporation System and method for arranging concept clusters in thematic neighborhood relationships in a two-dimensional visual display space
US7404151B2 (en) * 2005-01-26 2008-07-22 Attenex Corporation System and method for providing a dynamic user interface for a dense three-dimensional scene
US7356777B2 (en) 2005-01-26 2008-04-08 Attenex Corporation System and method for providing a dynamic user interface for a dense three-dimensional scene
US20100241698A1 (en) * 2009-03-18 2010-09-23 Talk3, Inc. Methods and systems for auto-generating models of networks for network management purposes
US8635223B2 (en) 2009-07-28 2014-01-21 Fti Consulting, Inc. System and method for providing a classification suggestion for electronically stored information
CA3026879A1 (en) 2009-08-24 2011-03-10 Nuix North America, Inc. Generating a reference set for use during document review
AU2017274558B2 (en) 2016-06-02 2021-11-11 Nuix North America Inc. Analyzing clusters of coded documents
JP6776165B2 (ja) 2017-03-28 2020-10-28 富士フイルム株式会社 積層フィルムの製造方法および積層フィルム製造装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4660166A (en) * 1985-01-22 1987-04-21 Bell Telephone Laboratories, Incorporated Electronic network for collective decision based on large number of connections between signals
US4874963A (en) * 1988-02-11 1989-10-17 Bell Communications Research, Inc. Neuromorphic learning networks
US5050095A (en) * 1988-05-31 1991-09-17 Honeywell Inc. Neural network auto-associative memory with two rules for varying the weights
JP2783597B2 (ja) * 1989-06-20 1998-08-06 株式会社東芝 仮名漢字変換装置
US5086479A (en) * 1989-06-30 1992-02-04 Hitachi, Ltd. Information processing system using neural network learning function
US5253328A (en) * 1989-11-17 1993-10-12 Microelectronics & Computer Technology Corp. Neural-network content-addressable memory
JPH03179560A (ja) * 1989-12-08 1991-08-05 Toshiba Corp 言語処理方法
JP2760145B2 (ja) * 1990-09-26 1998-05-28 三菱電機株式会社 知識情報処理装置
US5150450A (en) * 1990-10-01 1992-09-22 The United States Of America As Represented By The Secretary Of The Navy Method and circuits for neuron perturbation in artificial neural network memory modification

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
天野真家・他,「ニューラルネットワークを用いたかな漢字変換技術」,東芝レビュー,日本,株式会社東芝,1990年12月1日,Vol.45,No.12,pp.987−990
西山清・他,「冗長なニューロンをもつHopfieldニューラルネットワークに基づく連想記憶モデル(III)」,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,1992年3月19日,Vol.91,No.530(NC91−132〜164),pp.1−8
鈴岡節,「連想メモリにおけるスパースにエンコードさらたパターンの連想能力についての一考察」,電子情報通信学会技術研究報告,日本,社団法人電子情報通信学会,1992年1月18日,Vol.91,No.414(NC91−82〜97),pp.65−70

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103038766A (zh) * 2010-07-02 2013-04-10 柳濑隆敏 逻辑运算系统
CN103038766B (zh) * 2010-07-02 2014-07-23 柳濑隆敏 逻辑运算系统

Also Published As

Publication number Publication date
US5524177A (en) 1996-06-04
JPH0619871A (ja) 1994-01-28

Similar Documents

Publication Publication Date Title
JP3364242B2 (ja) 人工的神経回路網のリンク学習装置
CN111368996B (zh) 可传递自然语言表示的重新训练投影网络
CN109783817B (zh) 一种基于深度强化学习的文本语义相似计算模型
Peng et al. Combining naive Bayes and n-gram language models for text classification
Kirby Spontaneous evolution of linguistic structure-an iterated learning model of the emergence of regularity and irregularity
CN102640089B (zh) 电子设备的文本输入系统及文本输入方法
JP4514082B2 (ja) テキストの分類およびテキスト分類器を構築するための方法ならびに装置
CN113268995B (zh) 中文学术关键词抽取方法、装置和存储介质
CN107832306A (zh) 一种基于Doc2vec的相似实体挖掘方法
CN110413768B (zh) 一种文章题目自动生成方法
CN113392209B (zh) 一种基于人工智能的文本聚类方法、相关设备及存储介质
KR102217248B1 (ko) 텍스트 문서 요약을 위한 자질 추출 및 학습 방법
CN111460158B (zh) 一种基于情感分析的微博话题公众情感预测方法
CN112185361B (zh) 一种语音识别模型训练方法、装置、电子设备及存储介质
CN117349275B (zh) 一种基于大语言模型的文本结构化方法和系统
CN114429132A (zh) 一种基于混合格自注意力网络的命名实体识别方法和装置
CN113239666A (zh) 一种文本相似度计算方法及系统
CN109815497B (zh) 基于句法依存的人物属性抽取方法
Mathur et al. A scaled‐down neural conversational model for chatbots
CN113806543A (zh) 一种基于残差跳跃连接的门控循环单元的文本分类方法
KR102280494B1 (ko) 상호연관성 기반 우선순위로 정렬된 전문분야 인터넷 검색 서비스 제공 방법
CN112100342A (zh) 一种基于知识表示学习技术的知识图谱问答方法
Chowdhury et al. A continuous space neural language model for bengali language
Naulla et al. Predicting the Next Word of a Sinhala Word Series Using Recurrent Neural Networks
CN114722206A (zh) 一种基于关键词筛选和注意力机制的极短文本分类方法

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081025

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081025

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091025

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees