JPH02501167A - pattern recognition device - Google Patents

pattern recognition device

Info

Publication number
JPH02501167A
JPH02501167A JP63507221A JP50722188A JPH02501167A JP H02501167 A JPH02501167 A JP H02501167A JP 63507221 A JP63507221 A JP 63507221A JP 50722188 A JP50722188 A JP 50722188A JP H02501167 A JPH02501167 A JP H02501167A
Authority
JP
Japan
Prior art keywords
vector
input
output
pattern recognition
array
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63507221A
Other languages
Japanese (ja)
Inventor
タツトテルサル,グラハム・ダビツド
Original Assignee
ブリテツシユ・テレコミユニケイシヨンズ・パブリツク・リミテツド・カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ブリテツシユ・テレコミユニケイシヨンズ・パブリツク・リミテツド・カンパニー filed Critical ブリテツシユ・テレコミユニケイシヨンズ・パブリツク・リミテツド・カンパニー
Publication of JPH02501167A publication Critical patent/JPH02501167A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/16Speech classification or search using artificial neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/192Recognition using electronic means using simultaneous comparisons or correlations of the image signals with a plurality of references
    • G06V30/194References adjustable by an adaptive method, e.g. learning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Neurology (AREA)
  • Image Analysis (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

PCT No. PCT/GB88/00710 Sec. 371 Date May 9, 1989 Sec. 102(e) Date May 9, 1989 PCT Filed Aug. 26, 1988 PCT Pub. No. WO89/02134 PCT Pub. Date Mar. 9, 1989.A temporal sequence of signal vectors X (e.g., generated from a speech signal) is supplied in parallel to elements in an array each of which (after training of the array) provide an output eta indicating the vector's similarity to a reference vector. Persistence is built into the elements so that signals forming a "trajectory" within the array, corresponding to an input sequence are simultaneously available for recognition (preferably by a further such array). Arrays may be cascaded to allow for longer sequences.

Description

【発明の詳細な説明】 パターン認識装置 この発明はパターン認識の方法及び装置に関するもので、特に排他的ではないス ピーチ認識に関するものである。[Detailed description of the invention] pattern recognition device The present invention relates to a pattern recognition method and apparatus, and particularly, but not exclusively, to pattern recognition methods and apparatus. It is about peach recognition.

この発明は、特定のパターンを認識するように入力ベクトルの時系列に特に関係 する。The invention is specifically concerned with the time series of input vectors to recognize specific patterns. do.

この明細書に於いて、「N次元ベクトル」はN値のグループから成り、各位は前 記ベクトルのそれぞれの次元に関連している。前記値は、アナログ信号またはデ ジタルによって表すことができる。このようなベクトルは、例えば前記値の二乗 和の平方根によって明らかにされ得る大きさを有し、N次元空間の方向もまたそ うである。この明細書中では、簡明にするため、スカラー41(Nを除く)は低 い活字ケースによって表し、ベクトル量は高い活字ケースによって表す。In this specification, an "N-dimensional vector" consists of a group of N values, each of which is is associated with each dimension of the vector. The value may be an analog signal or a digital signal. It can be expressed by digital. Such a vector is, for example, the square of the value It has a magnitude that can be revealed by the square root of the sum, and the direction of N-dimensional space is also that It's good. In this specification, for the sake of brevity, the scalar 41 (excluding N) Vector quantities are represented by high type cases.

このタイプのベクトルは、人間のスピーチの分析から特に引出すことができる。Vectors of this type can be specifically derived from analysis of human speech.

故に、スピーチの響きの連続を表すアナログ信号は規則正しくサンプルされ、各 サンプルの内容は、例えばサンプル内のそれぞれの周波数の振幅に関連する特徴 値のセットから成るベクトルによって表すことができる。Therefore, an analog signal representing a sequence of speech sounds is sampled regularly, and each The content of the sample is e.g. the characteristics related to the amplitude of each frequency within the sample. It can be represented by a vector consisting of a set of values.

Proceddings of’ the 5ixth Internatio nal Conf’erenceon Pattern Recognitio n、 1982年lO月、 114−128頁、のTKohonenによる“C lustering、 Taxonomy、 and Topological Maps of Patterns″と称される論文に、経験上のデータの統計 的表示のためのアプローチが詳述されている。入力データのセット(ベクトル) は、二次元アレイの形成として考えられる多くの処理ユニットの各々に並列に連 続的に供給されるもので、各ユニットは特定の入力ベクトルとそのユニットに関 連した内部ベクトル間の整合度に特有の信号出力を生成する。適合原則は、入力 データの当計的表示を形成する、入力ベクトルの連続が、前記内部ベクトルの変 化を生じるために明らかにされる。これは、 (1) 基準ベクトルが入力(例えば最小ユークリッド間隔)に最も類似したユ ニットを確認し、(2) このユニットの回りの、前記アレイ内の近隣を明らか にし、 (3) この近隣に属するそれらのユニットの内部ベクトルを変化させ、変化の 方向はそれらの内部ベクトルの類似が増加されるようなもの によって(各入力ベクトルのために)働く。Proceedings of’ the 5ixth International nal Conf’erence Pattern Recognition “C Lustering, Taxonomy, and Topological A paper called ``Maps of Patterns'' contains statistics on empirical data. The approach for visual representation is detailed. Set of input data (vector) is connected in parallel to each of many processing units, which can be thought of as forming a two-dimensional array. each unit has a specific input vector associated with that unit. A signal output is generated that is specific to the degree of consistency between successive internal vectors. The conformity principle is input The sequence of input vectors forming an arbitrary representation of the data is a variation of said internal vector. revealed in order to cause a change. this is, (1) The reference vector is the unit most similar to the input (for example, minimum Euclidean interval) (2) identify the neighbors in said array around this unit; west, (3) Change the internal vectors of those units belonging to this neighborhood, and The directions are such that the similarity of their internal vectors is increased (for each input vector).

この「自己組織」プロセスを続行するように、前記近隣のサイズは段々に減少さ れるもので、調整の大きさもまた減少する。このプロセスの結びで、前記アレイ 内部ベクトルは前記二次元空間上の入力ベクトル空間のマツピングを明らかにす る。Kohoncnは、(通過を含むそれらを除くために選択された)確かな静 止した最後の母音音素の手動選択されたスピーチサンプルを使用するアレイのよ うに養成し、前記入力ベクトルは各々15のスペクトル値から成り、且つ前記二 次元アレイ空間に前記音素をマツプされることを見出される。To continue this “self-organization” process, the size of the neighborhood is gradually reduced. The magnitude of the adjustment is also reduced. At the conclusion of this process, the array The internal vectors reveal the mapping of the input vector space on the two-dimensional space. Ru. Kohoncn (selected to exclude those containing passages) such as an array using manually selected speech samples of the last vowel phoneme that stopped. the input vectors each consist of 15 spectral values, and the input vectors each consist of 15 spectral values; It is found that the phonemes are mapped into a dimensional array space.

したがって、この発明の目的は、 入力信号ベクトルの時系列を受信するための入力と、複数の基準ベクトルを記憶 するための記憶手段と、現在の同一の入力ベクトルを受信するため及び前記入力 ベクトルと前記基準ベクトルのそれぞれとの間の類似度を表示する出力信号を発 生するため動作中に配列された複数の類似した比較要素と、 各要素のために、その基準ベクトルと少なくとも直前の入力ベクトルの間を比較 した結果その要素によって生成される前記出力信号に依存して修正された出力を 生成する手段と、 前記入力ベクトル及び基準ベクトル間の比較的高い類似を表示する前記修正され た出力により表されるパターンと基準情報とを、前記時系列によって表されるノ くターンを確認するための認識手段と を具備するパターン認識装置を提供することである。Therefore, the purpose of this invention is to Input for receiving time series of input signal vectors and storing multiple reference vectors storage means for receiving the same current input vector and for receiving said input vector; emitting an output signal indicating the degree of similarity between the vector and each of said reference vectors; a plurality of similar comparison elements arranged during operation to generate For each element, compare between its reference vector and at least the previous input vector output modified depending on the output signal produced by that element as a result of a means of generating; the modified vector displaying a relatively high similarity between the input vector and the reference vector; The pattern represented by the output and the reference information are combined into the node represented by the time series. recognition means to confirm the turn An object of the present invention is to provide a pattern recognition device comprising:

これは、各基準ベクトルのために発生された出力信号に於ける持続性の確信した 度数を組入れることによって比較的容易に決定されるべく入力ベクトルの連続に 関連した「最も類似した基準ベクトル」を通過するバスを可能にする。故に、何 れの一様なサンプリング周期で、最も類似した基準ベクトルが変化しても、十分 な大きさの出力信号は他の基準ベクトルの少なくとも1つで前述の入力ベクトル の比較の結果としても発生される。This ensures the continuity of the output signal generated for each reference vector. to the sequence of input vectors to be determined relatively easily by incorporating the frequency. Allow buses to pass through the associated "most similar reference vector". Therefore, what With this uniform sampling period, even if the most similar reference vector changes, The output signal of magnitude is at least one of the other reference vectors and the input vector It is also generated as a result of a comparison.

原則に於いて、前記認識手段が入力ベクトルの連続に導く刺激のために同一性を 発生した前記出力信号からの決定に対する在来のパターン認識を使用することが できても、それはそれぞれ記憶された基準ベクトルを有するこのような比較要素 の少なくとも1つの更なるアレイを更に備える装置が好ましいものであり、その 要素の各々は、その基準ベクトルと前記出力のグループ間の類似の出力信号表示 を発生するように前述のアレイの修正した(または更に修正した)出力のそれぞ れのグループを受信するために接続される。In principle, the recognition means determines identity for stimuli leading to a succession of input vectors. Conventional pattern recognition may be used to determine from said output signal generated. Even if it is possible, it is possible to compare elements like this each with a memorized reference vector. Preferred is a device further comprising at least one further array of Each of the elements has a similar output signal representation between its reference vector and the group of said outputs. Each of the modified (or further modified) outputs of the above array to produce connected to receive this group.

好ましくは、高いアレイのまたはそのうちの1つの各基準ベクトルに関連した出 力信号のグループは、1つのアレイの前記基準ベクトルの配置に関連した前述の アレイに於ける配置の中心におかれた前述のアレイの配置によって発生された出 力信号から引出される。Preferably, the output associated with each reference vector of or one of the high arrays is The group of force signals is determined by the aforementioned The output generated by the above arrangement of arrays centered on the arrangement in the array. derived from the force signal.

多層の更なる生成方法に於いて、前記出力信号は前述のアレイに供給する信号の グループを修正するようにフィードバックされるアレイの少なくとも1つによっ て発生する。このタイプのフィードバックは、(単語、成句等のようなスピーチ 認識の場合に於いて)高級なグラマーで反応するための方法を可能にする。例え ば、前記フィードバック信号は、前述のアレイに対して前記入力信号と連鎖状に 繋ぎ得る。In a further method of producing a multilayer, said output signal is one of the signals feeding said array. by at least one of the arrays that is fed back to modify the group. occurs. This type of feedback can be used in speech (such as words, phrases, etc.) (in cases of recognition) allows a way to respond with high glamour. example For example, said feedback signal is concatenated with said input signal to said array. Can be connected.

これらは、前記アレイ内の位置が入力ベクトルの大きさで変化する前記最も類似 した基準ベクトルに関連されると、入力ベクトルの連続のその後の認識に於いて 無視できない複雑なものである。これは、前記ベクトルの大きさが受信した音の 強度に関連されるので、スピーチ認識の場合に於ける無視できない問題が生じる 。これに対し、同じ音素が騒々しく、または静かにされると、これは配置された 「最も類似した基準ベクトル」と異なる結果になる。この順番手段は、複合のパ ターン認識システムが、同じ音素のために発生される異なった入力ベクトルの広 い変化に対抗するために含まれなければならない。These are the most similar vectors whose position in the array varies with the magnitude of the input vector. in the subsequent recognition of the sequence of input vectors. It is too complex to ignore. This means that the magnitude of the vector is As intensity is related, a non-negligible problem arises in the case of speech recognition. . In contrast, when the same phoneme is made loud or quiet, this The result is different from the "most similar reference vector". This ordering method is A turn recognition system can handle a wide range of different input vectors generated for the same phoneme. must be included in order to resist severe change.

周知の方法の重要な改善は、前記基準ベクトルのアレイ内の位置が、前記入力ベ クトルの大きさで変化しない前記入力ベクトルに対して最も類似であるというこ のような状態に於ける前記入力ベクトルと前記基準ベクトルを比較することによ って達成することができる。スピーチの場合に於いて、こ好ましい方法に於いて 、比較工程は前記入力ベクトルと基準ベクトルの二重乗積に関連した関数を決定 する工程から成る。この場合に於いて、基準及び入力ベクトルの1つ(好ましく は基準ベクトル)または両方が、標準化される。An important improvement of the known method is that the position in the array of said reference vectors is It means that the vector is most similar to the input vector that does not change with the size of the vector. By comparing the input vector and the reference vector in a state such as can be achieved. In the case of speeches, in this preferred manner , the comparison step determines a function related to the double product of the input vector and the reference vector. It consists of the process of In this case, one of the reference and input vectors (preferably is the reference vector) or both are standardized.

これは、アレイの最大刺激が相対刺激が振幅でない音のタイプに単に依存するた め、前記入力ベクトルとして同じ方向に最も接近する基準(または重み)ベクト ルの要素から到達するという重要さを有する。しかしながら、刺激の絶対的大き さは、前記入力ベクトルXの大きさに依存し、同様にこの配列はその刺激の強度 によって最大刺激と音の大きさの位置によるコード化音タイプの所望の特性を供 給する。This is because the maximum stimulus of the array simply depends on the type of sound whose relative stimulus is not the amplitude. Therefore, the closest reference (or weight) vector in the same direction as the input vector is It has the importance of being reached from the elements of the file. However, the absolute magnitude of the stimulus The magnitude depends on the magnitude of the input vector provides the desired characteristics of the sound type encoded by the location of the maximum stimulus and loudness. supply.

前記二重乗積関数の修正された形態に於いて、前記比較工程は、前記関数、 を決定する工程から成り、 ここでmは−より大きい数でζXは前記入力ベクトルの大きさであり、θは前記 入力と基準ベクトル間の角度である。この場合、前記基準ベクトルは大きさ−で ある。In a modified form of the double product function, the comparing step includes: It consists of the process of determining Here, m is a number larger than -, ζX is the size of the input vector, and θ is the size of the input vector. It is the angle between the input and the reference vector. In this case, the reference vector is of magnitude − be.

前記装置は、基準ベクトルの幾何学アレイを含んでいるものとして概念的に詳述 してきたが、実際問題として、幾何学法に於いて必要ではない基準ベクトルの物 理的配置は、妨何学形態中へ在来の手法に於いてマツプされる。The apparatus is conceptually detailed as including a geometric array of reference vectors. However, as a practical matter, there are some reference vectors that are not necessary in the geometric method. The physical configuration is mapped into the sabotage configuration in a conventional manner.

用語「アレイ」は、これらの物理的配置よりもむしろ要素間の接続の用語に於い て理解される。The term "array" refers to the connections between elements rather than their physical arrangement. It is understood that

この発明に従った装置の幾つかの例は、添付の図面を参照して詳述される。Some examples of devices according to the invention will be described in detail with reference to the accompanying drawings.

第1図はこの発明に従った認識装置の第1の実施例の概略図、 第2図は持続性を伴った前記装置で使用される神経細胞の原理を示した図、 第3図は前記装置の単一アレイ上の代表的な軌道を示した図、 第4A及び4B図はそれぞれソフト及びハードウィンドウの形態を示した図、 第5図はスタックされたアレイの実施例を概略的に示した図、 第6図は第5図の隣接アレイ間の配置された内部接続の概略を示した図、 第7図はアレイ間グラマー達成のために2つの補助光線中に分配されたアレイの 例を示した図、 第8図はアレイ間グラマーを達成するアレイの第2の例を示した図、 第9図は内部層グラマーの原理を示した図、第10頭は前記装置の特定のハード ウェアの例を示した図、第11及び第12頭は第10図の配列で使用する神経細 胞要素の混成の実施態様を示した図、 第13図は神経細胞要素の純粋なアナログ実施態様を示した図である。FIG. 1 is a schematic diagram of a first embodiment of a recognition device according to the present invention; Figure 2 is a diagram showing the principle of neurons used in the device with persistence; FIG. 3 shows a typical trajectory on a single array of the device; Figures 4A and 4B are diagrams showing the forms of soft and hard windows, respectively; FIG. 5 schematically shows an embodiment of a stacked array; FIG. 6 is a diagram schematically showing the internal connections arranged between adjacent arrays of FIG. 5; Figure 7 shows an array distributed into two auxiliary beams to achieve inter-array grammar. A diagram showing an example, FIG. 8 is a diagram showing a second example of an array that achieves inter-array grammar; Figure 9 is a diagram showing the principle of internal layer grammar, and Figure 10 is a diagram showing the specific hardware of the device. Figure 11 and 12 are nerve cells used in the arrangement shown in Figure 10. A diagram showing an embodiment of hybridization of cell elements, FIG. 13 shows a pure analogue embodiment of the neuronal element.

第1図に示される装置は、フロント−エンドスピーチ処理ユニット100を有し ている。例えば、入力スピーチ信号Sは10m5の間のフレーム中に分割される もので、各フレームはそのフレームの特性を表す複数のパラメータを発生するた めに分析される。ある便利な分量は、前記スピーチの総スペクトル内部の連続的 な周波数帯域のエネルギー量であり、バンドパスフィルタのバンクによって一様 に、または転送技術によって容易に発生することができる。このような一般の特 徴抽出及び特定のスペクトル分析は、スピーチ処理及び認識のための技術が知ら れており、ここで更に詳述すべきものではない。The apparatus shown in FIG. 1 has a front-end speech processing unit 100. ing. For example, the input speech signal S is divided into frames of 10 m5 Each frame generates multiple parameters that represent the characteristics of that frame. be analyzed. One convenient quantification is the continuum within the total spectrum of said speech. It is the amount of energy in a frequency band that is uniform depending on the bank of bandpass filters. or can be easily generated by transfer techniques. Such general characteristics Feature extraction and specific spectral analysis are well-known techniques for speech processing and recognition. It is not necessary to elaborate further here.

前記処理ユニットの出力は、N個の信号のグループ(ここではアナログ形態とす べく仮定する)から成り、ベクトルX−(Xl、X2.・・・XNIによって記 される。通常、Nは16または32とし得る。前記ベクトルXは、ベクトルの時 系列のスピーチ形態の連続的なフレームのために発生される。The output of said processing unit is a group of N signals (here in analog form). ), and is written by the vector X-(Xl, be done. Typically, N may be 16 or 32. When the vector X is a vector Generated for consecutive frames of a sequence of speech forms.

前記装置の他の目的は、この系列のパターン(及びこの音素、単語、その他)を 確認するためのものである。例えそれがスピーチの文脈に於いて詳述されていて も、ベクトルの他の時系列のパターンの認識もまた可能であるということが識別 される。前記装置はまた、二次元アレイを制限する要素若しくはユニット101 を有する。前記アレイの入力は、アレイの全ての要素に同時に供給される。各要 素はアナログ出力の信号(スカラー)を有し、それは特定の要素を記す指数であ るη、によって記される。一般に、ηは、2つのベクトル間の類似の度を表示す るためのような、その要素に関連して入力ベクトルX及び重みベクトルW、−( W+、、 W、□、・・・WtN)の幾つかの関数である。Another purpose of said device is to analyze this sequence of patterns (and this phoneme, word, etc.) This is for confirmation. Even if it is detailed in the context of a speech It has been identified that recognition of patterns in other time series of vectors is also possible. be done. The device also includes elements or units 101 that limit the two-dimensional array. has. The inputs of the array are applied to all elements of the array simultaneously. Each key point The element has an analog output signal (scalar), which is an index that describes the particular element. is written by η. In general, η represents the degree of similarity between two vectors. The input vector X and the weight vector W, −( W+, , W, □, ... WtN).

好ましくは、この関数は二重乗積であり、すなわちここで点(、)はベクトル二 重乗積を示すために使用され、そしてスカラー量の積を表示するために星(★) が使用される。この関数は、第2図に示される形態の要素によって実現され得る もので、ここで増幅器AAは記憶された重みwl(例え特定の要素が前記重みを 調整するために必要とされるベく入組んでも)の逆数に相応した重み抵抗R3の 値に於ける電流の和に比例した出力電圧を形成する。第2図に示されるような素 子は、生化学システムを伴う類比によってしばしば神経細胞と称されるもので、 この用語はこの説明で使用される。Preferably, this function is a double product, i.e., where the points (,) are vector squares. A star (★) is used to indicate a multiplicative product, and a star (★) to display the product of scalar quantities. is used. This function can be realized by elements of the form shown in FIG. , where amplifier AA uses stored weights wl (for example, if a particular element of the weight resistance R3 corresponding to the reciprocal of Forms an output voltage proportional to the sum of the currents at the value. The element shown in Figure 2 The child is what is often called a nerve cell by analogy with a biochemical system, This term is used in this description.

前記アレイがスピーチデータの特性を考えるために、補助コンピュータ104が 提供されるもので、それは前記神経細胞の出力η謀にアクセスすると共に、これ らの重みベクトルW、を変化させるために可能なものである。トレーニングの間 、スピーチが入力プロセッサに与えられると共に前記アレイに供給された各ベク トルXがこのように処理される。In order for the array to consider the characteristics of the speech data, the auxiliary computer 104 provided that it has access to the neuron's output η and this This is possible in order to change the weight vector W of during training , speech is provided to an input processor and each vector provided to said array is The torque X is processed in this way.

(a) 前記コンピュータが最大出力の前記神経細胞を識別するために前記アレ イを走査し、 (b) この出力及び存在する重みベクトルW1から、前記アレイに於けるそれ に隣接する識別された神経細胞及びそれらの重みベクトルを作成するべく調整を 計算する。(a) The computer uses the array to identify the neuron with maximum output. Scan the (b) From this output and the existing weight vector W1, that in the array adjusted to create identified neurons adjacent to and their weight vectors. calculate.

特に、このようなトレーニングは、以下の形態で得てもよい。In particular, such training may be obtained in the following forms:

(a) 最初に、ランダムな値に前記重みベクトルW1を設定し、 (b) 各神経細胞の回りのアレイの近隣を明らかにする。前記近隣−それは円 筒、平面、六辺形、その他でも良く一問題の神経細胞及び近隣の多数の神経細胞 を含み、 (C) 前記入力からベクトルXを得る。各神経細胞は出力η、を生成し、 (d) 例えば前記神経細胞出力を走査することによって一前記最大出力(「最 も刺激された」神経細胞)を伴った神経細胞を明らかにし、 (e) 以下のアルゴリズムを使用する最も刺激された神経細胞の中心におかれ た近隣内にある全ての神経細胞の重みベクトルを修正し Wl ’ −Wl ” +に*X ここでW、0+1は新しい重みであり、W、″は前の重みであり、kは適合比を 決定する利得関数であり、W−′は前記計算の中間の項を簡単にしたものであり 、(e)は更にベクトルXのためのステップc、d及びeを繰返す。(a) First, set the weight vector W1 to a random value, (b) Revealing the neighborhood of the array around each neuron. Said neighborhood - it's a circle A cylinder, a plane, a hexagon, or any other shape may be used for one neuron and many nearby neurons. including; (C) Obtain vector X from the input. Each neuron produces an output η, (d) For example, by scanning the neuron output, one of the maximum outputs (“maximum ``Nerve cells that were also stimulated'' (e) Placed in the center of the most stimulated neuron using the following algorithm: Modify the weight vectors of all neurons in the neighborhood of Wl ’  −Wl ” +*X Here, W,0+1 is the new weight, W,″ is the previous weight, and k is the matching ratio. is the gain function to be determined, and W−′ is a simplified intermediate term in the above calculation. , (e) further repeat steps c, d and e for vector X.

このプロセスの修正は、あらゆる神経細胞を包囲する近隣内部に神経細胞に対す る修正を供給することによって、最も刺激された神経細胞を明快に確認する必要 性を避けるが、近隣を明らかにする神経細胞の出力−例えばハイパワーmに高め た出力−の非直線関数に従って調整量を変化する。Modification of this process is necessary for neurons within the surrounding neighborhood of every neuron. It is necessary to clearly identify the most stimulated neurons by providing corrections that Neuronal output that avoids sex but reveals neighborhoods - e.g. increased to high power m The amount of adjustment is changed according to a non-linear function of the output −.

故に、η、′−η1′のとき神経細胞jの近隣内部にあるそれに結果として生じ る神経細胞iの調整は、Wl ’ −Wl ” +に★ηj′ ★Xで表される 。混乱を避けるために、記号の肩文字は連続した値を意味する表示としてここで 明らかにされ(すなわちw”−”はW″の前の値である)、ここではパワーを高 める量を意味し、これは特に符号で示される。Therefore, when η,′−η1′, the resultant The adjustment of neuron i to . To avoid confusion, the superscripts of symbols are used here to indicate consecutive values. (i.e. w”−” is the previous value of W”), and here we increase the power. This means the amount by which the quantity is measured, which is specifically indicated by a sign.

Kohonen’s workとして、レート定数には前記近隣を明らかにする 神経細胞から問題の神経細胞の間隔の関数とすることができ、それはトレーニン グ向上として前記近隣のサイズを減少するために好ましいものである。As Kohonen's work, we clarify the neighborhood in the rate constant. It can be a function of the spacing of the neuron in question from the neuron, and it is It is preferable to reduce the size of the neighborhood as a buffering improvement.

−に対する重みベクトルの大きさの標準化はこのプロセスの重要なステップであ り、他の重みベクトルの大きさは不確定に上昇、または(実際問題として)飽和 する傾向があることが注意される。しかしながら、標準化もまた別の目的を供給 する。前記二重乗積W、、Xは次のように書くことができる。Standardizing the size of the weight vector for − is an important step in this process. , the magnitude of the other weight vectors increases indefinitely, or (as a practical matter) saturates. It should be noted that there is a tendency to However, standardization also serves another purpose. do. The double product W,,X can be written as follows.

IW、1★IXI★eOsθ ここでθはN次元空間に於ける2つのベクトル間の角度である。Wiが−の大き さに対して標準化されると、771 −IXI★cosθ を有する。これは入力と重みベクトルの類似を表示する項(COSθ)との積で あり、これらの絶対等級に関係なく、項(IXI)は入力振幅を表す。神経細胞 のアレイの出力がこれらの相対値を考慮することによって説明されると、その結 果IXIが全ての神経細胞のために同じである故に前記入力信号振幅から独立し たものとなる。IW, 1★IXI★eOsθ Here, θ is the angle between two vectors in N-dimensional space. Wi is - large When normalized to has. This is the product of the input and the term (COSθ) that indicates the similarity of the weight vectors. , and the term (IXI) represents the input amplitude, regardless of their absolute magnitude. Nerve cell When the output of the array of is explained by considering these relative values, the result is Since the output IXI is the same for all neurons, it is independent of the input signal amplitude. It becomes something.

前記アレイが連続的にトレーニングしていた後、前記アレイは響きの質の項に於 いて整列され、前記アレイによる入力信号ベクトルの調整法は、入力ベクトルと 相応する重みベクトル間の類似で変化する刺激度の出力信号を発生する各神経細 胞に於いて結果として生じる。何れの与えられた入力ベクトルのために、神経細 胞の小さいグループのみは何れの重要な大きさの出力信号を発生し、これらはア レイ内に一緒のグループとされる。前記アレイが上から視認されることができ、 且つ神経細胞の出力が可変強度の光として見えると、単−人力ベクトルの適用は グループにされた神経細胞要素からの出力信号によって形成されたアレイの一部 分の明るい「ブラソフ」が生じ、このブラソフの位置は入力ベクトルによって表 される響きのタイプの特性となる。After the array has been continuously training, the array has been trained in terms of sound quality. and the method for adjusting the input signal vector by the array is such that the input vector and Each neuron generates an output signal of stimulation intensity that varies with the similarity between the corresponding weight vectors. Result in cells. For any given input vector, the neural Only small groups of cells produce output signals of any significant magnitude, and these They are considered to be the same group within the lei. the array can be viewed from above; Moreover, if the output of neurons is seen as light with variable intensity, the application of a single human power vector becomes Part of an array formed by output signals from grouped neuronal elements A bright “vrasov” of minutes occurs, and the position of this vrasov is represented by the input vector. It is a characteristic of the type of sound being played.

更に、与えられた入力ベクトル用の「最も刺激された神経細胞」のアレイの位置 間の関係は、それらの入力ベクトルの「パターン」空間に於ける相対位置に幾何 学的に(おそらくは意外に)マツプする傾向がある(それはN次元知覚空間に於 いてで、ここでNは前記入力データの「固有の次元」である)。例えば、母音は 2次元空間によって良好に表されるべく思われ、従ってスピーチデータのこれら のタイプは2の固有の次元を有して、2次元神経細胞アレイ上に良好にマツプさ れる。Furthermore, the position of the array of "most stimulated neurons" for a given input vector The relationship between scientifically (perhaps surprisingly) there is a tendency to map (where N is the "unique dimension" of the input data). For example, the vowel seems to be better represented by a two-dimensional space, and therefore these parts of the speech data type has two intrinsic dimensions and maps well onto a two-dimensional neuronal array. It will be done.

前記アレイに於ける神経細胞の物理的位置は重要ではない一トレーニングされて いないアレイに於いて、前記神経細胞は区別のつかないものである一二とが注意 される。「位置」は、「近隣の」神経細胞の定義によってのみ意味深長になる。The physical location of neurons in the array is not important; Note that the neurons are indistinguishable in the array without be done. ``Position'' becomes meaningful only by the definition of ``neighboring'' neurons.

認識装置はトレーニング用、または再トレーニング用補助コンピュータを含んで もよいが、別の機械によって既に覚えた重みで装填されることができれば、この ようなコンピュータを欠いてもよい。The recognition device may include an auxiliary computer for training or retraining. , but if it can be loaded with the already memorized weight by another machine, then this May lack such a computer.

極限に渡って生成されたスピーチの響きの本質は、瞬時には変化しない。したが って、数ミリ秒(例えば16ミリ秒)の間隔で得られる連続的なスピーチサンプ ルを表すベクトルは、非常に小さいものとなり、そのとき小量のみによる位置を 変化するために高出力「ブラッグ」を生じる傾向のあるアレイ1に供給される。The essence of the sound of speech produced over extreme conditions does not change instantaneously. However, Therefore, continuous speech samples obtained at intervals of a few milliseconds (for example, 16 milliseconds) The vector representing the point will be very small, then the position will be determined by only a small amount. It is fed to the array 1 which tends to produce high power "Bragg" due to variations.

この結果、完全な発話を表す入力ベクトルの列の適用が、前記発話の特性とされ るアレイの軌跡に沿って移動するためにブラッグを生じることになる。このよう な軌跡の例は、第5図のアレイ1に於ける「ブラッグ」の列によって示される。As a result, the application of a sequence of input vectors representing a complete utterance is taken as a characteristic of said utterance. Bragg occurs because the array moves along the trajectory of the array. like this An example of a trajectory is shown by the "Bragg" column in array 1 of FIG.

連続的な軌跡を得るため、これらが表すスピーチパラメータの変化の割合と比較 してオーバーサンプリングを表す割合で前記ベクトルが発生されるということが 所望のものとなる。To obtain continuous trajectories, compare the rate of change in the speech parameters that these represent. The vector is generated at a rate representing oversampling. It becomes what you want.

わち割合の変化)とは無関係であり、且つ在来のパターン認識技術は最初の発話 の本質の軌跡から決定するために使用することができる(例え軌跡に沿った強度 側面が時間の歪み及び騒々しさに関連されても)。第1図はこのような認識ユニ ット110を示す。(i.e., changes in proportion), and conventional pattern recognition techniques can be used to determine from the trajectory the essence of (for example the intensity along the trajectory Even though the aspects are related to time distortion and noise). Figure 1 shows such a recognition unit. A cut 110 is shown.

Kohonenのそれのような、前記アレイは、しばしば「ファイアリング」と 称される高出力神経細胞の明確な連続物のみ生成する現在まで述べた。しかしな がら、ファイアリングの項の使用が閾値プロセスを必ずしも意味しないことが注 意される。Such arrays, such as that of Kohonen, are often referred to as "firing" To date, only a distinct continuum of high-output neurons, called neurotransmitters, have been generated. However However, it is important to note that the use of firing terms does not necessarily imply a threshold process. intended.

多くの連続的な入力ベクトルに払われるべくファイアリングは共存せず、前記軌 跡はかつて総括して明らかなものではない。しかしながら、前記軌跡が使用すべ きでないとすると、時間の単一の瞬時を総括して明らかにすべきものである。前 記システムが連続的なスピーチに於いて得られると、ファイアリングの軌跡はス ピーチが続けてきた間のものであり、長さに於いてついには無限になる。明らか に、それは全体の任意な長い軌跡を保持するために不適当になり、且つ前記認識 プロセスに対して入力するそれを作成し、軌跡は第3図に示されるようにその最 も最近のセグメントのみ通過する時間に於いてウィンドウを介して視認される。Firing does not coexist as it is applied to many consecutive input vectors, and the trajectory The traces are not entirely clear. However, if the trajectory is If this is not the case, then a single moment in time should be clarified as a whole. Before When this system is obtained in continuous speech, the trajectory of the firing is It is what Peach has been doing, and it will eventually become infinite in length. clear , it becomes unsuitable to hold the entire arbitrarily long trajectory, and the recognition Create it as an input to the process and the trajectory will be its maximum as shown in Figure 3. Also, only recent segments are visible through the window at the time they pass.

このウィンドウを生成する事項を訴えること及び時間の単一の瞬時で明らかな軌 跡の完全な部分を同時に作成することは、各神経細胞中に持続性を築くためのも のであり、すなわち一度神経細胞が入力によって刺激され、それは入力が除かれ た後に等しい崩壊する大きさの出力を生成するために継続する。一般に、前記関 数は経時的に単調に零に接近する指数、直線、または他のどの関数でもよい。前 記崩壊が指数であれば、前記システムは第4図に示されるように「ソフトウィン ドウ」 (第5図のハードウィンドウと比較)を使用する。It is important to note that this window produces issues and obvious trajectories at a single instant in time. Creating complete parts of the trace at the same time also helps build persistence in each neuron. i.e. once a neuron is stimulated by an input, it After that continue to produce an output of equal decay magnitude. Generally, the The number may be an exponential, linear, or any other function that approaches zero monotonically over time. Before If the decay is exponential, then the system will have a “soft win” as shown in (Compare with the hard window in Figure 5).

持続性関数は、以下の方法に於いて明らかにされる。The persistence function is revealed in the following way.

e、 ’ am 5 、 ”−1★β+η1゜ここでe、Mはn lkサンプル 時間でのiIh神経細胞の刺激であり、βは崩壊の一定の効果的な時間を決定す る。これは、神経細胞出力と認識ユニット110間のR−C積分器115の存在 によって第2図に表示される。ある実験では、0.99の持続性関数のβ及び約 1秒の一定の崩壊時間を産する100Sのサンプリング周期を使用する。e, ’ am 5, ”-1★β+η1゜Here, e and M are nlk samples iIh neuron stimulation in hours, β determines the constant effective time of decay. Ru. This is due to the presence of the R-C integrator 115 between the neuron output and the recognition unit 110. is shown in Figure 2. In one experiment, a persistence function β of 0.99 and approximately A sampling period of 100S is used, yielding a constant decay time of 1 second.

例え第1図に示された配列が全く可能なものであっても、認識を達成するための 好ましい方法は、第5図の例によって示されるように、複数のアレイを提供する ためのものであり、pの第2の居2は第1の層1に連続して配列される。神経細 胞アレイのスタックに隠れた概念は第2の層に対するための入力としてそこの層 上に生成された軌跡を使用するためのものであり、それ故、神経細胞の小さいグ ループまたは公正なそれに関連することのできることを短くされる高い層上の軌 跡を発生する単語または同等の単語の系列にまで、スタックの層を介してその中 に、より圧縮された軌跡を生成する。最終の認識ステージ110′は、最大出力 を有する神経細胞の1つまたは小さく配置されたグループを明らかにするために 容易に与える。この神経細胞は、適切な発話で明快に分類することができる。Even if the arrangement shown in Figure 1 is entirely possible, the A preferred method provides multiple arrays, as illustrated by the example in FIG. The second layer 2 of p is arranged continuously in the first layer 1. nervous system The concept behind the stack of cell arrays is to use that layer as input for the second layer. is intended to use the trajectories generated above and therefore for small groups of neurons. A trajectory on a high layer shortened by a loop or something that can just be related to it. Traces occur through the layers of the stack until a word or series of equivalent words occurs within it. Then, a more compressed trajectory is generated. The final recognition stage 110' has a maximum output to reveal one or small arranged group of neurons with Give easily. These neurons can be clearly classified with appropriate speech.

それは、次のアレイの神経細胞に対して1つのアレイ上の軌跡のウィンドウされ た部分を表すための略図を工夫するために必要である。It is a window of trajectories on one array to neurons on the next array. It is necessary to devise a schematic diagram to represent the parts.

1つの明らかな解釈は、1つの層のあらゆる神経細胞の出力から非常に大きなベ クトルを作成すると共に、次の層のあらゆる神経細胞に対する入力として去れを 表すべくものである。One obvious interpretation is that the output of every neuron in one layer yields a very large base. In addition to creating a vector, it also serves as an input to every neuron in the next layer. It is meant to represent.

しかしながら、内部層接続のため、この配列は2つのカウント上で不適切なもの である。第1に、これらはPinに於いて何方もの神経細胞とし得るもので、次 元の層n+1神経細胞に対する入力ベクトルに与えられる上昇は、何方ものもの となる−これは10億の内部層接続の回りに要求し、それは物理的に容易には可 能とならない。However, due to internal layer connections, this arrangement is incorrect on two counts. It is. First, these can be any number of neurons in the Pin; The increase given to the input vector to the original layer n+1 neurons is - this requires around 1 billion internal layer connections, which is not easily physically possible. It doesn't become Noh.

この略図を避けるための第2の理由は、全体の居から分割されたファイアリング パターンの固有の次元が2つ以上となるべく殆ど確かなものであり、故に2つの 次元を有するのみの次の層の上の整理された手法でそれらにマツプするために不 可能なものとなる、ということである。The second reason to avoid this schematic is to separate the firing ring from the overall housing. It is almost certain that the pattern has two or more unique dimensions, so the two In order to map to them in an organized manner on the next layer only with dimensions This means that it becomes possible.

これらの問題を避ける解釈が第6図に示される。ここに、座標(x、y)を有し て層3の神経細胞に対する入力ベクトルが、同じ座標(x、y)を有する中心の 小さい円内に位置する層4の環状の範囲は非常に小さいものであり、そして層3 のアレイは球状の入力ベクトルを有するアレイと同様の方法のトレーニング後に 整理されるが、球状よりむしろ局部となる整理は除く。An interpretation that avoids these problems is shown in FIG. Here we have the coordinates (x, y) In this case, the input vector to the neurons in layer 3 is The annular extent of layer 4 located within the small circle is very small, and layer 3 After training the array in a similar way to the array with spherical input vectors organized, except for those that are localized rather than spherical.

この接続計略は、多数の内部接続の問題に打ち勝つものである。層3が前述の層 の100の神経細胞出力に接続されるその各々の10,000の神経細胞を含む と、106内部接続が必要になる。This connection strategy overcomes the problem of multiple internal connections. Layer 3 is the layer mentioned above. containing 10,000 neurons each connected to 100 neuronal outputs of , 106 internal connections are required.

開発された神経細胞アレイは、各要素中に築かれた崩壊される持続性を好ましく 有し、これは前記アレイ上に部分的に「抑圧」されるべく刺激された要素の軌跡 を生じ、時間のある瞬時で、前記軌跡の最も最近刺激された要素が最も刺激され 、軌跡に沿った全ての他の要素は強度が減少するが刺激される。故に、詳述され たシステムは、神経細胞アレイの要素刺激の単一パターンに、可変の時間歪みを 伴うプロセスを表すパターンベクトルの系列を転送するために可能なものである 。この単一パターンは、前記アレイに沿った刺激強度側面が無視されると、無関 係な時間歪みとなる。The developed neuronal array favors the collapse persistence built into each element. This is the trajectory of the stimulated element to be partially "suppressed" on the array. occurs, and at some instant in time the most recently stimulated element of said trajectory is the most stimulated. , all other elements along the trajectory are stimulated with decreasing intensity. Therefore, detailed The system applies a variable time distortion to a single pattern of elemental stimulation of a neuronal array. It is possible to transfer a sequence of pattern vectors representing the process involved. . This single pattern becomes irrelevant when stimulus intensity aspects along the array are ignored. This results in serious time distortion.

例えば、前記アレイの刺激のパターンは、多くの他の方法に於けるベクトルとし て表すことができるが、幾つかの固定した数である2のアレイに於ける最も強度 が刺激された要素の座標2となった要素のベクトルとし得る。故に1つの層の神 経細胞要素に対する入力の別の方法は、以下のように、前の層の出力から分割さ れ得る。For example, the pattern of stimuli in the array can be used as a vector in many other ways. can be expressed as the most intense in the array of some fixed number 2 can be the vector of the element whose coordinate 2 is the stimulated element. Therefore one layer of God Another way of input to the transcellular element is to divide it from the output of the previous layer, as follows: It can be done.

低い層の全ての神経細胞の出力は、出力を生成する前記低い層の刺激された要素 の軌跡の経路に略位置するそれらの要素のみ、このような値を有する閾値が定め られる。二者択一的に、非直線の別の形態は、低い層の全ての要素の出力に作用 するために作成される。例えば、各要素の出力はパワーmに上昇することができ るもので、ここでmは1以上である。The output of every neuron in the lower layer is the stimulated element of said lower layer that produces the output A threshold having such a value is defined only for those elements that are approximately located in the path of the trajectory of It will be done. Alternatively, another form of non-linearity acts on the outputs of all elements of the lower layer. created to do. For example, the output of each element can rise to power m where m is 1 or more.

要素出力の非直線の際立ったこのタイプは、軌跡の近くに位置せず、軌跡の付近 に位置する要素間の刺激の差異の強調の結果を有する。This type of pronounced non-linearity of the element output is not located near the trajectory, but near the trajectory. has the result of emphasizing the stimulus differences between elements located in .

いま、2つのアレイでの認識の要求された持続性を考える。Now consider the required persistence of recognition in two arrays.

時間定数が長いと、例えば数秒であれば、第1の層軌跡は数個の単語で取扱う。If the time constant is long, for example a few seconds, the first layer trajectory will be treated with a few words.

適度の大きさの用語数から得られる一様な2.3の単語の許可し得る順列の数は 莫大なものとなり、これらは巨大な数の異なった軌跡になり、その各々は次の層 に於ける別個の神経細胞の強いファイアリングを生じるために必要となる。次の 層に於ける要求される多くの神経細胞は、人為的にまたは生化学上の何れかが実 現できないものとなる。The number of permutations of uniform 2.3 words obtained from a moderately large number of terms is huge, and these become a huge number of different trajectories, each of which leads to the next layer. is required to produce strong firing of distinct neurons in the . next The large number of neurons required in the layer is produced either artificially or biochemically. It becomes something that cannot be expressed.

もう一方の極端で、前記時間定数が、第1の層に於ける最後の神経細胞のファイ アリングのみ保持されたのが非常に短いために作成されると、第2の層に於ける 軌跡の無圧縮は、前記第1の層がファイアリングされた神経細胞座標−1:1再 情報化−の系列としてスピーチ入力ベクトルの系列を単に記録したこことによっ て可能になる。At the other extreme, the time constant is In the second layer only the ring was created for a very short time. Uncompression of the trajectory is based on the firing neuron coordinates of the first layer - 1:1 reconstitution. By simply recording the sequence of speech input vectors as an information sequence, It becomes possible.

時間定数の実際的な選択は、約200m5で出会う最も短い単語の長さと殆ど同 じとなるべく思われる。この選択の結果は、前記最も゛短い単語がゼロレングス に近い第2の層上の軌跡を生じる、すなわち神経細胞のただ1つの小さいグルー プがファイアリングすることによって、前記軌跡を生成することである。明らか に、二者択一的な方法は、前記第2の層に於ける神経細胞の入力中に持続性を築 くためのものとなる。A practical choice of time constant is approximately the length of the shortest word encountered at about 200 m5. It seems to be the same. The result of this selection is that the shortest word is zero length. resulting in a trajectory on the second layer close to , i.e. only one small group of neurons The purpose is to generate the trajectory by firing the tap. clear An alternative method is to build persistence during neuronal input in the second layer. It becomes something to save.

これらが3つの層であれば、それは第1の層のそれらに表すよりも長い持続性の 第2の層の出力中に築くために便利なものである。If these are three layers, it represents a longer-lasting effect on those of the first layer. This is useful for building during the output of the second layer.

更なる実施例に於いて、グラマーの確かな概念は前記システムの中に築かれる。In a further embodiment, a solid concept of grammar is built into the system.

これを達成するために工夫する1つの方法は、幾つかの軌跡が他より発生するた めにより好ましいことを認識し、故に前記層内の交差結合によるそれらの好まし い軌跡の方へ前記軌跡を片寄らせる。2つの部分の中に第5図の少なくとも第1 の層1を分離する。第1の部分5(第7図)は持続性を伴ったまさに標準的なア レイであるので、n′にのサンプルのときにこのシステムに於けるilb神経細 胞の出力はe 、 ″となる。One way to devise to achieve this is because some trajectories occur more than others. We recognize that these are more favorable due to cross-linking within said layers and therefore The locus is shifted toward a higher locus. At least the first part of FIG. Separate layer 1 of. The first part 5 (Figure 7) is just a standard application with persistence. ray, the ilb neural cell in this system when sampled at n′. The output of the cell is e, ″.

eIt′−η1°+el’−’★β・・・付加されるノード9のアレイが重みづ けされた出力el、。eIt'-η1°+el'-'★β...The array of nodes 9 to be added is weighted. output el, .

に伴って各神経細胞のためのe、を総計し、このアレイの神経細胞の出力は、全 部の神経細胞を与えるために前のアレイに於ける神経細胞の近隣内のqの神経細 胞の第2の部分6の中にα、、の因数を記憶することによって(マルチプライヤ 7に於ける)重み後与えられるもので、 e、’nの刺激は次のようになる。e for each neuron, and the output of the neurons in this array is the total q neurons within the neighborhood of neurons in the previous array to give the neurons of the By storing the factors of α, , in the second part 6 of the cell (multiplier 7) is given after the weight, The stimuli for e and 'n are as follows.

ここで、e I、 lはqの近隣神経細胞の1つjtbの刺激である。Here, e I, l is the stimulation of jtb, one of the neighboring neurons of q.

因数α2.、は、前記アレイに於ける好ましい経路に沿った発話軌跡を案内する 傾向があるグラマー重みから成り、これらの経路は在来のスピーチに於いて予想 されたそれらである。Factor α2. , guides the utterance trajectory along a preferred path in the array. These paths consist of grammar weights that tend to be These are the ones that were made.

故にこれは、聞き手の変化または背景雑音により依存しない経路の形状を作成す る。概念的に、前記第1の部分は、前記第2の部分6が「神経節」神経細胞のア レイとなるべく考えることができる一方、「接受体神経細胞」の幾何学的に順序 付けられたアレイとなるべく考えることができる。第2の部分6が標準の感覚で 順序付けられるものではないということが注意されるべきものである。第7図に 於いて注意されるのは、eI、″が、e、、n−1よりむしろ使用されることで ある。This therefore creates a path shape that is less dependent on listener changes or background noise. Ru. Conceptually, the first part 6 is a "ganglion" nerve cell. While it can be thought of as a ray, the geometrical order of "receptor neurons" You can think of it as an attached array. The second part 6 is standard sense. It should be noted that they are not ordered. In Figure 7 It is noted that eI,'' is used rather than e, , n-1. be.

これが実際問題として可能かどうかは、システムの遅延に依存される。Whether this is possible in practice depends on the latency of the system.

この配置の利益は、初期のグラマーを覚えるためのシステムを可能にする助力を することである。The benefit of this arrangement is that it allows an aiding system for remembering early grammar. It is to be.

前記システムは以下のように動作する。αを全ての重みのモーメント用に仮定す ると、神経節と接受体間は零になる。The system operates as follows. Assuming α for all weight moments Then, the distance between the ganglion and the receptor becomes zero.

接受体アレイ5の刺激の共通の系列は、神経細胞R2(Rは接受体、Gは神経節 を記す)によって従う神経細胞R1である。接受体アレイのR2によって従った R1の刺激は神経節アレイ6のノードG1及びG2の刺激を生じる。接受体アレ イ5に対して第2の入カバターンは、神経細胞R4がR2の代わりにファイアリ ングされるような幾つかの方法で転化されると、神経節アレイのノードG2は相 応じて刺激される。A common sequence of stimulation of the receptor array 5 is the neuron R2 (R is the receptor, G is the ganglion). ) is the neuron R1. followed by R2 of the receptor array Stimulation of R1 results in stimulation of nodes G1 and G2 of ganglion array 6. Receptor area The second input pattern for A5 is that neuron R4 is used as a fiery cell instead of R2. When transformed in some way, such as by stimulated accordingly.

故にシステムは、入カバターンの転化または雑音に反抗するために無力なもので ある。Therefore, the system is powerless to resist incoming turn conversion or noise. be.

いま、α、5□が最大値とする。Now, it is assumed that α and 5□ are the maximum values.

第2の転化された入カバターンがいま接受体アレイ5に供給されるとき何かが生 じると考えると、それは神経節アレイ6のノードG4を刺激する傾向のある神経 細胞R4を刺激する。しかしながら、前の刺激された接受体神経細胞R1は持続 性に払うべく尚も刺激され、且つ刺激されるべくそれが生じる神経細胞G2に対 してG1,2を経て強い信号が送られる。Something happens when the second converted input cover turn is now fed into the receptor array 5. Considering that it is the nerve that tends to innervate node G4 of ganglion array 6, Stimulate cell R4. However, the previously stimulated receptor neuron R1 persists To the nerve cell G2 that is still stimulated to be sexually active and which is generated in order to be stimulated. Then, a strong signal is sent via G1 and G2.

故に神経節層に於ける刺激の全部の系列は、入力が転化されたが一様なG2によ って従ったG1の方へ向かう。Therefore, the entire sequence of stimuli in the ganglionic layer is caused by a transformed but uniform G2 input. So I headed towards G1, who was following me.

神経節接続重みに対する接受体は、パターン系列の大きな数の適用から覚えられ る。代表的な知識アルゴリズムは次のようにすることができる。The acceptors for the ganglion connection weights can be memorized from the application of a large number of pattern sequences. Ru. A typical knowledge algorithm can be as follows.

α+ 、 r ’ −α+ 、 r ’−1★7十に2★e Ie*e +、  4 n−’ここで、 nはサンプル時間指数、 γは忘却関数、 R2は知識関数、 e、及びe、1上に明らかにされたものである。α+, r’-α+, r’-1★70 to 2★e Ie*e+, 4 n-' where, n is the sample time index, γ is the forgetting function, R2 is the knowledge function, e, and e,1 as revealed above.

これは、重みベクトルW、を処理する同じ補助コンピュータ、及び同様の手法に より、満たすことができる。This applies to the same auxiliary computer processing the weight vector W, and a similar approach. can be more fulfilled.

前記システム中のグラマーを導くための手段を伴った二者択一的な実施例は、第 8図に概略的に示される。この場合、各アレイの神経細胞1+ Jはこれらの周 囲の近隣を伴った重みG1.8、G3.1によって結合される。値αを適切に設 定することによって、特定の層内の軌跡は、神経細胞の適度な刺激が次の入力ベ クトルを処理するとき、それらの信号に応じる近隣の神経細胞に対する大きな重 みを有する神経の内部接続を経て供給するべく大きな刺激信号が生じるので、選 択的な道が結果として起こる。An alternative embodiment with means for guiding the grammar in said system is as follows: This is shown schematically in FIG. In this case, neurons 1+J in each array are are combined by weights G1.8, G3.1 with surrounding neighbors. Set the value α appropriately. By determining the trajectory within a particular layer, a moderate stimulation of a neuron can be When processing signals, there is a great deal of weight placed on neighboring neurons that respond to those signals. The selection of An alternative path results.

このシステムのための代表的な知識アルゴリズムを示す。A representative knowledge algorithm for this system is shown.

α17″+1−G1.′★γ+に2★w、、x’−’★w、、xkここで、γ、 R2は前述の通りであり、nは重み関数αの更新率であり、モしてkは入力ベク トルXの更新率である。α17″+1−G1.’★γ+2★w,,x’−’★w,,xkHere, γ, R2 is as described above, n is the update rate of the weighting function α, and k is the input vector This is the update rate of torque X.

多くの場合、第1の層の発話によって生成された軌跡は、実質上連続的なものに なる。しかしながら、全ての軌跡は充分に連続的なものではなく、その代わりと して分離された相対的に短いセグメントの連続から成る。例えば、これは、母音 −停止子音−母音(V、−CV2)発話をそれが受けるように第1の層に於いて 発生してもよい。In many cases, the trajectories produced by first layer utterances are essentially continuous. Become. However, not all trajectories are fully continuous; instead, consists of a series of relatively short segments separated by For example, this is the vowel - stop consonant - vowel (V, -CV2) in the first layer so that it receives the utterance May occur.

これらは、無音の定義による一様な停止の間神経細胞ファイアリングにならない 。停止の何れかの側の2つの母音は、一般に音声架上調整できず、それ故、これ らが発生する軌跡は前記アレイ上に隣接しない。にもかかわらず、特定の言語に 於ける許可し得るVl−C−V2系列は制限され、(Vl−C)に関連した軌跡 の発生が、(C−V2)用の軌跡上に位置すると共に、他の神経細胞のグループ より刺激されるべく、より適切なそれらを作成する神経細胞を「第1」に使用さ れる、というようなこの強制を利己的に利用するために望ましいものである。These do not result in neuronal firing during uniform cessation by the definition of silence. . The two vowels on either side of the stop are generally not phonetically adjustable, so this The trajectories in which they occur are not adjacent on the array. However, in certain languages The permissible Vl-C-V2 sequence in is restricted, and the trajectory associated with (Vl-C) The occurrence of is located on the trajectory for (C-V2) and other neuronal groups The nerve cells that make them more suitable to be stimulated are used “first”. It is desirable to take advantage of this coercion for selfish purposes, such as being forced to do so.

概略は第9図に示され、高い層9の球状のファイアリングパターンが、通常の入 力ベクトルに沿って層8に対する入力ベクトルとしてフィードバックされると共 に表される。前記概略は、以下の方法の(V+ C)及び(CV2)の軌跡上で 動作する。前記層8上のV、−C軌跡の発生は、前方の内部層接続に払うべく層 9の上で発生するために圧縮された軌跡を生じる。この圧縮された軌跡はベクト ルFに於いて符号化されるもので、Fは層8の入力に対して遅延を伴うフィード バックであり、(X:F)−Qの層9に全部の入力を形成するために、通常の入 力ベクトルXに追加されるものである。第9図に於いて、遅延10はシステムの 分離要素として示されるが、実際には神経細胞アレイ自体の絶対的となるべく予 想される。フィードバック遅延がVlとV2間の停止時間じ時間で層8の入力に 対して実際に受ける。層8の自己組織が現実のフィードバック経路の場所を得る とすれば、その存在ハ発生すれるべく(C−V2)の軌跡を生じるために必要な 入力成分になるべきで、すなわち、実質のないフィードバックベクトルを伴った 入力ベクトルXは、現実のフィードバックベクトルによって追加される実質のな い入力ベクトルになるような、(CV2)の不十分な刺激のみ生じる。しかしな がら、現実のフィードバックF及び入力Xの接合発生は、C−V2軌跡の高い刺 激を生じるべきであり、故にこれはトレーニングされてきたシステムの入力とな る。The schematic is shown in Figure 9, where the spherical firing pattern of the tall layer 9 is along the force vector as an input vector to layer 8. is expressed in The above outline is based on the trajectory of (V+C) and (CV2) in the following method. Operate. The generation of V, -C trajectories on the layer 8 is caused by layer 9, resulting in a compressed trajectory. This compressed trajectory is a vector F is encoded in layer F, where F is a feed with delay for the input of layer 8. back and form all the inputs in layer 9 of (X:F)-Q. It is added to the force vector X. In Figure 9, the delay 10 is the system Although shown as a separate element, it is actually an absolute and predetermined component of the neuronal array itself. It is thought of. A feedback delay is applied to the input of layer 8 at the same time as the stop time between Vl and V2. actually receive it. Layer 8 Self-Organization Takes Place in Real Feedback Pathways Then, its existence is necessary to cause the trajectory (C-V2) to occur. should be the input component, i.e. with a feedback vector without substance. The input vector Only insufficient stimulation of (CV2) results in a negative input vector. However However, in reality, the occurrence of junction between feedback F and input Therefore, this should be the input of the system that has been trained. Ru.

特定の単語の認識が、予想された次の単語に関連した初期の響きを認識するため にこの低い層を前もって処置する、という結果をこのフィードバックも有する。Because recognition of a particular word recognizes the initial sound associated with the expected next word. This feedback also has the effect of pre-treating this lower layer.

不完全な認識を助成するためのこの傾向の意図は、入カバターンを明らかにする 。The intention of this trend to promote incomplete recognition reveals the input pattern .

理想的なシステムでは、各層からの出力は、あらゆる前の層に対する入力として フィードバックされる。しかしながら、実際問題としてこれは、各神経細胞に対 する全体として取扱いにくい多数の接続及び入力に導く。この理想的な配置の接 近を達成するため、好ましい例に於いて、前述の第1の各層からの各出力信号の 全てまたは一部分は、高い層の出力が前の層全てに対する入力を間接的に影響を 受けるために、前述の層に戻される。In an ideal system, the output from each layer would serve as input to every previous layer. Feedback will be given. However, in reality, this does not apply to each neuron. This leads to a large number of connections and inputs that are overall unwieldy. This ideal arrangement In order to achieve closeness, in a preferred example, each output signal from each of the first layers described above is In whole or in part, the output of a higher layer indirectly influences the input to all previous layers. It is returned to the aforementioned layer for receiving.

前記システムの動作は、認識される単語の高い層及び認識される音素の低い層を 考慮することによって理解することができる。特定の単語は、単語の層に於いて 丁度認識されてきたと言える。この情報は、フィードバックされると共に、到来 される次の単語の音素に相応したパターンとして同時間で音素の層に前記入力の 部分が形成される。The operation of the system consists of a high layer of recognized words and a low layer of recognized phonemes. It can be understood by considering. Certain words are It can be said that it has been properly recognized. This information is fed back and At the same time, the input is added to the phoneme layer as a pattern corresponding to the phoneme of the next word. parts are formed.

前記音素の層は、フィードバックパターンに入カバターンを加えた組合わせでト レーニングされ、且つ第2の単語の音素に関連した音素アレイ神経細胞の十分な 刺激を生じるために必要なものである。The phoneme layer is a combination of a feedback pattern and an introductory pattern. sufficient of the phoneme array neurons trained and associated with the second word phoneme. It is necessary to produce a stimulus.

いま、第2の単語が重々しく転化されるか、または前記音素の層に対する入力と して達してさえいないことを仮定する。Now, the second word is heavily inverted or input to said phoneme layer. Assume that you have not even reached it.

この層は、前記単語の層から戻るパターンからの部分的な入力を更に受けると共 に、それが達成されたならば第2の単語に於ける音素の連続によって十分に刺激 されてくる神経細胞を刺激する傾向にある。故に、現存しない、または転化され た第2の単語を表す不十分な刺激が発生される。何かの知識を使用するエラー補 正のこの形態は、不十分に明らかにされたパターンの認識を助成するパターンの 系列に於いて好ましく生ぜられる。This layer further receives partial input from the pattern returning from the word layer and Once this has been achieved, the sequence of phonemes in the second word will be sufficiently stimulated. It tends to stimulate the nerve cells that are exposed to the body. Therefore, it does not exist or has been transformed. An insufficient stimulus representing the second word is generated. Error correction using knowledge of something This form of positive recognition of patterns aids in the recognition of poorly revealed patterns. Preferably occurs in series.

これらの方法は、パラレルプロセスアレイを使用することによって除外するスピ ーチ認識のようなプロセス用のリアルタイムに於いて満たすことができない。These methods eliminate speeds by using parallel process arrays. cannot be satisfied in real time for processes such as process recognition.

第10図は、m神経細胞または計算要素N1を有する神経細胞アレイ構造のアー キテクチャを示し、その各々はそれぞれの局部RAM20に関連したものである 。各RA Mは、連合した神経細胞要素のためのシナプスの重みを記憶する。FIG. 10 shows the architecture of a neuron array structure having m neurons or computational elements N1. architecture, each associated with a respective local RAM 20. . Each RAM stores synaptic weights for associated neuronal elements.

第10図に示される配置は、次のアレイの各神経細胞要素に供給するべ(1つの アレイの各神経細胞要素からの出力信号を可能にすることが注意されるべきであ る。The arrangement shown in FIG. It should be noted that allowing the output signal from each neuronal element of the array Ru.

第10図で、前のアレイ22及び次のアレイ23の一部が示されると同時に、1 つのアレイ21が十分に示される。In FIG. 10, a portion of the previous array 22 and the next array 23 are shown, as well as one Two arrays 21 are fully shown.

システム作用がどのようなものであるかを説明する前に、層21の要求された出 力を明らかにする。Before explaining what the system operation is, let's take a look at the required outputs of layer 21. Reveal power.

ここでXは層24以下からの入力ベクトル(または第1の層用の、前記入力ベク トル)であり、y、は層23より上からのフィードバックベクトルであり、モし てβ、Wl、及びC1rは、局部RA Mにそれぞれ含まれる持続性重みとフィ ードフォワード及びフィードバックシナプスの重みである。Here, X is the input vector from layer 24 and below (or the input vector for the first layer) ), y is the feedback vector from above layer 23, and y is the feedback vector from above layer 23, Then, β, Wl, and C1r are the persistent weights and fields included in the local RA M, respectively. is the weight of forward and feedback synapses.

前記システムの動作は、以下のようになる。N1からNff1までの神経細胞は 、神経細胞要素(図示せず)のそれぞれのアキュームレータに記憶されるこれら のそれぞれの出力η、°−1からη、°−1の計算を丁度終えたものとし、スイ ッチS2が位置して設定されるものとする。スイッチS31からSgmは、前記 神経細胞出力が層21の出力バス24の記憶要素(T)中に装填されるため、位 置aに設定される。同時に、スイッチS11からSea+は、各神経細胞の出力 η1°−1が持続性経路25に沿ってその入力に接続され、且つ前記アキューム レータが明らかにされるために、位置すに設定される。このとき、神経細胞の全 てはこれらの出力の第1の成分−すなわち持続性項一の計算を開始し、それは神 経細胞N、用のそれはη n−1★βである。故に神経細胞は、それぞれのアキ ュームレータに記憶される上式の第1項を丁度算出する。βは各神経細胞に関連 したRAM20から得られる。The operation of the system is as follows. Neurons from N1 to Nff1 are , these are stored in respective accumulators of neuronal elements (not shown). Assume that you have just finished calculating the respective outputs η,°−1 to η,°−1, and switch It is assumed that the switch S2 is located and set. The switches S31 to Sgm are Since the neuron output is loaded into the storage element (T) of the output bus 24 of the layer 21, the position It is set to position a. At the same time, switches S11 to Sea+ switch the output of each neuron. η1°−1 is connected to its input along a persistent path 25, and said accumulation is set to position for the rater to be revealed. At this time, all of the neurons Then we start computing the first component of these outputs - the persistence term one, which is That for transneumnium N, is ηn-1★β. Therefore, each nerve cell The first term of the above equation, which is stored in the numulator, is just calculated. β is associated with each neuron obtained from the RAM 20.

適切なシナプスの重みW1□からWm、が各神経細胞の局部RA M得られる一 方、層22のフィードフォワードバスに記憶される第1の値x1が同時に層21 の全ての神経細胞の入力に供給されるように、全てのアレイのスイッチS31か らSl、、、は、いま位置すに移動すると共にスイッチSttからSl、が位置 aにスイッチされる。(同時に、層21のフィードフォードバスの第1の値は、 アレイのスタックを介して、層23等の神経細胞の入力に供給される)。Appropriate synaptic weights W1□ to Wm can be obtained from the local RAM of each neuron. On the other hand, the first value x1 stored in the feedforward bus of layer 22 is simultaneously transferred to layer 21. switch S31 of all arrays so that the inputs of all neurons in , Sl, , , move to the current position, and switch Sl is moved from Stt to the current position. is switched to a. (At the same time, the first value of the feedford bus in layer 21 is via a stack of arrays to the neuronal inputs such as layer 23).

この点で、各神経細胞の次の成分が前記神経細胞の内部に計算され、それはXl 、Wllであり、且つ前記アキュームレータの内容に付加される。At this point, the next component of each neuron is calculated inside said neuron, which is Xl , Wll, and is appended to the contents of the accumulator.

前記アレイからの次の値x2が次のアレイの全ての神経細胞に供給され、且つ次 の一部分の出力X2.W1□が各神経細胞のアキュームレータに於ける前の一部 分の出力に計算されて付加されるために、各アレイのフィードフォワードバス2 4け、1つの場所に沿って「クロック」される。このプロセス、シ4.0り記フ ィードフォワードバスが完全に循環されてくるまで継続される。The next value x2 from said array is supplied to all neurons of the next array, and The output of a portion of X2. W1□ is the front part of each neuron's accumulator feedforward bus 2 of each array to be calculated and added to the output of 4, "clocked" along one location. This process This continues until the feedforward bus is completely cycled.

次に、スイッチS2が位置aに移動されて前記プロセスが入力として返されるy lからy、で繰返される。これらは、フィードバック経路26に沿った高い層の 出力バスからフィードバックする値である。Then switch S2 is moved to position a and said process is returned as input y Iterated from l to y. These are the higher layers along the feedback path 26. This is the value fed back from the output bus.

このプロセスの完了で、各神経細胞はアキュームレータに記憶された新規出力値 ηl″を計算し、全体のプロセスをやり直す。Upon completion of this process, each neuron has a new output value stored in the accumulator. Calculate ηl″ and start the whole process again.

各アレイの出力バス24に連続する非直線プロセッサ27は任意のものである。The non-linear processor 27 that follows the output bus 24 of each array is optional.

仮に含むものであれば、その機能は前記バスに記憶される値の閾値を定めるだめ のもの、またはパワーを高めるものである。If included, the function would be to establish a threshold for the values stored on said bus. something that enhances or enhances power.

第10図に示されるシステムは、例えば8ビツトワードによって表される全ての シナプスの重みでデジタルに実現することができ、且つ神経細胞出力及び入力信 号もまた8ビツトワードによって表される。前記出力バス、フィードバック経路 及び持続性経路のデータの循環は、各神経細胞に関連したハードウェアの量を最 小限にするために全て連続的に行われ、また内部接続の数も神経細胞間で導く。The system shown in FIG. 10 uses, for example, all It can be realized digitally using synaptic weights, and neuron output and input signals can be realized digitally. The number is also represented by an 8-bit word. The output bus, feedback path and circulation of persistent pathway data to minimize the amount of hardware associated with each neuron. Everything is done sequentially to minimize the number of internal connections between neurons.

故に、出力バス24に於ける各記憶要素Tは、8ビツト5ISOシフトレジスタ から成る。Therefore, each storage element T on output bus 24 is an 8-bit 5ISO shift register. Consists of.

アレイの神経細胞全ての出力が、次の層のための入力を形成することを第10図 で代表的に仮定する。前述したように、これはしばしば非現実的となるが、第1 0図のアーキテクチャは、第4図に示された局部配置に相応したバスを分離する ために神経細胞のグループを接続することによって容易に修正することができる 。Figure 10 shows that the outputs of all neurons in the array form the inputs for the next layer. Assume representatively. As mentioned above, this is often unrealistic, but the first The architecture of Figure 0 separates the buses commensurate with the local arrangement shown in Figure 4. can be easily modified by connecting groups of neurons to .

第11図は、第10図の配置に於いて使用することのできる計算要素のアナログ /デジタル混成の実施態様を示す。この場合、全てのシナプスの重みは、アドレ スバス31へ制御回路30からアドレスされるRAki20でデジタルに記ta される。RAM20からのデジタル値は、それぞれのスイッチS++ 51mか らのアナログ入力信号が、入力ライン33を経て受けるマルチプライングデジタ ル−アナログコンバータ(DAC)32に供給される。DAC32の動作は、制 御回路30によって発生されたタロツク信号によって制御されると共に、制御ラ イン34に沿って供給される。D A C32は、例えばスイッチされたR−2 Rラダーまたはランプ比較器によって現実化することができる。この場合、前記 計算要素に関連したアキュームレータ35は、R−Cリークの積分器により形成 される。Figure 11 shows an analog of the computational elements that can be used in the arrangement of Figure 10. /Digital hybrid implementation. In this case, the weights of all synapses are The information is digitally recorded in the RAki 20 addressed from the control circuit 30 to the bus 31. be done. The digital value from RAM20 is for each switch S++ 51m. The analog input signals from the multipliers are received via input line 33. The signal is supplied to a analog converter (DAC) 32. The operation of the DAC32 is It is controlled by the tarlock signal generated by the control circuit 30, and the control circuit 30 is fed along the inlet 34. D A C32 is, for example, switched R-2 It can be realized by an R ladder or a ramp comparator. In this case, the above The accumulator 35 associated with the calculation element is formed by an R-C leakage integrator. be done.

この例に於いて、シリアルバスの各記憶要素Tは、制御回路30から供給される クロック信号に対して、アナログシフトレジスタをクロックした単一ステージに より現実化される。In this example, each storage element T of the serial bus is supplied from a control circuit 30. A single stage clocked analog shift register for a clock signal becomes more realistic.

このシフトレジスタは、電荷結合素子、バケッリレーライン、またはサンプルホ ールド回路とし得る。加えて、このシステムの全ての信号値は、アナログ電圧に よって表されると共に、パルス振幅変調に於けるフィードバック経路及びシリア ル出力バス24が計算される。This shift register can be a charge-coupled device, a bucket relay line, or a sample hoop. It can be a field circuit. In addition, all signal values in this system are converted to analog voltages. The feedback path in pulse amplitude modulation and serial The output bus 24 is calculated.

第12図は、制御回路30によって制御ライン37を経て制御されたスイッチ3 6でリセット可能なアナログ積分器によって形成されるアキュームレータ35の 例で、第11図の変形を示す。FIG. 12 shows switch 3 controlled by control circuit 30 via control line 37. of the accumulator 35 formed by an analog integrator resettable at 6 By way of example, a modification of FIG. 11 is shown.

第13図は、神経細胞要素の純粋なアナログの実施態様を示す。この見解に於い て、第10図のシリアルバス構造が放棄される。1つの層の神経細胞の出力が次 の層の神経細胞の入力に物理的に接続されることが仮定される。前記スタックの 底部のアレイに供給したパターンベクトルの各要素を表す電圧は、そのアレイの 各神経細胞の入力に並列に供給されるもので、すなわち、パターンベクトルが3 0の要素を有していれば、各神経細胞は前記底部のアレイが30の並列入力を有 していなければならないものとなる。前記アナログ回路構成は、補助コンビ二一 夕を使用しないでリアルタイムで更新するべくシナプスの重みを可能にする。前 記システムは、完全に独立したものとなる。FIG. 13 shows an embodiment of a pure analogue of neuronal elements. In this opinion Therefore, the serial bus structure of FIG. 10 is abandoned. The output of neurons in one layer is is assumed to be physically connected to the neuronal inputs of the layers. of said stack The voltage representing each element of the pattern vector applied to the bottom array is It is supplied in parallel to the input of each neuron, that is, the pattern vector is 3 If the bottom array has 30 parallel inputs, then each neuron has 30 parallel inputs. It becomes something you have to do. The analog circuit configuration is an auxiliary combination. Enables synaptic weights to be updated in real time without using data. Before This system will be completely independent.

前記神経細胞に対する信号入力は、xl・・・・・・・・・xNである。The signal inputs to the nerve cells are xl...xN.

これらの電圧は、加算点Pに流れるために電流11からINを生ずる。各電流の 大きさは I H−x4 /Ros+ であり、ここでRD5.はトランジスタT2jのドレインソース抵抗である。関 数1/RDs、は、故に前記神経細胞のj@目のシナプスの重みを効果的にした ものであり、加算点Pでの合計電流は故に神経細胞の出力に特有のものである。These voltages flow to the summing point P, resulting in a current 11 to IN. of each current The size is IH-x4/Ros+ and here RD5. is the drain-source resistance of transistor T2j. Seki The number 1/RDs, therefore, effectively weights the j@th synapse of the neuron. , and the total current at the summing point P is therefore characteristic of the output of the neuron.

(この合計電流は、抵抗R0を介してそれを通過して電圧に変換される)。(This total current is passed through resistor R0 and converted to voltage).

前記抵抗RDSIの大きさは、T1.を介して流れる電流により制御されるター ンに於けるトランジスタT2.のゲートに供給した電圧によって制御される。T 1.を介する電流は、信号入力電圧X、からToを経て供給されるターンに於け るそのゲートに記憶される電荷量に依存する。The magnitude of the resistance RDSI is T1. A motor controlled by a current flowing through the Transistor T2. controlled by the voltage supplied to the gate of T 1. The current through is in the turn supplied from the signal input voltage X, via To. depends on the amount of charge stored on its gate.

したがって、X、が周期的に大きいと、T1.のゲートは充電され、T2.のゲ ート電圧を増加する増加した電流の流れi、が生じ、このトランジスタのドレイ ン−ソース間抵抗を減じ、これによってj番目のシナプスの重みの有効値が上昇 する。全体の神経細胞について、前記シナプスの重みベクトルカ( W(t +Δ t) −W (t) +L Δ tとなるために時間Δt+の後 に修正される。Therefore, if X is periodically large, T1. The gate of T2. noge There is an increased current flow i, which increases the drain voltage of this transistor. decreases the source-to-source resistance, which increases the effective value of the weight of the j-th synapse. do. For all neurons, the weight vector of the synapse ( After time Δt+ to become W (t + Δ t) − W (t) + L Δ t will be corrected.

いま、前記アレイの整理されたアルゴリズムに従って、それらの神経細胞の単に シナプスの重みベクトルは、修正されるべく最も強力に刺激された神経細胞の近 隣に於けるものである。これは、Tllのゲート上のフロー電荷を制御するゲー )T31の電圧を制御するため、前記アレイの隣接した神経細胞の出力(すなわ ち神経細胞の近隣のそれらが存在する)及び神経細胞の出力(水和ユニットAか ら)の和を使用することにより、T1.のゲートに電流の流れを制御することに よるこの回路で達成される。これに対して、前述の式の関数りは、アレイの特定 の部分で全ての神経細胞の刺灘総数である。Now, according to the arranged algorithm of said array, those neurons are simply The synaptic weight vector is set near the most strongly stimulated neuron to be modified. It's next door. This is the gate that controls the flow charge on the gate of Tll. ) to control the voltage of T31, the output of adjacent neurons of said array (i.e. (i.e., those in the vicinity of the neuron) and the output of the neuron (hydration unit A) By using the sum of T1. to control the flow of current to the gate of This is achieved with this circuit. In contrast, the function in the previous equation is is the total number of all nerve cells.

考慮するための第2の点は、前記シナプスの重みベクトルの大きさが常に一様に 保持されるならば、整理されたアルゴリズムは作用のみ明記することである。こ れは、1つの電流源からの電流11からINを引き出すことに因ってアナログ電 流で達成され、Iはこのようになる。The second point to consider is that the magnitude of the synaptic weight vector is always uniform. If retained, a well-organized algorithm is to specify only the effects. child This produces an analog voltage by drawing IN from the current 11 from one current source. This is accomplished in a flow, and I becomes like this.

前記シナプスの重みはI、に比例したものであり、これは、前記重みベクトルの 大きさがEuclideanセンスよりむしろC1ty Blockセンスに於 いて一定であることを意味する。しかしながら、シミュレーションは満足となる べくここに示されている。The weight of the synapse is proportional to I, which means that the weight vector of The size is in C1ty Block sense rather than Euclidean sense. This means that the value is constant. However, the simulation is satisfactory As shown here.

多くの知識プロセスが上に述べられてきた。にもかかわらず、原則として、それ は同時にそれらの少なくとも幾つかをランするために可能とすることができ、よ り整理されたアプローチは、神経細胞の重みWがグラマー重みα(仮に使用すれ ば)以前に覚えられるような系列に従うためのものとなる、ということが観察さ れ、そして各層は高い層がトレーニングされる以前にトレーニングされる。従っ て、このような系列を有しても良い。A number of knowledge processes have been mentioned above. Nevertheless, in principle it can be enabled to run at least some of them at the same time, and In this organized approach, the weight W of the neuron is equal to the grammar weight α (if not used). (e.g.) It has been observed that and each layer is trained before higher layers are trained. follow It is also possible to have such a series.

(a) 第1の層の重みWlを覚える。(a) Remember the weight Wl of the first layer.

(b) 第1の層の重みαI、を覚える。(b) Remember the weight αI of the first layer.

(C) 第2の層の重みW、を覚える。(C) Remember the weight W of the second layer.

(d) 第2の層の重みα1を覚える。(d) Remember the weight α1 of the second layer.

(e) (フィードバックが提供されれば)第2及び第1の層間のフィードバッ ク重みCを覚える。(e) feedback between the second and first layers (if feedback is provided); Memorize the weight C.

(f) 第3及び以降の暦月に持続する。(f) Lasts for the third and subsequent calendar months.

大竹のフ1イアγンク゛ (すしシ←にンlS7た ) 、ハ 国際調査報告 1++1mjll@R皐C^修−”””’PCT/GB88100710+−電 −−−!1−m^5eh−−+−x−,PCT/GB88100710国際調査 報告Ohtake's Fire Engine (Sushishi←NinlS7ta) , ha international search report 1++1mjll@R甐C^輾-”””’PCT/GB88100710+-den ---! 1-m^5eh--+-x-, PCT/GB88100710 International Search report

Claims (18)

【特許請求の範囲】[Claims] 1.入力信号ベクトルの時系列を受信するための入力と、複数の基準ベクトルを 記憶するための記憶手段と、現在の同一の入力ベクトルを受信するため及び前記 入力ベクトルと前記基準ベクトルのそれぞれとの間の類似度を表示する出力信号 を発生するため動作中に配列された複数の類似した比較要素と、 各要素のために、その基準ベクトルと少なくとも直前の入力ベクトルの間を比較 した結果その要素によって生成される前記出力信号に依存して修正された出力を 生成する手段と、 前記入力ベクトル及び基準ベクトル間の比較的高い類似を表示する前記修正され た出力により表されるパターンと基準情報とを、前記時系列によって表されるパ ターンを確認するための認識手段と を具備するパターン認識装置。1. An input to receive a time series of input signal vectors and multiple reference vectors. storage means for storing and for receiving the same current input vector; an output signal indicating the degree of similarity between the input vector and each of said reference vectors; multiple similar comparison elements arranged during operation to generate For each element, compare between its reference vector and at least the previous input vector output modified depending on the output signal produced by that element as a result of a means of generating; the modified vector displaying a relatively high similarity between the input vector and the reference vector; The pattern represented by the output and the reference information are combined into the pattern represented by the time series. Recognition means for confirming turns and A pattern recognition device comprising: 2.前記修正手段は、出力がその要素の現在の出力と前記要素の複数の初期の出 力との和である各要素用に生成するために配列され、前記初期の出力と現在の出 力との間で経過する時間の単調に減少する関数となる値で各々乗算される請求項 1に記載のパターン認識装置。2. The modifying means is configured such that the output is a current output of the element and a plurality of initial outputs of the element. The initial output and the current output are arrayed to generate for each element which is the sum of the forces Claims each multiplied by a value that is a monotonically decreasing function of the time elapsed between the forces 1. The pattern recognition device according to 1. 3.前記関数は崩壊指数であり、前記修正信号はe1n=e1n−1★β+η1 n によって与えられるもので、ここでe1n及びη1nはそれぞれn1nサンプル 時間での前記i1n要素の前記修正及び無修正の出力であり、βは崩壊する一定 の有効時間を決定する請求項2に記載のパターン認識装置。3. The function is a decay index, and the modified signal is e1n=e1n-1★β+η1 n where e1n and η1n are n1n samples, respectively. is the modified and unmodified output of the i1n element in time, β is a decaying constant 3. The pattern recognition device according to claim 2, wherein the pattern recognition device determines the validity time of the pattern recognition device. 4.前記記憶手段は 信号ベクトルのトレーニング系列を前記入力に供給することによって発生される 基準ベクトルを含むもので、各入力ベクトル用に、 入力及び基準ベクトル間の最大類似を表示する前記出力を有する前記要素を確認 し、 概念的なアレイ空間に於いて、その重みと前記入力信号ベクトル間の前記類似を 増加するためのようなセンスの調整を、前記要素の限定された近隣内に存在する それらの要素及び前記確認された要素の前記基準ベクトルに供給し、 これによって前記基準ベクトルが前記トレーニング系列の統計の幾何学マッピン グを表す請求項1、2若しくは3に記載のパターン認識装置。4. The storage means is generated by supplying a training sequence of signal vectors to said input. contains the reference vector, and for each input vector, Check the element with the output displaying the maximum similarity between the input and reference vectors death, In the conceptual array space, let the weights and the similarity between the input signal vector be Adjustment of sense such as to increase exists within a limited neighborhood of said element supplying those elements and the reference vector of the identified element; This allows the reference vector to be a geometric map of the statistics of the training sequence. 4. The pattern recognition device according to claim 1, 2 or 3. 5.各入力ベクトル用に、 入力及び基準ベクトル間の最大類似を表示する前記出力を有する前記要素を確認 する工程と、概念的なアレイ空間に於いて、その重みと前記入力信号ベクトル間 の前記類似を増加するためのようなセンスの調整を、前記要素の修正された近隣 内に存在するそれらの要素及び前記確認された要素の前記基準ベクトルに供給す る工程と、を実行するために前記入力に信号ベクトルのトレーニング系列の適用 の間に動作中に配列する制御手段を含み、 これによって前記基準ベクトルが前記トレーニング系列の統計の幾何学マッピン グを表す請求項1、2若しくは3に記載のパターン認識装置。5. For each input vector, Check the element with the output displaying the maximum similarity between the input and reference vectors and between its weight and the input signal vector in the conceptual array space. Modified neighbors of said elements such that sense adjustments are made to increase said similarity of said elements. and those elements present in the reference vector of the identified element. applying a training sequence of signal vectors to said input to perform control means arranged in operation between the This allows the reference vector to be a geometric map of the statistics of the training sequence. 4. The pattern recognition device according to claim 1, 2 or 3. 6.前記要素の前記修正された出力の和と、他の要素の前記修正された出力の重 み付けられた和である更に修正された出力を各要素のために生成する手段を含む 前述の請求項の何れか1項に記載のパターン認識装置。6. The sum of the modified outputs of the element and the weight of the modified outputs of other elements. includes means for producing for each element a further modified output that is the found sum. A pattern recognition device according to any one of the preceding claims. 7.前記重み付けられた和の形状を使用する前記重みは、前記入力に信号ベクト ルのトレーニング系列を供給すると共に、各要素と前記それぞれの他の要素の各 々との間で使用するべく前記重みの値を、それら2つの要素により生成される出 力の積に依存する量によって反復調整することにより発生している請求項6に記 載のパターン認識装置。7. The weights using the shape of the weighted sum include a signal vector at the input. training sequences for each element and each of the other elements. The value of the weight to be used between 7. The effect of claim 6 is generated by iterative adjustment by a quantity dependent on the product of forces. pattern recognition device. 8.2つの要素により生成される出力の生成に依存する量によって各要素と前記 それぞれの他の要素の各々との間で使用するべく前記重みの値を反復調整すろた めに前記入力に信号ベクトルのトレーニング系列の適用の間に、動作中に配列す る制御手段を含む請求項6に記載のパターン認識装置。8. Each element and the above by a quantity that depends on the production of the output produced by the two elements. Iteratively adjust the weight values for use with each other element. During the application of the training sequence of signal vectors to the input, the 7. The pattern recognition apparatus according to claim 6, further comprising a control means for controlling the pattern recognition apparatus. 9.前記修正された若しくは更に修正された出力は低い類似のこれらの表示と比 較して高い類似の表示の値を高めるように非直線演算に指示される前述の請求項 の何れか1項に記載のパターン認識装置。9. The modified or further modified outputs are lower compared to similar displays. The foregoing claim is directed to a non-linear operation to increase the value of a higher similar representation compared to The pattern recognition device according to any one of the above. 10.前記認識手段はそれぞれの記憶された基準ベクトルを有する少なくとも1 つの比較要素の更なるアレイから成り、その要素の各々はその基準ベクトルと前 記出力のグループ間の類似を表示する出力信号を発生するような前記若しくは前 述のアレイの前記修正された(若しくは更に修正された)出力のそれぞれのグル ープを受信するために接続される前述の請求項の何れか1項に記載のパターン認 識装置。10. The recognition means comprises at least one reference vector having a respective stored reference vector. a further array of 3 comparison elements, each of which has its reference vector and previous said or previous generating an output signal indicative of a similarity between groups of outputs. each group of said modified (or further modified) outputs of said array; pattern recognition according to any one of the preceding claims, connected to receive the recognition device. 11.前記入力信号ベクトル、若しくは前記前のアレイに供給する信号のグルー プを修正するように1つ以上の前記アレイによって発生される前記出力信号をフ ィードバックするためために整理する請求項10に記載のパターン認識装置。11. the input signal vector or group of signals feeding the previous array; the output signal generated by one or more of the arrays to modify the output signal; 11. The pattern recognition device according to claim 10, wherein the pattern recognition device is arranged for feedback. 12.前記基準ベクトルは、前記入力ベクトルと前記入力ベクトルの大きさで変 化しないその基準ベクトルとの間の最大類似を表示する出力を生成する前記要素 の同一性のように標準化される前述の請求項の何れか1項に記載のパターン認識 装置。12. The reference vector varies depending on the input vector and the magnitude of the input vector. said element that produces an output displaying the maximum similarity between it and its reference vector that does not Pattern recognition according to any one of the preceding claims, wherein the pattern recognition is standardized such as the identity of Device. 13.各要素は前記それぞれの基準ベクトル及び前記入力ベクトルの二重乗積の であるか若しくはその関数である出力を生成するためのようなものである請求項 12に記載のパターン認識装置。13. Each element is the double product of the respective reference vector and the input vector. A claim for producing an output that is or is a function of 13. The pattern recognition device according to 12. 14.入力信号ベクトルの時系列を受信するための入力と、出力を各々有する複 数の比較要素及び現在の入力ベクトルを各々受信するために他方の比較要素の入 力に伴って並列に接続される複数の入力とを備えるアレイと、類似した複数の基 準ベクトルを記憶するためのもので、各比較要素は前記入力ベクトルと前記基準 ベクトルのそれぞれの1つとの間の類似を表示する信号をその出力で生成するた めに動作中配列される記憶手段とを具備し、 前記出力は前記入力ベクトルと前記入力ベクトルの大きさで変化しないその基準 ベクトルとの間の最大の類似を表示する出力を生成する前記要素の同一性のよう に標準化される前記基準ベクトルと、前記入力及び基準ベクトルの二重乗積であ るか若しくはその関数であるパターン認識装置。14. multiple input signals, each having an input for receiving a time series of input signal vectors and an output. input of the other comparison element to receive the number comparison element and the current input vector, respectively. An array with multiple inputs connected in parallel with a force and multiple similar bases. It is for storing quasi-vectors, and each comparison element is the input vector and the reference to produce at its output a signal indicating the similarity between each one of the vectors. storage means arranged during operation for the purpose of The output is the input vector and its reference which does not change with the magnitude of the input vector. The identity of the elements will produce an output that displays the maximum similarity between the vector and is the double product of the reference vector and the input and reference vectors standardized to A pattern recognition device which is a function of or a function thereof. 15.各要素はN次元信号ベクトルを受信するためのもので、 入力と、 前記入力と出力を形成するための現在の加算ノードとの間の可変導電経路と、 前記第2のトランジスタのゲートに記憶される電荷量に依存される前記経路の導 電性を制御するために配列される絶縁されたゲート電解効果トランジスタから成 る記憶トランジスタと、 前記要素の出力と近隣の要素の出力に依存される前記記憶された電荷を調整する 手段と を各々有する複数Nの区分から成る請求項13若しくは14に記載のパターン認 識装置。15. Each element is for receiving an N-dimensional signal vector, input and a variable conductive path between the input and a current summing node for forming an output; The conductivity of the path depends on the amount of charge stored in the gate of the second transistor. Consists of insulated gate field effect transistors arranged to control electrical conductivity. a memory transistor, adjusting the stored charge depending on the output of the element and the output of neighboring elements; means and The pattern recognition method according to claim 13 or 14, comprising a plurality of N sections each having recognition device. 16.前記導電経路は更なろトランジスタによって形成され、前記記憶トランジ スタは前記更なるトランジスタの導電性を制御するための配列に単一の一定電流 源からの前記電流比を供給するために接続される請求項15に記載のパターン認 識装置。16. The conductive path is further formed by a transistor and is connected to the storage transistor. The star injects a single constant current into the array to control the conductivity of the further transistors. 16. A pattern recognition device according to claim 15 connected to supply said current ratio from a source. recognition device. 17.前記信号ベクトルの成分を形成する複数のパラメータにスピーチ入力の連 続周期の各々から発生するために演算可能なスピーチ処理手段を含む前述の請求 項の何れか1項に記載のスピーチ認識器。17. The speech input is connected to a plurality of parameters forming the components of the signal vector. the said claim comprising speech processing means operable to generate from each of the following periods; The speech recognizer according to any one of paragraphs. 18.前記スピーチの周期の持続は前記パラメータの変化率に比較して前記スピ ーチのオーバーサンプリングを表すためのようなものである請求項17に記載の パターン認識装置。18. The duration of the period of the speech is greater than the rate of change of the parameter. as claimed in claim 17, such as for representing oversampling of a channel. Pattern recognition device.
JP63507221A 1987-08-28 1988-08-26 pattern recognition device Pending JPH02501167A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
GB878720387A GB8720387D0 (en) 1987-08-28 1987-08-28 Matching vectors
GB8720387 1987-08-28

Publications (1)

Publication Number Publication Date
JPH02501167A true JPH02501167A (en) 1990-04-19

Family

ID=10623002

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63507221A Pending JPH02501167A (en) 1987-08-28 1988-08-26 pattern recognition device

Country Status (9)

Country Link
US (1) US5175794A (en)
EP (1) EP0333798B1 (en)
JP (1) JPH02501167A (en)
AT (1) ATE123165T1 (en)
CA (1) CA1310419C (en)
DE (1) DE3853880T2 (en)
GB (2) GB8720387D0 (en)
HK (1) HK121296A (en)
WO (1) WO1989002134A1 (en)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FI881007A0 (en) * 1988-03-04 1988-03-04 Teuvo Kohonen FOERFARANDE FOER ADAPTIV AVLAESNING AV KVANTISERADE SIGNALER.
GB2245401A (en) * 1989-11-01 1992-01-02 Hughes Aircraft Co Neural network signal processor
GB8929146D0 (en) * 1989-12-22 1990-02-28 British Telecomm Neural networks
JP3260357B2 (en) 1990-01-24 2002-02-25 株式会社日立製作所 Information processing device
US5794190A (en) * 1990-04-26 1998-08-11 British Telecommunications Public Limited Company Speech pattern recognition using pattern recognizers and classifiers
GB9009425D0 (en) * 1990-04-26 1990-06-20 British Telecomm Pattern recognition
KR930009066B1 (en) * 1990-08-18 1993-09-22 정호선 Multilayer neural network and method of its circuit design
US5787393A (en) * 1992-03-30 1998-07-28 Seiko Epson Corporation Speech recognition apparatus using neural network, and learning method therefor
JPH05335967A (en) * 1992-05-29 1993-12-17 Takeo Miyazawa Sound information compression method and sound information reproduction device
JPH07210190A (en) * 1993-12-30 1995-08-11 Internatl Business Mach Corp <Ibm> Method and system for voice recognition
US5524169A (en) * 1993-12-30 1996-06-04 International Business Machines Incorporated Method and system for location-specific speech recognition
JP3399674B2 (en) * 1994-12-19 2003-04-21 エヌイーシーインフロンティア株式会社 Screen control device and method
US6151592A (en) * 1995-06-07 2000-11-21 Seiko Epson Corporation Recognition apparatus using neural network, and learning method therefor
JP3697748B2 (en) * 1995-08-21 2005-09-21 セイコーエプソン株式会社 Terminal, voice recognition device
US5950162A (en) * 1996-10-30 1999-09-07 Motorola, Inc. Method, device and system for generating segment durations in a text-to-speech system
US5927988A (en) * 1997-12-17 1999-07-27 Jenkins; William M. Method and apparatus for training of sensory and perceptual systems in LLI subjects
US6208963B1 (en) * 1998-06-24 2001-03-27 Tony R. Martinez Method and apparatus for signal classification using a multilayer network
US6304865B1 (en) 1998-10-27 2001-10-16 Dell U.S.A., L.P. Audio diagnostic system and method using frequency spectrum and neural network
US6178402B1 (en) 1999-04-29 2001-01-23 Motorola, Inc. Method, apparatus and system for generating acoustic parameters in a text-to-speech system using a neural network
US7996212B2 (en) * 2005-06-29 2011-08-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Device, method and computer program for analyzing an audio signal
US20080147579A1 (en) * 2006-12-14 2008-06-19 Microsoft Corporation Discriminative training using boosted lasso
EP2477141B1 (en) * 2011-01-12 2013-07-03 Fujitsu Limited Processor node, artificial neural network and method of operation of an artificial neural network
JP6708146B2 (en) * 2017-03-03 2020-06-10 株式会社デンソー Neural network circuit

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3287649A (en) * 1963-09-09 1966-11-22 Research Corp Audio signal pattern perception device
GB1192554A (en) * 1966-08-13 1970-05-20 Emi Ltd Improvements relating to Pattern Recognition Devices
US3845471A (en) * 1973-05-14 1974-10-29 Westinghouse Electric Corp Classification of a subject
GB1545117A (en) * 1976-05-25 1979-05-02 Nat Res Dev Comparison apparatus eg for use in character recognition
IT1118355B (en) * 1979-02-15 1986-02-24 Cselt Centro Studi Lab Telecom INTERCONNECTION SYSTEM BETWEEN PROCESSORS
US4254474A (en) * 1979-08-02 1981-03-03 Nestor Associates Information processing system using threshold passive modification
JPS58129684A (en) * 1982-01-29 1983-08-02 Toshiba Corp Pattern recognizing device
US4816993A (en) * 1984-12-24 1989-03-28 Hitachi, Ltd. Parallel processing computer including interconnected operation units
JPS622805A (en) * 1985-06-26 1987-01-08 日立電線株式会社 Stringing for optical fiber compound overhead ground wire
JPH0634236B2 (en) * 1985-11-02 1994-05-02 日本放送協会 Hierarchical information processing method
US4773024A (en) * 1986-06-03 1988-09-20 Synaptics, Inc. Brain emulation circuit with reduced confusion
US4805225A (en) * 1986-11-06 1989-02-14 The Research Foundation Of The State University Of New York Pattern recognition method and apparatus

Also Published As

Publication number Publication date
DE3853880T2 (en) 1995-11-02
EP0333798A1 (en) 1989-09-27
ATE123165T1 (en) 1995-06-15
CA1310419C (en) 1992-11-17
GB2215503A (en) 1989-09-20
GB8720387D0 (en) 1987-10-07
WO1989002134A1 (en) 1989-03-09
DE3853880D1 (en) 1995-06-29
GB8909642D0 (en) 1989-06-14
GB2215503B (en) 1992-02-05
HK121296A (en) 1996-07-19
US5175794A (en) 1992-12-29
EP0333798B1 (en) 1995-05-24

Similar Documents

Publication Publication Date Title
JPH02501167A (en) pattern recognition device
CN110400579B (en) Speech emotion recognition based on direction self-attention mechanism and bidirectional long-time and short-time network
EP3971786B1 (en) Feedforward generative neural networks
Abdel-Hamid et al. Convolutional neural networks for speech recognition
Liu et al. Recent progress in the cuhk dysarthric speech recognition system
US5638486A (en) Method and system for continuous speech recognition using voting techniques
CN107729999A (en) Consider the deep neural network compression method of matrix correlation
CN112466326A (en) Speech emotion feature extraction method based on transform model encoder
CN108229659A (en) Piano singly-bound voice recognition method based on deep learning
CN111261223A (en) CRISPR off-target effect prediction method based on deep learning
Liu et al. Permutation invariant training for speaker-independent multi-pitch tracking
Roy et al. Pathological voice classification using deep learning
Aishwarya et al. Kannada speech recognition system for Aphasic people
CN115994221A (en) Memristor-based text emotion detection system and method
Chauhan et al. Speech recognition and separation system using deep learning
Du et al. Factorized WaveNet for voice conversion with limited data
CN113450830A (en) Voice emotion recognition method of convolution cyclic neural network with multiple attention mechanisms
CN113241092A (en) Sound source separation method based on double-attention mechanism and multi-stage hybrid convolution network
Yi et al. SoftSpeech: Unsupervised Duration Model in FastSpeech 2.
Haque et al. Evaluation of modified deep neural network architecture performance for speech recognition
Zahorian et al. Nonlinear dimensionality reduction methods for use with automatic speech recognition
Delgado et al. Learning Models for Query by Vocal Percussion: A Comparative Study
WO2021234873A1 (en) Sound source separation model learning device, sound source separation device, sound source separation model learning method, and program
CN110517669B (en) Method and device for predicting pronunciation of words, electronic equipment and storage medium
Zhou Evaluation of transfer learning methods in text-to-speech