JPH03121581A - Character reader - Google Patents

Character reader

Info

Publication number
JPH03121581A
JPH03121581A JP1259615A JP25961589A JPH03121581A JP H03121581 A JPH03121581 A JP H03121581A JP 1259615 A JP1259615 A JP 1259615A JP 25961589 A JP25961589 A JP 25961589A JP H03121581 A JPH03121581 A JP H03121581A
Authority
JP
Japan
Prior art keywords
characters
reading device
intermediate layer
memory element
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP1259615A
Other languages
Japanese (ja)
Inventor
Yasuo Isono
磯野 靖雄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP1259615A priority Critical patent/JPH03121581A/en
Publication of JPH03121581A publication Critical patent/JPH03121581A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)

Abstract

PURPOSE:To enable parallel arithmetic, to improve speed for recognizing handwritten characters and to make a character reader compact by using a three- dimensional memory cell in the intermediate layer of a neural circuit network. CONSTITUTION:An input layer is provided to input the picture information of the characters to be read and the intermediate layer, which is composed of the three-dimensional memory cell three-dimensionally forming plural memories, is provided to execute the arithmetic processing of the above mentioned character picture information based on a state transition function to be determined by the storing state of each memory cell. Then, an output layer is provided to recognize the prescribed characters from the arithmetic result of this intermediate layer. Namely, for a three-dimensional memory cell 10 forming the intermediate layer, plural laminated memory cells 11 are integrated in the shape of a matrix on a board. Thus, the characters including the handwritten characters can be recognized with a high recognition rate at extremely high speed and the character reader can be made compact.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 本発明は、人工知能を利用して手書き文字を含む各種文
字の読取りを行うことのできる文字読取装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Field of Industrial Application] The present invention relates to a character reading device that can read various characters including handwritten characters using artificial intelligence.

〔従来の技術〕[Conventional technology]

情報化社会が高度に発達した今日では、文字。 In today's highly developed information society, letters.

英数字等の情報を自動的に読取り、オンラインでコンピ
ュータ等の情報処理システムに入力する要求が極めて高
い。例えば、漢字を含めた日本語とコンピュータとの会
話を考えた場合、入力するキャラクタ−の数は膨大な量
にのぼり、このキャラクタ−の入力はアルファベットま
たはひら仮名(カタ仮名)を用いたキーボードによって
行なわれており、極めて煩雑な作業が必要となる。
There is an extremely high demand for automatically reading information such as alphanumeric characters and inputting it online into information processing systems such as computers. For example, when considering a conversation between Japanese, including kanji, and a computer, the number of characters to be input is enormous, and these characters can be input using a keyboard using the alphabet or hiragana (katakana). This requires extremely complicated work.

そこで、文字、英数字、さらに手書き文字等を自動的に
読取って、オンラインで情報処理システム等に入力する
ことのできる文字読取装置が考えられている。
Therefore, character reading devices that can automatically read characters, alphanumeric characters, handwritten characters, etc. and input them into an information processing system or the like online have been considered.

この種の文字読取装置によって手書き文字の読取りを行
う場合は、手書き文字を画像読取り装置で読取り、読取
られた文字画像情報を符号化し、この符号化されたデー
タを一旦記憶装置に格納し、格納された符号化データを
順次読出してプログラム処理し、所定の文字を認識する
。一般に、文字画像情報をより細分化して符号化するこ
とにより、文字の認識率を向上させることができる。
When reading handwritten characters using this type of character reading device, the handwritten characters are read by the image reading device, the read character image information is encoded, and this encoded data is temporarily stored in a storage device. The encoded data is sequentially read out and processed by a program to recognize predetermined characters. Generally, character recognition rate can be improved by dividing character image information into smaller pieces and encoding them.

ところが、文字認識率を上げるためには、文字画像情報
をより細分化した符号化データを得る必要があり、画像
読取り装置の解像度をより高くする必要がある。また、
文字画像情報の細分化に伴い、符号化データのデータ量
が増加することから記憶装置の記憶容量の増加を図らな
くてはならない。しかも、プログラム処理するデータ量
が増加するので、以前よりも早い演算速度が要求される
However, in order to increase the character recognition rate, it is necessary to obtain encoded data in which character image information is divided into smaller pieces, and it is necessary to further increase the resolution of the image reading device. Also,
As the character image information is segmented, the amount of encoded data increases, so it is necessary to increase the storage capacity of the storage device. Moreover, since the amount of data to be processed by the program increases, a faster calculation speed than before is required.

ところで、人工知能の分野では、ニューラルネットワー
クを利用して文字パターンを認識するパターン認識技術
が知られている。特に、知能処理モデルの一種であるパ
ラレルディストリビューテットプロセッシングモデル(
以下、「PDPモデル」と呼称する)は、逆伝播法(バ
ックプロパゲーション学習剤)によって各個人の手書き
文字の癖を学習させることができる。したがって、文字
読取装置にFDPモデルを適用して文字パターン認識を
行うようにすれば、細分化された符号化データでなくて
も十分高い文字認識率を得ることができる。
By the way, in the field of artificial intelligence, pattern recognition technology that recognizes character patterns using neural networks is known. In particular, the parallel distributed processing model (which is a type of intelligent processing model)
The PDP model (hereinafter referred to as the "PDP model") can learn each individual's handwritten character habits using a backpropagation method (backpropagation learning agent). Therefore, if the FDP model is applied to a character reading device to perform character pattern recognition, a sufficiently high character recognition rate can be obtained even if the encoded data is not segmented.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

しかしながら、FDPモデルを用いた文字パターン認識
では、符号化データを並列演算処理(行列演算処理)す
ることから、演算回数が増加し、従来のように直列演算
方式のコンピュータでは演算処理時間が長くなるという
問題がある。また、従来のコンピュータ(ノイマン式)
で並列演算を行い、演算処理時間を短くし、実用に耐え
得る数の漢字等の文字を認識するためには、複数個のC
PUを用いる必要があるが、各CPUは同時に複数の演
算処理は行っていないため、実際に多次元並列演算を行
うためには、装置が大型化するという問題がある。
However, in character pattern recognition using the FDP model, encoded data is processed in parallel (matrix calculation processing), which increases the number of calculations and takes a long time to process on a conventional serial computer. There is a problem. Also, conventional computers (Neumann type)
In order to perform parallel calculations in parallel, shorten the calculation processing time, and recognize a practical number of characters such as kanji, it is necessary to use multiple C
Although it is necessary to use a PU, since each CPU does not perform multiple calculation processes at the same time, there is a problem in that the device becomes large in order to actually perform multidimensional parallel calculations.

本発明は以上のような実情に鑑みてなされたもので、手
書き文字を含む文字を高い認識率で、かつ極めて早い速
度で認識でき、しかも装置の小型化を図り得る文字読取
装置を提供することを目的とする。
The present invention has been made in view of the above-mentioned circumstances, and an object of the present invention is to provide a character reading device that can recognize characters including handwritten characters with a high recognition rate and at an extremely high speed, and can also be miniaturized. With the goal.

〔課題を解決するための手段〕[Means to solve the problem]

本発明は上記課題を解決するために、学習機能を有する
知能処理モデルに基いて構成された神経回路網を用いて
、文字の読取りを行う文字読取装置において、読取りを
行う文字の画像情報を入力する入力層と、複数のメモリ
セルが三次元状に形成された三次元メモリ素子からなり
、各メモリセルの記憶状態によって決められる状態遷移
関数に基づいて前記文字画像情報を演算処理する中間層
と、この中間層の演算結果から所定の文字を認識する出
力層とを備えた構成とした。
In order to solve the above problems, the present invention uses a neural network configured based on an intelligent processing model with a learning function to input image information of characters to be read in a character reading device that reads characters. an input layer that processes the character image information based on a state transition function determined by the storage state of each memory cell, and an intermediate layer that is composed of a three-dimensional memory element in which a plurality of memory cells are formed in a three-dimensional shape; , and an output layer that recognizes predetermined characters from the calculation results of the intermediate layer.

また、上記文字読取装置において、導電膜と絶縁膜とが
交互に積層され前記絶縁膜を電荷がトンネル伝導する積
層トンネルスイッチ部と、この積層トンネルスイッチ部
の積層方向の両端部にそれぞれ絶縁膜を介して設けられ
た一対の電極と、前記導電膜の各々にそれぞれ接続され
た複数の電荷蓄積用コンデンサとからなる積層メモリ素
子を二次元的に集積してなる三次元メモリ素子を上記中
間層として用いるようにした。
Further, in the character reading device, there is provided a laminated tunnel switch section in which conductive films and insulating films are alternately laminated and charges are tunnel-conducted through the insulating films, and an insulating film is provided at both ends of the laminated tunnel switch section in the stacking direction. The intermediate layer is a three-dimensional memory element formed by two-dimensionally integrating a stacked memory element consisting of a pair of electrodes provided through the conductive film and a plurality of charge storage capacitors respectively connected to each of the conductive films. I decided to use it.

〔作用〕 本発明は以上のような手段を講じたことにより、次のよ
うな作用を奏する。例えば、逆伝播法によって神経回路
網に文字の認識を学習させることにより変化する神経回
路網の結合の重みは、三次元メモリ素子の複数のメモリ
セルの記憶状態の変化で表わされる。したがって、メモ
リセルの記憶状態を変化させるといった容易な操作で、
逆伝播法による演算処理モデルの学習に対応することが
できる。また、三次元メモリ素子は複数のメモリセルに
対して、同時並列的なアクセスが可能なので、入力層か
ら文字画像情報が入力され、中間層に到達すると、三次
元メモリ素子(中間層)内で、各メモリセルの記憶状態
によって決められる状態遷移関数に基づいた演算処理が
並列的に実行される。
[Function] The present invention achieves the following effects by taking the above measures. For example, the weights of the connections in the neural network that change when the neural network learns character recognition using the backpropagation method are expressed by changes in the storage states of a plurality of memory cells of the three-dimensional memory element. Therefore, with a simple operation such as changing the storage state of a memory cell,
It can support learning of arithmetic processing models using backpropagation. In addition, the 3D memory element allows simultaneous parallel access to multiple memory cells, so when character image information is input from the input layer and reaches the intermediate layer, it is processed within the 3D memory element (intermediate layer). , arithmetic processing based on a state transition function determined by the storage state of each memory cell is executed in parallel.

出力層では、演算結果から所定の文字が認識され、その
認識結果が出力される。このようにして文字の読取りが
行われる。
In the output layer, a predetermined character is recognized from the calculation result, and the recognition result is output. Characters are read in this way.

また、上記三次元メモリ素子を用いれば、メモリセルと
なる各電荷蓄積用コンデンサがフローティング状態とな
るので、各メモリセルへ容易にアクセスでき、学習結果
に対応して記憶状態を容易に書換えることができる。ま
た、各メモリセルへは書込み電極および読出し電極を介
して並列的にアクセスできることから、並列演算処理に
対応することかできる。
Furthermore, if the three-dimensional memory element described above is used, each charge storage capacitor that becomes a memory cell is in a floating state, so each memory cell can be easily accessed, and the memory state can be easily rewritten in accordance with learning results. I can do it. Furthermore, since each memory cell can be accessed in parallel via the write electrode and read electrode, it is possible to support parallel arithmetic processing.

〔実施例〕〔Example〕

以下、本発明の実施例について図面を参照して説明する
Embodiments of the present invention will be described below with reference to the drawings.

本実施例に係る文字読取装置は、手書き文字等の文字画
像情報を例えば光電変換して取込むラインスキャナ等か
らなる入力手段と、この入力手段から入力された文字画
像情報から所定の文字を認識する認識処理手段と、この
認識処理手段で認識された文字データを情報処理システ
ム等の外部装置に流用できる状態に加工して出力する出
力手段とから構成されている。
The character reading device according to the present embodiment includes an input means, such as a line scanner, which takes in character image information such as handwritten characters by photoelectric conversion, and recognizes a predetermined character from the character image information input from this input means. and an output means that processes and outputs the character data recognized by the recognition processing means into a state that can be used in an external device such as an information processing system.

本実施例は、認識処理手段にFDPモデルの神経回路網
を用いて手書き文字の認識を行なうものであって、その
FDPモデルは第1図に示すように、入力層、中間層、
出力層からなる階層的ネットワークで構成されている。
In this embodiment, a neural network of an FDP model is used as a recognition processing means to recognize handwritten characters.As shown in FIG. 1, the FDP model includes an input layer, an intermediate layer,
It consists of a hierarchical network consisting of an output layer.

ここで、神経回路網の入力層は8X8 (64)個のユ
ニットから構成されていて、入力手段で取込まれた文字
画像情報を64個の信号に分割する機能を有している。
Here, the input layer of the neural network is composed of 8×8 (64) units and has a function of dividing character image information taken in by the input means into 64 signals.

中間層は三次元メモリ素子からなり、入力層から信号が
与えられると後述する状態遷移関数にしたがって状態遷
移を繰返した後、所定の平衡状態に達した信号を出力す
る機能を有する。出力層は4種類の文字を識別する4個
のユニットで構成されていて、中間層で平衡状態に到達
した信号に基づいて4種類の文字の中から所定の文字を
認識する機能を有している。また、出力層の各ユニット
は中間層の全てのユニットに接続されている。中間層の
複数のユニットは入力層の全てのユニットに接続されて
いるものと、人力層の特定のユニットにのみ接続されて
いるものとがある。そして、このように接続された神経
回路網は、人力層から出力層への一方向に信号が伝達さ
れるフィードフォワード型となっている。
The intermediate layer is composed of a three-dimensional memory element, and has a function of repeating state transition according to a state transition function described later when a signal is applied from the input layer, and then outputting a signal that reaches a predetermined equilibrium state. The output layer consists of four units that identify four types of characters, and has the function of recognizing a predetermined character from among the four types of characters based on the signal that has reached an equilibrium state in the intermediate layer. There is. Further, each unit of the output layer is connected to all units of the intermediate layer. Some units in the middle layer are connected to all units in the input layer, while others are connected only to specific units in the human power layer. The neural network connected in this way is of a feedforward type in which signals are transmitted in one direction from the human power layer to the output layer.

第2図は中間層を形成する三次元メモリ素子の構成を示
す図である。同図に示す三次元メモリ素子10は、複数
の積層メモリ素子11を同一基板上に3行、3列のマト
リクス状に集積したものである。各積層メモリ素子11
享の一端には書込み電極12が各々設けられ、各積層メ
モリ素子11の他端には読出し電極13が各々設けられ
ている。
FIG. 2 is a diagram showing the configuration of a three-dimensional memory element forming an intermediate layer. The three-dimensional memory element 10 shown in the figure is one in which a plurality of stacked memory elements 11 are integrated on the same substrate in a matrix of three rows and three columns. Each stacked memory element 11
A write electrode 12 is provided at one end of each stacked memory element 11, and a read electrode 13 is provided at the other end of each stacked memory element 11.

また、同一行に位置する各書込み電極12はマトリクス
電極j+−33に接続されていて、同一列に位置する読
出し電極13は、マトリクス電極L1〜i3に接続され
ている。
Further, each write electrode 12 located in the same row is connected to matrix electrode j+-33, and read electrode 13 located in the same column is connected to matrix electrodes L1 to i3.

積層メモリ素子11は、第3図に示すように、導電率が
印加電圧に応じて非線形に変化するLB膜(ラングミュ
アブロジェット膜)からなる絶縁膜22 a 〜22 
eと導電膜23a 〜23dを交互に積層した積層トン
ネルスイッチ@Hと、この積層トンネルスイッチ部Hの
積層方向の一端となる絶縁膜22aを介して設けられた
書込み電極12と、積層トンネルスイッチ部、Hの他端
に絶縁膜22eを介して設けられた読出し電極13と、
各導電H23a〜23dにそれぞれ接続された電荷蓄積
用コンデンサ01〜C4と、読出し電極13に接続され
、読出しパルス印加端子18.読出しコンデンサC5,
スイッチSl、電流計19等からなる読出し回路とから
構成されている。第3図は積層メモリ素子11を基板2
0上に作り込んだ状態を示している。
As shown in FIG. 3, the stacked memory element 11 includes insulating films 22 a to 22 made of LB films (Langmuir-Blodgett films) whose conductivity changes nonlinearly depending on the applied voltage.
A multilayer tunnel switch @H in which conductive films 23a to 23d are alternately laminated, a write electrode 12 provided via an insulating film 22a serving as one end of the multilayer tunnel switch section H in the stacking direction, and a multilayer tunnel switch section H. , a readout electrode 13 provided at the other end of H with an insulating film 22e interposed therebetween;
The charge storage capacitors 01 to C4 are connected to the conductors H23a to 23d, respectively, and the read pulse application terminal 18 is connected to the readout electrode 13. readout capacitor C5,
It is composed of a readout circuit including a switch Sl, an ammeter 19, and the like. FIG. 3 shows a stacked memory element 11 on a substrate 2.
0 is shown.

このように構成された積層メモリ素子11は、書込み電
極13から例えば正のパルスを印加し、かつ端子16か
ら負のパルスを印加することにより、書込み電極13か
ら導電膜23aに電荷がトンネル伝導する。そして、端
子16および17から、互いに位相の異なる転送パルス
VA、V、を印加することにより、書込み電極12より
書き込まれる電荷が順次読出し電極13側に転送され、
各導電膜23に伝導した電荷はその導電膜に接続されて
いる電荷蓄積用コンデンサCに蓄積される。
In the stacked memory element 11 configured in this way, charges are tunnel-transferred from the write electrode 13 to the conductive film 23a by applying, for example, a positive pulse from the write electrode 13 and a negative pulse from the terminal 16. . Then, by applying transfer pulses VA, V having mutually different phases from the terminals 16 and 17, the charges written from the write electrode 12 are sequentially transferred to the read electrode 13 side,
The charges conducted to each conductive film 23 are stored in a charge storage capacitor C connected to the conductive film.

そして、読出しパルス印加端子18に所定のパルス電圧
を印加することにより、電荷蓄積用コンデンサC4に蓄
積されている電荷がコンデンサC5に読み出され、スイ
ッチS1を閉じることにより、記憶されていた情報が出
力される。なお、第3図および第4図に示す積層メモリ
素子11であれば、4ビツトの信号を記憶できる。
Then, by applying a predetermined pulse voltage to the read pulse application terminal 18, the charge stored in the charge storage capacitor C4 is read out to the capacitor C5, and by closing the switch S1, the stored information is read out. Output. Note that the stacked memory element 11 shown in FIGS. 3 and 4 can store a 4-bit signal.

次に、本実施例の作用について説明する。Next, the operation of this embodiment will be explained.

入力手段によって読取られた手書き文字の文字画像情報
は入力層の64個のユニットで分割され、入力層の各ユ
ニットに接続されている中間層の複数ユニットへ信号が
与えられる。中間層は、各積層メモリ素子11の電荷蓄
積用コンデンサC1〜C4の電荷蓄積状態に応じて中間
層の各ユニット間の重み付けがなされ、各ユニット間を
伝達する信号がその重み分増幅または減衰され、各ユニ
ットでの電圧が閾値を越えると接続された他のユニット
に信号を出力する。ここで、FDPモデルは、ユニット
lからjへの結合の重みをWijとし、コンデンサCに
充電された電圧(例えば3V)の50%の電圧(1,5
V)をユニットjの閾値θjとすると、中間層の状態遷
移関数は、 Xi−ΣYLWji+θj     ・・・(1)Y 
j = 1/ (1+ e−” )      ・= 
(2)で表すことができる。なお、Xjはユニットjの
入力総和、Yjはユニットjの出力を示している。
Character image information of handwritten characters read by the input means is divided by 64 units of the input layer, and signals are given to a plurality of units of the intermediate layer connected to each unit of the input layer. In the intermediate layer, each unit of the intermediate layer is weighted according to the charge storage state of the charge storage capacitors C1 to C4 of each stacked memory element 11, and a signal transmitted between each unit is amplified or attenuated by the weight. , when the voltage at each unit exceeds a threshold, it outputs a signal to the other connected units. Here, in the FDP model, the weight of the connection from unit l to j is Wij, and the voltage (1,5
V) is the threshold value θj of unit j, the state transition function of the intermediate layer is Xi-ΣYLWji+θj...(1)Y
j = 1/ (1+ e-”) ・=
It can be expressed as (2). Note that Xj represents the input sum of unit j, and Yj represents the output of unit j.

中間層では、入力層からの信号を各積層メモリ素子11
の書込み電極12から入力し、この入力信号を積層メモ
リ素子11の電荷蓄積状態に応じた状態遷移関数にした
がって処理し、読出し電極13から出力層へ出力する。
In the intermediate layer, signals from the input layer are transmitted to each stacked memory element 11.
This input signal is input from the write electrode 12 of the stacked memory element 11, processed according to a state transition function according to the charge storage state of the stacked memory element 11, and outputted from the read electrode 13 to the output layer.

すなわち、中間層の各ユニットに信号が与えられると、
神経回路網内を信号が上記状態遷移関数にしたがって伝
播し、所定の平衡状態に到達した信号が出力層の各ユニ
ットから出力される。
That is, when a signal is given to each unit in the middle layer,
A signal propagates within the neural network according to the state transition function, and a signal that has reached a predetermined equilibrium state is output from each unit of the output layer.

次に、逆伝播法によって、神経回路網を学習させる。そ
のため、上述したようにして出力層から出力される出力
信号に対して教師信号を与え、現在の結合の重み状態で
の神経回路網の性能を(3)式に示す関数によって評価
する。
Next, the neural network is trained using backpropagation. Therefore, a teacher signal is given to the output signal output from the output layer as described above, and the performance of the neural network in the current connection weight state is evaluated using the function shown in equation (3).

E−(1/2) ・Σ(Yj−tj)’・・・(3)な
お、Eはエラーの総和(自乗誤差総和)、Yjは出力層
のユニットjの出力信号、tjは出力層のユニットjに
与えられる教師信号を示している。
E-(1/2) ・Σ(Yj-tj)'...(3) Note that E is the sum of errors (sum of squared errors), Yj is the output signal of unit j in the output layer, and tj is the output signal of unit j in the output layer. It shows the teacher signal given to unit j.

そして、(4)式によって、自乗誤差総和Eを最小にす
る、結合の重みの変更量ΔWを求める。
Then, using equation (4), the amount of change ΔW in the connection weight that minimizes the sum of squared errors E is determined.

AW −−e a E/ i3W j i      
−(4)なお、εは学習レートを示す定数である。また
、aE/aWjiは、’a E/a Y jを求めルコ
とにより計算で求めることができる。実際には、中間層
があるので、’aE/9Yjは直接求めることはできな
いが、中間層の任意のユニットjに対しては、そのユニ
ットに接続された出力層の特定のユニットしか影響を与
えない。そこで、9 E / e Y jは(5)式よ
り求めることができる。
AW --e a E/ i3W j i
-(4) Note that ε is a constant indicating the learning rate. Further, aE/aWji can be obtained by calculating 'a E/a Y j. In reality, since there is an intermediate layer, 'aE/9Yj cannot be determined directly, but for any unit j in the intermediate layer, only a specific unit in the output layer connected to that unit is affected. do not have. Therefore, 9 E / e Y j can be obtained from equation (5).

・・・ (5) このようにして求めた変更量ΔWに従って結合の重みW
ijを変更する。結合の重みWijの変更は、積層メモ
リ素子11の各電荷蓄積用コンデンサ01〜C4に電荷
を蓄積したり、または消去することにより行われる。
... (5) According to the change amount ΔW obtained in this way, the weight W of the connection is
Change ij. The connection weight Wij is changed by storing or erasing charges in each of the charge storage capacitors 01 to C4 of the stacked memory element 11.

以上のような逆伝播法により、神経回路網に例えば個人
の手書き文字の特徴を学習させることができる。
By using the backpropagation method as described above, it is possible to make a neural network learn, for example, the characteristics of an individual's handwritten characters.

次に、学習のすんだFDPモデルの神経回路網で文字認
識を行った。その結果、学習サンプルに対して98,5
%以上の漢字認識率を示した。
Next, character recognition was performed using the trained neural network of the FDP model. As a result, 98,5 for the training sample
showed a kanji recognition rate of over %.

このように本実施例によれば、二次元的に集積した複数
の積層メモリ素子11に各々設けられた書込み電極12
および読出し電極13に、マトリクス電極j1””J3
111〜i、からアクセスするようにしたので、各積層
メモリ素子11へ独立してアクセスすることができる。
As described above, according to this embodiment, the write electrodes 12 provided on each of the plurality of stacked memory elements 11 that are two-dimensionally integrated are
and readout electrode 13, matrix electrode j1""J3
111 to 111i, each stacked memory element 11 can be accessed independently.

また、FDPモデルに基づいて構成された神経回路網の
中間層に、複数の積層メモリ素子11を集積した三次元
メモリ素子10を用いたので、神経細胞となる各ユニッ
トの結合の重みWijは、各積層メモリ素子11の電荷
蓄積状態を変化させるといった極めて簡単な操作で変更
することができる。また、状態遷移関数(1)、(2)
のXjは全てのjの値に対して同時並列的に計算でき、
よって直列計算していた従来に比べ、計算速度を飛躍的
に向上でき、手書き文字の読取り時間の短縮化を図るこ
とができる。
In addition, since the three-dimensional memory element 10 in which a plurality of stacked memory elements 11 are integrated is used in the intermediate layer of the neural network configured based on the FDP model, the connection weight Wij of each unit that becomes a neuron is This can be changed by an extremely simple operation such as changing the charge storage state of each stacked memory element 11. Also, state transition functions (1), (2)
can be calculated simultaneously and in parallel for all values of j,
Therefore, compared to the conventional method of serial calculation, calculation speed can be dramatically improved, and the time required to read handwritten characters can be shortened.

また、単位面積当たりの密度が極めて高い三次元メモリ
素子10を用いているので、多量の情報を高速に処理で
き、よって従来大型コンピュータでしか行えなかった数
の漢字の認識を、コンパクト化された装置で行うことが
可能となる。
In addition, since it uses a three-dimensional memory element 10 with an extremely high density per unit area, it is possible to process large amounts of information at high speed, allowing for the recognition of a large number of kanji characters, which could previously only be done with large computers, into a compact computer. This can be done using a device.

〔発明の効果〕〔Effect of the invention〕

以上詳記したように本発明によれば、神経回路網の中間
層に三次元メモリ素子を用いたので、並列演算が可能と
なり、手書き文字の認識速度を飛躍的に向上でき、さら
に装置の小型化を図ることができる。
As detailed above, according to the present invention, since a three-dimensional memory element is used in the middle layer of the neural network, parallel calculations are possible, the recognition speed of handwritten characters can be dramatically improved, and the device can be made smaller. It is possible to aim for

【図面の簡単な説明】[Brief explanation of drawings]

第1図は神経回路網の概念的な構成を示す図、第2図は
中間層の構成図、第3図は積層メモリ素子の構成図、第
4図は第3図に示す積層メモリ素子の断面図である。 10・・・三次元メモリ素子、11・・・積層メモリ素
子、12・・・書込み電極、13・・・読出し電極、2
2 a 〜22 e−絶縁膜、23 a 〜23 d 
−・・導電膜。
Figure 1 is a diagram showing the conceptual configuration of a neural network, Figure 2 is a diagram showing the configuration of the intermediate layer, Figure 3 is a diagram showing the configuration of a stacked memory element, and Figure 4 is a diagram showing the configuration of the stacked memory element shown in Figure 3. FIG. DESCRIPTION OF SYMBOLS 10... Three-dimensional memory element, 11... Laminated memory element, 12... Write electrode, 13... Read electrode, 2
2 a to 22 e-insulating film, 23 a to 23 d
--- Conductive film.

Claims (3)

【特許請求の範囲】[Claims] (1)学習機能を有する知能処理モデルに基いて構成さ
れた神経回路網を用いて、文字の読取りを行う文字読取
装置において、 読取りを行う文字の画像情報を入力する入力層と、複数
のメモリセルが三次元状に形成された三次元メモリ素子
からなり、各メモリセルの記憶状態によって決められる
状態遷移関数に基づいて前記文字画像情報を演算処理す
る中間層と、この中間層の演算結果から所定の文字を認
識する出力層とを具備したことを特徴とする文字読取装
置。
(1) A character reading device that reads characters using a neural network configured based on an intelligent processing model with a learning function has an input layer that inputs image information of the characters to be read, and multiple memories. an intermediate layer consisting of a three-dimensional memory element in which cells are formed in a three-dimensional shape, and which performs arithmetic processing on the character image information based on a state transition function determined by the storage state of each memory cell; 1. A character reading device comprising: an output layer that recognizes predetermined characters.
(2)請求項1記載の文字読取装置において、前記三次
元メモリ素子は、導電膜と絶縁膜とが交互に積層され前
記絶縁膜を電荷がトンネル伝導する積層トンネルスイッ
チ部と、この積層トンネルスイッチ部の積層方向の両端
部にそれぞれ絶縁膜を介して設けられた書込み電極およ
び読出し電極と、前記導電膜の各々にそれぞれ接続され
た複数の電荷蓄積用コンデンサとからなる積層メモリ素
子を二次元的に集積してなることを特徴とする文字読取
装置。
(2) In the character reading device according to claim 1, the three-dimensional memory element includes a laminated tunnel switch section in which conductive films and insulating films are alternately laminated and charges are tunnel-conducted through the insulating films, and the laminated tunnel switch. A multilayer memory element is two-dimensionally constructed, which includes a write electrode and a read electrode provided at both ends in the stacking direction of the section through an insulating film, and a plurality of charge storage capacitors connected to each of the conductive films. A character reading device characterized by being integrated into.
(3)請求項1記載の文字読取装置において、前記神経
回路網をパラレルディストリビューテットプロセッシン
グモデルに基づいて構成し、かつ、この神経回路網をバ
ックプロパゲーション法(誤差逆伝播法)によって学習
させることを特徴とする文字読取装置。
(3) In the character reading device according to claim 1, the neural network is constructed based on a parallel distributed processing model, and the neural network is trained by a backpropagation method (error backpropagation method). A character reading device featuring:
JP1259615A 1989-10-04 1989-10-04 Character reader Pending JPH03121581A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1259615A JPH03121581A (en) 1989-10-04 1989-10-04 Character reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1259615A JPH03121581A (en) 1989-10-04 1989-10-04 Character reader

Publications (1)

Publication Number Publication Date
JPH03121581A true JPH03121581A (en) 1991-05-23

Family

ID=17336544

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1259615A Pending JPH03121581A (en) 1989-10-04 1989-10-04 Character reader

Country Status (1)

Country Link
JP (1) JPH03121581A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7251157B2 (en) * 2004-03-12 2007-07-31 Hitachi, Ltd. Semiconductor device
JP2020532780A (en) * 2017-08-11 2020-11-12 グーグル エルエルシー Neural network accelerator with parameters resident on the chip

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7251157B2 (en) * 2004-03-12 2007-07-31 Hitachi, Ltd. Semiconductor device
US7379328B2 (en) 2004-03-12 2008-05-27 Hitachi, Ltd. Semiconductor device
JP2020532780A (en) * 2017-08-11 2020-11-12 グーグル エルエルシー Neural network accelerator with parameters resident on the chip
US11501144B2 (en) 2017-08-11 2022-11-15 Google Llc Neural network accelerator with parameters resident on chip
US11727259B2 (en) 2017-08-11 2023-08-15 Google Llc Neural network accelerator with parameters resident on chip

Similar Documents

Publication Publication Date Title
CN109460817B (en) Convolutional neural network on-chip learning system based on nonvolatile memory
Spirkovska et al. Coarse-coded higher-order neural networks for PSRI object recognition
Yu et al. An overview of neuromorphic computing for artificial intelligence enabled hardware-based hopfield neural network
US20110119215A1 (en) Hardware analog-digital neural networks
Thakoor et al. Electronic hardware implementations of neural networks
Bai et al. Spatial-temporal hybrid neural network with computing-in-memory architecture
Tao et al. Circuit modeling for RRAM-based neuromorphic chip crossbar array with and without write-verify scheme
CN110651330A (en) Deep learning in a two-memristive network
Bai et al. Deep-DFR: A memristive deep delayed feedback reservoir computing system with hybrid neural network topology
Ananthakrishnan et al. All-passive hardware implementation of multilayer perceptron classifiers
JPH03121581A (en) Character reader
CN114724595B (en) Convolution operation accelerator and convolution operation method
US20220027718A1 (en) Unsupervised learning of memristor crossbar neuromorphic processing systyems
Qiu et al. Neuromorphic acceleration for context aware text image recognition
Liu et al. ReRAM-based Circuit and System Design for Future Storage and Computing
Alla et al. Silicon integration of learning algorithms and other auto-adaptive properties in a digital feedback neural network
Kendall et al. Deep learning in memristive nanowire networks
Jackel et al. VLSI implementations of electronic neural networks: An example in character recognition
Brouwer A fuzzy recurrent artificial neural network (frann) for pattern classification
Hasan Memristor based low power high throughput circuits and systems design
CN114241245B (en) Image classification system based on residual capsule neural network
Kiselyov et al. Optical associative memory for high-order correlation patterns
Rückert VLSI Design of an associative memory based on distributed storage of information
CN112396176B (en) Hardware neural network batch normalization system
KR102656337B1 (en) Semiconductor device based on ternary precision xnor logic and neuromorphic computing system including the same