JP3574246B2 - Pattern recognition device - Google Patents

Pattern recognition device Download PDF

Info

Publication number
JP3574246B2
JP3574246B2 JP33253195A JP33253195A JP3574246B2 JP 3574246 B2 JP3574246 B2 JP 3574246B2 JP 33253195 A JP33253195 A JP 33253195A JP 33253195 A JP33253195 A JP 33253195A JP 3574246 B2 JP3574246 B2 JP 3574246B2
Authority
JP
Japan
Prior art keywords
unit
pen tip
neural network
pattern
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP33253195A
Other languages
Japanese (ja)
Other versions
JPH09153115A (en
Inventor
俊之 古田
康弘 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP33253195A priority Critical patent/JP3574246B2/en
Publication of JPH09153115A publication Critical patent/JPH09153115A/en
Application granted granted Critical
Publication of JP3574246B2 publication Critical patent/JP3574246B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
この発明はパターン認識装置、特にパターンの認識率の向上に関するものである。
【0002】
【従来の技術】
ペン型のパターン認識装置ではタブレット板を用いて文字を入力していた。ペン型のパターン認識装置は文字入力があると、ペン先部のxy座標を得てからストローク情報を作成し、パターンマッチング等を行なうことにより入力文字を認識していた。
【0003】
また、特開平7−175893号公報に掲載された手書き文字認識装置ではパターンマッチングを行なう代わりにタブレット板に入力された手書き文字の特徴値をニューラルネットワーク演算部に与えニューラルネットワーク演算部で手書き文字の認識をしている。
【0004】
【発明が解決しようとする課題】
しかしながら、タブレット板は多くのスペ−スを必要とするので使い勝手が悪く、タブレット板を用いずに正確に入力パターンの認識ができる装置が望まれていた。
【0005】
この発明はかかる要望を満足するためになされたものであり、タブレット板を用いずに文字及び図形を入力することができるようにすると共に、ニューラルネットワークを用いて入力した文字等のパターンの認識率の向上を図ることを目的とする。
【0006】
【課題を解決するための手段】
この発明に係るパターン認識装置は、方向検出部と感圧部とニューラルネットワーク演算部と切替部を備えている。そして、方向検出部は、ペン先部の加速度を検出する加速度検出部を有し、ペン先部の筆記面上の移動方向を検出する。また、感圧部はペン先部が筆記面に接触しているか否かを検出する。更に、ニューラルネットワーク演算部は、感圧部がペン先部と筆記面とが接触していることを検出しているときに加速度検出部が検出したペン先部の移動方向に関する情報を分析し入力パターンの特徴を示す情報を出力する。また、切替部は、感圧部の検出結果に応じてニューラルネットワーク演算部のニューラルネットワーク結合係数を切り替える。よって、簡単な構成でペン先部が筆記面に接しているとき及び接していないときのペン先部の描くパターンを検出し、両パターンを比較して図形が入力されたときのパターン認識率をより高くする。
【0017】
【発明の実施の形態】
この発明のパターン認識装置は、ペン型の形状を有し、筆記面上を移動するペン先部の移動方向及び移動量を基に入力パターンを認識し、ホストコンピュータ等に認識結果を出力するペン型のパターン認識装置であって、ペン先部に加わる2方向の力を検出することによりパターン認識装置がタブレット板等を用いずに文字及び図形を入力することができるようにすると共に、ニューラルネットワークを用いてパターンに認識精度を高めるものである。
【0018】
パターン認識装置は、方向検出部と演算部を有する。方向検出部はペン先部の筆記面上の移動方向を検出する。方向検出部は、例えばペン軸に直交する異なった2方向に向けて歪センサを有する歪検出部又はペン軸に直交する異なった2方向に向けて加速度センサを有する加速度検出部をペン先部に備え、ペン軸に直交する異なった2方向に対するペン先部の歪又は加速度を検出する。ペン軸に直交する異なった2方向でペン先部に対するペン先部の歪又は加速度を検出するので、パターン認識装置は方向検出部がペン先部の移動方向を検出するので、ペン先部の移動方向及び移動量を検出し、検出した移動方向及び移動量をトレースすることにより、文字及び図形を入力することができる。なお、ペン先部の移動量は、例えば加速度検出部で検出した加速度を2回積分して求める。
【0019】
演算部は、例えば前処理部とニューラルネットワーク演算部とパターン認識部を備える。前処理部はニューラルネットワーク演算部の構成に応じて方向検出部からのデータを増幅処理をしたり、2値化したりしてニューラルネットワーク演算部に入力するのに適した信号に変換する。ニューラルネットワーク演算部は協調、競合作用及び自己組織化能力に基づいて入力信号をいくつかの特徴に分析すると共に、それらを統合することによってニューラルネットワークを構成した部分であり、方向検出部が検出したペン先部の移動方向に関する情報を入力して入力パターンを分析し、入力パターンの特徴を示す情報を出力する。ニューラルネットワーク演算部は、例えば予め認識させたいパターンを実際に入力したときの方向検出部からのデータをサンプリングしこれらのデータを入力層に入力し、出力層に分類したいパターン数分のニューロンを用意し、各パターンとニューロンを対応させておく。あるパターンが入力されたときそれに対応するニューロンの出力が「1」となり、それ以外のニューロンの出力が「0」となるように、例えばバックプロパゲーション法等で学習させておく。ニューラルネットワーク演算部はこのようにして得られた結合係数と同じ結合係数でニューラルネットワーク演算を行なう。パターン認識部はニューラルネットワーク演算部が出力した特徴を示す情報を入力して、ニューロンの出力が一番大きいものを探し出しそれに対応するパターンを認識結果として出力する。
【0020】
さらに、ペン先部が筆記面に接触しているときにのみパターン認識をして余計な演算をしないようにしたり、ペン先部が筆記面に接触していないときのペン先部の軌跡をとり、ペン先部が筆記面に接触しているときのペン先部の軌跡と比較し、パターン認識率を高めるようにしても良い。ペン先部が筆記面に接触しているか否かは圧力センサ等を有する感圧部を用いたり、上記歪センサの検出結果から判断したり、ペン軸方向に設けた加速度センサ等を用いて行なう。なお、歪センサの検出結果から判断する場合はニューラルネットワーク演算部は歪検出部の出力が一定値以上のときに歪検出部が検出したペン先部に加わる力に関する情報を分析し入力パターンの特徴を示す情報を出力する。ここで、上記一定値とはペン先部が筆記面と接触していないときの歪センサの出力値及びノイズを遮断する程度の値である。
【0021】
さらに、ニューラルネットワーク演算部の構成を簡単にするために、方向検出部の検出結果を一旦記憶部に記憶して、ニューラルネットワーク演算部では記憶部に記憶した情報を基に入力パターンの分析を行なう用にしても良い。方向検出部の検出結果をそのままニューラルネットワーク演算部に入力すると、ニューラルネットワーク演算部をリカレント型にしなければならず、構成が複雑になるが、一旦記憶部に記憶することにより簡単な構成のニューラルネットワーク演算部で入力パターンの分析ができるようになる。
【0022】
【実施例】
図1はこの発明の一実施例のパターン認識装置の構成図である。パターン認識装置1は、図に示すようにペン形状をしており、感圧部2、方向検出部3、演算部4、記憶部5及び電源部6を有し、筆記面上を移動するペン先部8の移動方向及び移動量を基に入力パターンを認識し、ホストコンピュータ等に認識結果を出力する。感圧部2は圧力センサ2aを備える。圧力センサ2aはペン先部8に設けられ、筆記面からペン先部8に加わる圧力を検出する。移動検出手段3は、例えば歪センサ3a,3bを備える。歪センサ3a,3bはパターン認識装置1のペン先部8に設けられ、筆記面上をペン先部8が移動する際に生じるペン軸9と直交する2方向に対するペン先部8の歪からを検出して、ペン先部8の移動方向を検出する。
【0023】
演算部4は、図2に示すように前処理部41とニューラルネットワーク演算部42とパターン認識部43を備える。前処理部41は歪センサ3a,3bからの信号を増幅処理及び2値化処理等してニューラルネットワーク演算部42に入力するのに適した信号に変換する。前処理部41が歪センサ3a,3bからのペン先部8の歪を示すアナログ信号を増幅した後にデジタル信号に変換し、例えば歪センサ3a,3bからのペン先部8の歪が一定値以上であると、ニューラルネットワーク演算部42は入力層421から入力したペン先部8の移動方向を示すデジタル信号を分析し、入力パターンの特徴を示す情報を出力する。これにより、パターン認識装置1はペン先部8にパターン入力を開始するためのスイッチなどを設けなくとも、パターンの入力タイミングを知ることができる。
【0024】
ニューラルネットワーク演算部42は前処理部41からの信号を基にニューラルネットワーク演算を行なう部分であり、協調、競合作用及び自己組織化能力に基づいて入力信号をいくつかの特徴に分析すると共に、それらを統合することによって、図3に示すようなニューラルネットワークを構成した部分であり、この実施例では演算部4内に設けたが、アナログ型のニューラルネットワークチップ又はデジタル型ニューラルネットワークチップから構成しても良い。例えば予め認識させたいパターンとして直線8種類、曲線2種類、折線2種類を用意し、実際にこれらのパターンを入力したときの歪センサ3a,3bからのデータをサンプリングし、ニューラルネットワーク演算部42にこれらのデータを入力層421に入力し、出力層423に分類したいパターン数分のニューロンを用意し、各パターンとニューロンを対応させておく。あるパターンが入力されたときそれに対応するニューロンの出力が「1」となりそれ以外のニューロンの出力が「0」となるように、例えばバックプロパゲーション法等で学習させておく。ニューラルネットワーク演算部42はこのようにして得られた結合係数と同じ結合係数でニューラルネットワーク演算を行なう。なお、この実施例における歪センサ3a,3bからのデータは時系列データであるので、ニューラルネットワークをリカレント型に構成する。
【0025】
パターン認識部43はニューラルネットワーク演算部42からの出力信号により入力パターンを認識する部分である。パターン認識部43は、例えば上記のように予め学習したニューラルネットワーク演算部42の出力層423のニューロンの出力が最も大きいものを探しだし、それに対応するパターンを入力されたパターンとして判定し判定結果をホスト装置等に出力する。このように、ペン先部8の歪を検出することにより、タブレット等を用いずにパターン認識装置1からパターン入力をすることができる。また、入力するパターンは図形であっても良いし、文字を構成する基本的な構成要素であっても良い。文字を構成する基本的な構成要素のパターンを入力する場合は、基本構成要素の認識結果が順次得られ、得られた基本構成要素の組合せと辞書とのマッチングを行なうことにより文字の認識をすることができる。なお、演算部4、記憶部5及び電源部6はホストコンピュータ等の内部に設けても良い。
【0026】
上記構成のパターン認識装置1の動作を、図4のフローチャートを参照して説明する。
【0027】
前処理部42は歪センサ3a,3bが検出したペン先部8の歪を示すアナログ信号を増幅した後にデジタル信号に変換し、ニューラルネットワーク演算部42の入力層421に入力する(ステップS1)。ニューラルネットワーク演算部42は圧力センサ2からの信号を基にペン先部8が筆記面に接触しパターン入力が開始されたことを検出すると(ステップS2)、前処理部41から入力層421に入力した信号に対応するニューロンの出力を「1」とし、それ以外のニューロンの出力を「0」として、入力信号のパターンを大分類し、分類結果を中間層422に出力する(ステップS3)。その後、ニューラルネットワーク演算部42は中間層422に入力した大分類結果に対応するニューロンの出力を「1」とし、それ以外のニューロンの出力を「0」として、入力信号のパターンを細分類し、パターン認識部43に出力する(ステップS4)。ニューラルネットワーク演算部42はペン先部8と筆記面とが接触していると判断している間はパターン入力が継続していると判断して、上記処理(ステップS2〜S4)を繰り返す(ステップS5)。パターン認識部43はニューラルネットワーク演算部42から入力した入力パターンの分析結果を基に出力値が一番大きいニューロンを探し出して入力したパターンの認識を行なう(ステップS6)。
【0028】
ここで、ニューラルネットワーク演算部42は、ニューラルネットワーク演算をするので、例えば図5(a)に示すような文字の構成要素が互いに離れた入力パターンを基に、図5(b)に示すような正しい入力を自己想起することができ、入力パターンの認識率を高めることができる。このように、歪センサ3a,3bを用いてペン軸9に直交する異なった2方向でペン先部8に加わる力を検出するので、任意の平面上で文字及び図形等を入力することができると共に、ニューラルネットワーク演算部42を用いることにより、入力パターンの認識率を高めることができる。また、ペン先部8が筆記面に接触していないときにはニューラルネットワーク演算部42はニューラルネットワーク演算を行なわないので、無駄な演算を行なう必要がなく、特に複雑な処理を行なう場合に処理速度を向上することができる。
【0029】
なお、上記実施例では歪センサ3a,3bを用いて、ペン先部に加わる力を検出してペン先部6の移動方向及び移動量を求めたが、歪センサ3a,3bの代わりに図6に示すように加速度センサ3c,3dを用いても良い。加速度センサ3c,3dを用いることにより、ペン先部8が筆記面に接触していない場合であっても、ペン先部8の移動軌跡をトレースすることができる。
【0030】
さらに、ペン軸方向の加速度を検出する加速度センサを有するペン軸方向加速度検出部10を備え、ペン先部8が筆記面に接触しているか否かを加速度センサからの信号を基にして判断するようにしても良い。これにより、ペン先部8が筆記面に接触しているか否かを検出することができると共に、ペン軸9の傾斜を検出し方向検出部3の検出結果を補正することにより、さらに正確にペン先部8の移動方向及び移動量を検出することができる。
【0031】
また、例えば図5(a)に示すように文字を一筆で書くことができない場合に文字パターン全体の認識が困難になる場合もあるので、図7に示すようにペン先部8が筆記面と接触しているときにペン先部8の描くパターンを認識するニューラルネットワーク演算部42aと、筆記面に接触していないときにペン先部8の描くパターンを認識するニューラルネットワーク演算部42bとを設けるようにしても良い。このように、ペン先部8が筆記面に接触しているときとペン先部8が筆記面に接触していないときの入力パターンの分類を各々独立に行なうことにより、両分類結果を比較及び連続させ、入力パターン全体の形状を容易に知ることができ、入力パターンの認識率をさらに高めることができる。なお、上記ニューラルネットワーク演算部42a,42bが認識したパターンが一つの文字の構成要素内で区切られたパターンか又は異なった文字の構成要素であるかは、例えばタイマ等を用いて一定時間以上ペン先部8が筆記面から離れているときは異なった文字と判断する。
【0032】
また、ニューラルネットワーク演算部42aとニューラルネットワーク演算部42bを設けると構成が複雑になるので、図8に示すような切替部44を備えても良い。一文字を形成するためにペン先部8が描く軌跡のパターンをペン先部8が筆記面に接触しているときと離れているときのそれぞれの場合でニューラルネットワーク演算部42に予め学習させ、それぞれ場合のニューラルネットワーク結合係数を求めておき、切替部44はペン先部8が筆記面に接触しているときと離れているときでニューラルネットワーク結合係数を切り替える。これにより、簡単な構成でパターン認識装置1のパターン認識率をさらに高めることができる。
【0033】
また、上記実施例ではリカレント型のニューラルネットワークを構成したが、ペン先部8の移動方向を示す情報を一旦記憶部5に記憶するようにして、リカレント型以外のニューラルネットワークを用いるようにしても良い。図9に示すように歪センサ3a,3b又は加速度センサ3c,3dからの信号を前処理部41で処理した後に、例えばペン先部8が筆記面に接触している場合にのみ歪センサ3a,3b又は加速度センサ3c,3dからの信号を記憶部5に一旦記憶する。例えば、ペン先部8は筆記面と接触してから離れるまでの前処理部41からのデータを「32」個に分割し、ニューラルネットワーク演算部42に入力する。ニューラルネットワーク演算部42は記憶部5に記憶したデータに基づいて入力パターンの分析を出力する。これにより、ニューラルネットワーク演算部42ではリカレント型以外のニューラルネットワークを採用することができ、ニューラルネットワーク演算部42の構成を簡単にすることができる。
【0035】
さらに、図10に示すように間引補間部45を備え、ペン先部8の移動速度の影響を調整するようにしても良い。間引補間部45は記憶部5に記憶したペン先部8に加わる力に関するデータを、例えば同一パターンでの筆記中のデータ量が一定なるように調整する。間引補間部45は、例えば記憶部に記憶したデータ量が多い場合は間引き処理を行ない、記憶部5に記憶したデータ量が少ない場合は補間処理を行なう。
【0036】
また、上記実施例では感圧部2に圧力センサ2aを用いたがマイクロスイッチ等を用いても良い。
【0037】
【発明の効果】
この発明は以上説明したように、この発明に係るパターン認識装置は、方向検出部と感圧部とニューラルネットワーク演算部と切替部を備えている。そして、方向検出部は、ペン先部の加速度を検出する加速度検出部を有し、ペン先部の筆記面上の移動方向を検出する。また、感圧部はペン先部が筆記面に接触しているか否かを検出する。更に、ニューラルネットワーク演算部は、感圧部がペン先部と筆記面とが接触していることを検出しているときに加速度検出部が検出したペン先部の移動方向に関する情報を分析し入力パターンの特徴を示す情報を出力する。また、切替部は、感圧部の検出結果に応じてニューラルネットワーク演算部のニューラルネットワーク結合係数を切り替える。よって、簡単な構成でペン先部が筆記面に接しているとき及び接していないときのペン先部の描くパターンを検出し、両パターンを比較して図形が入力されたときのパターン認識率をより高くする。
【図面の簡単な説明】
【図1】この発明の実施例を示す構成図である。
【図2】演算部の構成を示す構成図である。
【図3】ニューラルネットワークの構成図である。
【図4】この発明の動作を示すフローチャートである。
【図5】ニューラルネットワーク演算部の自己想起例を説明する説明図である。
【図6】方向検出部に加速度センサを用いた場合の構成図である。
【図7】ニューラルネットワーク演算部を二つ設けた場合の演算部の構成図である。
【図8】切替部を備える場合の演算部の構成部である。
【図9】方向検出部の検出結果を記憶部に記憶する場合の演算部の構成図である。
【図10】入力パターンサイズが異なったものを判定する場合の演算部の構成図である。
【符号の説明】
1 パターン入力装置
2 感圧部
2a 圧力センサ
3 方向検出部
3a 歪センサ
3b 歪センサ
3c 加速度センサ
3d 加速度センサ
4 演算部
41 前処理部
42 ニューラルネットワーク演算部
43 パターン認識部
44 切替部
45 間引補間部
5 記憶部
8 ペン先部
10 ペン軸方向加速度検出部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a pattern recognition device, and more particularly to an improvement in a pattern recognition rate.
[0002]
[Prior art]
In the pen-type pattern recognition device, characters are input using a tablet board. When there is a character input, the pen-type pattern recognition device obtains the xy coordinates of the pen tip, creates stroke information, and performs pattern matching or the like to recognize the input character.
[0003]
In the handwritten character recognition device disclosed in Japanese Patent Application Laid-Open No. 7-175893, instead of performing pattern matching, a feature value of a handwritten character input to a tablet board is given to a neural network operation unit, and the neural network operation unit recognizes the handwritten character. I am aware.
[0004]
[Problems to be solved by the invention]
However, tablet boards require a large amount of space and are therefore inconvenient to use, and there has been a demand for an apparatus capable of accurately recognizing an input pattern without using a tablet board.
[0005]
SUMMARY OF THE INVENTION The present invention has been made to satisfy such a demand, and it has been made possible to input characters and graphics without using a tablet board, and to recognize a pattern of characters and the like input using a neural network. The aim is to improve the quality.
[0006]
[Means for Solving the Problems]
A pattern recognition device according to the present invention includes a direction detection unit, a pressure sensing unit, a neural network operation unit, and a switching unit. The direction detection unit has an acceleration detection unit that detects the acceleration of the pen tip, and detects the moving direction of the pen tip on the writing surface. The pressure sensing section detects whether the pen tip is in contact with the writing surface. Further, the neural network operation unit analyzes and inputs information on the movement direction of the pen tip detected by the acceleration detection unit when the pressure sensing unit detects that the pen tip is in contact with the writing surface. Outputs information indicating the characteristics of the pattern. The switching unit switches the neural network coupling coefficient of the neural network operation unit according to the detection result of the pressure sensing unit. Therefore, with a simple configuration, the pattern drawn by the pen tip when the pen tip is in contact with the writing surface and when the pen tip is not in contact is detected, and the two patterns are compared to determine the pattern recognition rate when a graphic is input. Make it higher.
[0017]
BEST MODE FOR CARRYING OUT THE INVENTION
A pattern recognition device according to the present invention has a pen-like shape, recognizes an input pattern based on a moving direction and a moving amount of a pen tip moving on a writing surface, and outputs a recognition result to a host computer or the like. A pattern recognition device of the type, which detects a force in two directions applied to a pen tip so that the pattern recognition device can input characters and figures without using a tablet board or the like. Is used to improve the recognition accuracy of the pattern.
[0018]
The pattern recognition device has a direction detection unit and a calculation unit. The direction detecting unit detects a moving direction of the pen tip on the writing surface. The direction detection unit may include, for example, a strain detection unit having a strain sensor in two different directions perpendicular to the pen axis or an acceleration detection unit having an acceleration sensor in two different directions perpendicular to the pen axis at the pen tip. It detects the distortion or acceleration of the pen tip in two different directions perpendicular to the pen axis. Since the distortion or acceleration of the pen tip with respect to the pen tip is detected in two different directions perpendicular to the pen axis, the pattern recognition device detects the direction of movement of the pen tip by the direction detection unit, and thus moves the pen tip. By detecting the direction and the amount of movement and tracing the detected direction and amount of movement, characters and figures can be input. The amount of movement of the pen tip is obtained by, for example, integrating the acceleration detected by the acceleration detection unit twice.
[0019]
The calculation unit includes, for example, a preprocessing unit, a neural network calculation unit, and a pattern recognition unit. The preprocessing unit amplifies or binarizes data from the direction detection unit according to the configuration of the neural network operation unit, and converts the data into a signal suitable for input to the neural network operation unit. The neural network operation unit analyzes the input signal into several features based on coordination, competition, and self-organizing ability, and combines them to form a neural network, which is detected by the direction detection unit. Information about the direction of movement of the pen tip is input to analyze the input pattern and output information indicating the characteristics of the input pattern. The neural network operation unit, for example, samples data from the direction detection unit when a pattern to be recognized in advance is actually input, inputs these data to the input layer, and prepares neurons for the number of patterns to be classified into the output layer. Then, each pattern is associated with a neuron. When a certain pattern is input, learning is performed by, for example, a back propagation method or the like so that the output of the corresponding neuron becomes “1” and the output of other neurons becomes “0”. The neural network operation unit performs the neural network operation using the same coupling coefficient as the coupling coefficient thus obtained. The pattern recognition unit inputs the information indicating the feature output by the neural network operation unit, searches for the one with the largest output from the neuron, and outputs the corresponding pattern as a recognition result.
[0020]
In addition, pattern recognition is performed only when the pen tip is in contact with the writing surface to prevent unnecessary calculations, or to trace the pen tip when the pen tip is not in contact with the writing surface. Alternatively, the pattern recognition rate may be increased by comparing with the locus of the pen tip when the pen tip is in contact with the writing surface. Whether or not the pen tip is in contact with the writing surface is determined by using a pressure-sensitive portion having a pressure sensor or the like, judging from the detection result of the strain sensor, or by using an acceleration sensor or the like provided in the pen axis direction. . When judging from the detection result of the strain sensor, the neural network operation unit analyzes information on the force applied to the pen tip detected by the strain detection unit when the output of the strain detection unit is equal to or more than a certain value, and analyzes the characteristics of the input pattern. Is output. Here, the constant value is an output value of the distortion sensor when the pen tip portion is not in contact with the writing surface and a value that blocks noise.
[0021]
Further, in order to simplify the configuration of the neural network operation unit, the detection result of the direction detection unit is temporarily stored in the storage unit, and the neural network operation unit analyzes the input pattern based on the information stored in the storage unit. You may use it. If the detection result of the direction detection unit is directly input to the neural network operation unit, the neural network operation unit must be of a recurrent type, which complicates the configuration. However, once stored in the storage unit, the neural network has a simple configuration. The operation unit can analyze the input pattern.
[0022]
【Example】
FIG. 1 is a configuration diagram of a pattern recognition device according to one embodiment of the present invention. The pattern recognition device 1 has a pen shape as shown in the figure, and has a pressure sensing unit 2, a direction detection unit 3, a calculation unit 4, a storage unit 5, and a power supply unit 6, and a pen that moves on a writing surface. The input pattern is recognized based on the moving direction and the moving amount of the tip section 8, and the recognition result is output to a host computer or the like. The pressure sensing unit 2 includes a pressure sensor 2a. The pressure sensor 2a is provided on the pen tip 8, and detects pressure applied to the pen tip 8 from a writing surface. The movement detecting means 3 includes, for example, strain sensors 3a and 3b. The distortion sensors 3a and 3b are provided on the pen tip 8 of the pattern recognition device 1, and detect the distortion of the pen tip 8 in two directions orthogonal to the pen axis 9 when the pen tip 8 moves on the writing surface. Then, the direction of movement of the pen tip 8 is detected.
[0023]
The calculation unit 4 includes a preprocessing unit 41, a neural network calculation unit 42, and a pattern recognition unit 43, as shown in FIG. The preprocessing unit 41 converts the signals from the distortion sensors 3a and 3b into signals suitable for input to the neural network operation unit 42 by performing an amplification process, a binarization process, and the like. The pre-processing unit 41 amplifies an analog signal indicating the distortion of the pen tip 8 from the distortion sensors 3a and 3b and then converts the signal into a digital signal. In this case, the neural network operation unit 42 analyzes the digital signal indicating the moving direction of the pen tip 8 input from the input layer 421 and outputs information indicating the characteristics of the input pattern. Thereby, the pattern recognition device 1 can know the input timing of the pattern without providing a switch or the like for starting the pattern input in the pen tip portion 8.
[0024]
The neural network operation unit 42 performs a neural network operation based on the signal from the pre-processing unit 41. The neural network operation unit 42 analyzes the input signal into several features based on coordination, competition, and self-organizing ability. Are integrated to form a neural network as shown in FIG. 3. In this embodiment, the neural network is provided in the arithmetic unit 4. However, the neural network is composed of an analog neural network chip or a digital neural network chip. Is also good. For example, eight types of straight lines, two types of curves, and two types of bent lines are prepared as patterns to be recognized in advance, and data from the strain sensors 3a and 3b when these patterns are actually input are sampled. These data are input to the input layer 421, and neurons for the number of patterns to be classified are prepared in the output layer 423, and each pattern is associated with a neuron. When a certain pattern is input, learning is performed by, for example, a back propagation method so that the output of the corresponding neuron becomes “1” and the output of the other neurons becomes “0”. The neural network operation unit 42 performs a neural network operation using the same coupling coefficient as the coupling coefficient thus obtained. Since the data from the strain sensors 3a and 3b in this embodiment is time-series data, the neural network is configured as a recurrent type.
[0025]
The pattern recognition unit 43 is a unit that recognizes an input pattern based on an output signal from the neural network operation unit 42. The pattern recognition unit 43 searches for the largest output of the neuron of the output layer 423 of the neural network operation unit 42 learned in advance as described above, determines the corresponding pattern as the input pattern, and determines the determination result. Output to host device etc. As described above, by detecting the distortion of the pen tip 8, a pattern can be input from the pattern recognition device 1 without using a tablet or the like. The pattern to be input may be a figure or a basic component constituting a character. In the case of inputting a pattern of basic constituent elements constituting a character, recognition results of the basic constituent elements are sequentially obtained, and character recognition is performed by matching the obtained combination of the basic constituent elements with a dictionary. be able to. The operation unit 4, the storage unit 5, and the power supply unit 6 may be provided inside a host computer or the like.
[0026]
The operation of the pattern recognition device 1 having the above configuration will be described with reference to the flowchart of FIG.
[0027]
The preprocessing unit 42 amplifies an analog signal indicating the distortion of the pen tip 8 detected by the distortion sensors 3a and 3b, converts the signal into a digital signal, and inputs the digital signal to the input layer 421 of the neural network operation unit 42 (step S1). When the neural network operation unit 42 detects that the pen tip 8 has touched the writing surface and the pattern input has started based on the signal from the pressure sensor 2 (step S2), the input is input from the preprocessing unit 41 to the input layer 421. The output of the neuron corresponding to the obtained signal is set to “1”, and the outputs of the other neurons are set to “0”, the input signal pattern is largely classified, and the classification result is output to the intermediate layer 422 (step S3). After that, the neural network operation unit 42 classifies the input signal pattern into sub-classes by setting the output of the neuron corresponding to the large classification result input to the intermediate layer 422 to “1” and the other neurons to “0”, Output to the pattern recognition unit 43 (Step S4). The neural network operation unit 42 determines that the pattern input is continued while determining that the pen tip 8 is in contact with the writing surface, and repeats the above processing (steps S2 to S4) (step S2). S5). The pattern recognition unit 43 searches for a neuron having the largest output value based on the analysis result of the input pattern input from the neural network operation unit 42 and recognizes the input pattern (step S6).
[0028]
Here, since the neural network operation unit 42 performs the neural network operation, for example, based on the input pattern in which the components of the character as shown in FIG. 5A are separated from each other, as shown in FIG. A correct input can be recalled by itself, and the recognition rate of the input pattern can be increased. As described above, since the forces applied to the pen tip 8 in two different directions perpendicular to the pen axis 9 are detected using the strain sensors 3a and 3b, characters, figures, and the like can be input on an arbitrary plane. In addition, by using the neural network operation unit 42, the recognition rate of the input pattern can be increased. Also, when the pen tip 8 is not in contact with the writing surface, the neural network operation unit 42 does not perform the neural network operation, so there is no need to perform useless operation, and the processing speed is improved particularly when complicated processing is performed. can do.
[0029]
In the above embodiment, the strain sensors 3a and 3b are used to detect the force applied to the pen tip to determine the moving direction and the amount of movement of the pen tip 6, but instead of the strain sensors 3a and 3b, FIG. The acceleration sensors 3c and 3d may be used as shown in FIG. By using the acceleration sensors 3c and 3d, the movement trajectory of the pen tip 8 can be traced even when the pen tip 8 is not in contact with the writing surface.
[0030]
The pen-axis-direction acceleration detection unit 10 having an acceleration sensor for detecting acceleration in the pen-axis direction is provided, and it is determined whether or not the pen tip 8 is in contact with the writing surface based on a signal from the acceleration sensor. You may do it. This makes it possible to detect whether or not the pen tip 8 is in contact with the writing surface, and to detect the inclination of the pen shaft 9 and correct the detection result of the direction detection unit 3 to more accurately detect the pen. The direction and amount of movement of the tip 8 can be detected.
[0031]
In addition, for example, when a character cannot be written with one stroke as shown in FIG. 5A, it may be difficult to recognize the entire character pattern. Therefore, as shown in FIG. A neural network operation unit 42a for recognizing a pattern drawn by the pen tip 8 when in contact with the user, and a neural network operation unit 42b for recognizing a pattern drawn by the pen tip 8 when not in contact with the writing surface are provided. You may do it. In this way, by separately classifying the input patterns when the pen tip 8 is in contact with the writing surface and when the pen tip 8 is not in contact with the writing surface, the two classification results can be compared and compared. By making them continuous, the shape of the entire input pattern can be easily known, and the recognition rate of the input pattern can be further increased. Whether the pattern recognized by the neural network operation units 42a and 42b is a pattern divided within one character component or a different character component is determined by using a timer or the like for a certain period of time. When the tip part 8 is separated from the writing surface, it is determined that the character is different.
[0032]
In addition, since the configuration becomes complicated when the neural network operation unit 42a and the neural network operation unit 42b are provided, a switching unit 44 as shown in FIG. 8 may be provided. The neural network operation unit 42 learns in advance the pattern of the trajectory drawn by the pen tip unit 8 to form one character in each case when the pen tip unit 8 is in contact with the writing surface and when it is apart from the writing surface. In this case, the neural network coupling coefficient is obtained in advance, and the switching unit 44 switches the neural network coupling coefficient when the pen tip 8 is in contact with the writing surface and when it is apart from the writing surface. Thus, the pattern recognition rate of the pattern recognition device 1 can be further increased with a simple configuration.
[0033]
In the above embodiment, a recurrent type neural network is configured. However, information indicating the moving direction of the pen tip 8 may be temporarily stored in the storage unit 5, and a neural network other than the recurrent type may be used. good. As shown in FIG. 9, after the signals from the strain sensors 3a, 3b or the acceleration sensors 3c, 3d are processed by the pre-processing unit 41, for example, only when the pen tip 8 is in contact with the writing surface, the strain sensors 3a, 3b The signal from the acceleration sensor 3b or the acceleration sensors 3c and 3d is temporarily stored in the storage unit 5. For example, the pen tip unit 8 divides the data from the pre-processing unit 41 from the time it comes into contact with the writing surface to the time it separates from the writing surface into 32 pieces, and inputs the data to the neural network operation unit 42. The neural network operation unit 42 outputs an analysis of the input pattern based on the data stored in the storage unit 5. Thus, the neural network operation unit 42 can employ a neural network other than the recurrent type, and the configuration of the neural network operation unit 42 can be simplified.
[0035]
Further, as shown in FIG. 10 , a thinning-out interpolation unit 45 may be provided to adjust the influence of the moving speed of the pen tip unit 8. Thinning interpolation section 45 is adjusted to the data relating to the force applied to the pen tip portion 8 stored in the storage unit 5, for example, the data amount in the writing of the same pattern becomes constant. For example, the thinning-out interpolation unit 45 performs the thinning-out processing when the data amount stored in the storage unit 5 is large, and performs the interpolation processing when the data amount stored in the storage unit 5 is small.
[0036]
In the above embodiment, the pressure sensor 2a is used for the pressure sensing unit 2, but a micro switch or the like may be used.
[0037]
【The invention's effect】
As described above, the present invention provides a pattern recognition device including a direction detecting unit, a pressure sensing unit, a neural network operation unit, and a switching unit. The direction detection unit has an acceleration detection unit that detects the acceleration of the pen tip, and detects the moving direction of the pen tip on the writing surface. The pressure sensing section detects whether the pen tip is in contact with the writing surface. Further, the neural network operation unit analyzes and inputs information on the movement direction of the pen tip detected by the acceleration detection unit when the pressure sensing unit detects that the pen tip is in contact with the writing surface. Outputs information indicating the characteristics of the pattern. The switching unit switches the neural network coupling coefficient of the neural network operation unit according to the detection result of the pressure sensing unit. Therefore, with a simple configuration, the pattern drawn by the pen tip when the pen tip is in contact with the writing surface and when the pen tip is not in contact is detected, and the two patterns are compared to determine the pattern recognition rate when a graphic is input. Make it higher.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing an embodiment of the present invention.
FIG. 2 is a configuration diagram illustrating a configuration of a calculation unit.
FIG. 3 is a configuration diagram of a neural network.
FIG. 4 is a flowchart showing the operation of the present invention.
FIG. 5 is an explanatory diagram illustrating an example of self-recall of a neural network operation unit.
FIG. 6 is a configuration diagram when an acceleration sensor is used for a direction detection unit.
FIG. 7 is a configuration diagram of a calculation unit when two neural network calculation units are provided.
FIG. 8 is a diagram illustrating a configuration part of an arithmetic unit when a switching unit is provided.
FIG. 9 is a configuration diagram of a calculation unit when a detection result of a direction detection unit is stored in a storage unit.
FIG. 10 is a configuration diagram of a calculation unit in a case where a pattern having a different input pattern size is determined .
[Explanation of symbols]
Reference Signs List 1 pattern input device 2 pressure sensing unit 2a pressure sensor 3 direction detection unit 3a distortion sensor 3b distortion sensor 3c acceleration sensor 3d acceleration sensor 4 operation unit 41 preprocessing unit 42 neural network operation unit 43 pattern recognition unit 44 switching unit 45 thinning interpolation Unit 5 storage unit 8 pen tip 10 pen axis direction acceleration detection unit

Claims (1)

筆記面上を移動するペン先部の移動方向及び移動量を基に入力パターンを認識するペン型のパターン認識装置において、
ペン先部の加速度を検出する加速度検出部を有し、前記ペン先部の筆記面上の移動方向を検出する方向検出部と、
前記ペン先部が筆記面に接触しているか否かを検出する感圧部と、
該感圧部が前記ペン先部と筆記面とが接触していることを検出しているときに前記方向検出部が検出した前記ペン先部の移動方向に関する情報を分析し入力パターンの特徴を示す情報を出力するニューラルネットワーク演算部と、
前記感圧部の検出結果に応じて前記ニューラルネットワーク演算部のニューラルネットワーク結合係数を切り替える切替部と
を備えることを特徴とするパターン認識装置。
In a pen-type pattern recognition device that recognizes an input pattern based on a moving direction and a moving amount of a pen tip moving on a writing surface,
A direction detection unit that has an acceleration detection unit that detects the acceleration of the pen tip unit and detects a moving direction of the pen tip unit on the writing surface,
A pressure-sensitive unit that detects whether the pen tip is in contact with the writing surface,
When the pressure-sensitive portion detects that the pen tip portion and the writing surface are in contact with each other, the information on the movement direction of the pen tip portion detected by the direction detection portion is analyzed, and the characteristics of the input pattern are analyzed. A neural network operation unit that outputs information indicating
A switching unit that switches a neural network coupling coefficient of the neural network operation unit according to a detection result of the pressure sensing unit;
Pattern recognition apparatus comprising: a.
JP33253195A 1995-11-29 1995-11-29 Pattern recognition device Expired - Fee Related JP3574246B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33253195A JP3574246B2 (en) 1995-11-29 1995-11-29 Pattern recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33253195A JP3574246B2 (en) 1995-11-29 1995-11-29 Pattern recognition device

Publications (2)

Publication Number Publication Date
JPH09153115A JPH09153115A (en) 1997-06-10
JP3574246B2 true JP3574246B2 (en) 2004-10-06

Family

ID=18255967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33253195A Expired - Fee Related JP3574246B2 (en) 1995-11-29 1995-11-29 Pattern recognition device

Country Status (1)

Country Link
JP (1) JP3574246B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5495657B2 (en) * 2009-08-04 2014-05-21 三菱電機株式会社 Character recognition device, character recognition program
JP6171403B2 (en) * 2013-03-01 2017-08-02 セイコーエプソン株式会社 Electronic pen

Also Published As

Publication number Publication date
JPH09153115A (en) 1997-06-10

Similar Documents

Publication Publication Date Title
CN101765825B (en) For pressure sensor array apparatus and the method for tactile sensing
KR101157073B1 (en) Method for finger language recognition using emg and gyro sensor and apparatus thereof
US8259092B2 (en) Method for writing motion and trajectory recognition and writing apparatus and recognizing system
WO1996039677A1 (en) Method and apparatus for character recognition of hand-written input
CN106648078B (en) Multi-mode interaction method and system applied to intelligent robot
Hemayed et al. Edge-based recognizer for Arabic sign language alphabet (ArS2V-Arabic sign to voice)
CN112132050A (en) On-line handwritten Chinese character recognition algorithm and visual key stroke evaluation method
JP3574246B2 (en) Pattern recognition device
JP2001134766A (en) Device and method for identifying image
Sharma et al. Highly Accurate Trimesh and PointNet based algorithm for Gesture and Hindi air writing recognition
US6208756B1 (en) Hand-written character recognition device with noise removal
Shintani et al. Digital pen for handwritten alphabet recognition
Teja et al. A ballistic stroke representation of online handwriting for recognition
Inoue et al. Depth sensor based automatic hand region extraction by using time-series curve and its application to Japanese finger-spelled sign language recognition
Ramya et al. Real time palm and finger detection for gesture recognition using convolution neural network
Nguyen et al. Vietnamese sign language reader using Intel Creative Senz3D
EP0926621B1 (en) Apparatus for certifying handwriting
JP3977473B2 (en) Handwritten character recognition method and handwritten character recognition apparatus
WO2019134606A1 (en) Terminal control method, device, storage medium, and electronic apparatus
JPS62179075A (en) On-line based handwritten character recognition device
JPS60116082A (en) Individual discrimination method
Subha Rajam et al. Design and development of tamil sign alphabets using image processing with right hand palm to aid deaf-dumb people
Tan et al. An End-to-End Air Writing Recognition Method Based on Transformer
JPH09274535A (en) Pen type input device
Mishra et al. Gesture control keyboard

Legal Events

Date Code Title Description
A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040406

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040528

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20040607

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040629

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040701

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20070709

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080709

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080709

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090709

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090709

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100709

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110709

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120709

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120709

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130709

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees