JPH09231314A - On-line handwritten character recognizing device - Google Patents

On-line handwritten character recognizing device

Info

Publication number
JPH09231314A
JPH09231314A JP8040124A JP4012496A JPH09231314A JP H09231314 A JPH09231314 A JP H09231314A JP 8040124 A JP8040124 A JP 8040124A JP 4012496 A JP4012496 A JP 4012496A JP H09231314 A JPH09231314 A JP H09231314A
Authority
JP
Japan
Prior art keywords
character
unit
partial pattern
extraction unit
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8040124A
Other languages
Japanese (ja)
Inventor
Hideo Tanimoto
英雄 谷本
Kinya Endo
欽也 遠藤
Shizuo Nagata
静男 永田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP8040124A priority Critical patent/JPH09231314A/en
Publication of JPH09231314A publication Critical patent/JPH09231314A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To improve a recognition ratio independently of the number of strokes and writing order in the case of a low stroke character. SOLUTION: A tablet 1 extracts a handwritten data string and a preprocessing part 2 executes coordinate string smoothing processing. An on-line type feature extracting part 3 executes rough sorting based upon the number of strokes and executes medium sorting by comparing a vector distance dvec between partial patterns of an input character and a dictionary character with a threshold to calculate the featured value of the input character. An on-line type matching part 4 calculates a distance dBP from a character registered in an on-line type recognition dictionary 5 and the featured value of the input character and calculates a distance from the distances dvec dBP. In the case of a high stroke character, a high stroke character discriminating part 6 outputs a character code in accordance with the distance. A pattern memory conversion part 7 executes conversion into a pattern memory, a contour extracting part 8 executes contour extracting processing and an off-line type feature extracting part 9 calculates an off-line featured value. An off-line type matching part 10 executes matching between an off-line type recognition dictionary 11 and the featured value stored in the pattern memory and a low stroke character discriminating part 12 executes character recognition.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、実時間にて筆記文
字を識別するオンライン手書き文字認識装置に関するも
のである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an on-line handwritten character recognition device for identifying a handwritten character in real time.

【0002】[0002]

【従来の技術】従来、オンライン文字認識において、一
般的な文字認識方式としては、パターンマッチング方式
がある。このパターンマッチング方式では、筆記された
ストローク(ペンオンからペンオフまでの筆記部分)の
座標データ列より特徴点の情報を、予め同一の方法で特
徴点を抽出し登録しておいたパターン(以下、登録パタ
ーンという)の情報とマッチングし、文字認識を行う。
このパターンマッチング方式では、筆記された各ストロ
ークを登録パターンの各ストロークのどのストロークと
マッチングすべきかの処理に、多大な時間を要する。ま
た、全体の字のバランスが乱れると、例えば“河”とい
う文字に於いて、“シ”が小さく“可”が大の時、マッ
チング結果は似ていないという結果が得られるなど、筆
記文字変形に弱い。
2. Description of the Related Art Conventionally, in online character recognition, there is a pattern matching method as a general character recognition method. In this pattern matching method, the feature point information is extracted in advance from the coordinate data string of the written stroke (writing portion from pen-on to pen-off) by the same method and registered (hereinafter, registered pattern). Pattern recognition) and perform character recognition.
In this pattern matching method, it takes a lot of time to process which stroke of each stroke of the registered pattern each written stroke should be matched with. In addition, when the balance of the whole characters is disturbed, for example, in the case of the character "Kawa", when "Si" is small and "OK" is large, the result that the matching result is not similar is obtained. Weak to.

【0003】そこで、パターンマッチグ方式の上記欠点
を補い、しかも処理量が少なくてすむオンライン手書き
文字認識装置として、例えば、特開昭62−22934
号公報の技術が提案されている。このオンライン手書き
文字認識装置では、筆記文字のストローク数により大分
類を行い、筆記上一連のものとして筆記する部分を部分
パターンとする。そして、この部分パターンの重心間の
ベクトルにより中分類を行い、部分パターンの特徴パラ
メータとしてのQ値なる値及びストローク分布なる値を
以てマッチングを行う。これにより文字変形に強く、し
かも処理量の少ない文字認識を行える。このマッチング
の結果によって、候補文字に順位付けを行い、結果をデ
ィスプレイなどに出力していた。
Therefore, as an on-line handwritten character recognizing device which compensates the above-mentioned drawbacks of the pattern matching method and requires a small amount of processing, for example, Japanese Patent Laid-Open No. 62-22934.
The technology disclosed in Japanese Patent Laid-Open Publication No. H10-26095 has been proposed. In this on-line handwritten character recognition device, large classification is performed according to the number of strokes of a written character, and a portion to be written as a series of writing is defined as a partial pattern. Then, middle classification is performed by the vector between the centers of gravity of the partial patterns, and matching is performed using the Q value and the stroke distribution value as the characteristic parameters of the partial patterns. This makes it possible to perform character recognition that is resistant to character deformation and has a small amount of processing. According to the result of this matching, the candidate characters are ranked and the result is output to a display or the like.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来の
オンライン手書き文字認識装置においては、以下の課題
があった。例えば、文字“唖”は部分パターン“口”+
“亜”で定義するというように、文字は部分パターンの
集まりとして扱っている。この場合、一般的に“口”,
“亜”の順に筆記されるであろう。このように、文字
“唖”などのように比較的画数の多い文字であれば問題
ないが、例えば、“+”などのように画数の少ない文字
では、文字“+”は部分パターン“−”,“|”と定義
される。この場合、“|”、“−”の順に筆記された場
合は、誤認識してしまうか、リジェクトされる。その対
策として、文字“+”は、“−”+“|”、及び“|”
+“−”の両方の筆順を定義すればよいが、それでは辞
書が膨大になり、また処理時間がかかってしまうという
問題も発生する。また、画数の多い文字、例えば、14
画の文字“認”は“言”+“刃”+“心”と定義される
であろう。このように一般的に部分パターン数が多くな
り、情報量が増えるので1つの部分パターンのマッチン
グ距離値が悪くても、他の部分パターンのマッチング距
離値で正しい認識結果が得られるのに対して、画数の少
ない文字“+”などは、情報量が少なくなるため誤認識
の可能性が大きいという問題点があった。
However, the conventional online handwritten character recognition device has the following problems. For example, the character "mute" is a partial pattern "mouth" +
Characters are treated as a set of partial patterns, as defined by "A". In this case, the "mouth" is generally
It will be written in the order of "A". As described above, a character having a relatively large number of strokes such as the character "mute" does not cause any problem, but for a character having a small number of strokes such as "+", the character "+" is a partial pattern "-". , "|" Is defined. In this case, when written in the order of "|" and "-", they are erroneously recognized or rejected. As a countermeasure, the character "+" is "-" + "|" and "|"
It is sufficient to define both stroke orders of + and "-", but this causes a problem that the dictionary becomes enormous and processing time is required. Also, characters with a large number of strokes, for example, 14
The letter "accept" in the picture would be defined as "word" + "blade" + "heart". In this way, since the number of partial patterns generally increases and the amount of information increases, even if the matching distance value of one partial pattern is bad, a correct recognition result can be obtained with the matching distance values of other partial patterns. However, the character "+" having a small number of strokes has a problem that there is a high possibility of erroneous recognition because the amount of information is small.

【0005】[0005]

【課題を解決するための手段】本発明は、前記課題を解
決するために、オンライン手書き文字認識装置におい
て、タブレットに筆記入力して得られた筆記文字の座標
列の不要データを除去して平滑化を行う前処理部と、前
記前処理部により平滑化された座標データ列から筆記文
字の特徴量を抽出するオンライン方式特徴抽出部と、前
記オンライン方式特徴抽出部により得られた筆記文字の
特徴量とオンライン方式認識辞書に予め格納してある認
識対象の文字の特徴量とのマッチング距離を算出するオ
ンライン方式マッチング部と、筆記文字のストローク数
により得られる画数が所定の画数以上の時に、前記オン
ライン方式マッチング部から出力されるマッチング距離
に基づき、文字認識を行う高画数文字識別部とを備えて
いる。
In order to solve the above-mentioned problems, the present invention eliminates unnecessary data in a coordinate sequence of handwritten characters obtained by handwriting on a tablet in an online handwritten character recognition device and smoothes it. A pre-processing unit that performs the conversion, an online-system feature extraction unit that extracts a feature amount of the written character from the coordinate data sequence smoothed by the pre-processing unit, and a feature of the written character obtained by the online-system feature extraction unit. When the number of strokes obtained by the stroke number of the written character is equal to or more than a predetermined stroke number, the online method matching unit that calculates the matching distance between the amount and the feature amount of the character to be recognized that is stored in advance in the online method recognition dictionary is It is provided with a high stroke number character identification unit that performs character recognition based on the matching distance output from the online system matching unit.

【0006】そして、前記前処理部により平滑化された
座標データ列から得られる筆記文字全体を含む領域を縦
と横に複数の領域に分割して、前記複数の各領域が前記
筆記文字の一部を含むか否かを判別して、その各領域に
2値化データを割り当てて、パターンメモリに格納する
パターンメモリ変換部と、前記パターンメモリを読み込
み輪郭データを抽出する輪郭抽出部と、前記輪郭抽出部
より得られた輪郭データから筆記文字の特徴量を抽出す
るオフライン方式特徴抽出部と、前記オフライン方式特
徴抽出部により得られた筆記文字の特徴量とオフライン
方式認識辞書に予め格納してある認識対象の文字の特徴
量とのマッチング距離を算出するオフライン方式マッチ
ング部と、筆記文字のストローク数による得られる画数
が前記所定の画数よりも小さい時に、前記オフライン方
式マッチング部から出力される前記マッチング距離に基
づいて、文字認識を行う低画数文字識別部とを備えてい
る。
Then, an area including the entire writing character obtained from the coordinate data string smoothed by the preprocessing unit is divided into a plurality of areas vertically and horizontally, and each of the plurality of areas is one of the writing characters. A pattern memory conversion unit that determines whether or not a part is included and allocates binarized data to each area and stores the binarized data in a pattern memory; a contour extraction unit that reads the pattern memory and extracts contour data; An offline method feature extraction unit that extracts a feature amount of a written character from the contour data obtained by the contour extraction unit, and a feature amount of the written character obtained by the offline method feature extraction unit and an offline method recognition dictionary that are stored in advance. An offline method matching unit that calculates a matching distance with a feature amount of a certain recognition target character, and the number of strokes obtained by the number of strokes of a written character is the predetermined number of strokes. When remote small, on the basis of the matching distance which is output from the off-line mode matching section, and a low number of strokes character identification unit performing character recognition.

【0007】[0007]

【発明の実施の形態】第1の実施形態 図1は、本発明の第1の実施形態のオンライン手書き文
字認識装置を示す構成図である。本第1の実施形態のオ
ンライン手書き文字認識装置が従来のオンライン手書き
文字認識装置と異なる点は、筆記文字が低画数文字の場
合に、筆記順、画数に依存しないオフライン特徴量でオ
フライン認識辞書の認識対象文字とマッチングして、文
字認識を行うようにしたことである。図1に示すよう
に、本第1の実施形態のオンライン手書き文字認識装置
は、タブレット1、前処理部2、オンライン方式特徴抽
出部3、オンライン方式マッチング部4、オンライン方
式認識辞書5、高画数文字識別部6、パターンメモリ変
換部7、輪郭抽出部8、オフライン特徴抽出部9、オフ
ライン方式マッチング部10、オフライン方式認識辞書
11、低画数文字識別部12、及び出力端子13を備え
ている。
BEST MODE FOR CARRYING OUT THE INVENTION First Embodiment FIG. 1 is a block diagram showing an online handwritten character recognition device according to a first embodiment of the present invention. The difference between the online handwritten character recognition device of the first embodiment and the conventional online handwritten character recognition device is that, when the written characters are low stroke number characters, the offline recognition dictionary has an offline feature amount that does not depend on the writing order and the stroke number. That is, the character recognition is performed by matching with the recognition target character. As shown in FIG. 1, the online handwritten character recognition device according to the first embodiment includes a tablet 1, a preprocessing unit 2, an online system feature extraction unit 3, an online system matching unit 4, an online system recognition dictionary 5, and a high stroke count. The character identification unit 6, the pattern memory conversion unit 7, the contour extraction unit 8, the offline feature extraction unit 9, the offline system matching unit 10, the offline system recognition dictionary 11, the low stroke number character identification unit 12, and the output terminal 13 are provided.

【0008】タブレット1の出力側は、前処理部2に接
続されている。前処理部2の出力のうち座標列は、オン
ライン方式特徴抽出部3、及びパターンメモリ変換部7
の入力側に接続され、画数は高画数文字識別部6及び低
画数文字識別部12の入力側に接続されている。オンラ
イン方式特徴抽出部3及びオンライン方式認識辞書5の
出力側は、オンライン方式マッチング部4の入力側に接
続されている。オンライン方式マッチング部4の出力側
は、高画数文字識別部6の入力側に接続されている。パ
ターンメモリ変換部7の出力側は、輪郭抽出部8の入力
側に接続され、更に、輪郭抽出部8の出力側は、オフラ
イン方式特徴抽出部9の入力側に接続されている。オフ
ライン方式特徴抽出部9及びオフライン方式認識辞書1
1の出力側は、オフライン方式マッチング部10の入力
側に接続されている。オフライン方式マッチング部10
の出力側は、低画数文字識別部12の入力側に接続され
ている。高画数文字識別部6及び低画数文字識別部12
の出力側は、出力端子13に接続されている。このオン
ライン手書き文字認識装置は、半導体集積回路を用いた
個別回路、あるいはデジタル・シグナル・プロセッサ
(DSP)等のプログラム制御等によって構成される。
The output side of the tablet 1 is connected to the preprocessing section 2. The coordinate sequence of the output of the preprocessing unit 2 is the online system feature extraction unit 3 and the pattern memory conversion unit 7.
Is connected to the input side of the high stroke number character identifying section 6 and the low stroke number character identifying section 12 and the input side thereof. The output sides of the online method feature extraction unit 3 and the online method recognition dictionary 5 are connected to the input side of the online method matching unit 4. The output side of the online system matching unit 4 is connected to the input side of the high stroke number character identification unit 6. The output side of the pattern memory conversion section 7 is connected to the input side of the contour extraction section 8, and the output side of the contour extraction section 8 is connected to the input side of the off-line method feature extraction section 9. Offline system feature extraction unit 9 and offline system recognition dictionary 1
The output side of 1 is connected to the input side of the offline system matching unit 10. Off-line method matching unit 10
The output side of is connected to the input side of the low stroke number character identification unit 12. High stroke number character identification section 6 and low stroke number character identification section 12
The output side of is connected to the output terminal 13. This on-line handwritten character recognition device is configured by an individual circuit using a semiconductor integrated circuit, program control of a digital signal processor (DSP), or the like.

【0009】タブレット1は、文字を筆記入力するため
のものである。前処理部2は、筆記データの平滑化処理
を施すとともに、筆記文字のストローク数を求めるもの
である。オンライン方式特徴抽出部3は、画数で筆記文
字の大分類を行い、認識辞書に登録された認識対象の文
字の部分パターンのストローク位置(以下、カット位置
と呼ぶ)に合わせて分割した筆記文字の部分パターン間
ベクトルから認識辞書の文字とのマッチング距離dvec
を求めて、認識対象文字の中分類を行い、さらに部分パ
ターンの特徴量であるQ値を求めるものである。オンラ
イン方式マッチング部4は、オンライン方式認識辞書5
に登録された中分類された認識対象文字のQ値と筆記文
字のQ値とのマッチング距離dBPを求め、距離dvec
BPからマッチング距離を求めるものである。高画数文
字識別部6は、筆記文字が高画数の時、マッチング距離
をソーティグして、対応する文字コードを出力するもの
である。
The tablet 1 is for writing characters. The pre-processing unit 2 performs a smoothing process on the handwritten data and obtains the stroke number of the handwritten character. The online method feature extraction unit 3 roughly classifies the written characters according to the number of strokes, and divides the written characters divided according to the stroke position (hereinafter referred to as the cut position) of the partial pattern of the recognition target character registered in the recognition dictionary. Matching distance d vec from the partial pattern vector to the character in the recognition dictionary
Is obtained, the middle of the recognition target character is classified, and the Q value which is the feature amount of the partial pattern is further obtained. The online system matching unit 4 uses the online system recognition dictionary 5
The matching distance d BP between the Q value of the character to be recognized and the Q value of the handwritten character registered in (3) is calculated, and the matching distance is calculated from the distances d vec and d BP . The high stroke number character identification unit 6 sorts the matching distance and outputs the corresponding character code when the written character has a high stroke number.

【0010】パターンメモリ変換部7は、パターンメモ
リを有し、筆記文字を2値化データに変換して、パター
ンメモリに格納するものである。輪郭抽出部8は、2値
化データの輪郭情報を求めるものである。オフライン方
式特徴抽出部9は、輪郭情報から筆記文字のオフライン
特徴量を抽出するものである。オフライン方式マッチン
グ部10は、オフライン方式認識辞書11に登録してお
いた認識文字の画数、筆記順に依存しないオフライン特
徴量と筆記文字のオフライン特徴量とのマッチング距離
を求めるものである。低画数文字識別部12は、筆記文
字が低画数の時に、オフライン方式マッチング部10の
出力であるマッチング距離をソーティングして、対応す
る文字コードを出力するものである。以下、図1の各部
の動作(a)〜(j)の説明をする。
The pattern memory conversion unit 7 has a pattern memory, converts the handwritten character into binary data, and stores it in the pattern memory. The contour extraction unit 8 obtains contour information of the binarized data. The offline system feature extraction unit 9 extracts the offline feature amount of the written character from the contour information. The offline system matching unit 10 obtains the number of strokes of the recognized characters registered in the offline system recognition dictionary 11 and the matching distance between the offline feature amount that does not depend on the writing order and the offline feature amount of the written character. The low stroke number character identification unit 12 sorts the matching distance output from the offline method matching unit 10 and outputs a corresponding character code when the number of written characters is low. Hereinafter, operations (a) to (j) of each unit in FIG. 1 will be described.

【0011】(a) タブレット1 タブレット1は、文字が筆記入力されると、筆記文字を
所定のサンプリング周波数でサンプリングして、座標列
の筆記データ列{(xi ,yi ),i=1,2,…,n
j }j(jはストローク番号)を抽出して、前処理部2
に送る。 (b) 前処理部2 図2(a)〜(c)は、前処理部2の動作説明図であ
る。図中「・」はタブレット1からの筆記データ列ある
いは特徴点を表す。前処理部2は送られてきた図2
(a)に示す筆記データ列に対して、ノイズ除去処理、
移動平均処理、或いは平滑化処理などを行うことによ
り、図2(b)に示すようにデータを平滑化するととも
に、ストローク数(画数)を求めて、オンライン方式特
徴点抽出部3及びパターンメモリ変換部7へ平滑化後の
筆記データ列を出力して、画数を高画数文字識別部6及
び低画数文字識別部12に出力する。
(A) Tablet 1 When a character is input by handwriting, the tablet 1 samples the handwritten character at a predetermined sampling frequency, and writes a coordinate data handwriting data string {(x i , y i ), i = 1. , 2, ..., n
j } j (j is a stroke number) is extracted, and the preprocessing unit 2
Send to (B) Pre-Processing Unit 2 FIGS. 2A to 2C are operation explanatory diagrams of the pre-processing unit 2. In the figure, “·” represents a writing data string from the tablet 1 or a feature point. The preprocessing unit 2 has been sent FIG.
For the writing data string shown in (a), noise removal processing,
By performing a moving average process or a smoothing process, the data is smoothed as shown in FIG. 2B, and the number of strokes (the number of strokes) is obtained, and the online feature point extraction unit 3 and the pattern memory conversion are performed. The writing data string after smoothing is output to the unit 7, and the stroke number is output to the high stroke number character identifying unit 6 and the low stroke number character identifying unit 12.

【0012】(c) オンライン方式特徴抽出部3 オフライン方式特徴抽出部3は、前処理部2の出力か
ら、文字認識の特徴となるデータの抽出処理を行う。こ
れにはいくつかの方法が、考えられるがその一例を述べ
る。この特徴点を抽出する方法として、平滑化されたデ
ータ列{(Xi ,Yi ),i=1,2,…,nj }jの
データ間のx,y方向のサイン(正、負、0の符号)を
次式(1),(2)により算出して、サインの状態の変
化点を特徴点として抽出する。 XSi =Sign(Xi −Xi-1 ) ・・・(1) YSi =Sign(Yi −Yi-1 ) ・・・(2) で求め、+,0,−で表現する。このようにして求めら
れた各データ間のx方向、y方向のサインを前データの
サインと比較して、双方が同じであれば特徴点として登
録せず、いずれかが異なった場合は状態が変わったとし
て、その座標を各ストローク毎に特徴点として登録す
る。
(C) Online Method Feature Extraction Section 3 The offline method feature extraction section 3 extracts data, which is a feature of character recognition, from the output of the preprocessing section 2. Several methods can be considered for this, but one example will be described. As a method of extracting this feature point, a sine sign (positive, negative) between the data of the smoothed data string {(X i , Y i ), i = 1, 2, ..., N j } j. , 0) is calculated by the following equations (1) and (2), and the change point of the sign state is extracted as a feature point. XS i = Sign (X i −X i−1 ) ... (1) YS i = Sign (Y i −Y i−1 ) ... (2) and expressed by +, 0, −. The signs in the x direction and the y direction between the respective data obtained in this way are compared with the signs of the previous data, and if both are the same, they are not registered as feature points. If the coordinates have changed, the coordinates are registered as a feature point for each stroke.

【0013】図2(c)は、このようにして求めた点の
他に、ストロークの始点、終点を加えた特徴点を示して
いる。一般には、この処理を直線近似化と呼ぶ場合もあ
る。この特徴点間を以下セグメントと呼び、特徴点
{(Xi ,Yi ),i=1,2,…,lj }jで表すこ
とにする。図3は、部分パターンベクトルを算出するた
めの文字辞書の一例を示す図である。次に、ストローク
数によって対象文字に対する大分類を行う。そのため、
予め画数(ストローク数)毎にその画数となり得る文字
を図3に示すように文字辞書に用意しておく。例えば、
筆記入力された文字パターンのストローク数が10画で
あったとする。この場合、文字辞書に格納されている内
で、図3に示すような10画となり得る文字“唖”、
“挨”、“逢”、…を候補文字として選択する。次に、
上記のように画数により大分類して得た候補文字を以下
に説明する部分パターン間ベクトルにより更に中分類す
る。ここで、部分パターンとは、1つの文字のうち筆記
上一連のものとして筆記する部分をいうものとし、部分
パターンベクトルとは、1つの部分パターンの重心と別
の部分パターンの重心をそれぞれ始点、終点とするベク
トルを言うものとする。
FIG. 2C shows characteristic points to which the start point and the end point of the stroke are added in addition to the points thus obtained. In general, this process may be called linear approximation. These feature points are hereinafter referred to as segments, and are represented by feature points {(X i , Y i ), i = 1, 2, ..., I j } j. FIG. 3 is a diagram showing an example of a character dictionary for calculating a partial pattern vector. Next, the target character is roughly classified according to the number of strokes. for that reason,
Characters that can be the number of strokes are prepared in advance in a character dictionary for each number of strokes (stroke number), as shown in FIG. For example,
It is assumed that the stroke number of the character pattern input by handwriting is 10 strokes. In this case, among the characters stored in the character dictionary, the character "mute" that can be 10 strokes as shown in FIG.
"Dust", "Ai", ... Are selected as candidate characters. next,
Candidate characters obtained by large classification according to the number of strokes as described above are further middle-classified according to inter-pattern vectors described below. Here, the partial pattern refers to a portion of one character to be written as a series in writing, and the partial pattern vector refers to the center of gravity of one partial pattern and the center of gravity of another partial pattern as starting points, Let us say the vector that is the end point.

【0014】まず、部分パターン間ベクトルの算出法の
一例を述べる。部分パターン中の各セグメントのx,y
成分(特徴点間を結ぶベクトル)を(dxi =Xi −X
i-1 ,dyi =Yi −Yi-1 )(i=1,2,…,n)
とすると、各セグメントの長さdli は、 dli =(dxi 2 +dyi 2 1/2 ・・・(3) で表される。また、文字幅HX、HYで除算することに
より正規化した各セグメントの中心座標を(xi * ,y
i * )とすると、部分パターンの正規化された重心座標
(XW ,YW )は、
First, an example of a method of calculating a vector between partial patterns will be described. X, y of each segment in the partial pattern
The component (vector connecting the feature points) is (dx i = X i −X
i-1, dy i = Y i -Y i-1) (i = 1,2, ..., n)
Then, the length dl i of each segment is represented by dl i = (dx i 2 + dy i 2 ) 1/2 (3). Further, the center coordinates of each segment normalized by dividing by the character widths HX and HY are (x i * , y
i * ), the normalized barycentric coordinates (X W , Y W ) of the partial pattern are

【数1】 で求められる。以上の方法で各部分パターンの重心を求
め、1つの部分パターンの重心と別の部分パターンの重
心をそれぞれ始点、終点として部分パターン間ベクトル
を求める。なお、ここでは部分パターン間ベクトルはx
方向とy方向についてそれぞれ考えるものとする。
[Equation 1] Is required. The center of gravity of each partial pattern is obtained by the above method, and the vector between partial patterns is obtained with the center of gravity of one partial pattern and the center of gravity of another partial pattern as the starting point and the ending point, respectively. Here, the vector between the partial patterns is x
Consider the direction and the y direction respectively.

【0015】図4は、部分パターン間ベクトルk説明図
であり、文字“唖”の部分パターン“口”、“亜”の各
重心及び部分パターン間ベクトルBx (口、亜)、By
(口、亜)の例を示している。但し、図4中の×印は
口、亜の重心を示し、Bはベクトルを表す。ここで部分
パターンベクトルにより、画数により選択された候補文
字を絞りこんで中分類を行うわけであるが、ここで一例
として“逢”が筆記入力された場合を考え、以下この入
力文字に対する中分類の手順を説明する。筆記された文
字“逢”は10画であるので、図3に示す文字辞書の1
0画部分を参照する。すると、この文字辞書には、文字
“唖”が第1番目に配置されており、その欄には“唖”
を構成する部分パターン、部分パターンの筆記順、部分
パターンのストローク数情報(以下、カット位置と呼
ぶ)、及び登録パターンより予め算出した各部分パター
ン間ベクトル値が示されている。以下、順に“挨”、
“逢”の文字について同様の情報が並んでおり、この文
字順に従い、候補とすべきか否かをそれぞれ判定し、次
のように中分類を行う。まず、筆記入力した文字が
“唖”であるとして、部分パターン間ベクトルのマッチ
ング距離dvec を以下のようにして求める。
FIG. 4 is an explanatory diagram of a vector k between partial patterns, which is the center of gravity of each of the partial patterns "mouth" and "sub" of the character "mah" and the vector B x (mouth, sub), B y between the partial patterns.
An example of (mouth, sub) is shown. However, the X mark in FIG. 4 indicates the center of gravity of the mouth and sub, and B indicates the vector. Here, the candidate character selected by the number of strokes is narrowed down by the partial pattern vector to perform the middle classification. Here, as an example, consider the case where "Ai" is written and input. The procedure will be described. Since the written character "O" is 10 strokes, it is 1 in the character dictionary shown in FIG.
Refer to the 0 stroke part. Then, in this character dictionary, the character "mute" is arranged at the first position, and the column "mute"
The partial patterns that make up the partial pattern, the writing order of the partial patterns, the stroke number information of the partial patterns (hereinafter referred to as cut positions), and the inter-partial-pattern vector values calculated in advance from the registered patterns are shown. Below, in order, "dust",
Similar information is lined up for the character "Ai". According to this character order, it is determined whether or not it should be a candidate, and middle classification is performed as follows. First, assuming that the character input by handwriting is "mute", the matching distance d vec of the vector between the partial patterns is calculated as follows.

【0016】図5は、マッチング距離dvec の算出を説
明するための図である。図3に示す文字辞書に書かれて
いるように、“唖”はカット位置が(3、7)、即ち、
第1ストローク〜第3ストロークで“口”が形成され、
第4〜第7ストロークで“亜”が形成されるが、本例で
は入力パターンが“逢”であるので、このカット位置で
“逢”について部分パターン間ベクトルを考えると、図
5に示すようになる。図5中、Bx * 、By * は、
“唖”の部分パターンのストロークに合わせて求めた
“逢”の部分パターン間ベクトルである。
FIG. 5 is a diagram for explaining the calculation of the matching distance d vec . As written in the character dictionary shown in FIG. 3, the "mute" has a cut position of (3, 7), that is,
The "mouth" is formed by the first to third strokes,
Although "sub" is formed in the 4th to 7th strokes, the input pattern is "A" in this example, so considering the vector between partial patterns for "A" at this cut position, as shown in FIG. become. In FIG. 5, B x * and By y * are
It is an inter-partial-pattern vector of "a" that is obtained in accordance with the stroke of the "mute" partial pattern.

【0017】図5のようにして求められた入力パターン
の部分パターンの部分パターン間ベクトルB* x (口、
亜)、B* y (口、亜)と文字辞書に書かれている部分
パターン間ベクトルBx (口、亜)、By (口、亜)と
の差がマッチング距離dvecであり、次式(6)で算出さ
れる。 dvec = |Bx * (口、亜)−Bx (口、亜)|+ |By * (口、亜)−By (口、亜)| ・・・(6) 一般に、筆記した文字の部分パターンが複数の場合、部
分パターン数BPN で正規化を行い、マッチング距離d
vec は、
The inter-partition vector B * x of the partial patterns of the input pattern obtained as shown in FIG.
Nitrous), B * y (mouth, nitrite) and the partial pattern between the vectors B x (mouth written in the character dictionary, nitrous), B y (mouth, nitrite) the difference between the is matching distance DVEC, the following equation Calculated in (6). d vec = | B x * (mouth, nitrous) -B x (mouth, nitrous) | + | B y * (mouth, nitrous) -B y (mouth, nitrous) | ··· (6) in general, was written When there are multiple character partial patterns, normalization is performed using the partial pattern number BPN, and the matching distance d
vec is

【数2】 に従って算出される。ここである閾値VECREJを設定し、
算出したdvec がVECREJより大きいか否かを判定する。
そして、dvec >VECREJ の時は、参照した文字(この場
合、“唖”)でないとして、次の文字の部分パターンベ
クトルのマッチングを行う。dvec ≦VECREJの時は、
“唖”らしいとして、“唖”であるかどうかをさらにチ
ェックするために、次に説明する部分パターンQ値の算
出及びマッチングを行う。
[Equation 2] Is calculated according to Set the threshold VECREJ here,
It is determined whether the calculated d vec is larger than VECREJ.
Then, when d vec > VECREJ, it is determined that the character is not the referenced character (in this case, “mah”), and the partial pattern vector of the next character is matched. When d vec ≤ VECREJ,
In order to further check whether or not it is a "mute", the partial pattern Q value is calculated and matched as described below.

【0018】部分パターン間ベクトルによる中分類で残
った候補文字について、部分パターンQ値を算出する。
ここで、部分パターンQ値とは、各セグメントの長さ、
方向、及び位置を表す特徴パラメータをいう。オンライ
ン文字認識では、筆記するペンの動きとして、X方向、
Y方向、+または−方向が重要な情報として得られ、こ
の情報を有効に使用したのがこの部分パターンQ値であ
る。まず、部分パターンQ値の算出方法を説明する。な
お、次式(8)〜(15)において、Σは全ストロー
ク、全セグメントに関する加算、HX、HYは文字幅を
示す。
The Q value of the partial pattern is calculated for the candidate characters remaining in the middle classification by the vector between the partial patterns.
Here, the partial pattern Q value is the length of each segment,
A characteristic parameter indicating a direction and a position. In the online character recognition, the movement of the writing pen is the X direction,
The Y direction, the + direction, or the − direction is obtained as important information, and it is this partial pattern Q value that is effectively used. First, a method of calculating the partial pattern Q value will be described. In the following equations (8) to (15), Σ indicates the total stroke, addition regarding all segments, and HX and HY indicate the character width.

【0019】[0019]

【数3】 式(8)〜(15)は、部分パターンのパターン分布を
示しており、例えば、式(8)に示す値が大きいこと
は、筆記文字の右の部分において右の方向に筆記される
パターンが多く分布していることが推定される。
(Equation 3) Expressions (8) to (15) show the pattern distribution of the partial patterns. For example, the large value shown in Expression (8) means that the pattern written in the right direction in the right part of the written character is It is estimated that there are many distributions.

【0020】式(8)〜(15)の場合は、原点を左下
に設定した時の各方向位置の値であるが、この時原点近
くにあるものは乗算に供すると0になってしまう。その
ため、0になるのを防ぐため、原点を入れ替え、原点を
右上に設定したときの各方向位置の値Q9〜Q16につ
いても同様に記述し、Q1〜Q16の合計16個の値に
より、対象文字の各ストロークのセグメントの長さ、方
向及び位置を表すものとする。オンライン方式特徴抽出
部3は、部分パターン間ベクトルによる分類により残っ
た候補文字に対して、部分パターンQ値を算出し、オン
ライン方式マッチング部4に出力する。例えば、“逢”
を筆記入力して“挨”が部分パターンベクトルのマッチ
ング距離dvec とVECREJとの比較により分類で残ったと
する。この場合、認識対象の文字を“挨”とすると、
“挨”のカット位置は、図3に示すように(3,2,
5)であり、その部分パターンは“キ”+“ム”+
“矢”であるので、入力パターン“逢”をカット位置
(3,2,5)でカットし、それぞれQ1* 〜Q16*
を算出して、出力する。
In the case of the equations (8) to (15), the values are the values of the respective directional positions when the origin is set to the lower left. At this time, the values near the origin become 0 when subjected to multiplication. Therefore, in order to prevent the value from becoming 0, the same applies to the values Q9 to Q16 at each directional position when the origins are exchanged and the origin is set to the upper right. Shall represent the length, direction and position of each stroke segment. The online method feature extraction unit 3 calculates a partial pattern Q value for the candidate characters remaining after the classification by the partial pattern vector, and outputs the Q value to the online method matching unit 4. For example, "Ai"
It is assumed that "dust" remains in the classification by comparing the matching distance d vec of the partial pattern vector and VECREJ by manually writing. In this case, if the recognition target character is "dust",
As shown in Fig. 3, the cut position of "dust" is (3, 2,
5), and the partial pattern is "ki" + "mu" +
Since it is an "arrow", the input pattern "Ai" is cut at the cut positions (3, 2, 5), and Q1 * to Q16 * respectively .
Is calculated and output.

【0021】(d) オンライン方式マッチング部4 オンライン方式マッチング部4は、オンライン方式特徴
抽出部3の出力を受けて、予め格納されているオンライ
ン方式認識辞書5とマッチングを行い、マッチング距離
値を算出し高画数文字識別部6に出力する。図6は、オ
ンライン方式認識辞書5の一例を示す図である。この認
識辞書5には、画数、及び部分パターン、部分パターン
Q値の欄が設けられ、各欄にそれぞれの部分パターンの
情報が格納されている。尚、図6では、筆記順が誤った
場合を考慮して、同じ文字について複数の部分パターン
が定義されている(例えば、“口”は、3画であるが、
1画としても定義されている)。
(D) Online system matching unit 4 The online system matching unit 4 receives the output of the online system feature extraction unit 3 and performs matching with an online system recognition dictionary 5 stored in advance to calculate a matching distance value. And outputs it to the high stroke number character identification unit 6. FIG. 6 is a diagram showing an example of the online system recognition dictionary 5. The recognition dictionary 5 is provided with columns for the number of strokes, a partial pattern, and a partial pattern Q value, and information for each partial pattern is stored in each column. In FIG. 6, a plurality of partial patterns are defined for the same character in consideration of the case where the writing order is incorrect (for example, “mouth” is three strokes,
Also defined as one stroke).

【0022】オンライン方式マッチング部4は、オンラ
イン方式抽出部3で算出した部分パターンQ値Q1*
Q16* とオンライン方式認識辞書5にある部分パター
ンQ値とのマッチングを行う。このマッチングでは、ま
ず、“逢”の“久”で算出したQ1* 〜Q16* と認識
対象文字“挨”の“キ”のQ1〜Q16をマッチングさ
せる。次に、“逢”の“ニ”で算出したQ1* 〜Q16
* と認識対象文字“挨”の“ム”のQ1〜Q16をマッ
チングさせ、さらに“逢”の“辻”で算出したQ1*
Q16* と認識対象文字“挨”の“矢”のQ1〜Q16
をマッチングさせる。これらのマッチングにおける差の
絶対値を合計したものを、マッチング距離dBPとする。
このとき、距離dBPは入力パターン“逢”が“挨”にど
れだけ近いかを表す。一般には、各部分パターンjのス
トローク数BSj により、次のように重み付けを行い、
それをマッチング距離dBPとする。
The online method matching unit 4 calculates the partial pattern Q value Q1 * to be calculated by the online method extracting unit 3.
Q16 * is matched with the partial pattern Q value in the online system recognition dictionary 5. In this matching, first, Q1 * to Q16 * calculated for "hi" of "Ai" and Q1 to Q16 of "ki" of the recognition target character "dust" are matched. Next, Q1 * to Q16 calculated by "D" in "Ai"
* The recognition object character "挨" of by matching the Q1~Q16 of "no", further "Encounter" of "Tsuji" calculated Q1 * ~ in
Q16 * and Q1 to Q16 of the recognition target character "dust""arrow"
To match. The sum of the absolute values of the differences in these matchings is the matching distance d BP .
At this time, the distance d BP represents how close the input pattern “Ai” is to “Dust”. Generally, the number of strokes BS j of each partial pattern j is used for weighting as follows,
Let it be the matching distance d BP .

【0023】[0023]

【数4】 但し、Qi (j) は文字辞書の第j部分パターンQ値であ
り、Qi * (j) は入力文字パターンの第j部分パターン
Q値であり、Nは全ストローク数(画数)である。以上
のように求めた距離dBPと、オンライン方式特徴抽出部
3で求めた部分パターン間ベクトルのマッチングにより
得られたdvecにαvec で重み付けしたものとを、加算し
た距離dを求める。 d=αvec ・dvec +dBP ・・・(17) 式(17)のαvec は、ここでは筆記文字のストローク
数が2〜3ストロークの時はαvec =1/2 、4〜25ス
トロークの時はαvec =1、1ストロークの時はαvec =0
とする。以上の処理を部分パターン間ベクトルによる分
類で残った全ての候補文字について行い、dk {k=1,2,
…,n} を算出し、高画数文字識別部6に出力する。但
し、nは、部分パターン間ベクトルによる中分類で残っ
た候補文字数である。
(Equation 4) However, Q i (j) is the j-th partial pattern Q value of the character dictionary, Q i * (j) is the j-th partial pattern Q value of the input character pattern, and N is the total number of strokes (stroke count). . The distance d BP obtained as described above and the dvec obtained by matching the vectors between partial patterns obtained by the online system feature extraction unit 3 weighted with α vec are added to obtain the distance d. d = α vec · d vec + d BP (17) α vec in equation (17) is α vec = 1/2, 4 to 25 strokes when the number of strokes of the written character is 2 to 3 strokes. Α vec = 1 for 1 and α vec = 0 for 1 stroke
And The above process is performed for all candidate characters remaining in the classification by the vector between partial patterns, and d k {k = 1,2,
, N} is calculated and output to the high stroke number character identifying unit 6. However, n is the number of candidate characters remaining in the middle classification by the vector between the partial patterns.

【0024】(e) 高画数文字識別部6 高画数文字識別部6は、オンライン方式マッチング部4
の出力dk と前処理部2の出力する画数を受けて、入力
文字の識別結果を出力する。高画数文字識別部6は、オ
ンライン方式マッチング部4の出力dk を小さい順にソ
ートし、画数が高画数だと判断できたときは、ソートし
た順に対応する文字コードを出力端子13から出力し、
図示しない表示器などに表示する。高画数だと判断でき
ないときは、何も出力しない。ここで、画数が高画数だ
と判断するのは、抽出する特徴パラメータにより異なる
と思われるが、ここでは7画以上の文字を高画数だとす
る。 (f) パターンメモリ変換部7 前処理部2の出力データの座標データ列{Xi ,Yi
を受けて、パターンメモリ変換部7は2次元の配列PM
(x,y) に変換し、輪郭抽出部8に出力する。図7は、パ
ターンメモリ変換部7のパターンメモリ変換処理を示す
図である。パターンメモリ変換処理は様々な方法が考え
られるが、その一例を図7を用いて説明する。
(E) High stroke number character identification section 6 The high stroke number character identification section 6 is an online system matching section 4
In response to the output d k and the number of strokes output by the preprocessing unit 2, the input character identification result is output. The high stroke number character identifying unit 6 sorts the output d k of the online method matching unit 4 in ascending order, and when it is determined that the stroke number is high, outputs the character code corresponding to the sorted order from the output terminal 13.
It is displayed on a display device (not shown). If it cannot be determined that the number of strokes is high, nothing is output. Here, it is considered that the number of strokes is high depending on the characteristic parameter to be extracted, but here it is assumed that characters with 7 strokes or more are high strokes. (F) Pattern memory conversion unit 7 coordinate data string of output data of preprocessing unit 2 {X i , Y i }
In response to this, the pattern memory conversion unit 7 causes the two-dimensional array PM
It is converted to (x, y) and output to the contour extraction unit 8. FIG. 7 is a diagram showing pattern memory conversion processing of the pattern memory conversion unit 7. Although various methods can be considered for the pattern memory conversion processing, an example thereof will be described with reference to FIG. 7.

【0025】入力パターンをn×m(n≧2,m≧2)
に分割し、前処理部2の出力座標データ列{Xi
i }が分割した枠に存在する場合は1を、そうでない
場合は0をセットするようにして、n×m個の各枠PM
(x,y) {x=0,1,2, …,n-1,y=0,1,2, …m-1}を求める。以
下、各枠PM(x,y) を求める方法を説明する。ここで、
図7に示すように2つの隣合う座標データ列を{x0
0 }、{x1 ,y1 }(但し、y0 ≦y1 とする)、
チェックする枠の原点を(Wx ,Wy)、枠のX方向の
幅及びY方向の幅をそれぞれWa ,Wb 、チャックする
枠のメモリ領域をA、チェックする枠の結果をPMA
する。このとき、以下の条件1)〜条件5)のいずれか
を満たすときPMA =1とする。 条件1)隣接する2つの座標点が垂直方向に並んでお
り、メモリ領域Aが2つの座標点を挟んで位置する場合
であり、次式(18)で表される。 x0 =x1 AND Wx ≦x0 <Wx +Wa AND y0 ≦Wy AND y1 >Wy +Wb ・・・(18) 条件2)隣接する2つの座標点が水平方向に並んでお
り、メモリ領域Aが2つの座標を挟んで位置する場合で
あり、次式(19)で表される。 y0 =y1 AND Wy ≦y0 <Wy +Wb AND x0 ≦Wx AND x1 >Wx +Wa ・・・(19) 条件3)隣接する2つの座標点のいずれか一方がメモリ
領域Aに含まれる場合であり、次式(20)で表され
る。
Input pattern is n × m (n ≧ 2, m ≧ 2)
And the output coordinate data string {X i ,
If Y i } exists in the divided frame, 1 is set, and if not, 0 is set, and each n × m frame PM is set.
(x, y) {x = 0,1,2,…, n-1, y = 0,1,2,… m-1} is calculated. Hereinafter, a method for obtaining each frame PM (x, y) will be described. here,
As shown in FIG. 7, two adjacent coordinate data strings are represented by {x 0 ,
y 0 }, {x 1 , y 1 } (provided that y 0 ≤y 1 ),
The origin of the frame to be checked is (W x , W y ), the widths of the frame in the X and Y directions are W a and W b , respectively, the memory area of the frame to be chucked is A, and the result of the frame to be checked is PM A And At this time, PM A = 1 when any of the following conditions 1) to 5) is satisfied. Condition 1) A case where two adjacent coordinate points are lined up in the vertical direction, and the memory area A is located on both sides of the two coordinate points, which is expressed by the following equation (18). x 0 = x 1 AND W x ≦ x 0 <W x + W a AND y 0 ≦ W y AND y 1 > W y + W b (18) Condition 2) Two adjacent coordinate points are arranged in the horizontal direction. This is a case where the memory area A is located with two coordinates sandwiched therebetween, and is expressed by the following equation (19). y 0 = y 1 AND W y ≦ y 0 <W y + W b AND x 0 ≦ W x AND x 1 > W x + W a (19) Condition 3) One of two adjacent coordinate points is This is the case of being included in the memory area A, and is expressed by the following equation (20).

【0026】 (x0 ,y0 ) A OR (x1 ,y1 ) A ・・・(20) 条件4)隣接する2つの座標点を結ぶ線分がy=Wy
メモリ領域Aと交わる場合であり、次式(21)で表さ
れる。 f(Wx )<Wy AND f(Wx +Wa )<Wy AND ((y0 <Wy AND y1 >Wy ) OR (y0 >Wy AND y1 <Wy ) ・・・(21) 但し、f(x)は式(25)で表される。 条件5)隣接する2つの座標点を結ぶ線分がy=Wy
b でメモリ領域Aと交わる場合であり、次式(22)
で表される。
(X 0 , y 0 ) A OR (x 1 , y 1 ) A (20) Condition 4) A line segment connecting two adjacent coordinate points intersects the memory area A at y = W y This is the case and is represented by the following equation (21). f (W x ) <W y AND f (W x + W a ) <W y AND ((y 0 <W y AND y 1 > W y ) OR (y 0 > W y AND y 1 <W y ) ・ ・・ (21) However, f (x) is expressed by equation (25) Condition 5) The line segment connecting two adjacent coordinate points is y = W y +
This is the case where the memory area A intersects with W b , and the following equation (22)
It is represented by

【0027】 f(Wx )≧Wy +Wb AND f(Wy +Wx )<Wy +Wb AND ((y0 <Wy +Wb AND y1 >Wy +Wb ) OR (y0 >Wy AND y1 <Wy +Wb ) ・・・(22) 但し、f(x)は式(25)で表される。f(x)は、以下
の通りである。2つの座標列を結ぶ直線は以下の方程式
(23)で表せる。 y=ax+b ・・・(23) 2つの座標列(x0 ,y0 ),(x1 ,y1 )を代入し
てa,bを算出すると、
F (W x ) ≧ W y + W b AND f (W y + W x ) <W y + W b AND ((y 0 <W y + W b AND y 1 > W y + W b ) OR (y 0 >) W y AND y 1 <W y + W b ) ... (22) where f (x) is expressed by equation (25), and f (x) is as follows: The connecting straight line can be expressed by the following equation (23): y = ax + b (23) When two coordinate sequences (x 0 , y 0 ) and (x 1 , y 1 ) are substituted, a and b are calculated. ,

【数5】 以上の処理を全ての座標データ列{Xi ,Yi }に対し
て行い、結果としてPM(x,y) を得る。これで、入力文
字パターンの2値化データが作成されたことになる。こ
のPM(x,y) を輪郭抽出部8に出力する。
(Equation 5) The above processing is performed for all coordinate data strings {X i , Y i }, and PM (x, y) is obtained as a result. With this, the binarized data of the input character pattern is created. This PM (x, y) is output to the contour extraction unit 8.

【0028】図8(a),(b)は、パターンメモリ変
換の例を示す図であり、同図(a)は、筆記入力文字
“あ”、同図(b)は、変換後のパターンメモリを示す
図である。(g) 輪郭抽出部8 輪郭抽出部8は、パターンメモリ変換部7の出力PM
(x,y) を受けて、2値化された入力文字パータンの輪郭
を抽出する。図9は、輪郭抽出部8の動作説明図であ
り、図中の矢印は、輪郭追跡の方向を示している。輪郭
を抽出するには公知の方法、例えば、パターンメモリ内
で上端に位置するパターンの位置する画素を開始点とし
て、例えば、8個の近傍画素の中で最初に“1”となる
画素を順次追跡して、その輪郭情報を抽出する。例え
ば、筆記文字が“あ”の場合、図9に示すように、
“あ”の外側の輪郭F1と左の中抜きの輪郭F2と右の
中抜きの輪郭F3との3個の輪郭情報が得られる。
FIGS. 8 (a) and 8 (b) are diagrams showing an example of pattern memory conversion. FIG. 8 (a) is a handwritten input character "a", and FIG. 8 (b) is a converted pattern. It is a figure which shows a memory. (G) Contour extraction unit 8 The contour extraction unit 8 outputs the output PM of the pattern memory conversion unit 7.
Upon receiving (x, y), the contour of the binarized input character pattern is extracted. FIG. 9 is a diagram for explaining the operation of the contour extracting unit 8, and the arrow in the drawing indicates the direction of contour tracing. A known method for extracting the contour is, for example, starting from the pixel located in the pattern located at the upper end in the pattern memory as a starting point, for example, the first pixel of “1” among the eight neighboring pixels is sequentially arranged. Trace and extract the contour information. For example, when the written character is "A", as shown in FIG.
Three pieces of contour information, that is, the outer contour F1 of "a", the left outline F2, and the right outline F3 are obtained.

【0029】(h) オフライン方式特徴抽出部9 オフライン方式特徴抽出部9は、輪郭抽出部8にて抽出
した輪郭データを得て、特徴量を算出する。輪郭データ
から文字認識するための特徴量を抽出する方法は、光学
式文字読取り装置などにて様々な方法が考えられてお
り、その一例を説明する。まず、輪郭を入力し、各輪郭
について2つの隣接する座標点(画素)間を結ぶ線分
を、以下のようにして4つの場合に分類する。図10
は、輪郭データの成分の分類を示す図である。
(H) Offline Method Feature Extraction Unit 9 The offline method feature extraction unit 9 obtains the contour data extracted by the contour extraction unit 8 and calculates the feature amount. Various methods have been considered for extracting a feature amount for character recognition from the contour data in an optical character reader, and an example thereof will be described. First, a contour is input, and a line segment connecting two adjacent coordinate points (pixels) for each contour is classified into four cases as follows. FIG.
FIG. 4 is a diagram showing classification of components of contour data.

【0030】図10に示すように、パターンメモリの左
端を原点(0,0)、輪郭データの注目点の座標値を
(xi ,yi )、次の輪郭データ点の座標値を
(xi+1 ,yi+ 1 )とし、 dx =xi+1 −xi ・・・(26) dy =yi+1 −yi ・・・(27) とした時、 dy =0ならば水平成分 dx =0ならば垂直成分 dx ×dy >0ならば −45°成分 dx ×dy <0ならば +45°成分 というように求められる。そして、水平成分、垂直成
分、−45°成分、+45°成分を持つ輪郭の線分に対
して、入力文字パターンの各成分の分布を求める。水平
成分(dy =0)であれば、以下の様にq0 ,q1 ,q
8 ,q9 についてのみ処理を行う。
As shown in FIG. 10, the left end of the pattern memory is the origin (0, 0), the coordinate value of the target point of the contour data is (x i , y i ), and the coordinate value of the next contour data point is (x. i + 1 , y i + 1 ) and d x = x i + 1 −x i (26) dy = y i + 1 −y i (27), then d y = 0 Then, the horizontal component is obtained if d x = 0 and the vertical component is obtained if d x × d y > 0. −45 ° component If d x × d y <0, the + 45 ° component is obtained. Then, the distribution of each component of the input character pattern is obtained for the line segment of the contour having the horizontal component, the vertical component, the −45 ° component, and the + 45 ° component. If the horizontal component (d y = 0), then q 0 , q 1 , q
Only 8 and 9 are processed.

【0031】[0031]

【数6】 (Equation 6)

【数7】 (Equation 7)

【数8】 以上のように、パターンデータに対してq0 〜q15の演
算を行うことにより、輪郭データがどの位置に分布して
いるかを表すことができる。例えば、q0 が大きけれ
ば、右に垂直なパターンが多く分布し、q4 が大きけれ
ば、下に垂直なパターンが多く分布し、q8 が大きけれ
ば、左に垂直なパターンが多く分布し、q9 が大きけれ
ば、上に垂直なパターンが多く分布していることが推定
される。
(Equation 8) As described above, by performing the calculation of q 0 to q 15 on the pattern data, it is possible to represent to which position the contour data is distributed. For example, if q 0 is large, many vertical patterns are distributed to the right, if q 4 is large, many vertical patterns are distributed to the bottom, and if q 8 is large, many vertical patterns are distributed to the left. If q 9 is large, it is estimated that many vertical patterns are distributed above.

【0032】同様に、q2 ,q3 ,q10,q11について
は水平なパターン、q4 ,q5 ,q12.q13については
45°のパターン、q6 ,q7 ,q14,q15については
−45°のパターンが、それぞれ右、下、左、上にどの
くらい多く分布しているかを推定することができる。 (i) オフライン方式マッチング部10 オフライン方式マッチング部10は、認識対象範囲を含
む文字についての基準特徴量q* 0 〜q* 15をそれぞれ
格納しているオフライン方式認識辞書11と、輪郭デー
タから算出したパターンメモリの特徴量q0 〜q15
を、逐次比較することにより、両者間の差、すなわち、
マッチング距離ddを次式(44)より算出して出力す
る。
Similarly, for q 2 , q 3 , q 10 , and q 11 , horizontal patterns q 4 , q 5 , q 12 , . It can be estimated how many 45 ° patterns for q 13 and −45 ° patterns for q 6 , q 7 , q 14 and q 15 are distributed to the right, bottom, left and top, respectively. . (I) Off-line Method Matching Unit 10 The off-line method matching unit 10 calculates from the off-line method recognition dictionary 11 storing the reference feature quantities q * 0 to q * 15 for the characters including the recognition target range and the contour data. By sequentially comparing the feature quantities q 0 to q 15 of the pattern memory, the difference between the two, that is,
The matching distance dd is calculated from the following equation (44) and output.

【0033】[0033]

【数9】 但し、q* i,j 及びqj はそれぞれオフライン方式認識
辞書11に登録されている特徴量、及びパターンメモリ
の特徴量である。nnは、1つの認識文字について、複数
登録された場合の特徴量の個数である(例えば、“+”
は、|が中央のもの、左にずれたもの、右にずれたもの
の3つの特徴量がオフライン方式認識辞書11に登録さ
れている)。
[Equation 9] However, q * i, j and q j are the feature amount registered in the offline system recognition dictionary 11 and the feature amount of the pattern memory, respectively. nn is the number of feature amounts when a plurality of registered characters are registered for one recognized character (for example, “+”).
Is registered in the off-line method recognition dictionary 11 with the | in the center, the one shifted to the left, and the one shifted to the right).

【0034】(j) 低画数文字識別部12 低画数文字識別部12は、前処理部2の出力する画数を
受けて、この画数が低画数であると判断したとき、オフ
ライン方式マッチング部10の出力するマッチング距離
ddi のうちで最小値に対応する文字コードを出力端子
13から出力し、図示しない表示器などに表示する。低
画数だと判断できないときは、何も出力しない。例え
ば、“+”は2画数であるが、筆記文字が“−”の右端
と“|”の上端が連続して、全体で1ストロークで入力
されるような場合には、ストローク数に基づいて文字認
識を行うオンライン方式に比べて、オフライン方式によ
り認識することにより認識率が向上する。また、“+”
を、例えば、左利きの人が筆記すると“−”を右から左
の順に筆記する場合があるが、この場合においても、筆
記順に依存するオンライン方式に比べて、オフライン方
式を採用することにより認識率が向上する。
(J) Low Stroke Number Character Identification Unit 12 When the low stroke number character identification unit 12 receives the stroke number output from the preprocessing unit 2 and determines that this stroke number is low, the low stroke number character identification unit 12 is The character code corresponding to the minimum value of the matching distances dd i to be output is output from the output terminal 13 and displayed on a display (not shown) or the like. If it cannot be determined that the stroke count is low, nothing is output. For example, “+” is 2 strokes, but if the right end of the written character is “–” and the upper end of “|” are continuous and input in one stroke as a whole, based on the number of strokes. The recognition rate is improved by recognizing by the offline method as compared with the online method for recognizing characters. Also, "+"
For example, when a left-handed person writes, "-" may be written in order from right to left. Even in this case, the recognition rate is improved by adopting the offline method as compared with the online method that depends on the writing order. Is improved.

【0035】更に、例えば、“+”を、“|”、“−”
の順に誤って筆記入力された場合にも、オフライン方式
により認識率が向上する。ここで、画数が低画数だと判
断するのは、抽出する特徴パラメータにより異なると思
われるのが、ここでは高画数文字識別部6で7画以上の
文字を高画数だとしたので、6画以下の文字を低画数文
字とする。以上説明したように、本第1の実施形態によ
れば、パターンメモリ変換部7、輪郭抽出部8、オフラ
イン方式特徴抽出部9、オフライン方式マッチング部1
0、オフライン方式認識辞書11及び低画数文字識別部
12を設けたので、低画数文字において、筆順、及び画
数に影響を受けないオンライン手書き文字認識装置を提
供することができる。
Further, for example, "+" is replaced by "|", "-"
The recognition rate is improved by the off-line method even in the case where the writing is erroneously input in the order of. Here, it is considered that the number of strokes is determined to be low depending on the characteristic parameters to be extracted. Here, since the high stroke number character identifying unit 6 determines that the number of strokes is 7 or more, the stroke count is 6 strokes. The following characters are low stroke characters. As described above, according to the first embodiment, the pattern memory conversion unit 7, the contour extraction unit 8, the offline system feature extraction unit 9, and the offline system matching unit 1
0, the off-line method recognition dictionary 11 and the low stroke number character identification unit 12 are provided, so that it is possible to provide an online handwritten character recognition device that is not affected by the stroke order and stroke number for low stroke number characters.

【0036】第2の実施形態 図11は、本発明の第2の実施形態のオンライン手書き
文字認識装置を示す構成図であり、図1中の要素に共通
する要素には共通の符号を付してある。本第2の実施形
態のオンライン手書き文字認識装置が第1の実施形態の
オンライン手書き文字認識装置と異なる点は、高画数文
字についても、オンライン方式マッチング部4の出力と
オフライン方式マッチング部10の出力とからマッチン
グ距離を算出して、文字認識するようにしたことであ
る。図11に示すように、本第2の実施形態のオンライ
ン手書き文字認識装置は、タブレット1、前処理部2、
オンライン方式特徴抽出部3、オンライン方式マッチン
グ部4、オンライン方式認識辞書5、高画数文字識別部
26、パターンメモリ変換部7、輪郭抽出部8、オフラ
イン方式特徴抽出部9、オフライン方式マッチング部1
0、オフライン方式認識辞書11、低画数文字識別部1
2、及び出力端子13を備えている。
Second Embodiment FIG. 11 is a block diagram showing an online handwritten character recognition apparatus according to a second embodiment of the present invention. Elements common to those in FIG. 1 are designated by common reference numerals. There is. The difference between the online handwritten character recognition device of the second embodiment and the online handwritten character recognition device of the first embodiment is that the output of the online method matching unit 4 and the output of the offline method matching unit 10 are also for high stroke number characters. That is, the matching distance is calculated from and the characters are recognized. As shown in FIG. 11, the online handwritten character recognition device according to the second embodiment includes a tablet 1, a preprocessing unit 2,
Online system feature extraction unit 3, online system matching unit 4, online system recognition dictionary 5, high stroke number character identification unit 26, pattern memory conversion unit 7, contour extraction unit 8, offline system feature extraction unit 9, offline system matching unit 1.
0, offline system recognition dictionary 11, low stroke number character identification unit 1
2 and an output terminal 13.

【0037】タブレット1の出力側は、前処理部2に接
続されている。前処理部2の出力のうち座標列は、オン
ライン方式特徴抽出部3及びパターンメモリ変換部7の
入力側に接続され、画数は、高画数文字識別部26及び
低画数文字識別部12の入力側に接続されている。オン
ライン方式特徴抽出部3及びオンライン方式認識辞書5
の出力側は、オンライン方式マッチング部4の入力側に
接続されている。オンライン方式マッチング部4の出力
側は、高画数文字識別部26の入力側に接続されてい
る。パターンメモリ変換部7の出力側は、輪郭抽出部8
の入力側に接続され、更に、この輪郭抽出部8の出力側
が、オフライン方式特徴抽出部9の入力側に接続されて
いる。オフライン方式特徴抽出部9及びオフライン方式
認識辞書11の出力は、オフライン方式マッチング部1
0の入力側に接続されている。オフライン方式マッチン
グ部4の出力側は、低画数文字識別部12及び高画数文
字認識部26の入力側に接続されている。高画数文字識
別部26及び低画数文字識別部12の出力側は、出力端
子13に接続されている。以下、図11の各部の動作
(a)〜(j)の説明をする。
The output side of the tablet 1 is connected to the preprocessing unit 2. The coordinate sequence of the output of the preprocessing unit 2 is connected to the input side of the online system feature extraction unit 3 and the pattern memory conversion unit 7, and the stroke number is the input side of the high stroke number character identification unit 26 and the low stroke number character identification unit 12. It is connected to the. Online system feature extraction unit 3 and online system recognition dictionary 5
The output side of is connected to the input side of the online method matching unit 4. The output side of the online system matching unit 4 is connected to the input side of the high stroke number character identification unit 26. The output side of the pattern memory conversion unit 7 has a contour extraction unit 8
, And the output side of the contour extraction unit 8 is connected to the input side of the offline system feature extraction unit 9. The outputs of the offline system feature extraction unit 9 and the offline system recognition dictionary 11 are output by the offline system matching unit 1.
0 is connected to the input side. The output side of the off-line method matching section 4 is connected to the input sides of the low stroke number character identifying section 12 and the high stroke number character recognizing section 26. The output sides of the high stroke number character identifying section 26 and the low stroke number character identifying section 12 are connected to the output terminal 13. Hereinafter, operations (a) to (j) of each unit in FIG. 11 will be described.

【0038】(a) タブレット1 タブレット1は、第1の実施形態と同様に、座標列の筆
記データ列{(xi ,yi ),i=1,2,…,nj
を抽出して、前処理部2に送る。 (b) 前処理部2 前処理部2は、第1の実施形態と同様に、座標列の筆記
データに対して平滑化し、オンライン方式特徴抽出部3
及びパターンメモリ変換部7へ平滑化後の筆記データ列
を出力し、画数を高画数文字識別部26及び低画数文字
識別部12に出力する。 (c) オンライン方式特徴抽出部3 オンライン方式特徴抽出部3は、前処理部2の出力か
ら、第1の実施形態と同様に、例えば、直線近似化処理
を施して特徴点を抽出する。そして、ストローク数によ
る大分類を行い、文字辞書の認識対象の文字の部分パタ
ーンのカット位置から筆記文字の部分パターンを求め、
部分パターン間ベクトルを算出して、文字辞書の部分パ
ターン間ベクトルと筆記文字の部分パターン間ベクトル
のマッチング距離dvec を算出し、dvec とVECREJとを
比較して中分類を行う。更に、中分類で残った認識対象
の文字の部分パターンに従って、筆記文字のQ値を部分
パターン毎に求める。
(A) Tablet 1 As with the first embodiment, the tablet 1 has a writing data sequence {(x i , y i ), i = 1, 2, ..., N j } of coordinate sequences.
Is extracted and sent to the preprocessing unit 2. (B) Pre-Processing Unit 2 As in the first embodiment, the pre-processing unit 2 smoothes the writing data of the coordinate sequence, and the online system feature extraction unit 3
The writing data string after smoothing is output to the pattern memory converting unit 7, and the stroke number is output to the high stroke number character identifying unit 26 and the low stroke number character identifying unit 12. (C) Online Method Feature Extraction Unit 3 The online method feature extraction unit 3 extracts a feature point from the output of the preprocessing unit 2 by performing, for example, a linear approximation process, as in the first embodiment. Then, the stroke pattern is roughly classified, and the partial pattern of the written character is obtained from the cut position of the partial pattern of the character to be recognized in the character dictionary.
A vector between the partial patterns is calculated, a matching distance d vec between the vector between the partial patterns of the character dictionary and a vector between the partial patterns of the written character is calculated, and d vec is compared with VECREJ to perform the middle classification. Further, the Q value of the written character is obtained for each partial pattern in accordance with the partial pattern of the recognition target character remaining in the middle classification.

【0039】(d) オンライン方式マッチング部4 オンライン方式マッチング部4は、オンライン方式特徴
抽出部3の出力を受けて、第1の実施形態と同様に、マ
ッチング距離dBPをQ値から算出し、dvec とdBPから
マッチング距離値dを算出し、高画数文字識別部26に
出力する。 (e) パターンメモリ変換部7 パターンメモリ変換部7は、前処理部2の出力データの
特徴点の座標データ列{Xi ,Yi }を受けて、第1の
実施形態と同様に、2次元の配列PM(x,y) に変換し、
輪郭抽出部8に出力する。 (f) 輪郭抽出部8 輪郭抽出部8は、パターンメモリ変換部7の出力PM
(x,y) を受けて、第1の実施形態と同様に、例えば、輪
郭追跡して輪郭データを抽出する。 (g) オフライン方式特徴抽出部9 オフライン方式特徴抽出部9は、輪郭抽出部8にて抽出
した輪郭データを得て、第1の実施形態と同様に、例え
ば、水平成分、垂直成分、45°成分、−45°成分の
0 〜q15を求める。
(D) Online system matching unit 4 The online system matching unit 4 receives the output of the online system feature extraction unit 3 and calculates the matching distance d BP from the Q value as in the first embodiment. A matching distance value d is calculated from d vec and d BP and output to the high stroke count character identification unit 26. (E) Pattern memory conversion unit 7 The pattern memory conversion unit 7 receives the coordinate data string {X i , Y i } of the feature points of the output data of the preprocessing unit 2 and, as in the first embodiment, 2 Convert to the dimension array PM (x, y),
It is output to the contour extraction unit 8. (F) Contour extraction unit 8 The contour extraction unit 8 outputs the output PM of the pattern memory conversion unit 7.
Upon receiving (x, y), for example, contour tracing is performed to extract contour data, as in the first embodiment. (G) Off-line method feature extraction unit 9 The off-line method feature extraction unit 9 obtains the contour data extracted by the contour extraction unit 8 and, for example, as in the first embodiment, the horizontal component, the vertical component, 45 °, for example. The components, q 0 to q 15 , of the −45 ° component are obtained.

【0040】(h) オフライン方式マッチング部10 オフライン方式マッチング部10は、第1の実施形態と
同様に、認識対象範囲を含む文字についての基準特徴量
0 * 〜q15 * をそれぞれ格納しているオフライン方式
認識辞書11と、輪郭データから算出したパターンメモ
リの特徴量q0〜q15とを、逐次比較することにより、
両者間の差、すなわち、マッチング距離ddを算出して
出力する。 (i) 高画数文字識別部26 高画数文字識別部26は、オンライン方式マッチング部
4の出力dk とオフライン方式マッチング部10の出力
ddk とから、次式(45)により新しい距離値d
highk を求めて、小さい順にソーティングする。そし
て、画数が高画数だと判断できたときは、対応する文字
コードを出力端子13から出力し、図示しない表示器な
どに表示する。高画数だと判断できないときは、何も出
力しない。 dhighk =dk +w・ddk ・・・(45) 但し、wは重み係数である。ここで、画数が高画数であ
ると判断するのは、抽出する特徴パラメータにより異な
ると思われるが、ここでは7画以上の文字を高画数だと
する。
(H) Offline Method Matching Unit 10 The offline method matching unit 10 stores the reference feature quantities q 0 * to q 15 * for the characters including the recognition target range, respectively, as in the first embodiment. By sequentially comparing the offline method recognition dictionary 11 and the feature quantities q 0 to q 15 of the pattern memory calculated from the contour data,
The difference between the two, that is, the matching distance dd is calculated and output. (I) High stroke number character identifying unit 26 The high stroke number character identifying unit 26 calculates a new distance value d from the output d k of the online method matching unit 4 and the output dd k of the offline method matching unit 10 according to the following equation (45).
Search for highk and sort in ascending order. When it is determined that the number of strokes is high, the corresponding character code is output from the output terminal 13 and displayed on a display device (not shown) or the like. If it cannot be determined that the number of strokes is high, nothing is output. d highk = d k + w · dd k (45) where w is a weighting coefficient. Here, it is assumed that the number of strokes is high depending on the characteristic parameter to be extracted, but here it is assumed that characters with 7 strokes or more are high strokes.

【0041】[0041]

【外1】 式(45)に示すように、オンライン方式マッチング部
4の出力dk と、筆順、画数に依存しない別の方式であ
るオフライン方式マッチング部10の出力ddkとによ
り、マッチング距離ddを算出するので、こうしたわず
かな違いしかない文字の場合においても認識率が向上す
る。
[Outside 1] As shown in Expression (45), the matching distance dd is calculated by the output d k of the online method matching unit 4 and the output dd k of the offline method matching unit 10 which is another method that does not depend on the stroke order and the number of strokes. , The recognition rate is improved even in the case of such characters with only a slight difference.

【0042】(j) 低画数文字識別部12 低画数文字識別部12は、前処理部2の出力する画数を
受けて、第1の実施形態と同様に、画数が低画数である
と判断したとき、オフライン方式マッチング部10の出
力するマッチング距離ddi のうちで最小値に対応する
文字コードを出力端子13から出力し、図示しない表示
器などに表示する。低画数だと判断できないときは、何
も出力しない。ここで、画数が低画数だと判断するの
は、抽出する特徴パラメータにより異なると思われるの
が、ここでは高画数文字識別部26で7画以上の文字を
高画数だとしたので、6画以下の文字を低画数文字とす
る。以上説明したように、本第2の実施形態によれば、
低画数文字においては、第1の実施形態と同様の利点が
あり、高画数文字においては、オンライン方式とオフラ
イン方式の両方の特徴量で認識するので、認識率が向上
する。
(J) Low Stroke Number Character Identification Unit 12 The low stroke number character identification unit 12 receives the stroke number output from the preprocessing unit 2 and determines that the stroke number is the low stroke number as in the first embodiment. At this time, the character code corresponding to the minimum value of the matching distances dd i output by the off-line method matching unit 10 is output from the output terminal 13 and displayed on a display device (not shown) or the like. If it cannot be determined that the stroke count is low, nothing is output. Here, it is considered that the determination of the stroke count being the low stroke count depends on the feature parameter to be extracted. Here, since the high stroke count character identification unit 26 determines that the characters of 7 strokes or more are the high stroke count, the stroke count is 6 strokes. The following characters are low stroke characters. As described above, according to the second embodiment,
The low stroke number character has the same advantage as that of the first embodiment, and the high stroke number character is recognized by both the online and offline feature amounts, so that the recognition rate is improved.

【0043】第3の実施形態 図12は、本発明の第3の実施形態のオンライン手書き
文字認識装置を示す構成図であり、図1中の要素に共通
する要素には共通の符号を付してある。本第3の実施形
態のオンライン手書き文字認識装置が第1の実施形態の
オンライン手書き文字認識装置と異なる点は、高画数文
字については、認識対象の部分パターンのカット位置に
従った筆記文字の部分パターンのオフライン特徴量と、
部分パターンオフライン方式認識辞書35に格納された
部分パターンのオフライン特徴量から算出したマッチン
グ距離と、オフライン方式マッチング部4の出力とから
マッチング距離を求めて文字認識を行うようにしたこと
である。図12に示すように、本第3の実施形態のオン
ライン手書き文字認識装置は、タブレット1、前処理部
2、オンライン方式特徴抽出部3、オンライン方式マッ
チング部4、オンライン方式認識辞書5、高画数文字識
別部36、部分パターンパターンメモリ変換部31、部
分パターン輪郭抽出部32、部分パターンオフライン方
式抽出特徴部33、部分パターンオフライン方式マッチ
ング部34、部分パターンオフライン方式認識辞書3
5、パターンメモリ変換部7、輪郭抽出部8、オフライ
ン方式特徴抽出部9、オフライン方式マッチング部1
0、オフライン方式認識辞書11、低画数文字識別部1
2、及び出力端子13を備えている。
Third Embodiment FIG. 12 is a block diagram showing an online handwritten character recognition apparatus according to a third embodiment of the present invention. Elements common to those in FIG. 1 are designated by common reference numerals. There is. The difference between the online handwritten character recognition device of the third embodiment and the online handwritten character recognition device of the first embodiment is that, for high stroke number characters, the part of the written character according to the cut position of the partial pattern to be recognized. Offline features of the pattern,
This is to perform character recognition by obtaining the matching distance from the matching distance calculated from the offline feature amount of the partial pattern stored in the partial pattern offline method recognition dictionary 35 and the output of the offline method matching unit 4. As shown in FIG. 12, the online handwritten character recognition device according to the third embodiment includes a tablet 1, a preprocessing unit 2, an online system feature extraction unit 3, an online system matching unit 4, an online system recognition dictionary 5, and a high stroke count. Character identification unit 36, partial pattern pattern memory conversion unit 31, partial pattern contour extraction unit 32, partial pattern offline method extraction characteristic unit 33, partial pattern offline method matching unit 34, partial pattern offline method recognition dictionary 3
5, pattern memory conversion unit 7, contour extraction unit 8, offline system feature extraction unit 9, offline system matching unit 1
0, offline system recognition dictionary 11, low stroke number character identification unit 1
2 and an output terminal 13.

【0044】タブレット1の出力側は、前処理部2に接
続されている。前処理部2の出力のうち座標列は、オン
ライン方式特徴抽出部3及びパターンメモリ変換部7の
入力側に接続され、画数は、高画数文字識別部36及び
低画数文字識別部12の入力側に接続されている。オン
ライン方式特徴抽出部3及びオンライン方式認識辞書5
の出力側は、オンライン方式マッチング部4の入力側に
接続されている。オンライン方式マッチング部4の出力
側は、高画数文字識別部36の入力側に接続されてい
る。パターンメモリ変換部7の出力側は、輪郭抽出部8
の入力側に接続され、更に、この輪郭抽出部8の出力側
が、オフライン方式特徴抽出部9の入力側に接続されて
いる。オフライン方式特徴抽出部9及びオフライン方式
認識辞書11の出力側は、オフライン方式マッチング部
10の入力側に接続されている。オフライン方式マッチ
ング部4の出力側は、低画数文字識別部12の入力側に
接続されている。
The output side of the tablet 1 is connected to the preprocessing unit 2. The coordinate sequence of the output of the preprocessing unit 2 is connected to the input side of the online system feature extraction unit 3 and the pattern memory conversion unit 7, and the stroke count is the input side of the high stroke number character identification unit 36 and the low stroke number character identification unit 12. It is connected to the. Online system feature extraction unit 3 and online system recognition dictionary 5
The output side of is connected to the input side of the online method matching unit 4. The output side of the online system matching unit 4 is connected to the input side of the high stroke number character identification unit 36. The output side of the pattern memory conversion unit 7 has a contour extraction unit 8
, And the output side of the contour extraction unit 8 is connected to the input side of the offline system feature extraction unit 9. The output sides of the offline system feature extraction unit 9 and the offline system recognition dictionary 11 are connected to the input side of the offline system matching unit 10. The output side of the off-line method matching unit 4 is connected to the input side of the low stroke number character identifying unit 12.

【0045】オンライン方式特徴抽出部3の出力側は、
オンライン方式マッチング部4及び部分パターンパター
ンメモリ変換部31に接続されている。部分パターンパ
ターンメモリ変換部31の出力側は、部分パターン輪郭
抽出部32の入力側に接続されている。部分パターン輪
郭抽出部32の出力側は、部分パターンオフライン方式
特徴抽出部33の入力側に接続されている。部分パター
ンオフライン方式特徴抽出部33、及び部分パターンオ
フライン方式認識辞書35の出力側は、部分パターンオ
フライン方式マッチング部34の入力側に接続されてい
る。オンライン方式マッチング部4及び部分パターンオ
フライン方式マッチング部34の出力側は、高画数文字
識別部36の入力側に接続されている。高画数文字識別
部36及び低画数文字識別部12の出力側は、出力端子
13に接続されている。部分パターンパターンメモリ変
換部31は、部分パターンパターンメモリを有し、入力
文字の部分パターンを2値化して、その部分パターンメ
モリに格納するものである。
The output side of the online system feature extraction unit 3 is
It is connected to the online system matching unit 4 and the partial pattern / pattern memory conversion unit 31. The output side of the partial pattern / pattern memory conversion section 31 is connected to the input side of the partial pattern contour extraction section 32. The output side of the partial pattern contour extraction unit 32 is connected to the input side of the partial pattern offline method feature extraction unit 33. The output sides of the partial pattern offline method feature extraction unit 33 and the partial pattern offline method recognition dictionary 35 are connected to the input side of the partial pattern offline method matching unit 34. The output sides of the online method matching unit 4 and the partial pattern offline method matching unit 34 are connected to the input side of the high stroke number character identifying unit 36. The output sides of the high stroke number character identifying unit 36 and the low stroke number character identifying unit 12 are connected to the output terminal 13. The partial pattern pattern memory conversion unit 31 has a partial pattern pattern memory, binarizes the partial pattern of the input character, and stores it in the partial pattern memory.

【0046】部分パターン輪郭抽出部32は、入力文字
の部分パターンの2値化データから輪郭を抽出して、輪
郭情報を求めるものである。部分パターンオフライン方
式特徴抽出部33は、部分パターンの輪郭情報から水
平、垂直、45°、−45°の成分の特徴量q0 〜q15
を求めるものである。部分パターンオフライン方式マッ
チング部34は、部分パターンオフライン方式認識辞書
35に登録された部分パータンの水平、垂直、45°、
−45°の成分の基準特徴量q* 0 〜q* 15とのマッチ
ング距離を求めるものである。高画数文字識別部36
は、オンライン方式マッチング部4の出力と部分パター
ンオフライン方式マッチング部34の出力から、マッチ
ング距離を算出して文字認識するものである。以下、図
12の各部の動作(a)〜(n)の説明をする。
The partial pattern contour extraction unit 32 extracts contours from the binarized data of the partial pattern of the input character to obtain contour information. The partial pattern offline method feature extraction unit 33 uses the feature information q 0 to q 15 of horizontal, vertical, 45 °, and −45 ° components from the contour information of the partial pattern.
Is what you want. The partial pattern off-line method matching unit 34 horizontally, vertically, 45 ° of the partial patterns registered in the partial pattern off-line method recognition dictionary 35,
The matching distance between the reference feature quantity q * 0 to q * 15 of the −45 ° component is obtained. High stroke number character identification section 36
Is for recognizing characters by calculating the matching distance from the output of the online method matching unit 4 and the output of the partial pattern offline method matching unit 34. Hereinafter, operations (a) to (n) of the respective units in FIG. 12 will be described.

【0047】(a) タブレット1 タブレット1は、第1の実施形態と同様に、座標列の筆
記データ列{(xi ,yi ),i=1,2,…,nj
を抽出して、前処理部2に送る。 (b) 前処理部2 前処理部2は、第1の実施形態と同様に、座標列の筆記
データに対して平滑化し、オンライン方式特徴抽出部3
及びパターンメモリ変換部7へ平滑化後の筆記データ列
を出力し、画数を高画数文字識別部36及び低画数文字
識別部12に出力する。 (c) オンライン方式特徴抽出部3 オフライン方式特徴抽出部3は、前処理部2の出力か
ら、第1の実施形態と同様に、例えば、直線近似化処理
を施して特徴点を抽出する。そして、ストローク数によ
る大分類を行い、文字辞書の認識対象の文字の部分パタ
ーンのカット位置から筆記文字の部分パターンを求め、
部分パターン間ベクトルを算出して、文字辞書の部分パ
ターン間ベクトルと筆記文字の部分パターン間ベクトル
のマッチング距離dvec を算出し、dvec とVECREJとを
比較して中分類を行う。更に、中分類で残った認識対象
の文字の部分パターンに従って、筆記文字のQ値を部分
パターン毎に求める。
(A) Tablet 1 As with the first embodiment, the tablet 1 has a coordinate data writing data string {(x i , y i ), i = 1, 2, ..., N j }.
Is extracted and sent to the preprocessing unit 2. (B) Pre-Processing Unit 2 As in the first embodiment, the pre-processing unit 2 smoothes the writing data of the coordinate sequence, and the online system feature extraction unit 3
The smoothed handwritten data string is output to the pattern memory conversion unit 7, and the stroke number is output to the high stroke number character identification unit 36 and the low stroke number character identification unit 12. (C) Online Method Feature Extraction Unit 3 The offline method feature extraction unit 3 extracts a feature point from the output of the preprocessing unit 2 by performing, for example, a linear approximation process, as in the first embodiment. Then, the stroke pattern is roughly classified, and the partial pattern of the written character is obtained from the cut position of the partial pattern of the character to be recognized in the character dictionary.
A vector between the partial patterns is calculated, a matching distance d vec between the vector between the partial patterns of the character dictionary and a vector between the partial patterns of the written character is calculated, and d vec is compared with VECREJ to perform the middle classification. Further, the Q value of the written character is obtained for each partial pattern in accordance with the partial pattern of the recognition target character remaining in the middle classification.

【0048】更に、文字を構成する部分パターンのカッ
ト位置とそれに対応する座標データ列を部分パターンパ
ターンメモリ変換部31に出力する。例えば、“逢”が
筆記入力されたとき、今認識(マッチング)しようとし
ている文字が“挨”であったとすると、図3に示すよう
に“挨”のカット位置は、(3,2,5)であるので、
このカット位置に従った部分パターンの座標データ列が
部分パターンパターンメモリ変換部31に出力される。 (d) オンライン方式マッチング部4 オンライン方式マッチング部4は、オンライン方式特徴
抽出部3の出力を受けて、第1の実施形態と同様に、マ
ッチング距離dBPをQ値から算出し、dvec とdBPから
マッチング距離値dを算出し、高画数文字識別部36に
出力する。
Further, the cut position of the partial pattern forming the character and the corresponding coordinate data string are output to the partial pattern pattern memory conversion unit 31. For example, if "A" is written in and the character to be recognized (matching) is "dust", the cut position of "dust" is (3, 2, 5) as shown in FIG. ), So
The coordinate data string of the partial pattern according to the cut position is output to the partial pattern pattern memory conversion unit 31. (D) the online mode matching section 4 online mode matching unit 4 receives the output line topology feature extraction unit 3, as in the first embodiment, calculates a matching distance d BP from Q value, and d vec A matching distance value d is calculated from d BP and output to the high stroke count character identification unit 36.

【0049】(e) 部分パターンパターンメモリ変換
部31 部分パターンパターンメモリ変換部31は、オンライン
方式特徴抽出部3から文字を構成する部分パターンのス
トローク情報であるカット位置とそれに対応する座標デ
ータ列を受けて、各部分パターンについて、第1の実施
形態のパターンメモリ変換部7と同様に、部分パターン
を縦と横に複数に分割し、各分割した領域が隣接する2
つの座標データを結ぶ線分と交わるか否かを判別し、2
値化データを作成して部分パターンメモリに格納する。
例えば、“逢”が筆記入力されたとき、今認識(マッチ
ング)しようとしている文字が“挨”であったとする
と、“挨”を構成する3つの部分パターンのカット位置
に従って、3つの部分パターンに対する座標データ列
“久”、“二”、“辻”をそれぞれ2値化データに変換
し、変換した3つのパターンデータを部分パターン輪郭
抽出部32に出力する。
(E) Partial pattern / pattern memory conversion unit 31 The partial pattern / pattern memory conversion unit 31 outputs, from the online system feature extraction unit 3, a cut position which is stroke information of a partial pattern forming a character and a coordinate data string corresponding thereto. For each partial pattern, similarly to the pattern memory conversion unit 7 of the first embodiment, the partial pattern is vertically and horizontally divided into a plurality of pieces, and the divided areas are adjacent to each other.
It is determined whether or not it intersects with a line segment that connects two coordinate data, and 2
Create the binarized data and store it in the partial pattern memory.
For example, if "A" is written in and the character to be recognized (matching) is "dust", the three partial patterns corresponding to the cut positions of the three partial patterns forming "dust" Each of the coordinate data strings “hisa”, “two”, and “tsuji” is converted into binarized data, and the three converted pattern data are output to the partial pattern contour extraction unit 32.

【0050】(f) 部分パターン輪郭抽出部32 部分パターン輪郭抽出部32は、部分パターンパターン
メモリ変換部31の出力する各部分パターンパターンデ
ータを読み出して、第1の実施形態の輪郭抽出部8と同
様にして輪郭抽出処理を行い、輪郭情報を部分パターン
オフライン方式特徴抽出部33に出力する。 (g) 部分パターンオフライン方式特徴抽出部33 部分パターンオフライン方式特徴抽出部部33は、部分
パターン輪郭抽出部32の出力する部分パターン数分の
輪郭データを受けて、第1の実施形態のオフライン方式
特徴抽出部9と同様に、輪郭データから、例えば、水
平、垂直、45°、−45°の成分の16個の特徴量q
k,0 〜qBk,15(k=1,2,…,BPN,BPN は部分パターン
数) を求めて、部分パターンオフライン方式マッチング
部34に出力する。
(F) Partial pattern contour extraction unit 32 The partial pattern contour extraction unit 32 reads out each partial pattern pattern data output from the partial pattern pattern memory conversion unit 31 and uses it as the contour extraction unit 8 of the first embodiment. Similarly, the contour extraction processing is performed, and the contour information is output to the partial pattern offline method feature extraction unit 33. (G) Partial pattern offline method feature extraction unit 33 The partial pattern offline method feature extraction unit 33 receives the contour data for the number of partial patterns output by the partial pattern contour extraction unit 32, and receives the off-line method of the first embodiment. Similar to the feature extraction unit 9, for example, 16 feature quantities q of horizontal, vertical, 45 °, and −45 ° components are extracted from the contour data.
B k, 0 to qB k, 15 (k = 1,2, ..., BPN, where BPN is the number of partial patterns) are obtained and output to the partial pattern offline method matching unit 34.

【0051】(h) 部分パターンオフライン方式マッ
チング部34 部分パターンオフライン方式マッチング部34は、部分
パターンオフライン方式特徴抽出部33の出力する部分
パターン毎の特徴量qBk,0 〜qBk,15(k=1,2,…,BP
N)と、部分パターンオフライン方式認識辞書35に予
め登録してあるマッチング対象の部分パターン毎の特徴
量qB* k,0 〜qB* k,15(k=1,2,…,BPN)との、部分
パターンオフライン方式マッチング距離値ddbを、次
式(46)により算出して出力する。
(H) Partial pattern offline method matching unit 34 The partial pattern offline method matching unit 34 outputs the feature quantities qB k, 0 to qB k, 15 (k for each partial pattern output from the partial pattern offline method feature extraction unit 33. = 1,2, ..., BP
N) and the feature quantities qB * k, 0 to qB * k, 15 (k = 1,2, ..., BPN) for each matching target partial pattern registered in advance in the partial pattern offline method recognition dictionary 35. , The partial pattern off-line method matching distance value ddb is calculated by the following equation (46) and output.

【0052】[0052]

【数10】 但し、BPN は部分パターン数、Nは画数、BSk はk番
目の部分パターンのストローク数である。ここで、BS
k をNで割った結果を掛けているのは、部分パターンの
ストローク数による重み付けを行うためである。例え
ば、“逢”が筆記入力されたとき、今認識(マッチン
グ)しようとしている文字が“挨”であったとすると、
部分パターンオフライン方式認識辞書35には、“挨”
を構成する3つの部分パターン、“キ”、“ム”、
“矢”の基準特徴量qB* k,0 〜qB* k,15(k=1,2,3
)が登録されており、この“キ”、“ム”、“矢”の
基準特徴量と“久”、“二”、“辻”の特徴量とのマッ
チング距離ddbが、式(47)により算出される。
(Equation 10) Here, BPN is the number of partial patterns, N is the number of strokes, and BS k is the number of strokes of the kth partial pattern. Where BS
The reason why the result of dividing k by N is multiplied is to weight the partial pattern by the number of strokes. For example, if the character you are trying to recognize (match) is "dust" when "A" is written,
The partial pattern offline method recognition dictionary 35 contains "dust".
The three partial patterns that make up "ki", "mu",
Reference feature quantity of "arrow" qB * k, 0 to qB * k, 15 (k = 1,2,3
) Is registered, and the matching distance ddb between the reference feature amount of “ki”, “mu”, and “arrow” and the feature amount of “kyu”, “two”, and “tsuji” is calculated by the equation (47). It is calculated.

【0053】(i) 高画数文字識別部36 高画数文字識別部36は、オフライン方式マッチング部
34の出力dk と部分パターンオフライン方式マッチン
グ部34の出力ddbk とから、以下の式(47)によ
り新しい距離値dhighk を求めて小さい順にソーティン
グし、画数が高画数だと判断できたときは、対応する文
字コードを出力端子13から出力し、図示しない表示器
などに表示する。高画数だと判断できないときは、何も
出力しない。 dhighk =dk +w・ddbk ・・・(47) 但し、wは重み係数である。ここで、画数が高画数だと
判断するのは、抽出する特徴パラメータにより異なると
思われるが、ここでは7画以上の文字を高画数だとす
る。
(I) High Stroke Number Character Identification Unit 36 The high stroke number character identification unit 36 uses the following equation (47) from the output d k of the offline method matching unit 34 and the output ddb k of the partial pattern offline method matching unit 34. Then, a new distance value d highk is obtained and sorted in ascending order, and when it can be determined that the number of strokes is high, the corresponding character code is output from the output terminal 13 and displayed on a not-shown display or the like. If it cannot be determined that the number of strokes is high, nothing is output. d highk = d k + w · ddb k (47) where w is a weighting coefficient. Here, it is considered that the number of strokes is high depending on the characteristic parameter to be extracted, but here it is assumed that characters with 7 strokes or more are high strokes.

【0054】[0054]

【外2】 マッチング距離を算出するので、こうしたわずかな違い
しかない場合でも認識率が向上する。
[Outside 2] Since the matching distance is calculated, the recognition rate is improved even when there is such a slight difference.

【0055】(j) パターンメモリ変換部7 パターンメモリ変換部7は、前処理部2の出力データの
特徴点の座標データ列{Xi ,Yi }を受けて、第1の
実施形態と同様に、2次元の配列PM(x,y) に変換し、
輪郭抽出部8に出力する。 (k) 輪郭抽出部8 輪郭抽出部8は、パターンメモリ変換部7の出力PM
(x,y) を受けて、第1の実施形態と同様に、輪郭追跡し
て輪郭データを輪郭として抽出する。 (l) オフライン方式特徴抽出部9 オフライン方式特徴抽出部9は、輪郭抽出部8にて抽出
した輪郭データを得て、第1の実施形態と同様に、水平
成分、垂直成分、45°成分、−45°成分のq0 〜q
15を求める。
(J) Pattern memory conversion unit 7 The pattern memory conversion unit 7 receives the coordinate data string {X i , Y i } of the characteristic points of the output data of the preprocessing unit 2 and is similar to the first embodiment. To a two-dimensional array PM (x, y),
It is output to the contour extraction unit 8. (K) Contour extraction unit 8 The contour extraction unit 8 outputs the output PM of the pattern memory conversion unit 7.
Upon receiving (x, y), the contour is traced and the contour data is extracted as the contour, as in the first embodiment. (L) Off-line method feature extraction unit 9 The off-line method feature extraction unit 9 obtains the contour data extracted by the contour extraction unit 8 and, similarly to the first embodiment, a horizontal component, a vertical component, a 45 ° component, Q 0 to q of −45 ° component
Ask for 15 .

【0056】(m) オフライン方式マッチング部10 オフライン方式マッチング部10は、第1の実施形態と
同様に、認識対象範囲を含む文字についての基準特徴量
0 * 〜q15 * をそれぞれ格納しているオフライン方式
認識辞書11と、輪郭データから算出したパターンメモ
リの特徴量q0〜q15とを、逐次比較することにより、
両者間の差、すなわち、マッチング距離ddを算出して
出力する。 (n) 低画数文字識別部12 低画数文字識別部12は、前処理部2の出力する画数を
受けて、画数が低画数であると判断したとき、オフライ
ン方式マッチング部10の出力するマッチング距離dd
i のうちで最小値に対応する文字コードを出力端子13
から出力し、図示しない表示器などに表示する。低画数
だと判断できないときは、何も出力しない。
(M) Offline Method Matching Unit 10 The offline method matching unit 10 stores the reference feature quantities q 0 * to q 15 * for the characters including the recognition target range, respectively, as in the first embodiment. By sequentially comparing the offline method recognition dictionary 11 and the feature quantities q 0 to q 15 of the pattern memory calculated from the contour data,
The difference between the two, that is, the matching distance dd is calculated and output. (N) Low stroke number character identifying section 12 When the low stroke number character identifying section 12 receives the stroke number output by the pre-processing section 2 and determines that the stroke number is low, the matching distance output by the offline method matching section 10 is determined. dd
The character code corresponding to the minimum value of i is output terminal 13
And display it on a display device (not shown). If it cannot be determined that the stroke count is low, nothing is output.

【0057】ここで、画数が低画数だと判断するのは、
抽出する特徴パラメータにより異なると思われるのが、
ここでは高画数文字識別部36で7画以上の文字を高画
数だとしたので、6画以下の文字を低画数文字とする。
以上説明したように、本第3の実施形態によれば、低画
数文字においては、第1の実施形態と同様の利点があ
る。高画数文字においては、部分パターンパターンメモ
リ変換部31、部分パターン輪郭抽出部32、部分パタ
ーンオフライン方式特徴抽出部33、部分パターンオフ
ライン方式マッチング部34及び部分パターンオフライ
ン方式認識辞書35を設け、部分パターン毎にオンライ
ン方式とオフライン方式の両方の特徴量で認識するの
で、オンライン手書き文字認識装置の認識率を向上させ
ることができる。
Here, it is determined that the stroke number is low
It seems that it depends on the feature parameters to be extracted,
Here, since the high stroke number character identifying unit 36 determines that the characters having 7 strokes or more have a high stroke number, the characters having 6 strokes or less are set as the low stroke number characters.
As described above, according to the third embodiment, the low stroke number character has the same advantages as those of the first embodiment. For a high stroke number character, a partial pattern pattern memory conversion unit 31, a partial pattern contour extraction unit 32, a partial pattern offline method feature extraction unit 33, a partial pattern offline method matching unit 34, and a partial pattern offline method recognition dictionary 35 are provided, and a partial pattern is provided. The recognition rate of the online handwritten character recognition device can be improved because recognition is performed for each of the online and offline feature amounts.

【0058】第4の実施形態 図13は、本発明の第4の実施形態のオンライン手書き
文字認識装置を示す構成図であり、図1中の要素に共通
する要素には共通の符号を付してある。本第4の実施形
態のオンライン手書き文字認識装置が第1の実施形態の
オンライン手書き文字認識装置と異なる点は、低画数文
字の場合、オフライン方式マッチング部10の出力とオ
ンライン方式マッチング部4の出力とから、マッチング
距離を算出するようにしたことである。図13に示すよ
うに、本第4の実施形態のオンライン手書き文字認識装
置は、タブレット1、前処理部2、オンライン方式特徴
抽出部3、オンライン方式マッチング部4、オンライン
方式認識辞書5、高画数文字識別部6、パターンメモリ
変換部7、輪郭抽出部8、オフライン方式特徴抽出部
9、オフライン方式マッチング部10、オフライン方式
認識辞書11、低画数文字識別部42、及び出力端子1
3を備えている。タブレット1の出力側は、前処理部2
に接続されている。前処理部2の出力のうち座標列は、
オンライン方式特徴抽出部3及びパターンメモリ変換部
7の入力側に接続され、画数は、高画数文字識別部6及
び低画数文字識別部42の入力側に接続されている。
Fourth Embodiment FIG. 13 is a block diagram showing an online handwritten character recognition apparatus according to a fourth embodiment of the present invention. Elements common to those in FIG. 1 are designated by common reference numerals. There is. The difference between the online handwritten character recognition device of the fourth embodiment and the online handwritten character recognition device of the first embodiment is that in the case of low stroke number characters, the output of the offline method matching unit 10 and the output of the online method matching unit 4 are made. From that, the matching distance is calculated. As shown in FIG. 13, the online handwritten character recognition device according to the fourth embodiment includes a tablet 1, a preprocessing unit 2, an online system feature extraction unit 3, an online system matching unit 4, an online system recognition dictionary 5, and a high stroke count. The character identification unit 6, the pattern memory conversion unit 7, the contour extraction unit 8, the offline system feature extraction unit 9, the offline system matching unit 10, the offline system recognition dictionary 11, the low stroke number character identification unit 42, and the output terminal 1.
3 is provided. The output side of the tablet 1 is the preprocessing unit 2
It is connected to the. Of the output of the preprocessing unit 2, the coordinate sequence is
It is connected to the input side of the online method feature extraction unit 3 and the pattern memory conversion unit 7, and the stroke number is connected to the input sides of the high stroke number character identification unit 6 and the low stroke number character identification unit 42.

【0059】オンライン方式特徴抽出部3及びオンライ
ン方式認識辞書5の出力側は、オンライン方式マッチン
グ部4の入力側に接続されている。オンライン方式マッ
チング部4の出力側は、高画数文字識別部6及び低画数
文字識別部42の入力側に接続されている。パターンメ
モリ変換部7の出力側は、輪郭抽出部8の入力側に接続
され、更に、この輪郭抽出部8の出力側が、オフライン
方式特徴抽出部9の入力側に接続されている。オフライ
ン方式特徴抽出部9及びオフライン方式認識辞書11の
出力側は、オフライン方式マッチング部10の入力側に
接続されている。オフライン方式マッチング部4の出力
側は、低画数文字識別部42の入力側に接続されてい
る。高画数文字識別部6及び低画数文字識別部42の出
力側は、出力端子13に接続されている。低画数文字識
別部42は、オンライン方式マッチング部4の出力dd
k 及びオフライン方式マッチング部10の出力dk
ら、マッチング距離dlowkを算出して、文字認識するも
のである。以下、図13の各部の動作(a)〜(j)の
説明をする。
The output sides of the online system feature extraction unit 3 and the online system recognition dictionary 5 are connected to the input side of the online system matching unit 4. The output side of the online mode matching unit 4 is connected to the input sides of the high stroke number character identifying unit 6 and the low stroke number character identifying unit 42. The output side of the pattern memory conversion unit 7 is connected to the input side of the contour extraction unit 8, and the output side of the contour extraction unit 8 is connected to the input side of the offline system feature extraction unit 9. The output sides of the offline system feature extraction unit 9 and the offline system recognition dictionary 11 are connected to the input side of the offline system matching unit 10. The output side of the off-line method matching unit 4 is connected to the input side of the low stroke number character identification unit 42. The output sides of the high stroke number character identifying unit 6 and the low stroke number character identifying unit 42 are connected to the output terminal 13. The low stroke number character identifying unit 42 outputs the output dd of the online system matching unit 4.
The matching distance d lowk is calculated from k and the output d k of the offline system matching unit 10 to recognize the character. Hereinafter, operations (a) to (j) of each unit in FIG. 13 will be described.

【0060】(a) タブレット1 タブレット1は、第1の実施形態と同様に、座標列の筆
記データ列{(xi ,yi ),i=1,2,…,nj
を抽出して、前処理部2に送る。 (b) 前処理部2 前処理部2は、第1の実施形態と同様に、座標列の筆記
データに対して平滑化し、オンライン方式特徴抽出部3
及びパターンメモリ変換部7へ平滑化後の筆記データ列
を出力して、画数を高画数文字識別部6及び低画数文字
識別部42に出力する。 (c) オンライン方式特徴抽出部3 オンライン方式特徴抽出部3は、前処理部2の出力か
ら、第1の実施形態と同様に、例えば、直線近似化処理
を施して特徴点を抽出する。そして、ストローク数によ
る大分類を行い、文字辞書の認識対象の文字の部分パタ
ーンのカット位置から筆記文字の部分パターンを求め、
部分パターン間ベクトルを算出して、文字辞書の部分パ
ターン間ベクトルと筆記文字の部分パターン間ベクトル
のマッチング距離dvec を算出し、dvec とVECREJとを
比較して中分類を行う。更に、中分類で残った認識対象
の文字の部分パターンに従って、筆記文字のQ値を部分
パターン毎に求める。
(A) Tablet 1 As with the first embodiment, the tablet 1 has a writing data sequence {(x i , y i ), i = 1, 2, ..., N j } of coordinate sequences.
Is extracted and sent to the preprocessing unit 2. (B) Pre-Processing Unit 2 As in the first embodiment, the pre-processing unit 2 smoothes the writing data of the coordinate sequence, and the online system feature extraction unit 3
The writing data string after smoothing is output to the pattern memory conversion unit 7, and the stroke number is output to the high stroke number character identifying unit 6 and the low stroke number character identifying unit 42. (C) Online Method Feature Extraction Unit 3 The online method feature extraction unit 3 extracts a feature point from the output of the preprocessing unit 2 by performing, for example, a linear approximation process, as in the first embodiment. Then, the stroke pattern is roughly classified, and the partial pattern of the written character is obtained from the cut position of the partial pattern of the character to be recognized in the character dictionary.
A vector between the partial patterns is calculated, a matching distance d vec between the vector between the partial patterns of the character dictionary and a vector between the partial patterns of the written character is calculated, and d vec is compared with VECREJ to perform the middle classification. Further, the Q value of the written character is obtained for each partial pattern in accordance with the partial pattern of the recognition target character remaining in the middle classification.

【0061】(d) オンライン方式マッチング部4 オンライン方式マッチング部4は、オンライン方式特徴
抽出部3の出力を受けて、第1の実施形態と同様に、マ
ッチング距離dBPをQ値から算出し、dvec とdBPから
マッチング距離値dを算出して、高画数文字識別部6に
出力する。 (e) 高画数文字識別部6 高画数文字識別部6は、第1の実施形態と同様にして、
オンライン方式マッチング部4の出力dk を小さい順に
ソーティングし、画数が高画数だと判断できたときは、
対応する文字コードを出力端子13から出力し、図示し
ない表示器などに表示する。高画数だと判断できないと
きは、何も出力しない。ここで、画数が高画数だと判断
するのは、抽出する特徴パラメータにより異なると思わ
れるが、ここでは7画以上の文字を高画数だとする。 (f) パターンメモリ変換部7 パターンメモリ変換部7は、前処理部2の出力データの
特徴点の座標データ列{Xi ,Yi }を受けて、第1の
実施形態と同様に、2次元の配列PM(x,y) に変換し、
輪郭抽出部8に出力する。
(D) Online system matching unit 4 The online system matching unit 4 receives the output of the online system feature extraction unit 3 and calculates the matching distance d BP from the Q value, as in the first embodiment. A matching distance value d is calculated from d vec and d BP and output to the high stroke count character identification unit 6. (E) High Stroke Number Character Identification Unit 6 The high stroke number character identification unit 6 is similar to that of the first embodiment.
When the output d k of the online method matching unit 4 is sorted in ascending order and it can be determined that the number of strokes is high,
The corresponding character code is output from the output terminal 13 and displayed on a display device (not shown) or the like. If it cannot be determined that the number of strokes is high, nothing is output. Here, it is considered that the number of strokes is high depending on the characteristic parameter to be extracted, but here it is assumed that characters with 7 strokes or more are high strokes. (F) Pattern memory conversion unit 7 The pattern memory conversion unit 7 receives the coordinate data string {X i , Y i } of the feature points of the output data of the preprocessing unit 2 and, as in the first embodiment, 2 Convert to the dimension array PM (x, y),
It is output to the contour extraction unit 8.

【0062】(g) 輪郭抽出部8 輪郭抽出部8は、パターンメモリ変換部7の出力PM
(x,y) を受けて、第1の実施形態と同様に、輪郭追跡し
て輪郭情報を輪郭として抽出する。 (h) オフライン方式特徴抽出部9 オフライン方式特徴抽出部9は、輪郭抽出部8にて抽出
した輪郭データを得て、第1の実施形態と同様に、水平
成分、垂直成分、45°成分、−45°成分のq0 〜q
15を求める。 (i) オフライン方式マッチング部10 オフライン方式マッチング部10は、第1の実施形態と
同様に、認識対象範囲を含む文字についての基準特徴量
0 * 〜q15 * をそれぞれ格納しているオフライン方式
認識辞書11と、輪郭データから算出したパターンメモ
リの特徴量q0〜q15とを、逐次比較することにより、
両者間の差、すなわち、マッチング距離ddを算出して
出力する。
(G) Contour extraction unit 8 The contour extraction unit 8 outputs the output PM of the pattern memory conversion unit 7.
Upon receiving (x, y), contour tracing is performed and contour information is extracted as a contour, as in the first embodiment. (H) Off-line method feature extraction unit 9 The off-line method feature extraction unit 9 obtains the contour data extracted by the contour extraction unit 8 and, similarly to the first embodiment, a horizontal component, a vertical component, a 45 ° component, Q 0 to q of −45 ° component
Ask for 15 . (I) Offline Method Matching Unit 10 The offline method matching unit 10 stores the reference feature quantities q 0 * to q 15 * for the characters including the recognition target range, respectively, as in the first embodiment. By sequentially comparing the recognition dictionary 11 and the feature quantities q 0 to q 15 of the pattern memory calculated from the contour data,
The difference between the two, that is, the matching distance dd is calculated and output.

【0063】(j) 低画数文字識別部42 低画数文字識別部42は、前処理部2の出力する画数を
受けて、画数が低画数であると判断したとき、オンライ
ン方式マッチング部5の出力dk と、オフライン方式マ
ッチング部10の出力するマッチング距離値ddk とか
ら、以下の式(48)により低画数文字のマッチング距
離値dlowkを算出し、小さい順にソーティングし、低画
数文字であると判断した場合は、対応する文字コードを
出力し、そうでない場合は、何も出力しない。 dlowk=w・dk +ddk ・・・(48) 但し、wは重み係数である。ここで、画数が低画数だと
判断するのは、抽出する特徴パラメータにより異なると
思われるのが、ここでは高画数文字識別部6で7画以上
の文字を高画数だとしたので、6画以下の文字を低画数
文字とする。
(J) Low stroke number character identifying section 42 When the low stroke number character identifying section 42 receives the stroke number output from the preprocessing section 2 and determines that the stroke number is low, the low stroke number character identifying section 42 outputs the online method matching section 5. From d k and the matching distance value dd k output by the off-line method matching unit 10, the matching distance value d lowk of the low stroke number character is calculated by the following formula (48), sorted in ascending order, and is the low stroke number character. If so, the corresponding character code is output, and if not, nothing is output. d lowk = wd k + dd k (48) where w is a weighting coefficient. Here, it is considered that the number of strokes is determined to be low depending on the characteristic parameters to be extracted. Here, since the high stroke number character identifying unit 6 determines that the number of strokes is 7 or more, the stroke count is 6 strokes. The following characters are low stroke characters.

【0064】例えば、“+”と“ナ”を識別する場合、
第1の実施形態のようにオフライン方式のみでは、大局
的な違いしか分からないが、オンライン方式では、
“+”の“|”と“ナ”の“ノ”の照合ができ、文字の
細かい部分の差を表すことができる。従って、低画数文
字の場合において、オフライン方式とオンライン方式と
を併用するので、認識率が向上する。以上説明したよう
に、本第4の実施形態によれば、パターンメモリ変換部
7、輪郭抽出部8、オフライン方式特徴抽出部9、オフ
ライン方式マッチング部10、オフライン方式認識辞書
11及び低画数文字識別部42を設け、情報量が少ない
ために認識率が低くなる低画数文字においては、オンラ
イン方式の特徴量にオフライン方式の特徴量を加えたの
で、オンライン手書き文字認識装置の認識率が向上す
る。
For example, when identifying "+" and "na",
With the offline method alone as in the first embodiment, only the big difference can be seen, but with the online method,
"+" Of "|" and "na" of "no" can be collated, and the difference in the fine part of the character can be expressed. Therefore, in the case of low stroke number characters, the offline method and the online method are used together, so that the recognition rate is improved. As described above, according to the fourth embodiment, the pattern memory conversion unit 7, the contour extraction unit 8, the offline system feature extraction unit 9, the offline system matching unit 10, the offline system recognition dictionary 11, and the low stroke number character identification. Since the unit 42 is provided and the low stroke number character whose recognition rate is low due to the small amount of information, the feature quantity of the offline method is added to the feature quantity of the online method, so that the recognition rate of the online handwritten character recognition device is improved.

【0065】第5の実施形態 図14は、本発明の第5の実施形態のオンライン手書き
文字認識装置を示す構成図であり、図1中の要素に共通
する要素には共通の符号を付してある。本第5の実施形
態のオンライン手書き文字認識装置が第1の実施形態の
オンライン手書き文字認識装置と異なる点は、高画数文
字の場合は、オンライン方式マッチング部4の出力とオ
フライン方式マッチング部10の出力とから、マッチン
グ距離を算出して文字認識するようにし、低画数文字の
場合については、オンライン方式マッチング部4の出力
とオフライン方式マッチング10の出力とから、マッチ
ング距離を算出して文字認識をするようにしたことであ
る。図14に示すように、本第5の実施形態のオンライ
ン手書き文字認識装置は、タブレット1、前処理部2、
オンライン方式特徴抽出部3、オンライン方式マッチン
グ部4、オンライン方式認識辞書5、高画数文字識別部
26、パターンメモリ変換部7、輪郭抽出部8、オフラ
イン方式特徴抽出部9、オフライン方式マッチング部1
0、オフライン方式認識辞書11、低画数文字識別部4
2、及び出力端子13を備えている。
Fifth Embodiment FIG. 14 is a block diagram showing an online handwritten character recognition apparatus according to a fifth embodiment of the present invention. Elements common to those in FIG. 1 are designated by common reference numerals. There is. The difference between the online handwritten character recognition device of the fifth embodiment and the online handwritten character recognition device of the first embodiment is that in the case of high stroke number characters, the output of the online system matching unit 4 and the offline system matching unit 10 are different. The matching distance is calculated from the output and the character recognition is performed. In the case of a low stroke number character, the matching distance is calculated from the output of the online method matching unit 4 and the offline method matching 10 to perform the character recognition. That is what I did. As shown in FIG. 14, the online handwritten character recognition device according to the fifth embodiment includes a tablet 1, a preprocessing unit 2,
Online system feature extraction unit 3, online system matching unit 4, online system recognition dictionary 5, high stroke number character identification unit 26, pattern memory conversion unit 7, contour extraction unit 8, offline system feature extraction unit 9, offline system matching unit 1.
0, offline system recognition dictionary 11, low stroke number character identification unit 4
2 and an output terminal 13.

【0066】タブレット1の出力側は、前処理部2に接
続されている。前処理部2の出力のうち座標列は、オン
ライン方式特徴抽出部3及びパターンメモリ変換部7の
入力側に接続され、画数は、高画数文字識別部26及び
低画数文字識別部42の入力側に接続されている。オン
ライン方式特徴抽出部3及びオンライン方式認識辞書5
の出力側は、オンライン方式マッチング部4の入力側に
接続されている。オンライン方式マッチング部4の出力
側は、高画数文字識別部26及び低画数文字識別部42
の入力側に接続されている。パターンメモリ変換部7の
出力側は、輪郭抽出部8の入力側に接続され、更に、こ
の輪郭抽出部8の出力側が、オフライン方式特徴抽出部
9の入力側に接続されている。オフライン方式特徴抽出
部9及びオフライン方式認識辞書11の出力側は、オフ
ライン方式マッチング部10の入力側に接続されてい
る。オンライン方式マッチング部4の出力側は、高画数
文字識別部26及び低画数文字識別部42の入力側に接
続されている。高画数文字識別部26及び低画数文字識
別部42の出力側は、出力端子13に接続されている。
以下、図14の各部の動作(a)〜(j)の説明をす
る。
The output side of the tablet 1 is connected to the preprocessing unit 2. The coordinate sequence of the output of the preprocessing unit 2 is connected to the input side of the online system feature extraction unit 3 and the pattern memory conversion unit 7, and the stroke number is the input side of the high stroke number character identification unit 26 and the low stroke number character identification unit 42. It is connected to the. Online system feature extraction unit 3 and online system recognition dictionary 5
The output side of is connected to the input side of the online method matching unit 4. The output side of the online method matching unit 4 has a high stroke number character identifying unit 26 and a low stroke number character identifying unit 42.
Is connected to the input side. The output side of the pattern memory conversion unit 7 is connected to the input side of the contour extraction unit 8, and the output side of the contour extraction unit 8 is connected to the input side of the offline system feature extraction unit 9. The output sides of the offline system feature extraction unit 9 and the offline system recognition dictionary 11 are connected to the input side of the offline system matching unit 10. The output side of the online mode matching unit 4 is connected to the input sides of the high stroke number character identifying unit 26 and the low stroke number character identifying unit 42. The output sides of the high stroke number character identifying portion 26 and the low stroke number character identifying portion 42 are connected to the output terminal 13.
Hereinafter, operations (a) to (j) of each unit in FIG. 14 will be described.

【0067】(a) タブレット1 タブレット1は、第1の実施形態と同様に、座標列の筆
記データ列{(xi ,yi ),i=1,2,…,nj
を抽出して、前処理部2に送る。 (b) 前処理部2 前処理部2は、第1の実施形態と同様に、座標列の筆記
データに対して平滑化し、オンライン方式特徴抽出部3
及びパターンメモリ変換部7へ平滑化後の筆記データ列
を出力して、画数を高画数文字識別部26及び低画数文
字識別部42に出力する。 (c) オンライン方式特徴抽出部3 オフライン方式特徴抽出部3は、前処理部2の出力か
ら、第1の実施形態と同様に、例えば、直線近似化処理
を施して特徴点を抽出する。そして、ストローク数によ
る大分類を行い、文字辞書の認識対象の文字の部分パタ
ーンのカット位置から筆記文字の部分パターンを求め、
部分パターン間ベクトルを算出して、文字辞書の部分パ
ターン間ベクトルと筆記文字の部分パターン間ベクトル
のマッチング距離dvec を算出し、dvec とVECREJとを
比較して中分類を行う。更に、中分類で残った認識対象
の文字の部分パターンに従って、筆記文字のQ値を部分
パターン毎に求める。
(A) Tablet 1 As with the first embodiment, the tablet 1 has a writing data sequence {(x i , y i ), i = 1, 2, ..., N j } of coordinate sequences.
Is extracted and sent to the preprocessing unit 2. (B) Pre-Processing Unit 2 As in the first embodiment, the pre-processing unit 2 smoothes the writing data of the coordinate sequence, and the online system feature extraction unit 3
The writing data string after smoothing is output to the pattern memory conversion unit 7, and the stroke number is output to the high stroke number character identifying unit 26 and the low stroke number character identifying unit 42. (C) Online Method Feature Extraction Unit 3 The offline method feature extraction unit 3 extracts a feature point from the output of the preprocessing unit 2 by performing, for example, a linear approximation process, as in the first embodiment. Then, the stroke pattern is roughly classified, and the partial pattern of the written character is obtained from the cut position of the partial pattern of the character to be recognized in the character dictionary.
A vector between the partial patterns is calculated, a matching distance d vec between the vector between the partial patterns of the character dictionary and a vector between the partial patterns of the written character is calculated, and d vec is compared with VECREJ to perform the middle classification. Further, the Q value of the written character is obtained for each partial pattern in accordance with the partial pattern of the recognition target character remaining in the middle classification.

【0068】(d) オンライン方式マッチング部4 オンライン方式マッチング部4は、オンライン方式特徴
抽出部3の出力を受けて、第1の実施形態と同様に、マ
ッチング距離dBPをQ値から算出し、dvec とdBPから
マッチング距離値dを算出して、高画数文字識別部26
に出力する。 (e) パターンメモリ変換部7 パターンメモリ変換部7は、前処理部2の出力データの
特徴点の座標データ列{Xi ,Yi }を受けて、第1の
実施形態と同様に、2次元の配列PM(x,y) に変換し、
輪郭抽出部8に出力する。 (f) 輪郭抽出部8 輪郭抽出部8は、パターンメモリ変換部7の出力PM
(x,y) を受けて、第1の実施形態と同様に、例えば、輪
郭追跡して輪郭データを抽出する。
(D) Online system matching unit 4 The online system matching unit 4 receives the output of the online system feature extraction unit 3 and calculates the matching distance d BP from the Q value as in the first embodiment. The matching distance value d is calculated from d vec and d BP , and the high stroke number character identifying unit 26 is calculated.
Output to (E) Pattern memory conversion unit 7 The pattern memory conversion unit 7 receives the coordinate data string {X i , Y i } of the feature points of the output data of the preprocessing unit 2 and, as in the first embodiment, 2 Convert to the dimension array PM (x, y),
It is output to the contour extraction unit 8. (F) Contour extraction unit 8 The contour extraction unit 8 outputs the output PM of the pattern memory conversion unit 7.
Upon receiving (x, y), for example, contour tracing is performed to extract contour data, as in the first embodiment.

【0069】(g) オフライン方式特徴抽出部9 オフライン方式特徴抽出部9は、輪郭抽出部8にて抽出
した輪郭データを得て、第1の実施形態と同様に、例え
ば、水平成分、垂直成分、45°成分、−45°成分の
0 〜q15を求める。 (h) オフライン方式マッチング部10 オフライン方式マッチング部10は、第1の実施形態と
同様に、認識対象範囲を含む文字についての基準特徴量
0 * 〜q15 * をそれぞれ格納しているオフライン方式
認識辞書11と、輪郭データから算出したパターンメモ
リの特徴量q0〜q15とを逐次比較することにより、両
者間の差、すなわち、マッチング距離ddを算出して出
力する。 (i) 高画数文字識別部26 高画数文字識別部26は、オンライン方式マッチング部
4の出力dk と、オフライン方式マッチング部10の出
力ddk とから、式(45)により新しい距離値d
highk を求めて小さい順にソーティングし、画数が高画
数だと判断できたときは、対応する文字コードを出力端
子13から出力し、図示しない表示器などに表示する。
高画数だと判断できないときは、何も出力しない。ここ
で、画数が高画数だと判断するのは、抽出する特徴パラ
メータにより異なると思われるが、ここでは7画以上の
文字を高画数だとする。
(G) Off-line method feature extraction unit 9 The off-line method feature extraction unit 9 obtains the contour data extracted by the contour extraction unit 8 and, for example, as in the first embodiment, the horizontal component and the vertical component, for example. , 45 ° component, −45 ° component q 0 to q 15 are obtained. (H) Offline Method Matching Unit 10 The offline method matching unit 10 stores the reference feature quantities q 0 * to q 15 * for the characters including the recognition target range, respectively, as in the first embodiment. By sequentially comparing the recognition dictionary 11 and the feature quantities q 0 to q 15 of the pattern memory calculated from the contour data, the difference between the two, that is, the matching distance dd is calculated and output. (I) High stroke number character identifying section 26 The high stroke number character identifying section 26 uses the output d k of the online method matching unit 4 and the output dd k of the offline method matching unit 10 to calculate a new distance value d according to Equation (45).
When highk is calculated and sorted in ascending order, and when it can be determined that the number of strokes is high, the corresponding character code is output from the output terminal 13 and displayed on a display device (not shown) or the like.
If it cannot be determined that the number of strokes is high, nothing is output. Here, it is considered that the number of strokes is high depending on the characteristic parameter to be extracted, but here it is assumed that characters with 7 strokes or more are high strokes.

【0070】(j) 低画数文字識別部42 低画数文字識別部42は、前処理部2の出力する画数を
受けて、画数が低画数であると判断したとき、オンライ
ン方式マッチング部4の出力dk と、オフライン方式マ
ッチング部10の出力するマッチング距離値ddk とか
ら、式(49)により低画数文字のマッチング距離値d
lowkを算出して小さい順にソーティングし、低画数文字
であると判断した場合は、対応する文字コードを出力
し、そうでない場合は、何も出力しない。ここで、画数
が低画数だと判断するのは、抽出する特徴パラメータに
より異なると思われるのが、ここでは高画数文字識別部
26で7画以上の文字を高画数だとしたので、6画以下
の文字を低画数文字とする。以上説明したように、本第
5の実施形態によれば、高画数文字においては、第2の
実施形態と同様の利点があり、低画数文字においては、
第4の実施形態と同様の利点がある。
(J) Low Stroke Number Character Identification Unit 42 When the low stroke number character identification unit 42 receives the stroke number output from the preprocessing unit 2 and determines that the stroke number is low, the low stroke number character identification unit 42 outputs the online method matching unit 4. From d k and the matching distance value dd k output by the off-line method matching unit 10, the matching distance value d of the low stroke character is calculated by Expression (49).
When lowk is calculated and sorted in ascending order, if it is determined to be a low stroke number character, the corresponding character code is output, otherwise nothing is output. Here, it is considered that the determination of the stroke count being the low stroke count depends on the feature parameter to be extracted. Here, since the high stroke count character identification unit 26 determines that the characters of 7 strokes or more are the high stroke count, the stroke count is 6 strokes. The following characters are low stroke characters. As described above, according to the fifth embodiment, high stroke number characters have the same advantages as those of the second embodiment, and low stroke number characters have the same advantages.
There are the same advantages as the fourth embodiment.

【0071】第6の実施形態 図15は、本発明の第6の実施形態のオンライン手書き
文字認識装置を示す構成図であり、図1中の要素に共通
する要素には共通の符号を付してある。本第6の実施形
態のオンライン手書き文字認識装置が第1の実施形態の
オンライン手書き文字認識装置と異なる点は、高画数文
字については、オンライン方式マッチング部4の出力と
部分パターンオフライン方式マッチング部34の出力と
から、マッチング距離を算出して文字認識をするように
し、低画数文字については、オンライン方式マッチング
部4の出力とオフライン方式マッチング部10の出力と
から、マッチング距離を算出して文字認識をするように
したことである。図15に示すように、本第6の実施形
態のオンライン手書き文字認識装置は、タブレット1、
前処理部2、オンライン方式特徴抽出部3、オンライン
方式マッチング部4、オンライン方式認識辞書5、高画
数文字識別部36、部分パターンパターンメモリ変換部
31、部分パターン輪郭抽出部32、部分パターンオフ
ライン方式特徴抽出部33、部分パターンオフライン方
式マッチング部34、部分パターンオフライン方式認識
辞書35、パターンメモリ変換部7、輪郭抽出部8、オ
フライン方式特徴抽出部9、オフライン方式マッチング
部10、オフライン方式認識辞書11、低画数文字識別
部42、及び出力端子13を備えている。
Sixth Embodiment FIG. 15 is a block diagram showing an online handwritten character recognition apparatus according to a sixth embodiment of the present invention. Elements common to those in FIG. 1 are designated by common reference numerals. There is. The difference between the online handwritten character recognition device of the sixth embodiment and the online handwritten character recognition device of the first embodiment is that, for high stroke number characters, the output of the online system matching unit 4 and the partial pattern offline system matching unit 34. And the matching distance is calculated for character recognition. For low stroke number characters, the matching distance is calculated from the output of the online method matching unit 4 and the output of the offline method matching unit 10 for character recognition. That is what I did. As shown in FIG. 15, the online handwritten character recognition device according to the sixth embodiment includes a tablet 1,
Preprocessing unit 2, online system feature extraction unit 3, online system matching unit 4, online system recognition dictionary 5, high stroke number character identification unit 36, partial pattern pattern memory conversion unit 31, partial pattern contour extraction unit 32, partial pattern offline system Feature extraction unit 33, partial pattern offline system matching unit 34, partial pattern offline system recognition dictionary 35, pattern memory conversion unit 7, contour extraction unit 8, offline system feature extraction unit 9, offline system matching unit 10, offline system recognition dictionary 11 , A low stroke number character identification section 42, and an output terminal 13.

【0072】タブレット1の出力側は、前処理部2の入
力側に接続されている。前処理部2の出力側はオンライ
ン方式特徴抽出部3、パターンメモリ変換部7、高画数
文字識別部36、及び低画数文字識別部42の入力側に
接続されている。オンライン方式特徴抽出部3及びオン
ライン方式認識辞書5の出力側は、オンライン方式マッ
チング部4の入力側に接続されている。オンライン方式
マッチング部4の出力側は、高画数文字識別部36及び
低画数文字識別部42の入力側に接続されてる。パター
ンメモリ変換部7の出力側は、輪郭抽出部8の入力側に
接続されている。輪郭抽出部8の出力側は、オフライン
方式特徴抽出部9の入力側に接続されている。オフライ
ン方式特徴抽出部9及びオフライン方式認識辞書1の出
力側は、オフライン方式マッチング部10の入力側に接
続されている。オフライン方式マッチング部10の出力
側は、低画数文字識別部42及び高画数文字識別部36
の入力側に接続されている。高画数文字識別部36及び
低画数文字識別部42の出力側は、出力端子13に接続
されている。
The output side of the tablet 1 is connected to the input side of the preprocessing unit 2. The output side of the preprocessing unit 2 is connected to the input sides of the online system feature extraction unit 3, the pattern memory conversion unit 7, the high stroke number character identification unit 36, and the low stroke number character identification unit 42. The output sides of the online method feature extraction unit 3 and the online method recognition dictionary 5 are connected to the input side of the online method matching unit 4. The output side of the online mode matching unit 4 is connected to the input sides of the high stroke number character identifying unit 36 and the low stroke number character identifying unit 42. The output side of the pattern memory conversion unit 7 is connected to the input side of the contour extraction unit 8. The output side of the contour extraction unit 8 is connected to the input side of the offline system feature extraction unit 9. The output sides of the offline method feature extraction unit 9 and the offline method recognition dictionary 1 are connected to the input side of the offline method matching unit 10. The output side of the offline method matching unit 10 has a low stroke number character identifying unit 42 and a high stroke number character identifying unit 36.
Is connected to the input side. The output sides of the high stroke number character identifying unit 36 and the low stroke number character identifying unit 42 are connected to the output terminal 13.

【0073】オンライン方式特徴抽出部3の出力側は、
オンライン方式マッチング部4及び部分パターンパター
ンメモリ変換部31に接続されている。部分パターンメ
モリ変換部31の出力側は、部分パターン輪郭抽出部3
2の入力側に接続されている。部分パターン輪郭抽出部
32の出力側は、部分パターンオフライン方式特徴抽出
部33の入力側に接続されている。部分パターンオフラ
イン方式特徴抽出部33、及び部分パターンオフライン
方式認識辞書35の出力側は、部分パターンオフライン
方式マッチング部34の入力側に接続されている。部分
パターンオフライン方式マッチング部34の出力側は、
高画数文字識別部36の入力側に接続されている。以
下、図15の各部の動作(a)〜(n)の説明をする。
The output side of the online system feature extraction unit 3 is
It is connected to the online system matching unit 4 and the partial pattern / pattern memory conversion unit 31. The output side of the partial pattern memory conversion unit 31 is connected to the partial pattern contour extraction unit 3
2 is connected to the input side. The output side of the partial pattern contour extraction unit 32 is connected to the input side of the partial pattern offline method feature extraction unit 33. The output sides of the partial pattern offline method feature extraction unit 33 and the partial pattern offline method recognition dictionary 35 are connected to the input side of the partial pattern offline method matching unit 34. The output side of the partial pattern offline method matching unit 34 is
It is connected to the input side of the high stroke number character identification unit 36. Hereinafter, the operations (a) to (n) of each unit in FIG. 15 will be described.

【0074】(a) タブレット1 タブレット1は、第1の実施形態と同様に、座標列の筆
記データ列{(xi ,yi ),i=1,2,…,nj
を抽出して、前処理部2に送る。 (b) 前処理部2 前処理部2は、第1の実施形態と同様に、座標列の筆記
データに対して平滑化し、オンライン方式特徴抽出部3
及びパターンメモリ変換部7へ平滑化後の筆記データ列
を出力して、画数を高画数文字識別部36及び低画数文
字識別部42に出力する。 (c) オンライン方式特徴抽出部3 オフライン方式特徴抽出部3は、前処理部2の出力か
ら、第1の実施形態と同様に、例えば、直線近似化処理
を施して特徴点を抽出する。そして、ストローク数によ
る大分類を行い、文字辞書の認識対象の文字の部分パタ
ーンのカット位置から筆記文字の部分パターンを求め、
部分パターン間ベクトルを算出し、文字辞書の部分パタ
ーン間ベクトルと筆記文字の部分パターン間ベクトルの
マッチング距離dvec sを算出し、dvec とVECREJとを
比較し、中分類を行う。更に、中分類で残った認識対象
の文字の部分パターンに従って、筆記文字のQ値を部分
パターン毎に求める。
(A) Tablet 1 As in the first embodiment, the tablet 1 has a coordinate data writing data string {(x i , y i ), i = 1, 2, ..., N j }.
Is extracted and sent to the preprocessing unit 2. (B) Pre-Processing Unit 2 As in the first embodiment, the pre-processing unit 2 smoothes the writing data of the coordinate sequence, and the online system feature extraction unit 3
The writing data string after smoothing is output to the pattern memory conversion unit 7, and the stroke number is output to the high stroke number character identifying unit 36 and the low stroke number character identifying unit 42. (C) Online Method Feature Extraction Unit 3 The offline method feature extraction unit 3 extracts a feature point from the output of the preprocessing unit 2 by performing, for example, a linear approximation process, as in the first embodiment. Then, the stroke pattern is roughly classified, and the partial pattern of the written character is obtained from the cut position of the partial pattern of the character to be recognized in the character dictionary.
A vector between the partial patterns is calculated, a matching distance d vec s between the vector between the partial patterns of the character dictionary and a vector between the partial patterns of the written characters is calculated, and d vec and VECREJ are compared to perform the middle classification. Further, the Q value of the written character is obtained for each partial pattern in accordance with the partial pattern of the recognition target character remaining in the middle classification.

【0075】(d) オンライン方式マッチング部4 オンライン方式マッチング部4は、オンライン方式特徴
抽出部3の出力を受けて、第1の実施形態と同様に、マ
ッチング距離dBPをQ値から算出し、dvec とdBPから
マッチング距離値dを算出して、高画数文字識別部36
に出力する。 (e) 部分パターンパターンメモリ変換部31 部分パターンパターンメモリ変換部31は、オンライン
方式特徴抽出部3から、文字を構成する部分パターンの
カット位置とそれに対応する座標データ列を受けて、第
3の実施形態と同様に、部分パターン毎にパターンメモ
リへの変換処理を行う。 (f) 部分パターン輪郭抽出部32 部分パターン輪郭抽出部32は、部分パターンパターン
メモリ変換部31の出力する各パターンメモリを読み出
して、第3の実施形態と同様に、各部分パターンの輪郭
抽出処理を行い、輪郭情報を部分パターンオフライン方
式特徴抽出部33に出力する。
(D) Online system matching unit 4 The online system matching unit 4 receives the output of the online system feature extraction unit 3 and calculates the matching distance d BP from the Q value, as in the first embodiment. The matching distance value d is calculated from d vec and d BP , and the high stroke character identifying unit 36
Output to (E) Partial pattern pattern memory conversion unit 31 The partial pattern pattern memory conversion unit 31 receives a cut position of a partial pattern forming a character and a corresponding coordinate data string from the online system feature extraction unit 3, Similar to the embodiment, the conversion process to the pattern memory is performed for each partial pattern. (F) Partial Pattern Contour Extraction Unit 32 The partial pattern contour extraction unit 32 reads out each pattern memory output from the partial pattern pattern memory conversion unit 31, and performs the contour extraction process of each partial pattern as in the third embodiment. And outputs the contour information to the partial pattern offline method feature extraction unit 33.

【0076】(g) 部分パターンオフライン方式特徴
抽出部33 部分パターンオフライン方式特徴抽出部33は、第3の
実施形態と同様に、部分パターン輪郭抽出部32の出力
する部分パターン数分の輪郭データを受けて、それぞれ
の輪郭データから、水平、垂直、45°、−45°の成
分の16個の特徴量qBk,0 〜qBk,15(k=1,2,…,BP
N,BPN は部分パターン数) を求めて、部分パターンオ
フライン方式マッチング部34に出力する。 (h) 部分パターンオフライン方式マッチング部34 部分パターンオフライン方式マッチング部34は、第3
の実施形態と同様に、部分パターンオフライン方式特徴
抽出部33の出力する部分パターン毎の特徴量qBk,0
〜qBk,15(k=1,2,…,BPN)と、部分パターンオフライ
ン方式認識辞書35に予め登録してあるマッチング対象
の部分パターン毎の特徴量qB* k,0 〜qB* k,15(k=
1,2,…,BPN)との、部分パターンオフライン方式マッチ
ング距離値ddbを算出して出力する。
(G) Partial pattern offline method feature extraction unit 33 The partial pattern offline method feature extraction unit 33 outputs the contour data for the number of partial patterns output by the partial pattern contour extraction unit 32, as in the third embodiment. From the respective contour data, 16 feature quantities qB k, 0 to qB k, 15 (k = 1,2, ..., BP) of horizontal, vertical, 45 °, and −45 ° components are received.
(N and BPN are the number of partial patterns) and output to the partial pattern offline method matching unit 34. (H) Partial pattern offline method matching unit 34 The partial pattern offline method matching unit 34 includes a third pattern
Similar to the above embodiment, the feature quantity qB k, 0 for each partial pattern output from the partial pattern offline method feature extraction unit 33.
˜qB k, 15 (k = 1,2, ..., BPN) and the feature quantities qB * k, 0 ˜qB * k, for each matching target partial pattern registered in advance in the partial pattern offline method recognition dictionary 35 . 15 (k =
1, 2, ..., BPN) and a partial pattern offline method matching distance value ddb is calculated and output.

【0077】(i) 高画数文字識別部36 高画数文字識別部36は、オンライン方式マッチング部
4の出力dk と、部分パターンオフライン方式マッチン
グ部34の出力ddbk とから、式(47)により新し
い距離値dhighk を求めて小さい順にソーティングし、
画数が高画数だと判断できたときは、対応する文字コー
ドを出力端子13から出力し、図示しない表示器などに
表示する。高画数だと判断できないときは、何も出力し
ない。ここで、画数が高画数だと判断するのは、抽出す
る特徴パラメータにより異なると思われるが、ここでは
7画以上の文字を高画数だとする。 (j) パターンメモリ変換部7 パターンメモリ変換部7は、前処理部2の出力データの
特徴点の座標データ列{Xi ,Yi }を受けて、第1の
実施形態と同様に、2次元の配列PM(x,y) に変換し、
輪郭抽出部8に出力する。
(I) High stroke number character identifying section 36 The high stroke number character identifying section 36 calculates from the output d k of the online method matching section 4 and the output ddb k of the partial pattern offline method matching section 34 by the equation (47). The new distance value d highk is calculated and sorted in ascending order,
When it is determined that the number of strokes is high, the corresponding character code is output from the output terminal 13 and displayed on a display (not shown) or the like. If it cannot be determined that the number of strokes is high, nothing is output. Here, it is considered that the number of strokes is high depending on the characteristic parameter to be extracted, but here it is assumed that characters with 7 strokes or more are high strokes. (J) Pattern memory conversion unit 7 The pattern memory conversion unit 7 receives the coordinate data string {X i , Y i } of the feature points of the output data of the preprocessing unit 2 and, as in the first embodiment, 2 Convert to the dimension array PM (x, y),
It is output to the contour extraction unit 8.

【0078】(k) 輪郭抽出部8 輪郭抽出部8は、パターンメモリ変換部7の出力PM
(x,y) を受けて、第1の実施形態と同様に、例えば、輪
郭追跡して輪郭データを抽出する。 (l) オフライン方式特徴抽出部9 オフライン方式特徴抽出部9は、輪郭抽出部8にて抽出
した輪郭データを得て、第1の実施形態と同様に、例え
ば、水平成分、垂直成分、45°成分、−45°成分の
0 〜q15を求める。 (m) オフライン方式マッチング部10 オフライン方式マッチング部10は、第1の実施形態と
同様に、認識対象範囲を含む文字についての基準特徴量
0 * 〜q15 * をそれぞれ格納しているオフライン方式
認識辞書11と、輪郭データから算出したパターンメモ
リの特徴量q0〜q15とを、逐次比較することにより、
両者間の差、すなわち、マッチング距離ddを算出して
出力する。
(K) Contour extraction unit 8 The contour extraction unit 8 outputs the output PM of the pattern memory conversion unit 7.
Upon receiving (x, y), for example, contour tracing is performed to extract contour data, as in the first embodiment. (L) Off-line method feature extraction unit 9 The off-line method feature extraction unit 9 obtains the contour data extracted by the contour extraction unit 8 and, for example, as in the first embodiment, the horizontal component, the vertical component, 45 °, for example. The components, q 0 to q 15 , of the −45 ° component are obtained. (M) Offline Method Matching Unit 10 The offline method matching unit 10 stores the reference feature quantities q 0 * to q 15 * for the characters including the recognition target range, respectively, as in the first embodiment. By sequentially comparing the recognition dictionary 11 and the feature quantities q 0 to q 15 of the pattern memory calculated from the contour data,
The difference between the two, that is, the matching distance dd is calculated and output.

【0079】(n) 低画数文字識別部42 低画数文字識別部42は、前処理部2の出力する画数を
受けて、画数が低画数であると判断したとき、第3の実
施形態と同様に、オンライン方式マッチング部4の出力
k と、オフライン方式マッチング部10の出力ddk
とを受けて、式(48)より低画数文字のマッチング距
離dlowkを算出して、小さい順にソーティングし、対応
する文字コードを出力端子13から出力し、図示しない
表示器などに表示する。低画数だと判断できないとき
は、何も出力しない。ここで、画数が低画数だと判断す
るのは、抽出する特徴パラメータにより異なると思われ
るのが、ここでは高画数文字識別部36で7画以上の文
字を高画数だとしたので、6画以下の文字を低画数文字
とする。以上説明したように、本第6の実施形態によれ
ば、高画数文字については、第3の実施形態と同様の利
点があり、低画数文字については、第4の実施形態と同
様の利点がある。
(N) Low Stroke Number Character Identification Unit 42 When the low stroke number character identification unit 42 receives the stroke number output from the preprocessing unit 2 and determines that the stroke number is low, it is the same as in the third embodiment. In addition, the output d k of the online method matching unit 4 and the output dd k of the offline method matching unit 10
In response to this, the matching distance d lowk for low stroke number characters is calculated from equation (48), sorted in ascending order, and the corresponding character code is output from the output terminal 13 and displayed on a display device (not shown) or the like. If it cannot be determined that the stroke count is low, nothing is output. Here, it is considered that the number of strokes is determined to be low depending on the feature parameter to be extracted. Here, since the high stroke number character identification unit 36 determines that the number of strokes is 7 strokes or more, the stroke count is 6 strokes. The following characters are low stroke characters. As described above, according to the sixth embodiment, the high stroke number character has the same advantages as those of the third embodiment, and the low stroke number character has the same advantages as those of the fourth embodiment. is there.

【0080】第7の実施形態 図16は、本発明の第7の実施形態のオンライン手書き
文字認識装置を示す構成図であり、図1中の要素に共通
する要素には共通の符号を付してある。本第7の実施形
態のオンライン手書き文字認識装置が第1の実施形態の
オンライン手書き文字認識装置と異なる点は、低画数文
字については、部分パターンオフライン方式マッチング
部34の出力と、オフライン方式マッチング部10の出
力とから、マッチング距離を算出して文字認識をするよ
うにしたことである。図16に示すように、本第7の実
施形態のオンライン手書き文字認識装置は、タブレット
1、前処理部2、オンライン方式特徴抽出部3、オンラ
イン方式マッチング部4、オンライン方式認識辞書5、
高画数文字識別部6、部分パターンパターンメモリ変換
部31、部分パターン輪郭抽出部32、部分パターンオ
フライン方式特徴抽出部33、部分パターンオフライン
方式マッチング部34、部分パターンオフライン方式認
識辞書35、パターンメモリ変換部7、輪郭抽出部8、
オフライン方式特徴抽出部9、オフライン方式マッチン
グ部10、オフライン方式認識辞書11、低画数文字識
別部52、及び出力端子13を備えている。
Seventh Embodiment FIG. 16 is a block diagram showing an online handwritten character recognition apparatus according to a seventh embodiment of the present invention. Elements common to those in FIG. 1 are designated by common reference numerals. There is. The difference between the online handwritten character recognition device of the seventh embodiment and the online handwritten character recognition device of the first embodiment is that, for low stroke number characters, the output of the partial pattern offline method matching unit 34 and the offline method matching unit. That is, the matching distance is calculated from the output of 10 and character recognition is performed. As shown in FIG. 16, the online handwritten character recognition device according to the seventh embodiment includes a tablet 1, a preprocessing unit 2, an online system feature extraction unit 3, an online system matching unit 4, an online system recognition dictionary 5,
High stroke number character identification unit 6, partial pattern pattern memory conversion unit 31, partial pattern contour extraction unit 32, partial pattern offline system feature extraction unit 33, partial pattern offline system matching unit 34, partial pattern offline system recognition dictionary 35, pattern memory conversion Part 7, contour extraction part 8,
An offline system feature extraction unit 9, an offline system matching unit 10, an offline system recognition dictionary 11, a low stroke number character identification unit 52, and an output terminal 13 are provided.

【0081】タブレット1の出力側は、前処理部2の入
力側に接続されている。前処理部2の出力側はオンライ
ン方式特徴抽出部3、パターンメモリ変換部7、高画数
文字識別部6及び低画数文字識別部52の入力側に接続
されている。オンライン方式特徴抽出部3及びオンライ
ン方式認識辞書5の出力側は、オンライン方式マッチン
グ部4の入力側に接続されている。オンライン方式マッ
チング部4の出力側は、高画数文字識別部6の入力側に
接続されてる。パターンメモリ変換部7の出力側は、輪
郭抽出部8の入力側に接続されている。輪郭抽出部8の
出力側は、オフライン方式特徴抽出部9の入力側に接続
されている。オフライン方式特徴抽出部9及びオフライ
ン方式認識辞書1の出力側は、オフライン方式マッチン
グブ10の入力側に接続されている。オフライン方式マ
ッチング部10の出力側は、低画数文字識別部52の入
力側に接続されている。オンライン方式特徴抽出部3の
出力側は、オンライン方式マッチング部4及び部分パタ
ーンパターンメモリ変換部31に接続されている。部分
パターンメモリ変換部31の出力側は、部分パターン輪
郭抽出部32の入力側に接続されている。部分パターン
輪郭抽出部32の出力側は、部分パターンオフライン方
式特徴抽出部33の入力側に接続されている。
The output side of the tablet 1 is connected to the input side of the preprocessing section 2. The output side of the preprocessing unit 2 is connected to the input sides of the online system feature extraction unit 3, the pattern memory conversion unit 7, the high stroke number character identification unit 6 and the low stroke number character identification unit 52. The output sides of the online method feature extraction unit 3 and the online method recognition dictionary 5 are connected to the input side of the online method matching unit 4. The output side of the online system matching unit 4 is connected to the input side of the high stroke number character identification unit 6. The output side of the pattern memory conversion unit 7 is connected to the input side of the contour extraction unit 8. The output side of the contour extraction unit 8 is connected to the input side of the offline system feature extraction unit 9. The output sides of the offline system feature extraction unit 9 and the offline system recognition dictionary 1 are connected to the input side of the offline system matching group 10. The output side of the off-line method matching unit 10 is connected to the input side of the low stroke number character identification unit 52. The output side of the online system feature extraction unit 3 is connected to the online system matching unit 4 and the partial pattern memory conversion unit 31. The output side of the partial pattern memory conversion unit 31 is connected to the input side of the partial pattern contour extraction unit 32. The output side of the partial pattern contour extraction unit 32 is connected to the input side of the partial pattern offline method feature extraction unit 33.

【0082】部分パターンオフライン方式特徴抽出部3
3及び部分パターンオフライン方式認識辞書35の出力
側は、部分パターンオフライン方式マッチング部34の
入力側に接続されている。部分パターンオフライン方式
マッチング部34の出力側は、低画数文字識別部52の
入力側に接続されている。高画数文字識別部6及び低画
数文字識別部52の出力側は、出力端子13に接続され
ている。低画数文字識別部52は、部分パターンオフラ
イン方式マッチング部34の出力ddbk と、オフライ
ン方式マッチング部10の出力ddk とから、マッチン
グ距離を算出して文字認識するものである。以下、図1
6の各部の動作(a)〜(n)の説明をする。
Partial pattern offline system feature extraction unit 3
3 and the output side of the partial pattern offline method recognition dictionary 35 are connected to the input side of the partial pattern offline method matching unit 34. The output side of the partial pattern offline method matching unit 34 is connected to the input side of the low stroke number character identification unit 52. The output sides of the high stroke number character identifying unit 6 and the low stroke number character identifying unit 52 are connected to the output terminal 13. Low strokes character identifying unit 52, from the output ddb k partial pattern offline mode matching unit 34, an output dd k offline mode matching unit 10, and character recognition by calculating a matching distance. Hereinafter, FIG.
The operations (a) to (n) of each unit of 6 will be described.

【0083】(a) タブレット1 タブレット1は、第1の実施形態と同様に、座標列の筆
記データ列{(xi ,yi ),i=1,2,…,nj
を抽出して、前処理部2に送る。 (b) 前処理部2 前処理部2は、第1の実施形態と同様に、座標列の筆記
データに対して平滑化し、オンライン方式特徴抽出部3
及びパターンメモリ変換部7へ平滑化後の筆記データ列
を出力し、画数を高画数文字識別部6及び低画数文字識
別部52に出力する。 (c) オンライン方式特徴抽出部3 オンライン方式特徴抽出部3は、前処理部2の出力か
ら、第1の実施形態と同様に、例えば、直線近似化処理
を施し、特徴点を抽出する。そして、ストローク数によ
る大分類を行い、文字辞書の認識対象の文字の部分パタ
ーンのカット位置から筆記文字の部分パターンを求め、
部分パターン間ベクトルを算出し、文字辞書の部分パタ
ーン間ベクトルと筆記文字の部分パターン間ベクトルの
マッチング距離dvec とを算出し、dvec とVECREJとを
比較して中分類を行う。更に、中分類で残った認識対象
の文字の部分パターンに従って、筆記文字のQ値を部分
パターン毎に求める。
(A) Tablet 1 As with the first embodiment, the tablet 1 has a writing data sequence {(x i , y i ), i = 1, 2, ..., N j } of coordinate sequences.
Is extracted and sent to the preprocessing unit 2. (B) Pre-Processing Unit 2 As in the first embodiment, the pre-processing unit 2 smoothes the writing data of the coordinate sequence, and the online system feature extraction unit 3
The smoothed writing data string is output to the pattern memory conversion unit 7, and the stroke number is output to the high stroke number character identifying unit 6 and the low stroke number character identifying unit 52. (C) Online Method Feature Extraction Unit 3 The online method feature extraction unit 3 performs, for example, linear approximation processing from the output of the preprocessing unit 2 to extract the feature points, as in the first embodiment. Then, the stroke pattern is roughly classified, and the partial pattern of the written character is obtained from the cut position of the partial pattern of the character to be recognized in the character dictionary.
A vector between the partial patterns is calculated, a matching distance d vec between the vector between the partial patterns of the character dictionary and a vector between the partial patterns of the written character is calculated, and d vec is compared with VECREJ to perform middle classification. Further, the Q value of the written character is obtained for each partial pattern in accordance with the partial pattern of the recognition target character remaining in the middle classification.

【0084】(d) オンライン方式マッチング部4 オンライン方式マッチング部4は、オンライン方式特徴
抽出部3の出力を受けて、第1の実施形態と同様に、マ
ッチング距離dBPをQ値から算出し、dvec とdBPから
マッチング距離値dを算出して、高画数文字識別部6に
出力する。 (e) 高画数文字識別部6 高画数文字識別部6は、第1の実施形態と同様に、オン
ライン方式マッチング部4の出力dk を小さい順にソー
ティグし、画数が高画数だと判断できたときは、対応す
る文字コードを出力端子13から出力し、図示しない表
示器などに表示する。ここで、画数が高画数だと判断す
るのは、抽出する特徴パラメータにより異なると思われ
るが、ここでは7画以上の文字を高画数だとする。 (f) パターンメモリ変換部7 パターンメモリ変換部7は、前処理部2の出力データの
特徴点の座標データ列{Xi ,Yi }を受けて、第1の
実施形態と同様に、2次元の配列PM(x,y) に変換し、
輪郭抽出部8に出力する。
(D) Online Method Matching Unit 4 The online method matching unit 4 receives the output of the online method feature extraction unit 3 and calculates the matching distance d BP from the Q value as in the first embodiment. A matching distance value d is calculated from d vec and d BP and output to the high stroke count character identification unit 6. (E) High Stroke Number Character Identification Unit 6 As in the first embodiment, the high stroke number character identification unit 6 sorts the output d k of the online method matching unit 4 in ascending order, and determines that the stroke number is high. At this time, the corresponding character code is output from the output terminal 13 and displayed on a display (not shown) or the like. Here, it is considered that the number of strokes is high depending on the characteristic parameter to be extracted, but here it is assumed that characters with 7 strokes or more are high strokes. (F) Pattern memory conversion unit 7 The pattern memory conversion unit 7 receives the coordinate data string {X i , Y i } of the feature points of the output data of the preprocessing unit 2 and, as in the first embodiment, 2 Convert to the dimension array PM (x, y),
It is output to the contour extraction unit 8.

【0085】(g) 輪郭抽出部8 輪郭抽出部8は、パターンメモリ変換部7の出力PM
(x,y) を受けて、第1の実施形態と同様に、例えば、輪
郭追跡して輪郭データを抽出する。 (h) オフライン方式特徴抽出部9 オフライン方式特徴抽出部9は、輪郭抽出部8にて抽出
した輪郭データを得て、第1の実施形態と同様に、例え
ば、水平成分、垂直成分、45°成分、−45°成分の
0 〜q15を求める。 (i) オフライン方式マッチング部10 オフライン方式マッチング部10は、第1の実施形態と
同様に、認識対象範囲を含む文字についての基準特徴量
0 * 〜q15 * をそれぞれ格納しているオフライン方式
認識辞書11と、輪郭データから算出したパターンメモ
リの特徴量q0〜q15とを、逐次比較することにより、
両者間の差、すなわち、マッチング距離ddを算出して
出力する。
(G) Contour extraction unit 8 The contour extraction unit 8 outputs the output PM of the pattern memory conversion unit 7.
Upon receiving (x, y), for example, contour tracing is performed to extract contour data, as in the first embodiment. (H) Offline Method Feature Extraction Unit 9 The offline method feature extraction unit 9 obtains the contour data extracted by the contour extraction unit 8 and, for example, as in the first embodiment, for example, the horizontal component, the vertical component, 45 °. The components, q 0 to q 15 , of the −45 ° component are obtained. (I) Offline Method Matching Unit 10 The offline method matching unit 10 stores the reference feature quantities q 0 * to q 15 * for the characters including the recognition target range, respectively, as in the first embodiment. By sequentially comparing the recognition dictionary 11 and the feature quantities q 0 to q 15 of the pattern memory calculated from the contour data,
The difference between the two, that is, the matching distance dd is calculated and output.

【0086】(j) 部分パターンパターンメモリ変換
部31 部分パターンパターンメモリ変換部31は、オンライン
方式特徴抽出部3から、文字を構成する部分パターンの
カット位置とそれに対応する座標データ列を受けて、第
3の実施形態と同様に、部分パターン毎にパターンメモ
リへの変換処理を行う。 (k) 部分パターン輪郭抽出部32 部分パターン輪郭抽出部32は、部分パターンパターン
メモリ変換部31の出力する各パターンメモリを読み出
して、第3の実施形態と同様に、各部分パターンの輪郭
抽出処理を行い、輪郭情報を部分パターンオフライン方
式特徴抽出部33に出力する。 (l) 部分パターンオフライン方式特徴抽出部33 部分パターンオフライン方式特徴抽出部33は、第3の
実施形態と同様に、部分パターン輪郭抽出部32の出力
する部分パターン数分の輪郭データを受けて、それぞれ
の輪郭データから、水平、垂直、45°、−45°の成
分の16個の特徴量qBk,0 〜qBk,15(k=1,2,…,BP
N,BPN は部分パターン数) を求めて、部分パターンオ
フライン方式マッチング部34に出力する。
(J) Partial pattern pattern memory conversion unit 31 The partial pattern pattern memory conversion unit 31 receives the cut position of the partial pattern forming the character and the coordinate data string corresponding thereto from the online system feature extraction unit 3, Similar to the third embodiment, the conversion process to the pattern memory is performed for each partial pattern. (K) Partial pattern contour extraction unit 32 The partial pattern contour extraction unit 32 reads out each pattern memory output from the partial pattern pattern memory conversion unit 31 and performs the contour extraction processing of each partial pattern, as in the third embodiment. And outputs the contour information to the partial pattern offline method feature extraction unit 33. (L) Partial pattern offline method feature extraction unit 33 The partial pattern offline method feature extraction unit 33 receives contour data for the number of partial patterns output from the partial pattern contour extraction unit 32, as in the third embodiment. From each contour data, 16 feature quantities of horizontal, vertical, 45 °, and −45 ° components qB k, 0 to qB k, 15 (k = 1,2, ..., BP
(N and BPN are the number of partial patterns) and output to the partial pattern offline method matching unit 34.

【0087】(m) 部分パターンオフライン方式マッ
チング部34 部分パターンオフライン方式マッチング部34は、第3
の実施形態と同様に、部分パターンオフライン方式特徴
抽出部33の出力する部分パターン毎の特徴量qBk,0
〜qBk,15(k=1,2,…,BPN)と、部分パターンオフライ
ン方式認識辞書35に予め登録してあるマッチング対象
の部分パターン毎の特徴量qB* k,0 〜qB* k,15(k=
1,2,…,BPN)との、部分パターンオフライン方式マッチ
ング距離値ddbを算出して出力する。
(M) Partial pattern offline system matching unit 34 The partial pattern offline system matching unit 34
Similar to the above embodiment, the feature quantity qB k, 0 for each partial pattern output from the partial pattern offline method feature extraction unit 33.
˜qB k, 15 (k = 1,2, ..., BPN) and the feature quantities qB * k, 0 ˜qB * k, for each matching target partial pattern registered in advance in the partial pattern offline method recognition dictionary 35 . 15 (k =
1, 2, ..., BPN) and a partial pattern offline method matching distance value ddb is calculated and output.

【0088】(n) 低画数文字識別部52 低画数文字識別部52は、オフライン方式マッチング部
10の出力ddk 、部分パターンオフライン方式マッチ
ング部34の出力ddbk 及び前処理部2の出力する画
数を受けて、式(49)により低画数文字のマッチング
距離dlowkを算出し、小さい順にソーティングする。画
数が低画数だと判断できたときは、ソーティング結果に
対応する文字コードを出力し、そうでない場合は、何も
出力しない。 dlowk=ddk +w・ddbk ・・・(49) 但し、wは重み係数である。ここで、画数が低画数だと
判断するのは、抽出する特徴パラメータにより異なると
思われるのが、ここでは高画数文字識別部6で7画以上
の文字を高画数だとしたので、6画以下の文字を低画数
文字とする。以上説明したように、本第7の実施形態に
よれば、高画数文字については、第1の実施形態と同様
の利点がある。その上、情報量が少ないために認識率が
低くなる低画数文字においては、大局的な特徴をオフラ
イン方式でマッチングし、文字の細かい部分は部分パタ
ーンオフライン方式でマッチングすることにより、似か
よった低画数文字においても優れた認識率を得ることが
できるしかも、どちらの特徴もオフライン方式なので、
筆記方向に影響を受けないオンライン手書き文字認識装
置を提供することができる。
[0088] (n) low number of strokes character identifying unit 52 low strokes character identifying unit 52, the output dd k offline mode matching unit 10, the number of strokes of the output of the partial pattern offline mode output of the matching section 34 ddb k and the pre-processing unit 2 In response, the matching distance d lowk of the low stroke number character is calculated by the equation (49), and the matching distance d lowk is sorted in ascending order. When it is determined that the stroke number is low, the character code corresponding to the sorting result is output, and otherwise, nothing is output. d lowk = dd k + w · ddb k (49) where w is a weighting coefficient. Here, it is considered that the number of strokes is determined to be low depending on the characteristic parameters to be extracted. Here, since the high stroke number character identifying unit 6 determines that the number of strokes is 7 or more, the stroke count is 6 strokes. The following characters are low stroke characters. As described above, according to the seventh embodiment, the high stroke number character has the same advantages as those of the first embodiment. In addition, for low stroke number characters whose recognition rate is low due to the small amount of information, global features are matched by the offline method, and fine character parts are matched by the partial pattern offline method. It is possible to obtain an excellent recognition rate even for characters, and both features are offline systems.
It is possible to provide an online handwritten character recognition device that is not affected by the writing direction.

【0089】第8の実施形態 図17は、本発明の第8の実施形態のオンライン手書き
文字認識装置を示す構成図であり、図1中の要素に共通
する要素には共通の符号を付してある。本第8の実施形
態のオンライン手書き文字認識装置が第1の実施形態の
オンライン手書き文字認識装置と異なる点は、高画数文
字については、オンライン方式マッチング部4の出力
と、オフライン方式マッチング部10の出力から、マッ
チング距離を算出して文字認識を行うようにし、低画数
文字については、部分パターンオフライン方式マッチン
グ部34の出力と、オフライン方式マッチング部10の
出力とから、マッチング距離を算出して文字認識を行う
ようにしたことである。
Eighth Embodiment FIG. 17 is a block diagram showing an online handwritten character recognition device according to an eighth embodiment of the present invention. Elements common to those in FIG. 1 are designated by common reference numerals. There is. The online handwritten character recognition device of the eighth embodiment differs from the online handwritten character recognition device of the first embodiment in that, for high stroke number characters, the output of the online system matching unit 4 and the offline system matching unit 10 are different. The matching distance is calculated from the output to perform character recognition. For low stroke number characters, the matching distance is calculated from the output of the partial pattern offline method matching unit 34 and the output of the offline method matching unit 10, and the character is calculated. That is to recognize it.

【0090】図17に示すように、本第8の実施形態の
オンライン手書き文字認識装置は、タブレット1、前処
理部2、オンライン方式特徴抽出部3、オンライン方式
マッチング部4、オンライン方式認識辞書5、高画数文
字識別部26、部分パターンパターンメモリ変換部3
1、部分パターン輪郭抽出部32、部分パターンオフラ
イン方式特徴抽出部33、部分パターンオフライン方式
マッチング部34、部分パターンオフライン方式認識辞
書35、パターンメモリ変換部7、輪郭抽出部8、オフ
ライン方式特徴抽出部9、オフライン方式マッチング部
10、オフライン方式認識辞書11、低画数文字識別部
52、及び出力端子13を備えている。タブレット1の
出力側は、前処理部2の入力側に接続されている。前処
理部2の出力側はオンライン方式特徴抽出部3、パター
ンメモリ変換部7、高画数文字識別部26及び低画数文
字識別部52の入力側に接続されている。オンライン方
式特徴抽出部3及びオンライン方式認識辞書5の出力側
は、オンライン方式マッチング部4の入力側に接続され
ている。オンライン方式マッチング部4の出力側は、高
画数文字識別部26の入力側に接続されてる。
As shown in FIG. 17, the online handwritten character recognition apparatus according to the eighth embodiment includes a tablet 1, a preprocessing unit 2, an online system feature extraction unit 3, an online system matching unit 4, and an online system recognition dictionary 5. , A high stroke number character identification unit 26, a partial pattern pattern memory conversion unit 3
1, partial pattern contour extraction unit 32, partial pattern offline system feature extraction unit 33, partial pattern offline system matching unit 34, partial pattern offline system recognition dictionary 35, pattern memory conversion unit 7, contour extraction unit 8, offline system feature extraction unit 9, an offline system matching unit 10, an offline system recognition dictionary 11, a low stroke number character identifying unit 52, and an output terminal 13. The output side of the tablet 1 is connected to the input side of the preprocessing unit 2. The output side of the preprocessing unit 2 is connected to the input sides of the online system feature extraction unit 3, the pattern memory conversion unit 7, the high stroke number character identification unit 26, and the low stroke number character identification unit 52. The output sides of the online method feature extraction unit 3 and the online method recognition dictionary 5 are connected to the input side of the online method matching unit 4. The output side of the online system matching unit 4 is connected to the input side of the high stroke number character identification unit 26.

【0091】パターンメモリ変換部7の出力側は、輪郭
抽出部8の入力側に接続されている。輪郭抽出部8の出
力側は、オフライン方式特徴抽出部9の入力側に接続さ
れている。オフライン方式特徴抽出部9及びオフライン
方式認識辞書1の出力側は、オフライン方式マッチング
部10の入力側に接続されている。オフライン方式マッ
チング部10の出力側は、低画数文字識別部52及び高
画数文字識別部26の入力側に接続されている。オンラ
イン方式特徴抽出部3の出力側は、オンライン方式マッ
チング部4及び部分パターンパターンメモリ変換部31
に接続されている。部分パターンパターンメモリ変換部
31の出力側は、部分パターン輪郭抽出部32の入力側
に接続されている。部分パターン輪郭抽出部32の出力
側は、部分パターンオフライン方式特徴抽出部33の入
力側に接続されている。部分パターンオフライン方式特
徴抽出部33、及び部分パターンオフライン方式認識辞
書35の出力側は、部分パターンオフライン方式マッチ
ング部34の入力側に接続されている。部分パターンオ
フライン方式マッチング部34の出力側は、低画数文字
識別部52の入力側に接続されている。高画数文字識別
部26及び低画数文字識別部52の出力側は、出力端子
13に接続されている。以下、図17の各部の動作
(a)〜(n)の説明をする。
The output side of the pattern memory conversion section 7 is connected to the input side of the contour extraction section 8. The output side of the contour extraction unit 8 is connected to the input side of the offline system feature extraction unit 9. The output sides of the offline method feature extraction unit 9 and the offline method recognition dictionary 1 are connected to the input side of the offline method matching unit 10. The output side of the off-line method matching section 10 is connected to the input sides of the low stroke number character identifying section 52 and the high stroke number character identifying section 26. The output side of the online system feature extraction unit 3 has an online system matching unit 4 and a partial pattern pattern memory conversion unit 31.
It is connected to the. The output side of the partial pattern / pattern memory conversion section 31 is connected to the input side of the partial pattern contour extraction section 32. The output side of the partial pattern contour extraction unit 32 is connected to the input side of the partial pattern offline method feature extraction unit 33. The output sides of the partial pattern offline method feature extraction unit 33 and the partial pattern offline method recognition dictionary 35 are connected to the input side of the partial pattern offline method matching unit 34. The output side of the partial pattern offline method matching unit 34 is connected to the input side of the low stroke number character identification unit 52. The output sides of the high stroke number character identifying unit 26 and the low stroke number character identifying unit 52 are connected to the output terminal 13. Hereinafter, operations (a) to (n) of the respective units in FIG. 17 will be described.

【0092】(a) タブレット1 タブレット1は、第1の実施形態と同様に、座標列の筆
記データ列{(xi ,yi ),i=1,2,…,nj
を抽出して、前処理部2に送る。 (b) 前処理部2 前処理部2は、第1の実施形態と同様に、座標列の筆記
データに対して平滑化し、オンライン方式特徴抽出部3
及びパターンメモリ変換部7へ平滑化後の筆記データ列
を出力し、画数を高画数文字識別部26及び低画数文字
識別部52に出力する。 (c) オンライン方式特徴抽出部3 オンライン方式特徴抽出部3は、前処理部2の出力か
ら、第1の実施形態と同様に、例えば、直線近似化処理
を施して特徴点を抽出する。そして、ストローク数によ
る大分類を行い、文字辞書の認識対象の文字の部分パタ
ーンのカット位置から筆記文字の部分パターンを求め、
部分パターン間ベクトルを算出して、文字辞書の部分パ
ターン間ベクトルと、筆記文字の部分パターン間ベクト
ルのマッチング距離dvec とを算出し、dvec とVECREJ
とを比較して中分類を行う。更に、中分類で残った認識
対象の文字の部分パターンに従って、筆記文字のQ値を
部分パターン毎に求める。
(A) Tablet 1 As in the first embodiment, the tablet 1 has a coordinate data writing data string {(x i , y i ), i = 1, 2, ..., N j }.
Is extracted and sent to the preprocessing unit 2. (B) Pre-Processing Unit 2 As in the first embodiment, the pre-processing unit 2 smoothes the writing data of the coordinate sequence, and the online system feature extraction unit 3
The writing data string after smoothing is output to the pattern memory conversion unit 7, and the stroke number is output to the high stroke number character identifying unit 26 and the low stroke number character identifying unit 52. (C) Online Method Feature Extraction Unit 3 The online method feature extraction unit 3 extracts a feature point from the output of the preprocessing unit 2 by performing, for example, a linear approximation process, as in the first embodiment. Then, the stroke pattern is roughly classified, and the partial pattern of the written character is obtained from the cut position of the partial pattern of the character to be recognized in the character dictionary.
A vector between the partial patterns is calculated, a matching distance d vec between the vector between the partial patterns of the character dictionary and a vector between the partial patterns of the written character is calculated, and d vec and VECREJ
Compare with and perform middle classification. Further, the Q value of the written character is obtained for each partial pattern in accordance with the partial pattern of the recognition target character remaining in the middle classification.

【0093】(d) オンライン方式マッチング部4 オンライン方式マッチング部4は、オンライン方式特徴
抽出部3の出力を受けて、第1の実施形態と同様に、マ
ッチング距離dBPをQ値から算出し、dvec とdBPから
マッチング距離値dを算出して、高画数文字識別部26
に出力する。 (e) 部分パターンパターンメモリ変換部31 部分パターンパターンメモリ変換部31は、オンライン
方式特徴抽出部3から、文字を構成する部分パターンの
カット位置とそれに対応する座標データ列を受けて、第
3の実施形態と同様に、部分パターン毎にパターンメモ
リへの変換処理を行う。
(D) Online system matching unit 4 The online system matching unit 4 receives the output of the online system feature extraction unit 3 and calculates the matching distance d BP from the Q value as in the first embodiment. The matching distance value d is calculated from d vec and d BP , and the high stroke number character identifying unit 26 is calculated.
Output to (E) Partial pattern pattern memory conversion unit 31 The partial pattern pattern memory conversion unit 31 receives a cut position of a partial pattern forming a character and a corresponding coordinate data string from the online system feature extraction unit 3, Similar to the embodiment, the conversion process to the pattern memory is performed for each partial pattern.

【0094】(f) 部分パターン輪郭抽出部32 部分パターン輪郭抽出部32は、部分パターンパターン
メモリ変換部31の出力する各パターンメモリを読み出
して、第3の実施形態と同様に、各部分パターンの輪郭
抽出処理を行い、輪郭情報を部分パターンオフライン方
式特徴抽出部33に出力する。 (g) 部分パターンオフライン方式特徴抽出部33 部分パターンオフライン方式特徴抽出部33は、第3の
実施形態と同様に、部分パターンオンライン方式輪郭抽
出部33の出力する部分パターン数分の輪郭データを受
けて、それぞれの輪郭データから、水平、垂直、45
°、−45°の成分の16個の特徴量qBk,0 〜qB
k,15(k=1,2,…,BPN,BPN は部分パターン数) を求め
て、部分パターンオフライン方式マッチング部34に出
力する。
(F) Partial pattern contour extraction unit 32 The partial pattern contour extraction unit 32 reads each pattern memory output from the partial pattern pattern memory conversion unit 31 and, as in the third embodiment, reads each partial pattern. The contour extraction processing is performed, and the contour information is output to the partial pattern offline method feature extraction unit 33. (G) Partial pattern offline method feature extraction unit 33 The partial pattern offline method feature extraction unit 33 receives the contour data for the number of partial patterns output by the partial pattern online method contour extraction unit 33, as in the third embodiment. Then, from each contour data, horizontal, vertical, 45
16 feature quantities qBk , 0 to qB of-, -45 ° components
k, 15 (k = 1,2, ..., BPN, where BPN is the number of partial patterns) is obtained and output to the partial pattern offline method matching unit 34.

【0095】(h) 部分パターンオフライン方式マッ
チング部34 部分パターンオフライン方式マッチング部34は、第3
の実施形態と同様に、部分パターンオフライン方式特徴
抽出部33の出力する部分パターン毎の特徴量qBk,0
〜qBk,15(k=1,2,…,BPN)と、部分パターンオフライ
ン方式認識辞書35に予め登録してあるマッチング対象
の部分パターン毎の特徴量qB* k,0 〜qB* k,15(k=
1,2,…,BPN)との、部分パターンオフライン方式マッチ
ング距離値ddbを算出して出力する。 (i) パターンメモリ変換部7 パターンメモリ変換部7は、前処理部2の出力データの
特徴点の座標データ列{Xi ,Yi }を受けて、第1の
実施形態と同様に、2次元の配列PM(x,y) に変換し、
輪郭抽出部8に出力する。
(H) Partial pattern offline system matching unit 34 The partial pattern offline system matching unit 34
Similar to the above embodiment, the feature quantity qB k, 0 for each partial pattern output from the partial pattern offline method feature extraction unit 33.
˜qB k, 15 (k = 1,2, ..., BPN) and the feature quantities qB * k, 0 ˜qB * k, for each matching target partial pattern registered in advance in the partial pattern offline method recognition dictionary 35 . 15 (k =
1, 2, ..., BPN) and a partial pattern offline method matching distance value ddb is calculated and output. (I) Pattern memory conversion unit 7 The pattern memory conversion unit 7 receives the coordinate data string {X i , Y i } of the feature points of the output data of the preprocessing unit 2 and, as in the first embodiment, 2 Convert to the dimension array PM (x, y),
It is output to the contour extraction unit 8.

【0096】(j) 輪郭抽出部8 輪郭抽出部8は、パターンメモリ変換部7の出力PM
(x,y) を受けて、第1の実施形態と同様に、例えば、輪
郭追跡して輪郭データを抽出する。 (k) オフライン方式特徴抽出部9 オフライン方式特徴抽出部9は、輪郭抽出部8にて抽出
した輪郭データを得て、第1の実施形態と同様に、例え
ば、水平成分、垂直成分、45°成分、−45°成分の
0 〜q15を求める。
(J) Contour Extraction Unit 8 The contour extraction unit 8 outputs the output PM of the pattern memory conversion unit 7.
Upon receiving (x, y), for example, contour tracing is performed to extract contour data, as in the first embodiment. (K) Offline Method Feature Extraction Unit 9 The offline method feature extraction unit 9 obtains the contour data extracted by the contour extraction unit 8 and, for example, as in the first embodiment, for example, the horizontal component, the vertical component, 45 °. The components, q 0 to q 15 , of the −45 ° component are obtained.

【0097】(l) オフライン方式マッチング部10 オフライン方式マッチング部10は、第1の実施形態と
同様に、認識対象範囲を含む文字についての基準特徴量
0 * 〜q15 * をそれぞれ格納しているオフライン方式
認識辞書11と、輪郭データから算出したパターンメモ
リの特徴量q0〜q15とを、逐次比較することにより、
両者間の差、すなわち、マッチング距離ddを算出して
出力する。 (m) 高画数文字識別部26 高画数文字識別部26は、オンライン方式マッチング部
4の出力dk と、オフライン方式マッチング部10の出
力ddk とから、式(45)により新しい距離値d
highk を求めて小さい順にソーティングし、画数が高画
数だと判断できたときは、対応する文字コードを出力端
子13から出力し、図示しない表示器などに表示する。
高画数だと判断できないときは、何も出力しない。ここ
で、画数が高画数だと判断するのは、抽出する特徴パラ
メータにより異なると思われるが、ここでは7画以上の
文字を高画数だとする。
(L) Off-line Method Matching Section 10 The off-line method matching section 10 stores the reference feature quantities q 0 * to q 15 * for the characters including the recognition target range, as in the first embodiment. By sequentially comparing the offline method recognition dictionary 11 and the feature quantities q 0 to q 15 of the pattern memory calculated from the contour data,
The difference between the two, that is, the matching distance dd is calculated and output. (M) High stroke number character identifying section 26 The high stroke number character identifying section 26 uses the output d k of the online method matching unit 4 and the output dd k of the offline method matching unit 10 to calculate a new distance value d according to equation (45).
When highk is calculated and sorted in ascending order, and when it can be determined that the number of strokes is high, the corresponding character code is output from the output terminal 13 and displayed on a display device (not shown) or the like.
If it cannot be determined that the number of strokes is high, nothing is output. Here, it is considered that the number of strokes is high depending on the characteristic parameter to be extracted, but here it is assumed that characters with 7 strokes or more are high strokes.

【0098】(n) 低画数文字識別部52 低画数文字識別部52は、前処理部2の出力する画数を
受けて、画数が低画数であると判断したとき、第7の実
施形態と同様に、オフライン方式マッチング部10の出
力ddk と、部分パターンオフライン方式マッチング部
34の出力ddbk とを受けて、式(49)より低画数
文字のマッチング距離dlowkを算出し、小さい順にソー
ティングして、対応する文字コードを出力端子13から
出力し、図示しない表示器などに表示する。低画数だと
判断できないときは、何も出力しない。ここで、画数が
低画数だと判断するのは、抽出する特徴パラメータによ
り異なると思われるのが、ここでは高画数文字識別部2
6で7画以上の文字を高画数だとしたので、6画以下の
文字を低画数文字とする。以上説明したように、本第8
の実施形態によれば、高画数文字については、第2の実
施形態と同様の利点があり、低画数文字については、第
7の実施形態と同様の利点がある。
(N) Low Stroke Number Character Identification Unit 52 When the low stroke number character identification unit 52 receives the stroke number output from the preprocessing unit 2 and determines that the stroke number is low, it is the same as in the seventh embodiment. to the output dd k offline mode matching unit 10 receives an output ddb k partial pattern offline mode matching unit 34 calculates a matching distance d low k low strokes character from the equation (49), sorted in ascending order Then, the corresponding character code is output from the output terminal 13 and displayed on a display device (not shown) or the like. If it cannot be determined that the stroke count is low, nothing is output. Here, it is considered that the determination of the stroke count being the low stroke count depends on the characteristic parameter to be extracted.
Since the character of 7 strokes or more in 6 has a high stroke count, the character of 6 strokes or less is a low stroke count character. As described above, the eighth
According to the embodiment, the high stroke number character has the same advantages as those of the second embodiment, and the low stroke number character has the same advantages as those of the seventh embodiment.

【0099】第9の実施形態 図18は、本発明の第9の実施形態のオンライン手書き
文字認識装置を示す構成図であり、図1中の要素に共通
する要素には共通の符号を付してある。なする。本第9
の実施形態のオンライン手書き文字認識装置が第1の実
施形態のオンライン手書き文字認識装置と異なる点は、
高画数文字については、オンライン方式マッチング部4
の出力と、部分パターンオンライン方式マッチング部3
4の出力とから、マッチング距離を算出して文字認識を
行うようにし、低画数文字については、オフライン方式
マッチング部10の出力と、部分パターンオフライン方
式マッチング部34の出力とから、マッチング距離を算
出して文字認識を行うようにしたことである。
Ninth Embodiment FIG. 18 is a block diagram showing an online handwritten character recognition device according to a ninth embodiment of the present invention. Elements common to those in FIG. 1 are designated by common reference numerals. There is. To do. Book 9
The difference between the online handwritten character recognition device of the embodiment of the present invention and the online handwritten character recognition device of the first embodiment is that
For high stroke characters, online matching section 4
Output and partial pattern online method matching unit 3
The matching distance is calculated from the output of No. 4 and character recognition is performed, and the matching distance is calculated from the output of the offline method matching unit 10 and the output of the partial pattern offline method matching unit 34 for low stroke number characters. That is, the character recognition is performed.

【0100】図18に示すように、本第9の実施形態の
オンライン手書き文字認識装置は、タブレット1、前処
理部2、オンライン方式特徴抽出部3、オンライン方式
マッチング部4、オンライン方式認識辞書5、高画数文
字識別部36、部分パターンパターン変換メモリ部3
1、部分パターン輪郭抽出部32、部分パターンオフラ
イン方式特徴抽出部33、部分パターンオフライン方式
マッチング部34、部分パターンオフライン方式認識辞
書35、パターンメモリ変換部7、輪郭抽出部8、オフ
ライン方式特徴抽出部9、オフライン方式マッチング部
10、オフライン方式認識辞書11、低画数文字識別部
52、及び出力端子13を備えている。タブレット1の
出力側は、前処理部2の入力側に接続されている。前処
理部2の出力側はオンライン方式特徴抽出部3、パター
ンメモリ変換部7、高画数文字識別部36、及び低画数
文字識別部52の入力側に接続されている。
As shown in FIG. 18, the online handwritten character recognition apparatus according to the ninth embodiment includes a tablet 1, a preprocessing unit 2, an online system feature extraction unit 3, an online system matching unit 4, and an online system recognition dictionary 5. , High stroke number character identification section 36, partial pattern pattern conversion memory section 3
1, partial pattern contour extraction unit 32, partial pattern offline system feature extraction unit 33, partial pattern offline system matching unit 34, partial pattern offline system recognition dictionary 35, pattern memory conversion unit 7, contour extraction unit 8, offline system feature extraction unit 9, an offline system matching unit 10, an offline system recognition dictionary 11, a low stroke number character identifying unit 52, and an output terminal 13. The output side of the tablet 1 is connected to the input side of the preprocessing unit 2. The output side of the preprocessing unit 2 is connected to the input sides of the online system feature extraction unit 3, the pattern memory conversion unit 7, the high stroke number character identification unit 36, and the low stroke number character identification unit 52.

【0101】オンライン方式特徴抽出部3及びオンライ
ン方式認識辞書5の出力側は、オンライン方式マッチン
グ部4の入力側に接続されている。オンライン方式マッ
チング部4の出力側は、高画数文字識別部36の入力側
に接続されている。パターンメモリ変換部7の出力側
は、輪郭抽出部8の入力側に接続されている。輪郭抽出
部8の出力側は、オフライン方式特徴抽出部9の入力側
に接続されている。オフライン方式特徴抽出部9及びオ
フライン方式認識辞書1の出力側は、オフライン方式マ
ッチング部10の入力側に接続されている。オフライン
方式マッチング部10の出力側は、低画数文字識別部5
2の入力側に接続されている。オンライン方式特徴抽出
部3の出力側は、オンライン方式マッチング部4及び部
分パターンパターンメモリ変換部31に接続されてい
る。部分パターンパターンメモリ変換部31の出力側
は、部分パターン輪郭抽出部32の入力側に接続されて
いる。部分パターン輪郭抽出部32の出力側は、部分パ
ターンオフライン方式特徴抽出部33の入力側に接続さ
れている。
The output sides of the online system feature extraction unit 3 and the online system recognition dictionary 5 are connected to the input side of the online system matching unit 4. The output side of the online system matching unit 4 is connected to the input side of the high stroke number character identification unit 36. The output side of the pattern memory conversion unit 7 is connected to the input side of the contour extraction unit 8. The output side of the contour extraction unit 8 is connected to the input side of the offline system feature extraction unit 9. The output sides of the offline method feature extraction unit 9 and the offline method recognition dictionary 1 are connected to the input side of the offline method matching unit 10. The output side of the offline method matching unit 10 has a low stroke number character identification unit 5
2 is connected to the input side. The output side of the online system feature extraction unit 3 is connected to the online system matching unit 4 and the partial pattern memory conversion unit 31. The output side of the partial pattern / pattern memory conversion section 31 is connected to the input side of the partial pattern contour extraction section 32. The output side of the partial pattern contour extraction unit 32 is connected to the input side of the partial pattern offline method feature extraction unit 33.

【0102】部分パターンオフライン方式特徴抽出部3
3及び部分パターンオフライン方式認識辞書35の出力
側は、部分パターンオフライン方式マッチング部34の
入力側に接続されている。部分パターンオフライン方式
マッチング部34の出力側は、高画数文字識別部36及
び低画数文字識別部52の入力側に接続されている。高
画数文字識別部36及び低画数文字識別部52の出力側
は、出力端子13に接続されている。以下、図18の各
部の動作(a)〜(n)の説明をする。
Partial pattern offline method feature extraction unit 3
3 and the output side of the partial pattern offline method recognition dictionary 35 are connected to the input side of the partial pattern offline method matching unit 34. The output side of the partial pattern offline method matching unit 34 is connected to the input sides of the high stroke number character identifying unit 36 and the low stroke number character identifying unit 52. The output sides of the high stroke number character identifying unit 36 and the low stroke number character identifying unit 52 are connected to the output terminal 13. Hereinafter, operations (a) to (n) of the respective units in FIG. 18 will be described.

【0103】(a) タブレット1 タブレット1は、第1の実施形態と同様に、座標列の筆
記データ列{(xi ,yi ),i=1,2,…,nj
を抽出して、前処理部2に送る。 (b) 前処理部2 前処理部2は、第1の実施形態と同様に、座標列の筆記
データに対して平滑化し、オンライン方式特徴抽出部3
及びパターンメモリ変換部7へ平滑化後の筆記データ列
を出力し、画数を高画数文字識別部36及び低画数文字
識別部52に出力する。
(A) Tablet 1 As in the first embodiment, the tablet 1 has a writing data sequence {(x i , y i ), i = 1, 2, ..., N j } of coordinate sequences.
Is extracted and sent to the preprocessing unit 2. (B) Pre-Processing Unit 2 As in the first embodiment, the pre-processing unit 2 smoothes the writing data of the coordinate sequence, and the online system feature extraction unit 3
The smoothed writing data string is output to the pattern memory conversion unit 7, and the stroke number is output to the high stroke number character identifying unit 36 and the low stroke number character identifying unit 52.

【0104】(c) オンライン方式特徴抽出部3 オンライン方式特徴抽出部3は、前処理部2の出力か
ら、第1の実施形態と同様に、例えば、直線近似化処理
を施して特徴点を抽出する。そして、ストローク数によ
る大分類を行い、文字辞書の認識対象の文字の部分パタ
ーンのカット位置から筆記文字の部分パターンを求め、
部分パターン間ベクトルを算出して、文字辞書の部分パ
ターン間ベクトルと筆記文字の部分パターン間ベクトル
のマッチング距離dvec を算出し、dvec とVECREJとを
比較して中分類を行う。更に、中分類で残った認識対象
の文字の部分パターンに従って、筆記文字のQ値を部分
パターン毎に求める。
(C) Online Method Feature Extraction Unit 3 The online method feature extraction unit 3 extracts the feature points from the output of the preprocessing unit 2 by performing, for example, linear approximation processing, as in the first embodiment. To do. Then, the stroke pattern is roughly classified, and the partial pattern of the written character is obtained from the cut position of the partial pattern of the character to be recognized in the character dictionary.
A vector between the partial patterns is calculated, a matching distance d vec between the vector between the partial patterns of the character dictionary and a vector between the partial patterns of the written character is calculated, and d vec is compared with VECREJ to perform the middle classification. Further, the Q value of the written character is obtained for each partial pattern in accordance with the partial pattern of the recognition target character remaining in the middle classification.

【0105】(d) オンライン方式マッチング部4 オンライン方式マッチング部4は、オンライン方式特徴
抽出部3の出力を受けて、第1の実施形態と同様に、マ
ッチング距離dBPをQ値から算出し、dvec とdBPから
マッチング距離値dを算出して、高画数文字識別部36
に出力する。 (e) 部分パターンパターンメモリ変換部31 部分パターンパターンメモリ変換部31は、オンライン
方式特徴抽出部3から、文字を構成する部分パターンの
カット位置とそれに対応する座標データ列を受けて、第
3の実施形態と同様に、部分パターン毎にパターンメモ
リへの変換処理を行う。
(D) Online system matching unit 4 The online system matching unit 4 receives the output of the online system feature extraction unit 3 and calculates the matching distance d BP from the Q value, as in the first embodiment. The matching distance value d is calculated from d vec and d BP , and the high stroke character identifying unit 36
Output to (E) Partial pattern pattern memory conversion unit 31 The partial pattern pattern memory conversion unit 31 receives a cut position of a partial pattern forming a character and a corresponding coordinate data string from the online system feature extraction unit 3, Similar to the embodiment, the conversion process to the pattern memory is performed for each partial pattern.

【0106】(f) 部分パターン輪郭抽出部32 部分パターン輪郭抽出部32は、部分パターンパターン
メモリ変換部31の出力する各パターンメモリを読み出
して、第3の実施形態と同様に、各部分パターンの輪郭
抽出処理を行い、輪郭情報を部分パターンオフライン方
式特徴抽出部33に出力する。 (g) 部分パターンオフライン方式特徴抽出部33 部分パターンオフライン方式特徴抽出部33は、第3の
実施形態と同様に、部分パターン輪郭抽出部32の出力
する部分パターン数分の輪郭データを受けて、それぞれ
の輪郭データから、水平、垂直、45°、−45°の成
分の16個の特徴量qBk,0 〜qBk,15(k=1,2,…,BP
N,BPN は部分パターン数) を求めて、部分パターンオ
フライン方式マッチング部34に出力する。
(F) Partial pattern contour extraction unit 32 The partial pattern contour extraction unit 32 reads out each pattern memory output from the partial pattern pattern memory conversion unit 31 and, as in the third embodiment, reads out each partial pattern. The contour extraction processing is performed, and the contour information is output to the partial pattern offline method feature extraction unit 33. (G) Partial Pattern Offline Method Feature Extraction Unit 33 The partial pattern offline method feature extraction unit 33 receives contour data for the number of partial patterns output from the partial pattern contour extraction unit 32, as in the third embodiment. From each contour data, 16 feature quantities of horizontal, vertical, 45 °, and −45 ° components qB k, 0 to qB k, 15 (k = 1,2, ..., BP
(N and BPN are the number of partial patterns) and output to the partial pattern offline method matching unit 34.

【0107】(h) 部分パターンオフライン方式マッ
チング部34 部分パターンオフライン方式マッチング部34は、第3
の実施形態と同様に、部分パターンオフライン方式特徴
抽出部33の出力する部分パターン毎の特徴量qBk,0
〜qBk,15(k=1,2,…,BPN)と、部分パターンオフライ
ン方式認識辞書35に予め登録してあるマッチング対象
の部分パターン毎の特徴量qB* k,0 〜qB* k,15(k=
1,2,…,BPN)との、部分パターンオフライン方式マッチ
ング距離値ddbを算出して出力する。 (i) 高画数文字識別部36 高画数文字識別部36は、オンライン方式マッチング部
4の出力dk と、部分パターンオフライン方式マッチン
グ部34の出力ddbk とから、式(47)により新し
い距離値dhighk を求めて小さい順にソーティングし、
画数が高画数だと判断できたときは、対応する文字コー
ドを出力端子13から出力し、図示しない表示器などに
表示する。高画数だと判断できないときは、何も出力し
ない。ここで、画数が高画数だと判断するのは、抽出す
る特徴パラメータにより異なると思われるが、ここでは
7画以上の文字を高画数だとする。
(H) Partial pattern offline system matching unit 34 The partial pattern offline system matching unit 34
Similar to the above embodiment, the feature quantity qB k, 0 for each partial pattern output from the partial pattern offline method feature extraction unit 33.
˜qB k, 15 (k = 1,2, ..., BPN) and the feature quantities qB * k, 0 ˜qB * k, for each matching target partial pattern registered in advance in the partial pattern offline method recognition dictionary 35 . 15 (k =
1, 2, ..., BPN) and a partial pattern offline method matching distance value ddb is calculated and output. (I) High stroke number character identification unit 36 The high stroke number character identification unit 36 uses the output d k of the online method matching unit 4 and the output ddb k of the partial pattern offline method matching unit 34 to calculate a new distance value according to Expression (47). d highk is sorted and sorted in ascending order,
When it is determined that the number of strokes is high, the corresponding character code is output from the output terminal 13 and displayed on a display (not shown) or the like. If it cannot be determined that the number of strokes is high, nothing is output. Here, it is considered that the number of strokes is high depending on the characteristic parameter to be extracted, but here it is assumed that characters with 7 strokes or more are high strokes.

【0108】(j) パターンメモリ変換部7 パターンメモリ変換部7は、前処理部2の出力データの
特徴点の座標データ列{Xi ,Yi }を受けて、第1の
実施形態と同様に、2次元の配列PM(x,y) に変換し、
輪郭抽出部8に出力する。 (k) 輪郭抽出部8 輪郭抽出部8は、パターンメモリ変換部7の出力PM
(x,y) を受けて、第1の実施形態と同様に、例えば、輪
郭追跡して輪郭データを抽出する。 (l) オフライン方式特徴抽出部9 オフライン方式特徴抽出部9は、輪郭抽出部8にて抽出
した輪郭データを得て、第1の実施形態と同様に、例え
ば、水平成分、垂直成分、45°成分、−45°成分の
0 〜q15を求める。
(J) Pattern memory conversion unit 7 The pattern memory conversion unit 7 receives the coordinate data string {X i , Y i } of the feature points of the output data of the preprocessing unit 2 and is the same as in the first embodiment. To a two-dimensional array PM (x, y),
It is output to the contour extraction unit 8. (K) Contour extraction unit 8 The contour extraction unit 8 outputs the output PM of the pattern memory conversion unit 7.
Upon receiving (x, y), for example, contour tracing is performed to extract contour data, as in the first embodiment. (L) Off-line method feature extraction unit 9 The off-line method feature extraction unit 9 obtains the contour data extracted by the contour extraction unit 8 and, for example, as in the first embodiment, the horizontal component, the vertical component, 45 °, for example. The components, q 0 to q 15 , of the −45 ° component are obtained.

【0109】(m) オフライン方式マッチング部10 オフライン方式マッチング部10は、第1の実施形態と
同様に、認識対象範囲を含む文字についての基準特徴量
0 * 〜q15 * をそれぞれ格納しているオフライン方式
認識辞書11と、輪郭データから算出したパターンメモ
リの特徴量q0〜q15とを、逐次比較することにより、
両者間の差、すなわち、マッチング距離ddを算出して
出力する。
(M) Off-line Method Matching Section 10 The off-line method matching section 10 stores the reference feature quantities q 0 * to q 15 * for the characters including the recognition target range, as in the first embodiment. By sequentially comparing the offline method recognition dictionary 11 and the feature quantities q 0 to q 15 of the pattern memory calculated from the contour data,
The difference between the two, that is, the matching distance dd is calculated and output.

【0110】(n) 低画数文字識別部52 低画数文字識別部52は、前処理部2の出力する画数を
受けて、画数が低画数であると判断したとき、第7の実
施形態と同様に、オフライン方式マッチング部10の出
力ddk と、部分パターンオフライン方式マッチング部
34の出力ddbk とを受けて、式(49)より低画数
文字のマッチング距離dlowkを算出し、小さい順にソー
ティングして、対応する文字コードを出力端子13から
出力し、図示しない表示器などに表示する。低画数だと
判断できないときは、何も出力しない。
(N) Low Stroke Number Character Identification Unit 52 When the low stroke number character identification unit 52 receives the stroke number output from the preprocessing unit 2 and determines that the stroke number is low, it is the same as in the seventh embodiment. to the output dd k offline mode matching unit 10 receives an output ddb k partial pattern offline mode matching unit 34 calculates a matching distance d low k low strokes character from the equation (49), sorted in ascending order Then, the corresponding character code is output from the output terminal 13 and displayed on a display device (not shown) or the like. If it cannot be determined that the stroke count is low, nothing is output.

【0111】ここで、画数が低画数だと判断するのは、
抽出する特徴パラメータにより異なると思われるのが、
ここでは高画数文字識別部36で7画以上の文字を高画
数だとしたので、6画以下の文字を低画数文字とする。
以上説明したように、本第9の実施形態によれば、高画
数文字については、第3の実施形態と同様の利点があ
り、低画数文字については、第7の実施形態と同様の利
点がある。
Here, it is determined that the stroke number is low
It seems that it depends on the feature parameters to be extracted,
Here, since the high stroke number character identifying unit 36 determines that the characters having 7 strokes or more have a high stroke number, the characters having 6 strokes or less are set as the low stroke number characters.
As described above, according to the ninth embodiment, the high stroke number character has the same advantages as those of the third embodiment, and the low stroke number character has the same advantages as those of the seventh embodiment. is there.

【0112】第10の実施形態 図19は、本発明の第10の実施形態のオンライン手書
き文字認識装置を示す構成図であり、図1中の要素に共
通する要素には共通の符号を付してある。本第10の実
施形態のオンライン手書き文字認識装置が第1の実施形
態のオンライン手書き文字認識装置と異なる点は、高画
数文字、低画数文字のいずれの場合においても、オフラ
イン方式マッチング部10の出力から、文字認識を行う
ようにしたことである。図19に示すように、本第10
の実施形態のオンライン手書き文字認識装置は、タブレ
ット1、前処理部2、パターンメモリ変換部7、輪郭抽
出部8、オフライン方式特徴抽出部9、オフライン方式
マッチング部10、オフライン方式辞書11、識別部6
1、及び出力端子13を備えている。
Tenth Embodiment FIG. 19 is a block diagram showing an online handwritten character recognition apparatus according to the tenth embodiment of the present invention. Elements common to those in FIG. 1 are designated by common reference numerals. There is. The difference between the online handwritten character recognition device according to the tenth embodiment and the online handwritten character recognition device according to the first embodiment is that the output of the offline method matching unit 10 is performed regardless of whether the high stroke number character or the low stroke number character is used. Therefore, the character recognition is performed. As shown in FIG. 19, the tenth book
The online handwritten character recognition device according to the embodiment of the present invention includes a tablet 1, a preprocessing unit 2, a pattern memory conversion unit 7, a contour extraction unit 8, an offline system feature extraction unit 9, an offline system matching unit 10, an offline system dictionary 11, and an identification unit. 6
1, and an output terminal 13.

【0113】タブレット1の出力側は、前処理部2の入
力側に接続されている。前処理部2の出力側は、パター
ンメモリ変換部7の入力側に接続されている。パターン
メモリ変換部7の出力側は、輪郭抽出部8の入力側に接
続されている。輪郭抽出部8の出力側は、オフライン方
式特徴抽出部9の入力側に接続されている。オフライン
方式特徴抽出部9及びオフライン方式認識辞書1の出力
側は、オフライン方式マッチング部10の入力側に接続
されている。オフライン方式マッチング部10の出力側
は、識別部61の入力側に接続されている。以下、図1
9の各部の動作(a)〜(g)の説明をする。
The output side of the tablet 1 is connected to the input side of the preprocessing section 2. The output side of the preprocessing unit 2 is connected to the input side of the pattern memory conversion unit 7. The output side of the pattern memory conversion unit 7 is connected to the input side of the contour extraction unit 8. The output side of the contour extraction unit 8 is connected to the input side of the offline system feature extraction unit 9. The output sides of the offline method feature extraction unit 9 and the offline method recognition dictionary 1 are connected to the input side of the offline method matching unit 10. The output side of the off-line method matching unit 10 is connected to the input side of the identification unit 61. Hereinafter, FIG.
The operations (a) to (g) of each unit of 9 will be described.

【0114】(a) タブレット1 タブレット1は、第1の実施形態と同様に、座標列の筆
記データ列{(xi ,yi ),i=1,2,…,nj
を抽出して、前処理部2に送る。 (b) 前処理部2 前処理部2は、第1の実施形態と同様に、座標列の筆記
データに対して平滑化し、オンライン方式特徴抽出部3
及びパターンメモリ変換部7へ平滑化後の筆記データ列
を出力する。 (c) パターンメモリ変換部7 パターンメモリ変換部7は、前処理部2の出力データの
特徴点の座標データ列{Xi ,Yi }を受けて、第1の
実施形態と同様に、2次元の配列PM(x,y) に変換し、
輪郭抽出部8に出力する。
(A) Tablet 1 As in the first embodiment, the tablet 1 has a coordinate data writing data string {(x i , y i ), i = 1, 2, ..., N j }.
Is extracted and sent to the preprocessing unit 2. (B) Pre-Processing Unit 2 As in the first embodiment, the pre-processing unit 2 smoothes the writing data of the coordinate sequence, and the online system feature extraction unit 3
The smoothed writing data string is output to the pattern memory conversion unit 7. (C) Pattern memory conversion unit 7 The pattern memory conversion unit 7 receives the coordinate data string {X i , Y i } of the feature points of the output data of the pre-processing unit 2 and, as in the first embodiment, 2 Convert to the dimension array PM (x, y),
It is output to the contour extraction unit 8.

【0115】(d) 輪郭抽出部8 輪郭抽出部8は、パターンメモリ変換部7の出力PM
(x,y) を受けて、第1の実施形態と同様に、輪郭追跡し
て輪郭情報を輪郭として抽出する。 (e) オフライン方式特徴抽出部9 オフライン方式特徴抽出部9は、輪郭抽出部8にて抽出
した輪郭データを得て、第1の実施形態と同様に、水平
成分、垂直成分、45°成分、−45°成分のq0 〜q
15を求める。 (f) オフライン方式マッチング部10 オフライン方式マッチング部10は、第1の実施形態と
同様に、認識対象範囲を含む文字についての基準特徴量
0 * 〜q15 * をそれぞれ格納しているオフライン方式
認識辞書11と、輪郭データから算出したパターンメモ
リの特徴量q0〜q15とを、逐次比較することにより、
両者間の差、すなわち、マッチング距離ddを算出して
出力する。
(D) Contour Extraction Unit 8 The contour extraction unit 8 outputs the output PM of the pattern memory conversion unit 7.
Upon receiving (x, y), contour tracing is performed and contour information is extracted as a contour, as in the first embodiment. (E) Off-line method feature extraction unit 9 The off-line method feature extraction unit 9 obtains the contour data extracted by the contour extraction unit 8 and then, similarly to the first embodiment, a horizontal component, a vertical component, a 45 ° component, Q 0 to q of −45 ° component
Ask for 15 . (F) Offline Method Matching Unit 10 The offline method matching unit 10 stores the reference feature quantities q 0 * to q 15 * for the characters including the recognition target range, respectively, as in the first embodiment. By sequentially comparing the recognition dictionary 11 and the feature quantities q 0 to q 15 of the pattern memory calculated from the contour data,
The difference between the two, that is, the matching distance dd is calculated and output.

【0116】(g) 識別部61 識別部61は、オフライン方式マッチング部10の出力
するマッチング距離を小さい順にソーティングし、対応
する文字コードを出力端子13に出力する。以上説明し
たように、本第10の実施形態によれば、パターンメモ
リ変換部7、輪郭抽出部8、オフライン方式特徴抽出部
9及び識別部61を設けたので、高画数文字及び低画数
文字について、画数及び筆順に依存しなくなる。
(G) Discriminating Unit 61 The discriminating unit 61 sorts the matching distances output by the off-line method matching unit 10 in ascending order, and outputs the corresponding character codes to the output terminal 13. As described above, according to the tenth embodiment, since the pattern memory conversion unit 7, the contour extraction unit 8, the off-line method feature extraction unit 9, and the identification unit 61 are provided, regarding the high stroke number character and the low stroke number character. , No longer depends on stroke count and stroke order.

【0117】第11の実施形態 図20は、本発明の第11の実施形態のオンライン手書
き文字認識装置を示す構成図であり、図10中の要素に
共通する要素には共通の符号を付してある。本第11の
実施形態のオンライン手書き文字認識装置が第10の実
施形態のオンライン手書き文字認識装置と異なる点は、
高画数文字、低画数文字のいずれの場合においても、入
力文字と同じ画数のオフライン方式認識辞書71に格納
された認識対象の文字とのマッチング距離を算出するよ
うにしたことである。図20に示すように、本第11の
実施形態のオンライン手書き文字認識装置は、タブレッ
ト1、前処理部2、パターンメモリ変換部7、輪郭抽出
部8、オフライン方式特徴抽出部9、オフライン方式マ
ッチング部70、オフライン方式認識辞書71、識別部
61、及び出力端子13を備えている。タブレット1の
出力側は、前処理部2の入力側に接続されている。前処
理部2の出力側は、パターンメモリ変換部7及びオフラ
イン方式マッチング部70の入力側に接続されている。
パターンメモリ変換部7の出力側は、輪郭抽出部8の入
力側に接続されている。
Eleventh Embodiment FIG. 20 is a block diagram showing an online handwritten character recognition device according to an eleventh embodiment of the present invention. Elements common to those in FIG. 10 are designated by common reference numerals. There is. The point that the online handwritten character recognition device of the 11th embodiment differs from the online handwritten character recognition device of the 10th embodiment is that
In either case of the high stroke number character or the low stroke number character, the matching distance with the character to be recognized stored in the offline method recognition dictionary 71 having the same stroke number as the input character is calculated. As shown in FIG. 20, the online handwritten character recognition device according to the eleventh embodiment includes a tablet 1, a preprocessing unit 2, a pattern memory conversion unit 7, a contour extraction unit 8, an offline system feature extraction unit 9, and an offline system matching. It includes a unit 70, an offline system recognition dictionary 71, an identification unit 61, and an output terminal 13. The output side of the tablet 1 is connected to the input side of the preprocessing unit 2. The output side of the preprocessing unit 2 is connected to the input sides of the pattern memory conversion unit 7 and the offline system matching unit 70.
The output side of the pattern memory conversion unit 7 is connected to the input side of the contour extraction unit 8.

【0118】輪郭抽出部8の出力側は、オフライン方式
特徴抽出部9の入力側に接続されている。オフライン方
式特徴抽出部9及びオフライン方式認識辞書71の出力
側は、オフライン方式マッチング部70の入力側に接続
されている。オフライン方式マッチング部70の出力側
は、識別部61の入力側に接続されている。オフライン
方式認識辞書71には、認識対象の文字パターンのオフ
ライン特徴量(例えば、基準特徴量q* 0 〜q* 15)が
画数とともに格納されている。以下、図20の各部の動
作(a)〜(g)の説明をする。
The output side of the contour extraction unit 8 is connected to the input side of the offline system feature extraction unit 9. The output sides of the offline system feature extraction unit 9 and the offline system recognition dictionary 71 are connected to the input side of the offline system matching unit 70. The output side of the off-line method matching unit 70 is connected to the input side of the identification unit 61. The offline method recognition dictionary 71 stores the offline feature amount (for example, the reference feature amount q * 0 to q * 15 ) of the character pattern to be recognized together with the stroke number. Hereinafter, operations (a) to (g) of each unit of FIG. 20 will be described.

【0119】(a) タブレット1 タブレット1は、第1の実施形態と同様に、座標列の筆
記データ列{(xi ,yi ),i=1,2,…,nj
を抽出して、前処理部2に送る。 (b) 前処理部2 前処理部2は、第1の実施形態と同様に、座標列の筆記
データに対して平滑化し、パターンメモリ変換部7に、
平滑化した筆記データを出力し、オフライン方式マッチ
ング部70に画数を出力する。 (c) パターンメモリ変換部7 パターンメモリ変換部7は、前処理部2の出力データの
特徴点の座標データ列{Xi ,Yi }を受けて、第1の
実施形態と同様に、2次元の配列PM(x,y) に変換し、
輪郭抽出部8に出力する。
(A) Tablet 1 As with the first embodiment, the tablet 1 has a writing data sequence {(x i , y i ), i = 1, 2, ..., N j } of coordinate sequences.
Is extracted and sent to the preprocessing unit 2. (B) Pre-Processing Unit 2 As in the first embodiment, the pre-processing unit 2 smoothes the writing data of the coordinate sequence, and the pattern memory converting unit 7
The smoothed writing data is output and the number of strokes is output to the off-line method matching unit 70. (C) Pattern memory conversion unit 7 The pattern memory conversion unit 7 receives the coordinate data string {X i , Y i } of the feature points of the output data of the pre-processing unit 2 and, as in the first embodiment, 2 Convert to the dimension array PM (x, y),
It is output to the contour extraction unit 8.

【0120】(d) 輪郭抽出部8 輪郭抽出部8は、パターンメモリ変換部7の出力PM
(x,y) を受けて、2値化された入力文字パータンの輪郭
を抽出して輪郭情報を出力する。 (e) オフライン方式特徴抽出部9 オフライン方式特徴抽出部9は、輪郭抽出部8にて抽出
した輪郭データ{xij,i=1,2,…,j=1,2,…}を得て、
第1の実施形態と同様に、水平成分、垂直成分、+45
°成分、−45°成分に対して、q0 〜q15の特徴量を
求める。 (f) オフライン方式マッチング部70 オフライン方式マッチング部70は、オフライン方式特
徴抽出部9の出力である特徴量と、前処理部2の出力で
ある画数とを受けて、オフライン方式認識辞書71とマ
ッチングを行う際に、入力パターンの画数と一致する文
字のみマッチング処理を施して認識部61に出力する。
(D) Contour extraction unit 8 The contour extraction unit 8 outputs the output PM of the pattern memory conversion unit 7.
Upon receiving (x, y), the contour of the binarized input character pattern is extracted and contour information is output. (E) Off-line method feature extraction unit 9 The off-line method feature extraction unit 9 obtains the contour data {x ij , i = 1,2, ..., j = 1,2, ...} extracted by the contour extraction unit 8. ,
Similar to the first embodiment, the horizontal component, the vertical component, +45
The feature values of q 0 to q 15 are obtained for the ° component and the −45 ° component. (F) Off-line method matching unit 70 The off-line method matching unit 70 receives the feature amount output from the off-line method feature extraction unit 9 and the number of strokes output from the pre-processing unit 2, and matches the off-line method recognition dictionary 71. When performing, the matching process is performed only on the characters that match the number of strokes of the input pattern, and the characters are output to the recognition unit 61.

【0121】(g) 識別部61 識別部61は、オフライン方式マッチング部10の出力
するマッチング距離を小さい順にソーティングし、対応
する文字コードを出力端子13に出力する。以上説明し
たように、本第11の実施形態によれば、第10の実施
形態と同様の利点がある。その上、前処理部2から画数
をオフライン方式マッチング部70に出力して、入力パ
ターンの画数と一致する文字のみマッチング処理をする
ようにしたので、第10の実施形態よりも処理速度が向
上する。なお、本発明は、上記実施形態に限定されず、
種々の変形が可能である。その変形例としては、例え
ば、次の(1)〜(7)のようなものがある。
(G) Discriminating Unit 61 The discriminating unit 61 sorts the matching distances output from the off-line method matching unit 10 in ascending order, and outputs the corresponding character codes to the output terminal 13. As described above, the eleventh embodiment has the same advantages as the tenth embodiment. In addition, the number of strokes is output from the preprocessing unit 2 to the off-line method matching unit 70 so that only the characters that match the number of strokes of the input pattern are matched, so that the processing speed is improved as compared with the tenth embodiment. . The present invention is not limited to the above embodiment,
Various modifications are possible. For example, there are the following modifications (1) to (7).

【0122】(1) 第1〜第11の実施形態のオフラ
イン方式特徴抽出部9、及びオフライン方式マッチング
部10における処理は、光学式文字認識装置などで用い
られている他の方法によるものでもよい。 (2) 第1〜第9の実施形態のオンライン方式特徴抽
出部3、及びオンライン方式マッチング部4の処理は、
他の処理であってもよい。 (3) 高画数文字識別部6,26,36は、算出した
マッチング距離を元に、更に、ストロークの分布を示す
ストロークコード分布により分類して、文字認識を行う
ようにしてもよい。 (4) 高画数文字識別部6,26,36は、オンライ
ン方式マッチング部4の出力dk と、オフライン方式マ
ッチング部10の出力ddk と、部分パターンオフライ
ン方式マッチング部34の出力ddbk とから、重み係
数を掛けて、マッチング距離を算出して文字認識をして
もよい。
(1) The processing in the offline system feature extraction unit 9 and the offline system matching unit 10 of the first to eleventh embodiments may be performed by another method used in an optical character recognition device or the like. . (2) The processes of the online method feature extraction unit 3 and the online method matching unit 4 of the first to ninth embodiments are
Other processing may be used. (3) The high stroke number character identifying units 6, 26 and 36 may perform character recognition by further classifying based on the calculated matching distances by a stroke code distribution indicating a stroke distribution. (4) High Strokes character identification unit 6,26,36 from an output d k of the online mode matching unit 4, an output dd k offline mode matching unit 10, an output ddb k partial pattern offline mode matching unit 34 , The weighting coefficient may be multiplied to calculate the matching distance for character recognition.

【0123】(5) 低画数文字識別部12,42,5
2は、オフライン方式マッチング部10の出力dd
k と、部分パターンオフライン方式マッチング部34の
出力ddbk と、オンライン方式マッチング部4の出力
k とから、重み係数を掛けて、マッチング距離を算出
して文字認識をしてもよい。 (6) 第7の実施形態において、パターンメモリ変換
部7、輪郭抽出部8、オフライン方式特徴抽出部9、オ
フライン方式マッチング部10、及びオフライン方式認
識辞書11を無くして、低画数文字識別部52は、部分
パターンオフライン方式マッチング部34から出力され
るマッチング距離のみから、文字認識を行うようにして
もよい。 (7) 第10、第11の実施形態において、パターン
メモリ変換部7、輪郭抽出部8、オフライン方式特徴抽
出部9、オフライン方式マッチング部10、及びオフラ
イン方式認識辞書11を無くして、識別部61は、第7
の実施形態と同様に構成された部分パターンオフライン
方式マッチング部34から出力されるマッチング距離か
ら、文字認識を行うようにしてもよい。
(5) Low stroke number character identification section 12, 42, 5
2 is the output dd of the off-line method matching unit 10.
and k, and the output ddb k partial pattern offline mode matching unit 34, and an output d k of the online mode matching unit 4 is multiplied by the weighting factor may be the character recognition by calculating a matching distance. (6) In the seventh embodiment, the pattern memory conversion unit 7, the contour extraction unit 8, the offline system feature extraction unit 9, the offline system matching unit 10, and the offline system recognition dictionary 11 are eliminated, and the low stroke number character identification unit 52 is provided. May perform character recognition only from the matching distance output from the partial pattern offline method matching unit 34. (7) In the tenth and eleventh embodiments, the pattern memory conversion unit 7, the contour extraction unit 8, the offline system feature extraction unit 9, the offline system matching unit 10, and the offline system recognition dictionary 11 are eliminated and the identification unit 61 is provided. Is the 7th
Character recognition may be performed based on the matching distance output from the partial pattern offline method matching unit 34 configured in the same manner as in the above embodiment.

【0124】[0124]

【発明の効果】以上詳細に説明したように、第1〜第1
2の発明のオンライン手書き文字認識装置によれば、低
画数文字については、筆記文字のオフライン特徴量に基
づいて、文字認識を行うようにしたので、画数、筆順に
依存しなくなり、認識率を向上させることができる。
As described in detail above, first to first
According to the online handwritten character recognition device of the invention of 2, the character recognition is performed for the low stroke number character based on the offline feature amount of the written character, so that it does not depend on the stroke number and stroke order, and the recognition rate is improved. Can be made.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施形態のオンライン手書き文
字認識装置の構成図である。
FIG. 1 is a configuration diagram of an online handwritten character recognition device according to a first embodiment of the present invention.

【図2】前処理部の動作説明図である。FIG. 2 is an operation explanatory diagram of a preprocessing unit.

【図3】文字辞書の一例を示す図である。FIG. 3 is a diagram showing an example of a character dictionary.

【図4】部分パターン間ベクトルの説明図である。FIG. 4 is an explanatory diagram of vectors between partial patterns.

【図5】“逢”の部分パターン間ベクトルのマッチング
距離dvecの算出の説明図である。
FIG. 5 is an explanatory diagram of calculation of a matching distance d vec of an inter-partial pattern vector of “a”.

【図6】オンライン方式認識辞書の一例を示す図であ
る。
FIG. 6 is a diagram showing an example of an online system recognition dictionary.

【図7】パターンメモリ変換処理を示す図である。FIG. 7 is a diagram showing pattern memory conversion processing.

【図8】パターンメモリ変換の例を示す図である。FIG. 8 is a diagram showing an example of pattern memory conversion.

【図9】輪郭抽出部の動作説明図である。FIG. 9 is an operation explanatory diagram of a contour extracting unit.

【図10】輪郭データの成分分類を示す図である。FIG. 10 is a diagram showing component classification of contour data.

【図11】本発明の第2の実施形態のオンライン手書き
文字認識装置の構成図である。
FIG. 11 is a configuration diagram of an online handwritten character recognition device according to a second embodiment of the present invention.

【図12】本発明の第3の実施形態のオンライン手書き
文字認識装置の構成図である。
FIG. 12 is a configuration diagram of an online handwritten character recognition device according to a third embodiment of the present invention.

【図13】本発明の第4の実施形態のオンライン手書き
文字認識装置の構成図である。
FIG. 13 is a configuration diagram of an online handwritten character recognition device according to a fourth embodiment of the present invention.

【図14】本発明の第5の実施形態のオンライン手書き
文字認識装置の構成図である。
FIG. 14 is a configuration diagram of an online handwritten character recognition device according to a fifth embodiment of the present invention.

【図15】本発明の第6の実施形態のオンライン手書き
文字認識装置の構成図である。
FIG. 15 is a configuration diagram of an online handwritten character recognition device according to a sixth embodiment of the present invention.

【図16】本発明の第7の実施形態のオンライン手書き
文字認識装置の構成図である。
FIG. 16 is a configuration diagram of an online handwritten character recognition device according to a seventh embodiment of the present invention.

【図17】本発明の第8の実施形態のオンライン手書き
文字認識装置の構成図である。
FIG. 17 is a configuration diagram of an online handwritten character recognition device according to an eighth embodiment of the present invention.

【図18】本発明の第9の実施形態のオンライン手書き
文字認識装置の構成図である。
FIG. 18 is a configuration diagram of an online handwritten character recognition device according to a ninth embodiment of the present invention.

【図19】本発明の第10の実施形態のオンライン手書
き文字認識装置の構成図である。
FIG. 19 is a configuration diagram of an online handwritten character recognition device according to a tenth embodiment of the present invention.

【図20】本発明の第11の実施形態のオンライン手書
き文字認識装置の構成図である。
FIG. 20 is a configuration diagram of an online handwritten character recognition device according to an eleventh embodiment of the present invention.

【符号の説明】 1 タブレット 2 前処理部 3 オンライン方式特徴抽出部 4 オンライン方式マッチング
部 5 オンライン方式認識辞書 6,26,36 高画数文字識別部 7 パターンメモリ変換部 8 輪郭抽出部 9 オフライン方式特徴抽出部 10,70 オフライン方式マッチング
部 11,71 オフライン方式認識辞書 12,42,52 低画数文字識別部 13 出力端子 31 部分パターンパターンメモ
リ変換部 32 部分バターン輪郭抽出部 33 部分パターンオフライン方
式特徴抽出部 34 部分パターンオフライン方
式マッチング部 35 部分パターンオフライン方
式認識辞書 61 識別部
[Explanation of symbols] 1 tablet 2 pre-processing unit 3 online system feature extraction unit 4 online system matching unit 5 online system recognition dictionary 6, 26, 36 high stroke number character identification unit 7 pattern memory conversion unit 8 contour extraction unit 9 offline system feature Extraction unit 10,70 Offline system matching unit 11,71 Offline system recognition dictionary 12,42,52 Low stroke number character identification unit 13 Output terminal 31 Partial pattern pattern memory conversion unit 32 Partial pattern contour extraction unit 33 Partial pattern offline system feature extraction unit 34 Partial pattern offline system matching unit 35 Partial pattern offline system recognition dictionary 61 Identification unit

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 タブレットに筆記入力して得られた筆記
文字の座標列の不要データを除去して平滑化を行う前処
理部と、 前記前処理部により平滑化された座標データ列から前記
筆記文字の特徴量を抽出するオンライン方式特徴抽出部
と、 前記オンライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオンライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオンライン方式マッチング部と、 前記筆記文字のストローク数により得られる画数が所定
の画数以上の時に、前記オンライン方式マッチング部か
ら出力されるマッチング距離に基づき、文字認識を行う
高画数文字識別部と、 前記前処理部により平滑化された座標データ列から得ら
れる前記筆記文字全体を含む領域を縦と横に複数の領域
に分割して、前記複数の各領域が前記筆記文字の一部を
含むか否かを判別して、その各領域に2値化データを割
り当てて、パターンメモリに格納するパターンメモリ変
換部と、 前記パターンメモリを読み込み輪郭データを抽出する輪
郭抽出部と、 前記輪郭抽出部より得られた輪郭データから前記筆記文
字の特徴量を抽出するオフライン方式特徴抽出部と、 前記オフライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオフライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオフライン方式マッチング部と、 前記筆記文字のストローク数による得られる画数が前記
所定の画数よりも小さい時に、前記オフライン方式マッ
チング部から出力される前記マッチング距離に基づい
て、文字認識を行う低画数文字識別部とを、 備えたことを特徴とするオンライン手書き文字認識装
置。
1. A pre-processing unit for smoothing by removing unnecessary data of a coordinate sequence of handwritten characters obtained by writing on a tablet, and the handwriting from the coordinate data sequence smoothed by the pre-processing unit. An online method feature extraction unit for extracting a character feature amount; a feature amount of the written character obtained by the online method feature extraction unit; and a feature amount of a recognition target character stored in advance in an online method recognition dictionary. An online method matching unit that calculates a matching distance, and a high stroke number character that performs character recognition based on the matching distance output from the online method matching unit when the stroke number obtained by the number of strokes of the written character is a predetermined stroke number or more. An identification unit and a region including the entire written character obtained from the coordinate data string smoothed by the pre-processing unit are divided into a plurality of regions vertically and horizontally. A pattern memory conversion unit that determines whether or not each of the plurality of regions includes a part of the writing character, allocates binarized data to each region, and stores the binarized data in a pattern memory. A contour extraction unit that reads the pattern memory and extracts contour data, an offline method feature extraction unit that extracts the feature amount of the written character from the contour data obtained by the contour extraction unit, and an offline method feature extraction unit The offline method matching unit that calculates the matching distance between the feature amount of the written character and the feature amount of the recognition target character that is stored in advance in the offline method recognition dictionary, and the number of strokes obtained by the stroke number of the written character is When the number of strokes is smaller than the predetermined number of strokes, character recognition is performed based on the matching distance output from the offline matching unit. Online handwriting recognition apparatus characterized by a low number of strokes character identifying unit, comprising the performing.
【請求項2】 タブレットに筆記入力して得られた筆記
文字の座標列の不要データを除去して平滑化を行う前処
理部と、 前記前処理部により平滑化された座標データ列から前記
筆記文字の特徴量を抽出するオンライン方式特徴抽出部
と、 前記オンライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオンライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオンライン方式マッチング部と、 前記前処理部により平滑化された座標データ列から得ら
れる前記筆記文字全体を含む領域を縦と横に複数の領域
に分割して、前記複数の各領域が前記筆記文字の一部を
含むか否かを判別して、その各領域に2値化データを割
り当てて、パターンメモリに格納するパターンメモリ変
換部と、 前記パターンメモリを読み込み輪郭データを抽出する輪
郭抽出部と、 前記輪郭抽出部より得られた輪郭データから前記筆記文
字の特徴量を抽出するオフライン方式特徴抽出部と、 前記オフライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオフライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオフライン方式マッチング部と、 前記筆記文字のストローク数により得られる画数が所定
の画数以上の時に、前記オンライン方式マッチング部と
前記オフライン方式マッチング部とから出力される前記
マッチング距離に基づき、文字認識を行う高画数文字識
別部と、 前記筆記文字のストローク数による得られる画数が前記
所定の画数よりも小さい時に、前記オフライン方式マッ
チング部から出力される前記マッチング距離に基づい
て、文字認識を行う低画数文字識別部とを、 備えたことを特徴とするオンライン手書き文字認識装
置。
2. A preprocessing unit for smoothing by removing unnecessary data of a coordinate sequence of handwritten characters obtained by handwriting on a tablet, and the handwriting from the coordinate data sequence smoothed by the preprocessing unit. An online method feature extraction unit for extracting a character feature amount; a feature amount of the written character obtained by the online method feature extraction unit; and a feature amount of a recognition target character stored in advance in an online method recognition dictionary. An online matching unit that calculates a matching distance, and a region including the entire written character obtained from the coordinate data string smoothed by the preprocessing unit is divided into a plurality of regions vertically and horizontally, and each of the plurality of regions is divided. A pattern memory conversion unit that determines whether or not a region includes a part of the written character, allocates binarized data to each region, and stores the binarized data in a pattern memory; A contour extraction unit for reading the memory and extracting contour data, an offline method feature extraction unit for extracting the feature amount of the written character from the contour data obtained by the contour extraction unit, and an offline method feature extraction unit. An offline method matching unit that calculates a matching distance between the feature amount of the written character and the feature amount of the recognition target character that is stored in advance in the offline method recognition dictionary, and the number of strokes obtained by the stroke number of the written character is predetermined. When the number of strokes is greater than or equal to the number of strokes, based on the matching distance output from the online method matching unit and the offline method matching unit, a high stroke number character identification unit that performs character recognition, and the number of strokes obtained by the stroke number of the written character is Output from the offline matching unit when the number of strokes is smaller than a predetermined number. Based on the serial matching distance, and a low number of strokes character identification unit performing character recognition, on-line handwritten character recognition apparatus characterized by comprising.
【請求項3】 タブレットに筆記入力して得られた筆記
文字の座標列の不要データを除去して平滑化を行う前処
理部と、 前記前処理部により平滑化された座標データ列から前記
筆記文字の特徴量を抽出するオンライン方式特徴抽出部
と、 前記オンライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオンライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオンライン方式マッチング部と、 認識対象の文字が筆記される時に筆記上一連のものとし
て筆記する部分を示す部分パターンのストローク位置に
合わせて前記座標データ列に基づいて分けられた前記筆
記文字の各部分パターンを含む領域を縦と横に複数の領
域に分割して、前記複数の各領域が前記筆記文字の部分
パターンの一部を含むか否かを判別して、その各領域に
2値化データを割り当てて、部分パターン毎に部分パタ
ーンパターンメモリに格納する部分パターンパターンメ
モリ変換部と、 前記各部分パターンパターンメモリを読み込み、前記各
部分パターンの輪郭データを抽出する部分パターン輪郭
抽出部と、 前記部分パターン輪郭抽出部より得られた部分パターン
の輪郭データから前記筆記文字の部分パターンの特徴量
を抽出する部分パターンオフライン方式特徴抽出部と、 前記部分パターンオフライン方式特徴抽出部により得ら
れた前記筆記文字の特徴量と部分パターンオフライン方
式認識辞書に予め格納してある前記認識対象の文字の部
分パターンの特徴量とのマッチング距離を算出する部分
パターンオフライン方式マッチング部と、 前記筆記文字のストローク数による得られる画数が所定
の画数以上の時に、前記オンライン方式マッチング部と
前記部分パターンオフライン方式マッチング部とから出
力される前記マッチング距離に基づいて、文字認識を行
う高画数文字識別部と、 前記前処理部により平滑化された座標データ列から得ら
れる前記筆記文字全体を含む領域を縦と横に複数の領域
に分割して、前記複数の各領域が前記筆記文字の一部を
含むか否かを判別して、その各領域に2値化データを割
り当て、パターンメモリに格納するパターンメモリ変換
部と、 前記パターンメモリを読み込み輪郭データを抽出する輪
郭抽出部と、 前記輪郭抽出部より得られた輪郭データから前記筆記文
字の特徴量を抽出するオフライン方式特徴抽出部と、 前記オフライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオフライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオフライン方式マッチング部と、 前記筆記文字のストローク数による得られる画数が前記
所定の画数よりも小さい時に、前記オフライン方式マッ
チング部から出力される前記マッチング距離に基づい
て、文字認識を行う低画数文字識別部とを、 備えたことを特徴とするオンライン手書き文字認識装
置。
3. A preprocessing unit for smoothing by removing unnecessary data of a coordinate sequence of handwritten characters obtained by writing on a tablet, and the writing from the coordinate data sequence smoothed by the preprocessing unit. An online method feature extraction unit for extracting a character feature amount; a feature amount of the written character obtained by the online method feature extraction unit; and a feature amount of a recognition target character stored in advance in an online method recognition dictionary. An online matching unit that calculates a matching distance, and a division based on the coordinate data string according to the stroke position of a partial pattern that indicates a portion to be written as a series in writing when a character to be recognized is written A region including each partial pattern of the written character is vertically and horizontally divided into a plurality of regions, and each of the plurality of regions includes a part of the partial pattern of the written character. It is determined whether or not each of the areas is assigned binarized data, and the partial pattern pattern memory conversion unit that stores the partial pattern pattern memory in the partial pattern pattern memory, and the partial pattern pattern memories are read and A partial pattern contour extraction unit that extracts the contour data of the partial pattern; and a partial pattern offline method feature extraction unit that extracts the feature amount of the partial pattern of the written character from the contour data of the partial pattern obtained by the partial pattern contour extraction unit And calculating a matching distance between the feature amount of the written character obtained by the partial pattern offline type feature extraction unit and the feature amount of the partial pattern of the recognition target character stored in advance in the partial pattern offline type recognition dictionary. Partial pattern off-line matching section, and the writing character straw When the number of strokes obtained by the number of strokes is equal to or greater than a predetermined number of strokes, based on the matching distance output from the online method matching unit and the partial pattern offline method matching unit, a high stroke number character identification unit that performs character recognition, Whether the area including the entire written character obtained from the coordinate data string smoothed by the preprocessing unit is vertically and horizontally divided into a plurality of areas, and each of the plurality of areas includes a part of the written character. It is determined whether or not each area is assigned binarized data and stored in a pattern memory, a pattern memory conversion unit that reads the pattern memory and extracts contour data, and a contour extraction unit that obtains the contour data. An offline method feature extraction unit that extracts the feature amount of the written character from the contour data that has been written; and the brush obtained by the offline method feature extraction unit. An offline method matching unit that calculates a matching distance between the character amount of the written character and the character amount of the character to be recognized that is stored in advance in the offline method recognition dictionary, and the number of strokes obtained by the stroke number of the written character is the predetermined number. An online handwritten character recognition device, comprising: a low stroke number character identification unit that performs character recognition based on the matching distance output from the offline type matching unit when the number of strokes is smaller than the number of strokes.
【請求項4】 タブレットに筆記入力して得られた筆記
文字の座標列の不要データを除去して平滑化を行う前処
理部と、 前記前処理部により平滑化された座標データ列から前記
筆記文字の特徴量を抽出するオンライン方式特徴抽出部
と、 前記オンライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオンライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオンライン方式マッチング部と、 前記筆記文字のストローク数により得られる画数が所定
の画数以上の時に、前記オンライン方式マッチング部か
ら出力されるマッチング距離に基づき、文字認識を行う
高画数文字識別部と、 前記前処理部により平滑化された座標データ列から得ら
れる前記筆記文字全体を含む領域を縦と横に複数の領域
に分割して、前記複数の各領域が前記筆記文字の一部を
含むか否かを判別して、その各領域に2値化データを割
り当てて、パターンメモリに格納するパターンメモリ変
換部と、 前記パターンメモリを読み込み輪郭データを抽出する輪
郭抽出部と、 前記輪郭抽出部より得られた輪郭データから前記筆記文
字の特徴量を抽出するオフライン方式特徴抽出部と、 前記オフライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオフライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオフライン方式マッチング部と、 前記筆記文字のストローク数による得られる画数が前記
所定の画数よりも小さい時に、前記オンライン方式マッ
チング部と前記オフライン方式マッチング部とから出力
される前記マッチング距離に基づいて、文字認識を行う
低画数文字識別部とを、 備えたことを特徴とするオンライン手書き文字認識装
置。
4. A preprocessing unit for smoothing by removing unnecessary data of a coordinate sequence of handwritten characters obtained by writing on a tablet, and the handwriting from the coordinate data sequence smoothed by the preprocessing unit. An online method feature extraction unit for extracting a character feature amount; a feature amount of the written character obtained by the online method feature extraction unit; and a feature amount of a recognition target character stored in advance in an online method recognition dictionary. An online method matching unit that calculates a matching distance, and a high stroke number character that performs character recognition based on the matching distance output from the online method matching unit when the stroke number obtained by the number of strokes of the written character is a predetermined stroke number or more. An identification unit and a region including the entire written character obtained from the coordinate data string smoothed by the pre-processing unit are divided into a plurality of regions vertically and horizontally. A pattern memory conversion unit that determines whether or not each of the plurality of regions includes a part of the writing character, allocates binarized data to each region, and stores the binarized data in a pattern memory. A contour extraction unit that reads the pattern memory and extracts contour data, an offline method feature extraction unit that extracts the feature amount of the written character from the contour data obtained by the contour extraction unit, and an offline method feature extraction unit An offline method matching unit that calculates a matching distance between the characteristic amount of the written character and the characteristic amount of the character to be recognized that is stored in advance in the offline method recognition dictionary, and the number of strokes obtained by the stroke number of the written character is When the number of strokes is smaller than the predetermined number of strokes, the output from the online method matching unit and the offline method matching unit is performed. Based on the etching distance, and a low number of strokes character identification unit performing character recognition, on-line handwritten character recognition apparatus characterized by comprising.
【請求項5】 タブレットに筆記入力して得られた筆記
文字の座標列の不要データを除去して平滑化を行う前処
理部と、 前記前処理部により平滑化された座標データ列から前記
筆記文字の特徴量を抽出するオンライン方式特徴抽出部
と、 前記オンライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオンライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオンライン方式マッチング部と、 前記前処理部により平滑化された座標データ列から得ら
れる前記筆記文字全体を含む領域を縦と横に複数の領域
に分割して、前記複数の各領域が前記筆記文字の一部を
含むか否かを判別して、その各領域に2値化データを割
り当てて、パターンメモリに格納するパターンメモリ変
換部と、 前記パターンメモリを読み込み輪郭データを抽出する輪
郭抽出部と、 前記輪郭抽出部より得られた輪郭データから前記筆記文
字の特徴量を抽出するオフライン方式特徴抽出部と、 前記オフライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオフライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオフライン方式マッチング部と、 前記筆記文字のストローク数により得られる画数が所定
の画数以上の時に、前記オンライン方式マッチング部と
前記オフライン方式マッチング部とから出力される前記
マッチング距離に基づき、文字認識を行う高画数文字識
別部と、 前記筆記文字のストローク数による得られる画数が前記
所定の画数よりも小さい時に、前記オンライン方式マッ
チング部と前記オフライン方式マッチング部とから出力
される前記マッチング距離に基づいて、文字認識を行う
低画数文字識別部とを、 備えたことを特徴とするオンライン手書き文字認識装
置。
5. A pre-processing unit for smoothing by removing unnecessary data of a coordinate sequence of handwritten characters obtained by writing input on a tablet, and the handwriting from the coordinate data sequence smoothed by the pre-processing unit. An online method feature extraction unit for extracting a character feature amount; a feature amount of the written character obtained by the online method feature extraction unit; and a feature amount of a recognition target character stored in advance in an online method recognition dictionary. An online matching unit that calculates a matching distance, and a region including the entire written character obtained from the coordinate data string smoothed by the preprocessing unit is divided into a plurality of regions vertically and horizontally, and each of the plurality of regions is divided. A pattern memory conversion unit that determines whether or not a region includes a part of the written character, allocates binarized data to each region, and stores the binarized data in a pattern memory; A contour extraction unit for reading the memory and extracting contour data, an offline method feature extraction unit for extracting the feature amount of the written character from the contour data obtained by the contour extraction unit, and an offline method feature extraction unit. An offline method matching unit that calculates a matching distance between the feature amount of the written character and the feature amount of the character to be recognized, which is stored in advance in the offline method recognition dictionary, and the number of strokes obtained by the stroke number of the written character is predetermined. When the number of strokes is greater than or equal to the number of strokes, based on the matching distance output from the online method matching unit and the offline method matching unit, a high stroke number character identification unit that performs character recognition, and the number of strokes obtained by the stroke number of the written character is When the number of strokes is smaller than a predetermined number, the online method matching unit and the offline Based on the matching distance which is output from the mode matching unit, and a low number of strokes character identification unit performing character recognition, on-line handwritten character recognition apparatus characterized by comprising.
【請求項6】 タブレットに筆記入力して得られた筆記
文字の座標列の不要データを除去して平滑化を行う前処
理部と、 前記前処理部により平滑化された座標データ列から前記
筆記文字の特徴量を抽出するオンライン方式特徴抽出部
と、 前記オンライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオンライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオンライン方式マッチング部と、 認識対象の文字が筆記される時に筆記上一連のものとし
て筆記する部分を示す部分パターンのストローク位置に
合わせて前記座標データ列に基づいて分けられた前記筆
記文字の各部分パターンを含む領域を縦と横に複数の領
域に分割して、前記複数の各領域が前記筆記文字の部分
パターンの一部を含むか否かを判別して、その各領域に
2値化データを割り当てて、部分パターン毎に部分パタ
ーンパターンメモリに格納する部分パターンパターンメ
モリ変換部と、 前記各部分パターンパターンメモリを読み込み、前記各
部分パターンの輪郭データを抽出する部分パターン輪郭
抽出部と、 前記部分パターン輪郭抽出部より得られた部分パターン
の輪郭データから前記筆記文字の部分パターンの特徴量
を抽出する部分パターンオフライン方式特徴抽出部と、 前記部分パターンオフライン方式特徴抽出部により得ら
れた前記筆記文字の特徴量と部分パターンオフライン方
式認識辞書に予め格納してある前記認識対象の文字の部
分パターンの特徴量とのマッチング距離を算出する部分
パターンオフライン方式マッチング部と、 前記筆記文字のストローク数による得られる画数が所定
の画数以上の時に、前記オンライン方式マッチング部と
前記部分パターンオフライン方式マッチング部とから出
力される前記マッチング距離に基づいて、文字認識を行
う高画数文字識別部と、 前記前処理部により平滑化された座標データ列から得ら
れる前記筆記文字全体を含む領域を縦と横に複数の領域
に分割して、前記複数の各領域が前記筆記文字の一部を
含むか否かを判別して、その各領域に2値化データを割
り当てて、パターンメモリに格納するパターンメモリ変
換部と、 前記パターンメモリを読み込み輪郭データを抽出する輪
郭抽出部と、 前記輪郭抽出部より得られた輪郭データから前記筆記文
字の特徴量を抽出するオフライン方式特徴抽出部と、 前記オフライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオフライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオフライン方式マッチング部と、 前記筆記文字のストローク数による得られる画数が前記
所定の画数よりも小さい時に、前記オフライン方式マッ
チング部と前記オンライン方式マッチング部とから出力
される前記マッチング距離に基づいて、文字認識を行う
低画数文字識別部とを、 備えたことを特徴とするオンライン手書き文字認識装
置。
6. A preprocessing unit for smoothing by removing unnecessary data of a coordinate sequence of handwritten characters obtained by writing on a tablet, and the handwriting from the coordinate data sequence smoothed by the preprocessing unit. An online method feature extraction unit for extracting a character feature amount; a feature amount of the written character obtained by the online method feature extraction unit; and a feature amount of a recognition target character stored in advance in an online method recognition dictionary. An online matching unit that calculates a matching distance, and a division based on the coordinate data string according to the stroke position of a partial pattern that indicates a portion to be written as a series in writing when a character to be recognized is written A region including each partial pattern of the written character is vertically and horizontally divided into a plurality of regions, and each of the plurality of regions includes a part of the partial pattern of the written character. It is determined whether or not each of the areas is assigned binarized data, and the partial pattern pattern memory conversion unit that stores the partial pattern pattern memory in the partial pattern pattern memory, and the partial pattern pattern memories are read and A partial pattern contour extraction unit that extracts the contour data of the partial pattern; and a partial pattern offline method feature extraction unit that extracts the feature amount of the partial pattern of the written character from the contour data of the partial pattern obtained by the partial pattern contour extraction unit And calculating a matching distance between the feature amount of the written character obtained by the partial pattern offline type feature extraction unit and the feature amount of the partial pattern of the recognition target character stored in advance in the partial pattern offline type recognition dictionary. Partial pattern off-line matching section, and the writing character straw When the number of strokes obtained by the number of strokes is equal to or greater than a predetermined number of strokes, based on the matching distance output from the online method matching unit and the partial pattern offline method matching unit, a high stroke number character identification unit that performs character recognition, Whether the area including the entire written character obtained from the coordinate data string smoothed by the preprocessing unit is vertically and horizontally divided into a plurality of areas, and each of the plurality of areas includes a part of the written character. A pattern memory conversion unit that determines whether or not each region is assigned binarized data and stores the binarized data in a pattern memory; a contour extraction unit that reads the pattern memory and extracts contour data; An offline method feature extraction unit that extracts the feature amount of the written character from the obtained contour data, and the offline method feature extraction unit An offline method matching unit that calculates a matching distance between the feature amount of the written character and the feature amount of the character to be recognized that is stored in advance in the offline method recognition dictionary, and the number of strokes obtained by the stroke number of the written character is the predetermined number. An online handwriting, comprising: a low stroke number character identification unit that performs character recognition based on the matching distance output from the offline method matching unit and the online method matching unit when the number of strokes is smaller than the number of strokes. Character recognizer.
【請求項7】 タブレットに筆記入力して得られた筆記
文字の座標列の不要データを除去して平滑化を行う前処
理部と、 前記前処理部により平滑化された座標データ列から前記
筆記文字の特徴量を抽出するオンライン方式特徴抽出部
と、 前記オンライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオンライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオンライン方式マッチング部と、 前記筆記文字のストローク数により得られる画数が所定
の画数以上の時に、前記オンライン方式マッチング部か
ら出力される前記マッチング距離に基づき、文字認識を
行う高画数文字識別部と、 認識対象の文字が筆記される時に筆記上一連のものとし
て筆記する部分を示す部分パターンのストローク位置に
合わせて前記座標データ列に基づいて分けられた前記筆
記文字の各部分パターンを含む領域を縦と横に複数の領
域に分割して、前記複数の各領域が前記筆記文字の部分
パターンの一部を含むか否かを判別して、その各領域に
2値化データを割り当てて、部分パターン毎に部分パタ
ーンパターンメモリに格納する部分パターンパターンメ
モリ変換部と、 前記各部分パターンパターンメモリを読み込み、前記各
部分パターンの輪郭データを抽出する部分パターン輪郭
抽出部と、 前記部分パターン輪郭抽出部より得られた部分パターン
の輪郭データから前記筆記文字の部分パターンの特徴量
を抽出する部分パターンオフライン方式特徴抽出部と、 前記部分パターンオフライン方式特徴抽出部により得ら
れた前記筆記文字の特徴量と部分パターンオフライン方
式認識辞書に予め格納してある前記認識対象の文字の部
分パターンの特徴量とのマッチング距離を算出する部分
パターンオフライン方式マッチング部と、 前記前処理部により平滑化された座標データ列から得ら
れる前記筆記文字全体を含む領域を縦と横に複数の領域
に分割して、前記複数の各領域が前記筆記文字の一部を
含むか否かを判別して、その各領域に2値化データを割
り当てて、パターンメモリに格納するパターンメモリ変
換部と、 前記パターンメモリを読み込み輪郭データを抽出する輪
郭抽出部と、 前記輪郭抽出部より得られた輪郭データから前記筆記文
字の特徴量を抽出するオフライン方式特徴抽出部と、 前記オフライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオフライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオフライン方式マッチング部と、 前記筆記文字のストローク数による得られる画数が前記
所定の画数よりも小さい時に、前記オフライン方式マッ
チング部と前記部分パターンオフライン方式マッチング
部とから出力される前記マッチング距離に基づいて、文
字認識を行う低画数文字識別部とを、 備えたことを特徴とするオンライン手書き文字認識装
置。
7. A preprocessing unit for smoothing by removing unnecessary data of a coordinate sequence of handwritten characters obtained by writing on a tablet, and the handwriting from the coordinate data sequence smoothed by the preprocessing unit. An online method feature extraction unit for extracting a character feature amount; a feature amount of the written character obtained by the online method feature extraction unit; and a feature amount of a recognition target character stored in advance in an online method recognition dictionary. An online method matching unit that calculates a matching distance, and a high number of strokes for character recognition based on the matching distance output from the online method matching unit when the stroke number obtained by the stroke number of the written character is a predetermined stroke number or more. The stroke of the character identification part and the partial pattern that indicates the part to be written as a series in writing when the recognition target character is written. A region including each partial pattern of the written character divided based on the coordinate data string according to the position is divided into a plurality of regions vertically and horizontally, and each of the plurality of regions is a partial pattern of the written character. It is determined whether or not a part is included, binarized data is allocated to each area, and a partial pattern pattern memory conversion unit that stores the partial pattern pattern memory in each partial pattern, and the partial pattern pattern memories A partial pattern contour extraction unit for reading and extracting contour data of each of the partial patterns, and a partial pattern offline for extracting a feature amount of the partial pattern of the written character from the contour data of the partial pattern obtained by the partial pattern contour extraction unit A system feature extraction unit, and a feature amount and a partial pattern of the written character obtained by the partial pattern offline system feature extraction unit. A partial pattern offline method matching unit that calculates a matching distance with the feature amount of the partial pattern of the character to be recognized, which is stored in advance in the online offline recognition dictionary, and a coordinate data string smoothed by the preprocessing unit. The obtained region including the entire written character is vertically and horizontally divided into a plurality of regions, it is determined whether or not each of the plurality of regions includes a part of the written character, and each region has a binary value. Pattern memory conversion unit that allocates the converted data and stores it in a pattern memory, a contour extraction unit that reads the pattern memory and extracts contour data, and a feature amount of the written character from the contour data obtained by the contour extraction unit. An offline method feature extraction unit for extracting, a feature amount of the written character obtained by the offline method feature extraction unit, and an offline method recognition dictionary in advance. An offline method matching unit that calculates a matching distance with the stored characteristic amount of the recognition target character, and an offline method matching unit when the stroke count obtained by the stroke number of the written character is smaller than the predetermined stroke count. An on-line handwritten character recognition device comprising: a low stroke number character identification unit that performs character recognition based on the matching distance output from the partial pattern offline type matching unit.
【請求項8】 タブレットに筆記入力して得られた筆記
文字の座標列の不要データを除去して平滑化を行う前処
理部と、 前記前処理部により平滑化された座標データ列から前記
筆記文字の特徴量を抽出するオンライン方式特徴抽出部
と、 前記オンライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオンライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオンライン方式マッチング部と、 認識対象の文字が筆記される時に筆記上一連のものとし
て筆記する部分を示す部分パターンのストローク位置に
合わせて前記座標データ列に基づいて分けられた前記筆
記文字の各部分パターンを含む領域を縦と横に複数の領
域に分割して、前記複数の各領域が前記筆記文字の部分
パターンの一部を含むか否かを判別して、その各領域に
2値化データを割り当てて、部分パターン毎に部分パタ
ーンパターンメモリに格納する部分パターンパターンメ
モリ変換部と、 前記各部分パターンパターンメモリを読み込み、前記各
部分パターンの輪郭データを抽出する部分パターン輪郭
抽出部と、 前記部分パターン輪郭抽出部より得られた部分パターン
の輪郭データから前記筆記文字の部分パターンの特徴量
を抽出する部分パターンオフライン方式特徴抽出部と、 前記部分パターンオフライン方式特徴抽出部により得ら
れた前記筆記文字の特徴量と部分パターンオフライン方
式認識辞書に予め格納してある認識対象の文字の部分パ
ターンの特徴量とのマッチング距離を算出する部分パタ
ーンオフライン方式マッチング部と、 前記前処理部により平滑化された座標データ列から得ら
れる前記筆記文字全体を含む領域を縦と横に複数の領域
に分割して、前記複数の各領域が前記筆記文字の一部を
含むか否かを判別して、その各領域に2値化データを割
り当てて、パターンメモリに格納するパターンメモリ変
換部と、 前記パターンメモリを読み込み輪郭データを抽出する輪
郭抽出部と、 前記輪郭抽出部より得られた輪郭データから前記筆記文
字の特徴量を抽出するオフライン方式特徴抽出部と、 前記オフライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオフライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオフライン方式マッチング部と、 前記筆記文字のストローク数により得られる画数が所定
の画数以上の時に、前記オンライン方式マッチング部と
前記オフライン方式マッチング部とから出力される前記
マッチング距離に基づき、文字認識を行う高画数文字識
別部と、 前記筆記文字のストローク数による得られる画数が前記
所定の画数よりも小さい時に、前記オフライン方式マッ
チング部と前記部分パターンオフライン方式マッチング
部とから出力される前記マッチング距離に基づいて、文
字認識を行う低画数文字識別部とを、 備えたことを特徴とするオンライン手書き文字認識装
置。
8. A preprocessing unit for smoothing by removing unnecessary data of a coordinate sequence of handwritten characters obtained by writing input on a tablet, and the handwriting from the coordinate data sequence smoothed by the preprocessing unit. An online method feature extraction unit for extracting a character feature amount; a feature amount of the written character obtained by the online method feature extraction unit; and a feature amount of a recognition target character stored in advance in an online method recognition dictionary. An online matching unit that calculates a matching distance, and a division based on the coordinate data string according to the stroke position of a partial pattern that indicates a portion to be written as a series in writing when a character to be recognized is written A region including each partial pattern of the written character is vertically and horizontally divided into a plurality of regions, and each of the plurality of regions includes a part of the partial pattern of the written character. It is determined whether or not each of the areas is assigned binarized data, and the partial pattern pattern memory conversion unit that stores the partial pattern pattern memory in the partial pattern pattern memory, and the partial pattern pattern memories are read and A partial pattern contour extraction unit that extracts the contour data of the partial pattern; and a partial pattern offline method feature extraction unit that extracts the feature amount of the partial pattern of the written character from the contour data of the partial pattern obtained by the partial pattern contour extraction unit And a matching distance between the feature amount of the written character obtained by the partial pattern offline type feature extraction unit and the feature amount of the partial pattern of the recognition target character stored in advance in the partial pattern offline type recognition dictionary is calculated. The partial pattern offline method matching unit and the pre-processing unit smooth the image. The region including the entire written character obtained from the coordinate data string is divided into a plurality of regions vertically and horizontally, and it is determined whether each of the plurality of regions includes a part of the written character, A pattern memory conversion unit that allocates binarized data to each area and stores it in a pattern memory, a contour extraction unit that reads the pattern memory and extracts contour data, and the contour data obtained by the contour extraction unit from the contour data An offline method feature extraction unit that extracts a written character feature amount, a feature amount of the written character obtained by the offline method feature extraction unit, and a feature amount of a recognition target character that is stored in advance in an offline method recognition dictionary. And an off-line matching unit that calculates the matching distance of the writing method, and when the number of strokes obtained by the number of strokes of the written character is equal to or greater than a predetermined stroke count, A high stroke number character identifying portion that performs character recognition based on the matching distance output from the touching portion and the offline type matching portion, and when the stroke number obtained by the stroke number of the written character is smaller than the predetermined stroke number, An online handwritten character recognition device comprising: a low stroke number character identification unit that performs character recognition based on the matching distance output from the offline system matching unit and the partial pattern offline system matching unit.
【請求項9】 タブレットに筆記入力して得られた筆記
文字の座標列の不要データを除去して平滑化を行う前処
理部と、 前記前処理部により平滑化された座標データ列から前記
筆記文字の特徴量を抽出するオンライン方式特徴抽出部
と、 前記オンライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオンライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオンライン方式マッチング部と、 認識対象の文字が筆記される時に筆記上一連のものとし
て筆記する部分を示す部分パターンのストローク位置に
合わせて前記座標データ列に基づいて分けられた前記筆
記文字の各部分パターンを含む領域を縦と横に複数の領
域に分割して、前記複数の各領域が前記筆記文字の部分
パターンの一部を含むか否かを判別して、その各領域に
2値化データを割り当てて、部分パターン毎に部分パタ
ーンパターンメモリに格納する部分パターンパターンメ
モリ変換部と、 前記各部分パターンパターンメモリを読み込み、前記各
部分パターンの輪郭データを抽出する部分パターン輪郭
抽出部と、 前記部分パターン輪郭抽出部より得られた部分パターン
の輪郭データから前記筆記文字の部分パターンの特徴量
を抽出する部分パターンオフライン方式特徴抽出部と、 前記部分パターンオフライン方式特徴抽出部により得ら
れた前記筆記文字の特徴量と部分パターンオフライン方
式認識辞書に予め格納してある前記認識対象の文字の部
分パターンの特徴量とのマッチング距離を算出する部分
パターンオフライン方式マッチング部と、 前記前処理部により平滑化された座標データ列から得ら
れる前記筆記文字全体を含む領域を縦と横に複数の領域
に分割して、前記複数の各領域が前記筆記文字の一部を
含むか否かを判別して、その各領域に2値化データを割
り当てて、パターンメモリに格納するパターンメモリ変
換部と、 前記パターンメモリを読み込み輪郭データを抽出する輪
郭抽出部と、 前記輪郭抽出部より得られた輪郭データから前記筆記文
字の特徴量を抽出するオフライン方式特徴抽出部と、 前記オフライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオフライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオフライン方式マッチング部と、 前記筆記文字のストローク数により得られる画数が所定
の画数以上の時に、前記オンライン方式マッチング部と
前記部分パターンオフライン方式マッチング部とから出
力される前記マッチング距離に基づき、文字認識を行う
高画数文字識別部と、 前記筆記文字のストローク数による得られる画数が前記
所定の画数よりも小さい時に、前記オフライン方式マッ
チング部と前記部分パターンオフライン方式マッチング
部とから出力される前記マッチング距離に基づいて、文
字認識を行う低画数文字識別部とを、 備えたことを特徴とするオンライン手書き文字認識装
置。
9. A preprocessing unit for smoothing by removing unnecessary data of a coordinate sequence of handwritten characters obtained by handwriting input on a tablet, and the handwriting from the coordinate data sequence smoothed by the preprocessing unit. An online method feature extraction unit for extracting a character feature amount; a feature amount of the written character obtained by the online method feature extraction unit; and a feature amount of a recognition target character stored in advance in an online method recognition dictionary. An online matching unit that calculates a matching distance, and a division based on the coordinate data string according to the stroke position of a partial pattern that indicates a portion to be written as a series in writing when a character to be recognized is written A region including each partial pattern of the written character is vertically and horizontally divided into a plurality of regions, and each of the plurality of regions includes a part of the partial pattern of the written character. It is determined whether or not each of the areas is assigned binarized data, and the partial pattern pattern memory conversion unit that stores the partial pattern pattern memory in the partial pattern pattern memory, and the partial pattern pattern memories are read and A partial pattern contour extraction unit that extracts the contour data of the partial pattern; and a partial pattern offline method feature extraction unit that extracts the feature amount of the partial pattern of the written character from the contour data of the partial pattern obtained by the partial pattern contour extraction unit And calculating a matching distance between the feature amount of the written character obtained by the partial pattern offline type feature extraction unit and the feature amount of the partial pattern of the recognition target character stored in advance in the partial pattern offline type recognition dictionary. Partial pattern off-line matching unit and smoothing by the pre-processing unit The region including the entire written character obtained from the converted coordinate data string is divided into a plurality of regions vertically and horizontally, and it is determined whether or not each of the plurality of regions includes a part of the written character. , A pattern memory conversion unit that allocates binarized data to each area and stores it in a pattern memory, a contour extraction unit that reads the pattern memory and extracts contour data, and from the contour data obtained by the contour extraction unit An offline method feature extraction unit that extracts the written character feature amount, the written character feature amount obtained by the offline method feature extraction unit, and the feature amount of the recognition target character that is stored in advance in the offline method recognition dictionary. An off-line matching unit that calculates a matching distance between the online character and a stroke number obtained by the stroke number of the written character is equal to or more than a predetermined stroke number. Based on the matching distance output from the expression matching unit and the partial pattern offline method matching unit, a high stroke number character identifying unit for performing character recognition, and the stroke number obtained by the stroke number of the written character is more than the predetermined stroke number. An online handwritten character characterized by comprising a low stroke number character identification unit that performs character recognition based on the matching distance output from the offline type matching unit and the partial pattern offline type matching unit when the size is small. Recognition device.
【請求項10】 タブレットに筆記入力して得られた筆
記文字の座標列の不要データを除去して平滑化を行う前
処理部と、 前記前処理部により平滑化された座標データ列から得ら
れる前記筆記文字全体を含む領域を縦と横に複数の領域
に分割して、前記複数の各領域が前記筆記文字の一部を
含むか否かを判別して、その各領域に2値化データを割
り当てて、パターンメモリに格納するパターンメモリ変
換部と、 前記パターンメモリを読み込み輪郭データを抽出する輪
郭抽出部と、 前記輪郭抽出部より得られた輪郭データから筆記文字の
特徴量を抽出するオフライン方式特徴抽出部と、 前記オフライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオフライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオフライン方式マッチング部と、 前記オフライン方式マッチング部から出力される前記マ
ッチング距離に基づいて、文字認識を行う識別部とを、 備えたことを特徴とするオンライン手書き文字認識装
置。
10. A preprocessing unit for smoothing by removing unnecessary data of a coordinate sequence of handwritten characters obtained by writing in a tablet, and a coordinate data sequence smoothed by the preprocessing unit. An area including the entire written character is vertically and horizontally divided into a plurality of areas, it is determined whether or not each of the plurality of areas includes a part of the written character, and binary data is stored in each area. A pattern memory conversion unit for allocating and storing in a pattern memory, a contour extraction unit for reading the pattern memory and extracting contour data, and an offline for extracting a feature amount of a handwritten character from the contour data obtained by the contour extraction unit. A system feature extraction unit, and matching between the feature amount of the written character obtained by the offline system feature extraction unit and the feature amount of the recognition target character stored in advance in the offline system recognition dictionary. And offline mode matching unit for calculating the distance, based on the matching distance which is output from the off-line mode matching unit, and an identification unit for performing character recognition, on-line handwritten character recognition apparatus characterized by comprising.
【請求項11】 タブレットに筆記入力して得られた筆
記文字の座標列の不要データを除去して平滑化を行う前
処理部と、 前記前処理部により平滑化された座標データ列から得ら
れる前記筆記文字全体を含む領域を縦と横に複数の領域
に分割して、前記複数の各領域が前記筆記文字の一部を
含むか否かを判別して、その各領域に2値化データを割
り当てて、パターンメモリに格納するパターンメモリ変
換部と、 前記パターンメモリを読み込み輪郭データを抽出する輪
郭抽出部と、 前記輪郭抽出部より得られた輪郭データから前記筆記文
字の特徴量を抽出するオフライン方式特徴抽出部と、 前記オフライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオフライン方式認識辞書に予め格納して
あり、前記筆記文字と同じストローク数を有する認識対
象の文字の特徴量とのマッチング距離を算出するオフラ
イン方式マッチング部と、 前記オフライン方式マッチング部から出力される前記マ
ッチング距離に基づいて、文字認識を行う識別部とを、 備えたことを特徴とするオンライン手書き文字認識装
置。
11. A pre-processing unit for smoothing by removing unnecessary data of a coordinate sequence of handwritten characters obtained by writing on a tablet, and a coordinate data sequence smoothed by the pre-processing unit. An area including the entire written character is vertically and horizontally divided into a plurality of areas, it is determined whether or not each of the plurality of areas includes a part of the written character, and binary data is stored in each area. A pattern memory conversion unit for allocating and storing in the pattern memory, a contour extraction unit for reading the pattern memory and extracting contour data, and a feature amount of the written character is extracted from the contour data obtained by the contour extraction unit. An offline method feature extraction unit, a feature amount of the written character obtained by the offline method feature extraction unit, and an offline method recognition dictionary that are stored in advance and have the same number of strokes as the written character. An off-line method matching unit that calculates a matching distance with the feature amount of the recognition target character, and an identifying unit that performs character recognition based on the matching distance output from the off-line method matching unit are provided. A unique online handwriting recognition device.
【請求項12】 タブレットに筆記入力して得られた筆
記文字の座標列の不要データを除去して平滑化を行う前
処理部と、 前記前処理部により平滑化された座標データ列から前記
筆記文字の特徴量を抽出するオンライン方式特徴抽出部
と、 前記オンライン方式特徴抽出部により得られた前記筆記
文字の特徴量とオンライン方式認識辞書に予め格納して
ある認識対象の文字の特徴量とのマッチング距離を算出
するオンライン方式マッチング部と、 前記筆記文字のストローク数による得られる画数が所定
の画数以上の時に、前記オンライン方式マッチング部か
ら出力される前記マッチング距離に基づいて、文字認識
を行う高画数文字識別部と、 認識対象の文字が筆記される時に筆記上一連のものとし
て筆記する部分を示す部分パターンのストローク位置に
合わせて前記座標データ列に基づいて分けられた前記筆
記文字の各部分パターンを含む領域を縦と横に複数の領
域に分割して、前記複数の各領域が前記筆記文字の部分
パターンの一部を含むか否かを判別して、その各領域に
2値化データを割り当てて、部分パターン毎に部分パタ
ーンパターンメモリに格納する部分パターンパターンメ
モリ変換部と、 前記各部分パターンパターンメモリを読み込み、前記各
部分パターンの輪郭データを抽出する部分パターン輪郭
抽出部と、 前記部分パターン輪郭抽出部より得られた部分パターン
の輪郭データから前記筆記文字の部分パターンの特徴量
を抽出する部分パターンオフライン方式特徴抽出部と、 前記部分パターンオフライン方式特徴抽出部により得ら
れた前記筆記文字の特徴量と部分パターンオフライン方
式認識辞書に予め格納してある前記認識対象の文字の部
分パターンの特徴量とのマッチング距離を算出する部分
パターンオフライン方式マッチング部と、 前記筆記文字のストローク数による得られる画数が前記
所定の画数よりも小さい時に、前記部分パターンオフラ
イン方式マッチング部から出力される前記マッチング距
離に基づいて、文字認識を行う低画数文字識別部とを、 備えたことを特徴とするオンライン手書き文字認識装
置。
12. A preprocessing unit for smoothing by removing unnecessary data of a coordinate sequence of handwritten characters obtained by handwriting on a tablet, and the handwriting from the coordinate data sequence smoothed by the preprocessing unit. An online method feature extraction unit for extracting a character feature amount; a feature amount of the written character obtained by the online method feature extraction unit; and a feature amount of a recognition target character stored in advance in an online method recognition dictionary. An online method matching unit that calculates a matching distance, and a character recognition unit that performs character recognition based on the matching distance output from the online method matching unit when the number of strokes obtained by the stroke number of the written character is equal to or more than a predetermined stroke number. The stroke number character identification part and the stroke of the partial pattern indicating the part to be written as a series in writing when the character to be recognized is written. A region including each partial pattern of the handwritten character divided based on the coordinate data string according to the position is divided vertically and horizontally into a plurality of regions, and each of the plurality of regions is a partial pattern of the handwritten character. A partial pattern pattern memory conversion unit that determines whether or not a partial pattern is included, allocates binarized data to each area, and stores the binary data in the partial pattern pattern memory for each partial pattern; And a partial pattern contour extraction unit that extracts contour data of each of the partial patterns, and a partial pattern that extracts the feature amount of the partial pattern of the written character from the contour data of the partial pattern obtained by the partial pattern contour extraction unit. An offline method feature extraction unit, the partial pattern offline method feature extraction unit, and the feature amount and partial pattern of the written character. A partial pattern offline method matching unit that calculates a matching distance with a feature amount of a partial pattern of the character to be recognized, which is stored in advance in a turn-offline method recognition dictionary, and the number of strokes obtained by the stroke number of the written character is the predetermined number. When the number of strokes is smaller than the number of strokes, the on-line handwritten character recognition device is provided with a low stroke number character recognition unit that performs character recognition based on the matching distance output from the partial pattern offline method matching unit.
JP8040124A 1996-02-27 1996-02-27 On-line handwritten character recognizing device Withdrawn JPH09231314A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8040124A JPH09231314A (en) 1996-02-27 1996-02-27 On-line handwritten character recognizing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8040124A JPH09231314A (en) 1996-02-27 1996-02-27 On-line handwritten character recognizing device

Publications (1)

Publication Number Publication Date
JPH09231314A true JPH09231314A (en) 1997-09-05

Family

ID=12572082

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8040124A Withdrawn JPH09231314A (en) 1996-02-27 1996-02-27 On-line handwritten character recognizing device

Country Status (1)

Country Link
JP (1) JPH09231314A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1315090C (en) * 2005-02-08 2007-05-09 华南理工大学 Method for identifying hand-writing characters
CN111027358A (en) * 2019-04-19 2020-04-17 广东小天才科技有限公司 Dictation and reading method based on writing progress and electronic equipment

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1315090C (en) * 2005-02-08 2007-05-09 华南理工大学 Method for identifying hand-writing characters
CN111027358A (en) * 2019-04-19 2020-04-17 广东小天才科技有限公司 Dictation and reading method based on writing progress and electronic equipment
CN111027358B (en) * 2019-04-19 2023-06-30 广东小天才科技有限公司 Dictation and newspaper reading method based on writing progress and electronic equipment

Similar Documents

Publication Publication Date Title
EP0114250B1 (en) Confusion grouping of strokes in pattern recognition method and system
US7174043B2 (en) On-line handwriting recognizer
US6144764A (en) Method and apparatus for on-line handwritten input character recognition and recording medium for executing the method
Suen et al. Building a new generation of handwriting recognition systems
US6687401B2 (en) Pattern recognizing apparatus and method
US5515455A (en) System for recognizing handwritten words of cursive script
Shi et al. Segmentation and recognition of connected handwritten numeral strings
TW389865B (en) System and method for automated interpretation of input expressions using novel a posteriori probability measures and optimally trained information processing network
EP0436819B1 (en) Handwriting recognition employing pairwise discriminant measures
CN110826408A (en) Face recognition method by regional feature extraction
Gattal et al. Segmentation and recognition strategy of handwritten connected digits based on the oriented sliding window
JPH09231314A (en) On-line handwritten character recognizing device
Tou et al. Automatic recognition of handwritten characters via feature extraction and multi-level decision
Batuwita et al. A customizable fuzzy system for offline handwritten character recognition
Kim et al. Handwritten numeral string recognition using neural network classifier trained with negative data
Batuwita et al. Fuzzy recognition of offline handwritten numeric characters
JP3370184B2 (en) Online handwriting recognition method
Suters et al. Connected handwritten digit separation using external boundary curvature
JPH09114926A (en) Method and device for rough classifying input characters for on-line character recognition
JPH09319826A (en) Hand-written character recognition device
JP2003115028A (en) Method for automatically generating document identification dictionary and document processing system
Sadri et al. Statistical characteristics of slant angles in handwritten numeral strings and effects of slant correction on segmentation
JP2007026470A (en) Pattern recognition device
Itoh et al. Handwritten numeral verification method using distribution maps of structural features
JP2001092924A (en) Method and device for recognizing pattern

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20030506