JP3470541B2 - Online handwritten character recognition device - Google Patents
Online handwritten character recognition deviceInfo
- Publication number
- JP3470541B2 JP3470541B2 JP01503597A JP1503597A JP3470541B2 JP 3470541 B2 JP3470541 B2 JP 3470541B2 JP 01503597 A JP01503597 A JP 01503597A JP 1503597 A JP1503597 A JP 1503597A JP 3470541 B2 JP3470541 B2 JP 3470541B2
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- dictionary
- pattern
- unit
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Character Discrimination (AREA)
Description
【0001】[0001]
【発明の属する技術分野】本発明は、オンラインの手書
き文字認識装置に関し、特に、楷書入力から一筆書きし
たような続け入力に対しも、辞書サイズが少なく、か
つ、高性能に認識できる手書き文字認識装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an on-line handwritten character recognition device, and more particularly to a handwritten character recognition device which has a small dictionary size and can be recognized with high performance even for continuous input such as one-stroke writing. Regarding the device.
【0002】[0002]
【従来の技術】オンライン手書き文字認識装置の文字認
識方式には、入力制限方式からの分類として、(1)画
数,筆順を固定にする方式、(2)どちらかをフリーに
する方式、(3)どちらの制限もなくフリーにする方式
がある。一方、アルゴリズムからの分類として、(4)
ストロークの構造を解析する構造解析方式、(5)スト
ロークの特徴点を辞書とパターンマッチングするパター
ンマッチング方式がある。それぞれ特徴があり、性能と
兼ね合いで決められる。2. Description of the Related Art Character recognition methods for an on-line handwritten character recognition device are classified from the input restriction method into (1) a method of fixing the number of strokes and the stroke order, (2) a method of freeing one, (3) There is a method to make free without either limitation. On the other hand, as a classification from the algorithm, (4)
There are a structure analysis method for analyzing the structure of strokes, and (5) a pattern matching method for pattern matching the stroke feature points with a dictionary. Each has its own characteristics, and it is decided in consideration of performance.
【0003】一般に、認識時間の関係から、(1)また
は(2)の方式が、また、辞書の学習の観点から、
(5)の方式が多く用いられている。Generally, the method (1) or (2) is adopted from the viewpoint of the recognition time, and from the viewpoint of dictionary learning,
The method (5) is often used.
【0004】従来、これらの続け字に対応するため、一
般によく行われている手法に、楷書の標準パターン(辞
書)の他に、続け字の標準パターンも登録しておく方法
がある。Conventionally, in order to deal with these continuous characters, a commonly used method is to register a standard pattern of continuous characters in addition to the standard pattern (dictionary) of regular writing.
【0005】続け字の標準パターンを登録しない方法と
して、特開昭57−45679号,特開平8−249424号に示すよ
うに、オンストロークのみならず、オフストローク(ペ
ンアップ中のストローク)をも仮想的に仮結合して(一
筆書きにして)、そのストロークを等分割、あるいは、
等間隔に特徴点を抽出し、これを辞書とマッチングする
方式がある。As a method of not registering a continuous character standard pattern, as shown in JP-A-57-45679 and JP-A-8-249424, not only on-stroke but also off-stroke (stroke during pen-up) is performed. Virtually temporarily combine (make one stroke) and divide the stroke into equal parts, or
There is a method of extracting feature points at equal intervals and matching this with a dictionary.
【0006】一方、特徴点の対応方式には、前述の特開
平8−249424 号公報に記載されているような、特徴点を
ダイナミックプログラミング(DP)方式により、入力
パターンと辞書パターンの対応をとり、距離値を計算す
る方式と、電子通信学会研究会論文、PRL84−68
(1985.1.25),PP19−PP26,“オン
ライン文字認識における標準文字と続け字との対応点抽
出法”にあるようにオフストロークの安定性に着目し
て、オフストロークとの対応点を抽出して続け字を認識
する方式がある。On the other hand, the feature point correspondence method uses the dynamic programming (DP) method for feature points to match the input pattern and the dictionary pattern as described in the above-mentioned Japanese Patent Laid-Open No. 8-249424. , Method of calculating distance value, IEICE Technical Report, PRL 84-68
(1985.1.25), PP19-PP26, “Point extraction method for corresponding points between standard characters and consecutive characters in online character recognition”, focusing on off-stroke stability, the corresponding points with off-stroke There is a method of extracting and recognizing continuous characters.
【0007】また、ストロークの特徴点を抽出する方法
に、従来、情報処理学会論文誌第27巻第5号(昭和6
1年5月)、PP492−PP498,“画数,筆順,
回転,区切りに依存しないオンライン手書き図形認識方
式”にあるように、面積法を用いて、手ぶれや、座標入
力装置のノイズ等の影響を受けない方法が考案されてい
る。別な方式として、前述の特開平8−249424 号公報に
記載されているように、ストロークを追跡して所定角度
以上の曲がり角度点を特徴点とする角度法がある。In addition, the method of extracting the characteristic points of the stroke has hitherto been used in the IPSJ Journal Vol. 27, No. 5 (Showa 6).
May 1st), PP492-PP498, "Strokes, stroke order,
As described in "Online handwritten figure recognition method that does not depend on rotation and division", a method has been devised by using the area method that is not affected by camera shake, noise of the coordinate input device, and the like. As described in Japanese Patent Laid-Open No. 8-249424, there is an angle method in which a stroke is traced and a bending angle point of a predetermined angle or more is used as a feature point.
【0008】また、一般に、マッチング処理では、どう
しても認識できない文字群に対し、カテゴリ別の詳細識
別方式が用いられる。たとえば、電子情報通信学会論文
誌、D−2,NO.4,PP592−599、“マルチ
メディア端末用手書き入力インタフェースの設計とその
応用”には、ストロークの終了方向(“れ”と“わ”)、
ストロークの始点位置(“カ”と“刀”)、画数の差
(“ば”と“ぱ”)等の175の特徴関数を用いて判定
し、認識性能を向上させている。さらに、特開昭55−
33245号公報には、ストローク対の交叉を検出し、
識別している(例えば“に”と“土”と“上”)ことが
記載されている。Further, in the matching process, generally, a detailed identification method for each category is used for a character group that cannot be recognized by any means. For example, IEICE Transactions, D-2, NO. 4, PP 592-599, "Design and application of handwriting input interface for multimedia terminals", stroke end direction ("re" and "wa"),
The recognition performance is improved by using 175 characteristic functions such as the stroke start point position (“” and “sword”) and the difference in the number of strokes (“” and “”). Furthermore, JP-A-55-
In Japanese Patent No. 33245, crossing of stroke pairs is detected,
It is described that they are distinguished (for example, "ni", "earth", and "top").
【0009】最近、携帯情報端末(PDA:Personal D
igtal Assisitant)が普及してきているが、一般に、画
数や筆順をフリーにすると認識時間も多く要し、認識速
度を快適にするためには、文字認識中は、クロック速度
をシステムの最高速度で動作させている。Recently, a personal digital assistant (PDA: Personal D
igtal Assisitant) has become popular, but generally, it requires a lot of recognition time when the stroke count and stroke order are free, and in order to make the recognition speed comfortable, the clock speed operates at the maximum speed of the system during character recognition. I am letting you.
【0010】[0010]
【発明が解決しようとする課題】上記、従来技術の続け
字を認識の方法では、下記のような問題点がある。The above-described conventional method for recognizing continuous characters has the following problems.
【0011】第1に、いろいろな続け字を標準パターン
に登録すると辞書サイズが大きくなり、かつ、認識速度
や、認識率の低下が発生してくる問題がある。First, when various continuous characters are registered in the standard pattern, the dictionary size becomes large, and the recognition speed and recognition rate decrease.
【0012】第2に、オフストロークをも含めて近似点
を生成する方式では、続け字を辞書に登録しない代わ
り、オフストロークの近似点も登録するため、同様に、
辞書サイズが大きくなるという問題点がある。同様に、
辞書サイズが大きくなれば、認識速度も遅くなる。Secondly, in the method of generating approximate points including off-strokes, instead of not registering the continuous character in the dictionary, the off-stroke approximate points are also registered.
There is a problem that the dictionary size becomes large. Similarly,
The larger the dictionary size, the slower the recognition speed.
【0013】第3に、オフストローク対応点抽出方式で
は、続け字の認識が、オフストロークに依存するという
問題点がある。したがって、標準パターンのオフストロ
ークから、入力パターンのオフストロークを推測するな
どが必要になり、推測ミスや、処理時間がかかるという
問題がある。同様に、近似点をDP方式で辞書と対応さ
せる方式も時間が多く要するなど問題点がある。Third, the off-stroke corresponding point extraction method has a problem that recognition of continuous characters depends on off-stroke. Therefore, it is necessary to estimate the off-stroke of the input pattern from the off-stroke of the standard pattern, and there is a problem that the estimation error or processing time is required. Similarly, there is a problem in that the method of associating the approximate points with the dictionary by the DP method requires much time.
【0014】第4に、ストロークの特徴点を抽出する場
合、面積抽出法では、ノイズには強いが、鋭角の抽出が
できない問題がある。一方、角度抽出法では、ノイズの
影響が受け易いという問題点がある。Fourth, in the case of extracting the characteristic points of the stroke, the area extraction method has a problem in that it is strong against noise but cannot extract the acute angle. On the other hand, the angle extraction method has a problem that it is easily affected by noise.
【0015】第5に、入力が続け字されると詳細識別の
ための情報、たとえば、ループの個数や、クロス位置が
曖昧になり、詳細識別が困難になるなど問題を生じてい
た。第6に、パーソナルな携帯端末では、楷書入力する
代わり、快適な認識速度の提供が欲しい場合がある。一
方、認識速度を犠牲にするが、くずし字も認識して欲し
いなど、柔軟に設定できなかった。認識時間を速くする
ためには、高性能なCPUを使用するか、ダイナミック
にシステムクロックを上げるなどしなければならない。
しかし、当然、認識速度と、電池の寿命時間とのトレー
ドオフの関係になる。このように、従来のシステムで
は、ユーザの手書き入力状態、すなわち、くずし度合い
に応じて、認識速度全体を変化させることはできないな
ど、マンマシン性に問題があった。Fifth, if the characters are continuously input, information for detailed identification, for example, the number of loops and the cross position become ambiguous, which causes a problem that the detailed identification becomes difficult. Sixth, with a personal mobile terminal, there is a case where a comfortable recognition speed is desired to be provided instead of inputting in a square. On the other hand, it was not possible to set it flexibly, for example, at the expense of recognition speed, but also wanting to recognize broken letters. In order to shorten the recognition time, it is necessary to use a high-performance CPU or dynamically raise the system clock.
However, naturally, there is a trade-off relationship between the recognition speed and the life time of the battery. As described above, in the conventional system, there is a problem in man-machine property that the entire recognition speed cannot be changed according to the handwriting input state of the user, that is, the degree of breakage.
【0016】本発明では、辞書サイズが少なく、特徴点
を安定して抽出でき、かつ、文字の骨格情報を利用し
て、楷書入力から続け字入力までを高性能に認識できる
オンライン手書き文字文字認識装置を提供するにある。
また、ユーザの入力パターンのくずし字の度合いと認識
速度を対応させることのできるオンライン手書き文字文
字認識装置を提供するにある。According to the present invention, the dictionary size is small, feature points can be stably extracted, and on the basis of the skeleton information of characters, on-line handwritten character recognition can be performed with high performance from regular writing to continuous input. To provide the equipment.
Another object of the present invention is to provide an on-line handwritten character recognition device capable of associating the degree of combed characters in the input pattern of the user with the recognition speed.
【0017】[0017]
【課題を解決するための手段】本発明は、上記目的を達
成するために、手書き座標を入力する座標入力装置、上
記手書き座標列から特徴点を抽出する特徴抽出部、上記
特徴抽出部から得られた特徴パターンと、辞書パターン
を分類比較して手書き文字を認識する認識部、認識した
結果を表示する認識結果表示部を備えたオンライン手書
き文字認識装置において、前記座標点列の複数の点列か
ら、特徴量を求め、しきい値と比較して手書き座標の特
徴点を抽出する特徴抽出部、オフストロークを含む標準
文字パターンを登録した認識辞書部、入力パターンと辞
書パターンの各々に対し、上下左右の4方向のベクトル
に対応させた対応点を元に、順次マッチング処理するバ
ックボーンベクトル対応マッチング部で構成したことを
特徴としている。In order to achieve the above object, the present invention provides a coordinate input device for inputting handwritten coordinates, a feature extraction unit for extracting feature points from the handwritten coordinate sequence, and a feature extraction unit for obtaining the feature points. In the online handwritten character recognition device including a recognition unit that recognizes a handwritten character by classifying and comparing the obtained characteristic pattern and a dictionary pattern, and a recognition result display unit that displays the recognition result, a plurality of point sequences of the coordinate point sequence From the feature amount, the feature extraction unit that extracts the feature point of the handwritten coordinates by comparing with the threshold value, the recognition dictionary unit that registered the standard character pattern including the off stroke, for each of the input pattern and the dictionary pattern, It is characterized in that it is configured by a backbone vector correspondence matching unit that sequentially performs matching processing based on corresponding points corresponding to vectors in four directions of up, down, left and right.
【0018】さらに、前記バックボーンベクトル対応マ
ッチング部で得られた認識候補文字群に対して、辞書の
オフストローク情報を付加して入力文字パターンの特定
部分を識別する詳細識別部を設けたことを特徴としてい
る。Further, a detailed identification section is provided for identifying a specific portion of the input character pattern by adding dictionary off-stroke information to the recognition candidate character group obtained by the backbone vector correspondence matching section. I am trying.
【0019】手書き座標列から特徴点を抽出する特徴抽
出部は、複数点列でなる面積および角度変情報で検出す
ることを特徴としている。The feature extraction unit for extracting the feature points from the handwritten coordinate sequence is characterized by detecting the area and angle variation information consisting of a plurality of point sequences.
【0020】また、分類比較して手書き文字を認識する
認識部の分類として、辞書パターンと入力パターンのス
トローク長差で行う認識部であることを特徴としてい
る。Further, as a classification of the recognition unit for recognizing handwritten characters by comparing the classifications, the recognition unit is characterized by performing the stroke length difference between the dictionary pattern and the input pattern.
【0021】また、くずし度設定部を設け、前記くずし
度設定部で設定した値と手書き文字を認識する認識部の
分類のしきい値を制御するようにしたことを特徴とす
る。さらに、辞書パターンと入力パターンの特徴量か
ら、くずし度を求め、このくずし度から、前記手書き文
字認識装置のシステムクロックを制御する手段を設けた
ことを特徴とする。Further, the invention is characterized in that a breaking degree setting unit is provided, and a value set by the breaking degree setting unit and a classification threshold value of the recognition unit for recognizing handwritten characters are controlled. Further, the present invention is characterized in that means for determining the degree of breakage from the feature amount of the dictionary pattern and the input pattern and controlling the system clock of the handwritten character recognition device from the degree of breakage is provided.
【0022】[0022]
【発明の実施の形態】以下、本発明の一実施例を図1〜
図21を用いて説明する。BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will now be described with reference to FIGS.
This will be described with reference to FIG.
【0023】図1は、本発明の一実施例の全体ブロック
構成を示したものである。1は座標入力装置TB、2は
液晶装置LCDである。1と2のデバイスは積層してあ
る。座標入力装置TBの座標はストローク入出力部4で
検出し、その筆跡はフィードバックされ、ペン3の動き
に応じて表示するようになっている。入力されたストロ
ーク座標点列は、文字認識部5に入力し、文字候補とし
て出力する。出力された文字候補群は日本語処理部6に
入力し、日本語として意味があるかどうか、日本語辞書
部7を参照して判定し、その結果を認識結果表示部8に
表示する。文字認識部5は、座標点列から特徴を抽出す
る特徴抽出部100,抽出された特徴点はバックボーン
ベクトル対応マッチング部200で文字の骨格として対
応点を検出し、認識辞書部400とマッチング処理す
る。さらに、候補文字群の中から、詳細識別部300で
詳細識別処理して、認識性能を向上させている。FIG. 1 shows the overall block configuration of an embodiment of the present invention. Reference numeral 1 is a coordinate input device TB, and 2 is a liquid crystal device LCD. The devices 1 and 2 are stacked. The coordinates of the coordinate input device TB are detected by the stroke input / output unit 4, and the handwriting is fed back and displayed according to the movement of the pen 3. The input stroke coordinate point sequence is input to the character recognition unit 5 and output as a character candidate. The output character candidate group is input to the Japanese processing unit 6, and it is determined whether or not it has meaning as Japanese by referring to the Japanese dictionary unit 7, and the result is displayed on the recognition result display unit 8. The character recognition unit 5 extracts a feature from the coordinate point sequence, the feature extraction unit 100 detects the corresponding point as a skeleton of the character in the backbone vector correspondence matching unit 200, and performs matching processing with the recognition dictionary unit 400. . Further, the detailed identification unit 300 performs a detailed identification process from the candidate character group to improve the recognition performance.
【0024】また、もう1つの特徴であるくずし度設定
部9では、ユーザから、図19に示すようなアイコンを
用いて、楷書入力か、あるいは、続け字入力かを設定
し、これにより、認識処理速度を柔軟に変えることがで
きる。すなわち、楷書入力では、認識速度が速くなり、
続け字入力では、認識レベルを詳細に識別するが、処理
速度は多く要するようになっている。勿論、図19のア
イコンでその中間の値も設定できるようになっている。In addition, in the breakage degree setting unit 9, which is another feature, the user sets whether to input in a square pattern or continuous characters by using an icon as shown in FIG. The processing speed can be changed flexibly. In other words, the recognition speed becomes faster in the case of inputting a regular print,
In continuous character input, the recognition level is identified in detail, but it requires a high processing speed. Of course, the icon in FIG. 19 can also set intermediate values.
【0025】次に、本発明の一実施例であるハードウエ
ア構成を図2により説明する。図2において、コンピュ
ータ(CPU)10のバスには、座標入力コントローラ
(TBC)11,液晶コントローラ(LCDC)12,
メモリ(MEM)13,外部との通信コントローラ(N
ET)14が接続されている。なお、メモリ(MEM)
13には、オペレーテイングシステム(OS)やプログ
ラム、さらに各種辞書が格納されている。Next, a hardware configuration according to an embodiment of the present invention will be described with reference to FIG. In FIG. 2, the bus of the computer (CPU) 10 includes a coordinate input controller (TBC) 11, a liquid crystal controller (LCDC) 12,
Memory (MEM) 13, external communication controller (N
ET) 14 is connected. In addition, memory (MEM)
An operating system (OS), programs, and various dictionaries are stored in the storage unit 13.
【0026】以下、図1のブロック構成の内、特徴部分
である文字認識部5の詳細フローを説明する。The detailed flow of the character recognition unit 5, which is a characteristic part of the block configuration shown in FIG. 1, will be described below.
【0027】図3は、入力された座標点列(ストロー
ク)の特徴点(近似点)を抽出する特徴抽出部100の
詳細フローである。まず、入力された座標点列(例:
日)を正規化するため、オフストロークも端点を接続す
る1筆化処理をおこなう(ステップ110)。次に、オ
フストロークも含めたリサンプリング処理を行う(ステ
ップ120)。この処理は、等間隔に座標を補間するも
ので、入力された座標点列のサンプル速度や、入力速度
の影響をなくすためにある。次に、ステップ130で正
規化処理を行う。これは、以下のように計算する。先ほ
ど求めたリサンプリング座標点列の長さを全て加算し、
それを座標点列数で除算することで、重心位置を計算す
る。次に、リサンプリングした座標点列のX,Y軸の最
大最小値から、入力データのサイズを求め、先ほど求め
た重心位置とで正規化を行う。図3の例では、左下に小
さく入力された座標点列(ステップ120)が、正規化
され枠の中心に、大きく正規化されていることがわか
る。このようにすることにより、入力位置や入力サイズ
による影響を軽減している。なお、オフストロークも含
めないで重心位置を求めると、離れた位置に入力された
ストロークにより、重心位置が大きく影響する。このた
め、本発明の一実施例のように、オフストロークも含め
て、一旦、リサンプリングし、この点列を用いて重心位
置を求めている。FIG. 3 is a detailed flow of the feature extraction unit 100 for extracting the feature points (approximate points) of the input coordinate point sequence (stroke). First, the input coordinate point sequence (eg:
In order to normalize (day), one stroke writing processing for connecting end points is also performed for off stroke (step 110). Next, resampling processing including off-stroke is performed (step 120). This process interpolates the coordinates at equal intervals, and is for eliminating the influence of the sample speed of the input coordinate point sequence and the input speed. Next, in step 130, normalization processing is performed. It is calculated as follows. Add all the lengths of the resampling coordinate point sequence obtained earlier,
The center of gravity position is calculated by dividing it by the number of coordinate point sequences. Next, the size of the input data is obtained from the maximum and minimum values of the resampled coordinate point sequence on the X and Y axes, and normalization is performed with the center of gravity position obtained earlier. In the example of FIG. 3, it can be seen that the coordinate point sequence (step 120) that is input small in the lower left is normalized and largely normalized to the center of the frame. By doing so, the influence of the input position and the input size is reduced. If the center-of-gravity position is calculated without including the off-stroke, the stroke input at a distant position has a great influence on the center-of-gravity position. Therefore, as in the embodiment of the present invention, resampling including the off-stroke is performed once, and the position of the center of gravity is obtained using this point sequence.
【0028】次に、認識のための特徴点を求める近似化
処理を行う(ステップ140)。この処理は、文字の特
徴点を求める処理であり、後述のマッチング処理と大い
に関係する。特徴点を、等間隔や、等分割で求める方法
は、処理は簡単であるが、特徴点が多くなり、辞書サイ
ズが大きくなる欠点がある。したがって、本発明の一実
施例では、文字の形を表すに必要な最低限の特徴点を抽
出することにする。これは、直線部分は端点のみとし、
曲がりの部分は、複数の点で構成するようにすればよ
い。したがって、オフストロークには近似点は存在しな
い。図4を用いて、以下説明する。Next, an approximation process is carried out to obtain a feature point for recognition (step 140). This process is a process for obtaining character feature points, and is closely related to the matching process described later. The method of obtaining the feature points at equal intervals or with equal division is simple in processing, but has the drawback that the number of feature points increases and the dictionary size increases. Therefore, in one embodiment of the present invention, the minimum feature points necessary to represent the shape of a character are extracted. This is because the straight line part is only the end point,
The bent portion may be configured by a plurality of points. Therefore, there is no approximate point in the off stroke. This will be described below with reference to FIG.
【0029】図4は、入力された座標点列の一部を拡大
したもので、開始点Ps、から始まり、Pa,Pb,P
c,Pd…と続くものとする。ここで、本発明の一実施
例では、面積法と角度法の2つを併用して特徴点を求め
ることにする。今、開始点Psも含め、順次入力された
3つの座標点列から構成される三角形の面積をΔSa,Δ
Sb,ΔSc,…、三角形の内角をθa,θb,θc,
…とすると、下記判定式のいずれかが成り立つときに、
特徴点とする。FIG. 4 is an enlarged view of a part of the input coordinate point sequence, starting from the starting point Ps, Pa, Pb, P.
c, Pd ... And so on. Here, in one embodiment of the present invention, the feature point is determined by using both the area method and the angle method. Now, including the starting point Ps, the area of a triangle composed of the sequence of three coordinate points sequentially input is ΔSa, Δ
Sb, ΔSc, ..., The internal angles of the triangle are θa, θb, θc,
Then, when one of the following judgment formulas is satisfied,
Let it be a feature point.
【0030】(1)(累積面積(ΔSa+ΔSb+ΔSc
+…) > しきい値TH1)and(三角形の内角(θ
a,θb,θc,…) > しきい値TH2)になった
点と特徴点とする。(1) (cumulative area (ΔSa + ΔSb + ΔSc
+ ...)> threshold TH1) and (internal angle of triangle (θ
a, θb, θc, ...)> A threshold value TH2) and a feature point.
【0031】(2)三角形の内角(θa,θb,θc,
…) < しきい値TH2になった点と特徴点とする。(2) Interior angles of the triangle (θa, θb, θc,
...) <The point where the threshold value becomes TH2 and the characteristic point.
【0032】以上のように、累積面積が大きく、かつ、
内角がしきい値より大きいときの条件は、曲線の検出に
良好に働く。さらに、三角形の内角がしきい値より、小
さいとき、これもまた、特徴点とすることで、折り返し
のあるストロークの先頭も特徴点として検出できる。As described above, the cumulative area is large, and
The condition when the interior angle is greater than the threshold works well for curve detection. Furthermore, when the interior angle of the triangle is smaller than the threshold value, this is also set as a feature point, so that the beginning of a stroke with a turn can be detected as a feature point.
【0033】図5は、この近似化処理140の具体的フ
ローを説明したものである。まず、累積面積Stをクリ
アし、また、開始点Psをリードして、座標バッファP
(1)に格納する(ステップ141)。次の座標点Pa,
Pbもリードし、座標バッファP(2),P(3)に格
納する(ステップ142)。3点の座標から、面積ΔS
を計算し、累積面積Stを演算する(ステップ14
3)。同様に、3点の座標から内角θを計算する(ステ
ップ144)。次に、上記求めた累積面積Stと内角θ
をしきい値TH1,TH2と各々比較する(ステップ1
45)。もし、条件がいずれも成立しないとき、次の座
標点Pcをリードし、次の3点の座標を準備しておく
(ステップ146)。前記条件が成立したとき、最後に
取り込んだ座標の1つ前を近似点として格納する(ステ
ップ147)。最後に、全サンプル点の座標終了かどう
か判定し(ステップ148)、もし、終了していなかっ
たら、求めた近似点を新たな開始点に設定し、次の近似
点を求める(ステップ149)。以上のように、本発明で
は、面積法と角度法を用いて、近似点を求めた。FIG. 5 illustrates a specific flow of the approximation processing 140. First, the cumulative area St is cleared, the starting point Ps is read, and the coordinate buffer P
It is stored in (1) (step 141). Next coordinate point Pa,
Pb is also read and stored in the coordinate buffers P (2) and P (3) (step 142). Area ΔS from the coordinates of 3 points
To calculate the cumulative area St (step 14
3). Similarly, the internal angle θ is calculated from the coordinates of the three points (step 144). Next, the above-obtained cumulative area St and internal angle θ
Are respectively compared with thresholds TH1 and TH2 (step 1
45). If none of the conditions is satisfied, the next coordinate point Pc is read and the coordinates of the next three points are prepared (step 146). When the above condition is satisfied, the coordinate immediately before the last fetched coordinate is stored as an approximate point (step 147). Finally, it is determined whether or not the coordinates of all the sample points have ended (step 148). If not completed, the obtained approximation point is set as a new start point and the next approximation point is obtained (step 149). As described above, in the present invention, the approximate points are obtained using the area method and the angle method.
【0034】次に、本発明の特徴的処理であるバックボ
ーンベクトル対応マッチング処理を説明する。最初に、
そのコンセプトを説明する。文字の形は基本的には、図
6に示すような、左右,上下の4つの方向のバックボー
ンで構成される(d1,d2,d3,d4)。そして、
斜め方向は、そのバックボーンベクトルの補助ベクトル
(d12,d23,d34,d41)とする。この補助
ベクトルは、中間的ベクトルであるため、両側のバック
ボーンベクトルのいずれにもなりうるものとする。Next, the backbone vector correspondence matching process, which is a characteristic process of the present invention, will be described. At first,
Explain the concept. The character shape is basically composed of backbones in four directions (d1, d2, d3, d4) as shown in FIG. And
The diagonal direction is the auxiliary vector (d12, d23, d34, d41) of the backbone vector. Since this auxiliary vector is an intermediate vector, it can be any of the backbone vectors on both sides.
【0035】上記バックボーンベクトルを用いて、入力
されたストロークの近似点と辞書の近似点をどのように
対応させるかを、図7〜図10の各ケースで説明する。
それぞれの図において、○印は辞書パターンの近似点、
●印は入力パターンの近似点である。隣り合う近似点間
のベクトルを、辞書パターンはa1,a2ベクトル、入
力パターンはb1,b2ベクトルとする。対応点の処理
は、次のようにする。
(1)最初に、先頭のベクトルa1,b1を対応するもの
とする(■印)。How to correspond the approximate points of the input stroke and the approximate points of the dictionary using the above-mentioned backbone vector will be described in each case of FIGS.
In each figure, the circles are the approximate points of the dictionary pattern,
The ● marks are the approximate points of the input pattern. The vectors between adjacent approximation points are a1 and a2 vectors for dictionary patterns and b1 and b2 vectors for input patterns. The corresponding points are processed as follows. (1) First, the head vectors a1 and b1 are assumed to correspond (marked with ■).
【0036】(2)以下、辞書パターンと入力パターンの
方向により、ベクトルの比較,入力パターンベクトルの
前進,辞書パターンベクトルの前進を行う。(2) Hereinafter, vector comparison, advance of the input pattern vector, and advance of the dictionary pattern vector are performed depending on the directions of the dictionary pattern and the input pattern.
【0037】(3)近似点がなくなるまで、上記(2)を処
理する。(3) The above (2) is processed until there are no more approximation points.
【0038】では、図7の例から説明する。まず、ベク
トルa1,b1が最初に対応するとして、1つ先のa
2,b2のベクトルを比較し、同一方向((図6のd
1)であるとき、仮対応するものとしてa2,b2に前
進させる(□印)。The example of FIG. 7 will be described. First, assuming that the vectors a1 and b1 correspond first, the next a
2, b2 vectors are compared, and the same direction ((d in FIG. 6 is
When it is 1), it is moved forward to a2 and b2 as a temporary correspondence (square mark).
【0039】図8の例では、同様に、ベクトルa1,b
1が最初に対応し、次に、1つ先のa2の方向をb1と
判定し、同一ベクトルならば、a2を仮対応するとして
前進させる。In the example of FIG. 8, similarly, vectors a1 and b
1 corresponds first, and next, the direction of the next a2 is judged to be b1. If they are the same vector, a2 is provisionally corresponded and it is advanced.
【0040】図9は、入力パターンのベクトルと辞書パ
ターンのベクトルが逆方向のときの例である。FIG. 9 shows an example in which the vector of the input pattern and the vector of the dictionary pattern are in opposite directions.
【0041】図7と同様に、ベクトルa1,b1が最初
に対応するとし、b2ベクトルは、辞書ベクトルa2と
は逆方向のため対応しない。次に、1つ先の辞書ベクト
ルa3を、b2ベクトルと比較し、同じであれば、a2
ベクトルを進め、a3ベクトルをb2ベクトルと仮対応
するものとする。Similar to FIG. 7, it is assumed that the vectors a1 and b1 correspond first, and the b2 vector does not correspond because it is in the opposite direction to the dictionary vector a2. Next, the previous dictionary vector a3 is compared with the b2 vector, and if they are the same, a2
The vector is advanced so that the a3 vector temporarily corresponds to the b2 vector.
【0042】図10の例は、辞書パターンのベクトルa
1,a2,a3を、次々に前進させ、入力パターンのベ
クトルb1と仮対応させた例である。In the example of FIG. 10, the dictionary pattern vector a is used.
In this example, 1, a2 and a3 are moved forward one after another to temporarily correspond to the vector b1 of the input pattern.
【0043】以上のように、基本的に4方向のバックボ
ーンベクトルを基に、辞書ベクトルとの対応点探すこと
が、後のマッチング処理に重要になる。つまり、マッチ
ング処理で距離値演算するとき、基本的な骨格方向で対
応を取り、その後、対応点同士で距離値演算をするた
め、一般的なDPマッチングによる対応計算に比べ、演
算回数を減らす効果を有す。As described above, it is basically important for the subsequent matching process to search for a corresponding point with the dictionary vector based on the backbone vector in four directions. That is, when the distance value is calculated in the matching process, the correspondence is made in the basic skeleton direction, and then the distance value is calculated between the corresponding points, so that the number of calculations is reduced as compared with the correspondence calculation by general DP matching. Have.
【0044】図11は、(a)入力パターンと、(b)
“日”の辞書パターン、(c)“区”上記バックボーン
ベクトルを用いて、入力されたストロークの近似点と辞
書の近似点をどのように対応させるかを、図7〜図10
の各ケースで説明する。それぞれの図において、○印は
辞書パターンの近似点、●印は入力パターンの近似点で
ある。隣り合う近似点間のベクトルを、辞書パターンは
a1,a2ベクトル、入力パターンはb1,b2ベクト
ルとする。対応点の処理は、次のようにする。
(1)最初に、先頭のベクトルa1,b1を対応するもの
とする(■印)。FIG. 11 shows (a) input pattern and (b) input pattern.
The dictionary pattern of "day", (c) "district" FIG. 7 to FIG.
Each case will be described. In each figure, the circle marks are the approximation points of the dictionary pattern, and the circle marks are the approximation points of the input pattern. The vectors between adjacent approximation points are a1 and a2 vectors for dictionary patterns and b1 and b2 vectors for input patterns. The corresponding points are processed as follows. (1) First, the head vectors a1 and b1 are assumed to correspond (marked with ■).
【0045】(2)以下、辞書パターンと入力パターンの
方向により、ベクトルの比較,入力パターンベクトルの
前進,辞書パターンベクトルの前進を行う。(2) Hereinafter, vector comparison, advance of the input pattern vector, and advance of the dictionary pattern vector are performed depending on the directions of the dictionary pattern and the input pattern.
【0046】(3)近似点がなくなるまで、上記(2)を処
理する。(3) The above (2) is processed until there are no more approximation points.
【0047】では、図7の例から説明する。まず、ベク
トルa1,b1が最初に対応するとして、1つ先のa
2,b2のベクトルを比較し、同一方向((図6のd
1)であるとき、仮対応するものとしてa2,b2に前
進させる(□印)。Now, the example of FIG. 7 will be described. First, assuming that the vectors a1 and b1 correspond first, the next a
2, b2 vectors are compared, and the same direction ((d in FIG. 6 is
When it is 1), it is moved forward to a2 and b2 as a temporary correspondence (square mark).
【0048】図8の例では、同様に、ベクトルa1,b
1が最初に対応し、次に、1つ先のa2の方向をb1と
判定し、同一ベクトルならば、a2を仮対応するとして
前進させる。In the example of FIG. 8, similarly, vectors a1 and b
1 corresponds first, and next, the direction of the next a2 is judged to be b1. If they are the same vector, a2 is provisionally corresponded and it is advanced.
【0049】図9は、入力パターンのベクトルと辞書パ
ターンのベクトルが逆方向のときの例である。FIG. 9 shows an example in which the vector of the input pattern and the vector of the dictionary pattern are in opposite directions.
【0050】図7と同様に、ベクトルa1,b1が最初
に対応するとし、b2ベクトルは、辞書ベクトルa2と
は逆方向のため対応しない。次に、1つ先の辞書ベクト
ルa3を、b2ベクトルと比較し、同じであれば、a2
ベクトルを進め、a3ベクトルをb2ベクトルと仮対応
するものとする。Similar to FIG. 7, it is assumed that the vectors a1 and b1 correspond first, and the b2 vector does not correspond because it is in the opposite direction to the dictionary vector a2. Next, the previous dictionary vector a3 is compared with the b2 vector, and if they are the same, a2
The vector is advanced so that the a3 vector temporarily corresponds to the b2 vector.
【0051】図10の例は、辞書パターンのベクトルa
1,a2,a3を、次々に前進させ、入力パターンのベ
クトルb1と仮対応させた例である。In the example of FIG. 10, the dictionary pattern vector a is used.
In this example, 1, a2 and a3 are moved forward one after another to temporarily correspond to the vector b1 of the input pattern.
【0052】以上のように、基本的に4方向のバックボ
ーンベクトルを基に、辞書ベクトルとの対応点探すこと
が、後のマッチング処理に重要になる。つまり、マッチ
ング処理で距離値演算するとき、基本的な骨格方向で対
応を取り、その後、対応点同士で距離値演算をするた
め、一般的なDPマッチングによる対応計算に比べ、演
算回数を減らす効果を有す。As described above, basically, it is important for the subsequent matching process to search for corresponding points with the dictionary vector based on the backbone vectors in four directions. That is, when the distance value is calculated in the matching process, the correspondence is made in the basic skeleton direction, and then the distance value is calculated between the corresponding points, so that the number of calculations is reduced as compared with the correspondence calculation by general DP matching. Have.
【0053】図11は、(a)入力パターンと、(b)
“日”の辞書パターン、(c)“区”の辞書パターンと
の対応を取ったときの関係を示す。●印は対応がとれた
近似点,○印は未対応の近似点を示している。以上のよ
うに、4方向のバックボーンベクトルにより、ほぼ、対
応点を求めることができる。ここで、注目すべきこと
は、対応点を求めるとき、オンストローク,オフストロ
ークとも無関係にバックボーンベクトル検出することで
ある。これにより、入力パターンが(a)に示すように
続け書きされていても、楷書書きの辞書パターンとのベ
クトルと対応が取れることである。これは、辞書サイズ
を小さくできるとともに、処理時間も少なくすることが
できる効果がある。FIG. 11 shows (a) input pattern and (b) input pattern.
The relationship between the dictionary pattern of "day" and the dictionary pattern of (c) "ward" is shown. The ● marks indicate the corresponding approximate points, and the ○ marks indicate the non-corresponding approximate points. As described above, almost corresponding points can be obtained from the backbone vectors in the four directions. Here, it should be noted that when obtaining the corresponding points, the backbone vector is detected regardless of the on-stroke and the off-stroke. As a result, even if the input pattern is continuously written as shown in (a), it can be associated with the vector with the dictionary pattern for regular writing. This is effective in reducing the dictionary size and the processing time.
【0054】次に、対応点が求まったら、これを基に、
距離値を計算するが、その基本的な識別要素であるベク
トル差の計算方法を、まず説明する。図12は、ベクト
ル差演算の基本的な考え方を示したものである。ここ
で、○印は辞書パターン、●印は入力パターンとする。
また、8点線は、その特徴点が対応しているものとす
る。Next, when the corresponding points are obtained, based on this,
The distance value is calculated, and the method of calculating the vector difference, which is the basic discriminating element, will be described first. FIG. 12 shows the basic concept of vector difference calculation. Here, the ◯ mark is a dictionary pattern, and the ● mark is an input pattern.
Further, the eight-dotted line is assumed to correspond to the characteristic points.
【0055】ケース1の対応点間の線分数が辞書パター
ンと入力パターンとが1:1の場合、各々のベクトルa
1,b1の差を演算する。When the number of line segments between corresponding points in case 1 is 1: 1 between the dictionary pattern and the input pattern, each vector a
The difference between 1 and b1 is calculated.
【0056】ケース2の対応点間の線分数が1:nのと
き、n線分の長さの割合に応じて、もう一方の線分を分
割し、各々のベクトル差の累積を演算する。これは、一
方の線分が1本のとき、たとえば、“1”、“一”など
の直線ストロークの場合に多く発生する。When the number of line segments between corresponding points in case 2 is 1: n, the other line segment is divided according to the ratio of the lengths of the n line segments, and the accumulation of the respective vector differences is calculated. This often occurs when one line segment is one, for example, in the case of a straight stroke such as "1" or "one".
【0057】ケース3のように、対応点間の線分がn:
nの場合が、一般的には、ほとんどである。このケース
の場合、対応する線分間で長い線分のベクトルを、間に
ある線分の割合で分割し、そのベクトル差を演算する。
たとえば、a12とb2が、a21とb3のように、ベ
クトル差を演算する。そして、線分の長さの差が小さい
ときは、そのベクトル同士で差を演算する(例;a11
とb1)。最後に、対応する線分がなく、残った線分は
その長さをペナルティ値として計算する。As in case 3, the line segment between corresponding points is n:
In general, most cases are n. In this case, a vector of a long line segment in the corresponding line segments is divided at a ratio of the line segments in between, and the vector difference is calculated.
For example, a12 and b2 calculate the vector difference like a21 and b3. Then, when the difference in the lengths of the line segments is small, the difference is calculated between the vectors (eg, a11).
And b1). Finally, there is no corresponding line segment, and the length of the remaining line segment is calculated as a penalty value.
【0058】以上のように、対応する点を中心に、その
間に未対応の特徴点(近似点)がある場合には、線分分
割しながら、仮想対応点を演算し、距離値演算の精度向
上と演算の簡単化を図っていることが、本発明の特徴で
ある。なお、ベクトル差の演算はストロークの開始点か
ら終了点まで実施するが、ベクトル差が、所定値より大
きいとき、その文字は候補外であるとして、距離値演算
を、足切り処理し、高速化を実施できる。As described above, when there is an uncorresponding feature point (approximate point) centered on the corresponding point, the virtual corresponding point is calculated while dividing the line segment, and the accuracy of the distance value calculation is calculated. It is a feature of the present invention that the improvement and the simplification of the calculation are achieved. The calculation of the vector difference is performed from the start point to the end point of the stroke, but when the vector difference is larger than a predetermined value, it is determined that the character is not a candidate and the distance value calculation is cut off to speed up. Can be implemented.
【0059】以上、距離値演算の基本識別要素としての
ベクトル差の演算方法を説明したが、実際には、他の識
別要素も加味して距離値を演算する。図13は、認識距
離値演算の全体を述べたものである。前述のベクトル差
V(a−b)以外に、対応点同士の座標差P(a−b)、ス
トロークの開始点と終了点同士の始終点差Pse(a−
b)、最後に、ストローク長差L(a−b)がある。な
お、認識距離値Φは各々の識別要素に、係数α,β,
γ,δを掛け合わせて加重平均したものとする。ここ
で、各々の識別要素の意味は、ベクトル差V(a−b)
は、文字全体の骨格状態を把握する要素、座標差P(a
−b)と始終点差Pse(a−b)は対応点の位置関係
を把握する要素、最後のストローク長差L(a−b)
は、文字の複雑さを表す要素である。Although the method of calculating the vector difference as the basic discriminating element for the distance value calculation has been described above, the distance value is actually calculated in consideration of other discriminating elements. FIG. 13 describes the entire recognition distance value calculation. In addition to the vector difference V (ab) described above, the coordinate difference P (ab) between corresponding points and the start / end point difference Pse (ab- between stroke start and end points)
b) and finally, there is a stroke length difference L (ab). In addition, the recognition distance value Φ includes coefficients α, β, and
It is assumed that the weighted average is obtained by multiplying γ and δ. Here, the meaning of each discriminating element is the vector difference V (ab)
Is an element for grasping the skeletal state of the entire character, and the coordinate difference P (a
-B) and the start / end point difference Pse (ab) are elements for grasping the positional relationship between corresponding points, and the final stroke length difference L (ab).
Is an element that represents the complexity of a character.
【0060】以上、述べたバックボーンベクトル対応マ
ッチング方式の処理フローを図14〜図16を用いて説
明する。図14は、バックボーンベクトル対応マッチン
グ部200のメイン処理フローである。ステップ210
〜230で予め、大分類してから、対応点処理や、マッ
チング処理をおこなう。すなわち、まず、入力画数や、
入力ストローク長などの分類情報を収集する(ステップ
210)。この情報と辞書に格納されている情報から、
マッチングに不要な文字群を除く。本発明の一実施例で
は、入力画数+2が、辞書の画数より、小さいときのみ
以下の処理を行う(ステップ220)。これは、辞書に
は、楷書書きでパターンを格納されているが、この辞書
より、入力画数を多く入力することは少ないことから判
断している。つまり、正確には、続いて入力されるとこ
ろを、分かち書きしたり、無い画数を余分に入力してし
まったことにより発生する。一般的には、辞書の画数よ
り、2画以上多く入力されることはない。次に、もう1
つの分類として、入力ストローク長と辞書ストローク長
の差が、しきい値TH3より、小さいときのみマッチン
グを行う(ステップ230)。この処理は、入力ストロー
ク長に対し、大幅に異なる文字とのマッチングを省くも
ので、処理の高速化に必要である。以上の分類が終わっ
た後、前述のバックボーンベクトル対応処理を行う(ス
テップ240)。詳細フローは、図15で説明する。そ
して、最後に、求められた対応ベクトルを元に、距離値
演算であるマッチング処理を行う(ステップ250)。
以上の処理を全辞書について処理する(ステップ26
0)。The processing flow of the above-described backbone vector correspondence matching method will be described with reference to FIGS. 14 to 16. FIG. 14 is a main processing flow of the backbone vector correspondence matching unit 200. Step 210
~ 230, the corresponding points are processed and the matching process is performed after the main classification. That is, first,
Collection information such as input stroke length is collected (step 210). From this information and the information stored in the dictionary,
Excludes characters that are not needed for matching. In one embodiment of the present invention, the following processing is performed only when the input stroke count + 2 is smaller than the dictionary stroke count (step 220). This is because the dictionary stores patterns in regular writing, but it is judged that the number of input strokes is smaller than that in this dictionary. In other words, to be precise, this occurs because the portion to be subsequently input is divided or written, or an unnecessary number of strokes is input. Generally, no more than two strokes are input than the number of strokes in the dictionary. Then another 1
As one classification, matching is performed only when the difference between the input stroke length and the dictionary stroke length is smaller than the threshold value TH3 (step 230). This processing omits matching with a character that greatly differs from the input stroke length, and is necessary for speeding up the processing. After the above classification is completed, the above-mentioned backbone vector correspondence processing is performed (step 240). The detailed flow will be described with reference to FIG. Then, finally, a matching process, which is a distance value calculation, is performed based on the obtained correspondence vector (step 250).
The above process is performed for all dictionaries (step 26).
0).
【0061】図15は、バックボーンベクトル対応処理
(図14、ステップ240)の詳細フローである。図7
〜図10で前述のアルゴリムに従い、処理される。ま
ず、ストロークの先頭の近似点を対応点に設定する(ス
テップ240a)。次に、辞書点および入力点を各々進
める(ステップ240b)。ベクトルを演算し、同一方
向かどうか判定する(ステップ240c)。同一方向か
どうかは、図6のバックボーンベクトルにて行う。その
中間の補助ベクトルは、前述のように、両側のベクトル
になりうるものとして判定する。ステップ240cの判
定で、同一方向のとき、ステップ240dにジャンプ
し、辞書点,入力点とも近似点を先に進める。一方、ス
テップ240cにおいて、異方向のとき、ステップ24
0gにジャンプし、辞書点を前進し、同様に方向判定す
る。もし、同一方向の時、辞書点を対応点候補として設
定する(ステップ240g〜240I)。次に、入力点
においても同様に前進させ、方向を判定する(ステップ
240j〜240l)。さて、ステップ240cにおい
て、同一方向のとき、次のベクトルも同一方向かどうか
を判定し(ステップ240e)、同一方向であれば、辞
書点,入力点とも対応点候補に設定する(ステップ24
0f)。異方向であれば、ステップ240gにジャンプ
する。以上の処理を全ての座標点について処理する(ス
テップm)。FIG. 15 is a detailed flow of the backbone vector correspondence processing (FIG. 14, step 240). Figure 7
~ Processing is performed according to the algorithm described above in Fig. 10. First, the approximate point at the beginning of the stroke is set as the corresponding point (step 240a). Next, the dictionary point and the input point are respectively advanced (step 240b). The vector is calculated, and it is determined whether they are in the same direction (step 240c). Whether or not the directions are the same is determined by the backbone vector of FIG. The intermediate auxiliary vector is determined to be a vector on both sides as described above. If it is determined in step 240c that they are in the same direction, the process jumps to step 240d to advance the dictionary point and the input point to the approximate point. On the other hand, in step 240c, when the direction is different, step 24
Jump to 0 g, move forward the dictionary point, and similarly determine the direction. If they are in the same direction, dictionary points are set as corresponding point candidates (steps 240g to 240I). Next, at the input point as well, it is similarly advanced to determine the direction (steps 240j to 240l). Now, in step 240c, if the next vector is also in the same direction when it is in the same direction (step 240e), if it is in the same direction, both dictionary points and input points are set as corresponding point candidates (step 24).
0f). If the direction is different, the process jumps to step 240g. The above process is performed for all coordinate points (step m).
【0062】図16は、前述のバックボーンベクトル対
応処理により求めた対応ベクトルを元に、認識距離値の
演算を行う処理フローである。この処理は、図13に述
べたように各識別要素を求め、係数を加重平均すること
である。まず、ベクトル差V(a−b)の要素を演算す
る(ステップ250a)。これは、図12に述べたよう
に、辞書ベクトルと入力ベクトルの差分を全対応点で累
積加算するものである。次に、座標差P(a−b)の識
別要素の演算(ステップ250b),始終点差Pse
(a−b)の識別要素の演算(ステップ250c),ス
トローク長差L(a−b)の識別要素の演算(ステップ
250d)を行う。最後に、認識距離値Φを各々の識別
要素と係数を掛け、加重平均して求める(ステップ25
0e)。以上の処理を、分類された文字全てについて処
理する(ステップ250f)。最後に、求められた距離
値を小さい順にソーティングすることで、候補文字群を
得ることができる。通常、第10位までを候補にして、
後は、棄却する。FIG. 16 is a processing flow for calculating the recognition distance value based on the correspondence vector obtained by the backbone vector correspondence processing. This processing is to obtain each discriminant element as described in FIG. 13 and weight the average of the coefficients. First, the element of the vector difference V (ab) is calculated (step 250a). As described in FIG. 12, this is to cumulatively add the differences between the dictionary vector and the input vector at all corresponding points. Next, the identification element of the coordinate difference P (ab) is calculated (step 250b), and the start / end point difference Pse is calculated.
The calculation of the identification element of (ab) (step 250c) and the calculation of the identification element of the stroke length difference L (ab) (step 250d) are performed. Finally, the recognition distance value Φ is obtained by multiplying each discriminant element by a coefficient and performing a weighted average (step 25).
0e). The above process is performed for all the classified characters (step 250f). Finally, the candidate character group can be obtained by sorting the obtained distance values in ascending order. Usually, the 10th place is the candidate,
After that, it is rejected.
【0063】次に、バックボーンベクトル対応マッチン
グ方式により、得られた候補文字群に対し、図1の詳細
識別部300で詳細判定を行う。まず、詳細識別のコン
セプトを述べ、次に、処理フローを述べる。Next, the detailed identification unit 300 of FIG. 1 makes a detailed determination on the obtained candidate character group by the backbone vector correspondence matching method. First, the concept of detailed identification will be described, and then the processing flow will be described.
【0064】図17は、詳細識別の基本方式を述べたも
のである。各詳細識別要素は、文字に対し共通処理する
ものと、字別の処理をするものに分類される。なお、共
通処理は、認識距離値へ、ペナルテイとして反映する
が、字別処理は、候補順位を入れ替えることにする。ま
ず、形状比較を行う。図示したように、形状比較のセグ
メントとして、直線,右ループ,右カーブ,右角,左ル
ープ,左カーブ,左角の7つに分け、形状を検出する。
なお、辞書にはオフストローク情報が付加されているた
め、この情報を利用して、入力パターンにもオフストロ
ーク情報を仮に割当ることで、特定部分の形状を判定す
ることができる。例えば、“は”は右ループ有り、
“け”は右カーブ有りと識別できる。共通処理として
は、例えば、ループの個数差をペナルティとして付加す
ることで詳細識別を行う。字別処理は、特に、似ている
文字群のテーブルを作成し、その文字のみどうしを比較
する。FIG. 17 describes the basic method of detailed identification. Each detailed identification element is classified into a common processing for characters and a processing for each character. Note that the common processing reflects the recognition distance value as a penalty, but the character-by-character processing replaces the candidate ranks. First, shape comparison is performed. As shown in the figure, the shape is detected by dividing it into seven segments of straight line, right loop, right curve, right corner, left loop, left curve, and left corner.
Since off-stroke information is added to the dictionary, it is possible to determine the shape of the specific portion by temporarily allocating the off-stroke information to the input pattern using this information. For example, "ha" has a right loop,
"Ke" can be identified as having a right curve. As common processing, for example, detailed identification is performed by adding a difference in the number of loops as a penalty. The character-by-character processing, in particular, creates a table of similar character groups and compares only those characters.
【0065】次の詳細識別要素としては、ストローク間
の相対位置を比較するもので、図17に図示のように、
クロス型,T型,L型,Y型の4種類の有無を比較す
る。例えば、“石”はクロス無し、“右”はクロス有り
として検出する。なお、この相対位置比較は、関係する
ベクトルの直線から、交叉情報を得て行う。この相対位
置比較も、共通処理と字別処理の両方を行う。The next detailed identification element is to compare relative positions between strokes, and as shown in FIG.
The presence / absence of four types of cross type, T type, L type, and Y type is compared. For example, "stone" is detected as having no cross, and "right" is detected as having cross. It should be noted that this relative position comparison is performed by obtaining the crossover information from the straight lines of the related vectors. This relative position comparison also performs both common processing and character-by-character processing.
【0066】前述したバックボーンベクトル対応マッチ
ング方式では、基本的に画数情報は利用せず、1筆書き
されたものとして処理している。したがって、楷書から
続け字まで同一認識アルゴリズムで認識できる。しか
し、逆に、これにより、形がほとんど同じになる文字群
が発生し、認識性能を低下させてします。例えば、
“乙”と“二”は、同じパターンとして識別してしま
う。そこで、字別に画数を比較する。辞書には、正確な
画数が格納されているため、入力が2画なら“二”に、
1画なら“乙”とする。ストローク長についても同様に
識別できる文字がある(例:“末”と“末”、“!”と
“:”)。これについては、横棒、縦棒の長さを比較す
ることで識別できる。In the above-mentioned backbone vector correspondence matching method, basically, the stroke number information is not used and it is processed as one stroke. Therefore, the same recognition algorithm can be used to recognize from regular characters to consecutive characters. However, on the contrary, this causes a group of characters that have almost the same shape, which reduces recognition performance. For example,
"Otsu" and "2" are identified as the same pattern. Therefore, the number of strokes is compared for each character. The correct number of strokes is stored in the dictionary, so if the input is 2 strokes, change it to "2".
If it is one stroke, it will be called "Oto". Similarly, there are some characters that can be identified for the stroke length as well (eg "end" and "end", "!" And ":"). This can be identified by comparing the lengths of the horizontal and vertical bars.
【0067】最後の詳細識別の要素として、字別に部首
を比較する。本発明では、オフストロークがあっても、
1筆であるとして認識する方式であるため、区別がはっ
きりしない字が存在する。そのため、違いのある部首の
みを切り出しで比較する(例:“什”と“汁”、“弘”
と“払”)。As the last element of the detailed identification, radicals are compared for each character. In the present invention, even if there is an off stroke,
Since it is a method of recognizing as one stroke, there are characters that are not clearly distinguished. Therefore, only the radicals that differ are cut out and compared (eg: “timber”, “juice”, “hiro”).
And "pay").
【0068】上記、詳細識別のアルゴリズムの処理フロ
ーを図18に示す。図18において、まず、入力パター
ンと辞書パターンのループを検出し、入力にあって、辞
書に無い場合、その文字にペナルティを付加する(ステ
ップ310)。また、入力パターンと辞書パターンの接
続情報を検出し、例えば、クロスの有無により、ペナル
ティを付加する(ステップ320)。この2つの処理は共
通処理であるため、ペナルティを付加した値をもとに、
再ソーテングする必要がある(ステップ330)。次に、
ソーテングした候補の第1位の文字が、字別にテーブル
化してある文字かどうか判定する(ステップ340)。
もし、テーブルに定義している文字が第1位にある場
合、前述の詳細識別処理を行う(ステップ350)。も
し、第1位の候補文字が、テーブルにある場合、他の候
補の対応する文字も存在するため、その文字も含め、さ
らに詳細に比較する。もし、正解文字以外の文字のほう
が入力パターンと近いとき、候補を入れ替える。FIG. 18 shows the processing flow of the above detailed identification algorithm. In FIG. 18, first, a loop between the input pattern and the dictionary pattern is detected, and if there is an input and it is not in the dictionary, a penalty is added to the character (step 310). Also, the connection information between the input pattern and the dictionary pattern is detected, and a penalty is added depending on the presence / absence of a cross, for example (step 320). Since these two processes are common processes, based on the value with the penalty added,
It needs to be re-sorted (step 330). next,
It is determined whether or not the first ranked character of the sorted candidate is a character tabulated for each character (step 340).
If the character defined in the table is in the first place, the above detailed identification processing is performed (step 350). If the first-ranked candidate character is in the table, corresponding characters of other candidates also exist, and therefore, the character including that character is compared in more detail. If a character other than the correct character is closer to the input pattern, the candidates are replaced.
【0069】以上のように、辞書パターンは楷書で登録
しているため、オフストローク情報を用いて、入力パタ
ーンにもオフストロークを仮割当、これにより、文字の
詳細を識別することで、認識率を向上させることが出来
る。As described above, since the dictionary pattern is registered in a regular form, the off stroke information is used to provisionally assign the off stroke to the input pattern as well, whereby the details of the character can be identified and the recognition rate can be improved. Can be improved.
【0070】次に、図1に示したくずし度設定部9の詳
細について、図19〜図21を用いて説明する。まず、
図19には、くずし度設定パネルを示す。このパネルで
は、(a)楷書入力に設定するか、(c)続け字入力
か、あるいは、(b)その中間の入力かの状態を示して
いる。楷書入力に設定すると、図20に示すように、入
力ストロークと辞書ストロークのストローク長差のしき
い値TH3の値を小さくする。逆に、続け字にすると、
ストロークの変形が多くなるため、ストローク長差もバ
ラツキが大きなる。したがって、しきい値TH3は大き
くする必要がある。これは、図14の分類幅を変更して
いることになり、認識時間に密接に関係する。したがっ
て、ユーザは、楷書入力にしておけば、快適な認識速度
を享受できるが、くずし字の認識率は悪くなる。一方、
くずし字の多い人は、続け字側にして置くことにより、
認識率は良くなるが、認識速度は犠牲になる。以上のよ
うに、文字の分類のしきい値を変更することで、多様な
入力形態に対応可能で、特に、携帯端末で有効である。Next, details of the breakage degree setting unit 9 shown in FIG. 1 will be described with reference to FIGS. 19 to 21. First,
FIG. 19 shows a breakage degree setting panel. This panel shows the status of (a) regular input, (c) continuous character input, or (b) intermediate input. When the input is set to the regular writing, as shown in FIG. 20, the threshold value TH3 of the stroke length difference between the input stroke and the dictionary stroke is reduced. On the contrary, if you use continuous letters,
Since the stroke is deformed a lot, the difference in stroke length also varies greatly. Therefore, it is necessary to increase the threshold value TH3. This means that the classification width in FIG. 14 is changed, and is closely related to the recognition time. Therefore, the user can enjoy a comfortable recognition speed if he / she inputs it in a regular form, but the recognition rate of the broken character becomes worse. on the other hand,
If you have a lot of comb letters, put them on the side of the letters
The recognition rate is improved, but the recognition speed is sacrificed. As described above, by changing the threshold value of character classification, it is possible to deal with various input forms, and it is particularly effective for mobile terminals.
【0071】図21は、このくずし度設定部9の処理フ
ローを説明したものである。くずし度の設定パネルの値
を読み込み(ステップ14a)、次に、この値に応じ
て、しきい値テーブルを引き、設定するのみで実現でき
る(ステップ14b)。なお、くずし度の設定しきい値
として分類のしきい値としたが、その他のマッチング処
理の足きりしきい値でもよい。逆に、認識した文字の画
数と辞書の画数との差分を検出して、画数の差分が小さ
ければ、楷書入力であるかと判定することで、上記しき
い値TH3を小さくし、かつ、CPUのクロックを遅く
設定することで携帯端末の電池寿命を長持ちさせること
もできる。勿論、その逆の場合で、画数の差分が大きい
とき、入力パターンが続け字が多いと判断し、CPUの
クロックを早くする。このときは、電池の消耗も早くな
るため、電池寿命は少なくなる。いずれにせよ、分類の
幅を制御することで、電池の消耗を制御したり、認識の
処理速度を制御したりすることができる。FIG. 21 illustrates the processing flow of the crushing degree setting unit 9. This can be realized simply by reading the value on the setting panel for the degree of breakage (step 14a), then drawing and setting the threshold value table according to this value (step 14b). Although the threshold for classification is used as the threshold for setting the degree of breakage, it may be a threshold for other matching processing. On the contrary, the difference between the number of strokes of the recognized character and the number of strokes in the dictionary is detected, and if the difference in the number of strokes is small, it is determined whether or not the input is a cross-script input. By setting the clock late, the battery life of the mobile terminal can be extended. Of course, in the opposite case, when the difference in the number of strokes is large, it is determined that the input pattern has many continuous characters, and the clock of the CPU is accelerated. At this time, the battery will be consumed faster, and the battery life will be shortened. In any case, by controlling the width of classification, it is possible to control battery consumption and control the recognition processing speed.
【0072】[0072]
【発明の効果】以上、本発明の実施例によれば、以下の
ような効果がある。まず、第1に、文字の骨格を所定の
角度のバックボーンベクトルに分解し、この後に、マッ
チング処理することで、楷書書き入力から続け書き入力
までの柔軟な入力が、1つの辞書パターンのみで認識可
能である。これによって、くずし字や楷書字などの複数
の辞書登録が不要となるため、辞書サイズが小さくなる
効果がある。また、バックボーンベクトル対応処理とマ
ッチング処理部を分けて処理することで、近似点の対応
が簡単になり、マッチングの処理時間の軽減することが
できる。As described above, according to the embodiments of the present invention, the following effects can be obtained. First, by dividing the skeleton of the character into backbone vectors with a certain angle and then performing matching processing, flexible input from regular writing to continuous writing can be recognized with only one dictionary pattern. It is possible. This eliminates the need for registering a plurality of dictionaries such as Kushiji or Kanji, which has the effect of reducing the dictionary size. Further, by performing the backbone vector correspondence processing and the matching processing unit separately, the correspondence of the approximate points becomes simple, and the processing time of the matching can be reduced.
【0073】第2の効果として、座標点列の特徴点を抽
出する場合、複数の座標点列で構成する三角形の面積を
しきい値と比較する面積法と上記複数の座標点列で構成
する内角をしきい値と比較する角度法を組み合わせるこ
とで、安定して、かつ、少ない近似点を求めることが可
能である。これにより、辞書サイズが少なくてよいとい
う効果がある。As a second effect, in the case of extracting the characteristic points of the coordinate point sequence, the area method for comparing the area of the triangle formed by the plurality of coordinate point sequences with the threshold value and the plurality of coordinate point sequences are used. By combining the angle method of comparing the interior angle with the threshold value, it is possible to stably obtain a small number of approximation points. This has the effect of reducing the size of the dictionary.
【0074】第3の効果として、バックボーンベクトル
対応マッチング方式では、未対応の近似点をも、周辺の
対応点から、仮対応することにより、マッチングの距離
演算を精度よくできる効果がある。したがって、認識率
も向上する効果がある。As a third effect, in the backbone vector corresponding matching method, even if an uncorresponding approximate point is tentatively corresponded from the peripheral corresponding points, there is an effect that the distance calculation of the matching can be accurately performed. Therefore, the recognition rate is also improved.
【0075】第4の効果として、くずし度設定を設ける
ことで、しきい値をダイナミックに変更して、認識処理
時間を変更することができる。これにより、楷書入力の
ように、あまり、くずし字を入力しないユーザには、快
適な認識速度を提供することができる。As a fourth effect, by providing the breakage degree setting, the threshold value can be dynamically changed and the recognition processing time can be changed. As a result, a comfortable recognition speed can be provided to a user who does not input a lot of kanji characters, such as a regular writing method.
【0076】第5の効果として、くずし度を辞書との画
数差で判断し、処理システムのクロック速度と連動させ
ることで、消費電力を制御することができ、携帯端末の
寿命を長くすることができる。As the fifth effect, the power consumption can be controlled and the life of the portable terminal can be extended by determining the degree of breakage based on the difference in the number of strokes from the dictionary and linking it with the clock speed of the processing system. it can.
【図1】本発明の一実施例のブロック構成を説明する図
である。FIG. 1 is a diagram illustrating a block configuration of an embodiment of the present invention.
【図2】本発明の一実施例のハードウエア構成を説明す
る図である。FIG. 2 is a diagram illustrating a hardware configuration of an embodiment of the present invention.
【図3】本発明の一実施例の特徴抽出部の全体処理フロ
ーである。FIG. 3 is an overall processing flow of a feature extraction unit according to an embodiment of the present invention.
【図4】本発明の一実施例の特徴抽出部のアルゴリズム
を説明する図である。FIG. 4 is a diagram illustrating an algorithm of a feature extraction unit according to an embodiment of the present invention.
【図5】本発明の一実施例の特徴抽出部の特徴点抽出処
理フローである。FIG. 5 is a feature point extraction processing flow of a feature extraction unit according to an embodiment of the present invention.
【図6】本発明の一実施例のバックボーンベクトルを説
明する図である。FIG. 6 is a diagram illustrating a backbone vector according to an embodiment of the present invention.
【図7】本発明の一実施例のバックボーンベクトル対応
を説明する図である。FIG. 7 is a diagram illustrating correspondence between backbone vectors according to an embodiment of the present invention.
【図8】本発明の一実施例のバックボーンベクトル対応
を説明する図である。FIG. 8 is a diagram for explaining backbone vector correspondence according to an embodiment of the present invention.
【図9】本発明の一実施例のバックボーンベクトル対応
を説明する図である。FIG. 9 is a diagram illustrating correspondence between backbone vectors according to an embodiment of the present invention.
【図10】本発明の一実施例のバックボーンベクトル対
応を説明する図である。FIG. 10 is a diagram for explaining backbone vector correspondence according to an embodiment of the present invention.
【図11】本発明の一実施例のバックボーンベクトル対
応を説明する図である。FIG. 11 is a diagram illustrating correspondence between backbone vectors according to the embodiment of this invention.
【図12】本発明の一実施例のベクトル差の演算アルゴ
リズムを説明する図である。FIG. 12 is a diagram illustrating a vector difference calculation algorithm according to an embodiment of the present invention.
【図13】本発明の一実施例の認識距離値演算アルゴリ
ズムを説明する図である。FIG. 13 is a diagram illustrating a recognition distance value calculation algorithm according to an embodiment of the present invention.
【図14】本発明の一実施例のマッチング処理フローで
ある。FIG. 14 is a matching processing flow according to an embodiment of the present invention.
【図15】本発明の一実施例のバックボーンベクトル対
応処理フローである。FIG. 15 is a backbone vector correspondence processing flow according to an embodiment of the present invention.
【図16】本発明の一実施例の認識距離値演算処理フロ
ーである。FIG. 16 is a recognition distance value calculation processing flow according to an embodiment of the present invention.
【図17】本発明の一実施例の詳細識別のアルゴリズム
を説明する図である。FIG. 17 is a diagram illustrating an algorithm for detailed identification according to an embodiment of the present invention.
【図18】本発明の一実施例の詳細識別の処理フローで
ある。FIG. 18 is a processing flow of detailed identification according to an embodiment of the present invention.
【図19】本発明の一実施例のくずし度設定パネルを説
明する図である。FIG. 19 is a diagram illustrating a scraping degree setting panel according to an embodiment of the present invention.
【図20】本発明の一実施例のくずし度設定としきい値
の関係を説明する図である。FIG. 20 is a diagram for explaining the relationship between the breakage level setting and the threshold value according to the embodiment of the present invention.
【図21】本発明の一実施例のくずし度設定の処理フロ
ーである。FIG. 21 is a processing flow for setting a scrap level according to an embodiment of the present invention.
1…座標入力装置、2…液晶装置、3…ペン、4…スト
ローク入出力部、5…文字認識部、9…くずし度設定
部、200…バックボーンベクトル対応マッチング部、
300…詳細識別部、400…認識辞書部。1 ... Coordinate input device, 2 ... Liquid crystal device, 3 ... Pen, 4 ... Stroke input / output unit, 5 ... Character recognition unit, 9 ... Breakage level setting unit, 200 ... Backbone vector matching unit,
300 ... Detail identification part, 400 ... Recognition dictionary part.
───────────────────────────────────────────────────── フロントページの続き (72)発明者 石田 正幸 東京都渋谷区道玄坂一丁目16番5号 日 立情報システムズ内 (72)発明者 瀧 かよ子 東京都渋谷区道玄坂一丁目16番5号 日 立情報システムズ内 (72)発明者 村尾 龍之介 東京都渋谷区道玄坂一丁目16番5号 日 立情報システムズ内 (56)参考文献 特開 平5−225396(JP,A) 特開 平8−180135(JP,A) 特開 平9−16720(JP,A) 特開 平8−101889(JP,A) 特開 平3−282896(JP,A) 特開 昭60−112187(JP,A) 特開 平8−305851(JP,A) 特開 平7−129720(JP,A) 特開 平7−73275(JP,A) (58)調査した分野(Int.Cl.7,DB名) G06K 9/00 - 9/82 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Inventor Masayuki Ishida 1-16-5 Dogenzaka, Shibuya-ku, Tokyo Inside Nikkei Information Systems (72) Inventor Kayoko Taki 1-16-5 Dogenzaka, Shibuya-ku, Tokyo In Information Systems (72) Inventor Ryunosuke Murao 1-16-5 Dogenzaka, Shibuya-ku, Tokyo Inside Information Systems (56) Reference JP-A-5-225396 (JP, A) JP-A-8-180135 (JP , A) JP 9-16720 (JP, A) JP 8-101889 (JP, A) JP 3-282896 (JP, A) JP 60-112187 (JP, A) JP 8-305851 (JP, A) JP-A-7-129720 (JP, A) JP-A-7-73275 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G06K 9/00 -9/82
Claims (5)
と、辞書パターンを分類比較して手書き文字を認識する
認識部と、 前記認識部で認識した結果を表示する認識結果表示部と
を有するオンライン手書き文字認識装置において、 前記認識部は、前記座標点列の複数の点列から、特徴量
を求め、しきい値と比較して手書き座標の特徴点を抽出
する特徴抽出部と、 オフストロークを含む標準文字パターンを登録した認識
辞書部と、 入力パターンと辞書パターンの各々に対し、上下左右の
4方向のベクトルに対応させた対応点を元に、順次マッ
チング処理するバックボーンベクトル対応マッチング部
と、前記バックボーンベクトル対応マッチング部で得られた
対応ベクトルに対して、前記バックボーンベクトル対応
後に認識距離値を算出し、前記認識距離値から認識候補
文字群を求め、前記認識候補文字群に対して、辞書のオ
フストローク情報を付加して入力文字パターンの特定部
分を識別する詳細識別部を有する ことを特徴とするオン
ライン文字認識装置。1. A coordinate input device for inputting handwritten coordinates, a recognition unit for recognizing handwritten characters by classifying and comparing a feature pattern obtained from a coordinate point sequence of the handwriting coordinates, and a dictionary pattern, and the recognition unit. In an online handwritten character recognition device having a recognition result display unit that displays a recognition result, the recognition unit obtains a feature amount from a plurality of point sequences of the coordinate point sequence, and compares the handwriting coordinates with a threshold value. The feature extraction unit that extracts the feature points, the recognition dictionary unit that registers the standard character patterns including off-strokes, and the corresponding points that correspond to the four vertical and horizontal vectors for each of the input pattern and the dictionary pattern. Originally, it is obtained by the backbone vector corresponding matching unit that sequentially performs matching processing and the backbone vector corresponding matching unit .
Corresponding vector corresponds to the backbone vector
After that, the recognition distance value is calculated, and the recognition candidate is calculated from the recognition distance value.
The character group is obtained, and the dictionary
Input part of character pattern by adding stroke information
An online character recognition device having a detailed identification section for identifying minutes .
と、辞書パターンを分類比較して手書き文字を認識する
認識部と、 前記認識部で認識した結果を表示する認識結果表示部と
を有するオンライン手書き文字認識装置において、 前記認識部は、前記座標点列の複数の点列から面積の累
積値と角度を特徴量とし、前記面積の累積値はしきい値
Th1より大きくかつ前記角度がしきい値Th2よりも
大きいか、又は前記角度がしきい値Th2よりも小さい
ときに、最後に取り込んだ座標の一つ前を近似点として
手書き座標の特徴点を抽出する特徴抽出部と、 オフストロークを含む標準文字パターンを登録した認識
辞書部と、 入力パターンと辞書パターンの各々に対し、上下左右の
4方向のベクトルに対応させた対応点を元に、順次マッ
チング処理するバックボーンベクトル対応マッチング部
と、 を有することを特徴とするオンライン文字認識装置。2. A coordinate input device for inputting handwritten coordinates, and a characteristic pattern obtained from a coordinate point sequence of the handwritten coordinates.
And recognize handwritten characters by classifying and comparing dictionary patterns
A recognition unit and a recognition result display unit that displays the result recognized by the recognition unit.
In the on-line handwritten character recognition device having the above, the recognizing unit accumulates an area from a plurality of coordinate point sequences.
The product value and the angle are feature values, and the cumulative value of the area is the threshold value.
Is greater than Th1 and the angle is greater than the threshold Th2.
Larger or the angle is smaller than the threshold Th2
Sometimes, the point before the last captured coordinate is used as an approximation point.
A feature extraction unit that extracts feature points of handwritten coordinates and recognition that registers standard character patterns including off-strokes
For the dictionary part, input pattern and dictionary pattern,
Based on the corresponding points corresponding to the vectors in the four directions,
Backbone vector matching unit that performs ching processing
Online character recognition apparatus characterized by having, when.
と、辞書パターンを分類比較して手書き文字を認識する
認識部と、 前記認識部で認識した結果を表示する認識結果表示部と
を有するオンライン手書き文字認識装置において、 前記認識部は、前記座標点列の複数の点列から、特徴量
を求め、しきい値と比較して手書き座標の特徴点を抽出
する特徴抽出部と、 オフストロークを含む標準文字パターンを登録した認識
辞書部と、 入力パターンと辞書パターンの各々に対し、上下左右の
4方向のベクトルに対応させた対応点を元に、順次マッ
チング処理するバックボーンベクトル対応マッチング部
と、を有し、 前記分類比較して手書き文字を認識する認識部の分類と
して、 前記認識部は、 入力画数+2が辞書の画数より小さいときのみ、 入力パターンと辞書パターンのストローク長を求め、入
力パターンのストローク長と辞書パターンのストローク
長の差が閾値以下であるとき辞書パターンとマッチング
を行い、前記差が閾値を超えるときは辞書パターンとマ
ッチングを行わない ことを特徴とするオンライン文字認
識装置。3. A coordinate input device for inputting handwritten coordinates, and a characteristic pattern obtained from a coordinate point sequence of the handwritten coordinates.
And recognize handwritten characters by classifying and comparing dictionary patterns
A recognition unit and a recognition result display unit that displays the result recognized by the recognition unit.
In the on-line handwritten character recognition device having, the recognizing unit calculates a feature amount from a plurality of point sequences of the coordinate point sequence.
And extract the feature points of handwritten coordinates by comparing with the threshold value
Feature extraction unit and recognition that registers standard character patterns including off-strokes
For the dictionary part, input pattern and dictionary pattern,
Based on the corresponding points corresponding to the vectors in the four directions,
Backbone vector matching unit that performs ching processing
And a classification of a recognition unit for recognizing handwritten characters by comparing the classifications with
Then, the recognition unit obtains the stroke lengths of the input pattern and the dictionary pattern only when the input stroke count + 2 is smaller than the dictionary stroke stroke,
Stroke length of force pattern and stroke of dictionary pattern
Matches with a dictionary pattern when the difference in length is less than a threshold
If the difference exceeds the threshold, the dictionary pattern and
An online character recognition device that is not touched .
ーンを分類比較して手書き文字を認識する認識部と、 認識した結果を表示する認識結果表示部とを有するオン
ライン手書き文字認識装置において、 辞書パターンと入力パターンの特徴量から、くずし度を
求め、このくずし度から、前記手書き文字認識装置のシ
ステムクロックを制御する手段を設けたことを特徴とす
るオンライン文字認識装置。 4. A coordinate input device for inputting handwritten coordinates, a feature extraction unit for extracting feature points from the handwritten coordinate sequence, a feature pattern obtained from the feature extraction unit, and a dictionary pattern for classification and handwriting. In an online handwritten character recognition device having a recognition unit for recognizing characters and a recognition result display unit for displaying the recognition result, the degree of breakage is obtained from the feature amount of the dictionary pattern and the input pattern, and the handwriting is performed based on this degree of breakage. An online character recognition device comprising means for controlling a system clock of the character recognition device.
ーンの画数差であることを特徴とするオンライン文字認
識装置。 5. The method of claim 4, as a feature of the breaking of the online character recognition device which is a number of strokes difference dictionary pattern and the input pattern.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01503597A JP3470541B2 (en) | 1997-01-29 | 1997-01-29 | Online handwritten character recognition device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP01503597A JP3470541B2 (en) | 1997-01-29 | 1997-01-29 | Online handwritten character recognition device |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH10214312A JPH10214312A (en) | 1998-08-11 |
JP3470541B2 true JP3470541B2 (en) | 2003-11-25 |
Family
ID=11877590
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP01503597A Expired - Fee Related JP3470541B2 (en) | 1997-01-29 | 1997-01-29 | Online handwritten character recognition device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3470541B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2002091288A1 (en) * | 2001-05-10 | 2002-11-14 | Bijitec Pte Ltd | System and method for compressing stroke-based handwriting and line drawing |
CN1333366C (en) * | 2005-04-01 | 2007-08-22 | 清华大学 | On-line hand-written Chinese characters recognition method based on statistic structural features |
JP5053538B2 (en) * | 2005-11-22 | 2012-10-17 | 任天堂株式会社 | Handwriting learning support program and handwritten character recognition program |
-
1997
- 1997-01-29 JP JP01503597A patent/JP3470541B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JPH10214312A (en) | 1998-08-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US6289124B1 (en) | Method and system of handwritten-character recognition | |
US7292726B2 (en) | Recognition of electronic ink with late strokes | |
Connell et al. | Recognition of unconstrained online Devanagari characters | |
Tagougui et al. | Online Arabic handwriting recognition: a survey | |
US9323456B2 (en) | Multi-character continuous handwriting input method | |
US5768417A (en) | Method and system for velocity-based handwriting recognition | |
JP4274941B2 (en) | Method and apparatus for decoding handwritten characters | |
EP1564675B1 (en) | Apparatus and method for searching for digital ink query | |
Bhattacharya et al. | Direction code based features for recognition of online handwritten characters of Bangla | |
EP0889433A2 (en) | Method and apparatus for on-line handwritten input character recognition and recording medium for executing the method | |
JP2015099566A (en) | Feature calculation device, method and program | |
JP3470541B2 (en) | Online handwritten character recognition device | |
Roy et al. | Online Bangla handwriting recognition system | |
US9454706B1 (en) | Arabic like online alphanumeric character recognition system and method using automatic fuzzy modeling | |
JP3977473B2 (en) | Handwritten character recognition method and handwritten character recognition apparatus | |
Nguyen et al. | Semi-incremental recognition of on-line handwritten Japanese text | |
JP2000163514A (en) | Character recognizing method and device and storage medium | |
JP3817281B2 (en) | Information processing apparatus and method | |
JPH09120433A (en) | Character recognizing method and document preparation device | |
Rossignol et al. | Mode detection and incremental recognition | |
KR100290606B1 (en) | Method for recognizing cursive of hangul in online system | |
Liang et al. | Character-position-free on-line handwritten Japanese text recognition | |
JP3221488B2 (en) | Online character recognition device with verification function | |
JP2633523B2 (en) | Handwriting input device | |
JP3365538B2 (en) | Online character recognition method and apparatus |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20070912 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080912 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080912 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090912 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090912 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100912 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100912 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110912 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120912 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120912 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130912 Year of fee payment: 10 |
|
LAPS | Cancellation because of no payment of annual fees |