JPH1021398A - Method for extracting directional characteristic vector - Google Patents

Method for extracting directional characteristic vector

Info

Publication number
JPH1021398A
JPH1021398A JP8173398A JP17339896A JPH1021398A JP H1021398 A JPH1021398 A JP H1021398A JP 8173398 A JP8173398 A JP 8173398A JP 17339896 A JP17339896 A JP 17339896A JP H1021398 A JPH1021398 A JP H1021398A
Authority
JP
Japan
Prior art keywords
character
directional
feature vector
image
character stroke
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8173398A
Other languages
Japanese (ja)
Inventor
Fumiyoshi Nishio
文祥 西尾
Yasutaka Watanabe
康隆 渡辺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tamura Electric Works Ltd
Original Assignee
Tamura Electric Works Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tamura Electric Works Ltd filed Critical Tamura Electric Works Ltd
Priority to JP8173398A priority Critical patent/JPH1021398A/en
Publication of JPH1021398A publication Critical patent/JPH1021398A/en
Pending legal-status Critical Current

Links

Landscapes

  • Character Discrimination (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To exactly identify a character by exactly extracting the directional characteristic vector of an outline in an oblique line. SOLUTION: An outline is extracted as each horizontal, vertical, right-up, and right-down directional pattern from black picture elements constituting the outline picture of a character to be recognized, the outline picture is normalized, and each above mentioned directional pattern is processed based on this normalized information, and generated as each character stroke. Then, the generated character stroke of each direction is equally divided into small areas by each horizontal and vertical dividing line, and at the time of extracting counting the number of the black picture elements of each divided small area, and extracting it as a directional characteristic vector, the picture of the generated character stroke of each right-up or right-down direction is rotated, matched with the direction of the dividing line, and the character stroke after rotation is divided into small areas.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は手書き文字等の被識
別文字を認識する文字認識技術に関し、特に被識別文字
の輪郭線から各方向パターンを抽出しかつ輪郭線の正規
化を行った後、この正規化情報に基づき処理された輪郭
線の各方向パターンから該パターンの方向特徴を示す方
向特徴ベクトルを抽出する方向特徴ベクトルの抽出方法
に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition technique for recognizing a character to be identified such as a handwritten character, and more particularly, to extracting each direction pattern from the outline of the character to be identified and normalizing the outline. The present invention relates to a directional feature vector extraction method for extracting a directional feature vector indicating a directional feature of a pattern from each directional pattern of a contour processed based on the normalization information.

【0002】[0002]

【従来の技術】一般に文字認識を行う場合は図7に示す
認識処理フローに従った手順で行われる。即ち、まず前
処理ステップS1において、認識されるべき被認識文字
の原画像からノイズ成分を除去する。次いで方向パター
ン作成ステップS2において、ノイズ成分が除去された
被認識文字の原画像から輪郭線画像を得て、この輪郭線
画像を各画素に分割し、文字情報を有する黒画素または
文字情報を有しない白画素の2値画素として構成する。
そして、黒画素または白画素の各画素からなる2値画像
から輪郭線画像の方向パターンを抽出する。
2. Description of the Related Art In general, character recognition is performed according to a procedure in accordance with a recognition processing flow shown in FIG. That is, first, in a preprocessing step S1, a noise component is removed from an original image of a character to be recognized. Next, in a direction pattern creation step S2, a contour image is obtained from the original image of the recognized character from which the noise component has been removed, and the contour image is divided into pixels, and a black pixel having character information or character information is stored. It is configured as a binary pixel of a white pixel which is not used.
Then, the direction pattern of the contour image is extracted from the binary image including the black pixels or the white pixels.

【0003】こうして方向パターンが抽出された後で、
次の正規化ステップS3では、その方向パターンが抽出
された画像が予め定められた大きさの正方形枠内に収ま
るようにその画像の各方向パターンを一定の比率で拡大
または縮小変換する。そして正規化処理された画像の各
方向パターンについて、次の特徴ベクトル作成ステップ
S4では、8×8の小領域(正方領域)に等分割し、各
小領域の黒画素数を特徴量とすることで、各方向パター
ンの特徴ベクトルを作成する。
After the direction pattern is extracted in this way,
In the next normalization step S3, each directional pattern of the image is scaled up or down at a fixed ratio so that the image from which the directional pattern is extracted fits within a square frame of a predetermined size. In the next feature vector creation step S4, each direction pattern of the normalized image is equally divided into 8 × 8 small areas (square areas), and the number of black pixels in each small area is used as a feature amount. Then, a feature vector of each direction pattern is created.

【0004】次に大分類ステップS5では、上記ステッ
プS4で求めた入力文字(被認識文字)の方向特徴ベク
トルに対し、予め設けた辞書のベクトルの中で距離の近
いベクトルを有する候補文字を距離の近いものから順に
複数抽出する。この距離計算は、式(1)に示す4−近
傍距離(4−neighor−distance)と呼
ばれる一般的な計算法を用いて演算される。
[0004] Next, in a large classification step S5, a candidate character having a vector having a short distance among vectors in a dictionary provided in advance is compared with the directional feature vector of the input character (character to be recognized) obtained in step S4. A plurality is extracted in order from the closest one. This distance calculation is performed using a general calculation method called 4-neighbor-distance shown in Expression (1).

【0005】即ち、 d4 ((i、j),(h,k))=|i−h|+|j−k| (1) (但し、(i、j)は入力文字の座標値、(h,k)は
辞書の文字の座標値) その後、詳細分類ステップS6では、精緻なパターン
(例えば、別に32×32次元の特徴ベクトルを用意す
る)を用いて詳細比較を行うことで最終的な文字識別を
行う。
That is, d4 ((i, j), (h, k)) = | i−h | + | j−k | (1) (where (i, j) is the coordinate value of the input character, (h, k) are the coordinate values of the characters in the dictionary.) Then, in the detailed classification step S6, a detailed comparison is performed using a fine pattern (for example, a separate 32 × 32-dimensional feature vector is prepared) to make the final comparison. Perform character identification.

【0006】[0006]

【発明が解決しようとする課題】従来は、方向特徴ベク
トルを抽出する場合、正規化処理された輪郭線の水平,
垂直,右上がり及び右下がりの各方向パターンについ
て、それぞれ8×8の各正方形領域に等分割し、等分割
した各小領域の画素数を計数してこの各小領域毎の計数
値をそのパターンの方向特徴ベクトルとしている。この
ため、上記の各小領域に等分割する分割線の方向と一致
した水平方向または垂直方向の各成分を有する輪郭線の
各文字ストロークについては、連続的な情報を得ること
ができ、従って正確な方向特徴ベクトルとして抽出する
ことができる。
Conventionally, when a directional feature vector is extracted, the horizontal and vertical lines of the normalized contour are used.
For each of the vertical, upward-sloping, and downward-sloping patterns, the pattern is equally divided into 8 × 8 square areas, and the number of pixels of each equally divided small area is counted. Directional feature vector. For this reason, continuous information can be obtained for each character stroke of a contour line having a horizontal or vertical component that matches the direction of the dividing line that is equally divided into each of the above-described small areas. Directional feature vectors.

【0007】しかし、右上がりまたは右下がり等の斜め
方向の成分を有する文字ストロークの場合は、図6に示
すように、文字ストロークSの方向成分が各小領域e1
〜e9を分割する分割線の方向と一致していないため、
ストロークの情報が隣接する各小領域に分散し、連続し
たストローク情報として得ることができない。このた
め、正確な方向特徴ベクトルとして抽出できず、従って
正確な文字識別を行うことができないという問題があっ
た。従って本発明は、斜め方向の輪郭線の方向特徴ベク
トルを正確に抽出するようにして正確な文字識別を行う
ことを目的とする。
However, in the case of a character stroke having a component in an oblique direction such as rising to the right or falling to the right, as shown in FIG.
To e9 do not match the direction of the dividing line,
Stroke information is dispersed in adjacent small areas and cannot be obtained as continuous stroke information. For this reason, there was a problem that an accurate directional feature vector could not be extracted, and thus accurate character identification could not be performed. Therefore, an object of the present invention is to perform accurate character identification by accurately extracting a direction feature vector of an oblique outline.

【0008】[0008]

【課題を解決するための手段】このような課題を解決す
るために本発明は、被識別文字の輪郭線画像を構成する
黒画素から輪郭線を水平,垂直,右上がり及び右下がり
の各方向パターンとして抽出すると共に、輪郭線画像を
正規化しこの正規化情報に基づいて上記の各方向パター
ンを処理して各文字ストロークとして生成し、生成され
た各方向の文字ストロークを水平及び垂直の各分割線に
よりそれぞれ小領域に等分割し、分割された各小領域の
黒画素数を各個に計数して方向特徴ベクトルとして抽出
する場合、生成された文字ストロークの画像を分割線の
方向に一致させるように回転すると共に、回転後の文字
ストロークを小領域に等分割するようにした方法であ
る。従って、分割線の方向からずれた文字ストロークを
分割線に一致させることで、輪郭線の正確な方向特徴ベ
クトルが得られる。また、回転の対象となる文字ストロ
ークの画像を右上がりまたは右下がりの各方向の文字ス
トロークとする。従って、斜め方向の輪郭線の方向特徴
ベクトルを的確に抽出できる。
SUMMARY OF THE INVENTION In order to solve the above-mentioned problems, the present invention provides a method for forming a contour line from black pixels constituting a contour image of a character to be identified in horizontal, vertical, upward and downward directions and downward and upward directions. In addition to extracting as a pattern, normalizing the contour image and processing each of the above directional patterns based on the normalized information to generate each character stroke, the generated character stroke in each direction is divided into horizontal and vertical divisions. In the case where lines are equally divided into small regions, and the number of black pixels in each divided small region is counted and extracted as a directional feature vector, the generated character stroke image is made to coincide with the direction of the dividing line. And the character stroke after rotation is equally divided into small areas. Therefore, an accurate directional feature vector of the contour can be obtained by matching the character stroke shifted from the direction of the dividing line to the dividing line. In addition, the image of the character stroke to be rotated is assumed to be a character stroke in each of upward and downward directions. Therefore, it is possible to accurately extract the direction feature vector of the oblique outline.

【0009】[0009]

【発明の実施の形態】以下、本発明について図面を参照
して説明する。図1は本発明を適用した装置の構成を示
すブロック図である。同図において、本装置は、CPU
1、タッチパネル2、タッチパネルの下面に形成された
LCD3、メモリ4、及び辞書メモリ5からなる手書き
文字入力装置である。ここで、タッチパネル2上の例え
ばA点からB点までの間を、図示しない入力ペンにより
押下しながら移動させると、CPU1はこの間の入力ペ
ンの移動軌跡を複数の座標値としてタッチパネル2を介
して入力する。そして、メモリ4にそのA点からB点ま
での線分を記憶すると共に、LCD3の対応部分にその
線分を表示する。このようにしてペン入力に基づく手書
き文字をLCD3に表示することができる。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an apparatus to which the present invention is applied. Referring to FIG.
1, a touch panel 2, an LCD 3 formed on the lower surface of the touch panel, a memory 4, and a dictionary memory 5. Here, when the touch panel 2 is moved while being pressed by an input pen (not shown) between points A and B on the touch panel 2, for example, the CPU 1 sets the movement locus of the input pen during this time as a plurality of coordinate values via the touch panel 2. input. Then, the line segment from the point A to the point B is stored in the memory 4 and the line segment is displayed on the corresponding portion of the LCD 3. In this manner, handwritten characters based on pen input can be displayed on the LCD 3.

【0010】また、こうしてメモリ4に記憶されかつL
CD3に表示された手書き文字について、CPU1は以
下に示すような各処理を行い、その処理結果と辞書メモ
リ5内に記憶された各字種とを比較することで、その手
書き文字がどの字種に該当するかを認識する。即ち、こ
の場合CPU1はまず被識別文字である入力文字(手書
き文字)からノイズ等を除去して滑らかな文字とする前
処理を行う。その後、図2(a)に示すこの原画像から
図2(b)に示すような輪郭線画像を得て、その輪郭線
画像を64×64の各画素として分割する。
In addition, the data stored in the memory 4 and L
The CPU 1 performs the following processes on the handwritten characters displayed on the CD 3, and compares the processing result with each of the character types stored in the dictionary memory 5. Recognize whether it corresponds to. That is, in this case, the CPU 1 first performs preprocessing to remove noise and the like from the input characters (handwritten characters), which are the characters to be identified, to make the characters smooth. Thereafter, a contour image as shown in FIG. 2B is obtained from the original image shown in FIG. 2A, and the contour image is divided into 64 × 64 pixels.

【0011】そして、その輪郭線を構成する全画素(黒
画素)について、それぞれ各画素が有している方向成分
を検出する。即ち、輪郭線を構成する任意の黒画素に着
目し、その着目画素と、その着目画素の前後の黒画素と
の接続パターンから、着目画素の方向成分を検出する。
図3はこのような黒画素の方向成分の検出状況を示す図
である。
Then, with respect to all the pixels (black pixels) constituting the outline, the direction component of each pixel is detected. That is, an arbitrary black pixel constituting the contour is focused on, and a directional component of the pixel of interest is detected from a connection pattern between the pixel of interest and black pixels before and after the pixel of interest.
FIG. 3 is a diagram showing a detection state of such a directional component of a black pixel.

【0012】ここで、図3において、斜線部分の画素a
〜cは輪郭線を構成する黒画素を示し、斜線部分以外の
画素は白画素であるとする。そして、着目画素をb、そ
の前後の黒画素をそれぞれa,cとすると、輪郭線は、
黒画素aから水平に着目画素bに入り、さらに着目画素
bを通って右上がり方向にある黒画素cに達することか
ら、着目画素bでは、水平方向成分と右上がり方向成分
の2つの方向成分を有することが分かる。そしてこれら
2つの方向成分が着目画素bの方向成分として検出され
る。なお、輪郭線を構成する黒画素の方向成分としては
上述の2つの方向成分の他に、垂直方向成分と右下がり
方向成分があるが、1つの黒画素については、これら4
つの方向成分のうち2つの方向成分が割り付けられる。
Here, in FIG. 3, a pixel a in a hatched portion
Cc indicate black pixels constituting the contour line, and pixels other than the hatched portions are assumed to be white pixels. If the pixel of interest is b and the black pixels before and after it are a and c, respectively, the outline is
The pixel of interest b enters the target pixel b horizontally from the black pixel a, and further reaches the black pixel c in the upward right direction through the pixel of interest b. Therefore, the target pixel b has two directional components of a horizontal component and a right upward component. It can be seen that Then, these two directional components are detected as the directional components of the pixel of interest b. Note that, in addition to the above-described two directional components, there are a vertical component and a rightward downward component as the directional components of the black pixels forming the contour line.
Two directional components of the one directional component are allocated.

【0013】CPU1は、輪郭線の方向パターンを抽出
する場合、輪郭線上の全ての各黒画素について、各黒画
素毎に順次方向成分を検出し、検出した各黒画素の方向
成分に基づき輪郭線の方向パターンを抽出する。このよ
うにして、図4(a)に示す原図形(輪郭線画像とす
る)から、図4(b)に示す水平,垂直,右下がり及び
右上がりの各方向パターンが生成される。
When extracting the directional pattern of the contour, the CPU 1 sequentially detects the directional component for each black pixel on all the black pixels on the contour and based on the detected directional component of each black pixel. Is extracted. In this way, from the original figure (contour image) shown in FIG. 4A, horizontal, vertical, downward-sloping and upward-sloping directional patterns shown in FIG. 4B are generated.

【0014】一方、それとは別に図4(a)の原図形か
ら線間隔を求めて、図4(c)に示すような線密度情報
を得る。ここで原図形を8×8の領域に分割するが、こ
のときの各領域の線密度が上記線密度情報と同一の密度
となるように分割線の位置を決定する非線形正規化処理
を行う。図4(d)はその非線形正規化処理の結果を示
す図である。そしてこの分割線の位置を示す非線形正規
化情報をもとに同図(b)のそれぞれの方向パターンに
対して非線形写像を行い、図4(e)のような各方向パ
ターン毎の処理結果を得る。
On the other hand, a line interval is obtained from the original figure shown in FIG. 4A to obtain line density information as shown in FIG. 4C. Here, the original figure is divided into 8 × 8 regions, and a non-linear normalization process for determining the position of the dividing line is performed so that the line density of each region at this time is the same as the line density information. FIG. 4D shows the result of the non-linear normalization process. Then, a nonlinear mapping is performed on each direction pattern shown in FIG. 4B based on the nonlinear normalized information indicating the position of the dividing line, and a processing result for each direction pattern as shown in FIG. obtain.

【0015】こうしたCPU1による非線形正規化処理
の終了後、CPU1は図4(e)に示す各方向パターン
毎にそれぞれ8×8の正方形の各小領域に等分割し、等
分割した各小領域の黒画素数を計数し、各小領域毎の計
数値をそのパターンの方向特徴ベクトルとして生成す
る。図5はこのような等分割の例を示す図であり、図5
(b)は水平方向の文字ストロークを、また図5(c)
は垂直方向の文字ストロークを、図5(d)及び図5
(e)はそれぞれ右下がり方向及び右上がり方向の各文
字ストロークを示している。
After the completion of the non-linear normalization process by the CPU 1, the CPU 1 divides each of the directional patterns shown in FIG. The number of black pixels is counted, and a count value for each small area is generated as a directional feature vector of the pattern. FIG. 5 is a diagram showing an example of such equal division.
FIG. 5B shows a horizontal character stroke, and FIG.
FIG. 5D and FIG.
(E) shows each character stroke in the rightward and downward directions.

【0016】ここで、各小領域内の黒画素数から特徴量
(即ち、方向特徴ベクトル量)を得ようとすると、図5
(b),(c)に示すような水平及び垂直方向の各文字
ストロークに関しては正確な情報が抽出できるが、図5
(d),(e)に示すような斜め方向の文字ストローク
に関しては、領域分割線の方向と合致していないため連
続的なストローク情報が得られず、従って正確な方向特
徴ベクトルが得られないという問題がある。このため、
図5(d),(e)に示す斜め方向パターンの各文字ス
トロークについては、その画像を45゜だけ角度を反時
計方向に回転させて図5(h),(i)に示す画像に変
換し、この画像から方向特徴ベクトルを抽出できるよう
にする。
Here, when an attempt is made to obtain a feature amount (ie, directional feature vector amount) from the number of black pixels in each small area, FIG.
Although accurate information can be extracted for horizontal and vertical character strokes as shown in (b) and (c), FIG.
For character strokes in oblique directions as shown in (d) and (e), continuous stroke information cannot be obtained because they do not match the direction of the region dividing line, and thus accurate directional feature vectors cannot be obtained. There is a problem. For this reason,
For each of the character strokes in the oblique direction pattern shown in FIGS. 5D and 5E, the image is converted into the image shown in FIGS. 5H and 5I by rotating the image by 45 ° counterclockwise. Then, a direction feature vector can be extracted from this image.

【0017】このような画像の回転変換は、以下の式
(2)及び式(3)からなる連立方程式に基づいて行わ
れる。即ち、変換後の文字ストロークの座標をx’,
y’とすると、変換前の文字ストロークのx座標は、 x=(x’−y’)/21/2 (2) また、変換前の文字ストロークのy座標は、 y=(x’+y’)/21/2 (3) として表すことができる。
The rotation conversion of such an image is performed based on simultaneous equations consisting of the following equations (2) and (3). That is, the coordinates of the converted character stroke are x ′,
If y ′, the x coordinate of the character stroke before conversion is: x = (x′−y ′) / 2 1/2 (2) The y coordinate of the character stroke before conversion is y = (x ′ + y) ') / 2 1/2 (3).

【0018】従って、回転後の座標位置(x’,y’)
と元(回転前)の文字ストロークの座標位置(x,y)
との対応関係を、式(2),(3)から求め、元の文字
ストロークの座標位置の値を回転後の座標位置に移動さ
せることにより、画像(図形)を45゜回転させること
ができる。こうして、45゜回転した文字ストロークに
ついて、それぞれ図5(h),(i)に示すような8×
8の小領域に等分割する。その後、等分割された正方形
の各小領域内の黒画素の数を計数し、この各小領域毎の
計数値により、右下がり方向の文字ストロークに関する
方向特徴ベクトル及び右上がり方向の文字ストロークに
関する方向特徴ベクトルを得る。
Therefore, the coordinate position (x ', y') after rotation
And the original (before rotation) character stroke coordinate position (x, y)
Is obtained from Equations (2) and (3), and the value of the coordinate position of the original character stroke is moved to the rotated coordinate position, whereby the image (graphic) can be rotated by 45 °. . Thus, for the character stroke rotated by 45 °, an 8 × character stroke as shown in FIGS.
Eight divisions are made equally. Thereafter, the number of black pixels in each of the equally divided square small areas is counted, and the directional feature vector for the character stroke in the downward right direction and the direction for the character stroke in the upward right direction are calculated based on the count value of each small area. Get the feature vector.

【0019】このようにして方向特徴ベクトルを求める
ことができる。その後、求めた方向特徴ベクトルに対
し、辞書メモリ5内の辞書のベクトルの中で距離の近い
ベクトルを有する候補文字を距離の近いものから順に複
数抽出し、抽出された候補文字と入力文字とをさらに詳
細に比較することで、最終的な文字識別を行う。表1
は、本発明の方向特徴ベクトル抽出方法に基づく文字認
識実験の結果と、画像を回転させない従来方式による文
字認識の結果を認識率(%)で示したものである。な
お、図中の1位分類率,3位分類率,・・・は、被認識
文字のサンプルが辞書から候補文字として選択されたと
きの順位を示している。
In this way, the direction feature vector can be obtained. Thereafter, for the obtained direction feature vector, a plurality of candidate characters having a vector with a short distance among vectors of the dictionary in the dictionary memory 5 are extracted in order from the one with the shortest distance, and the extracted candidate character and the input character are extracted. By comparing in more detail, final character identification is performed. Table 1
Fig. 6 shows the results of character recognition experiments based on the directional feature vector extraction method of the present invention and the results of character recognition by a conventional method without rotating an image, as recognition rates (%). The first-order classification rate, third-order classification rate,... In the figure indicate the order when the sample of the recognized character is selected as a candidate character from the dictionary.

【0020】[0020]

【表1】 [Table 1]

【0021】ここで、本発明の方向特徴ベクトル抽出法
による認識実験結果と、従来方式による認識実験結果を
比較すると、何れの分類率においても本発明の方向特徴
ベクトル抽出法を用いた場合の文字認識率が従来方式を
上回っていることが分かる。このように、方向特徴ベク
トルを抽出する場合、斜め方向のストロークが主成分と
なる画像を45゜回転させて水平または垂直方向の画像
に変換するようにしたものである。従って、水平または
垂直方向の文字ストロークと同様に連続したストローク
情報を抽出することが可能になり、従って正確な画像の
方向特徴ベクトルを抽出することができる。
Here, a comparison between the results of the recognition experiment by the directional feature vector extraction method of the present invention and the results of the recognition experiment by the conventional method shows that the character when the directional feature vector extraction method of the present invention is used at any classification rate. It can be seen that the recognition rate is higher than the conventional method. As described above, when the directional feature vector is extracted, the image in which the stroke in the oblique direction is the main component is rotated by 45 ° to be converted into the image in the horizontal or vertical direction. Therefore, it is possible to extract continuous stroke information as well as horizontal or vertical character strokes, and thus it is possible to extract an accurate directional feature vector of an image.

【0022】また、本実施の形態では、右上がり及び右
下がりの各方向成分を有する文字ストロークを45゜回
転させるようにしたが、回転角を自在に設定することに
より、水平または垂直方向の文字ストロークにも適用す
ることができる。一般に、文字を書く場合、右上がりの
文字を書くことが多い。このような場合に水平方向の文
字ストロークを所定角度だけ回転させてその右上がりの
文字を水平方向に近づけ、より正確な文字ストロークに
することができる。従って、正確な方向特徴ベクトルが
抽出され、正確な文字認識を行うことができる。なお、
垂直方向成分の文字ストロークについても同様である。
なお、本実施の形態では手書き文字の例について説明し
たが、OCRで読み取った文字データなど、ビットマッ
プデータであればどのような文字データであっても良
い。
In this embodiment, a character stroke having upward and downward directional components is rotated by 45 °. However, by setting the rotation angle freely, horizontal or vertical characters can be rotated. It can also be applied to strokes. Generally, when writing a character, a character rising to the right is often written. In such a case, the character stroke in the horizontal direction is rotated by a predetermined angle so that the character rising to the right is made closer to the horizontal direction, and a more accurate character stroke can be obtained. Therefore, an accurate direction feature vector is extracted, and accurate character recognition can be performed. In addition,
The same applies to the character stroke of the vertical component.
In this embodiment, an example of handwritten characters has been described. However, any character data may be used as long as the data is bitmap data, such as character data read by OCR.

【0023】[0023]

【発明の効果】以上説明したように本発明によれば、被
識別文字の輪郭線画像を構成する黒画素から輪郭線を水
平,垂直,右上がり及び右下がりの各方向パターンとし
て抽出すると共に、輪郭線画像を正規化しこの正規化情
報に基づいて上記の各方向パターンを処理して各文字ス
トロークとして生成し、生成された各方向の文字ストロ
ークを水平及び垂直の各分割線によりそれぞれ小領域に
等分割し、分割された各小領域の黒画素数を各個に計数
して方向特徴ベクトルとして抽出する場合、生成された
文字ストロークの画像を分割線の方向に一致させるよう
に回転すると共に、回転後の文字ストロークを小領域に
等分割するようにしたので、分割線の方向からずれた文
字ストロークの画像が分割線の方向に一致することによ
り連続したストローク情報が得られ、この結果、輪郭線
の正確な方向特徴ベクトルが得られることから、正確な
文字認識を行うことができる。また、回転の対象となる
文字ストロークの画像を右上がりまたは右下がりの各方
向の文字ストロークとしたので、斜め方向の輪郭線の方
向特徴ベクトルを的確に抽出できる。
As described above, according to the present invention, the outline is extracted from the black pixels constituting the outline image of the character to be identified as horizontal, vertical, upward-sloping and downward-sloping patterns. The contour image is normalized, and the above-described directional patterns are processed based on the normalized information to generate respective character strokes.The generated character strokes in the respective directions are divided into small areas by horizontal and vertical dividing lines. When the number of black pixels in each divided small area is equally counted and extracted as a directional feature vector, the generated image of the character stroke is rotated so as to match the direction of the dividing line, and rotated. Subsequent character strokes are equally divided into small areas, so that the images of character strokes that deviate from the direction of the dividing line match Click information is obtained, this result, since the correct orientation feature vector of the contour line is obtained, it is possible to perform accurate character recognition. In addition, since the image of the character stroke to be rotated is a character stroke in each of the upward and downward directions, the direction feature vector of the oblique outline can be accurately extracted.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明を適用した装置の構成を示すブロック
図である。
FIG. 1 is a block diagram showing a configuration of an apparatus to which the present invention is applied.

【図2】 本装置で認識処理される原画像及びこの原画
像の輪郭線を示す図である。
FIG. 2 is a diagram showing an original image to be recognized by the present apparatus and a contour line of the original image.

【図3】 本装置における画素の方向成分の検出状況を
示す図である。
FIG. 3 is a diagram illustrating a detection state of a directional component of a pixel in the present apparatus.

【図4】 輪郭線の方向パターンの抽出状況及び非線形
正規化処理の状況を示す図である。
FIG. 4 is a diagram showing a state of extraction of a direction pattern of a contour line and a state of nonlinear normalization processing.

【図5】 方向特徴ベクトルを得る際の文字ストローク
の回転状況を示す図である。
FIG. 5 is a diagram showing a rotation state of a character stroke when a direction feature vector is obtained.

【図6】 正確な方向特徴ベクトルが得られない斜め方
向の輪郭線の例を示す図である。
FIG. 6 is a diagram illustrating an example of an oblique contour line from which an accurate directional feature vector cannot be obtained.

【図7】 従来の文字認識過程を示す認識処理フローで
ある。
FIG. 7 is a recognition processing flow showing a conventional character recognition process.

【符号の説明】[Explanation of symbols]

1…CPU、2…タッチパネル、3…LCD、4…メモ
リ、5…辞書メモリ。
1 ... CPU, 2 ... Touch panel, 3 ... LCD, 4 ... Memory, 5 ... Dictionary memory

Claims (2)

【特許請求の範囲】[Claims] 【請求項1】 被識別文字の輪郭線画像を構成する黒画
素から輪郭線を水平,垂直,右上がり及び右下がりの各
方向パターンとして抽出すると共に、輪郭線画像を正規
化しこの正規化情報に基づいて前記各方向パターンを処
理して各文字ストロークとして生成し、生成された各方
向の文字ストロークを水平及び垂直の各分割線によりそ
れぞれ小領域に等分割し、分割された各小領域の黒画素
数を各個に計数して方向特徴ベクトルとして抽出する方
向特徴ベクトル抽出方法において、 生成された前記文字ストロークの画像を前記分割線の方
向に一致させるように回転させると共に、回転後の文字
ストロークを前記小領域に等分割することを特徴とする
方向特徴ベクトル抽出方法。
1. A contour line is extracted as horizontal, vertical, upward and downward directional patterns from black pixels constituting a contour image of a character to be identified, and the contour image is normalized to obtain the normalized information. The above-described direction patterns are processed based on the generated character strokes, and the generated character strokes in each direction are equally divided into small areas by horizontal and vertical dividing lines. In the directional feature vector extraction method of counting the number of pixels for each pixel and extracting it as a directional feature vector, the generated character stroke image is rotated so as to match the direction of the dividing line, and the rotated character stroke is rotated. A directional feature vector extraction method, comprising equally dividing the small area.
【請求項2】 請求項1において、 前記回転の対象となる文字ストロークの画像は右上がり
または右下がりの各方向の文字ストロークであることを
特徴とする方向特徴ベクトル抽出方法。
2. The directional feature vector extraction method according to claim 1, wherein the image of the character stroke to be rotated is a character stroke in each of upward and downward directions.
JP8173398A 1996-07-03 1996-07-03 Method for extracting directional characteristic vector Pending JPH1021398A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8173398A JPH1021398A (en) 1996-07-03 1996-07-03 Method for extracting directional characteristic vector

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8173398A JPH1021398A (en) 1996-07-03 1996-07-03 Method for extracting directional characteristic vector

Publications (1)

Publication Number Publication Date
JPH1021398A true JPH1021398A (en) 1998-01-23

Family

ID=15959681

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8173398A Pending JPH1021398A (en) 1996-07-03 1996-07-03 Method for extracting directional characteristic vector

Country Status (1)

Country Link
JP (1) JPH1021398A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108113A (en) * 2008-10-29 2010-05-13 Hitachi Computer Peripherals Co Ltd Character recognition device
JP2017167329A (en) * 2016-03-16 2017-09-21 アイラボ株式会社 Program, information storage medium, and stroke order determination device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010108113A (en) * 2008-10-29 2010-05-13 Hitachi Computer Peripherals Co Ltd Character recognition device
JP2017167329A (en) * 2016-03-16 2017-09-21 アイラボ株式会社 Program, information storage medium, and stroke order determination device

Similar Documents

Publication Publication Date Title
CN110232311B (en) Method and device for segmenting hand image and computer equipment
US5410611A (en) Method for identifying word bounding boxes in text
US7437001B2 (en) Method and device for recognition of a handwritten pattern
JPH02268388A (en) Character recognizing method
US8571264B2 (en) Method of using structural models for optical recognition
US10318803B1 (en) Text line segmentation method
JP2651009B2 (en) Information recognition device
CN111860309A (en) Face recognition method and system
JP2019102061A5 (en)
US6246793B1 (en) Method and apparatus for transforming an image for classification or pattern recognition
CN111046881A (en) Pointer type instrument reading identification method based on computer vision and deep learning
Aziz et al. Bangla handwritten numeral character recognition using directional pattern
JP2007025902A (en) Image processor and image processing method
JPH1021398A (en) Method for extracting directional characteristic vector
US6483943B1 (en) Feature value extraction methods and apparatus for image recognition and storage medium for storing image analysis program
Naz et al. Challenges in baseline detection of cursive script languages
JPH05225394A (en) Candidate-character classifying method for character recognizing system
JP2000076378A (en) Character recognizing method
JPH0935000A (en) Method and device for recognizing handwritten character
JPH07193716A (en) Edge emphasizing device
JPH1021397A (en) Method for extracting directional characteristic vector
JPH1021332A (en) Non-linear normalizing method
KR100290606B1 (en) Method for recognizing cursive of hangul in online system
Martyshkin et al. Research of the Handwriting Recognition Methods
JP2803709B2 (en) Character recognition device and character recognition method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050113

A131 Notification of reasons for refusal

Effective date: 20061212

Free format text: JAPANESE INTERMEDIATE CODE: A131

A521 Written amendment

Effective date: 20070213

Free format text: JAPANESE INTERMEDIATE CODE: A523

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20070313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20070326

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100413

Year of fee payment: 3

FPAY Renewal fee payment (prs date is renewal date of database)

Year of fee payment: 4

Free format text: PAYMENT UNTIL: 20110413

FPAY Renewal fee payment (prs date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120413

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees