JP3277977B2 - Character recognition method - Google Patents

Character recognition method

Info

Publication number
JP3277977B2
JP3277977B2 JP24814795A JP24814795A JP3277977B2 JP 3277977 B2 JP3277977 B2 JP 3277977B2 JP 24814795 A JP24814795 A JP 24814795A JP 24814795 A JP24814795 A JP 24814795A JP 3277977 B2 JP3277977 B2 JP 3277977B2
Authority
JP
Japan
Prior art keywords
black
character
white
image pattern
character string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP24814795A
Other languages
Japanese (ja)
Other versions
JPH0991373A (en
Inventor
紀博 萩田
美奈子 澤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP24814795A priority Critical patent/JP3277977B2/en
Publication of JPH0991373A publication Critical patent/JPH0991373A/en
Application granted granted Critical
Publication of JP3277977B2 publication Critical patent/JP3277977B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は入力画像が「0」ま
たは「1」で表される2値画像、特に、かすれ、つぶれ
などの雑音が加わった文書画像、縞模様などのデザイン
処理を施してある文書画像、さらには白抜き文字画像な
どが混在する文書画像等に対する文字認識方法に関す
る。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention performs a design process on a binary image in which an input image is represented by "0" or "1", particularly a document image to which noise such as blurring or crushing has been added, or a stripe pattern. The present invention relates to a method for recognizing characters in a document image, such as a document image, and a document image in which outline character images are mixed.

【0002】[0002]

【従来の技術】従来、漢字OCR(Optical Character
Reader)などの文字認識処理装置では、まず入力された
2値の文書画像パターンに対して、水平または垂直方向
に走査して、各走査線ごとに黒画素または白画素の数を
射影して、これらの量の投影分布を求め、見出し、子見
出し、文字列などを抽出する。次に、抽出された文字列
画像に対して、同じく、水平または垂直方向に走査し
て、各走査線ごとに黒画素または白画素の数を射影し
て、これらの量の投影分布に基づいて個々の文字を切り
出す。そして、最後に切り出された文字ごとに認識のた
めの特徴をベクトルの形で抽出し、予め作成してある標
準辞書内の各カテゴリの標準パターンベクトルとの間で
類似度または相違度などの識別関数を求めて、最も類似
した文字または図形カテゴリを認識結果とする方法が知
られている。
2. Description of the Related Art Kanji OCR (Optical Character)
A character recognition processing device such as a Reader) first scans an input binary document image pattern in the horizontal or vertical direction, and projects the number of black or white pixels for each scanning line. The projection distribution of these amounts is obtained, and headings, child headings, character strings, and the like are extracted. Next, the extracted character string image is similarly scanned in the horizontal or vertical direction, and the number of black pixels or white pixels is projected for each scanning line, based on the projection distribution of these amounts. Cut out individual characters. Then, a feature for recognition is extracted in the form of a vector for each character cut out last, and a similarity or a difference between the standard pattern vector of each category in the standard dictionary created in advance is identified. A method is known in which a function is obtained and the most similar character or graphic category is used as a recognition result.

【0003】この方法では、文字パターンが黒文字で、
背景部分が白画素からなる文書画像の場合には上記の黒
または白画素の投影分布を見れば、文書画像の中から文
字列領域を判定することや、文字列画像の中から個別文
字の領域を判定することが可能である。しかし、新聞見
出し、週刊誌等の雑誌の見出しなどのように、文字が黒
文字または白文字で背景に網点などのデザイン処理され
たパターンをもつ画像や、文字部分の一部に斜め線など
のデザイン処理が行われた文書画像などに対しては、背
景のデザイン処理の投影分布と文字部分の投影分布が似
ているため、うまく文字列や個別文字の領域を抽出でき
ない問題があった。
In this method, the character pattern is a black character,
In the case of a document image in which the background portion is composed of white pixels, the character distribution area can be determined from the document image or the individual character area can be determined from the character string image by looking at the projection distribution of the black or white pixels. Can be determined. However, such as newspaper headlines, headlines of magazines such as weekly magazines, etc., characters with black or white characters and a background with a pattern that has been subjected to design processing, such as halftone dots, and diagonal lines etc. For a document image or the like on which a design process has been performed, the projection distribution of the background design process is similar to the projection distribution of the character portion.

【0004】この問題に対して、背景のデザイン処理に
使われる個々の線分の幅は文字パターンのストロークの
線幅に比べて細いなど、デザイン処理部分と文字パター
ン部分の黒または白領域の違いを仮定した画像処理を用
いて、背景のデザイン処理部分を取り除く方法が提案さ
れている(たとえば、岡本、林:「膨張/収縮を用いた
地模様のある見出しからの文字抽出」電子情報通信学会
技術研究報告、パターン認識と理解研究会PRU90-151,p
p.47-54,1991.)。しかし、実際の文書画像ではデザイ
ン処理部分と文字パターン部分を分ける手がかりとなる
上記の仮定を満足しない例外が多く発生し、画像処理に
よって認識に重要なストロークが欠落したり、デザイン
処理部分の線分が除去されずに残ってしまい、後段の文
字認識の性能力が低下する問題があった。
In order to solve this problem, the width of each line segment used in the background design process is smaller than the stroke width of the character pattern. There has been proposed a method of removing a background design processing portion by using image processing assuming the following (for example, Okamoto, Hayashi: "Character extraction from a headline with a ground pattern using expansion / contraction" IEICE) Technical Research Report, Pattern Recognition and Understanding Workshop PRU90-151, p
p.47-54,1991.). However, in actual document images, there are many exceptions that do not satisfy the above assumptions, which are clues for separating the design processing part from the character pattern part, and strokes important for recognition are missing due to image processing, line segments in the design processing part However, there is a problem in that the lingering ability remains without being removed, and the abilities of character recognition in the subsequent stage are reduced.

【0005】[0005]

【発明が解決しようとする課題】上記のように、従来の
OCRをはじめとする文字認識技術は、背景にデザイン
処理を行った文字列画像や、かすれ、つぶれのある文字
列画像、白抜き文字混在などからなる文字列画像から文
字カテゴリを正しく認識できる手段が十分に確立してい
なかった。
As described above, the conventional OCR and other character recognition techniques use a character string image that has been subjected to design processing in the background, a character string image with blurred or crushed characters, and white characters. Means for correctly recognizing a character category from a character string image composed of mixed characters has not been sufficiently established.

【0006】本発明の目的はこのような問題点に鑑み、
かすれやよごれなどの雑音やデザイン処理された文字列
に対しても、文字列領域と背景領域の違いを反映する計
数値を用いて文字列の領域および個別文字の候補画像を
抽出する方法と、個別文字の候補画像に対してこの計数
値を用いて雑音の程度を推定し、認識、棄却の判定に用
いる識別関数のしきい値を雑音の程度に応じて変化させ
る方法とを提供することで従来法に比べて精度の高い文
字認識を実現することである。
[0006] The object of the present invention is to address such problems.
A method for extracting a character string area and individual character candidate images using a count value that reflects a difference between a character string area and a background area, even for noise such as blurring and dirt and a design-processed character string, A method of estimating the degree of noise using the count value for a candidate image of an individual character, and changing a threshold value of a discriminant function used for recognition / rejection determination according to the degree of noise. It is to realize character recognition with higher accuracy than the conventional method.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に、本発明では、新聞見出しのようなデザイン処理され
た文字列画像パターンから文字領域と背景領域を分離す
るために、入力される2値画像パターンに対して、複数
方向に走査して、走査線上にある、黒から黒に変化する
黒黒変化数と白から白に変化する白白変化数および黒か
ら白に変わる黒白変化数と白から黒に変化する白黒変化
数を計数し、これらの計数値を利用して文字列領域を抽
出することを特徴とする。
In order to achieve the above object, according to the present invention, a character string and a background area are inputted to separate a character area and a background area from a character string image pattern which has been designed and processed, such as a newspaper headline. The value image pattern is scanned in a plurality of directions, and the number of black-black changes that change from black to black, the number of white-white changes that change from white to white, and the number of black-white changes that change from black to white are on the scanning line. The number of black-and-white changes from black to black is counted, and a character string area is extracted using these count values.

【0008】なお、本明細書においては、所定の単位
(例えば画素単位)長の走査において2値画像パターン
の値が隣合う単位間で変化しない場合に、その2値の値
が黒のとき黒黒変化、2値の値が白のとき白白変化であ
ると呼ぶことととする。
In the present specification, when the value of a binary image pattern does not change between adjacent units in scanning of a predetermined unit (for example, pixel unit) length, when the binary value is black, When the black value and the binary value are white, it is referred to as a white-white change.

【0009】また、本発明では、抽出した文字列領域の
画像パターンの情報をもとにして、複数方向に走査し
て、走査線上にある、黒から黒に変化する黒黒変化数と
白から白に変化する白白変化数および黒から白に変わる
黒白変化数と白から黒に変化する白黒変化数を計数し、
これらの計数値を利用して、個別文字の候補領域を抽出
する方法や、文字列中で個別文字カテゴリが照合により
確定した文字カテゴリの位置と認識情報をもとに、残り
の未処理の個別文字の候補領域を抽出する方法を備えた
ことを特徴とする。
Further, according to the present invention, scanning is performed in a plurality of directions on the basis of information on the image pattern of the extracted character string region, and the number of black-black changes on the scanning line, which changes from black to black, and from white to black. Count the number of white-white changes that change to white, the number of black-white changes that change from black to white, and the number of black-and-white changes that change from white to black,
These counts are used to extract candidate areas for individual characters, and the remaining unprocessed individual A method for extracting a character candidate area is provided.

【0010】さらに、個別候補画像パターンと辞書の参
照パターンとの照合において、例えば公知であるような
所定の識別関数を用いて識別関数値を求め、この値と個
別候補画像パターンの雑音の程度によって定まるしきい
値とをもとに、認識または棄却の判定処理を行うこと
で、多くの候補画像パターンの中から、正しい文字カテ
ゴリとその位置を選択することを特徴とする。
Further, in the comparison between the individual candidate image pattern and the reference pattern in the dictionary, a discriminant function value is obtained by using a known discriminant function, for example. By performing recognition or rejection determination processing based on a determined threshold, a correct character category and its position are selected from many candidate image patterns.

【0011】また、入力された2値画像パターンの情報
をもとに、辞書の参照パターンと認識・棄却判定のしき
い値を新規作成・追加・更新できる特徴をもつ。
[0011] The present invention is characterized in that a reference pattern of a dictionary and a threshold for recognition / rejection determination can be newly created / added / updated based on input binary image pattern information.

【0012】本発明では、入力された2値画像パターン
に対して、文書画像全体の傾き補正処理やシェーディン
グ補正処理などの前処理が行われた後の文書等の画像パ
ターンを対象として、文書中の文字列領域を抽出し、各
文字列内に含まれる文字カテゴリを辞書の参照パターン
との照合により、認識する。また、誤認識や未学習の文
字の画像パターンを辞書の参照パターンに追加作成また
は更新する。
According to the present invention, an image pattern of a document or the like after the input binary image pattern is subjected to a pre-processing such as a skew correction processing and a shading correction processing of the entire document image is targeted. Is extracted, and the character category included in each character string is recognized by collating with the reference pattern of the dictionary. In addition, an image pattern of an erroneously recognized or unlearned character is additionally created or updated as a reference pattern in the dictionary.

【0013】[0013]

【発明の実施の形態】以下、本発明の一実施の形態を図
1〜図7を参照して説明する。図1は本発明の方法を適
用する文字認識装置の構成を示すブロック図であり、こ
の図において1は2値画像パターン記憶回路、2は白黒
計数回路、3は文字列抽出回路、4は個別文字抽出回
路、5は個別文字照合回路、6は参照パターン学習回
路、7は画像入出力回路である。図2は図1の文字認識
装置の文字列領域を抽出するフローチャート、図3は個
別文字の候補画像を抽出するフローチャート、図4は個
別文字の候補画像パターンと参照パターンの照合処理を
行うフローチャートをそれぞれ示す図である。図5は白
黒計数回路2の動作例を説明する説明図、図6は文字列
抽出回路3の動作例を説明する説明図、図7は個別文字
抽出回路4の動作例を説明する説明図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to FIGS. FIG. 1 is a block diagram showing a configuration of a character recognition apparatus to which the method of the present invention is applied. In this figure, 1 is a binary image pattern storage circuit, 2 is a black and white counting circuit, 3 is a character string extraction circuit, and 4 is an individual A character extracting circuit, 5 is an individual character matching circuit, 6 is a reference pattern learning circuit, and 7 is an image input / output circuit. 2 is a flowchart for extracting a character string region of the character recognition apparatus of FIG. 1, FIG. 3 is a flowchart for extracting a candidate image of an individual character, and FIG. 4 is a flowchart for matching processing between an individual character candidate image pattern and a reference pattern. FIG. 5 is an explanatory diagram for explaining an operation example of the monochrome counting circuit 2, FIG. 6 is an explanatory diagram for explaining an operation example of the character string extracting circuit 3, and FIG. 7 is an explanatory diagram for explaining an operation example of the individual character extracting circuit 4. is there.

【0014】図1において、2値画像パターン記憶回路
1は認識する2値画像パターンを記憶している。2値画
像パターンはM画素からなり、例えば白画素は「0」、
黒画素は「1」で示されている。白黒計数回路2は、2
値画像パターン記憶回路1から取り出されたM画素から
なる2値画像パターンを入力し、複数方向から走査して
文字列領域と背景領域を区別するために、各走査線上に
ある、隣合う画素の2値の値がどちらも黒である黒黒変
化数(黒から黒への変化の数)と同様にどちらも白であ
る白白変化数(白から白への変化の数)および黒から白
に変わる黒白変化数と白から黒に変化する白黒変化数を
計数し、出力する。文字列抽出回路3は、白黒計数回路
2によって得られた各走査線上の白黒の計数値をもとに
文字列領域と背景領域を区別し、入力画像中から文字列
領域の画像パターンを出力する。
In FIG. 1, a binary image pattern storage circuit 1 stores a binary image pattern to be recognized. The binary image pattern is composed of M pixels, for example, white pixels are “0”,
Black pixels are indicated by "1". The black and white counting circuit 2
A binary image pattern composed of M pixels extracted from the value image pattern storage circuit 1 is input and scanned from a plurality of directions to distinguish between a character string region and a background region. Both the white-white change number (the number of changes from white to white) and the change from black to white, as well as the black-black change numbers (the number of changes from black to black), both of which are black. The number of changing black and white and the number of changing black and white from white to black are counted and output. The character string extraction circuit 3 distinguishes a character string region from a background region based on the black and white count value on each scanning line obtained by the black and white counting circuit 2, and outputs an image pattern of the character string region from the input image. .

【0015】個別文字抽出回路4は文字列抽出回路3で
得られた文字列領域の画像パターンを入力し、個別文字
照合回路5で照合すべき個別文字が含まれる候補画像を
選択し、出力する。個別文字照合回路5は、個別文字抽
出回路4から選ばれた、個別文字の候補画像パターンを
入力し、所定の識別関数を用いて辞書の参照パターンと
照合し、各文字カテゴリの識別関数値と候補画像パター
ンの雑音の程度によって決まるしきい値と比較して、こ
の候補画像パターンの中に認識文字カテゴリがあるかど
うかを判定し、ある場合にはこれらの結果を出力する。
参照パターン学習回路6は、画像入出力回路7から出力
される画像情報および2値画像パターン記憶回路1の2
値画像パターンおよび、個別文字照合回路5内の辞書の
参照パターンを入力し、参照パターンの新規作成・更新
を行い、個別文字照合回路5の辞書の参照パターンに追
加・更新する。
The individual character extracting circuit 4 inputs the image pattern of the character string area obtained by the character string extracting circuit 3, selects a candidate image including an individual character to be collated by the individual character collating circuit 5, and outputs the candidate image. . The individual character matching circuit 5 receives the individual character candidate image pattern selected from the individual character extraction circuit 4, matches the image pattern with a reference pattern in a dictionary using a predetermined identification function, and determines the identification function value of each character category. A comparison is made with a threshold value determined by the degree of noise in the candidate image pattern to determine whether or not the candidate image pattern includes a recognized character category.
The reference pattern learning circuit 6 stores the image information output from the image input / output circuit 7 and the binary information of the binary image pattern storage circuit 1.
A value image pattern and a reference pattern of a dictionary in the individual character matching circuit 5 are input, a new reference pattern is created and updated, and the reference pattern of the dictionary of the individual character matching circuit 5 is added and updated.

【0016】画像入出力回路7は個別文字照合回路5か
ら出力される文字カテゴリ番号、識別関数値、2値画像
パターン等の認識結果の情報を入力し、これらの情報を
表示し、また、マウスやキーボードなどによって画像情
報を編集する。さらに、画像入出力回路7は参照パター
ン学習回路6に参照パターンの新規作成または更新に必
要な情報を送出する。
The image input / output circuit 7 inputs information on recognition results such as a character category number, a discriminant function value, and a binary image pattern output from the individual character collating circuit 5, displays the information, and displays a mouse. Edit image information using a keyboard or keyboard. Further, the image input / output circuit 7 sends information necessary for newly creating or updating the reference pattern to the reference pattern learning circuit 6.

【0017】次に図1において、入力された2値画像パ
ターンから文字列領域を抽出する処理について説明す
る。まず2値画像パターン記憶回路1から認識対象とな
る2値文書画像パターンが読み出され、白黒計数回路2
に入力される。そして、M画素(横Nx画素×縦Ny
素)からなる入力2値画像パターンに対して、例えばN
x>Nyならば横書き、Nx≦Nyならば縦書きと判定す
る。横書きならば水平方向に、縦書きならば垂直方向に
文字を走査し、各走査線上の黒から黒に変化する黒黒変
化の点の総数aと白から白に変化する白白変化の点の総
数e、白から黒に変わる白黒変化数bと、黒から白に変
わる黒白変化数cを計数する。
Next, referring to FIG. 1, a process for extracting a character string region from an input binary image pattern will be described. First, a binary document image pattern to be recognized is read out from the binary image pattern storage circuit 1,
Is input to Then, for an input binary image pattern composed of M pixels (horizontal Nx pixels × vertical Ny pixels), for example, N
x> N y if horizontal determines that N x ≦ N y if vertical. Characters are scanned in the horizontal direction for horizontal writing and in the vertical direction for vertical writing, and the total number of black-black change points a changing from black to black on each scanning line and the total number of white-white changing points changing from white to white e, the number of black and white changes b from white to black and the number of black and white changes c from black to white are counted.

【0018】ここでは例えば、黒点は画素値=1に、白
点は画素値=0とする。各走査線上で、a,b,c,e
の各計数値を用いて
Here, for example, it is assumed that a black point has a pixel value of 1 and a white point has a pixel value of 0. On each scan line, a, b, c, e
Using each count value of

【0019】[0019]

【数1】 (Equation 1)

【0020】なるpの値を求める。分子のa・e値は走
査線上にある黒黒変化点の総数と白白変化点の総数の積
であり、文字部分が黒文字でも白文字でも走査線上に黒
ラン長または白ラン長の長い線分が多く存在すれば、p
値は大きい値をとる。一方、b・c値は黒白変化数の総
数と白黒変化数の総数の積であり、走査線上で横切る線
分数、すなわち線分の複雑さに対応した量で、文字の背
景部分に網点などのデザイン処理が行われた部分を走査
した場合には、このb・c値が高くなり、p値は小さい
値をとる。また、p値は分母の正規化項により、-1≦
p≦1の範囲の値をとる。
The value of p is determined. The a · e value of the numerator is the product of the total number of black-and-white transition points and the total number of white-and-white transition points on the scanning line. If many exist, p
The value takes a large value. On the other hand, the bc value is the product of the total number of black-and-white changes and the total number of black-and-white changes, and is the number of line segments traversing on a scanning line, that is, the amount corresponding to the complexity of the line segments. When the portion where the design processing is performed is scanned, the bc value becomes high and the p value becomes a small value. In addition, the p-value is −1 ≦ by the normalized term of the denominator.
It takes a value in the range of p ≦ 1.

【0021】このp値を、各走査方向に対応した投影軸
に投影する。位置yの水平方向走査で得られるp値を射
影値hyとおくと、水平方向走査で投影分布Py
(h1,h2,...,hy,...,hNy)が得られる。位置
xの水平方向走査で得られるp値を射影値vxとおく
と、水平方向走査で投影分布Px=(v1,v2,...,v
x,...,vNx)が得られる。これ以外の走査方向につい
ても計数可能である。ここで、各走査線上でa,b,
c,eを求める場合に、特定の区間だけについてこれら
の総数を求めることも可能である。
The p value is projected on a projection axis corresponding to each scanning direction. If the p value obtained by horizontal scanning of the position y is defined as a projection value h y , the projection distribution P y =
(H 1 , h 2 ,..., H y ,..., H Ny ) are obtained. Assuming that a p value obtained by horizontal scanning at the position x is a projection value v x , a projection distribution P x = (v 1 , v 2 ,..., V
x ,..., v Nx ). Counting can be performed in other scanning directions. Here, a, b,
When obtaining c and e, it is also possible to obtain the total number of these for only a specific section.

【0022】次に、文字列抽出回路3は、白黒計数回路
2から得られた投影分布Pyと投影分布Pxを入力し、も
し、Nx>Nyならば、水平方向の走査で得られた投影分
布Pyを、予め設定したN区間になるように、N等分し
て、新しい投影分布Q=(q1,q2,...,qj,...,
N)を求める。さもなければ、垂直方向の走査で得ら
れた投影分布Pxを、予め設定したN区間になるよう
に、N等分して、新しい投影分布Q=(q1
2,...,qj,...,qN)を求める。
Next, the character string extraction circuit 3 receives the projection distribution P y and the projection distribution P x obtained from the black-and-white counting circuit 2 and, if N x > N y , obtains by horizontal scanning. The obtained projection distribution P y is divided into N equal parts so as to have a preset N section, and a new projection distribution Q = (q 1 , q 2 ,..., Q j,.
q N ). Otherwise, the projection distribution P x obtained by scanning in the vertical direction is divided into N equal parts so as to have a preset N section, and a new projection distribution Q = (q 1 ,
q 2, ..., q j, ..., seek q N).

【0023】今、Nx>Nyの場合について説明する。新
しい投影分布Qに対して、予め設定したしきい値TQと
比較し、q>TQとなるjの連続区間[Js,Je](js
≦j≦je)から文字列の高さWy(=je−js+1)を
求める。この高さWy画素と幅Nx画素によって囲まれる
画像領域を文字列画像パターンWとして出力する。ここ
で、文字列が複数行からなる場合は連続区間が複数個出
力されるので、複数個の文字列画像パターンWを出力す
Now, the case where Nx> Ny will be described. The new projection distribution Q is compared with a predetermined threshold value TQ, and j continuous sections [Js, Je] (js
The height Wy (= je-js + 1) of the character string is obtained from ≤j≤je. An image area surrounded by the height Wy pixels and the width Nx pixels is output as a character string image pattern W. Here, when the character string is composed of a plurality of lines, a plurality of continuous sections are output, so that a plurality of character string image patterns W are output .

【0024】次に、個別文字抽出回路4では、文字列抽
出回路3で得られた、Nx×Wy画素の文字列画像パター
ンWを高さがN画素なるように正規化処理を行い、Nx
×N画素の文字列画像パターンWNを求める。この正規
化文字列画像パターンWNに対して、白黒計数回路2の
処理手順でのべた、垂直方向走査によるp値の投影分布
xを求め、この投影分布Pxに対して、予め設定したし
きい値Txと比較し、vj>Txとなるxの連続区間
[xs,xe](xs≦x≦xe)を求める。
Next, the individual character extraction circuit 4 normalizes the character string image pattern W of N x × W y pixels obtained by the character string extraction circuit 3 so that the height becomes N pixels. N x
A character string image pattern W N of × N pixels is obtained. For this normalized character string image pattern W N , the projection distribution P x of the p-value by the vertical scanning, which is obtained by the processing procedure of the monochrome counting circuit 2, is obtained, and the projection distribution P x is set in advance. is compared with the threshold value T x, v j> T x become x continuous interval [x s, x e] Request (x s ≦ x ≦ x e ).

【0025】k個の連続区間[xs1,xe1],[xs2
e2],...,[xsk,xek]に対して、参照パターン
に記憶されている文字幅の存在範囲であるz1画素から
2画素の中にはいる、z1≦xej−xsi≦z2(i≦
j)を満たす区間iと区間jを求め、個別文字の候補画
像パターンGの文字幅Wx(=xej−xsi+1)を求め
る。これによりWx×N画素からなる個別文字の候補画
像パターンGが複数個得られる。もし区間iでxei−x
si>z2となる場合は、候補画像パターンGがWx=Nで
あると仮定して、候補画像パターンGの左枠の位置xsi
を1画素単位にずらしてGの右枠が位置xeiになるまで
複数個のGを作成する。
The k continuous sections [x s1 , x e1 ], [x s2 ,
x e2 ],..., [x sk , x ek ], z 1 ≤x which falls within the range from z 1 pixel to z 2 pixel which is the range of the character width stored in the reference pattern. ej− x si ≦ z 2 (i ≦
j) and the section j that satisfies j) are obtained, and the character width W x (= x ej −x si +1) of the individual character candidate image pattern G is obtained. As a result, a plurality of individual character candidate image patterns G each composed of W x N pixels are obtained. If in section i x ei -x
When si > z 2 , the position x si of the left frame of the candidate image pattern G is assumed on the assumption that the candidate image pattern G is W x = N.
Are shifted in units of one pixel, and a plurality of Gs are created until the right frame of G is at the position xei .

【0026】[0026]

【0027】また、個別文字照合回路5で「ある文字カ
テゴリに認識した」と判定された個別文字の候補画像パ
ターンGの区間から文字のピッチ(間隔)を推定し、残
りの領域から個別文字候補画像パターンGを抽出する方
法も適用可能である。
The character pitch (interval) is estimated from the section of the individual character candidate image pattern G determined to be "recognized in a certain character category" by the individual character matching circuit 5, and the individual character candidate is estimated from the remaining area. A method of extracting the image pattern G is also applicable.

【0028】なお、これまでは横に長い2値画像が入力
された場合に関して主に説明したが、縦に長い2値画像
パターンの場合も、x方向とy方向の処理を逆にすれば
同様に処理できる。
In the above description, a case where a horizontally long binary image is input has been mainly described. However, a vertically long binary image pattern can be similarly obtained by reversing the processing in the x and y directions. Can be processed.

【0029】次に、個別文字照合回路5の処理の詳細に
ついて説明する。まず、Wx×N画素からなる個別文字
候補画像パターンGを入力し、n(=N×N)画素の正
規化2値文字パターンX=(x1,x2,...,
i,...,xn)を求める。このとき、Gが画像Xの中
心にくるように平行移動しておく。白黒計数回路2を用
いて、この正規化文字パターンXに対する水平方向走査
の投影分布Pyを求め、次式で示すhyの総和H
Next, the processing of the individual character matching circuit 5 will be described in detail. First, an individual character candidate image pattern G composed of W x × N pixels is input, and a normalized binary character pattern X = (x 1 , x 2 ,...) Of n (= N × N) pixels
x i ,..., x n ). At this time, translation is performed so that G is at the center of the image X. Using monochrome counting circuit 2 obtains a projection distribution P y horizontal scanning of the normalized character pattern X, the sum H of h y represented by the following formula

【0030】[0030]

【数2】 (Equation 2)

【0031】を求める。次に、この正規化文字パターン
Xを辞書の2値参照パターンT=(t1,t2,...,
i,...,tn)と比較するために公知の識別関数であ
る次式の類似度S(X,T)を用いる。
Is obtained. Next, this normalized character pattern X is converted into a binary reference pattern T = (t 1 , t 2 ,.
For comparison with t i ,..., t n ), the similarity S (X, T) of the following equation, which is a known discriminant function, is used.

【0032】[0032]

【数3】 (Equation 3)

【0033】ここで、AはXとTの内積でxi=1かつ
i=1となる総数、T’はTの黒点総数、X’はXの
黒点総数である。各文字カテゴリmの参照パターンに対
して、Xとの類似度S(X,Tm)と上記Hの値によっ
て決まる参照パターンのしきい値Smを用いて、次のよ
うに認識または棄却の判定を行う。このHとしきい値S
mの関係テーブルは参照パターン学習回路6によって予
め学習されている。
Here, A is the inner product of X and T and is the total number where x i = 1 and t i = 1, T ′ is the total number of black spots of T, and X ′ is the total number of black spots of X. For the reference pattern of each character category m, the similarity S (X, T m ) to X and the threshold value S m of the reference pattern determined by the value of H are used for recognition or rejection as follows. Make a decision. This H and threshold S
The relation table of m is learned in advance by the reference pattern learning circuit 6.

【0034】(条件1)もし、S(X,Tm)>Smなら
ば、この文字カテゴリmとして認識できたと判定する。 (条件2)さもなければ、この文字カテゴリmではない
と判定する。
(Condition 1) If S (X, T m )> S m , it is determined that the character category m has been recognized. (Condition 2) Otherwise, it is determined that the character category is not m.

【0035】すべての参照パターンに対して、複数のカ
テゴリに対して条件1を満たした場合は類似度が最も大
きいカテゴリを認識カテゴリとして出力する。また、条
件1を満たすカテゴリが1つもない場合は、この個別文
字候補画像パターンGに対しては認識カテゴリがなかっ
たとして棄却する。
If the condition 1 is satisfied for a plurality of categories for all reference patterns, the category having the highest similarity is output as the recognition category. If there is no category that satisfies the condition 1, the individual character candidate image pattern G is rejected as having no recognition category.

【0036】最後に参照パターン学習回路6と画像入出
力回路7を用いて、個別文字照合回路5の辞書の参照パ
ターンを追加・更新する処理を説明する。画像入出力装
置7は個別文字照合回路5から出力される認識文字カテ
ゴリ番号、識別関数値、2値画像パターン等の分類結果
の情報を入力し、これらの情報を表示し、また、マウス
やキーボードなどによって画像情報を編集する。認識結
果に誤認識がある場合や、新規の文字カテゴリの参照パ
ターンを作成する場合は、画像入出力装置7を用いて、
入力の2値画像パターンから、追加、更新すべき認識カ
テゴリmの2値参照パターンTmを編集・作成する。参
照パターン学習回路6では作成された2値参照パターン
と個別文字照合回路5の辞書の参照パターンを用いて、
この新規のn(=N×N)画素からなる正規化2値参照
パターンTmに対する認識棄却判定のしきい値Smを学習
する。
Finally, a process of adding / updating a reference pattern of the dictionary of the individual character matching circuit 5 using the reference pattern learning circuit 6 and the image input / output circuit 7 will be described. The image input / output device 7 inputs classification character information such as a recognition character category number, a discrimination function value, and a binary image pattern output from the individual character matching circuit 5, displays the information, and displays a mouse or keyboard. Edit the image information by, for example, When there is a misrecognition in the recognition result or when a reference pattern of a new character category is created, the image input / output device 7
From the binary image pattern of input, add, edit, create a binary reference pattern T m of recognition category m to be updated. The reference pattern learning circuit 6 uses the created binary reference pattern and the reference pattern of the dictionary of the individual character matching circuit 5 to
To learn this new n (= N × N) threshold S m of recognition rejection judgment for the normalized binary reference pattern T m including pixels.

【0037】今、n(=N×N)画素からなる2値のラ
ンダム雑音パターンR=(r1,r2,.,ri,...,
n)を作成し、辞書の各2値参照パターンTに重畳し
て、学習のための入力画像パターンXを作成する。すな
わち、位置iの画素値xi=tivriとなる(v=論理
和)。新規のカテゴリmの2値参照パターンTmに対す
る入力画像パターンXの類似度S(X,Tm)を計算
し、すべての参照パターンの中で、m以外のカテゴリで
最大の類似度をもとめ、その値をSmとして、個別文字
照合回路5の辞書に、新規カテゴリmの2値参照パター
ンTmとそのしきい値Smを格納する。
Now, a binary random noise pattern R consisting of n (= N × N) pixels R = (r 1 , r 2 ,..., R i ,.
Create a r n), superimposed on each binary reference pattern T dictionary to create input image pattern X for learning. That is, the pixel value x i = t i vr i at the position i is obtained (v = logical sum). The similarity S (X, T m ) of the input image pattern X to the binary reference pattern T m of the new category m is calculated, and among all the reference patterns, the maximum similarity is calculated for the category other than m. the value as S m, the dictionary of individual characters matching circuit 5, and stores the threshold S m a binary reference pattern T m of a new category m.

【0038】次に、上述した各回路における処理の流れ
を図2〜4に示すフローチャートを参照して説明する。
図1に示す文字認識装置は、文字列領域を抽出する処理
では、図2に示すように、まず、認識対象となる2値文
書画像パターン(M画素=横Nx画素×縦Ny画素)を入
力する(ステップ102)。そして、横と縦の大きさか
ら横書きか縦書きかを判定する(ステップ103)。こ
の判定で、例えば、横書きと判定された場合は、水平方
向に走査して、走査線上に各白/黒変化数a,b,c,
eを計数して射影値hyを求める(ステップ104)。
Next, the flow of processing in each circuit described above will be described with reference to the flowcharts shown in FIGS.
Character recognition device shown in FIG. 1 is a process of extracting a character string area, as shown in FIG. 2, first, a binary document image pattern for recognition (M pixels = horizontal N x pixels × vertical N y pixels) Is input (step 102). Then, whether horizontal writing or vertical writing is determined from the horizontal and vertical sizes (step 103). In this determination, for example, when horizontal writing is determined, scanning is performed in the horizontal direction, and the number of white / black changes a, b, c,
The projection value h y is obtained by counting e (step 104).

【0039】この水平走査が2値文書画像パターン全体
で終了した後に(ステップ105)、p値の投影分布P
y=(h1,h2,...,hy,...,hNx)を予め設定した
N区間になるようにN等分して、新しい投影分布Q=
(q1,q2,...,qj,...,qN)を求める(ステップ
106)。投影分布Qに対して、予め設定したしきい値
Qよりも大きい領域を文字列画像パターンWとして求
める(ステップ107)。また、ステップ104の判定
で縦書きと判定された場合は、垂直方向に走査して、走
査線上の白黒変化数a,b,c,eを計数して射影値v
xを求める(ステップ108)。
After this horizontal scanning is completed for the entire binary document image pattern (step 105), the p-value projection distribution P
y = (h 1 , h 2 ,..., h y ,..., h Nx ) is divided into N equal parts so as to have a preset N section, and a new projection distribution Q =
(Q 1 , q 2 ,..., Q j ,..., Q N ) are obtained (step 106). The projection distribution Q, obtains the region greater than the threshold value T Q set in advance as the character string image pattern W (step 107). If vertical writing is determined in step 104, scanning is performed in the vertical direction, the number of black and white changes a, b, c, and e on the scanning line is counted, and the projection value v is calculated.
x is obtained (step 108).

【0040】この垂直走査が2値文書画像パターン全体
で終了した後に(ステップ109)、p値の投影分布P
x=(v1,v2,...,vx,...,vNx)を予め設定した
N区間になるようにN等分して、新しい投影分布Q=
(q1,q2,...,qj,...,qN)を求める(ステップ
110)。投影分布Qに対して、予め設定したしきい値
Qよりも大きい領域を文字列画像パターンWとして求
める(ステップ107)。
After this vertical scanning is completed for the entire binary document image pattern (step 109), the p-value projection distribution P
x = (v 1 , v 2 ,..., v x ,..., v Nx ) is divided into N equal parts so as to have a preset N section, and a new projection distribution Q =
(Q 1 , q 2 ,..., Q j ,..., Q N ) are obtained (step 110). The projection distribution Q, obtains the region greater than the threshold value T Q set in advance as the character string image pattern W (step 107).

【0041】次に、文字列画像パターンWから個別文字
の候補画像を求める処理は、図3に示すように、まず文
字列画像パターンWを入力する(ステップ202)。例
えば、横書きの文字列画像パターンについて説明すれ
ば、横Nx×縦Wy画素の正規化文字列画像パターンWを
高さがN画素になるように縦横等倍で正規化処理を行
い、nx×N画素の文字列画像パターンWNを求める(ス
テップ203)。この正規化文字列画像パターンWN
対して、ステップ108から109でのべた処理手順で
垂直方向走査による射影値vxの投影分布Pxを求め(ス
テップ204)、この投影分布Pxに対して、予め設定
したしきい値Txよりも大きいxの連続区間[xs
e](xs≦x≦xe)を求める(ステップ205)。
Next, in the process of obtaining a candidate image of an individual character from the character string image pattern W, first, as shown in FIG. 3, the character string image pattern W is input (step 202). For example, in the case of a horizontally written character string image pattern, a normalized character string image pattern W of horizontal Nx × vertical Wy pixels is subjected to normalization processing in a vertical and horizontal unity so that the height becomes N pixels, and n A character string image pattern W N of x × N pixels is obtained (step 203). For this normalized character string image pattern W N, obtains the projection distribution P x of projection values v x by vertically scanning the processing procedure mentioned in steps 108 109 (step 204), with respect to the projection distribution P x Thus, a continuous section of x greater than a preset threshold T x [x s ,
xe ] ( xs ≦ x ≦ xe ) is obtained (step 205).

【0042】となりあう連続区間から照合するにふさわ
しい文字幅Wx画素を選び、個別文字の候補画像パター
ンGを求める(ステップ206)。また、個別文字の候
補画像パターンと参照パターンの照合処理においては、
まず、横Wx×縦N画素からなる個別文字候補画像パタ
ーンGを入力する(ステップ302)。このGに対し
て、位置及び大きさの正規化処理を行いn(=N×N)
画素の正規化2値文字パターンX=(x1,x2,...,
i,...,xn)を求める(ステップ303)。このX
と文字カテゴリmの参照パターンTmとの間で公知の類
似度S(X,Tm)を計算し(ステップ304)、併せ
てGに対してステップ104及びステップ105の処理
手順に従い、水平方向走査の射影値hyの累積値Hを求
める(ステップ305)。
A character width W x pixel suitable for collation is selected from the adjacent continuous sections, and an individual character candidate image pattern G is obtained (step 206). In the matching process between the individual character candidate image pattern and the reference pattern,
First, an individual character candidate image pattern G consisting of W x N pixels is input (step 302). This G is subjected to position and size normalization processing, and n (= N × N)
Pixel normalized binary character pattern X = (x 1 , x 2 ,...,
x i ,..., x n ) are obtained (step 303). This X
The known similarity S (X, T m ) is calculated between the reference pattern T m and the reference pattern T m of the character category m (step 304). The cumulative value H of the scanning projection value h y is obtained (step 305).

【0043】そして、この累積値Hに対するしきい値を
関係テーブルを参照して、文字カテゴリmのしきい値S
mを求める(ステップ306)。類似度S(X,Tm)が
しきい値Smを比較し(ステップ307)、類似度S
(X,Tm)がしきい値Smよりも大きければ、文字カテ
ゴリmを認識カテゴリと判定し(ステップ308)、さ
もなければ棄却と判定する(ステップ309)。ステッ
プ304からステップ308の処理をすべての参照パタ
ーンとの間で行い(ステップ309)、終了する。
The threshold value for the cumulative value H is determined by referring to the relation table with reference to the threshold value S for the character category m.
m is obtained (step 306). Similarity S (X, T m) is compared with a threshold S m (step 307), the similarity S
If (X, T m ) is larger than the threshold value S m , the character category m is determined to be a recognition category (step 308), otherwise it is determined to be rejected (step 309). The processing from step 304 to step 308 is performed for all the reference patterns (step 309), and the process ends.

【0044】次に、本発明の主要部分である白黒計数回
路2の具体的な動作例として、2値画像パターン記憶回
路1に図5に示すような横20画素×縦14画素(Nx
=20,Ny=14)からなる2値文書画像パターンの
場合について説明する。図には「文字」とかかれた文字
列画像パターンの背景に網点のデザイン処理が施された
入力画像パターンを表している。また、5−1および5
−2はそれぞれ水平および垂直方向の走査に対する投影
軸である。
Next, as a specific operation example of the monochrome counting circuit 2 which is a main part of the present invention, the binary image pattern storage circuit 1 stores 20 pixels horizontally × 14 pixels vertically (N x
= 20, N y = 14) in the case of a binary document image pattern. The figure shows an input image pattern in which a halftone dot design process is performed on the background of a character string image pattern in which “character” is written. 5-1 and 5
-2 is a projection axis for horizontal and vertical scanning, respectively.

【0045】今、この2値文書画像パターンが読み出さ
れ、白黒計数回路2に入力されたとする。この入力2値
画像パターンに対して、横幅の方が縦の高さよりも大き
いので、横書きと判定して水平方向に文字を走査し、式
1で示したp値をそれぞれ、投影軸5−1に投影する。
走査の例として図5で、y=2における水平方向走査5
−3では、a=0,b=7,c=8,e=4が計数さ
れ、y=2におけるp値は
Now, it is assumed that the binary document image pattern has been read out and input to the monochrome counting circuit 2. Since the width of the input binary image pattern is larger than the height of the input binary image pattern, it is determined that the image is written horizontally, and the character is scanned in the horizontal direction. Projected onto
In FIG. 5 as an example of scanning, horizontal scanning 5 at y = 2
At -3, a = 0, b = 7, c = 8, e = 4 are counted, and the p value at y = 2 is

【0046】[0046]

【数4】 (Equation 4)

【0047】となる。また、y=6における水平方向走
査2−3では、a=5,b=3,c=4,e=7が計数
され、y=6におけるp値は
Is as follows. In the horizontal scanning 2-3 at y = 6, a = 5, b = 3, c = 4, and e = 7 are counted, and the p value at y = 6 is

【0048】[0048]

【数5】 (Equation 5)

【0049】となる。この結果から、網点からなる背景
部分のp値は文字線部分の走査で得られるp値に比べて
小さい値をとることを示し、式1で示すp値が文字部と
背景部分とをわけるのに有効な尺度であることがわか
る。
Is as follows. From this result, it is shown that the p-value of the background portion composed of halftone dots is smaller than the p-value obtained by scanning the character line portion, and the p-value represented by Expression 1 separates the character portion from the background portion. It turns out that this is an effective measure.

【0050】y=1からy=14までの水平方向走査で
投影分布Pyが求められる。文字列抽出回路3ではy=
1からy=14までの水平方向走査で投影分布Pyを入
力し、水平方向の走査で得られた投影分布Pyを、予め
設定したN区間になるようにN等分して、新しい投影分
布Q=(q1,q2,...,qj,...,qN)を求める。こ
こで、N=14画素とすると、投影分布Qの中で、予め
設定してあるしきい値TQ=0.0以上となる区間は、
j=2からj=12までの区間となり、この結果、横2
0画素×縦11画素の文字列画像パターンWが抽出され
る。
The projection distribution Py is obtained by horizontal scanning from y = 1 to y = 14. In the character string extraction circuit 3, y =
The projection distribution Py is input in the horizontal scanning from 1 to y = 14, and the projection distribution Py obtained by the horizontal scanning is divided into N equal parts so as to have N sections set in advance, and a new projection distribution Q = (Q1, q2, ..., qj, ..., qN). Here, when N = 14 pixels, in the projection distribution Q, advance
The section where the set threshold value TQ = 0.0 or more is
The section is from j = 2 to j = 12.
A character string image pattern W of 0 pixels × 11 pixels vertically is extracted.

【0051】個別文字抽出回路4では、文字列抽出回路
3で得られた、横20画素×縦11画素の文字列画像パ
ターンWを高さがW=11画素なるように正規化処理を
行い、20×11画素の文字列画像パターンWNを求め
る。図6に示す例では、この場合Wx=N=11画素な
のでWとWNは同じ画像パターンになる。この正規化文
字列画像パターンWNに対して、白黒計数回路2の処理
手順でのべたように、x=1からx=20までの垂直方
向走査によるp値を投影軸6−1に投影し、投影分布P
xを求める。この投影分布Pxに対して、予め設定したし
きい値TX=−0.25とした場合、vj>Txとなるx
の連続区間は[xs=3,xe=20]となる。図6で6
−2はx=2における垂直方向の走査線の例を示す。
The individual character extraction circuit 4 performs a normalization process on the character string image pattern W of 20 horizontal pixels × 11 vertical pixels obtained by the character string extraction circuit 3 so that the height becomes W = 11 pixels. A character string image pattern W N of 20 × 11 pixels is obtained. In the example shown in FIG. 6, since W x = N = 11 pixels in this case, W and W N have the same image pattern. For this normalized character string image pattern W N, as mentioned in the procedure of white counting circuit 2, and projects the p value by the vertical scanning from x = 1 to x = 20 to the projection axis 6-1 , Projection distribution P
Find x . For this projection distribution P x, when the threshold value T X = -0.25 previously set, v j> T x become x
Is [x s = 3, x e = 20]. 6 in FIG.
-2 indicates an example of a vertical scanning line at x = 2.

【0052】今、参照パターン中で文字幅がz1=2画
素とz2=11画素の範囲に決められているとすると、
e−xs>z2を満たすので、11×11画素個別文字
の候補画像パターンGとして、Gの左枠の位置xs=2
から1画素単位にずらしてGの右枠の位置xe=20に
なるまで8個の個別文字候補画像パターンGが作成され
る。第7図の7−1はGの左枠がx=3である場合を表
し、7−2はGの左枠がx=4である場合を表す。
Now, assuming that the character width is determined in the range of z 1 = 2 pixels and z 2 = 11 pixels in the reference pattern.
Since x e −x s > z 2 is satisfied, the position x s = 2 of the left frame of G is set as a candidate image pattern G of 11 × 11 pixel individual characters.
, Eight individual character candidate image patterns G are created until the right frame position of G becomes x e = 20. 7-1 in FIG. 7 shows the case where the left frame of G is x = 3, and 7-2 shows the case where the left frame of G is x = 4.

【0053】[0053]

【発明の効果】以上説明したように、請求項1記載の発
明によれば、従来技術では抽出が難しい、かすれやよご
れのような雑音や背景に網点などのテクスチャが重畳し
た2値画像パターンや黒文字または白文字からなる2値
画像パターンに対しても、画像パターンを走査して新し
い計数値を用いて、文字列領域を簡易にかつ正しく抽出
することができる。
As described above, according to the first aspect of the present invention, a binary image pattern in which texture such as halftone dots is superimposed on noise or background such as blur or dirt, which is difficult to extract with the prior art. Even for a binary image pattern composed of white or black characters or white characters, the character string region can be easily and correctly extracted by scanning the image pattern and using a new count value.

【0054】請求項2に記載の発明によれば、雑音を含
む文字列画像パターンにこの新規の計数値を適用して、
個別文字候補画像を抽出することができるため、従来の
文字認識法が行っていた、雑音やデザイン除去の前処理
を行わなくてすむだけでなく雑音やデザイン除去に誤っ
て文字ストロークを削除してしまうことがないため、後
段に行われる文字認識を高精度に行うことができるとい
う利点がある。
According to the second aspect of the present invention, the new count value is applied to a character string image pattern containing noise,
Because individual character candidate images can be extracted, not only do the pre-processing of noise and design removal, which was performed by the conventional character recognition method, but also character strokes are mistakenly deleted for noise and design removal. There is an advantage that character recognition performed in the subsequent stage can be performed with high accuracy.

【0055】請求項3記載の発明によれば、個別文字候
補画像パターンと参照パターンとの間で所定の識別関数
を用いて照合し、認識か棄却かを判定する処理におい
て、雑音を含む個別文字候補画像パターンの雑音の程度
を請求項1記載の発明による方法を利用して計測するこ
とで、雑音の程度に応じて識別関数値のしきい値を文字
カテゴリごとに設定できるので、雑音のない文字から雑
音のある文字に対しても認識判定は正しくできる利点が
ある。
According to the third aspect of the present invention, in the process of collating between the individual character candidate image pattern and the reference pattern using a predetermined discriminant function and determining whether to recognize or reject, the individual character including noise By measuring the degree of noise of the candidate image pattern using the method according to the first aspect of the present invention, the threshold value of the discriminant function value can be set for each character category according to the degree of noise. There is an advantage that recognition determination can be performed correctly even for characters having noise from characters.

【0056】。請求項4記載の発明によれば、雑音を含
む文字列画像パターンに対して、雑音背景下で認識が難
しい、文字幅が小さいかまたは文字の高さが低い句読点
や記号などの文字カテゴリに対しても、文字列画像中
で、すでに認識が終了した画像領域を除いた領域とそれ
らの認識結果の情報に着目して、再度、未処理の画像パ
ターンを辞書と比較することで、これらの句読点や記号
も正しく認識できる利点がある。
[0056] According to the fourth aspect of the present invention, a character string image pattern including noise is difficult to recognize under a noise background, and a character category such as a punctuation mark or a symbol having a small character width or a low character height is difficult to recognize. However, by paying attention to the area of the character string image excluding the image area for which recognition has already been completed and the information of those recognition results, comparing the unprocessed image pattern with the dictionary again, these punctuation marks And symbols can be recognized correctly.

【0057】請求項5の発明によれば、雑音を含む文字
列画像パターンに対して、新規に文字カテゴリを追加し
たり、参照パターンを更新する場合に、雑音の程度に応
じて決定される認識判定のしきい値を容易に学習できる
手段を提供しているので、これら新規作成・追加・更新
の処理が容易である利点がある。
According to the fifth aspect of the present invention, when a new character category is added to a character string image pattern including noise or a reference pattern is updated, a recognition determined in accordance with the degree of noise. Since the means for easily learning the threshold value of the judgment is provided, there is an advantage that the processing of new creation / addition / update is easy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明による文字認識装置の構成例を示すブロ
ック図である。
FIG. 1 is a block diagram illustrating a configuration example of a character recognition device according to the present invention.

【図2】図1の文字認識装置の文字列領域を抽出するフ
ローチャートである。
FIG. 2 is a flowchart for extracting a character string region of the character recognition device of FIG. 1;

【図3】図1の文字認識装置の個別文字の候補画像を抽
出するフローチャートである。
FIG. 3 is a flowchart of extracting an individual character candidate image of the character recognition device of FIG. 1;

【図4】図1の文字認識装置の個別文字の候補画像パタ
ーンと参照パターンの照合処理を行うフローチャートで
ある。
FIG. 4 is a flowchart illustrating a process of comparing an individual character candidate image pattern with a reference pattern by the character recognition apparatus of FIG. 1;

【図5】本発明による入力の2値画像パターンに対する
白黒計数処理の一例である。
FIG. 5 is an example of a monochrome counting process for an input binary image pattern according to the present invention.

【図6】本発明による文字列抽出処理の一例である。FIG. 6 is an example of a character string extraction process according to the present invention.

【図7】本発明による個別文字候補画像パターンの一例
である。
FIG. 7 is an example of an individual character candidate image pattern according to the present invention.

【符号の説明】[Explanation of symbols]

1…2値画像パターン記憶回路 2…白黒計数回路 3…文字列抽出回路 4…個別文字抽出回路 5…個別文字照合回路 6…参照パターン学習回路 7…画像入出力装置 5−1…水平方向走査の投影軸 5−3、5−4…水平方向走査の例 6−1…垂直方向走査の投影軸 6−2…垂直方向走査の例 7−1、7−2…個別文字候補画像パターンの例 DESCRIPTION OF SYMBOLS 1 ... Binary image pattern memory circuit 2 ... Black-and-white counting circuit 3 ... Character string extraction circuit 4 ... Individual character extraction circuit 5 ... Individual character collation circuit 6 ... Reference pattern learning circuit 7 ... Image input / output device 5-1 ... Horizontal scanning 5-3, 5-4: Example of horizontal scanning 6-1: Projection axis of vertical scanning 6-2: Example of vertical scanning 7-1, 7-2: Example of individual character candidate image pattern

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力される2値画像パターンに対して、
少なくとも1方向以上の複数方向に走査して、該走査線
上にある、黒から黒に変化する黒黒変化数と白から白に
変化する白白変化数および黒から白に変わる黒白変化数
と白から黒に変化する白黒変化数を計数する白黒計数手
順と、該白黒計数手順によって得られた該黒黒変化数に
関する計数値と該白白変化数に関する計数値の積の情報
と該黒白変化数に関する計数値と該白黒変化数に関する
計数値の積の情報を利用して文字列領域を抽出する文字
列抽出手順と、前記文字列領域より個別文字の候補画像
パターンである個別文字候補画像パターンを抽出する個
別文字抽出手順を備えることを特徴とする文字認識方
法。
1. An input binary image pattern,
By scanning in at least one direction or more in a plurality of directions, the number of black-black changes from black to black, the number of white-white changes from white to white, and the number of black-white changes from black to white on the scan line A black-and-white counting procedure for counting the number of black-and-white changes that change to black; information about the product of the count value for the black-black change number and the count value for the white-white change number obtained by the black-and-white counting procedure; A character string extraction procedure for extracting a character string area using information of a product of a numerical value and a count value regarding the number of black and white changes, and a candidate image of an individual character from the character string area
Individual character candidate image pattern to be extracted
A character recognition method comprising a separate character extraction procedure .
【請求項2】 前記文字列抽出手順によって抽出された
文字列領域に対応する文字列画像パターンに対して、該
文字列画像パターンの情報をもとに、少なくとも1方向
以上の複数方向に走査して、該走査線上にある、黒から
に変化する黒黒変化数と白から白に変化する白白変化
数および黒から白に変わる黒白変化数と白から黒に変化
する白黒変化数を計数し、該黒黒変化数に関する計数値
と該白白変化数に関する計数値の積の情報と該黒白変化
数に関する計数値と該白黒変化数に関する計数値の積の
情報を利用して、個別文字候補画像パターンを抽出する
個別文字抽出手順を備えることを特徴とする請求項1記
載の文字認識方法。
2. A character string image pattern corresponding to a character string region extracted by the character string extraction procedure is scanned in at least one direction in a plurality of directions based on information of the character string image pattern. From the black on the scan line
Counting the white number change changing from Shirajira change number and black-and-white change count and white change from black to white, which changes from black to white black discoloration number and white changes to black to black, the count values for said black black discoloration Number An individual character extraction procedure is provided for extracting an individual character candidate image pattern using information on the product of the count values regarding the number of white-white changes and information on the product of the count value regarding the number of black-white changes and the count value regarding the number of black-and-white changes. 2. The character recognition method according to claim 1, wherein:
【請求項3】 前記個別文字抽出手順によって得られた
個別文字候補画像パターンに対して、該個別文字候補画
像パターンと辞書の参照パターンとの間で所定の識別関
数を用いて照合し、該識別関数値と該個別文字候補画像
パターンの情報を利用して定まるしきい値とをもとに、
認識または棄却の判定処理を行う個別文字照合手順を備
えることを特徴とする請求項2記載の文字認識方法。
3. An individual character candidate image pattern obtained by the individual character extraction procedure is collated by using a predetermined identification function between the individual character candidate image pattern and a reference pattern of a dictionary. Based on the function value and a threshold determined using the information of the individual character candidate image pattern,
3. The character recognition method according to claim 2, further comprising an individual character collation procedure for performing recognition or rejection determination processing.
【請求項4】 前記個別文字抽出手順が、前記文字列抽
出手順によって抽出された文字列領域に対応する文字列
画像パターンに対して、前記個別文字照合手順で認識と
判定された文字カテゴリの位置と認識結果の情報をもと
に文字列画像の中で認識判定が未処理である個別文字候
補画像パターンを抽出する個別文字抽出手順であること
を特徴とする請求項3記載の文字認識方法。
4. The position of a character category determined to be recognized by the individual character matching procedure with respect to a character string image pattern corresponding to a character string area extracted by the individual character extracting procedure. 4. The character recognition method according to claim 3, further comprising an individual character extraction procedure for extracting an individual character candidate image pattern whose recognition judgment has not been processed in the character string image based on the information of the recognition result and the recognition result.
【請求項5】 入力された2値画像パターンの情報およ
び前記個別文字照合手順と少なくとも文字カテゴリと2
値画像パターンの入出力および編集を行う画像パターン
入出力手順とによって得られた情報をもとに、所定の識
別関数を適用して、参照パターンと個別文字候補画像パ
ターンの情報に対応した認識・棄却判定しきい値とを新
規作成・追加・更新する参照パターン学習手順を備える
ことを特徴とする請求項3又は4記載の文字認識方法。
5. The input binary image pattern information and the individual character collating procedure and at least a character category and 2
Based on the information obtained by the image pattern input / output procedure for inputting / outputting and editing the value image pattern, a predetermined identification function is applied to perform recognition / 5. The character recognition method according to claim 3, further comprising a reference pattern learning procedure for newly creating, adding, and updating a rejection determination threshold value.
JP24814795A 1995-09-26 1995-09-26 Character recognition method Expired - Fee Related JP3277977B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP24814795A JP3277977B2 (en) 1995-09-26 1995-09-26 Character recognition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP24814795A JP3277977B2 (en) 1995-09-26 1995-09-26 Character recognition method

Publications (2)

Publication Number Publication Date
JPH0991373A JPH0991373A (en) 1997-04-04
JP3277977B2 true JP3277977B2 (en) 2002-04-22

Family

ID=17173925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP24814795A Expired - Fee Related JP3277977B2 (en) 1995-09-26 1995-09-26 Character recognition method

Country Status (1)

Country Link
JP (1) JP3277977B2 (en)

Also Published As

Publication number Publication date
JPH0991373A (en) 1997-04-04

Similar Documents

Publication Publication Date Title
KR100512831B1 (en) Image processing method, apparatus and program storage medium
JP2940936B2 (en) Tablespace identification method
US5410611A (en) Method for identifying word bounding boxes in text
JP3904840B2 (en) Ruled line extraction device for extracting ruled lines from multi-valued images
US5335290A (en) Segmentation of text, picture and lines of a document image
JP6080259B2 (en) Character cutting device and character cutting method
JPH0652354A (en) Skew correcting method, skew angle detecting method, document segmentation system and skew angle detector
JP2001283152A (en) Device and method for discrimination of forms and computer readable recording medium stored with program for allowing computer to execute the same method
US6947596B2 (en) Character recognition method, program and recording medium
JP3277977B2 (en) Character recognition method
JPH02293989A (en) Character recognizing device
JP3476595B2 (en) Image area division method and image binarization method
JP3710164B2 (en) Image processing apparatus and method
JP3197464B2 (en) Character recognition method and character recognition device
JP3463255B2 (en) Multi-valued image pattern recognition processing method
JP2993533B2 (en) Information processing device and character recognition device
JP2923004B2 (en) Image generation device
JP2963474B2 (en) Similar character identification method
JPS63269267A (en) Character recognizing device
JP3127413B2 (en) Character recognition device
JP3210224B2 (en) Character recognition device
JP3377719B2 (en) Character recognition device and computer-readable recording medium
JP2918363B2 (en) Character classification method and character recognition device
JP3578247B2 (en) Character recognition method and device
JPH02166583A (en) Character recognizing device

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090215

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees