JPH07152862A - Character segmenting device for character recognition - Google Patents

Character segmenting device for character recognition

Info

Publication number
JPH07152862A
JPH07152862A JP5326335A JP32633593A JPH07152862A JP H07152862 A JPH07152862 A JP H07152862A JP 5326335 A JP5326335 A JP 5326335A JP 32633593 A JP32633593 A JP 32633593A JP H07152862 A JPH07152862 A JP H07152862A
Authority
JP
Japan
Prior art keywords
character
input
neural network
input data
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP5326335A
Other languages
Japanese (ja)
Inventor
Hitoshi Kubota
整 久保田
Katsuichi Ono
勝一 小野
Hisashi Chiba
久 千葉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzuki Motor Corp
Original Assignee
Suzuki Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzuki Motor Corp filed Critical Suzuki Motor Corp
Priority to JP5326335A priority Critical patent/JPH07152862A/en
Publication of JPH07152862A publication Critical patent/JPH07152862A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Character Input (AREA)

Abstract

PURPOSE:To correctly segment a character without being affected by noise. CONSTITUTION:A character segmenting device is provided with a picture input part 10 inputting an analog picture (b) including the character a1, binary picture data generating part 12 generating binary image data (c) by binalizing the analog picture (b) every picture element, an input data generating part 14 generating input data X1-Xn and Y1-Ym by dividing binary picture data (c) into picture elements every line in a horizontal direction X and the longitudinal direction Y, a neural network processing part 16 recognizing whether or not a part of the character is included by executing the neural network processing to the respective input data X1-Xn and Y1-Ym and a circumscribed frame output part 18 outputting the position (d) of the circumscribed frame a2 of the character a1 based on recognition results x1-xn and y1-ym.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、文字を光学的に読み取
る文字認識技術において用いられる文字切り出し装置に
関し、詳しくは、入力画像中の文字を認識する前処理と
して文字を一文字ごとに切り出すための文字切り出し装
置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character slicing device used in a character recognizing technique for optically reading a character, and more specifically, a character slicing device for prescribing a character in an input image for slicing out the character Regarding a character slicing device.

【0002】[0002]

【従来の技術】文字認識技術では、例えば図7に示すよ
うに、入力画像80,82中から一つの文字801,8
21,822,823をそれぞれの外接枠802,82
4,825,826で切り出してから、それらの文字8
01,…を認識している。
2. Description of the Related Art In character recognition technology, for example, as shown in FIG.
21, 822 and 823 are respectively attached to the circumscribing frames 802 and 82.
After cutting out at 4,825,826, those characters 8
01, ... are recognized.

【0003】従来の文字切り出し装置では、例えば図8
に示すように、入力画像80,82の各画素を垂直方向
及び水平方向に加算して黒部分の射影をとり、射影ヒス
トグラム803,804,827,828を作成する。
射影ヒストグラム803,…で、あるしきい値以上の部
分を文字801,…が存在している領域として切り出
す。このような文字切り出し装置は、例えば特開平1-11
4992号公報に記載されている。
In a conventional character cutting device, for example, FIG.
As shown in, the pixels of the input images 80 and 82 are added in the vertical direction and the horizontal direction to project the black portion, and projection histograms 803, 804, 827 and 828 are created.
In the projection histograms 803, ..., a portion above a certain threshold is cut out as an area in which the characters 801 ,. Such a character cutting device is disclosed in, for example, Japanese Patent Laid-Open No. 1-11.
It is described in Japanese Patent No. 4992.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来の
文字切り出し装置では、次のような問題があった。
However, the conventional character slicing device has the following problems.

【0005】文字801,…にカレやキレが生じてい
る場合や、ノイズが混入している場合には、文字80
1,…を正確に切り出すことが困難であった。これは、
カレ,キレ,ノイズ等が、そのまま射影ヒストグラム8
03,…に反映されるためである。
If the characters 801, ... Are broken or broken, or if noise is mixed in, the characters 801 ,.
It was difficult to accurately cut out 1, ... this is,
Projection histogram 8 for scratches, scratches, noise, etc.
This is because it is reflected in 03, ....

【0006】射影ヒストグラム803,…を用いて文
字801,…を含むか否かを判断するのに、射影ヒスト
グラム803,…でのしきい値を操作者が決める必要が
あった。したがって、たいへん操作が面倒であった。
In order to judge whether or not the characters 801, ... Are included using the projection histograms 803, ..., the operator has to determine the threshold value in the projection histograms 803 ,. Therefore, the operation was very troublesome.

【0007】[0007]

【発明の目的】そこで、本発明の目的は、カレ,キレ,
ノイズ等の影響を受けずに正確に文字を切り出すことが
できると共に、操作性を向上させた文字切り出し装置を
提供することにある。
SUMMARY OF THE INVENTION Therefore, the object of the present invention is
Another object of the present invention is to provide a character slicing device capable of accurately slicing a character without being affected by noise or the like and improving operability.

【0008】[0008]

【課題を解決するための手段】そこで、本発明に係る文
字切り出し装置は、上記目的を達成するためになされた
ものであり、文字を含むアナログ画像を入力する画像入
力部と、この画像入力部で入力されたアナログ画像を画
素ごとに二値化することにより二値化画像データを作成
する二値化画像データ作成部と、この二値化画像データ
作成部で作成された二値化画像データを横方向及び縦方
向に一列ごとの画素に分割することにより入力データを
作成する入力データ作成部と、この入力データ作成部で
作成された入力データの個々に対してニューラルネット
ワーク処理を行うことにより文字の一部を含むか否かを
認識するニューラルネットワーク処理部と、このニュー
ラルネットワーク処理部での認識結果に基づき文字の外
接枠の位置を出力する外接枠出力部とを備えたものであ
る。
SUMMARY OF THE INVENTION Therefore, a character cutting device according to the present invention is made to achieve the above-mentioned object, and an image input section for inputting an analog image including characters and this image input section. The binarized image data creating unit that creates binarized image data by binarizing the analog image input in step S1 and the binarized image data created by the binarized image data creating unit. By dividing the input data creation unit that creates input data by dividing each of the horizontal and vertical directions into pixels for each column, and performing neural network processing on each of the input data created by this input data creation unit, Neural network processing unit that recognizes whether a part of a character is included and outputs the position of the circumscribing frame of the character based on the recognition result by this neural network processing unit It is obtained by a that circumscribing frame output unit.

【0009】また、前記ニューラルネットワーク処理部
は、前記入力データ作成部で作成される入力データの画
素数に等しいユニット数から成る入力層と、任意のユニ
ット数から成る中間層と、文字の一部を含むか否かの情
報を出力する一個のユニット数から成る出力層とを備え
たものとしてもよい。さらに、前記ニューラルネットワ
ーク処理部は、リカレントニューラルネットワークから
成るものとしてもよい。
The neural network processing unit includes an input layer having a number of units equal to the number of pixels of the input data created by the input data creating unit, an intermediate layer having an arbitrary number of units, and a part of a character. And an output layer composed of one unit number for outputting information on whether or not to include. Further, the neural network processing unit may be composed of a recurrent neural network.

【0010】ここでいう「画素」とは、最小分解能とし
ての画素から、これらの画素を複数個集めて一単位とし
たものまでの広い概念である。
The term "pixel" as used herein is a broad concept from a pixel having the minimum resolution to a unit in which a plurality of these pixels are collected.

【0011】[0011]

【作用】文字を含むアナログ画像は、画像入力部から入
力され、二値化画像データ作成部で画素ごとに二値化さ
れて二値化画像データとなる。この二値化画像データ
は、横方向及び縦方向に一列ごとの画素に分割される。
この一列ごとの画素から入力データが構成される。
The analog image containing characters is input from the image input unit and binarized for each pixel in the binarized image data creation unit to be binarized image data. This binarized image data is divided into pixels for each column in the horizontal and vertical directions.
Input data is composed of the pixels for each column.

【0012】一方、ニューラルネットワーク処理部で
は、入力データに対応して的確に文字の一部を含むか否
かを認識できるように、ニューラルネットワークに予め
学習させておく。したがって、ニューラルネットワーク
処理部に入力データが入力されると、入力データが文字
の一部を含むか否かが認識され、この認識結果に基づき
外接枠出力部から文字の外接枠の位置が出力される。
On the other hand, in the neural network processing unit, the neural network is made to learn in advance so that it can be accurately recognized whether or not a part of the character is included corresponding to the input data. Therefore, when the input data is input to the neural network processing unit, it is recognized whether or not the input data includes a part of the character, and the circumscribing frame output unit outputs the position of the circumscribing frame of the character based on the recognition result. It

【0013】[0013]

【発明の実施例】図1は、本発明に係る文字切り出し装
置の一実施例を示すブロック図である。図2は、本実施
例におけるニューラルネットワーク処理部の構成及び動
作を示す説明図である。以下、これらの図に基づき説明
する。なお、図2では、図示の都合上、入力データX1
〜Xn を処理する場合のみ記載し、入力データY1 〜Y
mについては省略している。
DESCRIPTION OF THE PREFERRED EMBODIMENTS FIG. 1 is a block diagram showing an embodiment of a character slicing device according to the present invention. FIG. 2 is an explanatory diagram showing the configuration and operation of the neural network processing unit in this embodiment. Hereinafter, description will be given based on these figures. Note that, in FIG. 2, for convenience of illustration, the input data X 1
It described only when processing to X n, the input data Y 1 to Y
The m is omitted.

【0014】本発明に係る文字切り出し装置は、文字a
1を含むアナログ画像bを入力する画像入力部10と、
画像入力部10で入力されたアナログ画像bを画素ごと
に二値化することにより二値化画像データcを作成する
二値化画像データ作成部12と、二値化画像データ作成
部12で作成された二値化画像データcを横方向X及び
縦方向Yに一列ごとの画素に分割することにより入力デ
ータX1 〜Xn ,Y1〜Ym を作成する入力データ作成
部14と、入力データ作成部14で作成された入力デー
タX1 〜Xn ,Y1 〜Ym の個々に対してニューラルネ
ットワーク処理を行うことにより文字の一部を含むか否
かを認識するニューラルネットワーク処理部16と、ニ
ューラルネットワーク処理部16での認識結果x1 〜x
n ,y1〜ym に基づき文字a1の外接枠a2の位置d
を出力する外接枠出力部18とを備えたものである。
The character segmentation device according to the present invention is a character a
An image input unit 10 for inputting an analog image b including 1;
Created by a binarized image data creation unit 12 that creates binarized image data c by binarizing the analog image b input by the image input unit 10 for each pixel, and by the binarized image data creation unit 12. An input data creation unit 14 for creating input data X 1 to X n , Y 1 to Y m by dividing the binarized image data c thus obtained into pixels for each column in the horizontal direction X and the vertical direction Y; A neural network processing unit 16 that recognizes whether or not a part of a character is included by performing neural network processing on each of the input data X 1 to X n and Y 1 to Y m created by the data creating unit 14. And the recognition results x 1 to x in the neural network processing unit 16.
n, the position d of the bounding box a2 characters a1 on the basis of the y 1 ~y m
And a circumscribing frame output unit 18 for outputting

【0015】画像入力部10は、例えばイメージスキャ
ナ,CCDカメラ等から構成され、画像を光電変換しア
ナログ値として出力するものである。二値化画像データ
作成部12は、例えばA/D変換器等から構成され、画
像入力部10から入力したアナログ値をデジタル値に変
換するものである。
The image input unit 10 is composed of, for example, an image scanner, a CCD camera, etc., and photoelectrically converts an image and outputs it as an analog value. The binarized image data creation unit 12 is composed of, for example, an A / D converter or the like, and converts the analog value input from the image input unit 10 into a digital value.

【0016】入力データ作成手段14,ニューラルネッ
トワーク処理部16及び外接枠出力部18は、例えばコ
ンピュータ及びこれを動作させるプログラムによって実
現できる。この場合、このコンピュータで、画像入力部
10,二値化画像データ作成部12等を制御するように
構成してもよい。また、ニューラルネットワーク処理部
16は、ニューロチップによっても実現できる。
The input data creating means 14, the neural network processing unit 16 and the circumscribing frame output unit 18 can be realized by, for example, a computer and a program for operating the computer. In this case, the computer may be configured to control the image input unit 10, the binarized image data creation unit 12, and the like. The neural network processing unit 16 can also be realized by a neurochip.

【0017】また、ニューラルネットワーク処理部16
は、入力データ作成部14で作成される入力データX1
〜Xn ,Y1 〜Ym の画素数に等しいユニット数から成
る入力層20と、任意のユニット数から成る中間層22
と、文字a1の一部を含むか否かの情報(「1」,
「0」)を出力する一個のユニット数から成る出力層2
4とを備えている。さらに、ニューラルネットワーク処
理部16は、リカレントニューラルネットワークから成
るものである。
Further, the neural network processing unit 16
Is the input data X 1 created by the input data creation unit 14.
To X n and Y 1 to Y m, the input layer 20 has the number of units equal to the number of pixels, and the intermediate layer 22 has an arbitrary number of units.
And information indicating whether or not a part of the character a1 is included (“1”,
Output layer 2 consisting of one unit that outputs "0")
4 and. Further, the neural network processing unit 16 is composed of a recurrent neural network.

【0018】入力層20,中間層22,出力層24の各
ユニットは、対称結合又は一方向結合に拘束されない、
非対称でリカレントな結合をしている。このような特徴
を有するリカレントニューラルネットワークは、ノイズ
が混入した入力データに対しても、正確な認識が可能で
ある。なお、リカレントニューラルネットワーク自体
は、公知技術であり、例えば「計測と制御」Vol.30.No.
4(1991年4月)pp.296-301 等に詳述されている。また、
入力層20のユニット数は入力データX1 〜Xn,Y1
〜Ym の数に対応した個数であり、任意に設定可能であ
る。本実施例では図2に示されるようにn個のユニット
を具備している。
The units of the input layer 20, the intermediate layer 22, and the output layer 24 are not restricted to symmetric coupling or unidirectional coupling,
They are asymmetric and recurrent. The recurrent neural network having such characteristics can accurately recognize input data containing noise. Note that the recurrent neural network itself is a known technique, for example, "Measurement and control" Vol.30.No.
4 (April 1991) pp.296-301. Also,
The number of units of the input layer 20 is the input data X 1 to X n , Y 1
It is a number corresponding to the number of Y m and can be set arbitrarily. In this embodiment, n units are provided as shown in FIG.

【0019】このような構成において、入力層20に入
力される入力データX1 〜Xn ,Y1 〜Ym と出力層2
4からの認識結果x1 〜xn ,y1 〜ym との関係を得
るために、各ユニット間の結合強度をあらかじめ学習に
よって求める。すなわち、ある入力データを入力層20
に入力したとき、その入力データが大きな固まり
(「1」の集合)であれば、出力層24から「1」を出
力させ、その入力データが小さな固まりであれば、出力
層24から「0」を出力させるように学習させる。
In such a configuration, the input data X 1 to X n , Y 1 to Y m input to the input layer 20 and the output layer 2 are input.
Recognition result from 4 x 1 ~x n, in order to obtain the relationship between y 1 ~y m, determined in advance by learning a coupling strength between the units. That is, certain input data is input to the input layer 20.
When the input data is a large lump (a set of “1”), the output layer 24 outputs “1”. When the input data is a small lump, the output layer 24 outputs “0”. To learn to output.

【0020】このような学習済みのニューラルネットワ
ーク処理部16を使用すれば、ある未知の入力データが
与えられたとき、出力層24から正確な「0」又は
「1」の判定を行うことができる。ニューラルネットワ
ーク処理部16は、パターンの形状を学習するものであ
るため、入力パターン(本実施例における「入力デー
タ」)に多少のノイズが混入した場合でも、正しいパタ
ーン認識が可能である。
By using the learned neural network processing unit 16, it is possible to accurately determine "0" or "1" from the output layer 24 when given unknown input data. . Since the neural network processing unit 16 learns the shape of the pattern, correct pattern recognition is possible even when some noise is mixed in the input pattern (“input data” in this embodiment).

【0021】次に、図3のフローチャート及び以下に指
示する図面に基づき、本実施例の動作を説明する。
Next, the operation of this embodiment will be described with reference to the flow chart of FIG. 3 and the drawings indicated below.

【0022】二値化画像データ作成部12で作成された
二値化画像データcは、図4に示すように、横n個×縦
m個の画素から構成されている。入力データ作成部14
は、二値化画像データcを横方向Xに一列ごとの画素に
分割することにより入力データX1 〜Xn を作成する
(ステップ101)。
As shown in FIG. 4, the binarized image data c created by the binarized image data creating unit 12 is composed of n horizontal pixels × m vertical pixels. Input data creation unit 14
Creates the input data X 1 to X n by dividing the binarized image data c into pixels for each column in the horizontal direction X (step 101).

【0023】続いて、ニューラルネットワーク処理部1
6の入力層20に入力データX1 〜Xn を順次入力する
(ステップ102)。すると、入力データX1 〜Xn
対応した認識結果x1 〜xn が出力層24から順次出力
される(ステップ103)。例えば、図5(イ)に示す
ように入力データX1 に対して認識結果x1 、図5
(ロ)に示すように入力データX2 に対して認識結果x
2 、図5(ハ)に示すように入力データX3 に対して認
識結果x3 がそれぞれ出力される。
Next, the neural network processing unit 1
Input data X 1 to X n are sequentially input to the input layer 20 of No. 6 (step 102). Then, the recognition result x 1 ~x n corresponding to the input data X 1 to X n are sequentially outputted from the output layer 24 (step 103). For example, the recognition result x 1 with respect to the input data X 1 as shown in FIG. 5 (b), FIG. 5
As shown in (b), the recognition result x for the input data X 2
2 , the recognition result x 3 is output for each input data X 3 as shown in FIG.

【0024】次に、同様に、縦方向Yの入力データY1
〜Ym を作成し(ステップ104)、入力層20に入力
データY1 〜Ym を順次入力すると(ステップ10
5)、入力データY1 〜Yn に対応した認識結果y1
m が出力層24から順次出力される(ステップ10
6)。
Next, similarly, input data Y 1 in the vertical direction Y 1
˜Y m are created (step 104), and input data Y 1 to Y m are sequentially input to the input layer 20 (step 10).
5), the recognition result y 1 ~ corresponding to the input data Y 1 to Y n
y m are sequentially output from the output layer 24 (step 10).
6).

【0025】最後に、外接枠出力部18は、縦と横の認
識結果x1 〜xn ,y1 〜ym から文字a1の外接枠a
2の位置dを求め、外接枠a2で文字a1を切り出す
(ステップ107)。すなわち、図6に示すように、認
識結果x1 〜xn ,y1 〜ymのうち、出力が「1」の
部分(図中ではハッチングで表示)の始まりの位置をそ
れぞれSX,SYとし、「1」の続いている個数をL
X,LYとする。これにより、左端及び上端(SX,S
Y)、大きさ(LX,LY)の矩形が外接枠a2として
認識され、外接枠a2で文字a1を切り出す。切り出さ
れた文字a1は、図1に示すように、この文字切り出し
装置外の文字認識部30でパターン認識される。
[0025] Finally, circumscribing frame output unit 18, vertical and horizontal recognition result x 1 ~x n, circumscribing frame a character a1 from y 1 ~y m
The position d of 2 is obtained, and the character a1 is cut out in the circumscribing frame a2 (step 107). That is, as shown in FIG. 6, the recognition result x 1 ~x n, among the y 1 ~y m, respectively SX the position of the beginning portion of the output is "1" (indicated by hatching in the figure), and SY , The number of consecutive "1" is L
X and LY. As a result, the left end and the upper end (SX, S
Y) and a rectangle of size (LX, LY) are recognized as the circumscribing frame a2, and the character a1 is cut out in the circumscribing frame a2. As shown in FIG. 1, the cut-out character a1 is pattern-recognized by a character recognition unit 30 outside the character cutting device.

【0026】なお、ニューラルネットワーク処理部16
は、本実施例のようにリカレントニューラルネットワー
クを用いることが最も望ましいが、これに限定するもの
ではなく、例えばフィードフォワードネットワーク等を
用いてもよい。
The neural network processing unit 16
It is most preferable to use a recurrent neural network as in this embodiment, but the present invention is not limited to this, and a feedforward network or the like may be used.

【0027】[0027]

【発明の効果】本発明によれば、二値化画像データを横
方向及び縦方向に一列ごとの画素に分割して入力データ
を作成することにより、これらの入力データをニューラ
ルネットワーク処理部で処理することができる。その結
果、入力データが文字の一部を含むか否かをノイズの影
響を除去して認識でき、この認識結果に基づき正確な外
接枠で文字を切り出すことができる。
According to the present invention, the input image data is processed by the neural network processing unit by dividing the binarized image data into pixels for each column in the horizontal direction and the vertical direction and creating the input data. can do. As a result, it is possible to recognize whether or not the input data includes a part of the character by removing the influence of noise, and it is possible to cut out the character with an accurate circumscribing frame based on the recognition result.

【0028】また、従来は射影ヒストグラムでのしきい
値を操作者が決める必要があったが、本発明では文字を
切り出す際にそのような手間は不要であるので操作性を
向上できる。
Further, conventionally, the operator had to determine the threshold value in the projection histogram, but in the present invention, such an effort is not required when cutting out a character, so that the operability can be improved.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の一実施例を示すブロック図である。FIG. 1 is a block diagram showing an embodiment of the present invention.

【図2】本発明の一実施例におけるニューラルネットワ
ーク処理部の構成及び動作を示す説明図である。
FIG. 2 is an explanatory diagram showing the configuration and operation of a neural network processing unit according to an embodiment of the present invention.

【図3】本発明の一実施例の動作を示すフローチャート
である。
FIG. 3 is a flowchart showing the operation of the embodiment of the present invention.

【図4】文字を含む二値化画像データを示す平面図であ
る。
FIG. 4 is a plan view showing binary image data including characters.

【図5】本発明の一実施例におけるニューラルネットワ
ーク処理部の動作を示す説明図であり、図5(イ)は入
力データX1 に対する認識結果x1 、図5(ロ)は入力
データX2 に対する認識結果x2 、図5(ハ)は入力デ
ータX3 に対する認識結果x3 をそれぞれ示す。
[Figure 5] is an explanatory diagram showing the operation of the neural network processing unit according to an embodiment of the present invention, FIG. 5 (b) is a recognition result for the input data X 1 x 1, FIG. 5 (b) is the input data X 2 recognition result x 2 for 5 (c) shows a recognition result x 3 with respect to the input data X 3.

【図6】本発明の一実施例におけるニューラルネットワ
ーク処理部の認識結果を示す説明図である。
FIG. 6 is an explanatory diagram showing a recognition result of the neural network processing unit in the embodiment of the present invention.

【図7】文字の切り出し例を示す説明図である。FIG. 7 is an explanatory diagram showing an example of cutting out characters.

【図8】従来例における文字の切り出し方法を示す説明
図である。
FIG. 8 is an explanatory diagram showing a character cutting method in a conventional example.

【符号の説明】[Explanation of symbols]

10 画像入力部 12 二値化画像データ作成部 14 入力データ作成部 16 ニューラルネットワーク処理部 18 外接枠出力部 20 入力層 22 中間層 24 出力層 10 image input unit 12 binarized image data creation unit 14 input data creation unit 16 neural network processing unit 18 circumscribing frame output unit 20 input layer 22 intermediate layer 24 output layer

Claims (3)

【特許請求の範囲】[Claims] 【請求項1】 文字を含むアナログ画像を入力する画像
入力部と、この画像入力部で入力されたアナログ画像を
画素ごとに二値化することにより二値化画像データを作
成する二値化画像データ作成部と、この二値化画像デー
タ作成部で作成された二値化画像データを横方向及び縦
方向に一列ごとの画素に分割することにより入力データ
を作成する入力データ作成部と、この入力データ作成部
で作成された入力データの個々に対してニューラルネッ
トワーク処理を行うことにより文字の一部を含むか否か
を認識するニューラルネットワーク処理部と、このニュ
ーラルネットワーク処理部での認識結果に基づき文字の
外接枠の位置を出力する外接枠出力部とを備えているこ
とを特徴とする文字認識用の文字切り出し装置。
1. An image input unit for inputting an analog image including characters, and a binarized image for creating binarized image data by binarizing the analog image input by the image input unit for each pixel. A data creation unit, an input data creation unit that creates input data by dividing the binarized image data created by the binarized image data creation unit into pixels for each row in the horizontal and vertical directions, and A neural network processing unit that recognizes whether or not a part of a character is included by performing neural network processing on each of the input data created by the input data creation unit and the recognition result by this neural network processing unit. And a circumscribing frame output unit that outputs the position of the circumscribing frame of the character based on the character slicing device for character recognition.
【請求項2】 前記ニューラルネットワーク処理部は、
前記入力データ作成部で作成される入力データの画素数
に等しいユニット数から成る入力層と、任意のユニット
数から成る中間層と、文字の一部を含むか否かの情報を
出力する一個のユニット数から成る出力層とを備えたこ
とを特徴とする請求項1記載の文字認識用の文字切り出
し装置。
2. The neural network processing unit,
An input layer composed of a number of units equal to the number of pixels of the input data created by the input data creation unit, an intermediate layer composed of an arbitrary number of units, and a single unit for outputting information as to whether or not a part of a character is included. The character slicing device for character recognition according to claim 1, further comprising an output layer composed of a number of units.
【請求項3】 前記ニューラルネットワーク処理部は、
リカレントニューラルネットワークから成ることを特徴
とする請求項1又は2記載の文字認識用の文字切り出し
装置。
3. The neural network processing unit,
The character slicing device for character recognition according to claim 1 or 2, comprising a recurrent neural network.
JP5326335A 1993-11-30 1993-11-30 Character segmenting device for character recognition Withdrawn JPH07152862A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP5326335A JPH07152862A (en) 1993-11-30 1993-11-30 Character segmenting device for character recognition

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP5326335A JPH07152862A (en) 1993-11-30 1993-11-30 Character segmenting device for character recognition

Publications (1)

Publication Number Publication Date
JPH07152862A true JPH07152862A (en) 1995-06-16

Family

ID=18186630

Family Applications (1)

Application Number Title Priority Date Filing Date
JP5326335A Withdrawn JPH07152862A (en) 1993-11-30 1993-11-30 Character segmenting device for character recognition

Country Status (1)

Country Link
JP (1) JPH07152862A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020080092A (en) * 2018-11-14 2020-05-28 株式会社ハイシンク創研 Image inspection method and image inspection device using machine learning

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020080092A (en) * 2018-11-14 2020-05-28 株式会社ハイシンク創研 Image inspection method and image inspection device using machine learning

Similar Documents

Publication Publication Date Title
JPH0721320A (en) Automatic determination device of script
JP2000207489A (en) Character extracting method and device and record medium
JPH0436433B2 (en)
JPH0256708B2 (en)
JPH0715703B2 (en) Character reading method
JPH07152862A (en) Character segmenting device for character recognition
JPH06208625A (en) Method and device for processing image
JP2613959B2 (en) Fingerprint pattern classification device
JPH0581474A (en) Character string extracting method and character area detecting method
CN112419208A (en) Construction drawing review-based vector drawing compiling method and system
JPH08235359A (en) Pattern matching method and device thereof
JPH08272971A (en) Object recognizing method
JPH08272956A (en) Method and device for noise removal
JP2590099B2 (en) Character reading method
JPH07271907A (en) Binarizing device for analog image
JP2797655B2 (en) Image processing method and apparatus
JP2832019B2 (en) Image processing device
JPH0562013A (en) Character reader
JPH0660220A (en) Area extracting method for document image
JPH06251202A (en) Character recognition device
JPH0586585B2 (en)
JPH02187883A (en) Document reader
JP2771045B2 (en) Document image segmentation method
JPH0676105A (en) Document recognizing system
JP2000048123A (en) Image processor

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20010130