JPH05114047A - Device for segmenting character - Google Patents

Device for segmenting character

Info

Publication number
JPH05114047A
JPH05114047A JP3275470A JP27547091A JPH05114047A JP H05114047 A JPH05114047 A JP H05114047A JP 3275470 A JP3275470 A JP 3275470A JP 27547091 A JP27547091 A JP 27547091A JP H05114047 A JPH05114047 A JP H05114047A
Authority
JP
Japan
Prior art keywords
character
pattern
contact
pixel
block
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP3275470A
Other languages
Japanese (ja)
Inventor
Hiroshi Yoshida
浩史 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP3275470A priority Critical patent/JPH05114047A/en
Publication of JPH05114047A publication Critical patent/JPH05114047A/en
Pending legal-status Critical Current

Links

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02EREDUCTION OF GREENHOUSE GAS [GHG] EMISSIONS, RELATED TO ENERGY GENERATION, TRANSMISSION OR DISTRIBUTION
    • Y02E60/00Enabling technologies; Technologies with a potential or indirect contribution to GHG emissions mitigation
    • Y02E60/30Hydrogen technology
    • Y02E60/50Fuel cells

Landscapes

  • Character Input (AREA)

Abstract

PURPOSE:To provide a character segmenting device for segmenting individual character patterns from contact characters coming into contact with each other in an oblique direction or contact characters coming into contact with each other on two positions or more. CONSTITUTION:A character segmenting part 120 segments the character line image of one character from the image data of a document which are quantized to a black-and-white binary value inputted from an image input part 110. A character lump segmenting part 131 in a character segmenting device 130 segments a lump of connected black picture elements from the character line image, a constriction detecting part 132 detects a constricted part of a character line in the lump of the black picture elements. A character pattern segmenting part 133 separates the lump of the black picture elements on the constricted part and segments individual character patterns from contact characters coming into contact with each other in an oblique direction or contact characters coming into contact with each other on two positions or more.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】この発明は、文字切り出し装置に
関し、特に英語等の文書に於いて頻出する斜め方向に接
触する接触文字や、二ヶ所以上の箇所で接触するような
接触文字から個々の文字パタンを切り出すことの可能な
文字切り出し装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character slicing device, and particularly to a contact character which is frequently contacted in an English document or the like and which is contacted in an oblique direction or a contact character contacted at two or more places. The present invention relates to a character slicing device capable of slicing a character pattern.

【0002】[0002]

【従来の技術】媒体上の文書画像から該文書が持つ文字
情報を正確に得ることができれば、種々の機能を持つ情
報処理装置、例えば文字情報を記憶する装置、文字認識
装置、認識した文字を音声により出力するような装置、
認識した文字を翻訳するような装置、等の構築が可能と
なる。
2. Description of the Related Art If character information contained in a document can be accurately obtained from a document image on a medium, an information processing apparatus having various functions, such as an apparatus for storing character information, a character recognition apparatus, and a recognized character can be used. A device that outputs by voice,
It is possible to construct a device that translates recognized characters.

【0003】しかし、このような情報処理装置を実現す
るためには、媒体上の入力文字列から得た入力文字列デ
ータより、1文字分づつの文字パタンデータを正確に切
り出し、これを辞書と照合する必要がある。そこで、入
力文字列データより各文字パタンデータを正確に切り出
せる文字切り出し装置が必要になる。
However, in order to realize such an information processing apparatus, character pattern data for each character is accurately cut out from the input character string data obtained from the input character string on the medium, and this is used as a dictionary. Need to match. Therefore, a character slicing device capable of accurately slicing each character pattern data from the input character string data is required.

【0004】従来、入力文字列データから1文字分の文
字パタンデータを切り出す装置としては、入力文字列デ
ータを文字列方向(主走査方向)と直行する方向(以下
副走査方向と称することもある。)に順次に走査し、各
副走査線上の文字線部を表す黒ビットの数から黒ビット
のヒストグラムを作成し、該黒ビットの数を予め定めた
閾値Sと比較し、黒ビット数がS以上となり再びSより
小さい値となる領域のデータを文字パタンデータとして
切り出す装置が広く知られていた。
Conventionally, as an apparatus for cutting out character pattern data for one character from input character string data, the input character string data may be orthogonal to the character string direction (main scanning direction) (hereinafter also referred to as sub-scanning direction). .) Sequentially, a histogram of black bits is created from the number of black bits representing the character line portion on each sub-scan line, and the number of black bits is compared with a predetermined threshold value S. There has been widely known a device for cutting out data of a region having a value of S or more and a value of S or less again as character pattern data.

【0005】しかし、上述の文字切り出し装置では、一
般の英文文書等において頻出する、図4(A)に示すよ
うな隣接する文字同士が接触したような文字について
は、個々の文字に切り出すことが出来なかった。
However, in the above character slicing device, a character which frequently appears in a general English document or the like and in which adjacent characters are in contact with each other as shown in FIG. 4A can be sliced into individual characters. I could not do it.

【0006】そこで、このような問題を解決できる文字
切り出し装置として、例えば文献:特願平01−213
808に開示されているものがあった。
Therefore, as a character slicing device which can solve such a problem, for example, reference: Japanese Patent Application No. 01-213.
808 was disclosed.

【0007】この文献の文字切り出し装置によれば、ま
ず文字塊パタンデータについて文字行方向における各文
字パタンの区切り位置を含むと思われる走査領域を設定
し、該領域内を前記文字行方向と所定の角度をなす第2
の方向に順次に走査して該走査領域内の文字線部に外接
する枠の上枠及び下枠から該文字線部までの前記第2の
方向における距離を順次に求め、さらにこれらのうちの
最大距離を求め、該最大距離の位置を文字パタンデータ
を切り出す位置とするという方法であった。
According to the character slicing device of this document, first, a scanning area that is considered to include a delimiter position of each character pattern in the character line direction is set for the character block pattern data, and the area is defined as the character line direction. The second angle
In the second direction from the upper frame and the lower frame of the frame circumscribing the character line portion in the scanning area to the character line portion in the second direction. The maximum distance is obtained, and the position of the maximum distance is set as the position where the character pattern data is cut out.

【0008】[0008]

【発明が解決しようとする課題】しかし、前記文字切り
出し装置の方法は、文字パタンの接触の方向が文字列方
向と平行な方向であり、かつ前記第2の走査方向が文字
行方向であった場合には有効であるが、それ以外の場
合、例えば英文文章等に頻出する図4(A)に示すよう
な、2以上の文字パタンが斜めの方向で接触している場
合、また2カ所以上で接触しているような場合には、全
く有効でなく適正に文字パタンを切り出すことが出来な
いと言う問題点があり、従って前記方法では、英文文書
等から正しく文字パタンを切り出す為の文字切り出し装
置が実現できず、前述の各種の情報処理装置の実現が困
難となる、と言う問題点があった。
However, in the method of the character slicing device, the contact direction of the character pattern is parallel to the character string direction, and the second scanning direction is the character line direction. This is effective in the case, but in other cases, for example, when two or more character patterns are in contact with each other in an oblique direction as shown in FIG. However, there is a problem that it is not effective at all and it is not possible to properly cut out the character pattern.Therefore, in the above method, the character cutting for correctly cutting out the character pattern from the English document etc. There is a problem that the device cannot be realized and it becomes difficult to realize the above-mentioned various information processing devices.

【0009】さらに、この従来の方法を文字認識装置に
適用した場合には、正しく文字を切り出すことができな
いために、正しい文字パタンデータを得ることが困難と
なり、従って正しく文字認識を行うことが全く不可能で
あった。また、この問題に対応するためにはオペレータ
による修正作業が必要となるが、この作業は煩雑であ
り、文字認識装置の処理性能の著しい低下、操作性の悪
化等をもたらすという問題点があり、実用上満足できる
文字認識装置を提供することは不可能であった。この発
明は、以上述べた従来の装置における文字切り出し方法
では、文字行方向或いは文字列方向とは異なる特定の角
度の向きに接触したような文字パタンは、正しく切り出
すことが出来ないという問題点と、2カ所以上で接触し
たような接触文字についても正しく文字パタンを切り出
すことが出来ないという問題点を解決して英語等の文書
に頻出する斜めの方向に接触したような接触文字や、2
カ所以上の箇所で接触しているような接触文字について
も適正に1文字づつの文字パタンデータを切り出すこと
が出来るようにすることによって文書画像からの正確な
文字情報の抽出が可能であるようにし、前述した種々の
機能を持つ情報処理装置及び精度の高い認識が可能で、
操作が簡単で効率よく文字を入力することが可能な高性
能な文字認識装置の構築を可能とする文字切り出し装置
を提供することを目的とする。
Further, when this conventional method is applied to a character recognition device, it is difficult to obtain correct character pattern data because the character cannot be cut out correctly, and therefore correct character recognition cannot be performed at all. It was impossible. Further, in order to deal with this problem, a correction work by an operator is required, but this work is complicated, and there is a problem that the processing performance of the character recognition device is remarkably deteriorated and the operability is deteriorated. It has been impossible to provide a character recognition device that is practically satisfactory. The present invention has a problem that, in the character cutting method in the conventional device described above, a character pattern that is in contact with a direction of a specific angle different from the character line direction or the character string direction cannot be correctly cut out. The problem that the character pattern cannot be cut out correctly even if the contact character is touched at two or more places, and the contact character that touches in an oblique direction often appears in documents such as English,
It is possible to accurately extract character information from a document image by appropriately cutting out character pattern data for each character that is touching at more than one place. , Information processing device having various functions described above and highly accurate recognition are possible,
An object of the present invention is to provide a character slicing device capable of constructing a high-performance character recognition device that is easy to operate and can efficiently input characters.

【0010】[0010]

【課題を解決するための手段】この発明は前記課題を解
決するために、文字行画像から文字パタンを切り出す文
字切り出し装置において、文字行画像から連続した黒画
素の塊を抽出する手段と、該抽出された黒画素の塊より
当該黒画素の塊を構成する文字線の線幅が他の部分に比
して細いくびれ部分を検出するくびれ検出手段と、前記
検出されたくびれ部分において当該黒画素の塊を2以上
の黒画素の塊に分割することにより文字パタンを切り出
す文字パタン切り出し手段を備えたことを特徴とする。
In order to solve the above-mentioned problems, the present invention provides a character slicing device for slicing a character pattern from a character line image, and a means for extracting a group of continuous black pixels from the character line image, Constriction detecting means for detecting a narrowed portion in which the line width of the character line forming the black pixel block is smaller than that of the extracted black pixel block, and the black pixel in the detected necked part Is provided with a character pattern cutout unit that cuts out a character pattern by dividing the block into two or more black pixel blocks.

【0011】[0011]

【作用】英文文書等に頻出する接触文字の接触箇所は、
文字の線幅に比べて十分に細い場合、つまりくびれた状
態であることが多い。従って、文字行画像から切り出さ
れた一連の黒画素の塊よりくびれ部分を検出し、このく
びれの部分に於いて黒画素の塊を分離して個々の文字パ
タンを切り出すことにより2以上の文字パタンが斜め方
向で接触している場合、また二ヶ所以上で接触している
ような場合に於いても正しく文字パタンを切り出すこと
が可能となる。
[Function] The contact points of contact characters that frequently appear in English documents are
When the line width of a character is sufficiently thin, that is, it is often in a constricted state. Therefore, the constricted part is detected from the series of black pixel blocks cut out from the character line image, and the black pixel blocks are separated in this constricted part and the individual character patterns are cut out so that there are two or more character patterns. It is possible to correctly cut out a character pattern even when the two are in contact with each other in an oblique direction, or when they are in contact with each other at two or more places.

【0012】[0012]

【実施例】以下、図面を参照してこの発明の文字切り出
し装置の実施例につき説明する。図1は実施例の文字切
り出し装置を組み込んだ、文字認識装置の構成を概略的
に示したブロック図である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of the character slicing device of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram schematically showing the configuration of a character recognition device incorporating the character cutting device of the embodiment.

【0013】図1に於いて、文字認識装置100は、画
像入力部110、文字行切り出し部120、実施例の文
字切り出し装置130、文字認識部140、出力端子1
50から成り、さらに、文字切り出し装置130は、文
字塊切り出し部131、くびれ検出部132、文字パタ
ン切り出し部133とを具えてなる。
In FIG. 1, a character recognition device 100 includes an image input unit 110, a character line cutout unit 120, a character cutout device 130 of an embodiment, a character recognition unit 140, and an output terminal 1.
The character segmentation device 130 further includes a character block segmentation unit 131, a constriction detection unit 132, and a character pattern segmentation unit 133.

【0014】文字、図形、記号等(以下、文字と言う)
が記載された帳票からの光信号Sは画像入力部110に
入力される。
Characters, figures, symbols, etc. (hereinafter referred to as characters)
The optical signal S from the document in which is described is input to the image input unit 110.

【0015】画像入力部110は、前記光信号Sを光電
変換し、例えば文字線部を黒画素、背景部を白画素で実
現した白黒2値に量子化された電気信号(以下、帳票画
像と称する)を生成し、該帳票画像データを文字行切り
出し部120に出力する。
The image input unit 110 photoelectrically converts the optical signal S and quantizes it into an electric signal (for example, a form image, hereinafter) quantized into a black and white binary value in which the character line portion is a black pixel and the background portion is a white pixel. (Referred to as) is generated and the form image data is output to the character line cutout unit 120.

【0016】文字行切り出し部120においては、画像
入力部110より入力された帳票画像データより、1行
づつの文字行を切り出し、該文字行画像データを文字切
り出し装置130に入力する。本実施例では前記文字行
の切り出しは、前記入力された帳票画像データを、文字
行方向を主走査方向として、また文字列方向を副走査方
向として走査し、文字列方向の黒画素の分布を作成し、
該黒画素の分布が「0」から「1」以上に変化する位置
から、「1」以上から「0」に変化する直前の位置まで
を文字行画像として切り出すことにより行う。
The character line cutout unit 120 cuts out character lines one by one from the form image data input from the image input unit 110 and inputs the character line image data to the character cutout device 130. In the present embodiment, the character lines are cut out by scanning the input form image data with the character line direction as the main scanning direction and the character string direction as the sub-scanning direction to determine the distribution of black pixels in the character string direction. make,
This is performed by cutting out as a character line image from the position where the distribution of the black pixels changes from “0” to “1” or more to the position immediately before the change from “1” or more to “0”.

【0017】文字切り出し装置130においては、まず
文字塊切り出し部131において前記入力された文字行
画像データより黒画素の塊を順次検出し、該黒画素の塊
を文字塊としてくびれ検出部132に出力する。
In the character slicing device 130, first, the character block slicing unit 131 sequentially detects a block of black pixels from the input character line image data, and outputs the block of black pixels to the constriction detecting unit 132 as a character block. To do.

【0018】黒画素の塊の検出は、以下の方法により行
う。
The block of black pixels is detected by the following method.

【0019】 先ず、前記入力された文字行画像デー
タを、文字列方向を主走査方向、文字行方向を副走査方
向として走査し、黒画素の分布を作成し、該黒画素の分
布が「0」から「1」以上に変化する位置から、「1」
以上から「0」に変化する直前の位置までを文字ブロッ
クとして順次切り出す。
First, the input character line image data is scanned with the character string direction as the main scanning direction and the character line direction as the sub scanning direction to create a black pixel distribution, and the black pixel distribution is “0. From the position that changes from "1" or more to "1"
From the above, up to the position immediately before changing to "0" is sequentially cut out as a character block.

【0020】 次に、前記切り出された文字ブロック
の各々に対して、文字の間隙を検出する為に、当該文字
ブロックの外接枠上辺における背景部(白ビット)を順
次下辺方向に伝播させ背景伝播パタンを作成する。この
背景伝播パタンは、文字ブロックパタンと同一の2次元
座標で定義され、各画素に対し、文字線部の伝播を意味
するパタン値「1」、左上方向からの背景部の伝播を意
味するパタン値「2」、真上方向からの背景部の伝播を
意味するパタン値「3」、右上方向からの背景部の伝播
を意味するパタン値「4」の何れかの値をとる。
Next, for each of the cut out character blocks, in order to detect the character gap, the background portion (white bit) at the upper side of the circumscribing frame of the character block is sequentially propagated in the lower side direction, and the background propagation is performed. Create a pattern. This background propagation pattern is defined by the same two-dimensional coordinates as the character block pattern, and for each pixel, a pattern value "1" meaning propagation of the character line portion, and a pattern meaning propagation of the background portion from the upper left direction. The value is “2”, the pattern value is “3” which means the propagation of the background portion from directly above, and the pattern value is “4” which means the propagation of the background portion from the upper right direction.

【0021】図2(A)〜(C)の背景伝播パタン値の
決定方法を説明する為の図であり、以下、背景伝播パタ
ンの作成方法を説明する。
FIGS. 2A to 2C are diagrams for explaining the method of determining the background propagation pattern value, and the method of creating the background propagation pattern will be described below.

【0022】図3(A)に示す様な文字ブロックパタン
を上辺から下辺方向に向かって文字列方向に平行な方向
を主走査方向として順次走査を行い、各画素の画素値が
「1」か「0」かを検定する。この検定において、被検
定画素の画素値が「1」の時には背景伝播パタン上の該
被検定画素位置に文字線部を意味するパタン値「1」を
格納する。一方、被検定画素の画素値が「0」の時に
は、当該走査線の直前の走査線における背景伝播パタン
値に応じて以下のように当該被検定画素のパタン値を決
定する。
A character block pattern as shown in FIG. 3A is sequentially scanned from the upper side to the lower side with a direction parallel to the character string direction as the main scanning direction, and the pixel value of each pixel is "1". Test whether it is "0". In this test, when the pixel value of the tested pixel is "1", the pattern value "1" meaning the character line portion is stored at the tested pixel position on the background propagation pattern. On the other hand, when the pixel value of the tested pixel is “0”, the pattern value of the tested pixel is determined as follows according to the background propagation pattern value on the scan line immediately before the scan line.

【0023】図2(A)に示すように、当該被検定画素
の真上の画素(△で示す)に対応する背景伝播パタン値
が白地を意味する2〜4である場合には当該被検定画素
に対応する背景伝播パタン値を「3」とし、図2(B)
に示すように、被検定画素の左上の画素に対応する背景
伝播パタン値が「2」〜「4」の何れかであり、かつ、
真上の画素に対応する背景伝播パタン値が「1」の時、
当該被検定画素に対応する背景伝播パタン値を「2」と
し、また、図2(C)に示すように、被検定画素の左上
及び真上の画素に対応する背景伝播パタン値が「1」で
あり、かつ、右上の画素に対応する背景伝播パタン値が
「2」〜「4」の何れかの時、当該被検定画素に対応す
る背景伝播パタン値を「4」とする。
As shown in FIG. 2A, when the background propagation pattern value corresponding to the pixel directly above the pixel to be inspected (indicated by Δ) is 2 to 4 which means a white background, the inspected pixel is inspected. The background propagation pattern value corresponding to the pixel is set to “3”, and FIG.
, The background propagation pattern value corresponding to the upper left pixel of the tested pixel is any of "2" to "4", and
When the background propagation pattern value corresponding to the pixel immediately above is "1",
The background propagation pattern value corresponding to the pixel under test is set to "2", and as shown in FIG. 2C, the background propagation pattern value corresponding to the upper left pixel and the pixel immediately above is "1". And the background propagation pattern value corresponding to the upper right pixel is any of “2” to “4”, the background propagation pattern value corresponding to the tested pixel is set to “4”.

【0024】尚、文字ブロック外接枠の最上列、最左
列、最右列上の各画素に対して前述の処理を行う場合に
は、各々更に一列上、左、右に白画素の文字パタン列、
及び文字背景部を意味するパタン値を有する背景伝播パ
タン列が存在するものとする。以上のような処理によ
り、図3(A)に示すような文字ブロックパタンに対し
て図3(B)に示す様な背景伝播パタンが得られる。
When the above-described processing is performed for each pixel on the uppermost column, the leftmost column, and the rightmost column of the character block circumscribing frame, the character pattern of white pixels is further arranged on the upper column, the left column, and the right column. Columns,
And a background propagation pattern sequence having a pattern value meaning a character background portion. By the above processing, the background propagation pattern as shown in FIG. 3B is obtained for the character block pattern as shown in FIG.

【0025】 次に、文字ブロック外接枠の下辺に対
応する背景伝播パタンを調べ、パタン値が「1」の背景
伝播パタンに囲まれたパタン値が「2」〜「4」の何れ
かの値をとる領域を検出する。この領域が検出できなか
った場合には、当該文字ブロックは唯一の文字塊から成
ると判定して当該文字ブロックデータをそのままくびれ
検出部132に出力する。また、前記領域が検出された
場合には、当該領域を当該文字ブロックを構成する文字
塊の間隙と判定し該領域の最も右の画素即ちパタン値が
「1」以外の値から「1」に変化する画素のX,Y座標
(左上隅の画素を座標の原点(1,1)とする)を当該
間隙の始点座標として各々変数X1 ,Y1 に格納し、次
の以降の処理を行う。図3(B)の背景伝播パタンに
於いては、最下辺のパタン値は「1111111111
11133211111111114333」となって
おり、14番目から16番目の「332」がパタン値
「1」に囲まれており、右端のパタン値「2」の画素ア
ドレス(X1 ,Y1 )=(16,31)が始点座標とし
て格納される。
Next, the background propagation pattern corresponding to the lower side of the character block circumscribing frame is examined, and the pattern value surrounded by the background propagation pattern having the pattern value “1” is any value of “2” to “4”. The area that takes is detected. If this area cannot be detected, it is determined that the character block consists of a single character block, and the character block data is output as it is to the constriction detection unit 132. When the area is detected, the area is determined to be the space between the character blocks forming the character block, and the rightmost pixel of the area, that is, the pattern value is changed from a value other than "1" to "1". The X and Y coordinates of the changing pixel (the pixel in the upper left corner is the origin (1, 1) of the coordinates) are stored in the variables X 1 and Y 1 as the starting point coordinates of the gap, and the subsequent processing is performed. .. In the background propagation pattern of FIG. 3B, the pattern value on the bottom side is "1111111111".
1133211111111111114333 ", the 14th to 16th" 332 "are surrounded by the pattern value" 1 ", and the pixel address (X 1 , Y 1 ) of the pattern value" 2 "at the right end is (16, 31). ) Is stored as the starting point coordinates.

【0026】 次に、前記始点座標(X1 ,Y1 )及
び背景伝播パタンに基づき次式(1)により文字塊の間
隙座標を順次求める。但し、Aiは間隙座標(Xi,Y
i)における背景伝播パタンのパタン値であり、iは1
〜(外接枠の高さ)の範囲の値をとる。
Next, based on the starting point coordinates (X 1 , Y 1 ) and the background propagation pattern, the gap coordinates of the character block are sequentially obtained by the following equation (1). However, Ai is the gap coordinate (Xi, Y
i) is the pattern value of the background propagation pattern in i), where i is 1
Take a value in the range of ~ (height of circumscribed frame).

【0027】[0027]

【数1】 [Equation 1]

【0028】尚、に於いて複数の間隙が検出された場
合には各々に対しての処理を行い、複数の間隙座標を
求める。
When a plurality of gaps are detected in the above, processing is performed for each of them to obtain a plurality of gap coordinates.

【0029】図3(B)の背景伝播パタンの場合には間
隙座標は、(X,Y)=(16,31),(15,3
0),(14,29),・・・,(21,1)となる。
In the case of the background propagation pattern of FIG. 3B, the gap coordinates are (X, Y) = (16,31), (15,3).
0), (14, 29), ..., (21, 1).

【0030】 に於いて求められた1以上の間隙座
標に基づいて、当該文字ブロックを2以上の文字塊に切
り出し、各々のパタンをくびれ検出部132に出力す
る。図3(B)の背景伝播パタンの場合には図3(C)
の折れ線で示す境界によって分割された各々のパタンが
くびれ検出部132に出力される。
The character block is cut out into two or more character blocks based on the one or more gap coordinates obtained in (3) and each pattern is output to the constriction detection unit 132. In the case of the background propagation pattern of FIG. 3 (B), FIG. 3 (C)
Each pattern divided by the boundary indicated by the broken line is output to the constriction detection unit 132.

【0031】また、図4(A)に示す様な文字ブロック
パタンからは、同図(B)に示す様な背景伝播パタンが
得られるがこのパタンからは前述の間隙が検出されず、
このパタンがそのままくびれ検出部132に出力され
る。
Also, from the character block pattern as shown in FIG. 4A, the background propagation pattern as shown in FIG. 4B can be obtained, but the above-mentioned gap is not detected from this pattern,
This pattern is directly output to the constriction detection unit 132.

【0032】くびれ検出部132においては、文字塊切
り出し部131から入力された文字塊データより、文字
線の幅に比して、通常以上に細い文字線部(以下、くび
れと称する)を検出し、該検出された位置及び入力され
た黒画素の塊を文字パタン切り出し部133に出力す
る。このくびれの検出は以下の方法で行う。
In the constriction detection unit 132, a character line portion (hereinafter referred to as a constriction) which is thinner than usual is detected from the character block data input from the character block cutout unit 131 in comparison with the width of the character line. , The detected position and the input block of black pixels are output to the character pattern cutout unit 133. The necking is detected by the following method.

【0033】まず、入力文字塊データを順次走査し、各
画素が黒画素であるか否かを検定する。次に、黒画素で
ある場合には、当該画素を中心として、文字列方向、文
字行方向、左斜め45°の方向、及び右斜め45°の方
向に各々走査し、各方向における黒画素の連続画素数を
調べる。その結果、何れか1方向において次式(2)式
を満たした場合には当該中心画素をくびれの候補位置と
して図示せぬ記憶部に記憶しておく。
First, the input character block data is sequentially scanned to check whether or not each pixel is a black pixel. Next, in the case of a black pixel, scanning is performed in the character string direction, the character row direction, the diagonal left 45 ° direction, and the diagonal right 45 ° direction centering on the pixel, and the black pixel in each direction is scanned. Check the number of consecutive pixels. As a result, when the following expression (2) is satisfied in any one direction, the central pixel is stored in the storage unit (not shown) as a candidate position for the constriction.

【0034】[0034]

【数2】 [Equation 2]

【0035】但し、KH 、KV 、KL 、LR は各々文字
列方向、文字行方向、左斜め45°の方向、右斜め45
°の方向の連続画素数。TH 、TV 、TL 、TR は各々
文字列方向、文字行方向、左斜め45°の方向、右斜め
45°の方向の閾値であり、本実施例ではTH 、TV
L 、TR =2である。
However, K H , K V , K L , and L R are the character string direction, the character line direction, the left diagonal 45 ° direction, and the right diagonal 45, respectively.
Number of consecutive pixels in the ° direction. T H , T V , T L , and T R are threshold values in the character string direction, the character line direction, the left diagonal 45 ° direction, and the right diagonal 45 ° direction, respectively. In the present embodiment, T H , T V , and
T L and T R = 2.

【0036】前記、くびれの候補位置の検出を当該文字
塊パタンの全ての画素について行った後、得られたくび
れの候補位置より、まず当該画素の周囲8方向のうち
連続した5方向が白画素の点は端点として除去し、く
びれの候補位置が連続していた場合は中心のみを残す、
という処理を行い、最終的にくびれの位置を検出する。
尚、前述の処理によりくびれの位置が一つも検出されな
かった場合は、入力された文字塊パタンデータはそのま
ま文字パタン切り出し部133に出力される。図4
(A)に示したような文字塊パタンからは、前述のくび
れ候補位置の検出処理により同図(C)に「◆」で示し
た各画素がくびれの候補位置として検出されるが、最終
的には図5(A)に示した2画素(51、52)がくび
れ位置として検出される。
After the detection of the constriction candidate positions is performed for all the pixels of the character block pattern, first, from the obtained constriction candidate positions, five consecutive eight directions around the pixel are white pixels. Points are removed as end points and only the center is left if the constricted candidate positions are continuous,
Then, the constriction position is finally detected.
If no necking position is detected by the above-described processing, the input character block pattern data is directly output to the character pattern cutout unit 133. Figure 4
From the character block pattern as shown in (A), each pixel indicated by “◆” in FIG. 7C is detected as a candidate position for the constriction by the above-described constriction candidate position detection processing. 2A, the two pixels (51, 52) shown in FIG. 5A are detected as the constricted position.

【0037】文字パタン切り出し部133は、くびれ検
出部132から入力された文字塊パタン(例えば、図4
(A))、及びくびれ位置(例えば図5(A)の51、
52)に基づいて、個々の文字パタンを抽出し文字認識
部140に出力する。
The character pattern cut-out section 133 is a character block pattern (for example, as shown in FIG.
(A)), and the constricted position (for example, 51 in FIG. 5A,
Based on 52), each character pattern is extracted and output to the character recognition unit 140.

【0038】この文字パタンの抽出処理は、当該文字塊
パタンのくびれ位置の画素を白画素に置き換えた後、文
字塊切り出し部131と同様に背景伝播パタン作成処理
を行うことにより行う。図4(A)の文字塊パタンの場
合、2カ所のくびれ位置の黒画素を白画素に置き換えて
得られた図5(A)の文字ブロックパタンから同図
(B)に示す背景伝播パタンが得られ、この背景伝播パ
タン上の隙間座標を前述の方法で順に検出することによ
り図5(C)の折れ線で示すパタン境界が抽出される。
このパタン境界によりパタンを分割することにより
「f」、「i」なる2の文字パタンデータが抽出され
る。
The extraction process of the character pattern is performed by replacing the pixel at the constricted position of the character block pattern with a white pixel and then performing the background propagation pattern creation process in the same manner as the character block cutout unit 131. In the case of the character block pattern shown in FIG. 4A, the background propagation pattern shown in FIG. 5B is changed from the character block pattern shown in FIG. 5A obtained by replacing the black pixels at the two constricted positions with white pixels. The pattern boundaries shown by the polygonal lines in FIG. 5C are extracted by sequentially detecting the gap coordinates on the background propagation pattern obtained by the method described above.
By dividing the pattern by this pattern boundary, two character pattern data "f" and "i" are extracted.

【0039】文字認識部140はサブパターン抽出部、
特徴抽出部、照合部から構成されている。
The character recognition unit 140 is a sub-pattern extraction unit,
It is composed of a feature extraction unit and a matching unit.

【0040】サブパタン抽出部においては、文字パタン
切り出し部133より入力された文字パタンを複数の方
向に走査し、各走査線上で予め定めた特定の値h(本実
施例ではh=5)以上連続している黒画素列を検出し、
該連続した黒画素列をサブパタンの黒画素成分として抽
出することにより、文字パタンより各走査方向別のサブ
パタンを抽出し、該サブパタンを順次特徴抽出部に出力
する。
In the sub-pattern extraction unit, the character pattern input from the character pattern cut-out unit 133 is scanned in a plurality of directions, and consecutively over a specific value h (h = 5 in this embodiment) set in advance on each scanning line. Detecting the black pixel row,
By extracting the continuous black pixel row as a black pixel component of the sub-pattern, the sub-pattern for each scanning direction is extracted from the character pattern, and the sub-pattern is sequentially output to the feature extraction unit.

【0041】前記走査方向は、本実施例では、文字行方
向(以下、X軸方向)に垂直な方向(垂直方向)、及び
平行な方向(水平方向)、X軸から反時計方向45°の
方向(左斜め方向)及び時計方向45°の方向(左斜め
方向)とし、これら各方向毎に文字パタンを走査して各
方向別に4個のサブパタンを抽出する。
In the present embodiment, the scanning direction is a direction (vertical direction) perpendicular to the character line direction (hereinafter, X-axis direction), a parallel direction (horizontal direction), and 45 ° counterclockwise from the X-axis. The direction (the left diagonal direction) and the direction of 45 ° clockwise (the left diagonal direction) are set, and character patterns are scanned in each of these directions to extract four sub patterns for each direction.

【0042】例えば垂直方向のサブパタンの抽出では垂
直方向を主走査方向とし、文字パタンデータを垂直方向
に走査し、該走査線上で連続する黒画素(黒ラン)を検
出し、L≧hとなる長さLの黒ランを垂直方向のサブパ
タンの黒画素部分として抽出することにより、垂直方向
サブパタンを抽出する。
For example, in the extraction of a sub pattern in the vertical direction, the vertical direction is the main scanning direction, the character pattern data is scanned in the vertical direction, and continuous black pixels (black runs) are detected on the scanning line, and L ≧ h. The vertical direction sub-pattern is extracted by extracting the black run of the length L as the black pixel portion of the vertical direction sub-pattern.

【0043】垂直方向のサブパタン抽出と同様にして、
残りの他の方向を主走査方向としたときのサブパタンの
抽出も行う。
Similar to the vertical sub-pattern extraction,
The sub-pattern is extracted when the remaining other direction is the main scanning direction.

【0044】特徴抽出部においては、前記抽出された各
方向のサブパタン上に、文字パタンの文字外接枠に対応
する方形領域を設定し、該方形領域をN×M個(N、M
は任意好適な自然数)の小領域に分割し、各小領域に含
まれる各サブパタンの文字線の長さを表す特徴量を抽出
し、該特徴量を文字外接枠の大きさで正規化し、正規化
された特徴量fiからなる特徴マトリクスFを作成し、
該特徴マトリクスFを照合部に出力する。
In the feature extraction unit, a rectangular area corresponding to the character circumscribing frame of the character pattern is set on the extracted sub-patterns in each direction, and the rectangular area is N × M (N, M).
Is an arbitrary suitable natural number), and the feature quantity representing the length of the character line of each sub-pattern included in each small area is extracted, and the feature quantity is normalized by the size of the character circumscribing frame, Create a feature matrix F consisting of the transformed feature quantity fi,
The feature matrix F is output to the matching unit.

【0045】尚、本実施例では、前記分割数N、M=8
とし、また前記特徴量の文字外接枠の大きさでの正規化
は(dX+dY)/2なる値で正規化するものとする。
但し、dXは文字外接枠の水平方向の長さ及びdYは文
字外接枠の垂直方向の長さである。また特徴量fiは、
各小領域に1〜N×Mまでの番号i(i=1、2、…、
M×M)を順次に付して小領域に表したときに、番号i
の小領域の特徴量を表し、特徴マトリクスFの要素値で
ある。
In this embodiment, the number of divisions N and M = 8.
Further, the normalization of the feature amount with the size of the character circumscribing frame is performed with a value of (dX + dY) / 2.
However, dX is the horizontal length of the character circumscribing frame, and dY is the vertical length of the character circumscribing frame. The feature quantity fi is
The number i (i = 1, 2, ..., 1) from 1 to N × M is assigned to each small area.
(M × M) when sequentially expressed in a small area, the number i
Represents the feature amount of the small area and is an element value of the feature matrix F.

【0046】照合部は特徴マトリクスFを、図示せぬ予
め用意された標準パタンの特徴辞書マトリクスGと照合
し、次式(2)で表される類似度Rを求め、類似度Rが
予め定めた値P以上である辞書マトリクスの文字名を候
補文字名とし、さらに類似度の高い順に第1位候補文
字、第2位候補文字と順位付けを行い、1以上の候補文
字を認識結果候補文字として、出力端子150より出力
する。
The collation unit collates the characteristic matrix F with the characteristic dictionary matrix G of a standard pattern (not shown) prepared in advance, obtains the similarity R represented by the following equation (2), and the similarity R is predetermined. The character name of the dictionary matrix having a value of P or more is set as the candidate character name, and the first candidate character and the second candidate character are ranked in descending order of similarity, and one or more candidate characters are recognized as the recognition result candidate character. Is output from the output terminal 150.

【0047】[0047]

【数3】 [Equation 3]

【0048】但し、giは辞書マトリクスの要素を表
す。
However, gi represents an element of the dictionary matrix.

【0049】以上、本発明を詳細に説明したが、本発明
は上述した実施例にのみ限定されるものではなく、種々
の変形が可能である。
Although the present invention has been described in detail above, the present invention is not limited to the above-described embodiments, and various modifications can be made.

【0050】例えば、文字認識部110は、前述の構成
に限られるものではなく、従来公知の種々の方法、方式
を用いて認識を行ってよく、また該認識方法に適した文
字認識部の構成として何ら差し支えない。
For example, the character recognizing unit 110 is not limited to the above-mentioned configuration, and may recognize using various conventionally known methods and systems, and the configuration of the character recognizing unit suitable for the recognizing method. There is no problem as.

【0051】また、本実施例のくびれ検出部における、
くびれの候補位置を得る場合の、文字線の幅の閾値T
((2)式)は、本実施例では予め定めた固定値とした
が、これに限られるものではなく、文字行データ、或い
は文字塊データ等から文字線の平均の線幅wを次式
(4)により算出し、該算出値を基に前記閾値Tを決定
する方法でもよい。但し式(4)に於いて、Qは文字パ
タンを2×2の窓で走査した時のこの窓内の4画素が全
て黒画素となる窓の数であり、Aは文字パタン中の全て
の黒画素数である。
Further, in the constriction detecting section of the present embodiment,
Character line width threshold value T when obtaining a candidate position for a waist
(Equation (2)) is a fixed value determined in advance in the present embodiment, but is not limited to this, and the average line width w of character lines from character line data, character block data, etc. A method of calculating according to (4) and determining the threshold value T based on the calculated value may be used. However, in the equation (4), Q is the number of windows in which all 4 pixels in this character pattern are black pixels when the character pattern is scanned with a 2 × 2 window, and A is all the character patterns. The number of black pixels.

【0052】 w=1/(1−Q/A) (4) また、本実施例の画像入力の方法、文字行切り出しの方
法、文字塊切り出しの方法等も、適宜、従来公知の種々
の方法を用いてよい。
W = 1 / (1-Q / A) (4) Further, the image input method, the character line cutout method, the character block cutout method, and the like according to the present embodiment are appropriately various conventionally known methods. May be used.

【0053】[0053]

【発明の効果】以上詳細に説明したように、この発明に
よれば、文字行画像データより黒画素の塊を切り出す文
字塊切り出し部と、文字塊より文字線のくびれ部分を検
出するくびれ検出部と、くびれ検出部により検出された
位置に基づいて文字パタンを切り出す文字切り出し部と
を具え、英文文書等に頻出する接触文字の接触箇所は、
文字の線幅に比して十分に細い場合、つまりくびれた状
態であることが大多数であることに着目し、一連の黒画
素の塊より、くびれ部分を検出し、該くびれ部分におい
て黒画素の塊を分離することにより、接触文字より1文
字づつの文字パタンを切り出すようにしたため、2以上
の文字パタンが斜めの方向で接触している場合、また2
カ所以上で接触しているような場合においても、適正に
文字パタンを切り出すことが出来る、従って文書画像か
ら正しく文字パタンの情報が切り出せるため、前述の各
種の情報処理装置の実現が可能となる。
As described above in detail, according to the present invention, a character block cutout section for cutting out a block of black pixels from character line image data and a constriction detection section for detecting a constricted portion of a character line from the character block. And a character cutout part that cuts out a character pattern based on the position detected by the constriction detection part, and the contact position of the contact character that frequently appears in English documents,
Focusing on the fact that when the line width of a character is sufficiently thin, that is, in the majority of cases, the narrowed state is detected, and the narrowed portion is detected from the series of black pixel clusters, and the black pixel is detected in the narrowed portion. By separating the lumps of characters, character patterns are cut out one by one from the contact character, so when two or more character patterns are touching in an oblique direction,
Even when contact is made at more than one place, the character pattern can be cut out properly, and therefore the information of the character pattern can be cut out correctly from the document image, so that the above various information processing apparatuses can be realized. ..

【0054】さらに、本発明を文字認識装置に適用した
場合には、正しく文字を切り出すことができる為、正し
く文字認識を行うことが可能となる。また、オペレータ
による修正作業が不要となるため、操作が簡単となり実
用上満足できる文字認識装置を提供することが可能とな
る。
Further, when the present invention is applied to the character recognition device, the character can be cut out correctly, and therefore the character recognition can be performed correctly. Further, since the correction work by the operator is not necessary, it is possible to provide a character recognition device which is easy to operate and which is practically satisfactory.

【図面の簡単な説明】[Brief description of drawings]

【図1】実施例の文字切り出し装置を組み込んだ文字認
識装置のブロック図。
FIG. 1 is a block diagram of a character recognition device incorporating a character cutout device according to an embodiment.

【図2】背景伝播パタン値の決定法の説明に供する図。FIG. 2 is a diagram for explaining a method of determining a background propagation pattern value.

【図3】文字塊切り出し部の動作説明に供する図。FIG. 3 is a diagram for explaining an operation of a character block cutting unit.

【図4】くびれ候補位置検出の説明に供する図。FIG. 4 is a diagram for explaining detection of a narrowed candidate position.

【図5】くびれ位置検出後の画像からの文字切り出しの
説明に供する図。
FIG. 5 is a diagram for explaining character extraction from an image after detection of a constricted position.

【符号の説明】[Explanation of symbols]

100 文字認識装置 110 画像入力部 120 文字行切り出し部 130 文字切り出し装置 131 文字塊切り出し部 132 くびれ検出部 133 文字パタン切り出し部 140 文字認識部 150 出力端子 100 character recognition device 110 image input unit 120 character line cutout unit 130 character cutout device 131 character block cutout unit 132 constriction detection unit 133 character pattern cutout unit 140 character recognition unit 150 output terminal

Claims (1)

【特許請求の範囲】[Claims] 【請求項1】 文字行画像から文字パタンを切り出す文
字切り出し装置において、 文字行画像から連続した黒画素の塊を抽出する手段と、 該抽出された黒画素の塊より当該黒画素の塊を構成する
文字線の線幅が他の部分に比して細いくびれ部分を検出
するくびれ検出手段と、 前記検出されたくびれ部分において当該黒画素の塊を2
以上の黒画素の塊に分割することにより文字パタンを切
り出す文字パタン切り出し手段を備えたことを特徴とす
る文字切り出し装置。
1. A character segmentation device for segmenting a character pattern from a character line image, comprising means for extracting a continuous block of black pixels from the character line image, and a block of the black pixel formed from the extracted block of black pixels. A constriction detecting means for detecting a narrowed portion in which the line width of the character line is smaller than that of the other portion;
A character cutout device comprising a character pattern cutout means for cutting out a character pattern by dividing into the above-described blocks of black pixels.
JP3275470A 1991-10-23 1991-10-23 Device for segmenting character Pending JPH05114047A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3275470A JPH05114047A (en) 1991-10-23 1991-10-23 Device for segmenting character

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3275470A JPH05114047A (en) 1991-10-23 1991-10-23 Device for segmenting character

Publications (1)

Publication Number Publication Date
JPH05114047A true JPH05114047A (en) 1993-05-07

Family

ID=17555990

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3275470A Pending JPH05114047A (en) 1991-10-23 1991-10-23 Device for segmenting character

Country Status (1)

Country Link
JP (1) JPH05114047A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8923635B2 (en) 2010-02-26 2014-12-30 Fuji Xerox Co., Ltd. Image processing apparatus and image processing program
US9280725B2 (en) 2013-02-14 2016-03-08 Fuji Xerox Co., Ltd. Information processing apparatus, information processing method, and non-transitory computer readable medium

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8923635B2 (en) 2010-02-26 2014-12-30 Fuji Xerox Co., Ltd. Image processing apparatus and image processing program
US9280725B2 (en) 2013-02-14 2016-03-08 Fuji Xerox Co., Ltd. Information processing apparatus, information processing method, and non-transitory computer readable medium

Similar Documents

Publication Publication Date Title
JP3308032B2 (en) Skew correction method, skew angle detection method, skew correction device, and skew angle detection device
JPH05242292A (en) Separating method
JPH0772905B2 (en) How to recognize a symbol string
JPH05282495A (en) Comparison method
US5265171A (en) Optical character reading apparatus for performing spelling check
JP2926066B2 (en) Table recognition device
KR930002349B1 (en) Character array devide method for press image
JPH0950527A (en) Frame extracting device and rectangle extracting device
JPH05114047A (en) Device for segmenting character
JP3548234B2 (en) Character recognition method and device
JP2788506B2 (en) Character recognition device
JPH07220081A (en) Segmenting method for graphic of image recognizing device
JPH0728935A (en) Document image processor
JP2000322514A (en) Pattern extraction device and character segmentation device
JP2001266070A (en) Device and method for recognizing character and storage medium
JP2697790B2 (en) Character type determination method
JP2918363B2 (en) Character classification method and character recognition device
KR20030018519A (en) The Easy Chinese Character Input and Correction Method using Image Retrieval Technologies
JPH04276885A (en) Character segmenting appartus
JP2022051198A (en) Ocr processor, ocr processing method, and program
JP2974167B2 (en) Large Classification Recognition Method for Characters
JPH05114048A (en) Method and device for recognizing character
JP2963474B2 (en) Similar character identification method
CN117710985A (en) Optical character recognition method and device and intelligent terminal
JPH01201789A (en) Character reader