JPH0916713A - Image area dividing method - Google Patents
Image area dividing methodInfo
- Publication number
- JPH0916713A JPH0916713A JP7159541A JP15954195A JPH0916713A JP H0916713 A JPH0916713 A JP H0916713A JP 7159541 A JP7159541 A JP 7159541A JP 15954195 A JP15954195 A JP 15954195A JP H0916713 A JPH0916713 A JP H0916713A
- Authority
- JP
- Japan
- Prior art keywords
- image
- area
- pixels
- character
- buffer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
- Character Input (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】本発明は、文字認識装置および画
像認識装置に適用され、濃淡画像を文字領域及びその他
の領域等の属性に応じて分割する画像領域分割方法に関
するものである。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image area dividing method which is applied to a character recognition apparatus and an image recognition apparatus and divides a grayscale image according to attributes such as a character area and other areas.
【0002】[0002]
【従来の技術】従来より、濃淡画像を、文字領域及びそ
の他の背景領域等の属性に応じて分割する際、画像濃度
の2値化によって分割することが知られており、例えば
2値化の方法としては、「Pタイル法」、「双峰性ヒス
トグラムの分散最大による二分割法」(長尾真著「画像
認識論」、コロナ社、38頁〜45頁)等がある。2. Description of the Related Art Conventionally, when a grayscale image is divided according to attributes such as a character region and other background regions, it is known that the image is divided into two by binarizing the image density. Examples of the method include "P-tile method", "division method based on maximal variance of bimodal histogram" (Makoto Nagao, "Image recognition theory", Corona Publishing, pp. 38-45).
【0003】上記Pタイル法は、例えば図9(a)に示
すように、画像中の各ピクセル(画素)の濃度レベル差
の濃度差閾値θ以上(または以下)のピクセルの割合
が、予め定められた比率になるように上記濃度差閾値θ
の値を決定するものである。In the P tile method, for example, as shown in FIG. 9A, the ratio of pixels having a density difference threshold value θ or more (or less) of the density level difference of each pixel in the image is predetermined. The density difference threshold θ
It determines the value of.
【0004】また、双峰性ヒストグラムの分散最大によ
る二分割法は、例えば図9(b)に示すように、濃度値
ヒストグラムを濃度差閾値θで二分するとき、2つのピ
クセルの濃度のクラス間分散が最大となるように上記濃
度差閾値θの値を決定するものである。Further, the bisection method based on the maximum variance of the bimodal histogram is, for example, as shown in FIG. 9B, when the density value histogram is bisected by the density difference threshold value θ, the density between two pixels is classified between classes. The value of the density difference threshold θ is determined so that the variance is maximized.
【0005】ところで、画像中の文字領域を認識するた
めに、上記Pタイル法では、以下の仮定が必要である。 (1)画像中で文字領域が占めるピクセル数は一定範囲
にある。In order to recognize a character area in an image, the P tile method requires the following assumptions. (1) The number of pixels occupied by a character area in an image is within a certain range.
【0006】また、上記Pタイル法および双峰性ヒスト
グラムの分散最大による二分割法では、以下の仮定が必
要である。 (2)画像中で文字領域を構成する濃度帯域、非文字領
域を構成する濃度帯域はそれぞれ連続している。In the P-tile method and the bisection method based on the maximum variance of bimodal histograms, the following assumptions are necessary. (2) The density band forming the character area and the density band forming the non-character area are continuous in the image.
【0007】つまり、上記の両2値化法では、図10
(a)に示すように、文字領域と非文字領域の濃度帯域
がそれぞれ連続していれば、画像と文字領域を認識する
ことができるが、図10(b)に示すように、文字領域
と非文字領域の濃度帯域のいずれかが不連続であれば、
画像と文字領域を認識することができない。That is, according to the above-mentioned both-binarization method, as shown in FIG.
As shown in FIG. 10A, if the density bands of the character area and the non-character area are continuous, the image and the character area can be recognized, but as shown in FIG. If any of the density bands in the non-text area is discontinuous,
The image and text area cannot be recognized.
【0008】しかも、上記した仮定(1)(2)は、単
色の紙に、文字が別の単色で書かれた紙面を入力する際
には多くの場合有効であるが、入力画像の範囲をカラー
文書や種々の物体を含んだ画像にまで拡げると、一般に
成立しない。これは、カラー文書では、文字が種々の異
なる色で書かれている場合があり、このような場合文字
領域の濃度レベルが一定ではなくなり、また種々の物体
を含んだ一般画像では、文字が画像中にどれほど含まれ
るかは各画像によって大きく変化するためである。Moreover, the above assumptions (1) and (2) are effective in many cases when inputting a paper surface in which characters are written in a different color on a single color paper, but the range of the input image is limited. If it is expanded to an image containing a color document or various objects, it generally does not hold. This is because in a color document, characters may be written in various different colors, and in such a case, the density level of the character area is not constant, and in a general image including various objects, the characters are imaged. This is because how much is included in each image varies greatly with each image.
【0009】尚、上記の種々の物体とは、画像に含まれ
るが、本来の処理対称と無関係なものを示している。例
えば、風景の中から、速度制限を示し文字列を取り出
し、認識するシステムを車両に搭載して走行する場合で
は、画像内の処理対称である上記速度制限を示し文字列
の他に存在する物、例えば他の車両、人物、看板、信号
機等が種々の物体となる。また、自動車のナンバープレ
ートの認識を行うため、走行中の車両を定点から撮影し
たシステムにおいても、画像内の処理対称である自動車
のナンバープレートの他に存在するものが種々の物体と
なる。The above-mentioned various objects are objects included in the image but unrelated to the original processing symmetry. For example, if a character string indicating a speed limit is extracted from a landscape and a system for recognizing the speed limit is mounted on a vehicle to drive, the object that exists in addition to the character string indicating the speed limit that is the processing symmetry in the image is present. For example, other vehicles, people, signs, traffic lights, etc. are various objects. Further, since the license plate of the automobile is recognized, even in a system in which a moving vehicle is photographed from a fixed point, various objects other than the license plate of the automobile, which is the processing symmetry in the image, are various objects.
【0010】したがって、上記従来の2値化法では、カ
ラー文書等を含む画像において、自動的に、且つ正確な
2値化を行い、文字部分を抽出することは不可能であっ
た。Therefore, with the above-described conventional binarization method, it was impossible to automatically and accurately binarize an image including a color document or the like to extract a character portion.
【0011】そこで、カラー文書等を含む種々の画像に
対して、文字部分を抽出するための方法が、例えば、 (A)特開平4−273788号公報 (B)特開平3−108078号公報 に開示されている。Therefore, a method for extracting a character portion from various images including color documents is disclosed in, for example, (A) Japanese Patent Application Laid-Open No. 4-273788 (B) Japanese Patent Application Laid-Open No. 3-108078. It is disclosed.
【0012】上記公報(A)に開示された方法では、画
像の濃度帯域を複数に分割し、それぞれに属するピクセ
ルについてラベリング等の処理を行うことで、カラー文
書等を含む種々の画像に対して、文字部分を抽出するよ
うになっている。In the method disclosed in the above publication (A), the density band of an image is divided into a plurality of pixels, and the pixels belonging to each of them are subjected to labeling and the like, so that various images including a color document and the like are processed. The character part is extracted.
【0013】また、上記公報(B)に開示された方法で
は、対象となる画像の特定の濃度レベルに着目して、そ
の濃度レベルおよび近い濃度レベルのピクセルを取り出
してラベリング等の処理を行い、カラー文書等を含む種
々の画像に対して、文字部分を抽出するようになってい
る。In the method disclosed in the above publication (B), attention is paid to a specific density level of a target image, pixels of the density level and a density level close thereto are extracted, and a process such as labeling is performed. The character portion is extracted from various images including color documents.
【0014】[0014]
【発明が解決しようとする課題】ところが、上記公報
(A)の方法では、画像の濃度帯域の切れ目の両側に属
するピクセルは別の領域に分離されてしまうので、本来
同一の領域に属すべき近い濃度レベルの2つの近接した
ピクセルが別々の領域に分離される虞がある。このた
め、例えば、画像中の濃度がなだらかに変化する領域
が、濃度帯域の切れ目で複数の領域に分割された場合、
濃度レベルの近い近接したピクセルを含む領域、即ち本
来同一の領域に属すべき領域の再統合が必要となり、文
字領域を抽出するための処理が複雑になるという問題が
生じる。However, in the method of the above publication (A), the pixels belonging to both sides of the break in the density band of the image are separated into different regions, and therefore, they should originally belong to the same region. Two adjacent pixels of density level may be separated into separate regions. Therefore, for example, when a region where the density in the image changes gently is divided into a plurality of regions at the density band breaks,
A region including adjacent pixels having close density levels, that is, a region that should originally belong to the same region needs to be reintegrated, which causes a problem that a process for extracting a character region becomes complicated.
【0015】また、上記公報(B)の方法では、予め対
象となる画像の着目する濃度帯域の少なくとも中心濃度
帯域を知る必要がある。このため、例えば、異なる文字
が異なる色で印刷されているような紙面から文字部分を
取り出す場合等、処理が始まる時点で、文字領域の濃度
帯域が判っていない場合には、何度も着目濃度帯域を変
えて処理をやり直し、処理結果を比較、合成する等の複
雑な処理がさらに必要となり、文字領域を抽出するため
の処理が複雑になるという問題が生じる。Further, in the method of the above publication (B), it is necessary to know at least the central density band of the density band of interest of the target image in advance. Therefore, if the density band of the character area is not known at the start of the process, such as when extracting the character part from the paper surface where different characters are printed in different colors, the density of interest will be repeated many times. There is a problem that a complicated process such as performing the process again by changing the band, comparing and combining the process results, and the process for extracting the character region becomes complicated.
【0016】本発明は、上記問題点に鑑みなされたもの
であって、その目的は、文字領域の抽出のために複雑な
処理を行うことなく、カラー文書を含む画像等の多様な
入力画像から文字領域を抽出し、画像の文字領域と非文
字領域といった属性に応じた領域を正確に分割し得る画
像領域分割方法を提供することにある。The present invention has been made in view of the above problems, and an object thereof is to perform various input images such as images including color documents without performing complicated processing for extracting a character area. An object of the present invention is to provide an image area dividing method capable of extracting a character area and accurately dividing an area according to attributes such as a character area and a non-character area of an image.
【0017】[0017]
【課題を解決するための手段】請求項1の画像領域分割
方法は、濃淡画像を、文字、非文字等の属性に応じて分
割する画像領域分割方法において、濃淡画像中のピクセ
ルを、互いに近接し、且つその濃度レベルの差が閾値よ
りも小さいという関係に基づいてラベリングし、同一ラ
ベルを有するピクセルからなる領域に分割し、分割後の
各領域の属性を判定することを特徴としている。According to a first aspect of the present invention, there is provided an image area dividing method for dividing a grayscale image according to attributes such as characters and non-characters, wherein pixels in the grayscale image are close to each other. In addition, labeling is performed based on the relationship that the difference in density level is smaller than the threshold value, the region is divided into regions having pixels having the same label, and the attribute of each region after division is determined.
【0018】請求項2の画像領域分割方法は、請求項1
の画像領域分割方法において、分割後の各領域の属性
を、各領域の幾何学的特徴、濃度分布、相互の包含関係
に基づいて判定することを特徴としている。An image area dividing method according to a second aspect is the method according to the first aspect.
In the image area dividing method, the attribute of each area after the division is determined based on the geometrical characteristics of each area, the density distribution, and the mutual inclusion relation.
【0019】[0019]
【作用】請求項1の方法によれば、近接し、且つ濃度レ
ベル差が閾値以下のピクセルを同一領域として画像領域
を分割し、分割後の各領域に対して、例えば請求項2記
載のように各領域の幾何学的特徴、濃度分布、相互の包
含関係によりその属性(文字、非文字など)を決定して
いるので、画像中に濃度レベルが異なる文字領域がいく
つあっても、それらと、近接した非文字領域との濃度レ
ベル差が十分であれば、正確に文字領域を構成するピク
セルを抽出することが可能である。According to the method of claim 1, the image area is divided into pixels which are close to each other and whose density level difference is less than or equal to the threshold value, and the divided image area is divided into areas. Since the attributes (text, non-text, etc.) of each area are determined by the geometrical characteristics of each area, the density distribution, and the mutual inclusion relationship, no matter how many character areas have different density levels in the image, If the density level difference between the adjacent non-character area is sufficient, the pixels forming the character area can be accurately extracted.
【0020】つまり、「同一の領域に属するべき近接し
たピクセルは、近い濃度レベルを有する」という仮定以
外に、領域の濃度レベルや画像中の濃度分布について何
の仮定も行わずに画像領域を分割することができるの
で、従来のように、画像から文字領域を認識するため
に、「画像中で文字領域が占めるピクセル数は一定範囲
にある。」、「画像中で文字領域を構成する濃度帯域、
非文字領域を構成する濃度帯域はそれぞれ連続してい
る。」といった仮定をする必要がなくなる。That is, the image area is divided without making any assumption about the density level of the area or the density distribution in the image, other than the assumption that the adjacent pixels which should belong to the same area have the close density level. Therefore, in order to recognize the character area from the image as in the conventional art, "the number of pixels occupied by the character area in the image is within a certain range", "the density band forming the character area in the image" ,
The density bands forming the non-character area are continuous. There is no need to make assumptions such as.
【0021】また、近接したピクセルが同一の領域に属
するか否かを判定する際、濃度レベルの小さな差を許容
し、しかもあらかじめ濃度帯域を分割して処理しないの
で、本来同一の領域に属すべき、近い濃度レベルを有す
る2つの近接したピクセルが別の領域に分割されること
がなくなる。Further, when it is determined whether or not adjacent pixels belong to the same area, a small difference in density level is tolerated, and since the density bands are not divided and processed in advance, they should originally belong to the same area. , Two adjacent pixels with close density levels will not be divided into different regions.
【0022】したがって、例えば、なだらかに濃度が変
化する領域が、濃度帯域の切れ目で複数の領域に分割さ
れてしまうことがなくなり、濃度レベルの近い近接した
ピクセルを含む領域の再統合が不要となり、文字領域の
抽出処理を簡単に行うことができる。Therefore, for example, a region where the density changes gently will not be divided into a plurality of regions at the density band breaks, and there will be no need to re-integrate a region including adjacent pixels having similar density levels. The extraction process of the character area can be easily performed.
【0023】さらに、上記したように、画像中に濃度レ
ベルが異なる文字領域がいくつあっても、それらと、近
接した非文字領域との濃度差が十分であれば、正確に文
字領域を構成するピクセルを抽出することが可能とな
る。Furthermore, as described above, no matter how many character areas have different density levels in the image, if the density difference between them and the adjacent non-character areas is sufficient, the character areas are accurately constructed. It becomes possible to extract pixels.
【0024】これにより、異なる色で書かれた文字が同
一画像中にある場合など、処理したい領域の濃度レベル
があらあじめ不明でも、問題なく文字領域の抽出処理が
行える。Thus, even if the characters written in different colors are in the same image, even if the density level of the area to be processed is unknown, the character area can be extracted without any problem.
【0025】したがって、複雑な処理を行うことなく、
濃度レベルの異なる領域が複数存在するようなカラー文
書を含む多種多様な入力画像から文字領域を抽出するこ
とができ、この結果、画像を、文字領域と非文字領域等
の属性に応じて正確に分割することができる。Therefore, without performing complicated processing,
Character areas can be extracted from a wide variety of input images including color documents in which areas with different density levels exist, and as a result, images can be accurately displayed according to attributes such as character areas and non-character areas. It can be divided.
【0026】[0026]
【実施例】本発明の一実施例について図1ないし図8に
基づいて説明すれば、以下の通りである。尚、本実施例
では、本発明の画像領域分割方法を、光学式文字読取装
置を備えた文字認識システムに適用した場合について説
明する。DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be described below with reference to FIGS. In this embodiment, a case where the image area dividing method of the present invention is applied to a character recognition system equipped with an optical character reading device will be described.
【0027】本実施例に係る文字認識システムは、図3
に示すように、スキャナ1、画像バッファ2、関係判定
部3、ラベルバッファ4、分割結果出力部5、分割結果
バッファ6、領域属性判定部7、属性判定ルールベース
8、領域属性バッファ9、二値画像生成部10、二値画
像バッファ11、文字切り出し部12、文字座標バッフ
ァ13、文字認識部14、認識結果バッファ15、言語
処理部16、言語辞書17、結果修正部18、ディスプ
レイ19、キーボード20、結果出力部21、プリンタ
22からなっている。The character recognition system according to this embodiment is shown in FIG.
1, the scanner 1, the image buffer 2, the relationship determination unit 3, the label buffer 4, the division result output unit 5, the division result buffer 6, the region attribute determination unit 7, the attribute determination rule base 8, the region attribute buffer 9, Value image generation unit 10, binary image buffer 11, character cutout unit 12, character coordinate buffer 13, character recognition unit 14, recognition result buffer 15, language processing unit 16, language dictionary 17, result correction unit 18, display 19, keyboard. 20, a result output unit 21, and a printer 22.
【0028】スキャナ1は、用紙等の文字領域および非
文字領域からなる画像を光学的に読み取るようになって
いる。画像バッファ2は、スキャナ1によって読み取ら
れた画像の画像情報として、例えば各画素(以下、ピク
セルと称する)毎の位置座標および濃度レベルを記憶す
るようになっている。The scanner 1 is adapted to optically read an image composed of a character area and a non-character area such as paper. The image buffer 2 stores, as image information of an image read by the scanner 1, for example, a position coordinate and a density level of each pixel (hereinafter referred to as a pixel).
【0029】関係判定部3は、画像バッファ2に記憶さ
れた画像情報から、「位置座標が近接しており、濃度レ
ベルが近い」2つのピクセルに共通のラベルを付与する
ラベリング処理を行い、ラベルバッファ4の内容を書き
換えるようになっている。尚、関係判定部3における画
像分割処理、即ちラベルバッファ4の内容の書換えにつ
いては、後で詳細に述べる。From the image information stored in the image buffer 2, the relation determining unit 3 performs a labeling process for giving a common label to two pixels "position coordinates are close to each other and density levels are close to each other", and the label is labeled. The contents of the buffer 4 are rewritten. The image division processing in the relationship determination unit 3, that is, the rewriting of the contents of the label buffer 4 will be described in detail later.
【0030】ラベルバッファ4は、画像中のピクセルと
1対1に対応する整数を格納する配列であり、ラベルバ
ッファ要素LThe label buffer 4 is an array for storing integers corresponding to the pixels in the image on a one-to-one basis.
〔0〕,L〔1〕,L〔2〕,・・・と表
すものとする。尚、上記ラベルバッファ4は、関係判定
部3による書換え前に、全ての要素Lに異なる数値が入
るように初期化される。例えば、L〔i〕=i(i=
0,1,・・・・・)となるように初期化される。It is represented as [0], L [1], L [2], .... The label buffer 4 is initialized so that all the elements L have different numerical values before rewriting by the relationship determining unit 3. For example, L [i] = i (i =
0,1, ...) is initialized.
【0031】分割結果出力部5は、画像バッファ2とラ
ベルバッファ4との内容を参照し、画像中のピクセル
を、対応するラベルバッファ4の要素の値が共通なもの
ごとに分け、後の処理に必要な情報を取り出して分割結
果バッファ6に格納するようになっている。ここで、対
応するラベルバッファ4の要素の値が共通なピクセル
は、同一の領域に属するものである。The division result output unit 5 refers to the contents of the image buffer 2 and the label buffer 4, divides the pixels in the image into those in which the corresponding element values of the label buffer 4 are common, and performs the subsequent processing. The information required for is extracted and stored in the division result buffer 6. Here, pixels in which corresponding element values of the label buffer 4 are common belong to the same area.
【0032】分割結果バッファ6には、例えば以下の情
報が格納される。 I. 各領域の外接長方形の頂点座標 II. ピクセルの濃度値の領域ごとの平均値 III. 各領域を構成するピクセル数 尚、分割結果バッファ6には、後の処理の必要に応じ
て、ここまでの処理において得られる上記I〜III まで
の情報以外の他のいかなる情報を格納しても良い。The following information is stored in the division result buffer 6, for example. I. Coordinates of vertices of circumscribing rectangle of each area II. Average value of pixel density value for each area III. Number of pixels forming each area In the division result buffer 6, if necessary for the subsequent processing, the above-mentioned I to III obtained in the processing up to here are obtained. Any information other than the information may be stored.
【0033】上記情報のうち、Iは、領域を構成するピ
クセルの水平方向、鉛直方向の最小、最大座標を算出す
ることで得られる。IIは、ラベルバッファ4の要素の値
が共通なピクセルを集めてその濃度平均値を計算するこ
とで得られる。III は、ラベルバッファの要素の値が共
通なピクセルの個数を計算することで得られる。Of the above information, I can be obtained by calculating the minimum and maximum coordinates in the horizontal and vertical directions of the pixels forming the area. II is obtained by collecting pixels having common values of the elements of the label buffer 4 and calculating the density average value thereof. III is obtained by calculating the number of pixels in which the values of the elements of the label buffer are common.
【0034】領域属性判定部7は、分割後の各領域の属
性を、各領域の幾何学的特徴、濃度分布、相互の包含関
係に基づいて判定するようになっている。即ち、領域属
性判定部7では、分割結果バッファ6の情報および属性
判定ルールベース8の内容を参照して、各領域の属性
(例えば、文字であるか非文字であるか)を判定し、そ
の判定結果を領域属性バッファ9に格納するようになっ
ている。The area attribute judging section 7 judges the attribute of each area after division based on the geometrical characteristics of each area, the density distribution, and the mutual inclusion relationship. That is, the area attribute determination unit 7 refers to the information in the division result buffer 6 and the content of the attribute determination rule base 8 to determine the attribute of each area (for example, whether it is a character or a non-character), and The determination result is stored in the area attribute buffer 9.
【0035】属性判定ルールベース8には、以下のルー
ルが用いられる。 領域の外接長方形の面積と比較して、領域を構成す
るピクセル数が小さいものには文字属性を与える。 外接長方形が一定以上の大きさをもつものには非文
字属性を与える。 文字属性を持った他の領域を内部に持つ、一定以上
の大きさの領域には非文字属性を与える。 外接長方形の面積が小さな非文字領域について、濃
度平均値及び外接長方形の座標のいずれも近い文字領域
が存在する場合には文字属性を与える。The following rules are used for the attribute determination rule base 8. A character attribute is given to an area having a smaller number of pixels than the area of the circumscribed rectangle of the area. A non-character attribute is given to a circumscribed rectangle with a size larger than a certain size. A non-character attribute is given to an area of a certain size or larger that has another area having a character attribute inside. For a non-character area having a small area of the circumscribing rectangle, when there is a character area in which both the density average value and the coordinates of the circumscribing rectangle are close, a character attribute is given.
【0036】上記ルールのうち、は、大多数の文字は
線から構成されるため、文字を構成するピクセル数は、
外接長方形の面積に比して小さいことを利用したもので
ある。は、大多数の文字のサイズが一定範囲に収まる
ことを利用したものである。は、文字が文字を含むこ
とが通常使用される文字ではあり得ないことを利用した
ものである。は、句読点はサイズが小さく、且つの
ルールの例外となり得るが、その近傍には大抵別の文字
が存在するということを利用したものである。尚、属性
判定ルールベース8では、上記以外の他の公知のルール
を使用しても良い。Among the above rules, since the majority of characters are composed of lines, the number of pixels forming a character is
This is because it is smaller than the area of the circumscribed rectangle. Uses the fact that the size of most characters falls within a certain range. Takes advantage of the fact that a character may not be a commonly used character. Takes advantage of the fact that punctuation is small in size and can be an exception to the rule, but that there are usually other characters in its vicinity. The attribute determination rule base 8 may use a known rule other than the above.
【0037】二値画像生成部10は、上記した画像バッ
ファ2、ラベルバッファ4、分割結果バッファ6および
領域属性バッファ9を参照して、文字に対応するピクセ
ルには1、それ以外のピクセルには0を濃度レベルとし
て与えた画像を作成し、その二値画像を二値画像バッフ
ァ11に格納するようになっている。The binary image generation unit 10 refers to the image buffer 2, the label buffer 4, the division result buffer 6 and the area attribute buffer 9 described above, and sets 1 to the pixel corresponding to the character and to the other pixels. An image in which 0 is given as a density level is created, and the binary image is stored in the binary image buffer 11.
【0038】尚、単に、文字を構成するピクセルを取り
出したい場合には、いわゆる二値化処理は全く不要であ
り、画像バッファ2、分割結果バッファ6および領域属
性バッファ9の内容を適宜組み合わせて出力すれば十分
であるが、本実施例では、異なる色で書かれた文字につ
いても、従来の白黒画像に適用された同一の認識方法が
適用できるように、上記したように文字領域と非文字領
域とにそれぞれ別の一定の濃度レベルを与えた2値画像
を作成している。Incidentally, if it is desired to simply take out the pixels forming a character, so-called binarization processing is not necessary at all, and the contents of the image buffer 2, the division result buffer 6 and the area attribute buffer 9 are appropriately combined and output. However, in the present embodiment, as described above, the character area and the non-character area may be applied to the characters written in different colors so that the same recognition method applied to the conventional monochrome image can be applied. A binary image is created by giving different constant density levels to and.
【0039】文字切り出し部12は、上記二値画像バッ
ファ11の情報を参照して、画像中の文字位置を取り出
し、その文字座標を文字座標バッファ13に格納するよ
うになっている。このとき、二値画像バッファ11の情
報に加えて、分割結果バッファ6と領域属性バッファ9
とに含まれる情報を利用して非文字領域は処理対象から
除外する。The character cutout unit 12 refers to the information in the binary image buffer 11 to extract the character position in the image and stores the character coordinates in the character coordinate buffer 13. At this time, in addition to the information of the binary image buffer 11, the division result buffer 6 and the area attribute buffer 9 are added.
The information included in and is used to exclude the non-character area from the processing target.
【0040】文字認識部14は、二値画像バッファ11
と文字座標バッファ13との情報を参照して文字認識を
行い、その結果を認識結果バッファ15に格納するよう
になっている。尚、認識結果バッファ15には、各文字
の認識結果からなる文字列が格納される。The character recognizing unit 14 uses the binary image buffer 11
The character recognition is performed by referring to the information in the character coordinate buffer 13 and the result is stored in the recognition result buffer 15. The recognition result buffer 15 stores a character string including the recognition result of each character.
【0041】言語処理部16は、認識結果バッファ15
に格納された文字列から単語を取り出し、言語辞書17
を参照して、文字列に含まれる単語で言語辞書17にな
いものがあれば、その単語の認識結果が疑わしいことを
示すマークを該単語に付与し、再び認識結果バッファ1
5に格納するようになっている。The language processing unit 16 uses the recognition result buffer 15
The word is extracted from the character string stored in
If there is a word included in the character string that is not in the language dictionary 17, a mark indicating that the recognition result of the word is doubtful is added to the word and the recognition result buffer 1
5 is stored.
【0042】結果修正部18は、認識結果バッファ15
の内容をディスプレイ19に出力するようになってい
る。このとき、結果修正部18は、言語処理部16によ
って付与された認識が疑わしいマークが付与された単語
を反転表示させ、これによって、使用者に対して誤認識
した単語についての変更を促すようになっており、使用
者がキーボード20を操作することで上記マークの付与
された単語を正しい単語に変更した後、再び認識結果バ
ッファ15に変更前の誤認識の単語を変更後の単語に書
き換えて格納するようになっている。The result correction section 18 includes a recognition result buffer 15
Is output to the display 19. At this time, the result correction unit 18 reversely displays the word, which is given by the language processing unit 16 and has a mark whose suspicion is recognized, so that the user is urged to change the erroneously recognized word. The user operates the keyboard 20 to change the word with the mark to the correct word, and then rewrites the misrecognized word before the change into the word after the change in the recognition result buffer 15 again. It is supposed to be stored.
【0043】結果出力部21は、認識結果バッファ15
の内容をプリンタ22に出力するようになっている。The result output unit 21 includes a recognition result buffer 15
Is output to the printer 22.
【0044】ここで、関係判定部3における画像分割処
理について、図4ないし図8を参照しながら以下に説明
する。尚、各図中に示したピクセルの位置は、図中、上
から数えて何行目、左から数えて何列目(以下、本実施
例では何行何列目とする)と表現する。Here, the image division processing in the relation determining unit 3 will be described below with reference to FIGS. 4 to 8. The position of the pixel shown in each drawing is expressed as the number of row counting from the top and the number of column counting from the left (hereinafter referred to as the row and column in the present embodiment) in the figure.
【0045】まず、スキャナ1で画像バッファ2に格納
された画像中の任意の2つのピクセルに対して、関係S
を以下の手順で定義しておく。尚、下記で「近接してい
る」とは、いわゆる4連結または8連結の意味で「隣接
している」という条件でもよく、また「互いの距離が小
さい」という条件でも良い。ただし、4連結の意味で隣
接しているとは、着目ピクセルの1つ上、1つ下、1つ
左、1つ右のいずれかに位置することを意味し、8連結
の意味で隣接しているとは、上記のいずれかまたは、1
つ右上、1つ右下、1つ左上、1つ左下のいずれかに位
置することを意味する。ここで、上記4連結および8連
結とは、例えば図8を用いて説明すると、格子状に配置
された9つのピクセルA〜IのうちピクセルEに着目し
た場合に、図中D、B、F、Hの4点をEの隣接点とみ
なしてピクセルの連結関係を考えるのが4連結、また、
図中A、B、C、D、F、G、H、Iを全てピクセルE
の隣接点とみなしてピクセルの連結関係を考えるのが8
連結である。First, the relation S with respect to any two pixels in the image stored in the image buffer 2 by the scanner 1
Is defined by the following procedure. In the following description, "close to" means "adjacent" in the sense of so-called 4-connection or 8-connection, or may be "condition that the mutual distance is small". However, being adjacent in the sense of four connections means being located one above, one below, one left, or one right of the pixel of interest, and being adjacent in the sense of eight connections. Means any of the above or 1
One upper right, one lower right, one upper left, one lower left. Here, the above-mentioned 4-connection and 8-connection will be described with reference to, for example, FIG. 8, and when attention is paid to a pixel E among the nine pixels A to I arranged in a grid pattern, D, B, and F in the drawing are used. , H are regarded as adjacent points of E, and the pixel connection relationship is considered.
In the figure, A, B, C, D, F, G, H, and I are all pixel E
It is 8 to consider the connection relationship of pixels by considering them as adjacent points of
It is a connection.
【0046】次に、任意の2つのピクセルX0 ,X1 に
ついて、「2つのピクセルX0 ,X1 が近接しており、
その濃度レベルの差が濃度差閾値α以下である」とき、
「関係R(X0 ,X1 )が成り立つ」と定義する。但
し、上記αは、画像全体にわたって同じ値を定めておい
てもよいし、2つのピクセルの濃度レベルの関数αを予
め定めておき、その値をとっても良い。また、2つのピ
クセルの座標等を、αを定めるパラメータに入れても良
い。Next, regarding any two pixels X 0 and X 1 , "two pixels X 0 and X 1 are close to each other,
When the difference in the density level is less than or equal to the density difference threshold α, ”
It is defined as “relationship R (X 0 , X 1 ) holds”. However, the above α may be set to the same value over the entire image, or the function α of the density levels of two pixels may be set in advance and the value may be set. Further, the coordinates of the two pixels and the like may be included in the parameter that defines α.
【0047】上記「関係R(X0 ,X1 )が成り立つ」
について、図4を参照しながら以下に説明する。但し、
濃度差閾値αは画像全体に対して2とし、「近接してい
る」とは8連結の意味で隣接していることとする。ま
た、図中の小さな円はピクセルを、円中の数字は濃度レ
ベルを表す。The above "relationship R (X 0 , X 1 ) holds"
This will be described below with reference to FIG. However,
The density difference threshold α is set to 2 for the entire image, and “proximity” means that they are adjacent in the sense of eight connections. The small circles in the figure represent pixels, and the numbers in the circles represent density levels.
【0048】図4において、例えば3行3列目にある濃
度レベル3のピクセルに着目し、このピクセルと直線で
結ばれているのが、同ピクセルとの間に関係Rが成り立
つピクセルである。例えば、3行3列目のピクセルをX
0 、3行2列目のピクセルをX1 とすれば、X0 の濃度
レベルは3、X1 の濃度レベルは4であり、濃度レベル
の差が1となる関係、即ち濃度差閾値α≦2の関係とな
る。したがって、3行3列目のピクセルX0 と3行2列
目のピクセルX1 は、関係R(X0 ,X1 )が成り立っ
ていることになる。In FIG. 4, for example, paying attention to the pixel at the density level 3 in the 3rd row and the 3rd column, what is connected to this pixel by a straight line is a pixel for which the relationship R is established between the pixel and the pixel. For example, the pixel in the third row and third column is X
0 , assuming that the pixel at the 3rd row and the 2nd column is X 1 , the density level of X 0 is 3, the density level of X 1 is 4, and the density level difference is 1, that is, the density difference threshold α ≦ There is a relationship of 2. Therefore, the relationship R (X 0 , X 1 ) is established between the pixel X 0 in the 3rd row and the 3rd column and the pixel X 1 in the 3rd row and the 2nd column.
【0049】また、2つのピクセルa,bについて、
「ピクセル列{Xi}(i=0,1,・・,n−1;n
はある正の整数、X0 =a、Xn-1 =b)が存在して、
R(Xi ,Xi+1 )(但し、0≦i≦nー2)が全て成
り立つ」という関係が成立するとき、「関係S(a,
b)が成り立つ」と定める。For two pixels a and b,
"Pixel column {Xi} (i = 0, 1, ..., N-1; n
Is a positive integer, X 0 = a, X n-1 = b), and
When R (X i , X i + 1 ) (where 0 ≦ i ≦ n−2) holds, the relation “S (a,
b) holds. ”
【0050】つまり、関係S(a,b)が成り立つと
は、ピクセルaから出発して、現在いるピクセルとの間
で関係Rが成り立つような近接したピクセル(関係Rの
定義から、関係Rが成り立つような2つのピクセルは必
ず近接している)の1つに移動することを繰り返して、
ピクセルbに到達できることを示している。That is, the relationship S (a, b) holds that the pixels a are close to each other so that the relationship R is established with the currently existing pixel (from the definition of the relationship R, the relationship R is Repeatedly move to one of the two pixels that hold true)
It shows that pixel b can be reached.
【0051】上記「関係S(a,b)が成り立つ」につ
いて、図5を参照しながら以下に説明する。但し、濃度
差閾値αは画像全体に対して2とし、「近接している」
とは8連結の意味で隣接していることとする。また、図
中の小さな円はピクセルを、円中の数字は濃度レベルを
表す。The above "relationship S (a, b) holds" will be described below with reference to FIG. However, the density difference threshold α is set to 2 with respect to the entire image, and “close”
And 8 are adjacent to each other in the sense of 8 connections. The small circles in the figure represent pixels, and the numbers in the circles represent density levels.
【0052】図5において、互いに直線で結ばれている
のが、3行3列目のピクセルに着目すると、このピクセ
ルとの間に関係Sが成り立つピクセルである。つまり、
直線で結ばれているピクセルは、互いに関係Rが成り立
つものであり、この関係Rが成り立つピクセル同士をた
どって行くことで、3行3列目のピクセルと関係Sが成
り立つ全てのピクセルに到達できるようになっている。In FIG. 5, what is connected to each other by a straight line is a pixel having a relationship S between this pixel and the third row and third column. That is,
Pixels that are connected by a straight line have a relationship R with each other, and by tracing the pixels with which this relationship R holds, all pixels that have a relationship S with the pixel in the third row and third column can be reached. It is like this.
【0053】但し、説明の便宜上、図4および図5にお
いて、3行3列目のピクセルと隣接しているが関係Rの
成り立たないピクセル、例えば2行4列目のピクセル
(濃度レベル18)については、このピクセルと隣接し
た他のピクセル、例えば3行4列目のピクセルあるいは
1行4列目のピクセルとの間に関係Rが成立していたと
しても、関係Rを示す直線は省略している。However, for convenience of description, in FIG. 4 and FIG. 5, a pixel which is adjacent to the pixel in the third row and the third column but does not have the relation R, for example, the pixel in the second row and the fourth column (density level 18) Even if a relationship R is established between this pixel and another pixel adjacent to this pixel, for example, the pixel in the 3rd row and the 4th column or the pixel in the 1st row and the 4th column, the straight line indicating the relationship R is omitted. There is.
【0054】また、上記関係判定部3の目的は、画像中
の2つのピクセル(以下、Xi,Xjとする)からなる
全ての組合せを取り出して、実際に関係S(Xi,X
j)が成り立つか否かを判定し、成り立つ場合には、X
i,Xjに対応するラベルバッファ4の2つの要素L
〔i〕,L〔j〕に同一のラベルの値を与えるラベリン
グ処理を行うことである。Further, the purpose of the relation determining unit 3 is to take out all combinations of two pixels (hereinafter, Xi, Xj) in the image, and actually obtain the relation S (Xi, Xj).
j) is determined, and if so, X is
Two elements L of the label buffer 4 corresponding to i and Xj
Labeling processing for giving the same label value to [i] and L [j] is performed.
【0055】しかしながら、関係判定部3において、S
(Xi,Xj)が成り立つか否かを判定するのではな
く、R(Xi,Xj)が成り立つか否かを判定し、成り
立つ場合には、2つの要素L〔i〕,L〔j〕、および
その時点での要素のいずれかと等しい値のラベルバッフ
ァ4に格納された要素全てに対して、共通の値(以下、
V0 とする)を代入するようにしても良い。この場合、
V0 は、その時点でのL〔i〕,L〔j〕のいずれかの
小さい値の方で良い。However, in the relationship determination unit 3, S
Instead of determining whether (Xi, Xj) holds, it is determined whether R (Xi, Xj) holds, and if so, two elements L [i], L [j], And a value common to all the elements stored in the label buffer 4 having a value equal to any of the elements at that time (hereinafter,
V 0 ) may be substituted. in this case,
V 0 may be the smaller value of either L [i] or L [j] at that time.
【0056】このように関係Rを用いても関係Sを用い
た場合と同様の結果が得られるのは、関係Rを介して直
接的に、または他の1個あるいは複数のピクセルを介し
て間接的に繋がっている2つのピクセルに、同一のラベ
ルを与える処理であり、このことから、関係Sが成り立
つ2つのピクセルに同一のラベルを与える処理と同じこ
とになるためである。In this way, the result similar to the case of using the relation S can be obtained by using the relation R either directly through the relation R or indirectly through another one or a plurality of pixels. This is because the same label is given to two pixels that are physically connected, and from this, the same label is given to two pixels for which the relation S holds.
【0057】上記構成の文字認識システムを用いて、濃
度レベルがなだらかに変化する背景部分と、文字部分と
が同時に切り出される場合について、図6を用いて以下
に説明する。尚、画像の各領域の分離には、上記した関
係R、Sが使用され、このとき使用される濃度差閾値α
は画像全体に対して2とし、「近接している」とは8連
結の意味で隣接していることとする。また、図中の小さ
な円はピクセルを、円中の数字は濃度レベルを表す。A case in which the background portion in which the density level changes gently and the character portion are cut out at the same time by using the character recognition system having the above configuration will be described below with reference to FIG. The above-described relationships R and S are used to separate each region of the image, and the density difference threshold α used at this time is used.
Is 2 with respect to the entire image, and “adjacent” means that they are adjacent in the sense of 8 connections. The small circles in the figure represent pixels, and the numbers in the circles represent density levels.
【0058】スキャナ1によって読み取られた画像情報
には、図6(a)に示すように、ピクセル毎に濃度レベ
ルが付与されており、この画像情報から文字部分に対応
したピクセル群、即ち互いに近接し、且つ濃度差閾値α
が2以下のピクセル群が切り出される。即ち、図6
(a)に示す画像情報が、図6(b)に示す背景部分
と、図6(c)に示す文字部分とが同時に切り出され
る。上記の文字部分は、図6(a)に示す5行9列目の
濃度レベル3のピクセルから関係Sによって1つに繋が
ったものである。As shown in FIG. 6A, the image information read by the scanner 1 is provided with a density level for each pixel. From this image information, a pixel group corresponding to a character portion, that is, close to each other is provided. And the density difference threshold α
A pixel group having a value of 2 or less is cut out. That is, FIG.
In the image information shown in (a), the background portion shown in FIG. 6 (b) and the character portion shown in FIG. 6 (c) are cut out at the same time. The above-mentioned character portions are connected by the relationship S from the pixels of the density level 3 in the 5th row and 9th column shown in FIG. 6A.
【0059】また、上記の図6で説明した入力画像と同
一画像において、ラベルバッファ4の要素L〔i〕,L
〔j〕における文字部分の抽出処理について、図7を参
照しながら以下に説明する。尚、図中、各グリッドがラ
ベルバッファ4の要素を示し、その中の数字がラベルバ
ッファの要素の値を示す。Further, in the same image as the input image described in FIG. 6, the elements L [i], L of the label buffer 4 are
The extraction process of the character portion in [j] will be described below with reference to FIG. 7. In the figure, each grid represents an element of the label buffer 4, and the numeral in each grid represents the value of the element of the label buffer.
【0060】図7(a)は、関係判定部3によってラベ
ルバッファ4の内容が書き換えられる前のグリッドのラ
ベルバッファの数値を示し、図7(b)は、関係判定部
3によってラベルバッファ4の内容が書き換えられた後
のグリッドのラベルバッファの数値を示している。つま
り、図7(b)では、文字領域を構成するピクセルに対
応するラベルバッファの値は22、非文字領域を構成す
るピクセルに対応するラベルバッファの値は0に書き換
えられている。このことから、ラベルバッファの数値に
よって、対応するピクセルがどの領域に属するかを決定
していることが判る。但し、各ピクセルの関係は上記し
た図6に示す関係R、Sと同じとする。FIG. 7A shows the numerical values of the label buffer of the grid before the content of the label buffer 4 is rewritten by the relationship determining unit 3, and FIG. 7B shows the values of the label buffer 4 of the label buffer 4 by the relationship determining unit 3. It shows the number in the grid's label buffer after the contents have been rewritten. That is, in FIG. 7B, the value of the label buffer corresponding to the pixels forming the character area is rewritten to 22, and the value of the label buffer corresponding to the pixels forming the non-character area is rewritten to 0. From this, it can be seen that the value of the label buffer determines which region the corresponding pixel belongs to. However, the relationship of each pixel is the same as the relationship R and S shown in FIG.
【0061】ここで、関係Rを用いて関係判定部3で
の、ラベルバッファ4の要素内容の書き換えについて、
図2に示すフローチャートを参照しながら以下に説明す
る。Here, regarding the rewriting of the element contents of the label buffer 4 in the relation judging section 3 using the relation R,
This will be described below with reference to the flowchart shown in FIG.
【0062】まず、画像中の未処理の2つのピクセルX
i,Xj(i≠j)を取り出す(S21)。First, two unprocessed pixels X in the image
i, Xj (i ≠ j) are taken out (S21).
【0063】次に、取り出した2つのピクセルXi,X
jが関係R(Xi,Xj)が成り立つか否かを判定する
(S22)。ここで、関係Rが成り立たなければ、S2
4に移行する。Next, the two extracted pixels Xi, X
It is determined whether j satisfies the relation R (Xi, Xj) (S22). Here, if the relation R does not hold, S2
Move to 4.
【0064】S22で関係Rが成り立てば、2つのピク
セルXi,Xjに対応するラベルバッファ4の要素L
〔i〕,L〔j〕、およびそのいずれかと値が等しい全
てのラベルバッファ4の要素に共通の値を代入する(S
23)。If the relation R is established in S22, the element L of the label buffer 4 corresponding to the two pixels Xi and Xj.
[I], L [j], and all the elements of the label buffer 4 having the same value as any one of them are assigned a common value (S).
23).
【0065】その後、画像中の全てのピクセルXi,X
jの組合せについて処理を行ったか否かを判定する(S
24)。ここで、全てのピクセルXi,Xjの組合せに
ついて処理を行っていると判定すれば、関係判定部3に
おける処理を終了する。一方、全てのピクセルXi,X
jの組合せについて処理を行っていないと判定すれば、
再びS21に移行して処理を行う。Then all the pixels in the image Xi, X
It is determined whether or not the process has been performed for the combination of j (S
24). Here, if it is determined that the process is performed for all the combinations of the pixels Xi and Xj, the process in the relationship determination unit 3 ends. On the other hand, all pixels Xi, X
If it is determined that processing is not performed for the combination of j,
The process moves to S21 again and is processed.
【0066】また、上記構成の文字認識システムにおけ
る画像領域分割方法について、図1に示すフローチャー
トを参照しながら以下に説明する。An image area dividing method in the character recognition system having the above configuration will be described below with reference to the flowchart shown in FIG.
【0067】まず、濃淡画像が形成された用紙をスキャ
ナ1によって光学的に走査し、画像バッファ2に画像情
報を入力する(S1)。このとき、ラベルバッファ4を
全て異なる値が入るように初期化する(S2)。例え
ば、L〔i〕=i(i=0,1,・・・)となるように
初期化する。First, a sheet on which a grayscale image is formed is optically scanned by the scanner 1 and image information is input to the image buffer 2 (S1). At this time, the label buffer 4 is initialized so that all different values are entered (S2). For example, initialization is performed so that L [i] = i (i = 0, 1, ...).
【0068】次に、関係判定部3にて、画像バッファ2
に格納された画像情報に基づいて、ラベルバッファ4の
内容を上記した図2に示すフローチャートに示す手順で
書き換えて、画像分割処理を行う(S3)。Next, in the relationship determining unit 3, the image buffer 2
The content of the label buffer 4 is rewritten according to the procedure shown in the flow chart shown in FIG. 2 based on the image information stored in the image division processing (S3).
【0069】次いで、分割結果出力部5にて、画像バッ
ファ2の内容と書き換えられたラベルバッファ4の内容
とを参照して、画像中のピクセルを対応するラベルバッ
ファL〔i〕の要素の値が共通なものごとに分割して分
割結果バッファ6に格納する(S4)。Next, the division result output unit 5 refers to the contents of the image buffer 2 and the contents of the rewritten label buffer 4 to refer to the pixel in the image as the value of the corresponding element of the label buffer L [i]. Are shared and stored in the division result buffer 6 (S4).
【0070】そして、領域属性判定部7にて、分割結果
バッファ6の内容および属性判定ルールベース8を参照
して、各領域の属性(文字あるいは非文字)を判定し、
その属性を領域属性バッファ9に格納する(S5)。Then, the area attribute judgment unit 7 judges the attribute (character or non-character) of each area by referring to the contents of the division result buffer 6 and the attribute judgment rule base 8.
The attribute is stored in the area attribute buffer 9 (S5).
【0071】次に、二値画像生成部10にて、画像バッ
ファ2、ラベルバッファ4、分割結果バッファ6および
領域属性バッファ9の内容を参照して、ピクセルの2値
化を行い、そのデータを二値画像バッファ11に格納す
る(S6)。Next, the binary image generator 10 refers to the contents of the image buffer 2, the label buffer 4, the division result buffer 6 and the area attribute buffer 9 to binarize the pixel, It is stored in the binary image buffer 11 (S6).
【0072】次いで、文字切り出し部12にて、二値画
像バッファ11の内容を参照して、画像中の文字位置を
取り出し、文字座標バッファ13に可能する(S7)。Next, the character cut-out unit 12 refers to the contents of the binary image buffer 11 to extract the character position in the image and makes it available in the character coordinate buffer 13 (S7).
【0073】そして、文字認識部14にて、二値画像バ
ッファ11と文字座標バッファ13の内容を参照して文
字認識を行い、その結果を認識結果バッファ15に格納
する(S8)。Then, the character recognition unit 14 refers to the contents of the binary image buffer 11 and the character coordinate buffer 13 to perform character recognition, and stores the result in the recognition result buffer 15 (S8).
【0074】その後、言語処理部16にて、認識結果バ
ッファ15に格納された文字列から単語を取り出し、認
識の疑わしい単語には、疑わしいことを示すマークを付
与して、再び認識結果バッファ15に格納する(S
9)。After that, the language processing unit 16 extracts words from the character string stored in the recognition result buffer 15, adds a mark indicating suspiciousness to a word whose recognition is suspicious, and again stores it in the recognition result buffer 15. Store (S
9).
【0075】次に、結果修正部18にて、認識結果バッ
ファ15の内容をディスプレイ19に出力し、使用者が
誤認識の単語をキーボード20にて修正して、再び認識
結果バッファ15に格納する(S10)。Next, the result correction section 18 outputs the contents of the recognition result buffer 15 to the display 19, the user corrects the erroneously recognized word using the keyboard 20, and stores it in the recognition result buffer 15 again. (S10).
【0076】最後に、結果出力部21にて、修正した単
語を格納した認識結果バッファ15の内容をプリンタ2
2から出力する(S11)。Finally, in the result output section 21, the contents of the recognition result buffer 15 storing the corrected word are read by the printer 2
It outputs from 2 (S11).
【0077】以上のように、本画像領域分割方法によれ
ば、近接し、且つ濃度レベル差が閾値以下のピクセルを
同一領域として画像領域を分割し、分割後の各領域に対
して、各領域の幾何学的特徴、濃度分布、相互の包含関
係に基づいて、その属性(文字、非文字など)を決定し
ているので、画像中に濃度レベルが異なる文字領域がい
くつあっても、それらと、近接した非文字領域との濃度
レベル差が十分であれば、正確に文字領域を構成するピ
クセルを抽出することが可能である。As described above, according to the present image area dividing method, the image area is divided into pixels which are close to each other and whose density level difference is less than or equal to the threshold value, and are divided into the respective areas. Since its attributes (text, non-text, etc.) are determined based on the geometrical characteristics, density distribution, and mutual inclusion relations, no matter how many character areas have different density levels in the image, If the density level difference between the adjacent non-character area is sufficient, the pixels forming the character area can be accurately extracted.
【0078】つまり、「同一の領域に属するべき近接し
たピクセルは、近い濃度レベルを有する」という仮定以
外に、領域の濃度レベルや画像中の濃度分布について何
の仮定も行わずに画像領域を分割することができるの
で、従来のように、画像から文字領域を認識するため
に、「画像中で文字領域が占めるピクセル数は一定範囲
にある。」、「画像中で文字領域を構成する濃度帯域、
非文字領域を構成する濃度帯域はそれぞれ連続してい
る。」といった仮定をする必要がなくなる。That is, the image area is divided without making any assumption about the density level of the area and the density distribution in the image, other than the assumption that the adjacent pixels which should belong to the same area have the close density level. Therefore, in order to recognize the character area from the image as in the conventional art, "the number of pixels occupied by the character area in the image is within a certain range", "the density band forming the character area in the image" ,
The density bands forming the non-character area are continuous. There is no need to make assumptions such as.
【0079】したがって、カラー文書等を含む多種多様
な画像において、従来の2値化法では不可能であった2
値化の自動化を可能とし、正確に文字部分を抽出するこ
とが可能となる。Therefore, in a wide variety of images including color documents and the like, it is impossible with the conventional binarization method.
It is possible to automate the digitization and to extract the character part accurately.
【0080】また、本画像領域分割方法では、近接した
ピクセルが同一の領域に属するか否かを判定する際、濃
度レベルの小さな差を許容し、しかもあらかじめ濃度帯
域を分割して処理しないので、本来同一の領域に属すべ
き、近い濃度レベルを有する2つの近接したピクセルが
別の領域に分割されることがない。Further, in this image area dividing method, when it is determined whether or not adjacent pixels belong to the same area, a small difference in density level is allowed, and the density band is not divided in advance for processing. Two adjacent pixels with close density levels, which should originally belong to the same region, are not divided into different regions.
【0081】したがって、例えば、なだらかに濃度が変
化する領域が、濃度帯域の切れ目で複数の領域に分割さ
れてしまうことがなくなり、濃度レベルの近い近接した
ピクセルを含む領域の再統合が不要となり、文字領域の
抽出処理を簡単に、しかも正確に行うことができる。Therefore, for example, an area where the density changes gently is not divided into a plurality of areas at the density band breaks, and it becomes unnecessary to reintegrate the area including adjacent pixels having similar density levels. The extraction processing of the character area can be performed easily and accurately.
【0082】さらに、本画像領域分割方法では、上記し
たように、画像中に濃度レベルが異なる文字領域がいく
つあっても、それらと、近接した非文字領域の濃度差が
十分であれば、正確に文字領域を構成するピクセルを抽
出することが可能となる。Further, in the image area dividing method, as described above, no matter how many character areas have different density levels in the image, if the density difference between them and the adjacent non-character area is sufficient, it is accurate. It is possible to extract the pixels that form the character area.
【0083】これにより、異なる色で書かれた文字が同
一画像中にある場合など、処理したい領域の濃度レベル
があらあじめ不明でも、問題なく処理が行える。As a result, even when the characters written in different colors are in the same image, even if the density level of the region to be processed is unknown, the process can be performed without any problem.
【0084】また、本画像領域分割方法では、画像中の
各ピクセル毎に、どの領域に属するかが分かるため、領
域の形状を正確に決定することができる。Further, in the present image area dividing method, since it can be known to which area each pixel in the image belongs, the shape of the area can be accurately determined.
【0085】また、本画像領域分割方法では、文字領域
がほぼ連結成分レベルで切り出されるため、文字、また
は文字の一部を構成するピクセルを常に塊として、画像
中から取り出し、これらを統合することで文字列抽出ま
たは文字認識を行う方法(本願出願人が先に出願した特
開平5−81474号公報に開示の方法)と組み合わせ
た場合、文字列抽出または文字認識処理の一部を省略す
ることができる。In the image area dividing method of the present invention, the character area is cut out at almost the level of the connected components. Therefore, the characters or pixels forming a part of the character are always taken as a block and extracted from the image, and these are integrated. When the method is combined with a method of extracting a character string or recognizing the character string (a method disclosed in Japanese Patent Application Laid-Open No. 5-81474 filed by the applicant of the present application), omitting a part of the character string extracting or character recognizing process. You can
【0086】尚、本実施例では、画像読取り手段として
スキャナ1を使用したが、カメラ等を使用しても良い。In this embodiment, the scanner 1 is used as the image reading means, but a camera or the like may be used.
【0087】[0087]
【発明の効果】請求項1の発明の画像領域分割方法は、
以上のように、濃淡画像中のピクセルを、互いに近接
し、且つその濃度レベルの差が閾値よりも小さいという
関係に基づいてラベリングし、同一ラベルを有するピク
セルからなる領域に分割し、分割後の各領域の属性を判
定する構成である。According to the image area dividing method of the first aspect of the present invention,
As described above, the pixels in the grayscale image are labeled based on the relationship that they are close to each other and the difference in their density levels is smaller than the threshold value, and are divided into regions consisting of pixels having the same label. The configuration is such that the attribute of each area is determined.
【0088】これにより、近接し、且つ濃度レベル差が
閾値以下のピクセルを同一領域として画像領域を分割
し、分割後の各領域の文字あるいは非文字等の属性を、
請求項2記載のように各領域の幾何学的特徴、濃度分
布、相互の包含関係に基づいて決定しているので、画像
中に濃度レベルが異なる文字領域がいくつあっても、そ
れらと、近接した非文字領域の濃度レベル差が十分であ
れば、正確に文字領域を構成するピクセルを抽出するこ
とが可能である。As a result, the image area is divided into pixels which are close to each other and whose density level difference is less than or equal to the threshold value as the same area, and the attribute such as character or non-character of each area after the division is determined.
Since it is determined based on the geometrical characteristics of each area, the density distribution, and the mutual inclusion relation as described in claim 2, no matter how many character areas have different density levels in the image, they are close to each other. If the density level difference between the non-character areas is sufficient, the pixels forming the character area can be accurately extracted.
【0089】したがって、複雑な処理を行うことなく、
濃度レベルの異なる領域が複数存在するようなカラー文
書を含む多種多様な入力画像から文字領域を抽出するこ
とができ、この結果、画像を、文字領域と非文字領域等
の属性に応じて正確に分割することができるという効果
を奏する。Therefore, without performing complicated processing,
Character areas can be extracted from a wide variety of input images including color documents in which areas with different density levels exist, and as a result, images can be accurately displayed according to attributes such as character areas and non-character areas. The effect that it can be divided is achieved.
【図1】本発明の一実施例に係る画像領域分割方法を示
すフローチャートである。FIG. 1 is a flowchart showing an image area dividing method according to an embodiment of the present invention.
【図2】図1に示した画像領域分割方法の画像分割処理
の一例を示すフローチャートである。FIG. 2 is a flowchart showing an example of image division processing of the image area division method shown in FIG.
【図3】図1に示した画像領域分割方法を適用した文字
認識システムの概要を示すブロック図である。3 is a block diagram showing an outline of a character recognition system to which the image region dividing method shown in FIG. 1 is applied.
【図4】図1に示した画像領域分割方法の画像分割処理
における各ピクセルの関係を示す説明図である。FIG. 4 is an explanatory diagram showing the relationship of each pixel in the image division processing of the image area division method shown in FIG.
【図5】図1に示した画像領域分割方法の画像分割処理
における各ピクセルの関係を示す説明図である。5 is an explanatory diagram showing a relationship of each pixel in the image division processing of the image area division method shown in FIG.
【図6】図1に示した画像領域分割方法における画像分
割処理の説明図である。6 is an explanatory diagram of image division processing in the image area division method shown in FIG.
【図7】図1に示した画像領域分割方法における画像分
割処理の他の説明図である。FIG. 7 is another explanatory diagram of the image division processing in the image area division method shown in FIG.
【図8】ピクセルの連結関係を示す説明図である。FIG. 8 is an explanatory diagram showing a pixel connection relationship.
【図9】従来の画像領域分割方法を示す説明図である。FIG. 9 is an explanatory diagram showing a conventional image area dividing method.
【図10】従来の画像領域分割方法を示す説明図であ
る。FIG. 10 is an explanatory diagram showing a conventional image area dividing method.
1 スキャナ 3 関係判定部 5 分割結果出力部 4 ラベルバッファ 7 領域属性判定部 1 Scanner 3 Relationship Determining Section 5 Division Result Output Section 4 Label Buffer 7 Area Attribute Determining Section
Claims (2)
て分割する画像領域分割方法において、 濃淡画像中のピクセルを、互いに近接し、且つその濃度
レベルの差が閾値よりも小さいという関係に基づいてラ
ベリングし、同一ラベルを有するピクセルからなる領域
に分割し、分割後の各領域の属性を判定することを特徴
とする画像領域分割方法。1. An image area dividing method for dividing a grayscale image according to attributes such as characters and non-characters, wherein pixels in the grayscale image are close to each other and the difference in their density levels is smaller than a threshold value. A method for dividing an image area, which comprises labeling based on a relationship, dividing the area into pixels having the same label, and determining an attribute of each area after the division.
何学的特徴、濃度分布、相互の包含関係に基づいて判定
することを特徴とする請求項1記載の画像領域分割方
法。2. The image area dividing method according to claim 1, wherein the attribute of each area after the division is determined based on the geometrical feature of each area, the density distribution, and the mutual inclusion relation.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15954195A JP3476595B2 (en) | 1995-06-26 | 1995-06-26 | Image area division method and image binarization method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP15954195A JP3476595B2 (en) | 1995-06-26 | 1995-06-26 | Image area division method and image binarization method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0916713A true JPH0916713A (en) | 1997-01-17 |
JP3476595B2 JP3476595B2 (en) | 2003-12-10 |
Family
ID=15696018
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP15954195A Expired - Lifetime JP3476595B2 (en) | 1995-06-26 | 1995-06-26 | Image area division method and image binarization method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3476595B2 (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2000062243A1 (en) * | 1999-04-14 | 2000-10-19 | Fujitsu Limited | Character string extracting device and method based on basic component in document image |
US6720965B1 (en) | 1998-11-30 | 2004-04-13 | Sharp Kabushiki Kaisha | Image display device |
JP2008146314A (en) * | 2006-12-08 | 2008-06-26 | Hitachi Software Eng Co Ltd | Method for labeling gray image and program for executing the same |
JP2013016168A (en) * | 2011-06-30 | 2013-01-24 | Fujitsu Ltd | Method and device for positioning text area in image |
CN111191527A (en) * | 2019-12-16 | 2020-05-22 | 北京迈格威科技有限公司 | Attribute identification method and device, electronic equipment and readable storage medium |
-
1995
- 1995-06-26 JP JP15954195A patent/JP3476595B2/en not_active Expired - Lifetime
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6720965B1 (en) | 1998-11-30 | 2004-04-13 | Sharp Kabushiki Kaisha | Image display device |
WO2000062243A1 (en) * | 1999-04-14 | 2000-10-19 | Fujitsu Limited | Character string extracting device and method based on basic component in document image |
US6701015B2 (en) | 1999-04-14 | 2004-03-02 | Fujitsu Limited | Character string extraction apparatus and method based on basic component in document image |
JP2008146314A (en) * | 2006-12-08 | 2008-06-26 | Hitachi Software Eng Co Ltd | Method for labeling gray image and program for executing the same |
JP2013016168A (en) * | 2011-06-30 | 2013-01-24 | Fujitsu Ltd | Method and device for positioning text area in image |
CN111191527A (en) * | 2019-12-16 | 2020-05-22 | 北京迈格威科技有限公司 | Attribute identification method and device, electronic equipment and readable storage medium |
CN111191527B (en) * | 2019-12-16 | 2024-03-12 | 北京迈格威科技有限公司 | Attribute identification method, attribute identification device, electronic equipment and readable storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP3476595B2 (en) | 2003-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
USRE47889E1 (en) | System and method for segmenting text lines in documents | |
US8059868B2 (en) | License plate recognition apparatus, license plate recognition method, and computer-readable storage medium | |
US8442319B2 (en) | System and method for classifying connected groups of foreground pixels in scanned document images according to the type of marking | |
JP3904840B2 (en) | Ruled line extraction device for extracting ruled lines from multi-valued images | |
WO2023284502A1 (en) | Image processing method and apparatus, device, and storage medium | |
US8385651B2 (en) | Character recognition device, image-reading device, computer readable medium, and character recognition method | |
JP4443576B2 (en) | Pattern separation / extraction program, pattern separation / extraction apparatus, and pattern separation / extraction method | |
JP2001297303A (en) | Method and device for recognizing document image and computer readable recording medium | |
EP0949579A2 (en) | Multiple size reductions for image segmentation | |
CN113971792A (en) | Character recognition method, device, equipment and storage medium for traffic sign board | |
CN111126266B (en) | Text processing method, text processing system, equipment and medium | |
JP2005317042A (en) | Image processor | |
CN114495141A (en) | Document paragraph position extraction method, electronic equipment and storage medium | |
US7130085B2 (en) | Half-tone dot elimination method and system thereof | |
JP3476595B2 (en) | Image area division method and image binarization method | |
JP3268552B2 (en) | Area extraction method, destination area extraction method, destination area extraction apparatus, and image processing apparatus | |
US20210303901A1 (en) | Text location method and apparatus | |
JP2022090469A (en) | Format defining device, format defining method, and program | |
JPH02116987A (en) | Character recognizing device | |
JP2004094427A (en) | Slip image processor and program for realizing the same device | |
JP3019897B2 (en) | Line segmentation method | |
JP2775807B2 (en) | Character recognition method | |
CN118609152B (en) | Intelligent correction method and system for student homework | |
JP3100825B2 (en) | Line recognition method | |
JP7370574B2 (en) | Frame extraction method and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080926 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080926 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090926 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090926 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100926 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110926 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120926 Year of fee payment: 9 |