JPH10261047A - Character recognition device - Google Patents

Character recognition device

Info

Publication number
JPH10261047A
JPH10261047A JP9066146A JP6614697A JPH10261047A JP H10261047 A JPH10261047 A JP H10261047A JP 9066146 A JP9066146 A JP 9066146A JP 6614697 A JP6614697 A JP 6614697A JP H10261047 A JPH10261047 A JP H10261047A
Authority
JP
Japan
Prior art keywords
character
character string
recognition device
filtering
character recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP9066146A
Other languages
Japanese (ja)
Inventor
Yoshinobu Hotsuta
悦伸 堀田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP9066146A priority Critical patent/JPH10261047A/en
Publication of JPH10261047A publication Critical patent/JPH10261047A/en
Withdrawn legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide a device that accurately segments individual characters written, specially, in a free pitch area and recognizes them, concerning a character recognition device, which recognizes characters from image data (document image). SOLUTION: A filtering part 3 performs more than one kind of filtering for a document image and stores results in a filtering image storage part 4. A character string extraction part 7 extracts a character string from the filtered image according to the density value of the image and further calculates the character string direction. A character segmentation part 8 segments an area of less than certain density as one character and a character recognition part 9 recognized the segmented character.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は,入力したイメージ
データから文字の切り出しを正確に行い,高い認識率を
得られるようにした文字認識装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition device which accurately cuts out characters from input image data to obtain a high recognition rate.

【0002】近年,手書き用の入力周辺機器として手書
き文字認識装置(OCR)の需要が増加している。手書
き文字認識装置において,個々の文字の高い認識率を実
現するためには,文字認識処理の前段階である文字切り
出しの正確性が重要になる。これまで,帳票等において
指定した位置に文字が正しく書かれたものに対しては,
文字の切り出し位置が明らかであるため高い精度で認識
することができた。しかし,個々の文字枠のないフリー
ピッチ領域に書かれた文字に対しては,文字の切り出し
誤りのために,文字認識率が低下する問題が生じてい
た。
In recent years, there has been an increasing demand for a handwritten character recognition device (OCR) as an input peripheral device for handwriting. In the handwritten character recognition device, in order to realize a high recognition rate of each character, the accuracy of character segmentation, which is a preceding stage of the character recognition process, is important. Until now, if the characters were correctly written at the specified position in the form, etc.,
Since the cutout position of the character was clear, recognition was possible with high accuracy. However, for characters written in a free-pitch area without individual character frames, there has been a problem that the character recognition rate is reduced due to a character cutout error.

【0003】本発明は,文字認識装置において特にフリ
ーピッチ領域における文字切り出し(セグメンテーショ
ン)処理の技術に関するものである。なお,本技術は手
書き文字認識装置だけでなく,印刷文字認識,図面認識
における文字の切り出しなど,広い意味での認識システ
ムの文字切り出し技術として用いることができる。
[0003] The present invention relates to a character recognition (segmentation) processing technology in a character recognition device, particularly in a free pitch area. Note that the present technology can be used not only as a handwritten character recognition device, but also as a character extraction technology of a recognition system in a broad sense such as character extraction in print character recognition and drawing recognition.

【0004】[0004]

【従来の技術】イメージスキャナ等により入力された手
書き文字等の文書イメージデータ(以下,「文書画像」
という)から,文字を切り出し,認識するための従来の
技術としては,文字の統合/切り出しを行う際に,文字
列に対して投影をとり,その白画素・黒画素の間隔をも
とに統合を行う方式(特開平4−98477号)や,視
覚の誘導場を計算し,複数の文字がつくり出す視覚の誘
導場を用いて文字の切り出しを行う方式(特開平6−2
15182号)などがある。
2. Description of the Related Art Document image data such as handwritten characters input by an image scanner or the like (hereinafter, "document image")
Therefore, as a conventional technique for cutting out and recognizing characters, when combining / cutting out characters, a character string is projected and integrated based on the interval between white and black pixels. (Japanese Patent Laid-Open No. Hei 4-98477) or a method for calculating a visual guidance field and extracting characters using a visual guidance field created by a plurality of characters (Japanese Patent Laid-Open No. 6-2).
No. 15182).

【0005】図10は,従来の技術を説明する図であ
る。図10に示す技術では,文字列に対して画素の投影
値を求め,投影結果から文字要素の統合/切り出しを行
う。
FIG. 10 is a diagram for explaining a conventional technique. In the technique shown in FIG. 10, a projection value of a pixel is obtained for a character string, and character elements are integrated / cut out from the projection result.

【0006】フリーピッチ領域に書かれる文字列では,
文字同士が近接して書かれる場合がある。このような場
合,従来技術のような投影を用いる方式では,文字同士
が非接触であっても,文字の要素同士が上下に重なる
(オーバーラップ)と,投影値に谷間ができず,それら
の文字を分離できないという問題点がある。
In a character string written in the free pitch area,
Characters may be written close to each other. In such a case, in a method using projection as in the prior art, even if the characters are not in contact with each other, if the elements of the character overlap vertically (overlap), a valley cannot be formed in the projection value, and the valley cannot be formed. There is a problem that characters cannot be separated.

【0007】例えば,図10(A)の「ビニール」の文
字列では,「ビ」の濁点が投影結果に反映されている
が,図10(B)の「ビニール」の文字列の場合には,
「ビ」の濁点と次の文字「ニ」が上下に重なってしまい
(オーバーラップ),「ビ」の濁点は,「ニ」とは非接
触であっても投影結果としては「ニ」に含まれてしま
い,結果的に「ビ」および「ニ」の文字は正確に切り出
すことができなくなってしまう。
For example, in the character string of "vinyl" in FIG. 10A, the turbid point of "vi" is reflected in the projection result, but in the case of the character string of "vinyl" in FIG. ,
The cloudy point of “B” and the next character “D” overlap vertically (overlap), and the cloud point of “B” is included in “D” as a projection result even if it is not in contact with “D”. As a result, the characters "bi" and "d" cannot be cut out accurately.

【0008】また,図10(A)の場合でも,「ル」の
ような分離文字に対しては,どこまでを1文字として切
り出したらよいかわかりにくいという問題がある。一
方,視覚の誘導場を計算して文字の統合/切り出しを行
うような方式では,連結画素間の近接度合いしかみてい
ないため,オーバーラップのない文字同士の間でも,そ
れらが近接して存在していると,統合された文字として
抽出されることがあるという問題があった。また,誘導
場の計算には,処理に莫大な時間(数時間)がかかると
いう問題もあった。
Also, in the case of FIG. 10 (A), there is a problem that it is difficult to find out what part of a separation character such as "ru" should be cut out as one character. On the other hand, in a method in which a visual induction field is calculated to integrate or cut out characters, only the degree of proximity between connected pixels is observed, and therefore, even characters that have no overlap exist close to each other. However, there is a problem that the character may be extracted as an integrated character. In addition, there is a problem that the calculation of the induction field takes an enormous amount of time (several hours) for processing.

【0009】[0009]

【発明が解決しようとする課題】本発明は上記問題点の
解決を図り,フリーピッチ領域に書かれたような手書き
文字の認識等において,認識対象の文字列が傾いている
ような場合でも正しい文字の切り出しを行うことがで
き,文字の認識率を向上させることができるようにする
ことを目的とする。
SUMMARY OF THE INVENTION The present invention solves the above-mentioned problems, and is effective in recognizing handwritten characters such as those written in a free-pitch area even when the character string to be recognized is inclined. An object of the present invention is to be able to cut out a character and improve a character recognition rate.

【0010】[0010]

【課題を解決するための手段】図1は,本発明の構成例
を示す図である。図1において,1はイメージ受信部,
2はイメージ格納部,3はフィルタリング部,4はフィ
ルタリング画像格納部,5はラベリング部,6はラベリ
ング画像格納部,7は文字列抽出部,8は文字切り出し
部,9は文字認識部を表す。
FIG. 1 is a diagram showing a configuration example of the present invention. In FIG. 1, 1 is an image receiving unit,
2 is an image storage unit, 3 is a filtering unit, 4 is a filtered image storage unit, 5 is a labeling unit, 6 is a labeling image storage unit, 7 is a character string extraction unit, 8 is a character cutout unit, and 9 is a character recognition unit. .

【0011】イメージ受信部1は,イメージスキャナ等
により取り込まれた文書のイメージデータ(文書画像)
を受信し,イメージ格納部2に記憶する手段である。ラ
ベリング部5は,文書画像に対してラベリング処理を行
い,各々の連結画素群を求め,その結果(ラベリング画
像)をラベリング画像格納部6に格納する手段である。
An image receiving section 1 is a device for receiving image data (document image) of a document captured by an image scanner or the like.
Is stored in the image storage unit 2. The labeling unit 5 is a unit that performs a labeling process on the document image, obtains each connected pixel group, and stores the result (labeling image) in the labeling image storage unit 6.

【0012】フィルタリング部3は,フィルタ構成パラ
メータを変えてフィルタリングを行い,複数種類のフィ
ルタリング画像を得て,これをフィルタリング画像格納
部4へ記憶する手段である。フィルタリング部3は,特
定の方向に重み付けしたフィルタを用いてフィルタリン
グを行い,また,ラベリング画像から得たラベル外接矩
形のサイズヒストグラムから,その頻度分布より定まる
値の定数倍をフィルタサイズとする。さらに,フィルタ
構成パラメータを変える際に,ラベリング画像から得た
ラベル外接矩形のサイズヒストグラムまたはラベル外接
矩形間のピッチヒストグラムから,その頻度分布より定
まる値の定数倍をフィルタ構成パラメータとする。
The filtering unit 3 is a means for performing filtering by changing filter configuration parameters, obtaining a plurality of types of filtered images, and storing these in the filtered image storage unit 4. The filtering unit 3 performs filtering using a filter weighted in a specific direction, and sets a filter size to a constant multiple of a value determined from the frequency distribution from a size histogram of a label circumscribed rectangle obtained from a labeling image. Further, when changing the filter configuration parameter, a constant multiple of a value determined from the frequency distribution is used as the filter configuration parameter from the size histogram of the label circumscribed rectangle obtained from the labeling image or the pitch histogram between the label circumscribed rectangles.

【0013】文字列抽出部7は,フィルタリング画像の
画素濃度情報をもとに文字列を抽出する手段である。文
字列抽出部7は,フィルタリング画像のある濃度値内に
含まれるものを文字列として抽出し,前記フィルタリン
グ画像中の濃度値の濃い閉曲線の集合から文字列の軸を
算出し,その軸からある閾値内に存在する連結画素を集
めて同一文字列に属するものとする。また,文字列抽出
部7は,ある画素濃度値の閉曲線内で最大長さを持つ線
分をみつけ,その線分の方向を文字列方向とし,あるい
は,ある濃度値の閉曲線のモーメントを算出し,そのモ
ーメントから求まる方向を文字列方向とする。
The character string extracting section 7 is a means for extracting a character string based on the pixel density information of the filtered image. The character string extraction unit 7 extracts a character string included in a certain density value of the filtering image as a character string, calculates an axis of the character string from a set of closed curves having a high density value in the filtering image, and calculates an axis of the character string from the axis. It is assumed that connected pixels existing within the threshold value are collected and belong to the same character string. The character string extracting unit 7 finds a line segment having the maximum length in the closed curve of a certain pixel density value, sets the direction of the line segment to the character string direction, or calculates the moment of the closed curve of a certain density value. , The direction determined from the moment is the character string direction.

【0014】文字切り出し部8は,抽出された文字列中
から文字を切り出す手段である。文字切り出し部8は,
文字列方向および画素濃度情報と,ラベリング画像とを
もとに文字を切り出す。また,文字認識部9からの文字
認識結果をもとに,認識確信度が高くなるように文字を
切り出す。
The character extracting section 8 is a means for extracting a character from the extracted character string. The character cutout unit 8
Characters are cut out based on the character string direction and pixel density information and the labeling image. Further, based on the character recognition result from the character recognition unit 9, characters are cut out so as to increase the recognition certainty.

【0015】文字認識部9は,文字切り出し部8により
切り出された文字を認識する手段である。文字認識部9
は,画素濃度値を連結画素間の統合確率と捉え,ある連
結画素が他の複数の連結画素と同程度の確率を持つ場合
には,それを各々と統合したときの認識確信度を求め,
確信度の高いほうに統合して文字認識を行う。認識確信
度は,照合対象の標準パターンと入力パターンのマッチ
ングの距離等から求められる。
The character recognizing section 9 is means for recognizing the character cut out by the character cutting section 8. Character recognition unit 9
Considers the pixel density value as the integration probability between connected pixels, and if a certain connected pixel has the same probability as other connected pixels, finds the recognition certainty when integrating each of them.
Perform character recognition by integrating with the higher confidence factor. The recognition certainty factor is obtained from the matching distance between the standard pattern to be matched and the input pattern.

【0016】本発明は,以下のように作用する。本発明
では,原画像に対して,パラメータ値を変えた複数種類
のフィルタリングを施し,フィルタリングされた画像か
らその画素の濃度値に基づいて文字列を抽出し,文字の
切り出しを行う。複数のフィルタリング結果の画素濃度
情報に基づいて文字列の抽出および文字の切り出しを行
うので,比較的高速に安定した良好な結果を得ることが
できる。
The present invention operates as follows. In the present invention, a plurality of types of filtering with different parameter values are performed on an original image, a character string is extracted from the filtered image based on the density value of the pixel, and characters are cut out. Since character strings are extracted and characters are cut out based on pixel density information of a plurality of filtering results, stable and good results can be obtained at relatively high speed.

【0017】具体的には,ラベリング部5のラベリング
処理により求まるラベル外接矩形のヒストグラムを算出
して平均文字サイズを推定する。次に,フィルタリング
部3は,この平均文字サイズの定数倍をフィルタサイズ
とし,さらにフィルタサイズよりフィルタ構成パラメー
タを決定する。続いて,そのフィルタ構成パラメータを
変えたフィルタのそれぞれについて,フィルタリング画
像を生成し,フィルタリング画像格納部4へ記憶する。
More specifically, an average character size is estimated by calculating a histogram of a label circumscribing rectangle obtained by the labeling process of the labeling unit 5. Next, the filtering unit 3 uses a constant multiple of the average character size as a filter size, and further determines a filter configuration parameter from the filter size. Subsequently, a filtering image is generated for each of the filters whose filter configuration parameters have been changed, and stored in the filtering image storage unit 4.

【0018】文字列抽出部7は,フィルタリング画像中
から同一濃度値内の領域を文字列として抽出し,また
は,高い濃度値の閉曲線の集合から文字列の軸を算出し
てその軸からある閾値内にある連結画素を集めて同一文
字列に属するものとし,さらに文字列の方向を算出す
る。
The character string extraction unit 7 extracts a region within the same density value from the filtered image as a character string, or calculates an axis of the character string from a set of closed curves having high density values, and calculates a certain threshold value from the axis. Then, the connected pixels within are set to belong to the same character string, and the direction of the character string is calculated.

【0019】文字切り出し部8は,文字列方向と画素濃
度情報をもとに,文字列を抽出したときよりも高い同一
濃度値内の領域を1文字として抽出する。あるいは濃度
値を連結画素間の統合確率と捉え,確率の高い連結画素
の組み合わせごとに文字認識部9により認識処理を施
し,最も高い認識確信度を示した連結画素の組み合わせ
を1文字として切り出す。
The character cutout unit 8 extracts, as one character, an area having the same density value higher than that when the character string is extracted, based on the character string direction and the pixel density information. Alternatively, the density value is regarded as the integration probability between the connected pixels, and a recognition process is performed by the character recognition unit 9 for each combination of the connected pixels having a high probability, and the combination of the connected pixels showing the highest recognition certainty is cut out as one character.

【0020】文字認識部9は,この文字切り出し部8で
切り出された文字を認識する。
The character recognizing section 9 recognizes the character cut out by the character cutting section 8.

【0021】[0021]

【発明の実施の形態】以下,本発明の実施の形態につい
て説明する。 (1)ラベリング処理 ラベリング部5は,入力された文書画像の連結した黒画
素の領域をみつけて,同一の符号を付すラベリング処理
を行う。ラベリング処理された画像はラベリング画像格
納部6へ可能される。
Embodiments of the present invention will be described below. (1) Labeling Processing The labeling unit 5 finds a connected black pixel area of the input document image and performs a labeling processing for assigning the same code. The image subjected to the labeling process is stored in the labeling image storage 6.

【0022】(2)フィルタリング処理 フィルタとしては,例えばガウシアンフィルタを用い
る。σを標準偏差とするとガウシアンフィルタは次のよ
うに定義される。
(2) Filtering process As the filter, for example, a Gaussian filter is used. When σ is the standard deviation, the Gaussian filter is defined as follows.

【0023】[0023]

【数1】 (Equation 1)

【0024】画像をフィルタリングする際には,フィル
タサイズ(例えば3×3,5×5など)とσの値をいく
つか変えて行う。ここで,一般にガウシアンフィルタの
構成は等方的であるが,特定の方向に重みを付けたフィ
ルタを用いることにより,分離した文字要素からなる文
字(分離文字)の統合を容易にすることができる。例え
ば,横書きで書かれた文字列の場合には,「三」や
「シ」のような縦方向に分離した文字を統合しやすくす
るために,縦方向に重み付けしたガウシアンフィルタを
構成することが考えられる。具体的には,(式1)の
「x2 」の部分を「2x2 」とすれば,横方向に比べて
縦方向を重み付けしたフィルタが得られる。
When filtering an image, the filter size (for example, 3.times.3, 5.times.5, etc.) and the value of .sigma. Here, generally, the configuration of the Gaussian filter is isotropic, but by using a filter weighted in a specific direction, it is possible to easily integrate characters (separated characters) composed of separated character elements. . For example, in the case of a character string written in horizontal writing, a Gaussian filter weighted in the vertical direction can be configured to make it easier to integrate vertically separated characters such as "three" and "shi". Conceivable. Specifically, if the “x 2 ” portion of (Equation 1) is “2x 2 ”, a filter in which the vertical direction is weighted more than the horizontal direction can be obtained.

【0025】図2は,フィルタリング部の処理フローチ
ャートである。ステップS11では,ラベリング画像格
納部6に格納された各ラベルに外接する矩形の高さ,幅
に関して,ヒストグラムの値を取得する。
FIG. 2 is a processing flowchart of the filtering unit. In step S11, a histogram value is acquired for the height and width of a rectangle circumscribing each label stored in the labeling image storage unit 6.

【0026】ステップS12では,取得したヒストグラ
ムをもとにフィルタサイズを決定する。文書画像の場合
には,文字サイズ近傍の値が最も頻度が高くなるので,
その最頻値,または頻度が高い領域近傍の平均値などか
ら文字サイズを概算し,その定数倍をフィルタサイズと
する。これにより,文字の大きさに応じたフィルタサイ
ズを自動的に設定することができる。
In step S12, a filter size is determined based on the obtained histogram. In the case of a document image, the value near the character size has the highest frequency.
The character size is roughly estimated from the mode value or the average value in the vicinity of a frequently-used area, and a constant multiple thereof is set as a filter size. Thus, the filter size according to the character size can be automatically set.

【0027】ステップS13では,決定したフィルタサ
イズをもとに複数種類のフィルタ構成パラメータを決定
する。フィルタ構成パラメータ(σ)は,ガウシアンフ
ィルタを用いる場合には,「6σ<フィルタサイズ」の
条件を満たすように算出する。
In step S13, a plurality of types of filter configuration parameters are determined based on the determined filter size. When a Gaussian filter is used, the filter configuration parameter (σ) is calculated so as to satisfy the condition of “6σ <filter size”.

【0028】図3は,フィルタ構成パラメータの例を示
す図である。図3(A)は,フィルタサイズ=7,σ=
3の場合のパラメータ値,図3(B)は,フィルタサイ
ズ=3,σ=1の場合のパラメータ値を示している。こ
の例は等方的であるが,縦方向または横方向などの特定
方向に重み付けをしたパラメータ値を用いることも有効
である。
FIG. 3 is a diagram showing an example of filter configuration parameters. FIG. 3A shows that filter size = 7, σ =
3 shows parameter values in the case of filter size 3, and FIG. 3B shows parameter values in the case of filter size = 3, σ = 1. Although this example is isotropic, it is also effective to use parameter values weighted in a specific direction such as a vertical direction or a horizontal direction.

【0029】ステップS14では,フィルタリングを行
う。ステップS12およびS13の処理で求めたフィル
タ構成パラメータを用いてフィルタリングを行うことに
より,複数種類のフィルタリング画像を得て,フィルタ
リング画像格納部4に格納する。
In step S14, filtering is performed. By performing filtering using the filter configuration parameters obtained in the processes of steps S12 and S13, a plurality of types of filtered images are obtained and stored in the filtered image storage unit 4.

【0030】(3)文字列抽出処理 フィルタリング画像に対し,ある一定濃度値をとる画素
をたどると,それはいわば濃度の等高線であり,閉曲線
を構成する。文字列の場合には,文字の並びの方向に長
い閉曲線となる。そこで,フィルタ構成パラメータ
(σ)の大きいフィルタを用いて処理した画像につい
て,ある低い濃度値の閉曲線から順にみていき,文字の
並びの垂直方向の高さが,文字サイズとほぼ同じ大きさ
になる閉曲線を見つける。そして,その閉曲線内に含ま
れる文字群を1つの文字列とすることで文字列を抽出す
る。
(3) Character string extraction processing When a pixel having a certain density value is traced from the filtered image, it is a so-called contour line of density and forms a closed curve. In the case of a character string, the closed curve is long in the direction of the character arrangement. Therefore, for an image processed using a filter having a large filter configuration parameter (σ), the closed curve having a certain low density value is sequentially examined, and the vertical height of the character arrangement becomes substantially the same as the character size. Find the closed curve. Then, a character string is extracted by forming a character group included in the closed curve into one character string.

【0031】図4は,文字列抽出部の処理フローチャー
ト(1)を示す図である。ステップS21では,文字列
抽出部7は,フィルタリング画像の最小濃度値をセット
する。
FIG. 4 is a diagram showing a processing flowchart (1) of the character string extracting unit. In step S21, the character string extraction unit 7 sets the minimum density value of the filtered image.

【0032】ステップS22では,濃度値を少し高く設
定する。ステップS23では,その濃度値をとる画素を
たどり,同じ濃度値の閉曲線を抽出する。
In step S22, the density value is set slightly higher. In step S23, the pixel having the density value is traced, and a closed curve having the same density value is extracted.

【0033】ステップS24では,抽出した閉曲線の最
大長さ方向に垂直な方向の高さが文字サイズと等しいか
どうかを判定する。閉曲線の最大長さ方向に垂直な方向
の高さが文字サイズとほぼ等しい場合にはステップS2
5の処理へ進み,そうでない場合にはステップS22の
処理へ戻り,閉曲線の最大長さ方向に垂直な方向の高さ
が文字サイズと等しくなるまで処理を繰り返す。
In step S24, it is determined whether the height of the extracted closed curve in the direction perpendicular to the maximum length direction is equal to the character size. If the height of the closed curve in the direction perpendicular to the maximum length direction is substantially equal to the character size, step S2
If not, the process returns to step S22, and the process is repeated until the height of the closed curve in the direction perpendicular to the maximum length direction becomes equal to the character size.

【0034】別の文字列抽出方法としては,濃度値の高
い閉曲線に着目する方法もある。濃度値の高い閉曲線に
着目すると,大体1文字ごとに濃度値の高い閉曲線が得
られる。それらの閉曲線は近接して,ある方向,すなわ
ち文字列方向を示す。そこで,それらの閉曲線を通る直
線を文字列軸として,例えば最小2乗法を用いて文字列
軸の直線を算出し,その文字列軸近傍の文字を抽出し
て,それらを1つの文字列とみなす。
As another character string extraction method, there is a method that focuses on a closed curve having a high density value. Focusing on a closed curve having a high density value, a closed curve having a high density value is obtained for each character. These closed curves are close to each other and indicate a certain direction, that is, a character string direction. Therefore, using a straight line passing through these closed curves as a character string axis, a straight line on the character string axis is calculated using, for example, the least squares method, and characters near the character string axis are extracted and regarded as one character string. .

【0035】図5は,この第2の方法による文字列抽出
部の処理フローチャート(2)を示す図である。ステッ
プS31では,文字列抽出部7は,フィルタリング画像
から濃度値の高い閉曲線を抽出する。
FIG. 5 is a diagram showing a processing flowchart (2) of the character string extracting unit according to the second method. In step S31, the character string extraction unit 7 extracts a closed curve having a high density value from the filtered image.

【0036】ステップS32では,それぞれの閉曲線の
中心位置を算出する。ステップS33では,中心位置を
最もよく通る直線を,最小2乗法などにより算出する。
In step S32, the center position of each closed curve is calculated. In step S33, a straight line that best passes through the center position is calculated by the least square method or the like.

【0037】ステップS34では,直線との距離が閾値
以内の連結画素を抽出する。ステップS35では,それ
らを1つの文字列とみなす。 (4)文字列方向算出処理 文字列抽出部7は,さらに抽出した文字列の文字列方向
を算出する。
In step S34, connected pixels whose distance from the straight line is within a threshold value are extracted. In step S35, they are regarded as one character string. (4) Character string direction calculation processing The character string extraction unit 7 further calculates the character string direction of the extracted character string.

【0038】文字列方向を算出する方法としては,図6
に示すように,例えば閉曲線内で最も長くなる線分を見
つけて,その線分の方向を文字列方向とする方法があ
る。また,別の方法として,図7に示すように,閉曲線
のモーメントを用いる方法がある。モーメントを用いる
場合は,以下のようになる。(p+q)次の重心回りの
モーメントを次のように表す。
FIG. 6 shows a method of calculating the character string direction.
As shown in (1), for example, there is a method of finding the longest line segment in a closed curve and setting the direction of the line segment as the character string direction. As another method, there is a method using a moment of a closed curve as shown in FIG. When using the moment, it is as follows. The (p + q) next moment about the center of gravity is expressed as follows.

【0039】[0039]

【数2】 (Equation 2)

【0040】ここで,閉曲線の座標をf(x,y),そ
の重心座標を(xg ,yg )とする。このときx軸と閉
曲線のなす角θは,
Here, it is assumed that the coordinates of the closed curve are f (x, y) and the coordinates of the center of gravity are (x g , y g ). At this time, the angle θ between the x-axis and the closed curve is

【0041】[0041]

【数3】 (Equation 3)

【0042】として表されるので,θを文字列方向とす
る。 (5)文字切り出し処理および文字認識処理 文字列内の文字並びが粗な場合には,フィルタリング画
像について,ある濃度値内の連結画素すべてを1文字を
構成する画素とみなして,それらを1文字として切り出
し,文字認識を行う。このとき,縦方向に重み付けした
フィルタを用いたフィルタリング画像を対象とすれば,
隣接する文字間の閉曲線が接触する割合が減少し,文字
切り出し,文字認識が容易となる。
Θ is the character string direction. (5) Character cutout processing and character recognition processing When the character arrangement in a character string is coarse, all connected pixels within a certain density value are regarded as pixels constituting one character in the filtered image, and they are regarded as one character. And perform character recognition. At this time, if the target is a filtered image using a filter weighted in the vertical direction,
The ratio of contact between the closed curves between adjacent characters is reduced, and character extraction and character recognition are facilitated.

【0043】また,文字列内の文字並びが粗でない場
合,画素濃度値を連結画素間の統合確率と捉え,確率の
高い連結画素の組み合わせごとに認識処理を施す。ある
連結画素が他の複数の連結画素と同程度の確率を持つ場
合には,それを各々と統合したときの認識確信度を求
め,確信度の高いほうに統合する。
When the character arrangement in the character string is not coarse, the pixel density value is regarded as the integration probability between connected pixels, and recognition processing is performed for each combination of connected pixels having a high probability. When a certain connected pixel has the same probability as that of a plurality of other connected pixels, the recognition certainty when integrating each of the connected pixels is obtained, and the recognition certainty is integrated to the higher certainty.

【0044】[0044]

【実施例】図8および図9は,本発明の実施例における
画像のフィルタリング結果を示す図である。
FIG. 8 and FIG. 9 are diagrams showing image filtering results in an embodiment of the present invention.

【0045】図8は,印刷文字の文書画像に対して,フ
ィルタ構成パラメータ(σ)を変えてフィルタリングを
行ったフィルタリング画像の例を示している。図8
(A)はσ=5の場合,図8(B)はσ=20の場合,
図8(C)はσ=60の場合のガウシアンフィルタによ
るフィルタリング画像を示す。この例では,図8(B)
のσ=20のフィルタリング画像を用いて文字列の方向
および文字列を抽出している。
FIG. 8 shows an example of a filtered image obtained by filtering a document image of a print character by changing the filter configuration parameter (σ). FIG.
(A) when σ = 5, FIG. 8 (B) when σ = 20,
FIG. 8C shows a filtered image by the Gaussian filter when σ = 60. In this example, FIG.
The character string direction and the character string are extracted using the filtered image of σ = 20.

【0046】図9は,手書き文字の文書画像に対して,
フィルタ構成パラメータ(σ)を変えてフィルタリング
を行った結果を示す。図9では,画素濃度値の濃淡が分
かりやすいように,画素濃度値の等高線に沿って縞模様
で表している。縞模様で表される領域の中央部に近いほ
うが画素濃度値が高い。
FIG. 9 shows an example of a document image of handwritten characters.
The result of performing filtering by changing the filter configuration parameter (σ) is shown. In FIG. 9, the pixel density value is represented by a stripe pattern along the contour line of the pixel density value so that the shading of the pixel density value can be easily understood. The pixel density value is higher near the center of the region represented by the stripe pattern.

【0047】図9(A)は,入力手書き文字の例を示
し,図9(B)はσ=3の場合,図9(C)はσ=6の
場合,図9(D)はσ=9の場合,図9(E)はσ=1
5の場合,図9(F)はσ=21の場合のガウシアンフ
ィルタによるフィルタリング画像を示している。
FIG. 9A shows an example of an input handwritten character. FIG. 9B shows a case where σ = 3, FIG. 9C shows a case where σ = 6, and FIG. In the case of No. 9, FIG.
In the case of 5, FIG. 9 (F) shows a filtered image by the Gaussian filter when σ = 21.

【0048】図9(F)に示すσ=21のフィルタリン
グ画像の最小濃度値内で文字列が1つの閉曲線内に含ま
れている。また,図9(D)に示すσ=9のフィルタリ
ング画像において,最小濃度値内で1つの閉曲線が1文
字にほぼ対応している。したがって,σ=21のフィル
タリング画像の最小濃度値内で文字列の方向と文字列を
抽出し,σ=9のフィルタリング画像の最小濃度値で各
文字を切り出すことができる。
The character string is included in one closed curve within the minimum density value of the filtered image of σ = 21 shown in FIG. 9 (F). In the filtered image of σ = 9 shown in FIG. 9D, one closed curve substantially corresponds to one character within the minimum density value. Therefore, the direction of the character string and the character string can be extracted within the minimum density value of the filtered image of σ = 21, and each character can be cut out with the minimum density value of the filtered image of σ = 9.

【0049】[0049]

【発明の効果】以上説明したように,本発明によれば以
下のような効果を奏する。 1.請求項1記載の発明では,複数種類のフィルタリン
グ画像の画素濃度情報をもとに文字列を抽出するので,
比較的簡単な処理により文書の傾きに依存せずに文字列
を抽出することが可能である。フィルタ構成パラメータ
の決定に際しては,その値が自動的に決定されるため,
人間が経験的に値を決定する必要がない。また,「ハ」
「ツ」「テ」などの分離文字も,文字列が密でなければ
自動的に1文字として切り出されてくる。
As described above, according to the present invention, the following effects can be obtained. 1. According to the first aspect of the present invention, a character string is extracted based on pixel density information of a plurality of types of filtered images.
With a relatively simple process, it is possible to extract a character string without depending on the inclination of the document. When the filter configuration parameters are determined, their values are determined automatically.
There is no need for humans to determine the value empirically. Also, "c"
Separated characters such as "tsu" and "te" are automatically cut out as one character unless the character string is dense.

【0050】2.請求項2記載のものでは,フィルタ構
成パラメータを変えた画像を同時に得ておくことによ
り,文字列抽出から文字切り出しまでを同一手法で行う
ことができ,処理の簡素化が可能となる。
2. According to the second aspect of the present invention, by simultaneously obtaining images in which the filter configuration parameters are changed, the process from character string extraction to character segmentation can be performed by the same method, and the processing can be simplified.

【0051】3.請求項3記載のものでは,特定の方向
に重み付けしたフィルタを用いることにより,隣接文字
同士の誤統合を防ぎ,文字の切り出しを正確に行うこと
が可能となる。
3. According to the third aspect, by using a filter weighted in a specific direction, it is possible to prevent erroneous integration between adjacent characters and to accurately extract characters.

【0052】4.請求項4記載のものでは,ラベル外接
矩形のヒストグラムからフィルタサイズを自動的に算出
することにより,あらかじめサイズの閾値を決めておく
必要がなく,さらに様々な文字サイズの文字データに対
応することができる。
4. According to the fourth aspect, by automatically calculating the filter size from the histogram of the label circumscribed rectangle, it is not necessary to determine a size threshold value in advance, and it is possible to cope with character data of various character sizes. it can.

【0053】5.請求項5記載のものでは,フィルタ構
成パラメータを変える際に,前記のフィルタサイズから
自動的に算出することにより,あらかじめパラメータ値
を設定しておく必要がない。
5. According to the fifth aspect, it is not necessary to set parameter values in advance by automatically calculating from the filter size when changing the filter configuration parameter.

【0054】6.請求項6記載のものでは,フィルタ構
成パラメータを変える際に,文字列内の文字ピッチから
自動的に算出することにより,あらかじめパラメータ値
を設定しておく必要がない。
6. According to the sixth aspect, it is not necessary to set parameter values in advance by automatically calculating from the character pitch in the character string when changing the filter configuration parameter.

【0055】7.請求項7記載のものでは,ある濃度値
の閉曲線内に含まれるものを文字列とすることにより,
文字列の抽出にあたって連結画素間の位置関係を細かく
計算する必要がない。
7. According to the seventh aspect, by using a character string to be included in a closed curve of a certain density value,
In extracting a character string, there is no need to finely calculate the positional relationship between connected pixels.

【0056】8.請求項8記載のものでは,小さい連結
画素はフィルタリングにより消失して,大きい連結画素
だけが濃度値の高い閉曲線を構成するようになることに
より,ノイズなどに影響されずに正しく文字列を抽出す
ることが可能である。
8. According to the eighth aspect, a small connected pixel disappears by filtering, and only a large connected pixel forms a closed curve having a high density value, so that a character string is correctly extracted without being affected by noise or the like. It is possible.

【0057】9.請求項9記載のものでは,閉曲線内の
線分を求める処理が簡単なことにより,文字列の方向を
素早くみつけることが可能である。 10.請求項10記載のものでは,閉曲線のモーメント
を用いることにより,文字列の方向を正確に算出するこ
とが可能となる。
9. According to the ninth aspect, the process of obtaining the line segment in the closed curve is simple, so that the direction of the character string can be quickly found. 10. According to the tenth aspect, the direction of the character string can be accurately calculated by using the moment of the closed curve.

【0058】11.白黒(2値)画像では,ある連結画
素が,文字の中心部から遠いのか近いのかを判定するの
が困難であるが,請求項11記載のものでは,フィルタ
リングに基づく画素濃度情報を用いることにより,ある
連結画素が,文字の中心部から遠いのか近いのかがわか
り,さらに濃度値を統合の確信度としてとらえることが
でき,連結画素間の統合関係の把握が容易となる。
11. In a black-and-white (binary) image, it is difficult to determine whether a certain connected pixel is far from or close to the center of the character, but in the case of claim 11, the pixel density information based on filtering is used. , It is possible to determine whether a certain connected pixel is far from or close to the center of the character, and furthermore, it is possible to grasp the density value as the certainty of integration, and it is easy to grasp the integration relationship between the connected pixels.

【0059】12.請求項12記載のものでは,文字列
が粗な場合,分離文字の各要素,例えば「ソ」の左部分
と右部分などはある濃度値の閉曲線内に含まれる。これ
により,連結画素間の統合条件を定める必要がなく,文
字種,文字サイズに依存しない文字切り出し処理を自動
的に行うことが可能となる。
12. According to the twelfth aspect, when the character string is coarse, each element of the separation character, for example, the left part and the right part of “S” are included in a closed curve of a certain density value. As a result, it is not necessary to determine the integration condition between the connected pixels, and it is possible to automatically perform the character cutout processing independent of the character type and the character size.

【0060】13.請求項13記載のものでは,濃度値
をそのまま連結画素間の統合確率とみなすことにより,
確率計算を容易に行うことができる。また,統合確率に
基づいて認識処理を併用した文字切り出しを行うことに
より,正しく文字切り出しを行うことが可能となる。
13. According to the thirteenth aspect, by regarding the density value as it is as the integration probability between connected pixels,
Probability calculation can be easily performed. In addition, by performing character segmentation using recognition processing based on the integration probability, character segmentation can be performed correctly.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の構成例を示す図である。FIG. 1 is a diagram showing a configuration example of the present invention.

【図2】フィルタリング部の処理フローチャートであ
る。
FIG. 2 is a processing flowchart of a filtering unit.

【図3】フィルタ構成パラメータの例を示す図である。FIG. 3 is a diagram illustrating an example of filter configuration parameters.

【図4】文字列抽出部の処理フローチャート(1)であ
る。
FIG. 4 is a processing flowchart (1) of a character string extracting unit.

【図5】文字列抽出部の処理フローチャート(2)であ
る。
FIG. 5 is a processing flowchart (2) of a character string extraction unit.

【図6】文字列方向抽出方法の例を示す図である。FIG. 6 is a diagram illustrating an example of a character string direction extraction method.

【図7】文字列方向抽出方法の例を示す図である。FIG. 7 is a diagram illustrating an example of a character string direction extraction method.

【図8】印刷文字の文書画像に対する複数種類のパラメ
ータによるフィルタリング画像の例を示す図である。
FIG. 8 is a diagram illustrating an example of a filtering image based on a plurality of types of parameters for a document image of a print character.

【図9】手書き文字の文書画像に対する複数種類のパラ
メータによるフィルタリング画像の例を示す図である。
FIG. 9 is a diagram illustrating an example of a filtering image of a document image of a handwritten character using a plurality of types of parameters.

【図10】従来の技術を説明する図である。FIG. 10 is a diagram illustrating a conventional technique.

【符号の説明】[Explanation of symbols]

1 イメージ受信部 2 イメージ格納部 3 フィルタリング部 4 フィルタリング画像格納部 5 ラベリング部 6 ラベリング画像格納部 7 文字列抽出部 8 文字切り出し部 9 文字認識部 DESCRIPTION OF SYMBOLS 1 Image reception part 2 Image storage part 3 Filtering part 4 Filtered image storage part 5 Labeling part 6 Labeling image storage part 7 Character string extraction part 8 Character extraction part 9 Character recognition part

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】 イメージデータとして入力された画像デ
ータから文字を認識する文字認識装置であって,入力画
像に複数種類のフィルタリングを行うフィルタリング手
段と,前記フィルタリング手段によりフィルタリングさ
れた画像の画素濃度情報をもとに文字列を抽出する文字
列抽出手段と,前記文字列抽出手段により抽出された文
字列中から文字を切り出し,認識する文字切り出し・認
識手段とを備えることを特徴とする文字認識装置。
1. A character recognition apparatus for recognizing characters from image data input as image data, comprising: filtering means for performing a plurality of types of filtering on an input image; and pixel density information of the image filtered by the filtering means. A character string extracting means for extracting a character string based on the character string; and a character extracting / recognizing means for extracting and recognizing a character from the character string extracted by the character string extracting means. .
【請求項2】 請求項1記載の文字認識装置において,
前記フィルタリング手段は,フィルタの構成パラメータ
を変えてフィルタリングを行うことにより複数種類のフ
ィルタリング画像を得ることを特徴とする文字認識装
置。
2. The character recognition device according to claim 1, wherein
The character recognition apparatus according to claim 1, wherein the filtering unit obtains a plurality of types of filtered images by performing filtering while changing a configuration parameter of the filter.
【請求項3】 請求項1記載の文字認識装置において,
前記フィルタリング手段は,特定の方向に重み付けした
フィルタを用いてフィルタリングを行うことを特徴とす
る文字認識装置。
3. The character recognition device according to claim 1, wherein
The character recognition device according to claim 1, wherein the filtering unit performs the filtering using a filter weighted in a specific direction.
【請求項4】 請求項1記載の文字認識装置において,
前記フィルタリング手段は,原画像に対してラベリング
処理を施した結果から得た各ラベルに外接する矩形のサ
イズヒストグラムをもとに,その頻度分布より定まる値
の定数倍をフィルタサイズとすることを特徴とする文字
認識装置。
4. The character recognition device according to claim 1, wherein
The filtering means sets a filter size to a constant multiple of a value determined from a frequency distribution based on a size histogram of a rectangle circumscribing each label obtained from a result of performing a labeling process on an original image. Character recognition device.
【請求項5】 請求項2記載の文字認識装置において,
前記フィルタリング手段は,フィルタ構成パラメータを
変える際に,原画像に対してラベリング処理を施した結
果から得た各ラベルに外接する矩形のサイズヒストグラ
ムをもとに,その頻度分布より定まる値の定数倍をフィ
ルタ構成パラメータとすることを特徴とする文字認識装
置。
5. The character recognition device according to claim 2, wherein
The filtering means, when changing the filter configuration parameters, is based on a size histogram of a rectangle circumscribing each label obtained from the result of performing the labeling process on the original image, by a constant multiple of a value determined from the frequency distribution. Is a filter configuration parameter.
【請求項6】 請求項2記載の文字認識装置において,
前記フィルタリング手段は,フィルタ構成パラメータを
変える際に,原画像に対してラベリング処理を施した結
果から得た各ラベルに外接する矩形のピッチヒストグラ
ムをもとに,その頻度分布より定まる値の定数倍をフィ
ルタ構成パラメータとすることを特徴とする文字認識装
置。
6. The character recognition device according to claim 2, wherein
The filtering means uses a constant multiple of a value determined from a frequency distribution based on a pitch histogram of a rectangle circumscribing each label obtained from a result of performing a labeling process on an original image when changing a filter configuration parameter. Is a filter configuration parameter.
【請求項7】 請求項1記載の文字認識装置において,
前記文字列抽出手段は,前記フィルタリング画像の中か
ら,ある濃度値内に含まれるものを文字列として抽出す
ることを特徴とする文字認識装置。
7. The character recognition device according to claim 1, wherein
The character recognition device according to claim 1, wherein the character string extracting means extracts a character string contained in a certain density value from the filtering image.
【請求項8】 請求項1記載の文字認識装置において,
前記文字列抽出手段は,前記フィルタリング画像中の濃
度値の高い閉曲線の集合から文字列の軸を算出し,その
軸からある閾値内に存在する連結画素を集めて同一文字
列に属するものを定めることを特徴とする文字認識装
置。
8. The character recognition device according to claim 1, wherein
The character string extracting means calculates an axis of the character string from a set of closed curves having a high density value in the filtering image, and collects connected pixels within a certain threshold from the axis to determine those belonging to the same character string. A character recognition device characterized in that:
【請求項9】 請求項1記載の文字認識装置において,
前記文字列抽出手段は,文字列の方向を算出する際に,
ある画素濃度値の閉曲線内で最大長さを持つ線分を求
め,その線分の方向を文字列の方向とすることを特徴と
する文字認識装置。
9. The character recognition device according to claim 1, wherein
The character string extracting means, when calculating the direction of the character string,
A character recognition apparatus comprising: obtaining a line segment having a maximum length within a closed curve having a certain pixel density value; and setting the direction of the line segment as the direction of a character string.
【請求項10】 請求項1記載の文字認識装置におい
て,前記文字列抽出手段は,文字列の方向を算出する際
に,ある濃度値の閉曲線のモーメントを算出し,そのモ
ーメントから求まる方向を文字列の方向とすることを特
徴とする文字認識装置。
10. The character recognition apparatus according to claim 1, wherein the character string extracting means calculates a moment of a closed curve of a certain density value when calculating the direction of the character string, and determines a direction obtained from the moment as a character. A character recognition device characterized by the direction of a column.
【請求項11】 請求項1記載の文字認識装置におい
て,前記文字切り出し・認識手段は,前記文字列抽出手
段により抽出された文字列の方向と,前記フィルタリン
グ画像の画素濃度情報をもとに文字を切り出すことを特
徴とする文字認識装置。
11. The character recognition device according to claim 1, wherein the character cutout / recognition means performs a character extraction based on a direction of the character string extracted by the character string extraction means and pixel density information of the filtering image. A character recognition device characterized by cutting out characters.
【請求項12】 請求項11記載の文字認識装置におい
て,前記文字切り出し・認識手段は,前記フィルタリン
グ画像におけるある画素濃度値内の画像を1文字として
切り出すことを特徴とする文字認識装置。
12. The character recognition device according to claim 11, wherein the character cutout / recognition unit cuts out an image within a certain pixel density value in the filtered image as one character.
【請求項13】 請求項1記載の文字認識装置におい
て,前記文字切り出し・認識手段は,画素濃度値を連結
画素間の統合確率と捉え,ある連結画素が他の複数の連
結画素と同程度の確率を持つ場合には,それを各々と統
合したときの認識確信度を求め,確信度の高いほうに統
合することを特徴とする文字認識装置。
13. The character recognition device according to claim 1, wherein the character segmentation / recognition unit regards the pixel density value as an integration probability between connected pixels, and determines that one connected pixel has a similar degree to another plurality of connected pixels. A character recognition device characterized in that when there is a probability, a recognition certainty when each is integrated with each other is obtained and integrated into a higher certainty.
JP9066146A 1997-03-19 1997-03-19 Character recognition device Withdrawn JPH10261047A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9066146A JPH10261047A (en) 1997-03-19 1997-03-19 Character recognition device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9066146A JPH10261047A (en) 1997-03-19 1997-03-19 Character recognition device

Publications (1)

Publication Number Publication Date
JPH10261047A true JPH10261047A (en) 1998-09-29

Family

ID=13307444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9066146A Withdrawn JPH10261047A (en) 1997-03-19 1997-03-19 Character recognition device

Country Status (1)

Country Link
JP (1) JPH10261047A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009098777A (en) * 2007-10-15 2009-05-07 Fuji Xerox Co Ltd Data processor and data processing program
US8213748B2 (en) 2008-02-26 2012-07-03 Fuji Xerox Co., Ltd. Generating an electronic document with reference to allocated font corresponding to character identifier from an image
US8411955B2 (en) 2007-02-21 2013-04-02 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method and computer-readable medium
JP2013257866A (en) * 2012-06-12 2013-12-26 Xerox Corp Discovery of text in natural scenery
JP2021061018A (en) * 2017-12-06 2021-04-15 コグネックス・コーポレイション Local tone mapping for symbol reading

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8411955B2 (en) 2007-02-21 2013-04-02 Fuji Xerox Co., Ltd. Image processing apparatus, image processing method and computer-readable medium
JP2009098777A (en) * 2007-10-15 2009-05-07 Fuji Xerox Co Ltd Data processor and data processing program
US8213748B2 (en) 2008-02-26 2012-07-03 Fuji Xerox Co., Ltd. Generating an electronic document with reference to allocated font corresponding to character identifier from an image
JP2013257866A (en) * 2012-06-12 2013-12-26 Xerox Corp Discovery of text in natural scenery
JP2021061018A (en) * 2017-12-06 2021-04-15 コグネックス・コーポレイション Local tone mapping for symbol reading

Similar Documents

Publication Publication Date Title
Llorens et al. Car license plates extraction and recognition based on connected components analysis and HMM decoding
CN108985305B (en) Laser etching industrial detonator coded image positioning and correcting method
EP2783328A1 (en) Text detection using multi-layer connected components with histograms
JPH096957A (en) Binarization method for density image and image binarization device
JPH0737103A (en) Inclination angle detection device
CN112580447B (en) Edge second-order statistics and fusion-based power line detection method
CN107368826B (en) Method and apparatus for text detection
WO2013121647A1 (en) Character-extraction method and character-recognition device and program using said method
Çavdaroğlu et al. A character segmentation method to increase character recognition accuracy for Turkish number plates
JPH06215293A (en) Device for recognizing vehicle number
US20070104376A1 (en) Apparatus and method of recognizing characters contained in image
Valy et al. Line segmentation for grayscale text images of khmer palm leaf manuscripts
JPH09311905A (en) Line detecting method and character recognition device
Rastegar et al. An intelligent control system using an efficient License Plate Location and Recognition Approach
JPH10261047A (en) Character recognition device
He et al. Segmentation of characters on car license plates
JP2006155126A (en) Vehicle number recognition device
JP2898562B2 (en) License plate determination method
JP4264332B2 (en) Character recognition device, license plate recognition system
JP2868134B2 (en) Image processing method and apparatus
JP2872768B2 (en) Character extraction device
JP2005250786A (en) Image recognition method
Winger et al. Low-complexity character extraction in low-contrast scene images
JP2000357287A (en) Method and device for number plate recognition
CN111241862A (en) Bar code positioning method based on edge characteristics

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20040601