JP2917427B2 - Drawing reader - Google Patents

Drawing reader

Info

Publication number
JP2917427B2
JP2917427B2 JP2156070A JP15607090A JP2917427B2 JP 2917427 B2 JP2917427 B2 JP 2917427B2 JP 2156070 A JP2156070 A JP 2156070A JP 15607090 A JP15607090 A JP 15607090A JP 2917427 B2 JP2917427 B2 JP 2917427B2
Authority
JP
Japan
Prior art keywords
character
candidate
character string
contour
width
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2156070A
Other languages
Japanese (ja)
Other versions
JPH0452783A (en
Inventor
知幸 栗田
仁 古郡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Original Assignee
Meidensha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp filed Critical Meidensha Corp
Priority to JP2156070A priority Critical patent/JP2917427B2/en
Publication of JPH0452783A publication Critical patent/JPH0452783A/en
Application granted granted Critical
Publication of JP2917427B2 publication Critical patent/JP2917427B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 A.産業上の利用分野 本発明は文字、線分、シンボル等が混在する書類や図
面から、文字データを検出してその文字の認識を行う図
面読取装置に関する。
Description: BACKGROUND OF THE INVENTION A. Field of the Invention The present invention relates to a drawing reading apparatus for detecting character data from a document or drawing in which characters, line segments, symbols, etc. are mixed, and recognizing the characters.

B.発明の概要 本発明は文字、線分、シンボルが混在する書類や図面
等の被写体をラスタスキャンして得られた黒白に対応す
る2値化画素データから文字データを抽出し、その文字
の認識を行う図面読取装置において、 前記2値化画素データについて輪郭ベクトル化処理を
施す輪郭ベクトル化処理部と、文字候補の外接四角形デ
ータをツリー構造で登録する登録部と、該登録された文
字候補から文字列候補を抽出する文字列候補抽出部と、
該文字列候補から文字列を抽出する文字列抽出部と、前
記抽出された文字列内の文字候補と英数文字、記号の辞
書の文字との近似度合を表す評価値を求め、該評価値と
予め設定した評価値の最大値(しきい値)とを比較する
ことによって文字列の種類を判定する機能を有した文字
切り出し部とを設けたことにより、 文字、線分、シンボルが混在する書類や図面から文字
を読み取って認識する場合、漢字と英数文字、記号とを
誤って認識することを防止するとともに、文字切り出し
の誤りを防止し、いかなる大きさ、書式の文字であって
も容易に且つ極めて正確に読み取ることができるように
し、且つ処理の簡単化を図ったものである。
B. Summary of the Invention The present invention extracts character data from binarized pixel data corresponding to black and white obtained by raster-scanning a subject such as a document or drawing in which characters, line segments, and symbols are mixed. In a drawing reading apparatus for performing recognition, an outline vectorization processing unit for performing outline vectorization processing on the binarized pixel data, a registration unit for registering circumscribing rectangle data of character candidates in a tree structure, A character string candidate extraction unit that extracts a character string candidate from
A character string extraction unit that extracts a character string from the character string candidate; and an evaluation value that indicates a degree of approximation between the character candidate in the extracted character string and a character in a dictionary of alphanumeric characters and symbols. And a character cutout unit having a function of determining the type of a character string by comparing the maximum value (threshold value) of the evaluation value with a predetermined value, so that characters, line segments, and symbols are mixed. When reading and recognizing characters from documents and drawings, prevent erroneous recognition of kanji and alphanumeric characters and symbols, prevent character cutout errors, and use characters of any size and format. It is intended to be able to read easily and extremely accurately, and to simplify the processing.

C.従来の技術 文字や図形等を読み取る場合、例えば、書類や図面等
の被写体をイメージスキャナ等の入力装置でラスタスキ
ャンして黒と白の2値画像データ(入力パターン)に変
換し、この2値画像データから対象物の文字データを抽
出し、対象物の認識処理を行っている。文字、図形等が
混在する図面等に含まれる文字を認識するには、まず文
字の部分と図形の部分を分け、さらに1文字分の情報ご
とに切り出して認識を行う必要がある。
C. Prior Art When reading characters and figures, for example, subjects such as documents and drawings are raster-scanned by an input device such as an image scanner and converted into black and white binary image data (input pattern). The character data of the object is extracted from the binary image data, and the object is recognized. In order to recognize a character included in a drawing or the like in which characters, graphics, and the like are mixed, it is necessary to first separate the character portion from the graphic portion, cut out the information for each character, and perform recognition.

D.発明が解決しようとする課題 ここで図面に含まれる文字は、文章のものとは異なり
文字の大きさが一定ではなく、またその書式も定まって
いない。このため文字、線分、シンボル等が混在する書
類や図面に含まれる文字を、その書式や大きさにとらわ
れることなく抽出して認識することは困難であった。特
に文字幅のゆらぎが大きく、分離文字の多い手書き文章
等を認識することは極めて困難であった。またそれらの
処理に時間がかかるという欠点もあった。
D. Problems to be Solved by the Invention Here, the characters included in the drawings are not fixed in size and the format is not fixed, unlike the text. For this reason, it has been difficult to extract and recognize characters included in documents and drawings in which characters, line segments, symbols, and the like are mixed irrespective of the format and size. In particular, it has been extremely difficult to recognize handwritten sentences and the like having large fluctuations in character width and many separated characters. There is also a drawback that the processing takes time.

さらに従来のように、仮定した文字幅、文字間隔に基
づいて文字列データから1文字分のデータを切り出す方
法においては、文字ピッチ、文字幅が一定である活字等
にはしばしば有用であるが、手書き文字等の場合は仮定
された文字幅、文字間隔に根拠が薄く誤った切り出しが
行われることがある。また図面の文字においては、英数
字列が大部分であるが、漢字文字列も少数混在している
場合もある。このような図面を英数字、漢字の区別なく
正しく認識しようとする文字切り出し部および文字認識
部において次のような誤りを生ずる。すなわち、第32図
(a)のように文字列から文字を切り出すときに誤って
数字の1と2と3と4を統合してしまう。また第32図
(b)のように英字の「R」を漢字の「尺」と誤って認
識してしまう。
Further, in the conventional method of extracting data of one character from character string data based on assumed character width and character spacing, it is often useful for a character type having a constant character pitch and character width, In the case of handwritten characters or the like, erroneous clipping may be performed because the basis of the assumed character width and character spacing is thin and the basis is small. In the characters in the drawings, most of the characters are alphanumeric strings, but a small number of kanji character strings may be mixed. The following errors occur in a character cutout unit and a character recognition unit that attempt to correctly recognize such a drawing without distinguishing between alphanumeric characters and Chinese characters. That is, when characters are cut out from a character string as shown in FIG. 32 (a), numerals 1, 2, 3 and 4 are mistakenly integrated. Further, as shown in FIG. 32 (b), the English character "R" is erroneously recognized as the Chinese character "Shaku".

本発明は上記の点に鑑みてなされたものでその目的
は、文字の誤認識や誤切り出しを防いで書類や図面に含
まれる文字がいかなる大きさ、書式であっても容易に且
つ極めて正確に読み取ることができるとともに処理速度
を高速化した図面読取装置を提供することにある。
The present invention has been made in view of the above points, and an object of the present invention is to prevent characters from being erroneously recognized and erroneously cut out, and to easily and extremely accurately detect characters included in documents and drawings in any size and format. It is an object of the present invention to provide a drawing reading apparatus which can read and has a high processing speed.

E.課題を解決するための手段 本発明は、文字、線分、シンボルが混在する被写体を
ラスタスキャンして得られた黒白に対応する2値化画素
データから文字データを抽出し、該抽出された文字デー
タと文字辞書を参照、比較して文字を認識する図面読取
装置において、 前記被写体をラスタスキャンして得られた黒白に対応
する2値化画素データに基づいて、互いに隣接した2個
の黒画素を結ぶベクトルを結合して成る輪郭ベクトルの
データを求めるとともに、該輪郭ベクトルに外接する外
接四角形データに基づいて文字候補として求める輪郭ベ
クトル化処理部と、 前記輪郭ベクトル化処理部で求められた文字候補の外
接四角形データをツリー構造で登録する登録部と、 所定の大きさに設定した文字列候補の核から検索範囲
を決定し、前記登録部に登録された文字候補のうち中心
座標が前記検索範囲内に存在する文字列を文字列候補と
して抽出する文字列候補抽出部と、 前記文字列候補抽出部で抽出されたデータの中から、
文字列候補核の高さhcと文字列候補内の互いに隣接する
文字候補間の距離dがd<hc×k(kは定数)なる関係
にあるデータを文字列として抽出する文字列抽出部と、 前記文字列抽出部で抽出された文字列内の近接する複
数の文字候補の水平方向への射影が重なっているとき
に、それら複数の文字候補を統合する高さ方向統合機能
と、該機能により統合された各文字候補と、英数文字お
よび記号の辞書とを比較して文字認識を行い、該複数の
認識結果に対応して、前記文字候補と辞書の文字との近
似度合を表す評価値を各々求める英数文字認識機能と、
前記英数文字および記号の辞書の文字、記号に各々対応
して、同一文字、記号についての複数のサンプルと辞書
の文字、記号との近似度合を表す評価値列のうち最大値
をしきい値として設定し、該設定されたしきい値と前記
英数文字認識機能で求められた評価値とを比較して、文
字列が英数文字列であるか否かを判定する文字列種類判
定機能と、該判定機能が英数文字列ではないと判定した
文字候補の幅と、前記hc×kの大きさに等しい幅の仮定
文字幅との第1偏差が、前記文字候補の幅と近傍の文字
候補の幅と前記文字候補と近傍文字候補との距離を合わ
せた大きさと前記仮定文字幅との第2偏差よりも大き
く、且つ前記第2偏差が所定のしきい値よりも小さいと
きに前記文字候補とその近傍の文字候補を統合する幅方
向統合機能を有し、文字列から文字を切り出す文字切り
出し部とを備え、 前記文字切り出し部で切り出された文字データに基づ
いて文字認識を行うことを特徴としている。
E. Means for Solving the Problems The present invention extracts character data from binarized pixel data corresponding to black and white obtained by raster-scanning a subject in which characters, line segments, and symbols are mixed. A drawing reading apparatus that recognizes characters by referring to and comparing the character data and the character dictionary, based on binarized pixel data corresponding to black and white obtained by raster-scanning the subject. An outline vectorization processing unit that obtains outline vector data formed by combining vectors connecting black pixels and obtains as a character candidate based on circumscribed rectangle data circumscribing the outline vector, and an outline vectorization processing unit A registration unit for registering the circumscribed rectangle data of the selected character candidates in a tree structure, and determining a search range from a core of the character string candidates set to a predetermined size, and One character string candidate extraction unit that extracts as a character string candidate, from among the data extracted by the character string candidate extraction unit that center coordinates of the registered character candidates are present within the search range,
Character string extraction for extracting data in which the height h c of the character string candidate nucleus and the distance d between adjacent character candidates in the character string candidate are d <h c × k (k is a constant) as a character string When the projection in the horizontal direction of a plurality of adjacent character candidates in the character string extracted by the character string extraction unit overlap, a height direction integration function to integrate the plurality of character candidates, Each character candidate integrated by the function is compared with a dictionary of alphanumeric characters and symbols to perform character recognition, and in accordance with the plurality of recognition results, the degree of approximation between the character candidate and a character in the dictionary is determined. An alphanumeric character recognition function for obtaining each evaluation value to be represented;
For each of the alphanumeric character and symbol dictionary characters and symbols, a threshold value is set to a maximum value in an evaluation value sequence representing the degree of approximation between a plurality of samples of the same character and symbol and the dictionary characters and symbols. A character string type determination function that determines whether a character string is an alphanumeric character string by comparing the set threshold value with an evaluation value obtained by the alphanumeric character recognition function And the first deviation between the width of the character candidate determined not to be an alphanumeric character string and the assumed character width having a width equal to the size of h c × k is close to the width of the character candidate. When the width of the character candidate and the size obtained by combining the distance between the character candidate and the nearby character candidate are larger than a second deviation between the assumed character width and the second deviation is smaller than a predetermined threshold value. Having a width direction integration function for integrating the character candidate and character candidates in the vicinity thereof, And a character segmentation unit which cuts out a character from the character string, is characterized by performing character recognition on the basis of the character data cut out by the character cut-out section.

F.作用 前記ベクトル化処理部によって外接四角形を求めると
文字、線分、シンボルが混在する被写体(書類や図面)
の中から文字候補のデータが得られる。この文字候補の
外接四角形データはツリー構造で登録部に登録される。
文字列候補抽出部は文字列候補核で決まる検索範囲で前
記登録部内のデータを検索し、中心座標が検索範囲内に
ある文字列を文字列候補として抽出する。前記外接四角
形データはツリー構造で登録されているので領域四角形
の近傍検索処理は軽減される。前記文字列候補の中で、
d<hc×k(dは隣接する文字候補間距離、hcは文字列
候補核の高さ、kは定数)の関係が成立するデータが文
字列抽出部によって文字列として抽出される。すなわち
被写体の中に混在する線分やシンボルは除外され文字列
のデータのみが抽出される。次に文字切り出し部は前記
文字列から文字を切り出す。まず文字列内に高さ方向に
近接する複数の文字候補の水平方向への射影が重なって
いる場合は、それら文字候補の統合を行う。そして高さ
方向についての統合が行われた後、各文字候補と英数文
字、記号の辞書とが比較され文字認識が行われる。そし
て複数の認識結果に対応して評価値が求められる。この
ように求められた評価値は、予め設定されたしきい値と
比較され、文字列が英数文字列であるか否かの判定が行
われる。判定した結果文字列が英数文字列である場合は
幅方向統合は行わない。また文字列が英数文字ではない
場合は次のような幅方向統合が行われる。すなわち、例
えば文字候補の幅が仮定文字幅よりわずかに狭く、前記
文字候補の幅と該候補に隣接する候補の幅と前記文字候
補と隣接文字候補との距離を合わせた大きさと仮定文字
幅との差が大きいとする。この場合第1偏差が第2偏差
よりも小さいのでそれら文字候補の統合は行わない。ま
た例えば抽出された文字候補の幅が仮定文字幅よりも極
めて狭く、前記文字候補の幅と該候補に隣接する候補の
幅と前記文字候補と隣接文字候補との距離を合わせた大
きさと仮定文字幅との差が比較的小さいとする。この場
合第1偏差は第2偏差よりも大きくなるが、このとき第
2偏差が所定のしきい値よりも大きければそれら文字候
補の統合は行わず、しき値よりも小さいときのみ統合を
行う。そして前記横方向、高さ方向に統合された文字候
補を1個の文字として切り出す。これによって文字の大
きさや書式がいかなるものであっても文字として読み取
ることができる。
F. Function When the circumscribed rectangle is obtained by the vectorization processing unit, a subject (document or drawing) in which characters, line segments, and symbols are mixed.
, Character candidate data is obtained. The circumscribed rectangle data of the character candidate is registered in the registration unit in a tree structure.
The character string candidate extraction unit searches data in the registration unit in a search range determined by the character string candidate nucleus, and extracts a character string whose center coordinates are within the search range as character string candidates. Since the circumscribed quadrangle data is registered in a tree structure, the neighborhood search processing of the area quadrangle is reduced. In the character string candidates,
Data satisfying the relationship of d <h c × k (d is the distance between adjacent character candidates, h c is the height of the character string candidate nucleus, and k is a constant) is extracted as a character string by the character string extraction unit. That is, line segments and symbols mixed in the subject are excluded, and only character string data is extracted. Next, the character cutout unit cuts out characters from the character string. First, when the horizontal projections of a plurality of character candidates that are close to each other in the height direction overlap in the character string, the character candidates are integrated. After integration in the height direction, each character candidate is compared with a dictionary of alphanumeric characters and symbols, and character recognition is performed. Then, an evaluation value is obtained corresponding to a plurality of recognition results. The evaluation value thus obtained is compared with a preset threshold value to determine whether or not the character string is an alphanumeric character string. If the result of the determination is that the character string is an alphanumeric character string, the width direction integration is not performed. If the character string is not an alphanumeric character, the following width integration is performed. That is, for example, the width of the character candidate is slightly smaller than the assumed character width, the width of the character candidate, the width of the candidate adjacent to the candidate, the size obtained by adding the distance between the character candidate and the adjacent character candidate, and the assumed character width. Is large. In this case, since the first deviation is smaller than the second deviation, the character candidates are not integrated. Further, for example, the width of the extracted character candidate is extremely narrower than the assumed character width, and the size of the width of the character candidate, the width of the candidate adjacent to the candidate, the size obtained by combining the distance between the character candidate and the adjacent character candidate, and the assumed character It is assumed that the difference from the width is relatively small. In this case, the first deviation is larger than the second deviation. At this time, if the second deviation is larger than a predetermined threshold, the character candidates are not integrated, but are integrated only when they are smaller than the threshold value. Then, the character candidates integrated in the horizontal direction and the height direction are cut out as one character. This allows characters to be read as characters regardless of their size or format.

また英数文字と漢字の区別は確実に行われ、誤って認
識されることはない。さらに英数文字が誤って幅方向に
統合されることはない。
In addition, the distinction between alphanumeric characters and kanji is made surely, and is not erroneously recognized. Furthermore, alphanumeric characters are not accidentally merged across the width.

G.実施例 以下、図面を参照しながら本発明の一実施例を説明す
る。まず本発明による図面読取装置は第1図のように輪
郭ベクトル化処理部1、登録部2、文字列候補抽出部
3、文字列抽出部4、文字切り出し部5および文字認識
部6を備えており、全体の処理の流れは第2図のように
示される。すなわちまずステップS1において輪郭ベクト
ル化処理部1が前処理を行い、ステップS2において登録
部2、文字列候補抽出部3、文字列抽出部4および文字
切り出し部5が文字切り出し処理を行い、ステップS3
おいて文字認識部6が文字認識処理を行う。前記輪郭ベ
クトル化処理部1が行う前処理は第3図のようなフロー
チャートで表される。すなわちステップS1において画像
入力処理を行い、ステップS2において輪郭ベクトル化処
理を行い、ステップS3において要素分離処理を行う。こ
のうち前記画像入力処理および輪郭ベクトル化処理は例
えば特願昭63−78684の特許明細書に記載された輪郭検
出装置によって、次のようにして行う。
G. Embodiment Hereinafter, an embodiment of the present invention will be described with reference to the drawings. First, a drawing reading apparatus according to the present invention includes an outline vectorization processing unit 1, a registration unit 2, a character string candidate extraction unit 3, a character string extraction unit 4, a character cutout unit 5, and a character recognition unit 6 as shown in FIG. Thus, the entire processing flow is shown in FIG. That is, first outline vector processing unit 1 performs the pre-processing in step S 1, the registration unit 2 in step S 2, the character string candidate extracting unit 3, a character string extracting unit 4 and the character segmentation unit 5 performs character cutout process, character recognition unit 6 performs character recognition processing in step S 3. The pre-processing performed by the contour vectorization processing unit 1 is represented by a flowchart as shown in FIG. That performs image input processing in step S 1, whereby the border vectorized process in step S 2, performs the component separation process in step S 3. Of these, the image input processing and the contour vectorization processing are performed as follows, for example, by the contour detection device described in the patent specification of Japanese Patent Application No. 63-78684.

第4図は輪郭検出装置の構成を示す図であり、11は輪
郭抽出部である。この輪郭抽出部11は、第5図に示すよ
うに書類や図面等の被写体をラスタスキャンして得られ
た黒白に対応する2値化画素データを取り込んで、縦横
2画素×2画素の画素データをスキャンラインに沿って
順次取り出し、この画素データに基づいて輪郭検出用の
コマンド列を作成して後段の輪郭解析部12に出力する。
輪郭解析部12は前記コマンド列に基づいてテーブル格納
部13内の輪郭要素テーブル、輪郭管理テーブル及び輪郭
接続テーブルの記録を更新する。また、輪郭解析部12は
輪郭要素テーブルと輪郭管理テーブルを使用して1輪郭
画素系列を構成する各点のうち始点からみて極大となる
点を抽出する(巨視的処理部31)とともに、この処理で
抽出された連続する2点の間にある最大距離となる点を
設定したしきい値との関係からいくつか抽出し(微視的
処理部32)、この処理により抽出された点の輪郭ベクト
ルを輪郭ベクトル系列テーブル33に記載し、この輪郭ベ
クトルのうち短い(ショート)ベクトルをショートベク
トル除去部34で除去し、その記載を更新する。
FIG. 4 is a diagram showing a configuration of the contour detecting device, and 11 is a contour extracting unit. As shown in FIG. 5, the contour extraction unit 11 fetches binarized pixel data corresponding to black and white obtained by raster-scanning a subject such as a document or a drawing, and outputs pixel data of 2 × 2 pixels. Are sequentially extracted along the scan line, a command sequence for contour detection is created based on the pixel data, and output to the contour analysis unit 12 at the subsequent stage.
The contour analyzer 12 updates the records of the contour element table, the contour management table, and the contour connection table in the table storage 13 based on the command sequence. In addition, the contour analysis unit 12 uses the contour element table and the contour management table to extract, from the points constituting one contour pixel sequence, a point that is maximum when viewed from the start point (a macroscopic processing unit 31), and performs this processing. Are extracted from the relationship with the set threshold value at the point having the maximum distance between the two consecutive points extracted in step (microscopic processing unit 32), and the contour vector of the point extracted by this processing is extracted. Is described in the contour vector series table 33, and a short (short) vector of the contour vectors is removed by the short vector removing unit 34, and the description is updated.

ここで輪郭要素とは互いに隣接した2個の黒画素を結
ぶベクトルに相当するものであり、これを結合すること
によって輪郭が構成される。そして輪郭要素テーブルと
は、第6図に示すように輪郭要素とこれら輪郭要素群よ
りなる輪郭とに対して各々固有の符号を付すと共に、輪
郭要素毎に、その座標及び方向と輪郭要素が所属する輪
郭の符号と輪郭要素の前後に夫々接続されている他の輪
郭要素の符号とを記載するためのものである。また輪郭
管理テーブルとは第7図に示すように輪郭毎に先端及び
終端に位置する輪郭要素の符号を記載するためのもので
あり、輪郭接続テーブルとは、第8図に示すようにラス
タスキャン方向に並ぶ座標とその座標に前端または後端
が存在する未接続の輪郭要素の符号とその輪郭要素の未
接続端の前後端の区別とを対応させて記載するためのも
のである。また、輪郭ベクトル系列テーブルとは第9図
に示すように輪郭ベクトル系列毎に始点座標の符号を記
載するためのものである。
Here, the contour element corresponds to a vector connecting two black pixels adjacent to each other, and a contour is formed by combining these. In the contour element table, as shown in FIG. 6, a unique code is assigned to each of the contour elements and the contour composed of these contour element groups, and for each contour element, the coordinates and directions and the contour elements belong. This is for describing the sign of the contour to be connected and the signs of other contour elements connected before and after the contour element, respectively. The contour management table is for describing the codes of the contour elements located at the front end and the end for each contour as shown in FIG. 7, and the contour connection table is for raster scan as shown in FIG. This is for describing the coordinates arranged in the direction, the sign of the unconnected contour element having the front end or the rear end at the coordinate, and the distinction between the front and rear ends of the unconnected end of the contour element. The contour vector sequence table is for describing the code of the start point coordinates for each contour vector sequence as shown in FIG.

輪郭抽出部11より出力されるコマンド列は、そのとき
に取り出された2画素×2画素の画素データに係る画素
と輪郭画素との接続関係の情報、及び当該画素データの
黒白の配列パターンの情報を含む接続パターンコード
と、当該画素データのX座標を示す座標コードとを組み
合わせてなる。前記接続関係の一例を第10図に示すと、
同図(イ)の太枠で囲まれた2画素×2画素の画素デー
タを取り込んだときには、この画素データのX座標Xn
位置する輪郭要素の前端が接続されているという情報に
なる。この例では、画素データの座標としては、紙面に
向かって右下に位置する画素P1の座標をとっている。ま
た、同図(ロ)の太枠で囲まれた画素データを取り込ん
だときには、この画素データのX座標より一つ前の座標
Xn-1に位置する輪郭要素の後端が接続されているという
情報になる。なお第10図中○印を有する枠は黒画素を示
し、○印を有しない枠は白画素を示している。そして例
えば第10図(イ)の太枠に着目すると、この場合の接続
パターンコードは、上述の接続情報と太枠内に黒白の
配列パターンの情報とを含み、コマンド列は、この接続
パターンコードと画素P1のX座標を示す座標コードとの
組み合わせとなる。なおこの座標コードについては輪郭
解析部12側にて、コマンド列の取り込みのタイミングに
同期して発生させることもできる。
The command string output from the contour extraction unit 11 includes information on the connection relationship between the pixel related to the pixel data of 2 pixels × 2 pixels extracted at that time and the contour pixel, and information on the black and white array pattern of the pixel data. And a coordinate code indicating the X coordinate of the pixel data. An example of the connection relationship is shown in FIG.
When pixel data of 2 pixels × 2 pixels surrounded by a bold frame in FIG. 9B is fetched, it becomes information that the front end of the contour element located at the X coordinate Xn of the pixel data is connected. In this example, the coordinates of the pixel data, taking the coordinate pixel P 1 located on the right under the paper surface. When the pixel data surrounded by the bold frame in FIG. 2B is fetched, the coordinates immediately before the X coordinate of the pixel data are obtained.
It becomes information that the rear end of the contour element located at X n-1 is connected. In FIG. 10, a frame with a circle indicates a black pixel, and a frame without a circle indicates a white pixel. Focusing on, for example, the bold frame in FIG. 10 (a), the connection pattern code in this case includes the above-described connection information and black-and-white array pattern information in the bold frame. and the combination of the coordinate code indicating the X-coordinate of the pixel P 1. This coordinate code can also be generated on the side of the contour analysis unit 12 in synchronization with the timing of taking in the command sequence.

このようにして得たコマンド列が輪郭解析部12に取り
込まれると次のような処理が行われる。今第11図の太枠
の画素データに関するコマンド列が取り込まれたとする
と、接点で示す輪郭要素Cjを輪郭要素テーブルに登録
し、その方向及び座標を記入すると共に、当該輪郭要素
Cjの前後に夫々接続されている他の輪郭要素の番号を接
続要素番号欄に記入する。この場合輪郭要素Cjは輪郭要
素Cjの前方に位置するので、輪郭要素Cjの欄に係る後方
接続欄にCiを記入し、輪郭要素Cjの欄に係る前方接続欄
にCiを記入する。更に輪郭要素Cjの所属する輪郭の番号
をこの例ではSiを輪郭番号欄に記入する。輪郭要素の方
向については例えば8連結の場合、第12図に示すように
上下,左右,斜めの方向に対応してa1〜a8が規定され、
また4連結の場合、上下,左右の4方向が規定される。
そして輪郭管理テーブルの輪郭番号Siについて、先端の
輪郭要素番号欄をCiからCjに更新すると共に、輪郭接続
テーブルにおける当該画素データのX座標について、未
接続の輪郭要素番号の前方接続の欄をCiからCjに更新す
る。ところで実際の処理においては、輪郭要素Ciに接続
されるべき輪郭要素は輪郭接続テーブルにより明らかに
されているため、輪郭要素テーブルの輪郭要素番号Cj欄
に係る前方接続欄のCjの記載は、輪郭接続テーブルを参
照して行われる。以上において所属輪郭番号は、ラスタ
スキャンの進行に伴って別々に発生した二つの輪郭が接
続されて一つの輪郭になった場合には一方が他方に統合
されて同一になる。
When the command sequence obtained in this way is taken into the contour analysis unit 12, the following processing is performed. Now, assuming that a command sequence relating to the pixel data of the thick frame in FIG. 11 is fetched, the contour element Cj indicated by the contact point is registered in the contour element table, and its direction and coordinates are entered.
The numbers of the other contour elements connected before and after Cj are entered in the connection element number column. In this case, since the contour element Cj is located in front of the contour element Cj, Ci is entered in the rear connection column of the contour element Cj column, and Ci is entered in the front connection column of the contour element Cj column. Further, in this example, the number of the contour to which the contour element Cj belongs is entered as Si in the contour number column. For the direction of the contour elements, for example 8-connected, vertically as shown in FIG. 12, left and right, a 1 ~a 8 corresponds to the diagonal direction is defined,
In the case of four connections, four directions, up, down, left and right, are defined.
Then, for the contour number Si of the contour management table, the leading contour element number column is updated from Ci to Cj, and for the X coordinate of the pixel data in the contour connection table, the forward connection column of the unconnected contour element number is Ci. From to Cj. By the way, in the actual processing, since the contour element to be connected to the contour element Ci is clarified by the contour connection table, the description of Cj in the front connection column related to the contour element number Cj column of the contour element table is the contour. This is performed by referring to the connection table. In the above description, when two contours generated separately with the progress of the raster scan are connected to form one contour, one of the belonging contour numbers is integrated into the other and becomes the same.

上記のような処理において、1輪郭画素列を構成する
各点のうち始点からみて極大となる点を抽出し、次に抽
出された接続する2点の間にある最大距離となる点を抽
出する。このように抽出された輪郭ベクトルをテーブル
に格納する。
In the processing as described above, a point which is the maximum when viewed from the start point is extracted from the points constituting one contour pixel row, and a point having the maximum distance between the two extracted connected points is extracted. . The extracted contour vectors are stored in a table.

上記のように画像入力処理および輪郭ベクトル化処理
によって、被写体の例えば「A」という文字の入力画像
は第13図のような輪郭ベクトルで表される。
As described above, the input image of the subject, for example, the character “A” is represented by the outline vector as shown in FIG. 13 by the image input processing and the outline vectorization processing.

次に文字候補の抽出を行う要素分離処理(第3図のス
テップS3)について説明する。まず前述した第9図の輪
郭ベクトル系列テーブルを使用してショートベクトルを
除去する。第14図はショートベクトル除去手段を説明す
るフローチャートであり、ステップS1で第9図に示す輪
郭ベクトル系列テーブルから輪郭ベクトルの外接四角形
(第15図に示す)(xmin,ymin)、(Xmax,Ymax)の算出
を行う。次にステップS2でdx=Xmax−Xmin,dy=ymax−y
minとしきい値DXth,DYthとを比較する。ステップS3はス
テップS2の比較判断部で、このステップS3で(dx>D
Xth)∪(dy>DYth)を判断し、YESならステップS4で輪
郭ベクトルとして外接四角形という情報を作成する。こ
の情報の1例を第16図に外接四角形情報テーブルとして
示す。前記ステップS3でNOなら第9図に示す輪郭ベクト
ル系列テーブルからステップS5で同一系列のベクトルを
削除して雑音(ノイズ)を除去する。
Next, an element separation process (step S3 in FIG. 3 ) for extracting a character candidate will be described. First, short vectors are removed using the contour vector series table shown in FIG. FIG. 14 is a flowchart for explaining the short vector removal means, (shown in FIG. 15) from the outline vector sequence table shown in FIG. 9 at step S 1 the circumscribed quadrangle of the contour vector (x min, y min), ( X max , Y max ) are calculated. In step S 2 dx = X max -X min , dy = y max -y
Compare min with threshold values DX th and DY th . Step S 3 in the comparative determination of the step S2, in step S 3 (dx> D
Determining X th) ∪ a (dy> DY th), to create information that circumscribed rectangle as a contour vector in the step S 4, if YES. An example of this information is shown in FIG. 16 as a circumscribed rectangle information table. Remove the vector of the same series in Step S 5 from the outline vector sequence table shown in FIG. 9, if NO to remove noise (noise) in the step S 3.

第15図は輪郭ベクトルの外接四角形を示す説明図であ
り、この図において、xmax,xmin,ymax,yminは次のよう
になる。
FIG. 15 is an explanatory view showing a circumscribed rectangle of the contour vector. In this figure, x max , x min , y max , and y min are as follows.

xmax=max(…,xi,…) xmin=min(…,xi,…) ymax=max(…,yi,…) ymin=min(…,yi,…) dx=xmax−xmin dy=ymax−ymin (dx<DXth)∩(dy<DYth) 但し、DXth,DYth:しきい値である。 x max = max (..., x i, ...) x min = min (..., x i, ...) y max = max (..., y i, ...) y min = min (..., y i, ...) dx = x max −x min dy = y max −y min (dx <DX th ) ∩ (dy <DY th ) where DX th and DY th are threshold values.

上記のようにして求められた外接四角形情報(第13
図)に基づいて次のような条件で文字候補を抽出する。
The circumscribed rectangle information (13th
Character candidates are extracted under the following conditions based on FIG.

条件 wx<しきい値且つwy<しきい値 (wxは外接四角形のx方向長さ、wyは外接四角形のy方
向長さ) 条件 外周の輪郭ベクトル そして文字候補の外接四角形に完全包含される外周及
び内周の輪郭ベクトルは文字候補となった輪郭ベクトル
にリンク付けされる。
Condition w x <threshold and w y <threshold (w x is the length of the circumscribed rectangle in the x direction, w y is the length of the circumscribed rectangle in the y direction) Condition The outline vector of the outer periphery and the complete circumscribed rectangle of the character candidate The included outer and inner contour vectors are linked to contour vectors that have become character candidates.

以上、第3図〜第16図のようにして前処理を行うが、
次に文字切り出し処理(第2図のステップS2)について
説明する。
As described above, the pre-processing is performed as shown in FIG. 3 to FIG.
Next, the character cutout processing (step S2 in FIG. 2 ) will be described.

まずこの文字切り出し処理は、前記輪郭ベクトル処理
部1で求められた文字候補を対象に第17図のように水平
方向(ステップS1),垂直方向(ステップS2)および斜
め方向(ステップS3)に行われる。各方向の処理は各々
同一の内容であり、第18図に示すように文字列候補抽出
処理(ステップS1)を行った後、文字列抽出処理(ステ
ップS2)を行った後、文字切り出し処理(ステップS3
を行う。
First, this character cutout processing is performed on the character candidates obtained by the contour vector processing unit 1 as shown in FIG. 17 in the horizontal direction (step S 1 ), the vertical direction (step S 2 ), and the diagonal direction (step S 3). ). The processing in each direction has the same contents, and after performing the character string candidate extraction processing (step S 1 ) as shown in FIG. 18, the character string extraction processing (step S 2 ) is performed, and then the character is cut out. processing (step S 3)
I do.

前記各ステップの処理は次のようにして行われる。ま
ず文字列候補抽出処理は第19図に示すように文字候補の
ツリー構造化処理(ステップS1)を行った後、文字列候
補の範囲検索処理(ステップS2)を行う。実際には第16
図のように得られた文字候補の外接四角形の中心座標を
基に空間的な2分割を繰り返す形式のツリー構造として
登録部(第1図の登録部2)に登録する。そして文字候
補のうち検索しようとする文字列の高さと同程度の高さ
をもつものを文字列候補の核として第20図(a)に示す
ような検索範囲に中心座標がある文字候補を前記登録部
2の文字候補ツリーから検索する。この検索は次のよう
な手順で第1図の文字列候補抽出部3が行う。
The processing of each step is performed as follows. First, in the character string candidate extraction processing, as shown in FIG. 19, a character candidate tree structure processing (step S 1 ) is performed, and then a character string candidate range search processing (step S 2 ) is performed. Actually 16th
As shown in the figure, the character candidate is registered in the registration unit (registration unit 2 in FIG. 1) as a tree structure in which spatial division into two is repeated based on the center coordinates of the circumscribed rectangle of the character candidate. A character candidate having a center coordinate in a search range as shown in FIG. 20 (a) is used as a core of a character string candidate having a height substantially equal to the height of the character string to be searched among the character candidates. Search from the character candidate tree of the registration unit 2. This search is performed by the character string candidate extraction unit 3 in FIG. 1 in the following procedure.

文字列核から右側に第20図(b)のような探索範囲内
の他の文字候補の中心点を検索する。
The center point of another character candidate within the search range as shown in FIG. 20 (b) is searched rightward from the character string nucleus.

前記で見つかった中心点のうち、中心核より最も遠
い距離にあるものを次の探索範囲の開始点とする。そし
ての中心点で見つからない場合は右側方向の探索終わ
り。
Of the center points found above, the one located farthest from the central nucleus is the start point of the next search range. If not found at the center point of the search, the search in the right direction ends.

左側方向について前記,と同様に行う。The same applies to the left direction.

上記の検索で見つけられたものを文字列候補とする。
尚文字列候補の核となる大きさを大きなものから数段階
に分けて設定した検索を行うことにより、大きさの異な
る文字列に対しても対応がとれる。
Those found by the above search are set as character string candidates.
By performing a search in which the core size of character string candidates is set in several stages from the largest, character strings with different sizes can be handled.

次に文字列抽出部4は文字列候補の中から次の条件に
合うものを文字列として抽出する。すなわち第21図に示
すように文字列候補核の高さhcと文字候補間距離dが d(i,j)<hc×定数 …(1) なる関係にあるとき、図示文字列候補内のi,jが文字列
となる。
Next, the character string extraction unit 4 extracts a character string that meets the following conditions from the character string candidates as a character string. That is, as shown in FIG. 21, when the height h c of the character string candidate nucleus and the distance d between the character candidates have a relationship of d (i, j) <h c × constant (1), I and j in the form of a character string.

次に文字切り出し部5は、第22図のような手順で前記
抽出された文字列から文字候補単位で文字の切り出しを
行う。まず次の第(2)式に示す条件に合致する場合に
はステップS1のように高さ方向分離文字統合を行う。
Next, the character cutout unit 5 cuts out characters from the extracted character string in units of character candidates in a procedure as shown in FIG. First performed in the height direction separator integrated as step S 1 in the case of matching the conditions shown in the following second equation (2).

min{xsi,xsj} ≦(xsi or xsj or xei or xej) ≦max{xei,xej} …(2) (但し、xs:外接四角形のx方向スタート座標 xe:外線四角形のx方向エンド座標) 前記第(2)式は文字列内の文字候補i,jの幅が重な
っていることを示す条件式であり、実際の統合処理手順
は第24図のフローチャートに従って行う。例えば第23図
(a),(b)のように高さ方向に文字候補i,jが分離
しているときに前記第(2)式の条件が成立すれば、該
文字候補i,jは図示(c)の如く統合される。次に第22
図のステップS2においては、前記高さ方向統合処理され
た文字候補と、英数文字、記号の辞書とが比較され、文
字認識が行われる。そして第25図(高さ方向統合処理後
の文字列)のような文字列データに対して、第26図に示
すように認識結果とその評価値のテーブルが作成され
る。第26図においてデータ番号は第25図の各文字候補C1
〜C5の番号であり、各データに対して辞書とのマッチン
グ度の良いものから順次並べられ、それら各認識結果に
ついての評価値もテーブル化されている。前記評価値
は、認識結果が辞書の文字にどれくらい近いかを数値で
示したもので、この評価値が小さいほど辞書の文字に似
ていることを意味する。次にステップS3においては、予
め実験により第27図のように作成したしきい値テーブル
と、前記英数文字認識(ステップS2)によって作成され
たデータテーブル(第26図)とを比較し、文字列の種類
を判定する。
min {xsi, xsj} ≦ (xsi or xsj or xei or xej) ≦ max {xei, xej}… (2) (However, xs: x-direction start coordinate of circumscribed rectangle xe: x-direction end coordinate of external rectangle) Expression (2) is a conditional expression indicating that the widths of the character candidates i and j in the character string overlap, and the actual integration processing procedure is performed according to the flowchart of FIG. For example, as shown in FIGS. 23 (a) and 23 (b), when the character candidate i, j is separated in the height direction and the condition of the above-mentioned expression (2) is satisfied, the character candidate i, j is It is integrated as shown in FIG. Then the 22nd
In step S 2 in FIG, the character candidate that is the height direction integration process the alphanumeric characters, and symbols of the dictionary are compared, character recognition is performed. Then, as shown in FIG. 26, a table of recognition results and their evaluation values is created for character string data as shown in FIG. 25 (character string after height direction integration processing). In FIG. 26, the data numbers are the character candidates C 1 in FIG.
A number of -C 5, sequentially arranged from those good degree of matching between the dictionary for each data, their evaluation values for each recognition result has also been tabulated. The evaluation value is a numerical value indicating how close the recognition result is to a character in the dictionary. The smaller the evaluation value is, the more similar the character is to the character in the dictionary. In next step S 3, compares the threshold value table created as FIG. 27 in advance by experiments, and the alphanumeric character recognition (Step S 2) data table (Figure 26) created by , The type of the character string is determined.

ここで「A」という文字データサンプルを漢字、英数
字を含めた辞書で認識させ正しく認識結果(第1位)が
得られたとき、すなわちAという認識結果が得られたと
きの評価値をeAとする。しかしながら任意のAという文
字を認識させたとき、その結果が正しくAと認識された
としても評価値がeAとなるとは限らないので、数多くの
Aという文字データサンプルに対して同じ実験を行う。
そのときの評価直列をEAとすればEA={eA0,eA1…eAn
である。もし任意の文字を認識したときの結果が「A」
であり、そのときの評価値がeetcであるなら、eetc<ma
x{EA}であればその結果は妥当であると言える。従っ
て第27図に示すしきい値テーブルのthAはthA=max
{EA}と定義する。同種の実験を文字B〜Z,0〜9,記号
に対して繰り返し、しきい値テーブルの最大値Ethを、E
th=max{thA〜thZ,th0〜th9, }と定義する。
Here, when the character data sample of "A" is recognized by a dictionary including kanji and alphanumeric characters, and the correct recognition result (first place) is obtained, that is, the evaluation value when the recognition result of A is obtained is e. A. However, when an arbitrary character A is recognized, the evaluation value is not always eA even if the result is correctly recognized as A. Therefore, the same experiment is performed on many character data samples of A.
If the evaluation series at that time is E A , E A = {e A0 , e A1 … e An
It is. If any character is recognized, the result is "A"
And if the evaluation value at that time is e etc , then e etc <ma
If x {E A }, the result is valid. Therefore th A threshold table shown in FIG. 27 is th A = max
Define as {E A }. The same kind of experiment was repeated for characters B to Z, 0 to 9, and symbols, and the maximum value E th of the threshold table was changed to E
th = max {th A to th Z , t h0 to t h9 , Defined as}.

前記文字列種類の判定は第28図のような手順で行う。
すなわちステップS1では第26図テーブル中の第1位の認
識結果の評価値の文字列平均e−meanと第27図のしきい
値テーブルの値の最大値Ethを比較する。その結果、 e−mean>Eth …(3) なる式が成立した場合、Ethが前記実験により得られた
値であるため、少なくとも英数字文字列ではない(すな
わち漢字列である)ということが決定できる。また、e
−mean≦Ethが成り立つ場合、判定する文字が残ってい
ることを条件(ステップS2)としてステップS3,S4,S5
おいて個々の文字の認識結果が妥当であるか否かの判定
を第27図のしきい値テーブルを参照して行う。第27図の
しきい値テーブルはある文字の認識結果の第1位が
「A」という文字コードを持つ文字であった場合、その
ときの認識の評価値はthA以下の数値をとらなければな
らないことを示している。もしある文字の認識結果がそ
の結果に対応する評価値eに対して、 e<(対応するしきい値テーブルの値) …(4) なる式が成り立たない場合は、認識結果の第2位以下に
対して第(4)式の条件を満たすものがあるかを調べ
る。このような判定を文字列の全文字候補に対して行
い、1文字でも第(4)式が成立しない場合は漢字文字
列と決定する。
The determination of the character string type is performed according to a procedure as shown in FIG.
That compares the maximum value E th of the first position of the string average e-mean value of the threshold table of FIG. 27 of the evaluation values of the recognition results in Figure 26 the table in step S 1. As a result, if the expression e-mean> E th (3) is satisfied, since E th is a value obtained by the above experiment, it is at least not an alphanumeric character string (that is, a kanji string). Can be determined. Also, e
If −mean ≦ E th holds, it is determined whether or not the recognition result of each character is appropriate in steps S 3 , S 4 , and S 5 on condition that the character to be determined remains (step S 2 ). Is performed with reference to the threshold table shown in FIG. When the first of the recognition result of the character is a threshold table of Figure 27 with is a character having a character code of "A", to take the evaluation value th A following numbers of recognition at that time Indicates that it must not. If the recognition result of a certain character does not satisfy the expression e <(corresponding threshold value table)... (4) for the evaluation value e corresponding to the result, the second or lower place of the recognition result It is checked whether or not there is one satisfying the condition of the expression (4). Such a determination is made for all character candidates of the character string, and if even one character does not satisfy Expression (4), it is determined to be a kanji character string.

次に第22図のステップS4では、次の第(5)式,第
(6)式に示す条件にともに合致する場合には幅方向分
離文字統合を行う(漢字列のみ)。
Next, in step S 4 in FIG. 22, the following first equation (5), when both matches the conditions shown in equation (6) is performed in the width direction separator integrated (Kanji column only).

(但し、 :仮定文字幅 wi:文字候補iの幅 wij:文字候補i,jを包含する外接四角形の幅(すなわち
i,jの各幅とi−j間距離とを合わせた大きさ) 前記第(5)式は仮定文字幅と文字候補iの幅との差
が、仮定文字幅と文字候補i,jを含む幅(すなわちi,jの
各幅とi−j間距離とを合わせた大きさ)との差より大
きいことを示している。第(6)式は仮定文字幅と文字
候補i,jを含む幅との差がしきい値より小さいことを示
している。本発明では第(5),(6)式がともに成立
したときに幅方向統合処理を行うがその処理フローは第
29図に従って実行される。例えば第30図(a),(b)
のように幅方向に文字候補i,j,kが分離しているときに
前記第(5),(6)式の条件が成立すれば、それら文
字候補は統合される。第30図(a),(b)の場合、統
合の条件としては、min{f(i,j)、f(i,k)}=f
(i,j)且つf(i,j)<しきい値であれば文字候補i,j
を統合する。また、min{f(i,j)、f(i,k)}=f
(i,k)且つf(i,k)<しきい値であれば文字候補i,j,
kを統合する。但しf(i,j)は仮定文字幅 と文字候補i,jを含む外接四角形の幅との偏差であり、
f(i,k)は仮定文字幅 と文字候補i,jを含む外接四角形の幅との偏差である。
尚、幅方向統合の様子をまとめると第31図(a)〜
(e)の如く示される。図中fiは仮定文字幅 と文字候補iの幅との偏差である。第31図(b),
(e)からわかるように文字候補jが仮定文字幅 を超える位置に存在する場合であっても、前記偏差f
(i,j)がしきい値より小さければ文字候補iと統合す
ることができる。このため従来統合が行えなかった例え
ば文字幅のゆらぎが大きい手書き文字であっても容易に
統合することができる。
(However, : Assumed character width wi: width of character candidate i wij: width of circumscribed rectangle containing character candidates i, j (ie,
Equation (5) indicates that the difference between the assumed character width and the width of the character candidate i is the difference between the assumed character width and the character candidate i, j. This indicates that the difference is larger than the difference between the included widths (i.e., the sum of the widths of i and j and the distance between i and j). Equation (6) indicates that the difference between the assumed character width and the width including the character candidates i and j is smaller than the threshold. In the present invention, the width direction integration processing is performed when both of the expressions (5) and (6) are satisfied.
It is performed according to Figure 29. For example, FIG. 30 (a), (b)
If the conditions of the formulas (5) and (6) are satisfied when the character candidates i, j, k are separated in the width direction as in the above, the character candidates are integrated. In the case of FIGS. 30 (a) and 30 (b), the conditions for integration are min {f (i, j), f (i, k)} = f
If (i, j) and f (i, j) <threshold, character candidate i, j
To integrate. Also, min {f (i, j), f (i, k)} = f
If (i, k) and f (i, k) <threshold, character candidates i, j,
Integrate k. Where f (i, j) is the assumed character width And the width of the circumscribed rectangle including the character candidates i and j,
f (i, k) is the assumed character width And the width of the circumscribed rectangle including the character candidates i and j.
Incidentally, the state of integration in the width direction is summarized in FIG.
(E). In the figure, f i is the assumed character width And the width of the character candidate i. FIG. 31 (b),
As can be seen from (e), the character candidate j is the assumed character width. Even if it is located at a position exceeding
If (i, j) is smaller than the threshold, it can be integrated with the character candidate i. For this reason, for example, even a handwritten character having a large fluctuation in character width, which cannot be integrated conventionally, can be easily integrated.

上述した文字切り出し処理(第17図、第18図)の過程
では、文字候補が文字例として確定する毎に処理済マー
クがつき処理対象数が小さくなる。また第18図の各処理
では水平方向について説明したが、垂直方向については
x,y方向が逆になる。斜め方向については所定の傾き角
度を仮定し、その角度での座標変換処理が、文字列抽出
処理、文字切り出し処理(第18図のステップS2,S3)に
含まれる。
In the process of the above-described character cutout processing (FIGS. 17 and 18), each time a character candidate is determined as a character example, a processed mark is added and the number of objects to be processed is reduced. Also, in each processing of FIG. 18, the horizontal direction has been described, but the vertical direction has been described.
The x and y directions are reversed. The oblique direction assumes a predetermined tilt angle, the coordinate transformation process in the angle is, the character string extraction process, included in the character cutout process (step S 2, S 3 of FIG. 18).

文字認識処理(第2図のステップS3)は次のようにし
て行われる。文字認識部6は前記文字切り出し部5で切
り出された文字と、予め文字が登録された辞書と参照、
比較し、一文字ずつ認識する。
Character recognition processing (step S 3 of FIG. 2) is performed as follows. The character recognizing unit 6 refers to the character extracted by the character extracting unit 5 and a dictionary in which the character is registered in advance,
Compare and recognize one character at a time.

H.発明の効果 以上のように本発明によれば輪郭ベクトル化処理部
と、登録部と、文字列候補抽出部と、文字列抽出部と、
文字切り出し部とを設けたので、文字、線分、シンボル
が混在する書類や図面から文字を読み取って認識する場
合、大きさや書式に限定条件を付けることなくいかなる
大きさ、書式の文字であっても容易に且つ正確に読み取
ることができる。特に文字切り出し部に英数文字認識機
能および文字列種類判定機能を設けたので、英数文字列
であるか否かを正確に判定することができる。このため
例えば英字の「R」を漢字の「尺」のように手書きでは
極めてまぎらわしくなる文字でも正確に認識することが
できる。また英数文字を誤って統合してしまうことは避
けられる。さらに文字切り出し部に幅方向統合機能を設
けたので、文字幅のゆらぎが大きい手書き文字であって
も容易に統合することができる。
H. Effects of the Invention As described above, according to the present invention, an outline vectorization processing unit, a registration unit, a character string candidate extraction unit, a character string extraction unit,
Since a character cutout is provided, when reading and recognizing characters from documents and drawings containing mixed characters, line segments, and symbols, characters of any size and format can be used without restricting the size and format. Can also be read easily and accurately. In particular, since the character cutout unit is provided with the alphanumeric character recognition function and the character string type determination function, it is possible to accurately determine whether or not the character string is an alphanumeric character string. For this reason, for example, even a character that is extremely confusing when handwritten, such as the English character “R”, such as the Chinese character “Shaku”, can be accurately recognized. Also, accidental merging of alphanumeric characters can be avoided. Further, since the character extracting section is provided with the width direction integration function, even a handwritten character having a large fluctuation in character width can be easily integrated.

また文字候補のデータはツリー構造で登録しておくの
で処理の高速化が図れる。
In addition, since character candidate data is registered in a tree structure, processing can be speeded up.

【図面の簡単な説明】[Brief description of the drawings]

第1図〜第31図は本発明の一実施例を示し、第1図は全
体構成のブロック図、第2図は全体のフローチャート、
第3図は輪郭ベクトル化処理部のフローチャート、第4
図は輪郭検出装置のブロック図、第5図はラスタスキャ
ンの様子を示す説明図、第6図は輪郭要素テーブルを示
す説明図、第7図は輪郭管理テーブルを示す説明図、第
8図は輪郭接続テーブルを示す説明図、第9図は輪郭ベ
クトル系列テーブルを示す説明図、第10図(イ),
(ロ)は、各々画素データと輪郭要素との関係を示す説
明図、第11図は輪郭要素間の接続状態を示す説明図、第
12図は輪郭要素の方向を示す説明図、第13図は輪郭ベク
トル化処理の説明図、第14図はショートベクトル除去手
段のフローチャート、第15図は外接四角形の説明図、第
16図は外接四角形情報テーブルを示す説明図、第17図お
よび第18図はともに文字切り出し処理のフローチャー
ト、第19図は文字列候補抽出処理のフローチャート、第
20図(a),(b)はともに文字列候補抽出処理の説明
図、第21図は文字列抽出処理の説明図、第22図は文字切
り出し処理のフローチャート、第23図(a),(b),
(c)は高さ方向分離文字統合処理の説明図、第24図は
高さ方向分離文字統合処理のフローチャート、第25図は
高さ方向統合処理後の文字列データの説明図、第26図は
認識結果データテーブルを示す説明図、第27図はしきい
値テーブルを示す説明図、第28図は文字列種類判定処理
のフローチャート、第29図は幅方向分離文字統合処理の
フローチャート、第30(a),(b)は幅方向分離文字
統合処理の説明図、第31図(a),(b),(C),
(d),(e)は各ケース毎の幅方向分離文字統合の様
子を示す説明図、第32図(a)は文字切り出しの誤りの
説明図、第32図(b)は文字認識部の誤り説明図であ
る。 1……輪郭ベクトル化処理部、2……登録部、3……文
字列候補抽出部、4……文字列抽出部、5……文字切り
出し部、6……文字認識部、11……輪郭抽出部、12……
輪郭解析部、13……テーブル格納部、31……巨視的処理
部、32……微視的処理部、33……輪郭ベクトル系列テー
ブル、34……ショートベクトル除去部。
1 to 31 show an embodiment of the present invention, FIG. 1 is a block diagram of the entire configuration, FIG.
FIG. 3 is a flowchart of the contour vectorization processing unit, and FIG.
FIG. 5 is a block diagram of the contour detection device, FIG. 5 is an explanatory diagram showing a state of raster scan, FIG. 6 is an explanatory diagram showing a contour element table, FIG. 7 is an explanatory diagram showing a contour management table, and FIG. FIG. 9 is an explanatory diagram showing a contour connection table, FIG. 9 is an explanatory diagram showing a contour vector sequence table, and FIG.
(B) is an explanatory diagram showing the relationship between the pixel data and the contour element, FIG. 11 is an explanatory diagram showing the connection state between the contour elements, and FIG.
FIG. 12 is an explanatory diagram showing the direction of the contour element, FIG. 13 is an explanatory diagram of the contour vectorizing process, FIG. 14 is a flowchart of the short vector removing means, FIG. 15 is an explanatory diagram of a circumscribed rectangle, FIG.
FIG. 16 is an explanatory diagram showing a circumscribed rectangle information table, FIGS. 17 and 18 are flowcharts of character extraction processing, FIG. 19 is a flowchart of character string candidate extraction processing, and FIG.
20 (a) and (b) are explanatory diagrams of a character string candidate extraction process, FIG. 21 is an explanatory diagram of a character string extraction process, FIG. 22 is a flowchart of a character cutout process, and FIGS. b),
(C) is an explanatory diagram of the height direction separated character integration process, FIG. 24 is a flowchart of the height direction separated character integration process, FIG. 25 is an explanatory diagram of character string data after the height direction integration process, and FIG. Is an explanatory diagram showing a recognition result data table, FIG. 27 is an explanatory diagram showing a threshold value table, FIG. 28 is a flowchart of a character string type determination process, FIG. 29 is a flowchart of a width direction separated character integration process, FIG. (A) and (b) are explanatory diagrams of the width direction separated character integration process, and FIGS. 31 (a), (b), (C),
(D) and (e) are explanatory diagrams showing the state of integration of width-separated characters for each case, FIG. 32 (a) is an explanatory diagram of a character cutout error, and FIG. 32 (b) is a diagram of a character recognition unit. FIG. 1 ... Contour vectorization processing unit, 2 ... Registration unit, 3 ... Character string candidate extraction unit, 4 ... Character string extraction unit, 5 ... Character cutout unit, 6 ... Character recognition unit, 11 ... Contour Extractor, 12 ……
Outline analysis unit 13, table storage unit 31, macroscopic processing unit 32, microscopic processing unit 33, outline vector sequence table 34, short vector removal unit

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】文字、線分、シンボルが混在する被写体を
ラスタスキャンして得られた黒白に対応する2値化画素
データから文字データを抽出し、該抽出された文字デー
タと文字辞書を参照、比較して文字を認識する図面読取
装置において、 前記被写体をラスタスキャンして得られた黒白に対応す
る2値化画素データに基づいて、互いに隣接した2個の
黒画素を結ぶベクトルを結合して成る輪郭ベクトルのデ
ータを求めるとともに、該輪郭ベクトルに外接する外接
四角形データに基づいて文字候補として求める輪郭ベク
トル化処理部と、 前記輪郭ベクトル化処理部で求められた文字候補の外接
四角形データをツリー構造で登録する登録部と、 所定の大きさに設定した文字列候補の核から検索範囲を
決定し、前記登録部に登録された文字候補のうち中心座
標が前記検索範囲内に存在する文字列を文字列候補とし
て抽出する文字列候補抽出部と、 前記文字列候補抽出部で抽出されたデータの中から、文
字列候補核の高さhcと文字列候補内の互いに隣接する文
字候補間の距離dがd<hc×k(kは定数)なる関係に
あるデータを文字列として抽出する文字列抽出部と、 前記文字列抽出部で抽出された文字列内の近接する複数
の文字候補の水平方向への射影が重なっているときに、
それら複数の文字候補を統合する高さ方向統合機能と、
該機能により統合された各文字候補と、英数文字および
記号の辞書とを比較して文字認識を行い、該複数の認識
結果に対応して、前記文字候補と辞書の文字との近似度
合を表す評価値を各々求める英数文字認識機能と、前記
英数文字および記号の辞書の文字、記号に各々対応し
て、同一文字、記号についての複数のサンプルと辞書の
文字、記号との近似度合を表す評価値列のうち最大値を
しきい値として設定し、該設定されたしきい値と前記英
数文字認識機能で求められた評価値とを比較して、文字
列が英数文字列であるか否かを判定する文字列種類判定
機能と、該判定機能が英数文字列ではないと判定した文
字候補の幅と、前記hc×kの大きさに等しい幅の仮定文
字幅との第1偏差が、前記文字候補の幅と近傍の文字候
補の幅と前記文字候補と近傍文字候補との距離を合わせ
た大きさと前記仮定文字幅との第2偏差よりも大きく、
且つ前記第2偏差が所定のしきい値よりも小さいときに
前記文字候補とその近傍の文字候補を統合する幅方向統
合機能を有し、文字列から文字を切り出す文字切り出し
部とを備え、 前記文字切り出し部で切り出された文字データに基づい
て文字認識を行うことを特徴とする図面読取装置。
1. Character data is extracted from binarized pixel data corresponding to black and white obtained by raster-scanning a subject in which characters, line segments, and symbols are mixed, and the extracted character data and a character dictionary are referred to. In a drawing reading apparatus for comparing and recognizing characters, a vector connecting two adjacent black pixels is combined based on binarized pixel data corresponding to black and white obtained by raster scanning the subject. A contour vectorization processing unit that determines data of a contour vector composed of the following and obtains as a character candidate based on circumscribed rectangle data circumscribing the contour vector, and circumscribed rectangle data of the character candidate obtained by the contour vectorization processing unit A registration unit to be registered in a tree structure, and a search range is determined from a nucleus of a character string candidate set to a predetermined size. A character string candidate extraction unit that extracts a character string Chi center coordinates are present within the search range as a candidate character string from among the data extracted by the character string candidate extraction unit, a character string candidate nuclear height h a character string extracting unit that extracts, as a character string, data in which a distance d between c and a character candidate adjacent to each other in the character string candidate is d <h c × k (k is a constant); When the horizontal projections of multiple adjacent character candidates in the character string extracted in
A height direction integration function that integrates these multiple character candidates,
Each character candidate integrated by the function is compared with a dictionary of alphanumeric characters and symbols to perform character recognition, and in accordance with the plurality of recognition results, the degree of approximation between the character candidate and a character in the dictionary is determined. An alphanumeric character recognition function for respectively obtaining evaluation values to be represented, and the degree of approximation between a plurality of samples of the same character and symbol and the dictionary characters and symbols corresponding to the characters and symbols of the dictionary of alphanumeric characters and symbols, respectively. Is set as the threshold value, and the set threshold value is compared with the evaluation value obtained by the alphanumeric character recognition function to determine that the character string is an alphanumeric character string. Character string type determination function to determine whether or not, the width of the character candidate determined that the determination function is not an alphanumeric character string, the assumed character width of the width equal to the size of h c × k Is the width of the character candidate, the width of a nearby character candidate and the character Greater than the second difference between the size and the assumed character width the combined distance between neighboring character candidate,
A character cutout unit that has a width direction integration function of integrating the character candidate and a character candidate in the vicinity thereof when the second deviation is smaller than a predetermined threshold value, and that cuts out a character from a character string; A drawing reading apparatus for performing character recognition based on character data cut out by a character cutout unit.
JP2156070A 1990-06-14 1990-06-14 Drawing reader Expired - Fee Related JP2917427B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2156070A JP2917427B2 (en) 1990-06-14 1990-06-14 Drawing reader

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2156070A JP2917427B2 (en) 1990-06-14 1990-06-14 Drawing reader

Publications (2)

Publication Number Publication Date
JPH0452783A JPH0452783A (en) 1992-02-20
JP2917427B2 true JP2917427B2 (en) 1999-07-12

Family

ID=15619648

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2156070A Expired - Fee Related JP2917427B2 (en) 1990-06-14 1990-06-14 Drawing reader

Country Status (1)

Country Link
JP (1) JP2917427B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8611792B2 (en) 2010-03-30 2013-12-17 Brother Kogyo Kabushiki Kaisha Opening/closing device for upper unit case, and image recording apparatus provided with the same
EP2372058B1 (en) 2010-03-30 2015-09-23 Brother Kogyo Kabushiki Kaisha Opening and closing apparatus
EP2372057B1 (en) * 2010-03-30 2016-04-27 Brother Kogyo Kabushiki Kaisha Opening and closing apparatus
JP5003920B2 (en) * 2010-03-31 2012-08-22 ブラザー工業株式会社 Upper unit case opening and closing device

Also Published As

Publication number Publication date
JPH0452783A (en) 1992-02-20

Similar Documents

Publication Publication Date Title
US6917706B2 (en) Ruled line extracting apparatus for extracting ruled line from normal document image and method thereof
EP1016033B1 (en) Automatic language identification system for multilingual optical character recognition
KR100658119B1 (en) Apparatus and Method for Recognizing Character
US20030113016A1 (en) Pattern recognizing apparatus
EP0381773B1 (en) Character recognition apparatus
JP3411472B2 (en) Pattern extraction device
JP2000315247A (en) Character recognizing device
JP2917427B2 (en) Drawing reader
JP3476595B2 (en) Image area division method and image binarization method
JPH06180771A (en) English letter recognizing device
JP2797523B2 (en) Drawing follower
JPH06187489A (en) Character recognizing device
Bushofa et al. Segmentation and Recognition of Printed Arabic Characters.
JP2697790B2 (en) Character type determination method
JP3197441B2 (en) Character recognition device
JP3710164B2 (en) Image processing apparatus and method
JP3428504B2 (en) Character recognition device
KR100248384B1 (en) Individual character extraction method in multilingual document recognition and its recognition system
JPH03189888A (en) Kind decision device for character string in drawing reader
KR100317653B1 (en) An feature extraction method on recognition of large-set printed characters
JPH05242294A (en) Drawing reader
JPH0757047A (en) Character segmentation system
Buchowski et al. OMNIREC: a character recognition system
JPH0334081A (en) Drawing reader
JPH03163683A (en) Drawing reader

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees