JP2001344569A - Method for recognizing character and recording medium - Google Patents

Method for recognizing character and recording medium

Info

Publication number
JP2001344569A
JP2001344569A JP2001077590A JP2001077590A JP2001344569A JP 2001344569 A JP2001344569 A JP 2001344569A JP 2001077590 A JP2001077590 A JP 2001077590A JP 2001077590 A JP2001077590 A JP 2001077590A JP 2001344569 A JP2001344569 A JP 2001344569A
Authority
JP
Japan
Prior art keywords
tag
character
boundary point
tags
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001077590A
Other languages
Japanese (ja)
Inventor
Toshihiro Suzuki
俊博 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2001077590A priority Critical patent/JP2001344569A/en
Publication of JP2001344569A publication Critical patent/JP2001344569A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To appropriately segment an adjacent or contact character string and also to improve recognition accuracy while suppressing the increase of processing time. SOLUTION: A cross section series graph is extracted (2) from input image data (1), and an element tag for managing the cross section series graph is generated (3). A virtual boundary dot sequence is generated (4) for the peculiar area of a cross section series. A character candidate is generated by combining element tags, one character us recognized (7) by tilling up the virtual boundary dot sequence necessary to the character candidate, a link is generated between character candidates in which one character is recognized, a path is generated (6) between links, an optimum path is selected and the recognition results of a character string are outputted.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、文字認識におい
て、一文字を認識する機能と、接触文字や分離文字等を
適切に切り出して認識する文字列認識機能とを有する文
字認識方法および文字認識処理プログラムを記録した記
録媒体に関し、例えば複数行の文字列認識や罫線接触な
どを考慮した文字列認識などに適用される。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a character recognition method and a character recognition processing program having a function of recognizing one character and a character string recognition function of appropriately cutting out and recognizing a contact character or a separated character in character recognition. Is applied to, for example, character string recognition in which a plurality of lines are recognized, character string recognition in consideration of ruled line contact, and the like.

【0002】[0002]

【従来の技術】文字列を認識する従来技術として、例え
ば特開平5−233877号公報に記載された単語読み
取り方法がある。この方法では、文字が極端に分離して
いたりあるいは接触している場合でも、複数の切り出し
方法によって文字を切り出すことにより、正しい文字パ
ターンが得られるようにしている。
2. Description of the Related Art As a conventional technique for recognizing a character string, for example, there is a word reading method described in Japanese Patent Application Laid-Open No. 5-233877. In this method, even when characters are extremely separated or in contact with each other, a correct character pattern can be obtained by cutting out characters by a plurality of cutting-out methods.

【0003】上記した方法では、文字を切り出す際に、
文字列パターンの周辺分布のデータと、外接矩形のデー
タを用いている。つまり、周辺分布を基に矩形を垂直に
分割している。また、従来の文字認識方法では、文字候
補を処理するために画像データに直接アクセスする構成
が採られていた。
In the above-described method, when cutting out characters,
The data of the peripheral distribution of the character string pattern and the data of the circumscribed rectangle are used. That is, the rectangle is vertically divided based on the peripheral distribution. Further, the conventional character recognition method employs a configuration in which image data is directly accessed to process a character candidate.

【0004】[0004]

【発明が解決しようとする課題】近接文字列あるいは接
触文字列には、互いに矩形状に分離できないもの、ある
いは直線的に分割できないものがある。上記した従来の
方法は、このような近接文字列あるいは接触文字列につ
いても矩形を単位として認識処理しているので、認識精
度上の限界がある。
There are some adjacent character strings or contact character strings that cannot be separated into rectangular shapes or those that cannot be divided linearly. In the above-described conventional method, recognition processing is also performed on such a proximity character string or a contact character string in units of rectangles, and thus there is a limit in recognition accuracy.

【0005】また、画像データにアクセスする必要があ
るため、処理時間の増大が避けられない。
[0005] Further, since it is necessary to access image data, an increase in processing time is inevitable.

【0006】本発明は、上記した問題点に鑑みてなされ
たもので、本発明の目的は、仮想境界点列を用いること
により、近接あるいは接触文字列を適切に切り出すと共
に、処理時間の増大を抑制しつつ、認識精度を向上させ
た文字認識方法および記録媒体を提供することにある。
SUMMARY OF THE INVENTION The present invention has been made in view of the above problems, and an object of the present invention is to use a virtual boundary point sequence to appropriately cut out a proximity or contact character string and to increase processing time. An object of the present invention is to provide a character recognition method and a recording medium in which recognition accuracy is improved while suppressing the occurrence.

【0007】本発明の他の目的は、異なる階層の画像特
徴をタグで管理することにより、認識処理の高速化を図
った文字認識方法および記録媒体を提供することにあ
る。
It is another object of the present invention to provide a character recognition method and a recording medium in which recognition processing is speeded up by managing image characteristics of different hierarchies by using tags.

【0008】[0008]

【課題を解決するための手段】本発明では、断面系列グ
ラフの特異領域に対して仮想境界点列を生成することに
より、接触文字の分離を可能とする。分離文字は仮想境
界点列と境界点列で表されて文字認識される。上記した
仮想境界点列は、滑らかな曲線で作成され、文字認識の
認識精度を向上させる。
According to the present invention, a contact character can be separated by generating a virtual boundary point sequence for a singular region of a sectional sequence graph. Separated characters are represented by a virtual boundary point sequence and a boundary point sequence and are recognized. The above-described virtual boundary point sequence is formed with a smooth curve, and improves the recognition accuracy of character recognition.

【0009】また、本発明では、断面系列グラフの構造
要素をタグで管理すると共に、タグの表現形式(論理構
造)を共通化する。
Further, in the present invention, the structural elements of the sectional sequence graph are managed by tags, and the expression form (logical structure) of the tags is shared.

【0010】[0010]

【発明の実施の形態】以下、本発明の一実施例を図面を
用いて具体的に説明する。まず、本発明の原理について
説明する。本発明の基本となる考え方は、以下の3つで
ある。
DESCRIPTION OF THE PREFERRED EMBODIMENTS One embodiment of the present invention will be specifically described below with reference to the drawings. First, the principle of the present invention will be described. The basic idea of the present invention is the following three.

【0011】その第1は、「特徴要素(後述するSSタ
グ、SRタグ、BCCタグ)を組み合わせる」という考
え方である。これは断面系列グラフの利用および仮想境
界点列という新しい手法によって実現される。この手法
により、接触文字列を正しく切り出すことで認識精度を
向上させ、またその際の処理量の増大を抑制する。
The first is a concept of “combining characteristic elements (SS tags, SR tags, and BCC tags described later)”. This is realized by using a sectional sequence graph and a new method of a virtual boundary point sequence. By this method, the recognition accuracy is improved by correctly cutting out the contact character string, and an increase in the processing amount at that time is suppressed.

【0012】第2は、「複数種類の文字要素(断面系
列、特異領域、境界点列)と文字候補とに関する表現形
式の共通化」という考え方であり、異なる階層の特徴
(断面系列グラフの上位層と下位層)をタグで管理し、
タグの表現形式を共通化するという新しい手法により実
現される。これにより、処理量が圧縮され、特に処理手
段が簡易化される。
The second is the idea of "common use of expression forms relating to a plurality of types of character elements (cross-sectional series, singular regions, boundary point sequences) and character candidates". Layers and lower layers) with tags,
This is realized by a new method of standardizing the expression format of tags. Thereby, the processing amount is compressed, and the processing means is particularly simplified.

【0013】第3は、「階層性を利用した、バックトラ
ック型アプローチと仮説検証型(パス選択型)アプロー
チの融合」という考え方である。両者はよく知られてい
る既存の方法である。簡単に言えば、前者は、「怪しい
場合に限って処理をやり直す」というアプローチであ
る。後者は、「始めからより多くの可能性を列挙してお
いて、それらの組み合わせのなかで最適なものを選択す
る」というアプローチである。これらの融合は、上記し
たタグの導入に加え、そこでの予約・継承処理という新
しい手法により実現される。これにより、認識精度を維
持しつつ処理量の増大が抑制される。
The third is a concept of "integration of a backtrack type approach and a hypothesis verification type (path selection type) approach utilizing hierarchy". Both are well-known existing methods. To put it simply, the former is an approach of "redoing the process only in the case of doubt." The latter is an approach of "listing more possibilities from the beginning and selecting the best combination among them". These integrations are realized by a new method of reservation / inheritance processing in addition to the introduction of the tag described above. This suppresses an increase in the processing amount while maintaining the recognition accuracy.

【0014】すなわち、本発明は、「断面系列グラフに
仮想境界点列を加えて、タグで管理すること」によっ
て、認識精度と処理量とバランスを図っている。
That is, according to the present invention, the recognition accuracy and the processing amount are balanced by "adding a virtual boundary point sequence to a sectional sequence graph and managing it by tags".

【0015】(断面系列グラフ)まず、断面系列グラフ
について説明する。断面系列グラフとは、本発明者によ
って提案された線図形を表現する方法である(特許第2
615247号および特開平6−68305号公報を参
照)。
(Cross Section Series Graph) First, a cross section series graph will be described. The cross-sectional series graph is a method for expressing a line figure proposed by the present inventor (Japanese Patent No.
615247 and JP-A-6-68305).

【0016】すなわち、線図形イメージデータから線分
の方向にほぼ直交する断面を抽出し、この断面の連なり
を断面系列とし、また断面系列以外の領域を不明領域と
し、ノードで断面系列または不明領域を表わすとともに
アークでノードの接続関係を表わしたグラフ構造(断面
系列グラフ)を作成し、この断面系列グラフを線図形の
特徴とすることを骨子とするものである。
That is, a cross section substantially orthogonal to the direction of the line segment is extracted from the line graphic image data, a series of the cross sections is used as a cross section series, an area other than the cross section series is used as an unknown area, and a node is used as a cross section series or an unknown area. And a graph structure (cross-section sequence graph) representing the connection relation of nodes with arcs is created, and the main point is to make this cross-section sequence graph a feature of the line figure.

【0017】図12は、線図形イメージデータ(原画像
データ)と断面系列グラフ並びに骨格線(芯線))との
関係を示す。このような階層構造を持つ断面系列グラフ
による線分記述において、その構造要素である断面は線
分の方向にほぼ直交するという性質を持ち、またその上
位の構造要素である断面系列は、断面をあたかも時系列
のように順序付けたものとなっている(図12の(イ)
の部分)。不明領域は、断面系列に含まれない領域であ
って、線端や屈曲、分岐あるいは交差の面状の領域がこ
れに相当する(図12の(ロ)の部分)。
FIG. 12 shows a relationship between line graphic image data (original image data), a sectional series graph, and a skeleton line (core line). In a line segment description using a cross-sectional series graph having such a hierarchical structure, the cross-section that is the structural element has the property of being substantially orthogonal to the direction of the line segment. They are ordered as if they were time series ((a) in FIG. 12).
Part). The unknown region is a region that is not included in the cross-sectional series, and corresponds to a line-shaped end, a bent, branched, or crossed planar region (a part (b) in FIG. 12).

【0018】このように断面系列グラフは、線図形を単
純な線とそうでない部分に明確に分けて線図形を記述し
たシンプルなものであり、これに基づいて骨格線等の構
造的特徴マッチングや大まかな構造的マッチングをとる
ことが容易になる。
As described above, the cross-sectional series graph is a simple one in which a line figure is clearly divided into a simple line and a part which is not so, and a line figure is described. Rough structural matching is facilitated.

【0019】断面系列グラフは、画像データを階層的に
記述するものである。図13は、文字列画像の例であ
り、図14は、これに対する断面系列グラフの境界点と
断面を示し、図15は、断面系列グラフの断面系列と特
異領域を示す。
The sectional sequence graph describes image data hierarchically. FIG. 13 shows an example of a character string image. FIG. 14 shows a boundary point and a cross section of the cross-sectional series graph, and FIG. 15 shows a cross-sectional series and a singular region of the cross-sectional series graph.

【0020】図14において、輪郭上の各点(黒画素
側)を境界点と呼ぶ。また、輪郭に相当する境界点の並
びを境界点列と呼ぶ。境界点列の種類には、外側と内側
とがあり、図14の例では、1つの外側境界点列と、2
つの内側境界点列(図14の“8”という文字の内側に
ある“○”と“○”部分)がある。
In FIG. 14, each point on the contour (black pixel side) is called a boundary point. The arrangement of the boundary points corresponding to the outline is called a boundary point sequence. The types of the boundary point sequence include an outer side and an inner side. In the example of FIG.
There are two inner boundary point sequences (“O” and “O” portions inside the character “8” in FIG. 14).

【0021】また、断面とは、線分の方向にほぼ直交す
るように求めた境界点ペアのことであり、図14では境
界点を結ぶ直線で表現されている。断面を隙間なく矛盾
なく並べた一連の並びが断面系列であり、それ以外が特
異領域である。特異領域は、前掲した特許第26152
47号では、不明領域に相当している。本発明では特異
領域という。断面系列が通常の文字線部を表し、特異領
域がその接続部や端点部を表している。
A cross section is a pair of boundary points determined so as to be substantially orthogonal to the direction of the line segment, and is represented by a straight line connecting the boundary points in FIG. A series of cross-sections without any inconsistency are a series of cross-sections, and the rest are singular regions. The specific region is described in the above-mentioned Patent No. 26152.
In No. 47, it corresponds to an unknown area. In the present invention, it is called a unique region. The cross-sectional series represents a normal character line portion, and the unique region represents a connection portion or an end point portion.

【0022】{境界点、境界点列、断面、断面系列、特
異領域}という構造要素は、それら自体が特徴であると
ともに、それらを組み合わせることによって、画像デー
タを構造化する役割も持っている。
The structural elements {boundary point, boundary point sequence, cross section, cross section series, and unique area} are features themselves and also have a role of structuring image data by combining them.

【0023】{境界点、境界点列、断面}を下位層の構
造要素とし、{断面系列、特異領域}を上位層の構造要
素とすることにより、上位層は線図形(文字)の大まか
な構造を表し、下位層はより詳細な構造を表している。
By defining {Boundary point, boundary point sequence, cross section} as a structural element of the lower layer, and {Cross section series, singular region} as a structural element of the upper layer, the upper layer is roughly composed of line figures (characters). The lower layer represents a more detailed structure.

【0024】ただし、本発明においては、後述する抽出
ステップのエラー対策などを考慮して、断面という構造
要素を、下位層ではなく上位層に位置づけて説明する。
However, in the present invention, a structural element called a cross section will be described as being positioned not in a lower layer but in an upper layer in consideration of error measures in an extraction step described later.

【0025】本発明では、断面系列グラフを利用するこ
とを基本としているが、その具体的な表現方法を図16
〜20に示す。図16〜20は、それぞれの構造要素の
記述形式と抽出方法とを示したものである。抽出方法に
ついては、前掲した特許第2615247号等に記載に
されているので省略する。
The present invention is based on the use of a cross-sectional series graph.
~ 20. 16 to 20 show the description format and extraction method of each structural element. The extraction method is described in the above-mentioned Patent No. 2615247 and the like, and will not be described.

【0026】図16は、境界点の表現形式を示す。1つ
の境界点は、1つの構造体で記述される。その構造体
は、具体的には、図16の右に示すように、メモリ上の
連続領域18に配置され、この連続領域18は、その上
限を示すMbと、実際に使われている境界点数Nbの2
つの変数によって管理される。
FIG. 16 shows an expression form of the boundary points. One boundary point is described by one structure. Specifically, as shown on the right side of FIG. 16, the structure is arranged in a continuous area 18 on the memory, and the continuous area 18 has Mb indicating the upper limit thereof and the number of boundary points actually used. Nb 2
Is managed by two variables.

【0027】境界点構造体10は、座標値(x、y)1
1、濃淡傾き方向(Dx、Dy)12(文字背景から文
字線部に向かう方向であり、境界方向とほぼ垂直)、断
面系列番号13、境界点列番号14、前境界点の番号1
5(文字線部を左に見て次に現れる境界点の番号)、後
境界点の番号16(文字線部を左に見て、前に現れた境
界点の番号)、対向境界点の番号17(注目境界点pか
ら濃淡傾き方向に黒画素を探索して最初に現れた境界点
qを、pに対する対向境界点と呼び、前掲した特許で延
長境界点と呼ぶもの)からなる。
The boundary point structure 10 has a coordinate value (x, y) 1
1. Shading gradient direction (Dx, Dy) 12 (direction from the character background to the character line portion, almost perpendicular to the boundary direction), section sequence number 13, boundary point sequence number 14, front boundary point number 1
5 (the number of the boundary point that appears next when the character line portion is viewed to the left), the number 16 of the rear boundary point (the number of the boundary point that appeared before the character line portion is viewed to the left), and the number of the opposite boundary point 17 (a boundary point q that first appears when a black pixel is searched for from the boundary point p of interest in the direction of shading is referred to as an opposing boundary point to p and is referred to as an extended boundary point in the above-mentioned patent).

【0028】図17は、境界点列の表現形式を示す。前
述した境界点構造体と同様に、1つの境界点列は、1つ
の構造体で記述され、複数の境界点列0〜Mb−1がメ
モリ上の連続領域27に配置されている。
FIG. 17 shows an expression format of the boundary point sequence. Similarly to the above-described boundary point structure, one boundary point sequence is described by one structure, and a plurality of boundary point sequences 0 to Mb-1 are arranged in the continuous area 27 on the memory.

【0029】境界点列構造体20は、ステータス21
(外側境界点列、内側境界点列、ノイズを区別するフラ
グ)、最上左の境界点番号22、境界点数23(一周す
るときの境界点数)、境界点列の外接矩形の左上座標値
(Xs、Ys)24、境界点列の外接矩形の右下外接座
標値(Xe、Ye)25、ワークフラグ26(様々な処
理で一時的に使用されるワーク変数)からなる。
The boundary point sequence structure 20 has a status 21
(Outer boundary point sequence, inner boundary point sequence, flag for distinguishing noise), uppermost left boundary point number 22, boundary point number 23 (number of boundary points for one round), upper left coordinate value (Xs , Ys) 24, the lower right circumscribed coordinate value (Xe, Ye) 25 of the circumscribed rectangle of the boundary point sequence, and the work flag 26 (work variables temporarily used in various processes).

【0030】図18は、断面の表現形式を示す。前述し
た構造体と同様に、1つの断面は、1つの構造体で記述
され、複数の断面0〜Ms−1がメモリ上の連続領域3
5に配置されている。
FIG. 18 shows an expression form of a cross section. Similarly to the above-described structure, one cross section is described by one structure, and a plurality of cross sections 0 to Ms−1 are connected to the continuous area 3 on the memory.
5.

【0031】断面構造体30は、一方の境界点の番号
(b1)31、他方の境界点の番号(b2)32、b1
の前方向側の断面の番号33、b2の後方向側の断面の
番号34からなる。
The cross-sectional structure 30 has one boundary point number (b1) 31, the other boundary point number (b2) 32, b1
No. 33 of the cross section on the front side of No. 3 and number 34 of the cross section on the rear side of b2.

【0032】図19は、断面系列の表現形式を示す。断
面系列構造体40は、ステータス41(有効/無効を示
すフラグ)、断面数42、Head側の断面番号43
(断面系列のある断面が、前方向に別の断面を持たない
とき、その断面を断面系列のHeadと呼ぶ)、Tai
l側の断面番号44(ある断面が後方向に断面を持たな
いとき、その断面を断面系列のTailと呼ぶ)、He
ad側の特異領域番号45、Tail側の特異領域番号
46、平均断面長47(推定線幅に相当)、その他のワ
ーク変数48(グラフ表現の点(ノード)番号など)か
らなる。
FIG. 19 shows an expression format of a sectional series. The sectional series structure 40 has a status 41 (a flag indicating valid / invalid), a number of sections 42, and a section number 43 on the Head side.
(When a cross section in a cross section series does not have another cross section in the forward direction, the cross section is called a cross section series Head), Tai
Section number 44 on the l side (when a section does not have a section in the backward direction, the section is called a Tail of a section series), He
It is composed of a unique area number 45 on the ad side, a unique area number 46 on the Tail side, an average section length 47 (corresponding to the estimated line width), and other work variables 48 (point (node) numbers in a graph expression, etc.).

【0033】図20は、特異領域の表現形式を示し、特
異領域構造体50は、ステータス51(有効/無効を示
すフラグ)、接続する断面系列の数52(以下の2つの
配列の有効数)、断面系列番号の列53、接続タイプの
列54(列53と列54は互いに対応する配列であり、
タイプとは断面系列の端を区別するものである)、外接
座標値(Xs、Ys)55、外接座標値(Xe、Ye)
56、その他のワーク変数57(グラフ表現の点(ノー
ド)番号など)からなる。
FIG. 20 shows the expression format of the unique region. The unique region structure 50 includes a status 51 (a flag indicating valid / invalid) and the number 52 of cross-sectional series to be connected (the effective number of the following two arrays). , Section series number column 53, connection type column 54 (column 53 and column 54 are arrays corresponding to each other,
The type distinguishes the end of the sectional series), circumscribed coordinate values (Xs, Ys) 55, circumscribed coordinate values (Xe, Ye)
56, and other work variables 57 (points (nodes) of graph representation, etc.).

【0034】上記した構造体の断面系列の番号、境界点
列の番号などを介して、他の構造体にアクセスすること
が可能となる。
It is possible to access other structures through the numbers of the sectional series of the structures and the numbers of the boundary point sequence.

【0035】断面系列グラフは、前掲した特許に記載さ
れているように、それを求める過程で、骨格のグラフ表
現が抽出される。また、境界点列を多角形近似すること
により、輪郭のグラフ表現を抽出することも可能であ
る。これらのグラフ表現を解析する方法と併用すること
で、一文字を認識する手段を実現することができる。ま
た、境界点の方向性などを統計的に解析する方法と併用
することにより、異なる一文字認識手段を実現すること
ができる。
As described in the above-mentioned patent, in the process of obtaining the cross-sectional series graph, a graph representation of a skeleton is extracted. It is also possible to extract a graph representation of the outline by approximating the boundary point sequence with a polygon. By using the method of analyzing these graph expressions in combination, a unit for recognizing one character can be realized. In addition, a different one-character recognizing unit can be realized by using the method together with a method of statistically analyzing the direction of the boundary point.

【0036】以下の説明では、上記した構造要素を次の
ように表記する。境界点をB(Borderの略)、境
界点列をC(Contourの略)、断面をS(Sli
ceの略)、断面系列をSS(Slice Seque
nceの略)、特異領域をSR(Singular R
egionの略)で表す。
In the following description, the above-mentioned structural elements are described as follows. The boundary point is B (abbreviation of Border), the boundary point sequence is C (abbreviation of Contour), and the cross section is S (Sli).
ce), and SS (Slice Seque)
nce), the unique region is designated by SR (Singular R)
(short for egion).

【0037】(仮想境界点列について)本発明の一つの
特徴は、仮想境界点列という考え方を用いる点にある。
これを図を用いて説明する。
(Regarding Virtual Boundary Point Sequence) One feature of the present invention is that the concept of a virtual boundary point sequence is used.
This will be described with reference to the drawings.

【0038】図21は、境界点bsから境界点beへと
つながる仮想境界点列セグメントを示す。仮想境界点列
セグメントの各境界点は黒丸で示され、これらは図16
と同一の表現形式で記述される。図16の境界点構造体
10には、前境界点の番号15と後境界点の番号16と
があるが、これらを用いて境界点構造体は双方向リスト
状に接続される。
FIG. 21 shows a virtual boundary point sequence segment connected from the boundary point bs to the boundary point be. Each boundary point of the virtual boundary point sequence segment is indicated by a black circle, and these are shown in FIG.
It is described in the same expression format as. The boundary point structure 10 in FIG. 16 includes a front boundary point number 15 and a rear boundary point number 16, and these are used to connect the boundary point structures in a bidirectional list.

【0039】本来は、開始境界点bsとbsの次境界点
bsR(RはRealの略)が接続されていたものを、
この接続を切り替えて、bsとbsの仮想次境界点bs
V(VはVirtualの略)が接続されているように
すれば、あたかも電車のポイント切換えを行ったかのよ
うになる。終了境界点be側でも同様につなぎ換えた上
で、境界点を辿ったならば、得られる境界点列(広義の
仮想境界点列)は、元のものとは異なったものとなる。
この仮想境界点列は、後述するように、接触文字の分離
を表現する際に、有効に機能する。
Originally, the start boundary point bs and the next boundary point bsR (R is abbreviation of Real) after bs are connected.
By switching this connection, the virtual next boundary point bs between bs and bs
If V (V is an abbreviation for Virtual) is connected, it is as if the point of the train was switched. If the connection is similarly switched on the end boundary point be side and the boundary point is traced, the obtained boundary point sequence (virtual boundary point sequence in a broad sense) is different from the original one.
This virtual boundary point sequence functions effectively when expressing separation of contact characters, as described later.

【0040】仮想境界点列セグメントとそのつなぎ換え
情報とを合わせて、狭義の仮想境界点列と呼び、仮想境
界点列は図22の表現形式で記述される。構造体の管理
方法は、図16〜20で説明した方法と同様である。
The virtual boundary point sequence segment and the reconnection information are collectively referred to as a virtual boundary point sequence in a narrow sense, and the virtual boundary point sequence is described in an expression form shown in FIG. The structure management method is the same as the method described with reference to FIGS.

【0041】図22に示す仮想境界点列構造体60は、
後述する(図23に示す)キー61、境界点数62、図
21で説明した開始境界点番号(bs)63、bsの次
境界点番号(bsR)64、bsの仮想次境界点番号
(bsV)65(これら3つが開始境界点の接続換え情
報に相当)、終了境界点番号(be)66、beの前境
界点番号(beR)67、beの仮想前境界点番号(b
eV)68(これら3つが終了境界点の接続換え情報に
相当)から構成されている。
The virtual boundary point sequence structure 60 shown in FIG.
A key 61 described later (shown in FIG. 23), a boundary point number 62, a start boundary point number (bs) 63 described in FIG. 21, a next boundary point number (bsR) 64 for bs, and a virtual next boundary point number (bsV) for bs 65 (these three correspond to the connection change information of the start boundary point), the end boundary point number (be) 66, the front boundary point number (beR) 67 of be, and the virtual front boundary point number (b) of be
eV) 68 (these three correspond to the connection change information at the end boundary point).

【0042】キー61は、求められた仮想境界点列を、
後で検索するための情報である。キーの形式は、図23
に示すように、特異領域番号611と、開始境界点(b
s)を持つ断面系列の参照番号612と、終了境界点
(be)を持つ断面系列の参照番号613からなり、特
異領域の接続パターンを表したものである。なお、仮想
境界点列を動的に求める場合には、このキーを省略する
ことができる。
The key 61 is used to store the calculated virtual boundary point sequence
Information for later retrieval. The format of the key is shown in FIG.
As shown in the figure, the unique region number 611 and the start boundary point (b
A reference number 612 of the cross-sectional series having the s) and a reference number 613 of the cross-sectional series having the end boundary point (be) represent the connection pattern of the unique region. Note that this key can be omitted when dynamically obtaining a virtual boundary point sequence.

【0043】図23に示す接続パターン例は、図24の
特異領域(SR5)を対象としている。いま、特異領域
SR5と断面系列SS9(下側)、SS6(左側)が指
定された場合の接続パターンを考える。SR5から2つ
の断面系列を参照する場合、まず図20に示す特異領域
番号(SR5)の特異領域構造体50が参照され、次い
で配列データ53が参照される。この配列データは、反
時計回りの順序になるようにあらかじめ設定されてい
る。
The connection pattern example shown in FIG. 23 targets the unique region (SR5) in FIG. Now, consider a connection pattern when the singular region SR5 and the sectional series SS9 (lower side) and SS6 (left side) are designated. When referring to two cross-sectional series from SR5, first, the unique region structure 50 of the unique region number (SR5) shown in FIG. 20 is referenced, and then the sequence data 53 is referenced. This array data is set in advance so as to have a counterclockwise order.

【0044】すなわち、具体的には、配列の2番目にS
S6がセットされていて、3番目にSS9がセットされ
ているとする。この場合、接続パターンの表現は図23
に示すようになる。
That is, specifically, S
Suppose that S6 is set and SS9 is set third. In this case, the connection pattern is represented in FIG.
It becomes as shown in.

【0045】ところで、断面系列がループを構成して同
一の特異領域に接続する場合に問題が生じる。すなわ
ち、図24の例では、SS6の代わりにSS9の他方が
ある場合などでは、単純に断面系列番号のみで指定する
と、4つの境界点のうち、どれを開始点とし、どれを終
了点とすればよいかを特定できなくなる。
A problem arises when the cross-sectional series forms a loop and connects to the same unique region. That is, in the example of FIG. 24, when there is the other of SS9 instead of SS6, simply specifying only the cross-section series number indicates which of the four boundary points is the start point and which is the end point. It becomes impossible to specify whether to do it.

【0046】そこで、どのようにして仮想境界点列セグ
メントの開始点と終了点を特定するかについて、以下説
明する。
The following describes how to specify the start point and end point of the virtual boundary point sequence segment.

【0047】図24の例では、特異領域SR5に対し
て、4つの断面系列{SS3,SS6,SS7,SS
9}が接続している。
In the example of FIG. 24, four cross-sectional series {SS3, SS6, SS7, SS
9} are connected.

【0048】SR5から断面系列を参照するための情報
は、図20の配列データ53に相当する。これを、SR
5.SS[i](i=0,..,3)と表記する。これ
は、前述したように、SR5を左側に見るようにして反
時計周りに断面系列を並べるときの順序に一致している
ものとする。
Information for referring to the cross-sectional series from SR5 corresponds to the array data 53 in FIG. This is SR
5. Notated as SS [i] (i = 0,..., 3). It is assumed that this matches the order when the cross-sectional series are arranged counterclockwise as seen from the left side of SR5, as described above.

【0049】つまり、図24の場合は、 SR5.SS[0]=SS7, SR5.SS[1]=
SS3, SR5.SS[2]=SS6, SR5.S
S[3]=SS9 と表現される。
That is, in the case of FIG. SS [0] = SS7, SR5. SS [1] =
SS3, SR5. SS [2] = SS6, SR5. S
S [3] = SS9

【0050】さて、指定された断面系列は、SS9とS
S6であるから、 SR5.SS[0]:含まない, SR5.SS
[1]:含まない, SR5.SS[2]:含む, S
R5.SS[3]:含む と表現することができる。
Now, the designated sectional series is SS9 and S
Since it is S6, SR5. SS [0]: not included, SR5. SS
[1]: Not included, SR5. SS [2]: Include, S
R5. SS [3]: Included.

【0051】この系列をサイクリックに用いるとする
と、仮想境界点列セグメントを生成すべき箇所は、SR
5.SS[3]=SS9からSR5.SS[2]=SS
6であるから、結局は「含まない」断面系列の連続区間
を挟む断面系列に合致していることがわかる。
Assuming that this sequence is used cyclically, the location where the virtual boundary point sequence segment should be generated
5. SS [3] = SS9 to SR5. SS [2] = SS
Since it is 6, it can be understood that it eventually matches the cross-sectional series sandwiching the continuous section of the “excluding” cross-sectional series.

【0052】上記した例では、SR5.SS[0]〜S
R5.SS[1]が「含まない」連続区間であり、この
区間を挟むものが、一方はSR5.SS[3]=SS9
であり、他方はSR5.SS[2]=SS6である。
In the above example, SR5. SS [0]-S
R5. SS [1] is a continuous section “not including”, and one of which sandwiches this section is SR5. SS [3] = SS9
And the other is SR5. SS [2] = SS6.

【0053】これを一般化すると、SS番号をそのまま
用いるのではなく、「SRから参照されるSSを順に並
べてサイクリックに用いる場合の、含まれていないSS
連続区間の前にあるSSが開始側であり、後にあるSS
が終了側である」というルールになる。
When this is generalized, instead of using the SS numbers as they are, “SS numbers not included when the SSs referred to from the SRs are arranged in order and cyclically used are used.
The SS before the continuous section is the start side, and the SS after
Is the end side. "

【0054】さらに、「開始側に関しては、SRに最も
近い断面の内、SRに向かって右側の(最後の)境界点
を開始境界点とし、終了側に関しては、SRに最も近い
断面の内、SRに向かって左側の(最初の)境界点を終
了境界点とする」というルールを追加する。
Further, “on the start side, the (last) boundary point on the right side toward SR as the start boundary point among the cross sections closest to SR, and on the end side, among the cross sections closest to SR, The left (first) boundary point toward SR is the end boundary point. "

【0055】これらが、1つのSRと開始側のSSと終
了側のSSとが指定された場合に、接続パターンを決
め、開始境界点と終了境界点とを特定するためのルール
である。開始側のSSと終了側のSSとを入れ替える
と、他方の仮想境界点列セグメントが選ばれることにな
る。
These are rules for determining a connection pattern and specifying a start boundary point and an end boundary point when one SR, an SS on the start side, and an SS on the end side are designated. When the SS on the start side and the SS on the end side are exchanged, the other virtual boundary point sequence segment is selected.

【0056】なお、SRに接続するSSが3つ以上ある
場合には、いったんペアの組み合わせに置き換えてそれ
ぞれに上記したルールを適用することにより、正しく処
理することができる。また、図24のSR5.SS
[3]とSR5.SS[0]がこの順序で指定された場
合には、その間に抜けているSSがないことから、実境
界点列をそのまま使えばよい。また、SR5.SS
[i]とSR5.SS[i]とが指定された場合、つま
り全く同一のSSが指定された場合、この指定は端点と
して処理することに相当するが、上記した処理で例外な
く処理することができる。
If there are three or more SSs connected to the SR, correct processing can be performed by replacing the pair with a pair and applying the above rules to each pair. In addition, SR5. SS
[3] and SR5. If SS [0] is specified in this order, there is no missing SS in the meantime, so the actual boundary point sequence may be used as it is. In addition, SR5. SS
[I] and SR5. When SS [i] is designated, that is, when exactly the same SS is designated, this designation corresponds to processing as an end point, but can be processed without exception in the above-described processing.

【0057】次に、上記したように特定された2つの境
界点の間に、どのように仮想境界点列を生成するかにつ
いて説明する。
Next, how to generate a virtual boundary point sequence between the two boundary points specified as described above will be described.

【0058】最も簡単な方法は、2つの境界点を直線状
に結ぶときに通過する座標値を求めて、それを座標値と
する仮想的な境界点を生成する方法である。この方法
は、曲線的な滑らかさが失われ、接続箇所で不要な角が
生成されるので、認識精度を低下させる恐れがある。
The simplest method is to obtain a coordinate value that passes when connecting two boundary points in a straight line, and to generate a virtual boundary point using the coordinate values as the coordinate values. This method loses the curvilinear smoothness and generates unnecessary corners at the connection points, which may reduce recognition accuracy.

【0059】そこで、本発明では、2つの境界点の間を
直線状に結ぶのではなく、CGやフォント生成などの分
野で用いられる曲線発生方法を用いる。具体的には、2
点の座標値P0、P1およびその接線方向P0’、P
1’の推定値が得られるので、Fergusonの方法
等を用いることができる。Fergusonの方法と
は、上記4つのベクトルを3次多項式で結合したパラメ
トリックな方法であり、曲線発生の方法として知られて
いる。本発明は、Fergusonの方法に限定され
ず、他の曲線発生方法を用いてもよい。
Therefore, in the present invention, instead of connecting two boundary points in a straight line, a curve generation method used in fields such as CG and font generation is used. Specifically, 2
Point coordinate values P0, P1 and their tangential directions P0 ', P
Since an estimated value of 1 ′ is obtained, the Ferguson method or the like can be used. The Ferguson method is a parametric method in which the above four vectors are connected by a cubic polynomial, and is known as a method of generating a curve. The present invention is not limited to the Ferguson method, and other curve generation methods may be used.

【0060】本発明では、上記したように曲線発生方法
を用いて仮想境界点列を生成することができるので、認
識精度の向上に効果がある。
According to the present invention, since the virtual boundary point sequence can be generated by using the curve generation method as described above, it is effective in improving the recognition accuracy.

【0061】なお、線幅が非常に小さい場合には、仮想
境界点列セグメントの長さが短くなることから、補間の
精度が文字認識の精度にほとんど影響しないことがあ
る。また、両端の境界点がきわめて近い場合にも、同様
である。従って、このような場合には、あえて仮想境界
点を生成することなく、両端の境界点を論理的に直結す
ればよい。具体的には、境界点の接続情報のみを変更す
ればよい。これにより、処理量が削減される。
When the line width is very small, the length of the virtual boundary point sequence segment becomes short, and the accuracy of interpolation may hardly affect the accuracy of character recognition. The same applies when the boundary points at both ends are extremely close. Therefore, in such a case, the boundary points at both ends may be logically directly connected without intentionally generating a virtual boundary point. Specifically, only the connection information of the boundary point needs to be changed. Thereby, the processing amount is reduced.

【0062】以上説明したように、本発明に係る仮想境
界点列で重要な点は、「仮想境界点列は、画像平面上に
プロットされるのではなく、あくまでも断面系列グラフ
という特徴表現上で実現される」ことにある。
As described above, an important point in the virtual boundary point sequence according to the present invention is that the virtual boundary point sequence is not plotted on the image plane, but is merely represented on a feature expression such as a sectional sequence graph. Will be realized. "

【0063】(タグの表現形式)本発明の処理において
は、タグと呼ばれる論理的な構造要素が使用される。図
25は、タグの表現形式を示す。タグ構造体70は、ス
テータス71(有効/無効、統合許可有り/なし、およ
びタグの種類を示すフラグ)、子の数72(次の2つの
配列の有効数)、子の番号列73、子の種類列74(こ
の番号列と種類列は互いに対応する配列)、外接座標値
75(Xs、Ys)、76(Xe、Ye)、リンク先の
数77(次の2つの配列の有効数)、リンク先のタグ番
号の列78、リンク先の評価値の列79(タグ番号の列
と評価値の列は互いに対応する配列)、タグの評価値8
0、認識結果番号81、その他のワーク変数82(特異
領域の接続パターンを示す変数、対応する境界点数、ワ
ークフラグなどの一時的に使用される変数群)からな
る。
(Expression Form of Tag) In the processing of the present invention, a logical structural element called a tag is used. FIG. 25 shows a tag expression format. The tag structure 70 includes a status 71 (valid / invalid, integration permission / non-permission, and a flag indicating the type of tag), the number of children 72 (valid number of the following two arrays), a child number column 73, and a child number column 73. Column 74 (the number column and the type column correspond to each other), circumscribed coordinate values 75 (Xs, Ys), 76 (Xe, Ye), and the number 77 of link destinations (effective number of the following two arrays) Column 78 of the tag number of the link destination, column 79 of the evaluation value of the link destination (the column of the tag number and the column of the evaluation value correspond to each other), the evaluation value 8 of the tag
0, a recognition result number 81, and other work variables 82 (variables such as a variable indicating a connection pattern of a unique region, a corresponding number of boundary points, and a work flag).

【0064】上記したように、タグ構造体には、2種類
の配列ペアがある。前者の配列は、子を管理するもので
あり、これによって他のタグあるいは断面系列グラフの
構造要素を統一的に管理することができる。概念的に
は、タグと断面系列グラフの構造要素との縦のつながり
を表す。
As described above, the tag structure has two types of sequence pairs. The former array manages the children, and can thereby uniformly manage other tags or structural elements of the cross-sectional series graph. Conceptually, it represents a vertical connection between the tag and the structural element of the cross-sectional series graph.

【0065】後者の配列は、リンク先タグを管理するも
のであり、概念的には文字列方向のつながりを表す。タ
グ構造体は、前述した断面系列グラフの場合と同様に、
メモリ上の連続領域として管理される。
The latter array manages link destination tags and conceptually represents a connection in the character string direction. The tag structure is similar to the cross-sectional series graph described above,
It is managed as a continuous area on the memory.

【0066】タグは、子となるタグの内容に合わせて幾
つかの種類に分けられる。要素タグとは、白背景ではな
く黒成分の構造要素を子とするタグである。本発明で
は、断面系列グラフとの組み合わせで説明するので、以
下の3種類とするが、一般にはこの限りではない。以下
の説明は、図2を参照。
Tags are classified into several types according to the contents of the child tags. An element tag is a tag having a structural element of a black component as a child instead of a white background. In the present invention, the description will be made in combination with the cross-sectional series graph, so the following three types are available, but in general, the present invention is not limited thereto. See FIG. 2 for the following description.

【0067】要素タグの第1はSSタグであり、断面系
列を子とするタグである。要素タグの第2はSRタグで
あり、特異領域を子とするタグである。要素タグの第3
はBCCタグであり、境界点列を子とするタグである。
BCCは黒連結成分(Black Connected
Component)の略である。ただし、後述する
ように、実際に黒連結成分を求めるわけではない。ま
た、境界点列の一部が仮想境界点列である場合は、仮想
境界点列を子とするタグをVCタグと表記する。VC
は、仮想境界点列(Virtual Contour)
の略である。
The first of the element tags is an SS tag, which is a tag having a section series as a child. The second of the element tags is an SR tag, which is a tag having a specific region as a child. Third element tag
Is a BCC tag, which is a tag having a boundary point sequence as a child.
BCC stands for Black Connected Component (Black Connected Component)
Component). However, as described later, the black connected component is not actually obtained. When a part of the boundary point sequence is a virtual boundary point sequence, a tag having the virtual boundary point sequence as a child is described as a VC tag. VC
Is a virtual boundary point sequence (Virtual Contour)
Is an abbreviation for

【0068】なお、図25のタグ構造体では子の種類を
個別に設定できるようになっているため、1つのタグが
異なる種類の子をもつことができるが、説明が複雑化す
ることを避けるために、そのようなタグを考慮せず、上
記した名称を用いる。
In the tag structure shown in FIG. 25, the types of children can be set individually, so that one tag can have children of different types, but the description is not complicated. Therefore, the above-mentioned names are used without considering such tags.

【0069】VSタグとは、子をもたないタグであり、
図25の外接座標値を利用して空白領域を表現するのに
用いられる。VSは仮想空白(Virtual Spa
ce)の略である。文字列の始端および終端に対応する
タグを、それぞれRタグおよびEタグと表記する。それ
ぞれ、RootとEndの略である。
A VS tag is a tag having no children.
It is used to represent a blank area using the circumscribed coordinate values of FIG. VS is a virtual space (Virtual Spa).
ce). Tags corresponding to the start and end of the character string are denoted as an R tag and an E tag, respectively. Abbreviations of Root and End, respectively.

【0070】VCCタグとは、要素タグ(SSタグ、S
Rタグ、BCCタグ)またはVSタグを子とするタグで
ある。VCCは仮想連結成分(Virtual Con
nected Component)の略である。VC
Cタグは、切り出し方に関して1つの文字候補を表し、
文字認識の処理対象となるものである。
A VCC tag is an element tag (SS tag, S tag
R tag, BCC tag) or VS tag as a child. VCC is a virtual connected component (Virtual Con
abbreviated term for “connected Component”. VC
The C tag represents one character candidate for the extraction method,
This is a character recognition processing target.

【0071】パスタグとは、VCCタグとVSタグの総
称であり、パス生成とパス選択の対象となる。
The path tag is a general term for the VCC tag and the VS tag, and is a target for path generation and path selection.

【0072】リンクとは、既に述べたように、文字列方
向におけるタグ間の接続関係を表すものであり、主とし
てパスタグで用いられる。
As described above, a link indicates a connection relationship between tags in the character string direction, and is mainly used for a path tag.

【0073】パスとは、リンクを介してパスタグを順に
並べたものであり、Rタグに始まりEタグに終わる。文
字列に対する1つの解釈候補を表す。
A path is a sequence of path tags arranged in sequence via links, and begins with an R tag and ends with an E tag. Represents one interpretation candidate for a character string.

【0074】概念的には、タグもまた階層的な記述を実
現するものである。下位層として要素タグおよびVSタ
グを、上位層としてパスタグ(VCCタグとVSタグ)
を考えることができる。VSタグは両方にまたがってい
る。これは、空白については、それが文字間空白である
場合と文字内空白である場合との両方があり、両者に対
応するためである。
Conceptually, tags also implement a hierarchical description. Element tags and VS tags as lower layers, and path tags (VCC and VS tags) as upper layers
Can be considered. The VS tag straddles both. This is because there is a case where a space is a space between characters and a case where it is a space within a character, and the space corresponds to both.

【0075】要素タグは、さらに2つの階層に分けて考
えることができる。上位層がBCCタグであり、下位層
がSSタグ、SRタグである。
The element tags can be further divided into two layers. The upper layer is a BCC tag, and the lower layers are an SS tag and an SR tag.

【0076】そして、要素タグより下位の層を構成する
のが断面系列グラフである。ただし、断面系列グラフで
は、BCCが下位層で、SS、SRが上位層にあたる
が、要素タグとしては、SSタグ、SRタグが下位層
で、BCCタグが上位層になっている。これは、複数の
境界点列を集めて黒連結成分に相当するものをBCCタ
グとしていて、より粗い表現と見なせるからである。
The section sequence graph constitutes a layer lower than the element tag. However, in the cross-sectional series graph, BCC is the lower layer and SS and SR correspond to the upper layer, but as element tags, the SS tag and SR tag are the lower layer and the BCC tag is the upper layer. This is because a plurality of boundary point sequences are collected and the one corresponding to the black connected component is used as the BCC tag, which can be regarded as a coarser expression.

【0077】タグには、2つの役割がある。その1つ
は、文字要素(構造要素)と文字認識手段との間を架橋
するという役割である。これは、VCCタグから要素タ
グを介して構造要素にアクセスできるという形で実現さ
れる。これが「特徴要素の組み合わせ」を実現するうえ
で、有効に作用する。また、要素タグを導入することに
よって、構造要素の種類の違いを吸収することができ
る。
The tag has two roles. One of the functions is to bridge between character elements (structural elements) and character recognition means. This is achieved in that the VCC tag can access the structural element via the element tag. This effectively acts to realize the “combination of characteristic elements”. Also, by introducing element tags, differences in the types of structural elements can be absorbed.

【0078】他の1つは、パス選択を中心とする文字列
認識の操作対象としての役割である。この2つの役割を
兼ね備えているところに、タグの特徴がある。このよう
に処理対象の表現形式がタグとして共通化されているの
で、様々な処理を共有できるようになる。したがって、
実現手段の簡易化を図ることができる。
The other is a role as an operation target of character string recognition centering on path selection. A feature of the tag is that it has both of these roles. As described above, since the expression format of the processing target is shared as a tag, various processing can be shared. Therefore,
The implementation means can be simplified.

【0079】こうしたタグを中心として全体を制御する
ためのタグ制御構造体を図26に示す。図26におい
て、処理モード変数群は、ユーザに指定された文字種や
機能(一文字認識/文字列認識機能)、および層優先度
を示すための変数群である。層優先度とは、断面系列グ
ラフをどの層まで求めるか、要素タグの何れの層を優先
するか、に係わる情報である。
FIG. 26 shows a tag control structure for controlling the entire operation centering on such a tag. In FIG. 26, the processing mode variable group is a variable group for indicating the character type and function (single character recognition / character string recognition function) designated by the user, and the layer priority. The layer priority is information relating to up to which layer of the sectional sequence graph is to be obtained and which layer of the element tag has priority.

【0080】続いて、断面系列グラフの構成要素および
仮想境界点配列へのポインタ群、およびタグ配列へのポ
インタが並ぶ。
Subsequently, the elements of the sectional sequence graph, the group of pointers to the virtual boundary point array, and the pointers to the tag array are arranged.

【0081】図29は、タグのソート結果配列を示す。
この配列は、タグを直接に並び替えるのではなく、タグ
に番号を付け、その番号を並び替えた結果を示す。この
配列の上限は一定であるが、その配列の有効数は処理の
過程で変化する。
FIG. 29 shows a tag sorting result array.
This array shows the result of numbering tags and rearranging the numbers, rather than reordering the tags directly. Although the upper limit of this array is fixed, the effective number of the array changes during the processing.

【0082】さらに、パスを表現する配列、認識結果配
列へのポインタ、文字列の幾何的情報等の変数群が続
く。タグ制御構造体の最後に、特徴あるタグの番号群と
して配列がある。図28は、タグ配列の使用を説明する
図である。タグ配列は、先頭から順に使用されるので、
処理の過程でその有効数が次第に増えていくことにな
る。しかしながら、図28に示すように、特徴的なタグ
の番号を覚えておくことができ、これによって各ステッ
プで処理対象となるタグの範囲を限定することができ
る。
Further, a variable group such as an array expressing a path, a pointer to a recognition result array, and geometric information of a character string follows. At the end of the tag control structure, there is an array as a group of characteristic tag numbers. FIG. 28 is a diagram illustrating the use of a tag array. Since the tag array is used in order from the beginning,
The effective number will gradually increase in the course of processing. However, as shown in FIG. 28, the number of a characteristic tag can be remembered, and thereby the range of the tag to be processed in each step can be limited.

【0083】例えば、要素タグは、先頭から最初のRタ
グの直前まで VSタグは、RタグからEタグまで 下位層のタグは、先頭からEタグまで(要素タグ+VS
タグなので) VCCタグは、VCCタグの最初からVCタグの直前ま
で 上位層タグは、RタグからVCタグの直前まで(VSタ
グ+VCCタグ)となる。
For example, the element tag is from the beginning to immediately before the first R tag. The VS tag is from the R tag to the E tag. The lower layer tags are from the beginning to the E tag (element tag + VS
(Because it is a tag) The VCC tag is from the beginning of the VCC tag to immediately before the VC tag. The upper layer tag is from the R tag to immediately before the VC tag (VS tag + VCC tag).

【0084】これをソート結果配列と併用すれば、タグ
の入れ替えを回避したまま処理範囲を限定することが可
能となる。
If this is used in combination with the sorting result array, it is possible to limit the processing range while avoiding the replacement of tags.

【0085】以下、本発明の実施例を説明する。図1
は、本発明の実施例の概要を説明する処理フローチャー
トである。また、図2は、本発明に係るタグの階層を説
明する図である。図1、2を参照して本発明の処理の概
要を説明する。
Hereinafter, embodiments of the present invention will be described. FIG.
FIG. 5 is a process flowchart for explaining an outline of an embodiment of the present invention. FIG. 2 is a diagram illustrating a hierarchy of tags according to the present invention. The outline of the processing of the present invention will be described with reference to FIGS.

【0086】画像データを入力し(ステップ101)、
画像データから断面系列グラフを抽出する(ステップ1
02)。次いで、断面系列グラフを管理するための要素
タグを生成する(ステップ103)。要素タグの上位層
であるBCCタグは、断面系列グラフの下位層を管理
し、要素タグの下位層であるSSタグとSRタグは、断
面系列グラフの上位層を管理する。
The image data is inputted (step 101).
Extract a sectional series graph from the image data (Step 1)
02). Next, an element tag for managing the sectional sequence graph is generated (step 103). The BCC tag, which is the upper layer of the element tag, manages the lower layer of the sectional sequence graph, and the SS tag and SR tag, which are the lower layers of the element tag, manage the upper layer of the sectional sequence graph.

【0087】続いて、断面系列の特異領域に対して仮想
境界点列を生成し(ステップ104)、要素タグを組み
合わせることにより文字候補を生成する(ステップ10
5)。文字候補はVCCタグで管理される。
Subsequently, a virtual boundary point sequence is generated for the singular region of the sectional series (step 104), and character candidates are generated by combining element tags (step 10).
5). Character candidates are managed by VCC tags.

【0088】次いで、文字候補に必要な仮想境界点列を
補ってから一文字を認識し(ステップ106)、一文字
認識された文字候補間にリンクを生成する(ステップ1
07)。リンクをたどってパスを生成し、最適なパスを
選択して(ステップ108)、文字列の認識結果を出力
する(ステップ109)。
Next, one character is recognized after supplementing the virtual boundary point sequence required for the character candidate (step 106), and a link is generated between the character candidates recognized for one character (step 1).
07). Following the link, a path is generated, an optimal path is selected (step 108), and a character string recognition result is output (step 109).

【0089】図3は、本発明の実施例の構成を示す。図
3において、1は画像データを入力する画像入力部、2
は画像データから断面系列グラフを抽出する断面系列処
理部、3はタグを生成し管理するタグ処理部、4は仮想
境界点を生成する仮想境界点処理部、5は各種構造体な
どを格納するメモリ、6はリンクおよびパスを生成する
リンク/パス生成部、7は文字認識部、8は全体を制御
する制御部である。なお、入力される画像データは2値
でも多値でもよいが、多値の場合は、所定の閾値で画像
の白/黒を判定しながら処理を行う。
FIG. 3 shows the configuration of the embodiment of the present invention. In FIG. 3, reference numeral 1 denotes an image input unit for inputting image data;
Denotes a cross-section sequence processing unit that extracts a cross-section sequence graph from image data, 3 denotes a tag processing unit that generates and manages tags, 4 denotes a virtual boundary point processing unit that generates virtual boundary points, and 5 stores various structures. A memory, 6 is a link / path generation unit that generates links and paths, 7 is a character recognition unit, and 8 is a control unit that controls the whole. The input image data may be binary or multi-valued. In the case of multi-valued image data, the processing is performed while determining the white / black of the image with a predetermined threshold value.

【0090】図4、5は、本発明の処理に係る処理全体
のフローチャートを示す。ステップ201の準備処理で
は、以下の処理に必要な情報を取得する。すなわち、処
理対象となる文字列画像を画像入力部1から入力する。
処理対象となる文字列画像の例を図30に示す。またユ
ーザ指定情報を入力する。このユーザ指定情報は、文字
種や機能(一文字認識または文字列認識を示す情報)な
どを指定する情報である。
FIGS. 4 and 5 show flowcharts of the entire processing relating to the processing of the present invention. In the preparation processing in step 201, information necessary for the following processing is obtained. That is, a character string image to be processed is input from the image input unit 1.
FIG. 30 shows an example of a character string image to be processed. Also, input user-specified information. This user specification information is information for specifying a character type, a function (information indicating one-character recognition or character string recognition), and the like.

【0091】ステップ202において、制御部8は、取
得された情報を、メモリ5内のタグ制御構造体(図2
6)の処理モードに設定し、その内容に基づいて層優先
度を設定する。
In step 202, the control unit 8 stores the acquired information in a tag control structure (FIG.
The processing mode is set to 6), and the layer priority is set based on the contents.

【0092】ステップ203において、設定された処理
モードに応じて、断面系列処理部2は、断面系列グラフ
を抽出し、メモリ5内に図16〜図20の形式で格納す
る。図31には、断面系列グラフの下位層(境界点列)
と、断面系列グラフの上位層(断面系列SSと特異領域
SR)を示す。図31は、タグ構造体をモデル化した図
である。
In step 203, according to the set processing mode, the sectional sequence processing section 2 extracts a sectional sequence graph and stores it in the memory 5 in the format shown in FIGS. FIG. 31 shows the lower layer (sequence of boundary points) of the sectional series graph.
And the upper layer (cross-sectional series SS and unique region SR) of the cross-sectional series graph. FIG. 31 is a diagram modeling the tag structure.

【0093】なお、BCCタグが優先であれば、断面系
列グラフにおける上位層(SS・SR)は求める必要が
ないので、処理を省略できる。
If the BCC tag is prioritized, the upper layer (SS / SR) in the sectional sequence graph does not need to be obtained, so that the processing can be omitted.

【0094】ステップ204において、タグ処理部3
は、断面系列グラフの下位層にある境界点列に基づい
て、BCCタグを求める。この処理について、図31の
境界点列(C0〜C2)を例にして説明する。
In step 204, the tag processing unit 3
Calculates the BCC tag based on the boundary point sequence in the lower layer of the sectional sequence graph. This processing will be described using the boundary point sequence (C0 to C2) in FIG. 31 as an example.

【0095】まず、外側境界点列C0、C1に対して、
対応するタグをそれぞれに作り、これらをBCCタグ
0、BCCタグ1としてメモリ5に登録する(図2
5)。BCCタグの子として、対応する外側境界点列C
0、C1がメモリ5に登録される(図17)。このと
き、境界点数が所定の閾値以下である外側境界点列は、
ノイズの可能性が高いので、BCCタグ作成の対象から
除く。
First, for the outer boundary point sequences C0 and C1,
A corresponding tag is created for each, and these are registered in the memory 5 as a BCC tag 0 and a BCC tag 1 (FIG. 2).
5). The corresponding outer boundary point sequence C as a child of the BCC tag
0 and C1 are registered in the memory 5 (FIG. 17). At this time, the outer boundary point sequence in which the number of boundary points is equal to or less than a predetermined threshold is
Since there is a high possibility of noise, it is excluded from the target of BCC tag creation.

【0096】次に、内側境界点列C2に対しては、新た
にBCCタグを作成せずに、上記したBCCタグから対
応するものを求めて、BCCタグ0の子として登録す
る。具体的には、断面系列グラフ上で、境界点列の対応
関係を求めたうえで、その結果をタグに反映する。つま
り、境界点が画像を走査する順に抽出されていることを
前提にすると、内側境界点列から任意の境界点を一つ取
り出し、境界点情報を登録の逆順に取り出し、最初に出
現する境界点(ただし外側境界点列に属するもの)を見
つければよい。この外側境界点に対応する外側境界点列
を子としてもつものが、求めたいBCCタグである。
Next, a new BCC tag is not created for the inner boundary point sequence C2, but a corresponding one is obtained from the above-mentioned BCC tag and registered as a child of the BCC tag 0. Specifically, on the cross-sectional series graph, the correspondence of the boundary point sequence is obtained, and the result is reflected on the tag. In other words, assuming that the boundary points are extracted in the order of scanning the image, one arbitrary boundary point is extracted from the inner boundary point sequence, the boundary point information is extracted in the reverse order of registration, and the boundary point that appears first is extracted. (However, those belonging to the outer boundary point sequence) may be found. A BCC tag to be obtained has an outer boundary point sequence corresponding to the outer boundary point as a child.

【0097】上記したBCCタグの作成処理で重要な点
は、黒連結成分そのものを求めているのではなく、必要
に応じて黒連結成分の境界点列と境界点を取り出すため
の構造化情報を作成している点である。
An important point in the above-described BCC tag creation processing is that not only the black connected component itself is obtained but also the boundary point sequence of the black connected component and the structured information for extracting the boundary points as necessary. It is a point that is being created.

【0098】ステップ205において、タグ処理部3
は、得られたBCCタグの数を調べる。タグ数が0個で
あれば、制御部8は、入力された文字画像は空白である
と判断して、図5のステップ217に進み、空白コード
を設定して、処理を終了する。タグ数が0でなければ、
ステップ206に進む。
In step 205, the tag processing unit 3
Checks the number of BCC tags obtained. If the number of tags is 0, the control unit 8 determines that the input character image is blank, proceeds to step 217 in FIG. 5, sets a blank code, and ends the processing. If the number of tags is not 0,
Proceed to step 206.

【0099】ステップ206〜ステップ216の処理に
おいて、文字列認識が実行される。ステップ206にお
いて、タグ処理部3は、断面系列グラフの上位層(SS
とSR)を基に、それぞれに対応するタグを求める。す
なわち、図31の特異領域SR1に対応してSRタグ1
を作成し、断面系列SS0に対応してSSタグ0を作成
し、以下同様にして、SR0に対応してSRタグ0を、
SS2に対応してSSタグ2を、SR2に対応してSR
タグ2を、SS1に対応してSSタグ1を、SR3に対
応してSRタグ3を作成する。
In the processing of steps 206 to 216, character string recognition is executed. In step 206, the tag processing unit 3 sets the upper layer (SS
And SR) are determined based on the respective tags. That is, the SR tag 1 corresponding to the unique region SR1 in FIG.
Is created, an SS tag 0 is created corresponding to the cross-sectional series SS0, and so on.
SS tag 2 corresponding to SS2, SR tag corresponding to SR2
The tag 2 is created for the SS tag 1 corresponding to the SS1, and the SR tag 3 is created for the SR3.

【0100】なお、ステップ203において、処理モー
ドの層優先度に従って断面系列グラフの上位層が求めら
れていない場合には、ここで作成されるタグは0個とな
るが、要素タグとしては既にステップ204で求めたB
CCタグがあるので、以下の処理を継続することが可能
である。
If the upper layer of the sectional sequence graph has not been obtained in step 203 according to the layer priority of the processing mode, the number of tags created here is 0, but the element tags are already in the step. B obtained in 204
Since there is a CC tag, the following processing can be continued.

【0101】ステップ206の処理は、ステップ204
と対応関係にある。この時点で、図31に示されるよう
に、必要なすべての要素タグが求められる。図31の構
造は、図26のタグを制御する構造体に格納されてい
る。
The processing in step 206 is the same as step 204
Is in a correspondence. At this point, as shown in FIG. 31, all necessary element tags are obtained. The structure of FIG. 31 is stored in the structure for controlling the tag of FIG.

【0102】ただし、BCCタグとSSタグ、SRタグ
は、それらが表現している文字要素に重複があるので、
後述するステップ211において取捨選択を行うことに
より、重複を解消する。
However, since the BCC tag, the SS tag, and the SR tag have duplicate character elements represented by them,
By performing selection in step 211 described later, duplication is eliminated.

【0103】ステップ207において、制御部8は、要
素タグに基づいて文字列全体に関する特徴(例えば文字
の高さなど)を抽出する。抽出された特徴は、図26の
構造体中の、文字列の幾何的情報等変数群の内容として
設定される。これらは、後述するように、文字らしさを
評価する処理(ステップ213)などで用いられる。ま
た、ステップ207おいて、タグ処理部3は、要素タグ
をソートする。図31の要素タグ(タグ番号)をソート
した結果を図32に示す。タグ番号のソートは、図31
に示す断面系列グラフの上位層(SSとSR)の左から
の配置順通りに並べ替えたものである。BCCタグの番
号(0、1)も同様に左からの配置順通りに並べ、かつ
SSとSRタグの番号の間に挿入する。その挿入位置
は、境界点列C0、C2の外接矩形の重心位置(文字列
横方向の位置)、C1の外接矩形の重心位置(文字列横
方向の位置)を考慮して決める。
In step 207, the control unit 8 extracts a feature (for example, the height of a character) relating to the entire character string based on the element tag. The extracted features are set as the contents of a variable group such as geometric information of a character string in the structure of FIG. These are used in a process of evaluating character likeness (step 213) as described later. In step 207, the tag processing unit 3 sorts the element tags. FIG. 32 shows the result of sorting the element tags (tag numbers) in FIG. The sorting of the tag numbers is shown in FIG.
Are rearranged in the arrangement order from the left of the upper layer (SS and SR) in the cross-sectional series graph shown in FIG. Similarly, the numbers (0, 1) of the BCC tags are arranged in the order of arrangement from the left, and inserted between the numbers of the SS and SR tags. The insertion position is determined in consideration of the barycentric position of the circumscribed rectangle of the boundary point sequences C0 and C2 (position in the horizontal direction of the character string) and the barycentric position of the circumscribed rectangle of C1 (position in the horizontal direction of the character string).

【0104】ステップ207の時点でのソート結果は、
図29に示す通りであり、矢印がソート対象の範囲を示
す。
The sort result at the time of step 207 is as follows:
As shown in FIG. 29, the arrow indicates the range to be sorted.

【0105】ステップ208において、タグ処理部3
は、BCCタグの組み合わせについて、画像平面上の位
置に換算した場合の隣接性を調べ、互いに隣り合うBC
Cタグ・ペアの間隙(文字列方向)に対応するVSタグ
を求める。図33は、断面系列グラフの下位層(境界点
列)と共にタグ番号の配列を示す。また、図33にはV
Sタグ0も示されている。
In step 208, the tag processing unit 3
Examines the adjacency when converted to a position on the image plane for the combination of BCC tags,
A VS tag corresponding to the gap (character string direction) between C tag pairs is obtained. FIG. 33 shows the arrangement of the tag numbers together with the lower layer (boundary point sequence) of the sectional sequence graph. FIG. 33 shows V
S tag 0 is also shown.

【0106】VSタグは、前述したように(仮想)空白
を表現するためのものである。BCCタグは、実質的に
は黒連結成分に相当するものであるから、画像平面上で
隣接関係にあるBCCタグ間(図33のタグ番号0と
1)には、必ず間隙がある。ただし、文字列方向と垂直
な方向に完全な空白領域がある場合もあれば(図33の
例)、そうでない場合もある。そうでない場合とは、斜
めの空白領域であったり、入り組んだ空白領域であった
りする場合である。このような場合でも、仮想的な空白
領域があると見なして、VSタグとして登録する。上記
した斜めの空白領域や入り組んだ空白領域は、その座標
値を調べることにより、文字切り出し枠が重なった場合
(これを負の空白という)であることが分かる。図34
は、負の空白例を示す。
The VS tag is for expressing a (virtual) blank as described above. Since the BCC tag substantially corresponds to the black connected component, there is always a gap between the BCC tags (tag numbers 0 and 1 in FIG. 33) that are adjacent to each other on the image plane. However, there may be a case where there is a completely blank area in the direction perpendicular to the character string direction (the example in FIG. 33), and there may be cases where this is not the case. The case other than the above is a case where there is an oblique blank area or a complicated blank area. Even in such a case, it is assumed that there is a virtual blank area and registered as a VS tag. By examining the coordinate values of the oblique blank area and the intricate blank area described above, it can be seen that the character cutout frames overlap (this is referred to as a negative blank). FIG.
Indicates a negative blank example.

【0107】また、タグ処理部3は、文字列方向に十分
な大きさをもつVSタグを、文字内空白ではないと判断
して、図25に示すタグ構造体のステータスに「統合を
許容しない」と設定する。このステータスは、後述する
ステップ213の処理に反映され、VCCタグ数の増大
を抑制するのに寄与する。
The tag processing unit 3 determines that a VS tag having a sufficient size in the character string direction is not a blank in a character, and sets the status of the tag structure shown in FIG. ". This status is reflected in the processing in step 213 described later, and contributes to suppressing an increase in the number of VCC tags.

【0108】また、タグ処理部3は、文字列の両端には
仮想的な空白があると判断して、始端に相当する空白を
Rタグとし、終端に相当する空白をEタグとする。既に
述べたようにRタグもEタグもVSタグの一種である。
図33の要素タグには、Rタグ、VSタグ、Eタグが追
加されている。
Further, the tag processing section 3 determines that there is a virtual blank at both ends of the character string, and sets a blank corresponding to the start end as an R tag and a blank corresponding to the end as an E tag. As described above, both the R tag and the E tag are a kind of the VS tag.
An R tag, a VS tag, and an E tag are added to the element tags in FIG.

【0109】さらに、ステップ208では、要素タグに
VSタグを加えてソートする。そのソート結果を図35
に示す。また、この時点でのソート結果は、図29に示
すように、Eタグまでの矢印がソート対象の範囲を示
す。
In step 208, VS tags are added to element tags for sorting. The sorting result is shown in FIG.
Shown in Further, in the sorting result at this point, as shown in FIG. 29, the arrow up to the E tag indicates the range to be sorted.

【0110】以上の処理により、要素タグ(BCCタ
グ、SSタグ、SRタグ)とVSタグが求められたこと
になる。ただし、要素タグはパスタグではないので、そ
のままでパスの構成要素(つまり一文字に相当すると見
なされるもの)とはならない。パスの構成要素となるV
CCタグは、要素タグの様々な組み合わせを1つのタグ
で表現するものであり、それらはステップ213で求め
られる。
With the above processing, the element tags (BCC tag, SS tag, SR tag) and the VS tag are obtained. However, since the element tag is not a path tag, it is not directly used as a component of the path (that is, what is considered to correspond to one character). V that is a component of the path
The CC tag represents various combinations of element tags with one tag, and they are obtained in step 213.

【0111】ステップ209(図5)において、タグ処
理部3は、要素タグを対象にして、予約処理を行う。こ
の予約処理には以下の4つの役割がある。
In step 209 (FIG. 5), the tag processing section 3 performs a reservation process for the element tags. This reservation process has the following four roles.

【0112】第1は、ステップ210以下の通常の処理
では例外として処理すべき文字、具体的には句読点のよ
うに特殊な大きさの文字を、この時点で事前に認識する
ことにある。その理由は、句読点などの特殊文字は、周
囲の文字との配置状況に応じて決められるものであり、
配置によらずに形状などに基づく一文字認識だけでは精
度よく判断することが困難なためである。この時点で適
切に処理することにより、後処理において例えば大きさ
を評価するなどの特別な処理を行わなくて済む。
First, characters that should be processed as exceptions in the normal processing after step 210, specifically, characters having a special size such as punctuation, are recognized in advance at this point. The reason is that special characters such as punctuation are determined according to the arrangement of surrounding characters,
This is because it is difficult to determine with high accuracy only by one-character recognition based on a shape or the like without depending on the arrangement. By performing the processing appropriately at this point, it is not necessary to perform special processing such as evaluating the size in the post-processing.

【0113】第2は、バックトラック型アプローチと、
パス選択型(または仮説検証型)アプローチを融合する
ことにある。予約処理とステップ211の「要素タグの
取捨選択」の組み合わせによってバックトラック型とな
り、さらにステップ215とそれ以後の処理の組み合わ
せによって仮説検証型(またはパス選択型)となる。よ
り具体的には、上位層(BCCタグ)に対して予約を行
い、予約されない場合に限って対応する下位層(SS・
SRタグ)を残し、残った要素タグについて、ステップ
213でその組み合わせを作成する。
Second, a backtrack type approach,
It consists in fusing a path selection (or hypothesis testing) approach. The combination of the reservation processing and “selection of element tags” in step 211 results in a backtrack type, and the combination of step 215 and subsequent processing results in a hypothesis verification type (or path selection type). More specifically, a reservation is made for the upper layer (BCC tag), and the corresponding lower layer (SS
The combination of the remaining element tags is created in step 213.

【0114】第3は、特殊な文字認識方法を効果的に導
入することにある。この時点で、高品質文字を早めに確
定することができれば、VCCタグ数やパス数を抑える
ことができる。
Third, a special character recognition method is effectively introduced. At this point, if high-quality characters can be determined early, the number of VCC tags and the number of passes can be reduced.

【0115】第4は、適切なノイズ対策である。文字列
画像全体に、一様にノイズ除去を適用する場合、例えば
カタカナの「ウシソツホミン」などの小さな文字要素を
消失することにもなるため、あまり強いノイズ除去を適
用することができない。そこで、隣接関係を考慮した上
で、ノイズ除去を実現するために予約処理を利用する。
この時点で一定の大きさを満たさないものに、「ノイズ
の可能性がある」という予約をする。これはステータス
に反映される。その結果をステップ213でVCCタグ
に継承し、ステップ214、215においてパスとして
の評価に反映させることで、隣接関係を考慮した上での
ノイズ除去が実現される。
The fourth is appropriate noise countermeasures. If noise removal is applied uniformly to the entire character string image, small character elements such as katakana “Ushisotshomin” will also be lost, so too strong noise removal cannot be applied. Therefore, a reservation process is used to realize noise removal in consideration of the adjacent relationship.
At this point, a reservation that does not satisfy a certain size is made as "possible noise". This is reflected in the status. The result is inherited by the VCC tag in step 213, and reflected in the evaluation as a path in steps 214 and 215, thereby realizing noise removal in consideration of the adjacent relationship.

【0116】図6は、要素タグの予約処理の詳細な処理
フローチャートを示す。ステップ301では、処理モー
ドを解釈して、予約処理で用いられる基本条件を設定す
る。すなわち、文字種条件を基に予約処理を制御する。
例えば、微小記号を表す文字種が指定されているか否
か、複数の文字認識方法の内、使用する認識方法などの
情報である。予約の必要がなければ(ステップ302で
YES)、この処理を終了する。予約が必要である場合
(ステップ302でNO)には、以下の処理を行う。
FIG. 6 shows a detailed processing flowchart of the element tag reservation processing. In step 301, the processing mode is interpreted and basic conditions used in the reservation processing are set. That is, the reservation process is controlled based on the character type condition.
For example, it is information such as whether or not a character type representing a minute symbol is specified, and a recognition method to be used among a plurality of character recognition methods. If there is no need to make a reservation (YES in step 302), this process ends. If a reservation is required (NO in step 302), the following processing is performed.

【0117】ステップ303とステップ304は、要素
タグを順に取り出す繰り返し処理である。処理範囲は、
図28において、先頭からRタグの直前までである。
Steps 303 and 304 are repetitive processes for sequentially extracting element tags. The processing range is
In FIG. 28, it is from the top to immediately before the R tag.

【0118】ステップ305では、取り出した要素タグ
が処理対象であるか否かを調べる。ここでは、BCCタ
グか否かを調べ、BCCタグならばステップ306に進
み、そうでなければステップ303に戻る。
In step 305, it is checked whether or not the extracted element tag is to be processed. Here, it is checked whether the tag is a BCC tag. If the tag is a BCC tag, the process proceeds to step 306; otherwise, the process returns to step 303.

【0119】ステップ306では、一時的なVCCタグ
を準備・初期化し、ステップ307では取り出したBC
Cタグを、一時的なVCCタグの子として登録する。
In step 306, a temporary VCC tag is prepared and initialized, and in step 307, the extracted BC tag is
Register the C tag as a child of the temporary VCC tag.

【0120】ステップ308では、一時的なVCCタグ
を対象として後述する一文字認識を行う。
In step 308, one-character recognition described later is performed on the temporary VCC tag.

【0121】ステップ309では、文字認識結果をBC
Cタグに反映する。本来は文字認識結果はVCCタグに
反映されるが、タグ構造体としては共通の形式を用いて
いるので、BCCタグに反映することが可能である。
At step 309, the character recognition result is
Reflect on C tag. Originally, the character recognition result is reflected on the VCC tag, but since a common format is used as the tag structure, it can be reflected on the BCC tag.

【0122】上記した文字認識結果に応じて、処理内容
が以下の3通りの何れかとなる。すなわち、 (a)認識結果を捨て、BCCタグに反映しない場合 (b)認識結果を残し、BCCタグに反映する場合 (c)認識結果を修正し、BCCタグに反映する場合 である。
According to the result of the character recognition described above, the processing content is one of the following three types. (A) When the recognition result is discarded and is not reflected on the BCC tag. (B) When the recognition result is left and reflected on the BCC tag. (C) When the recognition result is corrected and reflected on the BCC tag.

【0123】図36(a)は、認識結果を捨て、BCC
タグ0に反映しない例を示し、図36(b)は、認識結
果(”2”)を残し、BCCタグ1に反映する例を示
す。
FIG. 36A shows a case where the recognition result is discarded and the BCC
FIG. 36B shows an example in which the recognition result ("2") is not reflected on the tag 0 and is reflected on the BCC tag 1.

【0124】認識結果が拒否あるいはそれに類似する
(確信度などによる判定を含む)場合などが(a)に相
当し、この場合は、図27の認識結果構造体のステータ
スに再認識の必要性が指定されている。この他にも、位
置、大きさが特殊文字であって、認識結果の第1位候補
が特殊文字ではない、多くの場合がこれに相当する。
The case where the recognition result is rejected or similar (including determination based on the degree of certainty) corresponds to (a). In this case, the status of the recognition result structure in FIG. Specified. In addition to this, in many cases, the position and size are special characters, and the first candidate in the recognition result is not a special character.

【0125】一方、タグの位置情報を、ステップ301
で定めた条件を参照することにより、特殊文字であると
判定した場合には、文字認識結果の第1位候補の内容を
調べる。第1位候補が位置情報による推定結果と一致す
る特殊文字である場合は(b)に相当する。
On the other hand, the position information of the tag is
If it is determined that the character is a special character by referring to the condition defined in the above, the content of the first candidate in the character recognition result is examined. The case where the first candidate is a special character that matches the estimation result based on the position information corresponds to (b).

【0126】特殊文字ではないが、あらかじめ定められ
た特定の文字コードであれば、認識結果の第1位候補に
適切な特殊記号の文字コードを挿入したうえで、BCC
タグに反映する。これは(c)に相当する。これによ
り、例えば、低い位置にある小さなタグが「ノ」と判定
されたものに対して、第1位候補に「,」を挿入すると
いう処理が実現できる。
If the character code is not a special character but is a predetermined specific character code, the character code of an appropriate special symbol is inserted into the first candidate of the recognition result, and the BCC
Reflect on tags. This corresponds to (c). Thereby, for example, for a small tag determined to be “NO” at a low position, a process of inserting “,” as the first candidate can be realized.

【0127】このような候補挿入ルールは、一文字認識
手段の特性に応じてあらかじめ定められている。また、
他のルールとして、一文字認識手段において、どのよう
な方法を組み合わせて文字認識したかによって、結果を
無視する場合と、残して反映する場合があらかじめ定め
られている。
[0127] Such a candidate insertion rule is predetermined in accordance with the characteristics of the one-character recognizing means. Also,
As other rules, depending on what combination of methods is used to recognize characters in the one-character recognizing means, a case where the result is ignored and a case where the result is reflected while remaining are predetermined.

【0128】ステップ309では、上記したような文字
認識結果に応じた処理を行う。つまり、タグについて、
位置や大きさなどを含む配置条件と文字種条件と文字認
識結果(どのような手段で認識されたかを含む)を調べ
て、上記した(a)〜(c)の処理を選択し、実行す
る。(b)〜(c)の場合には、さらにタグの統合許可
の有無も設定され、これらは図25のタグ構造体70の
ステータス71に設定される。
In step 309, processing is performed according to the result of character recognition as described above. In other words, for tags,
The arrangement conditions including the position and size, the character type conditions, and the character recognition result (including the type of recognition) are checked, and the above-described processes (a) to (c) are selected and executed. In the cases of (b) to (c), the presence / absence of permission for integration of tags is also set, and these are set in the status 71 of the tag structure 70 in FIG.

【0129】つまり、タグは、予約されない場合(a)
と、予約される場合(b)、(c)があり、これらは接
触文字を分離するか否かを制御することに係わる。
That is, when the tag is not reserved (a)
And (b) and (c), which are related to controlling whether or not to separate contact characters.

【0130】これに対して、予約される場合には、統合
許可の有無に応じて、分離文字を統合するか否かを制御
する。
On the other hand, when a reservation is made, whether or not to separate the separated characters is controlled according to the presence or absence of the integration permission.

【0131】この時点でBCCタグに反映された情報
は、図5のステップ213を介して図8のステップ51
2によりVCCタグへと継承される。
At this point, the information reflected on the BCC tag is transmitted through step 213 in FIG. 5 to step 51 in FIG.
2 to the VCC tag.

【0132】すべての要素タグに対する予約処理が終了
したならば(ステップ304でYES)、ステップ31
0において、処理モードの文字種条件から特殊記号を除
く。
If the reservation processing for all element tags has been completed (YES in step 304), step 31
At 0, the special symbol is excluded from the character type condition of the processing mode.

【0133】図5に戻り、ステップ210において、仮
想境界点処理部4は、SR(特異領域)を解析し、仮想
境界点列を生成する。図7は、SR(特異領域)解析に
よる仮想境界点列生成処理の詳細フローチャートを示
す。
Returning to FIG. 5, in step 210, the virtual boundary point processing section 4 analyzes the SR (singular area) and generates a virtual boundary point sequence. FIG. 7 is a detailed flowchart of a virtual boundary point sequence generation process based on SR (singular region) analysis.

【0134】ステップ401では、図26に示すタグ制
御構造体の処理モードに設定されている層優先度を調べ
て、BCCタグが優先であれば、以下の処理をスキップ
する。
In step 401, the layer priority set in the processing mode of the tag control structure shown in FIG. 26 is checked, and if the BCC tag has priority, the following processing is skipped.

【0135】ステップ402〜ステップ404は、要素
タグの中から、有効なSRタグを取り出すループ処理で
ある。このときの処理対象は、図28のRタグの直前ま
でとなる。
Steps 402 to 404 are loop processing for extracting a valid SR tag from element tags. The processing target at this time is immediately before the R tag in FIG.

【0136】ステップ405では、SRタグからSR
(特異領域)を取り出す。ステップ406では、SRに
接続するすべてのSSペアを求める。図24において、
4つのSSがSRに接続しているが、この場合にはSS
ペアの数は、その2乗の16となる。
At step 405, the SR tag
(Specific region) is taken out. In step 406, all the SS pairs connected to the SR are obtained. In FIG.
Four SSs are connected to the SR, in this case SS
The number of pairs is 16, which is the square of the number.

【0137】ステップ407〜ステップ408はSSペ
アを順に取り出すループ処理である。ステップ409で
は、図23のように特異領域の接続パターンを求める。
ステップ410では、接続パターンに応じて、狭義の仮
想境界点列の必要性を判定する。このとき、実境界点で
代用できるものは不要とされる。
Steps 407 to 408 are loop processing for sequentially taking out SS pairs. In step 409, a connection pattern of the unique region is obtained as shown in FIG.
In step 410, the necessity of a narrowly defined virtual boundary point sequence is determined according to the connection pattern. At this time, an object that can be substituted by an actual boundary point is not required.

【0138】また、接続パターンが、図24において例
えばSS3を文字の一部とし、SS6とSS7とSS9
を文字の一部とするように、SS3と、SS6、7との
間で上下に切る接続パターンであるとき、文字列方向が
横方向であれば、SS3が右側の文字の一部、SS6と
SS7とSS9が左側の文字の一部となることはあり得
ず、従って、上記したような接続パターンに対しては狭
義の仮想境界点列を生成しない。このように、文字列方
向からみて不自然な断面系列の間には仮想境界点列を生
成しない。
In FIG. 24, the connection pattern is, for example, SS3 as a part of a character, and SS6, SS7 and SS9.
Is a connection pattern that cuts vertically between SS3 and SS6, 7 so that is a part of a character. If the character string direction is horizontal, SS3 is a part of the right character, SS6 and SS7 and SS9 cannot be part of the character on the left, and therefore, a narrowly defined virtual boundary point sequence is not generated for the connection pattern as described above. In this way, no virtual boundary point sequence is generated between series of cross sections that are unnatural in the character string direction.

【0139】ステップ411では、ステップ409で求
めた接続パターンに基づいて仮想境界点列セグメントを
求める。ここでは、既に述べた方法を用いて、適切な仮
想境界点列セグメントを求める。
In step 411, a virtual boundary point sequence segment is obtained based on the connection pattern obtained in step 409. Here, an appropriate virtual boundary point sequence segment is obtained by using the method described above.

【0140】ステップ412では、仮想境界点列セグメ
ントと接続情報を、図22の形式で仮想境界点列を登録
する。
In step 412, a virtual boundary point sequence is registered in the form of FIG. 22 with the virtual boundary point sequence segment and connection information.

【0141】図5に戻り、ステップ211において、タ
グ処理部3は、要素タグの取捨選択を行う。取捨選択が
必要となるのは、BCCタグとSS/SRタグが正しく
得られ、処理モードにおいてSS/SRタグ優先が設定
されている場合に限られる。この場合には、BCCタグ
とSS/SRタグの間に重複があり、その解消が必要と
なる。
Returning to FIG. 5, in step 211, the tag processing section 3 selects element tags. The selection is necessary only when the BCC tag and the SS / SR tag are correctly obtained and the SS / SR tag priority is set in the processing mode. In this case, there is an overlap between the BCC tag and the SS / SR tag, and it is necessary to eliminate the overlap.

【0142】まず、層優先度を決定する。最も簡単な決
定方法は、ユーザが層優先度を指定する方法である。こ
れは、ユーザの使用環境と目的に応じた、「認識精度を
優先する」あるいは「処理速度を優先する」などの処理
要求となる。
First, the layer priority is determined. The simplest determination method is a method in which a user specifies a layer priority. This is a processing request such as “prioritize recognition accuracy” or “prioritize processing speed” according to the user's use environment and purpose.

【0143】他の決定方法は、予め文字種の組み合わせ
に応じて、層優先度を定義しておき、ユーザに指定され
た文字種情報に応じて自動的に層優先度を選択する方法
である。この方法は、ユーザの負担を軽減できる。
Another determination method is a method in which a layer priority is defined in advance according to a combination of character types, and the layer priority is automatically selected according to character type information designated by the user. This method can reduce the burden on the user.

【0144】しかし、上記した2つの方法では、何れか
一方の層のみが用いられるので、処理が簡単であるもの
の、処理精度と処理量のバランスを図ることが難しい。
However, in the above two methods, only one of the layers is used, so that the processing is simple, but it is difficult to balance the processing accuracy and the processing amount.

【0145】そこで、本発明では、処理精度と処理量の
バランスを図るために、層優先度を自動化する方法を考
える。その1つの方法として、ステップ209の予約処
理の結果を用いる方法を、以下説明する。
Therefore, in the present invention, a method of automating the layer priority in order to balance the processing accuracy and the processing amount is considered. As one of the methods, a method using the result of the reservation processing in step 209 will be described below.

【0146】ステップ209の予約処理の結果に基づい
て、要素タグを順に取り出して、それがSSタグまたは
SRタグであれば、これと重複するBCCタグを取り出
す。このBCCタグが、ステップ209において予約済
みであれば、BCCタグを残して、SS/SRタグのス
テータスを除去状態とする。そうでなければ、BCCタ
グのステータスを除去状態とし、SS/SRタグをその
まま残す。このような処理によって、ステップ211が
終了した時点では、残されている要素タグには重複がな
い。
Based on the result of the reservation processing in step 209, the element tags are sequentially extracted, and if they are SS tags or SR tags, the BCC tags overlapping with the element tags are extracted. If the BCC tag has been reserved in step 209, the status of the SS / SR tag is set to the removal state while leaving the BCC tag. Otherwise, the status of the BCC tag is set to the removal state, and the SS / SR tag is left as it is. By such processing, when step 211 is completed, the remaining element tags have no duplication.

【0147】図37(a)、(b)は、要素タグの取捨
選択を説明する図である。(a)は、ステップ209で
BCCタグが破棄されているので、SSタグ0、SSタ
グ2、SRタグ0、SRタグ1を残す。(b)は、ステ
ップ209でBCCタグが予約済みであるので、SSタ
グ1,SRタグ2、SRタグ3を破棄する。また、図3
8は、要素タグの取捨選択された結果を示す。
FIGS. 37A and 37B are diagrams for explaining selection of element tags. In (a), since the BCC tag has been discarded in step 209, the SS tag 0, the SS tag 2, the SR tag 0, and the SR tag 1 remain. In (b), since the BCC tag has been reserved in step 209, the SS tag 1, the SR tag 2, and the SR tag 3 are discarded. FIG.
8 shows the result of selecting the element tags.

【0148】ステップ212は、残された要素タグの初
期統合を行う。これは、同じ種類の要素タグの組み合わ
せに関して、それらの文字列方向の重なりが大きけれ
ば、両者を統合する処理である。例えば、文字列方向が
横方向である場合には、偏や旁などはそれぞれに統合さ
れやすい。統合は、一方の子タグを他方の子タグにコピ
ーして子の数を更新し、前者のステータスを除去状態に
することにより実現される。
At step 212, initial integration of the remaining element tags is performed. This is a process of integrating two element tags of the same type if the overlap in the character string direction is large. For example, when the character string direction is the horizontal direction, deviations, sidelines, and the like are easily integrated. Integration is achieved by copying one child tag to the other child tag, updating the number of children, and removing the former status.

【0149】図39は、要素タグの初期統合の例を示
す。境界点列C5とC6が文字列方向に重なっているの
で、境界点列C5とC6を子とするそれぞれのBCCタ
グを統合する。
FIG. 39 shows an example of initial integration of element tags. Since the boundary point sequences C5 and C6 overlap in the character string direction, the respective BCC tags having the boundary point sequences C5 and C6 as children are integrated.

【0150】ただし、ステップ209の予約処理の結果
として、「統合を許容しない」と設定されている要素タ
グは、ステップ212の統合処理を行わない。また、ス
テップ212では、要素タグとVSタグを合わせて文字
列方向に沿って、あらためてソートする(図29)。
However, as a result of the reservation processing in step 209, an element tag for which “integration is not permitted” is not performed in step 212. In step 212, the element tags and the VS tags are sorted again along the character string direction (FIG. 29).

【0151】ステップ213において、タグ処理部3
は、要素タグを組み合わせてVCCタグを生成する。V
CCタグとは、文字切り出し処理から見た場合の「一文
字になりうる候補」を意味し、要素タグの1つ以上の組
み合わせで表現される。つまり、要素タグおよびVSタ
グがVCCタグの子となる。
In step 213, the tag processing unit 3
Generates a VCC tag by combining element tags. V
The CC tag means “a candidate that can be one character” as viewed from the character segmentation process, and is represented by one or more combinations of element tags. That is, the element tag and the VS tag are children of the VCC tag.

【0152】図8、9は、ステップ213の詳細の処理
フローチャートである。図8、9の処理は、文字列方向
として横方向(左から右へ)の場合を仮定しているが、
縦方向であっても同様に処理できる。図40は、VCC
タグの生成過程を示す図である。
FIGS. 8 and 9 are flowcharts showing the details of step 213. 8 and 9 assume that the character string is in the horizontal direction (from left to right).
The same processing can be performed in the vertical direction. FIG.
It is a figure showing the generation process of a tag.

【0153】ステップ501では、以下の処理で一時的
に用いるためのVCCタグを準備する。ステップ502
〜ステップ504が処理対象となるタグ(要素タグまた
はVSタグ)を順に取り出して、左端とするループ処理
であり、同様に、ステップ506〜ステップ508が処
理対象となるタグを順に取り出して、右端とするループ
処理である。また、右端を取り出すループ処理は、左端
と同じ要素タグから始めるものとする。
In step 501, a VCC tag to be used temporarily in the following processing is prepared. Step 502
Step 504 is a loop process in which tags to be processed (element tags or VS tags) are sequentially taken out and set to the left end. Similarly, steps 506 to 508 take out tags to be processed in order and set the right end This is a loop process. Also, the loop processing for extracting the right end starts from the same element tag as the left end.

【0154】上記した処理により、ステップ212のソ
ート時に連続して並ぶタグのすべての組み合わせが作成
される。このように、連続性を条件としてタグを組み合
わせているので、タグの全ての組み合わせを求める場合
に比べて、VCCタグ数が削減される。
By the above-described processing, all combinations of tags that are continuously arranged at the time of sorting in step 212 are created. As described above, since the tags are combined on the condition of continuity, the number of VCC tags is reduced as compared with the case where all combinations of tags are obtained.

【0155】なお、VSタグは、要素タグの両端のいず
れにも用いずに、要素タグに挟まれる場合のみを用いら
れる(図40のVCCタグ9、VCCタグ11)。ま
た、ステップ508において、取り出したタグがVSタ
グであり、かつそのステータスが「統合を許容しない」
場合には、ステップ502に戻る。
The VS tag is not used at either end of the element tag, but is used only when it is sandwiched between the element tags (VCC tag 9 and VCC tag 11 in FIG. 40). Also, in step 508, the retrieved tag is a VS tag, and its status is "Does not allow integration".
If so, the process returns to step 502.

【0156】ステップ509の処理時点では、上記のル
ープ処理で取り出された右端の要素タグを一時的なVC
Cタグの子タグとして登録する。ステップ510では、
所定の条件(例えば文字の幾何的な条件)を参照して、
VCCタグを残すか否かを判定する。所定の条件(例え
ば、右端がVSタグである)に一致する場合には、ステ
ップ510で対象外であると判定されて、ステップ50
6に戻る。なお、上記した所定の条件として、文字列方
向の大きさなども追加できる。
At the time of the processing in step 509, the rightmost element tag extracted in the above loop processing is temporarily
Register as a child tag of the C tag. In step 510,
With reference to predetermined conditions (eg, geometric conditions of characters),
It is determined whether to leave the VCC tag. If a predetermined condition is met (for example, the right end is a VS tag), it is determined in step 510 that it is not a target, and step 50 is performed.
Return to 6. Note that the size in the character string direction and the like can be added as the above-described predetermined condition.

【0157】ステップ511では、正式なVCCタグを
一つ取り出して、一時的なVCCタグの内容をコピー
(登録)する。つまり、図40に示すように、要素タグ
にVCCタグを追加する。
In step 511, one formal VCC tag is taken out and the contents of the temporary VCC tag are copied (registered). That is, as shown in FIG. 40, a VCC tag is added to an element tag.

【0158】ステップ512では、いま追加した子タ
グ、すなわち右端の要素タグが予約済みであるか否かを
調べ、予約済みである場合には、一文字認識結果に関す
る内容を継承する。つまり、VCCタグの子であるBC
Cタグが、例えば図36の(b)のように認識結果を保
持している(予約済み)場合には、その認識結果をVC
Cに渡す。さらに、予約の結果としてステータスが「統
合を許容しない」場合には、これ以上右端を先に進める
ことができないので、ステップ502に戻って、次の左
端を取り出す。「統合を許容する」場合や、予約済みで
ない場合には、ステップ506に戻って、右端を先に進
める。
In step 512, it is checked whether or not the currently added child tag, that is, the element tag at the right end has been reserved. If the child tag has been reserved, the contents relating to the one-character recognition result are inherited. That is, BC which is a child of the VCC tag
When the C tag holds the recognition result (reserved), for example, as shown in FIG.
Give it to C. Further, when the status is “unacceptable” as a result of the reservation, the right end cannot be further advanced, and the process returns to step 502 to take out the next left end. If "integration is permitted" or if the reservation has not been made, the process returns to step 506, and the right end is advanced.

【0159】左端、右端ともにすべての要素タグの取り
出しが終了すると(ステップ503でYES)、図9の
ステップ514に移る。
When the extraction of all element tags has been completed for both the left end and the right end (YES in step 503), the flow advances to step 514 in FIG.

【0160】ステップ514、ステップ515は、VC
Cタグを順に取り出すループ処理である。ステップ51
6では、後述する一文字認識を行う。ステップ517で
は、その結果をVCCタグに反映させる。つまり、VC
C(図25)の認識結果番号81に認識結果を設定す
る。すべてのVCCタグについて、一文字認識が終了し
たならば、図5のステップ214に移る。
Steps 514 and 515 correspond to VC
This is a loop process for sequentially extracting C tags. Step 51
In step 6, one-character recognition described below is performed. In step 517, the result is reflected on the VCC tag. That is, VC
The recognition result is set to the recognition result number 81 of C (FIG. 25). When one-character recognition is completed for all VCC tags, the process proceeds to step 214 in FIG.

【0161】図5に戻り、ステップ214において、リ
ンク生成/パス生成部6は、パスタグ(VCCタグおよ
びVSタグ)を対象として、リンクを生成する。これは
パスを生成するための、局所的な隣接関係を定めるため
である。図41は、生成されたリンクを示す図である。
Returning to FIG. 5, in step 214, the link generation / path generation unit 6 generates a link for the path tag (VCC tag and VS tag). This is to determine a local adjacency for generating a path. FIG. 41 is a diagram illustrating the generated link.

【0162】ステップ215では、パスタグとそのリン
クを用いて、図42に示すようにパス(例えばR→V0
→V4→V7→V11→E)を生成し(図42では、V
CCタグ0をV0、VCCタグ1をV1と表す)、最も
最適なパスを選択する。図43は、選択されたパスを示
す。上記したパスとリンクは木構造を構成しているの
で、例えばDPマッチングなどを適用して最適なパスを
選択する。
In step 215, a path (for example, R → V0) is used as shown in FIG.
→ V4 → V7 → V11 → E) (in FIG. 42, V
CC tag 0 is represented as V0 and VCC tag 1 is represented as V1), and the most optimal path is selected. FIG. 43 shows the selected path. Since the above paths and links form a tree structure, an optimal path is selected by applying, for example, DP matching.

【0163】ステップ216では、ステップ215で選
ばれた最適パスを対象として、特定の文字の再認識処理
を実行する。その処理内容は、一文字認識の処理を、文
字列へと拡張したものに相当し、処理の大部分は共有さ
れている。
At step 216, a specific character re-recognition process is executed for the optimum path selected at step 215. The processing content corresponds to the one-character recognition processing extended to a character string, and most of the processing is shared.

【0164】図10は、ステップ216の詳細な処理フ
ローチャートである。ステップ601〜ステップ603
は、最適パスからVCCタグを順に取り出すループ処理
である。
FIG. 10 is a detailed processing flowchart of step 216. Step 601 to Step 603
Is a loop process for sequentially extracting the VCC tags from the optimal path.

【0165】ステップ603では、VCCタグからその
認識結果を取り出して、以下の処理の対象となるか否か
を調べる。本発明では、認識結果構造体(図27)のス
テータスに再認識の必要性が示されている場合には、ス
テップ604以下の処理を実行する。
In step 603, the recognition result is taken out from the VCC tag, and it is checked whether or not the recognition result is to be subjected to the following processing. In the present invention, when the necessity of re-recognition is indicated in the status of the recognition result structure (FIG. 27), the processing of step 604 and subsequent steps is executed.

【0166】ステップ604では、VCCタグから必要
な画像のみを再構成する。具体的には、フォント表示な
どでよく用いられている方法で実現できる。VCCタグ
から要素タグを介して境界点を取り出し、初期化された
画像データ上にこれらをプロットし、プロットされた黒
画素間を黒画素で埋めれば、画像を再構成することがで
きる。
In step 604, only necessary images are reconstructed from the VCC tags. Specifically, it can be realized by a method often used for font display and the like. An image can be reconstructed by extracting boundary points from the VCC tag via the element tag, plotting these on the initialized image data, and filling black pixels between the plotted black pixels.

【0167】ステップ605では、文字画像に対して適
応的なフィルタリングを行う。線が細い場合には境界点
近傍に黒画素を増やし、太い場合には境界点近傍の黒画
素を除去するようなフィルタを選択して適用する。
In step 605, adaptive filtering is performed on the character image. When the line is thin, the number of black pixels is increased near the boundary point, and when the line is thick, a filter that removes the black pixel near the boundary point is selected and applied.

【0168】ステップ606では、フィルタリングされ
た画像からあらためて断面系列グラフを抽出、記述す
る。これは、図4のステップ203と同一の処理であ
る。
In step 606, a sectional sequence graph is extracted and described again from the filtered image. This is the same process as step 203 in FIG.

【0169】ステップ607では、新しく得られた断面
系列グラフに基づいてBCCタグを作成する。この処理
は、図4のステップ204と同一の処理である。
In step 607, a BCC tag is created based on the newly obtained sectional series graph. This process is the same as step 204 in FIG.

【0170】ステップ608では、1つの一時的なVC
Cタグを準備し、新しく得られたBCCタグを子として
登録する。ステップ609では、BCCタグを子とする
VCCタグを処理対象として後述する一文字認識を行
う。
In step 608, one temporary VC
A C tag is prepared, and the newly obtained BCC tag is registered as a child. In step 609, one-character recognition, which will be described later, is performed on a VCC tag having a BCC tag as a child.

【0171】ステップ610では、ステップ605〜ス
テップ609まで処理におけるエラーの有無を調べる。
エラーがなければ、ステップ611で、VCCタグの認
識結果を置き換え、特定の文字の再認識が終了する。
In step 610, the presence or absence of an error in the processing from step 605 to step 609 is checked.
If there is no error, in step 611, the recognition result of the VCC tag is replaced, and the re-recognition of the specific character ends.

【0172】ステップ604〜ステップ606では画像
データへのアクセスが生じるが、実行される割合は数%
にも満たない程度のものであるから、本発明の中心的な
考え方である、断面系列グラフの上位層と下位層を同一
表現形式のタグで管理するという重要性が失われること
はない。逆にいえば、本発明のように特徴要素の組み合
わせという考え方を採らない従来の方法の場合には、す
べてのVCCタグについて、一文字認識における例えば
ステップ710とステップ711の間でステップ604
と同一の処理を繰り返す必要がある。この場合には、画
像データへのアクセスの割合が100%になることか
ら、本発明により、相当な処理量の増大が抑制されるこ
とになる。
In steps 604 to 606, access to image data occurs.
Therefore, the importance of managing the upper layer and the lower layer of the cross-sectional series graph with tags having the same expression format, which is the central idea of the present invention, is not lost. Conversely, in the case of the conventional method that does not use the concept of the combination of characteristic elements as in the present invention, for all VCC tags, for example, step 604 is performed between step 710 and step 711 in one-character recognition.
It is necessary to repeat the same processing as. In this case, since the ratio of access to the image data becomes 100%, a considerable increase in the processing amount is suppressed by the present invention.

【0173】ステップ217では、以上の処理で得られ
た認識結果を設定する。以上で、全体の処理が終了す
る。
In step 217, the recognition result obtained by the above processing is set. This is the end of the entire process.

【0174】最後に、文字認識部7における一文字認識
の処理を説明する。図11は、図6のステップ308、
図9のステップ516、図10のステップ609におけ
る一文字認識の詳細な処理フローチャートである。
Finally, the processing of one-character recognition in the character recognition section 7 will be described. FIG. 11 illustrates step 308 of FIG.
11 is a detailed processing flowchart of one-character recognition in step 516 of FIG. 9 and step 609 of FIG.

【0175】この処理の特徴は、要素タグの種類の違い
を吸収しながら一文字認識を実際に行う点にある。ま
た、基本的な考え方は、認識結果を境界点列表現に統一
するところにあり、そのために、必要ならば狭義の仮想
境界点列を使って境界点列の一時的なつなぎ換えを行
う。さらに、認識の手法としては、複数の文字認識手法
が併用されているが、認識を行う際に使用される特徴
は、画像から得られるものではなく、タグを介して断面
系列グラフと仮想境界点列から得られるものであり、こ
れによって、本発明の「特徴要素の組み合わせ」という
考え方が実現されている。
A feature of this processing is that one-character recognition is actually performed while absorbing the difference between the types of element tags. The basic idea is to unify the recognition result into a boundary point sequence expression. For this purpose, if necessary, the boundary point sequence is temporarily reconnected using a narrowly defined virtual boundary point sequence. Furthermore, a plurality of character recognition methods are used together as a recognition method, but the features used in performing the recognition are not obtained from the image, but are obtained from the cross-sectional series graph and the virtual boundary point via a tag. This is obtained from the columns, and thereby realizes the concept of “combination of characteristic elements” of the present invention.

【0176】ステップ701では、一時的なVCCタグ
(空のVCCタグ)を準備して初期化する。
In step 701, a temporary VCC tag (empty VCC tag) is prepared and initialized.

【0177】ステップ702、ステップ703は繰り返
し処理であり、処理対象のVCCタグからすべての要素
タグを順に取り出す。ステップ704は、取り出した要
素タグムがBCCタグであるか否かを調べ、そうであれ
ば、ステップ707において一時的なVCCタグに子と
して登録する。図44は、子がBCCタグである場合の
例を示す。図45は、BCCタグが一時的なVCCタグ
の子として登録された図である。
Steps 702 and 703 are repetitive processes, in which all element tags are sequentially extracted from the VCC tag to be processed. Step 704 checks whether the extracted element tag is a BCC tag, and if so, registers it as a child in the temporary VCC tag in step 707. FIG. 44 shows an example where the child is a BCC tag. FIG. 45 is a diagram in which a BCC tag is registered as a child of a temporary VCC tag.

【0178】図45の例では、BCCタグが1個である
ので、ステップ703からステップ710に進む。BC
Cタグの子は境界点列C1であるので、ステップ71
0、711、712で何も処理せずに、ステップ713
に進む。
In the example of FIG. 45, since there is one BCC tag, the process proceeds from step 703 to step 710. BC
Since the child of the C tag is the boundary point sequence C1, step 71
No processing is performed in steps 0, 711, and 712, and step 713
Proceed to.

【0179】ステップ713では、処理モードに応じ
て、境界点列C1の文字認識を行って結果をBCCタグ
に保存する。ここでは、複数の文字認識方法(例えば、
特許第2719202号に記載されたマッチング手法な
ど)が用意されていて、処理モードに応じて、あらかじ
め決められた認識方法を組み合わせて文字認識を実行
し、その結果を統合してこのステップにおける認識結果
とする。その詳細については本発明に直接関係しないの
で省略する。重要な点は、これらの文字認識方法に用い
られる特徴である、境界点の濃淡傾き方向をベースとし
た特徴、境界点列のグラフ表現、および骨格のグラフ表
現などが、断面系列グラフとの整合がよく、それらの特
徴を画像平面から直接求めるのではなくて、タグを介し
て断面系列グラフから求められる点である。
In step 713, the character recognition of the boundary point sequence C1 is performed according to the processing mode, and the result is stored in the BCC tag. Here, multiple character recognition methods (for example,
A matching method described in Japanese Patent No. 2719202) is prepared, character recognition is performed by combining predetermined recognition methods according to the processing mode, and the results are integrated to recognize the recognition result in this step. And The details are not directly related to the present invention, and are therefore omitted. The important point is that the features used in these character recognition methods, such as the features based on the gradient gradient direction of the boundary points, the graph representation of the boundary point sequence, and the skeleton graph representation, are consistent with the cross-sectional series graph. The point is that these features are not directly obtained from the image plane, but are obtained from the sectional series graph via the tag.

【0180】図45の例ではステップ714で何も処理
せずに終了する。ステップ702で取り出された要素タ
グがSS、SRタグである場合について、図46を例に
して説明する。図46の例では、要素タグが3個(SR
タグ1、SSタグ0、SRタグ0)あり、まず最初のS
Rタグ1を取り出す(ステップ706)。SRタグ1は
端点であるので何もせず、次のSSタグ0を取り出す。
SSタグであるので(ステップ705)、両端の4境界
点を保存する(ステップ708)。すなわち、図47に
おいて、SR1側の断面の2つの境界点と、SR0側の
断面の2つの境界点を保存する。4つの境界点は、境界
点列の一時的なつなぎ代え(ステップ710)に必要な
情報である。
In the example of FIG. 45, the processing ends without any processing in step 714. A case where the element tags extracted in step 702 are SS and SR tags will be described with reference to FIG. 46 as an example. In the example of FIG. 46, three element tags (SR
Tag 1, SS tag 0, SR tag 0)
The R tag 1 is taken out (step 706). Since the SR tag 1 is an end point, nothing is performed and the next SS tag 0 is taken out.
Since the tag is an SS tag (step 705), the four boundary points at both ends are stored (step 708). That is, in FIG. 47, two boundary points of the cross section on the SR1 side and two boundary points of the cross section on the SR0 side are stored. The four boundary points are information necessary for temporarily changing the boundary point sequence (step 710).

【0181】最後にSR0タグを取り出す(ステップ7
02)。ステップ706では、取り出した要素タグがS
Rタグであるか否かを調べ、そうであれば、ステップ7
09において、狭義の仮想境界点列を取得する。すなわ
ち、まずSRタグを介して特異領域を求め、SSタグを
介して求めた断面系列との組み合わせにより、特異領域
の接続パターン(図23)を求める。図48は、SR解
析による特異領域SR0の接続パターンの例を示す。こ
こでは、開始境界点を持つ断面番号と終了境界点を持つ
断面番号が共に2であることを示す。
Finally, the SR0 tag is taken out (step 7)
02). In step 706, the retrieved element tag is S
Check whether the tag is an R tag, and if so, step 7
At 09, a virtual boundary point sequence in a narrow sense is acquired. That is, first, a unique region is obtained via the SR tag, and a connection pattern (FIG. 23) of the unique region is obtained by combining with the cross-sectional series obtained via the SS tag. FIG. 48 shows an example of a connection pattern of the unique region SR0 by SR analysis. Here, it is indicated that both the section number having the start boundary point and the section number having the end boundary point are 2.

【0182】次に、図4のステップ210によって、予
め図22の形式で求められている狭義の仮想境界点列
を、図23の接続パターンをキーとして照合し、狭義の
仮想境界点列を得る(図47)。
Next, in step 210 in FIG. 4, a narrowly defined virtual boundary point sequence obtained in advance in the format of FIG. 22 is collated with the connection pattern of FIG. 23 as a key to obtain a narrowly defined virtual boundary point sequence. (FIG. 47).

【0183】ステップ706で、NOとなるのは、VS
タグの場合である。ステップ710では、ステップ70
8で求められ、一時的に保存されている境界点がある場
合に限り、それらを出発点として、境界点構造体を接続
順に取り出しつつ、必要時にはステップ709で求めた
仮想境界点列への一時的な置き換えを実行する。すなわ
ち、SS0のSR0側の断面を仮想境界点列で置き換え
る(図48の点線)。
At step 706, the answer to NO is VS
This is the case for tags. In step 710, step 70
Only when there are boundary points obtained in step 8 and temporarily stored, the boundary point structures are taken out in the order of connection using these as starting points. Perform a global replacement. That is, the section on the SR0 side of SS0 is replaced with the virtual boundary point sequence (dotted line in FIG. 48).

【0184】ステップ711では、4個の境界点と、一
時的に置き換えられた仮想境界点列をなぞって、広義の
仮想境界点列を作成し(図47)、広義の仮想境界点列
C3を子とするBCCタグ(すなわちVCタグ)を作る
(図49)。このように、図46の断面系列と特異領域
は、図49に示すように特異領域で分離されると共に境
界点列に変換され、この境界点列に対してステップ71
3で認識処理が行われる。
In step 711, the four boundary points and the temporarily replaced virtual boundary point sequence are traced to create a broadly defined virtual boundary point sequence (FIG. 47). A BCC tag (ie, a VC tag) to be a child is created (FIG. 49). As described above, the cross-sectional series and the singular region in FIG. 46 are separated by the singular region and converted into a boundary point sequence as shown in FIG.
The recognition processing is performed in 3.

【0185】ステップ712では、ステップ711で作
られたVCタグがある場合に限り、それらを一時的なV
CCタグの子として登録する。
In step 712, only when there is a VC tag created in step 711, the
Register as a child of the CC tag.

【0186】ステップ713では、処理モードに応じ
て、文字認識を行って結果をVCタグに保存する。文字
認識方法としては、複数の認識方法が用意され、処理モ
ードに応じて、予め決められた認識方法を組み合わせて
文字認識を実行し、その結果を統合し、このステップの
認識結果とする。
In step 713, character recognition is performed according to the processing mode, and the result is stored in a VC tag. As the character recognition method, a plurality of recognition methods are prepared. Character recognition is performed by combining predetermined recognition methods according to the processing mode, and the results are integrated to obtain a recognition result of this step.

【0187】ステップ714では、ステップ710にお
いて一時的につなぎ換えられた仮想境界点列があれば、
それをつなぐ前の状態に戻す。以上の処理により、一文
字認識が行われる。
In step 714, if there is a virtual boundary point sequence temporarily reconnected in step 710,
Return it to the state before connecting it. With the above processing, one-character recognition is performed.

【0188】接触文字列に対して、上記した処理を適用
した場合の結果を図50に示す。ここでは、接触してい
る文字(a)が、断面系列グラフ(b)に基づいて生成
した仮想境界点列(c)を介して、互いに適切に抽出さ
れていることがわかる。なお、(d)の処理結果は、特
徴レベルで表現されているものを画像的に視覚化するた
めに、境界点をプロットしたものである。
FIG. 50 shows the result when the above processing is applied to the contact character string. Here, it can be seen that the touching character (a) is appropriately extracted from each other via the virtual boundary point sequence (c) generated based on the sectional sequence graph (b). The processing result of (d) is obtained by plotting the boundary points in order to visualize what is expressed by the feature level in an image.

【0189】(VCCタグ数の削減)図8、9を参照し
て、要素タグからVCCタグを生成する処理について詳
述した。ところが、前述したVCCタグの生成処理で
は、VCCタグの数が増大してしまう問題がある。
(Reduction of the Number of VCC Tags) The process of generating a VCC tag from an element tag has been described in detail with reference to FIGS. However, in the above-described process of generating a VCC tag, there is a problem that the number of VCC tags increases.

【0190】この問題を図40を参照して説明する。図
40に示す例では、5つの要素タグ(2つのSSタグ、
2つのSRタグおよび1つのBCCタグ)と1つのVS
タグから13個のVCCタグが生成されている。この例
にみるように、VCCタグの数は、要素タグの数の2乗
に比例して増加する。そこで、以下に述べる方法によっ
て、生成されるVCCタグの数を抑制し、一層の処理量
の削減を図る。
This problem will be described with reference to FIG. In the example shown in FIG. 40, five element tags (two SS tags,
Two SR tags and one BCC tag) and one VS
Thirteen VCC tags have been generated from the tags. As shown in this example, the number of VCC tags increases in proportion to the square of the number of element tags. Therefore, the number of generated VCC tags is suppressed by the method described below, and the processing amount is further reduced.

【0191】VCCタグの数を抑制するための一つの着
眼点は、SRタグの扱いである。前述した方法(ステッ
プ213の処理、図8、図9におけるステップ501か
らステップ517の処理など)では、SRタグを、SS
タグやBCCタグと同列に扱っているため、処理の無駄
が生じやすい。
One point of focus for suppressing the number of VCC tags is the handling of SR tags. In the method described above (the processing of step 213, the processing of steps 501 to 517 in FIGS. 8 and 9), the SR tag is
Since the tags and the BCC tags are handled in the same row, processing waste is likely to occur.

【0192】図40では、VCCタグ番号の0と7が、
それぞれ1個のSRタグから生成されているが、単独の
SRタグが一つの文字になる可能性は極めて低いので、
つまり、特異領域とはそもそも端点や分岐点・交差点を
表現するものであり、そのような特殊な点が一文字であ
って、かつ隣接文字と接触しているとは考えられないの
で、上記したVCCタグ番号0と7は抑制対象となり得
るVCCである。
In FIG. 40, the VCC tag numbers 0 and 7 are
Although each is generated from one SR tag, it is extremely unlikely that a single SR tag becomes one character,
In other words, the singular region originally expresses an end point, a branch point, or an intersection. Since such a special point is one character and cannot be considered to be in contact with an adjacent character, the above-described VCC is used. Tag numbers 0 and 7 are VCCs that can be suppressed.

【0193】また、前述した方法では、認識不能なVC
Cタグを生成しやすい。具体的には、SSタグから見て
両端にあるべきSRタグの少なくとも一方が含まれてい
ない場合である。このような場合には、仮想境界点列を
生成する方法が明示されず、従って認識不能として処理
されるため、VCCタグが生成されるものの実質的には
使用されないことになる。図40では、VCCタグ番号
の1,4,5,6,10,11が、これに相当するVC
Cタグである。
In the above-described method, the unrecognizable VC
Easy to generate C tag. Specifically, this is a case where at least one of the SR tags that should be at both ends when viewed from the SS tag is not included. In such a case, the method of generating the virtual boundary point sequence is not specified, and is therefore processed as unrecognizable, so that the VCC tag is generated but is not substantially used. In FIG. 40, the VCC tag numbers 1, 4, 5, 6, 10, and 11 correspond to the corresponding VC tags.
It is a C tag.

【0194】そこで、SRタグを、SSタグやBCCタ
グと同列に扱うのではなく、SSタグに付随するものと
して補助的に扱うことにより、VCCタグの数が削減さ
れる。
Therefore, the number of VCC tags is reduced by treating the SR tag not as the same tag as the SS tag or the BCC tag but as an auxiliary to the SS tag.

【0195】以下、図8、9を参照して説明する。ステ
ップ213において、タグ処理部3は、要素タグを組み
合わせてVCCタグを生成する。前述したように、VC
Cタグとは、文字切り出し処理から見た場合の「一文字
になりうる候補」を意味し、要素タグの1つ以上の組み
合わせで表現されるが、ここでは、SRタグは、SSタ
グに付随するものとして扱う。すなわち、VCCタグを
生成する直接の対象となるタグは、SSタグ、BCCタ
グ、VSタグとし、選択されているSSタグに関しての
み、それに連結するSRタグを補う。
Hereinafter, description will be made with reference to FIGS. In step 213, the tag processing unit 3 generates a VCC tag by combining the element tags. As described above, VC
The C tag means a “candidate that can be one character” as viewed from the character segmentation process, and is represented by one or more combinations of element tags. Here, the SR tag is attached to the SS tag. Treat as something. That is, the tags that are directly targets for generating the VCC tag are the SS tag, the BCC tag, and the VS tag, and only the selected SS tag is supplemented with the SR tag connected thereto.

【0196】図8、9は、ステップ213の詳細の処理
フローチャートであり、図51は、上記した新たなルー
ルに基づいた、VCCタグの生成過程を示す図である。
FIGS. 8 and 9 are detailed flowcharts of the process in step 213, and FIG. 51 is a diagram showing a process of generating a VCC tag based on the above-described new rule.

【0197】ステップ501では、以下の処理で一時的
に用いるためのVCCタグを準備する。ステップ502
〜ステップ504が処理対象となるタグ(SSタグ、B
CCタグ、VSタグ)を順に取り出して、左端とするル
ープ処理であり、同様に、ステップ506〜ステップ5
08が処理対象となるタグを順に取り出して、右端とす
るループ処理である。また、右端を取り出すループ処理
は、左端と同じ要素タグから始めるものとする。
In step 501, a VCC tag to be used temporarily in the following processing is prepared. Step 502
-Tags to be processed in step 504 (SS tag, B
(CC tag, VS tag) are taken out in order and set to the left end.
Reference numeral 08 denotes a loop process in which tags to be processed are sequentially extracted and set to the right end. Also, the loop processing for extracting the right end starts from the same element tag as the left end.

【0198】上記した処理により、ステップ212のソ
ート時に連続して並ぶタグの内、SRタグを除くすべて
のタグの組み合わせが作成される。SRタグは、前述し
たようにSSタグに付随するタグとして扱われる。この
ように、連続性を条件としてタグを組み合わせているの
で、タグの全ての組み合わせを求める場合に比べて、V
CCタグの数が削減される。また、SRタグをSSタグ
やBCCタグと同列に扱う場合(図40)に比べても、
VCCタグの数が大幅に削減される。上記した処理によ
って、VCCタグの数は図51に示すように5個とな
る。なお、VCCタグ番号2(図40のVCCタグ番号
8)は、SRタグ0(タグ番号5)とSSタグ2(タグ
番号4)の組み合わせであるが、これは図37(a)に
示す数字”0”のループ部分に相当し、SSタグの両端
にSRタグがあるとみなされることから、VCCタグ番
号2が生成される。
By the above-described processing, a combination of all tags except for the SR tag among the tags arranged continuously at the time of sorting in step 212 is created. The SR tag is handled as a tag attached to the SS tag as described above. As described above, since the tags are combined on the condition of continuity, V is compared with the case where all combinations of tags are obtained.
The number of CC tags is reduced. Also, compared to the case where the SR tag is handled in the same row as the SS tag and the BCC tag (FIG. 40),
The number of VCC tags is greatly reduced. By the above processing, the number of VCC tags becomes five as shown in FIG. Note that VCC tag number 2 (VCC tag number 8 in FIG. 40) is a combination of SR tag 0 (tag number 5) and SS tag 2 (tag number 4), which is the number shown in FIG. It corresponds to the loop part of “0”, and it is considered that there are SR tags at both ends of the SS tag, so that the VCC tag number 2 is generated.

【0199】上記したようにVCCタグの数が減少する
ことから、必然的に生成されるリンクの数も減少し、図
52に示すようになる。さらに、生成されるパスの数は
図53に示すように大幅に減少する(図53では、VC
Cタグ0をV0、VCCタグ1をV1と表す)。また、
パスの選択結果は、図54に示すものとなる。
Since the number of VCC tags is reduced as described above, the number of links that are inevitably generated is also reduced, as shown in FIG. Further, the number of generated paths is greatly reduced as shown in FIG.
C tag 0 is represented as V0, and VCC tag 1 is represented as V1). Also,
The path selection result is as shown in FIG.

【0200】なお、本発明はソフトウェアによっても実
現できる。図55は、本発明をソフトウェアによって実
現する場合のシステム構成例を示す。認識対象となる画
像は、スキャナなどから入力され、システムに取り込ま
れる。またはハードディスクに格納されている画像デー
タ、あるいはネットワークを介してシステムに取り込ま
れた画像データが認識の処理対象となる。
The present invention can be realized by software. FIG. 55 shows a system configuration example when the present invention is realized by software. The image to be recognized is input from a scanner or the like, and is taken into the system. Alternatively, image data stored in a hard disk or image data taken into a system via a network is to be recognized.

【0201】システム構成において、CPUは、入力画
像に対して前述した実施例の処理ステップや処理機能を
実行することにより文字認識処理を行い、認識結果を表
示装置に表示する。
In the system configuration, the CPU performs a character recognition process by executing the processing steps and processing functions of the above-described embodiment on an input image, and displays a recognition result on a display device.

【0202】上記した処理を実行するプログラムは、C
D−ROMなどの記録媒体に記録されていて、媒体に記
録されたプログラムをCD−ROM装置から読み込み、
システムにインストールすることによって実行され、上
記実施例で説明した処理機能が実現される。また、上記
したプログラムは、媒体の他、通信装置、ネットワーク
を介してサーバなどからダウンロードすることによって
も提供される。
The program for executing the above processing is C
A program recorded on a recording medium such as a D-ROM is read from a CD-ROM device,
It is executed by installing it in the system, and realizes the processing functions described in the above embodiments. In addition, the above-described program is provided by being downloaded from a server or the like via a communication device or a network in addition to a medium.

【0203】[0203]

【発明の効果】以上、説明したように、本発明によれ
ば、断面系列グラフの特異領域に対して仮想境界点列を
生成しているので、接触文字列を適切に切り出して高精
度に認識することができる。
As described above, according to the present invention, since a sequence of virtual boundary points is generated for a singular area of a sectional sequence graph, a contact character string is appropriately cut out and recognized with high accuracy. can do.

【0204】また、文字列が接触している特異領域に仮
想境界点列が生成されるので、接触文字の分離が可能と
なる。
Also, since a virtual boundary point sequence is generated in a unique region where the character string is in contact, the contact character can be separated.

【0205】また、仮想境界点列が所定の曲線発生方法
によって生成されるので、文字曲線が滑らかになり文字
認識の認識精度が向上する。
Further, since the virtual boundary point sequence is generated by a predetermined curve generation method, the character curve is smoothed and the recognition accuracy of character recognition is improved.

【0206】また、階層が異なる画像特徴をタグで管理
すると共に、タグの組み合わせによって文字候補を生成
しているので、画像データへのアクセスが少なくなり、
認識処理が高速化される。
In addition, since image features having different hierarchies are managed by tags and character candidates are generated by combining the tags, access to image data is reduced.
The speed of the recognition process is increased.

【0207】また、タグを組み合わせる際に、複数の層
にまたがるタグの重複を解消しているので、文字候補数
を抑えることができると共に、処理量を削減できる。
In addition, when tags are combined, the duplication of tags over a plurality of layers is eliminated, so that the number of character candidates can be reduced and the processing amount can be reduced.

【0208】また、タグの表現形式(論理構造)が同一
であるので、処理の共用化が図られ、これにより装置構
成が簡単化される。
Also, since the expression form (logical structure) of the tags is the same, the processing can be shared, thereby simplifying the device configuration.

【0209】さらに、VCCタグの生成に際して、SS
タグ、BCCタグ、VSタグを主な処理対象とし、それ
らを組み合わせる際に、SSタグに必要なSRタグを補
ってVCCタグを生成するという方法を採っているの
で、文字の切り出し精度を損なうことなく、VCCタグ
の生成を抑制することができる。
Further, when generating the VCC tag,
Tags, BCC tags, and VS tags are the main processing targets, and when they are combined, the method of generating the VCC tag by supplementing the SR tag required for the SS tag is adopted, so that the cutout accuracy of characters is impaired. Therefore, generation of a VCC tag can be suppressed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施例の概要を説明する処理フローチ
ャートである。
FIG. 1 is a processing flowchart illustrating an outline of an embodiment of the present invention.

【図2】本発明に係るタグの階層を説明する図である。FIG. 2 is a diagram illustrating a hierarchy of tags according to the present invention.

【図3】本発明の実施例の構成を示す図である。FIG. 3 is a diagram showing a configuration of an example of the present invention.

【図4】本発明の処理に係る処理全体のフローチャート
である。
FIG. 4 is a flowchart of the entire processing according to the processing of the present invention.

【図5】図4の続きの処理フローチャートである。FIG. 5 is a processing flowchart continued from FIG. 4;

【図6】要素タグの予約処理の詳細な処理フローチャー
トである。
FIG. 6 is a detailed processing flowchart of element tag reservation processing.

【図7】SR(特異領域)解析による仮想境界点列生成
処理の詳細フローチャートである。
FIG. 7 is a detailed flowchart of virtual boundary point sequence generation processing by SR (singular region) analysis.

【図8】VCCタグ生成の詳細な処理フローチャートで
ある。
FIG. 8 is a detailed processing flowchart of generating a VCC tag.

【図9】図8の続きの処理フローチャートである。FIG. 9 is a processing flowchart continued from FIG. 8;

【図10】特定文字の再認識の詳細な処理フローチャー
トである。
FIG. 10 is a detailed processing flowchart of specific character re-recognition.

【図11】一文字認識の詳細な処理フローチャートであ
る。
FIG. 11 is a detailed processing flowchart of one-character recognition.

【図12】線図形イメージデータ(原画像データ)と断
面系列グラフ並びに骨格線(芯線))との関係を示す図
である。
FIG. 12 is a diagram showing a relationship between line graphic image data (original image data), a sectional series graph, and a skeleton line (core line).

【図13】文字列画像の例を示す図である。FIG. 13 is a diagram illustrating an example of a character string image.

【図14】図13の画像に対する断面系列グラフの境界
点と断面を示す図である。
FIG. 14 is a diagram showing a boundary point and a cross section of a cross-sectional series graph for the image of FIG.

【図15】図13の画像に対する断面系列グラフの断面
系列と特異領域を示す図である。
15 is a diagram showing a cross-sectional sequence and a unique region of a cross-sectional sequence graph for the image of FIG.

【図16】境界点の表現形式を示す図である。FIG. 16 is a diagram showing an expression format of a boundary point.

【図17】境界点列の表現形式を示す図である。FIG. 17 is a diagram showing an expression format of a boundary point sequence.

【図18】断面の表現形式を示す図である。FIG. 18 is a diagram showing an expression form of a cross section.

【図19】断面系列の表現形式を示す図である。FIG. 19 is a diagram showing an expression format of a sectional series.

【図20】特異領域の表現形式を示す図である。FIG. 20 is a diagram showing an expression form of a unique region.

【図21】仮想境界点列セグメントを説明する図であ
る。
FIG. 21 is a diagram illustrating a virtual boundary point sequence segment.

【図22】仮想境界点列の表現形式を示す図である。FIG. 22 is a diagram showing an expression format of a virtual boundary point sequence.

【図23】特異領域の接続パターンを説明する図であ
る。
FIG. 23 is a diagram illustrating a connection pattern of a unique region.

【図24】特異領域の接続の様子を説明する図である。FIG. 24 is a diagram illustrating a state of connection of unique regions.

【図25】タグの表現形式を示す図である。FIG. 25 is a diagram showing an expression format of a tag.

【図26】タグ制御構造体を示す図である。FIG. 26 is a diagram showing a tag control structure.

【図27】認識結果の表現形式を示す図である。FIG. 27 is a diagram showing an expression format of a recognition result.

【図28】タグ配列が使われる様子を示す図である。FIG. 28 is a diagram showing how a tag array is used.

【図29】タグ配列とソート結果配列の様子を示す図で
ある。
FIG. 29 is a diagram showing a state of a tag array and a sort result array.

【図30】処理対象となる文字列画像の例を示す図であ
る。
FIG. 30 is a diagram illustrating an example of a character string image to be processed.

【図31】タグ構造体をモデル化した図である。FIG. 31 is a diagram modeling a tag structure.

【図32】タグ番号をソートした結果を示す図である。FIG. 32 is a diagram showing a result of sorting tag numbers.

【図33】断面系列グラフの下位層と追加されるVSタ
グを示す図である。
FIG. 33 is a diagram showing a lower layer of the sectional sequence graph and a VS tag to be added.

【図34】負の空白例を示す図である。FIG. 34 is a diagram illustrating an example of a negative blank.

【図35】要素タグにVSタグを加えてソートした結果
を示す図である。
FIG. 35 is a diagram showing a result of sorting by adding a VS tag to an element tag.

【図36】要素タグの予約処理を説明する図である。FIG. 36 is a diagram illustrating a reservation process of an element tag.

【図37】要素タグの取捨選択を説明する図である。FIG. 37 is a diagram illustrating selection of an element tag.

【図38】要素タグの取捨選択された結果を示す図であ
る。
FIG. 38 is a diagram showing the result of selecting element tags.

【図39】要素タグの初期統合の例を説明する図であ
る。
FIG. 39 is a diagram illustrating an example of initial integration of element tags.

【図40】VCCタグの生成過程を示す図である。FIG. 40 is a diagram showing a process of generating a VCC tag.

【図41】生成されたリンクを示す図である。FIG. 41 is a diagram showing a generated link.

【図42】生成されたパスを示す図である。FIG. 42 is a diagram illustrating a generated path.

【図43】選択されたパスを示す図である。FIG. 43 is a diagram showing a selected path.

【図44】VCCタグの子がBCCタグである場合の例
を示す図である。
FIG. 44 is a diagram illustrating an example in which a child of a VCC tag is a BCC tag.

【図45】BCCタグが一時的なVCCタグの子として
登録された図である。
FIG. 45 is a diagram in which a BCC tag is registered as a child of a temporary VCC tag.

【図46】VCCタグの子がSS/SRタグである場合
の例を示す図である。
FIG. 46 is a diagram illustrating an example in which a child of a VCC tag is an SS / SR tag.

【図47】SS、SRタグの処理を説明する図である。FIG. 47 is a diagram for explaining processing of SS and SR tags.

【図48】特異領域SR0の接続パターンの例を示す図
である。
FIG. 48 is a diagram showing an example of a connection pattern of a unique region SR0.

【図49】広義の仮想境界点列を子とするVCタグの生
成を示す図である。
FIG. 49 is a diagram illustrating generation of a VC tag having a virtual boundary point sequence in a broad sense as a child.

【図50】(a)〜(d)は、本発明による処理結果を
示す図である。
FIGS. 50A to 50D are diagrams showing processing results according to the present invention.

【図51】VCCタグの他の生成過程を示す図である。FIG. 51 is a diagram illustrating another generation process of the VCC tag.

【図52】図51から生成されたリンクを示す図であ
る。
FIG. 52 is a diagram showing a link generated from FIG. 51.

【図53】生成されたパスを示す図である。FIG. 53 is a diagram showing a generated path.

【図54】パスの選択結果を示す図である。FIG. 54 is a diagram showing a path selection result.

【図55】本発明をソフトウェアによって実行する場合
の構成例を示す図である。
FIG. 55 is a diagram illustrating a configuration example when the present invention is executed by software.

【符号の説明】[Explanation of symbols]

1 画像入力部 2 断面系列処理部 3 タグ処理部 4 仮想境界点処理部 5 メモリ 6 リンク生成/パス生成部 7 文字認識部 8 制御部 10 境界点構造体 20 境界点列構造体 30 断面構造体 40 断面系列構造体 50 特異領域構造体 60 仮想境界点列構造体 70 タグ構造体 DESCRIPTION OF SYMBOLS 1 Image input part 2 Section series processing part 3 Tag processing part 4 Virtual boundary point processing part 5 Memory 6 Link generation / path generation part 7 Character recognition part 8 Control part 10 Boundary point structure 20 Boundary point sequence structure 30 Cross-sectional structure 40 Cross-section sequence structure 50 Singular region structure 60 Virtual boundary point sequence structure 70 Tag structure

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 文字画像の特徴として断面系列グラフを
用いて文字認識する文字認識方法であって、文字列画像
から断面系列グラフを抽出し、該断面系列グラフの特異
領域を解析し、該解析結果を基に前記特異領域に仮想境
界点列を生成し、前記断面系列グラフの構造要素を組み
合わせて文字候補を生成し、該生成された文字候補につ
いて、必要な仮想境界点列を補ってから一文字として認
識し、一文字認識された文字候補間の隣接関係を基に文
字列を認識することを特徴とする文字認識方法。
1. A character recognition method for recognizing a character using a cross-sectional sequence graph as a feature of a character image, comprising: extracting a cross-sectional sequence graph from a character string image; analyzing a singular region of the cross-sectional sequence graph; A virtual boundary point sequence is generated in the singular region based on the result, a character candidate is generated by combining structural elements of the cross-sectional series graph, and a necessary virtual boundary point sequence is supplemented for the generated character candidate. A character recognition method characterized by recognizing a character as a single character and recognizing a character string based on an adjacency relationship between the recognized character candidates.
【請求項2】 前記仮想境界点列が生成される特異領域
は、文字列が近接あるいは接触している領域を含むこと
を特徴とする請求項1記載の文字認識方法。
2. The character recognition method according to claim 1, wherein the unique region in which the virtual boundary point sequence is generated includes a region where a character string is close to or in contact with the character string.
【請求項3】 前記特異領域と該特異領域に接続する断
面系列の接続順序と位置とを基に、前記仮想境界点列の
生成位置を決定することを特徴とする請求項1または2
記載の文字認識方法。
3. The generation position of the virtual boundary point sequence is determined on the basis of the connection order and position of the singular region and a series of cross-sections connected to the singular region.
The character recognition method described.
【請求項4】 前記仮想境界点列を生成するとき文字列
の方向を参照し、該文字列の方向に対応しない断面系列
間には仮想境界点列を生成しないことを特徴とする請求
項1、2または3記載の文字認識方法。
4. The method according to claim 1, wherein the direction of the character string is referred to when the virtual boundary point sequence is generated, and the virtual boundary point sequence is not generated between the cross-sectional series that does not correspond to the character string direction. The character recognition method according to 2, 3 or 4.
【請求項5】 前記仮想境界点列は、所定の曲線発生方
法を用いて生成することを特徴とする請求項1、2また
は3記載の文字認識方法。
5. The character recognition method according to claim 1, wherein the virtual boundary point sequence is generated using a predetermined curve generation method.
【請求項6】 前記構造要素を第1の層と第2の層に分
け、それぞれをタグで管理することを特徴とする請求項
1記載の文字認識方法。
6. The character recognition method according to claim 1, wherein the structural element is divided into a first layer and a second layer, and each is managed by a tag.
【請求項7】 前記構造要素の第1の層は、断面系列と
特異領域であり、前記断面系列を第1のタグで管理し、
前記特異領域を第2のタグで管理することを特徴とする
請求項1または6記載の文字認識方法。
7. A first layer of the structural element is a section sequence and a singular region, and the section sequence is managed by a first tag,
The character recognition method according to claim 1, wherein the unique area is managed by a second tag.
【請求項8】 前記構造要素の第2の層は境界点列であ
り、該境界点列を第3のタグで管理することを特徴とす
る請求項1または6記載の文字認識方法。
8. The character recognition method according to claim 1, wherein the second layer of the structural element is a sequence of boundary points, and the sequence of boundary points is managed by a third tag.
【請求項9】 前記文字列間の空白領域を第4のタグで
管理することを特徴とする請求項1記載の文字認識方
法。
9. The character recognition method according to claim 1, wherein a blank area between the character strings is managed by a fourth tag.
【請求項10】 前記第1、第2、第3および第4のタ
グを組み合わせることにより、文字候補を生成し、該生
成された文字候補を第5のタグで管理することを特徴と
する請求項7、8または9記載の文字認識方法。
10. A character candidate is generated by combining the first, second, third, and fourth tags, and the generated character candidate is managed by a fifth tag. Item 7. The character recognition method according to Item 7, 8 or 9.
【請求項11】 前記第1、第2および第3のタグを組
み合わせるとき、同一の構造要素については、第1の層
のタグまたは第2の層のタグの何れかを用い、タグの重
複を解消することを特徴とする請求項10記載の文字認
識方法。
11. When combining the first, second, and third tags, for the same structural element, either the tag of the first layer or the tag of the second layer is used, and duplication of the tags is performed. The character recognition method according to claim 10, wherein the character recognition is canceled.
【請求項12】 前記第1、第3および第4のタグを組
み合わせ、前記第1のタグに必要な前記第2のタグを補
うことにより、文字候補を生成し、該生成された文字候
補を第5のタグで管理することを特徴とする請求項7、
8または9記載の文字認識方法。
12. A character candidate is generated by combining the first, third, and fourth tags and supplementing the second tag required for the first tag, and generating the character candidate. 8. The management by a fifth tag.
8. The character recognition method according to 8 or 9.
【請求項13】 前記第5のタグ間にリンクを生成し、
該生成されたリンク間にパスを生成し、該生成されたパ
スの内、最適なパスを選択することにより、文字列を認
識出力することを特徴とする請求項10または12記載
の文字認識方法。
13. Creating a link between the fifth tags,
13. The character recognition method according to claim 10, wherein a path is generated between the generated links, and a character string is recognized and output by selecting an optimum path from the generated paths. .
【請求項14】 文字列画像から断面系列グラフの第1
の層である断面系列と特異領域を抽出し、断面系列グラ
フの第2の層である境界点列を抽出する機能と、前記断
面系列と特異領域および境界点列を組み合わせることに
より文字候補を生成する機能と、該生成された文字候補
を一文字として認識する機能と、一文字認識された文字
候補間の隣接関係を基に文字列を認識する機能をコンピ
ュータに実現させるためのプログラムを記録したコンピ
ュータ読み取り可能な記録媒体。
14. The first section graph of a cross-sectional series graph from a character string image
A function of extracting a cross-sectional series and a singular region, which is a layer, and a function of extracting a boundary point sequence, which is a second layer of a cross-sectional sequence graph, and generating a character candidate by combining the cross-sectional sequence with a singular region and a boundary point sequence Computer-readable program recording a program for causing a computer to implement a function of recognizing the generated character candidate as one character, and a function of recognizing a character string based on the adjacent relationship between the recognized character candidates. Possible recording medium.
【請求項15】 前記特異領域を解析し、該解析結果を
基に前記特異領域に仮想境界点列を生成する機能と、前
記一文字を認識する際に、断面系列と特異領域からなる
文字候補を、必要な仮想境界点列で補って境界点列に変
換する機能をコンピュータに実現させるためのプログラ
ムを記録したコンピュータ読み取り可能な請求項14記
載の記録媒体。
15. A function of analyzing the singular region and generating a virtual boundary point sequence in the singular region based on the analysis result, and a character candidate consisting of a sectional sequence and a singular region when recognizing the one character. 15. The computer-readable recording medium according to claim 14, which stores a program for causing a computer to realize a function of supplementing with a necessary virtual boundary point sequence and converting the boundary point sequence.
【請求項16】 さらに、前記断面系列を管理する第1
のタグ、前記特異領域を管理する第2のタグ、前記境界
点列を管理する第3のタグ、前記文字列間の空白を管理
する第4のタグを生成する機能をコンピュータに実現さ
せるためのプログラムを記録したコンピュータ読み取り
可能な請求項14または15記載の記録媒体。
16. The method according to claim 16, further comprising:
For realizing a function of generating a tag, a second tag for managing the singular region, a third tag for managing the boundary point sequence, and a fourth tag for managing a space between the character strings. 16. The recording medium according to claim 14, wherein the program is recorded and is readable by a computer.
【請求項17】 前記第1、第2、第3および第4のタ
グを組み合わせることにより生成される文字候補を管理
する第5のタグを生成する機能をコンピュータに実現さ
せるためのプログラムを記録したコンピュータ読み取り
可能な請求項16記載の記録媒体。
17. A program for causing a computer to realize a function of generating a fifth tag for managing a character candidate generated by combining the first, second, third, and fourth tags. 17. The recording medium according to claim 16, which is readable by a computer.
【請求項18】 前記第1、第3および第4のタグを組
み合わせ、前記第1のタグに必要な前記第2のタグを補
うことにより生成される文字候補を管理する第5のタグ
を生成する機能をコンピュータに実現させるためのプロ
グラムを記録したコンピュータ読み取り可能な請求項1
6記載の記録媒体。
18. A fifth tag for managing a character candidate generated by combining the first, third, and fourth tags and supplementing the second tag required for the first tag is generated. 2. A computer-readable recording program for causing a computer to realize the function of performing the function.
6. The recording medium according to 6.
【請求項19】 前記第1、第2、第3および第5のタ
グを、同一の論理構造で管理する機能をコンピュータに
実現させるためのプログラムを記録したコンピュータ読
み取り可能な請求項17または18記載の記録媒体。
19. A computer readable recording program for causing a computer to realize a function of managing the first, second, third, and fifth tags with the same logical structure. Recording medium.
JP2001077590A 2000-03-30 2001-03-19 Method for recognizing character and recording medium Pending JP2001344569A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001077590A JP2001344569A (en) 2000-03-30 2001-03-19 Method for recognizing character and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-94959 2000-03-30
JP2000094959 2000-03-30
JP2001077590A JP2001344569A (en) 2000-03-30 2001-03-19 Method for recognizing character and recording medium

Publications (1)

Publication Number Publication Date
JP2001344569A true JP2001344569A (en) 2001-12-14

Family

ID=26588938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001077590A Pending JP2001344569A (en) 2000-03-30 2001-03-19 Method for recognizing character and recording medium

Country Status (1)

Country Link
JP (1) JP2001344569A (en)

Similar Documents

Publication Publication Date Title
JP3822277B2 (en) Character template set learning machine operation method
JP2577763B2 (en) Figure recognition system and operation method thereof
JP2973944B2 (en) Document processing apparatus and document processing method
US8823738B1 (en) Merging electronic diagrams
US20030179214A1 (en) System and method for editing electronic images
JP2608571B2 (en) Apparatus and method for vectorizing input scanned image data
US20080028291A1 (en) Graphical syntax analysis of tables through tree rewriting
KR102305230B1 (en) Method and device for improving accuracy of boundary information from image
US7752543B2 (en) Applying effects to a merged text path
JP4704601B2 (en) Character recognition method, program, and recording medium
CN112329548A (en) Document chapter segmentation method and device and storage medium
JP3634574B2 (en) Information processing method and apparatus
KR102352942B1 (en) Method and device for annotating object boundary information
US6233352B1 (en) Information processing method and apparatus
CN101814141A (en) Storage medium, character identifying method and character recognition device
JP3796478B2 (en) Path processing method and apparatus
US6876765B2 (en) Character recognition method and computer-readable storage medium
CN112418220A (en) Single word detection method, device, equipment and medium
JP2001344569A (en) Method for recognizing character and recording medium
JP2000040085A (en) Method and device for post-processing for japanese morpheme analytic processing
JPH08320914A (en) Table recognition method and device
US20040105583A1 (en) Segmenting a composite image via minimum areas
JPH08194716A (en) Picture processing method and its device
JP3941610B2 (en) Information extraction method, information extraction apparatus, and information extraction program
JPH1063744A (en) Method and system for analyzing layout of document

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050811

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081016

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081021

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081217

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090310