JPS6219975A - Graphic form processing system - Google Patents

Graphic form processing system

Info

Publication number
JPS6219975A
JPS6219975A JP60157917A JP15791785A JPS6219975A JP S6219975 A JPS6219975 A JP S6219975A JP 60157917 A JP60157917 A JP 60157917A JP 15791785 A JP15791785 A JP 15791785A JP S6219975 A JPS6219975 A JP S6219975A
Authority
JP
Japan
Prior art keywords
local
points
local feature
global
graphic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP60157917A
Other languages
Japanese (ja)
Inventor
Shigemi Osada
茂美 長田
Toshio Matsuura
松浦 俊夫
Akira Inoue
彰 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP60157917A priority Critical patent/JPS6219975A/en
Publication of JPS6219975A publication Critical patent/JPS6219975A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To obtain image data related to characters from a handwritten graphic form and to make information compression of an original graphic form by making a handwritten graphic form into fine lines and separating characters, broken lines and solid lines basing on length between local feature points such as intersections and endpoints etc. CONSTITUTION:A fine line making section 1 makes inputted graphic from into fine lines using a fine line making mask, and a local feature extracting section 2 extracts local intersections, endpoints etc. from the fine line graphic form using an intersection extracting mask. A stroke following section 3 makes stroke pursuit starting from local intersections, and extracts local inflection points and local endpoints and further, determines length of each line element. A global feature extracting section 4 compares length of line element and threshold value, and disposes of unnecessary local inflection points and local endpoints, and disposes of local intersections which are too close to each other, and determines global intersections, global inflection points and global endpoints and performs information compression. A character separating section 5 judges local feature points of short distance as parts of characters and those of long distance as parts of graphic form and separates characters and graphic forms.

Description

【発明の詳細な説明】 〔概要〕 文字、破線、実線等が混在して描かれた図形を局所的特
徴点に基づいて圧縮して表現する図形処理システムにお
いて、細線図形の交点から出発してストロークを追跡し
ていき局所的変曲点と線素の距離とを抽出し、得られた
局所的変曲点から大域的変曲点を決定して描かれた図形
の特徴を損なわない程度に情報圧縮を行うと共に、1ス
トローク毎の距離の総和に基づいて文字情報を分離して
いる。
[Detailed Description of the Invention] [Summary] In a graphic processing system that compresses and expresses a figure drawn with a mixture of characters, broken lines, solid lines, etc. based on local feature points, starting from the intersection of thin line figures, The distance between the local inflection point and the line element is extracted by tracing the stroke, and the global inflection point is determined from the obtained local inflection point to the extent that the characteristics of the drawn figure are not impaired. In addition to compressing information, character information is separated based on the sum of distances for each stroke.

〔従来の技術〕[Conventional technology]

従来の図形処理システムは1例えば特公昭58年295
45号明細書に記載されているように。
The conventional graphic processing system is 1, for example, 1982, 295.
As stated in specification No. 45.

図形2文字等に関係なく圧縮しようとする図形を細線化
して折線近似を行い、原図形の特徴を損なわない程度に
情報圧縮を行っていた。
The figure to be compressed is thinned and approximated by a broken line, regardless of the character or the like, and the information is compressed to the extent that the characteristics of the original figure are not lost.

〔発明が解決しようとする問題点〕[Problem that the invention seeks to solve]

従来の図形処理システムでは2図形1文字等に関係なく
図形を細線化して折線近似によって情報圧縮を行ってい
たため5図形中から文字に対応する画像データを抽出し
得ないという問題点があった。
In the conventional graphic processing system, information was compressed by thinning the figure and using broken line approximation regardless of whether it was two figures or one character, so there was a problem that image data corresponding to a character could not be extracted from among five figures.

〔問題点を解決するための手段〕[Means for solving problems]

本発明は、前記問題点を解決するために、原図形を細線
化して抽出した局所的特徴点間の距離を求め、この距離
が予め設定した閾値よりも短いものは文字部分であり、
長いものは図形部分であると判断して文字と図形とを分
離する構成を採用することにより2図形部分に対しては
原図形の特徴を損なわない程度に情報圧縮を行うと共に
1文字部分に対しては原図形から文字データを分離して
処理を行い得るようにしている。
In order to solve the above problem, the present invention calculates the distance between local feature points extracted by thinning the original figure, and if this distance is shorter than a preset threshold, it is a character part,
By adopting a configuration that separates letters and figures by determining that long objects are graphic parts, information is compressed for two figure parts to the extent that the characteristics of the original figure are not lost, and information is compressed for one character part. In this case, character data can be separated from the original figure and processed.

第1図は本発明の原理的構成を示す。図中、1は細線化
処理部、2は局所的特徴点抽出部、3はストローク追跡
処理部、4は大域的特徴抽出処理部、5は文字分離処理
部を表す。
FIG. 1 shows the basic configuration of the present invention. In the figure, 1 represents a thinning processing section, 2 a local feature point extraction section, 3 a stroke tracking processing section, 4 a global feature extraction processing section, and 5 a character separation processing section.

第1図において、細線化処理部1は入力図形を細線化す
るものであって、特公昭58年29545号明細書に記
載されているように1周知の細線化マスクを作用させて
細線化するものである。例えば第2図図示の如き細線化
された細線図形が得られる。
In FIG. 1, a thinning processing unit 1 thins an input figure by applying a well-known thinning mask as described in Japanese Patent Publication No. 29545 of 1981. It is something. For example, a thin line figure as shown in FIG. 2 is obtained.

局所的特徴抽出部2は細線図形に対して、交点抽出マス
クを用いて局所的交点、端点等を抽出するものである。
The local feature extraction unit 2 extracts local intersection points, end points, etc. from a thin line figure using an intersection extraction mask.

ストローク追跡処理部3は局所的交点から出発するスト
ローク追跡を行い、当該ストロークに関連した局所的変
曲点や局所的端点を抽出しかつ各線素の長さを決定する
ものである。
The stroke tracing processing section 3 performs stroke tracing starting from local intersection points, extracts local inflection points and local end points related to the stroke, and determines the length of each line element.

大域的特徴抽出処理部4は、第1に上記線素の長さとあ
る閾値とを比較して、上記局所的変曲点や局所的端点中
の不要なものを整理し、第2に局所的交点のうち、接近
し過ぎているものを整理するなどして、第3に大域的交
点、大域的変曲点。
The global feature extraction processing unit 4 firstly compares the length of the line element with a certain threshold value, sorts out unnecessary ones among the local inflection points and local end points, and secondly, Thirdly, by sorting out intersection points that are too close together, we can find global intersection points and global inflection points.

大域的端点を決定し、第4に情報圧縮を行うものである
The fourth step is to determine global endpoints and perform information compression.

文字分離処理部5は、原図形中から文字を分離するもの
であって1局所的特徴点間の距離が短いものは文字部分
と判断し、距離が長いものは図形部分と判断して文字と
図形とを分離するようにしたものである。
The character separation processing unit 5 separates characters from the original figure, and determines that a short distance between local feature points is a character part, and a long distance is determined to be a figure part, and distinguishes it from a character. It is designed to separate the figure from the figure.

〔作用〕[Effect]

人力図形を細線化し、この細線化した図形の交点から出
発してストローク追跡を行い3局所豹変曲点と線素の距
離とを抽出し、この距離が予め設定した閾値よりも短い
ものを文字部分であると判断し、長いものを図形部分で
あると判断している。
A human figure is made into thin lines, stroke tracing is performed starting from the intersection of the thinned figures, and the distance between the three local inflection points and the line elements is extracted, and those whose distance is shorter than a preset threshold are used as text parts. It is determined that the long part is the figure part.

そして2図形部分であると判断した部分に対して。Then, for the part judged to be the 2-figure part.

局所的特徴点に基づいて原図形の特徴を)屓なわない程
度に情報圧縮して表現している。また2文字部分である
と判断した部分に対して1文字情報等を用いて表現し得
るようにしている。
Based on the local feature points, the information is compressed and expressed to the extent that the features of the original figure are not distorted. Furthermore, a portion determined to be a two-character portion can be expressed using one-character information or the like.

〔実施例〕〔Example〕

第2図はストローク追跡処理を説明する図形例の説明図
、第3図は局所的変曲点と距離とを示すテーブルの説明
図、第4図は特徴点を説明するテーブルの説明図を表す
FIG. 2 is an explanatory diagram of a graphic example explaining stroke tracking processing, FIG. 3 is an explanatory diagram of a table showing local inflection points and distances, and FIG. 4 is an explanatory diagram of a table explaining feature points. .

第2図に示す細線化された細線図形は、細線化処理部1
が周知(例えば特公昭58年29545号)の細線化マ
スクを作用させて入力図形より生成したものである。図
中“◎”印は局所的交点を示し1図中“■”印は局所的
変曲点を示し1図中1、.1t ・・・l、、は局所的
変曲点間の距離を示す。また1図中AおよびBを用いて
示す局所的交点は、折線近似の基本単位となる1ストロ
ークを示す。
The thin line figure shown in FIG.
is generated from the input figure by applying a well-known thinning mask (for example, Japanese Patent Publication No. 29545 of 1982). The "◎" marks in the figure indicate local intersection points, and the "■" marks in one figure indicate local inflection points. 1t...l,, indicates the distance between local inflection points. In addition, local intersection points indicated by A and B in FIG. 1 indicate one stroke, which is a basic unit of broken line approximation.

第2図において1例えば図中局所的交点へから局所的交
点Bに至るまで細線図形を追跡し、第3図に示すテーブ
ルを作成する。次に、このテーブルに示す局所的変曲点
の座標(X、、Y、)、(Xz、Yz)と局所的変曲点
相互の間の距離とを用いて大局的変曲点を決定する。こ
の決定は、大域的特徴抽出処理部4によって既述した如
く実行される。
In FIG. 2, for example, a thin line figure is traced from a local intersection point in the figure to a local intersection point B, and a table shown in FIG. 3 is created. Next, determine the global inflection point using the coordinates (X,, Y,), (Xz, Yz) of the local inflection points shown in this table and the distances between the local inflection points. . This determination is executed by the global feature extraction processing unit 4 as described above.

次に、以下の処理を実行して文字情報を抽出する。Next, the following processing is executed to extract character information.

(1)局所的変曲点相互の間の距離の総和し、を求める
(1) Find the sum of the distances between local inflection points.

(2)  この総和L、と予め設定した閾値Thとを比
較する。
(2) Compare this total L with a preset threshold Th.

(3)シ、≦T6ならば2局所的特徴点に対して文字部
分であることを示す文字フラグ、局所的特徴点間のポイ
ンタ、および最終的な近似ベクトルを格納する格納テー
ブルポインタを設定する(第4図)。
(3) If ≦T6, set a character flag indicating that it is a character part for the 2 local feature points, a pointer between local feature points, and a storage table pointer that stores the final approximate vector. (Figure 4).

第4図は特徴点を説明するテーブルである。図中■は局
所的特徴点の座標を示す。図中■には。
FIG. 4 is a table explaining feature points. ■ in the figure indicates the coordinates of local feature points. ■ in the figure shows.

図示■に格納した座標値によって特定される位置から出
ているストロークの方向が格納されている。
The direction of the stroke emanating from the position specified by the coordinate values stored in ``■'' in the figure is stored.

例えば座標値(0,0)即ち第2図図中“A”を用いて
示す局所的特徴点(交点)に対しては、R(右方向)、
U(上方向)およびD(下方向)に夫々“1”がセット
されている。
For example, for the coordinate value (0,0), that is, the local feature point (intersection point) indicated by "A" in FIG. 2, R (rightward),
"1" is set in each of U (upward direction) and D (downward direction).

図中■は文字フラグを示し1局所的特徴点から夫々の方
向に出ているストロークが所定値よりも短い場合に“1
”がセントされる。例えば局所的特徴点から右方向に出
ているストロークが所定値よりも短い場合には1文字フ
ラグFRが“1”にセットされる。
■ in the figure indicates a character flag, and if the strokes coming out from one local feature point in each direction are shorter than a predetermined value, "1" is displayed.
” is cented. For example, if the stroke extending to the right from the local feature point is shorter than a predetermined value, the one-character flag FR is set to “1”.

図中■はポインタを示し、自己の局所的特徴点と接続さ
れている他の局所的特徴点の図示■NOが設定される。
In the figure, ``■'' indicates a pointer, and ``■NO'' in the illustration of another local minutiae connected to the own local minutiae is set.

図中■は格納テーブルへのポインタを示し、Sm 、S
u 、St −Soは局所的特徴点から出でいるストロ
ークが最終的に近似された結果に対応する線分のスター
ト点におけるものを夫々示し、Eえ、Eu 、Et 、
Eoはエンド点におけるものを夫々示す。
■ in the figure indicates a pointer to the storage table, Sm, S
u and St-So indicate the starting point of the line segment corresponding to the final approximation result of the stroke coming out from the local feature point, and E, Eu, Et,
Eo indicates the end point.

次に1文字を分離する手順を説明する。Next, the procedure for separating one character will be explained.

fl+  各局所的特徴点毎に文字フラグF*、Fu。fl+ Character flags F*, Fu for each local feature point.

FL、F、をサーチし2局所的特徴点から出ているスト
ロークが全て“1”であれば1文字フラグF丁を“1″
にセットする。
Search FL, F, and if the strokes coming from the two local feature points are all "1", set the 1 character flag F to "1"
Set to .

(2)文字フラグFrが“1”である局所的特徴点のポ
インタPR,PLl+  PL、PDを辿り1文字フラ
グF、が“1゛でない局所的特徴点に到達した場合、こ
の過程中の文字フラグF1が“1”である局所的特徴点
を全て“0”にセントする。
(2) If the pointer PR, PLl+ PL, PD of a local minutiae point whose character flag Fr is "1" is traced and a local minutiae point whose one character flag F is not "1" is reached, the character in this process All local feature points whose flag F1 is "1" are set to "0".

そうでない場合7文字フラグFTは“1”のままにして
おく。
Otherwise, the 7-character flag FT is left as "1".

以上の処理によって細線化された細線図形の中から、抽
出された文字部分に対応する局所的特徴点が文字フラグ
F、“■”として設定される。次に、この文字フラグF
7 ”1”としモ設定された局所的特徴点に対応する図
中■格納テーブルポインタを用いて、既知(特願昭59
年51944号)の図示外のヘクトル格納テーブルをア
クセスして1文字から破線を分離する。この際、破線の
構成要素となる微小線素の端点(局所的特徴点)の文字
フラグFTを“2”とし1文字部分の文字フラグ1”と
区別するようにしておく。
A local feature point corresponding to the extracted character part is set as a character flag F, "■", from among the thin line figures thinned by the above processing. Next, this character flag F
7 Using the ■ storage table pointer in the diagram corresponding to the local feature point set as "1",
51944), which is not shown, is accessed to separate the broken line from one character. At this time, the character flag FT of the end point (local feature point) of the minute line element constituting the broken line is set to "2" to distinguish it from the character flag 1 of the one character portion.

以上の処理によって、原図形中から文字と図形(実線、
破線)とが区別され、夫々が折線によって近似される。
Through the above processing, characters and figures (solid lines, solid lines,
(dashed line), and each is approximated by a broken line.

更に1文字部分に関しては1文字フラグFTの連結した
局所的特徴点の座標を基にして1文字の画像データを抽
出することもできる。
Furthermore, regarding a single character part, image data of a single character can be extracted based on the coordinates of local feature points connected to the single character flag FT.

第5図ないし第8図は本発明の1実施例構成図を示す。5 to 8 show configuration diagrams of one embodiment of the present invention.

第5図は本発明に用いられる細線化処理部1の1実施例
構成を示している。図中の符号18,19は夫々サブ・
チャネル、20はアドレス制御部であってサブ・チャネ
ル18からの指示により入力ビデ第21に対するアクセ
ス・アドレスを発生するもの、21は入力ビデオであっ
て画像情報に対応するもの、22はモジュール制御部で
あってサブ・チャネル19からの指示により後述する論
理フィルタ回路(細線化マスク)23を稼動状態にする
プログラム・モジュールを作動するもの。
FIG. 5 shows an embodiment of the configuration of the thinning processing section 1 used in the present invention. Numerals 18 and 19 in the figure are sub-
20 is an address control unit that generates an access address for input video 21 according to instructions from sub-channel 18; 21 is an input video corresponding to image information; 22 is a module control unit; The program module operates a logic filter circuit (thinning mask) 23, which will be described later, in response to an instruction from the sub-channel 19.

23は論理フィルタ回路(細線化マスク)であって入力
ビデオ21として順次読み出されてくるビデオ・データ
に基づいて細線化を行うもの、24は細線図形であって
論理フィルタ回路23によって細線化された細線図形が
入力ビデオ21の存在番地に対応して保持されるものを
表している。
23 is a logic filter circuit (thinning mask) that performs thinning based on the video data sequentially read out as the input video 21; 24 is a thin line figure that is thinned by the logic filter circuit 23; The thin line figures shown in FIG.

第6図は局所的特徴点抽出部2の1実施例構成を示して
いる。図中の符号18−1.19−1は夫々サブ・チャ
ネル、20−1はアドレス制御部。
FIG. 6 shows the configuration of one embodiment of the local feature point extracting section 2. As shown in FIG. In the figure, 18-1 and 19-1 are sub-channels, and 20-1 is an address control unit.

24は第5図に対応する細線図形、25はモジュール制
御部であってサブ・チャふル19−1からの指示により
後述の論理フィルタ回路26を稼動状態にするプログラ
ム・モジュールを作動するもの、26は論理フィルタ回
路でありで細線図形24として順次読みだされてくる細
線図形データにもとづいて局所的特徴点を抽出するもの
、27は特徴点ビデオであって抽出された局所的特徴点
を上記細線図形24の存在番地に対応して保持されるも
のを表している。
24 is a thin line figure corresponding to FIG. 5; 25 is a module control unit that operates a program module that puts a logic filter circuit 26 (to be described later) into operation according to instructions from the sub chaffle 19-1; 26 is a logic filter circuit which extracts local feature points based on the thin line figure data sequentially read out as the thin line figure 24; 27 is a feature point video which extracts the extracted local feature points as described above. It represents what is held corresponding to the address where the thin line figure 24 exists.

第7図は局所的特徴点座標抽出処理部の1実施例を示し
、該抽出部は第6図の構成によって得られた特徴点ビデ
オ27にもとづいて各局所的特徴点の座標位置を抽出す
る。図中の符号18−2゜19−2は夫々サブ・チャネ
ル、20−2はアドレス制?3’l1部、27は第6図
に対応する特徴点ビデオ228はモジュール制御部であ
ってサブ・チャネル19−2からの指示により後述の座
標点抽出回路29を稼動状態にするプログラム・モジエ
ールを作動状態にするもの、29は座標点抽出回路であ
って特徴点ビデ第27中の局所的特徴点が読みだされて
くるときに当該局所的特徴点を抽出して当該特徴点の座
標情報を特徴点テーブルく第4図図中■、■)にセット
するものを表している。
FIG. 7 shows an embodiment of a local feature point coordinate extraction processing section, which extracts the coordinate position of each local feature point based on the feature point video 27 obtained by the configuration shown in FIG. . The numbers 18-2 and 19-2 in the figure are sub channels, respectively, and 20-2 is an address system? The feature point video 228 corresponding to FIG. 29 is a coordinate point extraction circuit which, when a local feature point in the feature point bidet No. 27 is read out, extracts the local feature point and obtains the coordinate information of the feature point. This shows what is set in the feature point table (■, ■) in Figure 4.

第8図は情報圧縮処理部および文字分離処理部5の1実
施例構成を示す。図中の符号1.8−3゜19−3は夫
々サブ・チャネル、20−3はアドレス制御部、24は
第5図に対応する細線図形。
FIG. 8 shows the configuration of an embodiment of the information compression processing section and the character separation processing section 5. In FIG. Reference numerals 1.8-3 and 19-3 in the figure indicate sub-channels, 20-3 an address control section, and 24 a thin line figure corresponding to FIG.

30は第7図に対応する特徴点テーブル、31はマイク
ロ・プロセッサ、32はベクトル格納テーブルであって
被処理図形、座標点等を格納するものを表している。
30 is a feature point table corresponding to FIG. 7, 31 is a microprocessor, and 32 is a vector storage table for storing figures to be processed, coordinate points, etc.

以上説明した第5図ないし第8図図示構成によって1人
力ビデ第21から細線図形24が生成され、次いでこの
細線図形24から局所的特徴点が抽出される。そして2
局所的特徴点から特徴点テーブル30 (第4図図示の
もの)が生成される。
A thin line figure 24 is generated from the one-man-powered bidet 21 according to the configuration shown in FIGS. 5 to 8 described above, and then local feature points are extracted from this thin line figure 24. And 2
A feature point table 30 (shown in FIG. 4) is generated from the local feature points.

この特徴点テーブル30から順次内容を読みだしたマイ
クロ・プロセッサ31は、第1図ないし第4図を用いて
説明した処理を実行し、最終的に抽出された大域的特徴
点(交点、変曲点、端点)および相互の連結の状態をベ
クトル格納テーブル32にセントすると共に1文字を画
像データとして抽出するための情報をベクトル格納テー
ブル32にセットする。
The microprocessor 31, which has sequentially read out the contents from the feature point table 30, executes the processing explained using FIGS. Points, end points) and mutual connection states are stored in the vector storage table 32, and information for extracting one character as image data is set in the vector storage table 32.

〔発明の効果〕〔Effect of the invention〕

以上説明したように1本発明によれば、mに描かれた文
字、破線、実線等が混在する自由手書き図形を細線化し
、この細線化した図形中の交点。
As explained above, according to one aspect of the present invention, a free handwritten figure drawn in m, in which characters, broken lines, solid lines, etc. are mixed, is thinned, and the intersections in the thinned figure are thinned.

端点等を局所的特徴点として把握してこれらの局所的特
徴点間の長さに基づいて2文字、破線、実線を分離する
構成を採用しているため、自由手書き図形から分離した
文字に関する画像データを得ることができると共に、原
図形の特徴を損なわない程度に当該原図形の情報圧縮を
行うことができる。
Since we have adopted a configuration in which end points, etc. are recognized as local feature points and two characters, broken lines, and solid lines are separated based on the length between these local feature points, images related to characters separated from free handwritten figures are used. In addition to being able to obtain data, information on the original figure can be compressed to the extent that the characteristics of the original figure are not lost.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の原理的構成、第2図はストローク追跡
処理を説明する図形例の説明図1第3図は局所的変曲点
と距離とを示すテーブルの説明図。 第4図は特徴点を説明するテーブルの説明図2第5図な
いし第8図は本発明の1実施例構成図を示す。 図中、1は細線化処理部、2は局所的特徴点抽出部、3
はストローク追跡処理部、4は大域的特徴抽出処理部、
5は文字分離処理部を表す。
FIG. 1 is a diagram illustrating the basic configuration of the present invention, and FIG. 2 is an explanatory diagram of a graphical example for explaining stroke tracking processing. FIG. 3 is an explanatory diagram of a table showing local inflection points and distances. FIG. 4 is an explanatory diagram of a table for explaining feature points. FIGS. 5 through 8 show configuration diagrams of one embodiment of the present invention. In the figure, 1 is a thinning processing section, 2 is a local feature point extraction section, and 3 is a thinning processing section.
4 is a stroke tracking processing unit, 4 is a global feature extraction processing unit,
5 represents a character separation processing section.

Claims (1)

【特許請求の範囲】 描かれた図形を局所的特徴点に基づいて図形情報を圧縮
して表現する図形処理システムにおいて、図形を細線化
する細線化処理部(1)と、 この細線化処理部(1)によって得られた細線図形上か
ら局所的な特徴点を抽出する局所的特徴点抽出部(2)
と、 この局所的特徴点抽出部(2)によって得られた局所的
特徴点から細線化図形の少なくとも1つのストロークを
追跡していき他の局所的特徴点に至る間のストローク上
での局所的変曲点を抽出すると共に、この局所的変曲点
相互の間あるいは局所的特徴点と局所的変曲点との間の
線素の距離を抽出するストローク追跡処理部(3)と、 前記距離を閾値と比較してこの閾値以内に隣接して存在
する局所的変曲点をまとめて大域的な変曲点として抽出
する大域的特徴抽出処理部(4)と、前記距離の1スト
ローク毎の総和を求め、この総和と閾値とを比較して文
字部分を分離する文字分離処理部(5)とを備え、 局所的特徴点間のストロークを特徴点座標と大域的な変
曲点座標とによって表現し、文字部分については文字デ
ータの外接矩形の座標を用いて抽出し得るよう構成した
ことを特徴とする図形処理システム。
[Claims] A graphic processing system that expresses a drawn graphic by compressing graphic information based on local feature points, comprising: a thinning processing unit (1) that thins a graphic; Local feature point extraction unit (2) that extracts local feature points from the thin line figure obtained by (1)
Then, at least one stroke of the thinned figure is traced from the local feature point obtained by this local feature point extraction unit (2), and the local feature point on the stroke is traced until reaching another local feature point. a stroke tracing processing unit (3) that extracts inflection points and the distance of line elements between the local inflection points or between the local feature points and the local inflection points; a global feature extraction processing unit (4) that compares the distance with a threshold and extracts all adjacent local inflection points within this threshold as a global inflection point; It is equipped with a character separation processing unit (5) that calculates a sum and compares this sum with a threshold value to separate character parts, and calculates strokes between local feature points using feature point coordinates and global inflection point coordinates. 1. A graphic processing system characterized in that the graphic processing system is configured such that character data can be expressed and character parts can be extracted using the coordinates of a circumscribed rectangle of character data.
JP60157917A 1985-07-17 1985-07-17 Graphic form processing system Pending JPS6219975A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP60157917A JPS6219975A (en) 1985-07-17 1985-07-17 Graphic form processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP60157917A JPS6219975A (en) 1985-07-17 1985-07-17 Graphic form processing system

Publications (1)

Publication Number Publication Date
JPS6219975A true JPS6219975A (en) 1987-01-28

Family

ID=15660280

Family Applications (1)

Application Number Title Priority Date Filing Date
JP60157917A Pending JPS6219975A (en) 1985-07-17 1985-07-17 Graphic form processing system

Country Status (1)

Country Link
JP (1) JPS6219975A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0539749A2 (en) * 1991-10-31 1993-05-05 International Business Machines Corporation A statistical mixture approach to automatic handwriting recognition

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5890273A (en) * 1981-11-24 1983-05-28 Nippon Telegr & Teleph Corp <Ntt> Distinguishing method between character region and graphic region
JPS58163076A (en) * 1982-03-23 1983-09-27 Fujitsu Ltd Extracting system of character region

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5890273A (en) * 1981-11-24 1983-05-28 Nippon Telegr & Teleph Corp <Ntt> Distinguishing method between character region and graphic region
JPS58163076A (en) * 1982-03-23 1983-09-27 Fujitsu Ltd Extracting system of character region

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0539749A2 (en) * 1991-10-31 1993-05-05 International Business Machines Corporation A statistical mixture approach to automatic handwriting recognition
EP0539749A3 (en) * 1991-10-31 1994-05-11 Ibm A statistical mixture approach to automatic handwriting recognition

Similar Documents

Publication Publication Date Title
KR930004060B1 (en) Method for designating a recognition mode in a hand-written character/graphic recognizer
US6512848B2 (en) Page analysis system
US5821929A (en) Image processing method and apparatus
JPS6219975A (en) Graphic form processing system
JPH08180068A (en) Electronic filing device
KR19980058349A (en) Person Identification Using Image Information
JP3526479B2 (en) Online handwritten character input method and device
JP3095599B2 (en) Online character recognition device
JPH1166230A (en) Device, method, and medium for document recognition
JP3329528B2 (en) Document reader
JPS613287A (en) Graphic form input system
JP2988697B2 (en) Figure recognition method
CN113449731A (en) Information processing apparatus
JP2612383B2 (en) Character recognition processing method
JPH07104940B2 (en) Figure recognition device
JPH06215183A (en) Character recognizing device
JPH09237321A (en) Device for recognizing handwritten character
JPH01125683A (en) Character recognizing device
JPH0573685A (en) Rader chart recognizing device
JPH06162106A (en) Electronic filing system
JP2000200323A (en) Online handwriting kanji recognizing device
JPH0433079A (en) Table processing system
JPH08339417A (en) Device and method for recognition of european and american character
JPH0347554B2 (en)
JPH0343879A (en) Character area separating system for character recognizing device