JPS61221979A - Graphic processing system - Google Patents

Graphic processing system

Info

Publication number
JPS61221979A
JPS61221979A JP6212585A JP6212585A JPS61221979A JP S61221979 A JPS61221979 A JP S61221979A JP 6212585 A JP6212585 A JP 6212585A JP 6212585 A JP6212585 A JP 6212585A JP S61221979 A JPS61221979 A JP S61221979A
Authority
JP
Japan
Prior art keywords
local
points
point
information
graphic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP6212585A
Other languages
Japanese (ja)
Inventor
Shigemi Osada
茂美 長田
Akira Inoue
彰 井上
Toshio Matsuura
松浦 俊夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP6212585A priority Critical patent/JPS61221979A/en
Publication of JPS61221979A publication Critical patent/JPS61221979A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To compress information with a high degree of approximation by obtaining intersecting points in a thin line graphic form in particular as the primary features out of a graphic form handwritten freely on a form, etc. and converting the screen information on the graphic form into a vector. CONSTITUTION:In a graphic system where the graphic information is compressed for display, a line thinning process is applied first to an input graphic form by a line thinning means 1 for production of a thin line graphic form. Then a local intersecting point extracting means 2 extracts the local feature points to the thin line graphic form. A stroke tracing means 4 of an information compressing part 3 traces strokes from the local feature point to extract the local inflection points and local terminal points in relation to the corresponding stroke and also to decide the length of each line element. Then an overall feature extracting means 5 performs collation with the porescribed threshold value based on the information on the length of the element line to disuse the undesired local inflection points and local terminal points and decides the overall intersecting points and overall terminal points for compression of information.

Description

【発明の詳細な説明】 〔概 要〕 本発明に係る技術的概要を述べると次の通りである。描
かれた図形を局所的特徴点に基づいて当該図形の図形情
報を圧縮して表現するシステムに係わり、細線図形の交
点から出発してストロークを追跡してゆき局所的変曲点
と線素の距離とを抽出し、得られた局所的変曲点から大
域的変曲点を決定して、上記描かれた図形の特徴を損な
わない程度に情報圧縮を行うようにした図形処理システ
ムに関する。
[Detailed Description of the Invention] [Summary] The technical outline of the present invention is as follows. It involves a system that compresses and expresses the graphic information of a drawn figure based on local feature points.The system traces the stroke starting from the intersection of thin line figures and calculates the local inflection points and line elements. The present invention relates to a graphic processing system that extracts distances, determines global inflection points from the obtained local inflection points, and compresses information to the extent that the characteristics of the drawn graphic are not impaired.

〔産業上の利用分野〕[Industrial application field]

本発明は主としてディジタルコンピュータを用いた自由
手書図形等を読みとった後特徴抽出をして情報圧縮する
図形処理システムに関する。
The present invention mainly relates to a graphic processing system that uses a digital computer to read free hand drawn figures, extract features, and compress information.

〔従来の技術、および発明が解決しようとする問題点〕[Prior art and problems to be solved by the invention]

局所的特徴点(交点、端点)間のストロークを追跡し、
大域的変曲点を決定する処理を改善した図形処理システ
ムがすでに提案されている(例えば、特願昭53−15
9549号「図形処理システム」)。
Track strokes between local feature points (intersections, end points),
Graphic processing systems with improved processing for determining global inflection points have already been proposed (for example, Japanese Patent Application No. 53-15
No. 9549 "Graphic Processing System").

この図形処理システムは、特に描かれた図形を当該図形
の局所的特徴点にもとづいて当該図形の図形情報を圧縮
して表現する図形処理システムであって、細線化された
細線図形の交点、#i点から出発してストロークを追跡
してゆき局所的変曲点と線素の距離とを抽出し、得られ
た局所的変曲点から大域的変曲点を決定するようにして
、上記描かれた図形の特徴を損なわない程度に情報圧縮
を行なうようにした図形処理システムである。すなわち
、描かれた図形をデータ処理装置に入力する方法として
、上記図形に関するすべての情報をデータ処理装置に一
旦入力した上で、図形処理、例えば大域的にあるいは局
所的に図形の拡大・縮ノJい回転・図形の追加などをデ
ィスプレイなどによって行なうマン・マシン・インタラ
クティブな操作を行なって、上記描かれた図形をデータ
処理装置内の処理に適した形に変換して入力するに際し
、上記の如きマン・マシン・インタラクティブな操作を
可能な限り省略して、主として図形の交点座標を活して
、情報圧縮、を行なう図形処理システムである。しかし
ながら、このような図形処理システムにおいては、局所
的特徴点間のストロークが、徐々に大きく曲がっている
一連の微小線素とある程度長い線素を持つ場合、それら
の混在する度合によっては、近似精度が落ちるという欠
点があった。
This graphic processing system is a graphic processing system that expresses a drawn figure by compressing the figure information of the figure based on the local feature points of the figure. Starting from point i, the stroke is traced, the distance between the local inflection point and the line element is extracted, and the global inflection point is determined from the obtained local inflection point. This is a graphics processing system that compresses information to the extent that the characteristics of the drawn graphics are not lost. In other words, the method for inputting a drawn figure into a data processing device is to input all the information regarding the figure to the data processing device once, and then perform figure processing, such as enlarging or reducing the figure globally or locally. When performing man-machine interactive operations such as rotation and addition of figures using a display etc., the above-mentioned drawn figure is converted into a form suitable for processing within the data processing device and inputted. This is a graphic processing system that compresses information mainly by utilizing the coordinates of intersection points of graphics, omitting the human-machine interactive operations as much as possible. However, in such a figure processing system, if the stroke between local feature points has a series of minute line elements that gradually curve significantly and line elements that are long to some extent, the approximation accuracy may be affected depending on the degree to which they are mixed. The problem was that it fell off.

第2図を参照してより具体的に述べる。This will be described in more detail with reference to FIG.

第2図は近似の基本単位となる局所的交点間の一ストロ
ークを示す図である。図中、■印は局所的交点を、○印
(・印を含む)は局所的変曲点を、・印は抽出される大
域的変曲点を示す。抽出された大域的変曲点でそのまま
このストロークを近似しようとすると、局所的交点p1
、大域的変曲点02間に変曲点が存在するにも拘らず検
出できず、そのま・では図形が正確に近似できない。
FIG. 2 is a diagram showing one stroke between local intersection points, which is the basic unit of approximation. In the figure, ■ marks indicate local intersection points, ○ marks (including * marks) local inflection points, and * marks extracted global inflection points. If we try to approximate this stroke using the extracted global inflection points, the local intersection p1
Although there is an inflection point between the global inflection points 02 and 02, it cannot be detected, and until then, the figure cannot be accurately approximated.

〔問題を解決するための手段、および作用〕本発明は、
上述の問題を解決するため、従来と同様にして抽出され
る大域的変曲点を基に抽出された大域的変曲点間の局所
的変曲点を詳細に調べることによって、すなわち、細線
図形との相異の度合を計算し、その度合が大きければ新
たに大域的変曲点を生成するという着想にもとづき精度
よく図形を情報圧縮できるようにするものである。
[Means and effects for solving the problem] The present invention has the following features:
In order to solve the above problem, by examining in detail the local inflection points between the global inflection points extracted based on the global inflection points extracted in the same way as before, The idea is to calculate the degree of difference between the figure and the figure, and if the degree is large, to generate a new global inflection point, which enables accurate information compression of the figure.

本発明によれば、描かれた図形を交点、端点、各閉ルー
プ上の一点とする局所的特徴点に基づいて図形情報を圧
縮して表現する図形処理システムにおいて、上記図形を
細線化する細線化処理手段、該細線化処理部によって得
られた細線図形上から局所的な特徴点を抽出する局所的
特徴点抽出手段、該局所的特徴点抽出手段から得られた
局所的特徴点から上記細線図形の少なくとも1つのスト
ロークを追跡していき他の局所的特徴点に至る間のスト
ローク上での局所的変曲点を抽出すると共に該局所的変
曲点間あるいは局所的特徴点と局所的変曲点との間の線
素の距離を抽出するストローク追跡処理手段、および上
記距離を閾値と対比して該閾値以内に隣接して存在する
上記局所的変曲点をまとめて大域的な変曲点を抽出し、
該大域的変曲点を基にした細線図形との間の相異の度合
に応じて新しい大域的変曲点を生成する大域的特徴抽出
処理手段を備え、上記局所的特徴点間のストロークを少
なくとも上記特徴点座標と上記大域的な変曲点座標とに
よって表現するようにしたことを特徴とする図形処理シ
ステムが提供される。
According to the present invention, in a figure processing system that compresses and expresses figure information based on local feature points of a drawn figure as intersection points, end points, and one point on each closed loop, thinning is performed to thin the figure. processing means, local feature point extraction means for extracting local feature points from the thin line figure obtained by the thinning processing unit, and local feature point extraction means for extracting local feature points from the thin line figure obtained by the local feature point extraction means. traces at least one stroke of the stroke and extracts a local inflection point on the stroke until it reaches another local feature point, and also extracts a local inflection point between the local inflection points or between the local feature point and the local inflection point. a stroke tracing processing means for extracting the distance of a line element between the points, and a global inflection point by comparing the distance with a threshold value and collecting the local inflection points that are adjacent to each other within the threshold value. extract,
A global feature extraction processing means is provided for generating a new global inflection point according to the degree of difference between the global inflection point and a thin line figure based on the global inflection point, and the stroke between the local feature points is A graphic processing system is provided, characterized in that the graphic processing system is represented by at least the feature point coordinates and the global inflection point coordinates.

〔実施例〕〔Example〕

以下添付図面を参照して本発明の実施例について説明す
る。
Embodiments of the present invention will be described below with reference to the accompanying drawings.

第1図(alは本発明の細線化処理手段を形成する細線
化処理部1の一実施例構成を示している。図中の符号1
8.19は夫々サブ・チャネル、20はアドレス制御部
であってサブ・チャネル18からの指示により入力ビデ
オ21に対するアクセス・アドレスを発生するもの、2
1は入力ビデオであって被処理図形が画像情報に対応す
るもの、22はモジュール制御部であってサブチャネル
19からの指示により後述の細線化マスク(フィルタ)
回路部23を稼動状態にするプログラム・モジュールを
作動するもの、23は細線化マスク(フィルタ)回路部
であって入力ビデオ21として順次続出されてくるビデ
オ・データにもとすいて細線化を行なうもの、24は細
線図形であって回路23によって細線化された細線図形
が入力ビデオ21の存在番地に対応して保持されるもの
を示す。
FIG. 1 (al indicates an embodiment of the configuration of a thinning processing section 1 forming a thinning processing means of the present invention. Reference numeral 1 in the figure
8. 19 are respective sub channels; 20 is an address control unit which generates an access address for the input video 21 according to instructions from the sub channel 18;
1 is an input video whose processed figure corresponds to image information; 22 is a module control unit that performs a thinning mask (filter) to be described later based on instructions from the subchannel 19;
23 is a thinning mask (filter) circuit section that operates a program module that puts the circuit section 23 into operation, and performs line thinning on the video data that is successively outputted as the input video 21. The reference numeral 24 indicates a thin line figure which is thinned by the circuit 23 and is held in correspondence with the address of the input video 21.

すなわち、細線化処理部1により第2図に図示の細線図
形が得られる。
That is, the thin line figure shown in FIG. 2 is obtained by the thin line processing section 1.

第1図(blは局所的特徴点抽出処理手段を構成する処
理部2の一実施例構成を示している。図中の符号18’
、19’は夫々サブチャネル、20′はアドレス制御部
、24は第1図ta)に対応する細線図形、25はモジ
ュール制御部であってサブチャネル19’からの指示に
より後述の局所的特徴点抽出マスク(フィルタ)回路部
26を稼動状態にするプログラム・モジュールを作動す
るもの、26は局所的特徴点抽出マスク(フィルタ)回
路部であって細線図形として順次読出されてくる細線図
形データにもとずいて局所的特徴点を抽出するもの、2
7は特徴点ビデオであって抽出された局所的特徴点を上
記細線図形の存在番地に対応して保持されるものを示す
FIG. 1 (bl indicates an example configuration of the processing section 2 constituting the local feature point extraction processing means. Reference numeral 18' in the figure
, 19' are subchannels, 20' is an address control section, 24 is a thin line figure corresponding to FIG. 26 is a local feature point extraction mask (filter) circuit that operates the program module that puts the extraction mask (filter) circuit unit 26 into operation, and also applies to thin line figure data that is sequentially read out as thin line figures. 2. Extracting local feature points by
Reference numeral 7 indicates a feature point video in which extracted local feature points are held in correspondence with the existing address of the thin line figure.

第1図(C1は局所的特徴点座標抽出部の一実施例を示
し、該抽出部は第1図山1の構成によって得られた特徴
点ビデオ27にもとずいて各局所的特徴点の座標位置を
抽出する。図中の符号18″、19″は夫々サブチャネ
ル、20#はアドレス制御部、27は第1図(′b)に
対応する特徴点・ビデオ、28はモジュール制御部であ
ってサブチャネル19’からの指示により後述の座標点
抽出回路部29を稼動状態にするプログラム・モジュー
ルを作動するもの、29は座標点抽出回路部であって特
徴点ビデ第27中の局所的特徴点が読出されてくるとき
に当該局所的特徴点を抽出して当該特徴点の座標情報を
特徴点メモリ30にセットするものを示す。
FIG. 1 (C1 shows an embodiment of the local feature point coordinate extraction section, which extracts the coordinates of each local feature point based on the feature point video 27 obtained by the configuration of mountain 1 in FIG. 1. Extract the coordinate position. Reference numbers 18'' and 19'' in the figure are subchannels, 20# is the address control section, 27 is the feature point/video corresponding to FIG. 1 ('b), and 28 is the module control section. 29 is a coordinate point extraction circuit section which operates a program module that activates a coordinate point extraction circuit section 29, which will be described later, in response to an instruction from a subchannel 19'. A system is shown in which when a feature point is read out, the local feature point is extracted and the coordinate information of the feature point is set in the feature point memory 30.

第1図(dlはストローク追跡処理手段および大域的特
徴抽出処理手段を有する情報圧縮処理部の一実施例構成
を示し、図中の符号1B”’ 、 19”’は夫々サブ
チャネル、20 はアドレス制御部、24は第1図(a
)に対応する細線図形、30は第1図(C)に対応する
特徴点メモリ、31はマイクロ・プロセッサ、32は座
標点メモリであり被処理図形の座標点を格納するものを
示す。
FIG. 1 (dl indicates the configuration of an embodiment of an information compression processing unit having a stroke tracking processing means and a global feature extraction processing means, symbols 1B"' and 19"' in the figure are subchannels, respectively, and 20 is an address. The control unit 24 is shown in FIG.
), 30 is a feature point memory corresponding to FIG. 1(C), 31 is a microprocessor, and 32 is a coordinate point memory for storing the coordinate points of the figure to be processed.

図形処理システムは、第3図にフローチャートの形で示
した如き処理を実行してゆくようにされる。即ち、 (1)入力図形(被処理図形)に対して、細線化処理手
段1において、細線化を行なって細線図形をつくる。
The graphics processing system is adapted to perform processing as shown in the form of a flowchart in FIG. That is, (1) Thinning is performed on the input figure (figure to be processed) in the thinning processing means 1 to create a thin line figure.

(2)  該細線図形に対して、局所的交点抽出処理手
段2において、特徴点抽出マスクを用いて局所特徴点を
抽出する。
(2) The local intersection extraction processing means 2 extracts local feature points from the thin line figure using a feature point extraction mask.

(3)情報圧縮処理部3におけるストローク追跡処理手
段4において10局所的特徴点から出発スルストローク
追跡を行ない、当該ストロークに関連した局所的変曲点
や局所的端点を抽出しかつ各線素の長さを決定する。
(3) The stroke tracking processing means 4 in the information compression processing unit 3 performs full stroke tracking starting from 10 local feature points, extracts local inflection points and local end points related to the stroke, and extracts the length of each line element. determine the

(4)次いで大域的特徴抽出処理手段5において、(i
)上記線素の長さ情報にもとづいて、成る閾値と対比し
て、上記局所的変曲点や局所的端点中の不要なものを整
理し、 (ii )また局所的交点のうち、接近し過ぎているも
のを整理するなどして、 (iii )大域的交点、大域点変曲点、大域的端点を
決定し、 (iv )情報圧縮を行なう。
(4) Next, in the global feature extraction processing means 5, (i
) Based on the length information of the line elements, sort out the unnecessary points among the local inflection points and local end points by comparing them with the threshold value, and (ii) also sort out the unnecessary ones among the local intersection points. (iii) determine global intersection points, global points of inflection, and global end points; and (iv) perform information compression.

(5)1つのストロークについての上記処理(3)。(5) The above process (3) for one stroke.

(4)が終了すると当該ストロークについてラベルを附
勢するなどして、上記局所特徴点間のすべてのストロー
クについて同様の処理を繰返してゆく。
When (4) is completed, a label is energized for the stroke, and the same process is repeated for all strokes between the local feature points.

(6)局所的な特徴点間のすべてのストロークについて
処理が終了すると、ラベル検出処理手段6によってなお
ラベルの附与されていないストロークの有無を検出して
、上記処理+31 (4)を実行する。なお上記処理(
5)が終了した段階において、なおラベルの附与されて
いないストロークとは、例えば上記局所的特徴点をもた
ないループを意味している。そして該局所的特徴点をも
たないストロークに対する処理に当っては、当該ストロ
ーク上の最初に検出された点をもって当該ヰ★出点があ
たかも局所的特徴点であるかの如くみなして上記処理(
3) 、 (4)を実行するようにされる。
(6) When the processing for all strokes between local feature points is completed, the label detection processing means 6 detects the presence or absence of strokes to which no labels are attached, and executes the above processing +31 (4). . Note that the above process (
At the stage where step 5) has been completed, the stroke to which no label has been assigned means, for example, a loop that does not have the local feature point. When processing a stroke that does not have the local feature point, the first detected point on the stroke is considered as if the starting point were the local feature point, and the above process (
3) and (4) are executed.

第2図図示の細線図形に対応する細線図形24から順次
供給され、一方特徴点メモリ30から局所的特徴点テー
ブルの内容が読出される。これによってマイクロ・プロ
セッサ31は、最終的に抽出された大域的交点、大域的
変曲点、大域的端点および連結の状態を座標点メモリ3
2にセントする。
The local feature point table is sequentially supplied from the thin line figure 24 corresponding to the thin line figure shown in FIG. 2, while the contents of the local feature point table are read from the feature point memory 30. As a result, the microprocessor 31 stores the finally extracted global intersection points, global inflection points, global end points, and connection states in the coordinate point memory 3.
2 cents.

以上に加えてさらに本発明では、上述の処理のみでは生
じる従来の問題を改良するために、以上のごとく抽出さ
れた大域的変曲点を逐次二点ずつ調べていき、局所的変
曲点の偏り度合を検出し、その度合に応じて新しい大域
的変曲点を生成する処理を行う。このためマイクロブセ
ッサ31は第4図に図示の如く、閉ループ検出部311
、偏置率検出部312、最大距離差計算部313をさら
に具備する。その詳細について、具体的に、第2図のp
i−p2間を例にとり説明する。
In addition to the above, in the present invention, in order to improve the conventional problem that occurs with the above-mentioned processing alone, the global inflection points extracted as described above are sequentially examined two by two, and the local inflection points are The degree of bias is detected, and a new global inflection point is generated according to the degree of bias. For this reason, the micro processor 31 is connected to a closed loop detection section 311 as shown in FIG.
, an eccentricity rate detection section 312, and a maximum distance difference calculation section 313. For details, please refer to page 2 in Figure 2.
The explanation will be given by taking the i-p2 as an example.

ここでは、大域的変曲点間の局所的変曲点の集まりを第
5図に示すように矢印で示された方向をもつ様々なベク
トルから構成される閉ループとして捉える。このような
閉ループとしては一般に第6図(a)〜(e)のような
種々のものが考えられるが、ここでは第6図(a) 、
 (b)の単純な閉ループのみを考える。第6図(C)
のような閉ループは第6図(al 、 (b)のような
一方向な偏りではなく、ある程度的を得た近似であると
考えられるから、そのまま従来方式と同じ形で近似され
る。
Here, a collection of local inflection points between global inflection points is regarded as a closed loop composed of various vectors with directions indicated by arrows, as shown in FIG. Generally, various types of closed loops such as those shown in FIGS. 6(a) to (e) can be considered, but here, FIG. 6(a),
Consider only the simple closed loop in (b). Figure 6 (C)
A closed loop like the one shown in FIG. 6 (al, (b)) is considered to be a somewhat accurate approximation, rather than a one-way bias as shown in FIG.

この閉ループの種類の識別はベクトルの角度変化の和に
よって実行できる。角度変化というのは、第7図(a)
 、 (b)に示すように右へ直角に曲がる場合は+9
0°、左へ直角に曲がる場合は−90” とすれば、第
6図(a) 、 (b>のような単純閉ループは角度変
化の総和がそれぞれ、+360”  、−360°とな
る。本発明では4方向連結の細線化処理を用いているた
め、第8図に示すように大域的変曲点が寄与する角度変
化(図中a 、 b)を除けば、第7図(a) 、 (
b)の如く、二つの角度変化+90° 、−90゜しか
生じない。また、大域的変曲点が寄与する角度変化は第
8図に示すように必ず±180°となる。
Identification of the type of closed loop can be performed by the sum of angular changes of vectors. The angle change is shown in Figure 7(a).
, +9 when turning right at a right angle as shown in (b)
0°, and -90'' when turning at a right angle to the left, then for simple closed loops such as those shown in Figure 6 (a) and (b), the sum of the angle changes is +360'' and -360°, respectively. Since the invention uses a four-way connection thinning process, as shown in FIG. 8, except for the angle change contributed by the global inflection point (a, b in the figure), (
As in b), only two angle changes occur: +90° and -90°. Further, the angle change contributed by the global inflection point is always ±180° as shown in FIG.

したがって、実際には角度変化の総和の計算は角度変化
の方向(すなわち、角度変化の符号)のみを調べればよ
く、詳細な角度の測定は不要である。
Therefore, in reality, to calculate the sum of angular changes, it is sufficient to check only the direction of angular change (that is, the sign of angular change), and detailed angle measurements are not required.

角度変化の総和から、その閉ループが単純閉ループであ
ると判定されると、次に、閉ループ内部の面積を求める
。これは第9図<8) 、 (b)に示す方法で簡単に
実行できる。すなわち、閉ループを構成するベクトルの
始点・終点のXアドレス、Yアドレスの最小アドレスを
座標原点とする座標系X′−Y’を考え、Y′アドレス
の最大値を持つベクトル、あるいはY′アドレスの最小
値を持つベクトルの向きを調べる。例えば、Y′アドレ
スの最大値のベクトルの向きを調べるとすると、第9図
(a)の場合は右向きのベクトルbが検出され、第9図
(blの場合左向きのベクトルhが検出される。この検
出されたベクトルの向きとX′軸に関して同一方向向き
を持つベクトル(第9図(alの場合す。
If it is determined that the closed loop is a simple closed loop from the sum of the angle changes, then the area inside the closed loop is determined. This can be easily carried out by the method shown in FIG. 9<8), (b). In other words, consider a coordinate system X'-Y' whose coordinate origin is the minimum X address and Y address of the start point and end point of the vectors that make up the closed loop. Find the direction of the vector with the minimum value. For example, when examining the direction of the vector having the maximum value of the Y' address, in the case of FIG. 9(a), the rightward vector b is detected, and in the case of FIG. 9(bl), the leftward vector h is detected. A vector having the same direction with respect to the X' axis as the direction of this detected vector (FIG. 9 (al)).

d)に関しては、そのベクトルをX′輪軸上投影する際
の軌跡を面積として足し込み、X′軸に関して反対方向
。ベクトル(第9図(a)のf)に関しては、同様に、
そのベクトルをX′輪軸上投影する際の軌跡を面積とし
て引く。つまり面積に符号をつけて足し込み形になる。
Regarding d), add the locus of the vector projected onto the X' wheel axis as the area, and move in the opposite direction with respect to the X' axis. Similarly, regarding the vector (f in Figure 9(a)),
The locus of the vector projected onto the X' wheel axis is drawn as the area. In other words, it becomes an addition form by adding a sign to the area.

このようにして閉ループ内の面積Sが得られる。In this way, the area S within the closed loop is obtained.

一方閉ループの周囲長さは単純にベクトルの大きさく長
さ)の総和により求めることができる。
On the other hand, the perimeter of the closed loop can be simply determined by the sum of the vector sizes and lengths.

以上の処理により、単純閉ループに対し、閉ループ内の
面積S、閉ループ周囲長しが求めることができたので、
この二つの値から次に示す億円率Tを定義する。すなわ
ち、 T=4π(S/L”) 例えば、半径をrとすれば、面積S=πr2、周囲長L
”=(2πr ) tであるから、億円率T=1となる
。一方正方形の場合は、S= rt  、 LZ =(
4r)”であるからT−π/4とする。すなわち億円率
Tは局所的変曲点の集まりが大域的変曲点によって近似
される時の近似精度に関連し、Tが小さい程、うまく近
似されていることになる。
Through the above processing, we were able to find the area S within the closed loop and the perimeter of the closed loop for the simple closed loop.
From these two values, the following billion yen rate T is defined. That is, T=4π(S/L") For example, if the radius is r, the area S=πr2, the perimeter L
”=(2πr)t, so the billion yen rate T=1.On the other hand, in the case of a square, S=rt, LZ=(
4r)", so it is set as T-π/4. In other words, the billion yen rate T is related to the approximation accuracy when a collection of local inflection points is approximated by global inflection points, and the smaller T is, This is a good approximation.

したがって、本実施例においては億円率Tと予め設定し
ておく閾値とを比較し、億円率Tが大きければ、更に新
しく大域的変曲点を生成するという方法をとる。新しい
大域的変曲点は、大域的変曲点間のベクトルから直交す
る位置の最も遠い距離にある局所的変曲点を選択する。
Therefore, in this embodiment, the billion yen rate T is compared with a preset threshold value, and if the billion yen rate T is large, a new global inflection point is generated. The new global inflection point is selected as the local inflection point that is the furthest distance orthogonal from the vector between the global inflection points.

例えば第5図に示された閉ループについての億円率Tが
閾値より大きいと判定されれば、第10図に示す局所的
変曲点Aが新たに大域的変曲点として生成される。
For example, if it is determined that the billion yen rate T for the closed loop shown in FIG. 5 is larger than the threshold value, the local inflection point A shown in FIG. 10 is newly generated as a global inflection point.

新しい大域的変曲点が生成されると、さらに、上述の処
理が億円率Tが閾値より小さくなるまで繰返される。
Once a new global inflection point is generated, the above process is further repeated until the billion yen rate T becomes smaller than the threshold.

最終的に第2図に図示の図形は第11図のようになる。Finally, the figure shown in FIG. 2 becomes as shown in FIG. 11.

図中太線が近似される線である。The thick line in the figure is the approximated line.

単純閉ループの判定、面積S、周囲長しの抽出等の処理
は第1図(d)および第4図のプロセッサ31において
行われる。
Processing such as determination of a simple closed loop, extraction of area S, perimeter length, etc. is performed in the processor 31 shown in FIGS. 1(d) and 4.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、紙面等に描かれた自由手書図形から、
特に細線図形中の交点を主要な特徴として把握し、図形
の大域的特徴を破壊することなく図形の画面情報をベク
トル化し近似度の高い情報圧縮することが可能となる。
According to the present invention, from freehand drawings drawn on paper etc.,
In particular, it becomes possible to grasp the intersection points in a thin line figure as a main feature, vectorize the screen information of the figure, and compress the information with a high degree of approximation without destroying the global features of the figure.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図(a)〜(d)は本発明の一実施例としての図形
処理システムの構成図、第2図は従来の図形処理システ
ムにより得られた図形データを示す図、第3図は本発明
の処理システムの処理の概要を示すフローチャート、第
4図は第1図(d)のマイクロプロセッサの処理の一部
を示す図、第5図は図形処理d一部を示すデータ図、第
6図(al〜(C1は本発明に係る閉ループの例、第7
図は角度変化の符号説明図、第8図は大域的変曲点が寄
与する角度変化の説明図、第9図(a) 、 (blは
面積の抽出説明図、第10図は新しい大域的変曲点の生
成処理説明図、第11図は第1図(al〜(d)のシス
テムにより得られた図形処理データを示す図である。 (符号の説明) 1・・・細線化処理部、 2・・・局所的特徴点微抽出部、 3・・・情報圧縮処理部。 第1 11a (C)  局所点特徴点座標抽出部の実
施例図第 1 図(d)情報圧縮処理部の実施例構成図
第2図 従来の図形処理により得、られた 図形データを示す図
Figures 1 (a) to (d) are block diagrams of a graphic processing system as an embodiment of the present invention, Figure 2 is a diagram showing graphic data obtained by a conventional graphic processing system, and Figure 3 is a diagram of the present invention. FIG. 4 is a flowchart showing an overview of the processing of the processing system of the invention, FIG. 4 is a diagram showing a part of the processing of the microprocessor of FIG. 1(d), FIG. Figures (al~(C1 is an example of a closed loop according to the present invention, the seventh
The figure is an explanatory diagram of the angle change. Figure 8 is an explanatory diagram of the angle change contributed by the global inflection point. Figures 9 (a) and (bl are explanatory diagrams of area extraction. Figure 10 is the new global inflection point. FIG. 11 is an explanatory diagram of the inflection point generation process, and is a diagram showing graphic processing data obtained by the system of FIGS. , 2... Local feature point fine extraction section, 3... Information compression processing section. 1st 11a (C) Example diagram of local point feature point coordinate extraction section Fig. 1 (d) Information compression processing section Embodiment configuration diagram Figure 2 Diagram showing graphic data obtained by conventional graphic processing

Claims (1)

【特許請求の範囲】 描かれた図形を交点、端点、各閉ループ上の一点とする
局所的特徴点に基づいて図形情報を圧縮して表現する図
形処理システムにおいて、 上記図形を細線化する細線化処理手段、 該細線化処理部によって得られた細線図形上から局所的
な特徴点を抽出する局所的特徴点抽出手段、 該局所的特徴点抽出手段で得られた局所的特徴点から上
記細線図形の少なくとも1つのストロークを追跡してい
き他の局所的特徴点に至る間のストローク上での局所的
変曲点を抽出すると共に該局所的変曲点間あるいは局所
的特徴点と局所的変曲点との間の線素の距離を抽出する
ストローク追跡処理手段および、 上記距離を閾値と対比して該閾値以内に隣接して存在す
る上記局所的変曲点をまとめて大域的な変曲点を抽出し
、該大域的変曲点を基にした細線図形との間の相異の度
合に応じて新しい大域的変曲点を生成する大域的特徴抽
出処理手段 を備え、上記局所的特徴点間のストロークを少なくとも
上記特徴点座標と上記大域的な変曲点座標とによって表
現するようにしたことを特徴とする図形処理システム。
[Claims] A graphic processing system that compresses and expresses graphic information based on local feature points that define a drawn graphic as an intersection point, an end point, or a point on each closed loop. processing means; local feature point extraction means for extracting local feature points from the thin line figure obtained by the thinning processing section; traces at least one stroke of the stroke and extracts a local inflection point on the stroke until it reaches another local feature point, and also extracts a local inflection point between the local inflection points or between the local feature point and the local inflection point. a stroke tracing processing means for extracting the distance of a line element between the points; and generates a new global inflection point according to the degree of difference between the local feature point and a thin line figure based on the global inflection point. A graphic processing system characterized in that a stroke between the two points is expressed by at least the feature point coordinates and the global inflection point coordinates.
JP6212585A 1985-03-28 1985-03-28 Graphic processing system Pending JPS61221979A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP6212585A JPS61221979A (en) 1985-03-28 1985-03-28 Graphic processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP6212585A JPS61221979A (en) 1985-03-28 1985-03-28 Graphic processing system

Publications (1)

Publication Number Publication Date
JPS61221979A true JPS61221979A (en) 1986-10-02

Family

ID=13191031

Family Applications (1)

Application Number Title Priority Date Filing Date
JP6212585A Pending JPS61221979A (en) 1985-03-28 1985-03-28 Graphic processing system

Country Status (1)

Country Link
JP (1) JPS61221979A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0696199A (en) * 1992-09-11 1994-04-08 Kazuo Toraichi Device and method for input/output of logo illustration data

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0696199A (en) * 1992-09-11 1994-04-08 Kazuo Toraichi Device and method for input/output of logo illustration data

Similar Documents

Publication Publication Date Title
CN111563502B (en) Image text recognition method and device, electronic equipment and computer storage medium
JP2749020B2 (en) Diagram recognition system
EP3916629A1 (en) Method, apparatus and device for identifying illegal building, and storage medium
US11967125B2 (en) Image processing method and system
CN114445853A (en) Visual gesture recognition system recognition method
CN104881641A (en) Mobile device based digital recognition method and system for questionnaires and tables
EP4068225A2 (en) Method for training text positioning model and method for text positioning
JPS61221979A (en) Graphic processing system
CN113849118A (en) Image identification method applied to electronic whiteboard and related device
Axyonov et al. Method of multi-modal video analysis of hand movements for automatic recognition of isolated signs of Russian sign language
JP2735197B2 (en) Graphic input device
JP3977473B2 (en) Handwritten character recognition method and handwritten character recognition apparatus
JP4648084B2 (en) Symbol recognition method and apparatus
CN111104470A (en) Method and system for linkage of electronic sand table and emergency platform
JPH0624018B2 (en) Ellipse detector
Warchoł Hand posture recognition using modified ensemble of shape functions and global radius-based surface descriptor
JPH0442316A (en) Electronic computer
CN112464753A (en) Method and device for detecting key points in image and terminal equipment
JP3514085B2 (en) Character string input method and apparatus, and storage medium storing character string input program
JPS61143889A (en) Production of pattern discriminating dictionary
JPS613287A (en) Graphic form input system
CN115273116A (en) Table detection and identification method, device, equipment and storage medium
Wang et al. Real-time hand gesture recognition based on a fusion learning method
Suchetha et al. Traffic Sign Recognition using Image Processing and Text-to-Speech
JPS60217475A (en) Loop detecting system and pattern recognizing device utilizing it