JP2688666B2 - How to vectorize shapes - Google Patents

How to vectorize shapes

Info

Publication number
JP2688666B2
JP2688666B2 JP63012228A JP1222888A JP2688666B2 JP 2688666 B2 JP2688666 B2 JP 2688666B2 JP 63012228 A JP63012228 A JP 63012228A JP 1222888 A JP1222888 A JP 1222888A JP 2688666 B2 JP2688666 B2 JP 2688666B2
Authority
JP
Japan
Prior art keywords
chain code
pixel
unit
code
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP63012228A
Other languages
Japanese (ja)
Other versions
JPH01188988A (en
Inventor
良平 熊谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP63012228A priority Critical patent/JP2688666B2/en
Publication of JPH01188988A publication Critical patent/JPH01188988A/en
Application granted granted Critical
Publication of JP2688666B2 publication Critical patent/JP2688666B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

【発明の詳細な説明】 〔発明の技術分野〕 この発明は図形のベクトル化方法に係り、特に図形の
輪郭のベクトル化に有効なベクトル化方法に関する。
Description: BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a vectorization method of a graphic, and more particularly, to a vectorization method effective for vectorizing a contour of a graphic.

〔発明の背景とその問題点〕[Background of the invention and its problems]

図形を記録するときデータの形式として、ラスタデー
タとベクトルデータが考えられるが、一般にベクトルデ
ータ、特に輪郭のベクトルデータはラスタデータに比較
して容量が少なく、また図形の品質を保ちながら図形を
拡大縮小あるいは変形して表示することが容易であり、
有効なデータである。従来このベクトルデータは一般に
図形の境界画素の1部を一連のデータとして並べたもの
として与えられ、どの境界画素を選択するかによって再
現される図形の品質が左右された。特に漢字などの文字
をベクトル化図形として記録、再現する場合再現された
図形(文字)の品質は商品価値に大きな影響を与える。
When recording figures, raster data and vector data can be considered as data formats.Generally, vector data, especially contour vector data, has a smaller capacity than raster data, and enlarges figures while maintaining the quality of figures. It is easy to display in reduced or deformed form,
It is valid data. Conventionally, this vector data is generally given as a part of the boundary pixels of the figure arranged as a series of data, and the quality of the reproduced figure depends on which boundary pixel is selected. In particular, when a character such as a kanji is recorded and reproduced as a vectorized graphic, the quality of the reproduced graphic (character) greatly affects the commercial value.

そしてこの品質の一つの基準として直角部、特に凹を
直角部が鮮明な直角に表現されるか否かという点があっ
た。しかし発明者の知る限り従来はベクトル化に際して
境界画素の角度演算を行っていたようであり、直角部の
検出自体に多大の処理時間を要し、また凹の直角部の隅
の点は境界画素ではないため、直角を鮮明に表現するこ
とは困難であった。
And, as one of the criteria for this quality, there is a point whether or not the right-angled part, especially the concave part, is expressed as a clear right-angled part. However, as far as the inventor knows, it seems that the angle calculation of the boundary pixel is conventionally performed when vectorizing, and it takes a lot of processing time to detect the right-angled portion itself. Therefore, it was difficult to express a right angle clearly.

〔発明の目的〕[Object of the invention]

この発明はこのような従来の問題点を解消すべく創案
されたもので、凹の直角部を鮮明な直角として表現し得
る高速な図形のベクトル化方法を提供することを目的と
する。
The present invention was devised to solve such a conventional problem, and an object thereof is to provide a high-speed vectorization method of a graphic that can express a concave right-angle portion as a sharp right angle.

〔発明の概要〕[Summary of the Invention]

この発明に係る図形のベクトル化方法は、この発明の
出願人が既に一連の特許出願で出願している映像処理シ
ステムの使用方法に係るものであり、同システムを用い
以下の処理を行うものである。すなわち図形の境界画素
にチェーンコードまたはチェーンコードとコードな高度
を与え、コード列が所定のパターンであったときにその
書き替えと追加を行う。ここに所定のパターンとその書
き替え結果は、コードを付す方向に応じて第1表のよう
に与えられる。
The graphic vectorization method according to the present invention relates to a method of using the video processing system that the applicant of the present invention has already filed in a series of patent applications, and the following processing is performed using the system. is there. That is, a chain code or a chain code and a code altitude is given to the boundary pixel of the figure, and when the code string has a predetermined pattern, rewriting and addition are performed. The predetermined pattern and the rewriting result thereof are given as shown in Table 1 according to the direction in which the code is added.

第1図は図形のベクトル化に用いる映像処理システム
を示すものであり、映像処理システムは、数値演算部
1、状態演算部2を含む演算部3を備え、演算部3に
は、メモリ41〜44からデータが入力される。演算部3の
出力は変換部5または逐次処理部6に入力され、変換部
5および逐次処理部6の出力はローカルバスを介してメ
モリ41〜44に戻されている。演算部3に入力されるデー
タは近傍処理部7で一旦保持され、9画素分のデータが
同時に演算部3に入力される。
FIG. 1 shows a video processing system used for vectorizing a graphic. The video processing system includes a calculation unit 3 including a numerical calculation unit 1 and a state calculation unit 2, and the calculation unit 3 includes memories 41 to 41. Data is input from 44. The output of the arithmetic unit 3 is input to the conversion unit 5 or the sequential processing unit 6, and the outputs of the conversion unit 5 and the sequential processing unit 6 are returned to the memories 41 to 44 via the local bus. The data input to the calculation unit 3 is temporarily held by the proximity processing unit 7, and the data for 9 pixels is simultaneously input to the calculation unit 3.

第2図に示すように、状態演算部2は2値化部8、境
界画素抽出部9、パターンマッチングユニット10を備
え、2値化部8はデータが所定の閾値を境に「1」また
は「0」のデータを生成し、境界画素抽出部9は画素が
境界画素であったときに所定のフラグ(例えば「1」)
を出力する。パターンマッチングユニット10は9画素の
データが所定のパターンと一致したときに所定の信号
(例えば「1」)を出力する。境界画素抽出部9とパタ
ーンマッチングユニット10の出力はセレクタ11で選択さ
れつつ出力される。
As shown in FIG. 2, the state calculation unit 2 is provided with a binarization unit 8, a boundary pixel extraction unit 9, and a pattern matching unit 10, and the binarization unit 8 sets the data to “1” at a predetermined threshold or Data of "0" is generated, and the boundary pixel extraction unit 9 sets a predetermined flag (for example, "1") when the pixel is a boundary pixel.
Is output. The pattern matching unit 10 outputs a predetermined signal (for example, "1") when the data of 9 pixels matches the predetermined pattern. The outputs of the boundary pixel extraction unit 9 and the pattern matching unit 10 are selected and output by the selector 11.

状態演算部2における境界画素抽出部9のみを第3図
に示す。第3図Aに示すように、画像中のコンボリュー
ションの各画素値をa〜iの符号で示すと、中央画素e
が境界画素であるためには、その上下左右いずれかの画
素が背景画素値でなければならず、b,d,f,hいずれかが
背景画素値(例えば「0」)であるとともにeが図形の
画素値(例えば「1」)であることになる。従って、 の論理が境界画素抽出の論理となる。
Only the boundary pixel extraction unit 9 in the state calculation unit 2 is shown in FIG. As shown in FIG. 3A, when the pixel values of the convolution in the image are indicated by the symbols a to i, the central pixel e
Is a boundary pixel, one of its upper, lower, left, and right pixels must have a background pixel value, and any one of b, d, f, and h has a background pixel value (for example, "0"), and e is It is the pixel value of the figure (for example, "1"). Therefore, Is the boundary pixel extraction logic.

第5図に示すように、数値演算部1は9個の乗算カー
ネル121〜129を備え、それぞれ異なる乗数を9画素の画
素値に乗ずることができる。
As shown in FIG. 5, the numerical operation unit 1 includes nine multiplication kernels 121 to 129 and can multiply the pixel value of 9 pixels by different multipliers.

第4図は逐次処理部6を示すものであり、逐次処理部
6は遅延部13、コンパレータ14、論理部15を備え、論理
部15には演算部3における状態演算部2(図示省略)か
らの信号および処理対象画素(第3図Aにおけるe)の
濃度が入力される。遅延部13はラインメモリ16、フリッ
プフロップ17〜19を有し、ラインメモリ16では論理部15
の出力を約1走査線分保持し、フリップフロップ17、18
では、ラインメモリ16の出力を1クロック分ずつ遅延さ
せる。フリップフロップ19は論理部15の出力を1クロッ
ク分遅延させ、遅延部13は全体として、論理部15で処理
済の4画素をコンパレータ14に入力する。この4画素は
第3図Aにおけるa,b,c,dに対応し、論理部15はこれら
の画素の処理結果および処理対象画素eの濃度値に基づ
いて、処理対象画素eおよびa〜dの処理済画素(以下
FP2,FP3,FP4,FP5と呼ぶ。)に対する処理を行う。この
発明では逐次処理部6はラベリングに使用され、ラベリ
ングにおいては以下のような処理が必要である。
FIG. 4 shows the sequential processing unit 6. The sequential processing unit 6 includes a delay unit 13, a comparator 14, and a logic unit 15. The logic unit 15 includes a state calculation unit 2 (not shown) in the calculation unit 3. Signal and the density of the pixel to be processed (e in FIG. 3A) are input. The delay unit 13 has a line memory 16 and flip-flops 17 to 19, and in the line memory 16, the logic unit 15 is provided.
Holds the output of about 1 scan line, and flip-flops 17, 18
Then, the output of the line memory 16 is delayed by one clock. The flip-flop 19 delays the output of the logic unit 15 by one clock, and the delay unit 13 as a whole inputs the four pixels processed by the logic unit 15 to the comparator 14. The four pixels correspond to a, b, c, d in FIG. 3A, and the logic unit 15 determines the processing target pixels e and a to d based on the processing result of these pixels and the density value of the processing target pixel e. Processed pixels (below
Called FP 2 , FP 3 , FP 4 , FP 5 . ) Is processed. In the present invention, the sequential processing unit 6 is used for labeling, and the following processing is required for labeling.

i)対象画素が周囲の画素値でないことの判断。(並列
型処理) ii)FP2〜FP5の逐次情報の中に既にラベル番号が与えら
れていない時は、対象画素に新たなラベル番号を与え
る。(逐次型処理) iii)FP2〜FP5の逐次情報の中に既に1種類のラベル番
号が存在する時は、対象画素にそのラベル番号を与え
る。(逐次型処理) iv)FP2〜FP5の逐次情報の中に複数のラベル番号が存在
する時は、対象画素にそのどれかのラベル番号を与え、
その複数ラベル番号が同一グループであるという情報を
管理する。(逐次型処理) 論理部15の出力および演算部3の出力にはセレクタ20
に接続され、これらの出力は選択的に後段に送られる。
i) Determining that the target pixel is not a surrounding pixel value. (Parallel processing) ii) When a label number is not already given in the sequential information of FP 2 to FP 5 , a new label number is given to the target pixel. (Sequential Processing) iii) When one type of label number already exists in the sequential information of FP 2 to FP 5 , the label number is given to the target pixel. (Sequential processing) iv) When there are a plurality of label numbers in the sequential information of FP 2 to FP 5 , give one of the label numbers to the target pixel,
The information that the plural label numbers belong to the same group is managed. (Sequential processing) The selector 20 is provided for the output of the logic unit 15 and the output of the arithmetic unit 3.
, And these outputs are selectively sent to the subsequent stage.

第6図は変換部5を示すものであり、変換部5は高速
メモリ21の出力の分岐に軽演算部22を接続し、軽演算部
22の出力を高速メモリ21のデータ入力に接続してなる。
軽演算部22には第3図Aのa〜dおよびf〜iの8画素
の2値濃度が一連の8ビットデータAとして入力され、
さらに処理対象画素の1つ前のチェーンコードCPが入力
される。軽演算部22はAを3ビット左シフトするために
A×1000の2進数演算と、この演算結果にCPを加える演
算を行う。CPは0〜7の3ビットデータであり、結果的
にAとCPが並列する11ビットデータが生成される。この
11ビットデータは高速メモリ21のアドレス入力に入力さ
れ、高速メモリ21はこのアドレス入力に基づいて処理対
象画素eに与えるべきチェーンコードCCを出力する。高
速メモリ21内には第8図に示すように出力すべきチェー
ンコードが格納されている。出力されるCCは次回の演算
におけるCPとなるため、前述のCPの入力は1回目の演算
のみで足り、2回目以後は高速メモリ21の出力を軽演算
部21へ入力すればよい。このように変換部5はチェーン
コード生成に使用し得る。
FIG. 6 shows the conversion unit 5. The conversion unit 5 connects the light calculation unit 22 to the output branch of the high-speed memory 21,
The output of 22 is connected to the data input of the high speed memory 21.
The binary densities of 8 pixels a to d and f to i in FIG. 3A are input to the light calculation unit 22 as a series of 8-bit data A,
Further, the chain code C P immediately before the pixel to be processed is input. The light operation unit 22 performs an A × 1000 binary operation for shifting A by 3 bits to the left and an operation for adding C P to the operation result. C P is 3-bit data of 0 to 7, and as a result, 11-bit data in which A and C P are parallel is generated. this
The 11-bit data is input to the address input of the high speed memory 21, and the high speed memory 21 outputs the chain code CC to be given to the processing target pixel e based on the address input. The high speed memory 21 stores a chain code to be output as shown in FIG. Since the CC to be output becomes C P in the next calculation, the above-mentioned C P need only be input in the first calculation, and the output of the high-speed memory 21 may be input to the light calculation unit 21 in the second and subsequent calculations. In this way, the conversion unit 5 can be used for chain code generation.

さらに変換部5はラベリングに際して複数のラベル番
号が同一グループであることを示すコードテーブルとし
て使用され(前述の処理iv)、例えばラベリング番号
「5」とラベリング番号「1」が同一グループであるこ
とが判明したときにはアドレス「5」に対応ラベリング
番号「1」が書き込まれる。これによって1画面を1ス
キャンしたときのラベリング処理の後に高速メモリ21を
参照することにより、ラベリング番号の修正が行なわれ
る。
Furthermore, the conversion unit 5 is used as a code table indicating that a plurality of label numbers belong to the same group at the time of labeling (process iv described above). For example, the labeling number “5” and the labeling number “1” may belong to the same group. When it is determined, the corresponding labeling number "1" is written in the address "5". As a result, the labeling number is corrected by referring to the high speed memory 21 after the labeling process when one screen is scanned once.

各グループに1つのラベリング番号を付した後には再
度全画面を走査し、各グループの始点(走査線が最初に
そのグループに進入したときのそのグループ内の画素)
または終点(走査線がそのグループを出たときにそのグ
ループ内の画素)のx,y座標を第7図に示すように高速
メモリ21に登録する。これによってチェーンコード生成
時に各グループの境界画素の1つを直ちに見だすことが
でき、チェーンコード生成に有効である。
After assigning one labeling number to each group, the whole screen is scanned again, and the starting point of each group (pixels in the group when the scan line first enters the group)
Alternatively, the x, y coordinates of the end point (pixels in the group when the scanning line leaves the group) are registered in the high speed memory 21 as shown in FIG. As a result, one of the boundary pixels of each group can be found immediately when the chain code is generated, which is effective for the chain code generation.

ベクトル化における凹の直角の処理に際しては、第9
図に示すフローチャートの処理による。このフローチャ
ートの処理を行う前にはノイズ処理、2値化等の前処理
を行うことが多い。以下フローチャートの各処理を説明
する。
When processing the right angle of the concave in vectorization,
According to the processing of the flowchart shown in the figure. Before performing the processing of this flowchart, preprocessing such as noise processing and binarization is often performed. Each process of the flowchart will be described below.

i)境界画素抽出 第2図、第3図に関連して説明したように、全ての境
界画素は1スキャンで抽出される。ここで背景画素には
「255」等のチェーンコードには含まれない数字を与え
る。
i) Boundary Pixel Extraction As described with reference to FIGS. 2 and 3, all boundary pixels are extracted in one scan. Here, the background pixel is given a number such as "255" that is not included in the chain code.

ii)ラベリング 第4図に関連して説明したように、1スキャンで全て
の境界画素にラベリング番号を付し(仮ラベリング)、
2回目のスキャンでラベリング番号の修正を行う。
ii) Labeling As described with reference to FIG. 4, labeling numbers are applied to all boundary pixels in one scan (temporary labeling),
Correct the labeling number in the second scan.

iii)各グループの始点座標登録 第7図に関連して説明したように、1スキャンで全グ
ループの始点または終点を高速メモリに登録する。ここ
では始点を登録するものとした。
iii) Registration of start point coordinates of each group As described with reference to FIG. 7, the start points or end points of all groups are registered in the high-speed memory in one scan. Here, the starting point is registered.

iv)チェーンコード生成 第6図および第8図に関連して説明したように、3×
3コンボリューションにおける中央画素の周囲8画素の
パターン、およびその直前に生成されたチェーンコード
を変換部の軽演算部に入力し、そのときのコンボリュー
ションにおけるチェーンコードを生成する。生成された
チェーンコードは軽演算部内に保持されるとともに、MP
Uに転送され、MPUはそのチェーンコードに応じて次に読
み出すべきコンボリューションを決定し、メモリ41〜43
から所定の画素を順次読み出し、ローカルバスを介して
近傍処理部7に送る。
iv) Chain code generation 3 × as described in connection with FIGS. 6 and 8.
The pattern of 8 pixels around the central pixel in 3 convolutions and the chain code generated immediately before that are input to the light calculation unit of the conversion unit, and the chain code in the convolution at that time is generated. The generated chain code is stored in the light calculation unit and MP
Transferred to the U, the MPU determines the convolution to be read next according to the chain code, and the memory 41 to 43
Predetermined pixels are sequentially read from and are sent to the neighborhood processing unit 7 via the local bus.

生成されたチェーンコードはメモリ44に書き込まれ、
第10図に示すようにチェーンコード列により境界画素が
表示された図形が生成される。このとき背景画素には
「255」等のチェーンコードには含まれない数字が与え
られている。
The generated chain code is written in memory 44,
As shown in FIG. 10, a figure in which boundary pixels are displayed is generated by the chain code string. At this time, the background pixel is given a number such as "255" that is not included in the chain code.

なおチェーンコード生成をソフトウェアによって実行
することも勿論可能である。
Note that it is of course possible to execute the chain code generation by software.

v)直角部の処理のためのチェーンコード書換 第1表に示したように、チェーンコードを付す方向を
設定すれば、凹の直角部を処理すべきチェーンコードの
パターンは4種類であり、当然このチェーンコードパタ
ーンに対応した画素パターンも4種類である。このパタ
ーンは3画素で構成され、各画素のチェーンコードは数
値演算部1における各乗算カーネル9に入力されてい
る。チェーンコードは3ビットで表示されてるため、1
つの画素のチェーンコードを3個のカーネルに並列に入
力し、これらカーネルで0ビット右シフト、1ビット右
シフト、2ビット右シフトを行った後、最下位ビットを
出力するようになっている。これによって3画素の各チ
ェーンコードが1ビットごとに分解されて出力される。
これら9ビットの出力は第2図の状態演算部2における
パターンマッチングユニット10に入力され、そのとき判
定すべきチェーンコードパターンと比較される。前述の
ように判定すべきパターンは4種類あるので、4スキャ
ンにより全画素について凹の直角部の判定を行ない得
る。例えば「654」のチェーンコードパターンの判定を
行う場合にはこれらチェーンコードを1ビットずつに分
解した9ビットパターンをパターンマッチングユニット
に登録しておき、このパターンに対応した画素パターン
をメモリ41〜43から読み出す。第10図の図形では画素a,
b,cのパターンのみがこの条件に合致しているため、こ
の画素パターンが入力されたときにのみパターンマッチ
ングユニットは「真」の出力(例えば「1」)を行な
い、この出力は変換部における高速メモリの所定のアド
レスに入力される。高速メモリにそのとき書換を行うチ
ェーンコードの書換後の値が格納されており、例えば
「654」のパターンについては「64」のチェーンコード
が格納されている。これによって真の出力が生じたとき
は「6」、「4」のチェーンコードが順次出力され、
「5」のチェーンコードを有する画素は「6」のチェー
ンコードに、また境界画素ではない背景画素(第10図
d)は「4」のチェーンコードに書換えられる。この処
理は1パターンについて1スキャンで行われ、前述のよ
うに4パターンについては4スキャンで処理が終了す
る。
v) Rewriting the chain code for the treatment of the right-angled portion As shown in Table 1, if the direction of attaching the chain cord is set, there are four types of chain cord patterns to treat the concave right-angled portion. There are also four types of pixel patterns corresponding to this chain code pattern. This pattern is composed of 3 pixels, and the chain code of each pixel is input to each multiplication kernel 9 in the numerical calculation unit 1. Since the chain code is displayed with 3 bits, 1
The chain code of one pixel is input to three kernels in parallel, 0-bit right shift, 1-bit right shift, and 2-bit right shift are performed by these kernels, and then the least significant bit is output. As a result, each chain code of 3 pixels is decomposed bit by bit and output.
These 9-bit outputs are input to the pattern matching unit 10 in the state calculation unit 2 of FIG. 2 and compared with the chain code pattern to be judged at that time. Since there are four types of patterns to be judged as described above, it is possible to judge the concave right angle portion for all pixels by four scans. For example, when the “654” chain code pattern is determined, a 9-bit pattern obtained by decomposing these chain codes bit by bit is registered in the pattern matching unit, and the pixel pattern corresponding to this pattern is stored in the memories 41 to 43. Read from. In the figure of Fig. 10, pixel a,
Since only the patterns b and c meet this condition, the pattern matching unit outputs "true" (for example, "1") only when this pixel pattern is input, and this output is output from the conversion unit. It is input to a predetermined address of the high speed memory. A value after rewriting of the chain code to be rewritten at that time is stored in the high-speed memory. For example, for the pattern of “654”, the chain code of “64” is stored. When a true output is generated by this, chain codes of "6" and "4" are sequentially output,
Pixels having a chain code of "5" are rewritten to a chain code of "6", and background pixels which are not boundary pixels (Fig. 10d) are rewritten to a chain code of "4". This process is performed in one scan for one pattern, and as described above, the process is completed in four scans for four patterns.

パターンマッチングユニット10においては3ビットデ
ータ3個の比較しか行うことができず、境界画素と背景
画素の判別は不可能であるが、各画素のいずれかが背景
画素であるときには、境界画素判定部23においてその判
定が行われ、これら画素に対する変換部5での処理が終
了するタイミングに合わせてメモリ44への書き込みを禁
止する。これによって適正な直角部処理が行なわれる。
The pattern matching unit 10 can only compare three pieces of 3-bit data, and cannot distinguish the boundary pixel from the background pixel. However, when any of the pixels is a background pixel, the boundary pixel determination unit The determination is made at 23, and writing to the memory 44 is prohibited at the timing when the processing of the conversion unit 5 for these pixels ends. As a result, proper right angle portion processing is performed.

その後のベクトル化の処理はMPUにおいてソフトウェ
ア処理される。
The subsequent vectorization processing is software processed in the MPU.

〔発明の効果〕 この発明に係る図形のベクトル化方法は、図形の境界
画素にチェーンコードまたはチェーンコードと等価なコ
ードを与え、コード列が所定のパターンであったときに
その書換えと追加を行うものであり、その大半の処理が
ハードウェアサポートされているため、凹の直角部を鮮
明な直角として表現でき、かつ高速であるという優れた
効果を有する。
[Effects of the Invention] In the vectorization method of a graphic according to the present invention, a chain code or a code equivalent to the chain code is given to boundary pixels of the graphic, and when the code string has a predetermined pattern, the rewriting and addition are performed. Since most of the processing is supported by hardware, the concave right angle portion can be expressed as a sharp right angle, and it has an excellent effect of being high speed.

【図面の簡単な説明】[Brief description of the drawings]

第1図はこの発明方法を実施するために使用する映像処
理システムを示すブロック図、第2図は同映像処理シス
テムの演算部における状態演算部を示すブロック図、第
3図は状態演算部における境界画素抽出部を示す論理回
路図、第3A図は画像中のコンボリューションを示す概念
図、第4図は映像処理システムにおける逐次処理部を示
すブロック図、第5図は映像処理システムの演算部にお
ける数値演算部を示すブロック図、第6図は映像処理シ
ステムにおける変換部を示すブロック図、第7図は変換
部における高速メモリ内に登録された座標値を示す概念
図、第8図は高速メモリ内に登録されたチェーンコード
を示す概念図、第9図はベクトル化方法を示すフローチ
ャート、第10図はチェーンコードを表示した図形を示す
概念図である。 1……数値演算部、2……状態演算部、3……演算部、
41〜44……メモリ、5……変換部、6……逐次処理部、
7……近傍処理部、8……2値化部、9……境界画素抽
出部、10……パターンマッチングユニット、11……セレ
クタ、121〜129……乗算カーネル、13……遅延部、14…
…コンパレータ、15……論理部、16……ラインメモリ、
17〜19……フリップフロップ、20……セレクタ、21……
高速メモリ、22……乗算カーネル、23……境界画素判定
部。
FIG. 1 is a block diagram showing a video processing system used to carry out the method of the present invention, FIG. 2 is a block diagram showing a state calculation unit in a calculation unit of the same video processing system, and FIG. 3 is a state calculation unit. A logic circuit diagram showing a boundary pixel extraction unit, FIG. 3A is a conceptual diagram showing convolution in an image, FIG. 4 is a block diagram showing a sequential processing unit in a video processing system, and FIG. 5 is a calculation unit of the video processing system. 6 is a block diagram showing a numerical operation unit in FIG. 6, FIG. 6 is a block diagram showing a conversion unit in the video processing system, FIG. 7 is a conceptual diagram showing coordinate values registered in a high speed memory in the conversion unit, and FIG. FIG. 9 is a conceptual diagram showing a chain code registered in the memory, FIG. 9 is a flowchart showing a vectorization method, and FIG. 10 is a conceptual diagram showing a figure displaying the chain code. 1 ... Numerical calculation unit, 2 ... State calculation unit, 3 ... Calculation unit,
41 to 44 …… Memory, 5 …… Conversion unit, 6 …… Sequential processing unit,
7 ... Neighborhood processing unit, 8 ... Binarization unit, 9 ... Boundary pixel extraction unit, 10 ... Pattern matching unit, 11 ... Selector, 121-129 ... Multiplication kernel, 13 ... Delay unit, 14 …
… Comparator, 15 …… Logic part, 16 …… Line memory,
17〜19 …… Flip-flop, 20 …… Selector, 21 ……
High-speed memory, 22 ... Multiplier kernel, 23 ... Boundary pixel determination unit.

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】図形の境界画素をチェーンコードで表現し
たときに、あるチェーンコード群が一定のパターンにな
る場合に凹の直角部であると判定し、この凹の直角部の
隅の点に隣接画素との関係で定まるチェーンコードを付
加し、この点のチェーンコード付加に応じて前記チェー
ンコード群の変更を行う図形のベクトル化方法におい
て、前記チェーンコードのパターンを各境界画素の座標
に対応したアドレスで入力用メモリおよび出力用メモリ
に書き込み、前記チェーンコード列をパターンマッチン
グレジスタに登録し、登録されたチェーンコード列を前
記のように改めるときの各コードの変更値をテーブルに
登録し、登録されたチェーンコード列に対応した画素パ
ターンを前記入力用メモリから順次読出し、読出された
画素のチェーンコードをパターンマッチングレジスタに
登録されたチェーンコード列と比較し、両者が一致した
ときに前記テーブルに登録されたコードを出力し、出力
されたコードにより、前記出力用メモリの画素のコード
を書き替えることを特徴とする図形のベクトル化方法。
1. When a boundary pixel of a figure is expressed by a chain code, when a certain chain code group has a constant pattern, it is determined to be a concave right-angled portion, and a point at the corner of this right-angled portion is determined. In the vectorization method of the figure in which the chain code determined by the relationship with the adjacent pixel is added, and the chain code group is changed according to the addition of the chain code at this point, the chain code pattern corresponds to the coordinates of each boundary pixel. Write to the input memory and the output memory at the address, register the chain code string in the pattern matching register, register the modified value of each code when modifying the registered chain code string in the table, The pixel pattern corresponding to the registered chain code string is sequentially read from the input memory, and the chain code of the read pixels is read. Is compared with the chain code string registered in the pattern matching register, and when the two match, the code registered in the table is output, and the code of the pixel in the output memory is rewritten with the output code. A vectorization method for figures.
JP63012228A 1988-01-22 1988-01-22 How to vectorize shapes Expired - Fee Related JP2688666B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63012228A JP2688666B2 (en) 1988-01-22 1988-01-22 How to vectorize shapes

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63012228A JP2688666B2 (en) 1988-01-22 1988-01-22 How to vectorize shapes

Publications (2)

Publication Number Publication Date
JPH01188988A JPH01188988A (en) 1989-07-28
JP2688666B2 true JP2688666B2 (en) 1997-12-10

Family

ID=11799513

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63012228A Expired - Fee Related JP2688666B2 (en) 1988-01-22 1988-01-22 How to vectorize shapes

Country Status (1)

Country Link
JP (1) JP2688666B2 (en)

Also Published As

Publication number Publication date
JPH01188988A (en) 1989-07-28

Similar Documents

Publication Publication Date Title
US4162482A (en) Pre-processing and feature extraction system for character recognition
EP0173098A2 (en) Pattern outline tracking method and apparatus
JPH09237338A (en) Method and device for quickly smoothing contour
JPS6367218B2 (en)
JPS61249175A (en) Graphic processor
US4528692A (en) Character segmenting apparatus for optical character recognition
US5687252A (en) Image processing apparatus
JP2639412B2 (en) Image processing method
EP0657838B1 (en) Image processing apparatus and method
JP2688666B2 (en) How to vectorize shapes
KR0125276B1 (en) Image contour detecting apparatus
US6337926B2 (en) Image recognition method, image recognition apparatus, and recording medium
US6058219A (en) Method of skeletonizing a binary image using compressed run length data
US4435836A (en) Technique for extracting features from images
JPH07118002B2 (en) Image processing device
JPH03177982A (en) Image processing method
JPS6239459B2 (en)
JP2846173B2 (en) Image processing device
JP3061830B2 (en) Image processing device
EP0365878A2 (en) Image processing method
JP3013442B2 (en) Automatic drawing input device
JP2835056B2 (en) High quality character pattern generation method
JPH01243188A (en) Contour detector
Fan et al. Parallel mechanism for detecting contours in binary images
Lien Efficient implementation of binary morphological image processing

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees