JPH01277976A - Image processor - Google Patents

Image processor

Info

Publication number
JPH01277976A
JPH01277976A JP63106684A JP10668488A JPH01277976A JP H01277976 A JPH01277976 A JP H01277976A JP 63106684 A JP63106684 A JP 63106684A JP 10668488 A JP10668488 A JP 10668488A JP H01277976 A JPH01277976 A JP H01277976A
Authority
JP
Japan
Prior art keywords
contour
point
pixel data
memory
connection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63106684A
Other languages
Japanese (ja)
Inventor
Minoru Yamanaka
稔 山中
Keisuke Goto
啓介 後藤
Tetsuya Yasuda
哲也 安田
Hitoshi Kogori
古郡 仁
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Original Assignee
Meidensha Corp
Meidensha Electric Manufacturing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Meidensha Corp, Meidensha Electric Manufacturing Co Ltd filed Critical Meidensha Corp
Priority to JP63106684A priority Critical patent/JPH01277976A/en
Publication of JPH01277976A publication Critical patent/JPH01277976A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PURPOSE:To attain the vectorization with fidelity of an original image and to facilitate an operation by recognizing the arranging state of a contour element from the connection relation of an image element and the contour element relating to image element data of 2 image elements X 2 image elements and the black/white arranging pattern of the image element data. CONSTITUTION:A contour extraction part 1 fetches binary data corresponding to black/white by performing raster scan on an object, and takes out the image element data of 2 image elements X 2 image elements in crisscross sequentially along a scan line, and detects the contour based on the image element data, and generates a command string for runlength vectorization and one-dimensional coding, and outputs them to a contour analysis part 2. The processing part 21 of the analysis part 2 updates the description of a contour managing table and a contour connection table in a memory 31, and a processing part 22 generates runlength vector information and stores it in a memory 32, and a processing part 23 performs the vectorization of the contour consisting of a contour element group based on the contour element table, and describes a formed contour vector group on a memory 33.

Description

【発明の詳細な説明】 A、産業上の利用分野 本発明は2値画像の輪郭を検出する装置に関するもので
ある。
DETAILED DESCRIPTION OF THE INVENTION A. Field of Industrial Application The present invention relates to a device for detecting the outline of a binary image.

B1発明の概要 本発明は、被写体をラスタスキャンして得られた黒白に
対応する2値化画素データに基づき黒白の境界に相当す
る輪郭を検出する装置において、2画素×2画素の画素
データを順次に取り出し、■ライン前に取り出した画素
データに基づいて、例えばラスタスキャンY方向の輪郭
画素間の接続関係を求め、この関係及び画素データの配
列パターンの各情報を含む接続・パターンコードを発生
すると共に一つのラインにて左右に並ぶ画素配列データ
を作成し、更に接続・パターンコードに基づいて、輪郭
要素を系列化したテーブルを作成すると共に、輪郭上の
始点から極大点を結ぶ直線に対して最大距離を求めると
いった処理により輪郭ベクトル群を作成し、また画素配
列データに基づいてランレングスベクトル情報や一次元
符号化データを得ることによって、画像メモリの容量、
ハードウェア構成及び処理時間が画像サイズや解像度に
影響されることがなく、原画に忠実なベクトル化を達成
でき、かつ拡大、縮小1回転操作か容易に行え、更に原
画像の再現を容易に行うことかできるようにしたもので
ある。
B1 Summary of the Invention The present invention is an apparatus for detecting a contour corresponding to a black-and-white boundary based on binary pixel data corresponding to black and white obtained by raster scanning a subject, which detects pixel data of 2 pixels x 2 pixels. Based on the pixel data taken out sequentially and before the line, for example, the connection relationship between contour pixels in the raster scan Y direction is determined, and a connection/pattern code containing information on this relationship and the pixel data arrangement pattern is generated. At the same time, it creates pixel array data arranged left and right in one line, and also creates a table in which the outline elements are series based on the connection/pattern code. The image memory capacity is
Hardware configuration and processing time are not affected by image size or resolution, it is possible to achieve vectorization that is faithful to the original image, and it is possible to easily perform single-rotation operations such as enlargement and reduction, and furthermore, it is easy to reproduce the original image. It was made so that it could be done.

C1従来の技術 文字や図形等のパターンを処理する場合、例えば、書類
や図面等の被写体をイメージスキャナ等の入力装置で操
作して得られる黒と白の2値画像データ(人カバターン
)に変換し、この2値画像データから対象物の輪郭画素
を抽出し、情報圧縮処理や対象物の認識処理を行ってい
る。
C1 Conventional technology When processing patterns such as characters and figures, for example, converting objects such as documents and drawings into black and white binary image data (human cover pattern) obtained by operating them with an input device such as an image scanner. Then, contour pixels of the object are extracted from this binary image data, and information compression processing and object recognition processing are performed.

このうち、2値画像データから対象物の輪郭画素を抽出
するための従来方式は、第33図に示すような動作を示
す。これは以下のような処理の流れで記述できる。
Among these, the conventional method for extracting contour pixels of an object from binary image data exhibits an operation as shown in FIG. 33. This can be described using the following process flow.

■まず、2値画像データをすべて、専用画像メモリMに
記憶する。
(1) First, all binary image data is stored in the dedicated image memory M.

■次に、このメモリMから検出対象となるTの輪郭の始
点となる点、例えば、点P1を探す。
(2) Next, search the memory M for a point, for example, point P1, which is the starting point of the contour of T to be detected.

■この点P1に隣接する点を順次追跡抽出して対象物T
の輪郭画素を抽出する。
■Sequentially track and extract the points adjacent to this point P1 and
Extract the contour pixels of.

D2発明が解決しようとする課題 このように、従来の輪郭画素抽出方式においては、1画
面分の2値画像データを記憶するための専用メモリを必
要とする。これは、入力する書類や図面のサイズが大き
くなればなるほど、また、高解像度にするほどメモリが
大容量になる欠点を有する。
D2 Problems to be Solved by the Invention As described above, the conventional contour pixel extraction method requires a dedicated memory for storing one screen's worth of binary image data. This has the disadvantage that the larger the size of the input document or drawing, or the higher the resolution, the larger the memory capacity.

ハードウェア構成の点からいえば、画像メモリは入力画
像の縦横サイズに比例して大きくなるため、場合によっ
てはメモリボードの追加を考慮した構成が必要となる。
In terms of hardware configuration, since the image memory increases in proportion to the vertical and horizontal sizes of the input image, a configuration that takes into account the addition of a memory board may be necessary in some cases.

例えば、AOサイズを対象とする画像メモリは、A4サ
イズの画像メモリに比べて、16倍もの容量を必要とし
ており、A4サイズのメモリボードが1枚で構成される
ときでもAOサイズは16枚ら必要である。
For example, an image memory for AO size requires 16 times the capacity than an A4 size image memory, and even when an A4 size memory board is configured with one board, AO size requires 16 times more capacity than an A4 size image memory. is necessary.

次に、処理時間にも大きな影響がある。従来の方式では
、画像メモリに1画面分が記憶されるまでの待ち時間が
必要であり、また、輪郭を抽出するためには、逐次追跡
をソフトウェアで行う必要°があり、これらも対象の画
像のサイズや解像度に比例して、処理時間に影響を与え
ることになる。
Next, processing time also has a significant impact. Conventional methods require waiting time until one screen's worth is stored in the image memory, and in order to extract contours, it is necessary to perform sequential tracking using software, which also requires The processing time will be affected in proportion to the size and resolution of the image.

以上をまとめると、従来の輪郭抽出方式では、単に画像
サイズを大きくしたり、解像度を高くするだけで、ハー
ドウェア構成、処理時間等に影響する欠点があり、さら
には、製品外観や価格などにも影響を及ぼず要因となっ
ていた。
To summarize the above, with conventional contour extraction methods, simply increasing the image size or increasing the resolution has drawbacks that affect hardware configuration, processing time, etc., and also has the disadvantage of affecting product appearance, price, etc. was also a contributing factor.

本発明はこのような課題を解決するためになされたもの
であり、画像メモリの容量、ハードウェア構成及び処理
時間か画像サイズや解像度に影響されることがなく、原
画に忠実なベクトル化を達成でき、かつ拡大、縮小1回
転操作か容易に行える上容易に原画像を再現することが
でき、更に輪郭の取り出しを容易に行うことができる画
像処理装置を堤供することを目的とする。
The present invention was made to solve these problems, and achieves vectorization that is faithful to the original image without being affected by image memory capacity, hardware configuration, processing time, image size or resolution. It is an object of the present invention to provide an image processing device which can easily reproduce an original image, and can easily perform enlarging and reducing one-rotation operations, and can also easily extract contours.

E1課題を解決するための手段 第1図は本発明の構成を示す図であり、■は輪郭抽出部
である。この輪郭抽出部lは、第2図に示すように被写
体をラスタスキャンして得られた黒白に対応する2値化
画素データを取り込んで、縦横2画素×2画素の画素デ
ータをスキャンラインに沿って順次に取り出し、この画
素データに基づいて輪郭検出、ランレングスベクトル化
、及び一次元符号化のためのコマンド列を作成して後段
の輪郭解析部2に出力する。輪郭解析部2は前記コマン
ド列に基づいて第1のメモリ3.内の輪郭要素テーブル
、輪郭管理テーブル及び輪郭接続テーブルの記載を更新
する第1の処理部2.と、コマンド列に基づいて黒ラン
の始点と長さとを組にしたランレングスベクトル情報を
作成して第2のメモリ3.に格納する第2の処理部2.
と、前記輪郭要素テーブルに基づいて、輪郭要素群より
なる輪郭をベクトル化処理して輪郭ベクトル詳を作成し
、この輪郭ベクトル群を第3のメモリ33内の輪郭ベク
トル系列テーブルに記載する第3の処理部2.とを有し
ている。
Means for Solving Problem E1 FIG. 1 is a diagram showing the configuration of the present invention, where ■ is a contour extraction section. As shown in Fig. 2, this contour extraction unit 1 takes in binarized pixel data corresponding to black and white obtained by raster scanning the subject, and extracts pixel data of 2 pixels x 2 pixels along the scan line. Based on this pixel data, command sequences for contour detection, run-length vectorization, and one-dimensional encoding are created and output to the contour analysis section 2 at the subsequent stage. The contour analysis unit 2 stores data in the first memory 3. based on the command sequence. A first processing unit that updates the descriptions of the contour element table, contour management table, and contour connection table in 2. Then, based on the command string, run length vector information is created, which is a set of the starting point and length of the black run, and is stored in the second memory 3. The second processing unit 2.
Then, based on the contour element table, a contour consisting of a group of contour elements is vectorized to create contour vector details, and this contour vector group is recorded in a contour vector series table in the third memory 33. Processing unit 2. It has

ここで輪郭要素とは互いに隣接した2個の黒画素を結ぶ
べクトルに相当するものであり、これを結合することに
よって輪郭か構成される。そして輪郭要素テーブルとは
、第3図に示すように輪郭要素とこれら輪郭要素群より
なる輪郭とに対して各々固有の符号を付すと共に、輪郭
要素毎に、その座標及び方向と輪郭要素か所属する輪郭
の符号と輪郭要素の前後に夫々接続されている他の輪郭
要素の符号とを記載するためのものである。また輪郭管
理テーブルとは第4図に示すように輪郭毎に先端及び終
端に位置する輪郭要素の符号を記載するためのらのであ
り、輪郭接続テーブルとは、第5図に示すようにラスタ
スキャン方向に並ぶ座標とその座標に前端または後端が
存在する末接続の輪郭要素の符号とその輪郭要素の末接
続端の前後端の区別とを対応させて記載するためのらの
である。
Here, the contour element corresponds to a vector connecting two adjacent black pixels, and by combining these, a contour is constructed. As shown in Fig. 3, the contour element table is a table in which a unique code is attached to each contour element and a contour made up of a group of these contour elements, and for each contour element, its coordinates, direction, and the contour element to which it belongs are assigned. This is to describe the code of the contour element and the code of other contour elements connected before and after the contour element, respectively. The contour management table is a table for recording the codes of the contour elements located at the tip and end of each contour, as shown in FIG. 4, and the contour connection table is a table for raster scanning as shown in FIG. This is for describing the coordinates arranged in the direction, the code of the terminal connected contour element whose front end or rear end exists at the coordinate, and the distinction between the front and rear ends of the terminal connected end of the contour element in correspondence.

F1作用 輪郭抽出部lより出力されるコマンド列は、そのときに
取り出された2画素×2画素の画素データに係る画素と
輪郭要素との接続関係の情報、及び当該画素データの黒
白の配列パターンの情報を含む接続・パターンコードと
、当該画素データのX座標を示す座標コードと、例えば
2画素×2画素の画素データの下側のラインにおける左
右の画素配列データとを組み合わせてなる。前記接続関
係の一例を第6図に示すと、同図(イ)の大枠で囲まれ
た2画素×2画素の画素データを取り込んだときには、
この画素データのX座標Xnに位置する輪郭要素の前端
が接続されているという情報になる。この例では、画素
データの座標としては、紙面に向かって右下に位置する
画素P1の座標をとっている。また同図(ロ)の大枠で
囲まれた画素データを取り込んだときには、この画素デ
ータのX座標より一つ前の座mx、、に位置する輪郭要
素の後端が接続されているという情報になる。
The command string output from the F1 effect contour extraction unit l includes information on the connection relationship between pixels and contour elements related to the 2 pixel x 2 pixel pixel data extracted at that time, and the black and white arrangement pattern of the pixel data. A connection/pattern code including information on the pixel data, a coordinate code indicating the X coordinate of the pixel data, and left and right pixel array data on the lower line of the pixel data of, for example, 2 pixels x 2 pixels. An example of the connection relationship is shown in FIG. 6. When the pixel data of 2 pixels x 2 pixels surrounded by the large frame in FIG.
This becomes information that the front ends of the contour elements located at the X coordinate Xn of this pixel data are connected. In this example, the coordinates of the pixel data are the coordinates of the pixel P1 located at the lower right when facing the page. In addition, when the pixel data surrounded by the large frame in Figure (b) is imported, the information that the rear end of the contour element located at the position mx, one position before the X coordinate of this pixel data is connected. Become.

なお第6図中○印を有する枠は黒画素を示し、○印を有
しない枠は白画素を示している。そして例えば第6図(
イ)の大枠に着目すると、この場合の接続・パターンコ
ードは、上述の接続情報と太 。
Note that in FIG. 6, frames with ◯ marks indicate black pixels, and frames without ◯ marks indicate white pixels. For example, Figure 6 (
Focusing on the general outline of b), the connection/pattern code in this case is the same as the connection information above.

枠内の黒白の配列パターンの情報とを含み、コマンド列
は、この接続・パターンコードと画素P1のX座標を示
す座標コードとの組み合わせとなる。
The command string is a combination of this connection/pattern code and a coordinate code indicating the X coordinate of pixel P1.

なおこの座標コードについては輪郭解析部2側にて、コ
マンド列の取り込みのタイミングに同期して発生させる
こともできる。
Note that this coordinate code can also be generated on the contour analysis section 2 side in synchronization with the timing of fetching the command sequence.

このようにして得たコマンド列が輪郭解析部2に取り込
まれると次のような処理が行われる。金策7図の大枠の
画素データに関するコマンド列が取り込まれたとすると
、点線で示す輪郭要素Cjを輪郭要素テーブルに登録し
、その方向及び座標を記入すると共に、当該輪郭要素C
jの前後に夫々接続されている他の輪郭要素の番号を接
続要素番号欄に記入する。この場合輪郭要素Cjは輪郭
要素Ciの前方に位置するので、輪郭要素Cjの欄に係
る後方接続棚にCiを記入し、輪郭要素Cjの欄に係る
前方接続側にCiを記入する。更に輪郭要素Cjの所属
する輪郭の番号をこの例ではSiを輪郭番号欄に記入す
る。輪郭要素の方向については例えば8連結の場合、第
8図に示すように上下、左右、斜めの方向に対応してa
1〜a。
When the command string obtained in this way is taken into the contour analysis section 2, the following processing is performed. Assuming that a command string related to the pixel data of the general frame in Fig. 7 is imported, the contour element Cj shown by the dotted line is registered in the contour element table, its direction and coordinates are entered, and the contour element Cj is
Enter the numbers of other contour elements connected before and after j in the connected element number column. In this case, the contour element Cj is located in front of the contour element Ci, so Ci is written in the rear connection shelf in the column for the contour element Cj, and Ci is written in the front connection side in the column for the contour element Cj. Furthermore, the number of the contour to which the contour element Cj belongs, Si in this example, is entered in the contour number column. Regarding the direction of the contour elements, for example, in the case of 8 connections, as shown in FIG.
1-a.

が規定され、また4連結の場合、上下、左右の4方向が
規定される。そして輪郭管理テーブルの輪郭番号Siに
ついて、先端の輪郭要素番号欄をCiからCjに更新す
ると共に、輪郭接続テーブルにおける当該画素データの
X座標について、末接続の輪郭要素番号の前方接続の欄
をCiからCjに更新する。ところで実際の処理におい
ては、輪郭要素Ciに接続されるべき要素は輪郭接続テ
ーブルにより明らかにされているため、輪郭要素テーブ
ルの輪郭要素番号Ci欄に係る前方接続側のCjの記載
は、輪郭接続テーブルを参照して行われろ。以上におい
て所属輪郭番号は、ラスタスキャンの進行に伴って別々
に発生した二つの輪郭が接続されて一つの輪郭になった
場合には一方が他方に統合されて同一になる。また前記
コマンド列の画素配列データと前記画素データのX座標
とに基づいて黒ランの始点と長さとを組にしたランレン
グスベクトル情報を作成して前記第2のメモリに格納す
る。
is defined, and in the case of four connections, four directions, up, down, left and right, are defined. Then, regarding the contour number Si in the contour management table, the tip contour element number field is updated from Ci to Cj, and regarding the X coordinate of the relevant pixel data in the contour connection table, the forward connection field of the end connected contour element number is updated to Ci. Update from Cj to Cj. By the way, in actual processing, the elements to be connected to the contour element Ci are clarified by the contour connection table, so the description of Cj on the front connection side related to the contour element number Ci column of the contour element table is Please refer to the table. In the above, when two contours generated separately as the raster scan progresses are connected to form one contour, one contour is integrated with the other and the associated contour numbers become the same. Further, run length vector information is created in which the starting point and length of a black run are paired based on the pixel array data of the command string and the X coordinate of the pixel data, and is stored in the second memory.

更に、前記輪郭要素テーブルから1輪郭画素系列を構成
する各点のうち始点からみて極大となる極大点を検索し
てこの極大点と前記始点とを結ぶ直線から最大距離にあ
る輪郭上の点を求め、この点と前記始点とを結ぶ直線に
対して同様の処理を繰り返すことにより、最大距離がし
きい値以下になる前の点Qを求めて、この点Qと前記始
点とを結ぶべクトルを輪郭ベクトルとして抽出し、次い
で前記点Qを始点として同様の処理を行うことにより輪
郭ベクトルを抽出し、こうして得られた輪郭ベクトル群
に係る情報を前記輪郭ベクトル系列テーブル(こ3己載
する。
Furthermore, from among the points constituting one contour pixel series from the contour element table, a local maximum point that is the maximum when viewed from the starting point is searched, and a point on the contour that is at the maximum distance from a straight line connecting this local maximum point and the starting point is found. By repeating the same process on the straight line connecting this point and the starting point, find the point Q before the maximum distance becomes less than the threshold, and then create a vector connecting this point Q and the starting point. is extracted as a contour vector, and then a contour vector is extracted by performing similar processing using the point Q as a starting point, and information regarding the contour vector group thus obtained is loaded into the contour vector series table.

以上において第2の処理部2.に対して、更に前記コマ
ンド列の画素配列データと前記画素データのX座標に基
づいて黒ランと白ランの各始点及び終点座標を求め、一
次元符号化方式の符号語を作成して第2のメモリ33へ
格納する機能を付与してもよい。
In the above, the second processing unit 2. , the start and end point coordinates of the black run and white run are further determined based on the pixel array data of the command string and the X coordinate of the pixel data, and a code word of the one-dimensional encoding method is created. A function of storing the data in the memory 33 may be provided.

G、実施例 本発明の実施例では、第9図に示すように内部バス41
に輪郭抽出部4.と、第1の処理部43A及び第2の処
理部43B並びに第3の処理部43Cを備えた輪郭解析
部43と、輪郭解析部4.にて得られたデータを一旦格
納するための内部メモリ44とを結合して各部間の情報
の受は渡しを内部バス4、を通じて行うように構成する
と共に、内部バス4.をバスインターフェイス4.を介
してメインバス48に結合している。5は2値画像人力
処理部であり、2値画像入力装置6から入力された2値
画像データをここを通じて輪郭抽出部4.に与える。こ
の処理は、主制御部7が入出力処理部8より入力指示を
受けたときに2値画像人力処理部5に対して指示を与え
ることにより実行される。
G. Embodiment In an embodiment of the present invention, an internal bus 41 as shown in FIG.
Contour extraction section 4. , a contour analysis section 43 including a first processing section 43A, a second processing section 43B, and a third processing section 43C, and a contour analysis section 4. The internal bus 4 is connected to an internal memory 44 for temporarily storing data obtained in the internal bus 4, and information is exchanged between each section through the internal bus 4. The bus interface 4. It is coupled to main bus 48 via. 5 is a binary image manual processing section, through which the binary image data inputted from the binary image input device 6 is passed to the contour extraction section 4. give to This process is executed by giving an instruction to the binary image manual processing section 5 when the main control section 7 receives an input instruction from the input/output processing section 8.

9は主メモリであり、輪郭解析部43の処理によ“ り
得られたデータを格納するためのらのである。
A main memory 9 is used to store data obtained through processing by the contour analysis section 43.

この実施例では主メモリ9は、本発明の構成要素である
第1〜第3のメモリを兼用するしのである。
In this embodiment, the main memory 9 also serves as the first to third memories that are the constituent elements of the present invention.

次に輪郭抽出部4.から発生するコマンド列の具体例に
関して述べる。第1θ図及び第11図は、各々2画素×
2画素の画素データの黒白の配列パターンとこの画素デ
ータに対する輪郭要素の接続関係との成立関係を示す図
であり、第1O図は8連結、第11図は4連結の場合に
夫々相当する。
Next, outline extraction section 4. A specific example of a command sequence generated from the following will be described. Fig. 1θ and Fig. 11 each have 2 pixels x
FIG. 10 is a diagram showing the relationship between the black and white arrangement pattern of pixel data of two pixels and the connection relationship of outline elements to this pixel data; FIG. 1O corresponds to the case of 8-connection, and FIG. 11 corresponds to the case of 4-connection.

これら図において左端の縦に並ぶ4コマの窓は第12図
に示すように2画素×2画素の画素データ(do−ds
)を示し、NJ、rOJが立っている部分は夫々黒画素
、白画素に相当する。また上端の横に並ぶ4コマの窓は
、第13図に示すように、上側左右の2コマが夫々画素
データのX座標X n−1における前方接続の輪郭要素
の有無及びX座標Xnにおける前方接続の輪郭要素の有
無を示し、下側左右の2コマが夫々画素データのX座標
Xn−+におけろ後方接続の輪郭要素の有無及びX座標
Xnにおける後方接続の輪郭要素の有無を示す接続フラ
グであり、rN、rOJは夫々接続有り、接続無しを意
味している。例えば第6図(イ)の大枠で囲まれた画素
領域における接続フラグは、(xn、 Yn−1)の座
標位置にて輪郭要素の前端が当該画素領域に接続されて
いるから、第1θ図の接続フラグ欄の左から5番目のよ
うに右上のコマのみが「!」の窓で表わされる。
In these figures, the four vertically arranged windows at the left end are pixel data of 2 pixels x 2 pixels (do-ds) as shown in Figure 12.
), and the portions where NJ and rOJ stand correspond to black pixels and white pixels, respectively. In addition, as shown in FIG. 13, the four-panel windows arranged horizontally at the top end are divided into two windows on the left and right sides of the pixel data. The two frames on the bottom left and right indicate the presence or absence of a backward connection contour element at the X coordinate Xn-+ of pixel data, and the presence or absence of a backward connection contour element at the X coordinate Xn of the pixel data. These are flags, and rN and rOJ mean connected and unconnected, respectively. For example, the connection flag in the pixel area surrounded by the large frame in FIG. Only the top right frame, such as the fifth one from the left in the connection flag column, is represented by a "!" window.

そして第10図、第11図において、画素データ及び接
続フラグの項の交差する部分が空白であるということは
、このような画素データ及び接続フラグの組み合わせに
対しては輪郭解析部4.にて処理を行う必要がないこと
を意味する。○が記入された組み合わせのときは、輪郭
解析部4.にて処理を行う必要があり、その組み合わせ
に前窓した接続・パターンコードが輪郭抽出部4.にて
発生する。×が記入された組み合わせについては、その
ような組み合わせが存在しないことを表わす。
In FIGS. 10 and 11, the intersection of the pixel data and connection flag terms is blank, which means that the contour analysis unit 4. This means that there is no need to perform any processing. For combinations marked with ○, the contour analysis section 4. It is necessary to perform processing in the contour extraction section 4, and the connection/pattern code that is added to the combination is processed in the contour extraction section 4. Occurs at. A combination marked with a cross indicates that such a combination does not exist.

△が記入された組み合わせについては、ランレンゲの符
号化を実施するときのみ、その組み合わせに対応した接
続・パターンコードか発生する。なお第6図、第7図に
おいては、輪郭要素の発生方向(ベクトルの向き)を考
慮せずに描いているが、実際には輪郭要素を、物体(ま
たは黒画像部)の外縁に沿って右回りに向くように発生
させており、この発生の仕方に対応させて第1O図及び
第11図の成立関係図を作成している。
For combinations marked with a △, a connection/pattern code corresponding to the combination is generated only when encoding the run range. In Figures 6 and 7, the contour elements are drawn without considering the direction in which they occur (direction of the vector), but in reality the contour elements are drawn along the outer edge of the object (or black image area). It is generated in a clockwise direction, and the establishment relationship diagrams shown in FIGS. 1O and 11 are created in correspondence with this manner of generation.

前記コマンド列はこのようにして得られた接続・パター
ンコードの他に読み出しレディコードや座標コード等が
含まれ、その−例を挙げると第14図のように表わされ
る。同図中A、は読み出しレディコードであり、画素デ
ータ及び接続フラグの組み合わせが第10図、第11図
の×、あるいは×及び△に相当するときにはコマンド列
を無効とするものである。A、は画素データのX座標、
A 3゜A4は画素配列データ、即ち画素データの下側
左右に並ぶ二つの画素の黒、白を示すコードである。
In addition to the connection/pattern code obtained in this manner, the command string includes a read ready code, a coordinate code, etc., and an example thereof is shown in FIG. 14. A in the figure is a read ready code, which invalidates the command sequence when the combination of pixel data and connection flag corresponds to ×, or × and Δ in FIGS. 10 and 11. A is the X coordinate of pixel data,
A3゜A4 is pixel array data, that is, a code indicating black and white of two pixels arranged on the left and right sides of the lower side of the pixel data.

A5は1頁(全ライン)の終わりを示すE OP (E
 ND  OF  PAGE)コード、A、はlライン
の終わりを示すFOR(END  OF  ROW)コ
ード、A7は接続・パターンコードである。
A5 indicates the end of one page (all lines) E OP (E
ND OF PAGE) code, A is a FOR (END OF ROW) code indicating the end of the l line, and A7 is a connection/pattern code.

次いで輪郭抽出部4.の具体的構成例を第15図を参照
しながら説明する。   ′ 画素データラッチ101には信号線5及び後述するライ
ンメモリ105から画素データか人ツノされる。このラ
ッチはこれら人力されたデータから、第12図に示すよ
うな2画素×2画素、すなわち互いに隣接する4画素の
データd。−d3を取り込み、ラッチする。
Next, the contour extraction section 4. A specific example of the configuration will be described with reference to FIG. ' Pixel data is supplied to the pixel data latch 101 from the signal line 5 and a line memory 105 to be described later. This latch generates data d of 2 pixels x 2 pixels, that is, 4 pixels adjacent to each other, from these manually input data as shown in FIG. -fetch and latch d3.

アドレス発生回路108は、第2図に示したラスタスキ
ャンの進行に応じてX座標及びY座標を発生させる。こ
の回路は発生させた座標を後述するラインメモリ105
、周辺判定回路109、並びに前方フラグメモリ106
に与えると共に、信号線8を通じて輪郭解析部43にコ
マンド列の一部として送出する。
Address generation circuit 108 generates X and Y coordinates in accordance with the progress of the raster scan shown in FIG. This circuit stores the generated coordinates in a line memory 105, which will be described later.
, peripheral determination circuit 109, and front flag memory 106
It is also sent to the contour analysis unit 43 via the signal line 8 as part of the command string.

ラインメモリ105はアドレス発生回路108が発生さ
けたY座標よりl小さいY座標、すなわち上記画素デー
タラッチlotがラッチした画素データd+、daのY
座標の画素データを画素データラッヂ+01の出力から
取り込み、順次配t@する。
The line memory 105 stores the Y coordinate l smaller than the Y coordinate generated by the address generation circuit 108, that is, the Y coordinate of the pixel data d+, da latched by the pixel data latch lot.
The pixel data of the coordinates is fetched from the output of the pixel data ludge +01 and sequentially distributed t@.

前方フラグメモリ+06はX座標の数と同じ数のアドレ
スを持ち(例えば、X座標の数が512のとき、このメ
モリのアドレスの数ら512)、画素データ内のある画
素に輪郭要素の前端が接続されかつその輪郭要素が他の
輪郭要素に接続されていないとき、その画素のX座標に
対応するアドレスに論理INのデータを書き込む。
The front flag memory +06 has the same number of addresses as the number of X coordinates (for example, when the number of When connected and the contour element is not connected to other contour elements, logical IN data is written to the address corresponding to the X coordinate of the pixel.

一方、後方フラグメモリ107も座標と同じ数のアドレ
スを持つが、このメモリには、ある画素に輪郭要素の後
端が接続されかつその輪郭要素が他の輪郭要素に接続さ
れていないとき、その画素のX座標に対応するアドレス
に論理NJのデータが書き込まれる。
On the other hand, the rear flag memory 107 also has the same number of addresses as the coordinates, but when the rear end of a contour element is connected to a certain pixel and that contour element is not connected to another contour element, Logical NJ data is written to the address corresponding to the X coordinate of the pixel.

接続フラグラッチ102は、前方フラグメモリ106、
後方フラグメモリ107および後述する接続フラグ変更
回路+04の出力データを、輪郭画素の接続状態を示す
データとして保持する。
The connection flag latch 102 has a forward flag memory 106,
Output data from the rear flag memory 107 and a connection flag change circuit +04, which will be described later, is held as data indicating the connection state of contour pixels.

周辺判定回路109は、アドレス発生回路108が発生
するX及びY座標をもとに、処理の対象となる4つの画
素d。−d3が、画面の境界からはみ出しているか否か
を判定する。画面の周囲から処理画素がはみ出している
場合には、所定の信号を画素データラッチ101および
接続フラグラッチ102に出力する。これらのラッチは
、この信号を受は取ると、画面の境界からはみ出した画
素 □については、強制的に白画素(背景となる画素)
とする。
The peripheral determination circuit 109 selects four pixels d to be processed based on the X and Y coordinates generated by the address generation circuit 108. Determine whether -d3 protrudes from the boundaries of the screen. If the pixel to be processed protrudes from the periphery of the screen, a predetermined signal is output to the pixel data latch 101 and the connection flag latch 102. When these latches receive this signal, pixels that protrude from the border of the screen (□) are forced to become white pixels (background pixels).
shall be.

コマンド発生回路+03は画素データラッヂlO1が出
力する4つの画素データ及び接続フラグラッチ102が
出力するフラグデータをらとに輪郭追跡を行うための所
定のコマンドを輪郭解析部43に対して発生する。コマ
ンド発生回路103はこのとき、処理を実施する必要が
あるか否かを示す読み出しレディ信号を信号線6を通じ
て、また前記接続・パターンコードを信号線7を通じて
輪郭解析部43に送る。
The command generation circuit +03 generates a predetermined command to the contour analysis section 43 for contour tracing based on the four pixel data outputted by the pixel data latch lO1 and the flag data outputted by the connection flag latch 102. At this time, the command generation circuit 103 sends a read ready signal indicating whether or not processing needs to be performed to the contour analysis unit 43 via the signal line 6 and the connection/pattern code via the signal line 7.

接続フラグ変更回路!04は、輪郭解析部4゜が上記コ
マンドに従って処理を実施した後、画素の接続状態が変
化するので、処理後の接続フラグ°を、画素データラッ
チ+01と接続フラグラッチ102の出力データとをも
とに求め、而方フラグメモリ106、後方フラグメモリ
107、並びに接続フラグラッチ!02に出力する。
Connection flag change circuit! In 04, after the contour analysis unit 4° performs processing according to the above command, the pixel connection state changes, so the connection flag after processing is based on the pixel data latch +01 and the output data of the connection flag latch 102. Therefore, the flag memory 106, the rear flag memory 107, and the connection flag latch! Output to 02.

次に第15図に示す回路の動作を説明する。アドレス発
生回路108は、ラスタスキャンの進行に従って、最も
新しくサンプリングされ、信号線5から入力された画素
データに対応するX及びYアドレスを発生させ、出力す
る。
Next, the operation of the circuit shown in FIG. 15 will be explained. The address generation circuit 108 generates and outputs X and Y addresses corresponding to the most recently sampled pixel data input from the signal line 5 as the raster scan progresses.

画素データラッチ101は、ラスタスキャンによってサ
ンプリングされた画素データが信号線5から入力される
と、ラインメモリ105からの画素データと共にこれら
を順次受は取り、第12図に示すような2画素×2画素
、すなわち互いに隣接する4画素のデータd0〜d3を
ラッチする。
When pixel data sampled by raster scanning is input from the signal line 5, the pixel data latch 101 sequentially receives them together with the pixel data from the line memory 105, and collects the pixel data as shown in FIG. Data d0 to d3 of pixels, that is, four pixels adjacent to each other, are latched.

ラインメモリ105は、画素データラッチ101が出力
する画素データd1を取り込むことによって一行面の画
素データ、すなわちYアドレスが現在信号線5から人力
されている画素データd。
The line memory 105 takes in the pixel data d1 output by the pixel data latch 101 to obtain one row of pixel data, that is, the pixel data d whose Y address is currently input manually from the signal line 5.

のYアドレスより1小さい行の画素データを一行分記憶
している。そして、信号線5から画素データd。、dl
が画素データラッチ101に順次入力されたとき、ライ
ンメモリ105は、アドレス発生回路108が出力する
上記アドレスデータをもとに、画素データdt、dsを
順次同ラッチに出力する。これにより、画素データラッ
チ101は隣接する4つの画素データd6〜d3をラッ
チすることができる。
One row of pixel data that is one row smaller than the Y address of is stored. Then, pixel data d is transmitted from the signal line 5. ,dl
are sequentially input to the pixel data latch 101, the line memory 105 sequentially outputs the pixel data dt and ds to the same latch based on the address data output from the address generation circuit 108. Thereby, the pixel data latch 101 can latch four adjacent pixel data d6 to d3.

接続フラグ変更回路104は、上記画素データd6〜d
2と接続フラグラッチ102の出力データとをらとに、
4つの接続フラグデータを発生する。
The connection flag changing circuit 104 converts the pixel data d6 to d
2 and the output data of the connection flag latch 102,
Generates four connection flag data.

4つのデータの内、二つは第13図に示す接続フラグの
上側2コマに相当する前方接続フラグデータ、池の二つ
は下側2コマに相当する後方接続フラグデータである。
Of the four pieces of data, two are forward connection flag data corresponding to the upper two frames of the connection flag shown in FIG. 13, and the two at the bottom are backward connection flag data corresponding to the lower two frames.

接続フラグデータ及びその発生について第16図を用い
て詳しく説明する。画面Pには例として二つの画像A、
Bか示されており、これらの画像は○が書き込まれた画
素によってそれぞれ構成されている。図中、太線で囲ん
だ4つの画像が現在、輪郭追跡処理の対象となっている
画素である。
Connection flag data and its generation will be explained in detail using FIG. 16. For example, there are two images A on screen P,
B is shown, and each of these images is composed of pixels on which a circle is written. In the figure, the four images surrounded by thick lines are the pixels currently targeted for contour tracking processing.

一方、画面Pの上に示したRは各X座標の前方接続フラ
グデータ、Tは各X座標の後方接続フラグデータをそれ
ぞれ表わしている。各データは座標の順に描かれており
、右のものほどそのX座標は大きい。そして、空白のも
のはフラグデータの値が「0」、■が書き込まれている
ものは値がrlJであることを示す。
On the other hand, R shown on the screen P represents forward connection flag data of each X coordinate, and T represents backward connection flag data of each X coordinate. Each piece of data is drawn in the order of coordinates, and the right side has a larger X coordinate. A blank field indicates that the value of the flag data is "0", and a blank field indicates that the flag data value is rlJ.

具体的に説明すると、画素elには輪郭要素Caの後端
が接続されているのでこの画素のX座標の後方接続フラ
グデータTlは「1」となっている。逆に、画素e2に
は輪郭要素cbの前端が接続されているのでそのX座標
の前方接続フラグデータR2はrlJとなっている。同
様に、画素e3に対応する後方接続フラグデータT4は
rlJ、画素e4に対応する前方接続フラグデータR4
も「1」となっている。その他のフラグデータは、対応
する画素に輪郭要素が接続されていないので、すべて「
0」となっている。
Specifically, since the rear end of the contour element Ca is connected to the pixel el, the rear connection flag data Tl of the X coordinate of this pixel is "1". Conversely, since the front end of the contour element cb is connected to the pixel e2, the forward connection flag data R2 at its X coordinate is rlJ. Similarly, backward connection flag data T4 corresponding to pixel e3 is rlJ, and forward connection flag data R4 corresponding to pixel e4.
is also "1". All other flag data are "
0".

これら前方及び後方接続フラグデータは、それぞれ前方
フラグメモリ106及び後方フラグメモリ107のX座
標に対応する所定のアドレスに、後述のように接続フラ
グ変更回路104によって書き込まれる。
These forward and backward connection flag data are written to predetermined addresses corresponding to the X coordinates of the forward flag memory 106 and the backward flag memory 107, respectively, by the connection flag change circuit 104 as described later.

第16図中太線で囲まれた4つの画素が処理の対象とな
っているとき、前方フラグメモリ106及び後方フラグ
メモリ107はそれぞれ、左側の処理対象画素のX座標
に対応する接続フラグデータR2,T2を出力する。一
方、接続フラグ変更回路104は、右側の処理対象画素
のX座標に対応する接続フラグデータR3,T3を出力
する。
When the four pixels surrounded by thick lines in FIG. 16 are the targets of processing, the front flag memory 106 and the rear flag memory 107 respectively store connection flag data R2, Output T2. On the other hand, the connection flag change circuit 104 outputs connection flag data R3, T3 corresponding to the X coordinate of the processing target pixel on the right side.

接続フラグラッチ102はこれらをラッチし、コマンド
発生回路103と接続フラグ変更回路104とに出力す
る。
Connection flag latch 102 latches these and outputs them to command generation circuit 103 and connection flag change circuit 104.

接続フラグ変更回路104は上記4ビツトの接続フラグ
データ及び画素データラッチ!01からの画素データd
0〜d3を受は取り、輪郭要素追跡処理後のフラグデー
タを求める。すなわち、追跡処理によって、画素e2に
は、第17図に示すように、輪郭要素cbに次の輪郭要
素Ccが接続されるので、接続フラグ変更回路104は
、前方接続フラグデータR2を「0」とし、前方接続フ
ラグデータR3を「!」とする。後方接続フラグデータ
については、輪郭要素の後端が単独で存在しない状態が
継続されているので変更は行わない。
The connection flag changing circuit 104 latches the 4-bit connection flag data and pixel data! Pixel data d from 01
0 to d3 are taken and the flag data after contour element tracking processing is obtained. That is, as shown in FIG. 17, the next contour element Cc is connected to the contour element cb in the pixel e2 through the tracking process, so the connection flag change circuit 104 sets the forward connection flag data R2 to "0". and forward connection flag data R3 is set to "!". The rear connection flag data is not changed because the rear end of the contour element continues to be in a state where it does not exist independently.

接続フラグ変更回路!04は上記変更処理後のフラグデ
ータR2,T2を前方フラグメモリ106及び後方フラ
グメモリ107の所定のアドレスに記憶させ、変更処理
後のフラグデータR3,T3を接続フラグラッチ102
に出力してラッチさせ、次の処理に備える。
Connection flag change circuit! 04 stores the flag data R2, T2 after the above modification process in the predetermined addresses of the front flag memory 106 and the rear flag memory 107, and stores the flag data R3, T3 after the modification process in the connection flag latch 102.
It is output to and latched in preparation for the next processing.

そしてコマンド発生回Q 103では、画素デークラッ
チ101からの画素データd。−d3及び接続フラグラ
ッチ102からの4ピツトのフラグデータをもとに、接
続・パターンコードを発生すると共に、2画素×2画素
の画素データのうち下側二つのデータd。、dlも出力
し、これらコードが信号線7を介して輪郭解析部43に
与えられる。
Then, at the command generation time Q103, the pixel data d from the pixel data latch 101. -d3 and the 4-pit flag data from the connection flag latch 102, a connection/pattern code is generated, and the lower two data d of the 2 pixels x 2 pixels pixel data. , dl are also output, and these codes are given to the contour analysis section 43 via the signal line 7.

更にコマンド発生回路103は読み出しレディコードを
信号線6に出力し、接続・パターンコードが第1θ図、
第11図の○印、またはΔ印に相当するものであるとき
には、読み出しレディコードをNJとする。また周辺判
定回路109には信号線9を通じて1頁の終わりを示す
EOP信号及び1ラインの終わりを示すEOrt信号が
人力され、この結果ここから信号線6にEOPコード及
びEORコードが出力される。こうして信号線6には、
アドレス発生回路108よりの画素データのX座標を示
す座標コードと共にEOPコード及びEOr?コードが
与えられ、これらコードが輪郭解析部4.に与えられる
Furthermore, the command generation circuit 103 outputs a read ready code to the signal line 6, and the connection/pattern code is as shown in FIG.
When the code corresponds to the mark ○ or the mark Δ in FIG. 11, the read ready code is set to NJ. Further, an EOP signal indicating the end of one page and an EOrt signal indicating the end of one line are input to the peripheral determination circuit 109 through the signal line 9, and as a result, an EOP code and an EOR code are outputted from there to the signal line 6. In this way, the signal line 6 has
Along with the coordinate code indicating the X coordinate of the pixel data from the address generation circuit 108, the EOP code and EOr? The codes are given to the contour analyzer 4. given to.

以上において、上述実施例のように第1O図。In the above, FIG. 1O as in the above-mentioned embodiment.

第11図に示す組み合わせに応じて読み出しレディコー
ドを発生させれば孤立画素をノイズとして除去できる利
点がある。即ち孤立画素に対して発生する画素データの
パターンは第18図(イ)〜(ニ)のように4種類ある
が、この場合この画素に対しては輪郭要素の接続は存在
しないので、読み出しレディコードは「0」となり、従
って輪郭解析KS43では処理が行われていないからで
ある。
Generating read ready codes according to the combinations shown in FIG. 11 has the advantage that isolated pixels can be removed as noise. In other words, there are four types of pixel data patterns generated for an isolated pixel, as shown in FIGS. This is because the code is "0" and therefore no processing is performed in the contour analysis KS43.

°ただしランレングス化を実施する場合には第18図(
イ)、(ロ)のパターンのときに読み出ししデイコード
は「1」となるが、輪郭追跡処理とは無関係である。
°However, when implementing run length conversion, see Figure 18 (
In the case of patterns (a) and (b), the read day code is "1", but this has nothing to do with the contour tracking process.

ここで輪郭解析部43の第1の処理部43Aで行われる
処理を第19図〜第23図を参照しながら説明する。先
ず第19図に示すようにYアドレスをOとした後コマン
ド列を取り込み、このコマンド列の中にEOPの指示が
されている場合には処理を終了し、指示がされていない
場合にはFORの指示がされているか否かを判断する。
Here, the processing performed by the first processing section 43A of the contour analysis section 43 will be explained with reference to FIGS. 19 to 23. First, as shown in Figure 19, after setting the Y address to O, a command string is fetched, and if an EOP instruction is included in this command string, the process is terminated, and if there is no instruction, a FOR is executed. Determine whether or not the instructions have been given.

FORの指示がされている場合にはYアドレスを一つ加
算してコマンド列を取り込み、指示がされていない場合
には内部メモリ4.内の第1のテーブル格納部に格納さ
れている各テーブル(第3図〜第5図及び第26図参照
)を更新する。
If a FOR instruction is given, the Y address is added by one and the command string is fetched; if a FOR instruction is not given, the internal memory 4. Each table stored in the first table storage section (see FIGS. 3 to 5 and FIG. 26) is updated.

各テーブルの更新のフローは第20図に示すようであり
、同図中のステップST、−5T3は以下の通りである
The flow of updating each table is as shown in FIG. 20, and steps ST and -5T3 in the figure are as follows.

ST、・・・輪郭要素が単独で新たに発生しているか否
かの判断を行う。
ST, . . . It is determined whether a single contour element has newly occurred.

ST、・・・輪郭要素が発生すると同時に既に存在して
いる輪郭要素と接続されるか否かの判断を行う。
ST, . . . When a contour element is generated, it is determined whether or not it is connected to an already existing contour element.

STs・・・既に発生している二つの輪郭要素の端部が
2画素×2画素の画像データの中に存在するか否かの判
断を行う。
STs: It is determined whether or not the ends of two contour elements that have already occurred exist in the 2 pixel x 2 pixel image data.

次いで第20図中の処理1〜3の内容について述べると
、処理1では第21図に示すようにステップST、−S
T、が実行される。各ステップST。
Next, to describe the contents of processes 1 to 3 in FIG. 20, in process 1, steps ST and -S are performed as shown in FIG.
T is executed. Each step ST.

〜ST、は以下の通りである。~ST, is as follows.

ST、・・・第3図に示す輪郭要素テーブル及び第4図
に示す輪郭管理テーブルにて輪郭要素番号Ctと輪郭番
号Siとを新たに確保する。
ST, . . . new contour element numbers Ct and contour numbers Si are secured in the contour element table shown in FIG. 3 and the contour management table shown in FIG. 4.

S T t・・・輪郭要素テーブルのCi番目の方向、
座標の欄に該当事項を、接続要素番号の曲刃接続及び後
方接続の両側にN0NE (該当するものがないことを示すコード)を、所属輪郭
番号の欄にSiを夫々書き込む。
S T t...Ci-th direction of the contour element table,
Write the relevant information in the coordinate column, N0NE (a code indicating that there is no corresponding item) on both sides of the curved blade connection and rear connection of the connection element number, and Si in the affiliated contour number column.

STs・・・輪郭管理テーブルのSt番目の先端の輪郭
要素番号及び終端の輪郭要素番号の両側にCiを書き込
む。
STs...Ci is written on both sides of the St-th tip contour element number and end contour element number of the contour management table.

S T 4・・・第5図に示す輪郭接続テーブルの前方
接続及び後方接続の該当する欄に夫々Ciを書き込む。
S T 4...Write Ci in the corresponding columns of the front connection and rear connection of the contour connection table shown in FIG. 5, respectively.

処理2では第22図に示すようにステップS T r〜
STaが実行される。各ステップST、〜STsは以下
の通りである。
In process 2, as shown in FIG.
STa is executed. Each step ST, to STs is as follows.

ST、・・・輪郭要素テーブルにて輪郭要素番号Ciを
新たに確保する。
ST, . . . New contour element number Ci is secured in the contour element table.

S T z・・・輪郭接続テーブルの該光測から接続先
の輪郭要素番号Cjを求め、当該欄をll0NEに書き
換える。
S T z...Determine the contour element number Cj of the connection destination from the photometry in the contour connection table, and rewrite the column to ll0NE.

STa・・・輪郭要素テーブルのCj番目の前方接続及
び後方接続の欄の該当する方にCiを書き込むと共に所
属輪郭番号の欄から Cjが属する輪郭番号Skを求める。
STa...Ci is written in the corresponding Cj-th forward connection and backward connection columns of the contour element table, and the contour number Sk to which Cj belongs is determined from the belonging contour number column.

ST、・・・輪郭要素テーブルのCi番目の方向、座標
の欄に該当する事項を、前方接続及び後方接続の欄の該
当する方にCjを、他方にN0NEを、所属輪郭番号欄
にSkを夫々書き込む。
ST,...In the Ci-th direction and coordinate column of the contour element table, enter Cj in the corresponding column of forward connection and backward connection, N0NE in the other column, and Sk in the belonging contour number column. Write each.

ST、・・・輪郭管理テーブルのSk番目の先端の輪郭
要素番号及び終端の輪郭要素番号の欄のうち該当する方
をCiに書き換える。
ST, . . . Rewrites the corresponding one of the Sk-th tip contour element number and end contour element number columns of the contour management table to Ci.

S T s・・・輪郭接続テーブルの該当する欄にCi
を書き込む。
S T s...Ci in the corresponding column of the contour connection table
Write.

処理3では、第23図に示すようにステップST、−9
T@が実行される。各ステップST、〜STaは以下の
通りである。
In process 3, as shown in FIG.
T@ is executed. Each step ST to STa is as follows.

S T +・・・輪郭接続テーブルの該光測から接続の
対象となる二つの輪郭要素Ci、Cjを求め、当該側を
N0NEに書き愕える。
S T +... Two contour elements Ci and Cj to be connected are obtained from the photometry of the contour connection table, and the relevant side is written as N0NE.

ST、・・・輪郭要素テーブルのCi番目の前方接続及
び後方接続の両側のうち該当する方にCjを古き込むと
共に所属輪郭番号の欄からCiが所属する輪郭番号Sk
を求める。
ST,...Insert Cj into the applicable one of both sides of the Ci-th forward connection and backward connection in the contour element table, and set the contour number Sk to which Ci belongs from the column of belonging contour number.
seek.

S T 3・・・輪郭要素テーブルのCj番目の前方接
続及び後方接続の両側のうち該当する方にCiを書き込
むと共に所属輪郭番号の欄からCjが所属する輪郭番号
SQを求める。
S T 3...Write Ci to the appropriate one of both sides of the Cj-th forward connection and backward connection in the contour element table, and find the contour number SQ to which Cj belongs from the column of belonging contour number.

ST、・・・Skと1とが同じ番号か否か判断する。ST, . . . determines whether Sk and 1 are the same number.

S T s・・・輪郭管理テーブルのSk番目の先端の
輪郭要素番号及び終端の輪郭要素番号のうち接続の対象
となっていない方の輪郭要素番号Cmを求め、Sk番目
の各欄を N0NE、に書き換える。
S T s...Find the contour element number Cm of the Skth tip contour element number and the end contour element number that are not subject to connection in the contour management table, and set each column of the Skth column to N0NE, Rewrite it to .

S T s・・・輪郭管理テーブルのSQ番目の先端の
輪郭要素番号及び終端の輪郭要素番号のうち接続の対象
となっている端部側の欄をCmに書き換える。
S T s... Of the SQth tip contour element number and end contour element number of the contour management table, the column on the end side to be connected is rewritten to Cm.

第24図は上記の処理1〜3と2画素×2画素の画素デ
ータの取り出し位置との関係を示す図であり、同図中数
字は輪郭要素の番号、点線の四角形は画素データ、黒点
は黒画素を夫々示す。画素データD、に対して生成され
たコマンド列の処理は処理lに該当し、画素データDt
に対して生成されたコマンド列の処理は処理2に該当す
る。また画素データD、、D、に対して生成されたコラ
ン1列は夫々処理3におけるSkとS(2が等しい場合
及び異なる場合に相当する。
FIG. 24 is a diagram showing the relationship between the above-mentioned processes 1 to 3 and the extraction position of 2 pixels x 2 pixels of pixel data. In the figure, the numbers are the numbers of contour elements, the dotted rectangles are pixel data, and the black dots are Each black pixel is shown. The processing of the command sequence generated for the pixel data D corresponds to processing l, and the processing of the command string generated for the pixel data Dt
The processing of the command string generated for this corresponds to processing 2. Further, one column of columns generated for the pixel data D, ,D corresponds to the cases where Sk and S(2 are equal and different) in process 3, respectively.

次いで輪郭解析部43の第2の処理部43Bで行われる
処理について説明すると、この処理の中にはランレング
スベクトル情報を作成する処理と一次元符号化方式の符
号語を作成する処理とが含まれる。
Next, the processing performed by the second processing section 43B of the contour analysis section 43 will be explained. This processing includes processing for creating run-length vector information and processing for creating code words for a one-dimensional encoding method. It will be done.

先ずランレングスベクトル情報を作成する処理について
述べると、例えばY座1fi−Yiであるライン上に第
25図に示すような画素パターンが存在する場合、■、
■の位置におけるX座標を夫々Xi、Xjとすると、X
座標がXiである2画素×2画素の画素データを取り込
んだときには第14図に示すコマンド列のA3.A4は
夫々“0”。
First, we will discuss the process of creating run-length vector information. For example, if a pixel pattern as shown in FIG. 25 exists on the line Y 1fi-Yi,
If the X coordinates at the position of ■ are Xi and Xj, respectively, then
When pixel data of 2 pixels x 2 pixels whose coordinates are Xi is imported, A3. of the command string shown in FIG. A4 is "0" respectively.

“1”となり、またX座標がXjである2画素×2画素
のデータを取り込んだときにはA3.A4は夫々“l”
、“0“となる。従って黒ランの始点及び終点を認識す
ることができ、ランレングスベクトル情報である黒ラン
の始点座標とその長さとを得ることができる。第25図
の例では黒ランの始点X座標はxi1終点X座標はXj
−1であるから、黒ランの長さは)(j−1−Xi+1
=Xj−Xiとなる。
"1", and when data of 2 pixels x 2 pixels with the X coordinate of A4 is “l” respectively
, becomes "0". Therefore, the start point and end point of the black run can be recognized, and the start point coordinates and length of the black run, which are run length vector information, can be obtained. In the example of Fig. 25, the starting point X coordinate of the black run is xi1, and the ending point X coordinate is Xj.
-1, so the length of the black run is )(j-1-Xi+1
=Xj-Xi.

このような処理の具体例を第26図を参照しながら説明
すると、先ず輪郭抽出部4.からのコマンド列の読み取
りに際してYアドレス(Y座標)をY=0に設定しくS
l)、被写体の当該ページの第1ラインを設定してお(
。次に、コマンド列(輪郭コマンド)を読み出しレディ
コードがrlJであるときに取り込み(S 2) 、信
号EOPビットが“l”か“0“かの判定を行う(S3
)。この判定は被写体画像の1ページの終わりか否かを
チエツクし、EOP−“l“のときには当該ページの処
理を終了する。
A specific example of such processing will be explained with reference to FIG. 26. First, the outline extraction section 4. When reading the command string from S, set the Y address (Y coordinate) to Y=0.
l), set the first line of the page of the subject (
. Next, the command string (contour command) is read out and taken in when the ready code is rlJ (S2), and it is determined whether the signal EOP bit is "l" or "0" (S3).
). In this determination, it is checked whether or not it is the end of one page of the subject image, and when EOP-"l", the processing of the page is ended.

ステップS3において、EOP−“0”になるとき、信
号EO1’tビットが“l”か“0”かの判定を行う(
S4)、この判定は画像の1ライン(ROW)の終わり
か否かをチエツクし、FOR−“!“のときには当該ラ
インの処理を終了してYアドレスの+1加算を行い(S
5)、ステップS2に戻って次のラインからのコマンド
列取り出しに入る。ステップS4において、F OR=
“0”のとき、符号e In e o (第14図のコ
ードのA 3 。
In step S3, when EOP becomes "0", it is determined whether the signal EO1't bit is "l" or "0" (
S4), this judgment checks whether it is the end of one line (ROW) of the image, and when FOR-“!”, the processing of the line is finished and the Y address is incremented by +1 (S4).
5) Return to step S2 to begin extracting the command string from the next line. In step S4, F OR=
When it is “0”, the code e In e o (A 3 of the code in FIG. 14).

A4に対応する)について判定を行う(S6)。(corresponding to A4) is determined (S6).

この判定は、eo−“0”かつel=“I”をチエツク
し、この条件成立では黒ランの始まりになり、このとき
のX座標データから1ラインのに番目の黒ラン始点座標
XB、(K)を求め(S7)、ステップS4に戻る。
This judgment is made by checking eo-“0” and el=“I”, and if this condition is met, it is the beginning of a black run, and from the X coordinate data at this time, the second black run starting point coordinates XB, ( K) is obtained (S7), and the process returns to step S4.

ステップS6で条件不成立のとき、このときは黒ラン又
は白ランの途中もしくは黒ランの終点にあり、符号e。
If the condition is not satisfied in step S6, then the position is in the middle of the black run or white run, or at the end of the black run, and the code is e.

−“l“かっel−“0”をチエツクしくS8)、この
チエツクで条件不成立のときには黒ラン又は白ランの途
中にあってステップS4に戻る。
- "l" - "0" is checked (S8), and if the condition is not satisfied in this check, it is in the middle of a black run or a white run, and the process returns to step S4.

ステップS8で条件が成立するとき、このときは黒ラン
の終点(白ランの始点)にあり、このときのX座標デー
タからに番目の黒ラン終点座標XB、(K)を求める(
S9)。この黒ラン終点座標XB、(K)とその前にス
テップS7で求めておいた黒ラン始点座標XB、(K)
から黒ランの長さL (−XB、(K)−xa、(K)
)を求め、この長さデータLを黒ラン始点座標X。(K
)と対応づけて主メモリ9に記憶しくS 10) 、再
びステップS4に戻って黒ランの始点座標と長さの検出
記憶を行うという処理を繰り返し、この処理をページ終
了まで行う。
When the condition is satisfied in step S8, it is at the end point of the black run (starting point of the white run), and the coordinates XB, (K) of the end point of the black run are calculated from the X coordinate data at this time (
S9). This black run end point coordinate XB, (K) and the black run start point coordinate XB, (K) obtained previously in step S7
Length of black run from (-XB, (K) -xa, (K)
), and use this length data L as the black run starting point coordinates X. (K
) is stored in the main memory 9 in association with S10), and the process returns to step S4 again to detect and store the starting point coordinates and length of the black run, and this process is repeated until the end of the page.

このような処理により、各ラインについて黒ランの始点
座標とその長さを黒ランの存在する個数分だけ順次記憶
し、これを主メモリ9のテーブルデータとしておく。第
27図はメモリ4に格納する画像データテーブルを示し
、ライン番号(Y座標)と黒ラン始点X座標とその長さ
しを夫々対応づけて記憶する。
Through such processing, the starting point coordinates and lengths of black runs for each line are sequentially stored as many as the number of black runs, and this is stored as table data in the main memory 9. FIG. 27 shows an image data table to be stored in the memory 4, in which the line number (Y coordinate), the X coordinate of the black run starting point, and its length are stored in association with each other.

次に一次元符号化処理について述べると、この処理はM
H符号化処理とも呼ばれ、白ランの長さを符号化した符
号語と黒ランの長さを符号化した符号語とを順次並べて
記憶する処理である。そしてIライン上の最初の符号語
は必ず白ランより始まる−万、Iラインの最後には必ず
ライン終端符号が付加され、これによりライン単位の符
号化が行われる。
Next, we will discuss the one-dimensional encoding process.
This is also called H encoding processing, and is a process in which a code word that encodes the length of a white run and a code word that encodes the length of a black run are sequentially arranged and stored. The first code word on the I line always starts with a white run, and a line end code is always added to the end of the I line, thereby performing line-by-line encoding.

■ライン中には白ランと黒ランとが交互に出現するため
、■ラインのに番目の黒ランをBKとし、この黒ランの
直前の白ランをWKとすれば、Wo、 Bo、’ WI
、 B 1”’、 Wx、 Bx”’のランが得られて
いることになる。最初に黒ランBoがあるときには、長
さOの白ランB。が存在するものとして扱われる。Bに
の長さ12s (K )は、S6の始終点X、、(K)
、XB、(K)から計算され、この始終点はランレング
スベクトル情報を得る場合と同様にして求められる。
■Since white runs and black runs appear alternately in the line, ■If the next black run on the line is BK, and the white run immediately before this black run is WK, then Wo, Bo,' WI
, B 1"', Wx, Bx"' runs are obtained. When there is a black run Bo first, there is a white run B of length O. is treated as existing. The length 12s (K) of B is the start and end point of S6, , (K)
,

またWKの長さffw (K )は、WKの始終点のX
座標をX、、(K)、X、。(K)とすれば次のように
して求まる。
In addition, the length of WK ffw (K) is the starting and ending point of WK
Let the coordinates be X, ,(K),X,. (K), it can be found as follows.

実際には、輪郭コマンドが発生し、黒ランの始終点及び
長さが求まった時点で、白ランの始終点及び長さを求め
ればよく、逐次的に、コマンドの発生を見ながら処理で
きる。
In reality, when an outline command is generated and the start and end points and length of the black run are found, the start and end points and length of the white run can be found, and processing can be performed sequentially while watching the commands being generated.

このような処理の具体例を第28図を参照しながら説明
する。先ずコマンド列を読み出しレディコードが“1”
になるときに取り込み(Sl)、信号EOPビットが“
ビか“0”かの判定を行う(S2)。この判定は被写体
画像の1ページの終わりか否かをチエツクし、EOP−
“1”のときにはMH方式に規定される6つの連続する
ライン終端符号語を付加する処理(S3)を行って当該
ページの符号化を終了する。
A specific example of such processing will be explained with reference to FIG. 28. First read the command string and the ready code is “1”
is captured (Sl) when the signal EOP bit becomes “
A determination is made as to whether the flag is "0" or "0" (S2). This judgment checks whether it is the end of one page of the subject image, and
When it is "1", the process (S3) of adding six consecutive line end code words defined in the MH system is performed, and the encoding of the page is finished.

次に、ステップS2において、EOP=“0”になると
き、信号FORビットが“1”が“0”かの判定を行う
(S4)。この判定は画像の1ライン(ROW)の終わ
りか否かをチエツクし、FOR−“l”のときにはライ
ン終端符号語を付加する処理(S5)を行って次のライ
ン読み込みのためにステップSlに戻る。ステップS4
において、EOR−“0”なるとき、符号e。+e1(
第14図のA3.A、に相当する)について判定を行う
(S6)。
Next, in step S2, when EOP="0", it is determined whether the signal FOR bit is "1" or "0" (S4). This judgment is made by checking whether it is the end of one line (ROW) of the image, and when FOR-“l”, a process of adding a line end code word (S5) is performed, and the process returns to step Sl for reading the next line. return. Step S4
, when EOR-“0”, the code is e. +e1(
A3 in Figure 14. A) is determined (S6).

この判定は、eo=“0”かつel=“1”をチエツク
し、この条件成立では黒ランの始まりになり、このとき
のX座標データから1ラインのに番目の黒ラン始点座I
X、、(K)を求めておく(S7)。また、条件不成立
ではe。−“1”かっel”“0”の判定を行い(S8
)、この条件不成立ではステップSlに戻る。
This judgment is made by checking eo = "0" and el = "1". If these conditions are satisfied, it is the beginning of a black run, and from the X coordinate data at this time, the black run starting point I is on the 1st line.
Find X, , (K) (S7). Also, if the condition is not satisfied, e. - Determine “1” or “0” (S8
), if this condition is not satisfied, the process returns to step Sl.

ステップS7で黒ラン始点座標XB、(K)が求まり、
このX座標から黒画素が連続してステップS8で条件が
成立したとき、黒ランの終点X B、(K )をそのと
きのX座標データから求めると共に黒ランの始点X8.
(K)と終点XB、(K)とのX座標差演算によって黒
ランの長さ&、(K )を求め(S9)、このに番目の
黒ランについてMH方式による黒うン符号語を作成する
(SIO)。
In step S7, the black run starting point coordinates XB, (K) are determined,
When black pixels continue from this X coordinate and the condition is met in step S8, the end point XB, (K) of the black run is determined from the X coordinate data at that time, and the starting point X8.
The length of the black run &, (K) is calculated by calculating the X coordinate difference between (K) and the end point (SIO).

次に、ステップS7で黒ラン始点XB、(K)を求めた
とき、この黒ラン始点X、、(K)は白ランの終点XW
、(K)に相当し、またステップS9で求めた黒ラン終
点X8.(K)は白ランの始点Xw。
Next, when the black run starting point XB, (K) is determined in step S7, the black run starting point X, , (K) is the ending point XW of the white run.
, (K), and corresponds to the black run end point X8. obtained in step S9. (K) is the starting point Xw of the white run.

(K)に相当する。これらの座標から白ランの始点X、
、(K)と終点Xw。(K)とその長さ&、(K)を求
め(Sll)、白ラン符号語の作成を行う(S 12)
Corresponds to (K). From these coordinates, start point X of the white run,
, (K) and the end point Xw. Find (K) and its length &, (K) (Sll) and create a white run code word (S12)
.

このような処理により、各ラインについて白ランと黒ラ
ンが交互に存在する個数に分だけ夫々符号語を作成し、
ファクシミリ伝送データを得る。
Through this process, codewords are created for each line as many times as there are alternately white runs and black runs, and
Obtain facsimile transmission data.

次いで輪郭解析部43の第3の処理部43Cで行われる
処理を第29図及び第30図を参照しながら説明する。
Next, the processing performed by the third processing section 43C of the contour analysis section 43 will be explained with reference to FIGS. 29 and 30.

第29図は主メモリ9に格納された輪郭ベクトル系列テ
ーブルを示し、このテーブルには、第3の処理部43C
によって後述する輪郭ベクトル群が記載される。第29
図中輪郭ベクトル系列番号とは各輪郭に与えられた符号
であり、始点座標とは輪郭ベクトルの始点座標である。
FIG. 29 shows a contour vector series table stored in the main memory 9.
A contour vector group, which will be described later, is described by . 29th
In the figure, the contour vector series number is a code given to each contour, and the starting point coordinates are the starting point coordinates of the contour vector.

輪郭ベクトルの抽出については、ある一つの輪郭を構成
する輪郭要素の例えば各始点P。(X、。
For extraction of contour vectors, for example, each starting point P of contour elements constituting one contour is extracted. (X,.

Yo)、P+(X+、Y+)−Pt(Xt、Y+) ・
・・Pn(X、、Yn)[ただしPoは輪郭追跡の始点
とする)が与えられたとき、始点からみて極大となる点
即ち下記条件lを満たすような点P8を極大点として検
索する。
Yo), P+ (X+, Y+) - Pt (Xt, Y+) ・
...When Pn(X,,Yn) [where Po is the starting point of contour tracing] is given, a point P8 that is the maximum from the starting point, that is, a point P8 that satisfies the following condition 1, is searched as the maximum point.

[(1”i−t≦1″+)n (1’t> l”t−+
)n (1″t≧I”th)]・・・条件ま ただし、11.はPoとP、の距離の2乗((1)式に
示す)、1″、はしきい値の2乗である。
[(1"i-t≦1"+)n (1't>l"t-+
)n (1″t≧I″th)]...conditions apply, 11. is the square of the distance between Po and P (shown in equation (1)), and 1'' is the square of the threshold value.

1”1=(X+  Xo)’+ (Y+  Yo)″ 
・・・(1)第30図aは始点P0に対する極大点P、
を求める様子を示した図であり、この極大点Ptを求め
た後始点P0と極大点P□とを結ぶ直線から最大距離に
ある点qをP。−P、の中から求め、この点qと始点P
。とを結ぶ直線から最大距離にある点q′を求め、順次
同様の処理を繰り返す。そして最大距離がしきい値以下
になったならばその前の点Q即ち当該最大距離に位置す
る点の前に求めた点Qと始点P0とを結ぶべクトルを輪
郭ベクトルとして抽出する。
1"1=(X+Xo)'+(Y+Yo)"
...(1) Figure 30a is the maximum point P with respect to the starting point P0,
After finding the maximum point Pt, P is the point q that is at the maximum distance from the straight line connecting the starting point P0 and the maximum point P□. −P, and find this point q and the starting point P
. Find the point q' that is at the maximum distance from the straight line connecting them, and repeat the same process in sequence. Then, when the maximum distance becomes less than the threshold value, a vector connecting the previous point Q, that is, the point Q found before the point located at the maximum distance, and the starting point P0 is extracted as a contour vector.

第30図すは前記点qを求める様子を示す図であり、同
図に示した点Q +*lは、d1□いかしきい値よりも
小さければ、即ち次の条件2を満足しないならば上記の
点Qになる。
Figure 30 is a diagram showing how to find the point q, and if the point Q + *l shown in the figure is smaller than d1□ or the threshold value, that is, if the following condition 2 is not satisfied, then the above becomes point Q.

l d l”、、、≧d l”th l  ・・・条件
まただし、d 1.、、 :各d1の最大値d l’P
ax=max[・・・、di”、、・・・]d1:線分
q+、q+□から各P点までの距離dlth:線分QI
+Qt、+の大きさによって変わるしきい値でd 1t
h−α・Lで与えられる。
l d l",,, ≧d l"th l...conditions d 1. ,, : Maximum value d l'P of each d1
ax=max[..., di",...] d1: Distance from line segment q+, q+□ to each P point dlth: Line segment QI
+Qt, d 1t with a threshold value that changes depending on the magnitude of +
It is given by h-α・L.

なお、αは係数で第30図Cに示す例で、例えば、αは
第30図Cのなるように値をテーブル化すればよい。こ
のようにすれば、図面中に含まれる大きさが極端に異な
る物(文字に対する接続線等)に対して対応がきく。ま
た、α−1,2・・・といった定数で持てば単純にLに
比例したしきい値となる。
Note that α is a coefficient and is an example shown in FIG. 30C. For example, α may be tabulated as shown in FIG. 30C. In this way, it is possible to deal with objects included in the drawing that are extremely different in size (such as connecting lines for characters). Moreover, if it is set to a constant such as α-1, 2, . . . , the threshold value becomes simply proportional to L.

次にdlの求め方の一例について第30図dを用いて述
べろ。
Next, describe an example of how to obtain dl using FIG. 30d.

−〉−〉−一一一一□□ラ  −−−−−→(q+qt
番1 ° Q  IP J)= IQ  IQ  l・
+llq  IP JlcOsOJ−(Xk XI)(
YJ  YI)+(Yh  YI)(XJ  Xi)こ
こでXk X+=dXh、YJ  Y+=dYa。
−〉−〉−1111□□ra −−−−−→(q+qt
Number 1 ° Q IP J) = IQ IQ l・
+llq IP JlcOsOJ-(Xk XI)(
YJ YI)+(Yh YI)(XJ Xi) where Xk X+=dXh, YJ Y+=dYa.

Yk Y+=dYk、XJ  XI”dX、+とおくと
上記式は次のようになる。
By setting Yk Y+=dYk, XJ XI"dX, +, the above equation becomes as follows.

一一−−−→ パ・l q IP 、 1”cos’θJ−一−−→ −(dXhXdY、++dYhXdXJ)”/l (1
+Q+zl ’dlj−l q+Pr1sinθ。
11−−−→ Pa・l q IP, 1”cos'θJ−1−−→ −(dXhXdY, ++dYhXdXJ)”/l (1
+Q+zl 'dlj-l q+Pr1sinθ.

d I j”=171”sin’θJ = l 7乞l
 ’−171 ”cosすJ+           
                −−→=I Q +
P、+l’ (d XkX d YJ+ d YhX 
d XJ)’/ l Q1q+−11’= d XJ”
d YJ’−(d XkX d Y、I”d YkXd
 XJ)”/ d Xk’d Yk’上記から、この例
によれば三角関数や平方根計算が省略できる。
d I j"=171"sin'θJ=l 7
'-171 "cos J+
−−→=I Q +
P, +l' (d XkX d YJ+ d YhX
d XJ)'/l Q1q+-11'= d XJ"
d YJ'-(d XkX d Y, I"d YkXd
XJ)''/d Xk'd Yk' From the above, according to this example, trigonometric functions and square root calculations can be omitted.

1述したように始点P。と点Qを結ぶ輪郭ベクトルを抽
出したならば、この点Qを始点として同様の処理を行う
ことにより前記輪郭ベクトルに続く新たな輪郭ベクトル
を求め、こうして得られた輪郭ベクトル群の各始点を第
29図に示すテーブルに格納する。
1. As mentioned above, the starting point P. After extracting the contour vector connecting point Q and point Q, a new contour vector following the contour vector is obtained by performing the same process using this point Q as the starting point, and each starting point of the group of contour vectors obtained in this way is 29 is stored in the table shown in FIG.

ここで輪郭ベクトル群の全長がしきい値以下であればノ
イズであると判断して輪郭ベクトル系列テーブルからそ
のベクトル群に係るデータを除去し、全長がしきい値を
越えていれば全長という情報を作成して、輪郭ベクトル
系列番号と対応させて第31図に示すように第2のテー
ブル格納部内の全長情報テーブルに記載する。このよう
なフローを第32図に示す。
Here, if the total length of the contour vector group is less than the threshold value, it is determined that it is noise, and data related to that vector group is removed from the contour vector series table, and if the total length exceeds the threshold value, information about the total length is determined. is created and written in the total length information table in the second table storage section as shown in FIG. 31 in correspondence with the contour vector sequence number. Such a flow is shown in FIG. 32.

H,発明の効果 本発明によれば、2画素×2画素の画素データに係る画
素と輪郭要素との接続関係、及びその画素データの黒白
の配列パターンを知ることにより輪郭要素の配列状態を
認識しており、前記接続関係についてはlライン前に取
り出した画素データに基づいて作成できるから、従来の
ように1画面分の画像データを記憶する方式に比べて大
幅に画像メモリを節約することができる。ここにライン
メモリは、一般的な16画素/laXの分解能において
AOサイズでも長尺方向で約19000ビツトであり、
たかだか数キロバイトらあればA4からAOサイズまで
をカバーできることになり、その程度のメモリを持つこ
とで画像サイズや解像度に影響されないハードウェア回
路を実現できる。
H. Effects of the Invention According to the present invention, the arrangement state of outline elements can be recognized by knowing the connection relationship between pixels and outline elements related to pixel data of 2 pixels x 2 pixels, and the black and white arrangement pattern of the pixel data. Since the connection relationship can be created based on pixel data taken out one line before, image memory can be saved significantly compared to the conventional method of storing image data for one screen. can. Here, the line memory has a general resolution of 16 pixels/laX and is approximately 19,000 bits in the longitudinal direction even in AO size.
A few kilobytes at most can cover sizes from A4 to AO, and having that much memory makes it possible to realize a hardware circuit that is not affected by image size or resolution.

またlラインのスキャニング時間を単位とじて処理を行
うため、1画面の入力時間とほぼ等しい時間(最大lラ
イン分の遅延時間)に輪郭を抽出できるため、従来方式
の処理時間に比べ大幅な高速処理が可能となった。
In addition, since processing is performed in units of l-line scanning time, contours can be extracted in approximately the same time as the input time for one screen (maximum l-line delay time), which is significantly faster than the processing time of conventional methods. processing is now possible.

更に輪郭抽出部からのコマンド列に基づいて、輪郭要素
毎に座標や、他の輪郭要素の接続関係等を記載したテー
ブル、及び輪郭の面後端に位置する輪郭要素を記載した
テーブルを作成し、これにより輪郭要素を線や図形とし
て意味を持つデータ列を得ているため、輪郭の取り出し
を系列単位に(輪郭をなす一つの閉じた線毎に)容易に
行うことができろ。そしてまたコマンド列の画素配列デ
ータと画素データの座標とからランレングスベクトル情
報やMH符号化データを作成しているため、データ解析
量を減らしながら圧縮率の高いデータが得られると共に
、ファクシミリデータを容易に作成することができる。
Furthermore, based on the command string from the contour extraction unit, a table is created in which the coordinates of each contour element, connection relationships with other contour elements, etc. are described, and a table in which the contour elements located at the rear end of the surface of the contour are described. As a result, a data string that has meaning as a contour element as a line or figure is obtained, so contours can be easily extracted in series units (for each closed line forming the contour). Furthermore, since run-length vector information and MH encoded data are created from the pixel array data of the command string and the coordinates of the pixel data, it is possible to obtain highly compressed data while reducing the amount of data analysis. can be easily created.

この池、輪郭ベクトルを用いることにより、原画に忠実
なベクトル化が行え、特に曲線部に対するベクトル化の
性能が良(なり、しかも拡大、t1M小1回転操作が容
易に行うことができる。
By using these contour vectors, vectorization that is faithful to the original image can be performed, and the vectorization performance is particularly good for curved portions.Moreover, enlargement and t1M small rotation operations can be performed easily.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明のハードウェア構成を示すブロック図、
第2図はラスタスキャンの様子を示す説明図、第3図は
輪郭要素テーブルを示す説明図、第4図は輪郭管理テー
ブルを示す説明図、第5図は輪郭接続テーブルを示す説
明図、第6図(イ)。 (ロ)は、各々画素データと輪郭要素との関係を示す説
明図、第7図は輪郭要素間の接続状態を示す説明図、第
8図は輪郭要素の方向を示す説明図、第9図は本発明の
ハードウェア構成を示す構成図、第1θ図及び第11図
は画素データと接続関係との成立関係を示す説明図、第
12図は画素データを示す説明図、第13図は接続フラ
グを示す説明図、第14図はコマンド列を示す説明図、
第15図は輪郭抽出部を示す回路図、第16図及び第1
7図は各々接続フラグデータの説明図、第18図は孤立
画素のパターンを示すパターン図、第19図は輪郭解析
部の全体処理を示すフローチャート、第20図はテーブ
ル更新処理を示すフローチャート、第21図〜第23図
は夫々処理1〜3を示すフローチャート、第24図はテ
ーブル更新処理と画素データの位置との関係を示す説明
図、第25図はlラインの画素パターンを示す説明図、
第26図はランレングスベクトル化処理を示すフローチ
ャート、第27図は映像データテーブルを示す説明図、
第28図はMH符号化処理を示すフローチャート、第2
9図は輪郭ベクトル系列テーブルを示す説明図、第30
図a = dは輪郭ベクトル系列化処理の説明図、第3
1図は全長情報テーブルを示す説明図、第32図はショ
ートベクトル除去処理を示すフローチャート、第33図
は従来の輪郭画素抽出態様を示す説明図である。 1.4.・・・輪郭抽出部、2.43・・輪郭解析部、
2、.23・・・処理部、31〜3.・・・メモリ、4
3A〜43c・・・処理部、9・・・主メモリ。 第1図 本発明の構成図 第2図 ラスタスキャンの説明図 第3図 輪郭要素テーブルの説明図 第4図 第5図 a郭接続テーブル 第6図 面素データと輪郭要素との1係図 (イ)                (ロ)Xn@
XnXn−IXn 第9図 41・・内部バス         5・・2値画像入
力処理部42・輪郭抽出部        6・2値画
像入力装置43  輪郭解析13        7 
 ・主制御部4す〜4x・処理部        8 
人力処理部4ト・・内部メモリ        9・主
メミリ45・−・バスインターフェイス 第12図      第13図 面素データの説明図           接続フラグ
の説明図コマンド列の説明図 第15図 輪雅出部の回路図 第16図 接続フラグデータの説明ツ 接続フラグデータの説明図 第18図 孤立画素のパターン説明図 (イ)             (ロ)(ハ)   
         (ニ)第19図 輪郭解析部の全体処理のフローチャート第20図 更新処理のフローチャート 第21図     第四図 処理1のフローチャート       処理2のフロー
チャート第23図 処理3のフローチャート 第24図 更新処理と画素データの位置との関係図D+ 第25図 1ラインの画素パターンの説明図 第27図 映像データテーブル 第29図 輪郭ベクトル系列テーブル 第31図 全長情報テーブル 鴫が陽へ′り1 (a) (C) ・1し1F%列。 (b) P)(Q) (d) P+ (XJ、y+) 第32図 ショトベクトル除去処理のフローチャート第33図 従来の輪郭画素抽出態様図
FIG. 1 is a block diagram showing the hardware configuration of the present invention,
FIG. 2 is an explanatory diagram showing the state of raster scanning, FIG. 3 is an explanatory diagram showing the contour element table, FIG. 4 is an explanatory diagram showing the contour management table, FIG. 5 is an explanatory diagram showing the contour connection table, Figure 6 (a). (b) is an explanatory diagram showing the relationship between pixel data and contour elements, FIG. 7 is an explanatory diagram showing the connection state between contour elements, FIG. 8 is an explanatory diagram showing the direction of contour elements, and FIG. is a configuration diagram showing the hardware configuration of the present invention, FIG. 1θ and FIG. 11 are explanatory diagrams showing the established relationship between pixel data and connection relationships, FIG. An explanatory diagram showing flags, FIG. 14 is an explanatory diagram showing a command string,
Figure 15 is a circuit diagram showing the contour extraction section, Figure 16 and Figure 1.
7 is an explanatory diagram of connection flag data, FIG. 18 is a pattern diagram showing a pattern of isolated pixels, FIG. 19 is a flowchart showing the overall processing of the contour analysis section, FIG. 20 is a flowchart showing table updating processing, and FIG. 21 to 23 are flowcharts showing processes 1 to 3, respectively, FIG. 24 is an explanatory diagram showing the relationship between the table update process and the position of pixel data, and FIG. 25 is an explanatory diagram showing the pixel pattern of the l line.
FIG. 26 is a flowchart showing run-length vectorization processing, FIG. 27 is an explanatory diagram showing a video data table,
FIG. 28 is a flowchart showing the MH encoding process,
Figure 9 is an explanatory diagram showing the contour vector series table, No. 30.
Figure a = d is an explanatory diagram of the contour vector series processing, the third
FIG. 1 is an explanatory diagram showing a full length information table, FIG. 32 is a flowchart showing short vector removal processing, and FIG. 33 is an explanatory diagram showing a conventional outline pixel extraction mode. 1.4. ...Contour extraction section, 2.43..Contour analysis section,
2. 23... processing section, 31-3. ...Memory, 4
3A to 43c...processing unit, 9...main memory. Fig. 1: Configuration diagram of the present invention Fig. 2: Explanation of raster scan Fig. 3: Explanation of contour element table Fig. 4: a Contour connection table ) (b)Xn@
XnXn-IXn Fig. 9 41... Internal bus 5... Binary image input processing unit 42 - Contour extraction unit 6 - Binary image input device 43 Contour analysis 13 7
・Main control unit 4s~4x ・Processing unit 8
Human processing unit 4 - Internal memory 9 - Main memory 45 - Bus interface Figure 12 Figure 13 Explanation diagram of element data Figure 13 Explanation diagram of connection flags Explanation diagram of command string Figure 15 Circuit diagram of wheel output section Figure 16: Explanation of connection flag data Figure 18: Illustration of isolated pixel patterns (A) (B) (C)
(d) Fig. 19: Flowchart of overall processing of the contour analysis section Fig. 20: Flowchart of update processing Fig. 21 Fig. 4: Flowchart of processing 1 Fig. 23: Flowchart of processing 2 Fig. 23: Flowchart of processing 3 Fig. 24: Update processing and pixel data D+ Figure 25 Explanatory diagram of the pixel pattern of one line Figure 27 Image data table Figure 29 Contour vector series table Figure 31 Full length information table 1 (a) (C)・1 and 1F% column. (b) P) (Q) (d) P+ (XJ, y+) Figure 32 Flowchart of short vector removal processing Figure 33 Diagram of conventional contour pixel extraction mode

Claims (2)

【特許請求の範囲】[Claims] (1)被写体をラスタスキャンして得られた黒白に対応
する2値化画素データに基づき、黒白の境界に相当する
輪郭を検出する装置において、縦横2画素×2画素の画
素データをスキャンラインに沿って順次に取り出し、互
いに隣接した2個の黒画素を結ぶべクトルに相当する輪
郭要素と当該画素データに係る画素との接続関係を、1
ライン前にて取り出した画素データに基づいて作成する
と共に、前記接続関係の情報と当該画素データの黒白の
配列パターンの情報とを含む接続・パターンコードを発
生し、この接続・パターンコードと前記2画素×2画素
の画素データのうちの一方側のラインの画素配列データ
とを含むコマンド列を作成して出力する輪郭抽出部と、 前記輪郭要素とこれら輪郭要素群よりなる輪郭とに対し
て各々固有の符号を付すと共に、輪郭要素毎に、その座
標及び方向と輪郭要素が所属する輪郭の符号と輪郭要素
の前後に夫々接続されている他の輪郭要素の符号とを記
載するための輪郭要素テーブルと、輪郭毎に先端及び終
端に位置する輪郭要素の符号を記載するための輪郭管理
テーブルと、ラスタスキャン方向に並ぶX座標とその座
標に前端または後端が位置する末接続の輪郭要素の符号
とその輪郭要素の末接続端の前後端の区別とを対応させ
て記載するための輪郭接続テーブルとを格納するための
第1のメモリと、 ランレングスベクトル情報を格納するための第2のメモ
リと、 輪郭ベクトル群に係る情報を記載するための輪郭べクト
ル系列テーブルを格納するための第3のメモリと、 前記輪郭抽出部よりのコマンド列の接続・パターンコー
ドに基づいて前記第1のメモリ内の各テーブルの記載を
更新すると共に、輪郭要素テーブルの前記他の輪郭要素
の符号の更新については輪郭接続テーブルを参照して行
う第1の処理部と、前記コマンド列の画素配列データと
前記画素データのX座標とに基づいて黒ランの始点と長
さとを組にしたランレングスベクトル情報を作成して前
記第2のメモリに格納する第2の処理部と、前記輪郭要
素テーブルから1輪郭画素系列を構成する各点のうち始
点からみて極大となる極大点を検索してこの極大点と前
記始点とを結ぶ直線から最大距離にある輪郭上の点を求
め、この点と前記始点とを結ぶ直線に対して同様の処理
を繰り返すことにより、最大距離がしきい値以下になる
前の点Qを求めて、この点Qと前記始点とを結ぶべクト
ルを輪郭べクトルとして抽出し、次いで前記点Qを始点
として同様の処理を行うことにより輪郭べクトルを抽出
し、こうして得られた輪郭べクトル群に係る情報を前記
輪郭べクトル系列テーブルに記載する第3の処理部とを
有する輪郭解析部とを設けたことを特徴とする画像処理
装置。
(1) In a device that detects the contour corresponding to the boundary between black and white based on binary pixel data corresponding to black and white obtained by raster scanning the subject, pixel data of 2 pixels x 2 pixels horizontally and vertically is converted into a scan line. The connection relationship between the contour element corresponding to the vector connecting two adjacent black pixels and the pixel related to the pixel data is calculated as 1
A connection/pattern code is generated based on the pixel data extracted before the line, and also includes information on the connection relationship and information on the black and white arrangement pattern of the pixel data, and this connection/pattern code and the above two a contour extraction unit that creates and outputs a command string including pixel array data of one line of the pixel data of pixels x 2 pixels; A contour element for attaching a unique code and describing, for each contour element, its coordinates and direction, the code of the contour to which the contour element belongs, and the codes of other contour elements connected before and after the contour element, respectively. a table, a contour management table for recording the codes of the contour elements located at the leading edge and the trailing edge for each contour, and the X coordinates of the contour elements arranged in the raster scan direction and the contour elements of the end-connected contour elements whose front edge or trailing edge is positioned at the coordinates. a first memory for storing a contour connection table for writing a code and a distinction between the front and rear ends of the terminal connection end of the contour element in correspondence with each other; and a second memory for storing run-length vector information. a third memory for storing a contour vector series table for recording information related to the contour vector group; and a third memory for storing a contour vector series table for recording information related to the contour vector group; A first processing unit that updates the description of each table in the memory and updates the code of the other contour elements in the contour element table by referring to the contour connection table, and the pixel array data of the command string. a second processing unit that creates run length vector information that sets the starting point and length of a black run based on the X coordinate of the pixel data and stores it in the second memory; Among the points constituting the contour pixel series, search for the maximum point that is the maximum when viewed from the starting point, find the point on the contour that is the maximum distance from the straight line connecting this maximum point and the starting point, and connect this point to the starting point. By repeating the same process for the straight line connecting , find the point Q before the maximum distance becomes less than the threshold, extract the vector connecting this point Q and the starting point as a contour vector, Next, a third processing unit extracts contour vectors by performing similar processing using the point Q as a starting point, and records information related to the contour vector group thus obtained in the contour vector series table. An image processing device comprising a contour analysis section.
(2)被写体をラスタスキャンして得られた黒白に対応
する2値化画素データに基づき、黒白の境界に相当する
輪郭を検出する装置において、縦横2画素×2画素の画
素データをスキャンラインに沿って順次に取り出し、互
いに隣接した2個の黒画素を結ぶべクトルに相当する輪
郭要素と当該画素データに係る画素との接続関係を、1
ライン前にて取り出した画素データに基づいて作成する
と共に、前記接続関係の情報と当該画素データの黒白の
配列パターンの情報とを含む接続・パターンコードを発
生し、この接続・パターンコードと前記2画素×2画素
の画素データのうちの一方側のラインの画素配列データ
とを含むコマンド列を作成して出力する輪郭抽出部と、 前記輪郭要素とこれら輪郭要素群よりなる輪郭とに対し
て各々固有の符号を付すと共に、輪郭要素毎に、その座
標及び方向と輪郭要素が所属する輪郭の符号と輪郭要素
の前後に夫々接続されている他の輪郭要素の符号とを記
載するための輪郭要素テーブルと、輪郭毎に先端及び終
端に位置する輪郭要素の符号を記載するための輪郭管理
テーブルと、ラスタスキャン方向に並ぶX座標とその座
標に前端または後端が位置する末接続の輪郭要素の符号
とその輪郭要素の末接続端の前後端の区別とを対応させ
て記載するための輪郭接続テーブルとを格納するための
第1のメモリと、 一次元符号化方式の符号語を格納するための第2のメモ
リと、 輪郭べクトル群に係る情報を記載するための輪郭べクト
ル系列テーブルを格納するための第3のメモリと、 前記輪郭抽出部よりのコマンド列の接続・パターンコー
ドに基づいて前記第1のメモリ内の各テーブルの記載を
更新すると共に、輪郭要素テーブルの前記他の輪郭要素
の符号の更新については輪郭接続テーブルを参照して行
う第1の処理部と、前記コマンド列の画素配列データと
前記画素データのX座標とに基づいて黒ランと白ランの
各始点及び終点座標を求め、一次元符号化方式の符号語
を作成して前記第2のメモリヘ格納する第2の処理部と
、前記輪郭要素テーブルから1輪郭画素系列を構成する
各点のうち始点からみて極大となる極大点を検索してこ
の極大点と前記始点とを結ぶ直線から最大距離にある輪
郭上の点を求め、この点と前記始点とを結ぶ直線に対し
て同様の処理を繰り返すことにより、最大距離がしきい
値以下になる前の点Qを求めて、この点Qと前記始点と
を結ぶべクトルを輪郭べクトルとして抽出し、次いで前
記点Qを始点として同様の処理を行うことにより輪郭べ
クトルを抽出し、こうして得られた輪郭べクトル群に係
る情報を前記輪郭べクトル系列テーブルに記載する第3
の処理部とを有する輪郭解析部とを設けたことを特徴と
する画像処理装置。(3)第2の処理部は、更に前記コ
マンド列の画素配列データと前記画素データのX座標と
に基づいて黒ランと白ランの各始点及び終点座標を求め
、一次元符号化方式の符号語を作成して前記第2のメモ
リヘ格納する機能を備えたものである請求項1記載の画
像処理装置。
(2) In a device that detects the contour corresponding to the boundary between black and white based on binary pixel data corresponding to black and white obtained by raster scanning the subject, pixel data of 2 pixels x 2 pixels horizontally and vertically is converted into a scan line. The connection relationship between the contour element corresponding to the vector connecting two adjacent black pixels and the pixel related to the pixel data is calculated as 1
A connection/pattern code is generated based on the pixel data extracted before the line, and also includes information on the connection relationship and information on the black and white arrangement pattern of the pixel data, and this connection/pattern code and the above two a contour extraction unit that creates and outputs a command string including pixel array data of one line of the pixel data of pixels x 2 pixels; A contour element for attaching a unique code and describing, for each contour element, its coordinates and direction, the code of the contour to which the contour element belongs, and the codes of other contour elements connected before and after the contour element, respectively. a table, a contour management table for recording the codes of the contour elements located at the leading edge and the trailing edge for each contour, and the X coordinates of the contour elements arranged in the raster scan direction and the contour elements of the end-connected contour elements whose front edge or trailing edge is positioned at the coordinates. a first memory for storing a contour connection table for describing a code and a distinction between the front and rear ends of its contour element in correspondence; and a first memory for storing a code word of a one-dimensional encoding method; a second memory for storing a contour vector series table for recording information related to the contour vector group; a first processing unit that updates the description of each table in the first memory, and updates the code of the other contour elements in the contour element table by referring to the contour connection table, and the command string; A second step of determining the starting point and ending point coordinates of the black run and white run based on the pixel array data and the X coordinate of the pixel data, creating a code word of the one-dimensional encoding method, and storing it in the second memory. a processing unit that searches the contour element table for a maximum point that is the maximum when viewed from the starting point among the points constituting one contour pixel series, and searches the contour element table for the maximum point that is the maximum when viewed from the starting point, and searches for the maximum point on the contour that is the maximum distance from the straight line connecting this maximum point and the starting point. By finding the point Q and repeating the same process for the straight line connecting this point and the starting point, find the point Q before the maximum distance becomes less than the threshold, and connect this point Q and the starting point. The connecting vector is extracted as a contour vector, and then a contour vector is extracted by performing the same processing using the point Q as a starting point, and information related to the contour vector group thus obtained is stored in the contour vector series table. The third item described in
An image processing device comprising: a processing section; and a contour analysis section having a processing section. (3) The second processing unit further calculates the start point and end point coordinates of the black run and white run based on the pixel array data of the command string and the X coordinate of the pixel data, and 2. The image processing apparatus according to claim 1, further comprising a function of creating a word and storing it in said second memory.
JP63106684A 1988-04-28 1988-04-28 Image processor Pending JPH01277976A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63106684A JPH01277976A (en) 1988-04-28 1988-04-28 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63106684A JPH01277976A (en) 1988-04-28 1988-04-28 Image processor

Publications (1)

Publication Number Publication Date
JPH01277976A true JPH01277976A (en) 1989-11-08

Family

ID=14439890

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63106684A Pending JPH01277976A (en) 1988-04-28 1988-04-28 Image processor

Country Status (1)

Country Link
JP (1) JPH01277976A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03167681A (en) * 1989-11-28 1991-07-19 Kawasaki Heavy Ind Ltd Calculating method for characteristic parameter of object
EP0552791A2 (en) * 1992-01-24 1993-07-28 Canon Kabushiki Kaisha Apparatus and method for extracting outline data and encoding image data using the outline data
EP0589702A2 (en) 1992-09-24 1994-03-30 Canon Kabushiki Kaisha Image processing method and apparatus
EP0680016A2 (en) * 1994-04-25 1995-11-02 Microsoft Corporation System and method for compressing images
US6404921B1 (en) 1990-10-22 2002-06-11 Canon Kabushiki Kaisha Contour extracting method and apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6055475A (en) * 1983-09-06 1985-03-30 Matsushita Electric Ind Co Ltd Extracting device of boundary line
JPS6097482A (en) * 1983-10-31 1985-05-31 Meidensha Electric Mfg Co Ltd Pattern recognizing device
JPS6232584A (en) * 1985-08-05 1987-02-12 Nippon Telegr & Teleph Corp <Ntt> Method for extracting contour shape feature

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6055475A (en) * 1983-09-06 1985-03-30 Matsushita Electric Ind Co Ltd Extracting device of boundary line
JPS6097482A (en) * 1983-10-31 1985-05-31 Meidensha Electric Mfg Co Ltd Pattern recognizing device
JPS6232584A (en) * 1985-08-05 1987-02-12 Nippon Telegr & Teleph Corp <Ntt> Method for extracting contour shape feature

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03167681A (en) * 1989-11-28 1991-07-19 Kawasaki Heavy Ind Ltd Calculating method for characteristic parameter of object
US6404921B1 (en) 1990-10-22 2002-06-11 Canon Kabushiki Kaisha Contour extracting method and apparatus
EP0552791A2 (en) * 1992-01-24 1993-07-28 Canon Kabushiki Kaisha Apparatus and method for extracting outline data and encoding image data using the outline data
EP0552791A3 (en) * 1992-01-24 1994-04-13 Canon Kk
EP0589702A2 (en) 1992-09-24 1994-03-30 Canon Kabushiki Kaisha Image processing method and apparatus
EP0589702A3 (en) * 1992-09-24 1994-09-07 Canon Kk Image processing method and apparatus
US5828794A (en) * 1992-09-24 1998-10-27 Canon Kabushiki Kaisha Image processing method and apparatus for enlarging and reducing image data
US6111994A (en) * 1992-09-24 2000-08-29 Canon Kabushiki Kaisha Outline extraction using partial image processing
EP0680016A2 (en) * 1994-04-25 1995-11-02 Microsoft Corporation System and method for compressing images
EP0680016A3 (en) * 1994-04-25 1996-02-28 Microsoft Corp System and method for compressing images.

Similar Documents

Publication Publication Date Title
JP3878401B2 (en) Image processing apparatus, image processing method, and recording medium recording the same
JP2597006B2 (en) Rectangular coordinate extraction method
US5027304A (en) Character multifont compression and restoration device
CN110111243B (en) Method and device for beautifying handwriting fonts by using AI technology
JPH01277976A (en) Image processor
JPH01243188A (en) Contour detector
JP2003296726A (en) Method, device and program for converting drawing and recording medium
JPH0264782A (en) Outline detecting device
JPS63305478A (en) Pattern information restoring device
JPH08293030A (en) Data storage format as well as method and apparatus for datastorage
JPH01251180A (en) Contour detector
JPH01273186A (en) Contour detector
JPH01251181A (en) Contour detector
JPH01273185A (en) Contour detector
JP2679098B2 (en) Encoding processing device for contour detection image
JP3072721B2 (en) Image processing method and apparatus, storage medium for storing image processing program
JP2930599B2 (en) Graphic vectorization processing method and apparatus
JPH01244582A (en) Contour detector
JP2915700B2 (en) Image processing method and apparatus
JPH01251183A (en) Contour detector
JP2803736B2 (en) Character recognition method
JPH11187231A (en) Image retrieving device and image retrieval method
JP2954218B2 (en) Image processing method and apparatus
JP2800205B2 (en) Image processing device
JP3037504B2 (en) Image processing method and apparatus