JP3003133B2 - Image outline extraction device - Google Patents

Image outline extraction device

Info

Publication number
JP3003133B2
JP3003133B2 JP1166803A JP16680389A JP3003133B2 JP 3003133 B2 JP3003133 B2 JP 3003133B2 JP 1166803 A JP1166803 A JP 1166803A JP 16680389 A JP16680389 A JP 16680389A JP 3003133 B2 JP3003133 B2 JP 3003133B2
Authority
JP
Japan
Prior art keywords
image
color
line
scanning direction
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1166803A
Other languages
Japanese (ja)
Other versions
JPH0334078A (en
Inventor
俊夫 久村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP1166803A priority Critical patent/JP3003133B2/en
Publication of JPH0334078A publication Critical patent/JPH0334078A/en
Application granted granted Critical
Publication of JP3003133B2 publication Critical patent/JP3003133B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、デジタル複写機、ファクシミリ等のよう
に、走査ラインを順次移動させながら原稿を光学的に走
査して所定の画素単位に画像情報を読取る画像読取り手
段を備え、この画像読取り手段にて画素単位に順次読取
られた画像情報の処理を行なう画像処理装置にあって、
原稿上に描かれたイメージの外形線を抽出するイメージ
外形線抽出装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention relates to a digital copying machine, a facsimile, and the like, in which an original is optically scanned while sequentially moving a scanning line, and image information is obtained in predetermined pixel units. An image processing apparatus comprising an image reading means for reading image data, and performing processing of image information sequentially read in pixel units by the image reading means.
The present invention relates to an image outline extracting device that extracts an outline of an image drawn on a document.

[従来の技術] デジタル複写機等の画像処理装置においては、原稿に
描かれたイメージを多様に変換して記録シート上に像再
現できることから、例えば、原稿に描かれたイメージの
外形線を抽出してその外形線だけの像再現(白抜き文字
等)、あるいはオリジナルのイメージに当該抽出した外
形線を付加して像再現をする(イメージの太線化)等の
機能が実現されるに至っている。
2. Description of the Related Art In an image processing apparatus such as a digital copying machine, an image drawn on a document can be variously converted and reproduced on a recording sheet. Then, functions such as image reproduction using only the outline (white characters or the like) or image reproduction by adding the extracted outline to the original image (thickening the image) have been realized. .

ここで、このような画像処理装置にあって、原稿上に
描かれたイメージの外形線を抽出するイメージ外形線抽
出装置は、従来、例えば、特開昭63−67872号公報にて
開示されるようなものがある。これは、走査ラインを順
次移動させながらイメージセンサにより原稿を光学的に
走査して所定画素単位の画像データを得る過程で、各走
査ラインにおいて走査方向の画像データのレベル変化を
検出し、その変化点を起点として所定の画素幅の外形線
画を生成している。即ち、画像データの変化点から各走
査ラインの走査方向(主走査方向)に線画が形成される
ようになる。
Here, in such an image processing apparatus, an image outline extracting apparatus for extracting an outline of an image drawn on a document is conventionally disclosed in, for example, JP-A-63-67872. There is something like that. This is because, in the process of optically scanning an original by an image sensor while sequentially moving a scanning line to obtain image data in a predetermined pixel unit, a level change of image data in a scanning direction in each scanning line is detected, and the change is detected. An outline drawing having a predetermined pixel width is generated starting from a point. That is, a line image is formed in the scanning direction (main scanning direction) of each scanning line from the changing point of the image data.

[発明が解決しようとする課題] 上記のように主走査方向だけについて画像データの変
化点を検出し、その変化点から主走査方向に線画を形成
するようにした従来のイメージ外形線抽出装置では、原
稿上に描かれたイメージのエッジ部分が走査ラインと平
行、あるいは平行に近いと、その平行となるイメージエ
ッジにおける外形線が抽出されなかったり、あるいは、
その外形線が他のイメージエッジ部分より細くなったり
する。
[Problems to be Solved by the Invention] As described above, in a conventional image outline extracting apparatus which detects a change point of image data only in the main scanning direction and forms a line image in the main scanning direction from the change point. If the edge portion of the image drawn on the original is parallel or nearly parallel to the scanning line, the outline at the parallel image edge is not extracted, or
The outline becomes thinner than other image edges.

それは、走査ラインに沿った方向にだけ画像データの
変化点を検出していることから、この走査ラインに平行
にイメージエッジでは変化点の検出がなされないからで
ある。また、イメージエッジ部分が走査ラインと完全に
平行でなくてもそれに近い状態では、走査ラインの移動
ピッチが一定であることから、当該イメージエッジ部分
全体で画像データの変化点として検出される点が少なく
なってしまうからである。
This is because the change point of the image data is detected only in the direction along the scan line, so that the change point is not detected at the image edge parallel to this scan line. In addition, in a state where the image edge portion is not completely parallel to the scan line but close to the scan line, the movement pitch of the scan line is constant. It is because it becomes less.

そこで、本願発明が解決しようとする課題は、原稿上
に描かれたイメージについてそのエッジ部を外形線とし
て適切に抽出することが出来るイメージ外形線抽出装置
を提供することにある。
Therefore, an object of the present invention is to provide an image outline extracting device that can appropriately extract an edge portion of an image drawn on a document as an outline.

[課題を解決するための手段] 本発明は、第1図に示すように、走査ラインLを順次
移動(S)させながら原稿1を光学的に走査して所定の
画素単位に画像情報を読取る画像読取り手段2を備え、
この画像読取り手段2にて画素単位に順次読取られた画
像情報の処理を行なう画像処理装置に適用されるイメー
ジ外形線抽出装置において、上記課題を解決するための
技術的手段は、第1図(a)に示すように、画像読取り
手段2にて読取られる画像情報に基づいて各走査ライン
L上でのイメージ部Iと非イメージ部NIとの境界点を検
出する主走査方向エッジ検出手段3と、同読取り画像情
報に基づいて走査ラインLの移動方向(S)における各
画素位置でのイメージ部Iと非イメージ部NIとの境界点
を検出する副走査方向エッジ検出手段4と、主走査方向
エッジ検出手段3及び副走査方向エッジ検出手段4にて
検出された境界点から所定画素幅となる外形線画を生成
する外形線生成手段5とを備えたものを前提としてい
る。
[Means for Solving the Problems] As shown in FIG. 1, the present invention optically scans a document 1 while sequentially moving (S) a scanning line L to read image information in predetermined pixel units. Image reading means 2;
In an image outline extracting apparatus applied to an image processing apparatus for processing image information sequentially read in pixel units by the image reading means 2, a technical means for solving the above problem is shown in FIG. As shown in a), a main scanning direction edge detecting means 3 for detecting a boundary point between an image part I and a non-image part NI on each scanning line L based on image information read by the image reading means 2; A sub-scanning direction edge detecting means 4 for detecting a boundary point between the image portion I and the non-image portion NI at each pixel position in the moving direction (S) of the scanning line L based on the read image information; It is assumed that the apparatus includes an outline detection unit 3 and an outline generation unit 5 that generates an outline image having a predetermined pixel width from the boundary points detected by the sub-scanning direction edge detection unit 4.

画像読取り手段2での原稿走査方向と同一方向での処
理を行なうことにより読取りに同期したリアルタイム処
理を容易に実現すべく、第1図(b)に示すように、特
に、外形線生成手段5は、主走査方向エッジ検出手段3
にて検出された境界点に対してその走査方向(Sm)に外
形線画を生成する主走査方向外形線画像手段5aと、副走
査方向エッジ検出手段4にて検出された境界点に対して
その走査ライン移動方向(Ss)に外形線画を生成する副
走査方向外形線画生成手段5bとを備えたものも前提とし
ている。そして本発明は読取り走査方向(Sm)と走査ラ
イン移動方向(Ss)に夫々外形線画を生成するものにお
いて、この読取り走査方向(Sm)に生成した外形線画と
走査ライン移動方向(Ss)に生成した外形線画とのイメ
ージ角部での連続性を確保するため、特に、副走査方向
外形線画生成手段5bは、主走査方向外形線画生成手段5a
にて生成された外形線画の走査ライン移動方向(Ss)に
おける各画素位置での当該線画部分から非線画部分への
境界点をも対象としたものである(請求項3)。
In order to easily realize real-time processing synchronized with reading by performing processing in the same direction as the document scanning direction in the image reading means 2, as shown in FIG. Is a main scanning direction edge detecting means 3
The main scanning direction outline image means 5a for generating an outline image in the scanning direction (Sm) with respect to the boundary point detected by the sub-scanning direction edge detection means 4 It is also assumed that the apparatus includes a sub-scanning direction outline image generating means 5b for generating an outline image in the scanning line moving direction (Ss). According to the present invention, the outline drawing is generated in the reading scanning direction (Sm) and the scanning line moving direction (Ss), respectively. The outline drawing generated in the reading scanning direction (Sm) and the scanning line moving direction (Ss) are generated. In particular, in order to ensure continuity at the corners of the image with the drawn outline drawing, the sub-scanning outline drawing generation means 5b
The boundary point from the line drawing portion to the non-line drawing portion at each pixel position in the scanning line movement direction (Ss) of the outline drawing generated in (3) is also targeted (claim 3).

更に、上記副走査方向エッジ検出手段4が、イメージ
部Iから非イメージ部NIへの変化位置では当該非イメー
ジ部NIを境界点として認識するものとなり、上記副走査
方向外形線画生成手段5bが、主走査方向外形線画生成手
段5aにて生成された外形線画についてはその外形線画部
分画素を境界点として認識するものでは、境界点の認識
位置のずれに起因してイメージ部分と読取り走査方向
(Sm)に生成した外形線画について夫々走査ライン移動
方向(Ss)に生成する外形線画がずれることを防止する
観点から、特に、主走査方向エッジ検出手段3は、注目
走査ラインとその一走査ライン前の同一画素のイメージ
I、非イメージに関する論理和データを当該注目ライン
における対象画像情報としてもよい。
Further, the sub-scanning direction edge detecting means 4 recognizes the non-image part NI as a boundary point at a change position from the image part I to the non-image part NI. Regarding the outline image generated by the outline image generation means 5a in the main scanning direction, if the outline image partial pixel is recognized as a boundary point, the image portion and the reading scanning direction (Sm In particular, from the viewpoint of preventing the generated outlines in the scanning line moving direction (Ss) from being shifted from each other in the generated outlines, the main scanning direction edge detecting means 3 particularly includes the target scanning line and the one scanning line before the target scanning line. Logical OR data on the image I and the non-image of the same pixel may be used as the target image information on the line of interest.

また、画像読取り手段2での走査ラインの移動と共に
当該走査ライン移動方向への外形線画を生成する場合、
その処理の過程で走査ライン上の各画素位置(例えば48
00ドット程度)についてどれだけの幅まで外形線の生成
がなされているかを常時監視する必要性があるが、これ
を容易に実現するため、第1図(c)に示すように、特
に、副走査方向外形線画生成手段5bは、走査ラインL上
の各画素位置に対応した格納アドレスを有するラインメ
モリ5b−1と、画像読取り手段2による原稿走査の過程
で、上記境界点が検出されたときにラインメモリ5b−1
の各格納アドレスに生成すべき外形線画の画素幅に対応
した数値を設定する画素幅設定手段5b−2と、上記境界
点から各走査ラインについてラインメモリ5b−1内に数
値がセットされているアドレスに対応した画素について
単位画像を生成する単位画像生成手段5b−3と、単位画
像生成手段5b−3にて単位画像が生成されたときにライ
ンメモリ5b−1内の対応するアドレスの数値を画素幅が
1ライン減るよう修正する数値修正手段5b−4とを備え
たものとなる(請求項1、請求項2)。
In addition, when an outline drawing in the scanning line moving direction is generated together with the movement of the scanning line by the image reading unit 2,
During the process, each pixel position (for example, 48
It is necessary to constantly monitor to what extent the outline is generated for about 00 dots), but in order to easily realize this, in particular, as shown in FIG. The scanning direction outline drawing generating means 5b is used when the boundary point is detected in the course of scanning the original by the line memory 5b-1 having a storage address corresponding to each pixel position on the scanning line L and the image reading means 2. Line memory 5b-1
And a pixel width setting means 5b-2 for setting a numerical value corresponding to the pixel width of the outline drawing to be generated at each storage address, and a numerical value is set in the line memory 5b-1 for each scanning line from the boundary point. A unit image generating means 5b-3 for generating a unit image for a pixel corresponding to an address, and a value of a corresponding address in the line memory 5b-1 when a unit image is generated by the unit image generating means 5b-3. Numerical value correcting means 5b-4 for correcting the pixel width so as to reduce by one line is provided (claims 1 and 2).

原稿上に描かれたイメージ(文字等)の大きさに応じ
てバランスの良い線幅での外形線画を生成するため、特
に、第1図(a)における外形線生成手段5は、外形線
画の画素幅の変更設定が可能な線幅設定手段を有するも
のでもよい。
In order to generate an outline drawing with a well-balanced line width according to the size of an image (characters or the like) drawn on the original, the outline generation means 5 in FIG. It may have a line width setting means capable of changing and setting the pixel width.

画像読取り手段2が単なる画像の有無情報だけでなく
多階調の濃度情報を読取る機能を有して画像処理装置に
あっては、外形線画の生成を容易にするため、第1図
(a)に示す構成において、画像読取り手段2にて読取
られた多階調の濃度情報を所定の基準値に基づいてイメ
ージ部Iと非イメージ部NIとを区別した二値画情報に変
換する二値画像情報変換手段を備えると共に、主走査方
向エッジ検出手段3、副走査方向エッジ検出手段4での
対象画像情報を二値画情報変換手段らの二値画情報と
し、外形線生成手段5が二値画情報にて得られた外形線
画を多階調の濃度情報に変換する濃度変換手段を備えた
ものでもよい。
FIG. 1A shows an image processing apparatus in which the image reading means 2 has a function of reading not only the presence / absence information of an image but also density information of multiple gradations. In the configuration shown in FIG. 5, the multi-gradation density information read by the image reading means 2 is converted into binary image information in which the image portion I and the non-image portion NI are distinguished based on a predetermined reference value. Information converting means, the target image information in the main scanning direction edge detecting means 3 and the sub-scanning direction edge detecting means 4 is used as binary image information from the binary image information converting means, and the outline generating means 5 The image processing apparatus may be provided with a density conversion unit that converts the outline image obtained from the image information into multi-gradation density information.

更に、生成する外形線画の濃度を任意に決めることが
できるようにするため、特に、上記濃度変換手段は、変
換すべき多階調の濃度情報の変更設定が可能な濃度設定
手段を有するものでもよい。
Further, in order to be able to arbitrarily determine the density of the outline drawing to be generated, in particular, the density conversion means may have density setting means capable of changing and setting density information of multi-gradation to be converted. Good.

[作用] 画像読取り手段2が走査ラインLを順次移動させなが
ら原稿1を光学的に走査して所定の画素単位に画像情報
を読取る。この読取られた画像情報に基づいて主走査方
向エッジ検出手段3が各走査ラインL上でのイメージ部
Iと非イメージ部NIとの境界点を検出し、また、同読取
り画像情報に基づいて副走査方向エッジ検出手段4が走
査ラインLの移動方向(S)における各画素位置でのイ
メージ部Iと非イメージ部NIとの境界点を検出する。そ
して、外形線生成手段5が上記主走査方向エッジ検出手
段3、副走査方向エッジ検出手段4にて検出された境界
点から所定画素幅となる外形線画を生成する。
[Operation] The image reading unit 2 optically scans the original 1 while sequentially moving the scanning line L to read image information in predetermined pixel units. The main scanning direction edge detecting means 3 detects a boundary point between the image portion I and the non-image portion NI on each scanning line L based on the read image information, and further detects a sub-point on the basis of the read image information. The scanning direction edge detecting means 4 detects a boundary point between the image portion I and the non-image portion NI at each pixel position in the moving direction (S) of the scanning line L. Then, the contour line generating means 5 generates a contour line image having a predetermined pixel width from the boundary points detected by the main scanning direction edge detecting means 3 and the sub-scanning direction edge detecting means 4.

特に、走査方向と同一方向に外形線画を生成する場合
には、主走査方向外形線画生成手段5aが主走査方向エッ
ジ検出手段3にて検出されたイメージ部Iと非イメージ
部NIとの境界点から所定の画素幅にてその読取り走査方
向(Sm)に外形線画を生成する(第1図(d)における
×印参照)。また、副走査方向外形線画生成手段5bが副
走査方向エッジ検出手段にて検出されたイメージ部Iと
非イメージ部NIとの境界点から所定の画素幅にて走査ラ
インの移動方向(Ss)に外形線画を生成する(第1図
(d)におおける△印参照)。この場合、主走査方向エ
ッジ検出手段3及び副走査エッジ検出手段4にて検出さ
れる境界点だけを対象として単に読取り走査方向(Sm)
及び走査ライン移動方向(Ss)に外形線画を生成する
と、第1図(d)における一点鎖線で囲まれた部分に外
形線画が生成されない。そこで、副走査方向外形線画生
成手段5bが主走査方向外形線画生成手段5aにて生成され
た外形線画(×印)の走査ライン移動方向(Ss)におけ
る各画素位置での当該線画部分から非線画部分への境界
点をも対象とすると、副走査方向外形線画生成手段5bは
当該一点鎖線で囲まれた領域について▲印で示すように
新たな外形線画を生成する。
In particular, when the outline drawing is generated in the same direction as the scanning direction, the main scanning direction outline drawing generating means 5a outputs the boundary point between the image portion I and the non-image portion NI detected by the main scanning direction edge detecting means 3. Then, an outline drawing is generated with a predetermined pixel width in the reading scanning direction (Sm) (see the crosses in FIG. 1D). Further, the sub-scanning direction outline image generating means 5b is moved in the scanning line moving direction (Ss) by a predetermined pixel width from the boundary point between the image part I and the non-image part NI detected by the sub-scanning direction edge detecting means. An outline drawing is generated (see a mark in FIG. 1 (d)). In this case, only the boundary point detected by the main scanning direction edge detecting means 3 and the sub-scanning edge detecting means 4 is used as a target only in the reading scanning direction (Sm).
When the outline drawing is generated in the scanning line moving direction (Ss), the outline drawing is not generated in a portion surrounded by a dashed line in FIG. 1D. Therefore, the sub-scanning outline drawing device 5b converts the outline drawing (x mark) generated by the main scanning direction outline drawing device 5a from the line drawing portion at each pixel position in the scanning line movement direction (Ss) to the non-line drawing. If a boundary point to a part is also targeted, the sub-scanning direction outline drawing generation means 5b generates a new outline drawing as indicated by a triangle in the area surrounded by the dashed line.

また、第1図(c)に示すように、副走査方向外形線
画生成手段5bが特にラインメモリ5b−1等を備える場
合、画像読取り手段2による原稿走査の過程で、境界点
が検出れると、画素幅設定手段5b−2が、第1図(d)
に示すように、ラインメモリ5b−1の走査ライン上の各
画素位置Cn,Cn+1,Cn+2,…に対応した格納アドレスに
生成すべき外形線画の画素幅に対応した数値を設定す
る。そして、上記境界点から各走査ラインLn,Ln+1,Ln
+2,…についてラインメモリ5b−1内に数値がセットさ
れているアドレスに対応した画素について単位画像生成
手段5b−3が単位画像(△印1個)を生成し、この単位
画像が生成されたときに数値修正手段5b−4がラインメ
モリ5b−1内の対応するアドレスの数値を画素幅が1ラ
イン減るように修正する。修正され毎に次の走査ライン
について同様の処理を行ない、ラインメモリ5b−1内の
格納数値が画素幅“0"に対応する値になるまで繰り返
す。
Also, as shown in FIG. 1 (c), when the sub-scanning outline drawing apparatus 5b particularly has a line memory 5b-1, etc., when a boundary point is detected in the course of scanning of the original by the image reading section 2. , The pixel width setting means 5b-2 is provided as shown in FIG.
As shown in the figure, a numerical value corresponding to the pixel width of the outline drawing to be generated is set at a storage address corresponding to each pixel position Cn, Cn + 1, Cn + 2,... On the scanning line of the line memory 5b-1. Then, the scanning lines Ln, Ln + 1, Ln from the boundary point
The unit image generating means 5b-3 generates a unit image (one symbol Δ) for a pixel corresponding to an address for which a numerical value is set in the line memory 5b-1 for +2,..., And this unit image is generated. Sometimes, the numerical value correcting means 5b-4 corrects the numerical value of the corresponding address in the line memory 5b-1 so that the pixel width is reduced by one line. The same processing is performed for the next scan line every time the correction is made, and the processing is repeated until the numerical value stored in the line memory 5b-1 becomes a value corresponding to the pixel width "0".

上記のように原稿1上に描かれたイメージIの外形線
画が抽出されると、その抽出外形線画が画像処理に供さ
れ、例えば、記録シート上にそのまま像再現されたり、
また、オリジナルのイメージに外形線画が付加された状
態で像再現されたり、更に、外形線画を加工した状態で
同様の像再現等がなされる。
When the outline drawing of the image I drawn on the document 1 as described above is extracted, the extracted outline drawing is subjected to image processing, for example, the image is reproduced on a recording sheet as it is,
In addition, an image is reproduced in a state where the outline drawing is added to the original image, and a similar image reproduction is performed in a state where the outline drawing is processed.

なお、対象とするイメージが文字である場合、その外
形線画をそのまま像再現すると、いわゆる白抜き文字が
形成され、オリジナルのイメージと共に外形線画を像再
現すると、いわゆる太文字が形成される。
When the target image is a character, if the outline drawing is reproduced as it is, a so-called outline character is formed. If the outline drawing is reproduced together with the original image, a so-called bold character is formed.

[実施例] 以下、目次の順に従って本発明の実施例を説明する。Examples Examples of the present invention will be described below in the order of the table of contents.

目次 I.基本構成 II.画像入力部 III.色画情報生成部 IV.外形線画生成部 V.画像形成部 VI.まとめ I.基本構成 画像処理装置における走査系の基本的な構造は、例え
ば、第2図に示すようになっている。
Table of contents I. Basic configuration II. Image input unit III. Color image information generation unit IV. Outline drawing generation unit V. Image formation unit VI. Summary I. Basic configuration The basic structure of the scanning system in the image processing device is, for example, As shown in FIG.

これは、原稿13が載置されるプラテン12の上部に開閉
可能なプラテンカバー14が設けらる一方、その下方部に
光源15とセルフォックレンズを含む光導部材16とCCD等
の1次元イメージセンサ10が配置され、これらが一体と
なって走査部を構成している。そして、この走査部が平
行移動(図中矢印方向)を行なって原稿13の光学的走査
を行なう過程で、イメージセンサ10から出力され受光光
量に対応したセル単位の検出信号に基づいて原稿13上に
描かれた濃淡像、線図、文字等に対応した所定画素単位
の画像情報が生成される。
An openable / closable platen cover 14 is provided above a platen 12 on which a document 13 is placed, and a light guide member 16 including a light source 15 and a selfoc lens and a one-dimensional image sensor such as a CCD are provided below the platen cover 14. 10 are arranged, and these constitute a scanning unit together. The scanning unit performs a parallel movement (in the direction of the arrow in the figure) to perform an optical scan of the document 13, and, based on a detection signal in units of cells corresponding to the amount of received light output from the image sensor 10, the scanning unit 13 The image information of a predetermined pixel unit corresponding to the grayscale image, the diagram, the character, and the like drawn in FIG.

次に、画像処理装置全体の基本的な構成は、例えば、
第3図に示すようになっている。
Next, the basic configuration of the entire image processing apparatus is, for example,
As shown in FIG.

この例は、二色の画像処理、例えば、黒(メインカラ
ー)と赤(サブカラー)の画像形成を前提とした画像処
理装置である。
This example is an image processing apparatus that presupposes two-color image processing, for example, black (main color) and red (sub-color) image formation.

第3図において、10は原画を光学的に走査するフルカ
ラーセンサ(第2図におけるイメージセンサに相当)、
20はフルカラーセンサ10からセル単位に時分割にて順次
出力される読取り信号を所定画素単位の色成分データ
(緑:G、青:G、赤:R)に変換してそれらを並列的に出力
するセンサインタフェース回路であり、このフルカラー
センサ10及びセンサインタフェース回路20にて画像入力
部が構成されている。50は上記センサインタフェース回
路20からの各色成分データ(GBR)から画素単位に画像
情報としての濃度情報と色情報を生成する色画情報生成
回路であり、この色画情報生成回路50は256階調の濃度
データDと色情報としてサブカラー“赤”に対応したサ
ブカラーフラグSCFとメインカラー“黒”に対応したメ
インカラーフラグMCFを生成している。70は色画情報生
成回路50からの濃度情報D及び色情報(SCF,MCF)に対
して各種の補正及びフィルタ処理を行なう補正・フィル
タ回路、100は補正・フィルタ回路70を経た濃度データ
D及び色情報(SCF,MCF)に対して拡大、縮小、色反転
等の編集、加工等の処理を行なう編集・加工回路であ
り、上記編集・加工回路100内に外形線画抽出部が構成
されている。
In FIG. 3, reference numeral 10 denotes a full-color sensor for optically scanning an original image (corresponding to the image sensor in FIG. 2);
Numeral 20 converts read signals sequentially output from the full-color sensor 10 in a time-division manner in cell units into color component data (green: G, blue: G, red: R) in predetermined pixel units and outputs them in parallel. The full-color sensor 10 and the sensor interface circuit 20 constitute an image input unit. Reference numeral 50 denotes a color image information generation circuit that generates density information and color information as image information from each color component data (GBR) from the sensor interface circuit 20 in pixel units. And a sub color flag SCF corresponding to the sub color “red” and a main color flag MCF corresponding to the main color “black” as the color information. 70 is a correction / filter circuit that performs various corrections and filter processing on the density information D and color information (SCF, MCF) from the color image information generation circuit 50, and 100 is density data D and An editing / processing circuit for performing processing such as editing, processing, such as enlargement, reduction, and color inversion, on color information (SCF, MCF). An outline drawing extraction unit is configured in the editing / processing circuit 100. .

上記のようにして、補正・フィルタ回路70及び編集・
加工回路100にて各種の処理を経た濃度データD及び色
情報(SCF,MCF)はインタフェース回路180を介して具体
的な画像形成機器に供されるようになっている。この画
像形成機器としては、二色再現を行なうレーザプリンタ
182、画像送受信機184等があり、更に、濃度データD及
び色情報がコンピュータ186に供され、当該コンピュー
タ186の補助記憶装置(磁気ディスク装置等)内に蓄え
て、各種の端末装置にて当該情報を利用するシステム態
様も可能である。上記レーザプリンタ182を接続する場
合には全体として二色複写機が構成され、また、画像送
受信機184を接続する場合には全体としてファクシミリ
が構成されることになる。
As described above, the correction / filter circuit 70 and the editing /
The density data D and color information (SCF, MCF) that have been subjected to various processes in the processing circuit 100 are supplied to specific image forming equipment via the interface circuit 180. This image forming device is a laser printer that performs two-color reproduction.
182, an image transceiver 184, etc., and further, density data D and color information are provided to a computer 186, stored in an auxiliary storage device (magnetic disk device, etc.) of the computer 186, and stored in various terminal devices. A system configuration using information is also possible. When the laser printer 182 is connected, a two-color copying machine is configured as a whole, and when the image transceiver 184 is connected, a facsimile is configured as a whole.

II.原画入力部 この画像入力部と次項IIIにて説明する色情報生成部
が一体となって本発明の構成要件たる画像読取り手段を
具体化している。
II. Original Image Input Unit This image input unit and the color information generation unit described in the following section III are integrated to realize an image reading unit which is a component of the present invention.

フルカラーセンサ10は、例えば、第4図に示すように
所定のドット密度(16ドット/mm)となる5つのCCDセン
サチップ10(1)〜10(5)が原稿副走査方向Sに対し
て交互に前後しながら、いわゆる千鳥状に配置され一体
となった構造となっている。各CCDセンサチップ10
(1)〜10(5)は、第5図に示すように、斜めに仕切
られた各セル(光電変換素子)の各受光面に対して緑
G、青B、赤Rのフィルタ(ゼラチンフィルタ等)が順
番に設けられている。そして、隣接した緑フィルタのセ
ル11gと青フィルタのセル11bと赤フィルタのセル11rが
1組となって各セルからの受光量(原稿反射率に対応)
に応じたレベルの出力信号が一画素P分の信号として処
理される。
The full-color sensor 10 includes, for example, five CCD sensor chips 10 (1) to 10 (5) having a predetermined dot density (16 dots / mm) as shown in FIG. It is a so-called staggered arrangement and integrated with each other. Each CCD sensor chip 10
As shown in FIG. 5, (1) to (5) show green G, blue B, and red R filters (gelatin filters) for each light receiving surface of each cell (photoelectric conversion element) that is obliquely partitioned. Etc.) are provided in order. The adjacent green filter cell 11g, blue filter cell 11b, and red filter cell 11r form a set and receive light from each cell (corresponding to the document reflectance).
Is processed as a signal for one pixel P.

センサインタフェース回路20は、基本的に、千鳥配置
された各CCDセンサチップ10(1)〜10(5)からの出
力信号に基づく色成分信号(G,B,R)を1ラインに揃え
るための補正機能、CCDセンサチップの各セルからの信
号としてシリアルに処理された各色成分信号(G,B,R)
を上記画素P単位のパラレル信号に変換する機能、一画
素Pにおける各色成分信号(G,B,R)の検出位置のずれ
に関する補正機能等を有している。
The sensor interface circuit 20 basically aligns the color component signals (G, B, R) based on the output signals from the staggered CCD sensor chips 10 (1) to 10 (5) into one line. Correction function, each color component signal (G, B, R) processed serially as a signal from each cell of the CCD sensor chip
Is converted into a parallel signal for each pixel P, a correction function for a shift in the detection position of each color component signal (G, B, R) in one pixel P, and the like.

第6図に示す回路は千鳥配置されたCCDセンサチップ
からの出力を1ラインに揃える機能を実現する回路であ
る。
The circuit shown in FIG. 6 is a circuit for realizing the function of aligning the outputs from the staggered CCD sensor chips into one line.

同図において、各CCDセンサチップ10(1)〜10
(5)からセル単位に順次シリアルに出力される信号が
増幅回路21(1)〜21(5)を介してA/D変換回路22
(1)〜22(5)に入力されている。各A/D変換回路22
(1)〜22(5)では上記受光量に応じた各セル単位の
センサ出力信号を例えば8ビットデータとして出力して
いる。この各A/D変換回路22(1)〜22(5)の後段に
はタイミング調整用のラッチ回路23(1)〜23(5)が
設けられ、特に、原稿副走査方向S(第4図参照)に対
して他のCCDセンサチップより前方に配置されたCCDセン
サチップ10(2)及び同10(4)の系統については当該
ラッチ回路23(2),23(4)の後段に先入れ先立し方
式のFIFOメモリ24、25が設けられている。このFIFOメモ
リ24,25はCCDセンサチップ10(2)及び同10(4)の系
統についての色成分信号の出力タイミングを遅延させて
他のCCDセンサチップ10(1),10(3),10(5)の系
統についての同一ライン信号の出力タイミングに揃える
ためのものである。従って、その書込みタイミングが所
定のタイミングに決定される一方、その読出しタイミン
グ(遅延量)はCCDセンサチップ10(2)及び10(4)
の走査ラインと他のCCDセンサチップの走査ライン間の
距離(例えば、62.5μm)と当該フルカラーセンサ10の
原稿走査速度に基づいて決定される。例えば、形成され
る画像の倍率に応じて走査速度が異なる場合には、その
倍率に応じて読出しタイミングが制御される。このよう
に、倍率等により読出しタイミングを可変にする場合に
は、読出しタイミングが最も遅くなる場合を想定してFI
FOメモリ24,25の容量が決められる(メモリ容量が許容
遅延量に対応する)。この各FIFOメモリ24,25の後段に
ラッチ回路26(2),26(4)が設けられる一方、CCDセ
ンサチップ10(1),10(3)、10(5)の系統につい
ては上記ラッチ回路23(1),23(3),23(5)の後段
には直接次のラッチ回路26(1),26(3),26(5)が
接続され、FIFO24,25を介した先行するCCDセンサチップ
10(2),10(4)の系統の色成分信号と他のセンサチ
ップの系統の色成分信号とが各ラッチ26(1)〜26
(6)にて同一走査ラインのものとして揃えられ、所定
のタイミングにて後段に転送される。各ラッチ回路26
(1)〜26(5)をみると、色成分信号が各CCDセンサ
チップのセル配置に対応してG→B→R→G→B→R→
……の順にシリアルに転送されることとなる。
In the figure, each CCD sensor chip 10 (1) to 10
Signals serially output from (5) in units of cells are sequentially transmitted to the A / D conversion circuit 22 via the amplification circuits 21 (1) to 21 (5).
(1) to (22) are input. Each A / D conversion circuit 22
In (1) to (5), the sensor output signal in each cell according to the light receiving amount is output as, for example, 8-bit data. At the subsequent stage of each of the A / D conversion circuits 22 (1) to 22 (5), latch circuits 23 (1) to 23 (5) for timing adjustment are provided. With respect to the CCD sensor chips 10 (2) and 10 (4), which are arranged in front of the other CCD sensor chips with respect to the other CCD sensor chips, the latch circuits 23 (2) and 23 (4) are provided first. First-come first-served FIFO memories 24 and 25 are provided. The FIFO memories 24 and 25 delay the output timing of the color component signals for the CCD sensor chips 10 (2) and 10 (4) by delaying the other CCD sensor chips 10 (1), 10 (3), 10 This is for adjusting the output timing of the same line signal for the system (5). Therefore, while the write timing is determined to be a predetermined timing, the read timing (delay amount) is determined by the CCD sensor chips 10 (2) and 10 (4).
Is determined based on the distance (for example, 62.5 μm) between the scanning line of the other CCD sensor chip and the scanning speed of the full-color sensor 10. For example, when the scanning speed is different according to the magnification of the image to be formed, the readout timing is controlled according to the magnification. As described above, when the read timing is made variable by the magnification or the like, the FI is assumed to be the slowest in the read timing.
The capacity of the FO memories 24 and 25 is determined (the memory capacity corresponds to the allowable delay amount). Latch circuits 26 (2) and 26 (4) are provided at the subsequent stage of each of the FIFO memories 24 and 25, while the CCD sensor chips 10 (1), 10 (3) and 10 (5) are provided with the above-mentioned latch circuits. The next latch circuit 26 (1), 26 (3), 26 (5) is directly connected to the subsequent stage of 23 (1), 23 (3), 23 (5), and the preceding CCD via FIFO 24, 25 is connected. Sensor chip
The color component signals of the 10 (2) and 10 (4) systems and the color component signals of the other sensor chips are stored in the respective latches 26 (1) to 26 (26).
In (6), they are aligned as those of the same scanning line, and are transferred to the subsequent stage at a predetermined timing. Each latch circuit 26
Looking at (1) to 26 (5), color component signals correspond to G → B → R → G → B → R → corresponding to the cell arrangement of each CCD sensor chip.
The data is serially transferred in the order of...

第7図に示す回路は上記のように各CCDセンサチップ
の系統においてシリアルに転送される各色成分信号を画
素単位のパラレル信号に変換する機能を実現する回路で
ある。
The circuit shown in FIG. 7 is a circuit for realizing the function of converting each color component signal serially transferred in the system of each CCD sensor chip into a parallel signal in pixel units as described above.

同図において、上記各CCDセンサチップ10(1)〜10
(5)に対応してシリアルパラレル変換回路30(1)〜
30(5)が設けられている。この各シリアルパラレル変
換回路30(i)(i=1,…,5)は上記のようにしてシリ
アルに転送される色成分信号(G,B,R)が並列的に入力
するラッチ回路31g,31b,31rを備え、この各ラッチ回路
は、31gが色成分信号G(緑)の転送時にアクティブと
なるクロック信号(Gクロック)に同期し、31bが色成
分信号B(青)の転送時にアクティブとなるクロック信
号(Bクロック)に同期し、更に31rが色成分信号R
(赤)の転送時にアクティブとなるクロック(Rクロッ
ク)に同期して各色成分信号をラッチするようになって
いる。また、上記各ラッチ回路31g,31b,31rの後段には
転送タイミングを調整するためにもう一度画素単位にラ
ッチするトライステートラッチ回路32g,32b,32rが設け
られており、各トライステートラッチ32g,32b,32rは上
記Rクロックの立下がりのタイミングにて前段のラッチ
データ(色成分信号)が同時に再ラッチされるようにな
っている。更に、このトライステートラッチ回路32g,32
b,32rはイネーブル信号(i)(i=1,…,5)にてその
出力の駆動/非駆動が制御される。
In the figure, each of the CCD sensor chips 10 (1) to 10 (10)
Serial-parallel conversion circuit 30 (1) to (5)
30 (5) are provided. Each of the serial / parallel conversion circuits 30 (i) (i = 1,..., 5) is a latch circuit 31g, to which the color component signals (G, B, R) serially transferred as described above are input in parallel. Each of the latch circuits 31b and 31r is such that 31g is synchronized with a clock signal (G clock) which becomes active when the color component signal G (green) is transferred, and 31b is active when the color component signal B (blue) is transferred. Is synchronized with the clock signal (B clock), and 31r is the color component signal R
Each color component signal is latched in synchronization with a clock (R clock) that becomes active at the time of transfer of (red). Further, at the subsequent stage of each of the latch circuits 31g, 31b, 31r, there is provided a tri-state latch circuit 32g, 32b, 32r for latching again for each pixel in order to adjust the transfer timing, and each tri-state latch 32g, 32b , 32r, the latch data (color component signal) of the preceding stage is simultaneously re-latched at the falling timing of the R clock. Further, the tri-state latch circuits 32g and 32g
The drive of b / 32r is controlled by the enable signal (i) (i = 1,..., 5).

上記シリアルパラレル変換回路30(1)〜30(5)の
後段にはメモリ回路34とこのメモリ回路34の書込み及び
読出しの制御を行なうタイミング制御回路36が設けられ
ている。メモリ回路34は各色成分(G,B,R)毎に専用の
メモリを有しており、各色成分のメモリに対する書込み
に際して上記イネーブル信号を(1)→(2)→(3)
→(4)→(5)の順番にそのアクティブ状態を切換
え、かつその書込みアドレスを所定の規則に従って制御
することにより、各色成分(G,B,R)毎にメモリ内に1
ライン分のデータが準次配列されるようになっている。
そして、各色成分のデータを各専用メモリから順次パラ
レルに読出すことにより画素単位の色成分データが1ラ
インの端から端まで順次後段に転送される。
A memory circuit 34 and a timing control circuit 36 for controlling writing and reading of the memory circuit 34 are provided at a stage subsequent to the serial / parallel conversion circuits 30 (1) to 30 (5). The memory circuit 34 has a dedicated memory for each color component (G, B, R). When writing each color component to the memory, the enable signal is changed from (1) to (2) to (3).
By switching the active state in the order of (4) → (5) and controlling the write address according to a predetermined rule, one memory is stored in the memory for each color component (G, B, R).
The data of the line is arranged in a quasi-order.
Then, by reading out the data of each color component from each dedicated memory sequentially in parallel, the color component data of each pixel is sequentially transferred from one end of one line to the subsequent stage.

なお、上記タイミング制御回路36での書込みタイミン
グと読出しタイミングの差によりこのメモリ回路34を境
に解像度の変換がなされる。例えば、メモリ回路34以降
の系での解像度が400SPIとなるようタイミング制御回路
36はその読出しタイミングを制御している。
It should be noted that the resolution is converted at the boundary of the memory circuit 34 by the difference between the write timing and the read timing in the timing control circuit 36. For example, a timing control circuit so that the resolution in the system after the memory circuit 34 is 400 SPI
Reference numeral 36 controls the read timing.

第8図に示す回路図は一画素における各色成分(G,B,
R)の検出位置のずれに関する補正機能を実現する回路
である。
The circuit diagram shown in FIG. 8 shows each color component (G, B,
R) is a circuit that realizes a correction function for the deviation of the detection position.

第5図に示すように、フルカラーセンサ10の構造上一
画素内で各色成分G,B,Rの読取り位置が空間的にずれて
いることから、各セルからの信号をそのまま色成分信号
として処理すると黒画像の境界部分に他の色画素が発生
してしまう現象、いわゆるゴースト発生等の問題が生ず
る。そこで、この補正回路は、このようなゴースト発生
等を防止するため、各色成分の読取り位置を見掛け上一
致させるようにしたものである。具体的には、第9図に
示す各セルの配列において、画素Pnに注目したときに各
色成分の読取り位置を仮想的にセルGnの位置となるよう
補正するものである。その補正の手法は、隣接画素Pn−
1を考慮して各色成分の読取り位置をセルGnの位置とな
るように加重平均するものである。即ち、 Gn=Gn …(1) Bn=(Bn−1+2Bn)/3 …(2) Rn=(2Rn−1+Rn)/3 …(3) の演算により各色成分データ(Gn,Bn,Rn)を得るように
している。
As shown in FIG. 5, since the reading position of each color component G, B, R is spatially shifted within one pixel due to the structure of the full color sensor 10, the signal from each cell is processed as it is as a color component signal. Then, there occurs a problem that another color pixel is generated at a boundary portion of the black image, that is, a so-called ghost occurs. Therefore, in order to prevent such a ghost or the like, this correction circuit makes the reading positions of the respective color components apparently coincide with each other. Specifically, in the arrangement of each cell shown in FIG. 9, when the pixel Pn is focused on, the reading position of each color component is corrected to be virtually the position of the cell Gn. The correction method is based on the method of correcting adjacent pixels Pn−
In consideration of 1, the weighted average is set so that the reading position of each color component becomes the position of the cell Gn. That is, Gn = Gn (1) Bn = (Bn-1 + 2Bn) / 3 (2) Rn = (2Rn-1 + Rn) / 3 (3) Each color component data (Gn, Bn, Rn) is obtained. Like that.

上記のような演算を実現する回路として例えば第8図
に示す回路がある。
As a circuit for realizing the above operation, there is a circuit shown in FIG. 8, for example.

第7図に示す回路にて画素単位に出力される色成分デ
ータがパラレルに当該補正回路に入力するようになって
いる。そして、G成分の系統についてはラッチ回路38g
が設けられ、B成分の系統についてはラッチ回路38bの
後段に次のラッチ回路41とラッチ回路38bにラッチされ
たデータを1ビットシフトするシフタ42が設けられると
共に、ラッチ回路41のラッチデータとシフタ42でのシフ
トデータを加算する加算器43及びこの加算器43での加算
結果をアドレス入力としてその1/3を出力するルックア
ップテーブル(ROM)44が設けられている。また、R成
分の系統についてはラッチ回路38rの後段に次のラッチ
回路45とラッチ回路45にラッチされたデータを1ビット
シフトするシフタ46が設けられると共に、ラッチ回路38
rのラッチデータとシフタ46でのシフトデータを加算す
る加算器47及びこの加算器47の加算結果をアドレス入力
として上記同様その1/3を出力するルックアップテーブ
ル(ROM)48が設けられている。このような構成によ
り、G成分の系統では上記(1)式を実現し、1ビット
シフトすることが2倍の演算を意味することから、B成
分の系統では上記(2)式、R成分の系統では上記
(3)式を実現している。
The color component data output for each pixel in the circuit shown in FIG. 7 is input to the correction circuit in parallel. Then, regarding the system of the G component, the latch circuit 38g
For the system of the B component, a subsequent latch circuit 41 and a shifter 42 for shifting the data latched by the latch circuit 38b by 1 bit are provided at the subsequent stage of the latch circuit 38b, and the latch data of the latch circuit 41 and the shifter 42 are provided. An adder 43 for adding the shift data at 42 and a look-up table (ROM) 44 for taking the result of addition at the adder 43 as an address input and outputting 1/3 thereof are provided. For the system of the R component, a next latch circuit 45 and a shifter 46 for shifting the data latched by the latch circuit 45 by 1 bit are provided at the subsequent stage of the latch circuit 38r.
There is provided an adder 47 for adding the latch data of r and the shift data in the shifter 46, and a lookup table (ROM) 48 for taking the addition result of the adder 47 as an address input and outputting 1/3 thereof as described above. . With such a configuration, the above-described equation (1) is realized in the G component system, and shifting by one bit means a double operation. Therefore, in the B component system, the above equation (2) and the R component In the system, the above equation (3) is realized.

以上がフルカラーセンサ10及びセンサインタフェース
回路20にて構成される画像入力部の基本的な構成であ
り、原稿をフルカラーセンサ10にて走査する際に、1ラ
インずつ所定の画素単位に各色成分データ(G,B,R)が
順次出力される。
The above is the basic configuration of the image input unit composed of the full-color sensor 10 and the sensor interface circuit 20. When the original is scanned by the full-color sensor 10, the color component data ( G, B, R) are sequentially output.

上記のように画像入力部での処理を終了した各色成分
信号は、一般的に行なわれるシェーディング補正等の処
理を経て次に説明する色画情報生成部に転送される。
Each color component signal that has been processed by the image input unit as described above is transferred to a color image information generation unit described below through a process such as shading correction that is generally performed.

III.色画情報生成部 第10図は第3図における色画情報生成回路50の具体的
な構造を示している。
III. Color Image Information Generating Unit FIG. 10 shows a specific structure of the color image information generating circuit 50 in FIG.

同図において、上記センサインタフェース回路20から
画素単位に転送される色成分データのうちG成分データ
とR成分データを入力してその差(R−G)を演算する
減算回路51と、B成分データとR成分データを入力して
その差(R−B)を演算する減算回路52が設けられてい
る。各減算回路51,52での減算結果はパラレルにルック
アップテーブル53のアドレス端に入力している。ルック
アップテーブル53は上記各減算結果に基づいて当該画素
の彩度C、色相Hの積(H×C)と色判別の出力を行な
うものであり、その読出しは8ビット単位で行なわれ、
例えば、上位5ビットが(H×C)の結果、下位3ビッ
トが色判定出力に割付けられている。
In the figure, a subtraction circuit 51 for inputting G component data and R component data of the color component data transferred from the sensor interface circuit 20 in pixel units and calculating a difference (R−G) between them, and B component data And a subtraction circuit 52 for inputting the R component data and calculating the difference (R−B). The result of the subtraction by each of the subtraction circuits 51 and 52 is input in parallel to the address end of the lookup table 53. The look-up table 53 outputs the product (H × C) of the saturation C and the hue H of the pixel and the color discrimination based on each of the subtraction results. The reading is performed in units of 8 bits.
For example, as a result of the upper 5 bits being (H × C), the lower 3 bits are allocated to the color determination output.

上記ルックアップテーブル53の内容は例えば次のよう
に定められている。
The contents of the look-up table 53 are determined, for example, as follows.

第11図に示すように、赤(R)の色成分と緑(G)の
色成分との差(R−G)を縦軸、赤(R)の色成分と青
(B)の色成分との差(R−B)を横軸とした色空間を
設定すると、原点0からの距離rと回転角θにて任意の
色の特定がなされる。距離rは主に彩度Cを決めるファ
クターとなり、当該色空間において原点0に近付く程無
彩色に近付く。また、回転角θは主に色相Hを決めるフ
ァクターとなっている。例えば、“赤”“マゼンタ”
“青”“シアン”“緑”“黄”は夫々当該色空間におい
て第11図の破線で囲まれた位置に分布している。
As shown in FIG. 11, the vertical axis represents the difference (RG) between the red (R) color component and the green (G) color component, and the red (R) color component and the blue (B) color component. When a color space with the difference (R−B) as the horizontal axis is set, an arbitrary color is specified by the distance r from the origin 0 and the rotation angle θ. The distance r is a factor mainly determining the saturation C. In the color space, the closer to the origin 0, the closer to the achromatic color. The rotation angle θ is a factor mainly determining the hue H. For example, "red""magenta"
“Blue”, “cyan”, “green”, and “yellow” are distributed at positions surrounded by broken lines in FIG. 11 in the color space.

上記のような関係から、(R−G)データと(R−
B)データから r={(R−G)+(R−B)1/2 に従って求められる原点からの距離rと、同(R−G)
データと(R−B)データから θ=tan-1{(R−G)/(R−B)} に従って求められる回転角θとによって特定される当該
色空間内の位置にて色判定がなされる。
From the relationship described above, (RG) data and (R-
B) The distance r from the origin obtained from the data in accordance with r = {(RG) 2 + (RB) 2 } 1/2 and the same as (RG)
A color determination is made at a position in the color space specified by the rotation angle θ obtained from the data and the (RB) data according to θ = tan −1 {(RG) / (RB)}. You.

また、彩度Cは、(R−G)データと(R−B)デー
タから上記式にて決る原点からの距離rと彩度Cとの関
係、例えば、実験的に定めた第12図に示すような関係に
従って求められる。なお、第12図において、距離rが所
定値r0より小さくなると、無彩色となって彩度Cが“0"
となる。
In addition, the saturation C is a relationship between the distance r from the origin and the saturation C determined from the (RG) data and the (RB) data by the above equation, for example, as shown in FIG. It is determined according to the relationship shown. In FIG. 12, when the distance r becomes smaller than the predetermined value r 0 , the color becomes achromatic and the saturation C becomes “0”.
Becomes

更に、色相Hは、(R−G)データと(R−B)デー
タから上記式にて決る回転角θと色相Hとの関係、例え
ば、実験的に定めた第13図に示すような関係に従って求
められる。なお、第13図において、回転角θが所定値θ
より小さいときは、色相Hを強制的に“0"とした。
Further, the hue H is a relationship between the rotation angle θ and the hue H determined by the above formula from the (RG) data and the (RB) data, for example, a relationship as experimentally determined as shown in FIG. Is required in accordance with In FIG. 13, the rotation angle θ is a predetermined value θ.
When it is smaller than 0 , the hue H is forcibly set to "0".

このように、色判別結果、彩度C及び色相Hは共に
(R−G)データ及び(R−B)データに基づいて求め
られることから、各減算回路51,5からの(R−G)及び
(R−B)をアドレス入力とするルックアップテーブル
53は上記演算、判定等の処理を実現してその色判別出力
及び彩度Cと色相Hの積(C×H)の出力を行なうよう
構成されている。そして、上述したように(C×H)の
値が5ビットで表現され、色判別結果が3ビットにて例
えば、 上記表1のように表現される。
As described above, since the color discrimination result, the saturation C and the hue H are both obtained based on the (RG) data and the (RB) data, the (RG) from each of the subtraction circuits 51 and 5 is obtained. Look-up table using RB and (RB) as address inputs
Reference numeral 53 is configured to realize the above-described processing such as calculation and determination, and to output the color discrimination and the product (C × H) of the saturation C and the hue H. Then, as described above, the value of (C × H) is represented by 5 bits, and the color determination result is represented by 3 bits. It is expressed as shown in Table 1 above.

なお、上記彩度C及び色相Hを決める上記第12図、第
13図に示す関係は、システムに要求される色分離に係る
能力等によって種々定められる。
FIG. 12 and FIG.
The relationship shown in FIG. 13 is determined variously depending on the ability related to color separation required of the system.

また第10図において、画素単位に並列的に入力される
各色成分データは、G成分データが0.6倍の乗算回路54
に入力し、B成分データが0.1倍の乗算回路55入力し、
R成分データが0.3倍の乗算回路56に入力している。各
乗算回路54,55,56での乗算結果は夫々加算回路57に入力
し、この加算回路57での加算結果V V=0.6G+0.3R+0.1B が当該画素の明度データとして後段に転送される。
In FIG. 10, each of the color component data input in parallel on a pixel-by-pixel basis is a multiplication circuit 54 in which the G component data is 0.6 times larger.
, And the B component data is input to the multiplication circuit 55 of 0.1 times,
The R component data is input to a multiplication circuit 56 of 0.3 times. The multiplication results of the multiplication circuits 54, 55, and 56 are respectively input to an addition circuit 57, and the addition result VV = 0.6G + 0.3R + 0.1B of the addition circuit 57 is transferred to the subsequent stage as brightness data of the pixel. .

上記明度データVは色成分データGBRのうちG成分デ
ータを基にしてその値にB成分データとR成分データの
値を加味して生成している。これは、イメージセンサ
(フルカラーセンサ10)におけるG成分信号の分光感度
曲線が人間の比視感度曲線に近い特性をもっているから
である。上記明度Vを決定する式における各係数(各乗
算回路における乗算値)は、イメージセンサの分光感度
特性、露光ランプの分光分布等ににより最終的に決定さ
れるものである。
The brightness data V is generated based on the G component data of the color component data GBR, taking into account the values of the B component data and the R component data. This is because the spectral sensitivity curve of the G component signal in the image sensor (full color sensor 10) has characteristics close to the human luminous efficiency curve. Each coefficient (multiplied value in each multiplication circuit) in the expression for determining the brightness V is finally determined by the spectral sensitivity characteristics of the image sensor, the spectral distribution of the exposure lamp, and the like.

なお、上記のようにG成分信号の分光感度特性が人間
の比視感度特性に近いことから、当該システムに要求さ
れる能力に応じ、この明度データVとしてG成分データ
だけを使用することも可能である。
Since the spectral sensitivity characteristic of the G component signal is close to the human relative luminous efficiency characteristic as described above, it is also possible to use only the G component data as the brightness data V according to the capability required for the system. It is.

上記ルックアップテーブル53からの彩度及び色相に関
する出力(H×C)と色判別データ及び加算回路57から
の明度データVは次のルックアップテーブル58のアドレ
ス入力となり、このルックアップテーブル58はアドレス
入力に対応した色濃度データDcを出力する機能を有して
いる。具体的には、上記各入力に対して Dc=K×C×H×V に従って決定する色濃度データDcを出力する。ここでK
は、色判定データに応じて異なる係数である。この係数
Kは、有彩色と無彩色では有彩色の方が明るく感じるこ
とから、この有彩色と無彩色の明度レベルを合せるため
のものであり、各判別色に応じて予め実験的に定めら
れ、その値は、例えば1.1〜1.3程度の範囲内の値に設定
される。
The output (H × C) relating to saturation and hue from the look-up table 53, the color discrimination data and the brightness data V from the adder circuit 57 become the address input of the next look-up table 58, and the look-up table 58 It has a function of outputting color density data Dc corresponding to the input. Specifically, it outputs color density data Dc determined according to Dc = K × C × H × V for each of the above inputs. Where K
Is a coefficient different depending on the color determination data. The coefficient K is used to match the lightness level between the chromatic color and the achromatic color because the chromatic color and the achromatic color seem brighter, and is determined experimentally in advance in accordance with each discrimination color. Is set to a value within a range of, for example, about 1.1 to 1.3.

上記ルックアップテーブル53からの色判別出力(3ビ
ット)とラッチ回路60に設定される色選択データが一致
回路59に入力しており、色判別出力と色選択データとが
一致したときに一致回路59の出力がHレベルに立上がる
ようになっている。この色選択データはオペレータの操
作入力あるいは、ディップスイッチ等による設定入力に
基づいて上記ラッチ回路60にセットされるもので、サブ
カラーとして再現する色に対応した3ビットデータ(上
記表1参照)となる。一致回路59の出力は、色選択に設
定されたサブカラー(例えば、赤)であるか否かを示す
サブカラーフラグSCF(色情報)として機能し、更に、
選択回路61及び同62の出力選択信号(SEL)となってい
る。選択回路61は、選択信号の状態に応じて明度データ
Vと“0"データとを切換える機能を有しており、選択信
号がHレベルのときに“0"データを、同選択信号がLレ
ベルのときに明度データVを出力するようになってい
る。選択回路62は選択信号の状態に応じてルックアップ
テーブル58からの色濃度データDcと上記選択回路61から
のデータとを切換える機能を有しており、選択信号がH
レベルのときに色濃度データDcを、同選択信号がLレベ
ルのときに選択回路61からのデータを出力するようにな
っている。また、選択回路61の出力ビットはそのままオ
ア回路63に入力しており、このオア回路63の出力がメイ
ンカラー(例えば、黒)であるか否かを示すメインカラ
ーフラグMCF(色情報)として機能する一方、選択回路6
2の出力は濃度データとして後段に転送される。
The color discrimination output (3 bits) from the look-up table 53 and the color selection data set in the latch circuit 60 are input to the coincidence circuit 59. The output of signal 59 rises to H level. The color selection data is set in the latch circuit 60 based on an operation input by an operator or a setting input by a dip switch or the like. Become. The output of the matching circuit 59 functions as a sub color flag SCF (color information) indicating whether or not the color is a sub color (for example, red) set for color selection.
This is an output selection signal (SEL) of the selection circuits 61 and 62. The selection circuit 61 has a function of switching between the brightness data V and “0” data according to the state of the selection signal. In this case, the brightness data V is output. The selection circuit 62 has a function of switching between the color density data Dc from the look-up table 58 and the data from the selection circuit 61 according to the state of the selection signal.
When the level is at the level, the color density data Dc is output, and when the selection signal is at the L level, the data from the selection circuit 61 is output. The output bit of the selection circuit 61 is directly input to the OR circuit 63, and functions as a main color flag MCF (color information) indicating whether or not the output of the OR circuit 63 is a main color (for example, black). While the selection circuit 6
The output of 2 is transferred to the subsequent stage as density data.

上記のような色画情報生成回路では、原稿のメインカ
ラー(黒)領域においては、一致回路59の出力がLレベ
ルとなって、加算回路57からの明度データVがそのまま
選択回路61、同62を経て濃度データDとして後段に転送
される。このとき、明度データVが“0"でないことから
メインカラーフラグMCFがHレベルとなり、一致回路59
の出力がLレベルであることからサブカラーフラグSCF
がLレベルとなる(第14図におけるメインカラー領域Em
参照)。また、原稿のサブカラー領域(例えば、赤)に
おいては、一致回路59の出力がHレベルとなって、ルッ
クアップテーブル58からの色濃度データが選択回路62を
経て濃度データDとして後段に転送される。このとき、
選択回路61の出力が“0"であることからメインカラーフ
ラグMCFがLレベルとなり、一致回路59の出力がHレベ
ルであることからサブカラーフラグSCFがHレベルとな
る(第14図にけるサブカラー領域Es参照)。更に、原稿
の背景領域(濃度“0")においては、選択回路61の出力
が“0"で更に一致回路59の出力もLレベルとなることか
ら、濃度データDが“0"となってメインカラーフラグMF
C及びサブカラーフラグSCFともにLレベルとなる(第14
図における背景領域En参照)。上記各演算回路はタイミ
ング制御回路(図示略)の制御下において画素単位に同
期がとられて駆動しており、濃度データD及びカラーフ
ラグ(MSF,SMF)は同一画素の対となるデータとして次
段の補正・フィルタ回路70に順次転送される。
In the color image information generating circuit as described above, in the main color (black) area of the original, the output of the matching circuit 59 is at L level, and the brightness data V from the adding circuit 57 is directly used as the selecting circuits 61 and 62. Are transferred to the subsequent stage as density data D. At this time, since the brightness data V is not “0”, the main color flag MCF becomes H level, and the matching circuit 59
Is low, the sub color flag SCF
Becomes the L level (the main color area Em in FIG. 14).
reference). In the sub-color area (for example, red) of the original, the output of the matching circuit 59 becomes H level, and the color density data from the lookup table 58 is transferred to the subsequent stage as density data D via the selection circuit 62. You. At this time,
Since the output of the selection circuit 61 is "0", the main color flag MCF goes low, and the output of the coincidence circuit 59 goes high, so that the sub color flag SCF goes high (see FIG. 14). See color area Es). Further, in the background area (density “0”) of the original, the output of the selection circuit 61 is “0” and the output of the matching circuit 59 is also at L level, so that the density data D is “0” and Color flag MF
Both C and sub-color flag SCF are at L level (14th
(See the background area En in the figure). Each of the arithmetic circuits is driven synchronously on a pixel-by-pixel basis under the control of a timing control circuit (not shown). The density data D and the color flags (MSF, SMF) are converted into data of the same pixel as the following data. The data is sequentially transferred to the correction / filter circuit 70 of the stage.

このように濃度デターDとカラーフラグ(MCF,SCF)
が画素単位に対になって転送された補正・フィルタ回路
70では、補正処理、例えば、読取り光学系の色収差、フ
ルカラーセンサ10の色感度の偏り等によりメインカラー
(黒)と背景部(白)との境界部にサブカラー(赤)と
判定されたドットがゴーストとして出現するのを防止す
るためのゴースト補正等の各種補正処理が、また、フィ
ルタ処理、例えば、高域を強調するMTF補正、モアレを
防止するための高域カット補正等の各種フィルタ処理が
行なわれる。
Thus, the density data D and the color flag (MCF, SCF)
Correction and filter circuit transferred in pairs for each pixel
In 70, the dot determined to be the sub-color (red) at the boundary between the main color (black) and the background (white) due to correction processing, for example, chromatic aberration of the reading optical system, bias of the color sensitivity of the full-color sensor 10, and the like. Correction processing such as ghost correction to prevent the appearance of ghosts, and filter processing such as MTF correction for emphasizing high frequencies and various filter processing such as high frequency cut correction to prevent moiré Is performed.

IV.外形線画生成部 この外形線画生成部にて、本発明の構成要件たる主走
査方向エッジ検出手段、副走査方向エッジ検出手段、更
に外形線生成手段が具体化されている。
IV. Outline Drawing Generation Unit The outline drawing generation unit embodies the main scanning direction edge detection unit, the sub-scanning direction edge detection unit, and the outline generation unit, which are constituent elements of the present invention.

第15図は二値化回路であり、本発明の具体的な一構成
要件となる二値画情報変換手段を具体化している。
FIG. 15 shows a binarizing circuit, which embodies a binary image information converting means which is a specific component of the present invention.

同図において、101は上述したように補正・フィルタ
回路70を介した色画情報生成回路50からの256階調表現
(多階調表現)の濃度データDと所定の二値化レベルと
を比較する比較回路あり、この比較回路101は当該多階
調表現の濃度データDを二値の画像データに変換する機
能を有している。また、同様に色画情報生成回路50から
のメインカラーフラグMCF、サブカラーフラグSCFが夫々
上記二値化された画像データにてゲートコントロールさ
れる各アンドゲート102,103に入力し、このアンドゲー
ト102の出力が新たなメインカラーフラグMCFに、アンド
ゲート103の出力が新たなサブカラーフラグSCFとなって
いる。
In the figure, reference numeral 101 compares the density data D of 256-tone expression (multi-tone expression) from the color image information generation circuit 50 via the correction / filter circuit 70 with a predetermined binarization level as described above. The comparison circuit 101 has a function of converting the density data D of the multi-tone expression into binary image data. Similarly, the main color flag MCF and the sub color flag SCF from the color image information generation circuit 50 are input to the respective AND gates 102 and 103 which are gate-controlled by the binarized image data, respectively. The output is a new main color flag MCF, and the output of the AND gate 103 is a new sub color flag SCF.

このような構成により、多階調表現の濃度データDと
対応するメインカラーフラグMCF、サブカラーフラグSCF
は、例えば、第16図に示すように、二値の画像データ及
び新たなメインカラーフラグMCF、サブカラーフラグSCF
に夫々変換される。即ち、画像データは濃度データDが
二値化レベル以上となるときに立上った状態(イメージ
部)となり、新たなメインカラーフラグMCF及び新たな
サブカラーフラグSCFは、画像データが立上った状態の
ときに限りもとのフラグ状態に、画像データが立下がっ
た状態(非イージ部)のときには強制的に立下げられた
状態になる。
With such a configuration, the main color flag MCF and the sub color flag SCF corresponding to the density data D of multi-tone expression
For example, as shown in FIG. 16, binary image data and a new main color flag MCF and sub color flag SCF
Are converted respectively. That is, the image data rises when the density data D becomes higher than the binarization level (image portion), and the new main color flag MCF and the new sub color flag SCF rise when the image data rises. When the image data falls (the non-easy portion), the flag is forcibly turned down.

更に、各走査ラインLn毎に上記のようにして得られる
画像データ(n)、メインカラーフラグMCF(n)、サ
ブカラーフラグSCF(n)は先入れ先出し方式のFIFOメ
モリ104に供されており、各走査の過程で、1ライン前
の同一画素位置における画像データ(n−1)、メイン
カラーフラグMCF(n−1)、サブカラーフラグSCF(n
−1)がFIFOメモリ104から得られるようになってい
る。
Further, the image data (n), main color flag MCF (n), and sub color flag SCF (n) obtained for each scanning line Ln as described above are provided to a FIFO memory 104 of a first-in first-out system. In the scanning process, the image data (n-1), the main color flag MCF (n-1), and the sub color flag SCF (n
-1) can be obtained from the FIFO memory 104.

外形線抽出回路の全体構成は、例えば、第17図に示す
ようになっている。
The overall configuration of the outline extraction circuit is, for example, as shown in FIG.

上記二値化回路から出力される注目ライン上の画像デ
ータ(n)が二入力アンドゲート112の一端に入力し、
このアンドゲート112の他の入力端には1ライン前の同
一画素位置での画像データ(n−1)がインバータ113
を介して入力している。また、この1ライン前の画像デ
ータ(n−1)は他の二入力アンドゲート115の一端に
入力し、このアンドゲート115の他の入力端には当該注
目ライン上の画像データ(n)がインバータ114を介し
て入力している。そして、上記各アンドゲート112,115
の出力がオアゲート116に入力している。ここで、副走
査方向について非イメージ部からイメージ部に変化する
境界点で画像データがLレベルからHレベルに変化する
ところでは(画像データ(n−1)=L,画像データ
(n)=H)、アンドゲート112の出力がHレベルとな
る一方、同副走査方向についてイメージ部から非イメー
ジ部に変化する境界点で画像データがHレベルからLレ
ベルに変化するところでは(画像データ(n−1)=H,
画像データ(n)=L)、アンドゲート115の出力がH
レベルとなる。従って、アンドゲート112の出力が非イ
メージ部からイメージ部に変化する境界点の検出信号と
なり、アンドゲート115の出力がイメージ部から非イメ
ージ部に変化する境界点の検出信号となり、そして、そ
れらの論理和となるオアゲート116の出力が各画素位置
における最終的な副走査方向のイメージエッジ検出信号
となる。
Image data (n) on the line of interest output from the binarization circuit is input to one end of a two-input AND gate 112,
Image data (n-1) at the same pixel position one line before is input to the other input terminal of the AND gate 112 by the inverter 113.
You are typing through. The image data (n-1) one line before is input to one end of another two-input AND gate 115, and the image data (n) on the line of interest is input to the other input end of the AND gate 115. It is input via the inverter 114. And each of the above-mentioned AND gates 112 and 115
Is input to the OR gate 116. Here, where the image data changes from the L level to the H level at the boundary point where the non-image portion changes to the image portion in the sub-scanning direction, (image data (n-1) = L, image data (n) = H ), While the output of the AND gate 112 goes to the H level, and where the image data changes from the H level to the L level at the boundary point where the image portion changes from the image portion to the non-image portion in the same sub-scanning direction (image data (n− 1) = H,
Image data (n) = L), and the output of AND gate 115 is H
Level. Therefore, the output of the AND gate 112 is a detection signal of a boundary point where the non-image portion changes from the image portion to the image portion, and the output of the AND gate 115 is a detection signal of a boundary point where the image portion changes from the image portion to the non-image portion. The output of the OR gate 116 that is the logical sum becomes the final image edge detection signal in the sub-scanning direction at each pixel position.

また、上記注目走査ライン上の画像データ(n)と1
ライン前の同一画素位置での画像データ(n−1)がオ
アゲート111に入力し、このオアゲート111の出力が新た
な画像データとして主走査方向外形検出回路120に入力
している。なお、主走査方向外形検出回路120が当該画
像データ(n)と1ライン前の画像データ(n−1)と
の論理和(オアゲート111)を新たな画像データとして
処理する理由は後述する。
Further, the image data (n) on the target scanning line and 1
Image data (n-1) at the same pixel position before the line is input to the OR gate 111, and the output of the OR gate 111 is input to the main scanning direction outer shape detection circuit 120 as new image data. The reason why the main scanning direction outer shape detection circuit 120 processes the logical sum (OR gate 111) of the image data (n) and the image data (n-1) one line before as new image data will be described later.

主走査方向外形検出回路120の具体的な構成は、例え
ば、第18図に示すようになっている。
The specific configuration of the main scanning direction outer shape detection circuit 120 is, for example, as shown in FIG.

同図において、121,131は夫々画像読取りのタイミン
グ信号となるビデオクロック信号(v.CLOCK)を計数す
るカウンタであり、各カウンタ121,123はロード信号(L
D)がLレベルの期間に初期データがセットされ、この
初期データからの総計数値が最大値(例えば、255)に
なったときにキャリC出力を立上げるようになってい
る。そして、各カウンタ121,123にはCPUからの外形線幅
データが初期データDとして入力すると共に、上記画像
データがそのままカウンタ121のロード信号として入力
し、当該画像データのインバータ122を介した反転信号
がカウンタ123のロード信号として入力している。ここ
で、上記外形線幅データは、オペレータがコンソールパ
ネル上のテンキー等の操作により入力するもので、具体
的には、オペレータが抽出すべき外形線の画素幅wを入
力すると、外形線幅データXが X=256+1−w に従って演算され、その演算結果XがCPUから各カウン
タ121,123に供される。なお、この場合、設定可能な画
素幅wは2ドット以上となる(最大設定画素幅は、例え
ば、129ドット)。
In the figure, reference numerals 121 and 131 denote counters for counting a video clock signal (v.CLOCK) serving as an image reading timing signal, and each of the counters 121 and 123 is a load signal (L).
Initial data is set during the period when D) is at the L level, and the carry C output is started when the total count value from the initial data reaches the maximum value (for example, 255). The external line width data from the CPU is input to each of the counters 121 and 123 as initial data D, the image data is input as it is as a load signal of the counter 121, and an inverted signal of the image data via the inverter 122 is input to the counter 121 and 123. Input as 123 load signal. Here, the contour line width data is input by the operator by operating a numeric keypad or the like on the console panel. Specifically, when the operator inputs the pixel width w of the contour line to be extracted, the contour line width data X is calculated according to X = 256 + 1-w, and the calculation result X is provided from the CPU to each of the counters 121 and 123. In this case, the settable pixel width w is 2 dots or more (the maximum set pixel width is, for example, 129 dots).

124は上記各カウンタ121,123からのキャリC出力をビ
デオクロック信号(V.CLOCK)に同期して夫々並列的に
ラッチする4連構成のラッチ回路、125は画像データの
立上りでセット、反転回路145の出力(カウンタ121のキ
ャリC出力)の立下がりにてリセットされるフリップフ
ロップ、126は画像データの立下がりでセット、反転回
路146の出力(カウンタ123のキャリC出力)の立下がり
にてリセットされるフリップフロップであり、各フリッ
プフロップ125,126のデータ端子は常時Hレベルルに固
定されている。そして、各フリップフロップ125,126の
出力Qがオアゲート127に入力し、このオアゲート127の
出力が主走査方向外形検出信号となる。
124 is a quadruple latch circuit for latching the carry C output from each of the counters 121 and 123 in parallel in synchronization with the video clock signal (V.CLOCK). 125 is set at the rising edge of the image data. A flip-flop 126 is reset at the falling edge of the output (the carry C output of the counter 121). The flip-flop 126 is set at the falling edge of the image data, and is reset at the falling edge of the output of the inverting circuit 146 (the carry C output of the counter 123). The data terminals of the flip-flops 125 and 126 are always fixed at H level. Then, the output Q of each of the flip-flops 125 and 126 is input to the OR gate 127, and the output of the OR gate 127 becomes a main scanning direction outer shape detection signal.

このような構成の主走査方向外形検出回路120では、
例えば、画素幅w=3画素の設定入力がなされた場合の
処理では、各部の信号状態は第19図に示すようになる。
In the main scanning direction outer shape detection circuit 120 having such a configuration,
For example, in the processing when a setting input of a pixel width w = 3 pixels is made, the signal states of the respective parts are as shown in FIG.

まず、原稿走査の過程で前の画像データの立下がりに
てカウンタ121に外形線幅データX=256+1−3=254
が初期データとしてセットされた状態にあり、この状態
で、当該画像データが立上ると、同時にフリップフロッ
プ125の出力QがHレベルに立上る。このとき他のカウ
ンタ123に上記外形線幅データ254が初期データとしてセ
ットされる。その後、走査の過程でカウンタ121がビデ
オクロック(V.CLOCK)を1クロック計数すると(計数
値256>255)そのキャリ出力Cが立上る。次のビデオク
ロック(V.CLOCK)の立上がりのタイミングでキャリ出
力CがLレベルに立下がり、ラッチ回路124の出力2Qが
Hレベルに立上がる。次のビデオクロック(V.CLOCK)
の立上がりのタイミングでラッチ回路124の出力2QがL
レベルに立下がり、ラッチ回路124の出力4Qが立上がっ
て反転回路145の出力がLレベルに立下がる。これによ
り、フリップフロップ125にリセットがかかり、フリッ
プフロップ125の出力QがLレベルに立下がる。以後、
イメージ部分を走査する過程で画像データがHレベルを
保持している間はこの状態を保持する。走査がイメージ
部と非イメージ部の境界点に達し、画像データが立下が
ると、同時にフリップフロップ126の出力QがHレベル
に立上る。その後、上記の場合と同様に、走査の過程で
カウンタ123がビデオクロック(V.CLOCK)を1クロック
計数すると(計数値256>255)そのキャリ出力Cが立上
る。次のビデオクロック(V.CLOCK)の立上がりのタイ
ミングでキャリ出力CがLレベルに立下がり、ラッチ回
路124の出力1QがHレベルに立上がる。次のビデオクロ
ック(V.CLOCK)の立上がりのタイミングでラッチ回路1
24の出力1QがLレベルに立下がり、ラッチ回路124の出
力3Qが立上って反転回路146の出力がLレベルに立下が
る。これにより、フリップフロップ126がリセットさ
れ、その出力がHレベルに立下がる。
First, in the course of scanning of the original, the outline width data X = 256 + 1-3 = 254 is added to the counter 121 at the fall of the previous image data.
Are set as initial data. In this state, when the image data rises, the output Q of the flip-flop 125 rises to the H level at the same time. At this time, the external line width data 254 is set in other counters 123 as initial data. Thereafter, when the counter 121 counts one video clock (V.CLOCK) in the scanning process (count value 256> 255), the carry output C rises. At the next rising timing of the video clock (V.CLOCK), carry output C falls to L level, and output 2Q of latch circuit 124 rises to H level. Next video clock (V.CLOCK)
The output 2Q of the latch circuit 124 becomes L at the rising timing of
The output 4Q of the latch circuit 124 rises, and the output of the inversion circuit 145 falls to the L level. As a result, the flip-flop 125 is reset, and the output Q of the flip-flop 125 falls to the L level. Since then
This state is maintained while the image data maintains the H level in the process of scanning the image portion. When the scanning reaches the boundary point between the image portion and the non-image portion and the image data falls, the output Q of the flip-flop 126 rises to the H level at the same time. Thereafter, as in the case described above, when the counter 123 counts one video clock (V.CLOCK) during the scanning process (count value 256> 255), the carry output C rises. At the next rising timing of the video clock (V.CLOCK), carry output C falls to L level, and output 1Q of latch circuit 124 rises to H level. At the rising edge of the next video clock (V.CLOCK), the latch circuit 1
24, the output 1Q falls to the L level, the output 3Q of the latch circuit 124 rises, and the output of the inversion circuit 146 falls to the L level. Thereby, flip-flop 126 is reset, and its output falls to H level.

上述したような処理の結果、フリップフロップ125,12
6の出力Qの論理和となる主走査方向外形信号は、画像
データの立上りから3クロックの間、同立下がりから3
クロックの間Hレベルの状態となる。即ち、この走査方
向外形信号は非イメージ部からイメージ部への変化点
(画像データの立上り)からその走査方向へ3画素幅、
イメージ部から非イメージ部への変化点(画像データの
立下がり)からその走査方向へ3画素幅の外形線を表わ
すことになる。
As a result of the processing as described above, the flip-flops 125 and 12
The external shape signal in the main scanning direction, which is the logical sum of the outputs Q of 6, is 3 clocks from the rising edge of the image data and 3
It is at the H level during the clock. In other words, the scanning direction outer shape signal has a width of three pixels in the scanning direction from a change point (rising edge of image data) from the non-image portion to the image portion,
From the point of change from the image portion to the non-image portion (fall of the image data), an external line having a width of three pixels is represented in the scanning direction.

更に、第17図において、上記主走査方向外形検出回路
120からの主走査方向外形信号とオアゲート116からの副
走査方向のイメージエッジ検出信号が夫々オアゲート12
8に入力している。その結果、このオアゲート128の出力
はイメージの主走査方向及び副走査方向のエッジ部分に
て立上る信号となる。
Further, in FIG. 17, the main scanning direction outer shape detection circuit is used.
The outer scanning signal from the main scanning direction 120 and the image edge detection signal in the sub-scanning direction from the OR gate 116 are respectively OR gates 12.
Enter in 8. As a result, the output of the OR gate 128 becomes a signal that rises at the edges of the image in the main scanning direction and the sub-scanning direction.

一方、129は走査ラインの各画素位置に対応した格納
アドレスを有するFIFO構成(先入れ先出し)のラインメ
モリである。このラインメモリ129は例えば、8ビット
のデータラインのうち上位7ビット(最大127)が線幅
に関する数値データ、最下位ビットがフラグデータに割
付けられ、ビデオクロック(V.CLOCK)がそのリード/
ライトクロック(RCK/WCK)、有効な1走査ラインを表
わすビデオバリッド信号(V.VAD)がそのリード/ライ
トイネーブル信号(RE/WE)となり、それらの各信号に
基づいて読み書き制御がなされるようになっている。13
0は選択回路であり、この選択回路130は、副走査方向の
抽出すべき外形線幅として設定された外形線幅データX
(7ビット)と後述するエッジ検出時フラグ(1ビッ
ト)とで構成される8ビットデータ(A)と上記ライン
メモリ129からの8ビットデータ(線幅に関する7ビッ
トとフラグデータ1ビット)(B)のいずれかを選択的
に出力(Y)する機能を有している。具体的には、選択
信号SがHレベルのときにA入力側を、同選択信号がL
レベルのときにB入力側を夫々選択するようになってい
る。そして、上記主走査方向及び副走査方向のイメージ
エッジ部分にて立上るオアゲート128の出力信号がこの
選択回路130の選択信号Sとなっている。なお、上記副
走査方向の外形線幅データXは、オペレータがその画素
幅wを指定(操作入力)すると、 X=128+1w にて従って演算され、この選択回路130に供給される。
On the other hand, reference numeral 129 denotes a FIFO (first-in first-out) line memory having a storage address corresponding to each pixel position of the scanning line. In the line memory 129, for example, the upper 7 bits (up to 127) of the 8-bit data line are assigned to numerical data relating to the line width, the least significant bit is assigned to the flag data, and the video clock (V.CLOCK) is read / read.
A write clock (RCK / WCK) and a video valid signal (V.VAD) representing a valid one scanning line become a read / write enable signal (RE / WE), and read / write control is performed based on each signal. It has become. 13
0 is a selection circuit, and the selection circuit 130 outputs the outline line width data X set as the outline line width to be extracted in the sub-scanning direction.
8-bit data (A) composed of (7 bits) and an edge detection flag (1 bit) described later, and 8-bit data (7 bits relating to line width and 1 bit of flag data) from the line memory 129 (B ) Is selectively output (Y). Specifically, when the selection signal S is at the H level, the A input side is input, and when the selection signal S is at the L level,
At the level, the B input side is selected. The output signal of the OR gate 128 rising at the image edge portion in the main scanning direction and the sub-scanning direction is the selection signal S of the selection circuit 130. The contour line width data X in the sub-scanning direction is calculated according to X = 128 + 1w when the operator specifies the pixel width w (operation input), and is supplied to the selection circuit 130.

131は加算回路であり、この加算回路131は、上記選択
回路130からの線幅に関する7ビットデータをA入力と
すると共に、上記オアゲート128の出力ビットからイン
バータ132、アンドゲート133を介して得られる“1"また
は“0"データをB入力として、A+Bの演算(Σ)を行
なうものである。ここで、上記ラインメモリ129から読
出される線幅に関する7ビットデータはオア回路134に
よりその各ビットの論理和がとられ、この論理和信号が
一読取りサイクルを示すページシンク信号(PAGE SYN
C)にてゲートコントロールされるアンドゲート135を介
して上記加算回路131のB入力前段のアンドゲート133の
コントロール信号となっている。また、加算回路131の
演算結果(Σ)は選択回路130からの対になるフラグデ
ータと共にラインメモリ129に帰還されている。
Reference numeral 131 denotes an addition circuit. The addition circuit 131 receives 7-bit data regarding the line width from the selection circuit 130 as an A input, and obtains the output bits of the OR gate 128 through an inverter 132 and an AND gate 133. The A + B operation (Σ) is performed by using “1” or “0” data as B input. Here, the 7-bit data relating to the line width read from the line memory 129 is ORed with each bit by the OR circuit 134, and this OR signal is used as a page sync signal (PAGE SYN) indicating one read cycle.
The signal is a control signal of the AND gate 133 in the preceding stage of the B input of the adding circuit 131 via the AND gate 135 which is gate-controlled by C). The operation result (Σ) of the addition circuit 131 is fed back to the line memory 129 together with the paired flag data from the selection circuit 130.

更に、上記主走査方向及び副走査方向のイメージエッ
ジ部分にて立上がるオアゲート128の出力信号がアンド
ゲート138のコントロール信号になると共にインバータ1
37を介したその反転信号がアンドゲート139のコントロ
ール信号となっている。このようにゲートコントロール
されるアンドゲート138には上記エッジ検出時フラグ
が、同アンドゲート139にはラインメモリ129からのフラ
グデータが入力し、各アンドゲート138,139の出力信号
が夫々オアゲート140に入力している。このオアゲート1
40の出力信号がアンドゲート142のコントロール信号に
なると共にインバータ141を介したその反転信号がアン
ドゲート143のコントロール信号となり、上記アンドゲ
ート135の出力信号とオアゲート128の出力信号とがオア
ゲート136を介して上記アンドゲート142,143に夫々並列
的に入力している。そして、このアンドゲート142の出
力がサブカラー(赤)で表現された外形線を示すSC外形
信号、アンドゲート143の出力がメインカラー(黒)で
表現された外形線を示すMC外形信号となっている。
Further, the output signal of the OR gate 128 rising at the image edge portion in the main scanning direction and the sub-scanning direction becomes the control signal of the AND gate 138 and the inverter 1
The inverted signal via 37 is a control signal for the AND gate 139. The edge detection flag is input to the AND gate 138 which is gate-controlled in this way, the flag data from the line memory 129 is input to the AND gate 139, and the output signals of the AND gates 138 and 139 are input to the OR gate 140, respectively. ing. This or gate 1
The output signal of the AND gate 142 becomes a control signal of the AND gate 142, and its inverted signal becomes the control signal of the AND gate 143.The output signal of the AND gate 135 and the output signal of the OR gate 128 are transmitted through the OR gate 136. Are input to the AND gates 142 and 143 in parallel. The output of the AND gate 142 is an SC outline signal indicating an outline represented by a sub color (red), and the output of the AND gate 143 is an MC outline signal indicating an outline represented by a main color (black). ing.

上述したエッジ検出時フラグについて説明する。 The above-described edge detection flag will be described.

当該画像処理装置は2色のデータ(メインカラー、サ
ブカラー)を扱っていることから、イメージのエッジを
検出したときにその部分の色をエッジ検出時フラグとし
て表現している。そのフラグ生成の具体的な回路は、例
えば、第20図に示すようになっている。
Since the image processing apparatus handles data of two colors (main color and sub color), when an edge of an image is detected, the color of that part is expressed as an edge detection flag. A specific circuit for generating the flag is, for example, as shown in FIG.

第20図において、副走査方向ついて非イメージ部から
イメージ部に変化する境界点の検出信号(副走査L→H
検出)、具体的には第17図におけるアンドゲート112出
力と、第15図におけるアンドゲート103出力となる新サ
ブカラーブラグSCFとが入力するアンドゲート151と、同
副走査方向についてイメージ部から非イメージ部に変化
する境界点の検出信号(副走査H→L)、具体的には第
17図におけるアンドゲート115出力と、第15図における
アンドゲート102出力となる新メインカラーフラグMCFと
が入力するアンドゲート152とを有し、各アンドゲート1
51,152の出力信号がオアゲート153に入力している。こ
こで、アンドゲート151の出力は非イメージ部からイメ
ージ部に変化した境界点の画素の色フラグであるが、画
像読取りの過程においては非イメージ部からイメージ部
への変化はイメージ部の画素を読取った際に判定できる
ことから、当該読取り画素(n)のサブカラーフラグSC
F(n)をそのまま当該境界点の画素(n)の色フラグ
としている。また、アンドゲート152の出力は逆にイメ
ージ部から非イメージ部に変化した境界点の画素の色フ
ラグであるが、この場合、イメージ部から非イメージ部
への変化は非イメージ部の画素を読取った際に判定され
ることから、当該読取り画素(n)の1ライン手前の画
素(n−1)のサブカラーフラグSCF(n−1)を当該
境界点の画素(n)の色フラグとしている。オアゲート
153の出力信号はインバータ154による前述した主走査方
向外形信号(主走査方向外形検出回路120)の反転信号
によりゲートコントロールされるアンドゲート155に入
力している。
In FIG. 20, in the sub-scanning direction, a detection signal (a sub-scanning L → H) of a boundary point changing from a non-image portion to an image portion is provided.
Detection), specifically, an AND gate 151 to which the output of the AND gate 112 in FIG. 17 and the new sub color Bragg SCF which becomes the output of the AND gate 103 in FIG. A detection signal (sub-scan H → L) of a boundary point changing to an image portion, specifically,
Each of the AND gates 115 receives an output of the AND gate 115 in FIG. 17 and a new main color flag MCF serving as an output of the AND gate 102 in FIG.
Output signals 51 and 152 are input to the OR gate 153. Here, the output of the AND gate 151 is the color flag of the pixel at the boundary point that has changed from the non-image portion to the image portion. In the process of reading the image, the change from the non-image portion to the image portion changes the pixel of the image portion. Since it can be determined when reading, the sub color flag SC of the read pixel (n) is read.
F (n) is used as it is as the color flag of the pixel (n) at the boundary point. On the other hand, the output of the AND gate 152 is a color flag of the pixel at the boundary point that has changed from the image part to the non-image part. In this case, the change from the image part to the non-image part reads the pixel of the non-image part. The sub color flag SCF (n-1) of the pixel (n-1) one line before the read pixel (n) is set as the color flag of the pixel (n) at the boundary point. . Or gate
The output signal of 153 is input to an AND gate 155, which is gate-controlled by an inverted signal of the above-described main scanning direction outer shape signal (main scanning direction outer shape detection circuit 120) by the inverter 154.

一方、主走査方向について非イメージ部からイメージ
部に変化する境界点から発生する外形信号(主走査L→
H検出)、具体的には第18図におけるフリップフロップ
125出力がクロック端子(CLK)に、サブカラーフラグSC
Fがデータ端子(D)に夫々入力したフリップフロップ1
56と、同主走査方向についてイメージ部から非イメージ
部に変化する境界点から発生する外形信号(主走査H→
L検出)、具体的には第18図におけるフリップフロップ
126出力がクロック端子(CLK)に、サブカラーフラグSC
Fがデータ端子(D)に夫々入力したフリップフロップ1
58とを有し、フリップフロップ156の出力Qと当該外形
信号(主走査L→H検出)がアンドゲート157に、フリ
ップフロップ158の出力と当該外形信号(主走査H→L
検出)がアンドゲート159に夫々入力している。ここ
で、上記各外形線信号を生成する主走査方向外形線検出
回路120においては、当該走査ラインの画像データと1
ライン前の同一位置画素の画像データとの論理和を実際
の画像データとして扱っていることから、この各フリッ
プフロップ156,158に入力するサブカラーフラグSCFにつ
いても同様に当該走査ラインのサブカラーフラグと1ラ
イン前の同一位置画素のサブカラーフラグの論理和を実
際のサブカラーフラグSCFとして扱っている。また、こ
の主走査方向の場合も上記副走査の場合と同様に、非イ
メージ部からイメージ部への変化に際しては、検出時の
読取り画素(m)のサブカラーフラグSCF(m)をその
まま外形線部分の色フラグとし、逆にイメージ部から非
イメージ部への変化に際しては検出時の読取り画素
(m)の1画素手前の画素(m−1)のサブカラーフラ
グSCF(m−1)を当該外形線部分の色フラグとしてい
る。上記各アンドゲート157,159の出力はオアゲート160
に入力し、更にオアゲート160の出力が上記副走査側の
アンドゲート155からの出力と共にオアゲート161に入力
しており、このオアゲート161の出力が最終的なエッジ
検出時フラグとなっている。このエッジ検出時フラグは
Hレベルのときサブカラーであることを示し、逆にLレ
ベルのときにメインカラーであることを示す。
On the other hand, in the main scanning direction, an outer shape signal generated from a boundary point changing from a non-image portion to an image portion (main scanning L →
H detection), specifically, the flip-flop in FIG.
125 outputs to the clock terminal (CLK)
F is the flip-flop 1 input to the data terminal (D)
56 and an external signal (main scanning H → H → H) generated from a boundary point changing from an image portion to a non-image portion in the main scanning direction.
L detection), specifically, the flip-flop in FIG.
126 output to clock terminal (CLK), sub color flag SC
F is the flip-flop 1 input to the data terminal (D)
The output Q of the flip-flop 156 and the outline signal (main scanning L → H detection) are supplied to the AND gate 157, and the output of the flip-flop 158 and the outline signal (main scanning H → L) are output to the AND gate 157.
Detection) are input to the AND gate 159, respectively. Here, in the main scanning direction outline detection circuit 120 that generates each outline signal, the image data of the scanning line is
Since the logical sum of the image data of the same position pixel before the line is handled as actual image data, the sub color flag SCF input to each of the flip-flops 156 and 158 is similarly set to the sub color flag of the scan line and the sub color flag SCF. The logical sum of the sub-color flags of the same position pixels before the line is treated as the actual sub-color flag SCF. Also, in the case of the main scanning direction, similarly to the case of the sub-scanning, when changing from the non-image portion to the image portion, the sub-color flag SCF (m) of the pixel (m) to be read at the time of detection is used as it is. Conversely, when changing from the image portion to the non-image portion, the sub color flag SCF (m-1) of the pixel (m-1) one pixel before the read pixel (m) at the time of detection is used as the color flag. It is a color flag for the outline. The output of each AND gate 157, 159 is OR gate 160
Further, the output of the OR gate 160 is input to the OR gate 161 together with the output from the AND gate 155 on the sub-scanning side. The output of the OR gate 161 is a final edge detection flag. When the edge detection flag is at the H level, it indicates the sub color, and when it is at the L level, it indicates the main color.

次に、第21図(a)に示すような矩形イメージを例
に、その外形線の抽出処理を具体的に説明する。
Next, the process of extracting the outline will be described in detail using a rectangular image as shown in FIG. 21 (a) as an example.

この矩形イメージは左側斜線部分がメインカラー
(黒)、右側網点部分がサブカラー(赤)となってい
る。なお、簡略化のため各走査ラインとも17ドット(画
素)構成を想定し、ラインメモリ129の各画素位置(1
〜17)に対応したアドレスには初期値として予め“0"が
格納された状態となっている。また、オペレータが設定
入力した外形線幅wはw=2画素となっている。
In this rectangular image, the left shaded portion is the main color (black), and the right halftone dot portion is the sub color (red). For simplicity, each scan line is assumed to have a 17-dot (pixel) configuration, and each pixel position (1
17) are stored in advance as initial values at addresses corresponding to the above. The outline width w set and input by the operator is w = 2 pixels.

フルカラーセンサ10が走査ラインをL1,L2,L3,…と順
次移動させて光学的走査を行なう過程で、走査ラインL1
〜L3の間では、イメージが存在しないことから、各読取
り画素に対応した画像データはLレベルを維持する。更
に、走査ラインL4〜LRの間では、第22図の“画像デー
タ”“MCF"“SCF"に示すように、イメージに対応してビ
デオクロック(V.CLOCK)の4クロック(画素)から13
クロック目までにかけて画像データが立上がると共に、
メインカラーフラグMCFが4クロックから9クロックの
間、また、サブカラーフラグSCFが引続き10クロックか
ら13クロックの間夫々Hレベルの状態となる。更に、走
査ラインL9以降では再びイメージが存在しないことか
ら、画像データ、メインカラーフラグMCF、サブカラー
フラグSCFは夫々立下がり、Lレベルを維持する。
In the process in which the full-color sensor 10 performs optical scanning by sequentially moving the scanning lines as L1, L2, L3,.
Since there is no image between L3 and L3, the image data corresponding to each read pixel maintains the L level. Further, between the scanning lines L4 to LR, as shown in "image data""MCF""SCF" in FIG.
As the image data rises up to the clock,
The main color flag MCF is at the H level between 4 and 9 clocks, and the sub color flag SCF is continuously at the H level between 10 and 13 clocks. Further, since there is no image again after the scanning line L9, the image data, the main color flag MCF, and the sub color flag SCF each fall and maintain the L level.

上記走査の過程で、各走査ラインにおける各部の信号
波形は、第22図に示すようになる。
In the above scanning process, the signal waveform of each part in each scanning line is as shown in FIG.

走査ラインL1〜L3の間では、イメージが存在しないこ
とから主走査方向外形検出回路120からの主走査方向外
形信号及びオアゲート116からの副走査方向のイメージ
エッジ検出信号は共にLレベルを維持し、ラインメモリ
129からは初期値“0"がビデオクロックに同期して読出
されると共に、その“0"データがそのまま帰還して再度
ラインメモリ129に書込まれる。従って、MC外形信号、S
C外形信号ともにLレベルを維持した状態となる。
Between the scanning lines L1 to L3, since there is no image, both the main scanning direction outer shape signal from the main scanning direction outer shape detection circuit 120 and the image edge detection signal in the sub-scanning direction from the OR gate 116 maintain the L level, Line memory
From 129, the initial value "0" is read out in synchronization with the video clock, and the "0" data is fed back as it is and written into the line memory 129 again. Therefore, MC external signal, S
Both the C external signals are kept at the L level.

更に、走査ラインL4においては、主走査方向外形信号
(a)が、非イメージ部からイメージ部に変化する4ク
ロック目から2クロック(設定画素幅)分、また、逆の
イメージ部から非イメージ部に変化する14クロック目か
ら2クロック(同設定画素幅)分夫々Hレベルに立上っ
た状態となる(第19図の主走査方向外形信号と同様)。
そして、オアゲート116からの副走査方向のイメージエ
ッジ検出信号(b)が走査ラインL3からL4にかけて非イ
メージ部からイメージ部に変化する4クロックから13ク
ロックの間Hレベルに立上った状態となる。この状態に
おいて、副走査方向のイメージエッジ検出信号(b)が
Hレベルとなる(副走査L→H)4クロックから13クロ
ックまでの間で、特にサブカラーフラグSCFがHレベル
となる10クロックから13クロックまでは第20図における
アンドゲート151の出力がHレベルとなってエッジ検出
時フラグ(c)がHレベルに立上がった状態となる。次
の14クロック目では主走査方向外形信号(a)がHレベ
ルとなることから(主走査H→L)フリップフロップ15
8がセットされてその後段のアンドゲート159が当該主走
査方向外形信号がHレベルの間同じHレベル状態を維持
し、エッジ検出時フラグ(c)は上記13クロックから引
続き15クロックまで(更に2画素分)Hレベル状態を持
続する。
Further, in the scanning line L4, the external signal (a) in the main scanning direction is equivalent to two clocks (set pixel width) from the fourth clock at which the non-image portion changes to the image portion, and from the reverse image portion to the non-image portion. From the 14th clock that changes to the H level for each of two clocks (the same pixel width) (similar to the external signal in the main scanning direction in FIG. 19).
Then, the image edge detection signal (b) in the sub-scanning direction from the OR gate 116 rises to the H level from 13 clocks to 4 clocks that change from the non-image portion to the image portion from the scanning lines L3 to L4. . In this state, the image edge detection signal (b) in the sub-scanning direction becomes H level (sub-scanning L → H) from 4 clocks to 13 clocks, particularly from 10 clocks when the sub color flag SCF becomes H level. Up to the 13th clock, the output of the AND gate 151 in FIG. 20 is at the H level, and the edge detection flag (c) rises to the H level. At the next 14th clock, the external signal (a) in the main scanning direction goes to the H level (main scanning H → L).
8 is set, and the subsequent AND gate 159 maintains the same H level state while the outer shape signal in the main scanning direction is at the H level, and the flag (c) at the time of edge detection continues from the above 13 clocks to 15 clocks (2 more). H level state is maintained.

一方、上記主走査方向外形信号(a)または副走査方
向のイメージエッジ信号(b)のいずれかがHレベルと
なる4クロックから15クロックまでの間は、第17図にお
けるオアゲート128の出力がHレベルとなる。すると、
その間では選択回路130はA側を選択出力すると共に加
算回路131のB入力が“0"に固定される。従って、当該
4クロックから15クロックまではビデオクロックに同期
してラインメモリ129の(4)〜(16)の画素位置に対
応したアドレスに外形線幅データX=128+1−2=127
(w=2)とエッジ検出時フラグ(c)が8ビットデー
タとなって順次書込まれていく。なお、ラインメモリ12
9の他の画素位置(1)〜(3)及び(16)〜(17)に
対応したアドレスには“0"データが書込まれる(以後同
様である)。このようにビデオクロックに同期してライ
ンメモリ129に対してデータの書込みがなされる過程
で、4クロックから9クロックまでは、上記オアゲート
128の出力がHレベルの状態でエッジ検出時フラグ
(c)がLレベルとなることから、アンドゲート138,13
9ともにLレベルとなって後段のアンドゲート143の出力
がHレベルとなる。即ち、MC外形信号(d)がHレベル
に立上がった状態となる。また、10クロックから15クロ
ックまでは、オアゲート128の出力が同様にHレベルの
状態でエッジ検出時フラグ(c)がHレベルとなること
から、アンドゲート138がHレベルとなって後段のアン
ドゲート142の出力がHレベル、アンドゲート143の出力
がLレベルとなる。即ち、MC外形信号(d)がLレベル
に立上がった状態となる一方SC外形信号(e)がHレベ
ルに立上がった状態となる。
On the other hand, during the period from 4 clocks to 15 clocks when either the external signal (a) in the main scanning direction or the image edge signal (b) in the sub scanning direction is at the H level, the output of the OR gate 128 in FIG. Level. Then
During that time, the selection circuit 130 selects and outputs the A side, and the B input of the addition circuit 131 is fixed to “0”. Therefore, from the 4th clock to the 15th clock, the outline line width data X = 128 + 1-2 = 127 is set at an address corresponding to the pixel positions (4) to (16) of the line memory 129 in synchronization with the video clock.
(W = 2) and the edge detection flag (c) are sequentially written as 8-bit data. The line memory 12
"0" data is written into addresses corresponding to the other nine pixel positions (1) to (3) and (16) to (17) (the same applies hereinafter). In the process of writing data to the line memory 129 in synchronization with the video clock as described above, the above OR gate is used for 4 to 9 clocks.
Since the flag (c) at the time of edge detection becomes L level when the output of the gate 128 is H level, the AND gates 138, 13
9 are both at L level, and the output of the subsequent AND gate 143 is at H level. That is, the MC external signal (d) rises to the H level. From the 10th clock to the 15th clock, since the output of the OR gate 128 is also at the H level and the edge detection flag (c) is at the H level, the AND gate 138 is at the H level and the subsequent AND gate The output of 142 goes high and the output of AND gate 143 goes low. That is, the MC external signal (d) rises to the L level, while the SC external signal (e) rises to the H level.

上記走査ラインL4に続く走査ラインL5においては、主
走査方向外形信号(a)は走査ラインL4の場合と同様に
非イメージ部からイメージ部に変化する4クロックから
5クロックまでとイメージ部から非イメージ部に変化す
る14クロックから15クロックまでの夫々2画素分がHレ
ベルの状態となるが、オアゲート116からの副走査方向
のイメージエッジ検出信号(b)は走査ラインL4からL5
にかけてイメージの変化がないことから、すべてのクロ
ックタイミングでLレベルとなる。また、エッジ検出時
フラグ(c)は、上記副走査方向のイメージエッジ検出
信号(b)がLレベルとなって副走査方向に関して第20
図におけるアンドゲート155の出力がLレベルを維持す
ることから、13クロックまではLレベルを維持し、14ク
ロックから15クロックまでの間は主走査方向外形信号の
Hレベル状態に起因して同様にHレベルの状態となる。
In the scanning line L5 subsequent to the scanning line L4, the external shape signal (a) in the main scanning direction is changed from the non-image portion to the image portion from 4 clocks to 5 clocks, and from the image portion to the non-image signal as in the case of the scanning line L4. The two pixels from 14 clocks to 15 clocks, which change to the section, are at the H level, but the image edge detection signal (b) in the sub-scanning direction from the OR gate 116 is the scanning line L4 to L5.
Since the image does not change until, the signal becomes L level at all clock timings. The edge detection flag (c) is set to the 20th in the sub-scanning direction when the image edge detection signal (b) in the sub-scanning direction becomes L level.
Since the output of the AND gate 155 in the figure maintains the L level, the L level is maintained until the 13th clock, and the same level occurs between the 14th clock and the 15th clock due to the H level state of the external signal in the main scanning direction. The state becomes the H level.

上記のような状態となる走査ラインL5では、主走査方
向外形信号(a)がHレベルとなる4クロックから5ク
ロックではオアゲート128の出力がHレベルとなことか
ら、走査ラインL4の場合と同様に、MC外形信号(d)が
Hレベルになると共にラインメモリ129の画素位置
(4),(5)に対応したアドレスに再び外形線幅デー
タX=127及びフラグ情報“0"が8ビットデータとなっ
て書込まれる。そして、主走査方向外形信号(a)がL
レベルとなる6クロックから13クロックまではオアゲー
ト128出力がLレベルになることから、アンドゲート138
の出力がLレベルになると共にアンドゲート139の出力
はラインメモリ129から順次読出されるフラグデータ(L
4走査の際に書込まれたデータ)により9クロックまで
はLレベル、10クロックらあ13クロックまではHレベル
の状態となる。また、このとき、ラインメモリ129から
同時に読出される外形線幅データ127(L4走査の際に書
込まれたデータ)によりオアゲート134出力がHレベル
となってアンドゲート135更にオアゲート136出力がHレ
ベルとなる。これにより、アンドゲート143からのMC外
形信号(d)は上記読出しフラグデータがLレベルとな
る6クロックから更に9クロックまでの間Hレベル状態
を維持し、当該フラグデータがHレベルとなる10クロッ
クから13クロックまではこのMC外形信号(d)がLレベ
ルに立下がって逆にアンドゲート142からのSC外形信号
(e)がHレベルの状態となる。一方、オアゲート128
の出力がLレベルとなる上記6クロックから13クロック
までの間ラインメモリ129から読出される外形線幅デー
タ127は加算回路131によって“1"(B入力=1)が加算
され、127+1=128、即ち、“0"(7ビット表現によ
り)となって当該画素位置(6)〜(13)に対応したア
ドレスに書込まれる。またこのとき、読出されたフラグ
データがそのまま対応する外形線幅データ“0"と共にラ
インメモリ129に書込まれる。
In the scanning line L5 in the above-described state, the output of the OR gate 128 is at the H level from 4 clocks to 5 clocks when the outer shape signal (a) in the main scanning direction is at the H level. Then, the MC outline signal (d) becomes H level, and the outline line width data X = 127 and the flag information “0” are again stored in the address corresponding to the pixel positions (4) and (5) of the line memory 129 in the 8-bit data. It is written as When the external signal (a) in the main scanning direction is L
Since the output of the OR gate 128 becomes L level from the 6th clock to the 13th clock which becomes the level, the AND gate 138 is output.
Becomes low level, and the output of the AND gate 139 outputs the flag data (L
Depending on the data written during the four scans), the state becomes L level up to 9 clocks and H level up to 13 clocks from 10 clocks. Further, at this time, the output of the OR gate 134 becomes H level due to the outline line width data 127 (data written at the time of L4 scanning) simultaneously read from the line memory 129, and the output of the AND gate 135 and the output of the OR gate 136 become H level. Becomes As a result, the MC external signal (d) from the AND gate 143 maintains the H level state from 6 clocks when the read flag data is at the L level to 9 clocks, and 10 clocks when the flag data is at the H level. From 13 to 13 clocks, the MC external signal (d) falls to the L level, and conversely, the SC external signal (e) from the AND gate 142 is at the H level. On the other hand, OR gate 128
The external line width data 127 read from the line memory 129 during the period from the 6th clock to the 13th clock when the output becomes L level is added with "1" (B input = 1) by the adding circuit 131, and 127 + 1 = 128, That is, "0" (expressed in 7 bits) is written to the address corresponding to the pixel positions (6) to (13). At this time, the read flag data is written to the line memory 129 together with the corresponding outline line width data “0”.

更に、14クロックから15クロックまでの間は再びオア
ゲート128出力がHレベルに立上がった状態となると共
にエッジ検出時フラグ(c)がHレベルとなることか
ら、引続きSC外形信号(e)がHレベルの状態を維持す
る。また、このとき選択回路130がA側に切換わり、ラ
インメモリ129の画素位置(14),(15)に対応したア
ドレスに設定入力された外形線幅データX=127及びエ
ッジ検出時フラグ“1"が8ビットデータとなってが書込
まれる。
Further, during the period from the 14th clock to the 15th clock, the output of the OR gate 128 rises to the H level again and the flag (c) at the time of edge detection becomes the H level. Maintain the state of the level. At this time, the selection circuit 130 is switched to the A side, and the external line width data X = 127 set at the address corresponding to the pixel positions (14) and (15) of the line memory 129 and the edge detection flag “1” are set. Is written as 8-bit data.

次に走査ラインがL6に移行すると、主走査方向外形信
号(a)及び副走査方向のイメージエッジ信号(b)及
びエッジ検出時フラグ(c)は走査ラインL5の場合と同
様の状態となる。
Next, when the scanning line shifts to L6, the outer shape signal (a) in the main scanning direction, the image edge signal (b) in the sub-scanning direction, and the edge detection flag (c) are in the same state as in the case of the scanning line L5.

この状態において、主走査方向外形信号(a)がHレ
ベルとなる4クロックから5クロックでは上記走査ライ
ンL4,L5と同様にMC外形信号(d)がHレベルになると
共にラインメモリ129の画素位置(4),(5)に対応
したアドレスに外形線幅データX=127及びフラグデー
タ“0"が8ビットデータとなって書込まれる。そして、
主走査方向外形信号(a)がLレベルとなる6クロック
から13クロックまではオアゲート128がLレベルになる
と共にラインメモリ129から読出される外形線幅データ
が“0"(L5走査の際に書込まれたデータ)でオアゲート
134の出力がLレベルとなってアンドゲート135更にオア
ゲート136の出力がLレベルとなる。これにより、MC外
形信号(d)及びSC外形信号(e)はともにLレベルと
なる。このとき、アンドゲート135の出力がLレベルで
あるこから、加算回路131のB入力が“0"となり、ライ
ンメモリ129から読出される外形線幅データ“0"はその
まま同一アドレスに書込まれる。
In this state, from 4 clocks to 5 clocks when the main scanning direction outer shape signal (a) is at the H level, the MC outer shape signal (d) is at the H level as in the case of the scanning lines L4 and L5, and the pixel position of the line memory 129 is set. The outline line width data X = 127 and the flag data “0” are written as 8-bit data at the addresses corresponding to (4) and (5). And
From the 6th clock to the 13th clock when the outer shape signal (a) in the main scanning direction is at the L level, the OR gate 128 is at the L level and the outer shape width data read from the line memory 129 is “0” (written during L5 scanning). OR gate with embedded data)
The output of 134 goes low, and the output of AND gate 135 and the output of OR gate 136 go low. As a result, both the MC external signal (d) and the SC external signal (e) become L level. At this time, since the output of the AND gate 135 is at the L level, the B input of the adding circuit 131 becomes “0”, and the outline line width data “0” read from the line memory 129 is written to the same address as it is.

更に、14クロックから15クロックまでの間は上記走査
ラインL5の場合と同様、オアゲート128出力がHレベル
となってSC外形信号(e)がHレベルとなる。このと
き、選択回路130がA側に切換わり、ラインメモリ129の
画素位置(14),(15)に対応したアドレスに設定入力
された外形線幅データX=127及びエッジ検出時フラグ
“1"が8ビットデータとなって書込まれる。
Further, from the 14th clock to the 15th clock, the output of the OR gate 128 is at the H level and the SC external signal (e) is at the H level as in the case of the scanning line L5. At this time, the selection circuit 130 is switched to the A side, and the external line width data X = 127 set at the address corresponding to the pixel positions (14) and (15) of the line memory 129 and the edge detection flag “1” are set. Is written as 8-bit data.

以後、走査ラインL7,L8において走査ラインL6と同様
の処理が繰り返される。
Thereafter, the same processing as that of the scanning line L6 is repeated in the scanning lines L7 and L8.

更に、走査ラインがL9に移行すると、この走査ライン
ではイメージが存在しないが、主走査方向外形検出回路
120が1ライン前の画像データとの論理和データを対象
として処理を行なっているとから、当該走査ラインL9に
おいても主走査方向外形信号(a)は上記と同様に4ク
ロックから5クロックまでの間及び14クロックから15ク
ロックまでの間がHレベルになった状態となる。そし
て、オアゲート116からの副走査方向のイメージエッジ
検出信号(b)が走査ラインL8からL9にかけてイメージ
部から非イメージ部に変化する4クロックから13クロッ
クの間Hレベルに立上がった状態となる。このように主
走査方向外形信号(a)及び副走査方向のイメージ検出
信号(b)は走査ラインL4の状態と同様となり、また、
副走査方向のイメージエッジ検出信号(b)の変化(副
走査H→L)と主走査方向外形信号(a)の変化(主走
査H→L)から10クロックから13クロックまでは第20図
におけるアンドゲート152、14クロックから15クロック
までは同図アンドゲート159の各出力がHレベルになる
ことから、エッジ検出時フラグ(c)もまた走査ライン
L4の場合と同様にサブカラーフラグSCFがHレベルに立
上がる10クロックから更に15クロックまでHレベルの状
態となる。
Further, when the scanning line shifts to L9, no image exists in this scanning line, but the main scanning direction outer shape detection circuit
Since 120 processes the logical sum data with the image data of the previous line, the outer shape signal (a) in the main scanning direction is also changed from 4 clocks to 5 clocks in the scanning line L9 in the same manner as described above. H level during the period and between 14 and 15 clocks. Then, the image edge detection signal (b) in the sub-scanning direction from the OR gate 116 rises to the H level for 13 clocks from 4 clocks that change from the image portion to the non-image portion from the scan lines L8 to L9. As described above, the outer shape signal (a) in the main scanning direction and the image detection signal (b) in the sub scanning direction are the same as the state of the scanning line L4.
FIG. 20 shows the change from the image edge detection signal (b) in the sub-scanning direction (sub-scanning H → L) and the change in the main scanning direction outer shape signal (a) (main scanning H → L) from 10 clocks to 13 clocks. Since each output of the AND gate 159 is at H level from the 14th to 15th clocks of the AND gate 152, the edge detection flag (c) is also set to the scanning line.
As in the case of L4, the sub-color flag SCF is at the H level from 10 clocks when it rises to the H level to 15 clocks.

このような状態では、MC外形信号(d)及びSC外形信
号(e)は走査ラインL4の場合と同様、MC外形信号
(d)が4クロックから9クロックまでHレベルの状態
となり、SC外形信号(e)が引続く10クロックから15ク
ロックまでHレベルの状態となる。このとき、ラインメ
モリ129には主走査方向外形信号(a)、副走査方向の
イメージエッジ信号(b)のいずれかがHレベルとなる
4クロックから15クロックまでの間、画素位置(4)〜
(15)に対応したアドレスに新たに外形線幅データX=
127が書込まれると共に、同画素位置(4)〜(9)ま
でに対応したアドレスにはフラグデータ“0"が、続く画
素位置(10)〜(15)までに対応したアドレスにはフラ
グデータ“1"が夫々上記外形線幅データと対になって書
込まれる。
In such a state, the MC external signal (d) and the SC external signal (e) are at the H level from 4 clocks to 9 clocks as in the case of the scan line L4, and the SC external signal (E) is at H level from the subsequent 10 clocks to 15 clocks. At this time, the line memory 129 stores the pixel positions (4) to (4) to 15 clocks in which either the main scanning direction outer shape signal (a) or the sub-scanning direction image edge signal (b) becomes H level.
The external line width data X =
127 is written, flag data “0” is stored in the address corresponding to the pixel position (4) to (9), and flag data is stored in the address corresponding to the subsequent pixel position (10) to (15). “1” is written in pairs with the above-mentioned outline line width data.

上記走査ラインL9に続く走査ラインL10においては、
イメージが存在せず、また、画像データの前ラインL9と
の論理和データも“0"となることから、主走査方向外形
信号(a)及び副走査方向のイメージエッジ検出信号
(b)もともにLレベルを保持した状態となり、それに
起因してエッジ検出時フラグ(c)もまたLレベルを保
持した状態となる。このような状態において、4クロッ
クから9クロックまではラインメモリ129から読出され
る外形線幅データがX=127(L9走査の際に書込まれた
データ)でオアゲート134の出力がHレベルとなって更
にアンドゲート135、オアゲート136の出力がHレベルと
なる一方、同時に対になって読出されるフラグデータが
“0"(L9走査の際に書込まれたデータ)でアンドゲート
139の出力がLレベルとなることから、アンドゲート143
からのMC外形信号(d)がHレベル状態となる。また、
続く10クロックから15クロックまでは、ラインメモリ12
9から読出される外形線幅データは同様に127であるがそ
の対になるフラグデータが“1"になることから、アンド
ゲート139の出力がHレベルとなり、この場合アンドゲ
ート142からのSC外形信号(e)がHレベルとなる。こ
のラインメモリ129の読出し過程で、外形線幅データが
“0"の場合(画素位置(1)〜(3)及び(16)〜(1
7))はそのままのデータ“0"が帰還して再度同一画素
位置に対応したアドレスに書込まれる一方、外形線幅デ
ータが127の場合には、アンドゲート135、133の出力が
Hレベルとなり加算回路131のB入力が“1"になること
から、127+1=128、即ち、“0"データが同一画素位置
(4)〜(15)に対応したアドレスに書込まれる。フラ
グデータについては読出しデータがそのまま帰還して上
記外形線幅データと対となってもとのアドレスに書込ま
れる。
In the scanning line L10 following the scanning line L9,
Since there is no image and the logical sum data of the image data and the previous line L9 is also "0", both the main scanning direction outer shape signal (a) and the sub scanning direction image edge detection signal (b) are both present. As a result, the L level is held, and as a result, the edge detection flag (c) also holds the L level. In such a state, from the 4th clock to the 9th clock, the external line width data read from the line memory 129 is X = 127 (data written at the time of the L9 scan), and the output of the OR gate 134 is at the H level. Further, while the outputs of the AND gate 135 and the OR gate 136 become H level, the flag data which is simultaneously read out in pairs is "0" (data written at the time of the L9 scan).
Since the output of 139 becomes L level, the AND gate 143
Is in the H level state. Also,
From the next 10 clocks to 15 clocks, the line memory 12
Similarly, the outline line width data read from 9 is 127, but since the flag data corresponding thereto becomes "1", the output of the AND gate 139 becomes H level. The signal (e) becomes H level. In the process of reading the line memory 129, if the outer line width data is "0" (pixel positions (1) to (3) and (16) to (1
7)) as it is, the data "0" is fed back and written again at the address corresponding to the same pixel position. On the other hand, when the outer line width data is 127, the outputs of the AND gates 135 and 133 become H level. Since the B input of the adder 131 becomes "1", 127 + 1 = 128, that is, "0" data is written into the addresses corresponding to the same pixel positions (4) to (15). As for the flag data, the read data is fed back as it is, and is written in the original address as a pair with the external line width data.

続く走査ラインL11においては、主走査方向外形信号
(a)、副走査方向のイメージエッジ検出信号(b)、
エッジ検出時フラグ(c)は共にLレベルを保持した状
態となる。そして、前の走査ラインL10での処理により
ラインメモリ129に格納される外形線幅データは1ライ
ン全ての画素位置(1)〜(17)で“0"となっているこ
とから、MC外形信号(d)及びSC外形信号はともにLレ
ベルの状態を維持する。そして、以後の走査ラインにお
いてはこの走査ラインL11と同様の状態となり、MC外形
信号及びSC外形信号は以後Lレベルを保持した状態とな
る。
In the following scanning line L11, the main scanning direction outer shape signal (a), the sub-scanning direction image edge detection signal (b),
Both the edge detection flag (c) and the L level are held. Since the outline line width data stored in the line memory 129 by the processing in the previous scanning line L10 is "0" at all pixel positions (1) to (17) of one line, the MC outline signal Both (d) and the SC outline signal maintain the state of L level. Then, in the subsequent scan lines, the state becomes the same as that of the scan line L11, and the MC outer shape signal and the SC outer shape signal are thereafter kept at the L level.

上記のような処理により第22図の各走査ライン毎に示
すMC外形信号(d)とSC外形信号(e)が得られるが、
これを画像表示すると、第21図(b)に示すように、画
素位置(9)から左側がメインカラー(MC:黒、斜線部
分)で画素位置(10)から右側がサブカラー(SC:赤、
網点部分)となる線幅が2画素の矩形外形線画像、即
ち、白抜き画像となる。
With the above processing, the MC external signal (d) and the SC external signal (e) shown for each scanning line in FIG. 22 are obtained.
When this is displayed as an image, as shown in FIG. 21 (b), the left side from the pixel position (9) is the main color (MC: black, shaded portion), and the right side from the pixel position (10) is the sub color (SC: red). ,
A rectangular outline image having a line width of 2 pixels (a halftone dot portion), that is, an outline image.

上記の処理において、走査ラインL9で実際にイメージ
が存在しないにもかかわらず、主走査方向外形信号
(a)がHレベルとなるのは、上述したように当該注目
ラインの画素の画像データ(n)と1ライン前の同一画
素位置の画像データ(n−1)との論理和データを新た
な画像データとして主走査方向の外形線抽出処理(主走
査方向外形検出回路120)を行なっているからである。
これは、副走査方向に関する外形線が、主走査方向外形
信号(a)あるいは副走査方向のイメージエッジ検出信
号(b)がLレベルに立下がってから所定画素分の幅に
て生成されるこから、その主走査方向外形信号(a)と
副走査方向のイメージエッジ検出信号(b)の完全に立
下がる走査ラインを揃えるためである。これにより、例
えば、第21図(b)に示すように、走査ラインL9,L10に
おける画素位置(4)〜(13)までの副走査方向の外形
線と画素位置(14)(15)の同外形線が揃うことにな
る。逆に上記のように扱う画像データを論理和データと
しない場合には、主走査方向外形信号(a)が完全に立
下がる走査ラインがL9で副走査方向のイメージエッジ検
出信号(b)より1ライン早くなることから、第21図
(b)における走査ラインL10の画素位置(14)(15)
に外形イメージが生成されなくなり、外形線の欠落が生
ずる結果となってしまう。
In the above process, the main scanning direction outer shape signal (a) becomes H level even though no image actually exists on the scanning line L9, as described above, because the image data (n ) And the image data (n−1) at the same pixel position one line before, as the new image data, the outline extraction processing in the main scanning direction (main scanning direction outline detection circuit 120) is performed. It is.
This is because the outline in the sub-scanning direction is generated with a width of a predetermined pixel after the outline signal (a) in the main scanning direction or the image edge detection signal (b) in the sub-scanning direction falls to L level. This is because the completely falling scan lines of the external signal (a) in the main scanning direction and the image edge detection signal (b) in the sub-scanning direction are aligned. Thereby, for example, as shown in FIG. 21 (b), the outlines in the sub-scanning direction from pixel positions (4) to (13) in the scanning lines L9 and L10 and the pixel positions (14) and (15) are the same. The outlines are aligned. Conversely, when the image data handled as described above is not logical sum data, the scanning line where the main scanning direction outer shape signal (a) completely falls is L9, and is 1 more than the image edge detection signal (b) in the sub scanning direction. Since the line becomes earlier, the pixel position (14) (15) of the scanning line L10 in FIG. 21 (b)
No contour image is generated, and the contour line is lost.

上述したような処理により生成されたイメージの外形
信号、即ち、メインカラーに関するMC外形信号とサブカ
ラーに関するSC外形信号は、基本的に二値の画像データ
であるが、この二値の画像データは画像形成部に転送さ
れる前に多値の画像データに変換される。
The outer shape signal of the image generated by the processing described above, that is, the MC outer shape signal for the main color and the SC outer shape signal for the sub color are basically binary image data. Before being transferred to the image forming unit, it is converted into multi-valued image data.

この多値化処理の回路は例えば、第23図に示すように
なっている。
The circuit for this multi-value processing is, for example, as shown in FIG.

同図において、172は選択回路であり、この選択回路1
72は“0"データ(A)とCPUからの設定濃度データ(8
ビット:256階調)(B)のいずれかを選択出力(Y)す
るもので、その選択信号入力SがHレベルのときに設定
濃度データ(B)を、同選択信号入力SがLレベルのと
きに“0"データ(A)を夫々選択出力するようになって
いる。上記設定濃度データはオペレータがコンソーパル
ネル上に設けられたテンキー等の操作入力により希望の
濃度データを指定するもので、当該操作入力に対応した
設定濃度データがCPUから転送されている。また、上記M
C外形信号としてSC外形信号とがオアゲート171に入力し
ており、このオアゲート171からの出力信号が選択回路1
72の選択信号Sとなっている。更に、173もまた選択回
路であり、この選択回路173は前述した色画情報生成回
路50から直接入力する読取り濃度データD(A)と上記
選択回路172の出力データ(B)のいずれかを選択出力
(Y)するもので、その選択信号入力SがHレベルのと
きに選択回路172からのデータ(B)を、同選択信号入
力SがLレベルのときに読取り濃度データ(A)を夫々
選択出力するようになっている。そして、白抜きイメー
ジ出力(第21図(b)参照)のときHレベル、オリジナ
ルイメージ出力(第21図(a)参照)のときLレベルと
なるCPUからの白抜き/オリジナル切換信号が選択回路1
73の選択信号Sとなっている。
In the figure, reference numeral 172 denotes a selection circuit.
72 is “0” data (A) and set density data (8
(B: 256 gradations) and (B) are selectively output (Y). When the selection signal input S is at H level, the set density data (B) is output. When the selection signal input S is at L level. Sometimes, "0" data (A) is selectively output. The set density data is used by an operator to specify desired density data by operating a numeric keypad or the like provided on the console panel, and the set density data corresponding to the operating input is transferred from the CPU. In addition, M
The SC external signal is input to the OR gate 171 as the C external signal, and the output signal from the OR gate 171 is supplied to the selection circuit 1
There are 72 selection signals S. Further, reference numeral 173 is also a selection circuit. This selection circuit 173 selects one of the read density data D (A) directly input from the color image information generation circuit 50 and the output data (B) of the selection circuit 172. When the selection signal input S is at H level, the data (B) from the selection circuit 172 is selected, and when the selection signal input S is at L level, the read density data (A) is selected. Output. A white / original switching signal from the CPU, which is H level when the white image is output (see FIG. 21 (b)) and is low when the original image is output (see FIG. 21 (a)), is a selection circuit. 1
73 are the selection signals S.

このような多値化回路によれば、白抜き/オリジナル
切換信号がHレベルの状態において(白抜きモード)、
第24図に示すように、イメージの外形線を示すMC外形信
号とSC外形信号の論理和信号(オアゲート171出力)が
Hレベルとなるときに設定濃度データDNが、非イメー
ジ部を示す同論理和信号がLレベルのときに“0"データ
が夫々最終的な濃度データとして選択回路172,173を介
して出力される。
According to such a multilevel conversion circuit, when the white / original switching signal is at the H level (white mode),
As shown in FIG. 24, when the logical sum signal (output of the OR gate 171) of the MC external signal and the SC external signal indicating the external line of the image becomes H level, the set density data DN becomes the same logic indicating the non-image part. When the sum signal is at the L level, "0" data is output as final density data via the selection circuits 172 and 173, respectively.

なお、白抜き/オリジナル切換信号がLレベルの状態
においては(オリジナルモード)、上述した色画情報生
成回路50からの読取り濃度データがそのまま最終的な濃
度データとして出力される。即ち、白抜き画像の生成機
能が禁止された状態となって通常の画像処理の状態とな
る。
When the white / original switching signal is at the L level (original mode), the density data read from the color image information generation circuit 50 is output as final density data as it is. That is, the white image generation function is prohibited and the normal image processing is performed.

上記多値化により得られた濃度データと対になるカラ
ーフラグは、MC外形信号がそのままメインカラーフラグ
MCF、SC外形信号がそのままサブカラーフラグSCFとなっ
て順次転送される。
The color flag paired with the density data obtained by the above multi-value conversion is the main color flag as it is with the MC external signal.
The MCF and SC outline signals are sequentially transferred as they are as the sub color flag SCF.

V.画像形成部 上記のようにして補正・フィルタ回路70での処理、更
に編集・加工回路100での外形線抽出等の各種処理を経
た濃度データ及び対になるカラーフラグ(MCF,SCF)は
インタフェース回路180を介してレーザプリンタ182、フ
ァックス等の画像送受信機184等の画像形成機器に転送
される。この画像形成機器での処理を、例えば、レーザ
プリンタ182を例に以下に説明する。この場合、全体と
して複写機(デジタル複写機)が構成される。
V. Image Forming Unit As described above, the density data and the pair of color flags (MCF, SCF) that have undergone the processing in the correction / filter circuit 70 and the various processings such as the outline extraction in the editing / processing circuit 100 are The data is transferred to an image forming device such as a laser printer 182 and an image transceiver 184 such as a facsimile via the interface circuit 180. The processing in the image forming apparatus will be described below by taking, for example, the laser printer 182 as an example. In this case, a copying machine (digital copying machine) is configured as a whole.

上記濃度データD及びカラーフラグに基づいて2色画
像形成を行うレーザプリンタ182の基本的な構成は、例
えば、第25図に示すようになっている。ここに示す2色
画像形成のレーザプリンタは電子写真方式を用いたもの
でメインカラー黒の画像形成とサブカラー赤の画像形成
を1回の画像形成サイクルにて実現するもので、全体と
していわゆる1パス2カラー(1P2C)タイプの複写機で
ある。
The basic configuration of the laser printer 182 that forms a two-color image based on the density data D and the color flag is, for example, as shown in FIG. The two-color image forming laser printer shown here uses an electrophotographic system, and realizes main color black image forming and sub-color red image forming in one image forming cycle. It is a pass 2 color (1P2C) type copier.

第25図において、感光ドラム300の周囲に画像形成プ
ロセスを実行すべく帯電器301、サブカラー(赤)用の
現像機302、メインカラー(黒)用の現像機303、転写前
コロトロン308,クリーニング装置306が夫々配置される
と共に、サブカラー用の現像機302の直前にサブカラー
の露光位置Psが、メインカラー用の現像機303の直前に
メインカラーの露光位置Pmが夫々設定されている。露光
系についてみると、メインカラーについての画像書込み
用レーザダイオード251からの照射光がサーボモータ253
にて定速回転するポリゴンミラー254及びf−θレンズ2
55、反射鏡257,258等の光学系を介してメインカラーの
露光位置Pmに至るよう設定され、サブカラーについての
画像書込み用レーザダイオード250からの照射光が同様
にポリゴンミラー254及びf−θレンズ255、更に反射鏡
256等の光学系を介してサブカラーの露光位置Psに至る
よう設定されている。また、感光ドラム300周囲におけ
る転写位置には転写用のコロトロン304及び記録シート
剥離用のディタック305が配置され、この位置にて上記
各現像機302,303により感光体ドラム300上に形成された
赤トナー像及び黒トナー像が給紙系より搬送される記録
シート310に一括転写されるようになっている。そし
て、像転写のなされた記録シート310が更に定着器307で
の像定着を経た後に例えばトレー上に排出されるよう構
成されている。
In FIG. 25, a charger 301, a developing device 302 for a sub-color (red), a developing device 303 for a main color (black), a corotron 308 before transfer, and a cleaning device to execute an image forming process around the photosensitive drum 300. The devices 306 are arranged, and the sub-color exposure position Ps is set immediately before the sub-color developing device 302, and the main color exposure position Pm is set immediately before the main-color developing device 303. Regarding the exposure system, the irradiation light from the image writing laser diode 251 for the main color is
Polygon mirror 254 and f-θ lens 2 rotating at a constant speed
55, it is set to reach the exposure position Pm of the main color via the optical system such as the reflection mirrors 257 and 258, and the irradiation light from the image writing laser diode 250 for the sub-color is similarly set on the polygon mirror 254 and the f-θ lens 255 And a reflector
It is set to reach the sub-color exposure position Ps via an optical system such as 256. Further, a transfer corotron 304 and a recording sheet peeling detack 305 are arranged at a transfer position around the photosensitive drum 300, and at this position, the red toner image formed on the photosensitive drum 300 by each of the developing machines 302 and 303 described above. The black toner image and the black toner image are collectively transferred to a recording sheet 310 conveyed from a paper feeding system. Then, the recording sheet 310 on which the image has been transferred is further discharged through, for example, a tray after the image is further fixed by the fixing unit 307.

一方、上記画像書込み用のレーザダイオード250,251
の制御系についてみると、次のようになる。
On the other hand, the image writing laser diodes 250 and 251
Looking at the control system of

前述した画像処理系のインタフェース回路180を介し
て濃度データDmとカラーフラグCFが画素単位に供給さ
れ、そして、当該カラーフラグCFに基いてメインカラー
濃度データDm(黒濃度)とサブカラー濃度データDs(赤
濃度)を分離する切換回路241が設けられている。な
お、上記処理部においてはカラーフラグがメインカラー
フラグMCFとサブカラーフラグSCFの2ビットで構成され
ていたが、上記切換回路241に供されるカラーフラグCF
は上記インタフェース回路180にてサブカラーとそれ以
外を表現する1ビット構成に変えられる。具体的には、
上記サブカラーフラグSCFだけがインタフェース回路180
から後段に転送される。即ち、背景領域の画素をメイン
カラー領域に含めて扱うこととし、この切換回路241を
制御するカラーフラグCFがサブカラー領域の画素ではH
レベルとなり、それ以外の領域の画素ではLレベルとな
るようにしている。
The density data Dm and the color flag CF are supplied for each pixel via the interface circuit 180 of the image processing system described above, and based on the color flag CF, the main color density data Dm (black density) and the sub color density data Ds A switching circuit 241 for separating (red density) is provided. In the above processing section, the color flag is composed of two bits of the main color flag MCF and the sub color flag SCF.
Can be changed by the interface circuit 180 into a 1-bit configuration for expressing the sub-color and the rest. In particular,
Only the sub-color flag SCF is the interface circuit 180
Is transferred to the subsequent stage. That is, the pixels in the background area are handled as being included in the main color area, and the color flag CF for controlling the switching circuit 241 is set to H
Level, and pixels in other areas are set to L level.

切換回路241の具体的な構成は例えば、第26図に示す
ようになっている。即ち、カラーフラグの状態によりそ
の出力を2系統の入力信号(A,B)から選択する2つの
選択回路261,262が設けられ、濃度データDが選択回路2
61の入力端B及び選択回路262の入力端Aに夫々入力す
ると共に、選択回路261の反対側の入力端A及び選択回
路262の同反対側の入力端Bには“0"データが夫々入力
している。これらの選択回路261,262はLレベルの制御
入力にてA側、Hレベルの制御入力にてB側の入力信号
が夫々選択されるもので、カラーフラグCFが当該制御入
力となっている。そして、一方の選択回路261の出力が
サブカラー濃度データDs、他方の選択回路262の出力が
メインカラー濃度データDmとして画素単位にて後段に転
送されるよう構成されている。このような構成の切換回
路241では、サブカラー領域の画素については対応する
サブカラー濃度Dsが後段に転送される一方、それ以外の
領域(メインカラー領域及び背景領域)の画素について
は対応するメインカラー濃度データDmが後段に転送され
る。
The specific configuration of the switching circuit 241 is, for example, as shown in FIG. That is, two selection circuits 261 and 262 are provided to select the output from the two input signals (A and B) according to the state of the color flag.
61 is input to the input terminal B and the input terminal A of the selection circuit 262, and "0" data is input to the input terminal A on the opposite side of the selection circuit 261 and the input terminal B on the opposite side of the selection circuit 262, respectively. are doing. The selection circuits 261 and 262 select the input signal on the A side by the control input of the L level and the input signal on the B side by the control input of the H level, respectively, and the color flag CF is the control input. The output of one selection circuit 261 is transferred to the subsequent stage as sub-color density data Ds, and the output of the other selection circuit 262 is transferred to the subsequent stage as main color density data Dm in pixel units. In the switching circuit 241 having such a configuration, the corresponding sub-color density Ds is transferred to the subsequent stage for the pixels in the sub-color area, while the corresponding main color area Ds is transferred to the pixels in the other areas (main color area and background area). The color density data Dm is transferred to the subsequent stage.

この切換回路241にて分離されたメインカラー濃度デ
ータDm及びサブカラー濃度データDsは、夫々サブカラー
濃度データDsが第一スクリーンジェネレータ242に、メ
インカラー濃度データDmが第二スクリーンジェネレータ
243に入力している。
The main color density data Dm and the sub color density data Ds separated by the switching circuit 241 are as follows.
Enter 243.

各スクリーンジェネレータ242,243は、8ビットにて2
56階調表現された上記切換回路241を介した各濃度デー
タDm,Dsを各画素毎にレーザダイオードの変調コードに
変換するものである。具体的には256階調表現された濃
度データDを各画素のレーザ点灯領域量に変換するもの
で、例えば、第27図に示すように、1つの画素Pに対し
て予め3つの分割画素(サブピクセル)SP1〜SP3が設定
され、濃度データDに応じてレーザの点灯領域を分割画
素数にて決定している。このスクリーンジェネレータ24
2,243から出力される変調コードは例えば表2のように
設定されている。
Each screen generator 242,243 is 8 bits 2
Each of the density data Dm and Ds represented by 56 gradations via the switching circuit 241 is converted into a laser diode modulation code for each pixel. Specifically, it converts the density data D expressed by 256 gradations into the laser lighting area amount of each pixel. For example, as shown in FIG. The sub-pixels SP1 to SP3 are set, and the laser lighting area is determined by the number of divided pixels according to the density data D. This screen generator 24
The modulation codes output from 2,243 are set, for example, as shown in Table 2.

この表2に従えば、例えば第28図(a)〜(d)に示
すように各顔について4段階の濃度表現が可能となる。
According to Table 2, for example, as shown in FIGS. 28 (a) to (d), four levels of density expression for each face are possible.

また、上記のように256階調の濃度データDを4段階
のコードに変換する際のその各段階の閾値は、各色の色
再現特性(現像特性)に基づいて、入力濃度データに忠
実な色再現がなされるように設定される。従って、第一
スクリーンジェネレータ242はサブカラー(赤)の色再
現特性、第二スクリーンジェネレータ243はメインカラ
ー(黒)の色再現特性に基づいて夫々別々の閾値が設定
される。
As described above, when converting the density data D of 256 gradations into a four-step code, the threshold value of each step is determined based on the color reproduction characteristics (development characteristics) of each color. It is set to reproduce. Therefore, different thresholds are set for the first screen generator 242 based on the color reproduction characteristics of the sub-color (red) and for the second screen generator 243 based on the color reproduction characteristics of the main color (black).

上記第一スクリーンジェネレータ242からのサブカラ
ー変調コードSCは1ライン分のFIFOメモリ(先入れ先出
し)244を介して、また、上記第二スクリーンジェネレ
ータ243からのメインカラー変調コードMCはキャップメ
モリ246を介して夫々対応する第一ROS制御回路245、第
二ROS制御回路247に入力している。上記ギャップメモリ
246は、上述したように、サブカラー露光位置Psとメイ
ンカラー露光位置Pmが各現像機302,303の配置の関係か
ら感光ドラム300上でギャップGpだけ離れていることか
らサブカラー画像とメインカラー画像の形成位置を合わ
せるためにメインカラーの変調コードの転送タイミング
を上記ギャップGpに相当する分だけ遅らせるためのもの
である。従って、ギャップメモリ246の書込み及び読出
しのタイミグは上記各露光位置Ps,PmのギャップGp及び
感光ドラムの回転速度等にて決定される。
The sub-color modulation code SC from the first screen generator 242 is transmitted via a one-line FIFO memory (first-in first-out) 244, and the main color modulation code MC from the second screen generator 243 is transmitted via a cap memory 246. The signals are input to the corresponding first ROS control circuit 245 and second ROS control circuit 247, respectively. The above gap memory
246, as described above, the sub-color exposure position Ps and the main color exposure position Pm are separated from each other by the gap Gp on the photosensitive drum 300 due to the arrangement of the developing devices 302 and 303, so that the sub-color image and the main color image are separated. This is for delaying the transfer timing of the modulation code of the main color by an amount corresponding to the gap Gp in order to match the formation position. Accordingly, the timing of writing and reading of the gap memory 246 is determined by the gap Gp of each of the exposure positions Ps and Pm, the rotation speed of the photosensitive drum, and the like.

上記第一ROS制御回路245はサブカラー変調コードSCに
基づいて対応する系統のレーザ変調信号を生成すると共
に、ポリゴンミラー254回転用のサーボモータ253に対す
る制御信号を生成している。また、上記第二ROS制御回
路247は第一ROS制御回路245からの同期信号を受けてメ
インカラー変調コードMCに基づいて対応する系統のレー
ザ変調信号を生成している。上記第一ROS制御回路245か
らの制御信号に基づいてモータドライバ252がポリゴン
ミラー用のサーボモータ253を定速駆動すると共に、同
第一ROS制御回路245からのサブカラー変調信号に基づい
てレーザドライバ248がサブカラーについての画像書込
み用レーザダイオード250のオン・オフ駆動を行ない、
上記第二ROS制御回路247からのメインカラー変調信号に
基づいてレーザドライバ249がメインカラーについての
画像書込み用レーザダイオード251のオン・オフ駆動を
行なっている。
The first ROS control circuit 245 generates a laser modulation signal of a corresponding system based on the sub-color modulation code SC, and also generates a control signal for a servo motor 253 for rotating the polygon mirror 254. The second ROS control circuit 247 receives the synchronization signal from the first ROS control circuit 245 and generates a laser modulation signal of a corresponding system based on the main color modulation code MC. A motor driver 252 drives the polygon mirror servo motor 253 at a constant speed based on the control signal from the first ROS control circuit 245, and a laser driver based on a sub-color modulation signal from the first ROS control circuit 245. 248 turns on / off the image writing laser diode 250 for the sub-color,
On the basis of the main color modulation signal from the second ROS control circuit 247, the laser driver 249 turns on and off the image writing laser diode 251 for the main color.

上記のようなメインカラーの画像書込み用レーザダイ
オード251及びサブカラーの画像書込み用レーザダイオ
ード250のオン・オフ制御により、帯電器301により一様
帯電された感光ドラム300上に各色に対応した電位状態
での静電潜像が形成され、各静電潜像に対してサブカラ
ーについては現像機302により赤トナー現像、メインカ
ラーについては現像機303により黒トナー現像が行なわ
れる。そして、感光ドラム300上に形成された当該赤及
び黒のトナー像が給紙系より供給される記録シート310
上に転写され、更に像定着を経て二色の色再現のなされ
た記録シートが排出される。
The on / off control of the main-color image writing laser diode 251 and the sub-color image writing laser diode 250 as described above causes a potential state corresponding to each color on the photosensitive drum 300 uniformly charged by the charger 301. Are formed with respect to each of the electrostatic latent images, the developing unit 302 develops a red toner for the sub-color, and a black toner develops the developing unit 303 for the main color. Then, the red and black toner images formed on the photosensitive drum 300 are recorded on a recording sheet 310 supplied from a paper feeding system.
The recording sheet is transferred onto the recording sheet, and after the image is fixed, the recording sheet on which two colors are reproduced is discharged.

上記処理部にて説明したイメージ外形線の抽出処理を
経た場合、例えば、原稿上のイメージが第21図(a)に
示すように矩形イメージとなるとき、前述した走査部
(第2図参照)での走査に同期してリアルタイムに同図
(b)に示すような2画素幅の白抜き矩形イメージでそ
の半分から左側がメインカラー黒(斜線)、その右側が
サブカラー赤(網点)となる色画像が記録シート上に再
現される。
After the image outline extraction processing described in the above processing section, for example, when the image on the document becomes a rectangular image as shown in FIG. 21 (a), the above-described scanning section (see FIG. 2) (B) in real time in synchronism with the scanning in FIG. 3 (b), a half-color left-sided rectangular image with a main color black (diagonal line) and a right-hand side with a sub-color red (halftone dot) as shown in FIG. Is reproduced on the recording sheet.

なお、上記サブカラーの像形成においては、第29図
(a)に示すような露光部が画像部となる潜像Z1が形成
され、この潜像Z1が現像機302にて第一現像バイアスVB
1のもとに現像されてサブカラー(赤)のトナー像T1が
形成される。上記メインカラーの像形成においては、第
29図(b)に示すような非露光部が画像部となる潜像Z2
が形成され、この潜像Z2が現像機303にて第二現像バイ
アスVB2のもとに現像されてメインカラー(黒)のトナ
ー像T2が形成される。そして、具体的には、これらのト
ナー像T1,T2は転写前コロトロン308にて極性が揃えられ
た後、転写コロトロン304にて記録シート310上に一括転
写される。
In the above-described sub-color image formation, a latent image Z1 having an exposed portion as an image portion as shown in FIG. 29A is formed, and this latent image Z1 is
The toner image T1 of the sub-color (red) is formed by developing under the condition (1). In the main color image formation,
29 Latent image Z2 in which the non-exposed area becomes the image area as shown in FIG.
The latent image Z2 is developed by the developing device 303 under the second developing bias VB2 to form a main color (black) toner image T2. More specifically, the toner images T1 and T2 are batch-transferred on the recording sheet 310 by the transfer corotron 304 after the polarities thereof are made uniform by the pre-transfer corotron 308.

VI.まとめ 上記実施例では、主走査方向について非イメージ部か
らイメージ部に変化する画素(変化点)及びイメージ部
から非イメージ部に変化する画素(変化点)から設定画
素幅分だけHレベルに立上がった状態となる主走査方向
外形信号を生成し、副走査方向については、非イメージ
部からイメージ部に変化する画素(変化点)及びイメー
ジ部から非イメージ部に変化する画素(変化点)にて立
上がるイメージエッジ検出信号を生成している。そし
て、上記主走査方向外形信号がHレベル状態となるとき
にその状態の各画素についてイメージを生成することに
より主走査方向についての外形線が生成される。また、
副走査方向のイメージエッジ検出信号がHレベルの状
態、及びこのイメージエッジ検出信号、上記主走査方向
外形信号がLレベルに立下がった後の所定ライン幅だけ
イメージを生成することにより副走査方向についての外
形線が生成される。
VI. Conclusion In the above embodiment, in the main scanning direction, the pixel (change point) that changes from the non-image portion to the image portion and the pixel (change point) that changes from the image portion to the non-image portion are set to the H level by the set pixel width. A main scanning direction outer shape signal that is in a rising state is generated, and in the sub-scanning direction, pixels that change from a non-image part to an image part (change points) and pixels that change from an image part to a non-image part (change points) Generates an image edge detection signal which rises. Then, when the external signal in the main scanning direction is in the H level state, an image is generated for each pixel in that state, thereby generating an external line in the main scanning direction. Also,
The state in which the image edge detection signal in the sub-scanning direction is at the H level, and the image edge detection signal and the image in the main scanning direction are generated only for a predetermined line width after the outer shape signal has fallen to the L level, so that the image is detected in the sub-scanning direction. Is generated.

主走査方向についてはイメージ部と非イメージ部との
境界点から走査方向下流側に外形線のイメージが生成さ
れ、副走査方向については同境界点から走査ライの移動
方向下流側に外形線のイメージが生成される。これは、
読取り走査の済んだラインについての画素を対象として
外形線の生成処理を行なわななくて済むことから、原稿
の読取り走査に同期させてリアルタイムに外形線を再現
するのに特に適した処理となっている。このような処理
でなく、画像データを蓄えるメモリを用いて読取り時点
より以前の画像データを確保することにより、イメージ
部と非イメージ部との境界点から走査方向、あるいは走
査ラインの移動方向とは逆方向に外形線イメージを生成
することも可能である。
In the main scanning direction, an outline image is generated downstream in the scanning direction from the boundary point between the image portion and the non-image portion, and in the sub-scanning direction, an outline image is generated downstream from the boundary point in the scanning line moving direction. Is generated. this is,
Since it is not necessary to perform the contour generation processing for the pixels of the line that has been read and scanned, the processing is particularly suitable for reproducing the contour in real time in synchronization with the scanning of the original document. I have. Instead of such processing, by securing the image data before the reading time using the memory for storing the image data, the scanning direction or the moving direction of the scanning line from the boundary point between the image part and the non-image part is determined. It is also possible to generate an outline image in the opposite direction.

また、ラインメモリに設定する外形線幅データXは外
形線の画素幅wに対して、 X=128+1−w にて演算されているが、これは、後の処理のアルゴリズ
ムによるものである。従って、単に画素幅wを直接設定
して当該画素幅wの外形線イメージを生成するアルゴリ
ズムに従った処理も勿論可能である。この外形線の画素
幅は予め固定的であっても良いが、オペレータの操作入
力により可変設定できることにより、原稿上のイメージ
の大きさとバランスのとれた幅、あるいは使用者の好み
にあった幅での外形線イメージが生成される。
The outline line width data X set in the line memory is calculated with respect to the pixel width w of the outline line by using X = 128 + 1-w, which is based on an algorithm of a later process. Therefore, it is of course possible to perform processing in accordance with an algorithm for simply setting the pixel width w and generating an outline image having the pixel width w. The pixel width of this outline may be fixed in advance, but can be variably set by an operator's operation input, so that the width is balanced with the size of the image on the document or a width that suits the user's preference. Is generated.

更に、上記実施例では二値の画像を多階調データに変
換しているが、これは、二値画像再現する場合には特に
必要ではない。しかし、上記実施例ではもともと256階
調にて画像読取り行なっていることから、通常の読取り
画像の再現処理と適合させるために多値化の処理を行な
っている。そして、その多階調データは可変設定が可能
であることにより、使用者の好みにあった濃度再現がな
されるようになる。
Further, in the above embodiment, a binary image is converted to multi-tone data, but this is not particularly necessary when a binary image is reproduced. However, in the above embodiment, since the image is originally read at 256 gradations, the multi-value processing is performed to match the normal read image reproduction processing. Since the multi-tone data can be variably set, the density can be reproduced according to the user's preference.

なお、上記実施例は、二色再現の複写機を例に説明し
たが、勿論単色の画像再現を目的とした複写機、その他
画像形成機器、更に、多色(フカラー)の画像再現を目
的とした画像形成機器にもその適用は可能である。
Although the above embodiment has been described with reference to a two-color reproduction copier as an example, it is needless to say that a copier for the purpose of reproducing a single color image, other image forming equipment, and further, a multi-color (full color) image reproduction. The application is also applicable to the image forming apparatus described above.

[発明の効果] 以上説明してきたように、本発明によれば、走査方向
について検出されたイメージ部と非イメージ部との境界
点に対してその走査方向に外形線画を生成すると共に、
副走査方向について同境界点に対してその走査ライン移
動方向に外形線画を生成するようにしたため、画像読取
り手段での画像情報の読取りと歩調を合わせた処理が出
でき、画像読取りに同期したリアルタイム処理が容易に
実現される。
[Effects of the Invention] As described above, according to the present invention, an outline drawing is generated in a scanning direction for a boundary point between an image part and a non-image part detected in the scanning direction, and
In the sub-scanning direction, an outline drawing is generated in the scanning line moving direction with respect to the same boundary point, so that processing in step with reading of image information by the image reading means can be performed, and real-time synchronized with image reading can be performed. Processing is easily realized.

また、上記走査方向に生成された外形線画の走査ライ
ン移動方向における各画素位置での当該線画部分から非
線画部分への境界点をも走査ライン移動方向の外形線生
成の対象としたため、走査方向に生成された外形線画の
当該境界点から走査ライン移動方向に外形線画が形成さ
れるようになり、走査方向及び走査ライン移動方向に形
成される外形線の連続性がより完全なものとなる。
In addition, since the boundary point from the line drawing portion to the non-line drawing portion at each pixel position in the scanning line movement direction of the outline drawing generated in the scanning direction is also subjected to the outline generation in the scanning line movement direction, the scanning direction The outline drawing is formed in the scanning line moving direction from the boundary point of the generated outline drawing, and the continuity of the outline formed in the scanning direction and the scanning line moving direction becomes more complete.

【図面の簡単な説明】[Brief description of the drawings]

第1図(a)(b)(c)は本発明の構成を示すブロッ
ク図、第1図(d)は本発明に係るイメージ外形線抽出
装置により形成される外形線の状態の一例を示す図、第
2図は本発明に係るイメージ外形線抽出装置が適用され
る画像処理装置の走査系の構造例を示す図、第3図は本
発明に係るイメージ外形線抽出装置が適用される画像処
理装置の基本構成例を示すブロック図、第4図はフルカ
ラーセンサの構造例を示す図、第5図はフルカラーセン
サの各セル配置の一例を示す図、第6図乃至第8図はセ
ンサインタフェース回路の構成例を示す回路図、第9図
は画素単位のセル構成の一例を示す図、第10図は色画情
報生成回路の構成例を示す回路図、第11図は色空間上で
の色判別の状態を示す図、第12図は色空間における原点
からの距離rと彩度Cとの関係を示す図、第13図は色空
間における角度θと色相Hとの関係を示す図、第14図は
濃度データとカラーフラグとの対応関係を示す図、第15
図は256階調の濃度データを二値化する二値化回路の構
成例を示す図、第16図は二値化した画像データとカラー
フラグ(MCF,SCF)の状態を示す図、第17図は外形線抽
出回路の全体構成例を示す回路図、第18図は主走査方向
外形検出回路の構成例を示す回路図、第19図は主走査方
向外形検出回路の作動状態を示すタイミングチャート、
第20図はエッジ検出時フラグの生成回路の構成例を示す
図、第21図は原稿上に描かれたオリジナルのイメージ
と、その外形線イメージとを例示する図、第22図は外形
線抽出回路の作動状態を示すタイミングチャート、第23
図は外形線画として抽出された二値画像データを多階調
の画像データに変化する変換回路の構成例を示す図、第
24図は多階調データへの変換状態を示す図、第25図は電
子写真方式の2色プリンタの構成例を示す図、第26図は
濃度データをカラーフラグにて分離する回路の構成例を
示す図、第27図は1画素を構成する分割画素の例を示す
図、第28図は濃度データに対応したレーザの変調コード
とレーザ点灯状態との関係の一例を示す図、第29図はメ
インカラーとサブカラーの現像特性の一例を示す図であ
る。 [符号の説明] 1……原稿 2……画像読取り手段 3……主走査方向エッジ検出手段 4……副走査方向エッジ検出手段 5……外形線生成手段 5a……主走査方向外形線画生成手段 5b……副走査方向外形線画生成手段 5b−1……ラインメモリ 5b−2……画素幅設定手段 5b−3……単位画像生成手段 5b−4……数値修正手段 10……フルカラーセンサ 20……センサインタフェース回路 50……色画情報生成回路 70……補正・フィルタ回路 100……編集・加工回路 180……インタフェース回路 182……レーザプリンタ 184……画像送受信機 186……コンピュータ
1 (a), 1 (b) and 1 (c) are block diagrams showing the configuration of the present invention, and FIG. 1 (d) shows an example of the state of an outline formed by an image outline extracting apparatus according to the present invention. FIG. 2 is a diagram showing a structural example of a scanning system of an image processing apparatus to which the image outline extracting apparatus according to the present invention is applied. FIG. 3 is an image to which the image outline extracting apparatus according to the present invention is applied. FIG. 4 is a block diagram showing a basic configuration example of the processing apparatus, FIG. 4 is a diagram showing a structural example of a full-color sensor, FIG. 5 is a diagram showing an example of each cell arrangement of the full-color sensor, and FIGS. FIG. 9 is a circuit diagram showing an example of a cell configuration of a pixel unit, FIG. 10 is a circuit diagram showing an example of a configuration of a color image information generation circuit, and FIG. Fig. 12 shows the state of color discrimination. Fig. 12 shows the distance r from the origin and the saturation in the color space. Diagram showing the relationship between, FIG. 13 is a diagram showing a relationship between the angle θ and the hue H in the color space, Fig. 14 shows the correspondence between the density data and the color flag, 15
FIG. 17 is a diagram showing a configuration example of a binarization circuit for binarizing density data of 256 gradations. FIG. 16 is a diagram showing the state of binarized image data and color flags (MCF, SCF). FIG. 18 is a circuit diagram showing an example of the entire configuration of an outline detection circuit. FIG. 18 is a circuit diagram showing an example of the configuration of a main scanning direction outline detection circuit. FIG. 19 is a timing chart showing an operation state of the main scanning direction outline detection circuit. ,
FIG. 20 is a diagram showing a configuration example of an edge detection flag generation circuit, FIG. 21 is a diagram illustrating an original image drawn on a document and its outline image, and FIG. 22 is an outline line extraction 23 is a timing chart showing the operation state of the circuit, FIG.
The figure shows a configuration example of a conversion circuit that changes binary image data extracted as an outline drawing into multi-gradation image data.
24 is a diagram showing a state of conversion into multi-tone data, FIG. 25 is a diagram showing a configuration example of an electrophotographic two-color printer, and FIG. 26 is a configuration example of a circuit for separating density data by a color flag FIG. 27 is a diagram showing an example of a divided pixel constituting one pixel. FIG. 28 is a diagram showing an example of a relationship between a laser modulation code corresponding to density data and a laser lighting state. FIG. 4 is a diagram illustrating an example of development characteristics of a main color and a sub color. [Explanation of Signs] 1 Original 2 Image reading means 3 Edge detecting means in the main scanning direction 4 Edge detecting means in the sub-scanning direction 5 Outline generating means 5a ... Outline drawing generating means in the main scanning direction 5b: Sub-scanning direction outline image generation means 5b-1: Line memory 5b-2: Pixel width setting means 5b-3: Unit image generation means 5b-4: Numeric correction means 10: Full color sensor 20 ... Sensor interface circuit 50 ... Color image information generation circuit 70 ... Correction / filter circuit 100 ... Editing / processing circuit 180 ... Interface circuit 182 ... Laser printer 184 ... Image transceiver 186 ... Computer

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】走査ライン(L)を順次移動(S)させな
がら原稿(1)を光学的に走査して所定の画素単位に画
像情報を読取る画像読取り手段(2)を備え、この画像
読取り手段(2)にて画素単位に順次読取られた画像情
報の処理を行なう画像処理装置にあって、 画像読取り手段(2)にて読取られる画像情報に基づい
て各走査ライン(L)上でのイメージ部(I)と非イメ
ージ部(NI)との境界点を検出する主走査方向エッジ検
出手段(3)と、 同読取り画像情報に基づいて走査ライン(L)の移動方
向(S)における各画素位置でのイメージ部(I)と非
イメージ部(NI)との境界点を検出する副走査方向エッ
ジ検出手段(4)と、 主走査方向エッジ検出手段(3)にて検出された境界点
に対してその走査方向(Sm)に外形線画を生成する主走
査方向外形線画生成手段(5a)と副走査方向エッジ検出
手段(4)にて検出された境界点に対してその走査ライ
ン移動方向(Ss)に外形線画を生成する副走査方向外形
線画生成手段(5b)とから成る外形線生成手段(5)と を備えるイメージ外形線抽出装置において、 上記副走査方向外形線画生成手段(5b)は、 走査ライン上の各画素位置に対応した格納アドレスを有
するラインメモリ(5b−1)と、 画像読取り手段(2)による原稿走査の過程で、上記境
界点が検出されたときにラインメモリ(5b−1)の各格
納アドレスに生成すべき外形線画の画素幅に対応した数
値を設定する画素幅設定手段(5b−2)と、 上記境界点からの各走査ラインについてラインメモリ
(5b−1)内に数値がセットされているアドレスに対応
した画素について単位画像を生成する単位画像生成手段
(5b−3)と、 単位画像生成手段(5b−3)にて単位画像が生成された
ときにラインメモリ(5b−1)内の対応するアドレスの
数値を画素幅が1ライン減るよう修正する数値修正手段
(5b−4)とを備えたことを特徴とするイメージ外形線
抽出装置。
An image reading means (2) for optically scanning an original (1) while sequentially moving (S) a scanning line (L) to read image information in predetermined pixel units. An image processing apparatus for processing image information sequentially read in pixel units by means (2), wherein each of the scanning lines (L) based on the image information read by the image reading means (2). Main scanning direction edge detecting means (3) for detecting a boundary point between the image portion (I) and the non-image portion (NI); and each of the scanning line (L) moving directions (S) based on the read image information. A sub-scanning direction edge detecting means (4) for detecting a boundary point between an image part (I) and a non-image part (NI) at a pixel position; and a boundary point detected by a main scanning direction edge detecting means (3). Generate outline drawing in the scanning direction (Sm) for A sub-scanning outline drawing which generates an outline drawing in the scanning line moving direction (Ss) with respect to the boundary point detected by the main scanning direction outline drawing generating means (5a) and the sub-scanning direction edge detecting means (4). And a contour line generating means (5) comprising a generating means (5b), wherein the sub-scanning direction contour image generating means (5b) includes a storage address corresponding to each pixel position on the scanning line. And a line image to be generated at each storage address of the line memory (5b-1) when the boundary point is detected in the course of scanning the original by the image reading means (2). A pixel width setting means (5b-2) for setting a numerical value corresponding to the pixel width of a pixel corresponding to an address where a numerical value is set in the line memory (5b-1) for each scanning line from the boundary point. Nitsu Unit image generating means (5b-3) for generating a unit image, and a numerical value of a corresponding address in the line memory (5b-1) when the unit image is generated by the unit image generating means (5b-3) And a numerical value correcting means (5b-4) for correcting the image width to reduce the pixel width by one line.
【請求項2】上記副走査方向外形線画生成手段(5b)
は、 主走査方向外形線画生成手段(5a)にて生成された外形
線画の走査ライン移動方向(Ss)における各画素位置で
の当該線画部分から非線画部分への境界点をも対象とし
たことを特徴とする請求項1記載のイメージ外形線抽出
装置。
2. The sub-scanning direction outline drawing generating means (5b).
Means that the boundary point from the line drawing portion to the non-line drawing portion at each pixel position in the scanning line moving direction (Ss) of the outline drawing generated by the main scanning direction outline drawing generating means (5a) is also targeted. 2. The image outline extracting apparatus according to claim 1, wherein:
【請求項3】走査ライン(L)を順次移動(S)させな
がら原稿(1)を光学的に走査して所定の画素単位に画
像情報を読取る画像読取り手段(2)を備え、この画像
読取り手段(2)にて画素単位に順次読取られた画像情
報の処理を行なう画像処理装置にあって、 画像読取り手段(2)にて読取られる画像情報に基づい
て各走査ライン(L)上でのイメージ部(I)と非イメ
ージ部(NI)との境界点を検出する主走査方向エッジ検
出手段(3)と、 同読取り画像情報に基づいて走査ライン(L)の移動方
向(S)における各画素位置でのイメージ部(I)と非
イメージ部(NI)との境界点を検出する副走査方向エッ
ジ検出手段(4)と、 主走査方向エッジ検出手段(3)にて検出された境界点
に対してその走査方向(Sm)に外形線画を生成する主走
査方向外形線画生成手段(5a)と副走査方向エッジ検出
手段(4)にて検出された境界点に対してその走査ライ
ン移動方向(Ss)に外形線画を生成する副走査方向外形
線画生成手段(5b)とから成る外形線生成手段(5)と を備えるイメージ外形線抽出装置において、 上記副走査方向外形線画生成手段(5b)は、 主走査方向外形線画生成手段(5a)にて生成された外形
線画の走査ライン移動方向(Ss)における各画素位置で
の当該線画部分から非線画部分への境界点をも対象とし
たことを特徴とするイメージ外形線抽出装置。
3. An image reading means (2) for optically scanning a document (1) while sequentially moving (S) a scanning line (L) and reading image information in predetermined pixel units. An image processing apparatus for processing image information sequentially read in pixel units by the means (2), wherein each of the scanning lines (L) based on the image information read by the image reading means (2). A main scanning direction edge detecting means (3) for detecting a boundary point between the image portion (I) and the non-image portion (NI); and each of the scanning line (L) moving directions (S) based on the read image information. A sub-scanning direction edge detecting means (4) for detecting a boundary point between an image part (I) and a non-image part (NI) at a pixel position; and a boundary point detected by a main scanning direction edge detecting means (3). Generates outline drawing in the scanning direction (Sm) for A sub-scanning contour image generating unit generates a contour image in the scanning line moving direction (Ss) with respect to the boundary point detected by the main scanning direction contour image generating means (5a) and the sub-scanning direction edge detecting means (4). And a contour line generating means (5) comprising a generating means (5b), wherein the sub-scanning direction contour image generating means (5b) includes a main scanning direction contour image generating means (5a). An image outline extracting apparatus, which also targets a boundary point from a line drawing part to a non-line drawing part at each pixel position in a scanning line moving direction (Ss) of the generated outline drawing.
JP1166803A 1989-06-30 1989-06-30 Image outline extraction device Expired - Fee Related JP3003133B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1166803A JP3003133B2 (en) 1989-06-30 1989-06-30 Image outline extraction device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1166803A JP3003133B2 (en) 1989-06-30 1989-06-30 Image outline extraction device

Publications (2)

Publication Number Publication Date
JPH0334078A JPH0334078A (en) 1991-02-14
JP3003133B2 true JP3003133B2 (en) 2000-01-24

Family

ID=15837972

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1166803A Expired - Fee Related JP3003133B2 (en) 1989-06-30 1989-06-30 Image outline extraction device

Country Status (1)

Country Link
JP (1) JP3003133B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4590745B2 (en) * 2001-01-31 2010-12-01 パナソニック電工株式会社 Image processing device
CN103366344B (en) * 2012-03-27 2017-07-14 富士通株式会社 Edge retains filtering method and device

Also Published As

Publication number Publication date
JPH0334078A (en) 1991-02-14

Similar Documents

Publication Publication Date Title
JP2600515B2 (en) Image processing method
JPH10233928A (en) Image processor
JP2607489B2 (en) Color image processing equipment
JP2958981B2 (en) Document detection device
JP3003133B2 (en) Image outline extraction device
JP2906459B2 (en) Image shadow line extraction device and image processing device using the same
JP3094413B2 (en) Image processing device
JP2887483B2 (en) Multicolor image information generating apparatus and image processing apparatus using the same
JP3010639B2 (en) Image processing device
JPH10304200A (en) Image processor
JP2958984B2 (en) Image processing device
JPS6378672A (en) Data compression system
JPH05236287A (en) Picture processing unit
JP2861056B2 (en) Image processing device
JP3169219B2 (en) Color image forming equipment
JP3213347B2 (en) Digital copier and contour mode processing method
JP2000341511A (en) Image processor
JPH07184038A (en) Image processor
JPS6384267A (en) Data compressing system
JP3382247B2 (en) Image processing system
JPH09321989A (en) Edge area detector
JPH05137011A (en) Image processor
JPH0514690A (en) Picture editer
JPS61288565A (en) Halftone digital picture processing device
JPS61288564A (en) Intermediate gradation digital picture processor

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees