JPH0844865A - Image processor - Google Patents

Image processor

Info

Publication number
JPH0844865A
JPH0844865A JP18240894A JP18240894A JPH0844865A JP H0844865 A JPH0844865 A JP H0844865A JP 18240894 A JP18240894 A JP 18240894A JP 18240894 A JP18240894 A JP 18240894A JP H0844865 A JPH0844865 A JP H0844865A
Authority
JP
Japan
Prior art keywords
data
image
image processing
line memory
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP18240894A
Other languages
Japanese (ja)
Inventor
Shinji Yamakawa
愼二 山川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP18240894A priority Critical patent/JPH0844865A/en
Publication of JPH0844865A publication Critical patent/JPH0844865A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)

Abstract

PURPOSE:To prevent interference from being generated at the border of areas when performing plural kinds of image processing while sharing a line memory. CONSTITUTION:A change point detecting part 400 detects the border (change point) of areas designated on an original or a job sheet, replaces the data of the change point with '0' and outputs the data of the other areas to a line memory part 500 as they are. At an extracting part 100, specified seven colors such as G, Y, R, P (purple) and B, for example, are extracted from a luminance signal L* and color difference signals a* and b* and a three-bit signal is outputted. A contour processing part 200 and a shadow processing part 300 respectively generate the contour data and shadow data of designated areas from the three-bit signal while sharing the line memory part 500.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、影付けなどの画像処理
を行う画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for performing image processing such as shadowing.

【0002】[0002]

【従来の技術】従来、輪郭処理と影付け処理を行う場合
に例えば特開平4−218879号公報では輪郭処理用
ラインメモリと影付け処理用ラインメモリを共有すると
共に、処理に応じてラインメモリのサイズを変更する方
法が提案されている。
2. Description of the Related Art Conventionally, in the case of performing contour processing and shadowing processing, for example, in Japanese Patent Laid-Open No. 4-218879, the contour processing line memory and the shadowing processing line memory are shared, and the line memory of the line memory is processed according to the processing. A method of changing the size has been proposed.

【0003】また、他の装置として例えば特開平6−0
54178号公報では、RGBデータからYMCKの影
付けを行う場合に、RGBの各データを2値化して合計
3ビットにコード化することによりラインメモリの容量
を減少する方法が提案されている。
Another device is, for example, Japanese Patent Laid-Open No. 6-0.
Japanese Patent Laid-Open No. 54178 proposes a method of reducing the capacity of the line memory by binarizing each RGB data and coding it into a total of 3 bits when YMCK is shaded from RGB data.

【0004】また、影付け処理を行うカラー画像処理装
置としては、例えば特開平3−276964号公報に示
すようにR、G、Bのデータを用いた方法が提案されて
いる。
As a color image processing apparatus for performing a shadowing process, for example, a method using R, G, B data has been proposed as disclosed in Japanese Patent Laid-Open No. 3-276964.

【0005】[0005]

【発明が解決しようとする課題】しかしながら、特開平
3−276964号公報に示す方法では、ラインメモリ
を共有して2以上の異なる画像処理を行うので、隣接す
る2つの領域の境界で干渉が発生するという問題点があ
る。
However, in the method disclosed in Japanese Unexamined Patent Publication No. 3-276964, the line memory is shared and two or more different image processes are performed, so that interference occurs at the boundary between two adjacent regions. There is a problem of doing.

【0006】また、特開平6−054178号公報に示
す方法では、RGBの各データを2値化して合計3ビッ
トにコード化するので、原画像からより多くの色を抽出
する場合にラインメモリの容量が増加するという問題点
がある。
Further, in the method disclosed in Japanese Patent Laid-Open No. 6-054178, each RGB data is binarized and coded into a total of 3 bits. Therefore, when more colors are extracted from the original image, the line memory is used. There is a problem that the capacity increases.

【0007】本発明は上記従来の問題点に鑑み、ライン
メモリを共有して複数の異なる画像処理を行う場合に領
域の境界で干渉が発生することを防止することができる
画像処理装置を提供することを目的とする。
In view of the above-mentioned conventional problems, the present invention provides an image processing apparatus capable of preventing interference from occurring at a boundary between regions when a plurality of different image processes are performed by sharing a line memory. The purpose is to

【0008】本発明はまた、原画像から多数の種類の画
像データを抽出して画像処理を行う場合にラインメモリ
の容量を減少することができる画像処理装置を提供する
ことを目的とする。
Another object of the present invention is to provide an image processing apparatus capable of reducing the capacity of a line memory when a large number of types of image data are extracted from an original image and subjected to image processing.

【0009】本発明はまた、原画像から多数の種類の画
像データを抽出して画像処理を行う場合に画像の種類毎
に干渉が発生することを防止することができる画像処理
装置を提供することを目的とする。
The present invention also provides an image processing apparatus capable of preventing interference from occurring for each type of image when a large number of types of image data are extracted from an original image and subjected to image processing. With the goal.

【0010】[0010]

【課題を解決するための手段】第1の手段は上記目的を
達成するために、画像を画像処理する指定領域データを
記憶するラインメモリと、画像データの指定領域の境界
を検出し、境界で前記ラインメモリをクリアするクリア
手段と、前記ラインメモリを共有して画像データの各指
定領域を画像処理する複数の画像処理手段とを備えたこ
とを特徴とする。
In order to achieve the above object, a first means detects a boundary between a line memory for storing designated area data for image processing of an image and a designated area for image data, and It is characterized by comprising a clear means for clearing the line memory, and a plurality of image processing means for sharing the line memory and performing image processing on each designated area of image data.

【0011】第2の手段は、原画像から複数種類の画像
データを抽出する抽出手段と、前記抽出手段により抽出
された画像データの種類をコード化するコード化手段
と、画像を画像処理する指定領域データと前記コード化
手段によりコード化された画像データの種類コードを記
憶するラインメモリと、前記ラインメモリに記憶された
指定領域データに基づいて種類コードを展開する展開す
る展開手段と、前記展開手段により展開されたデータに
基づいて画像処理を行う画像処理手段とを備えたことを
特徴とする。
The second means is extraction means for extracting a plurality of types of image data from the original image, coding means for encoding the types of image data extracted by the extraction means, and designation for image processing of the image. A line memory for storing the area data and the type code of the image data encoded by the encoding means, an expanding means for expanding the type code based on the designated area data stored in the line memory, and the expansion Image processing means for performing image processing based on the data developed by the means.

【0012】第3の手段は、原画像から複数種類の画像
データを抽出する抽出手段と、前記抽出手段により抽出
された画像データの種類をコード化するコード化手段
と、画像を画像処理する指定領域データと前記コード化
手段によりコード化された画像データの種類コードを記
憶するラインメモリと、前記ラインメモリに記憶された
指定領域において画像の種類毎に干渉しないように種類
コードを論理演算することにより画像処理を行う画像処
理手段とを備えたことを特徴とする。
A third means is an extraction means for extracting a plurality of types of image data from an original image, a coding means for coding the types of image data extracted by the extraction means, and a designation for performing image processing on the image. A line memory for storing the area data and the type code of the image data encoded by the encoding means, and a logical operation of the type code so as not to interfere with each type of image in the designated area stored in the line memory. And image processing means for performing image processing according to the above.

【0013】第4の手段は、原画像から複数種類の画像
データを抽出する抽出手段と、前記抽出手段により抽出
された画像データの種類をコード化するコード化手段
と、画像を画像処理する指定領域データと前記コード化
手段によりコード化された画像データの種類コードを記
憶するラインメモリと、前記ラインメモリに記憶された
指定領域データに基づいて種類コードを展開する展開す
る展開手段と、前記展開手段により展開されたデータに
基づいて画像処理を行う第1の画像処理手段と、前記ラ
インメモリに記憶された指定領域において画像の種類毎
に干渉しないように種類コードを論理演算することによ
り画像処理を行う第2の画像処理手段とを備えたことを
特徴とする。
A fourth means is extraction means for extracting a plurality of types of image data from an original image, coding means for coding the types of image data extracted by the extraction means, and designation for image processing of the image. A line memory for storing the area data and the type code of the image data encoded by the encoding means, an expanding means for expanding the type code based on the designated area data stored in the line memory, and the expansion First image processing means for performing image processing on the basis of the data developed by the means, and image processing by logically operating the type code so as not to interfere with each type of image in the designated area stored in the line memory. And a second image processing means for performing.

【0014】第5の手段は、第2ないし第4の手段にお
いて画像データの指定領域の境界を検出し、境界で前記
ラインメモリをクリアするクリア手段を備えたことを特
徴とする。
A fifth means is characterized in that the second to fourth means includes a clear means for detecting the boundary of the designated area of the image data and clearing the line memory at the boundary.

【0015】第6の手段は、第1ないし第5の手段にお
いて前記画像データがカラー画像の輝度データと色差デ
ータであることを特徴とする。
A sixth means is characterized in that in the first to fifth means, the image data is luminance data and color difference data of a color image.

【0016】第7の手段は、第6の手段において前記輝
度データと色差データが色座標空間のデータであること
を特徴とする。
A seventh means is characterized in that the luminance data and the color difference data in the sixth means are data of a color coordinate space.

【0017】[0017]

【作用】第1の手段では、画像を画像処理する指定領域
データを記憶するラインメモリを共有して画像データの
各指定領域を複数の異なる画像処理を行う場合に、クリ
ア手段によって画像データの指定領域の境界が検出さ
れ、境界でラインメモリがクリアされる。したがって、
ラインメモリを共有して複数の画像処理手段により複数
の異なる画像処理を行う場合に、コード化手段により領
域の境界で干渉が発生することを防止することができ
る。
According to the first means, when the line memory for storing the designated area data for image processing the image is shared and each designated area of the image data is subjected to a plurality of different image processing, the image data is designated by the clear means. A region boundary is detected and the line memory is cleared at the boundary. Therefore,
When the line memory is shared and a plurality of different image processings are performed by a plurality of image processing means, it is possible to prevent the occurrence of interference at the boundary of regions by the encoding means.

【0018】第2の手段では、抽出手段により原画像か
ら複数種類の画像データが抽出され、コード化手段によ
り種類がコード化されてラインメモリに記憶され、展開
手段に基づいて種類コードを展開し、展開されたデータ
に基づいて画像処理手段により画像処理が行われる。し
たがって、原画像から多数の種類の画像データを抽出し
て画像処理を行う場合にラインメモリの容量を減少する
ことができる。
In the second means, plural kinds of image data are extracted from the original image by the extracting means, the kinds are coded by the coding means and stored in the line memory, and the kind codes are expanded based on the expanding means. Image processing is performed by the image processing means based on the expanded data. Therefore, the capacity of the line memory can be reduced when a large number of types of image data are extracted from the original image and subjected to image processing.

【0019】第3の手段では、抽出手段により原画像か
ら複数種類の画像データが抽出され、コード化手段によ
り種類がコード化されてラインメモリに記憶され、画像
処理手段により画像の種類毎に干渉しないように種類コ
ードを論理演算することにより画像処理が行われる。し
たがって、原画像から多数の種類の画像データを抽出し
て画像処理を行う場合に画像の種類毎に干渉が発生する
ことを防止することができる。
In the third means, a plurality of types of image data are extracted from the original image by the extraction means, the types are encoded by the encoding means and stored in the line memory, and the image processing means interferes with each other for each type of image. Image processing is performed by logically operating the type code so as not to do so. Therefore, when a large number of types of image data are extracted from the original image and subjected to image processing, it is possible to prevent interference from occurring for each type of image.

【0020】第4の手段では、抽出手段により原画像か
ら複数種類の画像データが抽出され、コード化手段によ
り種類がコード化されてラインメモリに記憶され、展開
手段に基づいて種類コードを展開し、展開されたデータ
に基づいて第1の画像処理手段により画像処理が行わ
れ、第2の画像処理手段によってラインメモリに記憶さ
れた指定領域において画像の種類毎に干渉しないように
種類コードを論理演算する。これによって原画像から多
数の種類の画像データを抽出して画像処理を行う場合に
ラインメモリの容量を減少することができると共に、画
像の種類毎に干渉が発生することを防止することができ
る。
In the fourth means, plural kinds of image data are extracted from the original image by the extracting means, the kinds are coded by the coding means and stored in the line memory, and the kind codes are expanded based on the expanding means. The first image processing means performs image processing on the basis of the expanded data, and the second image processing means logically determines the type code so as not to interfere with each type of image in the designated area stored in the line memory. Calculate This makes it possible to reduce the capacity of the line memory when a large number of types of image data are extracted from the original image and perform image processing, and it is possible to prevent interference from occurring for each type of image.

【0021】第5の手段では、第2ないし第4の手段に
おいてクリア手段によって画像データの指定領域の境界
が検出され、境界でラインメモリがクリアされる。した
がって、ラインメモリを共有して複数の異なる画像処理
を行う場合に領域の境界で干渉が発生することを防止す
ることができると共に、原画像から多数の画像データを
抽出して画像処理を行う場合にラインメモリの容量を減
少することができ、また、画像の種類毎に干渉が発生す
ることを防止することができる。
In the fifth means, the clear means detects the boundary of the designated area of the image data in the second to fourth means, and the line memory is cleared at the boundary. Therefore, when the line memory is shared and a plurality of different image processes are performed, it is possible to prevent interference from occurring at the boundary between regions, and when a large number of image data are extracted from the original image and the image process is performed. In addition, it is possible to reduce the capacity of the line memory, and it is possible to prevent the occurrence of interference for each type of image.

【0022】第6の手段では、カラー画像の輝度データ
と色差データに基づいて画像処理を行うのでカラー画像
を白黒化する場合に輝度データのみを用いて簡単に画像
処理することができる。
In the sixth means, since the image processing is performed based on the luminance data and color difference data of the color image, it is possible to easily perform the image processing using only the luminance data when the color image is made into black and white.

【0023】第7の手段では、輝度データと色差データ
は色座標空間のデータであるのでカラー画像を白黒化す
る場合に輝度データのみを用いて簡単に画像処理するこ
とができる。
In the seventh means, since the luminance data and the color difference data are data in the color coordinate space, it is possible to easily perform image processing using only the luminance data when making a color image into black and white.

【0024】[0024]

【実施例】以下、図面を参照して本発明の実施例を説明
する。図1は本発明に係る画像処理装置の一実施例の要
部である加工部を示すブロック図、図2は図1の加工部
を備えた複写機を示すブロック図、図3は図1の加工部
を備えたカラー画像処理装置を示すブロック図、図4は
図1の変化点検出部が検出する領域を示す説明図、図5
は図1の変化点検出部により検出された領域の境界を示
す説明図、図6及び図7は図1のラインメモリ部を詳細
に示すブロック図、図8は図1の抽出部を詳細に示すブ
ロック図、図9は図8の色抽出部の論理を示す説明図、
図10は図1の輪郭処理部を詳細に示すブロック図、図
11は図10の中抜き処理部を詳細に示すブロック図、
図12は図10の輪郭処理部による細らせデータ、輪郭
データ及びずれデータを示す説明図である。
Embodiments of the present invention will be described below with reference to the drawings. 1 is a block diagram showing a processing unit which is a main part of an embodiment of an image processing apparatus according to the present invention, FIG. 2 is a block diagram showing a copying machine including the processing unit shown in FIG. 1, and FIG. FIG. 5 is a block diagram showing a color image processing apparatus including a processing unit, FIG. 4 is an explanatory diagram showing a region detected by the change point detection unit of FIG. 1, and FIG.
1 is an explanatory view showing the boundaries of the areas detected by the change point detection unit of FIG. 1, FIGS. 6 and 7 are block diagrams showing the line memory unit of FIG. 1 in detail, and FIG. 8 shows the extraction unit of FIG. 1 in detail. FIG. 9 is a block diagram shown in FIG.
10 is a block diagram showing the contour processing section of FIG. 1 in detail, and FIG. 11 is a block diagram showing the hollow processing section of FIG. 10 in detail.
FIG. 12 is an explanatory diagram showing the thinning data, the contour data, and the deviation data by the contour processing unit of FIG.

【0025】また、図13は図1の影処理部を詳細に示
すブロック図、図14は図13の影生成部を詳細に示す
ブロック図、図15は図14の影生成部の動作を示す説
明図、図16は立体影を示す説明図、図17は平影を示
す説明図、図18及び図19は影生成時の処理を示す説
明図、図20は図1の合成部を詳細に示すブロック図、
図21は実施例の動作を示す説明図である。
FIG. 13 is a block diagram showing the shadow processing section of FIG. 1 in detail, FIG. 14 is a block diagram showing the shadow generation section of FIG. 13 in detail, and FIG. 15 shows the operation of the shadow generation section of FIG. Explanatory diagram, FIG. 16 is an explanatory diagram showing a solid shadow, FIG. 17 is an explanatory diagram showing a plain shadow, FIGS. 18 and 19 are explanatory diagrams showing processing at the time of shadow generation, and FIG. Block diagram showing,
FIG. 21 is an explanatory diagram showing the operation of the embodiment.

【0026】先ず、図2を参照して複写機の構成を説明
する。原稿や原稿を画像処理する領域及び内容を示すジ
ョブシートは原稿送り手段1により1枚毎に原稿読み取
り手段2に導かれて読み取られ、また、読み取り後に原
稿読み取り手段2から排出される。原稿読み取り手段2
により読み取られた画像データはR、G、Bの各デジタ
ルデータとして図3に詳しく示すカラー画像処理装置
(画像処理手段3)に出力され、補正、加工される。
First, the structure of the copying machine will be described with reference to FIG. A document or a job sheet indicating the area and contents of image processing of the document is guided to the document reading unit 2 by the document feeding unit 1 and read by the document feeding unit 1, and is discharged from the document reading unit 2 after reading. Document reading means 2
The image data read by is output to the color image processing apparatus (image processing means 3) shown in detail in FIG. 3 as R, G, and B digital data, and is corrected and processed.

【0027】画像処理手段3により処理された画像は画
像記録手段(プリンタ)4により用紙に記録されたり、
画像表示手段5により表示される。操作手段6は操作者
がキー入力を行ったり、複写機の状態を表示し、また、
画像表示手段5には操作手段6による動作指示を行うた
めのガイダンスなどが表示される。
The image processed by the image processing means 3 is recorded on a sheet by the image recording means (printer) 4,
It is displayed by the image display means 5. The operating means 6 allows the operator to input keys, display the status of the copying machine, and
The image display means 5 displays guidance or the like for giving an operation instruction by the operation means 6.

【0028】次に、図3を参照してカラー画像処理装置
について説明する。先ず、RGBフィルタ11は原稿読
み取り手段2の光学系のぼけを補正するために、原稿読
み取り手段2から出力されたR、G、Bの各デジタルデ
ータをMTF補正し、続くRGBγ補正部12はR、
G、Bの各デジタルデータのグレーバランスと濃度補正
を行う。RGB→L* * * 変換部13はRGBγ補
正部12からのR、G、Bのデータを直交変換系(均等
知覚色空間CIE1976(L* * * ))の輝度信
号L* と、第1の色差信号a* と第2の色差信号b*
変換し、続く変倍部14はL* * * のデータを主走
査方向に拡大、縮小する。なお、副走査方向の変倍は原
稿読み取り手段2により行われる。
Next, the color image processing apparatus will be described with reference to FIG. First, the RGB filter 11 performs MTF correction on each digital data of R, G, and B output from the document reading unit 2 in order to correct blurring of the optical system of the document reading unit 2, and then the RGBγ correction unit 12 performs R correction. ,
Gray balance and density correction of digital data of G and B are performed. The RGB → L * a * b * conversion unit 13 converts the R, G, and B data from the RGBγ correction unit 12 into a luminance signal L * of an orthogonal conversion system (uniform perceptual color space CIE1976 (L * a * b * )). , The first color difference signal a * and the second color difference signal b * are converted, and the subsequent scaling unit 14 enlarges or reduces the data of L * a * b * in the main scanning direction. Note that the scaling in the sub-scanning direction is performed by the document reading unit 2.

【0029】加工部15は輝度信号L* に基づいて色差
信号a* 、b* により影付け、中抜き、網かけなどの加
工処理や、ミラー、斜体などの変形処理を行い、続く色
変換部16は色差信号a* 、b* により赤を青に変換な
どしたり、信号L* 、a* 、b* により特定の色を加算
するアンダカラーなどの処理を行う。
Based on the luminance signal L * , the processing section 15 performs processing such as shading, hollowing, half-shading, etc. by the color difference signals a * and b * , and deformation processing such as mirror and italic, and the following color conversion section. 16 performs or the like converts the color difference signal a *, the b * red to blue, signals L *, a *, a process such as under-color for adding a specific color by b *.

【0030】L* * * →YMCK変換部17は色変
換部16からのL* 、a* 、b* のデータに基づいて
Y、M、C、Kの任意の1つ例えばK(黒)を出力する
ためにUCR(下地除去)処理を行う。なお、原稿読み
取り手段2により原稿を4回読み取ることによりそれぞ
れY、M、C、Kを出力してフルカラー画像を得ること
ができ、また、モノカラーの場合には輝度信号L* のみ
でKのデータを出力する。
The L * a * b * → YMCK conversion unit 17 determines an arbitrary one of Y, M, C, and K, for example, K (black) based on the L * , a * , and b * data from the color conversion unit 16. ) Is output, UCR (background removal) processing is performed. Note that Y, M, C, and K can be output to obtain a full-color image by reading the original four times by the original reading unit 2, and in the case of monocolor, only the luminance signal L * can be used to obtain the K value. Output the data.

【0031】YMCKγ補正部18はプリンタ4の濃度
特性に応じたγ補正を行い、続くYMCKフィルタ19
はプリンタ4の周波数特性に応じた処理を行う。階調処
理部20はプリンタ4の階調特性に応じた多値ディザ処
理、誤差拡散などの階調処理を行い、続くイレース部2
1は有効画像データ以外の不要画像を削除してプリンタ
4に出力する。
The YMCK γ correction unit 18 performs γ correction according to the density characteristic of the printer 4, and then the YMCK filter 19
Performs processing according to the frequency characteristics of the printer 4. The gradation processing unit 20 performs gradation processing such as multi-value dither processing and error diffusion according to the gradation characteristics of the printer 4, and then the erase unit 2
1 deletes unnecessary images other than valid image data and outputs them to the printer 4.

【0032】エリア部22は1ビットのビットマップメ
モリを4枚分備え、この4枚のビットマップメモリに予
め書き込まれた領域データをコピー動作中に、処理内容
に応じて加工部15、色変換部16、L* * * →Y
MCK変換部17、YMCKγ補正部18、YMCKフ
ィルタ19、階調処理部20、イレース部21に印加す
る。エリア部22にはまたイレース部21の出力信号が
格納されて合成処理可能に構成されている。
The area unit 22 is provided with four 1-bit bit map memories, and the area data pre-written in the four bit map memories are processed by the processing unit 15 and the color conversion unit according to the processing contents during the copy operation. Part 16, L * a * b * → Y
It is applied to the MCK conversion unit 17, the YMCKγ correction unit 18, the YMCK filter 19, the gradation processing unit 20, and the erase unit 21. The output signal of the erase section 21 is also stored in the area section 22 so that it can be combined.

【0033】エリア部22からは一例(図9参照)とし
て下記のような3ビットの領域番号「0」〜「7」が出
力される。
As an example (see FIG. 9), the area section 22 outputs the following 3-bit area numbers "0" to "7".

【0034】領域番号=「0」:処理なし 領域番号=「1」:輪郭付け+中埋め 領域番号=「2」:輪郭付け。Area number = "0": no processing Area number = "1": contouring + padding area number = "2": contouring.

【0035】領域番号=「3」:平影付け 領域番号=「4」:立体影付け 領域番号=「5」:輪郭付け+中埋め 領域番号=「6」:輪郭付け+立体影付け 領域番号=「7」:輪郭付け+平影付け 分離部23は輝度信号L* により網点判定を行って色差
信号a* 、b* の色領域を判定し、文字領域か写真領域
かの判定結果を加工部15、色変換部16、L* *
* →YMCK変換部17、YMCKγ補正部18、YM
CKフィルタ19、階調処理部20に印加する。各処理
部15〜20はこの文字領域又は写真領域に適した処理
に切り換える。
Area number = "3": flat shadow area area number = "4": solid shadow area number = "5": contouring + padding area number = "6": contour + solid shadow area number = “7”: Contouring + flat shadowing The separation unit 23 performs halftone dot determination based on the luminance signal L * to determine the color regions of the color difference signals a * and b * , and determines the determination result of the character region or the photo region. Processing unit 15, color conversion unit 16, L * a * b
* → YMCK conversion unit 17, YMCKγ correction unit 18, YM
It is applied to the CK filter 19 and the gradation processing unit 20. Each of the processing units 15 to 20 switches to processing suitable for this character area or photo area.

【0036】原稿サイズ検知部24は原稿のサイズを検
知するために、主走査方向の最大値max、最小値mi
nと副走査方向の最大値max、最小値minの白地領
域を検出して原稿サイズとする。なお、原稿読み取り手
段2において原稿を押さえ付ける圧板は、着色部材や鏡
面部材の白地以上の値である。メモリ部25は原稿の特
定の小領域の輝度データL* を格納可能であり、インタ
フェース(I/F)26は外部のコンピュータなどと変
倍部14と加工部15の間で接続するために用いられ
る。マイクロプロセッサ(MPU)27は各ブロック1
1〜26を制御することにより後述するような制御を行
う。
The document size detecting unit 24 detects the size of the document in order to detect the maximum value max and the minimum value mi in the main scanning direction.
An original size is detected by detecting a white background area of n and the maximum value max and the minimum value min in the sub-scanning direction. The pressure plate that presses the document in the document reading unit 2 has a value equal to or greater than the white background of the coloring member and the mirror surface member. The memory unit 25 can store the brightness data L * of a specific small area of the document, and the interface (I / F) 26 is used to connect the external computer or the like between the scaling unit 14 and the processing unit 15. To be Microprocessor (MPU) 27 is each block 1
By controlling 1 to 26, control as described later is performed.

【0037】図1に示す加工部15は、図8及び図9に
詳しく示す抽出部100と、図10〜図12に詳しく示
す輪郭処理部200と、図13〜図19に詳しく示す影
処理部300と、図4及び図5に詳しく示す変化点検出
部400と、図6及び図7に詳しくラインメモリ500
部と図20及び図21に詳しく合成部600を有する。
The processing unit 15 shown in FIG. 1 includes an extracting unit 100 shown in detail in FIGS. 8 and 9, a contour processing unit 200 shown in detail in FIGS. 10 to 12, and a shadow processing unit shown in detail in FIGS. 13 to 19. 300, a change point detector 400 shown in detail in FIGS. 4 and 5, and a line memory 500 shown in FIGS. 6 and 7.
20 and FIG. 21, there is a synthesizing unit 600 in detail.

【0038】変化点検出部400は図4に示すように原
稿やジョブシート上に指定された領域の境界(変化点)
を検出し、図5に示すように変化点のデータを「0」に
置き換え、また、他の領域のデータをそのままラインメ
モリ500部に出力する。ラインメモリ500部は図6
及び図7に示す構成を3つ有し、それぞれ回路207a
とラインメモリ207bを有する。回路207aは変化
点検出部400の出力信号に応じて8ビットのパラレル
信号M0〜M7を出力する。また、入出力信号として影
用FIFOin、outは影処理部300に接続され、
輪郭用FIFOin、outは輪郭処理部200に接続
されている。
As shown in FIG. 4, the changing point detecting section 400 is a boundary (changing point) of an area designated on a document or a job sheet.
Is detected, the data of the change point is replaced with “0” as shown in FIG. 5, and the data of the other area is output to the line memory 500 as it is. The line memory 500 is shown in FIG.
And a circuit 207a having three configurations shown in FIG.
And a line memory 207b. The circuit 207a outputs 8-bit parallel signals M0 to M7 according to the output signal of the change point detection unit 400. In addition, the shadow FIFO in and out as input / output signals are connected to the shadow processing unit 300,
The contour FIFOs in and out are connected to the contour processing unit 200.

【0039】ラインメモリ207bはnライン分のデー
タを蓄積する容量を有し、例えばNEC社、μPD42
505Cが用いられる。信号M0〜M7が「0」の場合
には、処理を行わずラインメモリ207bの入力データ
はオール0が選択される。信号M0〜M7が「1」又は
「2」の場合には、輪郭処理部200のみが処理を行
い、輪郭用FIFOinのみがラインメモリ207bに
入力し、輪郭用FIFOoutとしてラインメモリ20
7bのデータがそのまま出力されると共に、影用FIF
Ooutとしてオール0が出力される。
The line memory 207b has a capacity for accumulating data for n lines, and is, for example, NEC, μPD42.
505C is used. When the signals M0 to M7 are "0", no processing is performed and all 0s are selected as the input data of the line memory 207b. When the signals M0 to M7 are "1" or "2", only the contour processing unit 200 performs the processing, only the contour FIFOin is input to the line memory 207b, and the line memory 20 is used as the contour FIFOout.
7b data is output as it is, and the shadow FIF is used.
All 0s are output as Oout.

【0040】信号M0〜M7が「3」又は「4」の場合
には、影処理部300のみが処理を行い、影用FIFO
inのみがラインメモリ207bに入力し、影用FIF
Ooutとしてラインメモリ207bのデータがそのま
ま出力されると共に、輪郭用FIFOoutとしてオー
ル0が出力される。信号M0〜M7が「5」、「6」又
は「7」の場合には、輪郭処理部200と影処理部30
0の両方が処理を行い、ラインメモリ207bを2分割
して半分ずつ使用する。
When the signals M0 to M7 are "3" or "4", only the shadow processing section 300 performs the processing, and the shadow FIFO is used.
Only in is input to the line memory 207b, and the shadow FIF
The data of the line memory 207b is directly output as Oout, and all 0s are output as the contour FIFOout. When the signals M0 to M7 are “5”, “6”, or “7”, the contour processing section 200 and the shadow processing section 30.
Both of them perform processing, and the line memory 207b is divided into two and used half by half.

【0041】抽出部100では図8に詳しく示すよう
に、輝度信号L* と第1、第2の色差信号a* 、b*
ら例えばG、Y、R、P(パープル)、B等の特定の7
色を抽出するために、色抽出部101〜107により図
9に示すような論理による抽出信号を出力する。そし
て、この色抽出部101〜107の各出力信号をそれぞ
れインバータ111〜117により反転し、コード化部
120により3ビット信号を得、更にこの各ビットの信
号インバータ121〜123により反転して色コード信
号「0」〜「2」を出力する。
As shown in detail in FIG. 8, the extraction unit 100 specifies, for example, G, Y, R, P (purple), B, etc. from the luminance signal L * and the first and second color difference signals a * and b *. Of 7
In order to extract the color, the color extraction units 101 to 107 output extraction signals based on the logic as shown in FIG. The output signals of the color extracting units 101 to 107 are inverted by the inverters 111 to 117, the encoding unit 120 obtains a 3-bit signal, and the signal inverters 121 to 123 of the respective bits invert the output signals to obtain the color code. The signals "0" to "2" are output.

【0042】なお、色コード信号「0」〜「2」がオー
ル0の場合には抽出領域がないことを示し、また、コー
ド化部120としては例えばTI(テキサス・インスツ
ルメント)社のLS148又は同等のものを用いること
ができる。
When the color code signals "0" to "2" are all 0, it means that there is no extraction area, and the coding unit 120 is, for example, LS148 of TI (Texas Instruments). Or the equivalent can be used.

【0043】次に、図10を参照して輪郭処理部200
について詳細に説明する。ラインメモリ部500の輪郭
用FiFo出力out0〜2(それぞれ4ビット合計1
2ビット)はコード展開部202〜205に共に入力す
ると同時に、シフトされて輪郭用FiFo入力in0〜
2(それぞれ4ビット合計12ビット)に入力する。な
お、FiFo出力out0〜2の各MSBはFiFo入
力in0〜2に入力しない。
Next, referring to FIG. 10, the contour processing section 200
Will be described in detail. Contour FiFo outputs out0 to 2 of the line memory unit 500 (4 bits each for a total of 1
(2 bits) are simultaneously input to the code expansion units 202 to 205, and at the same time, they are shifted and the contour FiFo input in0 to in0 is input.
2 (4 bits each, total 12 bits). The MSBs of the FiFo outputs out0 to 2 are not input to the FiFo inputs in0 to 2.

【0044】抽出部100からの色コード信号「0」〜
「2」はコード展開部201に入力すると同時に、Fi
Fo入力in0〜2の各LSBとして入力する。ここ
で、コード展開部201〜206はTI社のLS138
又は同等のものを用いることができ、コード展開部20
1は図8に示す色抽出部101〜107が出力する現在
のラインの7ビットデータ(Y1〜Y7)に展開する。
同様に、コード展開部202は1ライン前、コード展開
部203は2ライン前、コード展開部204は3ライン
前、コード展開部205は4ライン前の7ビットデータ
(Y1〜Y7)に展開する。
Color code signal "0" from the extraction unit 100
“2” is input to the code expansion unit 201 and at the same time Fi
It is input as each LSB of Fo inputs in0 to 2. Here, the code expansion units 201 to 206 are LS138 of TI Company.
Alternatively, the code expansion unit 20 can be used.
1 is expanded into 7-bit data (Y1 to Y7) of the current line output by the color extracting units 101 to 107 shown in FIG.
Similarly, the code expansion unit 202 expands to 1 line before, the code expansion unit 203 expands to 2 lines before, the code expansion unit 204 expands to 3 lines before, and the code expansion unit 205 expands to 4 lines before to 7-bit data (Y1 to Y7). .

【0045】このコード展開部201〜205により展
開された7ビットデータはビット毎にそれぞれ中抜き処
理部211〜217に入力する。この中抜き処理部21
1〜217はそれぞれ図8に示す色抽出部101〜10
7に対応し、図11に詳しく示すように抽出色毎に独立
して中抜き処理を行う。
The 7-bit data expanded by the code expanding units 201 to 205 are input to the inside-out processing units 211 to 217 for each bit. This hollowing processing unit 21
1 to 217 are color extracting units 101 to 10 shown in FIG.
Corresponding to No. 7, as shown in detail in FIG. 11, the hollowing process is independently performed for each extracted color.

【0046】中抜き処理部211〜217の各出力ou
t0は図10に示すコード部221に印加され、3ビッ
トの色コード信号「0」〜「2」にコード化されてゲー
ト231〜233により輪郭データ「0」〜「2」とし
て出力される。これに対し、中抜き処理部211〜21
7の各出力out1はコード部222に印加されて3ビ
ットの色コード信号「0」〜「2」にコード化されてゲ
ート241〜243によりずれデータ「0」〜「2」と
して出力される。
Outputs ou of the hollowing processing units 211 to 217
t0 is applied to the code unit 221 shown in FIG. 10, coded into 3-bit color code signals “0” to “2”, and output as contour data “0” to “2” by the gates 231 to 233. On the other hand, the hollowing processing units 211 to 21
The respective outputs out1 of 7 are applied to the code section 222, coded into 3-bit color code signals "0" to "2", and output as shift data "0" to "2" by the gates 241 to 243.

【0047】コード展開部206には図3に示すエリア
部22から3ビットの領域信号が入力し、領域信号が
「0」の時には出力データ(輪郭データ「0」〜「2」
とずれデータ「0」〜「2」)が「H」となり、「0」
以外の時には出力データを反転する。
A 3-bit area signal from the area section 22 shown in FIG. 3 is input to the code expansion section 206. When the area signal is "0", output data (contour data "0" to "2") is input.
The deviation data “0” to “2”) becomes “H” and becomes “0”.
Otherwise, the output data is inverted.

【0048】中抜き処理部211〜217の各々は同一
の構成であり、その構成を図11に示す。フリップフロ
ップ(FF)は画素クロックで動作し、セレクタ251
の入力Aは3×3の細らせデータであり、入力Bは5×
5の細らせデータである。また、セレクタ252の入力
Aは3×3のずれ補正データであり、入力Bは5×5の
ずれ補正データである。セレクタ251、252は共に
選択信号Sが「L」の時には入力Aの3×3データを選
択し、他方、選択信号Sが「H」の時には入力Bの5×
5データを選択して出力端子Yに出力する。
Each of the hollowing processing units 211 to 217 has the same structure, and the structure is shown in FIG. The flip-flop (FF) operates with the pixel clock, and the selector 251
Input A is 3 × 3 thinned data, and Input B is 5 ×
It is data of 5 reduction. The input A of the selector 252 is 3 × 3 shift correction data, and the input B is 5 × 5 shift correction data. The selectors 251 and 252 both select the 3 × 3 data of the input A when the selection signal S is “L”, and the 5 × of the input B when the selection signal S is “H”.
5 data are selected and output to the output terminal Y.

【0049】セレクタ251、252により選択された
データはゲート253を介して輪郭データ(出力out
0)として出力され、セレクタ252により選択された
データはずれデータ(出力out1)として負論理で出
力される(図示インバータ254)。図10に示すコー
ド部221、222は図8に示すコード部120と同様
にTI社のLS148又は同等のものを用いることがで
き、この場合には負論理出力をNORゲート231〜2
33、241〜243により正論理で出力している。図
12(b)〜(d)はそれぞれ図12(a)に示す原画
像に対する細らせデータ、輪郭データ、ずれデータを示
し、いずれも原画像から斜め右下に向かって処理されて
いる。
The data selected by the selectors 251 and 252 is supplied via the gate 253 to the contour data (output out).
The data output as 0) and selected by the selector 252 is output in negative logic as shift data (output out1) (illustrated inverter 254). The code units 221 and 222 shown in FIG. 10 can use LS148 or the equivalent of TI Co. as in the code unit 120 shown in FIG. 8. In this case, the negative logic outputs NOR gates 231 to 2 are used.
33, 241-243 output in positive logic. 12B to 12D respectively show thinning data, contour data, and deviation data for the original image shown in FIG. 12A, all of which are processed from the original image toward the lower right.

【0050】次に、図13を参照して影処理部300に
ついて詳細に説明する。先ず、コード展開部301は図
10に示すコード展開部206と同様に領域信号を展開
し、セレクタ302と影生成部311〜313の選択信
号を生成する。セレクタ302は制御信号Gが「H」、
Sが「L」の時にずれデータ「0」〜「2」を選択し、
G、Sが共に「H」の時にコードデータ「0」〜「2」
を選択し、Gが「L」の時には出力Yは常に「L」とな
る。
Next, the shadow processing section 300 will be described in detail with reference to FIG. First, the code expanding unit 301 expands the area signal in the same manner as the code expanding unit 206 shown in FIG. 10, and generates the selection signals of the selector 302 and the shadow generating units 311 to 313. The control signal G of the selector 302 is “H”,
When S is "L", select the deviation data "0" to "2",
Code data “0” to “2” when both G and S are “H”
Is selected and the output Y is always "L" when G is "L".

【0051】影生成部311〜313の各々は同一の構
成であり、その構成を図14に示す。図13及び図14
において、影生成部311〜313の各入力F0である
影用FIFOout0〜2は、各出力F1である影用F
IFOin0〜2の1ライン前のデータである。
Each of the shadow generators 311 to 313 has the same configuration, and the configuration is shown in FIG. 13 and 14
In each of the shadow generation units 311 to 313, the shadow FIOs 0 to 2 that are the respective inputs F0 are the shadow FIOs that are the respective outputs F1.
The data is one line before IFOin0 to IFO2.

【0052】また、影生成部311の入力M、S0、S
1はそれぞれセレクタ302の出力Yのビット「0」、
「1」、「2」であり、影生成部312の入力M、S
0、S1はそれぞれセレクタ302の出力Yのビット
「1」、「2」、「0」であり、影生成部313の入力
M、S0、S1はそれぞれセレクタ302の出力Yのビ
ット「2」、「0」、「1」である。更に、影生成部3
11〜313の各選択信号SELは平影の時に「H」、
立体影の時に「L」となり、各出力Qから影データ
「0」〜「2」が出力される。
Also, the inputs M, S0, S of the shadow generation unit 311
1 is a bit “0” of the output Y of the selector 302,
“1” and “2”, and inputs M and S of the shadow generation unit 312
0 and S1 are bits “1”, “2”, and “0” of the output Y of the selector 302, and inputs M, S0, and S1 of the shadow generation unit 313 are bit “2” of the output Y of the selector 302, respectively. They are "0" and "1". Furthermore, the shadow generation unit 3
Each selection signal SEL of 11 to 313 is “H” when the shadow is flat,
When it is a three-dimensional shadow, it becomes "L", and shadow data "0" to "2" is output from each output Q.

【0053】図14において、影付け幅レジスタ320
には予め4ビットの影幅データが設定される。オール1
レジスタ321の各ビットの出力は全て「H」であり、
オール0レジスタ322a、322bの各ビットの出力
は全て「L」である。セレクタ323〜325、327
は制御信号Sが「L」の時に入力Aを選択し、制御信号
Sが「H」の時に入力Bを選択する。セレクタ324は
影付け幅レジスタ320からの2ビットの制御信号Sに
基づいて4ビットの入力C(上記F0)の1ビットを選
択する。
In FIG. 14, the shadow cast width register 320
Is set beforehand with 4-bit shadow width data. All 1
The output of each bit of the register 321 is "H",
The output of each bit of the all 0 registers 322a and 322b is all "L". Selectors 323 to 325, 327
Selects the input A when the control signal S is "L", and selects the input B when the control signal S is "H". The selector 324 selects 1 bit of the 4-bit input C (above F0) based on the 2-bit control signal S from the shadow width register 320.

【0054】加算器328はオール1(=入力A)+入
力F0(=入力B)を出力Σとして出力し、また、桁上
げが発生した場合に出力C4が「H」となる。比較器3
29はF0(=入力P)とオール0(=入力Q)が等し
い時に出力(/P=0)(「/」は反転記号を示す。)
が「L」となる。FF330はセレクタ325の出力Y
を画素クロックで1画素分蓄えて信号F1として出力す
る。ビットシフト器331は入力F0を2倍すると共
に、入力Mが「H」の時に+1を加算し、入力Mが
「L」の時には加算しない。
The adder 328 outputs all 1 (= input A) + input F0 (= input B) as the output Σ, and when the carry occurs, the output C4 becomes “H”. Comparator 3
29 is an output (/ P = 0) when F0 (= input P) and all 0 (= input Q) are equal (“/” indicates an inversion symbol).
Becomes "L". The FF 330 is the output Y of the selector 325.
Is stored for one pixel by the pixel clock and is output as a signal F1. The bit shifter 331 doubles the input F0, adds +1 when the input M is “H”, and does not add when the input M is “L”.

【0055】図15はこの回路の動作を示し、立体影の
時(SEL=L)の時に図16に示すような立体影が出
力され、平影の時(SEL=H)の時に図17に示すよ
うな平影が出力される。ここで、もし、影生成部311
〜313の入力がMのみにより図18に示すように例え
ばY、M、Cの立体影を生成した場合には隣接する色成
分が重畳して干渉する。そこで、入力M、S0、S1を
用いて図19に示すように隣接する色成分が干渉しない
ように立体影を生成することができる。
FIG. 15 shows the operation of this circuit. In the case of a solid shadow (SEL = L), the solid shadow as shown in FIG. 16 is output, and in the case of a flat shadow (SEL = H), it is shown in FIG. The flat shadow as shown is output. Here, if the shadow generation unit 311
When the input of ˜313 generates only the three-dimensional shadows of Y, M, and C by the input of M alone as shown in FIG. 18, adjacent color components are superimposed and interfere with each other. Therefore, the inputs M, S0, and S1 can be used to generate a three-dimensional shadow so that adjacent color components do not interfere with each other, as shown in FIG.

【0056】図20、図21は合成部600の構成及び
動作を示している。抽出部100は影を付けるべき色を
抽出し、この抽出データと影処理部300からの影デー
タの論理積信号が合成制御部601に印加される。合成
制御部601にはまた抽出部100からのコードデータ
と、輪郭処理部200からの輪郭データ及びずれデータ
と、エリア部22からの領域データが入力し、出力A、
Bでセレクタ602を、また、出力Sでセレクタ603
を制御することにより画像データL* 、a* 、b* 、輪
郭色データ、影付け色データ、中埋めデータ、イレーズ
データを選択する。
20 and 21 show the structure and operation of the combining unit 600. The extraction unit 100 extracts a color to be shaded, and a logical product signal of the extracted data and the shadow data from the shadow processing unit 300 is applied to the synthesis control unit 601. The synthesis control unit 601 also receives the code data from the extraction unit 100, the contour data and the shift data from the contour processing unit 200, and the area data from the area unit 22, and outputs A,
B selects the selector 602, and output S selects the selector 603.
The image data L * , a * , b * , contour color data, shadowing color data, padding data, and erase data are selected by controlling.

【0057】なお、図21(a)に示す原画像データは
抽出部100により抽出されたデータであり、図21
(b)〜(h)において原画像データ以外のデータは合
成制御部601に印加されるデータである。
The original image data shown in FIG. 21A is the data extracted by the extraction unit 100.
In (b) to (h), data other than the original image data is data applied to the synthesis control unit 601.

【0058】(a)先ず、領域信号が「0」の場合には
合成制御部601の出力A、B、Sは全て「L」とな
り、セレクタ602、603は画像データL* 、a*
* をそのまま選択して出力する。
(A) First, when the area signal is "0", the outputs A, B and S of the synthesis control unit 601 are all "L", and the selectors 602 and 603 have image data L * , a * , and
Select b * as it is and output.

【0059】(b)領域信号が「1」の場合には、輪郭
データが「H」のときには出力A、B、Sはそれぞれ
「H」、「L」、「L」となり、輪郭色データが選択さ
れ、また、輪郭データが「L」のときには出力A、B、
Sはそれぞれ「H」、「H」、「L」となり、中埋めデ
ータが選択される。その他の時には出力A、B、Sはそ
れぞれ「L」、「L」、「H」となり、イレーズデータ
が選択される。
(B) When the area signal is "1" and the contour data is "H", the outputs A, B and S are "H", "L" and "L", respectively, and the contour color data is When the contour data is selected and the contour data is “L”, outputs A, B,
S becomes "H", "H", and "L", respectively, and the embedded data is selected. At other times, the outputs A, B and S are "L", "L" and "H", respectively, and erase data is selected.

【0060】(c)領域信号が「2」の場合には、輪郭
データが「L」であってずれデータが「H」のときには
出力A、B、Sは共に「L」となり、画像データL*
*、b* が選択される。その他の時には上記(b)の
場合と同一である。
(C) When the area signal is "2", when the contour data is "L" and the shift data is "H", outputs A, B and S are all "L", and the image data L * ,
a * and b * are selected. At other times, it is the same as the above case (b).

【0061】(d)領域信号が「3」の場合には、影デ
ータが「H」のときには出力A、B、Sはそれぞれ
「L」「H」、「L」となり、影付け色データが選択さ
れ、また、その他の時には画像データL* 、a* 、b*
が選択される。
(D) When the area signal is "3" and the shadow data is "H", the outputs A, B and S are "L", "H" and "L", respectively, and the shadowing color data is Image data L * , a * , b * are selected, and at other times .
Is selected.

【0062】(e)領域信号が「4」の場合には、上記
(d)の場合と同一である。
(E) When the area signal is "4", it is the same as in the case of (d).

【0063】(f)領域信号が「5」の場合には、輪郭
データが「H」のときには出力A、B、Sはそれぞれ
「H」、「L」、「L」となり、輪郭色データが選択さ
れる。輪郭データが「L」であってずれデータが「H」
のときには出力A、B、Sは「H」、「H」、「L」と
なり、中埋めデータが選択される。更に、影データが
「H」のときには出力A、B、Sはそれぞれ「L」
「H」、「L」となり、影付け色データが選択され、そ
の他の時にはイレーズデータが選択される。
(F) When the area signal is "5", when the contour data is "H", the outputs A, B and S are "H", "L" and "L", respectively, and the contour color data is To be selected. The contour data is "L" and the deviation data is "H".
In the case of, the outputs A, B and S are "H", "H" and "L", and the padding data is selected. Further, when the shadow data is "H", the outputs A, B and S are "L" respectively.
The data becomes "H" and "L", the shadowing color data is selected, and the erase data is selected at other times.

【0064】(g)領域信号が「6」の場合には、輪郭
データが「L」であってずれデータが「H」のときには
出力A、B、Sは共に「L」となり、画像データL*
*、b* が選択される。その他の時には上記(f)の
場合と同一である。
(G) When the area signal is "6", when the contour data is "L" and the shift data is "H", the outputs A, B and S are all "L", and the image data L * ,
a * and b * are selected. At other times, it is the same as the case (f) above.

【0065】(h)領域信号が「7」の場合には、上記
(g)の場合と同一である。
(H) When the region signal is "7", it is the same as in the case of (g) above.

【0066】なお、上記実施例では、直交変換系のデー
タL* 、a* 、b* を例にして説明したが、他の画像デ
ータについて適用することができることは勿論である。
また、カラー画像の代わりに白黒データや単色を処理す
る場合には輝度データL* のみで色抽出を行うことによ
りハードウエアを簡略化することができる。また、領域
信号は固定にして説明したが、固定である必要はない。
In the above embodiment, the data L * , a * , b * of the orthogonal transformation system are described as an example, but it goes without saying that the invention can be applied to other image data.
Further, when processing monochrome data or a single color instead of a color image, the hardware can be simplified by performing color extraction only with the luminance data L * . Also, although the area signal has been described as fixed, it need not be fixed.

【0067】更に、合成部600の輪郭色データ、影付
け色データ、中埋め色データは領域毎に異なる値にして
もよく、また、図18において中埋めデータとイレーズ
データを同一にすることにより輪郭の内部と外部を同一
色にすることができる。また、影付け時の抽出部(文
字)と、影データ出力許可信号を抽出する抽出部を別個
に独立して構成することにより、影が付くか付かないか
の微妙な調整を行うことができる。また、抽出部100
と合成部600が独立しているので、抽出部100の色
に関係なく合成部600により自由に色付けすることが
できる。更に、本発明は、1領域3抽出に限定されず、
影生成部311〜313を増加することにより1領域多
抽出にも適用することができる。
Further, the contour color data, the shadowing color data, and the embedding color data of the synthesizing section 600 may have different values for each area, and by making the embedding data and the erase data the same in FIG. The inside and outside of the contour can have the same color. Further, by separately configuring the extraction unit (character) for shadowing and the extraction unit for extracting the shadow data output permission signal, it is possible to perform delicate adjustment as to whether or not the shadow is added. . In addition, the extraction unit 100
Since the synthesizing unit 600 is independent, the synthesizing unit 600 can freely perform coloring regardless of the color of the extracting unit 100. Furthermore, the present invention is not limited to one region 3 extraction,
By increasing the number of shadow generation units 311 to 313, it is possible to apply to one region multiple extraction.

【0068】[0068]

【発明の効果】以上説明したように、請求項1記載の発
明によれば、画像を画像処理する指定領域データを記憶
するラインメモリを共有して画像データの各指定領域を
複数の異なる画像処理を行う場合に、画像データの指定
領域の境界が検出され、境界でラインメモリがクリアさ
れるので、ラインメモリを共有して複数の異なる画像処
理を行う場合に領域の境界で干渉が発生することを防止
することができる。
As described above, according to the first aspect of the invention, the line memory storing the designated area data for image processing of the image is shared, and each designated area of the image data is processed by a plurality of different image processing. When performing the above, the boundary of the specified area of the image data is detected, and the line memory is cleared at the boundary.Therefore, interference may occur at the boundary of the area when the line memory is shared and multiple different image processes are performed. Can be prevented.

【0069】請求項2記載の発明によれば、原画像から
複数種類の画像データが抽出され、種類がコード化され
てラインメモリに記憶され、画像処理が行われるので、
原画像から多数の種類の画像データを抽出して画像処理
を行う場合にラインメモリの容量を減少することができ
る。
According to the second aspect of the invention, a plurality of types of image data are extracted from the original image, the types are encoded and stored in the line memory, and image processing is performed.
When a large number of types of image data are extracted from an original image and image processing is performed, the capacity of the line memory can be reduced.

【0070】請求項3記載の発明によれば、原画像から
複数種類の画像データが抽出され、種類がコード化され
てラインメモリに記憶され、画像の種類毎に干渉しない
ように種類コードを論理演算することにより画像処理が
行われるので、原画像から多数の種類の画像データを抽
出して画像処理を行う場合に画像の種類毎に干渉が発生
することを防止することができる。
According to the third aspect of the invention, a plurality of types of image data are extracted from the original image, the types are coded and stored in the line memory, and the type code is logically set so as not to interfere with each type of image. Since image processing is performed by calculation, interference can be prevented from occurring for each image type when a large number of types of image data are extracted from the original image and the image processing is performed.

【0071】請求項4記載の発明によれば、原画像から
多数の種類の画像データを抽出して画像処理を行う場合
にラインメモリの容量を減少することができると共に、
画像の種類毎に干渉が発生することを防止することがで
きる。
According to the fourth aspect of the invention, the capacity of the line memory can be reduced when a large number of types of image data are extracted from the original image and subjected to image processing.
It is possible to prevent interference from occurring for each type of image.

【0072】請求項5記載の発明によれば、ラインメモ
リを共有して複数の異なる画像処理を行う場合に領域の
境界で干渉が発生することを防止することができると共
に、原画像から多数の画像データを抽出して画像処理を
行う場合にラインメモリの容量を減少することができ、
また、画像の種類毎に干渉が発生することを防止するこ
とができる。
According to the fifth aspect of the present invention, when a plurality of different image processes are performed by sharing the line memory, it is possible to prevent interference from occurring at the boundary between regions, and at the same time, a large number of original images can be processed. It is possible to reduce the line memory capacity when extracting image data and performing image processing.
Further, it is possible to prevent interference from occurring for each type of image.

【0073】請求項6記載の発明によれば、カラー画像
の輝度データと色差データに基づいて画像処理を行うの
でカラー画像を白黒化する場合に輝度データのみを用い
て簡単に画像処理することができる。
According to the sixth aspect of the present invention, since the image processing is performed based on the luminance data and the color difference data of the color image, it is possible to easily perform the image processing using only the luminance data when the color image is converted into black and white. it can.

【0074】請求項7記載の発明によれば、輝度データ
と色差データは色座標空間のデータであるのでカラー画
像を白黒化する場合に輝度データのみを用いて簡単に画
像処理することができる。
According to the seventh aspect of the invention, since the luminance data and the color difference data are data in the color coordinate space, it is possible to easily perform image processing using only the luminance data when making a color image into black and white.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明に係る画像処理装置の一実施例の要部で
ある加工部を示すブロック図である。
FIG. 1 is a block diagram showing a processing unit that is a main part of an embodiment of an image processing apparatus according to the present invention.

【図2】図1の加工部を備えた複写機を示すブロック図
である。
FIG. 2 is a block diagram showing a copying machine including the processing unit shown in FIG.

【図3】図1の加工部を備えたカラー画像処理装置を示
すブロック図である。
FIG. 3 is a block diagram showing a color image processing apparatus including the processing unit of FIG.

【図4】図1の変化点検出部が検出する領域を示す説明
図である。
4 is an explanatory diagram showing a region detected by a change point detection unit in FIG. 1. FIG.

【図5】図1の変化点検出部により検出された領域の境
界を示す説明図である。
5 is an explanatory diagram showing boundaries of regions detected by a change point detection unit in FIG. 1. FIG.

【図6】図1のラインメモリ部を詳細に示すブロック図
である。
FIG. 6 is a block diagram showing the line memory unit of FIG. 1 in detail.

【図7】図1のラインメモリ部を詳細に示すブロック図
である。
7 is a block diagram showing the line memory unit of FIG. 1 in detail.

【図8】図1の抽出部を詳細に示すブロック図である。8 is a block diagram showing in detail the extraction unit of FIG. 1. FIG.

【図9】図8の色抽出部の論理を示す説明図である。9 is an explanatory diagram showing the logic of the color extraction unit in FIG.

【図10】図1の輪郭処理部を詳細に示すブロック図で
ある。
10 is a block diagram showing in detail the contour processing section of FIG. 1. FIG.

【図11】図10の中抜き処理部を詳細に示すブロック
図である。
FIG. 11 is a block diagram showing in detail the inside-out processing unit of FIG. 10;

【図12】図10の輪郭処理部による細らせデータ、輪
郭データ及びずれデータを示す説明図である。
12 is an explanatory diagram showing thinning data, contour data, and deviation data by the contour processing unit of FIG.

【図13】図1の影処理部を詳細に示すブロック図であ
る。
13 is a block diagram showing in detail the shadow processing unit of FIG. 1. FIG.

【図14】図13の影生成部を詳細に示すブロック図で
ある。
FIG. 14 is a block diagram showing in detail the shadow generation unit of FIG.

【図15】図14の影生成部の動作を示す説明図であ
る。
15 is an explanatory diagram showing the operation of the shadow generation unit in FIG.

【図16】立体影を示す説明図である。FIG. 16 is an explanatory diagram showing a three-dimensional shadow.

【図17】平影を示す説明図である。FIG. 17 is an explanatory diagram showing a flat shadow.

【図18】YMC成分が干渉した立体影を示す説明図で
ある。
FIG. 18 is an explanatory diagram showing a three-dimensional shadow in which YMC components interfere with each other.

【図19】YMC成分が干渉しない立体影を示す説明図
である。
FIG. 19 is an explanatory diagram showing a solid shadow in which YMC components do not interfere.

【図20】図1の合成部を詳細に示すブロック図であ
る。
20 is a block diagram showing in detail the combining unit of FIG. 1. FIG.

【図21】実施例の動作を示す説明図である。FIG. 21 is an explanatory diagram showing the operation of the embodiment.

【符号の説明】[Explanation of symbols]

100 抽出部 200 輪郭処理部 300 影処理部 400 変化点検出部 500 ラインメモリ部 600 合成部 100 Extraction Section 200 Contour Processing Section 300 Shadow Processing Section 400 Change Point Detection Section 500 Line Memory Section 600 Compositing Section

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 画像を画像処理する指定領域データを記
憶するラインメモリと、 画像データの指定領域の境界を検出し、境界で前記ライ
ンメモリをクリアするクリア手段と、 前記ラインメモリを共有して画像データの各指定領域を
画像処理する複数の画像処理手段と、を備えた画像処理
装置。
1. A line memory for storing designated area data for image processing of an image, a clear means for detecting a boundary between designated areas of image data and clearing the line memory at the boundary, and sharing the line memory. An image processing apparatus comprising: a plurality of image processing means for performing image processing on each designated area of image data.
【請求項2】 原画像から複数種類の画像データを抽出
する抽出手段と、 前記抽出手段により抽出された画像データの種類をコー
ド化するコード化手段と、 画像を画像処理する指定領域データと前記コード化手段
によりコード化された画像データの種類コードを記憶す
るラインメモリと、 前記ラインメモリに記憶された指定領域データに基づい
て種類コードを展開する展開する展開手段と、 前記展開手段により展開されたデータに基づいて画像処
理を行う画像処理手段と、を備えた画像処理装置。
2. Extraction means for extracting a plurality of types of image data from an original image, encoding means for encoding the types of image data extracted by the extraction means, designated area data for image processing the image, and A line memory that stores the type code of the image data encoded by the encoding unit, an expansion unit that expands the type code based on the designated area data stored in the line memory, and an expansion unit that expands the type code. And an image processing unit that performs image processing based on the data.
【請求項3】 原画像から複数種類の画像データを抽出
する抽出手段と、 前記抽出手段により抽出された画像データの種類をコー
ド化するコード化手段と、 画像を画像処理する指定領域データと前記コード化手段
によりコード化された画像データの種類コードを記憶す
るラインメモリと、 前記ラインメモリに記憶された指定領域において画像の
種類毎に干渉しないように種類コードを論理演算するこ
とにより画像処理を行う画像処理手段と、を備えた画像
処理装置。
3. Extraction means for extracting a plurality of types of image data from an original image, encoding means for encoding the types of image data extracted by the extraction means, designated area data for image processing the image, and A line memory that stores the type code of the image data encoded by the encoding unit, and image processing is performed by logically operating the type code so as not to interfere with each type of image in the designated area stored in the line memory. An image processing apparatus including: an image processing unit that performs the image processing.
【請求項4】 原画像から複数種類の画像データを抽出
する抽出手段と、 前記抽出手段により抽出された画像データの種類をコー
ド化するコード化手段と、 画像を画像処理する指定領域データと前記コード化手段
によりコード化された画像データの種類コードを記憶す
るラインメモリと、 前記ラインメモリに記憶された指定領域データに基づい
て種類コードを展開する展開する展開手段と、 前記展開手段により展開されたデータに基づいて画像処
理を行う第1の画像処理手段と、 前記ラインメモリに記憶された指定領域において画像の
種類毎に干渉しないように種類コードを論理演算するこ
とにより画像処理を行う第2の画像処理手段と、を備え
た画像処理装置。
4. Extraction means for extracting a plurality of types of image data from an original image, encoding means for encoding the types of image data extracted by the extraction means, designated area data for image processing the image, and A line memory that stores the type code of the image data encoded by the encoding unit, an expansion unit that expands the type code based on the designated area data stored in the line memory, and an expansion unit that expands the type code. Image processing means for performing image processing based on the data, and second image processing means for logically operating a type code so as not to interfere with each type of image in the designated area stored in the line memory. And an image processing device including:
【請求項5】 画像データの指定領域の境界を検出し、
境界で前記ラインメモリをクリアするクリア手段を備え
たことを特徴とする請求項2ないし4のいずれかに記載
の画像処理装置。
5. A boundary of a designated area of image data is detected,
The image processing apparatus according to claim 2, further comprising a clearing unit that clears the line memory at a boundary.
【請求項6】 前記画像データはカラー画像の輝度デー
タと色差データであることを特徴とする請求項1ないし
5のいずれかに記載の画像処理装置。
6. The image processing apparatus according to claim 1, wherein the image data is luminance data and color difference data of a color image.
【請求項7】 前記輝度データと色差データは色座標空
間のデータであることを特徴とする請求項7記載の画像
処理装置。
7. The image processing apparatus according to claim 7, wherein the luminance data and the color difference data are data in a color coordinate space.
JP18240894A 1994-08-03 1994-08-03 Image processor Pending JPH0844865A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18240894A JPH0844865A (en) 1994-08-03 1994-08-03 Image processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18240894A JPH0844865A (en) 1994-08-03 1994-08-03 Image processor

Publications (1)

Publication Number Publication Date
JPH0844865A true JPH0844865A (en) 1996-02-16

Family

ID=16117782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18240894A Pending JPH0844865A (en) 1994-08-03 1994-08-03 Image processor

Country Status (1)

Country Link
JP (1) JPH0844865A (en)

Similar Documents

Publication Publication Date Title
EP0349780B1 (en) Image processing apparatus
EP0454457B1 (en) Image processing apparatus
JPH05268457A (en) Multi-color marker editing device
JP2830690B2 (en) Image processing device
US5515096A (en) Color image processing apparatus with processing means for selectively adjusting color image data to increase black color density and reduce the density of other colors
JPH1079866A (en) Image processing unit and method
JPH0844865A (en) Image processor
JP3455078B2 (en) Image processing apparatus and image processing method
JP3346051B2 (en) Image processing device
JP2001298620A (en) Image forming device
JP3260807B2 (en) Image processing apparatus and image processing method
JP3195005B2 (en) Image processing apparatus and method
JPH09179973A (en) Picture processor and its method
JP3003133B2 (en) Image outline extraction device
JPH06348834A (en) Image processing device
JPH05183761A (en) Picture processor
JP3564216B2 (en) Image processing device
JP3227152B2 (en) Color image processing apparatus and color image processing method
JP2011130092A (en) Image forming apparatus and image forming method
JPH1155505A (en) Image processing unit
JP3864405B2 (en) Color printing system and color printer
JP3596962B2 (en) Image processing device
JPH11355594A (en) Color image formation system
JPH04298161A (en) Picture reader
JPH01274284A (en) Image processor and its method

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20040323