JP3134756B2 - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method

Info

Publication number
JP3134756B2
JP3134756B2 JP08000321A JP32196A JP3134756B2 JP 3134756 B2 JP3134756 B2 JP 3134756B2 JP 08000321 A JP08000321 A JP 08000321A JP 32196 A JP32196 A JP 32196A JP 3134756 B2 JP3134756 B2 JP 3134756B2
Authority
JP
Japan
Prior art keywords
image
data
area separation
image area
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP08000321A
Other languages
Japanese (ja)
Other versions
JPH09186866A (en
Inventor
譲 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Fujifilm Business Innovation Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd, Fujifilm Business Innovation Corp filed Critical Fuji Xerox Co Ltd
Priority to JP08000321A priority Critical patent/JP3134756B2/en
Publication of JPH09186866A publication Critical patent/JPH09186866A/en
Application granted granted Critical
Publication of JP3134756B2 publication Critical patent/JP3134756B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Compression Of Band Width Or Redundancy In Fax (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、画像データの圧
縮・伸長処理を含む画像処理を施す装置に係り、特に、
文字やラインから構成される2値画像領域と写真や網点
印刷等の中間調画像領域とが混在した原稿画像を、画像
領域に応じて適切に再現する画像処理装置および画像処
理方法に関する。
[0001] 1. Field of the Invention [0002] The present invention relates to an apparatus for performing image processing including compression / expansion processing of image data.
The present invention relates to an image processing apparatus and an image processing method for appropriately reproducing a document image in which a binary image area composed of characters and lines and a halftone image area such as a photograph or halftone printing are mixed in accordance with the image area.

【0002】[0002]

【従来の技術】近年、フルカラー画像をカラー画像入力
装置で読み取り、電気信号に変換した後、画像処理や編
集等を施して、カラーレザープリンタで出力させるデジ
タルカラー複写機が考案されている。このようなデジタ
ルカラー複写機においては、最も重要な課題の一つに、
画質を劣化させることなく、コストアップを極力抑え、
プリントアウト速度を如何に向上させることができるか
がある。
2. Description of the Related Art In recent years, digital color copying machines have been devised in which a full-color image is read by a color image input device, converted into an electric signal, subjected to image processing and editing, and output by a color laser printer. One of the most important issues in such digital color copiers is
Without deteriorating image quality, minimize cost increase,
There is how the printout speed can be improved.

【0003】一般に、従来のデジタルカラー複写機にお
いては、1つの感光体ドラムで、K(ブラック)、Y
(イエロー)、M(マゼンダ)、C(シアン)の4色の
現像、転写工程を4回繰り返してフルカラー画像を得て
いる。ここで、図13は、1ドラム方式のデジタルカラ
ー複写機の概略構成を示す概念図である。図において、
カラー画像読取装置1によって1回目の副走査方向スキ
ャンにより得られた1ライン毎の原稿画像の画像信号
は、画像処理部2において、色修正、編集等の各種処理
を施された後、画像出力信号生成部3に送出され、該画
像出力信号生成部3において、半導体レーザ発振器4へ
の発光駆動信号に変換される。
In general, in a conventional digital color copying machine, K (black), Y
(Yellow), M (magenta), and C (cyan) development and transfer processes of four colors are repeated four times to obtain a full-color image. Here, FIG. 13 is a conceptual diagram showing a schematic configuration of a one-drum type digital color copying machine. In the figure,
The image signal of the original image for each line obtained by the first scanning in the sub-scanning direction by the color image reading device 1 is subjected to various processes such as color correction and editing in the image processing unit 2 and then output to the image output unit. The signal is sent to the signal generator 3 and is converted into a light emission drive signal to the semiconductor laser oscillator 4 in the image output signal generator 3.

【0004】半導体レーザ発振器4で画素毎にオン/オ
フ制御されたレーザ光は、ポリゴンミラー5の回転によ
り主走査方向(ドラムの回転方向と直角方向)に走査さ
れ、感光体ドラム6上に画素単位で静電潜像を形成す
る。この始めの1回目のスキャンの終了によって得られ
た静電潜像に対して、カラー現像器7のK(ブラック)
の現像部による現像工程が選択され、感光体ドラム6上
にKトナー像が描かれる。一方、給紙トレイ8aまたは
給紙トレイ8bから送られる転写紙は、転写ドラム9に
静電吸着されると同時に、感光体ドラム6上でKトナー
が転写される。
The laser light, which is turned on / off for each pixel by the semiconductor laser oscillator 4, is scanned in the main scanning direction (perpendicular to the direction of rotation of the drum) by the rotation of the polygon mirror 5. An electrostatic latent image is formed in units. The K (black) of the color developing device 7 is applied to the electrostatic latent image obtained by the end of the first scan.
Is selected, and a K toner image is drawn on the photosensitive drum 6. On the other hand, the transfer paper fed from the paper feed tray 8a or the paper feed tray 8b is electrostatically attracted to the transfer drum 9 and, at the same time, the K toner is transferred on the photosensitive drum 6.

【0005】この一連の工程を1回目のスキャン終了ま
でに完了し、以後、2回目から4回目までのカラー画像
読取装置1の副走査方向スキャンに同期して、Y,M,
Cの現像を繰り返し、1回目のスキャン時に転写ドラム
9に巻き付けた転写紙に、カラー画像読取装置1の2回
目から4回目までのスキャンに同期したY,M,Cの3
回の転写を繰り返すことで、K,Y,M,Cの各スキャ
ン信号画像の重ね合わせた転写画像を得る。
This series of steps is completed by the end of the first scan, and thereafter, in synchronization with the second to fourth scans of the color image reading apparatus 1 in the sub-scanning direction, Y, M,
The development of C is repeated, and the transfer paper wound around the transfer drum 9 at the time of the first scan is scanned with Y, M, and C in synchronization with the second to fourth scans of the color image reading device 1.
By repeating the transfer twice, a transfer image in which the K, Y, M, and C scan signal images are superimposed is obtained.

【0006】しかるのち、転写紙は、転写ドラム9から
剥されて、定着器10へと搬送され、定着されたカラー
複写画像を排紙トレイ11に得る。このような4回の読
み取り動作に同期した現像、転写工程をとることによ
り、フレーム単位の画像メモリなしにカラー複写画像を
得ることができる。
Thereafter, the transfer paper is peeled off from the transfer drum 9 and is conveyed to a fixing device 10 to obtain a fixed color copy image on a paper discharge tray 11. By taking such development and transfer steps in synchronization with the four reading operations, a color copy image can be obtained without an image memory for each frame.

【0007】ところで、上述した1ドラム方式のカラー
複写機では、原稿を読み取るために、4回のスキャンを
実行し、その都度、順次、K,Y,M,Cの画像を得て
いるため、プリントアウトされるまでの時間が長いとい
う欠点があった。そこで、プリントアウト速度を上げる
ために、1回のスキャンで読み取った画像データを蓄積
する画像メモリ(複数)を設けるとともに、各K,Y,
M,C毎にドラムを用意し、上述した現像、転写工程を
シーケンスに行うカラー複写機が知られている。
In the above-described one-drum type color copier, four scans are performed to read an original, and K, Y, M, and C images are sequentially obtained each time. There is a disadvantage that the time until the printout is long. Therefore, in order to increase the printout speed, an image memory (a plurality) for storing image data read in one scan is provided, and each of K, Y,
There is known a color copying machine which prepares a drum for each of M and C and performs the above-described development and transfer processes in sequence.

【0008】図14は、プリントアウト速度を上げるた
めの機構を有するカラー複写機(タンデム型)の概略構
成を示す概念図である。なお、図13に対応する部分に
は同一の符号を付けてある。図示するタンデム型のカラ
ー複写機では、K,Y,M,C毎に独立した4つの現像
ドラム、第1の現像ドラム7a,第2の現像ドラム7
b,第3の現像ドラム7c,第4の現像ドラム7dを独
立に備えており、さらに、転写ベルト15によって転写
紙を移動させることにより、時間差並列に現像、転写工
程を行えるようにしたもので、基本的に、図Aに示す1
ドラム方式に比較して4倍の速度でカラー複写動作が可
能になる。
FIG. 14 is a conceptual diagram showing a schematic configuration of a color copying machine (tandem type) having a mechanism for increasing the printout speed. The parts corresponding to those in FIG. 13 are denoted by the same reference numerals. In the illustrated tandem-type color copying machine, four developing drums independent of K, Y, M, and C, a first developing drum 7a, and a second developing drum 7 are provided.
b, a third developing drum 7c, and a fourth developing drum 7d are independently provided, and further, the transfer paper is moved by the transfer belt 15, so that the development and transfer steps can be performed in parallel with a time difference. , Basically, as shown in FIG.
The color copying operation can be performed at four times the speed of the drum system.

【0009】上述した構成による従来のカラー複写機で
は、K(ブラック)に対する第1の現像ドラム7aによ
る現像中に、Yに対する第2の現像ドラム7bによる現
像がスタートすることや、1枚目の複写工程が完全に終
了する前に、2枚目の複写工程がスターとしなければ、
本来、構成自体が有する高スピードでの動作を実現でき
ない。そこで、従来のタンデム型のカラー複写機では、
K,Y,M,C毎に、フレーム単位の画像メモリを設け
るとともに、第1の現像ドラム7a〜第4の現像ドラム
7dまでの現像工程に供給する画像信号(レーザ発振駆
動信号)を時間制御することが必要となる。このとき、
画像メモリを単純に用いると、画像メモリの容量が膨大
なものとなるので、データ圧縮して格納するという技術
が通常使われる。
In the conventional color copying machine having the above-described configuration, during the development of K (black) by the first development drum 7a, the development of Y by the second development drum 7b starts, If the second copy process is not starred before the copy process is completed,
Essentially, the high-speed operation of the configuration itself cannot be realized. Therefore, in a conventional tandem-type color copying machine,
An image memory for each frame is provided for each of K, Y, M, and C, and an image signal (laser oscillation drive signal) supplied to a developing process of the first to fourth developing drums 7a to 7d is time-controlled. It is necessary to do. At this time,
If the image memory is simply used, the capacity of the image memory becomes enormous. Therefore, a technique of compressing and storing the data is usually used.

【0010】[0010]

【発明が解決しようとする課題】ところで、上述したカ
ラー複写機の場合には、各画素が文字等のエッジを有す
る画素であるか、あるいは写真等の中間調の画素である
かを判別するための像域分離を行うことにより、画素毎
に文字であるか写真であるかを示す領域データ信号を生
成し、該領域データ信号に応じて画素単位でトーンやス
クリーンメッシュを制御する処理、すなわち画像の種類
に応じて最適制御処理を行うことが画質再現上、最低限
必要となる。また、メモリ容量の増加を極力抑えるため
に、処理すべき画像データに加えて、像域分離によって
得た領域データ信号を、画質を劣化させずに効率よく圧
縮し、格納することが必要である。
In the above-described color copying machine, it is necessary to determine whether each pixel is a pixel having an edge such as a character or a halftone pixel such as a photograph. By performing image area separation, a region data signal indicating whether the image is a character or a photograph for each pixel is generated, and a process of controlling a tone or a screen mesh in pixel units according to the region data signal, that is, an image In order to reproduce the image quality, it is necessary to perform the optimal control processing at least according to the type of. In addition, in order to minimize an increase in memory capacity, it is necessary to efficiently compress and store, in addition to image data to be processed, an area data signal obtained by image area separation without deteriorating image quality. .

【0011】上述したカラー複写機において、上記最適
制御処理を実現させたものとしては、例えば、特開平6
−334834号公報がある。ここで、図15は、上記
最適制御処理を適用した従来のカラー複写機の画像処理
システムの構成を示すブロック図である。図において、
従来のタンデム型のカラー複写機では、画像読取装置2
0で読み取ったRGBの画像データは、色変換/色修正
部21によってL*a*b*の色空間(デバイス非依存
性の第1の色空間)の画像データに変換された後、色変
換/色修正部22によって、さらに、CMYの色空間
(デバイス依存性の第2の色空間への色空間)の画像デ
ータに変換される。また、上記L*a*b*の画像デー
タは、領域分離判定部30によって、各画素毎に、その
画素が文字等の線画であるか、あるいは写真等の中間調
であるか、また、その画素が色画素であるか、あるいは
黒画素であるかが判定される。
In the above-described color copying machine, the above-mentioned optimal control processing is realized, for example, in Japanese Patent Laid-Open No.
JP-A-334834. Here, FIG. 15 is a block diagram showing a configuration of a conventional color copier image processing system to which the above-described optimal control processing is applied. In the figure,
In a conventional tandem type color copier, the image reading device 2
The RGB image data read at 0 is converted by the color conversion / color correction unit 21 into image data of an L * a * b * color space (a first device-independent color space), and then subjected to color conversion. The image data is further converted into image data in a CMY color space (a color space to a device-dependent second color space) by the / color correction unit 22. The image data of L * a * b * is determined by the region separation determining unit 30 for each pixel, whether the pixel is a line drawing such as a character or a halftone such as a photograph. It is determined whether the pixel is a color pixel or a black pixel.

【0012】上記領域分離判定部30による判定結果
は、文字/写真のいずれであるかを示す1ビットと、色
画素/黒画素のいずれかであるかを示す1ビットの合計
2ビットで表される領域データ信号S1として得られ
る。そして、該2ビットの領域データ信号S1は、この
ままでは、入出力の解像度を16dot/mmとする
と、16dot/mm×297mm×16dot/mm
×420mm×2bit=8Mバイト(原稿サイズA
3)となり、後述する画像データと同様に非常に大きな
メモリ容量が必要となるので、所定ブロック単位で圧縮
部31で1/16(0.5Mバイト)に圧縮された後、
領域メモリ32に一旦格納される。
The result of the determination by the area separation determining section 30 is expressed by a total of two bits, one bit indicating one of a character and a photograph and one bit indicating one of a color pixel and a black pixel. Is obtained as an area data signal S1. The 2-bit area data signal S1 is 16dot / mm × 297mm × 16dot / mm, assuming that the input / output resolution is 16dot / mm.
× 420 mm × 2 bits = 8 Mbytes (document size A
3), a very large memory capacity is required as in the case of image data to be described later. Therefore, after being compressed to 1/16 (0.5 Mbytes) by the compression unit 31 in predetermined block units,
The information is temporarily stored in the area memory 32.

【0013】一方、下色除去/墨生成部23において
は、上記領域データ信号S1に基づいて、上記CMYの
色空間に変換した画像データに対して、下色除去や墨生
成が施される。さらに、空間フィルタ部24a〜24d
において、上記画像データに対して、やはり上記領域デ
ータ信号S1に基づいて、画素毎に、エッジ強調あるい
は平滑化の処理が施される。
On the other hand, the under-color removal / black generation section 23 performs under-color removal and black generation on the image data converted into the CMY color space based on the area data signal S1. Further, the spatial filter units 24a to 24d
In the above, the image data is subjected to edge enhancement or smoothing processing for each pixel also based on the region data signal S1.

【0014】上記空間フィルタ部24a〜24dは、各
々、複数(少なくとも2種)の異なるフィルタ係数によ
るフィルタ処理を画素毎に切り換えて処理する。すなわ
ち、空間フィルタ部24a〜24dは、図16に示す2
種類の空間周波数特性を有する空間フィルタと、領域デ
ータ信号S1に基づいて空間フィルタのフィルタ係数を
決定する係数決定部とを備えており(図示略)、像域分
離判定部30から供給される領域データ信号S1が文字
である場合には、文字再現性を高めるために、エッジ強
調型(高域のゲインが高い)のバンドパスフィルタ、も
しくは高域強調フィルタ(ラプラシアン・タイプ)が適
用され、領域データ信号S1が写真である場合には、画
像ノイズを抑え、粒状再現性を高めるために、カットオ
フ点がある空間周波数特性を有する平滑化型フィルタが
適用される。その後、画像データは、それぞれに対応し
て設けられた圧縮部25a〜25dで圧縮され、画像メ
モリ26a〜26dに一旦、記憶される。
Each of the spatial filter sections 24a to 24d performs a filtering process by a plurality of (at least two) different filter coefficients for each pixel. In other words, the spatial filter units 24a to 24d are configured as shown in FIG.
A spatial filter having various types of spatial frequency characteristics; and a coefficient determining unit that determines a filter coefficient of the spatial filter based on the region data signal S1 (not shown). When the data signal S1 is a character, an edge emphasis type (high band gain) band-pass filter or a high band emphasis filter (Laplacian type) is applied to improve the character reproducibility. When the data signal S1 is a photograph, a smoothing filter having a spatial frequency characteristic with a cutoff point is applied in order to suppress image noise and enhance granular reproducibility. After that, the image data is compressed by the compression units 25a to 25d provided correspondingly, and is temporarily stored in the image memories 26a to 26d.

【0015】そして、上記画像メモリ26a〜26dに
記憶されたY,M,C,Kの画像データは、上述した第
1の現像ドラム7a〜第4の現像ドラム7dで画像デー
タを現像する際に、これら現像ドラムの間隔によるディ
レイ時間に合致するように、所定のタイミングで順次読
み出され、伸長部27a〜27dで伸長される。次い
で、トーン補正部28a〜28dにおいて、上記文字/
写真領域の判定結果に基づいて、トーン補正制御(20
0線、400線スクリーンによるトーン再現の違いを補
償するためのLUT制御)され、半導体レーザへの発光
制御信号に変換される。このとき、半導体レーザへの発
光制御信号を生成するSG(スクリーンジェネレータ)
部29a〜29dにおいて、やはり上記領域データ信号
S1に基づいて、スクリーン周期(200線、400
線)が切換制御される。
The Y, M, C, and K image data stored in the image memories 26a to 26d are used when the image data is developed by the first to fourth developing drums 7a to 7d. The data is sequentially read out at a predetermined timing so as to match the delay time depending on the interval between the developing drums, and is expanded by the expansion units 27a to 27d. Next, in the tone correction units 28a to 28d, the characters /
The tone correction control (20
LUT control for compensating the difference in tone reproduction between the 0-line and 400-line screens) is performed, and is converted into a light emission control signal to the semiconductor laser. At this time, an SG (screen generator) for generating an emission control signal to the semiconductor laser
In the sections 29a to 29d, the screen cycle (200 lines, 400 lines) is also performed based on the area data signal S1.
Is controlled by switching.

【0016】以上の処理により、黒文字/カラー写真混
在画像が入力された場合でも、黒文字は、墨一色処理、
エッジ強調処理後に、解像度を重視した400線スクリ
ーンで出力され、カラー写真部は、UCR処理による4
色化後に、バンド強調・平滑化処理され、階調・粒状性
再現を重視した200線スクリーンで出力される。
According to the above processing, even when a black character / color photograph mixed image is input, the black character is processed by a single black color process.
After the edge emphasizing process, the image is output on a 400-line screen emphasizing the resolution.
After colorization, the image is band-enhanced and smoothed, and output on a 200-line screen emphasizing reproduction of gradation and graininess.

【0017】ところで、従来のカラー複写機では、上述
した2ビットの領域データ信号S1を圧縮する際、圧縮
部31において、例えば、4画素×4画素(合計16ビ
ット)のブロック内を設定し、該ブロック毎に、1画素
でも文字を示す判定結果があれば、該4画素×4画素の
ブロック内を全て文字であるとするとともに、同じブロ
ック内で、1画素でも色画素を示す判定結果があれば、
該4画素×4画素のブロック内を全て色画素であるとし
ている。この結果、4画素×4画素×2ビット(32ビ
ット)の領域データ信号S1は、1/16に圧縮された
2ビットのデータになる。
In the conventional color copying machine, when compressing the above-mentioned 2-bit area data signal S1, the compression unit 31 sets, for example, a block of 4 pixels × 4 pixels (16 bits in total). If there is a determination result indicating a character even for one pixel in each block, it is determined that all of the inside of the block of 4 pixels × 4 pixels is a character, and the determination result indicating even one pixel is a color pixel in the same block. if there is,
It is assumed that all the pixels in the block of 4 pixels × 4 pixels are color pixels. As a result, the area data signal S1 of 4 pixels × 4 pixels × 2 bits (32 bits) becomes 2-bit data compressed to 1/16.

【0018】しかしながら、従来の画像処理装置では、
上記領域データ信号S1の圧縮は、32ビットのデータ
を単純に2ビットのデータに置き換える解像度圧縮であ
るため、伸長部33による伸長後の領域データ信号S1
によってトーン補正およびスクリーン切換を行うと、像
域分離されたエッジ部分の再現性が大きく劣化する。例
えば、入出力解像度が16dot/mmであるとする
と、図17(a)に示す圧縮前の領域データで再現した
場合の文字やラインのエッジが、圧縮伸長後の判定結果
で再現した場合には、4dot/mm単位(4画素×4
画素ブロック圧縮の場合)でトーン補正およびスクリー
ン切換が制御されてしまうため、図17(b)に示すよ
うに、特に、太文字、太ラインのエッジ部での内部ジャ
ギーが4倍に拡大されてしまうという問題があった。
However, in the conventional image processing apparatus,
Since the compression of the area data signal S1 is resolution compression in which 32-bit data is simply replaced with 2-bit data, the area data signal S1 after expansion by the expansion unit 33 is compressed.
When tone correction and screen switching are performed, the reproducibility of the edge part separated by the image area is greatly deteriorated. For example, assuming that the input / output resolution is 16 dots / mm, the character or line edge when reproduced with the region data before compression shown in FIG. , 4 dots / mm unit (4 pixels x 4
In the case of pixel block compression), tone correction and screen switching are controlled, and therefore, as shown in FIG. 17B, the internal jaggy particularly at the edges of bold characters and bold lines is enlarged four times. There was a problem that it would.

【0019】この発明は上述した事情に鑑みてなされた
もので、線画の文字および中間調の写真が混在した画像
を高品質で再現できる画像処理装置および画像処理方法
を提供することを目的としている。
The present invention has been made in view of the above circumstances, and has as its object to provide an image processing apparatus and an image processing method capable of reproducing an image in which line drawing characters and halftone photographs are mixed with high quality. .

【0020】[0020]

【課題を解決するための手段】上述した問題点を解決す
るために、請求項1記載の発明では、入力された画像デ
ータに対して文字やラインから構成される2値画像領域
と写真や網点印刷等の中間調画像領域とを識別するため
の像域分離データを生成する像域分離手段と、前記入力
された画像データおよび前記像域分離手段によって生成
された像域分離データを圧縮して蓄積する圧縮蓄積手段
と、前記圧縮蓄積手段に蓄積された画像データと像域分
離データとを読み出し伸長する伸長手段と、前記伸長手
段によって伸長された画像データの画像属性を検出する
属性検出手段と、前記属性検出手段によって検出された
画像属性と前記伸長手段によって伸長された像域分離デ
ータとに基づいて前記伸長手段によって伸長された画像
データに対して画像処理を施す画像処理手段とを具備す
ることを特徴とする。
In order to solve the above-mentioned problems, according to the first aspect of the present invention, a binary image area composed of characters and lines and a photograph Image area separation means for generating image area separation data for identifying halftone image areas such as dot printing, and compressing the input image data and the image area separation data generated by the image area separation means. Means for reading and expanding image data and image area separation data stored in the compression and storage means, and attribute detecting means for detecting an image attribute of the image data expanded by the expansion means Image data decompressed by the decompression means based on the image attribute detected by the attribute detection means and the image area separation data decompressed by the decompression means. Characterized by comprising an image processing means for performing processing.

【0021】また、請求項2記載の発明では、請求項1
記載の画像処理装置において、前記属性検出手段は、前
記伸長手段によって伸長された画像データに対して前記
像域分離手段によって施される像域分離処理とは異なる
様式の像域分離処理を施すことににより第2の像域分離
データを取得し、該第2の像域分離データを前記画像属
性として用いることを特徴とする。
According to the second aspect of the present invention, in the first aspect,
5. The image processing apparatus according to claim 1, wherein the attribute detection unit performs image area separation processing of a different style from image area separation processing performed by the image area separation unit on the image data expanded by the expansion unit. the second image area separation data obtained by in, characterized by using the second image area separation data as the image attribute.

【0022】また、請求項3記載の発明では、請求項1
記載の画像処理装置において、前記像域分離手段によっ
て像域分離処理が施された画像データに対して、色空間
の変換処理を施す色変換手段を備え、前記圧縮蓄積手段
は、前記色変換手段によって色変換された画像データを
圧縮し、蓄積することを特徴とする。
According to the third aspect of the present invention, the first aspect of the present invention is provided.
The image processing apparatus according to claim 1, further comprising: a color conversion unit configured to perform a color space conversion process on the image data that has been subjected to the image area separation processing by the image area separation unit; And compressing and storing the image data that has been color-converted.

【0023】また、請求項4記載の発明では、請求項1
記載の画像処理装置において、前記画像処理手段は、前
記伸長手段によって伸長された画像データに対して、階
調再現制御または解像度再現制御を行うことを特徴とす
る。
According to the fourth aspect of the present invention, there is provided the first aspect.
In the above-described image processing apparatus, the image processing unit performs tone reproduction control or resolution reproduction control on the image data expanded by the expansion unit.

【0024】また、請求項5記載の発明では、請求項1
記載の画像処理装置において、前記属性検出手段により
検出された画像属性は、エッジ情報であることを特徴と
する。
According to the fifth aspect of the present invention, in the first aspect,
The image processing apparatus according to the above aspect, wherein the image attribute detected by the attribute detection unit is edge information.

【0025】また、請求項6記載の発明では、請求項1
記載の画像処理装置において、前記属性検出手段は、異
なるフィルタ係数を有する複数の空間フィルタを備え、
該複数の空間フィルタによって伸長後の画像データに画
像処理を施すことにより、画素毎に該画素がエッジであ
るか否かを示すエッジ情報を検出し、該エッジ情報を前
記画像属性とすることを特徴とする。
Further, according to the invention described in claim 6, according to claim 1,
The image processing apparatus according to claim 1, wherein the attribute detection unit includes a plurality of spatial filters having different filter coefficients,
By performing image processing on the image data after expansion by the plurality of spatial filters, edge information indicating whether the pixel is an edge is detected for each pixel, and the edge information is set as the image attribute. Features.

【0026】上述した問題点を解決するために、請求項
7記載の発明では、圧縮された画像データおよび該圧縮
された画像データに対応する圧縮された像域分離データ
を入力する入力手段と、前記入力手段によって入力され
た前記圧縮された画像データおよび前記圧縮された像域
分離データを伸長する伸長手段と、前記伸長手段によっ
て伸長された画像データの画像属性を検出する属性検出
手段と、前記属性検出手段によって検出された画像属性
に基づいて前記伸長された画像データに対して画像処理
を施す画像処理手段とを具備することを特徴とする。
According to a seventh aspect of the present invention, there is provided an input means for inputting compressed image data and compressed image area separation data corresponding to the compressed image data. Decompression means for decompressing the compressed image data and the compressed image area separation data input by the input means; attribute detection means for detecting an image attribute of the image data decompressed by the decompression means; Image processing means for performing image processing on the decompressed image data based on the image attribute detected by the attribute detection means.

【0027】また、請求項8記載の発明では、請求項7
記載の画像処理装置において、前記画像処理手段は、前
記伸長手段によって伸長された画像データに対して、階
調再現制御または解像度再現制御を行うことを特徴とす
る。
[0027] According to the invention of claim 8, according to claim 7,
In the above-described image processing apparatus, the image processing unit performs tone reproduction control or resolution reproduction control on the image data expanded by the expansion unit.

【0028】また、請求項9記載の発明では、請求項7
記載の画像処理装置において、前記属性検出手段により
検出された画像属性は、エッジ情報であることを特徴と
する。
According to the ninth aspect of the present invention, the seventh aspect of the present invention is provided.
The image processing apparatus according to the above aspect, wherein the image attribute detected by the attribute detection unit is edge information.

【0029】また、請求項10記載の発明では、請求項
7記載の画像処理装置において、前記属性検出手段は、
異なるフィルタ係数を有する複数の空間フィルタを備
え、該複数の空間フィルタによって伸長後の画像データ
に画像処理を施すことにより、画素毎に該画素がエッジ
であるか否かを示すエッジ情報を検出し、該エッジ情報
を前記画像属性とすることを特徴とする。
According to a tenth aspect of the present invention, in the image processing apparatus of the seventh aspect, the attribute detecting means includes:
A plurality of spatial filters having different filter coefficients are provided, and image processing is performed on the decompressed image data by the plurality of spatial filters to detect edge information indicating whether or not the pixel is an edge for each pixel. The edge information is used as the image attribute.

【0030】また、上述した問題点を解決するために、
請求項11記載の発明では、入力された画像データに対
して文字やラインから構成される2値画像領域と写真や
網点印刷等の中間調画像領域とを識別するための像域分
離データを生成する像域分離工程と、前記入力された画
像データおよび前記像域分離手段によって生成された像
域分離データを圧縮して蓄積する圧縮蓄積工程と、前記
圧縮蓄積工程によって圧縮された像域分離データおよび
画像データを読み出して伸長する伸長工程と、前記伸長
工程によって伸長された画像データの画像属性を検出す
る属性検出工程と、前記属性工程によって検出された画
像属性と前記伸長工程によって伸長された像域分離デー
タとに基づいて、前記伸長された画像データに対して施
すべき画像処理を決定する処理決定工程と、前記処理決
定工程によって決定された画像処理を前記伸長された画
像データに対して施す画像処理工程とを有することを特
徴とする。
In order to solve the above-mentioned problems,
According to the eleventh aspect of the present invention, image area separation data for distinguishing between a binary image area composed of characters and lines and a halftone image area such as a photograph or halftone printing for input image data. An image area separation step of generating; a compression accumulation step of compressing and storing the input image data and image area separation data generated by the image area separation means; and an image area separation compressed by the compression accumulation step. A decompression step of reading and decompressing data and image data, an attribute detection step of detecting an image attribute of the image data decompressed by the decompression step, and an image attribute detected by the attribute step and decompressed by the decompression step. A process determining step of determining image processing to be performed on the decompressed image data based on the image area separation data; and And having an image processing step of applying to the image data and the image processing is the elongation is.

【0031】また、請求項12記載の発明では、請求項
11記載の画像処理方法において、前記属性検出手段工
程では、前記伸長工程によって伸長された画像データに
対して、画素単位で、垂直・水平方向のエッジ量および
斜め方向のエッジ量を抽出し、該エッジが所定のしきい
値より大である場合に、エッジが存在することを示す画
像属性を生成することを特徴とする。
According to a twelfth aspect of the present invention, in the image processing method according to the eleventh aspect, in the attribute detecting step, the image data decompressed in the decompression step is subjected to vertical / horizontal pixel units. The method is characterized in that the edge amount in the direction and the edge amount in the oblique direction are extracted, and when the edge is larger than a predetermined threshold, an image attribute indicating that an edge is present is generated.

【0032】また、上述した問題点を解決するために、
請求項13記載の発明では、入力された第1の色空間か
らなる画像データに対して文字やラインから構成される
2値画像領域と写真や網点印刷等の中間調画像領域とを
識別するための第1の像域分離データを生成する第1の
像域分離手段と、前記第1の像域分離手段によって生成
された第1の像域分離データに基づいて前記入力された
画像データに対して画像処理を施す第1の画像処理手段
と、前記画像データに対して前記第1の色空間から第2
の色空間へ変換する色変換処理を施す色変換手段と、前
記色変換手段によって色変換が施された第2の色空間か
らなる画像データおよび前記第1の像域分離手段によっ
て生成された第1の像域分離データを圧縮して蓄積する
圧縮蓄積手段と、前記圧縮蓄積手段に蓄積された画像デ
ータおよび像域分離データを伸長する伸長手段と、前記
伸長手段によって伸長された第2の色空間からなる画像
データに対して像域分離処理を施し、エッジの有無を識
別するための第2の像域分離データを生成する第2の像
域分離手段と、前記第2の像域分離手段によって生成さ
れた第2の像域分離データに基づいて前記伸長手段によ
って伸長された第2の色空間からなる画像データに対し
て画像処理を施す第2の画像処理手段とを具備すること
を特徴とする。
In order to solve the above problems,
According to the thirteenth aspect of the present invention, a binary image area composed of characters and lines and a halftone image area such as a photograph or halftone dot printing are distinguished from the input image data composed of the first color space. First image area separation means for generating first image area separation data for the first image area separation data, and converting the input image data based on the first image area separation data generated by the first image area separation data. First image processing means for performing image processing on the image data;
A color conversion unit for performing a color conversion process for converting the image data into the color space of the second color space, and image data composed of the second color space subjected to the color conversion by the color conversion unit and the second image data generated by the first image area separation unit. Compression / accumulation means for compressing and accumulating the image area separation data, expansion means for expanding the image data and image area separation data stored in the compression / storage means, and a second color expanded by the expansion means Second image area separation means for performing image area separation processing on image data composed of a space to generate second image area separation data for identifying the presence or absence of an edge, and the second image area separation means And a second image processing means for performing image processing on image data composed of a second color space expanded by the expansion means based on the second image area separation data generated by the image processing apparatus. And

【0033】また、請求項14記載の発明では、請求項
13記載の画像処理装置において、前記第2の画像処理
手段は、前記伸長手段によって伸長された第2の色空間
からなる画像データに対して、階調再現制御または解像
度再現制御を行うことを特徴とする。
According to a fourteenth aspect of the present invention, in the image processing apparatus according to the thirteenth aspect, the second image processing means performs processing on the image data composed of the second color space expanded by the expansion means. And performing tone reproduction control or resolution reproduction control.

【0034】また、請求項15記載の発明では、請求項
13記載の画像処理装置において、前記第1の像域分離
手段と前記第2の像域分離手段とは、前記第1の色空間
からなる画像データおよび第2の色空間からなる画像デ
ータに対して、異なる様式の像域分離処理を施すことを
特徴とする。
According to a fifteenth aspect of the present invention, in the image processing apparatus according to the thirteenth aspect, the first image area separating means and the second image area separating means are arranged so that the first color space and the second color space are separated from each other. The image data of the second color space and the image data of the second color space are subjected to different types of image area separation processing.

【0035】また、請求項16記載の発明では、請求項
13記載の画像処理装置において、前記第1の画像処理
手段は、前記入力された画像データに適用する空間フィ
ルタと、前記第1の像域分離手段により生成された前記
第1の像域分離データに基づいて、前記空間フィルタの
フィルタ係数を決定するフィルタ係数決定手段とを具備
することを特徴とする。
According to a sixteenth aspect of the present invention, in the image processing apparatus according to the thirteenth aspect, the first image processing means includes a spatial filter applied to the input image data, Filter coefficient determining means for determining a filter coefficient of the spatial filter based on the first image area separation data generated by the area separating means.

【0036】また、請求項17記載の発明では、請求項
13記載の画像処理装置において、前記色変換手段は、
デバイス非依存性の第1の色空間から、デバイス依存性
の第2の色空間への色空間の変換を行うことを特徴とす
る。
According to a seventeenth aspect of the present invention, in the image processing apparatus of the thirteenth aspect, the color conversion means comprises:
A color space is converted from a device-independent first color space to a device-dependent second color space.

【0037】また、上述した問題点を解決するために、
請求項18記載の発明では、入力された画像データに対
して文字やラインから構成される2値画像領域と写真や
網点印刷等の中間調画像領域とを識別するための第1の
像域分離データを生成する第1の像域分離手段と、前記
第1の像域分離手段によって生成された第1の像域分離
データに基づいて前記入力された画像データに対して画
像処理を施す第1の画像処理手段と、前記第1の画像処
理手段によって画像処理が施された画像データを圧縮し
て蓄積する圧縮蓄積手段と、前記圧縮蓄積手段に蓄積さ
れた画像データを読み出し伸長する伸長手段と、前記伸
長手段により伸長された画像データに対して像域分離処
理を施し、エッジの有無を識別するための第2の像域分
離データを生成する第2の像域分離手段と、前記第2の
像域分離手段によって生成された第2の像域分離データ
に基づいて前記伸長手段によって伸長された画像データ
に対して画像処理を施す第2の画像処理手段とを具備す
ることを特徴とする。
In order to solve the above-mentioned problem,
According to the eighteenth aspect of the present invention, a first image area for identifying a binary image area composed of characters and lines and a halftone image area such as a photograph or halftone printing for input image data. First image area separating means for generating separated data, and performing image processing on the input image data based on the first image area separated data generated by the first image area separating means. (1) image processing means, compression and accumulation means for compressing and accumulating image data subjected to image processing by the first image processing means, and decompression means for reading and decompressing the image data accumulated in the compression and accumulation means A second image area separation unit that performs image area separation processing on the image data expanded by the expansion unit to generate second image area separation data for identifying the presence or absence of an edge; 2 image area separating means Characterized by comprising a second image processing means for performing image processing on the image data expanded by said expansion means based on the second image area separation data generated Te.

【0038】また、請求項19記載の発明では、請求項
18記載の画像処理装置において、前記第2の画像処理
手段は、前記伸長手段によって伸長された画像データに
対して、階調再現制御または解像度再現制御を行うこと
を特徴とする。
According to a nineteenth aspect of the present invention, in the image processing device according to the eighteenth aspect, the second image processing means performs tone reproduction control or image reproduction control on the image data expanded by the expansion means. It is characterized in that resolution reproduction control is performed.

【0039】また、請求項20記載の発明では、請求項
18記載の画像処理装置において、前記第1の像域分離
手段と前記第2の像域分離手段とは、画像データに対し
て、それぞれ異なる様式の像域分離処理を施すことを特
徴とする。
According to a twentieth aspect of the present invention, in the image processing apparatus according to the eighteenth aspect, the first image area separation means and the second image area separation means respectively It is characterized in that different types of image area separation processing are performed.

【0040】また、請求項21記載の発明では、請求項
18記載の画像処理装置において、前記第1の画像処理
手段は、前記入力された画像データに適用する空間フィ
ルタと、前記第1の像域分離手段により生成された第1
の像域分離データに基づいて、前記空間フィルタのフィ
ルタ係数を決定するフィルタ係数決定手段とを具備する
ことを特徴とする。
According to a twenty-first aspect of the present invention, in the image processing apparatus according to the eighteenth aspect, the first image processing means includes a spatial filter applied to the input image data and the first image processing means. The first generated by the area separating means
And a filter coefficient determining means for determining a filter coefficient of the spatial filter based on the image area separation data.

【0041】この発明によれば、像域分離手段では、入
力された画像データに対して像域分離処理を施すことに
より、文字やラインから構成される2値画像領域と写真
や網点印刷等の中間調画像領域とを識別するための像域
分離データが生成される。入力された画像データおよび
像域分離手段によって生成された像域分離データは、圧
縮蓄積手段によって圧縮されて蓄積される。該圧縮され
蓄積された画像データおよび像域分離データは、所定の
タイミングで読み出され、伸長手段によって伸長され
る。属性検出手段は、伸長手段によって伸長された画像
データの画像属性を検出する。次いで、処理決定手段
は、属性検出手段によって検出された画像属性と伸長手
段によって伸長された像域分離データとに基づいて、伸
長された画像データに対して施すべき画像処理を決定す
る。そして、画像処理手段は、処理決定手段によって決
定された画像処理を伸長された画像データに対して施
す。このように、伸長された画像データの特徴を忠実に
表す画像属性に基づいて、画像データに施すべき画像処
理を決定するようにしたので、線画の文字および中間調
の写真が混在した画像を高品質で再現することが可能と
なる。
According to the present invention, the image area separating means performs an image area separation process on the input image data, so that a binary image area composed of characters and lines and a photograph, halftone dot printing, etc. Image area separation data for identifying the halftone image area is generated. The input image data and the image area separation data generated by the image area separation means are compressed and accumulated by the compression accumulation means. The compressed and stored image data and image area separation data are read out at a predetermined timing and decompressed by decompression means. The attribute detecting means detects an image attribute of the image data expanded by the expanding means. Next, the processing determining means determines image processing to be performed on the expanded image data based on the image attributes detected by the attribute detecting means and the image area separation data expanded by the expanding means. Then, the image processing means performs the image processing determined by the processing determining means on the decompressed image data. As described above, the image processing to be performed on the image data is determined based on the image attributes that faithfully represent the characteristics of the decompressed image data. It is possible to reproduce with quality.

【0042】[0042]

【発明の実施の形態】次に図面を参照してこの発明の実
施形態について説明する。
Embodiments of the present invention will now be described with reference to the drawings.

【0043】A.実施形態の構成 図1は本発明の一実施形態による画像処理システムの構
成を示すブロック図である。なお、図1に対応する部分
には同一の符号を付けて説明を省略する。但し、圧縮部
25a〜25d、領域分離判定部30、圧縮部31、伸
長部33、トーン補正部28a〜28dおよびSG部2
9a〜29dについては、本発明に係わる構成要件であ
るので詳細に説明する。また、本実施形態では、当該画
像処理装置の入出力解像度(主走査方向、副走査方向と
も)は、前述した通り、16dot/mmとしている。
A. Configuration of Embodiment FIG. 1 is a block diagram illustrating a configuration of an image processing system according to an embodiment of the present invention. Note that the same reference numerals are given to portions corresponding to FIG. However, the compression units 25a to 25d, the area separation determination unit 30, the compression unit 31, the expansion unit 33, the tone correction units 28a to 28d, and the SG unit 2
9a to 29d will be described in detail because they are constituent elements related to the present invention. Further, in the present embodiment, the input / output resolution (in both the main scanning direction and the sub-scanning direction) of the image processing apparatus is set to 16 dots / mm as described above.

【0044】A−1.圧縮部25a〜25dの構成 まず、画像データを圧縮する圧縮部25a〜25dは、
各々、画像メモリの容量を削減するための圧縮処理を施
すが、複写機の付加機能として設けられている編集・加
工処理が容易に実現できるようにするため、固定長のブ
ロック符号化(Lossy)によって、対応するC,
M,Y,Kの画像データを圧縮する。ここで、図2は、
画像データを圧縮する圧縮部25a〜25dの構成を示
す概念図である。なお、図2では、Block tru
ncation方式によるブロック符号化を示している
が、これに限られるものではない。但し、ブロック符号
化でも、JPEG方式のような可変長方式は、画像メモ
リ上での編集処理が複雑になるので、固定長の符号化方
式を用いるのが望ましい。
A-1. Configuration of compression units 25a to 25d First, the compression units 25a to 25d that compress image data
Each of them is subjected to compression processing for reducing the capacity of the image memory. However, in order to easily realize editing and processing processing provided as an additional function of the copying machine, fixed-length block coding (Lossy) is performed. The corresponding C,
The M, Y, and K image data are compressed. Here, FIG.
FIG. 3 is a conceptual diagram illustrating a configuration of compression units 25a to 25d that compress image data. Note that in FIG. 2, Block true
Although block encoding by the nuncation method is shown, the present invention is not limited to this. However, even in the block coding, the variable-length coding such as the JPEG coding complicates the editing process on the image memory. Therefore, it is desirable to use a fixed-length coding coding.

【0045】図において、圧縮部25a〜25dは、各
々、対応するC,M,Y,Kの画像データ(各8ビッ
ト)を、4画素×4画素にブロック化し(4×4×8=
128ビット)、平均値算出回路40において、ブロッ
ク内の画素値の平均値を算出する。図示の例では、平均
値は、(110×8+90×8)/16=100とな
る。次に、高濃度画素平均値算出回路41は、ブロック
内で、上記平均値より大きい値を有する画素値の平均値
を算出する。一方、低濃度画素平均値算出回路42は、
ブロック内で、上記平均値より小さい値を有する画素値
の平均値を算出する。図示の例では、高濃度画素平均値
算出回路41では、110×8/8=110となり、低
濃度画素平均値算出回路42では、90×8/8=90
となる。
In the figure, the compression units 25a to 25d respectively block the corresponding C, M, Y, K image data (8 bits each) into 4 pixels × 4 pixels (4 × 4 × 8 =
The average value calculation circuit 40 calculates the average value of the pixel values in the block. In the illustrated example, the average value is (110 × 8 + 90 × 8) / 16 = 100. Next, the high-density pixel average value calculation circuit 41 calculates an average value of pixel values having a value larger than the average value in the block. On the other hand, the low density pixel average value calculation circuit 42
In the block, an average value of pixel values having a value smaller than the average value is calculated. In the illustrated example, 110 × 8/8 = 110 in the high density pixel average value calculation circuit 41, and 90 × 8/8 = 90 in the low density pixel average value calculation circuit 42.
Becomes

【0046】また、圧縮部25a〜25dは、2値パタ
ーン生成部43において、上記平均値算出回路40で算
出されたブロック内の平均値に基づいて、画素を2値化
する。図示の例では、平均値が100であるので、11
0の値を有する画素は「1(黒)」に、90の値を有す
る画素は「0(白)」となる。なお、2値パターン生成
部43の出力は、4×4=16ビットになる。
Further, the compression units 25a to 25d binarize the pixels in the binary pattern generation unit 43 based on the average value in the block calculated by the average value calculation circuit 40. In the illustrated example, since the average value is 100, 11
A pixel having a value of 0 is “1 (black)”, and a pixel having a value of 90 is “0 (white)”. Note that the output of the binary pattern generation unit 43 is 4 × 4 = 16 bits.

【0047】圧縮部25a〜25dは、上記2値パター
ンをそのままか、あるいは図示するベクトル量子化器4
4でベクトル化し(16ビットをさらに8ビットに
し)、セレクタ45を介して、マージ回路46に供給す
る。マージ回路46は、上述した高濃度画素の平均値
(8ビット)、低濃度画素の平均値(8ビット)および
上記2値パターン(16ビットまたは8ビット)を順次
結合し、全24〜32ビットの圧縮データとして出力す
る。
The compression units 25a to 25d either use the binary pattern as it is or as shown in the vector quantizer 4
It is vectorized by 4 (from 16 bits to 8 bits) and supplied to the merge circuit 46 via the selector 45. The merge circuit 46 sequentially combines the above-described average value of high density pixels (8 bits), the average value of low density pixels (8 bits) and the above-described binary pattern (16 bits or 8 bits), and outputs a total of 24-32 bits. Output as compressed data.

【0048】このように、入力された4×4×8=12
8ビットの画像データは、パターンをそのままにした場
合には、1/4に圧縮されて32ビットとなり、ベクト
ル量子化した場合には、約1/5に圧縮されて24ビッ
トとなる。この結果、画像メモリ26a〜26dの容量
を小さくすることが可能となっている。
Thus, the input 4 × 4 × 8 = 12
The 8-bit image data is compressed to 1/4 and becomes 32 bits when the pattern is left as it is, and is compressed to about 1/5 and becomes 24 bits when vector-quantized. As a result, the capacity of the image memories 26a to 26d can be reduced.

【0049】A−2.領域分離判定部30の構成 次に、領域分離判定部30は、色変換/色修正部21に
おいて、一旦、第1の色空間であるL*a*b*に変換
された画像データ(各8ビット)の各画素毎に、その画
素が文字等の線画であるか、あるいは写真等の中間調で
あるか、また、その画素が色画素であるか、あるいは黒
画素であるかを判定し、第1の領域データ信号S1とし
て下色除去/墨生成部23、空間フィルタ部24a〜2
4dおよび圧縮部31に供給する。
A-2. Configuration of Region Separation Determination Unit 30 Next, the region separation determination unit 30 uses the color conversion / color correction unit 21 to temporarily convert the image data (8 each) into the L * a * b * that is the first color space. Bit), it is determined whether the pixel is a line drawing such as a character or a halftone such as a photograph, and whether the pixel is a color pixel or a black pixel. Under color removal / black generation section 23, spatial filter sections 24a-2 as first area data signal S1
4d and to the compression unit 31.

【0050】(a)領域分離判定部30による領域分離
処理 ここで、図3は、領域分離判定部30による領域分離処
理の構成を示す概念図である。図において、領域分離判
定部30は、色変換/色修正部21から供給されるL*
の画像データ(8ビット)に対して、N画素×N画素
(この例では、5画素×5画素)のウインドウを設定
し、最大値算出器50aによって、その中の最大値Ma
xを算出し、最小算出器50bによって、その中の最小
値Minを算出する。次に、減算器51で、最大値Ma
xと最小値Minとの差分を算出し、該差分を比較器5
2で、所定のしきい値th1より大きいか否かを判別す
る。そして、差分がしきい値th1より大きい場合に
は、注目画素を一旦、文字画素「1」とし、差分がしき
い値th1より小さい場合には、一旦、写真画素「0」
と仮決定する。
(A) Area Separation Processing by Area Separation Determining Unit 30 FIG. 3 is a conceptual diagram showing the structure of the area separation processing by the area separation determining unit 30. In the figure, a region separation determination unit 30 receives L * supplied from a color conversion / color correction unit 21.
A window of N pixels × N pixels (5 pixels × 5 pixels in this example) is set for the image data (8 bits), and the maximum value calculator 50a sets the maximum value Ma in the window.
x is calculated, and the minimum value Min is calculated by the minimum calculator 50b. Next, the maximum value Ma is calculated by the subtractor 51.
x, and calculates the difference between the minimum value Min and the minimum value Min.
At 2, it is determined whether or not it is greater than a predetermined threshold th1. When the difference is larger than the threshold value th1, the target pixel is temporarily set to the character pixel “1”. When the difference is smaller than the threshold value th1, the photograph pixel is set to “0”.
Is temporarily determined.

【0051】次に、ディレイ回路53a,53bおよび
FIFO54a,54bは、上記仮決定した注目画素を
中心とした、上下前後の十字状の5画素の仮決定状態を
保持する。また、論理回路55は、上記5画素の仮決定
状態を論理演算することにより、注目画素と同値である
画素が上下前後の4画素のなかにあるか否かを判別し、
注目画素と同値である画素が上下前後の4画素のなかに
1つでもある場合には、その値を注目画素の最終的な決
定値として残し、1つもない場合には、その値を反転さ
せた値、すなわち、文字画素「1」であれば写真画素
「0」に、写真画素「0」であれば文字画素「1」に変
更する。以上の処理を全画素に対して行うことにより、
注目画素が文字領域であるか写真領域であるかを1ビッ
トの信号で識別可能としている。
Next, the delay circuits 53a and 53b and the FIFOs 54a and 54b hold a tentatively determined state of five vertically and vertically cross-shaped pixels centering on the tentatively determined target pixel. Further, the logic circuit 55 performs a logical operation on the provisionally determined state of the five pixels to determine whether or not a pixel having the same value as the pixel of interest is among the four pixels in the vertical and horizontal directions.
If there is at least one pixel having the same value as the target pixel among the four pixels before and after the upper and lower sides, the value is left as the final determined value of the target pixel, and if there is no pixel, the value is inverted. In other words, if the pixel value is a character pixel “1”, the pixel value is changed to “0”, and if the pixel value is “0”, the pixel value is changed to “1”. By performing the above processing for all pixels,
Whether the pixel of interest is a character area or a photograph area can be identified by a 1-bit signal.

【0052】(b)領域分離判定部30による色判定処
理 次に、図4は、上記領域分離判定部30による色判定処
理の構成を示す概念図である。図において、領域分離判
定部30は、上述した文字/写真領域判別に同期して、
同様に、色変換/色修正部21から供給されるa*,b
*の画像データ(各8ビット)に対して、各々、N画素
×N画素(この例では、5画素×5画素)のウインドウ
を設定した後、C*算出回路56で、C*=√(a*2
+b*2)、あるいは簡単に実現するために、C*=|
a*|+|b*|というように、双方の絶対値を加算す
ることにより、各画素毎にC*値(彩度を表す特性値)
を算出する。次に、比較器57は、上記C*値が予め設
定されたしきい値th2より大きいか否かを比較し、C
*値がしきい値th2より大きい場合には、その出力を
色領域「1」とし、小さい場合には、その出力を黒領域
「0」とする。
(B) Color Judgment Process by Region Separation Determination Unit 30 Next, FIG. 4 is a conceptual diagram showing the structure of the color judgment process by the region separation judgment unit 30. In the figure, the region separation determination unit 30 synchronizes with the above-described character / photo region determination,
Similarly, a *, b supplied from the color conversion / color correction unit 21
After setting a window of N pixels × N pixels (5 pixels × 5 pixels in this example) for the image data (8 bits each) of *, the C * calculating circuit 56 sets C * = √ ( a * 2
+ B * 2), or C * = |
a * | + | b * |, by adding both absolute values, a C * value (a characteristic value representing saturation) for each pixel
Is calculated. Next, the comparator 57 compares whether or not the C * value is larger than a predetermined threshold value th2,
* If the value is larger than the threshold value th2, the output is set to the color area “1”; if smaller, the output is set to the black area “0”.

【0053】次に、0用カウンタ58aは、現在のウイ
ンドウ内における黒領域「0」の個数をカウントし、1
用カウンタ58bは、色領域「1」の個数をカウントす
る。各カウント値は、5画素×5画素のウインドウの場
合、5ビットと必要となる。また、多数決判定回路60
は、どちらのカウント値が大きいか判別し、大きい方の
結果を注目画素の色判別結果とする。以上の処理を全画
素に対して行うことにより、注目画素が色画素であるか
黒画素であるかを1ビットの信号で識別可能としてい
る。
Next, the 0 counter 58a counts the number of black areas "0" in the current window, and
The counter 58b counts the number of color areas “1”. Each count value is required to be 5 bits in the case of a window of 5 × 5 pixels. Also, the majority decision circuit 60
Determines which count value is larger, and uses the larger result as the color determination result of the pixel of interest. By performing the above processing on all the pixels, it is possible to identify whether the target pixel is a color pixel or a black pixel by a 1-bit signal.

【0054】このように、第1の領域データ信号S1
は、各画素が文字であるか写真(中間調)であるかを示
す1ビットの信号と、色画素であるか黒画素であるかを
示す1ビットの信号の合計2ビットであるが、1ページ
分の画素に対して記憶するとなると、前述したように、
非常に大きなメモリ容量が必要となるので、圧縮部31
によって圧縮した後、領域メモリ32に記憶するように
なっている。
As described above, the first area data signal S1
Is a 1-bit signal indicating whether each pixel is a character or a photograph (halftone) and a 1-bit signal indicating whether the pixel is a color pixel or a black pixel. When storing for pixels of a page, as described above,
Since a very large memory capacity is required, the compression unit 31
After compression, the data is stored in the area memory 32.

【0055】A−3.圧縮部31の構成 ここで、図5は、第1の領域データ信号S1を圧縮する
圧縮部31の構成を示す概念図である。図において、圧
縮部31は、領域分離判定部30から供給される第1の
領域データ信号S1(2ビット)を、M画素×M画素
(この例では、4画素×4画素)でブロック化し、各ブ
ロック内で、1画素でも文字「1」を示す判定結果があ
れば、該4画素×4画素のブロック内を全て文字「1」
にするとともに、同じブロック内で、1画素でも色画素
「1」を示す判定結果があれば、該4画素×4画素のブ
ロック内を全て色画素「1」にする。そして、マージ回
路61は、各ビットを結合し、図1に示す領域メモリ3
2に供給する。この結果、前述したように、4画素×4
画素×2ビット(合計32ビット)の判定結果は、1/
16に圧縮されたことになり、4画素×4画素の1ブロ
ック当たり2ビットのデータになる。
A-3. FIG. 5 is a conceptual diagram illustrating a configuration of the compression unit 31 that compresses the first area data signal S1. In the figure, the compression unit 31 blocks the first area data signal S1 (2 bits) supplied from the area separation determination unit 30 by M pixels × M pixels (4 pixels × 4 pixels in this example), In each block, if there is a determination result indicating that the character is “1” even for one pixel, all characters in the block of 4 pixels × 4 pixels are set to the character “1”.
In addition, if there is a determination result indicating that even one pixel is a color pixel “1” in the same block, the entirety of the 4 × 4 pixel block is set to the color pixel “1”. Then, the merging circuit 61 combines the bits and forms the area memory 3 shown in FIG.
Feed to 2. As a result, as described above, 4 pixels × 4
The determination result of pixel × 2 bits (total 32 bits) is 1 /
This means that the data has been compressed to 16 and becomes 2 bits per block of 4 × 4 pixels.

【0056】A−4.像域分離判定部34a〜34dの
構成 次に、図1に示す像域分離判定部34a,34b,34
c,34dについて説明する。像域分離判定部34a〜
34dは、各々、領域分離判定部30により生成され、
圧縮されることにより解像度が劣化した第1の領域デー
タ信号S1を補償するために、上述した処理により圧縮
された画像データが伸長された後のC,M,Y,Kの画
像データ(各8ビット)に基づいて、文字やライン等の
2値データによる線画の存在、言い換えるとエッジの有
無を識別するための第2の領域データ信号S2を生成す
る。該第2の領域データ信号S2は、C,M,Y,Kの
画像データの読み出しタイミングで生成されるので、像
域分離判定部30では必要であった、画像データに同期
させるために、一旦、メモリに記憶させるという処理は
必要ない。したがって、当然、圧縮する処理も不要であ
る。
A-4. Configuration of Image Area Separation Determination Units 34a to 34d Next, the image area separation determination units 34a, 34b, and 34 shown in FIG.
c and 34d will be described. Image area separation determination section 34a-
34d are respectively generated by the region separation determination unit 30,
In order to compensate for the first area data signal S1 whose resolution has been degraded due to the compression, the C, M, Y, K image data (8 each) after the image data compressed by the above-described processing is expanded. ), A second area data signal S2 for identifying the presence of a line drawing by binary data such as a character or a line, in other words, the presence or absence of an edge is generated. Since the second area data signal S2 is generated at the timing of reading out the C, M, Y, and K image data, the second area data signal S2 is once required to synchronize with the image data, which is necessary in the image area separation determination unit 30. However, there is no need to store the data in the memory. Therefore, naturally, compression processing is not required.

【0057】ここで、図6は、本実施形態による像域分
離判定部34a〜34dの構成を説明するための概念図
である。図において、像域分離判定部34a〜34d
は、従来より用いられている像域分離判定部30による
像域分離処理と異なる方式によって像域分離を行うもの
で、各々、対応するC,M,Y,Kの画像データに対し
て、5画素×5画素のウインドウを設定し、2種類のバ
ンドパス特性を有する2次微分オペレータ65a,65
bによってエッジを検出するものである。2次微分オペ
レータ65a,65bは、各々、上記入力される画像デ
ータに対して設定したウインドウと同じ5画素×5画素
のウインドウからなるテーブルを有し、中央の画素に
「4」、角部の画素に「−1」、あるいは中央の画素に
「4」、角部の水平・垂直画素に「−1」となるフィル
タ係数をセットしている。すなわち、2次微分オペレー
タ65a,65bは、各々、図7、図8に示す空間周波
数特性を有している。
FIG. 6 is a conceptual diagram for explaining the configuration of the image area separation judging sections 34a to 34d according to the present embodiment. In the figure, image area separation determination sections 34a to 34d
Performs image area separation by a method different from the image area separation processing performed by the image area separation determination unit 30 which has been conventionally used. Each of the image areas is separated from the corresponding C, M, Y, and K image data by 5%. A window of pixels × 5 pixels is set, and second derivative operators 65 a and 65 having two kinds of band pass characteristics are set.
The edge is detected by b. Each of the second derivative operators 65a and 65b has a table composed of the same 5 × 5 pixel window as the window set for the input image data. The filter coefficient is set to "-1" for the pixel, "4" for the center pixel, and "-1" for the horizontal and vertical pixels at the corners. That is, the second derivative operators 65a and 65b have the spatial frequency characteristics shown in FIGS. 7 and 8, respectively.

【0058】2次微分オペレータ65aは、図7に示す
ように、主走査方向および副走査方向での感度が高くな
るような空間周波数特性が設定されており、これは、言
い換えると、水平および垂直に描かれた線のエッジを抽
出し易くなっている。これに対して、2次微分オペレー
タ65bは、図8に示すように、斜め方向での感度が高
くなるような空間周波数特性が設定されており、これ
は、言い換えると、斜めに描かれた斜線のエッジを抽出
し易くなっている。
As shown in FIG. 7, the secondary differential operator 65a is set with a spatial frequency characteristic that increases the sensitivity in the main scanning direction and the sub-scanning direction. It is easy to extract the edge of the line drawn in. On the other hand, as shown in FIG. 8, the secondary differential operator 65b is set with a spatial frequency characteristic that increases the sensitivity in the oblique direction. Is easy to extract.

【0059】2次微分オペレータ65a,65bでは、
5画素×5画素のウインドウにおける各画素の値と、図
示のテーブル65a,65bにおける対応する画素の値
とを乗算し、それぞれの乗算値を加算することで、該ウ
インドウ内の画像データが、水平・垂直方向に描かれた
エッジを有するか、あるいは斜め方向に描かれたエッジ
を有するかを判定している。言い換えると、双方の2次
微分オペレータ65a,65bによって、従来、ジャギ
ーが生じ易かった文字領域であるかを判定しているわけ
である。図示の例では、2次微分オペレータ65aの出
力は、4×60+(−1)×110+(−1)×60+
(−1)×60+(−1)×90=240−110−6
0−60−90、すなわち、「−80」となる。一方、
2次微分オペレータ65bの出力は、4×60+(−
1)×150+(−1)×150+(−1)×90+
(−1)×90=240−150−150−90−9
0、すなわち、「−240」となる。
In the second derivative operators 65a and 65b,
By multiplying the value of each pixel in the window of 5 × 5 pixels by the value of the corresponding pixel in the illustrated tables 65a and 65b and adding the respective multiplied values, the image data in the window becomes horizontal. It is determined whether the edge has an edge drawn in a vertical direction or an edge drawn in an oblique direction. In other words, the two differentiating operators 65a and 65b determine whether or not the character area is likely to be jagged conventionally. In the illustrated example, the output of the second derivative operator 65a is 4 × 60 + (− 1) × 110 + (− 1) × 60 +
(-1) × 60 + (− 1) × 90 = 240−110−6
0-60-90, that is, "-80". on the other hand,
The output of the second derivative operator 65b is 4 × 60 + (−
1) × 150 + (− 1) × 150 + (− 1) × 90 +
(-1) × 90 = 240−150−150−90−9
0, that is, “−240”.

【0060】次に、像域分離判定部34a〜34dで
は、各々、絶対値回路66a,66bによって、2種の
2次微分オペレータ65a,65bによって得られた値
の絶対値を算出し、最大値回路67によって、それぞれ
2つの絶対値の大きい方を選択し、注目画素のエッジ量
として比較器68に供給する。図示の例では、絶対値6
6aの出力は、「80」となり、絶対値66bの出力
は、「240」となる。したがって、最大値回路67の
出力は、大きい方の「240」となり、言い換えると、
斜め方向に描かれたエッジが存在すると判定したことに
なる。比較器68は、上記最大値回路67で選択した大
きい方の絶対値と、予め設定されたしきい値L1とを比
較し、絶対値の方が大きければ文字領域「1」(=エッ
ジあり)、小さければ写真領域「0」(=エッジなし)
とし、第2の領域データ信号S2として図1に示す論理
回路35に供給する。上記しきい値L1は、文字である
か写真であるかを判定する際の境界値である。
Next, in the image area separation judging sections 34a to 34d, the absolute values of the values obtained by the two types of second derivative operators 65a and 65b are calculated by the absolute value circuits 66a and 66b, respectively, and the maximum value is calculated. The circuit 67 selects the larger one of the two absolute values and supplies it to the comparator 68 as the edge amount of the pixel of interest. In the example shown, the absolute value 6
The output of 6a is “80”, and the output of the absolute value 66b is “240”. Therefore, the output of the maximum value circuit 67 is the larger “240”, in other words,
That is, it is determined that an edge drawn in an oblique direction exists. The comparator 68 compares the larger absolute value selected by the maximum value circuit 67 with a preset threshold value L1, and if the absolute value is larger, the character area “1” (= there is an edge) , If smaller, photo area "0" (= no edge)
Is supplied to the logic circuit 35 shown in FIG. 1 as the second area data signal S2. The threshold value L1 is a boundary value for determining whether a character or a photograph.

【0061】このように、本実施形態で適用した領域分
離判定部34a〜34dが上述した像域分離判定部30
に対して簡素な構成でよい理由は、像域分離判定部30
によって制御された空間フィルタで、既に、文字領域に
対するエッジ強調処理、写真領域に対するバンド強調平
滑化処理が施されているので、分離のラチチュードが高
まり、文字領域のエッジ検出精度が高まっているためで
ある。ここでの実施形態では、2種類の異なった特性を
有する2次微分オペレータによる例を示しているが、よ
り高い識別性能を得るために、さらに異なるフィルタオ
ペレータを付加してもよいことは言うまでもない。その
際の特性として1次微分型オペレータでもよい。
As described above, the area separation determining sections 34a to 34d applied in the present embodiment are different from the image area separation determining section 30 described above.
The reason why a simple configuration may be used is that the image area separation determination unit 30
This is because the spatial filter controlled by has already performed the edge enhancement processing on the character area and the band enhancement smoothing processing on the photographic area, so the latitude of separation increases and the edge detection accuracy of the character area increases. is there. In this embodiment, an example is shown in which two types of differential operators having different characteristics are used. However, it is needless to say that further different filter operators may be added in order to obtain higher discrimination performance. . The characteristic at this time may be a primary differential operator.

【0062】次に、論理回路35は、各像域分離判定部
34a〜34dから供給される第2の領域データ信号S
2(各1ビット)と、伸長部33から供給される第1の
領域データ信号S1の文字領域であるか写真領域である
かを示す信号(1ビット)との論理積をとり、色画素で
あるか黒画素であるかを示す1ビットの信号と合わせ
て、最終的な2ビットの第3の領域データ信号S3とし
て、トーン補正部28a〜28dおよびSG部29a〜
29dに供給する。
Next, the logic circuit 35 outputs the second area data signal S supplied from each of the image area separation determining sections 34a to 34d.
2 (1 bit each) and the signal (1 bit) of the first area data signal S1 supplied from the decompression unit 33 indicating whether the area is a character area or a photographic area, and a logical pixel Together with a 1-bit signal indicating whether the pixel is a black pixel or a black pixel, the tone correction units 28a to 28d and the SG units 29a to 29d form a final 2-bit third area data signal S3.
29d.

【0063】すなわち、トーン補正部28a〜28dお
よびSG部29a〜29dには、像域分離判定部30に
よる第1の像域データ信号が文字領域「1」で、かつ、
像域分離判定部34a〜34dによる第2の領域データ
信号S2が文字領域「1」である場合にのみ、文字領域
であるか写真領域であるかを示す信号として「1」が供
給される。したがって、この場合には、その画素は文字
領域「1」であるとして処理されることになる。これに
対して、像域分離判定部30による第1の像域データ信
号が文字領域「1」であっても、像域分離判定部34a
〜34dによる第2の領域データ信号S2が写真領域
「0」である場合には、文字領域であるか写真領域であ
るかを示す信号として「0」が供給される。したがっ
て、この場合には、その画素は写真領域「0」であると
して処理されることになる。
That is, the first image area data signal by the image area separation determining section 30 is transmitted to the tone correcting sections 28a to 28d and the SG sections 29a to 29d in the character area "1", and
Only when the second area data signal S2 by the image area separation determining units 34a to 34d is a character area "1", "1" is supplied as a signal indicating whether the area is a character area or a photographic area. Therefore, in this case, the pixel is processed as being the character area “1”. On the other hand, even if the first image area data signal by the image area separation determining section 30 is a character area "1", the image area separation determining section 34a
When the second area data signal S2 according to .about.34d is a photographic area "0", "0" is supplied as a signal indicating whether it is a text area or a photographic area. Therefore, in this case, the pixel is processed as being in the photographic area “0”.

【0064】同様にして、双方が写真「0」である場合
には、文字領域であるか写真領域であるかを示す信号と
して「0」が供給されるので、その画素は写真領域
「0」であるとして処理されることになる。像域分離判
定部30による第1の像域データ信号が写真領域「0」
である場合で、像域分離判定部34a〜34dによる第
2の領域データ信号S2が文字領域「1」である場合
は、文字領域であるか写真領域であるかを示す信号とし
て「0」が供給される。したがって、この場合には、そ
の画素は写真領域「0」であるとして処理されることに
なる。
Similarly, when both are pictures "0", "0" is supplied as a signal indicating whether the picture area is a text area or a picture area. Will be processed. When the first image area data signal by the image area separation determining unit 30 is a photographic area “0”
When the second area data signal S2 by the image area separation determination units 34a to 34d is a character area “1”, “0” is set as a signal indicating whether the area is a character area or a photograph area. Supplied. Therefore, in this case, the pixel is processed as being in the photographic area “0”.

【0065】前述したように、入出力解像度を16do
t/mmとした場合には、上記像域分離判定部34a〜
34dでは、伸長された画像データに基づいて、第2の
領域データ信号S2を生成しているので、16dot/
mmの解像度を有することになる。これに対して、像域
分離判定部30からの第1の領域データ信号S1は、ト
ーン補正部28a〜28dおよびSG部29a〜29d
に供給される時点では、1/16に圧縮されているた
め、4dot/mmの解像度しかない。このため、本実
施形態では、従来、4dot/mmの解像度で行ってい
たトーン補正およびスクリーン切換を、16dot/m
mの解像度で行うことができる。ゆえに、太文字・ライ
ンの内部エッジにおいて、4dot/mmの解像度で生
じたジャギーを改善することができる。なお、トーン補
正部28a〜28dおよびSG部29a〜29dで用い
る第3の領域データ信号S3を得るには、第1の領域デ
ータ信号S1と第2の領域データ信号S2との論理積を
とることに限らず、例えば、第2の領域データ信号S2
を強制的に用いるようにしてもよく、この構成は、後述
する変形例で説明する。
As described above, the input / output resolution is 16 do
When t / mm is set, the image area separation determination units 34a to 34a
At 34d, the second area data signal S2 is generated based on the decompressed image data.
mm resolution. On the other hand, the first area data signal S1 from the image area separation determination section 30 is supplied to the tone correction sections 28a to 28d and the SG sections 29a to 29d.
At the time of supply, the resolution is only 1/4 and the resolution is only 4 dots / mm. For this reason, in the present embodiment, tone correction and screen switching conventionally performed at a resolution of 4 dots / mm are changed to 16 dots / m.
m resolution. Therefore, it is possible to improve jaggies generated at a resolution of 4 dots / mm at the inner edge of the bold character / line. In order to obtain the third area data signal S3 used in the tone correction sections 28a to 28d and the SG sections 29a to 29d, the logical product of the first area data signal S1 and the second area data signal S2 is obtained. Not limited to, for example, the second area data signal S2
May be forcibly used, and this configuration will be described in a modified example described later.

【0066】A−5.トーン補正部28a〜28dによ
る補償処理 次に、図1に示すトーン補正部28a〜28dは、論理
回路35から最終的に供給される第2の領域データ信号
S2に基づいて、後述するSG部29a〜29dで切り
換えられる200線、400線スクリーンによるトーン
再現の違いを補償する。ここで、図9は、トーン補正部
28a〜28dによる補償を説明するための概念図であ
る。図において、後述するSG部29a〜29dでは、
論理回路35から供給される最終的な第2の領域データ
信号S2に基づいて、すなわち、注目画素が文字である
か写真等の中間調であるかに応じて、200線スクリー
ンと400線スクリーンの切り換えるわけであるが、こ
のとき、図示するように、それぞれのスクリーンで濃度
再現性が異なる。400線スクリーンの場合には、上側
に膨らむ傾向があり、200線スクリーンの場合には、
下側に膨らむ傾向がある。そこで、トーン補正部28a
〜28dでは、最終的な第3の領域データ信号S3に基
づいて、図示する直線に近づくよう補正を行うようにな
っている。
A-5. Compensation processing by tone correction units 28a to 28d Next, the tone correction units 28a to 28d shown in FIG. Compensates for differences in tone reproduction between 200-line and 400-line screens switched between -29d. Here, FIG. 9 is a conceptual diagram for explaining compensation by the tone correction units 28a to 28d. In the figure, in SG units 29a to 29d described later,
Based on the final second area data signal S2 supplied from the logic circuit 35, that is, depending on whether the pixel of interest is a character or a halftone such as a photograph, a 200-line screen and a 400-line screen are used. At this time, the screens have different density reproducibility, as shown in the figure. In the case of a 400-line screen, it tends to swell upward, and in the case of a 200-line screen,
It tends to swell downward. Therefore, the tone correction unit 28a
In the case of .about.28d, the correction is performed so as to approach the illustrated straight line based on the final third area data signal S3.

【0067】A−6.SG部29a〜29dの構成 次に、図1に示すSG部29a〜29dは、論理回路3
5から供給される最終的な第3の領域データ信号S3に
基づいて、200線スクリーンと400線スクリーンと
を切り換えて、アナログ信号に変換した画像信号をレー
ザ発振駆動信号に変換する。ここで、図10は、上記S
G部29a〜29dの構成を示すブロック図である。図
において、パターン発生部70aは、写真等の中間調に
対して用いる200線スクリーンを得るためのパターン
(三角波)を発生し、パターン発生部70bは、文字等
のエッジに対して用いる400線スクリーンを得るため
のパターン(三角波)を発生する。セレクタ71は、上
述した論理回路35から供給される最終的な第3の領域
データ信号S3に応じて、上記パターン発生部70aま
たはパターン発生部70bのどちらかのパターンを選択
する。D/A変換器72は、8ビットの画像データをア
ナログ信号である画像信号に変換する。比較器73は、
アナログ信号に変換された256階調の画像信号を、上
記セレクタ71で選択されたパターン(スクリーン)に
従って、256段階の分解能を有するレーザ発振駆動信
号に変換する。
A-6. Configuration of SG Units 29a to 29d Next, the SG units 29a to 29d shown in FIG.
Based on the final third area data signal S3 supplied from 5, a 200-line screen and a 400-line screen are switched, and the image signal converted into an analog signal is converted into a laser oscillation drive signal. Here, FIG.
It is a block diagram which shows the structure of G part 29a-29d. In the figure, a pattern generator 70a generates a pattern (triangular wave) for obtaining a 200-line screen used for halftones such as photographs, and a pattern generator 70b generates a 400-line screen used for edges of characters and the like. Generate a pattern (triangular wave) to obtain The selector 71 selects one of the patterns of the pattern generator 70a or the pattern generator 70b according to the final third area data signal S3 supplied from the logic circuit 35 described above. The D / A converter 72 converts the 8-bit image data into an analog image signal. The comparator 73 is
The image signal of 256 gradations converted into an analog signal is converted into a laser oscillation drive signal having a resolution of 256 steps according to the pattern (screen) selected by the selector 71.

【0068】B.実施形態の動作 次に、本実施形態の動作を説明する。B. Next, the operation of this embodiment will be described.

【0069】画像読取装置20で読み取れたRGBの画
像データは、色変換/色修正部21によってL*a*b
*の色空間の画像データに変換された後、色変換/色修
正部22によって、さらに、CMYの色空間の画像デー
タに変換される。また、上記L*a*b*の画像データ
は、領域分離判定部30によって、各画素毎に、その画
素が文字等の線画であるか、あるいは写真等の中間調で
あるか、また、その画素が色画素であるか、あるいは黒
画素であるかが判定され、2ビットの第1の領域データ
信号S1として出力される。該第1の領域データ信号S
1は、4画素×4画素のブロック単位で圧縮部31で圧
縮された後、領域メモリ32に一旦格納される。
The RGB image data read by the image reading device 20 is subjected to L * a * b
After being converted into image data in the color space of *, the image data is further converted into image data in the CMY color space by the color conversion / color correction unit 22. The image data of L * a * b * is determined by the region separation determining unit 30 for each pixel, whether the pixel is a line drawing such as a character or a halftone such as a photograph. It is determined whether the pixel is a color pixel or a black pixel, and is output as a 2-bit first area data signal S1. The first area data signal S
1 is temporarily stored in the area memory 32 after being compressed by the compression unit 31 in blocks of 4 pixels × 4 pixels.

【0070】一方、下色除去/墨生成部23では、上記
第1の領域データ信号S1に基づいて、上記CMYの色
空間に変換した画像データに対して、下色除去や墨生成
が施される。すなわち、第1の像域データ信号S1によ
って注目画素が黒画素であると判定されている場合に
は、その画素に対して、Y,M,Cの画像データを
「0」とし、Kの画像データを作成する。次に、空間フ
ィルタ部24a〜24dにおいて、上記Y,M,C,K
の画像データに対し、第1の領域データ信号S1に基づ
いて、画素毎に、エッジ強調あるいは平滑化の処理が施
される。その後、画像データは、それぞれに対応して設
けられた圧縮部25a〜25dによって固定長で圧縮さ
れ、画像メモリ26a〜26dに一旦、記憶される。
On the other hand, the under color removal / black generation section 23 performs under color removal and black generation on the image data converted into the CMY color space based on the first area data signal S1. You. That is, when the target pixel is determined to be a black pixel by the first image area data signal S1, the image data of Y, M, and C is set to “0” for that pixel, and the image of K is Create data. Next, in the spatial filter units 24a to 24d, the above Y, M, C, K
Is subjected to edge enhancement or smoothing processing for each pixel based on the first area data signal S1. Thereafter, the image data is compressed at a fixed length by the corresponding compression units 25a to 25d, and is temporarily stored in the image memories 26a to 26d.

【0071】そして、上記画像メモリ26a〜26dに
記憶されたY,M,C,Kの画像データは、上述した第
1の現像ドラム7a〜第4の現像ドラム7dで画像デー
タを現像する際に、これら現像ドラムの間隔dmmによ
るディレイ時間に合致するように、所定のタイミングで
順次読み出され、伸長部27a〜27dで伸長され、ト
ーン補正部28a〜28dに供給される。
The Y, M, C, and K image data stored in the image memories 26a to 26d are used when the image data is developed by the first to fourth developing drums 7a to 7d. These are sequentially read out at a predetermined timing so as to match the delay time caused by the distance dmm between the developing drums, expanded by expansion units 27a to 27d, and supplied to tone correction units 28a to 28d.

【0072】一方、像域分離判定部34a〜34dで
は、各々、対応するC,M,Y,Kの画像データに対し
て、5画素×5画素のウインドウを設定し、画素毎に、
2種類のバンドパス特性を有する2次微分オペレータ6
5a,65bによってエッジを検出し、その注目画素の
エッジ量が予め設定されたしきい値L1より大きければ
文字領域「1」、小さければ写真領域「0」となる第2
の領域データ信号S2が生成され、論理回路35に供給
される。
On the other hand, the image area separation determining sections 34a to 34d respectively set a 5 × 5 pixel window for the corresponding C, M, Y, K image data, and
Second derivative operator 6 having two kinds of bandpass characteristics
An edge is detected based on 5a and 65b. If the edge amount of the pixel of interest is larger than a predetermined threshold value L1, the character area is "1", and if the edge amount is smaller than the predetermined threshold L1, the picture area is "0".
Is generated and supplied to the logic circuit 35.

【0073】次に、論理回路35では、各像域分離判定
部34a〜34dから供給される第2の領域データ信号
S2と、伸長部33から供給される第1の領域データ信
号S1との論理積がとられ、最終的な2ビットの第3の
領域データ信号S3として、トーン補正部28a〜28
dおよびSG部29a〜29dに供給される。
Next, in the logic circuit 35, the logic of the second area data signal S2 supplied from each of the image area separation judging sections 34a to 34d and the first area data signal S1 supplied from the decompression section 33 is used. The products are taken, and the tone correction units 28a to 28a are output as the final two-bit third area data signal S3.
d and SG units 29a to 29d.

【0074】したがって、トーン補正部28a〜28d
およびSG部29a〜29dでは、像域分離判定部34
a〜34dによって得られた第2の領域データ信号S2
が優先的に用いられることになる。すなわち、トーン補
正部28a〜28dでは、第3の領域データ信号S3
(S2)に基づいて、SG部29a〜29dでの200
線スクリーンと400線スクリーンの切り換えに応じ
て、濃度再現特性が補正される。また、SG部29a〜
29dでは、上述した論理回路35から供給される最終
的な第3の領域データ信号S3に応じて、200線スク
リーンもしくは400線スクリーンのどちらかが選択さ
れ、256階調の画像信号が256段階の分解能を有す
るレーザ発振駆動信号に変換されて出力される。
Therefore, the tone correction units 28a to 28d
And in the SG units 29a to 29d, the image area separation determination unit 34
a to 34d of the second area data signal S2
Will be used preferentially. That is, in the tone correction units 28a to 28d, the third area data signal S3
Based on (S2), 200 in the SG units 29a to 29d
The density reproduction characteristic is corrected according to the switching between the line screen and the 400-line screen. Also, the SG units 29a-
In 29d, either the 200-line screen or the 400-line screen is selected according to the final third area data signal S3 supplied from the above-described logic circuit 35, and the image signal of 256 gradations has 256 levels. It is converted into a laser oscillation drive signal having resolution and output.

【0075】前述したように、本実施形態では、入出力
解像度を16dot/mmとしたので、上記像域分離判
定部34a〜34dは16dot/mmの解像度を有す
ることになる。したがって、従来のように、像域分離判
定部30からの第1の領域データ信号S1でトーン補正
部28a〜28dおよびSG部29a〜29dを補正制
御していた場合に比べ(図11(a)参照)、本実施形
態による画像処理装置では、図11(b)に示すよう
に、太文字・ラインの内部エッジにおいて、4dot/
mmの解像度で生じたジャギーをなくすことができる。
As described above, in the present embodiment, since the input / output resolution is 16 dots / mm, the image area separation determination sections 34a to 34d have a resolution of 16 dots / mm. Therefore, as compared with the conventional case where the tone correction units 28a to 28d and the SG units 29a to 29d are corrected and controlled by the first area data signal S1 from the image area separation determination unit 30 (FIG. 11A). 11), in the image processing apparatus according to the present embodiment, as shown in FIG.
The jaggy generated at the resolution of mm can be eliminated.

【0076】さらに、本実施形態において、従来より行
われていた像域分離判定部30による像域分離処理で、
ある程度の分離精度が得られているものとすれば、該像
域分離判定部30による第1の領域データ信号S1によ
って、像域分離判定部34a〜34dで像域分離処理を
行う際に用いられる図6に示すしきい値L1を制御する
ようにすれば、分離精度を向上させることができる。
Further, in the present embodiment, the image area separation processing performed by the image area separation determining section 30 which has been conventionally performed,
If a certain degree of separation accuracy is obtained, the first area data signal S1 from the image area separation determining section 30 is used when the image area separation determining sections 34a to 34d perform image area separation processing. If the threshold L1 shown in FIG. 6 is controlled, the separation accuracy can be improved.

【0077】すなわち、像域分離判定部30による像域
分離処理によって画素が文字であるか写真であるかが高
精度で識別できていれば、像域分離判定部30におい
て、例えば、ある画素が文字と判定された場合には、当
該画素が文字である可能性が高いので、像域分離判定部
34a〜34dにおける上記しきい値L1を低く設定
し、文字と判定しやすくする。一方、像域分離判定部3
0において、例えば、ある画素が写真と判定された場合
には、当該画素が写真である可能性が高いので、像域分
離判定部34a〜34dにおける上記しきい値L1を高
く設定し、写真と判定しやすくする。
That is, if a pixel is a character or a photograph can be identified with high precision by the image area separation processing by the image area separation determination section 30, for example, a certain pixel is If it is determined that the character is a character, the pixel is likely to be a character. Therefore, the threshold value L1 in the image area separation determining units 34a to 34d is set to be low, so that it is easy to determine the character. On the other hand, the image area separation determination unit 3
At 0, for example, when a certain pixel is determined to be a photo, the pixel is likely to be a photo, and thus the threshold L1 in the image area separation determination units 34a to 34d is set to a high value. Make judgment easier.

【0078】これにより、像域分離判定部30による第
1の領域データ信号S1と像域分離判定部34a〜34
dによる第2の領域データ信号S2とを単純に論理演算
して補正するのに比べて、像域分離判定部34a〜34
dにおけるしきい値L1を2通りに設定し、像域分離判
定部30による第1の領域データ信号S1と論理演算し
たのと同等となり、より高精度で像域を識別することが
できる。
Thus, the first area data signal S1 and the image area separation judging sections 34a to 34 by the image area separation judging section 30 are obtained.
d compared with the simple calculation of the second area data signal S2 by the logical operation and the image area separation determination sections 34a to 34
The threshold value L1 for d is set in two ways, which is equivalent to a logical operation performed on the first area data signal S1 by the image area separation determining unit 30, and the image area can be identified with higher accuracy.

【0079】C.変形例 また、本発明による画像処理装置は、図12に示す構成
でも実現できる。図において、本変形例では、伸長後の
画像データに対するトーン補正およびスクリーン制御
を、伸長後の画像データに対して行う像域分離判定部3
4a〜34dにより得られる第2の領域データ信号S2
のみで実施するようにしている。したがって、従来より
用いている像域分離判定部30による第1の領域データ
信号S1を、伸長後の画像データに同期させるために、
記憶しておく必要がなくなるので、圧縮部31、領域メ
モリ32、および伸長部33を設ける必要がなくなり、
大幅に回路を削減することができる。本変形例による画
質レベルは、前述した実施形態でも説明したが、像域分
離判定部30によって、文字/写真領域の双方に最適な
空間周波数処理が施されているため、判別のラチチュー
ドが広くなっているので、図1に示す画像処理装置とほ
ぼ同等の画質を得ることができる。
C. Modifications Further, the image processing apparatus according to the present invention can also be realized by the configuration shown in FIG. In this modification, in this modification, the image area separation determination unit 3 that performs tone correction and screen control on the decompressed image data on the decompressed image data
4a to 34d, the second area data signal S2
Only to be implemented. Therefore, in order to synchronize the first area data signal S1 by the conventionally used image area separation determination unit 30 with the expanded image data,
Since there is no need to store the information, there is no need to provide the compression unit 31, the area memory 32, and the decompression unit 33.
The circuit can be greatly reduced. Although the image quality level according to the present modification has also been described in the above-described embodiment, since the spatial frequency processing optimal for both the character / photograph area is performed by the image area separation determination unit 30, the latitude of the determination is wide. Therefore, it is possible to obtain almost the same image quality as the image processing apparatus shown in FIG.

【0080】なお、上述した実施形態では、画像出力装
置として、周知の電子写真法により記録用紙上にトナー
像(Y,M,C,K)を形成するIOTを用いたが、こ
れに限定されることなく、熱転写方式、インクジェット
方式、昇華方式等のカラー画像を出力装置であってもよ
い。
In the above-described embodiment, an IOT for forming a toner image (Y, M, C, K) on recording paper by a well-known electrophotographic method is used as an image output device. However, the present invention is not limited to this. Alternatively, a color image output device such as a thermal transfer system, an inkjet system, or a sublimation system may be used.

【0081】また、上述した入力される画像データは、
スキャナ等の画像読取装置から供給されるものだけでな
く、記憶媒体に記憶された画像データであっても、他の
端末(コンピュータ)からネットワークを介して供給さ
れる画像データであってもよい。さらに、上記記憶媒体
またはネットワークを介して他の端末から供給される画
像データは、圧縮された画像データであってもよく、こ
の場合、該圧縮された画像データと共に、該圧縮された
画像データに対応する圧縮された像域分離データも供給
されるようにする。したがって、請求項7に記載した入
力手段は、ネットワークを介して画像データを受信する
場合には、ネットワークによるデータ授受を可能にする
ためのインターフェースであり、記憶媒体を介して画像
データを受信する場合には、記憶媒体との間でデータ授
受を可能にするためのドライブおよびインターフェース
に相当する。
The input image data described above is
Not only data supplied from an image reading device such as a scanner but also image data stored in a storage medium or image data supplied from another terminal (computer) via a network may be used. Further, the image data supplied from another terminal via the storage medium or the network may be compressed image data. In this case, together with the compressed image data, the compressed image data The corresponding compressed image area separation data is also provided. Therefore, the input means described in claim 7 is an interface for enabling data transmission and reception via the network when receiving image data via the network, and when receiving image data via the storage medium. Corresponds to a drive and an interface for enabling data exchange with a storage medium.

【0082】また、上述した画像処理システムにおい
て、画像読取装置、画像処理装置、画像出力装置は、一
体であっても、各々、ケーブル等で接続された別体であ
ってもよい。この場合、画像処理装置は、通常のコンピ
ュータであってもよく、上述した実施形態で説明した各
部、請求項で記載した各手段をソフトウエアによって実
現してもよい。したがって、上記プログラムを記憶した
記憶媒体も本発明の概念として把握することができる。
Further, in the above-described image processing system, the image reading device, the image processing device, and the image output device may be integrated or may be separated from each other by a cable or the like. In this case, the image processing apparatus may be an ordinary computer, and each unit described in the above embodiment and each unit described in the claims may be realized by software. Therefore, a storage medium storing the above program can be understood as a concept of the present invention.

【0083】[0083]

【発明の効果】以上、説明したように、この発明によれ
ば、像域分離手段によって、入力された画像データに対
して、文字やラインから構成される2値画像領域と写真
や網点印刷等の中間調画像領域とを識別するための像域
分離データを生成した後、圧縮蓄積手段によって、入力
された画像データおよび像域分離手段によって生成され
た像域分離データを圧縮して蓄積し、次いで、伸長手段
によって、圧縮蓄積手段に蓄積された画像データと像域
分離データとを読み出し伸長した後、属性検出手段によ
って、伸長手段によって伸長された画像データの画像属
性を検出し、次いで、処理決定手段によって、属性検出
手段によって検出された画像属性と伸長手段によって伸
長された像域分離データとに基づいて、伸長された画像
データに対して施すべき画像処理を決定し、そして、画
像処理手段によって、決定された画像処理を伸長された
画像データに対して施すようにしたので、画像メモリの
容量を圧縮処理によって軽減する構成でありながら、文
字/写真が混在した原稿画像が入力された場合でも、双
方に対して適切な画像処理を施すことができ、再現画像
における画質劣化を極力低減させることができる。
As described above, according to the present invention, according to the present invention, a binary image area composed of characters and lines and a photograph and halftone printing are applied to the input image data by the image area separating means. After generating image area separation data for identifying a halftone image area such as, for example, the compression storage means compresses and stores the input image data and the image area separation data generated by the image area separation means. Then, after the image data and the image area separation data stored in the compression storage means are read out and expanded by the expansion means, the attribute detection means detects the image attribute of the image data expanded by the expansion means, The processing determining means performs processing on the expanded image data based on the image attribute detected by the attribute detecting means and the image area separation data expanded by the expanding means. The image processing to be performed is determined, and the determined image processing is performed on the decompressed image data by the image processing means. Even when an original image containing both mixed / photographs is input, appropriate image processing can be performed on both, and image quality degradation in a reproduced image can be reduced as much as possible.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の一実施形態による画像処理装置の構
成を示すブロック図である。
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.

【図2】 実施形態による画像処理装置の画像データを
圧縮する圧縮部25a〜25dの構成を示す概念図であ
る。
FIG. 2 is a conceptual diagram showing a configuration of compression units 25a to 25d for compressing image data of the image processing apparatus according to the embodiment.

【図3】 実施形態による画像処理装置の領域分離判定
部30での領域分離処理の構成を示す概念図である。
FIG. 3 is a conceptual diagram illustrating a configuration of a region separation process in a region separation determination unit 30 of the image processing apparatus according to the embodiment.

【図4】 実施形態による画像処理装置の領域分離判定
部30による色判定処理の構成を示す概念図である。
FIG. 4 is a conceptual diagram illustrating a configuration of a color determination process by an area separation determination unit 30 of the image processing apparatus according to the embodiment.

【図5】 実施形態による画像処理装置の第1の領域デ
ータ信号S1を圧縮する圧縮部の構成を示す概念図であ
る。
FIG. 5 is a conceptual diagram illustrating a configuration of a compression unit that compresses a first area data signal S1 of the image processing apparatus according to the embodiment.

【図6】 本実施形態による画像処理装置の像域分離判
定部34a〜34dの構成を説明するための概念図であ
る。
FIG. 6 is a conceptual diagram for explaining a configuration of image area separation determination units 34a to 34d of the image processing apparatus according to the present embodiment.

【図7】 本実施形態による画像処理装置の像域分離判
定部34a〜34dにおける2次微分オペレータ65a
の空間周波数特性を示す概念図である。
FIG. 7 is a second derivative operator 65a in the image area separation determination units 34a to 34d of the image processing apparatus according to the present embodiment.
FIG. 3 is a conceptual diagram showing the spatial frequency characteristics of FIG.

【図8】 本実施形態による画像処理装置の像域分離判
定部34a〜34dにおける2次微分オペレータ65b
の空間周波数特性を示す概念図である。
FIG. 8 shows a secondary differential operator 65b in the image area separation determination units 34a to 34d of the image processing apparatus according to the present embodiment.
FIG. 3 is a conceptual diagram showing the spatial frequency characteristics of FIG.

【図9】 本実施形態による画像処理装置のトーン補正
部28a〜28dによる補償を説明するための概念図で
ある。
FIG. 9 is a conceptual diagram for explaining compensation by tone correction units 28a to 28d of the image processing apparatus according to the present embodiment.

【図10】 本実施形態による画像処理装置のSG部2
9a〜29dの構成を示すブロック図である。
FIG. 10 is an SG unit 2 of the image processing apparatus according to the present embodiment.
It is a block diagram which shows the structure of 9a-29d.

【図11】 本実施形態による画像処理装置の効果を説
明するための概念図である。
FIG. 11 is a conceptual diagram for describing an effect of the image processing apparatus according to the present embodiment.

【図12】 本発明による一変形例による画像処理装置
の構成を示すブロック図である。
FIG. 12 is a block diagram showing a configuration of an image processing device according to a modification of the present invention.

【図13】 1ドラム方式のデジタルカラー複写機の概
略構成を示す概念図である。
FIG. 13 is a conceptual diagram showing a schematic configuration of a one-drum type digital color copying machine.

【図14】 プリントアウト速度を上げるための機構を
有するカラー複写機(タンデム型)の概略構成を示す概
念図である。
FIG. 14 is a conceptual diagram showing a schematic configuration of a color copying machine (tandem type) having a mechanism for increasing a printout speed.

【図15】 従来のカラー複写機の画像処理装置の構成
を示すブロック図である。
FIG. 15 is a block diagram illustrating a configuration of a conventional image processing apparatus of a color copying machine.

【図16】 カラー複写機における空間フィルタ部24
a〜24dが有する空間周波数特性を示す概念図であ
る。
FIG. 16 shows a spatial filter unit 24 in a color copying machine.
It is a conceptual diagram which shows the spatial frequency characteristic which a-24d has.

【図17】 従来の画像処理装置での問題点を説明する
ための概念図である。
FIG. 17 is a conceptual diagram for describing a problem in a conventional image processing apparatus.

【符号の説明】[Explanation of symbols]

22 色変換/色修正部(色変換手段) 23 下色除去/墨再生部(第1の画像処理手段) 24a〜24d 空間フィルタ部(第1の画像処理手
段、空間フィルタ、フィルタ係数決定手段) 25a〜25d 圧縮部(圧縮蓄積手段) 26a〜26d 画像メモリ(圧縮蓄積手段) 27a〜27d 伸長部(伸長手段) 28a〜28d トーン補正部(画像処理手段、第2の
画像処理手段) 29a〜29d SG部(画像処理手段、第2の画像処
理手段) 30 像域分離判定部(像域分離手段、第1の像域分離
手段) 31 圧縮部(圧縮蓄積手段) 32 領域メモリ(圧縮蓄積手段) 33 伸長部(伸長手段) 34a〜34d 像域分離判定部(属性検出手段、第2
の像域分離手段) S1 第1の領域データ信号(像域分離データ) S2 第2の領域データ信号(画像属性)
22 color conversion / color correction unit (color conversion unit) 23 under color removal / black reproduction unit (first image processing unit) 24a to 24d spatial filter unit (first image processing unit, spatial filter, filter coefficient determination unit) 25a to 25d Compression unit (compression storage unit) 26a to 26d Image memory (compression storage unit) 27a to 27d Decompression unit (decompression unit) 28a to 28d Tone correction unit (image processing unit, second image processing unit) 29a to 29d SG section (image processing means, second image processing means) 30 image area separation determining section (image area separation means, first image area separation means) 31 compression section (compression storage means) 32 area memory (compression storage means) 33 decompression unit (decompression means) 34a to 34d image area separation determination unit (attribute detection means, second
S1 First area data signal (image area separation data) S2 Second area data signal (image attribute)

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平4−356873(JP,A) 特開 平7−212601(JP,A) 特開 平4−10765(JP,A) 特開 平5−199383(JP,A) 特開 平5−30354(JP,A) 特開 平5−191643(JP,A) 特開 平5−191632(JP,A) (58)調査した分野(Int.Cl.7,DB名) H04N 1/40 - 1/409 H04N 1/46 H04N 1/60 ──────────────────────────────────────────────────続 き Continuation of the front page (56) References JP-A-4-356873 (JP, A) JP-A-7-212601 (JP, A) JP-A-4-10765 (JP, A) JP-A-5-205 199383 (JP, A) JP-A-5-30354 (JP, A) JP-A-5-191643 (JP, A) JP-A-5-191632 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) H04N 1/40-1/409 H04N 1/46 H04N 1/60

Claims (21)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力された画像データに対して文字やラ
インから構成される2値画像領域と写真や網点印刷等の
中間調画像領域とを識別するための像域分離データを生
成する像域分離手段と、 前記入力された画像データおよび前記像域分離手段によ
って生成された像域分離データを圧縮して蓄積する圧縮
蓄積手段と、 前記圧縮蓄積手段に蓄積された画像データと像域分離デ
ータとを読み出し伸長する伸長手段と、 前記伸長手段によって伸長された画像データの画像属性
を検出する属性検出手段と、 前記属性検出手段によって検出された画像属性と前記伸
長手段によって伸長された像域分離データとに基づいて
前記伸長手段によって伸長された画像データに対して画
像処理を施す画像処理手段とを具備することを特徴とす
る画像処理装置。
An image for generating image area separation data for identifying a binary image area composed of characters and lines and a halftone image area such as a photograph or halftone printing for input image data. Area separation means; compression storage means for compressing and storing the input image data and image area separation data generated by the image area separation means; image data and image area separation stored in the compression storage means Decompression means for reading and decompressing data; attribute detection means for detecting an image attribute of the image data decompressed by the decompression means; image attributes detected by the attribute detection means; and an image area decompressed by the decompression means. An image processing apparatus comprising: an image processing unit that performs image processing on image data expanded by the expansion unit based on separated data.
【請求項2】 前記属性検出手段は、前記伸長手段によ
って伸長された画像データに対して前記像域分離手段に
よって施される像域分離処理とは異なる様式の像域分離
処理を施すことににより第2の像域分離データを取得
し、該第2の像域分離データを前記画像属性として用い
ることを特徴とする請求項1記載の画像処理装置。
2. The image processing apparatus according to claim 1, wherein the attribute detection unit performs image area separation processing of a different style from image area separation processing performed by the image area separation unit on the image data expanded by the expansion unit. to obtain a second image area separation data, the image processing apparatus according to claim 1, wherein the use of said second image area separation data as the image attribute.
【請求項3】 前記像域分離手段によって像域分離処理
が施された画像データに対して、色空間の変換処理を施
す色変換手段を備え、前記圧縮蓄積手段は、前記色変換
手段によって色変換された画像データを圧縮し、蓄積す
ることを特徴とする請求項1記載の画像処理装置。
3. The image processing apparatus according to claim 1, further comprising: a color conversion unit configured to perform a color space conversion process on the image data that has been subjected to the image area separation processing by the image area separation unit. 2. The image processing apparatus according to claim 1, wherein the converted image data is compressed and stored.
【請求項4】 前記画像処理手段は、前記伸長手段によ
って伸長された画像データに対して、階調再現制御また
は解像度再現制御を行うことを特徴とする請求項1記載
の画像処理装置。
4. The image processing apparatus according to claim 1, wherein the image processing unit performs tone reproduction control or resolution reproduction control on the image data expanded by the expansion unit.
【請求項5】 前記属性検出手段により検出された画像
属性は、エッジ情報であることを特徴とする請求項1記
載の画像処理装置。
5. The image processing apparatus according to claim 1, wherein the image attribute detected by the attribute detection unit is edge information.
【請求項6】 前記属性検出手段は、異なるフィルタ係
数を有する複数の空間フィルタを備え、該複数の空間フ
ィルタによって伸長後の画像データに画像処理を施すこ
とにより、画素毎に該画素がエッジであるか否かを示す
エッジ情報を検出し、該エッジ情報を前記画像属性とす
ることを特徴とする請求項1記載の画像処理装置。
6. The attribute detecting means includes a plurality of spatial filters having different filter coefficients, and performs image processing on the decompressed image data by the plurality of spatial filters, so that each pixel has an edge for each pixel. 2. The image processing apparatus according to claim 1, wherein edge information indicating whether or not there is an image is detected, and the edge information is used as the image attribute.
【請求項7】 圧縮された画像データおよび該圧縮され
た画像データに対応する圧縮された像域分離データを入
力する入力手段と、 前記入力手段によって入力された前記圧縮された画像デ
ータおよび前記圧縮された像域分離データを伸長する伸
長手段と、 前記伸長手段によって伸長された画像データの画像属性
を検出する属性検出手段と、 前記属性検出手段によって検出された画像属性に基づい
て前記伸長された画像データに対して画像処理を施す画
像処理手段とを具備することを特徴とする画像処理装
置。
7. Input means for inputting compressed image data and compressed image area separation data corresponding to the compressed image data; and said compressed image data and said compression input by said input means. Expanding means for expanding the extracted image area separation data, attribute detecting means for detecting an image attribute of the image data expanded by the expanding means, and the image data extracted based on the image attribute detected by the attribute detecting means. An image processing apparatus comprising: an image processing unit that performs image processing on image data.
【請求項8】 前記画像処理手段は、前記伸長手段によ
って伸長された画像データに対して、階調再現制御また
は解像度再現制御を行うことを特徴とする請求項7記載
の画像処理装置。
8. An image processing apparatus according to claim 7, wherein said image processing means performs tone reproduction control or resolution reproduction control on the image data expanded by said expansion means.
【請求項9】 前記属性検出手段により検出された画像
属性は、エッジ情報であることを特徴とする請求項7記
載の画像処理装置。
9. An image processing apparatus according to claim 7, wherein said image attribute detected by said attribute detecting means is edge information.
【請求項10】 前記属性検出手段は、異なるフィルタ
係数を有する複数の空間フィルタを備え、該複数の空間
フィルタによって伸長後の画像データに画像処理を施す
ことにより、画素毎に該画素がエッジであるか否かを示
すエッジ情報を検出し、該エッジ情報を前記画像属性と
することを特徴とする請求項7記載の画像処理装置。
10. The attribute detecting means includes a plurality of spatial filters having different filter coefficients, and performs image processing on the decompressed image data by the plurality of spatial filters, so that each pixel has an edge for each pixel. 8. The image processing apparatus according to claim 7, wherein edge information indicating whether or not there is an image is detected, and the edge information is used as the image attribute.
【請求項11】 入力された画像データに対して文字や
ラインから構成される2値画像領域と写真や網点印刷等
の中間調画像領域とを識別するための像域分離データを
生成する像域分離工程と、 前記入力された画像データおよび前記像域分離手段によ
って生成された像域分離データを圧縮して蓄積する圧縮
蓄積工程と、 前記圧縮蓄積工程によって圧縮された像域分離データお
よび画像データを読み出して伸長する伸長工程と、 前記伸長工程によって伸長された画像データの画像属性
を検出する属性検出工程と、 前記属性工程によって検出された画像属性と前記伸長工
程によって伸長された像域分離データとに基づいて、前
記伸長された画像データに対して施すべき画像処理を決
定する処理決定工程と、 前記処理決定工程によって決定された画像処理を前記伸
長された画像データに対して施す画像処理工程とを有す
ることを特徴とする画像処理方法。
11. An image for generating image area separation data for distinguishing between a binary image area composed of characters and lines and a halftone image area such as a photograph or halftone printing for input image data. An area separation step; a compression accumulation step of compressing and storing the input image data and the image area separation data generated by the image area separation means; an image area separation data and an image compressed by the compression accumulation step A decompression step of reading and decompressing data; an attribute detection step of detecting an image attribute of the image data decompressed by the decompression step; an image attribute detected by the attribute step and an image area separation decompressed by the decompression step A process determining step of determining image processing to be performed on the decompressed image data based on the data, and Image processing method characterized by and an image processing step of performing image processing on the decompressed image data.
【請求項12】 前記属性検出手段工程では、前記伸長
工程によって伸長された画像データに対して、画素単位
で、垂直・水平方向のエッジおよび斜め方向のエッジ量
を抽出し、該エッジ量が所定のしきい値より大である場
合に、エッジが存在することを示す画像属性を生成する
ことを特徴とする請求項11記載の画像処理方法。
12. The attribute detecting means extracts vertical and horizontal edges and diagonal edges of the image data decompressed in the decompression step for each pixel, and determines whether the edge amount is a predetermined value. 12. The image processing method according to claim 11, wherein an image attribute indicating that an edge exists is generated when the value is larger than the threshold value.
【請求項13】 入力された第1の色空間からなる画像
データに対して文字やラインから構成される2値画像領
域と写真や網点印刷等の中間調画像領域とを識別するた
めの第1の像域分離データを生成する第1の像域分離手
段と、 前記第1の像域分離手段によって生成された第1の像域
分離データに基づいて前記入力された画像データに対し
て画像処理を施す第1の画像処理手段と、 前記画像データに対して前記第1の色空間から第2の色
空間へ変換する色変換処理を施す色変換手段と、 前記色変換手段によって色変換が施された第2の色空間
からなる画像データおよび前記第1の像域分離手段によ
って生成された第1の像域分離データを圧縮して蓄積す
る圧縮蓄積手段と、 前記圧縮蓄積手段に蓄積された画像データおよび像域分
離データを伸長する伸長手段と、 前記伸長手段によって伸長された第2の色空間からなる
画像データに対して像域分離処理を施し、エッジの有無
を識別するための第2の像域分離データを生成する第2
の像域分離手段と、 前記第2の像域分離手段によって生成された第2の像域
分離データに基づいて前記伸長手段によって伸長された
第2の色空間からなる画像データに対して画像処理を施
す第2の画像処理手段とを具備することを特徴とする画
像処理装置。
13. An input image data comprising a first color space, a second image area for distinguishing between a binary image area composed of characters and lines and a halftone image area such as a photograph or halftone printing. A first image area separation unit for generating one image area separation data; and an image for the input image data based on the first image area separation data generated by the first image area separation unit. First image processing means for performing processing, color conversion means for performing color conversion processing for converting the image data from the first color space to second color space, and color conversion by the color conversion means. Compression and accumulation means for compressing and accumulating the applied image data composed of the second color space and the first image area separation data generated by the first image area separation means; Image data and image area separation data And performing image area separation processing on the image data composed of the second color space expanded by the expansion means and generating second image area separation data for identifying the presence or absence of an edge. Second
Image processing means for image data comprising a second color space expanded by the expansion means based on the second image area separation data generated by the second image area separation means. An image processing apparatus comprising: a second image processing unit that performs the following.
【請求項14】 前記第2の画像処理手段は、前記伸長
手段によって伸長された第2の色空間からなる画像デー
タに対して、階調再現制御または解像度再現制御を行う
ことを特徴とする請求項13記載の画像処理装置。
14. The image processing apparatus according to claim 1, wherein the second image processing means performs tone reproduction control or resolution reproduction control on the image data composed of the second color space expanded by the expansion means. Item 14. The image processing device according to item 13.
【請求項15】 前記第1の像域分離手段と前記第2の
像域分離手段とは、前記第1の色空間からなる画像デー
タおよび第2の色空間からなる画像データに対して、異
なる様式の像域分離処理を施すことを特徴とする請求項
13記載の画像処理装置。
15. The first image area separation means and the second image area separation means are different from each other with respect to the image data composed of the first color space and the image data composed of the second color space. 14. The image processing apparatus according to claim 13, wherein the image area separation processing is performed in a style.
【請求項16】 前記第1の画像処理手段は、 前記入力された画像データに適用する空間フィルタと、 前記第1の像域分離手段により生成された前記第1の像
域分離データに基づいて、前記空間フィルタのフィルタ
係数を決定するフィルタ係数決定手段とを具備すること
を特徴とする請求項13記載の画像処理装置。
16. The image processing apparatus according to claim 1, wherein the first image processing unit includes: a spatial filter applied to the input image data; and a first image area separation data generated by the first image area separation unit. 14. The image processing apparatus according to claim 13, further comprising: filter coefficient determining means for determining a filter coefficient of the spatial filter.
【請求項17】 前記色変換手段は、デバイス非依存性
の第1の色空間から、デバイス依存性の第2の色空間へ
の色空間の変換を行うことを特徴とする請求項13記載
の画像処理装置。
17. The apparatus according to claim 13, wherein said color conversion means converts a color space from a device-independent first color space to a device-dependent second color space. Image processing device.
【請求項18】 入力された画像データに対して文字や
ラインから構成される2値画像領域と写真や網点印刷等
の中間調画像領域とを識別するための第1の像域分離デ
ータを生成する第1の像域分離手段と、 前記第1の像域分離手段によって生成された第1の像域
分離データに基づいて前記入力された画像データに対し
て画像処理を施す第1の画像処理手段と、 前記第1の画像処理手段によって画像処理が施された画
像データを圧縮して蓄積する圧縮蓄積手段と、 前記圧縮蓄積手段に蓄積された画像データを読み出し伸
長する伸長手段と、 前記伸長手段により伸長された画像データに対して像域
分離処理を施し、エッジの有無を識別するための第2の
像域分離データを生成する第2の像域分離手段と、 前記第2の像域分離手段によって生成された第2の像域
分離データに基づいて前記伸長手段によって伸長された
画像データに対して画像処理を施す第2の画像処理手段
とを具備することを特徴とする画像処理装置。
18. First image area separation data for distinguishing between a binary image area composed of characters and lines and a halftone image area such as a photograph or halftone printing for input image data. First image area separation means for generating, and a first image for performing image processing on the input image data based on the first image area separation data generated by the first image area separation means Processing means; compression and accumulation means for compressing and accumulating image data subjected to image processing by the first image processing means; decompression means for reading and decompressing image data accumulated in the compression and accumulation means; Second image area separation means for performing image area separation processing on the image data expanded by the expansion means to generate second image area separation data for identifying the presence or absence of an edge; Generated by area separation means The image processing apparatus characterized by comprising a second image processing means for performing image processing on the image data expanded by said expansion means based on the second image area separation data.
【請求項19】 前記第2の画像処理手段は、前記伸長
手段によって伸長された画像データに対して、階調再現
制御または解像度再現制御を行うことを特徴とする請求
項18記載の画像処理装置。
19. An image processing apparatus according to claim 18, wherein said second image processing means performs tone reproduction control or resolution reproduction control on the image data expanded by said expansion means. .
【請求項20】 前記第1の像域分離手段と前記第2の
像域分離手段とは、画像データに対して、それぞれ異な
る様式の像域分離処理を施すことを特徴とする請求項1
8記載の画像処理装置。
And 20. wherein the first image area separation means the second image area separation means includes a characterized by applying to the image data, the image area separation processing <br/> Ru manner different respectively Claim 1
9. The image processing apparatus according to 8.
【請求項21】 前記第1の画像処理手段は、 前記入力された画像データに適用する空間フィルタと、 前記第1の像域分離手段により生成された第1の像域分
離データに基づいて、前記空間フィルタのフィルタ係数
を決定するフィルタ係数決定手段とを具備することを特
徴とする請求項18記載の画像処理装置。
21. The first image processing means, comprising: a spatial filter applied to the input image data; and a first image area separation data generated by the first image area separation means. 19. The image processing apparatus according to claim 18, further comprising: a filter coefficient determining unit that determines a filter coefficient of the spatial filter.
JP08000321A 1996-01-05 1996-01-05 Image processing apparatus and image processing method Expired - Fee Related JP3134756B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP08000321A JP3134756B2 (en) 1996-01-05 1996-01-05 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP08000321A JP3134756B2 (en) 1996-01-05 1996-01-05 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JPH09186866A JPH09186866A (en) 1997-07-15
JP3134756B2 true JP3134756B2 (en) 2001-02-13

Family

ID=11470653

Family Applications (1)

Application Number Title Priority Date Filing Date
JP08000321A Expired - Fee Related JP3134756B2 (en) 1996-01-05 1996-01-05 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3134756B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1954023A2 (en) 2007-02-05 2008-08-06 Ricoh Company, Ltd. Image processing apparatus which makes stored image data suitable for use both internally and in an external apparatus
US7433082B2 (en) 2002-12-11 2008-10-07 Ricoh Company, Limited Method of, apparatus for, and computer program for image processing
US8374432B2 (en) 2008-06-30 2013-02-12 Ricoh Company, Limited Image processing apparatus, image forming apparatus, image processing method, and computer program product

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6816618B1 (en) 1998-03-03 2004-11-09 Minolta Co., Ltd. Adaptive variable length image coding apparatus
US7079287B1 (en) * 2000-08-01 2006-07-18 Eastman Kodak Company Edge enhancement of gray level images
JP2002218251A (en) * 2001-01-23 2002-08-02 Canon Inc Image processor, image processing system, image processing method and storage medium
JP2002354268A (en) * 2001-05-30 2002-12-06 Ricoh Co Ltd Image processor
JP2003060906A (en) * 2001-08-21 2003-02-28 Canon Inc Image processor and method therefor
JP2003153006A (en) 2001-11-16 2003-05-23 Ricoh Co Ltd Image processing apparatus
JP2004112603A (en) 2002-09-20 2004-04-08 Ricoh Co Ltd Apparatus and method for image processing, and program to be executed by computer
JP2004228811A (en) 2003-01-21 2004-08-12 Ricoh Co Ltd Image processor, image processing method and program for computer to perform execution
US7623712B2 (en) 2005-06-09 2009-11-24 Canon Kabushiki Kaisha Image processing method and apparatus
JP2007081747A (en) * 2005-09-13 2007-03-29 Ricoh Co Ltd Image processing apparatus
JP2007312013A (en) * 2006-05-17 2007-11-29 Fuji Xerox Co Ltd Image processing apparatus, image forming apparatus, and image processing method
JP4600352B2 (en) 2006-05-25 2010-12-15 富士ゼロックス株式会社 Image processing apparatus, image forming apparatus, and image processing method
JP2007079587A (en) * 2006-10-05 2007-03-29 Sharp Corp Image processor
JP4526577B2 (en) * 2008-04-11 2010-08-18 株式会社リコー Image processing apparatus, image processing system, and image processing method
JP5267422B2 (en) * 2009-10-28 2013-08-21 セイコーエプソン株式会社 Image processing method and program, and image processing apparatus
JP5338630B2 (en) 2009-11-18 2013-11-13 セイコーエプソン株式会社 Image processing method and program, and image processing apparatus

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7433082B2 (en) 2002-12-11 2008-10-07 Ricoh Company, Limited Method of, apparatus for, and computer program for image processing
EP1954023A2 (en) 2007-02-05 2008-08-06 Ricoh Company, Ltd. Image processing apparatus which makes stored image data suitable for use both internally and in an external apparatus
JP2008193409A (en) * 2007-02-05 2008-08-21 Ricoh Co Ltd Image processing apparatus
US8243308B2 (en) 2007-02-05 2012-08-14 Ricoh Company, Ltd. Image processing apparatus for setting image quality mode and processing image data based on supplemental information
US8374432B2 (en) 2008-06-30 2013-02-12 Ricoh Company, Limited Image processing apparatus, image forming apparatus, image processing method, and computer program product

Also Published As

Publication number Publication date
JPH09186866A (en) 1997-07-15

Similar Documents

Publication Publication Date Title
JP3134756B2 (en) Image processing apparatus and image processing method
JP3436828B2 (en) Image processing device
US8606014B2 (en) Image Processing apparatus, extracting foreground pixels for extracted continuous variable density areas according to color information
US8254672B2 (en) Image compressing method, image compressing apparatus and image forming apparatus
US5331442A (en) Identification of graphic and character areas in color image processor
US7148997B2 (en) Image processing apparatus and method
US7199897B2 (en) Image data processing apparatus for and image data processing method of pattern matching
US7376268B2 (en) Image processing apparatus for transmitting image data to an external device
US5165072A (en) Image processing apparatus which detects a line image
US5296939A (en) Image area discriminating system for an image processing apparatus
JPH0793554A (en) Automatic improved image degmentation method for color document
JP2600515B2 (en) Image processing method
US7466453B2 (en) Image processing apparatus
US7365880B2 (en) Image processing apparatus and image processing method
US5844688A (en) Image processing system for converting a color processing command into a control signal using an external controller
JP2004289819A (en) Image forming device and method
US6987587B2 (en) Multiple recognition image processing apparatus
JP3929030B2 (en) Image processing device
JP2005101765A (en) Method and apparatus for processing image, and image forming apparatus
JP2001186356A (en) Picture compression device, picture compresion method and computer readable storage medium
JPH06152945A (en) Image processor
JP2004282240A (en) Image processing apparatus, image processing method, and program executed by computer
JP2010074300A (en) Image processor, image reader and image forming apparatus
JP3079630B2 (en) Image processing device
JPH07307869A (en) Image processing unit

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071201

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081201

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091201

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101201

Year of fee payment: 10

LAPS Cancellation because of no payment of annual fees