JPH08275017A - Image processor and its method - Google Patents

Image processor and its method

Info

Publication number
JPH08275017A
JPH08275017A JP7194983A JP19498395A JPH08275017A JP H08275017 A JPH08275017 A JP H08275017A JP 7194983 A JP7194983 A JP 7194983A JP 19498395 A JP19498395 A JP 19498395A JP H08275017 A JPH08275017 A JP H08275017A
Authority
JP
Japan
Prior art keywords
image
processing
character
signal
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP7194983A
Other languages
Japanese (ja)
Inventor
Yuki Uchida
由紀 内田
Shinobu Arimoto
忍 有本
Takeshi Matsukubo
勇志 松久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP7194983A priority Critical patent/JPH08275017A/en
Publication of JPH08275017A publication Critical patent/JPH08275017A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE: To prevent degradation of image quality by smoothing black color processing for characters and line drawings or the like to an image from a host device. CONSTITUTION: A character thickness discrimination section 114 in a black character discrimination section 113 discriminates the thickness of a character/ line drawing part in an image based on an RGB signal representing the image from a host device. Furthermore, an edge detection section 115 obtains contour information of the character/line drawing part and a saturation discrimination section 116 obtains saturation information, and a thickness discrimination signal is corrected so that the thickness of the characters and lines is continuously changed when image processing is conducted through the combination of the contour information and the saturation information. Furthermore, an underground processing section 1065 is provided to conduct black color processing in response to the under layer.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、入力された画像か
ら抽出した画像の特徴をもとに出力画像の処理をする画
像処理装置及び方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus and method for processing an output image based on the characteristics of the image extracted from the input image.

【0002】[0002]

【従来の技術】近年、カラー画像データをデジタル的に
処理し、それをカラープリンタに出力してカラー画像を
得るカラープリント装置や、カラー原稿を色分解して電
気的に読み取り、得られたカラー画像データを用紙上に
プリントするデジタルカラー複写機等、カラー印字シス
テムの発展にはめざましいものがある。
2. Description of the Related Art In recent years, a color printing apparatus that digitally processes color image data and outputs it to a color printer to obtain a color image, or a color original obtained by color-separating and electrically reading a color original There are remarkable developments in color printing systems such as digital color copying machines that print image data on paper.

【0003】また、これらのシステムの普及に伴い、カ
ラー画像の印字品質に対する要求も高くなってきてお
り、特に黒い文字や黒細線を、より黒く、シャープに印
字したいという要求が高まっている。すなわち、黒原稿
を色分解すると、黒を再現する信号としてイエロー、マ
ゼンタ、シアン、ブラックの各信号が発生するが、得ら
れた信号に基づいてそのまま印字すると、各色が4色重
ね合わせて再現されるので、色相互間の若干のズレによ
り黒の細線に色にじみが生じ、本来の黒が黒く見えなか
ったり、あるいは、ボケて見えたりして、印字品質を著
しく低下させていた。
Further, with the widespread use of these systems, the demands on the print quality of color images are increasing, and in particular, the demand for printing black characters and fine black lines in a blacker and sharper manner is increasing. That is, when a black original is color-separated, each signal of yellow, magenta, cyan, and black is generated as a signal for reproducing black. However, if printing is performed as it is based on the obtained signal, each color is reproduced by superimposing four colors. As a result, a slight misalignment between the colors causes a color blur on the black fine line, and the original black does not look black or looks blurred, which significantly deteriorates the print quality.

【0004】これに対して、画像信号中の黒、それ以外
の色等の色情報や、細線、網点等の空間周波数の特徴を
抽出して、例えば、黒文字、色文字等のエリアを検出し
たり、さらには、中間調画像や網点画像領域等に分け
て、それぞれのエリアに応じた処理を施し、エリアが黒
文字部ならば黒単色化する方法等が提案されている。
On the other hand, color information such as black and other colors in the image signal and characteristics of spatial frequency such as thin lines and halftone dots are extracted to detect areas such as black characters and color characters. Further, there has been proposed a method of dividing into a halftone image area or a halftone dot image area and performing processing according to each area, and if the area is a black character portion, it is made into a black single color.

【0005】さらに、上記の方法を改良し、文字の太さ
を判別して、太さに応じた黒文字処理を施すことによ
り、黒文字処理の境界線において処理に差がくっきりと
出ることを改善した手法も特願平5−354528号公
報において本出願人により提案されている。
Further, by improving the above method and determining the thickness of a character and performing black character processing according to the thickness, it is possible to improve a clear difference in processing at the boundary line of the black character processing. The method is also proposed by the present applicant in Japanese Patent Application No. 5-354528.

【0006】また、ユーザの好みに応じて黒文字処理を
施す領域や、黒文字処理の程度を設定可能にする方法
も、特願平5−354528号公報にて提案されてい
る。
Also, Japanese Patent Application No. 5-354528 proposes a method of setting an area to be subjected to black character processing and a degree of black character processing according to user's preference.

【0007】[0007]

【発明が解決しようとする課題】しかしながら、従来は
ホストから送られてきた画像データに対して上述の様な
黒文字処理を施すことは想定していなかった。そのた
め、コンピュータグラフィックスに対して、ノイズがな
い、エッジが鋭いグレーバランスが良いなどの特徴を持
つ黒文字処理を行うことができなかった。
However, conventionally, it has not been assumed that the above-described black character processing is applied to the image data sent from the host. For this reason, it has not been possible to perform black character processing on computer graphics, which has features such as no noise, sharp edges, and good gray balance.

【0008】本発明は、上述の課題に鑑みてなされたも
ので、その目的とするところは、複数の入力手段から入
力される画像に対して夫々最適な特徴検出処理を行うこ
とである。
The present invention has been made in view of the above problems, and an object of the present invention is to perform optimum feature detection processing on images input from a plurality of input means.

【0009】本発明の別の目的は、ホストからの画像に
対して黒文字処理を施す場合には、ホスト(外部装置)
からの画像処理係数の設定指示が無くても、ホストから
の画像データに対する画像処理に適した係数を設定する
黒文字処理が可能な画像処理装置及び方法を提供するこ
とである。
Another object of the present invention is to provide a host (external device) when performing black character processing on an image from the host.
To provide an image processing device and method capable of performing black character processing for setting a coefficient suitable for image processing on image data from a host even if there is no instruction to set an image processing coefficient from the host.

【0010】更に、本発明の他の目的は、ホストまたは
本体操作部からの指示により、黒文字処理の度合いを変
化させることを可能とする黒文字処理を行うことができ
る画像処理装置及び方法を提供することである。
Further, another object of the present invention is to provide an image processing apparatus and method capable of performing black character processing, which makes it possible to change the degree of black character processing according to an instruction from the host or the main body operation unit. That is.

【0011】また、本発明の他の目的は、ホストからの
画像とスキャナからの原稿画像が混在した場合に、最適
な画像処理を施すことが可能な画像処理装置及び方法を
提供することである。
Another object of the present invention is to provide an image processing apparatus and method capable of performing optimum image processing when an image from a host and an original image from a scanner are mixed. .

【0012】また、本発明の他の目的は、ホストと画像
形成装置との間の高機能のインターフェースを提供する
ことにある。
Another object of the present invention is to provide a highly functional interface between a host and an image forming apparatus.

【0013】また、本発明の他の目的はホストからの画
像の下地処理を良好に制御することにある。
Another object of the present invention is to satisfactorily control the background processing of the image from the host.

【0014】[0014]

【課題を解決するための手段】上記課題を解決するた
め、本願請求項1の発明の画像処理装置は、第1の複数
の色成分信号を入力する第1の入力手段と、第2の複数
の色成分信号を入力する第2の入力手段と、前記第1又
は第2の複数の色成分信号によって表される画像の特定
色の線画部を判定する判定手段と、前記判定手段に、判
定基準を設定する設定手段とを有することを特徴とす
る。
In order to solve the above problems, an image processing apparatus according to the invention of claim 1 of the present application comprises a first input means for inputting a first plurality of color component signals, and a second plurality of input means. Second input means for inputting the color component signal of the above, determination means for determining the line drawing portion of the specific color of the image represented by the first or second plurality of color component signals, and the determination means. And a setting means for setting a reference.

【0015】また、本願の請求項14の発明の画像処理
装置は、外部装置からの情報を受信する受信手段と、該
情報を処理し、画素毎の画像データを発生する処理手段
と、該画像データを画像形成装置へ出力する出力手段
と、該画像データによって表される画像の特徴を前記画
像形成装置で判定するための判定基準を表す信号を発生
する発生手段とを有することを特徴とする。
The image processing apparatus according to the invention of claim 14 of the present application, a receiving means for receiving information from an external device, a processing means for processing the information and generating image data for each pixel, and the image. The image forming apparatus further comprises: an output unit that outputs data to the image forming apparatus; and a generating unit that generates a signal indicating a criterion for determining the characteristic of the image represented by the image data by the image forming apparatus. .

【0016】また、本願の請求項18の発明の画像処理
方法は、所定のパラメータに基づいて特定色の線画を検
出し、該線画に対して所定処理条件による処理を行う画
像形成装置を外部装置により制御する画像処理方法にお
いて、前記画像形成装置における前記パラメータ又は前
記処理条件を前記外部装置により設定可能としたことを
特徴とする。
According to the image processing method of the eighteenth aspect of the present invention, an image forming apparatus that detects a line drawing of a specific color based on a predetermined parameter and performs processing on the line drawing under a predetermined processing condition is an external device. In the image processing method controlled by, the parameter or the processing condition in the image forming apparatus can be set by the external device.

【0017】また、本願の請求項19の発明の画像処理
方法は、入力画像に対して所定の下地処理を行う画像形
成装置を、外部装置により制御する画像処理方法におい
て、前記画像形成装置における前記下地処理のパラメー
タを前記外部装置により設定可能としたことを特徴とす
る。
An image processing method according to a nineteenth aspect of the present invention is an image processing method for controlling an image forming apparatus for performing a predetermined background process on an input image by an external device. It is characterized in that the parameters of the base processing can be set by the external device.

【0018】[0018]

【発明の実施の形態】以下、添付図面を参照して、本発
明に係る好適な実施形態を詳細に説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings.

【0019】(第1の実施例)図1は、本発明の実施例
に係る画像処理装置の断面構成を示す図である。同図に
おいて、符号201はイメージスキャナ部であり、ここ
では、原稿読み取り、デジタル信号処理を行う。また、
200はプリンタ部であり、イメージスキャナ部201
にて読み取られた原稿画像に対して画像を、用紙上にフ
ルカラーでプリント出力する。228はホストコンピュ
ータ(以下「ホスト」という)であり、コンピュータグ
ラフィックスにより作成された画像等を出力したり、後
述の様に、画像形成の制御に関するコマンドを出力す
る。227は、ホスト228とイメージスキャナ部20
1をつなぐためのコントローラであり、ホスト228、
イメージスキャナ201に対して、夫々双方向に通信可
能な状態で接続されている。
(First Embodiment) FIG. 1 is a diagram showing a sectional structure of an image processing apparatus according to an embodiment of the present invention. In the figure, reference numeral 201 denotes an image scanner unit, which performs document reading and digital signal processing here. Also,
A printer unit 200 includes an image scanner unit 201.
An image of the original image read in is printed out on paper in full color. Reference numeral 228 is a host computer (hereinafter referred to as “host”), which outputs an image created by computer graphics and the like, and outputs a command related to image formation control as described later. 227 is a host 228 and an image scanner unit 20.
A host 228, which is a controller for connecting
The image scanners 201 are connected to each other in a bidirectionally communicable state.

【0020】次に、本実施例における原稿モードについ
て説明する。
Next, the document mode in this embodiment will be described.

【0021】操作者は操作部101を用いて、図39に
示す6種類の原稿モードから、複写する原稿に応じて原
稿モードを選択する。それぞれの原稿モードに対する処
理は以下の通りである。
The operator uses the operation unit 101 to select a document mode from the six types of document modes shown in FIG. 39 according to the document to be copied. The processing for each original mode is as follows.

【0022】(i)文字モードでは、記録解像度を40
0dpi(dot per inch)とし、原稿の色
を判別して黒文字と判定された部分に対しては後述のよ
うな黒文字処理を施し、黒以外の領域にはエッジ強調処
理を施す。この処理により、記録解像度を上げることで
細部まで鮮明な文字の再現が可能になり、かつ黒い文字
に対しては黒トナーのみで記録することでさらに色にじ
みの鮮明な黒文字再現が可能になる。
(I) In the character mode, the recording resolution is 40
With 0 dpi (dot per inch), the color of the original is discriminated, and the portion determined to be black is subjected to black character processing, which will be described later, and the area other than black is subjected to edge enhancement processing. By this process, it is possible to reproduce fine characters in detail by increasing the recording resolution, and it is possible to reproduce black characters with clear color blur by recording only black toner for black characters.

【0023】(ii)地図モードでは、エッジ強調処理
を施し、400dpiの記録解像度で記録する。また、
UCRを強くしたマスキングUCR係数を用いる。この
処理によって、細かい文字や線の多い地図原稿に対して
解像度の高い画像再現が可能となる。また後述の領域分
離を行わないために、領域分離の際に生じる誤判定に起
因する品位の劣化が無い出力画像が得られる。更に、U
CRを強くすることで、原稿中に存在する黒文字を色ト
ナーを極力抑えて黒トナーを多くした比率で記録するこ
とが可能になる。
(Ii) In the map mode, edge enhancement processing is performed and recording is performed at a recording resolution of 400 dpi. Also,
A masking UCR coefficient with a stronger UCR is used. By this processing, it is possible to reproduce an image with high resolution for a map document having many fine characters and lines. Further, since the below-described area separation is not performed, an output image can be obtained in which the quality is not deteriorated due to an erroneous determination that occurs during area separation. Furthermore, U
By increasing the CR, it becomes possible to record black characters existing in the original document at a ratio in which the black toner is increased while suppressing the color toner as much as possible.

【0024】(iii)印画紙写真モードでは印画紙写
真用エッジ強調を施し、200dpiの記録解像度で記
録する。この処理により、階調性が高く、かつ画像の鮮
鋭度が強調されためりはりのある画像を出力することが
可能になる。
(Iii) In the photographic paper photograph mode, the edge enhancement for photographic paper photographs is performed and recording is performed at a recording resolution of 200 dpi. By this processing, it is possible to output an image having high gradation and sharpness of the image being emphasized and having a heap.

【0025】(iv)印刷写真モードでは、モアレの発
生を抑制するためにスムージング処理を施した後に、エ
ッジ強調を施し、200dpiの記録解像度で記録す
る。この処理により、モアレを発生させずに、階調性が
高く、かつ画像の鮮鋭度が強調された画像を出力するこ
とが可能になる。
(Iv) In the print photograph mode, smoothing processing is performed to suppress the occurrence of moire, then edge enhancement is performed, and recording is performed at a recording resolution of 200 dpi. By this processing, it is possible to output an image with high gradation and enhanced image sharpness without generating moire.

【0026】(v)文字印刷写真モードでは、文字領域
と印刷写真領域を自動識別し、文字領域と判別された領
域には文字用の処理、印刷写真領域と判別された領域に
は印刷写真用の処理が施される。
(V) In the character print photograph mode, the character area and the print photograph area are automatically identified, and the area determined to be the character area is processed for characters, and the area determined to be the print photograph area is used for the print photograph. Is processed.

【0027】(vi)文字印画紙写真モードでは、文字
領域は印画紙写真領域を自動識別し、文字領域と判別さ
れた領域には文字用の処理、印画紙写真領域と判別され
た領域には印画紙写真用の処理が施される。
(Vi) In the character photographic paper photograph mode, the character area automatically identifies the photographic paper photographic area, the area determined to be the character area is processed for characters, and the area determined to be the photographic paper photograph area is processed. Processing for photographic paper photographs is performed.

【0028】ユーザは、原稿全体に対して図29、図3
9に示される操作部101より上記原稿モードを選択で
きるだけでなく、図40に示す領域指定手段であるデジ
タイザ100を用いて原稿上に複数の原稿モードの領域
を設定することにより、領域毎に異なる原稿モードを設
定することが可能である。以上のモード設定は、CPU
102がLUT117の出力を制御することによって実
現できる。
The user selects the entire document as shown in FIGS.
Not only can the original mode be selected from the operation unit 101 shown in FIG. 9, but a plurality of original mode areas can be set on the original using the digitizer 100 as the area designating means shown in FIG. The original mode can be set. The above mode settings are for the CPU
This can be realized by controlling the output of LUT 117 by 102.

【0029】また、ホスト228からのコマンドによ
り、ホスト228からの画像部分に対して、所定の原稿
モードを設定することも可能である。以上のモード設定
は、CPU102がLUT117の出力を制御すること
によって実現できる。
It is also possible to set a predetermined original mode for the image portion from the host 228 by a command from the host 228. The above mode setting can be realized by the CPU 102 controlling the output of the LUT 117.

【0030】また、ユーザが操作部101よりAE機能
を選択することにより、自動的に原稿画像中の下地の色
を除去することができる。更に下地除去量を手動で入力
することにより、ユーザの希望する下地色を除去するこ
とができる。更に、ホスト228からのコマンドによ
り、ホスト228からの画像に対する下地除去量を指定
することができる。
When the user selects the AE function from the operation unit 101, the background color in the original image can be automatically removed. Further, the background color desired by the user can be removed by manually inputting the background removal amount. Furthermore, the background removal amount for the image from the host 228 can be specified by a command from the host 228.

【0031】次に、ユーザがコピースタートキーを押す
ことにより、コピー動作が開始する。
Then, the user presses the copy start key to start the copy operation.

【0032】イメージスキャナ部201において、原稿
圧板202にて原稿台ガラス(プラテン)203上に載
置された原稿204を、ハロゲンランプ205の光で照
射する。この原稿204からの反射光はミラー206、
207に導かれ、レンズ208により3ラインセンサ
(以下、「CCD」という)210上に像を結ぶ。な
お、レンズ208には、赤外カットフィルタ231が設
けられている。
In the image scanner unit 201, the original 204 placed on the original platen glass (platen) 203 by the original pressing plate 202 is irradiated with the light of the halogen lamp 205. The reflected light from the original 204 is reflected by the mirror 206,
It is guided to 207 and forms an image on a three-line sensor (hereinafter referred to as “CCD”) 210 by a lens 208. An infrared cut filter 231 is provided on the lens 208.

【0033】CCD210は、原稿204からの光情報
を色分解して、それよりフルカラー情報のレッド
(R)、グリーン(G)、ブルー(B)成分を読み取っ
た後、信号処理部209に送る。CCD210の各色成
分読み取りセンサ列は、各々が5000画素から構成さ
れている。これにより、原稿台ガラス203上に載置さ
れる原稿の中で最大サイズである、A3サイズの原稿の
短手方向297mmを、400dpiの解像度で読み取
る。
The CCD 210 color-separates the light information from the original 204, reads the red (R), green (G), and blue (B) components of the full-color information from the color separation, and then sends it to the signal processing unit 209. Each color component reading sensor array of the CCD 210 is composed of 5000 pixels. As a result, 297 mm in the lateral direction of the A3 size document, which is the largest size of the documents placed on the platen glass 203, is read at a resolution of 400 dpi.

【0034】なお、ハロゲンランプ205、ミラー20
6は速度vで、また、ミラー207は(1/2)vで、
ラインセンサ210の電気的な走査方向(以下、主走査
方向という)に対して垂直方向(以下、副走査方向とい
う)に機械的に動くことにより、原稿204の全面を走
査する。
The halogen lamp 205 and the mirror 20
6 is the velocity v, and the mirror 207 is (1/2) v,
The entire surface of the original 204 is scanned by mechanically moving in a direction (hereinafter, referred to as a sub-scanning direction) perpendicular to an electric scanning direction (hereinafter, referred to as a main scanning direction) of the line sensor 210.

【0035】標準白色板211は、R、G、Bセンサ2
10−1〜210−3で読み取りデータの補正データを
発生する。この標準白色板211は、可視光でほぼ均一
の反射特性を示し、可視では、白色の色を有している。
ここでは、この標準白色板211を用いて、R、G、B
センサ210−1〜210−3からの出力データの補正
を行う。
The standard white plate 211 is used for the R, G, B sensors 2
Correction data for the read data is generated at 10-1 to 210-3. The standard white plate 211 exhibits a substantially uniform reflection characteristic with visible light, and has a white color in the visible.
Here, using this standard white plate 211, R, G, B
The output data from the sensors 210-1 to 210-3 are corrected.

【0036】また、画像信号処理部209は、CCD2
01により読み取られた信号と、コントローラ227を
介してホスト228から送られた画像信号とを切り替え
るとともに、夫々を電気的に処理し、マゼンタ(M)、
シアン(C)、イエロー(Y)、ブラック(Bk)の各
成分に分解して、それをプリンタ部200に送る。ま
た、イメージスキャナ部201における1回の原稿走査
(スキャン)につき、M、C、Y、Bkの内、1つの成
分がプリンタ部200に送られ(面順次画像形成)、計
4回の原稿走査により1枚分のプリントアウトが完成す
る。
Further, the image signal processing unit 209 is composed of the CCD 2
The signal read by 01 and the image signal sent from the host 228 via the controller 227 are switched and each is electrically processed to generate a magenta (M),
It decomposes into cyan (C), yellow (Y), and black (Bk) components and sends them to the printer unit 200. Further, one component of M, C, Y, and Bk is sent to the printer unit 200 (field-sequential image formation) per one document scanning (scan) in the image scanner unit 201, and a total of four document scanning is performed. This completes the printout for one sheet.

【0037】コントローラ227は、イメージスキャナ
部201からの同期信号に基づいてプリンタ部200で
の画像形成タイミングに合わせてRGBの画像信号を供
給する。
The controller 227 supplies RGB image signals in accordance with the image forming timing in the printer unit 200 based on the synchronization signal from the image scanner unit 201.

【0038】プリンタ部200では、画像処理された
M、C、Y、Bkの各画像信号がレーザドライバ212
に送られる。レーザドライバ212は、画信号に応じて
半導体レーザ213を変調駆動する。そして、レーザ光
は、ポリゴンミラー214、f−θレンズ215、ミラ
ー216を介して、感光ドラム217上を走査する。
In the printer section 200, the image-processed M, C, Y, and Bk image signals are output to the laser driver 212.
Sent to The laser driver 212 modulates and drives the semiconductor laser 213 according to the image signal. Then, the laser light scans the photosensitive drum 217 via the polygon mirror 214, the f-θ lens 215, and the mirror 216.

【0039】現像器は、マゼンタ現像器219、シアン
現像器220、イエロー現像器221、ブラック現像器
222により構成され、これら4つの現像器が交互に感
光ドラム217に接して、感光ドラム217上に形成さ
れたM、C、Y、Bkの静電潜像を、対応するトナーで
現像する。また、転写ドラム223は、用紙カセット2
24、または用紙カセット225より給紙された用紙を
転写ドラム223に巻き付け、感光ドラム217上に現
像されたトナー像を用紙に転写する。
The developing device is composed of a magenta developing device 219, a cyan developing device 220, a yellow developing device 221, and a black developing device 222, and these four developing devices are alternately in contact with the photosensitive drum 217 so that the developing device is placed on the photosensitive drum 217. The formed M, C, Y, and Bk electrostatic latent images are developed with corresponding toners. In addition, the transfer drum 223 is the paper cassette 2
24, or the paper fed from the paper cassette 225 is wound around the transfer drum 223, and the toner image developed on the photosensitive drum 217 is transferred onto the paper.

【0040】このようにして、M、C、Y、Bkの4色
についてのトナー像が順次、転写された後、用紙は、定
着ユニット226を通過して排紙される。
In this way, the toner images for the four colors M, C, Y, and Bk are sequentially transferred, and then the sheet passes through the fixing unit 226 and is ejected.

【0041】次に、本実施例にかかるイメージスキャナ
部201について詳細に説明する。
Next, the image scanner unit 201 according to this embodiment will be described in detail.

【0042】図2は、CCD210の外観構成を示す図
である。同図において、210−1は赤色光(R)を読
み取るための受光素子列(フォトセンサ)であり、21
0−2、210−3は、順に、緑色光(G)、青色光
(B)の波長成分を読み取るための受光素子列である。
これらR、G、Bの各センサ210−1〜210−3
は、主走査方向、副走査方向に10μmの開口をもつ。
FIG. 2 is a diagram showing the external structure of the CCD 210. In the figure, 210-1 is a light receiving element array (photosensor) for reading red light (R),
Reference numerals 0-2 and 210-3 denote light receiving element arrays for reading the wavelength components of the green light (G) and the blue light (B), respectively.
These R, G, B sensors 210-1 to 210-3
Has an opening of 10 μm in the main scanning direction and the sub scanning direction.

【0043】上記の3本の異なる光学特性を持つ受光素
子列は、R、G、Bの各センサが原稿の同一ラインを読
み取るべく、互いに平行に配置されるように、同一のシ
リコンチップ上においてモノリシック構造をとる。そし
て、このような構成のCCDを用いることで、各色分解
読み取りでのレンズ等の光学系を共通にし、これによ
り、R、G、Bの色毎の光学調整を簡潔にすることが可
能となる。
The above three light-receiving element arrays having different optical characteristics are arranged on the same silicon chip so that the R, G and B sensors are arranged in parallel with each other so as to read the same line of the original. Takes a monolithic structure. Further, by using the CCD having such a configuration, the optical system such as a lens is shared in each color separation reading, and thereby it is possible to simplify the optical adjustment for each color of R, G, and B. .

【0044】図3は、図2に示す点線a−a′にてイメ
ージスキャナ部201を切断したときの断面図である。
同図に示すように、シリコン基板210−5上にR色読
み取り用のフォトセンサ210−1と、G、B各々の可
視情報を読み取るフォトセンサ210−2、210−3
が配置されている。
FIG. 3 is a sectional view of the image scanner unit 201 taken along the dotted line aa 'shown in FIG.
As shown in the figure, a photosensor 210-1 for reading R color and photosensors 210-2, 210-3 for reading visible information of G and B are provided on a silicon substrate 210-5.
Is arranged.

【0045】R色のフォトセンサ210−1上には、可
視光の内、R色の波長成分を透過するRフィルタ210
−7が配置される。同様に、G色のフォトセンサ210
−2上にはGフィルタ210−8が、また、B色のフォ
トセンサ210−3上にはBフィルタ210−9が配置
されている。なお、210−6は、透明有機膜で構成さ
れた平坦化層である。
On the R color photosensor 210-1, an R filter 210 which transmits the R color wavelength component of visible light is transmitted.
-7 is placed. Similarly, the G color photo sensor 210
-2, the G filter 210-8 is arranged, and the B color photosensor 210-3 is arranged on the B filter 210-9. Incidentally, 210-6 is a flattening layer made of a transparent organic film.

【0046】図4は、図2において符号Bにて示される
受光素子の拡大図である。上記の各センサは、図4に示
すように、主走査方向に一画素当たり10μmの長さを
持つ。各センサは、上述のようにA3サイズの原稿の短
手方向(長さ297mm)を400dpiの解像度で読
み取ることができるように、主走査方向に5000画素
を有する。また、R、G、Bの各センサのライン間の距
離は80μmであり、400dpiの副走査方向の解像
度に対して、各8ラインずつ離れている。
FIG. 4 is an enlarged view of the light receiving element indicated by reference numeral B in FIG. As shown in FIG. 4, each sensor has a length of 10 μm per pixel in the main scanning direction. Each sensor has 5000 pixels in the main scanning direction so that the A3 size document can be read in the lateral direction (length 297 mm) at a resolution of 400 dpi as described above. The distance between the lines of the R, G, and B sensors is 80 μm, and each line is separated by 8 lines for a resolution of 400 dpi in the sub-scanning direction.

【0047】次に、本実施例に係る画像処理装置のプリ
ンタ部での濃度再現法について説明する。
Next, the density reproduction method in the printer section of the image processing apparatus according to this embodiment will be described.

【0048】本実施例では、プリンタの濃度再現のため
に、従来より良く知られているPWM(パルス幅変調)
方式により、半導体レーザ213の点灯時間を画像濃度
信号に応じて制御する。これにより、レーザの点灯時間
に応じた電位の静電潜像が感光ドラム217上に形成さ
れる。そして、現像器219〜222で、静電潜像の電
位に応じた量のトナーで潜像を現像することにより、濃
度再現が行われる。
In the present embodiment, in order to reproduce the density of the printer, PWM (pulse width modulation), which is well known in the related art, is used.
The method controls the lighting time of the semiconductor laser 213 according to the image density signal. As a result, an electrostatic latent image having a potential according to the laser lighting time is formed on the photosensitive drum 217. Then, the developing units 219 to 222 develop the latent image with toner in an amount corresponding to the potential of the electrostatic latent image, thereby reproducing the density.

【0049】図5は、本実施例に係るプリンタ部での濃
度再現の制御動作を示すタイミングチャートである。符
号10201はプリンタ画素クロックであり、これは4
00dpi(dot per inch)の解像度に相
当する。なお、このクロックはレーザドライバ212で
作られる。また、プリンタ画素クロック10201に同
期して、400線(line per inch)の三
角波10202が作られる。なお、この400線の三角
波10202の周期は、画素クロック10201の周期
と同じである。
FIG. 5 is a timing chart showing the control operation of the density reproduction in the printer section according to this embodiment. Reference numeral 10201 is a printer pixel clock, which is 4
This corresponds to a resolution of 00 dpi (dot per inch). The clock is generated by the laser driver 212. Also, a 400-line (line per inch) triangular wave 10202 is generated in synchronization with the printer pixel clock 10201. The cycle of the triangular wave 10202 of 400 lines is the same as the cycle of the pixel clock 10201.

【0050】画像信号処理部209から送られる、40
0dpiの解像度で256階調(8bit)のM、C、
Y、Bkの画像データ、及び200線/400線切り換
え信号が、上記のCLOCK信号に同期して伝送される
が、レーザドライバ212で、不図示のFIFOメモリ
によりプリンタ画素クロック10201に同期合わせが
行われる。この8bitのデジタル画像データは、D/
A変換器(不図示)によりアナログ画像信号10203
に変換される。そして、上述の400線三角波1020
2とアナログ的に比較され、その結果、400線のPW
M出力10204が生成される。
40 sent from the image signal processing unit 209
256 gradations (8 bits) of M, C, with 0 dpi resolution
The Y and Bk image data and the 200-line / 400-line switching signal are transmitted in synchronization with the CLOCK signal, but the laser driver 212 synchronizes with the printer pixel clock 10201 by a FIFO memory (not shown). Be seen. This 8-bit digital image data is D /
An analog image signal 10203 by an A converter (not shown)
Is converted to. Then, the above 400-line triangular wave 1020
Analogly compared with 2, and as a result, 400-wire PW
M output 10204 is generated.

【0051】デジタル画素データは00H(Hは、16
進を示す)からFFHまで変化し、400線PWM出力
10204は、これらの値に応じたパルス幅となる。ま
た、400線PWM出力の一周期は、感光ドラム上では
63.5μmになる。
Digital pixel data is 00H (H is 16
From 400) to FFH, and the 400-line PWM output 10204 has a pulse width corresponding to these values. Further, one cycle of 400-line PWM output is 63.5 μm on the photosensitive drum.

【0052】レーザドライバ212では、400線の三
角波の他に、プリンタ画素クロック10201に同期し
て、その倍の周期の200線の三角波10205も作
る。そして、この200線の三角波10205と400
dpiのアナログ画像信号10203とを比較すること
により、200線のPWM出力信号10206を生成す
る。200線のPWM出力信号10206は、図5に示
すように、127μmの周期で感光ドラム上に潜像を形
成する。
In addition to the 400-line triangular wave, the laser driver 212 also produces a 200-line triangular wave 10205 having a period twice that in synchronization with the printer pixel clock 10201. Then, the 200-line triangular waves 10205 and 400
A 200-line PWM output signal 10206 is generated by comparing with the analog image signal 10203 of dpi. The 200-line PWM output signal 10206 forms a latent image on the photosensitive drum at a period of 127 μm, as shown in FIG.

【0053】200線での濃度再現と400線での濃度
再現では、200線の方が濃度再現のための最小単位が
127μmと400線の2倍であるため、階調再現性が
良い。しかし、解像度の点では、63.5μm単位で濃
度を再現する400線の方が、高解像度な画像記録に適
している。このように、200線のPWM記録は階調再
現に適しており、400線のPWM記録は解像度の点で
優れているため、画像の性質によって200線のPWM
と400線のPWMの切換えを行うようにしている。
In the density reproduction with 200 lines and the density reproduction with 400 lines, the minimum unit for density reproduction of 200 lines is 127 μm, which is twice as large as that of 400 lines, and therefore gradation reproducibility is good. However, in terms of resolution, 400 lines that reproduce the density in units of 63.5 μm are more suitable for high-resolution image recording. As described above, the 200-line PWM recording is suitable for gradation reproduction, and the 400-line PWM recording is superior in terms of resolution.
And 400 lines of PWM are switched.

【0054】上記の切換えを行うための信号が、図5に
示す200線/400線切り換え信号10207であ
り、画像信号処理部209から、400dpiの画像信
号に同期して画素単位レーザドライバ212に入力され
る。この200線/400線切り換え信号論理Low
(以下、Lレベルという)の場合には、400線のPW
M出力が選択され、それが論理High(以下、Hレベ
ルという)の場合には、200線のPWM出力が選択さ
れる。
The signal for performing the above switching is the 200-line / 400-line switching signal 10207 shown in FIG. 5, which is input from the image signal processing section 209 to the pixel unit laser driver 212 in synchronization with the 400 dpi image signal. To be done. This 200 line / 400 line switching signal logic low
In the case of (hereinafter referred to as L level), PW of 400 lines
When the M output is selected and it is a logic high (hereinafter, referred to as H level), the PWM output of 200 lines is selected.

【0055】次に、画像信号処理部209について説明
する。
Next, the image signal processing unit 209 will be described.

【0056】図6は、本実施例に係るイメージスキャナ
部201の画像信号処理部209における画像信号の流
れを示すブロック図である。
FIG. 6 is a block diagram showing the flow of image signals in the image signal processing section 209 of the image scanner section 201 according to this embodiment.

【0057】イメージスキャナ部201と、コントロー
ラ227との間はRGBの画像信号を伝送する伝送線2
29〜231とコマンドデータやタイミング信号を伝送
する伝送線232で接続されている。また、ホスト22
8とコントローラ227との間は、SCSIやGPIB
などのインターフェース233により接続されている。
ホスト228からのコマンドは、コントローラ227を
介して、CPU102に伝送される。
A transmission line 2 for transmitting RGB image signals between the image scanner unit 201 and the controller 227.
29 to 231 are connected by a transmission line 232 that transmits command data and timing signals. Also, the host 22
8 and the controller 227, SCSI and GPIB
Are connected by the interface 233.
The command from the host 228 is transmitted to the CPU 102 via the controller 227.

【0058】また、同図に示すように、CCD210よ
り出力される画像信号は、アナログ信号処理部101に
入力され、そこでゲイン調整、オフセット調整をされた
後、A/Dコンバータ102で、各色信号毎に8bit
のデジタル画像信号R1、G1、B1に変換される。そ
の後、シェーディング補正部103に入力され、色毎に
標準色板211の読み取り信号を用いた公知のシェーデ
ィング補正が施される。
Further, as shown in the figure, the image signal output from the CCD 210 is input to the analog signal processing unit 101, where gain adjustment and offset adjustment are performed, and then the A / D converter 102 is used to output each color signal. 8 bits each
Are converted into digital image signals R1, G1 and B1. Then, the shading correction unit 103 inputs the known shading correction using the read signal of the standard color plate 211 for each color.

【0059】クロック発生部121は、1画素単位のク
ロックを発生する。また、主走査アドレスカウンタ12
2では、クロック発生部121からのクロックを計数
し、1ラインの画素アドレス出力を生成する。そして、
デコーダ123は、主走査アドレスカウンタ122から
の主走査アドレスをデコードして、シフトパルスやリセ
ットパルス等のライン単位のCCD駆動信号や、CCD
からの1ライン読み取り信号中の有効領域を表すVE信
号、ライン同期信号HSYNCを生成する。なお、主走
査アドレスカウンタ122はHSYNC信号でクリアさ
れ、次のラインの主走査アドレスの計数を開始する。
The clock generator 121 generates a clock for each pixel. In addition, the main scanning address counter 12
In 2, the clock from the clock generator 121 is counted to generate a pixel address output for one line. And
The decoder 123 decodes the main scanning address from the main scanning address counter 122 to obtain a CCD driving signal for each line such as a shift pulse and a reset pulse, and a CCD.
The VE signal and the line synchronization signal HSYNC which represent the effective area in the 1-line read signal from are generated. The main scanning address counter 122 is cleared by the HSYNC signal and starts counting the main scanning address of the next line.

【0060】図2に示すように、CCD210の受光部
210−1、210−2、210−3は、相互に所定の
距離を隔てて配置されているため、図6のラインディレ
イ回路104、105において、副走査方向の空間的ず
れを補正する。具体的には、B信号に対して副走査方向
で、R、Gの各信号を副走査方向にライン遅延させてB
信号に合わせる。
As shown in FIG. 2, since the light receiving portions 210-1, 210-2, 210-3 of the CCD 210 are arranged at a predetermined distance from each other, the line delay circuits 104, 105 shown in FIG. At, the spatial deviation in the sub-scanning direction is corrected. Specifically, the R and G signals are line-delayed in the sub-scanning direction with respect to the B signal in the sub-scanning direction.
Match the signal.

【0061】入力マスキング部106は、CCD210
のR、G、Bのフィルタ210−7、210−8、21
0−9の分光特性で決まる読み取り色空間を、NTSC
の標準空間に変換する部分であり、次式のようなマトリ
ックス演算を行う。
The input masking section 106 has a CCD 210.
R, G, B filters 210-7, 210-8, 21
The read color space determined by the spectral characteristics of 0-9
Is a part to be converted into the standard space of, and the matrix operation as follows is performed.

【0062】[0062]

【外1】 [Outside 1]

【0063】画像信号切り換え部1064では、ホスト
228から送られる制御信号に基づいて、イメージスキ
ャナ部から来る信号R4、G4、B4(スキャナ画像を
表す)と、コントローラ227を介して入力されるホス
ト228から送られた画像信号Rif、Gif、Bif
ホスト画像を表すとを切り替える。
In the image signal switching unit 1064, based on the control signal sent from the host 228, the signals R4, G4, B4 (representing a scanner image) coming from the image scanner unit and the host 228 inputted via the controller 227. Image signals sent from Rif, Gif, Bif
Switch between representing the host image.

【0064】下地処理部1065では、画像信号R4
0,G40,B40の下地成分の検出及び除去を行う。
図43に下地処理部の構成を示す。
In the background processing section 1065, the image signal R4
The background components of 0, G40 and B40 are detected and removed.
FIG. 43 shows the structure of the base processing section.

【0065】図43において、下地レベル検出部400
1では、操作部101より下地を除去するAEモード信
号が入力されると、まずイメージスキャナ部201によ
るプレスキャン時に原稿画像をサンプリングして、R4
0,G40、B40信号それぞれの濃度ヒストグラムを
作成する。
In FIG. 43, the background level detecting section 400
In No. 1, when the AE mode signal for removing the background is input from the operation unit 101, first, the original image is sampled during the prescan by the image scanner unit 201, and R4
A density histogram for each of the 0, G40, and B40 signals is created.

【0066】次に得られたヒストグラムより、所定の値
α以上の信号値であり、かつ所定の割合より多くの度数
をもつ信号レベルのうち、最もレベルの高い値をそれぞ
れ求め、Rb,Gb,Bbとする。Rbを求めるヒスト
グラムの例を図44に示す。
Next, from the obtained histograms, among the signal levels having the signal value of the predetermined value α or more and the frequency higher than the predetermined ratio, the highest level values are respectively obtained, and Rb, Gb, Bb. FIG. 44 shows an example of a histogram for obtaining Rb.

【0067】次に、下地レベル検出部4001で得られ
た下地レベル信号Rb,Gb,Bbは次式で変換され、
Re,Ge,Beとして下地除去部4002に入力され
る。
Next, the background level signals Rb, Gb, Bb obtained by the background level detecting section 4001 are converted by the following equation,
The Re, Ge, and Be are input to the base removal unit 4002.

【0068】式 Re=(255−Rb)*255*255/(RbGb
Bb) Ge=(255−Gb)*255*255/(RbGb
Bb) Be=(255−Bb)*255*255/(RbGb
Bb)
Formula Re = (255-Rb) * 255 * 255 / (RbGb
Bb) Ge = (255-Gb) * 255 * 255 / (RbGb
Bb) Be = (255-Bb) * 255 * 255 / (RbGb
Bb)

【0069】下地除去部4002では、次式で求められ
る演算処理を行い、下地成分を除去し、R5,G5,B
5を出力する。演算に必要なRe,Ge,Beは、プレ
スキャン時に下地レベル検出部4001から入力され
る。
The background removing section 4002 removes the background component by performing the arithmetic processing obtained by the following equation, and R5, G5, B
5 is output. Re, Ge, and Be necessary for the calculation are input from the background level detecting unit 4001 during the prescan.

【0070】[0070]

【外2】 [Outside 2]

【0071】また、操作部101において、ユーザが手
動による下地レベル調整キーを入力すると、調整レベル
信号が下地レベル検出部4001に入力される。下地レ
ベル検出部4001では、入力されたそれぞれのレベル
に対してあらかじめ用意している値をRe,Ge,Be
として4002に出力する。
When the user manually inputs the background level adjusting key on the operation unit 101, an adjustment level signal is input to the background level detecting unit 4001. In the background level detecting unit 4001, the values prepared in advance for the respective input levels are used as Re, Ge, Be.
Is output to 4002.

【0072】ここで、下地レベル検出部4001の検出
処理動作は、CPU102のプログラムに基づく演算に
よりソフト上で行うことも可能である。
Here, the detection processing operation of the background level detecting section 4001 can be performed by software by calculation based on the program of the CPU 102.

【0073】ホスト228からの画像に対して下地除去
処理を施したくない場合には、ホスト228から下地除
去OFF(AEモード解除)コマンドを送ることによ
り、下地除去処理をキャンセルする。
If the background removal processing is not desired to be performed on the image from the host 228, the background removal OFF (AE mode release) command is sent from the host 228 to cancel the background removal processing.

【0074】一方、ホスト228からの画像に対して下
地除去処理を行いたい場合には、ホスト228からAE
コマンドを送る。コマンドが送られると、まず上述のプ
レスキャンに相当する画像信号をホスト228から送
り、下地処理部1065で下地レベル信号Rb,Gb,
BbおよびRe,Ge,Beを求める。次にホスト22
8からの画像信号の送信により、ホスト228からの画
像信号に対するAE処理が施された画像処理が行われ
る。更に、ホスト228から下地レベル調整コマンドを
送ることにより、手動によるホスト228からの画像に
対する下地除去処理の調整が実現する。
On the other hand, when it is desired to perform the background removal processing on the image from the host 228, the AE is sent from the host 228.
Send a command. When the command is sent, first, the image signal corresponding to the above prescan is sent from the host 228, and the background processing unit 1065 causes the background level signals Rb, Gb, and
Bb and Re, Ge, Be are calculated. Next host 22
By the transmission of the image signal from 8, the image signal from the host 228 is subjected to the AE processing and the image processing is performed. Furthermore, by sending a background level adjustment command from the host 228, manual adjustment of the background removal processing for the image from the host 228 is realized.

【0075】ホスト228からの画像に対して下地除去
処理を行うか否かは、例えば、ホスト画像がドキュメン
トかピクトリアルかによって、コントローラ227が自
動的に判定してあるいはホスト228においてマニュア
ルで選択すればよい。
Whether the background removal processing is performed on the image from the host 228 is automatically determined by the controller 227 or manually selected by the host 228 depending on whether the host image is a document or a pictorial image. Good.

【0076】また、スキャナ画像とホスト画像とを1画
面内に合成する場合には、スキャナ画像に対して本体側
でAEモードがONされていても、ホスト228からの
コマンドにより自動的にAEモードを解除する。
Further, when the scanner image and the host image are combined in one screen, even if the AE mode is turned on for the scanner image on the main body side, the AE mode is automatically set by the command from the host 228. To cancel.

【0077】但し、ホスト画像がドキュメントの場合に
は、AEモード解除を行わないようにすることもでき
る。その場合には、ホスト画像に対して上述の様なプレ
スキャンに相当する動作を行い、スキャナ画像に対して
も下地検出を行い、領域に各画像に対して夫々異なるパ
ラメータにより下地除去を行うようにしてもよい。
However, when the host image is a document, it is possible not to cancel the AE mode. In that case, an operation corresponding to the above-described prescan is performed on the host image, background detection is also performed on the scanner image, and background removal is performed on the area with different parameters for each image. You may

【0078】合成の際の合成領域の指定は、ホスト22
8側から行うことも、また、図40のデジタイザー10
0により行うこともできる。
The host 22 specifies the composition area during composition.
8 can also be performed from the digitizer 10 shown in FIG.
It is also possible to carry out with 0.

【0079】光量/濃度変換部(LOG変換部)107
はルックアップテーブルROMにより構成され、R5,
G5,B5の輝度信号がC0,M0,Y0の濃度信号に
変換される。ライン遅延メモリ108は、後述する黒文
字判定部113で、R5,G5,B5信号から生成され
るUCR,FILTER,SEN等の判定信号までのラ
イン遅延分だけ、C0,M0,Y0の画像信号を遅延さ
せる。その結果、同一画素に対するC1,M1,Y1の
画像信号と黒文字判定信号のうちのUCRはマスキング
UCR回路109に同時に入力される。
Light amount / density converter (LOG converter) 107
Is a lookup table ROM, and R5
The luminance signals of G5 and B5 are converted into density signals of C0, M0 and Y0. The line delay memory 108 delays the image signals of C0, M0, and Y0 by the line delay from the R5, G5, and B5 signals to the generated determination signals such as UCR, FILTER, and SEN in the black character determination unit 113 described later. Let As a result, the C1, M1, and Y1 image signals for the same pixel and the UCR of the black character determination signal are simultaneously input to the masking UCR circuit 109.

【0080】マスキング及びUCR回路109は、入力
されたY1,M1,C1の3原色信号により黒信号(B
k)を抽出し、更に、プリンタ212での記録色材の色
濁りを補正する演算を施して、Y2,M2,C2,Bk
2の信号をイメージスキャナ部201による各読み取り
動作の度に面順次に、所定ビット数(8bit)で出力
する。本実施例においては、このような、面順次での画
像形成を行うプリンタを用いているので、ホスト228
からの画像は、コントローラがプリンタ212の画像形
成に合わせて、同一の画像データを複数回出力する。
The masking and UCR circuit 109 receives the black signal (B) by the input three primary color signals of Y1, M1 and C1.
k) is extracted, and the calculation for correcting the color turbidity of the recording color material in the printer 212 is performed to obtain Y2, M2, C2, Bk.
The signal No. 2 is output in a predetermined number of bits (8 bits) frame-sequentially for each reading operation by the image scanner unit 201. In the present embodiment, since the printer for performing the image formation in the frame sequential manner is used, the host 228 is used.
The same image data is output a plurality of times by the controller in accordance with the image formation of the printer 212.

【0081】主走査変倍回路110は、公知の補間演算
により画像信号及び黒文字判定信号の主走査方向の拡大
縮小処理を行う。また、空間フィルタ処理部(出力フィ
ルタ)111は、後述するように、LUT117からの
2bitのFILTER信号に基づいて、エッジ強調、
スムージング処理の切り換えを行う。
The main-scanning scaling circuit 110 performs enlargement / reduction processing of the image signal and the black character determination signal in the main-scanning direction by a known interpolation calculation. Further, the spatial filter processing unit (output filter) 111, as described later, based on the 2-bit FILTER signal from the LUT 117, edge enhancement,
Switches smoothing processing.

【0082】このように処理されたM4,C4,Y4,
Bk4の面順次の画像信号と、200線/400線の切
り換え信号であるSEN信号は、上記のレーザドライバ
212に送られ、プリンタ部200でPWMによる濃度
記録が行われる。
M4, C4, Y4 thus treated
The frame-sequential image signal of Bk4 and the SEN signal which is a switching signal of 200 lines / 400 lines are sent to the laser driver 212, and the printer unit 200 performs density recording by PWM.

【0083】図7は、図6に示す画像信号処理部209
における各制御信号のタイミングを示す図である。同図
において、VSYNC信号は、副走査方向の画像有効区
間信号であり、論理“1”の区間において、画像読取り
(スキャン)を行って、順次、(M)、(C)、(Y)
(Bk)の出力信号を形成する。また、VE信号は、主
走査方向の画像有効区間信号であり、論理“1”の区間
において主走査開始位置のタイミングをとり、主にライ
ン遅延のライン計数制御に用いられる。そして、CLO
CK信号は画素同期信号であり、“0”→“1”の立ち
上がりタイミングで画像データを転送し、上記のA/D
コンバータ102、黒文字判定部113等の各信号処理
部に供給するとともに、レーザドライバ212に画像信
号、200線/400線の切り換え信号を伝送するのに
用いられる。
FIG. 7 shows the image signal processing unit 209 shown in FIG.
3 is a diagram showing the timing of each control signal in FIG. In the figure, the VSYNC signal is an image effective section signal in the sub-scanning direction, and image reading (scanning) is performed in the section of logic "1" to sequentially (M), (C), (Y).
The output signal of (Bk) is formed. Further, the VE signal is an image effective section signal in the main scanning direction, and is used mainly for the line counting control of the line delay by timing the main scanning start position in the section of logic "1". And CLO
The CK signal is a pixel synchronization signal, and the image data is transferred at the rising timing of “0” → “1”, and the A / D
The signal is supplied to each signal processing unit such as the converter 102 and the black character determination unit 113, and is also used for transmitting an image signal and a 200-line / 400-line switching signal to the laser driver 212.

【0084】上述の構成において、CPU201は、各
処理部を制御するとともに、後述の黒文字処理のための
領域判定の判定基準の決定を行う。
In the above-mentioned structure, the CPU 201 controls each processing unit and determines the determination reference of the area determination for the black character processing described later.

【0085】次に、原稿モードが文字モード、文字印刷
写真モード、または文字印画紙写真モードの時に実施す
る、領域分離に基づく黒文字処理について説明する。
Next, the black character processing based on the area separation, which is executed when the original mode is the character mode, the character print photograph mode, or the character photographic paper photograph mode, will be described.

【0086】(エッジ検出部の説明)上述のように、入
力マスキング部106にてマスキング変換された信号R
4,G4,B4は、黒文字判定部113のエッジ検出回
路115に入力され、以下の式に従って輝度信号Yを算
出する。なお、図8は、エッジ検出回路115の内部構
成を示すブロック図であり、図9は、輝度算出回路25
0の詳細構成を示す図である。
(Description of Edge Detection Unit) As described above, the signal R masked by the input masking unit 106 is converted.
4, G4, B4 are input to the edge detection circuit 115 of the black character determination unit 113, and the luminance signal Y is calculated according to the following equation. 8 is a block diagram showing the internal configuration of the edge detection circuit 115, and FIG. 9 is a luminance calculation circuit 25.
It is a figure which shows the detailed structure of 0.

【0087】 Y=0.25R+0.5G+0.25B…(2)Y = 0.25R + 0.5G + 0.25B ... (2)

【0088】図9において、入力された色信号R,G,
Bは、各々に対して、乗算器301,302,303に
て係数0.25,0.5,0.25が乗じられた後、加
算器304,305で加算され、上記の式(2)に従っ
て輝度信号Yが算出される。
In FIG. 9, input color signals R, G,
B is multiplied by coefficients 0.25, 0.5, and 0.25 in multipliers 301, 302, and 303, and then added in adders 304 and 305 to obtain the above equation (2). The luminance signal Y is calculated in accordance with.

【0089】輝度信号Yは、図10に示すFIFO40
1〜402により、各1ラインずつ遅延した3ライン分
に拡張され、公知のラプラシアンフィルタ403〜40
6にかけられる。そして、同図に示す4方向の内、フィ
ルタの出力であるエッジ量の絶対値aが最小の値をとる
方向を求め、その方向をエッジmin方向とする。これ
を、図8に示すエッジmin方向検出部251が行う。
The luminance signal Y is the FIFO 40 shown in FIG.
1 to 402, the line is extended to three lines delayed by one line, and known Laplacian filters 403 to 40
Can be multiplied by 6. Then, of the four directions shown in the figure, the direction in which the absolute value a of the edge amount, which is the output of the filter, takes the minimum value is obtained, and this direction is defined as the edge min direction. This is performed by the edge min direction detection unit 251 shown in FIG.

【0090】次に、エッジmin方向スムージング部2
52で、上記エッジmin方向検出部251で求めたエ
ッジのmin方向に対してスムージング処理を施す。こ
の処理により、エッジ成分の最も大きい方向のみを保存
し、その他の方向を平滑化することができる。
Next, the edge min direction smoothing unit 2
At 52, smoothing processing is applied to the edge min direction obtained by the edge min direction detection unit 251. By this processing, only the direction with the largest edge component can be saved and the other directions can be smoothed.

【0091】すなわち、複数の方向に対してエッジ成分
が大きい網点成分は、上記の処理でエッジ成分が平滑化
されて、その特徴が減少し、一方、一方向にのみエッジ
成分が存在する文字/細線については、その特徴が保存
される、という効果が上げられる。なお、必要に応じ
て、この処理を繰り返すことで、線成分と網点成分の分
離がより一層、効果的に行われ、従来のエッジ検出法で
は検知できなかった、網点中に存在する文字成分も検知
することが可能となる。
That is, the halftone dot component having a large edge component in a plurality of directions has its characteristics reduced by smoothing the edge component by the above processing, while the character having an edge component in only one direction is present. / For thin lines, the effect that the characteristics are preserved is enhanced. By repeating this process, if necessary, the line and halftone dot components can be more effectively separated, and characters existing in halftone dots that could not be detected by the conventional edge detection method. It is also possible to detect the component.

【0092】その後、図8に示すエッジ検出部253で
は、輝度算出回路250から直接エッジ検出部253に
入力された信号に対しては、CPU102を介してエッ
ジ検出部253にセットされた適当なしきい値th_e
dge1以下のものが除去され、th_edge1以上
のものが論理“1”として出力される。さらに、エッジ
min方向スムージング部252を通過した信号に対し
ては、上述のラプラシアンフィルタがかけられ、エッジ
量の絶対値がCPU102を介してエッジ検出部253
にセットされたしきい値th_edge2と比較され、
その出力値が後述するルールに従いコード化される。こ
の様に、2種類の性質を持ったエッジを使い分け、白地
中の文字に対してはエッジmin方向スムージング部を
通過しないエッジを用いることにより、より細かい文字
の細部までに渡りエッジを検出することが可能になり、
逆に網点中の文字に対しては、エッジmin方向スムー
ジング部を通過したエッジを用いてエッジ検出を行うこ
とにより、網点成分を検出せずに、文字や線のみを検出
することが可能になる。ここで、ホスト画像に対して用
いられるしきい値、th_edge1(h),th_e
dge2(h)は、スキャナ画像に対して用いられるし
きい値th_edge1(s),th_edge2
(s)に比べて、夫々大きい値とする。これは、ホスト
画像の場合は、MTFが良好なのでエッジ判定の基準を
厳しくしても適切な検出が可能であることに基づく。
After that, in the edge detection unit 253 shown in FIG. 8, for the signal directly input from the luminance calculation circuit 250 to the edge detection unit 253, the appropriate threshold set in the edge detection unit 253 via the CPU 102. Value th_e
Those below dge1 are removed, and those above th_edge1 are output as logic “1”. Furthermore, the Laplacian filter described above is applied to the signal that has passed through the edge min direction smoothing section 252, and the absolute value of the edge amount is detected by the edge detection section 253 via the CPU 102.
Is compared with the threshold value th_edge2 set to
The output value is coded according to the rule described later. In this way, by using the edges having two kinds of characteristics properly and using the edges that do not pass through the smoothing portion in the edge min direction for the characters in the white background, the edges can be detected even in the finer details of the characters. Is possible,
Conversely, for characters in halftone dots, it is possible to detect only characters and lines without detecting halftone dot components by performing edge detection using edges that have passed through the edge min direction smoothing section. become. Here, the threshold value used for the host image, th_edge1 (h), th_e
dge2 (h) is a threshold value th_edge1 (s), th_edge2 used for the scanner image.
The value is set to be larger than that in (s). This is because in the case of the host image, since the MTF is good, it is possible to perform appropriate detection even if the criteria for edge determination are strict.

【0093】なお、図11は、エッジの検出の例を示す
図であり、輝度データYに係る画像データ(a)から、
エッジ検出信号(b)が生成される。
FIG. 11 is a diagram showing an example of edge detection. From the image data (a) relating to the luminance data Y,
The edge detection signal (b) is generated.

【0094】エッジ検出部115では、更に、上述の判
定信号の内、th_edgeで判定された結果を7×
7、5×5、3×3のブロックサイズで膨張した信号
と、膨張無し、更にth_edge2で判定された信号
を合わせた7つのコードで表したものがエッジ検出部1
15からの出力信号“edge”(3ビット)である。
ここで、信号の膨張とは、ブロック内の全ての画素の信
号をOR演算することを言う。
In the edge detecting section 115, the result of the determination made by th_edge among the above determination signals is further 7 ×.
The edge detection unit 1 represents a signal expanded with a block size of 7, 5 × 5, 3 × 3, no expansion, and a signal determined by th_edge2, which is represented by seven codes.
This is the output signal “edge” (3 bits) from the signal 15.
Here, the signal expansion means ORing the signals of all the pixels in the block.

【0095】(彩度判定部の説明)図12は、黒文字判
定部113を構成する彩度判定回路116の詳細な構成
を示すブロック図である。ここでは、入力された色信号
R4、G4、B4に対して、最大値検出部601と最小
値検出部602によって、最大値max(R、G、
B)、及び最小値min(R、G、B)がそれぞれ抽出
される。そして、次段のLUT(ルックアップテーブ
ル)603では、図13に示す様な領域にデータを分割
する様なしきい値Cr_BK、Cr_COL、Cr_W
により、彩度信号Crが生成される。
(Explanation of Saturation Determining Section) FIG. 12 is a block diagram showing a detailed configuration of the saturation determining circuit 116 constituting the black character determining section 113. Here, with respect to the input color signals R4, G4, B4, the maximum value max (R, G,
B) and the minimum value min (R, G, B) are extracted, respectively. Then, in the LUT (look-up table) 603 in the next stage, threshold values Cr_BK, Cr_COL, Cr_W for dividing the data into areas as shown in FIG.
Thus, the saturation signal Cr is generated.

【0096】なお、図6に示す彩度判定部116からの
出力信号“col”は、データが図13に示す領域Bk
に入った場合には、黒、GRYに入った場合には中間
(色と黒の間の色)、COLに入った場合には色、Wに
入った場合には白がそれぞれ2ビットのコードで表現さ
れる。
The output signal "col" from the saturation determining section 116 shown in FIG. 6 has the data Bk shown in FIG.
2-bit code for entering black, middle for entering GRY (between colors and black), color for entering COL, and white for entering W It is expressed by.

【0097】図13において、(A)はスキャナ画像用
LUT、(B)はホスト画像用LUTである。(B)の
テーブルは、(A)のテーブルに比べた、Cr_Bk、
CR_COLの値が小さく、Cr_Wの値が大きくなっ
ている。これにより、ホスト画像の場合は、スキャナの
ように読み取り特性を考慮する必要がないことによる。
これにより、Bkエリア、GRYエリア、Wエリアが小
さくなっている。これは、ホスト画像の場合には、黒色
以外の色、例えば淡い色についても良好に再現すること
ができる。
In FIG. 13, (A) is a scanner image LUT, and (B) is a host image LUT. The table of (B) has a larger Cr_Bk, than the table of (A).
The value of CR_COL is small and the value of Cr_W is large. As a result, in the case of the host image, it is not necessary to consider the reading characteristics unlike the scanner.
As a result, the Bk area, GRY area, and W area are reduced. In the case of a host image, this can be excellently reproduced even for colors other than black, for example, light colors.

【0098】(文字の太さの判定部の説明)図14は、
黒文字判定部113を構成する文字太さ判定回路114
の構成を示すブロック図である。
(Explanation of Character Thickness Judgment Section) FIG.
Character thickness determination circuit 114 constituting the black character determination unit 113
FIG. 3 is a block diagram showing the configuration of FIG.

【0099】図14において、入力マスキング回路10
6からの出力であるレッド信号データR4、グリーン信
号G4、ブルー信号B4が最小検出部2011に入力さ
れる。この最小値検出部2011では、入力されたRG
B信号の最小値MINRGB を求める。次に、平均値検出
部2012にMINRGB を入力し、そこで、注目画素近
傍の5画素×5画素のMINRGB の平均値AVE5と、
同じく近傍3画素×3画素のMINRGB の平均値AVE
3を求める。
In FIG. 14, the input masking circuit 10
The red signal data R4, the green signal G4, and the blue signal B4 which are outputs from 6 are input to the minimum detection unit 2011. In this minimum value detection unit 2011, the input RG
The minimum value MIN RGB of the B signal is obtained. Next, MIN RGB is input to the average value detection unit 2012, and the average value AVE5 of MIN RGB of 5 pixels × 5 pixels in the vicinity of the target pixel,
Similarly, the average value AVE of MIN RGB of neighboring 3 pixels x 3 pixels
Ask for 3.

【0100】文字・中間調検出部2013へはAVE5
とAVE3が入力され、ここでは、画素毎に注目画素の
濃度、及び、注目画素とその近傍の平均濃度との変化量
を検出することによって、注目画素が、文字または中間
調領域の一部であるかどうかの判別を行う。
AVE5 is sent to the character / halftone detection unit 2013.
And AVE3 are input. Here, by detecting the density of the target pixel for each pixel and the amount of change between the target pixel and the average density in the vicinity thereof, the target pixel is a part of a character or halftone region. Determine if there is.

【0101】図15は、文字・中間調検出回路2013
の内部構成を示すブロック図である。同図に示すよう
に、文字・中間調検出回路では、最初に、加算器203
0でAVE5にCPU102によりセットされた適当な
オフセット値OFST1を加え、その値とAVE3とを
コンパレータ2031にて比較する。また、コンパレー
タ2032では、加算器2030からの出力と、適当な
リミット値LIM1とを比較する。そして、それぞれの
コンパレータからの出力値が、OR回路2033に入力
される。
FIG. 15 shows a character / halftone detection circuit 2013.
3 is a block diagram showing the internal configuration of FIG. In the character / halftone detection circuit, as shown in FIG.
At 0, an appropriate offset value OFST1 set by the CPU 102 is added to AVE5, and the value is compared with AVE3 by the comparator 2031. Further, the comparator 2032 compares the output from the adder 2030 with an appropriate limit value LIM1. Then, the output value from each comparator is input to the OR circuit 2033.

【0102】OR回路2033では、 AVE5+OFST1>AVE3…(3) または、 AVE5+OFST1>LIM1…(4) のときに、出力信号BINGRAが論理“H”になる。
つまり、この文字・中間調検出回路によって、注目画素
近傍に濃度変化が存在する場合(文字エッジ部)、また
は、注目画素付近が、ある値以上の濃度を持っていて、
濃度変化がない場合(文字の内部及び中間調部)に、文
字・中間調領域信号BINGRAが論理“H”になる。
In the OR circuit 2033, the output signal BINGRA becomes logic "H" when AVE5 + OFST1> AVE3 ... (3) or AVE5 + OFST1> LIM1 ... (4).
In other words, if there is a density change in the vicinity of the pixel of interest (character edge portion), or in the vicinity of the pixel of interest, there is a density of a certain value or more by this character / halftone detection circuit,
When there is no change in the density (inside the character and the halftone portion), the character / halftone area signal BINGRA becomes logical "H".

【0103】一方、図16にその詳細構成を示す網点領
域検出部2014では、網点領域を検出するため、ま
ず、最小値検出回路2011にて検出されたMINRGB
に、加算器2040にて、CPU102によりセットさ
れた適当なオフセット値OFST2を加え、その結果を
コンパレータ2041にてAVE3と比較する。また、
コンパレータ2042では、加算器2040からの出力
と適当なリミット値LIM2とを比較する。そして、そ
れぞれの出力値が、OR回路2043に入力され、そこ
で、 MINRGB +OFST2>AVE5…(5) または、 MINRGB +OFST2>LIM2…(6) のときに、OR回路2043からの出力信号BINAM
Iが論理“H”になる。そして、このBINAMI信号
を用いて、エッジ方向検出回路2044で画素毎のエッ
ジの方向を求める。
On the other hand, in the halftone dot area detection unit 2014 whose detailed configuration is shown in FIG. 16, in order to detect the halftone dot area, first, the MIN RGB detected by the minimum value detection circuit 2011 is detected.
In addition, the adder 2040 adds an appropriate offset value OFST2 set by the CPU 102, and the comparator 2041 compares the result with AVE3. Also,
The comparator 2042 compares the output from the adder 2040 with an appropriate limit value LIM2. Then, the respective output values are input to the OR circuit 2043, and when there are MIN RGB + OFST2> AVE5 ... (5) or MIN RGB + OFST2> LIM2 ... (6), the output signal BINAM from the OR circuit 2043.
I becomes logic "H". Then, using this BINAMI signal, the edge direction detection circuit 2044 obtains the edge direction of each pixel.

【0104】ここにおいてLIM1とLIM2は、下地
除去部1065から入力される下地レベル信号Rb,G
b,Bbから求められ、CPU102を介して入力され
る。
Here, LIM1 and LIM2 are background level signals Rb and G input from the background removal section 1065.
It is obtained from b and Bb and input via the CPU 102.

【0105】変数式を次式に示す。 式 LIM1=min(Rb,Gb,Bb)−26 LIM2=min(Rb,Gb,Bb)−35 ここで、min(Rb,Gb,Bb)とは、Rb,G
b,Bbの最小値
The variable expression is shown in the following expression. Formula LIM1 = min (Rb, Gb, Bb) -26 LIM2 = min (Rb, Gb, Bb) -35 Here, min (Rb, Gb, Bb) means Rb, G.
minimum value of b and Bb

【0106】これにより、下地のレベルに応じた最適な
文字判定が可能になる。具体的には、原稿の下地レベル
が高い(より白い)場合にはLIM値を高くし、また下
地レベルが低い(より濃い)場合にはLIM値を低くす
ることで、常に下地と文字の分離を高品位に行うことが
できる。また、ホスト画像に対して用いられるOFST
2をスキャナ画像に対して用いられるOFST2に比べ
て小さい値とする。これにより、ホスト画像に対して網
点検出部2014から出力される網点判定信号AMIが
Highになりにくくする。
As a result, it is possible to make an optimum character determination according to the background level. Specifically, when the background level of the original is high (whiter), the LIM value is increased, and when the background level is low (darker), the LIM value is decreased to always separate the background and the characters. Can be performed with high quality. In addition, OFST used for the host image
2 is a smaller value than OFST2 used for the scanner image. This makes it difficult for the halftone dot determination signal AMI output from the halftone dot detecting unit 2014 to become high with respect to the host image.

【0107】図17は、エッジ方向検出回路2044で
のエッジ方向検出の規制を示す図である。すなわち、注
目画素近傍の8画素が、図17に示す(0)〜(3)の
いずれかの条件を満たす場合に、エッジ方向信号DIR
AMIの0ビット〜3ビットのいずれかが、それぞれ論
理“H”になる。例えば、ある注目画素について、図1
7の(0)の条件と(2)の条件が成立すれば、該注目
画素のエッジ方向信号DIRAMIは、第0ビット及び
第2ビットが「1」となる。
FIG. 17 is a diagram showing regulation of edge direction detection by the edge direction detection circuit 2044. That is, when the eight pixels near the target pixel satisfy any of the conditions (0) to (3) shown in FIG. 17, the edge direction signal DIR
Any of 0 to 3 bits of AMI becomes logic "H". For example, for a pixel of interest,
If the conditions (0) and (2) of 7 are satisfied, the 0th bit and the 2nd bit of the edge direction signal DIRAMI of the pixel of interest become "1".

【0108】更に、次段の対向エッジ検出回路2045
においては、注目画素を囲む5画素×5画素の領域で、
互いに対向するエッジを検出する。そこで、図18に示
すように、注目画素のDIRAMI信号をA33とした
座標系における、対向エッジ検出の規制を以下に示す。
すなわち、(1)A11、A21、A31、A41、A
51、A22、A32、A42、A33のいずれかのビ
ット0が“H”、かつA33、A24、A34、A4
4、A15、A25、A35、A45、A55のいずれ
かのビット1が“H”、(2)A11、A21、A3
1、A41、A51、A22、A32、A42、A33
のいずれかのビット1が“H”、かつA33、A24、
A34、A44、A15、A25、A35、A45、A
55のいずれかのビット0が“H”、(3)A11、A
12、A13、A14、A15、A22、A23、A2
4、A33のいずれかのビット2が“H”、かつA3
3、A42、A43、A44、A51、A52、A5
3、A54、A55のいずれかのビット3が“H”、
(4)A11、A12、A13、A14、A15、A2
2、A23、A24、A33のいずれかのビット3が
“H”、かつA33、A42、A43、A44、A5
1、A52、A53、A54、A55のいずれかのビッ
ト2が“H”、そして、上記(1)〜(4)の内、いず
れかの条件を満たしたとき、EAAMIを“H”にする
(対向エッジ検出回路2045で対向エッジが検出され
た場合には、対向エッジ信号EAAMIが“H”にな
る)。
Further, the opposing edge detection circuit 2045 of the next stage
In, in the area of 5 pixels × 5 pixels surrounding the pixel of interest,
Detect edges that face each other. Therefore, as shown in FIG. 18, the regulation of the opposite edge detection in the coordinate system in which the DIRAMI signal of the target pixel is A33 is shown below.
That is, (1) A11, A21, A31, A41, A
Bit 0 of any of 51, A22, A32, A42, and A33 is "H", and A33, A24, A34, and A4
Bit 1 of any one of A4, A15, A25, A35, A45 and A55 is "H", (2) A11, A21, A3
1, A41, A51, A22, A32, A42, A33
Any one of the bits 1 is "H", and A33, A24,
A34, A44, A15, A25, A35, A45, A
Bit 0 of any of 55 is "H", (3) A11, A
12, A13, A14, A15, A22, A23, A2
4, bit 2 of either A33 is "H", and A3
3, A42, A43, A44, A51, A52, A5
3, bit A3 of any one of A54 and A55 is "H",
(4) A11, A12, A13, A14, A15, A2
2, bit A3, A24, A33 is "H", and A33, A42, A43, A44, A5
When bit 2 of any one of A1, A52, A53, A54, and A55 is "H" and any one of the conditions (1) to (4) is satisfied, EAAMI is set to "H" ( When the opposite edge detection circuit 2045 detects the opposite edge, the opposite edge signal EAAMI becomes “H”).

【0109】膨張回路2046では、EAAMI信号に
対して3画素×4画素の膨張を行い、注目画素の近傍3
画素×4画素にEAAMIが“H”の画素があれば、注
目画素のEAAMI信号を“H”に置き換える。更に、
収縮回路2047と膨張回路2048を用いて5画素×
5画素の領域で孤立した検出結果を除去し、出力信号E
BAMIを得る。ここで、収縮回路2047は、入力さ
れた全ての信号が“H”のときにのみ“H”を出力する
回路である。
The expansion circuit 2046 expands the EAAMI signal by 3 pixels × 4 pixels to generate 3 pixels in the vicinity of the pixel of interest.
If there is a pixel of which the EAAMI is “H” in the pixel × 4 pixels, the EAAMI signal of the target pixel is replaced with “H”. Furthermore,
5 pixels × using the contraction circuit 2047 and the expansion circuit 2048
The detection result isolated in the area of 5 pixels is removed, and the output signal E
Get BAMI. Here, the contraction circuit 2047 is a circuit that outputs "H" only when all the input signals are "H".

【0110】次に、カウント部2049では、膨張回路
2048の出力信号EBAMIが“H”である画素の個
数を、適当な大きさを持つウィンドウ内で数える。本実
施例では、注目画素を含む5画素×64画素の領域を参
照する。なお、ウィンドウの形を図19に示す。
Next, the counting unit 2049 counts the number of pixels whose output signal EBAMI of the expansion circuit 2048 is "H" within a window having an appropriate size. In this embodiment, an area of 5 pixels × 64 pixels including a target pixel is referred to. The window shape is shown in FIG.

【0111】図19において、ウィンドウ内のサンプル
点は、主走査方向に4画素おきに9点、副走査方向に5
ライン分の合計45点ある。1つの注目画素に対して、
ウィンドウが主走査方向に移動することにより、ウィン
ドウは、図19の(1)〜(9)の9つ用意されたこと
になる。すなわち、注目画素を中心として5画素×64
画素の領域を参照したことになる。そして、それぞれの
ウィンドウにおいてEBAMIをカウントし、EBAM
Iが“H”となる個数が、CPU102によりセットさ
れる適当なしきい値th_countを越えた場合に、
図14の網点領域検出部2014は、網点領域信号AM
Iを論理“H”として出力する。
In FIG. 19, the sampling points in the window are 9 points at every 4 pixels in the main scanning direction and 5 points in the sub scanning direction.
There are 45 points in total for the line. For one pixel of interest,
By moving the windows in the main scanning direction, nine windows (1) to (9) in FIG. 19 are prepared. That is, 5 pixels x 64 with the pixel of interest as the center
This refers to the pixel area. Then, EBAMI is counted in each window, and EBAM
When the number of I's being “H” exceeds an appropriate threshold value th_count set by the CPU 102,
The halftone dot area detection unit 2014 of FIG.
I is output as logic "H".

【0112】この網点領域検出回路2014での処理に
より、上記のBINGRA信号では孤立点の集合として
検出された網点画像を、領域信号として検出することが
可能になる。そして、これらの検出された文字・中間調
領域信号BINGRAと網点領域信号AMIは、図14
のOR回路2015においてOR演算され、結果として
入力画像の2値化信号PICTが生成される。このPI
CT信号は、エリアサイズ判定回路2016に入力さ
れ、そこで、2値化信号のエリアサイズが判定される。
ここで2値化信号PICT生成するためのしきい値は、
ホスト画像に用いられるものに比べてスキャナ画像に用
いられるものに比べて小さくなっている。これは、ホス
ト画像の場合には、下地がつぶれている可能性が少ない
ことに基づく。
By the processing in the halftone dot area detection circuit 2014, the halftone dot image detected as a set of isolated points in the BINGRA signal can be detected as the area signal. The detected character / halftone area signal BINGRA and halftone dot area signal AMI are shown in FIG.
Is ORed in the OR circuit 2015, and as a result, the binarized signal PICT of the input image is generated. This PI
The CT signal is input to the area size determination circuit 2016, where the area size of the binarized signal is determined.
Here, the threshold value for generating the binarized signal PICT is
It is smaller than that used for the scanner image compared to that used for the host image. This is because it is unlikely that the background is crushed in the case of a host image.

【0113】ここで、孤立点の集合について簡単に説明
する。
Here, the set of isolated points will be briefly described.

【0114】上述の画像領域判定は、画像をある濃度で
2値化して、2値画像にて行う。このとき、点や線は、
文字や面積を持った領域を中間調と判定する。しかし、
網点画像を単純に2値化すると、網点の構成要素である
ドットによる細かい点の集合体が発生する。
The above-described image area determination is performed on a binary image by binarizing the image with a certain density. At this time, the dots and lines are
Areas with letters and areas are judged to be halftone. But,
If the halftone dot image is simply binarized, a dot aggregate that is a constituent element of the halftone dot is generated.

【0115】そこで、ある程度の面積を有する領域中に
孤立点の集合体が存在するかどうかを判定することで、
ドットが網点画像であるか否かの判別をする。すなわ
ち、ある領域中にドットが相当数ある場合は、その領域
は網点画像であり、また、注目画素がドットの一部で
も、その周囲にドットが存在しない場合には、その注目
画素は文字の一部である、と判定する。
Therefore, by determining whether or not a set of isolated points exists in a region having a certain area,
It is determined whether or not the dot is a halftone dot image. That is, if there are a considerable number of dots in a certain area, that area is a halftone dot image, and if there is no dot around the pixel even if the pixel of interest is part of the dot, that pixel of interest is Is determined to be a part of.

【0116】図20は、エリアサイズ判定回路2016
の内部構成を示すブロック図である。同図に示す回路に
は、複数の収縮回路2081と膨張回路2082のペア
が存在し、それぞれ、参照する領域のサイズが異なって
いる。入力されたPICT信号は、収縮回路の大きさに
合わせてライン遅延された後に収縮回路2081に入力
される。本実施例では、23画素×23画素から、35
画素×35画素までの大きさの7種類の収縮回路を用意
している。但し、領域サイズはCPU102を介して適
宜変更することが可能である。
FIG. 20 shows an area size determination circuit 2016.
3 is a block diagram showing the internal configuration of FIG. In the circuit shown in the figure, there are a plurality of pairs of contraction circuits 2081 and expansion circuits 2082, and the sizes of the regions to be referred to are different from each other. The input PICT signal is line-delayed according to the size of the contracting circuit and then input to the contracting circuit 2081. In this embodiment, from 23 pixels × 23 pixels, 35
Seven types of contraction circuits with a size of up to 35 pixels are prepared. However, the area size can be changed as appropriate via the CPU 102.

【0117】この収縮回路2081から出力された信号
は、ライン遅延された後に膨張回路2082に入力され
る。本実施例では、収縮回路の出力に対応して、27画
素×27画素から39画素×39画素までの大きさの7
種類の膨張回路を用意し、それぞれの膨張回路からの出
力信号PICT_FHを得る。ここでも、領域サイズは
CPU102を介して変更が可能である。
The signal output from the contraction circuit 2081 is line-delayed and then input to the expansion circuit 2082. In this embodiment, 7 of a size from 27 pixels × 27 pixels to 39 pixels × 39 pixels is corresponded to the output of the contraction circuit.
Different kinds of expansion circuits are prepared, and the output signal PICT_FH from each expansion circuit is obtained. Here again, the region size can be changed via the CPU 102.

【0118】上記の出力信号PICT_FHについて
は、注目画素か文字の一部である場合には、その文字の
太さによってPICT_FHの出力が定まる。この様子
を、図22に示す。例えば、PICT信号が幅26画素
を持つ帯状に存在する場合、27×27より大きいサイ
ズの収縮を行うと出力は全て0になり、また、25×2
5より小さいサイズの収縮を行った後に、それぞれのサ
イズに応じた膨張を行うと、幅30画素の帯状の出力信
号PICT_FHが得られる。
Regarding the output signal PICT_FH, when the pixel of interest or a part of a character, the output of PICT_FH is determined by the thickness of the character. This state is shown in FIG. For example, when the PICT signal exists in a band having a width of 26 pixels, if the contraction of a size larger than 27 × 27 is performed, all the outputs become 0, and 25 × 2.
When contraction of a size smaller than 5 is performed and then expansion according to each size is performed, a band-shaped output signal PICT_FH having a width of 30 pixels is obtained.

【0119】そこで、これら出力PICH_FHをエン
コーダ2083に入力することにより、注目画素が属す
る画像領域信号ZONE_Pが求まる。なお、図23
は、エンコーダ2083のエンコードルールを示す図で
ある。
Therefore, by inputting these outputs PICH_FH to the encoder 2083, the image area signal ZONE_P to which the target pixel belongs is obtained. Note that FIG.
FIG. 9 is a diagram showing an encoding rule of the encoder 2083.

【0120】このような処理によって、広い領域におい
てPICH信号が“H”である写真画像や網点画像は、
領域7(最大値)として定義され、また、エリアサイズ
が最大値よりも小さい(細い)文字や線画像は、その大
きさ(太さ)に応じた多値の画像領域に定義される。本
実施例では、ZONE信号を3ビットとし、文字の太さ
を8段階で表す。そして、最も細い文字を0、最も太い
文字(文字以外の領域も含む)を7とする。
By such processing, a photographic image or a halftone dot image in which the PICH signal is "H" in a wide area,
A character or line image defined as a region 7 (maximum value) and having an area size smaller than the maximum value (thin) is defined as a multi-valued image region corresponding to its size (thickness). In this embodiment, the ZONE signal has 3 bits, and the thickness of the character is expressed in 8 steps. The thinnest character is 0, and the thickest character (including the area other than the character) is 7.

【0121】図20に示すZONE補正部2084は、
図21に示すように、複数のFIFOによりライン遅延
されたZONE_P信号が入力される平均値算出部21
10を有し、そこで、10画素×10画素の平均値が算
出される。このZONE_P信号は、文字が太いほど値
が大きく、また、それが細いほど信号値が小さくなって
いるため、この平均値算出部の出力が、そのまま補正Z
ONE信号となる。
The ZONE correction unit 2084 shown in FIG.
As shown in FIG. 21, an average value calculation unit 21 to which the ZONE_P signal line-delayed by a plurality of FIFOs is input
10 where the average value of 10 pixels × 10 pixels is calculated. The ZONE_P signal has a larger value as the character is thicker, and has a smaller signal value as the character is thinner, so that the output of the average value calculation unit is the same as the corrected Z value.
It becomes an ONE signal.

【0122】ここで、補正に用いるためのブロックサイ
ズは、文字の太さを判定するためのブロックサイズの大
きさに応じて定めるのが望ましい。そして、この補正Z
ONE信号を用いて、それ以後の処理を行うことで、急
激に文字/線の太さが変化する部分においても、太さの
判定は滑らかに変化し、黒文字処理の変化による画像品
位の低下が、より改善される。
Here, it is desirable that the block size used for correction is determined according to the size of the block size for determining the thickness of the character. And this correction Z
By performing the subsequent processing using the ONE signal, the judgment of the thickness changes smoothly even in the portion where the thickness of the character / line changes abruptly, and the deterioration of the image quality due to the change in the black character processing occurs. , More improved.

【0123】ここで、上述の通り、ZONE信号が段階
7であるエリアは、中間調領域とみなすことができる。
そこで、これを利用して、ZONE信号とエッジ信号よ
り、網点や中間調の領域内に存在する文字/線を、他の
領域文字/線と区別することが可能である。以下、その
方法について述べる。
Here, as described above, the area where the ZONE signal is in stage 7 can be regarded as the halftone area.
Therefore, by utilizing this, it is possible to distinguish the character / line existing in the halftone dot or halftone area from other area characters / lines based on the ZONE signal and the edge signal. The method will be described below.

【0124】図24は、網点/中間調中の文字検出のた
めのアルゴリズムを示す図である。ここでは、まず、上
述のPICT信号に対して、符号2111で示された部
分にて、5×5のブロックで膨張処理を行う。この処理
により、不完全な検出になりやすい網点領域に対して、
その検出領域を補正する。
FIG. 24 is a diagram showing an algorithm for detecting characters in halftone / halftone. Here, first, with respect to the above-mentioned PICT signal, the expansion process is performed in the portion indicated by reference numeral 2111 in 5 × 5 blocks. By this processing, for the halftone dot area that is likely to be incompletely detected,
The detection area is corrected.

【0125】次に、この出力信号に対して、符号211
2にて示される部分で、11×11のブロックの収縮処
理を行う。これらの処理によって得られた信号FCH
は、PICT信号に対して3画素分収縮した信号とな
る。
Next, with respect to this output signal, reference numeral 211
In the part indicated by 2, contraction processing of an 11 × 11 block is performed. Signal FCH obtained by these processes
Is a signal contracted by 3 pixels from the PICT signal.

【0126】図25は、上記のアルゴリズムにより処理
の様子を具体的に示す図である。図25において、原画
像2301が2値化され、PICT信号2302が得ら
れる。PICT信号2302は5×5膨張が施されて2
303の信号となり、更に11×11収縮が施されるこ
とによりFCH信号2304を得る。また、PICT信
号2302よりエリアサイズ判定部2016においてZ
ONE信号2305が生成される。そして、FCH信号
2304が「1」(中間調の文字部)であり、ZONE
信号2305が「7」(網点/中間調領域)であり、ま
た、エッジ判定部115において抽出されたエッジ信号
2306が「1」である画素について、網点/中間調内
の文字/線部であると判断することにより、画像230
8が得られる。従って、本実施例においては、FCH信
号、ZONE信号、そして、エツジ信号を組み合わせる
ことで、白地中のエッジと、網点/中間調中のエッジの
区別ができ、網点画像中においても網点成分を強調して
しまうことなく、また、写真の縁等の黒文字処理が不必
要な部分を処理することなく黒文字処理を行うことがで
きる。
FIG. 25 is a diagram concretely showing a state of processing by the above algorithm. In FIG. 25, the original image 2301 is binarized and a PICT signal 2302 is obtained. The PICT signal 2302 has been subjected to 5 × 5 expansion and then 2
It becomes a signal of 303 and is further subjected to 11 × 11 contraction to obtain an FCH signal 2304. Further, in the area size determination unit 2016 from the PICT signal 2302, Z
The ONE signal 2305 is generated. Then, the FCH signal 2304 is "1" (halftone character portion), and ZONE
For a pixel for which the signal 2305 is “7” (halftone dot / halftone region) and the edge signal 2306 extracted by the edge determination unit 115 is “1”, the character / line portion within the halftone dot / halftone Image 230 by determining that
8 is obtained. Therefore, in the present embodiment, by combining the FCH signal, the ZONE signal, and the edge signal, the edge in the white background and the edge in the halftone dot / halftone can be distinguished, and the halftone dot image can be obtained. It is possible to perform the black character processing without emphasizing the components and without processing the portion such as the edge of the photograph where the black character processing is unnecessary.

【0127】(LUTの説明)次に、図6に示す黒文字
判定部113を構成するLUT117について説明す
る。
(Explanation of LUT) Next, the LUT 117 which constitutes the black character judging portion 113 shown in FIG. 6 will be explained.

【0128】LUT117は、図6の文字の太さ判定部
114、エッジ検出部115、彩度判定部116各々で
判定された信号を入力して、図26に示すような表に従
って、“ucr”、“filter”、“sen”の各
処理用の信号を出力する。これらは、それぞれマスキン
グUCR係数、空間フィルタ係数、プリンタ解像度のパ
ラメータを制御するための制御信号である。
The LUT 117 inputs the signals judged by the character thickness judging section 114, the edge detecting section 115, and the saturation judging section 116 of FIG. 6, and inputs “ucr” according to the table shown in FIG. , "Filter", "sen" output signals for each processing. These are control signals for controlling the masking UCR coefficient, the spatial filter coefficient, and the printer resolution parameter, respectively.

【0129】図26に示す表において、各信号とその値
の意味する所は、 edge−0:しきい値th_edgeでエッジと判定
されない 1:しきい値th_edgeで判定された膨張無し 2:しきい値th_edgeで判定された3×3膨張 3:しきい値th_edgeで判定された5×5膨張 4:しきい値th_edgeで判定された7×7膨張 5:しきい値th_edge2でエッジと判定されない 6:しきい値th_edge2で判定された膨張無し sen−0:200線、1:400線 filter−0:スムージング、1:強エッジ強調、
2:中エッジ強調、3:弱エッジ強調 ucr−0〜7:黒多い〜黒少ない FCH:0:画像の縁、1:画像の縁ではない
In the table shown in FIG. 26, the meaning of each signal and its value is as follows: edge-0: not determined as an edge by the threshold value th_edge 1: no expansion determined by the threshold value th_edge 2: threshold 3 × 3 expansion determined by the value th_edge 3: 5 × 5 expansion determined by the threshold value th_edge 4: 7 × 7 expansion determined by the threshold value th_edge 5: Not determined as an edge by the threshold value th_edge2 6 : No expansion determined by threshold th_edge2 Sen-0: 200 line, 1: 400 line filter-0: Smoothing, 1: Strong edge enhancement,
2: Medium edge enhancement 3: Weak edge enhancement ucr-0 to 7: black to black little FCH: 0: image edge, 1: not image edge

【0130】また、図26に示す表の特徴としては、 (1)文字の太さに応じて多値の黒文字処理が可能 (2)エッジ領域の範囲が複数用意されているため、文
字の太さに応じて黒文字処理領域を選択することができ
る。なお、本実施例では、最も細い文字に対しても最も
広い領域を処理する (3)文字のエッジと文字の内部の処理の度合いに差を
付けて黒文字処理を行い、より滑らかな黒の量の変化を
実現している (4)網点/中間調中の文字を、白地中の文字と区別し
て処理を行う (5)文字のエッジ、文字の内部、網点/中間調画像に
対して、それぞれ空間フィルタの係数を変える。また、
文字エッジに対しても、太さに応じて係数を変化させる (6)文字の太さによってプリンタの解像度を変化させ
る (7)色文字に対しては、マスキングUCR係数以外
は、全て黒文字と同じ処理を行う、ことである。
The table shown in FIG. 26 has the following features: (1) Multivalued black character processing is possible according to the thickness of the character. (2) The thickness of the character is large because multiple edge area ranges are prepared. The black character processing area can be selected according to the size. In the present embodiment, the widest area is processed even for the thinnest character. (3) The black character processing is performed with a difference in the degree of processing between the edge of the character and the inside of the character to obtain a smoother black amount. (4) Characters in halftone / halftone are processed separately from those in white background (5) Character edge, inside of character, halftone / halftone image , The coefficient of the spatial filter is changed. Also,
(6) Change the resolution of the printer depending on the thickness of the character. (7) For color characters, all are the same as black characters except for the masking UCR coefficient. It is to do processing.

【0131】なお、言うまでもなく、本実施例での処理
に限らず、入力信号に対してさまざまな組み合わせによ
るいろいろな処理方法が考えられる。
Needless to say, not only the processing in this embodiment, but various processing methods for various combinations of input signals can be considered.

【0132】一方、マスキングUCR処理回路109で
は、LUT117から出力されるUCR制御信号ucr
により、黒信号Bkの生成及びマスキングを行う。
On the other hand, in the masking UCR processing circuit 109, the UCR control signal ucr output from the LUT 117 is output.
Thus, the black signal Bk is generated and masked.

【0133】図28に、このマスキングUCR演算式を
示す。
FIG. 28 shows the masking UCR arithmetic expression.

【0134】まず、C1、M1、Y1の最小値MIN
CMY を求め、式(2101)によりBk1を求める。次
に、式(2102)により、4×8のマスキングを行
い、C2、M2、Y2、Bk2を出力する。この式(2
102)において、係数m11〜m84は、使用するプ
リンタにより定まるマスキング係数、係数k11〜k8
4は、UCR信号により決定されるUCR係数である。
First, the minimum value MIN of C1, M1 and Y1.
CMY is obtained, and Bk1 is obtained from the equation (2101). Next, 4 × 8 masking is performed according to equation (2102), and C2, M2, Y2, and Bk2 are output. This formula (2
102), the coefficients m11 to m84 are masking coefficients determined by the printer used, and the coefficients k11 to k8.
4 is a UCR coefficient determined by the UCR signal.

【0135】網点/中間調画像(ZONE信号が7)に
対しては、UCR係数は全て1.0であるが、最も細い
文字(ZONE信号が0)に対しては、Bk単色が出力
されるようにUCR係数を設定する。また、中間の太さ
に対しては、その太さに応じた色味の変化が滑らかにつ
ながるようにUCR係数を決定し、Bkの量を制御す
る。
The UCR coefficients are all 1.0 for the halftone dot / halftone image (ZONE signal is 7), but Bk single color is output for the thinnest character (ZONE signal is 0). To set the UCR coefficient. Further, for the intermediate thickness, the UCR coefficient is determined so that the change in the tint corresponding to the thickness is smoothly connected, and the amount of Bk is controlled.

【0136】また、空間フィルタ処理部111では、5
画素×5画素のフィルタを2個用意し、1個目のフィル
タの出力信号を2個目のフィルタの入力につなげてい
る。フィルタ係数として、スムージング1、スムージン
グ2、エッジ強調1、エッジ強調2の4つを用意し、L
UT117からのfilter信号によって係数を画素
毎に切り替える。また、2つのフィルタを用いることに
より、スムージングの後にエッジ強調をして、モアレを
軽減したエッジ強調を実現し、また、2種類のエッジ強
調係数を組み合わせることにより、より高品位の画像の
出力を可能にしている。
In the spatial filter processing section 111, 5
Two filters of pixels × 5 pixels are prepared, and the output signal of the first filter is connected to the input of the second filter. There are four filter coefficients, smoothing 1, smoothing 2, edge enhancement 1 and edge enhancement 2, and L
The coefficient is switched for each pixel by the filter signal from the UT 117. Further, by using two filters, edge enhancement after smoothing is performed to realize edge enhancement with reduced moire, and by combining two types of edge enhancement coefficients, a higher quality image is output. It is possible.

【0137】ここで、原稿中の文字を優先して処理した
い時は図29に示す文字/写真分離レベルの調整を文字
優先に、原稿中の写真を優先して処理したいときには文
字/写真分離レベルの調整を写真優先先側にする事で、
ユーザの好みに応じた出力を提供することができる。本
実施例では、両方向に対して4段階に調整することが可
能である。
Here, when it is desired to preferentially process the characters in the original, the adjustment of the character / photo separation level shown in FIG. 29 is given priority to the character, and when it is desired to preferentially process the photographs in the original, the character / photo separation level is set. By making adjustments to the photo priority side,
It is possible to provide the output according to the user's preference. In this embodiment, it is possible to adjust in four steps in both directions.

【0138】次に、文字/写真分離レベルの調整により
変化する各処理パラメータの内容について説明する。
Next, the content of each processing parameter that changes depending on the adjustment of the character / photo separation level will be described.

【0139】文字/写真分離レベルの調整により、文字
/写真領域の各判定パラメータと、文字処理の度合いを
調整する各パラメータが同時に調整される。
By adjusting the character / photo separation level, each judgment parameter of the character / photo area and each parameter for adjusting the degree of character processing are adjusted at the same time.

【0140】図30に調整される文字/写真領域の判定
パラメータを示す。調整されるパラメータは、白地中の
エッジ検出しきい値th_edge、網点中のエッジ検
出しきい値th_edge2、彩度判定のしきい値Cr
_Bk、Cr_col、Cr_w、文字・中間調領域信
号BINGRA生成のためしきい値LIM1、OFST
1、網点領域判定のためのしきい値LIM2、th_c
ount、太さ判定のための収縮回路のウインドウサイ
ズである。
FIG. 30 shows the judgment parameters for the adjusted character / photo area. The parameters to be adjusted are the edge detection threshold th_edge in the white background, the edge detection threshold th_edge2 in the halftone dot, and the saturation determination threshold Cr.
_Bk, Cr_col, Cr_w, threshold values LIM1 and OFST for generating character / halftone area signal BINGRA
1, threshold value LIM2 for determining a halftone dot area, th_c
It is the window size of the contraction circuit for determining the out and thickness.

【0141】エッジ検出のしきい値を変化させること
で、薄い文字や細かい文字まで検出することが可能にな
り、文字優先ではエッジのしきい値を低くして、薄い文
字や細かい文字まで検出し易くし、写真優先ではエッジ
のしきい値を高くして、文字として検出し難くする。ま
た、本実施例では白地中のエッジ検出のためのしきい値
と、網点中のエッジ検出のためのしきい値を独立させて
いるため、白地中のエッジの検出精度はそのままに網点
中のエッジ検出精度を変化させたり、網点中のエッジ検
出精度をそのままに白地中のエッジ検出精度を変化させ
る事が可能である。本実施例では、写真優先のステップ
を大きくすると、網点中の文字処理を行わないように設
定している。
By changing the threshold for edge detection, it is possible to detect even thin and fine characters. With character priority, the edge threshold is lowered to detect even thin and fine characters. If the priority is set on the photo, the threshold of the edge is increased to make it difficult to detect the character. Further, in this embodiment, since the threshold value for detecting the edge in the white background and the threshold value for detecting the edge in the halftone dot are independent, the detection accuracy of the edge in the white background remains the same. It is possible to change the inner edge detection accuracy, or change the edge detection accuracy in the white background while keeping the edge detection accuracy in the halftone dots. In this embodiment, when the step of giving priority to the photograph is enlarged, the character processing in the halftone dot is not performed.

【0142】LIM1、OFST1、LIM2、th_
countを変化させることで、原稿の下地の濃度に対
応して文字検出が可能になり、文字優先では、下地の濃
度が濃い原稿に対しても原稿を白地とみなして文字検出
を行い、写真優先では下地の濃度がある原稿に対しては
原稿を中間調画像とみなして文字処理を行う。
LIM1, OFST1, LIM2, th_
By changing the count, it is possible to detect characters according to the density of the background of the original. With character priority, even if the original has a high background density, the original is regarded as a white background and the characters are detected, and the photo priority is applied. Then, for a document having a background density, character processing is performed by regarding the document as a halftone image.

【0143】彩度判定のしきい値を変化させることで、
黒単色トナーで出力する処理を行う条件を変化させるこ
とが可能になり、文字優先では鉛筆書きやかすれた文字
等まで黒単色に処理されやすくなり、写真優先では彩度
の低い文字や線を黒単色化処理に難くなる。
By changing the saturation judgment threshold value,
It is possible to change the condition for performing the processing to output with black monochrome toner, and it becomes easy to process even pencil writing and faint characters into black monochromatic color with character priority, and black letters and lines with low saturation are colored with photo priority. It becomes difficult for monochromatic processing.

【0144】太さ判定のための収縮回路のウインドウサ
イズを変化させることで、黒文字処理を施す線の幅を変
化させることができる。文字優先では、太さの判定のた
めの収縮回路のウインドウサイズを大きくして幅の広い
線や太い文字までに黒文字処理を施し易くし、写真優先
では太さ判定のための収縮回路のウインドウサイズを小
さくすることで、幅の広い線や太い文字までに黒文字処
理を施し難くする。
By changing the window size of the contraction circuit for determining the thickness, it is possible to change the width of the line on which the black character processing is performed. In the case of character priority, the window size of the contraction circuit for judging the thickness is enlarged to facilitate black character processing even for wide lines and thick characters. By making small, it becomes difficult to perform black character processing even on wide lines and thick characters.

【0145】図31〜図38に、図29に示される操作
部101を用いた文字/写真分離レベルの調整により調
整される文字処理の度合いの夫々に対応するLUTの内
容を示す。
31 to 38 show the contents of the LUT corresponding to the degree of character processing adjusted by adjusting the character / photo separation level using the operation unit 101 shown in FIG.

【0146】文字優先が設定されると、よりエッジ部分
の処理領域が広がり、また文字内部に対してもUCRの
制御を行うことによって、黒文字の再現がより滑らかに
なる。また、網点中の文字に対してもよりくっきりと出
力する制御が強まる。
When the character priority is set, the processing area of the edge portion is further expanded, and the UCR control is also performed on the inside of the character, whereby the reproduction of the black character becomes smoother. In addition, the control to output the characters in the halftone dots more clearly is strengthened.

【0147】写真優先が設定されると、エッジに対して
処理される領域が狭まり、また処理される線幅が細くな
る。また、優先の度合いが大きくなると網点中の文字処
理は行わないことで、写真の品位を優先させる。
When the photograph priority is set, the area processed for the edge is narrowed and the processed line width is narrowed. When the degree of priority increases, character processing in halftone dots is not performed, so that the quality of the photograph is prioritized.

【0148】以上説明したように、本実施例によれば、
画像中の文字/線画部分の太さを判定し、文字/線画の
輪郭情報と彩度情報を組み合わせて画像処理を行う際
に、文字/写真分離レベルの調整により、黒文字処理用
判定パラメータと処理の度合いを同時に変化させること
で、処理される文字の太さや、処理の度合いが変化し、
ユーザの好みに応じた画像の再現が可能になる。
As described above, according to this embodiment,
Judgment parameter and processing for black character processing by adjusting the character / photo separation level when determining the thickness of the character / line drawing part in the image and performing image processing by combining outline information and saturation information of the character / line drawing. By changing the degree of at the same time, the thickness of the characters to be processed and the degree of processing change,
The image can be reproduced according to the user's preference.

【0149】一方、ホストからの画像は、スキャナから
読み取った画像だけでなく、レンダリングされたコンピ
ュータグラフィック画像や、ドロー系のツールで描かれ
たポストスクリプトファイルなど、さまざまな画像が想
定される。これらの画像に対して高品位な黒文字処理を
施すためには、それぞれに適した画像処理係数を設定す
る必要がある。
On the other hand, the image from the host is not limited to the image read by the scanner, but various images such as a rendered computer graphic image and a PostScript file drawn by a draw system tool are assumed. In order to perform high-quality black character processing on these images, it is necessary to set an image processing coefficient suitable for each.

【0150】そこでホストから、文字/写真の優先の度
合いの他に画像の特徴を同時にコマンドで指定すること
により、黒文字処理の係数を制御する。以下に画像の特
徴と、操作する黒文字処理の係数の例を示す。
Therefore, the host simultaneously controls the coefficient of black character processing by designating the characteristics of the image in addition to the degree of priority of the character / photo by a command. The following is an example of the characteristics of the image and the coefficient of black character processing to be operated.

【0151】1.スキャナ画像 本体のイメージスキャナから読み取った画像と類似した
特徴を持つと思われるので、黒文字処理の係数は変更し
ない。
1. Scanner image Since it seems to have similar characteristics to the image read from the image scanner of the main body, the coefficient of black character processing is not changed.

【0152】2.CG画像 コンピュータ上で作成した画像は、ノイズの混入がな
い、文字のエッジが急峻、などの特徴を持つ。そのた
め、黒文字処理の係数のうち、図13の彩度判定パラメ
ータCr_Bk、Cr_COL、Cr_W、図8のエッ
ジ検出253のエッジ検出パラメータth_edge、
図15の文字の2値化のオフセットOFST1、網点判
定しきい値th_count、などを変更する。
2. CG image An image created on a computer has features such as no mixing of noise and sharp edges of characters. Therefore, among the coefficients of the black character processing, the saturation determination parameters Cr_Bk, Cr_COL, Cr_W of FIG. 13 and the edge detection parameter th_edge of the edge detection 253 of FIG.
The binary digitized offset OFST1 of FIG. 15 and the halftone dot determination threshold th_count are changed.

【0153】例えばCG画像については、スキャナ画像
のように色数が多くないことから、図13のGRYの部
分を小さくしてもよく、Cr_BkとCr_Corの値
を近づけたり、色ずれが少ないことからCr_Wの値を
大きくすることができる。また、スキャナ画像に比べて
MTFが良いことからエッジ検出も比較的容易と考えら
れるため、th_edgeを大きくし、網点画像がある
可能性も少ないことから、th_countを小さくす
ることができる。
For example, since the CG image does not have a large number of colors like the scanner image, the GRY portion in FIG. 13 may be small, and the values of Cr_Bk and Cr_Cor may be close to each other, or the color shift is small. The value of Cr_W can be increased. Further, since the MTF is better than that of the scanner image, it is considered that edge detection is relatively easy. Therefore, th_edge can be increased, and since there is little possibility that there is a halftone image, th_count can be reduced.

【0154】もちろん、これらの他に画像の種類を設定
してもよい。また、各々の画像に対して変更する係数
は、上記のものに限らない。以上のパラメータの設定を
ホスト又は、コントローラ227から行うことができる
ようにする。
Of course, other than these, the type of image may be set. Further, the coefficient changed for each image is not limited to the above. The above parameters can be set from the host or the controller 227.

【0155】また、ホスト228からの画像に対して、
送られてくるコマンドと同等の設定を本体の操作部10
1からマニュアルで入力できるようにすることも可能で
ある。
For the image from the host 228,
Set the same settings as the commands sent to the operation unit 10 of the main unit.
It is also possible to manually input from 1.

【0156】また、上述の様に、特定色(例えば黒色)
の線画の検出のためのパラメータの設定に加えて、検出
された特定色の線画に対する処理条件の設定をホスト2
28によって行ってもよい。
Further, as described above, a specific color (for example, black)
In addition to setting the parameters for detecting the line drawing of the host, the host 2 sets the processing conditions for the detected line drawing of the specific color.
28.

【0157】即ち、例えば、図26に示される出力信号
ucr,filter,senのうちの少なくとも1つ
を、同じ入力信号col,zone,edge,FCH
に対して、スキャナ画像とホストからの画像とで異なっ
たものとするようにホスト228によって設定できるよ
うにする。これにより、線画検出に応じた処理条件もホ
スト228から設定することができる。
That is, for example, at least one of the output signals ucr, filter, and sen shown in FIG. 26 is set to the same input signal col, zone, edge, FCH.
On the other hand, the host 228 can set the scanner image and the image from the host to be different. Thereby, the processing condition according to the line drawing detection can also be set from the host 228.

【0158】また、ホストから送られてくる画像は、フ
ルカラー画像+フォント文字が想定される。この場合、
フォント文字が存在する領域が黒文字処理されるべき領
域である。そして、フォント文字は、スキャナから読み
込まれた文字データよりもエッジは急峻であり、色情報
もスキャナの特性に依存しないという特徴を持つ。
The image sent from the host is assumed to be a full-color image + font characters. in this case,
The area where the font character exists is the area where the black character processing should be performed. The font characters have sharper edges than the character data read from the scanner, and the color information does not depend on the characteristics of the scanner.

【0159】そこで、ホストからの画像に黒文字処理を
施す場合には、予め用意した複数種類の画像処理係数の
中から、スキャナによって読み込まれた画像に対する画
像処理係数とは異なった係数を自動的に選択する。これ
により、ホスト228からの係数設定を毎回行う事な
く、スキャナ201、ホスト228からのそれぞれの画
像に対して適した画像処理を行うことが出来る。
Therefore, when performing black character processing on the image from the host, a coefficient different from the image processing coefficient for the image read by the scanner is automatically selected from among a plurality of types of image processing coefficients prepared in advance. select. As a result, image processing suitable for each image from the scanner 201 and the host 228 can be performed without setting the coefficient from the host 228 every time.

【0160】さらに、ホスト228または本体の操作部
101から、ホスト228から送られてくる画像に対す
る黒文字処理の度合を支持する事により、指示された黒
文字処理の度合に応じた画像処理係数(文字/写真領域
の判定パラメータ)選択する。上記選択される画像処理
係数の一覧を図45に示す。尚、図45において選択さ
れる判定パラメータの種類は、上述した図30と同様で
ある。そして、決定した各画像処理パラメータは、CP
U102を介して、描く画像処理部に入力される。
Furthermore, by supporting the degree of black character processing for the image sent from the host 228 from the host 228 or the operation unit 101 of the main body, the image processing coefficient (character / character Judgment parameter of photo area) Select. A list of the selected image processing coefficients is shown in FIG. The types of determination parameters selected in FIG. 45 are the same as those in FIG. 30 described above. Then, the determined image processing parameters are CP
It is input to the image processing unit for drawing via U102.

【0161】更に、ホスト228から送られてくる画像
に対して指定された黒文字処理の度合に基づき、マスキ
ングUCR係数、空間フィルタ係数、プリンタ解像度を
制御するためのLUT117の内容を決定する。ホスト
228からの画像に対するLUTの内容を図46〜図5
0に示す。
Further, the contents of the LUT 117 for controlling the masking UCR coefficient, the spatial filter coefficient, and the printer resolution are determined based on the degree of black character processing designated for the image sent from the host 228. 46 to 5 show the contents of the LUT for the image from the host 228.
0 is shown.

【0162】以上の制御により、ホスト228から送ら
れてくる画像が、スキャナを用いて読み込んだ画像や、
コンピュータ上で作成されたコンピュータグラフィック
スなど、様々な種類の画像を想定した場合でも、最適な
黒文字処理を施す事が可能となる。
By the above control, the image sent from the host 228 is the image read by using the scanner,
Even when various kinds of images such as computer graphics created on a computer are assumed, it is possible to perform optimum black character processing.

【0163】もちろん、これらの他に画像の種類を設定
してもよい。また、各々の画像に対して変更する係数
は、上記のものに限らない。以上のパラメータの設定を
ホストコンピュータ226又は、コントローラ227に
おいて行うことができるようにする。
Of course, other than these, the type of image may be set. Further, the coefficient changed for each image is not limited to the above. The above parameters can be set in the host computer 226 or the controller 227.

【0164】また、ホスト228からの画像に対して、
送られてくるコマンドと同等の設定を本体の操作部10
1からマニュアルで入力できるようにすることも可能で
ある。
For the image from the host 228,
Set the same settings as the commands sent to the operation unit 10 of the main unit.
It is also possible to manually input from 1.

【0165】また、上述の様に、特定色(例えば黒色)
の線画の検出のためのパラメータの設定に加えて、検出
された特定色の線画に対する処理条件の設定をホスト2
28によって行ってもよい。即ち、ホスト228からの
指示、または、コントローラ227における判断に基づ
き、コントローラ227において発生したパラメータあ
るいは処理条件を伝送線232を介してCPU102に
取り込むことにより、上述の処理を実現することができ
る。このとき、ホスト画像については、そのソースがイ
メージスキャナであるかコンピュータグラフィックスで
あるかに応じて、エリア毎に異なるパラメータあるいは
処理条件を設定することができる。これにより、ソース
毎の解像度や色特性に合わせて、複写機側の処理を行う
ことができる。
As described above, a specific color (for example, black)
In addition to setting the parameters for detecting the line drawing of the host, the host 2 sets the processing conditions for the detected line drawing of the specific color.
28. That is, the above processing can be realized by fetching the parameter or processing condition generated in the controller 227 into the CPU 102 via the transmission line 232 based on the instruction from the host 228 or the judgment in the controller 227. At this time, for the host image, different parameters or processing conditions can be set for each area depending on whether the source is the image scanner or the computer graphics. As a result, processing on the copying machine side can be performed according to the resolution and color characteristics of each source.

【0166】即ち、例えば、図26に示される出力信号
ucr,filter,senのうちの少なくとも1つ
を、同じ入力信号col,zone,edge,FCH
に対して、スキャナ画像とホストからの画像とで異なっ
たものとするようにホスト228によって設定できるよ
うにする。これにより、線画検出に応じた処理条件もホ
スト228から設定することができる。
That is, for example, at least one of the output signals ucr, filter, and sen shown in FIG. 26 is set to the same input signal col, zone, edge, FCH.
On the other hand, the host 228 can set the scanner image and the image from the host to be different. Thereby, the processing condition according to the line drawing detection can also be set from the host 228.

【0167】更に、スキャナ画像とホスト228からの
画像とを一画面内で混在させるべく画像合成を行う場合
には、一画面内において、領域毎に上述の黒色文字の検
出パラメータ又は処理条件を切り替えるようにしてもよ
い。
Further, when image combination is performed so that the scanner image and the image from the host 228 are mixed in one screen, the above-mentioned black character detection parameters or processing conditions are switched for each region in one screen. You may do it.

【0168】また、図4の画像信号切り替え部1064
にかえて図51に示す画像合成部1065を設けてもよ
い。
The image signal switching unit 1064 shown in FIG.
Instead, the image composition unit 1065 shown in FIG. 51 may be provided.

【0169】画像合成部1065では、ホスト226か
ら送られる制御信号に基づいて、イメージスキャナ部か
ら来る信号R4,G4,B4と、コントローラ227を
介して入力されるホスト226から送られた画像信号R
if,Gif,Bifとを算術的に加算する。この演算
式を以下に示す。
In the image synthesizing unit 1065, based on the control signal sent from the host 226, the signals R4, G4, B4 coming from the image scanner unit and the image signal R sent from the host 226 inputted via the controller 227 are inputted.
arithmetically add if, Gif, and Bif. This arithmetic expression is shown below.

【0170】R40=R4×COMPR+Rif×(1
−COMPR) G40=G4×COMPG+Gif×(1−COMP
G) B40=B4×COMPB+Gif×(1−COMP
B) ここで、COMPR,COMPG,COMPBはホスト
228または本体操作部101から指示される。COM
PR,COMPG,COMPBが全て「1」の時はスキ
ャナ画像が出力され、COMPR,COMPG,COM
PBが全て「0」の時はホスト228からの画像が出力
される。また、「0」から「1」の間の値が設定される
と、スキャナ画像とホスト228からの画像が合成され
て出力される。
R40 = R4 × COMPR + Rif × (1
-COMPR) G40 = G4 x COMPG + Gif x (1-COMP
G) B40 = B4 × COMP B + Gif × (1-COMP
B) Here, COMPR, COMPG, COMPB are instructed from the host 228 or the main body operation unit 101. COM
When PR, COMPG, and COMPB are all "1", the scanner image is output, and COMPR, COMPG, and COM are output.
When PB is all “0”, the image from the host 228 is output. When a value between "0" and "1" is set, the scanner image and the image from the host 228 are combined and output.

【0171】また、例えばスキャナ画像とホスト画像の
いずれが優先するかを予めホスト228によって設定し
ておき、オーバラップを許した入力を行うこともでき
る。その際には、重複領域については、上書きされる方
の画像に対する、黒文字判定基準を用いることができる
ように、いずれの画像が優先するかをCPU102が判
断し、領域毎に判定基準を設定する。
Further, for example, which of the scanner image and the host image has priority is set in advance by the host 228, and the input in which the overlap is allowed can be performed. At this time, for the overlapping area, the CPU 102 determines which image has priority so that the black character determination reference for the overwritten image can be used, and the determination reference is set for each area. .

【0172】(第2の実施例)本実施例は、第1の実施
例の構成に加え、領域毎に上述のLUT117による黒
文字判定に基づく制御パラメータを変更できるようにし
たものである。
(Second Embodiment) In addition to the structure of the first embodiment, the present embodiment is such that the control parameter based on the black character determination by the LUT 117 described above can be changed for each area.

【0173】図40に示されるように、本実施例におい
ては、デジタイザー100を設け、第1の実施例におけ
る図39のモード設定をデジタイザー100により指定
された領域毎に行えるようにしている。
As shown in FIG. 40, in this embodiment, the digitizer 100 is provided so that the mode setting of FIG. 39 in the first embodiment can be performed for each area designated by the digitizer 100.

【0174】例えば、デジタイザー100からの領域デ
ータが“0”の画素については、上述の実施例1に示さ
れる黒文字処理を行い、“1”の画素については、uc
r7,filter0,sen0の固定値にするという
時分割処理を行うことにより、通常の黒文字処理を一部
領域について行わないようにすることができる。
For example, for the pixel whose area data from the digitizer 100 is "0", the black character processing shown in the above-described first embodiment is performed, and for the pixel of "1", uc
By performing the time-division processing in which the fixed values of r7, filter0, and sen0 are performed, it is possible to prevent the normal black character processing from being performed on a partial area.

【0175】また、領域データが“1”の画素について
は、ZONE信号“0”と“7”を用いることもでき
る。即ち、ZONE信号“0”は最も細い文字、ZON
E信号“7”は網点/中間調画像を表すが、この2値的
な処理を行うようにしてもよい。
Further, the ZONE signals “0” and “7” can be used for the pixel whose area data is “1”. That is, the ZONE signal “0” is the thinnest character, ZON.
Although the E signal "7" represents a halftone / halftone image, this binary processing may be performed.

【0176】また、領域データは上述の様に、デジタイ
ザー100により指定する場合に限らず、例えば、外部
記憶装置などの外部装置から画像データを入力できるよ
うに外部機器とのインターフェースを設けることによ
り、外部装置からの領域データを用いてもよい。
The area data is not limited to being specified by the digitizer 100 as described above. For example, by providing an interface with an external device so that image data can be input from an external device such as an external storage device, Area data from an external device may be used.

【0177】なお、上記実施例では、図6に示すよう
に、黒文字判定部113に対する入力としてRGB信号
を用いたが、これに限定されず、例えば、LOG変換部
107の出力であるCMY信号を用いて行ってもよい。
In the above embodiment, as shown in FIG. 6, the RGB signal is used as an input to the black character determining unit 113, but the present invention is not limited to this. For example, the CMY signal output from the LOG converting unit 107 is used. You may use it.

【0178】また、上記の実施例では、黒文字判定部1
13を構成する文字の太さ判定回路114への入力は、
RGB信号を用いている。しかし、これに限定されず、
例えば、図27に示すように、Lab変換部2010を
通してL信号を得、これを用いて、その後の処理を行う
ようにしてもよい。なお、図27においては、図14に
示す文字の太さ判定回路の同一構成要素には同一符号を
用いている。
Further, in the above embodiment, the black character determination unit 1
The input to the character thickness determination circuit 114 constituting 13 is
RGB signals are used. However, not limited to this,
For example, as shown in FIG. 27, an L signal may be obtained through the Lab converter 2010, and the L signal may be used to perform subsequent processing. 27, the same reference numerals are used for the same components of the character thickness determination circuit shown in FIG.

【0179】なお、上述の例では、画像の特徴として、
黒文字を例として説明したが、特徴としては有彩色文字
や特定色のハーフトーン画像など他の特徴を検出するよ
うにしてもよい。
In the above example, the image features are:
Although black characters have been described as an example, other characteristics such as chromatic characters and halftone images of a specific color may be detected as the characteristics.

【0180】また、プリンタとしては、上述の電子写真
プリンタに限らず、熱転写プリンタやインクジェットプ
リンタであってもよい。
Further, the printer is not limited to the electrophotographic printer described above, but may be a thermal transfer printer or an ink jet printer.

【0181】特に、熱エネルギーによる膜沸騰を利用し
て液滴を吐出するタイプのいわゆるバブルジェットプリ
ンタであってもよい。
In particular, it may be a so-called bubble jet printer of the type that discharges droplets by utilizing film boiling due to thermal energy.

【0182】また、本発明は、例えば、スキャナ、プリ
ンタ等の複数の機器から構成されるシステムに適用して
も、複写装置のような1つの機器から成る装置に適用し
ても良い。また、本発明は、システムあるいは装置にフ
ロッピーディスク等の媒体に記憶されたプログラムを供
給することによって達成される場合にも適用できること
は言うまでもない。
The present invention may be applied to, for example, a system including a plurality of devices such as a scanner and a printer, or an apparatus including a single device such as a copying machine. Further, it goes without saying that the present invention can also be applied to a case where it is achieved by supplying a program stored in a medium such as a floppy disk to a system or apparatus.

【0183】以上説明したように、原稿画像の下地の濃
度に応じて、黒文字処理を行うための各判定手段のパラ
メータを最適な値にすることで、下地の濃度に関わらず
高品位な黒文字処理を提供することが可能になる。
As described above, by setting the parameters of the respective judging means for performing the black character processing to the optimum values according to the background density of the original image, the high-quality black character processing can be performed regardless of the background density. It becomes possible to provide.

【0184】また、ホストコンピュータにより、画像形
成装置の線画処理、下地処理を良好に制御することがで
きる。
Further, the host computer can favorably control the line drawing process and the background process of the image forming apparatus.

【0185】本発明は上述の実施例に限らず、クレーム
の記載の範囲内で、様々な変形、応用が可能である。
The present invention is not limited to the above-mentioned embodiments, and various modifications and applications are possible within the scope of the claims.

【0186】[0186]

【発明の効果】以上の様に本願の発明によれば、複数の
入力手段から入力される画像に対して夫々最適な特徴検
出処理を行うことができる。
As described above, according to the invention of the present application, it is possible to perform the optimum feature detection processing on each of the images input from the plurality of input means.

【0187】また、ホストからの画像に対して黒文字処
理を施す場合には、ホスト(外部装置)からの画像処理
係数の設定指示が無くても、ホストからの画像データに
対する画像処理に適した係数を設定する黒文字処理が可
能な画像処理装置及び方法を提供することができる。
Further, when the black character processing is performed on the image from the host, the coefficient suitable for the image processing on the image data from the host is received even if there is no instruction to set the image processing coefficient from the host (external device). It is possible to provide an image processing apparatus and method capable of performing black character processing for setting.

【0188】更に、ホストまたは本体操作部からの指示
により、黒文字処理の度合を変化させることを可能とす
る黒文字処理が可能な画像処理装置及び方法を提供する
ことができる。
Further, it is possible to provide an image processing apparatus and method capable of performing black character processing, which makes it possible to change the degree of black character processing in accordance with an instruction from the host or the main body operation section.

【0189】また、ホストからの画像とスキャナからの
原稿画像が混在した場合に、最適な画像処理を施すこと
が可能な画像処理装置及び方法を提供することができ
る。
Further, it is possible to provide an image processing apparatus and method capable of performing optimum image processing when the image from the host and the original image from the scanner are mixed.

【0190】また、ホストと画像形成装置との間の高機
能のインターフェースを提供することができる。
Further, it is possible to provide a highly functional interface between the host and the image forming apparatus.

【0191】また、ホストからの画像の下地処理を良好
に制御することができる。
Further, the background processing of the image from the host can be well controlled.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例に係る画像処理装置の断面構成
を示す図である。
FIG. 1 is a diagram showing a cross-sectional configuration of an image processing apparatus according to an embodiment of the present invention.

【図2】CCD210の外観構成を示す図である。FIG. 2 is a diagram showing an external configuration of a CCD 210.

【図3】図2に示す点線a−a′にてイメージスキャナ
部201を切断したときの断面図である。
3 is a cross-sectional view when the image scanner unit 201 is cut along a dotted line aa 'shown in FIG.

【図4】図2において符号Bにて示される受光素子の拡
大図である。
FIG. 4 is an enlarged view of the light receiving element indicated by reference numeral B in FIG.

【図5】実施例に係るプリンタ部での濃度再現の制御動
作を示すタイミングチャートである。
FIG. 5 is a timing chart showing a control operation of density reproduction in the printer unit according to the embodiment.

【図6】実施例に係るイメージスキャナ部201の画像
信号処理部209における画像信号の流れを示すブロッ
ク図である。
FIG. 6 is a block diagram showing the flow of image signals in the image signal processing unit 209 of the image scanner unit 201 according to the embodiment.

【図7】図6に示す画像信号処理部209における各制
御信号のタイミングを示す図である。
7 is a diagram showing the timing of each control signal in the image signal processing unit 209 shown in FIG.

【図8】エッジ検出回路115の内部構成を示すブロッ
ク図である。
FIG. 8 is a block diagram showing an internal configuration of an edge detection circuit 115.

【図9】文字の太さ判定回路114を説明するための図
である。
FIG. 9 is a diagram for explaining a character thickness determination circuit 114.

【図10】FIFO及びプラシアンフィルタによるライ
ン遅延の様子を示す図である。
FIG. 10 is a diagram showing a state of line delay due to a FIFO and a Prussian filter.

【図11】エッジ検出の例を示す図である。FIG. 11 is a diagram showing an example of edge detection.

【図12】黒文字判定部113を構成する彩度判定回路
116の詳細な構成を示すブロック図である。
12 is a block diagram showing a detailed configuration of a saturation determination circuit 116 that constitutes a black character determination unit 113. FIG.

【図13】LUTでのデータ変換特性を示す図である。FIG. 13 is a diagram showing data conversion characteristics in an LUT.

【図14】黒文字判定部113を構成する文字の太さ判
定回路114の構成を示すブロック図である。
FIG. 14 is a block diagram showing a configuration of a character thickness determination circuit 114 that constitutes a black character determination unit 113.

【図15】文字・中間調検出回路2013の内部構成を
示すブロック図である。
FIG. 15 is a block diagram showing an internal configuration of a character / halftone detection circuit 2013.

【図16】網点領域検出部2014の詳細構成を示すブ
ロック図である。
16 is a block diagram showing a detailed configuration of a halftone dot area detection unit 2014. FIG.

【図17】エッジ方向検出回路2044でのエッジ方向
検出の規則を示す図である。
FIG. 17 is a diagram showing a rule of edge direction detection in the edge direction detection circuit 2044.

【図18】対向エッジ検出の規制を示す図である。FIG. 18 is a diagram showing regulation of detection of an opposite edge.

【図19】カウント部2049でのウィンドゥの形を示
す図である。
FIG. 19 is a diagram showing a shape of a window in a counting unit 2049.

【図20】エリアサイズ判定回路2016の内部構成を
示すブロック図である。
20 is a block diagram showing an internal configuration of an area size determination circuit 2016. FIG.

【図21】ZONE補正部2084の構成を示すブロッ
ク図である。
FIG. 21 is a block diagram showing a configuration of a ZONE correction unit 2084.

【図22】文字の太さに応じたPICT_FHの出力を
定める様子を示す図である。
FIG. 22 is a diagram showing how the output of PICT_FH is determined according to the thickness of a character.

【図23】エンコーダ2083のエンコードルールを示
す図である。
FIG. 23 is a diagram showing an encoding rule of an encoder 2083.

【図24】網点/中間調中の文字検出のためのアルゴリ
ズムを示す図である。
FIG. 24 is a diagram showing an algorithm for character detection in halftone dots / halftones.

【図25】図23に示すアルゴリズムによる処理の様子
を具体的に示す図である。
FIG. 25 is a diagram specifically showing a state of processing by the algorithm shown in FIG. 23.

【図26】LUT117の入出力対応の内容を示す図で
ある。
FIG. 26 is a diagram showing the contents of input / output correspondence of the LUT 117.

【図27】文字太さ判定回路114の変形例を示すブロ
ック図である。
FIG. 27 is a block diagram showing a modified example of the character thickness determination circuit 114.

【図28】マスキングUCR演算式を示す図である。FIG. 28 is a diagram showing a masking UCR arithmetic expression.

【図29】文字/写真分離レベルの調整のための表示を
示す図である。
FIG. 29 is a diagram showing a display for adjusting a character / photo separation level.

【図30】判定パラメータを示す図である。FIG. 30 is a diagram showing determination parameters.

【図31】文字処理の度合を表すLUTを示す図であ
る。
FIG. 31 is a diagram showing an LUT showing the degree of character processing.

【図32】文字処理の度合を表すLUTを示す図であ
る。
FIG. 32 is a diagram showing an LUT showing the degree of character processing.

【図33】文字処理の度合を表すLUTを示す図であ
る。
FIG. 33 is a diagram showing an LUT showing the degree of character processing.

【図34】文字処理の度合を表すLUTを示す図であ
る。
FIG. 34 is a diagram showing an LUT showing the degree of character processing.

【図35】文字処理の度合を表すLUTを示す図であ
る。
FIG. 35 is a diagram showing an LUT showing the degree of character processing.

【図36】文字処理の度合を表すLUTを示す図であ
る。
FIG. 36 is a diagram showing an LUT showing the degree of character processing.

【図37】文字処理の度合を表すLUTを示す図であ
る。
FIG. 37 is a diagram showing an LUT showing the degree of character processing.

【図38】文字処理の度合を表すLUTを示す図であ
る。
FIG. 38 is a diagram showing an LUT showing the degree of character processing.

【図39】操作部における原稿モードの表示を示す図で
ある。
FIG. 39 is a diagram showing a display of a document mode on the operation unit.

【図40】本願の第2の実施例の構成を説明する図であ
る。
FIG. 40 is a diagram illustrating a configuration of a second example of the present application.

【図41】操作部を示す図である。FIG. 41 is a diagram showing an operation unit.

【図42】操作部による下地レベル調整を示す図であ
る。
FIG. 42 is a diagram showing background level adjustment by the operation unit.

【図43】下地処理部の構成を示すブロック図である。FIG. 43 is a block diagram showing a configuration of a background processing section.

【図44】下地検出を説明する図である。FIG. 44 is a diagram illustrating background detection.

【図45】判定パラメータを示す図である。FIG. 45 is a diagram showing determination parameters.

【図46】文字処理の度合を表すLUTを示す図であ
る。
FIG. 46 is a diagram showing an LUT showing the degree of character processing.

【図47】文字処理の度合を表すLUTを示す図であ
る。
FIG. 47 is a diagram showing an LUT showing the degree of character processing.

【図48】文字処理の度合を表すLUTを示す図であ
る。
FIG. 48 is a diagram showing an LUT showing the degree of character processing.

【図49】文字処理の度合を表すLUTを示す図であ
る。
FIG. 49 is a diagram showing an LUT showing the degree of character processing.

【図50】文字処理の度合を表すLUTを示す図であ
る。
FIG. 50 is a diagram showing an LUT showing the degree of character processing.

【図51】文字処理の度合を表すLUTを示す図であ
る。
FIG. 51 is a diagram showing an LUT showing the degree of character processing.

【図52】文字処理の度合を表すLUTを示す図であ
る。
FIG. 52 is a diagram showing an LUT showing the degree of character processing.

【図53】文字処理の度合を表すLUTを示す図であ
る。
FIG. 53 is a diagram showing an LUT showing the degree of character processing.

【図54】文字処理の度合を表すLUTを示す図であ
る。
FIG. 54 is a diagram showing an LUT showing the degree of character processing.

【図55】文字処理の度合を表すLUTを示す図であ
る。
FIG. 55 is a diagram showing an LUT showing the degree of character processing.

【図56】第1の実施例の変形例を示す図である。FIG. 56 is a diagram showing a modification of the first embodiment.

【符号の説明】[Explanation of symbols]

200 プリンタ部 201 イメージスキャナ部 227 コントローラ 228 ホストコンピュータ 200 printer unit 201 image scanner unit 227 controller 228 host computer

Claims (19)

【特許請求の範囲】[Claims] 【請求項1】 第1の複数の色成分信号を入力する第1
の入力手段と、 第2の複数の色成分信号を入力する第2の入力手段と、 前記第1又は第2の複数の色成分信号によって表される
画像の特定色の線画部を判定する判定手段と、 前記判定手段に、判定基準を設定する設定手段とを有す
ることを特徴とする画像処理装置。
1. A first input for inputting a first plurality of color component signals
Input means, second input means for inputting a second plurality of color component signals, and determination for determining a line drawing portion of a specific color of the image represented by the first or second plurality of color component signals An image processing apparatus comprising: a means and a setting means for setting the determination standard in the determination means.
【請求項2】 更に、前記判定手段による判定結果に応
じて、前記第1又は第2の複数の色成分信号を処理する
処理手段を有することを特徴とする請求項1に記載の画
像処理装置。
2. The image processing apparatus according to claim 1, further comprising processing means for processing the first or second plurality of color component signals in accordance with the determination result by the determination means. .
【請求項3】 前記処理手段は、前記特定色の線画部を
高解像度で再生することを特徴とする請求項2に記載の
画像処理装置。
3. The image processing apparatus according to claim 2, wherein the processing means reproduces the line drawing portion of the specific color with high resolution.
【請求項4】 前記処理手段は、空間周波数フィルタ処
理、UCR処理、中間調処理のうち少なくとも1つを行
うことを特徴とする請求項2に記載の画像処理装置。
4. The image processing apparatus according to claim 2, wherein the processing means performs at least one of spatial frequency filter processing, UCR processing, and halftone processing.
【請求項5】 前記設定手段は、前記第1、第2の複数
の色成分信号に対して互いに異なる判定基準を設定する
ことを特徴とする請求項1に記載の画像処理装置。
5. The image processing apparatus according to claim 1, wherein the setting unit sets different determination criteria for the first and second plurality of color component signals.
【請求項6】 前記判定手段は、地肌成分を抽出する抽
出手段を含むことを特徴とする請求項1に記載の画像処
理装置。
6. The image processing apparatus according to claim 1, wherein the determination unit includes an extraction unit that extracts a background component.
【請求項7】 前記判定手段は、前記第1又は第2の複
数の色成分信号から、エッジを検出するエッジ検出手段
を含むことを特徴とする請求項1に記載の画像処理装
置。
7. The image processing apparatus according to claim 1, wherein the determination unit includes an edge detection unit that detects an edge from the first or second plurality of color component signals.
【請求項8】 前記判定手段は、前記第1又は第2の複
数の色成分信号から、彩度を判定する彩度判定手段を含
むことを特徴とする請求項1に記載の画像処理装置。
8. The image processing apparatus according to claim 1, wherein the determination unit includes a saturation determination unit that determines saturation from the first or second plurality of color component signals.
【請求項9】 前記判定手段は、前記第1又は第2の複
数の色成分信号から、線画の太さを判定する判定手段を
含むことを特徴とする請求項1に記載の画像処理装置。
9. The image processing apparatus according to claim 1, wherein the determination unit includes a determination unit that determines the thickness of a line drawing from the first or second plurality of color component signals.
【請求項10】 前記第1の複数の色成分信号は、イメ
ージスキャナから入力され、前記第2の複数の色成分信
号は、ホストコンピュータから入力されることを特徴と
する請求項1に記載の画像処理装置。
10. The first plurality of color component signals are input from an image scanner, and the second plurality of color component signals are input from a host computer. Image processing device.
【請求項11】 前記第1及び第2の複数の色成分信号
は、1画面中に混在することを特徴とする請求項1に記
載の画像処理装置。
11. The image processing apparatus according to claim 1, wherein the first and second plurality of color component signals are mixed in one screen.
【請求項12】 前記設定手段は、外部装置から制御可
能であることを特徴とする請求項1に記載の画像処理装
置。
12. The image processing apparatus according to claim 1, wherein the setting unit is controllable from an external device.
【請求項13】 前記判定手段は、前記第1及び第2の
複数の色成分信号に対して共通に用いられる回路を含む
ことを特徴とする請求項1に記載の画像処理装置。
13. The image processing apparatus according to claim 1, wherein the determination unit includes a circuit commonly used for the first and second plurality of color component signals.
【請求項14】 外部装置からの情報を受信する受信手
段と、 該情報を処理し、画素毎の画像データを発生する処理手
段と、 該画像データを、画像形成装置へ出力する出力手段と、 該画像データによって表される画像の特徴を、前記画像
形成装置で判定するための判定基準を表す信号を発生す
る発生手段とを有することを特徴とする画像処理装置。
14. Receiving means for receiving information from an external device, processing means for processing the information and generating image data for each pixel, and output means for outputting the image data to an image forming apparatus. An image processing apparatus comprising: a generation unit that generates a signal representing a determination criterion for determining the characteristics of an image represented by the image data by the image forming apparatus.
【請求項15】 前記画像の特徴は、該画像が特定色の
線画部を持つか否かであることを特徴とする請求項14
に記載の画像処理装置。
15. The characteristic of the image is whether or not the image has a line drawing portion of a specific color.
The image processing device according to item 1.
【請求項16】 前記外部装置はホストコンピュータで
あることを特徴とする請求項14に記載の画像処理装
置。
16. The image processing apparatus according to claim 14, wherein the external device is a host computer.
【請求項17】 前記画像形成装置は、特定色の線画部
の判定に応じて、前記画像データを処理する処理手段を
有することを特徴とする請求項14に記載の画像処理装
置。
17. The image processing apparatus according to claim 14, wherein the image forming apparatus includes a processing unit that processes the image data according to a determination of a line drawing portion of a specific color.
【請求項18】 所定パラメータに基づいて特定色の線
画を検出し、該線画に対して所定処理条件による処理を
行う画像形成装置を外部装置により制御する画像処理方
法において、 前記画像形成装置における前記パラメータ又は前記処理
条件を前記外部装置により設定可能としたことを特徴と
する画像処理方法。
18. An image processing method in which an external device controls an image forming apparatus that detects a line drawing of a specific color based on a predetermined parameter and processes the line drawing under a predetermined processing condition, wherein the image forming apparatus includes: An image processing method, wherein a parameter or the processing condition can be set by the external device.
【請求項19】 入力画像に対して所定の下地処理を行
う画像形成装置を、外部装置により制御する画像処理方
法において、 前記画像形成装置における前記下地処理のパラメータを
前記外部装置により設定可能としたことを特徴とする画
像処理方法。
19. An image processing method for controlling, by an external device, an image forming apparatus that performs predetermined background processing on an input image, wherein the parameters of the background processing in the image forming apparatus can be set by the external apparatus. An image processing method characterized by the above.
JP7194983A 1994-07-29 1995-07-31 Image processor and its method Pending JPH08275017A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7194983A JPH08275017A (en) 1994-07-29 1995-07-31 Image processor and its method

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
JP6-178501 1994-07-29
JP17850194 1994-07-29
JP7-13114 1995-01-30
JP1311495 1995-01-30
JP7194983A JPH08275017A (en) 1994-07-29 1995-07-31 Image processor and its method

Publications (1)

Publication Number Publication Date
JPH08275017A true JPH08275017A (en) 1996-10-18

Family

ID=27280123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7194983A Pending JPH08275017A (en) 1994-07-29 1995-07-31 Image processor and its method

Country Status (1)

Country Link
JP (1) JPH08275017A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7746505B2 (en) 2004-05-07 2010-06-29 Samsung Electronics Co., Ltd. Image quality improving apparatus and method using detected edges
JP2013115730A (en) * 2011-11-30 2013-06-10 Canon Inc Image processing apparatus, image processing method and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7746505B2 (en) 2004-05-07 2010-06-29 Samsung Electronics Co., Ltd. Image quality improving apparatus and method using detected edges
JP2013115730A (en) * 2011-11-30 2013-06-10 Canon Inc Image processing apparatus, image processing method and program

Similar Documents

Publication Publication Date Title
US7142717B2 (en) Image processing apparatus and method
JP4331159B2 (en) Image processing apparatus, image forming apparatus, image processing method, image processing program, and recording medium therefor
JP2009100026A (en) Image processor
EP0695079B1 (en) Image processing apparatus with image content judgement
JP2007028336A (en) Apparatus and method for image processing, image forming apparatus, program, and recording medium
US6744921B1 (en) Image processing apparatus and method that determines the thickness of characters and lines
JP3333894B2 (en) Image processing device
JP3599367B2 (en) Image processing apparatus and method
JP4155634B2 (en) Image forming apparatus, image forming system, and computer-readable recording medium
JP3581395B2 (en) Image processing apparatus and image processing method
JP3554012B2 (en) Image processing apparatus and image processing method
JPH08275017A (en) Image processor and its method
JP4035254B2 (en) Image processing apparatus and image processing method
JPH1188707A (en) Image procesor and image processing method
JP3715747B2 (en) Image processing apparatus and image processing method
JPH11127353A (en) Image processor and image processing method
JP2001352456A (en) Image-processing method and image-processing unit, and image-forming device provided with them
JP2001157059A (en) Device and method for forming image
JP3471915B2 (en) Image processing apparatus and method
JP3679539B2 (en) Image processing apparatus and image processing method
JP2000134476A (en) Image processor and its control method, and storage medium
JP2000134491A (en) Image processor and its control method, and storage medium
JPH08130636A (en) Image processing unit and its method
JP2001160902A (en) Image processor and method therefor
JPH09322007A (en) Color image processor and its method

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20041020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041026

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20041227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050301

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050428

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050531