JPH07273983A - Image processor - Google Patents

Image processor

Info

Publication number
JPH07273983A
JPH07273983A JP6062961A JP6296194A JPH07273983A JP H07273983 A JPH07273983 A JP H07273983A JP 6062961 A JP6062961 A JP 6062961A JP 6296194 A JP6296194 A JP 6296194A JP H07273983 A JPH07273983 A JP H07273983A
Authority
JP
Japan
Prior art keywords
image
character
signal
processing
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP6062961A
Other languages
Japanese (ja)
Other versions
JP3554012B2 (en
Inventor
Yuki Uchida
由紀 内田
Shinobu Arimoto
忍 有本
Takeshi Matsukubo
勇志 松久保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP06296194A priority Critical patent/JP3554012B2/en
Publication of JPH07273983A publication Critical patent/JPH07273983A/en
Application granted granted Critical
Publication of JP3554012B2 publication Critical patent/JP3554012B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Abstract

PURPOSE:To prevent image quality from deteriorating by smoothly performing black processing for characters, line drawings, etc. CONSTITUTION:On the basis of an RGB signal, a character thickness decision part 114 in a black character decision part 113 decides the thickness of a character/line drawing part in an image. Further, an edge detection part 115 obtains outline information on characters and line drawings and a color saturation decision part 116 obtains color saturation information; when image processing is performed by combining the color saturation information with the outline information, a thickness decision signal is so corrected that the characters and lines continuously vary in thickness.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、入力された画像から抽
出した画像の特徴をもとに出力画像の処理をする画像処
理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus for processing an output image based on the characteristics of the image extracted from the input image.

【0002】[0002]

【従来の技術】近年、カラー画像データをデジタル的に
処理し、それをカラープリンタに出力してカラー画像を
得るカラープリント装置や、カラー原稿を色分解して電
気的に読み取り、得られたカラー画像データを用紙上に
プリント出力したカラー画像の複写を行う、いわゆる、
デジタルカラー複写機等、カラー印字システムの発展に
はめざましいものがある。
2. Description of the Related Art In recent years, a color printing apparatus that digitally processes color image data and outputs it to a color printer to obtain a color image, or a color original obtained by color-separating and electrically reading a color original Copying a color image with image data printed out on paper, the so-called
There are remarkable developments in color printing systems such as digital color copiers.

【0003】また、これらのシステムの普及に伴い、カ
ラー画像の印字品質に対する要求も高くなってきてお
り、特に、黒い文字や黒細線を、より黒く、シャープに
印字したいという要求が高まっている。すなわち、黒原
稿を色分解すると、黒を再現する信号としてイエロー、
マゼンタ、シアン、ブラックの各信号が発生するが、得
られた信号に基づいてそのまま印字すると、各色が4色
重ね合わせて再現されるので、色相互間の若干のズレに
より黒の細線に色にじみが生じ、本来の黒が黒く見えな
かったり、あるいは、ボケて見えたりして、印字品質を
著しく低下させていた。
Further, with the widespread use of these systems, the demands on the print quality of color images are also increasing, and in particular, the demand for printing black characters and fine black lines in a blacker and sharper manner is increasing. That is, when a black original is color-separated, yellow as a signal for reproducing black,
Magenta, cyan, and black signals are generated, but if you print as they are based on the obtained signals, each color will be reproduced by superimposing four colors, so there will be a slight misalignment between the colors, causing a black fine line to bleed. Occurs, and the original black does not look black, or it looks blurred, which significantly deteriorates the printing quality.

【0004】これに対して、画像信号中の黒、それ以外
の色等の色情報や、細線、網点等の空間周波数の特徴を
抽出して、例えば、黒文字、色文字等のエリアを検出し
たり、さらには、中間調画像や網点画像領域等に分け
て、それぞれのエリアに応じた処理を施し、エリアが黒
文字部ならば黒単色化する方法等が提案されている。
On the other hand, color information such as black and other colors in the image signal and characteristics of spatial frequency such as thin lines and halftone dots are extracted to detect areas such as black characters and color characters. Further, there has been proposed a method of dividing into a halftone image area or a halftone dot image area and performing processing according to each area, and if the area is a black character portion, it is made into a black single color.

【0005】さらに、上記の方法を改良し、文字の太さ
を判別して、太さに応じた黒文字処理を施すことによ
り、黒文字処理の境界線において処理に差がくっきりと
出ることを改善した手法も特願平5−354528号に
おいて本出願人により提案されている。
Further, by improving the above method and determining the thickness of a character and performing black character processing according to the thickness, it is possible to improve a clear difference in processing at the boundary line of the black character processing. The method is also proposed by the present applicant in Japanese Patent Application No. 5-354528.

【0006】[0006]

【発明が解決しようとしている課題】しかしながら、上
記従来例における領域判定のパラメータは、或る程度原
稿の下地濃度や文字の濃度等を想定したものである。
However, the parameters for the area determination in the above-mentioned conventional example are based on the assumption that the background density of a document, the density of characters, etc. are to some extent.

【0007】そのため、あらゆる原稿に対して、ユーザ
ーの好みに適した部分のみに対して、好みの黒文字処理
を施すことは困難である。
For this reason, it is difficult to perform the desired black character processing only on the portion of all originals that is suitable for the user's preference.

【0008】また、従来は1画面中の一部領域につい
て、異なる黒文字処理を行うことができなかった。
Further, conventionally, different black character processing could not be performed on a partial area in one screen.

【0009】本発明は、上述の課題に鑑みてなされたも
ので、その目的とするところは、原稿の特徴及びユーザ
の希望に応じて良好な画像処理を行うことにある。より
具体的には、ユーザの好みに応じて例えば黒文字処理を
施す領域や、黒文字処理の程度を設定可能にすることで
ある。
The present invention has been made in view of the above problems, and an object of the present invention is to perform favorable image processing according to the characteristics of the original document and the user's request. More specifically, for example, it is possible to set the area to be subjected to black character processing and the degree of black character processing according to the preference of the user.

【0010】また、1画面中の任意の領域について、黒
文字等特定色の線画部分の処理を変更できるようにする
ことにある。
It is also possible to change the processing of a line drawing portion of a specific color such as a black character for an arbitrary area in one screen.

【0011】[0011]

【課題を解決するための手段及び作用】上記課題を解決
するため、本発明の画像処理装置は、 原稿画像を表す
画像データを処理する画像処理装置において、前記画像
データより前記原稿画像中の文字・線画を判定する判定
手段と、前記判定手段の判定結果をもとに、所定の画像
処理を行う手段と、原稿画像の特徴を抽出する際に、文
字・線画と中間調のいずれを重視するかを多段階に指定
する指定手段と、前記指定手段による指定に基づき、前
記判定手段による文字・線画判定のパラメータと、前記
処理手段による処理を制御する制御手段とを有すること
を特徴とする。
In order to solve the above-mentioned problems, an image processing apparatus of the present invention is an image processing apparatus for processing image data representing an original image, wherein the characters in the original image are extracted from the image data. · A determination unit for determining a line drawing, a unit for performing a predetermined image processing based on the determination result of the determination unit, and an emphasis on character / line drawing or halftone when extracting characteristics of a document image. It is characterized in that it has a designating means for designating whether or not in multiple stages, a parameter for character / line drawing determination by the determining means based on the designation by the designating means, and a control means for controlling the processing by the processing means.

【0012】また、原稿画像を表すカラー画像データを
処理する画像処理装置において、前記カラー画像データ
から特定色の線画像部分を検出する検出手段と、所定の
領域データを発生する信号発生手段と、前記領域データ
に応じて前記検出手段による検出のためのパラメータを
制御する制御手段とを有することを特徴とする。
Further, in an image processing apparatus for processing color image data representing an original image, a detecting means for detecting a line image portion of a specific color from the color image data, a signal generating means for generating predetermined area data, And a control unit that controls a parameter for detection by the detection unit according to the area data.

【0013】[0013]

【実施例】以下、添付図面を参照して、本発明に係る好
適な実施例を詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings.

【0014】(第1の実施例)図1は、本発明の実施例
に係る画像処理装置の断面構成を示す図である。同図に
おいて、符号201はイメージスキャナ部であり、ここ
では、原稿読み取り、デジタル信号処理を行う。また、
200はプリンタ部であり、イメージスキャナ部201
にて読み取られた原稿画像に対応して画像を、用紙上に
フルカラーでプリント出力する。
(First Embodiment) FIG. 1 is a diagram showing a sectional structure of an image processing apparatus according to an embodiment of the present invention. In the figure, reference numeral 201 denotes an image scanner unit, which performs document reading and digital signal processing here. Also,
A printer unit 200 includes an image scanner unit 201.
An image corresponding to the original image read in is printed out on paper in full color.

【0015】次に、本実施例における原稿モードについ
て説明する。
Next, the document mode in this embodiment will be described.

【0016】操作者は図39に示す6種類の原稿モード
から、複写する原稿に応じて原稿モードを選択する。そ
れぞれの原稿モードに対する処理は以下の通りである。
The operator selects a document mode from the six document modes shown in FIG. 39 according to the document to be copied. The processing for each original mode is as follows.

【0017】文字モードでは、記録解像度を400dp
i(dot per inch)とし、原稿の色を判別
して黒文字と判定された部分に対しては黒文字処理を施
し、黒以外の領域にはエッジ強調処理を施す。この処理
により、記録解像度を上げることで細部まで鮮明な文字
の再現が可能になり、かつ黒い文字に対しては黒トナー
のみで記録することでさらに色にじみの鮮明な黒文字再
現が可能になる。
In the character mode, the recording resolution is 400 dp.
i (dot per inch), the color of the original is discriminated, and black character processing is performed on a portion determined to be black character, and edge emphasis processing is performed on a region other than black. By this process, it is possible to reproduce fine characters in detail by increasing the recording resolution, and it is possible to reproduce black characters with clear color blur by recording only black toner for black characters.

【0018】地図モードでは、エッジ強調処理を施し、
400dpiの記録解像度で記録する。また、UCRを
強くしたマスキングUCR係数を用いる。この処理によ
って、細かい文字や線の多い地図原稿に対して解像度の
高い画像再現が可能となる。また領域分離を行わないた
めに、領域分離の際に生じる誤判定に起因する品位の劣
化が無い出力画像が得られる。さらに、UCRを強くす
ることで、原稿中に存在する黒文字を色トナーを極力抑
えて黒トナーを多くした比率で記録することが可能にな
る。
In the map mode, edge enhancement processing is performed,
Recording is performed at a recording resolution of 400 dpi. Also, a masking UCR coefficient with a stronger UCR is used. By this processing, it is possible to reproduce an image with high resolution for a map document having many fine characters and lines. Further, since the area separation is not performed, an output image can be obtained in which the quality is not deteriorated due to the erroneous determination that occurs during the area separation. Further, by increasing the UCR, it becomes possible to record black characters existing in the original document at a ratio in which the black toner is increased while suppressing the color toner as much as possible.

【0019】印画紙写真モードでは印画紙写真用のエッ
ジ強調を施し、200dpiの記録解像度で記録する。
この処理により、階調性が高く、かつ画像の鮮鋭度が強
調されためりはりのある画像を出力することが可能にな
る。
In the photographic paper photograph mode, edge enhancement for photographic paper photographs is performed and recording is performed at a recording resolution of 200 dpi.
By this processing, it is possible to output an image having high gradation and sharpness of the image being emphasized and having a heap.

【0020】印刷写真モードでは、モアレの発生を抑制
するためにスムージング処理を施した後に、エッジ強調
を施し、200dpiの記録解像度で記録する。この処
理により、モアレを発生させずに、階調性が高く、かつ
画像の鮮鋭度が強調された画像を出力することが可能に
なる。
In the print photograph mode, smoothing processing is performed to suppress the occurrence of moire, edge enhancement is performed, and recording is performed at a recording resolution of 200 dpi. By this processing, it is possible to output an image with high gradation and enhanced image sharpness without generating moire.

【0021】文字印刷写真モードでは、文字領域と印刷
写真領域を自動識別し、文字領域と判別された領域には
文字用の処理、印刷写真領域と判別された領域には印刷
写真用の処理が施される。
In the character print photograph mode, the character area and the print photograph area are automatically identified, and the area determined to be the character area is processed for characters and the area determined to be the print picture area is processed for the print photograph. Is given.

【0022】文字印画紙写真モードでは、文字領域は印
画紙写真領域を自動識別し、文字領域と判別された領域
には文字用の処理、印画紙写真領域と判別された領域に
は印画紙写真用の処理が施される。
In the character photographic paper photograph mode, the character area automatically identifies the photographic paper photographic area, the area determined to be the character area is processed for characters, and the area determined to be the photographic paper photograph area is processed to the photographic paper photograph. Processing is performed.

【0023】ユーザは、原稿全体に対して図29、図3
9に示される操作部101より上記原稿モードを選択で
きるだけでなく、領域指定手段であるデジタイザ100
を用いて原稿上に複数の原稿モードの領域を設定するこ
とにより、領域毎に異なる原稿モードを設定することが
可能である。以上のモード設定は、CPU102がLU
T117の出力を制御することによって実現できる。
The user selects the entire manuscript as shown in FIGS.
Not only can the original mode be selected from the operation unit 101 shown in FIG.
By setting a plurality of original mode areas on the original using, it is possible to set different original modes for each area. In the above mode setting, the CPU 102 sets the LU
This can be realized by controlling the output of T117.

【0024】次に、ユーザがコピースタートキーを押す
ことにより、コピー動作が開始する。
Then, the user presses the copy start key to start the copy operation.

【0025】イメージスキャナ部201において、原稿
圧板202にて原稿台ガラス(プラテン)203上に載
置された原稿204を、ハロゲンランプ205の光で照
射する。この原稿204からの反射光はミラー206、
207に導かれ、レンズ208により3ラインセンサ
(以下、CCDという)210上に像を結ぶ。なお、レ
ンズ208には、赤外カットフィルタ231が設けられ
ている。
In the image scanner section 201, the original 204 placed on the original platen glass (platen) 203 by the original pressing plate 202 is irradiated with the light of the halogen lamp 205. The reflected light from the original 204 is reflected by the mirror 206,
It is guided to 207 and forms an image on a three-line sensor (hereinafter referred to as CCD) 210 by a lens 208. An infrared cut filter 231 is provided on the lens 208.

【0026】CCD210は、原稿204からの光情報
を色分解して、それよりフルカラー情報のレッド
(R)、グリーン(G)、ブルー(B)成分を読み取っ
た後、信号処理部209に送る。CCD210の各色成
分読み取りセンサ列は、各々が5000画素から構成さ
れている。これにより、原稿台ガラス203上に載置さ
れる原稿の中で最大サイズである、A3サイズの原稿の
短手方向297mmを、400dpiの解像度で読み取
る。
The CCD 210 color-separates the light information from the original 204, reads the red (R), green (G), and blue (B) components of the full-color information from the color information, and then sends it to the signal processing unit 209. Each color component reading sensor array of the CCD 210 is composed of 5000 pixels. As a result, 297 mm in the lateral direction of the A3 size document, which is the largest size of the documents placed on the platen glass 203, is read at a resolution of 400 dpi.

【0027】なお、ハロゲンランプ205、ミラー20
6は速度vで、また、ミラー207は(1/2)vで、
ラインセンサ210の電気的な走査方向(以下、主走査
方向という)に対して垂直方向(以下、副走査方向とい
う)に機械的に動くことにより、原稿204の全面を走
査する。
The halogen lamp 205 and the mirror 20
6 is the velocity v, and the mirror 207 is (1/2) v,
The entire surface of the original 204 is scanned by mechanically moving in a direction (hereinafter, referred to as a sub-scanning direction) perpendicular to an electric scanning direction (hereinafter, referred to as a main scanning direction) of the line sensor 210.

【0028】標準白色板211は、R、G、Bセンサ2
10−1〜210−3での読み取りデータの補正データ
を発生する。この標準白色板211は、可視光でほぼ均
一の反射特性を示し、可視では、白色の色を有してい
る。ここでは、この標準白色板211を用いて、R、
G、Bセンサ210−1〜210−3からの出力データ
の補正を行う。
The standard white plate 211 is the R, G, B sensor 2
The correction data of the read data in 10-1 to 210-3 is generated. The standard white plate 211 exhibits a substantially uniform reflection characteristic with visible light, and has a white color in the visible. Here, using this standard white plate 211, R,
The output data from the G and B sensors 210-1 to 210-3 are corrected.

【0029】また、画像信号処理部209では、読み取
られた信号を電気的に処理し、マゼンタ(M)、シアン
(C)、イエロー(Y)、ブラック(Bk)の各成分に
分解して、それをプリンタ部200に送る。また、イメ
ージスキャナ部201における1回の原稿走査(スキャ
ン)につき、M、C、Y、Bkの内、1つの成分がプリ
ンタ部200に送られ(面順次画像形成)、計4回の原
稿走査により1枚分のプリントアウトが完成する。
In the image signal processing unit 209, the read signal is electrically processed and decomposed into magenta (M), cyan (C), yellow (Y) and black (Bk) components, It is sent to the printer unit 200. Further, one component of M, C, Y, and Bk is sent to the printer unit 200 (field-sequential image formation) per one document scanning (scan) in the image scanner unit 201, and a total of four document scanning is performed. This completes the printout for one sheet.

【0030】プリンタ部200では、イメージスキャナ
部201からのM、C、Y、Bkの各画像信号がレーザ
ドライバ212に送られる。レーザドライバ212は、
画信号に応じて半導体レーザ213を変調駆動する。そ
して、レーザ光は、ポリゴンミラー214、f−θレン
ズ215、ミラー216を介して、感光ドラム217上
を走査する。
In the printer section 200, the M, C, Y and Bk image signals from the image scanner section 201 are sent to the laser driver 212. The laser driver 212 is
The semiconductor laser 213 is modulated and driven according to the image signal. Then, the laser light scans the photosensitive drum 217 via the polygon mirror 214, the f-θ lens 215, and the mirror 216.

【0031】現像器は、マゼンタ現像器219、シアン
現像器220、イエロー現像器221、ブラック現像器
222により構成され、これら4つの現像器が交互に感
光ドラム217に接して、感光ドラム217上に形成さ
れたM、C、Y、Bkの静電潜像を、対応するトナーで
現像する。また、転写ドラム223は、用紙カセット2
24、または用紙カセット225より給紙された用紙を
転写ドラム223に巻き付け、感光ドラム217上に現
像されたトナー像を用紙に転写する。
The developing device is composed of a magenta developing device 219, a cyan developing device 220, a yellow developing device 221, and a black developing device 222, and these four developing devices are alternately in contact with the photosensitive drum 217, and are placed on the photosensitive drum 217. The formed M, C, Y, and Bk electrostatic latent images are developed with corresponding toners. In addition, the transfer drum 223 is the paper cassette 2
24, or the paper fed from the paper cassette 225 is wound around the transfer drum 223, and the toner image developed on the photosensitive drum 217 is transferred onto the paper.

【0032】このようにして、M、C、Y、Bkの4色
についてのトナー像が順次、転写された後、用紙は、定
着ユニット226を通過して排紙される。
In this way, the toner images for the four colors M, C, Y, and Bk are sequentially transferred, and then the sheet passes through the fixing unit 226 and is ejected.

【0033】次に、本実施例に係るイメージスキャナ部
201について詳細に説明する。
Next, the image scanner unit 201 according to this embodiment will be described in detail.

【0034】図2は、CCD210の外観構成を示す図
である。同図において、210−1は赤色光(R)を読
み取りための受光素子例(フォトセンサ)であり、21
0−2、210−3は、順に、緑色光(G)、青色光
(B)の波長成分を読み取りための受光素子列である。
これらR、G、Bの各センサ210−1〜210−3
は、主走査方向、副走査方向に10μmの開口をもつ。
FIG. 2 is a diagram showing the external structure of the CCD 210. In the figure, 210-1 is an example of a light receiving element (photo sensor) for reading red light (R),
Reference numerals 0-2 and 210-3 denote light receiving element arrays for reading the wavelength components of the green light (G) and the blue light (B), respectively.
These R, G, B sensors 210-1 to 210-3
Has an opening of 10 μm in the main scanning direction and the sub scanning direction.

【0035】上記の3本の異なる光学特性を持つ受光素
子列は、R、G、Bま各センサが原稿の同一ラインを読
み取るべく、互いに平行に配置されるように、同一のシ
リコンチップ上においてモノリシック構造をとる。そし
て、このような構成のCCDを用いることで、各色分解
読み取りでのレンズ等の光学系を共通にし、これによ
り、R、G、Bの色毎の光学調整を簡潔にすることが可
能となる。
The above three light receiving element arrays having different optical characteristics are arranged on the same silicon chip so that the R, G and B sensors are arranged in parallel with each other so as to read the same line of the original. Takes a monolithic structure. Further, by using the CCD having such a configuration, the optical system such as a lens is shared in each color separation reading, and thereby it is possible to simplify the optical adjustment for each color of R, G, and B. .

【0036】図3は、図2に示す点線a−a′にてイメ
ージスキャナ部201を切断したときの断面図である。
同図に示すように、シリコン基板210−5上にR色読
み取り用のフォトセンサ210−1と、G、B各々の可
視情報を読み取るフォトセンサ210−2、210−3
が配置されている。
FIG. 3 is a sectional view of the image scanner unit 201 taken along the dotted line aa 'shown in FIG.
As shown in the figure, a photosensor 210-1 for reading R color and photosensors 210-2, 210-3 for reading visible information of G and B are provided on a silicon substrate 210-5.
Are arranged.

【0037】R色のフォトセンサ210−1上には、可
視光の内、R色の波長成分を透過するRフィルタ210
−7が配置される。同様に、G色のフォトセンサ210
−2上にはGフィルタ210−8が、また、B色のフォ
トセンサ210−3上にはBフィルタ210−9が配置
されている。なお、210−6は、透明有機膜で構成さ
れた平坦化層である。
On the R color photosensor 210-1, an R filter 210 that transmits the R color wavelength component of visible light is transmitted.
-7 is placed. Similarly, the G color photo sensor 210
-2, the G filter 210-8 is arranged, and the B color photosensor 210-3 is arranged on the B filter 210-9. Incidentally, 210-6 is a flattening layer made of a transparent organic film.

【0038】図4は、図2において符号Bにて示される
受光素子の拡大図である。上記の各センサは、図4に示
すように、主走査方向に一画素当たり10μmの長さを
持つ。各センサは、上述のようにA3サイズの原稿の短
手方向(長さ297mm)を400dpiの解像度で読
み取ることができるように、主走査方向に5000画素
を有する。また、R、G、Bの各センサのライン間の距
離は80μmであり、400dpiの副走査方向の解像
度に対して、各8ラインずつ離れている。
FIG. 4 is an enlarged view of the light-receiving element indicated by reference numeral B in FIG. As shown in FIG. 4, each sensor has a length of 10 μm per pixel in the main scanning direction. Each sensor has 5000 pixels in the main scanning direction so that the A3 size document can be read in the lateral direction (length 297 mm) at a resolution of 400 dpi as described above. The distance between the lines of the R, G, and B sensors is 80 μm, and each line is separated by 8 lines for a resolution of 400 dpi in the sub-scanning direction.

【0039】次に、本実施例に係る画像処理装置のプリ
ンタ部での濃度再現法について説明する。
Next, the density reproduction method in the printer section of the image processing apparatus according to this embodiment will be described.

【0040】本実施では、プリンタの濃度再現のため
に、従来より良く知られているPWM(パルス幅変調)
方式により、半導体レーザ213の点灯時間を画像濃度
信号に応じて制御する。これにより、レーザの点灯時間
に応じた電位の静電潜像が感光ドラム217上に形成さ
れる。そして、現像器219〜222で、静電潜像の電
位に応じた量のトナーで潜像を現像することにより、濃
度再現が行われる。
In this embodiment, in order to reproduce the density of the printer, PWM (pulse width modulation), which is well known in the past, is used.
The method controls the lighting time of the semiconductor laser 213 according to the image density signal. As a result, an electrostatic latent image having a potential according to the laser lighting time is formed on the photosensitive drum 217. Then, the developing units 219 to 222 develop the latent image with toner in an amount corresponding to the potential of the electrostatic latent image, thereby reproducing the density.

【0041】図5は、本実施例に係るプリンタ部での濃
度再現の制御動作を示すタイミングチャートである。符
号10201はプリンタ画素クロックであり、これは4
00dpi(dot per inch)の解像度に相
当する。なお、このクロックはレーザドライバ212で
作られる。また、プリンタ画素クロック10201に同
期して、400線(line per inch)の三
角波10202が作られる。なお、この400線の三角
波10202の周期は、画素クロック10201の周期
と同じである。
FIG. 5 is a timing chart showing the control operation of density reproduction in the printer section according to this embodiment. Reference numeral 10201 is a printer pixel clock, which is 4
This corresponds to a resolution of 00 dpi (dot per inch). The clock is generated by the laser driver 212. Also, a 400-line (line per inch) triangular wave 10202 is generated in synchronization with the printer pixel clock 10201. The cycle of the triangular wave 10202 of 400 lines is the same as the cycle of the pixel clock 10201.

【0042】画像信号処理部209から送られる、40
0dpiの解像度で256階調(8bit)のM、C、
Y、Bkの画像データ、及び200線/400線切り換
え信号が、上記のCLOCK信号に同期して伝送される
が、レーザドライバ212で、不図示のFIFOメモリ
によりプリンタ画素クロック10201に同期合わせが
行われる。この8bitのデジタル画像データは、D/
A変換器(不図示)によりアナログ画像信号10203
に変換される。そして、上述の400線三角波1020
2とアナログ的に比較され、その結果、400線のPW
M出力10204が生成される。
40 sent from the image signal processing unit 209
256 gradations (8 bits) of M, C, with 0 dpi resolution
The Y and Bk image data and the 200-line / 400-line switching signal are transmitted in synchronization with the CLOCK signal, but the laser driver 212 synchronizes with the printer pixel clock 10201 by a FIFO memory (not shown). Be seen. This 8-bit digital image data is D /
An analog image signal 10203 by an A converter (not shown)
Is converted to. Then, the above 400-line triangular wave 1020
Analogly compared with 2, and as a result, 400-wire PW
M output 10204 is generated.

【0043】デジタル画素データは00H(Hは、16
進を示す)からFFHまで変化し、400線PWM出力
10204は、これらの値に応じたパルス幅となる。ま
た、400線PWM出力の一周期は、感光ドラム上では
63.5μmになる。
Digital pixel data is 00H (H is 16
From 400) to FFH, and the 400-line PWM output 10204 has a pulse width corresponding to these values. Further, one cycle of 400-line PWM output is 63.5 μm on the photosensitive drum.

【0044】レーザドライバ212では、400線の三
角波の他に、プリンタ画素クロック10201に同期し
て、その倍の周期の200線の三角波10205も作
る。そして、この200線の三角波10205と400
dpiのアナログ画像信号10203とを比較すること
により、200線のPWM出力信号10206を生成す
る。200線のPWM出力信号10206は、図5に示
すように、127μmの周期で感光ドラム上に潜像を形
成する。
In addition to the 400-line triangular wave, the laser driver 212 also produces a 200-line triangular wave 10205 having a period twice that of the 400-line triangular wave in synchronization with the printer pixel clock 10201. Then, the 200-line triangular waves 10205 and 400
A 200-line PWM output signal 10206 is generated by comparing with the analog image signal 10203 of dpi. The 200-line PWM output signal 10206 forms a latent image on the photosensitive drum at a period of 127 μm, as shown in FIG.

【0045】200線での濃度再現と400線での濃度
再現では、200線の方が濃度再現のための最小単位が
127μmと400線の2倍であるため、階調再現性が
良い。しかし、解像度の点では、63.5μm単位で濃
度を再現する400線の方が、高解像度な画像記録に適
している。このように、200線のPWM記録は階調再
現に適しており、400線のPWM記録は解像度の点で
優れているため、画像の性質によって200線のPWM
と400線のPWMの切換えを行うようにしている。
In the density reproduction with 200 lines and the density reproduction with 400 lines, since the minimum unit for density reproduction of 200 lines is 127 μm, which is twice that of 400 lines, gradation reproducibility is good. However, in terms of resolution, 400 lines that reproduce the density in units of 63.5 μm are more suitable for high-resolution image recording. As described above, the 200-line PWM recording is suitable for gradation reproduction, and the 400-line PWM recording is superior in terms of resolution.
And 400 lines of PWM are switched.

【0046】上記の切換えを行うための信号が、図5に
示す200線/400線切り換え信号10207であ
り、画像信号処理部209から、400dpiの画像信
号に同期して画素単位にレーザドライバ212に入力さ
れる。この200線/400線切り換え信号が論理Lo
w(以下、Lレベルという)の場合には、400線のP
WM出力が選択され、それが論理High(以下、Hレ
ベルという)の場合には、200線のPWM出力が選択
される。
The signal for performing the above switching is the 200-line / 400-line switching signal 10207 shown in FIG. 5, which is sent from the image signal processing unit 209 to the laser driver 212 in pixel units in synchronization with the 400 dpi image signal. Is entered. This 200-line / 400-line switching signal is logical Lo
In the case of w (hereinafter referred to as L level), P of 400 lines
When the WM output is selected and it is a logic high (hereinafter, referred to as H level), the PWM output of 200 lines is selected.

【0047】次に、画像信号処理部209について説明
する。
Next, the image signal processing unit 209 will be described.

【0048】図6は、本実施例に係るイメージスキャナ
部201の画像信号処理部209における画像信号の流
れを示すブロック図である。同図に示すように、CCD
210より出力される画像信号は、アナログ信号処理部
101に入力され、そこでゲイン調整、オフセット調整
をされた後、A/Dコンバータ102で、各色信号毎に
8bitのデジタル画像信号R1、G1、B1に変換さ
れる。その後、シェーディング補正部103に入力さ
れ、色毎に標準色板211の読み取り信号を用いた公知
のシェーディング補正が施される。
FIG. 6 is a block diagram showing the flow of image signals in the image signal processing section 209 of the image scanner section 201 according to this embodiment. As shown in the figure, CCD
The image signal output from 210 is input to the analog signal processing unit 101, where gain adjustment and offset adjustment are performed, and then the A / D converter 102 performs 8-bit digital image signals R1, G1, and B1 for each color signal. Is converted to. Then, the shading correction unit 103 inputs the known shading correction using the read signal of the standard color plate 211 for each color.

【0049】クロック発生部121は、1画素単位のク
ロックを発生する。また、主走査アドレスカウンタ12
2では、クロック発生部121からのクロックを計数
し、1ラインの画素アドレス出力を生成する。そして、
デコーダ123は、主走査アドレスカウンタ122から
の主走査アドレスをデコードして、シフトパルスやリセ
ットパルス等のライン単位のCCD駆動信号や、CCD
からの1ライン読み取り信号中の有効領域を表すVE信
号、ライン同期信号HSYNCを生成する。なお、主走
査アドレスカウンタ122はHSYNC信号でクリアさ
れ、次のラインの主走査アドレスの計数を開始する。
The clock generator 121 generates a clock for each pixel. In addition, the main scanning address counter 12
In 2, the clock from the clock generator 121 is counted to generate a pixel address output for one line. And
The decoder 123 decodes the main scanning address from the main scanning address counter 122 to obtain a CCD driving signal for each line such as a shift pulse and a reset pulse, and a CCD.
The VE signal and the line synchronization signal HSYNC which represent the effective area in the 1-line read signal from are generated. The main scanning address counter 122 is cleared by the HSYNC signal and starts counting the main scanning address of the next line.

【0050】図2に示すように、CCD210の受光部
210−1、210−2、210−3は、相互に所定の
距離を隔てて配置されているため、図6のラインディレ
イ回路104、105において、副走査方向の空間的ず
れを補正する。具体的には、B信号に対して副走査方向
で、R、Gの各信号を副走査方向にライン遅延させてB
信号に合わせる。
As shown in FIG. 2, since the light receiving portions 210-1, 210-2, 210-3 of the CCD 210 are arranged at a predetermined distance from each other, the line delay circuits 104, 105 shown in FIG. At, the spatial deviation in the sub-scanning direction is corrected. Specifically, the R and G signals are line-delayed in the sub-scanning direction with respect to the B signal in the sub-scanning direction.
Match the signal.

【0051】入力マスキング部106は、CCD210
のR、G、Bのフィルタ210−7、210−8、21
0−9の分光特性で決まる読み取り色空間を、NTSC
の標準色空間に変換する部分であり、次式のようなマト
リックス演算を行う。
The input masking section 106 is a CCD 210.
R, G, B filters 210-7, 210-8, 21
The read color space determined by the spectral characteristics of 0-9
Is a part that is converted into the standard color space of, and the matrix operation as in the following equation is performed.

【0052】[0052]

【外1】 [Outer 1]

【0053】光料/濃度変換部(LOG変換部)107
はルックアップテーブルROMにより構成され、R4、
G4、B4の輝度信号がC0、M0、Y0の濃度信号に
変換される。ライン遅延メモリ108は、後述する黒文
字判定部113で、R4、G4、B4信号から生成され
るUCR、FILTER、SEN等の判定信号までのラ
イン遅延分だけ、C0、M0、Y0の画像信号を遅延さ
せる。その結果、同一画素に対するC1、M1、Y1の
画像信号と黒文字判定信号のうちのUCRはマスキング
UCR回路109に同時に入力される。
Light / concentration converter (LOG converter) 107
Is a lookup table ROM, R4,
The luminance signals of G4 and B4 are converted into density signals of C0, M0 and Y0. The line delay memory 108 delays the image signals C0, M0, and Y0 by a line delay from the R4, G4, and B4 signals to the generated determination signals such as UCR, FILTER, and SEN in the black character determination unit 113 described later. Let As a result, the C1, M1, and Y1 image signals for the same pixel and the UCR of the black character determination signal are simultaneously input to the masking UCR circuit 109.

【0054】マスキング及びUCR回路109は、入力
されたY1、M1、C1の3原色信号により黒信号(B
k)を抽出し、さらに、プリンタ212での記録色材の
色濁りを補正する演算を施して、Y2、M2、C2、B
k2の信号をイメージスキャナ部201による各読み取
り動作の度に面順次に、所定ビット数(8bit)で出
力する。
The masking and UCR circuit 109 receives the black signal (B) by the input three primary color signals of Y1, M1, and C1.
k) is extracted, and the calculation for correcting the color turbidity of the recording color material in the printer 212 is performed to obtain Y2, M2, C2, and B.
The k2 signal is output in a frame-sequential manner with a predetermined number of bits (8 bits) each time the image scanner unit 201 performs each reading operation.

【0055】主走査変倍回路110は、公知の補間演算
により画像信号及び黒文字判定信号の主走査方向の拡大
縮小処理を行う。また、空間フィルタ処理部(出力フィ
ルタ)111は、後述するように、LUT117からの
2bitのFILTER信号に基づいて、エッジ強調、
スムージング処理の切換えを行う。
The main-scanning scaling circuit 110 performs enlargement / reduction processing of the image signal and the black character determination signal in the main-scanning direction by a known interpolation calculation. Further, the spatial filter processing unit (output filter) 111, as described later, based on the 2-bit FILTER signal from the LUT 117, edge enhancement,
Switches smoothing processing.

【0056】このように処理されたM4、C4、Y4、
Bk4の面順次の画像信号と、200線/400線の切
換え信号であるSEN信号は、上記のレーザドライバ2
12に送られ、プリンタ部200でPWMによる濃度記
録が行われる。
Thus processed M4, C4, Y4,
The Bk4 frame-sequential image signal and the SEN signal, which is a switching signal of 200 lines / 400 lines, are supplied to the laser driver 2 described above.
Then, the density is recorded by PWM in the printer unit 200.

【0057】図7は、図6に示す画像信号処理部209
における各制御信号のタイミングを示す図である。同図
において、VSYNC信号は、副走査方向の画像有効区
間信号であり、論理“1”の区間において、画像読取り
(スキャン)を行って、順次、(M)、(C)、
(Y)、(Bk)の出力信号を形成する。また、VE信
号は、主走査方向の画像有効区間信号であり、論理
“1”の区間において主走査開始位置のタイミングをと
り、主にライン遅延のライン計数制御に用いられる。そ
して、CLOCK信号は画素同期信号であり、“0”→
“1”の立ち上がりタイミングで画像データを転送し、
上記のA/Dコンバータ102、黒文字判定部113等
の各信号処理部に供給するとともに、レーザドライバ2
12に画像信号、200線/400線の切り換え信号を
伝送するのに用いられる。
FIG. 7 shows the image signal processing unit 209 shown in FIG.
3 is a diagram showing the timing of each control signal in FIG. In the figure, the VSYNC signal is an image effective section signal in the sub-scanning direction, and in the section of logic "1", image reading (scanning) is performed, and (M), (C),
The output signals of (Y) and (Bk) are formed. Further, the VE signal is an image effective section signal in the main scanning direction, and is used mainly for the line counting control of the line delay by timing the main scanning start position in the section of logic "1". Then, the CLOCK signal is a pixel synchronization signal, and "0" →
Image data is transferred at the rising timing of "1",
The laser driver 2 supplies the signal to the signal processing units such as the A / D converter 102 and the black character determination unit 113.
It is used to transmit an image signal and a switching signal of 200 lines / 400 lines to 12.

【0058】次に、原稿モードが文字モード、文字印刷
写真モード、または文字印画紙写真モードの時に実施す
る黒文字処理について説明する。
Next, the black character processing executed when the original mode is the character mode, the character print photo mode, or the character photographic paper photo mode will be described.

【0059】(エッジ検出部の説明)上述のように、入
力マスキング部106にてマスキング変換された信号R
4、G4、B4は、黒文字判定部113のエッジ検出回
路115に入力され、以下の式に従って輝度信号Yを算
出する。なお、図8は、エッジ検出回路115の内部構
成を示すブロック図であり、図9は、輝度算出回路25
0の詳細構成を示す図である。
(Description of Edge Detection Unit) As described above, the signal R masked by the input masking unit 106 is converted.
4, G4, and B4 are input to the edge detection circuit 115 of the black character determination unit 113, and the luminance signal Y is calculated according to the following formula. 8 is a block diagram showing the internal configuration of the edge detection circuit 115, and FIG. 9 is a luminance calculation circuit 25.
It is a figure which shows the detailed structure of 0.

【0060】 Y=0.25R+0.5G+0.25B…(2)Y = 0.25R + 0.5G + 0.25B (2)

【0061】図9において、入力された色信号R、G、
Bは、各々に対して、乗算器301、302、303て
係数0.25、0.5、0.25が乗じられた後、加算
器304、305で加算され、上記の式(2)に従って
輝度信号Yが算出される。
In FIG. 9, the input color signals R, G,
B is multiplied by coefficients 0.25, 0.5, and 0.25 in multipliers 301, 302, and 303, and then added in adders 304 and 305, respectively, according to the above equation (2). The luminance signal Y is calculated.

【0062】輝度信号Yは、図10に示すFIFO40
1〜402により、各1ラインずつ遅延した3ライン分
に拡張され、公知のラプラシアンフィルタ403〜40
6にかけられる。そして、同図に示す4方向の内、フィ
ルタの出力であるエッジ量の絶対値aが最小の値をとる
方向を求め、その方向をエッジmin方向とする。これ
を、図8に示すエッジmin方向検出部251が行う。
The luminance signal Y is the FIFO 40 shown in FIG.
1 to 402, the line is extended to three lines delayed by one line, and known Laplacian filters 403 to 40
Can be multiplied by 6. Then, of the four directions shown in the figure, the direction in which the absolute value a of the edge amount, which is the output of the filter, takes the minimum value is obtained, and this direction is defined as the edge min direction. This is performed by the edge min direction detection unit 251 shown in FIG.

【0063】次に、エッジmin方向スムージング部2
52で、上記エッジmin方向検出部251で求めたエ
ッジのmin方向に対してスムージング処理を施す。こ
の処理により、エッジ成分の最も大きい方向のみを保存
し、その他の方向を平滑化することができる。
Next, the edge min direction smoothing unit 2
At 52, smoothing processing is applied to the edge min direction obtained by the edge min direction detection unit 251. By this processing, only the direction with the largest edge component can be saved and the other directions can be smoothed.

【0064】すなわち、複数の方向に対してエッジ成分
が大きい網点成分は、上記の処理でエッジ成分が平滑化
されて、その特徴が減少し、一方、一方向にのみエッジ
成分が存在する文字/細線については、その特徴が保存
される、という効果が上げられる。なお、必要に応じ
て、この処理を繰り返すことで、線成分と網点成分の分
離がより一層、効果的に行われ、従来のエッジ検出法で
は検知できなかった、網点中に存在する文字成分も検知
することが可能となる。
That is, a halftone dot component having a large edge component in a plurality of directions is smoothed by the above processing and its characteristics are reduced, while a character having an edge component in only one direction is present. / For thin lines, the effect that the characteristics are preserved is enhanced. By repeating this process, if necessary, the line and halftone dot components can be more effectively separated, and characters existing in halftone dots that could not be detected by the conventional edge detection method. It is also possible to detect the component.

【0065】その後、図8に示すエッジ検出部253で
は、輝度算出回路250から直接エッジ検出部253に
入力された信号に対しては適当なしきい値th_edg
e以下のものが除去され、th_edge以上のものの
もが論理“1”として出力される。さらに、エッジmi
n方向スムージング部252を通過した信号に対して
は、上述のラプラシアンフィルタにかけられ、エッジ量
の絶対値が異なるしきい値th_edge2で比較し、
その出力値が後述するルールに従いコード化される。こ
の様に、2種類の性質を持ったエッジを使い分け、白地
中の文字に対してはエッジmin方向スムージング部を
通過しないエッジを用いることにより、より細かい文字
の細部までに渡りエッジを検出することが可能になり、
逆に網点中の文字に対しては、エッジmin方向スムー
ジング部を通過したエッジを用いてエッジ検出を行うこ
とにより、網点成分を検出せずに、文字や線のみを検出
することが可能になる。
After that, in the edge detecting section 253 shown in FIG. 8, an appropriate threshold value th_edg is applied to the signal directly input from the luminance calculating circuit 250 to the edge detecting section 253.
Those below e are removed, and those above th_edge are output as logic "1". Furthermore, the edge mi
The signal that has passed through the n-direction smoothing unit 252 is subjected to the Laplacian filter described above, and compared with the threshold value th_edge2 having different absolute values of the edge amounts,
The output value is coded according to the rule described later. In this way, by using the edges having two kinds of characteristics properly and using the edges that do not pass through the smoothing portion in the edge min direction for the characters in the white background, the edges can be detected even in the finer details of the characters. Is possible,
Conversely, for characters in halftone dots, it is possible to detect only characters and lines without detecting halftone dot components by performing edge detection using edges that have passed through the edge min direction smoothing section. become.

【0066】なお、図11は、エッジの検出の例を示す
図であり、輝度データYに係る画像データ(a)から、
エッジ検出信号(b)が生成される。
FIG. 11 is a diagram showing an example of edge detection. From the image data (a) relating to the luminance data Y,
The edge detection signal (b) is generated.

【0067】エッジ検出部115では、さらに、上述の
判定信号の内、th_edgeで判定された結果を7×
7、5×5、3×3のブロックサイズで膨張した信号
と、膨張無し、さらにth_edge2で判定された信
号を合わせた7つのコードで表したものがエッジ検出部
115からの出力信号“edge”(3ビット)であ
る。ここで、信号の膨張とは、ブロック内の全ての画素
の信号をOR演算することを言う。
The edge detection unit 115 further outputs the result of the determination made by th_edge among the above determination signals by 7 ×.
An output signal “edge” from the edge detection unit 115 is represented by seven codes including a signal expanded in a block size of 7, 5 × 5, 3 × 3, no expansion, and a signal determined by th_edge2. (3 bits). Here, the signal expansion means ORing the signals of all the pixels in the block.

【0068】(彩度判定部の説明)図12は、黒文字判
定部113を構成する彩度判定回路116の詳細な構成
を示すブロック図である。ここでは、入力された色信号
R4、G4、B4に対して、最大値検出部601と最小
値検出部602によって、最大値max(R、G、
B)、及び最小値min(R、G、B)がそれぞれ抽出
される。そして、次段のLUT(ルックアップテーブ
ル)603では、図13に示す様な領域にデータを分割
する様なしきい値Cr_BK、Cr_COL、Cr_W
により、彩度信号Crが生成される。
(Explanation of Saturation Determining Section) FIG. 12 is a block diagram showing a detailed configuration of the saturation determining circuit 116 constituting the black character determining section 113. Here, with respect to the input color signals R4, G4, B4, the maximum value max (R, G,
B) and the minimum value min (R, G, B) are extracted, respectively. Then, in the LUT (look-up table) 603 in the next stage, threshold values Cr_BK, Cr_COL, Cr_W for dividing the data into areas as shown in FIG.
Thus, the saturation signal Cr is generated.

【0069】なお、図6に示す彩度判定部116からの
出力信号“col”は、データが図13に示す領域Bk
に入った場合には黒、GRYに入った場合には中間(色
と黒の間の色)、COLに入った場合には色、Wに入っ
た場合には白がそれぞれ2ビットのコードで表現され
る。
The output signal "col" from the saturation determining section 116 shown in FIG. 6 has the data Bk shown in FIG.
2-bit code is black when entering, intermediate (color between black) when entering GRY, color when entering COL, and white when entering W. Expressed.

【0070】(文字の太さ判定部の説明)図14は、黒
文字判定部113を構成する文字太さ判定回路114の
構成を示すブロック図である。
(Explanation of Character Thickness Determining Section) FIG. 14 is a block diagram showing the configuration of the character thickness determining circuit 114 constituting the black character determining section 113.

【0071】図14において、入力マスキング回路10
6からの出力であるレッド信号データR4、グリーン信
号G4、ブルー信号B4が最小検出部2011に入力さ
れる。この最小値検出部2011では、入力されたRG
B信号の最小値MINRGBを求める。次に、平均値検出
部2012にMINRGBを入力し、そこで、注目画素近
傍の5画素×5画素のMINRGBの平均値AVE5と、
同じく近傍3画素×3画素のMINRGBの平均値AVE
3を求める。
In FIG. 14, the input masking circuit 10
The red signal data R4, the green signal G4, and the blue signal B4 which are outputs from 6 are input to the minimum detection unit 2011. In this minimum value detection unit 2011, the input RG
The minimum value MIN RGB of the B signal is obtained. Next, MIN RGB is input to the average value detection unit 2012, and the average value AVE5 of MIN RGB of 5 pixels × 5 pixels in the vicinity of the target pixel,
Similarly, the average value AVE of MIN RGB of neighboring 3 pixels x 3 pixels
Ask for 3.

【0072】文字・中間調検出部2013へはAVE5
とAVE3が入力され、ここでは、画素毎に注目画素の
濃度、及び、注目画素とその近傍の平均濃度との変化量
を検出することによって、注目画素が、文字または中間
調領域の一部であるかどうかの判別を行う。
AVE5 is sent to the character / halftone detection unit 2013.
And AVE3 are input. Here, by detecting the density of the target pixel for each pixel and the amount of change between the target pixel and the average density in the vicinity thereof, the target pixel is a part of a character or halftone region. Determine if there is.

【0073】図15は、文字・中間調検出回路2013
の内部構成を示すブロック図である。同図に示すよう
に、文字・中間調検出回路では、最初に、加算器203
0でAVE3に適当なオフセット値OFST1を加え、
その値とAVE5とをコンパレータ2031にて比較す
る。また、コンパレータ2032では、加算器2030
からの出力と、適当なリミット値LIM1とを比較す
る。そして、それぞれのコンパレータからの出力値が、
OR回路2033に入力される。
FIG. 15 shows a character / halftone detection circuit 2013.
3 is a block diagram showing the internal configuration of FIG. In the character / halftone detection circuit, as shown in FIG.
At 0, add an appropriate offset value OFST1 to AVE3,
The comparator 2031 compares the value with AVE5. Further, in the comparator 2032, the adder 2030
From the output from the appropriate limit value LIM1. And the output value from each comparator is
It is input to the OR circuit 2033.

【0074】OR回路2033では、 AVE3+OFST<AVE5 …(3) または、 AVE3+OFST1<LIM1 …(4) のときに、出力信号BINGRAが論理“H”になる。
つまり、この文字・中間調検出回路によって、注目画素
近傍に濃度変化が存在する場合(文字エッジ部)、また
は、注目画素付近が、ある値以上の濃度を持っている場
合(文字の内部及び中間調部)に、文字・中間調領域信
号BINGRAが論理“H”になる。
In the OR circuit 2033, when AVE3 + OFST <AVE5 ... (3) or AVE3 + OFST1 <LIM1 ... (4), the output signal BINGRA becomes logic "H".
In other words, if there is a density change near the pixel of interest (character edge portion) or if the vicinity of the pixel of interest has a density equal to or higher than a certain value by this character / halftone detection circuit (inside and inside the character). The character / halftone area signal BINGRA becomes a logic "H" in the key section.

【0075】一方、図16にその詳細構成を示す網点領
域検出部2014では、網点領域を検出するため、ま
ず、最小値検出回路2011にて検出されたMINRGB
に、加算器2040にて適当なオフセット値OFST2
を加え、その結果をコンパレータ2041にてAVE5
と比較する。また、コンパレータ2042では、加算器
2040からの出力と適当なリミット値LIM2とを比
較する。そして、それぞれの出力値が、OR回路204
3に入力され、そこで、 MINRGB+OFST2<AVE5 …(5) または、 MINRGB+OFST2<LIM2 …(6) のときに、OR回路2043からの出力信号BINAM
Iが論理“H”になる。そして、このBINAMI信号
を用いて、エッジ方向検出回路2044で画素毎のエッ
ジの方向を求める。
On the other hand, in the halftone dot area detection unit 2014 whose detailed configuration is shown in FIG. 16, the MIN RGB detected by the minimum value detection circuit 2011 is first detected in order to detect the halftone dot area.
And an appropriate offset value OFST2 in the adder 2040
And the result is added to the AVE5 by the comparator 2041.
Compare with. Further, the comparator 2042 compares the output from the adder 2040 with an appropriate limit value LIM2. Then, each output value is the OR circuit 204.
3 and the output signal BINAM from the OR circuit 2043 when MIN RGB + OFST2 <AVE5 (5) or MIN RGB + OFST2 <LIM2 (6)
I becomes logic "H". Then, using this BINAMI signal, the edge direction detection circuit 2044 obtains the edge direction of each pixel.

【0076】図17は、エッジ方向検出回路2044で
のエッジ方向検出の規則を示す図である。すなわち、注
目画素近傍の8画素が、図17に示す(0)〜(3)の
いずれかの条件を満たす場合に、エッジ方向信号DIR
AMIの0ビット〜3ビットのいずれかが、それぞれ論
理“H”になる。
FIG. 17 is a diagram showing the rules for edge direction detection in the edge direction detection circuit 2044. That is, when the eight pixels near the target pixel satisfy any of the conditions (0) to (3) shown in FIG. 17, the edge direction signal DIR
Any of 0 to 3 bits of AMI becomes logic "H".

【0077】さらに、次段の対向エッジ検出回路204
5においては、注目画素を囲む5画素×5画素の領域
で、互いに対向するエッジを検出する。そこで、図18
に示すように、注目画素のDIRAMI信号をA33と
した座標系における、対向エッジ検出の規則を以下に示
す。すなわち、(1)A11、A21、A31、A4
1、A51、A22、A32、A42、A33のいずれ
かのビット0が“H”、かつ、A33、A24、A3
4、A44、A15、A25、A35、A45、A55
のいずれかのビット1が“H”、(2)A11、A2
1、A31、A41、A51、A22、A32、A4
2、A33のいずれかのビット1が“H”、かつ、A3
3、A24、A34、A44、A15、A25、A3
5、A45、A55のいずれかのビット0が“H”、
(3)A11、A12、A13、A14、A15、A2
2、A23、A24、A33、いずれかのビット2が
“H”、かつ、A33、A42、A43、A44、A5
1、A52、A53、A54、A55のいずれかのビッ
ト3が“H”、(4)A11、A12、A13、A1
4、A15、A22、A23、A24、A33、いずれ
かのビット3が“H”、かつ、A33、A42、A4
3、A44、A51、A52、A53、A54、A55
のいずれかのビット2が“H”、そして、上記(1)〜
(4)の内、いずれかの条件を満たしたとき、EAAM
Iを“H”にする(対向エッジ検出回路2045で対向
エッジが検出された場合には、対向エッジ信号EAAM
Iが“H”になる)。
Further, the counter edge detection circuit 204 of the next stage
In 5, the edges that face each other are detected in the area of 5 pixels × 5 pixels surrounding the pixel of interest. Therefore, FIG.
As shown in, the rule of the opposite edge detection in the coordinate system in which the DIRAMI signal of the target pixel is A33 is shown below. That is, (1) A11, A21, A31, A4
Bit 0 of any one of A1, A51, A22, A32, A42, and A33 is "H", and A33, A24, and A3
4, A44, A15, A25, A35, A45, A55
Bit 1 of any of the two is "H", (2) A11, A2
1, A31, A41, A51, A22, A32, A4
2, bit 1 of either A33 is "H", and A3
3, A24, A34, A44, A15, A25, A3
5, bit 0 of A45 or A55 is "H",
(3) A11, A12, A13, A14, A15, A2
2, A23, A24, A33, any bit 2 is "H", and A33, A42, A43, A44, A5
Bit 3 of any one of A1, A52, A53, A54, A55 is "H", (4) A11, A12, A13, A1
4, A15, A22, A23, A24, A33, any bit 3 is "H", and A33, A42, A4
3, A44, A51, A52, A53, A54, A55
Any one of bit 2 is “H”, and the above (1) to
When any of the conditions in (4) are met, EAAM
I is set to "H" (when the opposite edge is detected by the opposite edge detection circuit 2045, the opposite edge signal EAAM
I becomes "H").

【0078】膨張回路2046では、EAAMI信号に
対して3画素×4画素の膨張を行い、注目画素の近傍3
画素×4画素にEAAMIが“H”の画素があれば、注
目画素のEAAMI信号を“H”に置き換える。さら
に、収縮回路2047と膨張回路2048を用いて5画
素×5画素の領域で孤立した検出結果を除去し、出力信
号EBAMIを得る。ここで、収縮回路2047は、入
力された全ての信号が“H”のときにのみ“H”を出力
する回路である。
The expansion circuit 2046 expands the EAAMI signal by 3 pixels × 4 pixels to generate 3 pixels in the vicinity of the pixel of interest.
If there is a pixel of which the EAAMI is “H” in the pixel × 4 pixels, the EAAMI signal of the target pixel is replaced with “H”. Furthermore, the contraction circuit 2047 and the expansion circuit 2048 are used to remove the detection result isolated in the area of 5 pixels × 5 pixels, and the output signal EBAMI is obtained. Here, the contraction circuit 2047 is a circuit that outputs "H" only when all the input signals are "H".

【0079】次に、カウント部2049では、膨張回路
2048の出力信号EBAMIが“H”である画素の個
数を、適当な大きさを持つウィンドウ内で数える。本実
施例では、注目画素を含む5画素×64画素の領域を参
照する。なお、ウィンドウの形を図19に示す。
Next, the counting unit 2049 counts the number of pixels whose output signal EBAMI of the expansion circuit 2048 is "H" within a window having an appropriate size. In this embodiment, an area of 5 pixels × 64 pixels including a target pixel is referred to. The window shape is shown in FIG.

【0080】図19において、ウィンドウ内のサンプル
点は、主走査方向に4画素おきに9点、副走査方向に5
ライン分の合計45点ある。1つの注目画素に対して、
ウィンドウが主走査方向に移動することにより、ウィン
ドウは、図19の(1)〜(9)の9つ用意されたこと
になる。すなわち、注目画素を中心として5画素×64
画素の領域を参照したことになる。そして、それぞれの
ウィンドウにおいてEBAMIをカウントし、EBAM
Iが“H”となる個数が適当なしきい値th_coun
tを越えた場合に、図14の網点領域検出部2014
は、網点領域信号AMIを論理“H”として出力する。
In FIG. 19, the sampling points in the window are 9 points at intervals of 4 pixels in the main scanning direction and 5 in the sub scanning direction.
There are 45 points in total for the line. For one pixel of interest,
By moving the windows in the main scanning direction, nine windows (1) to (9) in FIG. 19 are prepared. That is, 5 pixels x 64 with the pixel of interest as the center
This refers to the pixel area. Then, EBAMI is counted in each window, and EBAM
An appropriate threshold value th_count is the number at which I becomes “H”.
If t is exceeded, the halftone dot area detection unit 2014 of FIG.
Outputs the halftone dot area signal AMI as logic "H".

【0081】この網点領域検出回路2014での処理に
より、上記のBINGRA信号では孤立点の集合として
検出された網点画像を、領域信号として検出することが
可能になる。そして、これらの検出された文字・中間調
領域信号BINGRAと網点領域信号AMIは、図14
のOR回路2015においてOR演算され、結果として
入力画像の2値化信号PICTが生成される。このPI
CT信号は、エリアサイズ判定回路2016に入力さ
れ、そこで、2値化信号のエリアサイズが判定される。
By the processing in the halftone dot area detection circuit 2014, the halftone dot image detected as a set of isolated points in the BINGRA signal can be detected as the area signal. The detected character / halftone area signal BINGRA and halftone dot area signal AMI are shown in FIG.
Is ORed in the OR circuit 2015, and as a result, the binarized signal PICT of the input image is generated. This PI
The CT signal is input to the area size determination circuit 2016, where the area size of the binarized signal is determined.

【0082】ここで、孤立点の集合について簡単に説明
する。
Here, a set of isolated points will be briefly described.

【0083】上述の画像領域判定は、画像をある濃度で
2値化して、2値画像にて行う。このとき、点や線は、
文字や面積を持った領域を中間調と判定する。しかし、
網点画像を単純に2値化すると、網点の構成要素である
ドットによる細かい点の集合体が発生する。
The above-described image area determination is performed on a binary image by binarizing the image with a certain density. At this time, the dots and lines are
Areas with letters and areas are judged to be halftone. But,
If the halftone dot image is simply binarized, a dot aggregate that is a constituent element of the halftone dot is generated.

【0084】そこで、ある程度の面積を有する領域中に
孤立点の集合体が存在するかどうかを判定することで、
ドットが網点画像であるか否かの判別をする。すなわ
ち、ある領域中にドットが相当数ある場合は、その領域
は網点画像であり、また、注目画素がドットの一部で
も、その周囲にドットが存在しない場合には、その注目
画素は文字の一部である、と判定する。
Therefore, by determining whether or not a set of isolated points exists in a region having a certain area,
It is determined whether or not the dot is a halftone dot image. That is, if there are a considerable number of dots in a certain area, that area is a halftone dot image, and if there is no dot around the pixel even if the pixel of interest is part of the dot, that pixel of interest is Is determined to be a part of.

【0085】図20は、エリアサイズ判定回路2016
の内部構成を示すブロック図である。同図に示す回路に
は、複数の収縮回路2081と膨張回路2082のペア
が存在し、それぞれ、参照する領域のサイズが異なって
いる。入力されたPICT信号は、収縮回路の大きさに
合わせてライン遅延された後に収縮回路2081に入力
される。本実施例では、23画素×23画素から、35
画素×35画素までの大きさの7種類の収縮回路を用意
している。
FIG. 20 shows the area size determination circuit 2016.
3 is a block diagram showing the internal configuration of FIG. In the circuit shown in the figure, there are a plurality of pairs of contraction circuits 2081 and expansion circuits 2082, and the sizes of the regions to be referred to are different from each other. The input PICT signal is line-delayed according to the size of the contracting circuit and then input to the contracting circuit 2081. In this embodiment, from 23 pixels × 23 pixels, 35
Seven types of contraction circuits with a size of up to 35 pixels are prepared.

【0086】この収縮回路2081から出力された信号
は、ライン遅延された後に膨張回路2082に入力され
る。本実施例では、収縮回路の出力に対応して、27画
素×27画素から39画素×39画素までの大きさの7
種類の膨張回路を用意し、それぞれの膨張回路からの出
力信号PICT_FHを得る。
The signal output from the contraction circuit 2081 is line-delayed and then input to the expansion circuit 2082. In this embodiment, 7 of a size from 27 pixels × 27 pixels to 39 pixels × 39 pixels is corresponded to the output of the contraction circuit.
Different kinds of expansion circuits are prepared, and the output signal PICT_FH from each expansion circuit is obtained.

【0087】上記の出力信号PICT_FHについて
は、注目画素が文字の一部である場合には、その文字の
太さによってPICT_FHの出力が定まる。この様子
を、図22に示す。例えば、PICT信号が幅26画素
を持つ帯状に存在する場合、27×27より大きいサイ
ズの収縮を行うと出力は全て0になり、また、25×2
5より小さいサイズの収縮を行った後に、それぞれのサ
イズに応じた膨張を行うと、幅30画素の帯状の出力信
号PICT_FHが得られる。
Regarding the output signal PICT_FH, when the pixel of interest is a part of a character, the output of PICT_FH is determined by the thickness of the character. This state is shown in FIG. For example, when the PICT signal exists in a band having a width of 26 pixels, if the contraction of a size larger than 27 × 27 is performed, all the outputs become 0, and 25 × 2.
When contraction of a size smaller than 5 is performed and then expansion according to each size is performed, a band-shaped output signal PICT_FH having a width of 30 pixels is obtained.

【0088】そこで、これら出力PICT_FHをエン
コーダ2083に入力することにより、注目画素が属す
る画像領域信号ZONE_Pが求まる。なお、図23
は、エンコーダ2083のエンコードルールを示す図で
ある。
Then, by inputting these outputs PICT_FH to the encoder 2083, the image area signal ZONE_P to which the pixel of interest belongs is obtained. Note that FIG.
FIG. 9 is a diagram showing an encoding rule of the encoder 2083.

【0089】このような処理によって、広い領域におい
てPICH信号が“H”である写真画像や網点画像は、
領域7(最大値)として定義され、また、エリアサイズ
が最大値よりも小さい(細い)文字や線画像は、その大
きさ(太さ)に応じた多値の画像領域に定義される。本
実施例では、ZONE信号を3ビットとし、文字の太さ
を8段階で表す。そして、最も細い文字を0、最も太い
文字(文字以外の領域も含む)を7とする。
By such processing, a photographic image and a halftone dot image in which the PICH signal is "H" in a wide area are
A character or line image defined as a region 7 (maximum value) and having an area size smaller than the maximum value (thin) is defined as a multi-valued image region corresponding to its size (thickness). In this embodiment, the ZONE signal has 3 bits, and the thickness of the character is expressed in 8 steps. The thinnest character is 0, and the thickest character (including the area other than the character) is 7.

【0090】図20に示すZONE補正部2084は、
図21に示すように、複数のFIFOによりライン遅延
されたZONE_P信号が入力される平均値算出部21
10を有し、そこで、10画素×10画素の平均値が算
出される。このZONE_P信号は、文字が太いほど値
が大きく、また、それが細いほど信号値が小さくなって
いるため、この平均値算出部の出力が、そのまま補正Z
ONE信号となる。
The ZONE correction unit 2084 shown in FIG.
As shown in FIG. 21, an average value calculation unit 21 to which the ZONE_P signal line-delayed by a plurality of FIFOs is input
10 where the average value of 10 pixels × 10 pixels is calculated. The ZONE_P signal has a larger value as the character is thicker, and has a smaller signal value as the character is thinner, so that the output of the average value calculation unit is the same as the corrected Z value.
It becomes an ONE signal.

【0091】ここで、補正に用いるためのブロックサイ
ズは、文字の太さを判定するためのブロックサイズの大
きさに応じて定めるのが望ましい。そして、この補正Z
ONE信号を用いて、それ以後の処理を行うことで、急
激に文字/線の太さが変化する部分においても、太さの
判定は滑らかに変化し、黒文字処理の変化による画像品
位の低下が、より改善される。
Here, it is desirable that the block size used for the correction is determined according to the size of the block size for determining the thickness of the character. And this correction Z
By performing the subsequent processing using the ONE signal, the judgment of the thickness changes smoothly even in the portion where the thickness of the character / line changes abruptly, and the deterioration of the image quality due to the change in the black character processing occurs. , More improved.

【0092】ここで、上述の通り、ZONE信号が段階
7であるエリアは、中間調領域とみなすことができる。
そこで、これを利用して、ZONE信号とエッジ信号よ
り、網点や中間調の領域内に存在する文字/線を、他の
領域文字/線と区別することが可能である。以下、その
方法について述べる。
Here, as described above, the area where the ZONE signal is in stage 7 can be regarded as the halftone area.
Therefore, by utilizing this, it is possible to distinguish the character / line existing in the halftone dot or halftone area from other area characters / lines based on the ZONE signal and the edge signal. The method will be described below.

【0093】図24は、網点/中間調中の文字検出のた
めのアルゴリズムを示す図である。ここでは、まず、上
述のPICT信号に対して、符号2111で示された部
分にて、5×5のブロックで膨張処理を行う。この処理
により、不完全な検出になりやすい網点領域に対して、
その検出領域を補正する。
FIG. 24 is a diagram showing an algorithm for detecting a character in a halftone dot / halftone. Here, first, with respect to the above-mentioned PICT signal, the expansion process is performed in the portion indicated by reference numeral 2111 in 5 × 5 blocks. By this processing, for the halftone dot area that is likely to be incompletely detected,
The detection area is corrected.

【0094】次に、この出力信号に対して、符号211
2にて示される部分で、11×11のブロックの収縮処
理を行う。これらの処理によって得られた信号FCH
は、PICT信号に対して3画素分収縮した信号とな
る。
Next, with respect to this output signal, reference numeral 211
In the part indicated by 2, contraction processing of an 11 × 11 block is performed. Signal FCH obtained by these processes
Is a signal contracted by 3 pixels from the PICT signal.

【0095】図25は、上記のアルゴリズムにより処理
の様子を具体的に示す図である。同図には、FCH信
号、ZONE信号、そして、エッジ信号を組み合わせる
ことで、白地中のエッジと、網点/中間調中のエッジの
区別ができ、網点画像中においても網点成分を強調して
しまうことなく、また、写真の縁等の黒文字処理が不必
要な部分を処理することなく黒文字処理を行うことがで
きる様子が示されている。
FIG. 25 is a diagram concretely showing a state of processing by the above algorithm. In the figure, by combining the FCH signal, the ZONE signal, and the edge signal, the edge in the white background and the edge in the halftone / halftone can be distinguished, and the halftone component is emphasized even in the halftone image. It is shown that the black character processing can be performed without causing the black character processing and without processing the portion such as the edge of the photograph where the black character processing is unnecessary.

【0096】(LUTの説明)次に、図6に示す黒文字
判定部113を構成するLUT117について説明す
る。
(Explanation of LUT) Next, the LUT 117 which constitutes the black character determining portion 113 shown in FIG. 6 will be explained.

【0097】LUT117は、図6の文字の太さ判定部
114、エッジ検出部115、彩度判定部116各々で
判定された信号を入力して、図26に示すような表に従
って、“ucr”、“filter”、“sen”の各
処理用の信号を出力する。これらは、それぞれ、マスキ
ングUCR係数、空間フィルタ係数、プリンタ解像度を
制御するための信号である。
The LUT 117 inputs the signals judged by the character thickness judging section 114, the edge detecting section 115, and the saturation judging section 116 of FIG. 6, and inputs “ucr” according to the table as shown in FIG. , "Filter", "sen" output signals for each processing. These are signals for controlling the masking UCR coefficient, the spatial filter coefficient, and the printer resolution, respectively.

【0098】図26に示す表において、各信号とその値
の意味する所は、edge−0:しきい値th_edg
eでエッジと判定されない 1:しきい値th_edgeで判定された膨張無し 2:しきい値th_edgeで判定された3×3膨張 3:しきい値th_edgeで判定された5×5膨張 4:しきい値th_edgeで判定された7×7膨張 5:しきい値th_edge2でエッジと判定されない 6:しきい値th_edge2で判定された膨張無し sen−0:200線、1:400線 filter−0:スムージング、1:強エッジ強調、
2:中エッジ強調、3:弱エッジ強調 ucr−0〜7:黒多い〜黒少ない FCH:0:画像の縁、1:画像の縁ではない また、図26に示す表の特徴としては、 (1)文字の太さに応じて多値の黒文字処理が可能 (2)エッジ領域の範囲が複数用意されているため、文
字の太さに応じて黒文字処理領域を選択することができ
る。なお、本実施例では、最も細い文字に対しても最も
広い領域を処理する (3)文字のエッジと文字の内部の処理の度合いに差を
付けて黒文字処理を行い、より滑らかな黒の量の変化を
実現している (4)網点/中間調中の文字を、白地中の文字と区別し
て処理を行う (5)文字のエッジ、文字の内部、網点/中間調画像に
対して、それぞれ空間フィルタの係数を変える。また、
文字エッジに対しても、太さに応じて係数を変化させる (6)文字の太さによってプリンタの解像度を変化させ
る (7)色文字に対しては、マスキングUCR係数以外
は、全て黒文字と同じ処理を行う、ことである。
In the table shown in FIG. 26, the meaning of each signal and its value is as follows: edge-0: threshold value th_edg.
e is not judged as an edge 1: No expansion is judged by the threshold value th_edge 2: 3 × 3 expansion is judged by the threshold value th_edge 3: 5 × 5 expansion is judged by the threshold value th_edge 4: Threshold 7 × 7 expansion determined by the value th_edge 5: not determined as an edge by the threshold value th_edge2 6: no expansion determined by the threshold value th_edge2 Sen-0: 200 line, 1: 400 line filter-0: smoothing, 1: Strong edge enhancement,
2: Medium edge enhancement 3: Weak edge enhancement ucr-0 to 7: black to black little FCH: 0: image edge, 1: not image edge Further, the table shown in FIG. 1) Multi-valued black character processing is possible according to the thickness of the character. (2) Since a plurality of edge area ranges are prepared, the black character processing area can be selected according to the thickness of the character. In this embodiment, the widest area is processed even for the thinnest character. (3) The black character processing is performed by making a difference in the degree of processing between the edge of the character and the inside of the character to obtain a smoother black amount. (4) Characters in halftone / halftone are processed separately from those in white background. (5) Character edge, inside of character, halftone / halftone image , The coefficient of the spatial filter is changed. Also,
The coefficient is changed according to the thickness even for the character edge. (6) The resolution of the printer is changed according to the thickness of the character. (7) For the color character, all are the same as the black character except the masking UCR coefficient. It is to do processing.

【0099】なお、言うまでもなく、本実施例での処理
に限らず、入力信号に対してさまざまな組み合わせによ
る色々な処理方法が考えられる。
Needless to say, not only the processing in this embodiment, but various processing methods by various combinations of input signals can be considered.

【0100】一方、マスキングUCR処理回路109で
は、LUT117から出力されるUCR制御信号ucr
により、黒信号Bkの生成及び出力マスキングを行う。
On the other hand, in the masking UCR processing circuit 109, the UCR control signal ucr output from the LUT 117 is output.
Thus, the black signal Bk is generated and the output masking is performed.

【0101】図28に、このマスキングUCR演算式を
示す。
FIG. 28 shows the masking UCR arithmetic expression.

【0102】まず、C1、M1、Y1の最小値MIN
CMYを求め、式(2101)によりBk1を求める。次
に、式(2102)により、4×8のマスキングを行
い、C2、M2、Y2、Bk2を出力する。この式(2
102)において、係数m11〜m84は、使用するプ
リンタにより定まるマスキング係数、係数k11〜k8
4は、UCR信号により決定されるUCR係数である。
First, the minimum value MIN of C1, M1 and Y1.
CMY is obtained, and Bk1 is obtained from the equation (2101). Next, 4 × 8 masking is performed according to equation (2102), and C2, M2, Y2, and Bk2 are output. This formula (2
102), the coefficients m11 to m84 are masking coefficients determined by the printer used, and the coefficients k11 to k8.
4 is a UCR coefficient determined by the UCR signal.

【0103】網点/中間調画像(ZONE信号が7)に
対しては、UCR係数は全て1.0であるが、最も細い
文字(ZONE信号が0)に対しては、Bk単色が出力
されるようにUCR係数を設定する。また、中間の太さ
に対しては、その太さに応じた色味の変化が滑らかにつ
ながるようにUCR係数を決定し、Bkの量を制御す
る。
For the halftone dot / halftone image (ZONE signal is 7), the UCR coefficients are all 1.0, but for the thinnest character (ZONE signal is 0), Bk single color is output. To set the UCR coefficient. Further, for the intermediate thickness, the UCR coefficient is determined so that the change in the tint corresponding to the thickness is smoothly connected, and the amount of Bk is controlled.

【0104】また、空間フィルタ処理部111では、5
画素×5画素のフィルタを2個用意し、1個目のフィル
タの出力信号を2個目のフィルタの入力につなげてい
る。フィルタ係数として、スムージング1、スムージン
グ2、エッジ強調1、エッジ強調2の4つを用意し、L
UT117からのfilter信号によって係数を画素
ごとに切り替える。また、2つのフィルタを用いること
により、スムージングの後にエッジ強調をして、モアレ
を軽減したエッジ強調を実現し、また、2種類のエッジ
強調係数を組み合わせることにより、より高品位の画像
の出力を可能にしている。
In the spatial filter processing section 111, 5
Two filters of pixels × 5 pixels are prepared, and the output signal of the first filter is connected to the input of the second filter. There are four filter coefficients, smoothing 1, smoothing 2, edge enhancement 1 and edge enhancement 2, and L
The coefficient is switched for each pixel by a filter signal from the UT 117. Further, by using two filters, edge enhancement after smoothing is performed to realize edge enhancement with reduced moire, and by combining two types of edge enhancement coefficients, a higher quality image is output. It is possible.

【0105】ここで、原稿中の文字を優先して処理した
い時には図29に示す文字/写真分離レベルの調整を文
字優先に、原稿中の写真を優先して処理したいときには
文字/写真分離レベルの調整を写真優先先側にする事
で、ユーザの好みに応じた出力を提供することができ
る。本実施例では、両方向に対して4段階に調整するこ
とが可能である。
Here, when it is desired to preferentially process the characters in the original, the adjustment of the character / photo separation level shown in FIG. 29 is given priority to the character, and when it is desired to preferentially process the photo in the original, the character / photo separation level is adjusted. By adjusting the photo priority destination, it is possible to provide an output according to the user's preference. In this embodiment, it is possible to adjust in four steps in both directions.

【0106】次に、文字/写真分離レベルの調整により
変化する各処理パラメータの内容について説明する。
Next, the content of each processing parameter that changes depending on the adjustment of the character / photo separation level will be described.

【0107】文字/写真分離レベルの調整により、文字
/写真領域の各判定パラメータと、文字処理の度合を調
整する各パラメータが同時に調整される。
By adjusting the character / photo separation level, each judgment parameter of the character / photo area and each parameter for adjusting the degree of character processing are adjusted at the same time.

【0108】図30に調整される文字/写真領域の判定
パラメータを示す。調整されるパラメータは、白地中の
エッジ検出しきい値th_edge、網点中のエッジ検
出しきい値th_edge2、彩度判定のしきい値Cr
_Bk、Cr_col、Cr_w、文字・中間調領域信
号BINGRA生成のためしきい値LIM1、OFST
1、網点領域判定のためのしきい値LIM2、th_c
ount、太さ判定のための収縮回路のウインドウサイ
ズである。
FIG. 30 shows the judgment parameters for the adjusted character / photo area. The parameters to be adjusted are the edge detection threshold th_edge in the white background, the edge detection threshold th_edge2 in the halftone dot, and the saturation determination threshold Cr.
_Bk, Cr_col, Cr_w, threshold values LIM1 and OFST for generating character / halftone area signal BINGRA
1, threshold value LIM2 for determining a halftone dot area, th_c
It is the window size of the contraction circuit for determining the out and thickness.

【0109】エッジ検出のしきい値を変化させること
で、薄い文字や細かい文字まで検出することが可能にな
り、文字優先ではエッジのしきい値を低くして、薄い文
字や細かい文字まで検出し易くし、写真優先ではエッジ
のしきい値を高くして、文字として検出し難くする。ま
た、本実施例では白地中のエッジ検出のためのしきい値
と、網点中のエッジ検出のためのしきい値を独立させて
いるため、白地中のエッジの検出精度はそのままに網点
中のエッジ検出精度を変化させたり、網点中のエッジ検
出精度をそのままに白地中のエッジ検出精度を変化させ
る事が可能である。本実施例では、写真優先のステップ
を大きくすると、網点中の文字処理を行わないように設
定している。
By changing the threshold of edge detection, it is possible to detect even thin characters and fine characters. With character priority, the edge threshold is lowered to detect even thin and fine characters. If the priority is set on the photo, the threshold of the edge is increased to make it difficult to detect the character. Further, in this embodiment, since the threshold value for detecting the edge in the white background and the threshold value for detecting the edge in the halftone dot are independent, the detection accuracy of the edge in the white background remains the same. It is possible to change the inner edge detection accuracy, or change the edge detection accuracy in the white background while keeping the edge detection accuracy in the halftone dots. In this embodiment, when the step of giving priority to the photograph is enlarged, the character processing in the halftone dot is not performed.

【0110】LIM1、OFST1、LIM2、th_
countを変化させることで、原稿の下地の濃度に対
応して文字検出が可能になり、文字優先では、下地の濃
度が濃い原稿に対しても原稿を白地とみなして文字検出
を行い、写真優先では下地の濃度がある原稿に対しては
原稿を中間調画像とみなして文字処理を行う。
LIM1, OFST1, LIM2, th_
By changing the count, it is possible to detect characters according to the density of the background of the original. With character priority, even if the original has a high background density, the original is regarded as a white background and the characters are detected, and the photo priority is applied. Then, for a document having a background density, character processing is performed by regarding the document as a halftone image.

【0111】彩度判定のしきい値を変化させることで、
黒単色トナーで出力する処理を行う条件を変化させるこ
とが可能になり、文字優先では鉛筆書きやかすれた文字
等まで黒単色に処理されやすくなり、写真優先では彩度
の低い文字や線を黒単色化処理に難くなる。
By changing the saturation judgment threshold value,
It is possible to change the condition for performing the processing to output with black monochrome toner, and it becomes easy to process even pencil writing and faint characters into black monochromatic color with character priority, and black letters and lines with low saturation are colored with photo priority. It becomes difficult for monochromatic processing.

【0112】太さ判定のための収縮回路のウインドウサ
イズを変化させることで、黒文字処理を施す線の幅を変
化させることができる。文字優先では、太さ判定のため
の収縮回路のウインドウサイズを大きくして幅の広い線
や太い文字までに黒文字処理を施し易くし、写真優先で
は太さ判定のための収縮回路のウインドウサイズを小さ
くすることで、幅の広い線や太い文字までに黒文字処理
を施し難くする。
By changing the window size of the contraction circuit for determining the thickness, the width of the line on which the black character processing is performed can be changed. In the case of character priority, the window size of the contraction circuit for determining the thickness is increased to facilitate black character processing even for wide lines and thick characters. By making it small, it is difficult to apply black character processing to wide lines and thick characters.

【0113】図31〜図38に、図29に示される操作
部101を用いた文字/写真分離レベルの調整により調
整される文字処理の度合の夫々に対応するLUTの内容
を示す。
31 to 38 show the contents of the LUT corresponding to the degree of character processing adjusted by adjusting the character / photo separation level using the operation unit 101 shown in FIG.

【0114】文字優先が設定されると、よりエッジ部分
の処理領域が広がり、また文字内部に対してもUCRの
制御を行うことによって、黒文字の再現がより滑らかに
なる。また、網点中の文字に対してもよりくっきりと出
力する制御が強まる。
When the character priority is set, the processing area at the edge portion is further expanded, and the UCR control is also performed on the inside of the character, whereby the reproduction of the black character becomes smoother. In addition, the control to output the characters in the halftone dots more clearly is strengthened.

【0115】写真優先が設定されると、エッジに対して
処理される領域が狭まり、また処理される線幅が細くな
る。また、優先の度合が大きくなると網点中の文字処理
は行わないことで、写真の品位を優先させる。
When the photograph priority is set, the area processed for the edge is narrowed and the processed line width is narrowed. Further, when the degree of priority increases, the character processing in the halftone dot is not performed, so that the quality of the photograph is prioritized.

【0116】以上説明したように、本実施例によれば、
画像中の文字/線画部分の太さを判定し、文字/線画の
輪郭情報と彩度情報を組み合わせて画像処理を行う際
に、文字/写真分離レベルの調整により、黒文字処理用
判定パラメータと処理の度合を同時に変化させること
で、処理される文字の太さや、処理の度合が変化し、ユ
ーザの好みに応じた画像の再現が可能になる。
As described above, according to this embodiment,
Judgment parameter and processing for black character processing by adjusting the character / photo separation level when determining the thickness of the character / line drawing part in the image and performing image processing by combining outline information and saturation information of the character / line drawing. By simultaneously changing the degree of, the thickness of the character to be processed and the degree of processing change, and it becomes possible to reproduce the image according to the user's preference.

【0117】(第2の実施例)本実施例は、第1の実施
例の構成に加え、領域毎に上述のLUT117による判
定結果パラメータを変更できるようにしたものである。
(Second Embodiment) In addition to the configuration of the first embodiment, the present embodiment is such that the determination result parameter by the LUT 117 can be changed for each area.

【0118】図40に示されるように、本実施例におい
ては、デジタイザー100を設け、第1の実施例におけ
る図39のモード設定をデジタイザー100により指定
された領域毎に行えるようにしている。
As shown in FIG. 40, in the present embodiment, the digitizer 100 is provided so that the mode setting of FIG. 39 in the first embodiment can be performed for each area designated by the digitizer 100.

【0119】例えば、デジタイザー100からの領域デ
ータが“0”の画素については、上述の実施例1に示さ
れる黒文字処理を行い、“1”の画素については、uc
r7、filter0、sen0の固定値にするという
時分割処理を行うことにより、通常の黒文字処理を一部
領域について行わないようにすることができる。
For example, the black character processing shown in the above-described first embodiment is performed on the pixel of which the area data from the digitizer 100 is "0", and the pixel of "1" is uc.
By performing the time-division processing in which the fixed values of r7, filter0, and sen0 are performed, it is possible to prevent the normal black character processing from being performed on a partial area.

【0120】また、領域データが“1”の画素について
は、ZONE信号“0”と“7”を用いることもでき
る。即ち、ZONE信号“0”は最も細い文字、ZON
E信号“7”は網点/中間調画像を表すが、この2値的
な処理を行うようにしてもよい。
Further, the ZONE signals "0" and "7" can be used for the pixel whose area data is "1". That is, the ZONE signal “0” is the thinnest character, ZON.
Although the E signal "7" represents a halftone / halftone image, this binary processing may be performed.

【0121】また、領域データは上述の様に、デジタイ
ザーにより指定する場合に限らず、例えば、外部記憶装
置などの外部装置から画像データを入力できるように外
部機器とのインターフェースを設けることにより、外部
装置からの領域データを用いてもよい。
The area data is not limited to being specified by the digitizer as described above. For example, by providing an interface with an external device so that image data can be input from an external device such as an external storage device, Area data from the device may be used.

【0122】なお、上記実施例では、図6に示すよう
に、黒文字判定部113に対する入力としてRGB信号
を用いたが、これに限定されず、例えば、LOG変換部
107の出力であるCMY信号を用いて行ってもよい。
In the above embodiment, as shown in FIG. 6, the RGB signal is used as the input to the black character determining unit 113, but the present invention is not limited to this. For example, the CMY signal output from the LOG converting unit 107 is used. You may use it.

【0123】また、上記の実施例では、黒文字判定部1
13を構成する文字の太さ判定回路114への入力は、
RGB信号を用いている。しかし、これに限定されず、
例えば、図27に示すように、Lab変換部2010を
通してL信号を得、これを用いて、その後の処理を行う
ようにしてもよい。なお、図26において、図14に示
す文字の太さ判定回路の同一構成要素には同一符号を用
いている。
Further, in the above embodiment, the black character determination unit 1
The input to the character thickness determination circuit 114 constituting 13 is
RGB signals are used. However, not limited to this,
For example, as shown in FIG. 27, an L signal may be obtained through the Lab converter 2010, and the L signal may be used to perform subsequent processing. 26, the same reference numerals are used for the same constituent elements of the character thickness determination circuit shown in FIG.

【0124】本発明は、複数の機器から構成されるシス
テムに適用しても、1つの機器から成る装置に適用して
も良い。また、本発明は、システムあるいは装置にプロ
グラムを供給することによって達成される場合にもてき
ようできることは言うまでもない。
The present invention may be applied to a system composed of a plurality of devices or an apparatus composed of a single device. Further, it goes without saying that the present invention can also be applied when it is achieved by supplying a program to a system or an apparatus.

【0125】[0125]

【発明の効果】以上説明したように、本発明によれば、
画像中の文字/線画部分の太さを判定し、文字/線画の
輪郭情報と彩度情報を組み合わせて画像処理を行う際
に、文字/写真分離レベルの調整により、黒文字処理用
判定パラメータと処理の度合を同時に変化させること
で、処理される文字の太さや、処理の度合が変化し、ユ
ーザの好みに応じた画像の再現が可能になる。
As described above, according to the present invention,
Judgment parameter and processing for black character processing by adjusting the character / photo separation level when determining the thickness of the character / line drawing part in the image and performing image processing by combining outline information and saturation information of the character / line drawing. By simultaneously changing the degree of, the thickness of the character to be processed and the degree of processing change, and it becomes possible to reproduce the image according to the user's preference.

【0126】また、黒文字処理を領域毎に任意に行うこ
とができる。
Further, black character processing can be arbitrarily performed for each area.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施例に係る画像処理装置の断面構成
を示す図である。
FIG. 1 is a diagram showing a cross-sectional configuration of an image processing apparatus according to an embodiment of the present invention.

【図2】CCD210の外観構成を示す図である。FIG. 2 is a diagram showing an external configuration of a CCD 210.

【図3】図2に示す点線a−a′にてイメージスキャナ
部201を切断したときの断面図である。
3 is a cross-sectional view when the image scanner unit 201 is cut along a dotted line aa 'shown in FIG.

【図4】図2において符号Bにて示される受光素子の拡
大図である。
FIG. 4 is an enlarged view of the light receiving element indicated by reference numeral B in FIG.

【図5】実施例に係るプリンタ部での濃度再現の制御動
作を示すタイミングチャートである。
FIG. 5 is a timing chart showing a control operation of density reproduction in the printer unit according to the embodiment.

【図6】実施例に係るイメージスキャナ部201の画像
信号処理部209における画像信号の流れを示すブロッ
ク図である。
FIG. 6 is a block diagram showing the flow of image signals in the image signal processing unit 209 of the image scanner unit 201 according to the embodiment.

【図7】図6に示す画像信号処理部209における各制
御信号のタイミングを示す図である。
7 is a diagram showing the timing of each control signal in the image signal processing unit 209 shown in FIG.

【図8】エッジ検出回路115の内部構成を示すブロッ
ク図である。
FIG. 8 is a block diagram showing an internal configuration of an edge detection circuit 115.

【図9】文字の太さ判定回路114を説明するための図
である。
FIG. 9 is a diagram for explaining a character thickness determination circuit 114.

【図10】FIFO及びラプラシアンフィルタによるラ
イン遅延の様子を示す図である。
FIG. 10 is a diagram showing a state of line delay due to a FIFO and a Laplacian filter.

【図11】エッジ検出の例を示す図である。FIG. 11 is a diagram showing an example of edge detection.

【図12】黒文字判定部113を構成する彩度判定回路
116の詳細な構成を示すブロック図である。
12 is a block diagram showing a detailed configuration of a saturation determination circuit 116 that constitutes a black character determination unit 113. FIG.

【図13】LUTでのデータ変換特性を示す図である。FIG. 13 is a diagram showing data conversion characteristics in an LUT.

【図14】黒文字判定部113を構成する文字の太さ判
定回路114の構成を示すブロック図である。
FIG. 14 is a block diagram showing a configuration of a character thickness determination circuit 114 that constitutes a black character determination unit 113.

【図15】文字・中間調検出回路2013の内部構成を
示すブロック図である。
FIG. 15 is a block diagram showing an internal configuration of a character / halftone detection circuit 2013.

【図16】網点領域検出部2014の詳細構成を示すブ
ロック図である。
16 is a block diagram showing a detailed configuration of a halftone dot area detection unit 2014. FIG.

【図17】エッジ方向検出回路2044でのエッジ方向
検出の規則を示す図である。
FIG. 17 is a diagram showing a rule of edge direction detection in the edge direction detection circuit 2044.

【図18】対向エッジ検出の規則を示す図である。FIG. 18 is a diagram showing a rule of opposite edge detection.

【図19】カウント部2049でのウィンドゥの形を示
す図である。
FIG. 19 is a diagram showing a shape of a window in a counting unit 2049.

【図20】エリアサイズ判定回路2016の内部構成を
示すブロック図である。
20 is a block diagram showing an internal configuration of an area size determination circuit 2016. FIG.

【図21】ZONE補正部2084の構成を示すブロッ
ク図である。
FIG. 21 is a block diagram showing a configuration of a ZONE correction unit 2084.

【図22】文字の太さに応じたPICT_FHの出力を
定める様子を示す図である。
FIG. 22 is a diagram showing how the output of PICT_FH is determined according to the thickness of a character.

【図23】エンコーダ2083のエンコードルールを示
す図である。
FIG. 23 is a diagram showing an encoding rule of an encoder 2083.

【図24】網点/中間調中の文字検出のためのアルゴリ
ズムを示す図である。
FIG. 24 is a diagram showing an algorithm for character detection in halftone dots / halftones.

【図25】図23に示すアルゴリズムによる処理の様子
を具体的に示す図である。
FIG. 25 is a diagram specifically showing a state of processing by the algorithm shown in FIG. 23.

【図26】LUT117の入出力対応の内容を示す図で
ある。
FIG. 26 is a diagram showing the contents of input / output correspondence of the LUT 117.

【図27】文字太さ判定回路114の変形例を示すブロ
ック図である。
FIG. 27 is a block diagram showing a modified example of the character thickness determination circuit 114.

【図28】マスキングUCR演算式を示す図である。FIG. 28 is a diagram showing a masking UCR arithmetic expression.

【図29】文字/写真分離レベルの調整のための表示を
示す図である。
FIG. 29 is a diagram showing a display for adjusting a character / photo separation level.

【図30】判定パラメータを示す図である。FIG. 30 is a diagram showing determination parameters.

【図31】文字処理の度合を表すLUTを示す図であ
る。
FIG. 31 is a diagram showing an LUT showing the degree of character processing.

【図32】文字処理の度合を表すLUTを示す図であ
る。
FIG. 32 is a diagram showing an LUT showing the degree of character processing.

【図33】文字処理の度合を表すLUTを示す図であ
る。
FIG. 33 is a diagram showing an LUT showing the degree of character processing.

【図34】文字処理の度合を表すLUTを示す図であ
る。
FIG. 34 is a diagram showing an LUT showing the degree of character processing.

【図35】文字処理の度合を表すLUTを示す図であ
る。
FIG. 35 is a diagram showing an LUT showing the degree of character processing.

【図36】文字処理の度合を表すLUTを示す図であ
る。
FIG. 36 is a diagram showing an LUT showing the degree of character processing.

【図37】文字処理の度合を表すLUTを示す図であ
る。
FIG. 37 is a diagram showing an LUT showing the degree of character processing.

【図38】文字処理の度合を表すLUTを示す図であ
る。
FIG. 38 is a diagram showing an LUT showing the degree of character processing.

【図39】操作部における原稿モードの表示を示す図で
ある。
FIG. 39 is a diagram showing a display of a document mode on the operation unit.

【図40】本願の第2の実施例の構成を説明する図であ
る。
FIG. 40 is a diagram illustrating a configuration of a second example of the present application.

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 原稿画像を表す画像データを処理する画
像処理装置において、 前記画像データより前記原稿画像中の文字・線画を判定
する判定手段と、 前記判定手段の判定結果をもとに、所定の画像処理を行
う手段と、 原稿画像の特徴を抽出する際に、文字・線画と中間調の
いずれを重視するかを多段階に指定する指定手段と、 前記指定手段による指定に基づき、前記判定手段による
文字・線画判定のパラメータと、前記処理手段による処
理を制御する制御手段とを有することを特徴とする画像
処理装置。
1. An image processing apparatus for processing image data representing a document image, a determining unit for determining a character / line drawing in the document image from the image data, and a predetermined unit based on a determination result of the determining unit. Image processing means, a designation means for designating in a multi-step manner which one of a character / line drawing and halftone should be emphasized when extracting features of a document image, and the determination based on the designation by the designation means. An image processing apparatus comprising: a parameter for character / line drawing determination by means, and control means for controlling processing by the processing means.
【請求項2】 前記判定手段は、注目画素及び該注目画
素に隣接する画素をもとに文字・線画の太さを判定する
ことを特徴とする画像処理装置。
2. The image processing apparatus, wherein the determining means determines the thickness of a character / line drawing based on a pixel of interest and a pixel adjacent to the pixel of interest.
【請求項3】 前記画像データは、フルカラーの画像デ
ータであることを特徴とする請求項1に記載の画像処理
装置。
3. The image processing apparatus according to claim 1, wherein the image data is full-color image data.
【請求項4】 前記原稿画像は、光学的に読み取られた
画像であることを特徴とする請求項1に記載の画像処理
装置。
4. The image processing apparatus according to claim 1, wherein the original image is an optically read image.
【請求項5】 前記原稿画像は、イエロー、シアン、マ
ゼンタ、ブラックの4色の色成分を有し、前記処理手段
は、あらかじめ用意した、該4色についての信号変換の
際の複数の下色除去量の割合いを、文字・線画の太さに
より変化させることを特徴とする請求項1に記載の画像
処理装置。
5. The original image has four color components of yellow, cyan, magenta, and black, and the processing means prepares a plurality of undercolors for signal conversion of the four colors. The image processing apparatus according to claim 1, wherein the proportion of the removal amount is changed according to the thickness of the character / line drawing.
【請求項6】 前記処理手段は、あらかじめ用意され
た、輪郭を判定するための参照領域についての複数種の
領域幅を、文字・線画の太さにより変化させることを特
徴とする請求項1に記載の画像処理装置。
6. The method according to claim 1, wherein the processing unit changes a plurality of types of region widths of a reference region for determining a contour prepared in advance, depending on the thickness of a character / line drawing. The image processing device described.
【請求項7】 前記処理手段は、あらかじめ用意された
複数の空間フィルタ係数を、文字・線画の太さにより切
り替えることを特徴とする請求項1に記載の画像処理装
置。
7. The image processing apparatus according to claim 1, wherein the processing unit switches a plurality of spatial filter coefficients prepared in advance according to the thickness of a character / line drawing.
【請求項8】 前記処理手段は、文字・線画について、
該文字・線画が白地中にある場合と、網点あるいは中間
調中にある場合とで異なる画像処理を行うことを特徴と
する請求項1に記載の画像処理装置。
8. The processing means, for a character / line drawing,
The image processing apparatus according to claim 1, wherein different image processing is performed depending on whether the character / line drawing is in a white background or in a halftone or halftone.
【請求項9】 原稿画像を表すカラー画像データを処理
する画像処理装置において、 前記カラー画像データから特定色の線画像部分を検出す
る検出手段と、 所定の領域データを発生する信号発生手段と、 前記領域データに応じて前記検出手段による検出のため
のパラメータを制御する制御手段とを有することを特徴
とする画像処理装置。
9. An image processing apparatus for processing color image data representing a document image, detecting means for detecting a line image portion of a specific color from the color image data, and signal generating means for generating predetermined area data. An image processing apparatus comprising: a control unit that controls a parameter for detection by the detection unit according to the area data.
【請求項10】 前記信号発生手段は、デジタイザを含
むことを特徴とする請求項9に記載の画像処理装置。
10. The image processing apparatus according to claim 9, wherein the signal generating unit includes a digitizer.
JP06296194A 1994-03-31 1994-03-31 Image processing apparatus and image processing method Expired - Fee Related JP3554012B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06296194A JP3554012B2 (en) 1994-03-31 1994-03-31 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06296194A JP3554012B2 (en) 1994-03-31 1994-03-31 Image processing apparatus and image processing method

Publications (2)

Publication Number Publication Date
JPH07273983A true JPH07273983A (en) 1995-10-20
JP3554012B2 JP3554012B2 (en) 2004-08-11

Family

ID=13215434

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06296194A Expired - Fee Related JP3554012B2 (en) 1994-03-31 1994-03-31 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP3554012B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6750984B1 (en) 1999-02-12 2004-06-15 Sharp Kabushiki Kaisha Image processing apparatus
JP2009070128A (en) * 2007-09-13 2009-04-02 Konica Minolta Business Technologies Inc Image processor and image processing method

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6750984B1 (en) 1999-02-12 2004-06-15 Sharp Kabushiki Kaisha Image processing apparatus
JP2009070128A (en) * 2007-09-13 2009-04-02 Konica Minolta Business Technologies Inc Image processor and image processing method
US8295592B2 (en) 2007-09-13 2012-10-23 Konica Minolta Business Technologies, Inc. Apparatus and method for adjusting pixels values of object edges within images

Also Published As

Publication number Publication date
JP3554012B2 (en) 2004-08-11

Similar Documents

Publication Publication Date Title
US7142717B2 (en) Image processing apparatus and method
EP0695079B1 (en) Image processing apparatus with image content judgement
US6744921B1 (en) Image processing apparatus and method that determines the thickness of characters and lines
JP3599367B2 (en) Image processing apparatus and method
JP3554012B2 (en) Image processing apparatus and image processing method
JP3581395B2 (en) Image processing apparatus and image processing method
JP4035254B2 (en) Image processing apparatus and image processing method
JPH08275017A (en) Image processor and its method
JP3715747B2 (en) Image processing apparatus and image processing method
JP2000134476A (en) Image processor and its control method, and storage medium
JP3471915B2 (en) Image processing apparatus and method
JPH11127353A (en) Image processor and image processing method
JPH1188707A (en) Image procesor and image processing method
JP3679539B2 (en) Image processing apparatus and image processing method
JP2001157059A (en) Device and method for forming image
JP2000134491A (en) Image processor and its control method, and storage medium
JPH1040373A (en) Image processor and method therefor
JP2001160902A (en) Image processor and method therefor
JPH0922461A (en) Image processor and method therefor
JPH08130636A (en) Image processing unit and its method
JP2001158136A (en) Apparatus and method for image processing
JPH04342370A (en) Image forming device
JP2001157051A (en) Device and method for forming image
JPH09322007A (en) Color image processor and its method
JPH04342366A (en) Image forming device

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040506

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090514

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100514

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100514

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110514

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120514

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120514

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 9

LAPS Cancellation because of no payment of annual fees