JPH0195673A - Digital color picture processor - Google Patents

Digital color picture processor

Info

Publication number
JPH0195673A
JPH0195673A JP62252359A JP25235987A JPH0195673A JP H0195673 A JPH0195673 A JP H0195673A JP 62252359 A JP62252359 A JP 62252359A JP 25235987 A JP25235987 A JP 25235987A JP H0195673 A JPH0195673 A JP H0195673A
Authority
JP
Japan
Prior art keywords
black
area
data
character
circuit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62252359A
Other languages
Japanese (ja)
Inventor
Katsuhisa Tsuji
辻 勝久
Tomoko Ogawa
朋子 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP62252359A priority Critical patent/JPH0195673A/en
Publication of JPH0195673A publication Critical patent/JPH0195673A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To reproduce a black character with high fidelity by analyzing the color of an original into an R, a G and a B, reading it, extracting a black element, and deciding a character area for extracted black data. CONSTITUTION:The blocking circuit of an algorithm to decide by a colored picture element density possesses an MTF correction 1, a comparator 2, a colored picture element density filter 3, and a comparator 4. The algorithm is a separated method by using the fact that the density of the colored picture element is low at the black/white boundary part (an edge part) of the character, etc., the color of the original is analyzed to the red, the green and the blue (the R, G and B), read out, the black element is extracted, and the character area is decided for the extracted black data. Thus, the black character can be correctly extracted in respect to the picture data from the scanner of low costs and slightly deteriorating performance.

Description

【発明の詳細な説明】 〔技術分野〕 本発明はデジタルカラー画像処理装置に関し、より詳細
には、カラーの絵・文字混在画像の黒文字画像部を分離
するデジタルカラー複写機、カラーファクシミリ等に適
用し得るデジタルカラー画像処理装置に関するものであ
る。
[Detailed Description of the Invention] [Technical Field] The present invention relates to a digital color image processing device, and more specifically, it is applied to a digital color copying machine, a color facsimile, etc. that separates the black character image part of a color picture/text mixed image. The present invention relates to a digital color image processing device that can perform digital color image processing.

〔従来技術〕[Prior art]

絵柄と文字の混在する原稿では、フルカラー原稿と言え
ども、文字は黒色である場合が多い、フルカラー複写機
で黒を再現するには、イエロー、マゼンタおよびシアン
(Y、MおよびC)3色の色材を重ね合わせる。しかし
、Y、M、C3色を重ねても、Y、M、Cのバランスが
完全に取られていなければ、多少の色成分は残ってしま
う。また、Y、 M、 Cの各版の位置合わせが不完全
であると、すなわち位置ズレがあると、文字等の高解像
性が要求される画像では著しく画質が劣化する。
In originals that contain both pictures and text, the text is often black even if it is a full-color original.To reproduce black on a full-color copying machine, three colors of yellow, magenta, and cyan (Y, M, and C) are required to reproduce black. Layer the color materials. However, even if the three colors Y, M, and C are layered, if the Y, M, and C colors are not perfectly balanced, some color components will remain. Furthermore, if the alignment of the Y, M, and C versions is incomplete, that is, if there is a positional shift, the image quality of images that require high resolution, such as characters, will be significantly degraded.

この不具合の対策としてデジタルカラー複写機では、Y
、M、Cの3色が重なる部分はM(Bk)で置き換える
UCR(下色除去)の適用が考えられている。しかし現
実には、入力系(スキャナ)の赤、緑、青(R,G、 
B)間の位置ズレ、γ特性やMTF特性の違いなどによ
り、100%UCRを行っても黒一色には変換されない
、そこで、黒文字を黒のみで再現するために黒文字領域
の判定手段の開発が必要となった。
As a countermeasure for this problem, digital color copiers use
It has been considered to apply UCR (undercolor removal) in which the overlapping portions of the three colors , M, and C are replaced with M (Bk). However, in reality, the input system (scanner) is red, green, blue (R, G,
Even if 100% UCR is performed, it will not be converted to solid black due to the positional deviation between B) and differences in γ characteristics and MTF characteristics. Therefore, in order to reproduce black characters only in black, a method for determining the black character area was developed. It became necessary.

従来、白黒領域であるかどうかの判定は、R2O,Bに
色分解されたデータを用い、R−G=Bのとき、白黒(
無彩色)であるとするのが、一般的であった。しかし、
この方法では、上述のごとく、十分な特性の得られない
スキャナを用いた場合はR,G、 B間の差(max 
(IR−G1.  IC−B1.IB−R1))は無彩
色のチャートに対しても大きな値となる場合があり、正
確に白黒画素かどうかの判定を行うのは困難である。逆
にキスヤナの性能を上げることは装置のコスト高および
大型化につながり実用的ではない。
Conventionally, the determination of whether it is a black and white area uses data separated into R2O,B, and when R-G=B, black-and-white (
It was generally assumed that the color was achromatic. but,
In this method, as mentioned above, if a scanner with insufficient characteristics is used, the difference between R, G, and B (max.
(IR-G1.IC-B1.IB-R1)) may have a large value even for an achromatic chart, and it is difficult to accurately determine whether a pixel is a black and white pixel. On the other hand, improving the performance of Kisuyana would lead to higher costs and larger size of the device, which is not practical.

〔月的〕[Moonlike]

そこで、本発明は、上述した従来装置の不都合を改善す
るためになされたもので、その目的とするところは、低
コストの苫干性能の劣るスキャナからの画像データに対
しても正確に黒文字の抽出を行い得るデジタルカラー画
像処理装置を提供することである。
SUMMARY OF THE INVENTION The present invention has been made to improve the above-mentioned disadvantages of the conventional apparatus, and its purpose is to accurately print black characters even on image data from low-cost scanners with poor performance. An object of the present invention is to provide a digital color image processing device capable of performing extraction.

〔構成〕〔composition〕

本発明は上記目的を達成させるため、原稿を赤、緑およ
び青に色分解して読み取る読み取り手段と、黒成分を抽
出する抽出手段とを備え、抽出された黒データに対して
文字領域の判定を行うことを特徴としたものである。
In order to achieve the above-mentioned object, the present invention includes a reading device that separates and reads a document into red, green, and blue colors, and an extraction device that extracts a black component, and determines a character area based on the extracted black data. It is characterized by the following.

以下、本発明の1.実施例を図面に基づいて詳細に説明
する。
Hereinafter, 1. of the present invention. Examples will be described in detail based on the drawings.

まず、絵・文字分離のアルゴリズムについて説明する。First, the algorithm for separating pictures and text will be explained.

最初に、着色画素密度による判定をのべると、この判定
では、(1)低レベル(地肌レベル+α)で2値化した
場合、地肌レベルを超える画素−着色されている画像を
抽出することができる。
First, let's talk about the determination based on colored pixel density. In this determination, (1) When binarized at a low level (background level + α), pixels exceeding the background level - colored images can be extracted. .

(2)一般に、写真(濃度階1り原稿は殆どの領域が地
肌レベル以上の画素で構成されていると考えられる。(
3)文字画像は、白黒の2値画像であるから、地肌レベ
ルの画素と高濃度の着色画素が同程度混在していると考
えられる。 T4)(1)で抽出された着色画素の密度
を計算すると、(2)、 (3)の仮定から写真画像で
は殆ど最高レベルの密度であり、文字画像では中程度の
密度であると考えられる。従って、成るしきい値を設定
し、そのしきい値以上のとき写真画像、そして小さいと
きは文字画像と判定する。
(2) In general, it is thought that most areas of photographs (density level 1 originals) are composed of pixels at or above the background level. (
3) Since the character image is a black-and-white binary image, it is thought that the same amount of background-level pixels and high-density colored pixels coexist. T4) When the density of the colored pixels extracted in (1) is calculated, based on the assumptions (2) and (3), it is considered that photographic images have almost the highest level of density, and character images have a medium density. . Therefore, a threshold value is set, and when it is equal to or greater than the threshold value, it is determined to be a photographic image, and when it is smaller than that threshold value, it is determined to be a text image.

第1図は着色画素密度による判定のアルゴリズムのブロ
ック回路図である0図において1はMTF補正、2は比
較器、3は着色画素密度フィルタ、4は比較器である。
FIG. 1 is a block circuit diagram of an algorithm for determination based on colored pixel density. In FIG. 0, 1 is an MTF correction, 2 is a comparator, 3 is a colored pixel density filter, and 4 is a comparator.

このアルゴリズム(1)は文字等の白黒の境界部(エツ
ジ部)で、着色画素の密度が低いことを用いた分離法で
あるため、エツジのなまりが大きいと誤判定が生じ易く
なる。従って、着色画素を抽出する前に入力系のMTF
補正1を行う方が望ましい、比較器2では着色画素を抽
出し、設定されたしきい値thr 1より大きいか等し
いときは着色画素、小さいときは地肌とする。また、次
段の着色画素密度フィルタ3は4×4〜8×8程度のサ
イズのものを用いれば良い。前述したように、写真領域
では走査窓中の殆どすべての画素が着色画素であるから
、領域判定のしきい値は走査窓中の参照画素数N個のう
ち、N−N−2個程度に設定すれば良い。比較器4では
領域判定を行い、前述のごとく、設定されたしきい値t
hr2より大きいか等しいときは写真領域、小さいとき
は文字令頁域とする。また、参照画素は走査窓サイズを
例えば7×7とした場合、49画素すべてではな(、第
2図Qil、 (e)に示すごとく、十字型、×型のよ
うに、一部を用いることにより、ノh−ドウエアの簡略
化を図ることもできる。
Since this algorithm (1) is a separation method that uses the low density of colored pixels at black and white boundaries (edges) of characters, etc., erroneous determination is likely to occur if the edges are heavily rounded. Therefore, before extracting colored pixels, the MTF of the input system is
It is preferable to perform correction 1. The comparator 2 extracts colored pixels, and when the value is greater than or equal to the set threshold value thr 1, it is used as a colored pixel, and when it is smaller, it is used as a background pixel. Further, the coloring pixel density filter 3 in the next stage may have a size of about 4×4 to 8×8. As mentioned above, in a photographic area, almost all pixels in the scanning window are colored pixels, so the threshold value for area determination is approximately N-N-2 out of the N reference pixels in the scanning window. Just set it. The comparator 4 performs region determination, and as described above, the set threshold value t
If it is greater than or equal to hr2, it is a photo area, and if it is smaller, it is a text page area. In addition, if the scanning window size is 7 x 7, the reference pixels may not be all 49 pixels (as shown in Figure 2, (e), some of them may be used, such as a cross shape or an x shape). This also makes it possible to simplify the hardware.

次に、エツジ画素密度による判定について述べると、(
1)ラプラシアンオペレータ、ロバーツオペレータ等に
よりエツジ画素の抽出を行う、(2)写真画像て濃1度
階!Jりでは急激な濃度変化が少ないためエツジ抽出さ
れる画素は少ない、(3)文字画像は基本的には2値画
像であるためエツジ抽出される画素が多い、(4)エツ
ジ画素の密度を計算すると、+21. [31より写真
領域では密度が低く、文字領域では密度が高くなる。
Next, regarding the determination based on edge pixel density, (
1) Extract edge pixels using Laplacian operator, Roberts operator, etc., (2) Photographic images are 1 degree deep! In J, there are few pixels that are edge-extracted because there are few sudden changes in density. (3) Character images are basically binary images, so there are many pixels that are edge-extracted. (4) The density of edge pixels is When calculated, +21. [From 31, the density is lower in the photo area and higher in the text area.

第3図はエツジ画素密度による判定のアルゴリズムのブ
ロック回路図である0図において5は微分値計算、6は
比較器、7はエツジ画素密度フィルタ、8は比較器であ
る。比較器6はエツジ抽出を行い、設定されたしきい値
thr 3より大きいか等しいときエツジ、小さいとき
非エツジとする。
FIG. 3 is a block circuit diagram of an algorithm for determination based on edge pixel density. In FIG. 0, 5 is a differential value calculation, 6 is a comparator, 7 is an edge pixel density filter, and 8 is a comparator. The comparator 6 performs edge extraction, and when it is greater than or equal to a set threshold value thr3, it is an edge, and when it is smaller, it is a non-edge.

比較器8は領域判定を行い、設定されたしきい値thr
 4より大きいか等しいとき文字領域、小さいとき写真
領域とする。エツジ抽出法としては、ラプラシアン(2
次微分)やグラジェント(1次微分)値の大きさを用い
て行う方法が一般的である。
The comparator 8 performs area determination and uses the set threshold value thr
If it is greater than or equal to 4, it is a text area, and if it is smaller, it is a photo area. The edge extraction method is Laplacian (2
A common method is to use the magnitude of the gradient (first-order differential) or gradient (first-order differential) value.

第4図に微分フィルタの例を示す、第4図(/l)〜(
dlは2次微分フィルタ、(0)〜(n)は1次微分フ
ィル。
Figure 4 shows an example of a differential filter.
dl is a second-order differential filter, and (0) to (n) are first-order differential filters.

りである、エツジ抽出では微分値の絶対値の大小が問題
となるが(e)〜(n)に示した1次微分フィルタは強
い方向性を持つため、(R)−(f)、 (幻−(h)
、 (1)−(J)、(ト)!−(1)、 (IIり 
−(n)のように方向性の直交する微分値f、、Fxの
2乗和の平方根、ρ己1TコーT7了を用いることが望
ましい、簡単には(lfxl+I fy  I)、/2
.max (I fx  1.I fy  l)を用い
ても良い、また、注目画素位置におけろ8方向の勾配の
最大値を用いるようにしても良い。
In edge extraction, the magnitude of the absolute value of the differential value is a problem, but since the first-order differential filters shown in (e) to (n) have strong directionality, (R) - (f), ( Illusion (h)
, (1)-(J), (g)! -(1), (IIri)
It is preferable to use the orthogonal differential value f of the directionality as shown in -(n), the square root of the sum of squares of Fx, and it is simply (lfxl+I fy I), /2
.. max (I fx 1.I fy l) may be used, or the maximum value of the gradients in eight directions at the pixel position of interest may be used.

第5図において、3×3の走査窓中の各画素の階調レベ
ルをa x lとすると、注目画素位W(aの位?!り
における慢度勾配(1次微分)は、で得られる。
In Fig. 5, if the gradation level of each pixel in the 3 x 3 scanning window is a x l, the chronic gradient (first derivative) at the pixel of interest position W (order a?) can be obtained by It will be done.

エツジ抽出をするための判定レベルは入力系のMTF特
性や抽出すべき画像の特徴によって決定すべき値である
。しきい値は固定値でも良いが、原稿の地肌レベルを考
慮した浮動しきい値を用いても良い、エツジ画素密度フ
ィルタ7を用いて写真部と文字部のM域判定を行うので
あるが、エツジ画素密度を用いる利点として、ノイズの
影響による文字部の抽出漏れ、写真部での誤判定を防ぐ
ことができる。密度フィルタフのサイズとしては3×3
〜8×8程度のものを用いれば良い。
The determination level for edge extraction is a value that should be determined based on the MTF characteristics of the input system and the characteristics of the image to be extracted. The threshold value may be a fixed value, but a floating threshold value that takes into account the background level of the document may be used.The edge pixel density filter 7 is used to determine the M range of photographic areas and text areas. An advantage of using the edge pixel density is that it can prevent omissions in extraction of character areas and erroneous determinations in photographic areas due to the influence of noise. The size of the density filter is 3×3
It is sufficient to use a size of about 8×8.

次に、゛網点検出による領域判定について説明する。こ
のアルゴリズムは網点写真領域を抽出するだめのもので
ある。(1)入力画像をスライス2値化する。(2)2
値画像に対し、パターンマツチング法により網点(ドツ
ト)の検出をこおなう、(3)単位ブロック毎に、網点
の有無から、網点領域かどうかの判定を行う、(4)隣
接ブロックの判定結果からその判定の修正を行い、ノイ
ズによる誤判定を低減する。
Next, region determination based on halftone dot detection will be explained. This algorithm is only for extracting halftone photographic areas. (1) Slice and binarize the input image. (2)2
Detect halftone dots on the value image using a pattern matching method. (3) For each unit block, determine whether it is a halftone dot area based on the presence or absence of halftone dots. (4) The judgment is corrected based on the judgment results of adjacent blocks to reduce erroneous judgments due to noise.

第6図は網点検出による領域判定のアルゴリズムのブロ
ック回路図である0図において9はMTF補正、10は
比較器、11は網点検出、12はMI域判定、13は判
定修正であり、比較器10は設定されたしきい(lII
thr 5により2値化し、判定修正13の出力は網点
領域信号である。網点画像は基本的には2値画像であり
、表現すべき24度の大きさに従ってドツト径を変調す
る。このアルゴリズムではこのドツトを検出し、ドツト
の検出された領域近傍を網点画像領域と判定する。ドツ
トの検出はパターンマツチング法を用いるが、網点ピッ
チ、網点画m率によってドツト径が変化するため複数種
のテンブレーI・を用意する。
FIG. 6 is a block circuit diagram of an algorithm for region determination based on halftone detection. In FIG. The comparator 10 has a set threshold (lII
It is binarized by thr 5, and the output of the judgment correction 13 is a halftone dot area signal. The halftone dot image is basically a binary image, and the dot diameter is modulated according to the size of 24 degrees to be expressed. This algorithm detects this dot and determines the area near the area where the dot is detected to be the halftone image area. A pattern matching method is used to detect dots, but since the dot diameter changes depending on the halftone dot pitch and the halftone dot m ratio, a plurality of types of templates are prepared.

′!57図にテンプレートの例を示す0図において、走
査窓内の各要素をMiJで表し、O9×、Δで3種のテ
ンプレートを示している。この場合の、網点検出条件は
次の通りである。
′! In FIG. 57 showing an example of a template, each element within the scanning window is represented by MiJ, and three types of templates are represented by O9× and Δ. In this case, the halftone dot detection conditions are as follows.

次に、画像を8×8〜16xl 6種度のサイズのブロ
ックに分割し、網点の検出されたブロックを網点領域と
判定する。ノイズ等による誤判定を防ぐ為に、次いで判
定の修正を行う、この修正は、第8図に示すように、隣
接する4つのブロック中、3ブロツク以上が網点領域と
判定されるとき、残りの1ブロツクも網点領域として修
正するように行われる。逆に、4ブロック中網点jl域
と判定されるプロ°ツクが2ブロツク以下のときは4ブ
ロツクすべてが網点領域ではないと修正する。再び、第
1図にブロック回路図で示した着色画素密度による判定
のアルゴリズム(1)を実施するための装置について各
構成要素を順に説明する。スキャナ(図示せず)で読み
取られた画像データは、入力系の特に高周波領域でのM
TFの劣化を補正する必要がある。従って、MTF補正
1は、高域強調特性を持つデジタルフィルタで行うこと
ができる。
Next, the image is divided into blocks each having a size of 8x8 to 16xl, and the block in which halftone dots are detected is determined to be a halftone dot area. In order to prevent misjudgments due to noise etc., the judgment is then corrected.As shown in Fig. 8, when three or more blocks out of four adjacent blocks are judged to be halftone areas, the remaining 1 block is also corrected as a halftone area. Conversely, if the number of blocks determined to be in the halftone dot jl region among four blocks is two or less, it is corrected that all four blocks are not in the halftone dot region. Again, each component of the apparatus for implementing the algorithm (1) for determination based on colored pixel density shown in the block circuit diagram in FIG. 1 will be explained in order. The image data read by a scanner (not shown) is
It is necessary to correct the deterioration of TF. Therefore, MTF correction 1 can be performed using a digital filter having high frequency emphasis characteristics.

高域強gは通常、原画像からラプラシアン(2次微分)
を引くことによって行う方法が一般的である。第9図(
a)、 (b)、 (C)はそれぞれMTF補正に用い
られる2次元高域強澗フィルタの例を示す、こ、れらの
フィルタの係数は、実際には、入力系のMTF特性に従
って決定すべき値である。第9図では3×3サイズの例
を示したが、5X31 5X5等のより大きなサイズの
フィルタを用いれば、より適正な補正を行うことができ
る。また、実際の入力系のMTF特性に合わせて、主走
査方向と副走査方向の係数を異なるように構成しても良
い。
The high-frequency strong g is usually calculated from the original image using the Laplacian (second-order differential).
A common method is to subtract. Figure 9 (
a), (b), and (C) each show examples of two-dimensional high-frequency strong filters used for MTF correction.The coefficients of these filters are actually determined according to the MTF characteristics of the input system. This is the value that should be used. Although FIG. 9 shows an example of a 3×3 size, more appropriate correction can be performed if a larger size filter such as 5×31 or 5×5 is used. Further, the coefficients in the main scanning direction and the sub-scanning direction may be configured to be different depending on the MTF characteristics of the actual input system.

また、第9図(b)、 (0)に示したように、4方位
の画素のみを用いれば、ハードウェアの節略化を図るこ
とができる。
Further, as shown in FIGS. 9(b) and (0), by using only pixels in four directions, hardware can be simplified.

第1θ図は3×3フイルタの回路図を示す、この回路で
は3×3マトリクス演算を行うために、2ライン分のバ
ッファおよび3X3−9個のラッチを有している。第1
0図において、!4.1.5はラインバッファ、16〜
24はラッチ、25〜32は加算器、33は乗算器であ
る。ラッチされた9画素のデータは加算器25〜32お
よび乗算器33を用いて第9図に示したような演算が行
われる。加算器25〜32、乗算器33の代わりに]’
?OM(読み取り専用メモリ)を用いることにより、任
意の係数のマトリクス演算を面単に行うように構成する
こともできる。
FIG. 1.theta. shows a circuit diagram of a 3.times.3 filter. This circuit has a buffer for two lines and 3.times.3-9 latches in order to perform a 3.times.3 matrix operation. 1st
In figure 0,! 4.1.5 is line buffer, 16~
24 is a latch, 25 to 32 are adders, and 33 is a multiplier. The latched nine-pixel data is subjected to calculations as shown in FIG. 9 using adders 25 to 32 and a multiplier 33. Adders 25 to 32, instead of multiplier 33]'
? By using an OM (read-only memory), it is possible to easily perform matrix calculations on arbitrary coefficients.

第1F図は着色画業密度演算回路を示す0図において、
34はシフトレジスタ、3Sは計数器、36−39はラ
インバッファ、40〜44はラッチ、45〜48は加算
器、49は比較器である。
Figure 1F shows the coloring density calculation circuit in Figure 0.
34 is a shift register, 3S is a counter, 36-39 are line buffers, 40-44 are latches, 45-48 are adders, and 49 is a comparator.

ここに示す例では、5×5サイズの走査窓内の着色画素
数を計数する。低レベル2硫化された1ビットデータが
シフトレジスタ34に入力される。
In the example shown here, the number of colored pixels within a 5×5 scanning window is counted. The low level 2 sulfurized 1-bit data is input to the shift register 34.

このシフトレジスタ34からは主走査方向に5i素分の
2値データ(合計5ビツト)が出力される。
This shift register 34 outputs binary data for 5i elements (5 bits in total) in the main scanning direction.

次段の計数器35では主走査方向5画素当たりの着色画
素数を計数する。すなわち、5ビツト中の1の数を計数
する。計数器35はROMを使用してテーブル参照方式
にして実現できる。5ビツトのデータでアドレスされる
番地に、5ビツト中の1の数に対応したθ〜5までの値
を格納しておけば良い、主走査方向の画素データは5ラ
イン分保持され、5ライン分の画素密度データを加算器
45〜48を用いて加算することにより5X5−25画
素当たりの着色画素数が算出される。この着色画素密度
と所定のしきい値thr(25〜23程度)を比較し、
しきい値より大きいとき0 (写真領域)そして小さい
とき1 (文字領域)の領域判定信号を出力する。
The next stage counter 35 counts the number of colored pixels per five pixels in the main scanning direction. That is, the number of 1's in 5 bits is counted. The counter 35 can be realized using a ROM and a table reference method. It is sufficient to store a value from θ to 5 corresponding to the number of 1s in the 5 bits at the address addressed by the 5-bit data.Pixel data in the main scanning direction is held for 5 lines; The number of colored pixels per 5×5-25 pixels is calculated by adding the pixel density data for 5×5−25 pixels using adders 45 to 48. Comparing this colored pixel density with a predetermined threshold value thr (about 25 to 23),
It outputs an area determination signal of 0 (photo area) when it is larger than the threshold and 1 (text area) when it is smaller.

第3図のエツジ画素密度による判定のアルゴリズム(2
)のブロック回路図について説明する。第1段目の微分
値演算回路5から出力される微分値と、所定のしきい値
(thr3)と比較することにより、エツジ画素かどう
かの判定を行う、微分値演算5は第10図に示したMT
F補正回路と同様のものを用いることにより実現できる
。そのときのフィルタ係数は第4図に示したようなもの
を用いれば良い。
Algorithm for determination based on edge pixel density in Figure 3 (2
) block circuit diagram will be explained. Differential value calculation 5 is shown in FIG. 10, which determines whether or not it is an edge pixel by comparing the differential value output from the first stage differential value calculation circuit 5 with a predetermined threshold value (thr3). MT shown
This can be realized by using a circuit similar to the F correction circuit. The filter coefficients shown in FIG. 4 may be used at that time.

エツジ画素密度の演算および判定回路と同様のものを用
いることができる。この際、エツジ画素密度が所定のし
きい値(thr 4)より大きいとき1 (文字領域)
をそして小さいときO(絵柄領域)を出力する。
A circuit similar to the edge pixel density calculation and determination circuit can be used. At this time, if the edge pixel density is greater than a predetermined threshold (thr 4), 1 (character area)
And when it is small, O (picture area) is output.

次に第6図の網点検出による領域判定のアルゴリズムの
ブロック回路図について更に説明する。
Next, the block circuit diagram of the algorithm for region determination based on halftone dot detection shown in FIG. 6 will be further explained.

このアルゴリズム(3)は網点のドツトをその形状から
検出するものである。検出の性能は、入力系のMTF特
性に大きく依存するため、MTF補正9を施すことが望
ましい、MTF補正をされた画像データは通常の2値化
レベル(6ビツトデータのときは32程度) thr 
5で2値化し、第7図に示したようなテンプレートを用
いて検出を行う。
This algorithm (3) detects halftone dots from their shapes. Since the detection performance greatly depends on the MTF characteristics of the input system, it is desirable to perform MTF correction 9. Image data that has been subjected to MTF correction has a normal binarization level (approximately 32 for 6-bit data) thr
5, and detection is performed using a template as shown in FIG.

第12図(a)〜(e)に網点検出回路の例を示す、第
12図(a)は7×7の走査窓の49画素のデータを揃
えるための回路で6ライン分のラインメモリ50〜55
、お止び7X7−49ビット分のラッチ56〜62から
構成される。49画素分の、2値データM、〜M1.は
ラッチ群63から同時に取り出すことができる。第12
回(b)、 (C)、 (dlはパターンマツチングに
よる網点の検出回路である。第7図に示した3種のテン
ブレー1と一致するかどうかを判定し、判定結果no、
nX、nΔを出力する。
Figures 12(a) to 12(e) show examples of halftone dot detection circuits. Figure 12(a) is a circuit for aligning data of 49 pixels in a 7x7 scanning window, and is a line memory for 6 lines. 50-55
, 7x7-49 bits of latches 56 to 62. Binary data M, ~M1. for 49 pixels. can be taken out from the latch group 63 at the same time. 12th
(b), (C), (dl is a halftone dot detection circuit using pattern matching. It judges whether it matches the three templates 1 shown in Fig. 7, and the judgment result is no.
Outputs nX and nΔ.

n?は一致するとき01−敗しないときlを出力する@
 no、nX、nΔの信号により、第12図(e)に示
す回路を用いて網点検出信号nを得る。nは網点を検出
した場合1、無い場合0を出力する。
n? outputs 01 when matching - l when not defeated @
Using the signals no, nX, and nΔ, a halftone detection signal n is obtained using the circuit shown in FIG. 12(e). n outputs 1 when a halftone dot is detected, and 0 when no halftone dot is detected.

第13図は領域の判定回路の例である0図において64
は8ビツトシリアル・パラレル変換器、65は第1オア
ゲート、66は第1ラツチ、67は第2オアゲート、6
8は第2ラツチ、69は第3ラツチ、70はラインメモ
リである。この回路では8×8サイズのブロック毎に網
点の有無を検出し、網点領域信号Pを出力する。8×8
ブロツクに少なくとも1個の網点が検出されればP−1
,0個のときp−oを出力する。yi点検出信号nは8
ビツトシリアル・パラレル変換器64に入力され、主走
査方向に8画素溜まる毎に出力される。
FIG. 13 is an example of a region determination circuit.
is an 8-bit serial-parallel converter, 65 is the first OR gate, 66 is the first latch, 67 is the second OR gate, 6
8 is a second latch, 69 is a third latch, and 70 is a line memory. This circuit detects the presence or absence of halftone dots for each block of 8×8 size and outputs a halftone dot area signal P. 8×8
If at least one halftone dot is detected in the block, P-1
, 0, outputs po. yi point detection signal n is 8
It is input to a bit serial/parallel converter 64 and output every time eight pixels are accumulated in the main scanning direction.

次段の第1オアゲート、65からは8ビツト(g画素)
のうち1つでもl (網点検出)がある場合に1がセッ
トされる。すなわち、8×1ブロツク内の網点の有無を
判定する。この第1オアゲートからの出力は第1ラツチ
66および第2オアゲート67を通りラインメモリ70
に記憶される。このラインメモリ70には1ライン目の
8画素毎の領域判定結果が記憶される。2ライン目の網
点検出信号nが入力されると、第1オアゲート65から
は2ライン目の8画素毎の領域判定信号Pが出力される
。同時に、ラインメモリ70からは1ライン目の8画素
ごとの領域判定信号Pが出力され、第2オアゲート67
により8×2ブロック領域判定結果が出力される。同様
にしてラインメモリ70には、8×7ブロツクの領域判
定結果が記憶される。8ライン目の網点検出信号nが入
力されると、8ラインロの8×1ブロツクの領域判定結
果が第1ラツチ6Gを通って第2オアゲート67に入力
される。第2オアゲート67からは3×8ブロツクの領
域判定結果が出力される。8×8ブロツクの判定結果1
)が得られるごとに第3ラツチ69にその判定結果が保
持される。8×8の判定結果Pが第3ラツチ69に保持
されると、第1ラツチ66および第2ラツチ67の出力
はクリアされ、ラインメモリ70には0が書き込まれ、
9〜15ライン目のブロックの領域判定に備える。
Next stage first OR gate, 8 bits (g pixels) from 65
If at least one of them has l (halftone dot detection), 1 is set. That is, the presence or absence of halftone dots within the 8×1 block is determined. The output from this first OR gate passes through a first latch 66 and a second OR gate 67 to a line memory 70.
is memorized. This line memory 70 stores area determination results for every eight pixels of the first line. When the second line dot detection signal n is input, the first OR gate 65 outputs an area determination signal P for every eight pixels of the second line. At the same time, the line memory 70 outputs an area determination signal P for every 8 pixels of the first line, and the second OR gate 67
An 8×2 block area determination result is output. Similarly, the line memory 70 stores area determination results for 8×7 blocks. When the halftone detection signal n of the eighth line is input, the area determination result of the 8×1 block of the eighth line is inputted to the second OR gate 67 through the first latch 6G. The second OR gate 67 outputs a 3×8 block area determination result. 8x8 block judgment result 1
) is obtained, the third latch 69 holds the determination result. When the 8×8 determination result P is held in the third latch 69, the outputs of the first latch 66 and the second latch 67 are cleared, and 0 is written in the line memory 70.
Prepare for area determination of blocks on the 9th to 15th lines.

第14図は第13図に示した領域判定の結果全修正する
ための回路例である。第13図の回路から出力される領
域判定信号Pは8ライン毎に第1ラインメモリ71に記
憶される。第1ラインメモリ71に記憶された領域信号
Pは8画素毎に出力され、次のラッチ73に保持される
。第1ラインメモリ71からは8ラインの間、同じ動作
を行う。
FIG. 14 is an example of a circuit for correcting all the results of the region determination shown in FIG. 13. The area determination signal P output from the circuit of FIG. 13 is stored in the first line memory 71 every eight lines. The area signal P stored in the first line memory 71 is output for every eight pixels and is held in the next latch 73. The same operation is performed for eight lines from the first line memory 71.

すなわち、8×8のブロックを処理している間は同じ信
号を出力する。第1ラインメモリ71から8回目(8ラ
イン目)のデータを出力すると、そのデータは第2ライ
ンメモリ72に記憶される。
That is, the same signal is output while processing an 8×8 block. When the eighth (eighth line) data is output from the first line memory 71, the data is stored in the second line memory 72.

当時に第1ラインメモリ71には次のブロック(9ライ
ン目)のデータが記憶される。第1および第2ラインメ
モリ71および72には、それぞれ副走査方向に隣接す
るブロックの領域信号が記憶されることになる。第1お
よび第2ラインメモリ71.72からは、8画素毎に領
域判定信号が出力され、次のラッチ73.74に保持さ
れる。
At that time, data of the next block (9th line) is stored in the first line memory 71. The first and second line memories 71 and 72 respectively store area signals of adjacent blocks in the sub-scanning direction. Region determination signals are output from the first and second line memories 71 and 72 for every eight pixels, and are held in the next latches 73 and 74.

これらのラッチからの出力はさらに次段のラッチ75.
7Gに8画素毎にラッチされる。4個のラッチ73〜7
6には、第8図に示したように、隣接する4つのブロッ
クの領域信号が保持される。
The outputs from these latches are further transmitted to the next stage, latch 75.
7G is latched every 8 pixels. 4 latches 73-7
6 holds area signals of four adjacent blocks, as shown in FIG.

ノイズによる誤判定を防ぐために、次のナントゲート7
7〜80およびアンドゲート81を使用して判定の修正
を行う、隣接する4つのブロックのうぢ、少なくとも3
つのブロックが網点明域と判定されるとき、注口ブロッ
クは網点明域と判定し、2ブロツク以下のときは非網点
領域と判定する。
In order to prevent false judgments due to noise, the following Nantes gate 7
7 to 80 and the AND gate 81 to correct the judgment.
When one block is determined to be a bright halftone area, the spout block is determined to be a bright halftone area, and when there are two or less blocks, it is determined to be a non-halftone area.

ここで、網点明域と判定された場合は0を、非網点領域
の場合はlを出力する。
Here, if it is determined to be a halftone bright area, 0 is output, and if it is a non-halftone area, l is output.

次に黒文字領域の分離を、R,G、B各色毎の桧・文字
領域判定結果を用いて行う方法を説明する。
Next, a method for separating black text areas using the results of the cypress/text area determination for each color of R, G, and B will be described.

−mに、歓・文字が混在するカラー原稿の場合でも、文
字は白地に黒文字である場合が大半であると考えられる
。白地上に黒文字の原稿をR,G。
Even in the case of a color document in which ``-m'' and ``Kan'' characters are mixed, the characters are considered to be mostly black characters on a white background. R, G for a manuscript with black letters on a white background.

Bに色分解して読み取った場合、各色ともほぼ同一デー
タであると考えられる。これらの各色の画像データに対
し、それぞれ前述した絵・文字分離処理(着色画素密度
による判定またはエツジ画素密度による判定)を行った
場合、はぼ同じ判定結果が得られる。また、黒以外の色
文字、例えば白地に赤い文字がある原稿に対し同様の分
離処理を行った場合、赤色の色材に対してはR光は吸収
されないため、Rの画像に対しては文字領域は抽出され
ない、他の色文字に対しても少なくとも1色は文字領域
が抽出されない画像がある。従って、白地上の黒文字の
特徴として、R,G、B各色に対し文字抽出を行えば、
3色とも同じ領域が抽出されると考えられる。このアル
ゴリズムでは(1) R。
When the B color is separated and read, it is considered that each color has almost the same data. If the above-described picture/character separation processing (determination based on colored pixel density or determination based on edge pixel density) is performed on image data of each of these colors, almost the same determination results will be obtained. Furthermore, if similar separation processing is performed on a document with colored text other than black, for example, red text on a white background, the R light will not be absorbed by the red color material, so the text will be removed from the R image. There are images in which no area is extracted, and at least one character area for characters of other colors is not extracted. Therefore, if character extraction is performed for each color of R, G, and B as a feature of a black character on a white background,
It is thought that the same area is extracted for all three colors. In this algorithm, (1) R.

G、 Bの各色毎に絵・文字領域判定をする。(2)R
Picture/text areas are determined for each color of G and B. (2) R
.

G、 Bの3色すべてに対して文字領域と判定された領
域を黒文字領域と判定する。第15図はこのR,G、B
各色毎の絵・文字領域判定結果も用いるアルゴリズムの
ブロック回路図であり、82・は文字領域判定回路であ
る。
The area determined to be a character area for all three colors G and B is determined to be a black character area. Figure 15 shows these R, G, B
It is a block circuit diagram of an algorithm that also uses picture/text area determination results for each color, and 82 is a character area determination circuit.

次に、黒文字領域の分離を、wax  (R+ G* 
B)データを用いた黒文字判定により行う方法を説明す
る。
Next, the black character area is separated using wax (R+G*
B) A method using black character determination using data will be explained.

輝度データR,G、Bに対し、tsax  (R,G。For the luminance data R, G, B, tsax (R, G.

I3) = −5in  (正、で9丁)、すなわち濃
度データ瓦、て1丁の最小値はその画素の黒成分を表す
I3) = -5in (positive, 9 pixels), that is, the minimum value of the density data tile, 1 row, represents the black component of that pixel.

無彩色ではI??G″4Bであり、黒画素ではR?0と
なる。従って、その補数Rは最高値に近い値となる。黒
以外の有彩色画素では、R,G、Hの少なくとも1色は
高輝度値となるため、wax  (R+G、I3)はO
に近い値となる0画素毎に黒成分を抽出([7CR)す
ることは、スキャナの特性が十分でないとうまく出来な
いことは前に述べた。しかし、スキャナのR,G、 D
rLT(2)位置ズレが1/2ドツト程度であれば、少
なくとも50°%程度の黒成分の抽出は可能である。ま
た、白地に力゛彩色画素に対しては位置ズレしてもR,
G、Bの少なくとも1色に対しては殆ど吸収がないため
、誤っても黒成分が抽出されることはない、このアルゴ
リズムではこの画像の黒成分データを用いる。黒成分デ
ータl1aX  (R,c、 I3)に対して絵・文字
分離(エツジViA素密度による判定)を適用すると、
黒文字の抽出を行うことができる。このエツジ画素密度
による判定では画像のエツジの周辺の数画素程度まで骨
領域と判定するため、黒成分の抽出。
I for achromatic color? ? G''4B, and R?0 for black pixels. Therefore, its complement R is close to the highest value. For chromatic pixels other than black, at least one of R, G, and H has a high brightness value. Therefore, wax (R+G, I3) is O
It was mentioned earlier that extracting the black component ([7CR) for every 0 pixel, which has a value close to , cannot be successfully performed unless the scanner characteristics are sufficient. However, the scanner's R, G, D
If the rLT(2) positional deviation is about 1/2 dot, it is possible to extract a black component of at least about 50%. In addition, for strongly colored pixels on a white background, even if the position is shifted, R,
Since there is almost no absorption for at least one of the colors G and B, the black component will not be extracted even if it is erroneous.This algorithm uses the black component data of this image. When picture/text separation (determined by edge ViA elementary density) is applied to the black component data l1aX (R, c, I3),
Black characters can be extracted. In this determination based on edge pixel density, the black component is extracted because several pixels around the edges of the image are determined to be bone regions.

に多少の欠落が生じても、黒文字判定時に補うことがで
きる。第16図はこのwax  (R+  G、B)デ
ータを用いた黒文字判定のアルゴリズムのブロック回路
を示す0図において、83はwax  (R。
Even if a certain amount of omission occurs, it can be compensated for when determining black characters. FIG. 16 shows a block circuit of an algorithm for determining black characters using wax (R+G, B) data, in which 83 indicates wax (R+G,B) data.

G、 B)算出回路、84は文字領域判定回路である。G, B) Calculation circuit 84 is a character area determination circuit.

次に黒文字領域の分離における原稿の色材の色補正につ
いて説明する。
Next, a description will be given of color correction of the color material of the document in separating the black text area.

通常、フルカラーの画像を再現する場合は、Y。Normally, if you want to reproduce a full color image, select Y.

M、Cの3色またはBkを加えた4色の色材を用いる。Three colors, M and C, or four colors including Bk are used.

これは銀塩写真でも、またプロセスインクを用いた一般
の印刷物でも同じである。ここで、Y、M、Cの色材の
理想的な特性はそれぞれB。
This is the same for silver halide photographs and for general printed matter using process inks. Here, the ideal characteristics of the Y, M, and C coloring materials are B, respectively.

G、R光を100%吸収し、他の色は100%反射(ま
たは透過)することである、しかし現実には、Yを除き
、M、Cはこの理想からはほど遠い特性となっている0
表1は一般的なプロセスインクのR,G、B光に対する
濃度を示している(「カラーレプロダクションの理論J
 P 32、Yule著、馬渡、国司訳、印刷学会出版
部、1971年2月5日)。
The goal is to absorb 100% of G and R lights, and reflect (or transmit) 100% of other colors. However, in reality, except for Y, M and C have characteristics that are far from this ideal.
Table 1 shows the density of common process inks for R, G, and B light ("Color Reproduction Theory J.
P 32, by Yule, translated by Mawatari and Kokushi, Printing Society Publishing Department, February 5, 1971).

表1 P、1かられかるように、Yは比較的理想に近いが、C
,Mにはぞれぞれ相当量の?4.Y成分が含まれている
のがわかる。一方、印刷で色文字を表現する場合は、Y
、M、Cのうちの必要な色材を重ね合わせる0例えば、
緑色の文字はCと)′のインク゛の重ね合わせによって
表現する。前述の如く、Cインクには相当量のへ1成分
が含まれるため、理想的な緑色(G光を100%反射)
とはグぐらないが、視覚的には緑色の箱間であり、実用
上の不具合はない。しかし、この緑色文字をR,G、r
3に色分解して読み取った場合はRおよびB光景外にG
光に対しても吸収を持つ、このようなR,G。
As seen from Table 1 P, 1, Y is relatively close to ideal, but C
, M each have a corresponding amount of ? 4. It can be seen that the Y component is included. On the other hand, when expressing colored characters in printing, Y
, M, and C. For example,
The green characters are expressed by overlapping C and )' ink. As mentioned above, C ink contains a considerable amount of H1 component, so it is an ideal green color (reflects 100% of G light).
I can't google it, but visually it is between green boxes, and there is no practical problem. However, this green letter is R, G, r
When reading with color separation into 3, G is added outside of R and B sights.
These R and G also absorb light.

Bデータに対し、R,G、 B各色毎の絵・文字領域判
定結果を用いるアルゴリズム(A)で絵・文字分離処理
を行った場合はR,Bだけでなく、Gデータについても
文字領域と判定される場合がある。従って、このアルゴ
リズムにおいてR,G。
If picture/text separation processing is performed on B data using algorithm (A) that uses picture/text area determination results for each color of R, G, and B, not only R, B, but also G data will be separated from text areas. It may be judged. Therefore, in this algorithm, R,G.

Bデータを用いた場合は緑色文字も黒文字と判定される
恐れがある。同様の理由で青(C+M)色文字も黒文字
と判定される。また、max  (R,G。
When B data is used, green characters may also be determined to be black characters. For the same reason, blue (C+M) color characters are also determined to be black characters. Also, max (R,G.

B)データを用いた黒文字判定のアルゴリズム(B)に
おいても、緑色文字に対しては、相当量の黒成分が抽出
されることになり、アルゴリズム(A)と同様に緑文字
も黒文字と判定される。これらの色文字は分光学的に確
かに黒成分を持つものであるが、複写画像としては、緑
色文字はC+Y、青色文字は(C+Mの色材のみで再現
すべきものであり、黒成分を加えることにより、彩度が
低下し、かえって画質が劣化することになる。さらに黒
文字をBkのみで再現するならば緑色や青色文字は黒文
字に変、換される恐れがある。
B) Algorithm (B) for determining black characters using data also extracts a considerable amount of black component from green characters, and similarly to algorithm (A), green characters are also determined to be black characters. Ru. Spectroscopically, these colored characters certainly have a black component, but as a copy image, the green characters should be reproduced only with C+Y and the blue characters (C+M), and the black component should be added. As a result, the saturation decreases, and the image quality deteriorates.Furthermore, if black characters are reproduced only in Bk, there is a risk that green or blue characters will be converted to black characters.

アルゴリズム(A)、  (B)においてR,G。R, G in algorithms (A) and (B).

Bデータを用いた場合、絵・文字分離処理においてパラ
メータを調節することにより、成る程度は上記不具合を
低減することはできる。黒文字領域分離における原稿の
色材の色補正のアルゴリズム(C)はこの不具合をより
容易かつ効果的に解消するものである。
When B data is used, the above-mentioned problems can be reduced to some extent by adjusting parameters in the pictorial/character separation process. Algorithm (C) for color correction of the color material of the original in black character area separation solves this problem more easily and effectively.

表1に示したプロセスインクではC,M、 Yの各・イ
ンクの転写1c、M、YとR,G、B光に対する湯度正
、で、Tとの間には次の関係がある。
In the process ink shown in Table 1, the transfer rate of each C, M, and Y ink is 1c, and the temperature is positive for M, Y, and R, G, and B light, and the relationship between T and T is as follows.

但し、’C,M、Yの値はベタ部で1、地肌部で0であ
る。
However, the values of 'C, M, and Y are 1 for the solid area and 0 for the background area.

−・・・−式l 従って、原稿本来のY、 M、  C各版の濃度Y。-...-Formula l Therefore, the density Y of the original Y, M, and C versions of the manuscript.

M、Cは式1の行列の逆行列を求めることにより、次式
で与えられる。
M and C are given by the following equations by calculating the inverse matrix of the matrix in equation 1.

−・・−・・式2 スキャナより読み取ったR、G、B (R,σ。−・・−・Formula 2 R, G, B read by scanner (R, σ.

B)データに対し、式2の補正を行うことにより、原稿
のY、M、C各版毎に色分解した画像データが得られる
。ここで、この効果を確かめて見る。
B) By performing the correction of Equation 2 on the data, color-separated image data for each of the Y, M, and C versions of the original can be obtained. Let's check this effect here.

原稿上の緑色の文字はY、Cのベタ画像の重ね合わせで
表現されているから、y−c−tである。
The green characters on the document are expressed by superimposing Y and C solid images, so they are yc-t.

これを式1に代入することで、スキャナから得られる色
分解データR,G、  B (π、で、N)の値が求ま
る。
By substituting this into Equation 1, the values of the color separation data R, G, B (π, N) obtained from the scanner can be found.

G光に対する吸収がかなりあることがわかる。It can be seen that there is considerable absorption of G light.

このR,G、Bデータを式2により補正すると、従って
、緑色の画素はYおよびCのインクのみから形成されて
いることがわかる。この例では、式1および2の行、列
は互いに逆行列であるので、当然の結果である。しかし
一般に使われているY。
When this R, G, and B data is corrected using Equation 2, it can be seen that the green pixel is formed only from Y and C inks. In this example, the rows and columns of equations 1 and 2 are mutually inverse matrices, so this is a natural result. However, Y is commonly used.

M、Cの色材の分光特性は類似しており、平均的なイン
クの特性値を用いて式2に示した補正値を決定すれば良
い、原稿によりインクの分光特性や最高濃度(ベタ濃度
)は異なるが、その差は大きなものではなく、平均的な
補正値を用いても十分実用的である。さらに、−mのプ
ロセスインクも複写機に用いるトナー、インクの特性も
大差ないことを考えれば、入力のR,G、Bデータに対
して出力のトナーの分光特性を考慮した色補正結果のY
、M、Cデータを代用することもできる。これにより色
補正回路を別に設ける必要がなくなり、ハード構成が簡
単になる。また、本例では1次の色補正式を用いたが、
2次、3次などさらに高次な項まで用いた補正式を用い
ても良い、また、色相毎に異なる補正値を用いる色相分
割の補正式を用いても良い。
The spectral characteristics of the M and C coloring materials are similar, and the correction value shown in Equation 2 can be determined using the average ink characteristic value. ) is different, but the difference is not large and it is sufficiently practical to use the average correction value. Furthermore, considering that the characteristics of the -m process ink and the toner and ink used in copying machines are not much different, the Y
, M, and C data can also be substituted. This eliminates the need to provide a separate color correction circuit, simplifying the hardware configuration. In addition, although a first-order color correction formula was used in this example,
A correction formula that uses even higher-order terms such as second-order and third-order terms may be used, or a correction formula for hue division that uses different correction values for each hue may be used.

以下、本発明による黒文字分離のデジタルカラー画像処
理装置を適用する複写システムを第17図(a)、〜1
. (C1,(d+のブロック回路図を参照して説明す
る。
Hereinafter, a copying system to which a digital color image processing device for separating black characters according to the present invention is applied will be described in FIGS. 17(a) and 1.
.. (This will be explained with reference to the block circuit diagram of C1, (d+).

第17図(alはアルゴリズム(A)による領域判定を
用いる場合の実施例である0図において、85は入力系
(スキャナ)、86はシェーディング補正回路、87は
MTF補正回路、88はγ補正回路、89は色・UCR
処理回路、90はwig(R,G、B−)算出回路、9
1は領域判定回路、92は絵柄部用中間処理回路、93
は文字部用処理回路、94は処理結果選択回路、95は
出力制御回路、96は出力系を示す、スキャナ(入力系
)85よりR,G、Bに分解されて読み取られたデータ
はシェーディング補正、MTF補正、γ補正をされる。
In FIG. 17 (al is an example in which area determination using algorithm (A) is used), 85 is an input system (scanner), 86 is a shading correction circuit, 87 is an MTF correction circuit, and 88 is a γ correction circuit. , 89 is color/UCR
Processing circuit, 90 is wig (R, G, B-) calculation circuit, 9
1 is an area determination circuit, 92 is an intermediate processing circuit for the pattern section, 93
94 is a character processing circuit, 94 is a processing result selection circuit, 95 is an output control circuit, and 96 is an output system.The data read by the scanner (input system) 85 after being separated into R, G, and B is subjected to shading correction. , MTF correction, and γ correction.

これらの補正が施されたR、G、Bデータは色補正−U
CR回路89、領域判定回路91およびl1in  (
R,G、  B)算出回路90に入力される0色補正−
UCR[路89では出力系の色材の特性に合わせて色補
正(マスキング)処理が行われ、必要に応じてOCR処
理も行う0色補正−UCR回路89から出力されるY、
M、C,Bkデータは絵柄部用中間調処理回路92およ
び文字部用゛処理回路93に入力される。この文字部用
処理回路93に入力されるBkデータはmin  (R
The R, G, and B data that have undergone these corrections are color correction-U.
CR circuit 89, area determination circuit 91 and l1in (
R, G, B) 0 color correction input to calculation circuit 90 -
In the UCR circuit 89, color correction (masking) processing is performed according to the characteristics of the output system color material, and if necessary, OCR processing is also performed.
The M, C, and Bk data are input to a halftone processing circuit 92 for the picture area and a processing circuit 93 for the character area. The Bk data input to this character processing circuit 93 is min (R
.

G、B)データを用いる。これはUCRのBkデータで
はUCR−100%処理しても完全に黒が抽出されると
は限らず、黒文字のかすれやノツチの発生を防ぐためで
あるe mln  (R+ G* B)の代わりにR,
G、Bのどれかを用いても良い。絵柄部用中間処理回路
92では組織的デイザ法、誤差拡散法のような良好な階
別特性の得られる2値化(または3値、4値などの多値
化処理しても良いが、ここではこれらを代表して2値化
処理とする)処理を行う0文字部用処理回路93では解
像力を重視した処理を行い、文字・線画の鮮鋭度を損な
−ねないようにする。解像力を重視した処理法としては
ベイヤー型のような分散型パターンを用いたデイザ処理
や固定しきい値による2値化処理がある。これら2種の
2値化データは領域判定の結果に従って、文字領域に対
しては文字部用処理結果を、絵柄領域に対しては絵柄部
用処理結果が処理結果選択回路94で選択されろ、また
、黒文字に関しては黒1色で再現するために、次段の出
力側回路95で黒文字と判定された領域では、Y、 M
G, B) Using data. This is because with UCR Bk data, even if UCR-100% processing does not necessarily extract black completely, this is to prevent black characters from becoming blurred or notches. R,
Either G or B may be used. The intermediate processing circuit 92 for the picture area may perform binarization processing (or multi-value processing such as 3-value or 4-value processing) that provides good grade characteristics, such as the systematic dither method or error diffusion method. The 0 character processing circuit 93, which carries out processing (hereinafter referred to as binarization processing as a representative example), performs processing with emphasis on resolution so as not to impair the sharpness of characters and line drawings. Processing methods that emphasize resolution include dither processing using a distributed pattern such as Bayer type and binarization processing using a fixed threshold. For these two types of binarized data, the processing result selection circuit 94 selects the processing result for the text part for the text area and the processing result for the picture part for the picture area, according to the result of area determination. In addition, in order to reproduce black characters with only black, in the area determined to be a black character by the output side circuit 95 in the next stage, Y, M
.

Cを出力しないように制御する。領域判定回路91では
まず、R,G、Bデータ毎にアルゴリズム(1)または
/およびアルゴリズム(2)およびアルゴリズム(1)
、 (2)において、絵柄領域と判定されるか、アルゴ
リズム(3)により網点領域と判定された領域では絵柄
領域と判定する。残りの領域は文字領域と判定する。黒
に関しては、R,G、83色すべてについて文字領域と
判定された領域を文字領域とする。残りの領域は絵柄領
域と判定する。
Control not to output C. The area determination circuit 91 first uses algorithm (1) or/and algorithm (2) and algorithm (1) for each R, G, and B data.
In (2), the area is determined to be a picture area, or the area determined to be a halftone dot area by algorithm (3) is determined to be a picture area. The remaining area is determined to be a character area. Regarding black, the area determined to be a character area for all 83 colors, R, G, is defined as a character area. The remaining area is determined to be a picture area.

第17図(b)はアルゴリズムBによる黒文字領域判定
を用いる場合の回路図である。第17図(a)との相違
点は領域判定回路91でwax  (R+ G、 B)
算出回路97からのwax  (R,G、  B)デー
タを用いる点である。この例では領域判定外のブロック
、すなわち算出回路97でmax  (R,G、  B
)を算出しているが、領域判定回路9Iに入力されるR
、G、Bデータを用いて該回路91内でmax(R,G
、B)を算出するようにしても良い。この回路では黒s
+ax  (R,G、 B)データを用い、アルゴリズ
ムBによって黒データに関して絵・文字領域判定を行う
。R,G、Bデータに関しては、アルゴリズム(1)〜
(3)の組み合わせによる絵・文字領域判定を行う。ま
た、R,G、Bの判定結果より、アルゴリズム(A)に
よる黒文字判定を行うようにしても良い。この時、アル
ゴリズム(A)。
FIG. 17(b) is a circuit diagram when black character area determination using algorithm B is used. The difference from FIG. 17(a) is that the area determination circuit 91 uses wax (R+G, B)
The point is that wax (R, G, B) data from the calculation circuit 97 is used. In this example, max (R, G, B
) is calculated, but R input to the area determination circuit 9I
, G, B data to calculate max(R,G
, B) may be calculated. In this circuit, black s
+ax (R, G, B) data is used to determine picture/text areas for black data using algorithm B. For R, G, B data, algorithm (1) ~
Picture/text area determination is performed using the combination of (3). Further, based on the R, G, and B determination results, black character determination may be performed using algorithm (A). At this time, algorithm (A).

(B)の結果の論理和を用いた黒文字判定を行うように
すれば良い、白地の黒文字に対してはアルゴリズム(A
)の方が正確にN域判定を行えるが、アルゴリズム(A
)では色地上の黒文字は黒文字とは判定されない0例え
ば、黄色の地肌上に黒文字がある場合はBデータに関し
てはベタ画像であ−り、文字領域は無い。従って、R,
Gに関して文字領域と判定されても、Bが文字領域でな
いため、黒文字領域とは判定されない。アルゴリズム(
B)では黒成分データを用いるため、色地の黒文字の場
合でも地肌(黄色)に黒成分が無いため、黒成分データ
に関しては白地の黒文字の場合と同じ結果が得られる。
It is only necessary to perform black character judgment using the logical sum of the results of (B). For black characters on a white background, algorithm (A
) can more accurately judge the N range, but the algorithm (A
), a black character on a colored background is not determined to be a black character.For example, if there is a black character on a yellow background, the B data is a solid image and there is no character area. Therefore, R,
Even if G is determined to be a character area, since B is not a character area, it is not determined to be a black character area. algorithm(
In B), since black component data is used, even in the case of a black character on a colored background, there is no black component in the background (yellow), so the same result as in the case of a black character on a white background can be obtained regarding the black component data.

従って、アルゴリズム(B)では色地上の黒文字に対し
ても黒文字領域と判定される。このように、アルゴリズ
ム(A)、(B)の両方を用いることによって、より正
確に黒文字領域の判定を行うことができる。
Therefore, in algorithm (B), even black characters on a colored background are determined to be black character areas. In this way, by using both algorithms (A) and (B), black character areas can be determined more accurately.

第17図(C)はアルゴリズム(A)においてR,G、
Bではなく、インクの分光特性を考慮して色補正したY
、M、Cデータ、を用いて領域判定するように構成した
回路図を示す0図において第17図(alと回路図にお
いて異なるのは色補正回路89′とwax  (R,G
、 B)算出回路である。この例ではハードウェア簡略
化のため出力系96のための色補正を施したY、M、C
データで代用するようにしている。
FIG. 17(C) shows R, G,
Not B, but Y whose color has been corrected taking into account the spectral characteristics of the ink.
, M, C data, which is different from the circuit diagram shown in FIG.
, B) is a calculation circuit. In this example, Y, M, and C colors are corrected for the output system 96 to simplify the hardware.
I'm trying to use data instead.

第18図(a)および山)は1次の色補正処理回路のブ
ロック図をそれぞれ示す、第18図(a)において97
〜99はラッチ、100〜108はROM。
18(a) and crest) respectively show block diagrams of the primary color correction processing circuit.
~99 are latches, and 100~108 are ROMs.

109〜111は加算回路、112〜114はラッチで
ある。1次の色補正式を式5のように表す。
109 to 111 are adder circuits, and 112 to 114 are latches. The first-order color correction equation is expressed as Equation 5.

式5より、補正後のC,M、Y値は次のようになる。From Equation 5, the C, M, and Y values after correction are as follows.

Cma、、*π+a r+ *7C+ a 3. *百
・−・・・−・・式6−(11Mm、a(z*−R+a
zt*G+ast*百・・・・−・・式6−(2)Y=
a、z*R+a、、*G+a、、*B・−・−=式6−
(3)第18図(a)の例では式6− (1) 〜(3
1の右辺の9項の乗算をROMを用いたテーブル参照方
式で行えるようにしている0例えば、ROM104には
σ(またはGでも良い)でアト、レスされる番地にa婁
宜*での演算結果が格納されており、Gでアドレスされ
る番地にaB*Gの値を得ることができる。
Cma,, *π+a r+ *7C+ a 3. *100・-・・・・Formula 6-(11Mm, a(z*-R+a
zt*G+ast*100...-Formula 6-(2) Y=
a, z*R+a,, *G+a,, *B・-・-=Formula 6-
(3) In the example of Fig. 18(a), Equation 6- (1) ~ (3
The 9th term on the right side of 1 can be multiplied by a table lookup method using ROM. The result is stored, and the value of aB*G can be obtained at the address addressed by G.

加算回路109〜111ではそれぞれ式6−(1)〜6
−(3)の右辺の3項の加算を行う。その結果加算回路
109〜111からそれぞれC,M、Yの値が出力され
る。
Addition circuits 109 to 111 use equations 6-(1) to 6, respectively.
- Add the three terms on the right side of (3). As a result, C, M, and Y values are output from adder circuits 109 to 111, respectively.

第18図中)において115〜117はラッチ、118
〜120はROM、121は加算回路、122〜127
はラッチ、128,129.130は遅延器である。こ
の回路例では式6−(1)〜6−(3)の演算を時分割
して行うことにより、ROMおよび加算回路の数を低減
した。この回路では1画素クロック内を3つに分割し、
1/37クロツク毎に順次式6−(13,6−(2)、
  6−(3)の演算を行う。
18), 115 to 117 are latches, 118
~120 is ROM, 121 is adder circuit, 122~127
is a latch, and 128, 129, and 130 are delay devices. In this circuit example, the calculations of equations 6-(1) to 6-(3) are performed in a time-division manner, thereby reducing the number of ROMs and adder circuits. In this circuit, one pixel clock is divided into three,
Every 1/37 clock, the formula 6-(13, 6-(2),
6-(3) is performed.

第18図(0)に示したタイムチャートを参照しながら
動作の説明をする0色補正前のR,’G、″Tデータは
画素クロックに同期してそれぞれラッチ115〜117
にラッチきれる。ROM118〜120には2ビツトの
色選択信号St、SOと画像データR,G、Bがアドレ
ス信号として入力される0色選択体号S1.Soは1/
3クロツク毎に00、Of、10を繰り返す、ROM1
18では色選択信号が00.Of、10に対応してa、
、*R*  a lt ” Rr  8131’ Rの
値を出力する。ROM119.120でも同様にa□*
了、a0*て。
The operation will be explained with reference to the time chart shown in FIG. 18 (0). R, 'G, and "T data before zero color correction are latched to latches 115 to 117, respectively, in synchronization with the pixel clock.
It can be latched to. The ROMs 118 to 120 have 0 color selection symbols S1 . So is 1/
ROM1 repeats 00, Of, 10 every 3 clocks
At 18, the color selection signal is 00. Of, corresponding to 10, a,
, *R* a lt ” Rr 8131' Outputs the value of R. Similarly, in ROM119.120, a□*
Finished, a0*te.

ats*G、asr*B、a3z*B、a;、、*1丁
の値をそれぞれ出力する。加算回路121からはROM
118〜ROM120の出力値の和が出力される。
Output the values of ats*G, asr*B, a3z*B, a;, *1, respectively. From the adder circuit 121, the ROM
The sum of the output values of ROM 118 to ROM 120 is output.

すなわち、色選択信号が00.01,10に対応して色
補正データC,M、Yが出力される。加算口61.21
から時分割でC,M、 Yの値が出力される。ラッチ1
22〜124は互いに1/3クロツクずつ位相のズした
クロックに同期してそれぞれ加算回路121から出力さ
れるC、M、Yの値をラッチする。ラッチ125〜12
7ではラッチ122〜124から同位相のC,M、Yデ
ータが出力されるタイミングで、C,M、Yデータをラ
ッチする。これにより位相の同じ(同一画素)のC,M
、 Yデータをラッチ125〜127から同時に参照す
ることができる。
That is, color correction data C, M, and Y are output in correspondence with color selection signals of 00.01 and 10. Addition port 61.21
The C, M, and Y values are output in a time-divided manner. latch 1
22 to 124 each latch the C, M, and Y values output from the adder circuit 121 in synchronization with clocks whose phases are shifted by 1/3 clock. Latch 125-12
7, the C, M, and Y data are latched at the timing when the C, M, and Y data of the same phase are output from the latches 122 to 124. As a result, C and M with the same phase (same pixel)
, Y data can be referenced simultaneously from latches 125-127.

第19図はアルゴリズム(B)において、色補正した後
のY、M、Cデータを用いて黒成分akin(Y、M、
C)を抽出したデータを用いるように一構成している。
Figure 19 shows that in algorithm (B), the black component akin (Y, M,
The system is configured to use data extracted from C).

第17図(a)との回路図における相違は色補正回路8
9′およびlIi n  (Y e M +  C)算
出回路97′である。第17図(C)の場合と同様に、
アルゴリズム(A)、  (B)の両方を用いるように
構成しても良い、また、黒成分の抽出データはUCR回
路89において100%UCRを行うようにすれば、U
CR回路89から出力されるBkデータを用いるように
しても良い。
The difference in the circuit diagram from FIG. 17(a) is the color correction circuit 8.
9' and lIi n (Y e M + C) calculation circuit 97'. As in the case of FIG. 17(C),
The configuration may be such that both algorithms (A) and (B) are used.Also, if the black component extraction data is subjected to 100% UCR in the UCR circuit 89, the UCR
Bk data output from the CR circuit 89 may also be used.

アルゴリズム(B)を用いて黒文字領域を抽出する場合
は色地上の黒文字も抽出する。このとき、1m1n  
(R,G、 B)データによる画像はベタ画像となる。
When extracting a black character area using algorithm (B), black characters on a colored background are also extracted. At this time, 1m1n
An image based on (R, G, B) data becomes a solid image.

従って、アルゴリズム(B)によって黒文字抽出をする
場合は文字用処理としてa+ax  (R。
Therefore, when extracting black characters using algorithm (B), the character processing is a+ax (R).

G、 B)またはm t n  (Y + M + C
)を用いる必要がある。また、アルゴリズム(A)、 
 (B)両方を用いる場合は、アルゴリズム(B)のみ
で黒文字領域と判定される領域は、色地上の黒文字領域
を判断できるから、この場合にmax  (R,G。
G, B) or m t n (Y + M + C
) must be used. Also, algorithm (A),
(B) If both are used, the area determined as a black text area only by algorithm (B) can be determined as a black text area on a color background, so in this case, max (R, G.

B)を用い、アルゴリズム(A)で黒文字と判定される
領域(白地上に黒文字)はwin  (R,G。
Using algorithm (B), the area determined to be black by algorithm (A) (black characters on a white background) is win (R,G.

B)を用いるようにす−れば良好な黒文字画像が得られ
る。
If B) is used, a good black character image can be obtained.

第20図(a) 〜(d)を参照しながら、第17図(
al〜(C1および第19図の回路の処理の切り換え動
作を説明する。第20図(al〜(dlにおいて第17
図(a)〜(C)および第19図と同一部分には同一符
号を付しである。
While referring to FIGS. 20(a) to (d), FIG.
al~(C1 and the processing switching operation of the circuit in FIG. 19 will be explained.
The same parts as in FIGS. (a) to (C) and FIG. 19 are given the same reference numerals.

第20図[a)の例ではBkのみ絵・文字処理切り換え
を行うようにしている。黒文字領域信号はアルゴリズム
(A)または(B)によって得られる。
In the example shown in FIG. 20 [a], the picture/character processing is switched only for Bk. The black character area signal is obtained by algorithm (A) or (B).

文字部用処理回路に入力される黒データI3 k ’は
、アルゴリズム(A)のときは、ll1in  CR,
G。
In algorithm (A), the black data I3k' input to the character processing circuit is ll1in CR,
G.

B)、eaax  (Y、M、C)、R,G、B等を用
いれば良い、アルゴリズム(B)のj合は、色地上の黒
文字を考慮して、max  (R,G、 B)またはm
in  (Y、 M、  C)を用いるのが望ましい、
また出力制御部95では黒文字領域においてYMCを出
力しないようにしており、黒文字は黒1色で再現される
ことになる。第21図(a)および−)にそれぞれアル
ゴリズム(A)および(B)による黒文字領域信号発生
回路を示す、これらの図において各色の文字領域信号B
またはY (LR3) 、GまたはM (LR3)およ
びRまたはC(LR3)はアルゴリズム(1)または/
およびアルゴリズム(2)によって、網点領域信号Bま
たはY (NR3) 、GまたはM (NRS)及びR
またはC(NRS)はアルゴリズム(3)によって得ら
れることができる。
B), eaax (Y, M, C), R, G, B, etc. can be used. For the case of algorithm (B), max (R, G, B) or m
It is preferable to use in (Y, M, C),
Furthermore, the output control unit 95 is configured not to output YMC in the black character area, so that black characters are reproduced in only black. FIGS. 21(a) and 21-) show black character area signal generation circuits based on algorithms (A) and (B), respectively. In these figures, each color's character area signal B
or Y (LR3), G or M (LR3) and R or C (LR3) are algorithm (1) or/
And according to algorithm (2), halftone area signals B or Y (NR3), G or M (NRS) and R
Or C(NRS) can be obtained by algorithm (3).

第20図(b)の例では黒だけでなく、Y、M、Cにつ
いても絵・文字処理の切り換えを行うように構成してい
る。他の構成および動作は第20図(a)の場合と同様
である。第21図(elに各色の文字領域信号(LR3
)およびアルゴリズム(A)による黒文字領域信号発生
回路の例を示す。
In the example shown in FIG. 20(b), the picture/character processing is switched not only for black but also for Y, M, and C. Other configurations and operations are the same as those in FIG. 20(a). Figure 21 (character area signals of each color in el (LR3
) and an example of a black character area signal generation circuit based on algorithm (A).

第20図(Ct)の例では、白地上の黒文字(白゛黒文
字と呼ぶ)の場合のみ、Y、M、Cを出力しないように
構成したものである。黒文字領域信号をアルゴリズム(
B)によって得た場合、色地上の黒文字も抽出される。
In the example shown in FIG. 20 (Ct), Y, M, and C are not outputted only in the case of black characters on a white background (referred to as white and black characters). The algorithm (
When obtained by B), black characters on a colored background are also extracted.

第21図中)の例においてアルゴリズム(B)を用いた
場合、色地上の黒文字は黒文字の周辺が白抜けした出力
画像が得られる。
When algorithm (B) is used in the example shown in FIG. 21, an output image in which the periphery of the black character is white is obtained for a black character on a colored background.

第20図(C)の例では色地上の黒文字に対して地肌色
が白抜けしないようにしたものである。白黒文字領域は
アルゴリズム(A)により得ることが出来る0色地上お
よび白地上を問わず、黒文字はアルゴリズム(B)によ
り得ることができるが、第21図(d)の例ではアルゴ
リズム(A)の結果との論理和を用いるようにしている
。第20図fclの例ではBkの文学部処理用のデータ
として、色地上の黒文字を名慮すれば、taax  (
R,G、 B)またはn+in  (Y、 M、  C
)データを用いる方が良い。
In the example shown in FIG. 20(C), the background color is prevented from appearing white against black characters on a colored background. Black and white character areas can be obtained by algorithm (A).Black characters can be obtained by algorithm (B), regardless of whether it is on a zero-color background or a white background, but in the example of FIG. I try to use logical sum with the result. In the example of Fig. 20 fcl, if we consider black characters on a color background as data for Bk literature processing, tax (
R, G, B) or n+in (Y, M, C
) It is better to use data.

第20図(dlの例ではY、 M、 Cの出力は白黒文
字領域のみY、M、Cを出力しないようにすると同時に
、白黒文字に対してはwin  (R,G、  B) 
Figure 20 (In the example of dl, the output of Y, M, and C is only in the black and white character area, so that Y, M, and C are not output, and at the same time, for black and white characters, win (R, G, B) is set.
.

max  (Y、M、C)、R,G、B、Y、M、C(
Y、M、CはUCRされてないデータである)等を用い
た文字部用処理データを選択し、色地上の文字(白黒文
字以外)ではwax  (R,G、 B)またはmln
  (Y+ M*  C)データを用いる構成している
。これにより白黒文字に対してwax  (R+G、B
)% sin  (Y6M、C)を用いた場合に、−黒
文字のかすれ、ノツチ等の出現の恐れを除去し、かつ色
地上の黒文字も再現可能となる。白黒文字および黒文字
領域信号は第21図(d)の回路で得られるものを用い
れば良い、尚、第20図(a)〜(d)および第21図
(a)〜(d+においてLR3は文字領域信号、NR3
は網点領域信号を示し、文字領域信号の出力は1で文字
を、0で絵柄を示し、さらに、網点領域信号は1で文字
(非網点領域)を、0で写真(網点領域)を示す。
max (Y, M, C), R, G, B, Y, M, C (
Select the processing data for the character part using (Y, M, C are non-UCR data), etc., and use wax (R, G, B) or mln for characters on colored ground (other than black and white characters).
(Y+M*C) data is used. This allows wax (R+G, B
)% sin (Y6M, C), it is possible to eliminate the possibility of fading of black characters and the appearance of notches, etc., and also to reproduce black characters on colored backgrounds. The black and white character and black character area signals may be obtained from the circuit shown in FIG. 21(d). In FIGS. 20(a) to (d) and FIGS. Area signal, NR3
indicates a halftone dot area signal, the output of the text area signal is 1 for characters, 0 for a picture, and the halftone dot area signal is 1 for text (non-halftone area) and 0 for a photo (halftone area). ) is shown.

〔効果〕 畝上のごとく、本発明によれば、原稿をR,G。〔effect〕 According to the present invention, the original is R and G.

Bに色分解して読み取る読み取り手段と、黒成分を抽出
する抽出手段とを備え、抽出された黒データに対して文
字領域の判定を行うようにしたので黒文字領域を判定し
、該領域を黒のみで再現することにより黒文字を高品位
に再現することができるという効果を奏するデジタルカ
ラー画像処理装置を提供することができる。
The system is equipped with a reading means that separates the colors into B and reads them, and an extraction means that extracts the black component, and determines the character area from the extracted black data. It is possible to provide a digital color image processing device that has the effect of being able to reproduce black characters with high quality by reproducing only black characters.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は着色画素密度により判定のアルゴリズムのブロ
ック回路図、第2図(a)〜(f)それぞれは画素パタ
ーンを示す概略図、第3図はエツジ画素密度による判定
のアルゴリズムのブロック回路図、第4図(a)〜(n
)はそれぞれ第3図の回路に使用される微分フィルタの
例を示す概略図、第5図は第3図の密度フィルタのサイ
ズの1例を示す概略図、第6図は網点検出による領域判
定のアルゴリズムのブロック図、第7図は第6図の回路
に使用するテンプレートの1例を示す概略図、第8図は
網点fiJj域の修正を説明する概略図、第9図(a)
、 (kl)、 (C)はそれぞれ′MTF補正に用い
られる2次元高域強調フィルタの例を示す概略図、第1
0図は3×3フイルタの回路のブロック図、第11図は
着色画素密度演算回路のブロック図、第12図(81〜
(14)は網点検出回路の例を示す概略図、第13図は
領域の判定回路の1例を示す概略図、第14図は第13
図の回路の結果を修正する回路の1例を示す概略図、第
15図はR,G、 B各色毎の絵・文字領域判定結果を
用いるアルゴリズムのブロック回11図、第16図はw
ax  (R,G、 B)データを用いた黒文字判定の
アルゴリズムのブロック回路図、第17図(a)〜(C
)および第19図は本発明による黒文字分離のデジタル
画像処理装置を適用する複写システムの回路図をそれぞ
れ示すブロック図、第18図(a)、 (b)はそれぞ
れ1次の色補正回路の例を示すブロック図、第18図(
C)は第18図(a)、 (b)の動作を示すタイムチ
ャート、第20図(a)〜(d)は第17図(a)〜(
C)および第19図に示した回路のそれぞれの処理の切
り換え動作を説明するための回路図、第21図(a)〜
(d)はそれぞれのアルゴリズムによる黒文字または白
文字trM域信号発生回路を示すブロック図である。 3・・・着色画素密度フィルタ、7・・パエツジ画素密
度フィルタ、11・・・網点検出回路、85・・・入力
系、89・・・色補正(UCR)回路、90・・・算出
回路、91・・・領域判定回路、94・・・処理結果選
択回路、95・・・出力制御回路。 第1図 第2図 (a)      (b)     (c)(d)  
   (e)     (f)第3図 第4図 (a)   (b)   (c)   (d)(e) 
  (f)   ((])   (h)   (i) 
  (j)(k)  (1)  (m)  (n)第5
図 第15図 η 第16図 (e) (C) (b) 工Oの Q     Σ     Σ Cr:     Φ01 第20図(a) 第20図(b) 第20図(C) 竿    ?4
Figure 1 is a block circuit diagram of an algorithm for determination based on colored pixel density, Figures 2 (a) to (f) are schematic diagrams showing pixel patterns, and Figure 3 is a block circuit diagram of an algorithm for determination based on edge pixel density. , Fig. 4(a)-(n
) are schematic diagrams showing an example of the differential filter used in the circuit of Figure 3, Figure 5 is a schematic diagram showing an example of the size of the density filter of Figure 3, and Figure 6 is a schematic diagram showing an example of the size of the density filter in Figure 3. A block diagram of the determination algorithm, FIG. 7 is a schematic diagram showing an example of a template used in the circuit of FIG. 6, FIG. 8 is a schematic diagram illustrating correction of the halftone dot fiJj area, and FIG.
, (kl), and (C) are schematic diagrams showing examples of two-dimensional high-frequency emphasis filters used for 'MTF correction, and the first
Figure 0 is a block diagram of a 3x3 filter circuit, Figure 11 is a block diagram of a colored pixel density calculation circuit, and Figure 12 (81-
(14) is a schematic diagram showing an example of a halftone dot detection circuit, FIG. 13 is a schematic diagram showing an example of an area determination circuit, and FIG.
A schematic diagram showing an example of a circuit that corrects the results of the circuit shown in the figure. Figure 15 is a block diagram of an algorithm that uses the pictorial/text area determination results for each color of R, G, and B. Figure 16 is
Block circuit diagram of algorithm for black character determination using ax (R, G, B) data, Figure 17 (a) to (C)
) and FIG. 19 are block diagrams showing circuit diagrams of a copying system to which the digital image processing device for black character separation according to the present invention is applied, and FIGS. 18(a) and (b) are examples of primary color correction circuits, respectively. A block diagram showing Fig. 18 (
C) is a time chart showing the operations in FIGS. 18(a) and (b), and FIGS. 20(a) to (d) are time charts showing the operations in FIGS. 17(a) to (
C) and a circuit diagram for explaining the switching operation of each process of the circuit shown in FIG. 19, FIGS. 21(a) to 21.
(d) is a block diagram showing a black character or white character trM area signal generation circuit according to each algorithm. 3... Colored pixel density filter, 7... Partition pixel density filter, 11... Halftone detection circuit, 85... Input system, 89... Color correction (UCR) circuit, 90... Calculation circuit , 91... Area determination circuit, 94... Processing result selection circuit, 95... Output control circuit. Figure 1 Figure 2 (a) (b) (c) (d)
(e) (f) Figure 3 Figure 4 (a) (b) (c) (d) (e)
(f) ((]) (h) (i)
(j) (k) (1) (m) (n) Fifth
Figure 15 η Figure 16 (e) (C) (b) Work O's Q Σ Σ Cr: Φ01 Figure 20 (a) Figure 20 (b) Figure 20 (C) Rod ? 4

Claims (1)

【特許請求の範囲】[Claims] 原稿を赤、緑および青に色分解して読み取る読取り手段
と、黒成分を抽出する抽出手段とを備え、抽出された黒
データに対して文字領域の判定を行うことを特徴とする
デジタルカラー画像処理装置。
A digital color image comprising a reading means that separates and reads a document into red, green, and blue colors, and an extraction means that extracts a black component, and determines a character area from the extracted black data. Processing equipment.
JP62252359A 1987-10-08 1987-10-08 Digital color picture processor Pending JPH0195673A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62252359A JPH0195673A (en) 1987-10-08 1987-10-08 Digital color picture processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62252359A JPH0195673A (en) 1987-10-08 1987-10-08 Digital color picture processor

Publications (1)

Publication Number Publication Date
JPH0195673A true JPH0195673A (en) 1989-04-13

Family

ID=17236196

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62252359A Pending JPH0195673A (en) 1987-10-08 1987-10-08 Digital color picture processor

Country Status (1)

Country Link
JP (1) JPH0195673A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01174452A (en) * 1987-12-28 1989-07-11 Canon Inc Color image processor
US5331442A (en) * 1990-03-07 1994-07-19 Fuji Xerox Co., Ltd. Identification of graphic and character areas in color image processor
US6181819B1 (en) 1989-08-02 2001-01-30 Canon Kabushiki Kaisha Image processing apparatus including means for judging a chromatic portion of an image
JP2006091980A (en) * 2004-09-21 2006-04-06 Seiko Epson Corp Image processor, image processing method and image processing program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6113262A (en) * 1984-06-29 1986-01-21 Fuji Xerox Co Ltd Color image recorder
JPS62220072A (en) * 1986-03-20 1987-09-28 Ricoh Co Ltd Processing method for halftone digital color image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6113262A (en) * 1984-06-29 1986-01-21 Fuji Xerox Co Ltd Color image recorder
JPS62220072A (en) * 1986-03-20 1987-09-28 Ricoh Co Ltd Processing method for halftone digital color image

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01174452A (en) * 1987-12-28 1989-07-11 Canon Inc Color image processor
US6181819B1 (en) 1989-08-02 2001-01-30 Canon Kabushiki Kaisha Image processing apparatus including means for judging a chromatic portion of an image
US5331442A (en) * 1990-03-07 1994-07-19 Fuji Xerox Co., Ltd. Identification of graphic and character areas in color image processor
JP2006091980A (en) * 2004-09-21 2006-04-06 Seiko Epson Corp Image processor, image processing method and image processing program

Similar Documents

Publication Publication Date Title
JPH01198870A (en) Digital color picture processor
JP3436828B2 (en) Image processing device
EP0899685B1 (en) Image processing apparatus for discriminating image field of original document plural times and method therefor
US5136401A (en) Image layout apparatus for performing pattern modification such as coloring of an original image
US7148997B2 (en) Image processing apparatus and method
JP3399486B2 (en) Color image processing apparatus and method
US6775031B1 (en) Apparatus and method for processing images, image reading and image forming apparatuses equipped with the apparatus, and storage medium carrying programmed-data for processing images
US20040125411A1 (en) Method of, apparatus for image processing, and computer product
JP4172616B2 (en) Image processing device
US6744921B1 (en) Image processing apparatus and method that determines the thickness of characters and lines
JP2001016459A (en) Method and device for printing black/white picture based on color picture information
US6178010B1 (en) Image processing device
JPH0195673A (en) Digital color picture processor
JP3767878B2 (en) Image processing apparatus with output correction inside character
JP2672553B2 (en) Image processing device
JP3944032B2 (en) Image processing apparatus and method
JP2003230006A (en) Image processing method, image processing apparatus, and image forming device
JP2003264701A (en) Image processing method, image processor and image forming device provided with the same
JP3495743B2 (en) Image processing apparatus and image processing method
JP3989636B2 (en) Image processing device
JP3927426B2 (en) Image processing method, image processing apparatus, and image forming apparatus including the same
JPH0537776A (en) Picture processing unit
JP2618893B2 (en) Color image processing equipment
JPH0414378A (en) Color picture processing unit
JP3854414B2 (en) Image processing apparatus and image forming apparatus