JP4047356B2 - Image processing device - Google Patents
Image processing device Download PDFInfo
- Publication number
- JP4047356B2 JP4047356B2 JP2006077166A JP2006077166A JP4047356B2 JP 4047356 B2 JP4047356 B2 JP 4047356B2 JP 2006077166 A JP2006077166 A JP 2006077166A JP 2006077166 A JP2006077166 A JP 2006077166A JP 4047356 B2 JP4047356 B2 JP 4047356B2
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- unit
- black
- pattern
- achromatic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Landscapes
- Image Processing (AREA)
- Facsimile Image Signal Circuits (AREA)
- Color Image Communication Systems (AREA)
Description
本発明は,カラーデジタル複写機やカラープリンタ,ファクシミリなどの画像形成装置に利用される画像処理装置に関し,より詳細には,入力画像データの特定領域がが無彩色画素あるかを検出し,適切な画像処理を行う画像処理装置に関する。 The present invention relates to an image processing apparatus used for an image forming apparatus such as a color digital copying machine, a color printer, and a facsimile. More specifically, the present invention detects whether a specific area of input image data is an achromatic pixel and appropriately The present invention relates to an image processing apparatus that performs accurate image processing.
近年,カラーデジタル複写機やカラープリンタ,ファクシミリなど利用される画像処理装置は高機能化・高品質化がさらに要求されてきている。しかし,スキャナなどの画像入力装置から入力された原稿画像中の色(有彩)画素や黒(無彩)画素を検出する際には,デジタルサンプリングや機械的精度に起因するRGBの読み取りずれが存在する。このため,従来においては,位置ずれがないように,平滑化処理を行って補正を加えたり,あるいは位置ずれを考慮したパターンマッチングを行っている。また,色判定を行う際には,有彩/無彩画素を正確に判定するために,画素の抽出方法が提案されている。 In recent years, there has been a further demand for higher performance and higher quality image processing apparatuses such as color digital copying machines, color printers, and facsimiles. However, when detecting color (chromatic) pixels or black (achromatic) pixels in a document image input from an image input device such as a scanner, there is an RGB reading shift caused by digital sampling or mechanical accuracy. Exists. For this reason, conventionally, correction is performed by performing a smoothing process so that there is no positional deviation, or pattern matching considering positional deviation is performed. In addition, when performing color determination, a pixel extraction method has been proposed in order to accurately determine chromatic / achromatic pixels.
例えば,特開平5−236287号公報に開示されている「画像処理装置」では,RGBの多値画像データを複数ライン蓄えて平滑化し,画像データのずれを補正している。また,ここでは,画像を抽出して2値化する際に明暗に応じて抽出する画素の閾値を切替えている。 For example, in the “image processing apparatus” disclosed in Japanese Patent Laid-Open No. 5-236287, a plurality of lines of RGB multivalued image data are stored and smoothed to correct image data deviation. Here, the threshold value of the pixel to be extracted is switched according to light and dark when the image is extracted and binarized.
また,上記公報の他に,特開平5−300390号公報では非線形データを用いて正確な画像抽出を実現している。さらに,特開平5−244420号公報に開示されている「画像処理装置」では,画像データを色相判定して色画素抽出を行っている。また,特開平9−247481号公報に開示されている「画像処理装置」では,位置ずれに関するものではないが,c,m,yのプレーンで色(有彩)網点か黒(無彩)網点の判定を行っている。 In addition to the above publication, Japanese Patent Laid-Open No. 5-300390 implements accurate image extraction using nonlinear data. Further, in the “image processing apparatus” disclosed in Japanese Patent Laid-Open No. 5-244420, color pixel extraction is performed by determining the hue of image data. In addition, the “image processing apparatus” disclosed in Japanese Patent Laid-Open No. 9-247481 is not related to misregistration, but the color (chromatic) halftone dot or black (achromatic) in the plane of c, m, y. The halftone dot is determined.
しかしながら,上記に示されるような従来の技術にあっては,RGBの多値画像データを複数ライン蓄えて平滑化して補正することは,多値データのbit数+参照ライン数を見て行うため,2値データと比較して非常に多くのメモリを必要とし,さらに読み取り位置ずれを考慮したパターンを作成しても,局所的な変動に起因する誤判定を招来させやすいという問題点があった。 However, in the conventional technique as described above, a plurality of RGB multi-valued image data are stored and smoothed for correction by looking at the number of bits of the multi-value data + the number of reference lines. , Compared with binary data, a very large amount of memory is required, and even if a pattern that takes into account the reading position deviation is created, there is a problem that erroneous determination due to local fluctuations is likely to occur. .
本発明は,上記に鑑みてなされたものであって,無彩色の判定を実現すると共に,メモリ容量の低減を図ることを目的とする。 The present invention has been made in view of the above, and it is an object of the present invention to achieve achromatic color determination and reduce memory capacity.
上記の目的を達成するために,請求項1に係る画像処理装置にあっては,外部より入力される入力画像の画素がC,M,Y,R,G,B,BK,Wのいずれであるかを画素ごとに判定し,判定した結果であるC,M,Y,R,G,B,BK,Wそれぞれの画素を3bitの値である(c,m,y)で表す色相分割手段と,前記画素を含む入力画像中の所定の領域であるn×mマトリックス(n,mは1以上の整数)の中で,前記(c,m,y)ごとに1の数をカウントし,該カウントした値の最小値を黒画素とし,最大値−最小値が第1の所定の値以下の場合,n×mマトリックス内の処理対象の画素を無彩画素領域であると判定する無彩画素判定手段と,を備えたものである。
In order to achieve the above object, in the image processing apparatus according to
また,請求項2に係る画像処理装置にあっては,前記無彩画素判定手段は,前記最小値が第2の所定の値以上である場合に,前記処理対象画素を無彩画素領域であると判定するものである。
Further, in the image processing apparatus according to
また,請求項3に係る画像処理装置にあっては,前記無彩画素判定手段は,前記処理対象画素が無彩画素領域であるか否かを,RGBデータの最大値と最小値との差に従って判定するものである。
Further, in the image processing apparatus according to
また,請求項4に係る画像処理装置にあっては,前記無彩画素判定手段は,色相毎にそれぞれ閾値を設定し,前記処理対象画素が無彩画素領域であるか否かを,各閾値に従って判定するものである。
Further, in the image processing apparatus according to
また,請求項5に係る画像処理装置にあっては,前記無彩画素判定手段は,複数の無彩画素を検出する際に,前記第1の所定の値および前記第2の所定の値を変更可能であるものである。 In the image processing apparatus according to claim 5 , the achromatic pixel determination unit calculates the first predetermined value and the second predetermined value when detecting a plurality of achromatic pixels. It can be changed .
また,請求項6に係る画像処理装置にあっては,前記無彩画素判定手段は,複数の無彩画素を検出し,入力画像がカラー画像か白黒画像かを判定し,かつ,入力画像の特定領域を黒文字として処理するかの可否を判定するものである。 Further, in the image processing apparatus according to claim 6 , the achromatic pixel determining means detects a plurality of achromatic pixels, determines whether the input image is a color image or a black and white image, and It is determined whether or not the specific area is processed as a black character.
以上説明したように,本発明に係る画像処理装置(請求項1〜3)によれば,y,mcのプレーン展開し,n×mのマトリックスにおいてそれぞれのプレーン毎に数を数えて,その最小値を黒と判定することにより読み取り位置ずれを補正し,無彩色の判定が実現されると共に,2値データ後に処理を行うため,多値データと比較して非常に少ないメモリ容量でRGB読み取りずれに対応するため,メモリ容量の低減を図ることができる。 As described above, according to the image processing apparatus of the present invention (claims 1 to 3 ), y and mc planes are developed, and the number is counted for each plane in the n × m matrix, and the minimum By correcting the reading position deviation by determining the value as black, achromatic color determination is realized, and processing is performed after binary data, so RGB reading deviation is reduced with a very small memory capacity compared to multi-value data. Therefore, the memory capacity can be reduced.
また,本発明に係る画像処理装置(請求項4)によれば,正確に黒を判定するために色相を判定し,色相毎に無彩判定を行うので,色相領域に応じて判定を切替えることができ,高精度の色抽出が実現する。 Further, according to the image processing apparatus of the present invention (claim 4 ), the hue is determined in order to accurately determine black, and the achromatic determination is performed for each hue. Therefore, the determination is switched according to the hue region. This enables high-precision color extraction.
また,本発明に係る画像処理装置(請求項5,6)によれば,複数の有彩/無彩判定を行う際に,判定の途中まで共通に処理し,3bitのプレーンを独立に数えた値の閾値を切り換えることが可能なため,メモリの増加を少なくすることができる。 Further, according to the image processing apparatus of the present invention (Claims 5 and 6 ), when performing a plurality of chromatic / achromatic determinations, processing is performed until the middle of the determination, and a 3-bit plane is counted independently. Since the threshold value can be switched, an increase in memory can be reduced.
以下,本発明の画像処理装置の実施の形態について添付図面を参照し,詳細に説明する。 Hereinafter, embodiments of an image processing apparatus according to the present invention will be described in detail with reference to the accompanying drawings.
〔画像処理装置の構成・動作〕
図1は,本発明の実施の形態1に係る画像処理装置の概略構成を示すブロック図であり,原稿から画像データを読み取り,該画像データ(アナログ信号)をデジタルデータに変換して出力する原稿読取部101と,原稿読取部101で読み取った画像データ(デジタルデータ)に各種補正処理等を施すと共に,線画認識・色判定等の原稿認識を行う画像処理部102と,画像処理部102からの画像データに基づいて記録紙に画像を記録する画像記録部103と,から構成される。
[Configuration and operation of image processing apparatus]
FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus according to
なお,ここでは,原稿読取部101でR(レッド)・G(グリーン)・B(ブルー)の3色のカラー画像データ(以下,RGBデータと記載する)を読み取って,画像処理部102でRGBデータをC(シアン)・M(マゼンタ)・(イエロー)・Bk(ブラック)の4色のカラー画像データ(以下,CMYBkデータと記載する)に色変換し,画像記録部103でCMYBkデータに基づいて記録紙にカラー画像を出力するものとして説明する。
Here, the
図2は,図1における画像処理部102の内部構成を示すブロック図であり,原稿読取部101からRGBデータ(デジタルデータ)を入力し,RGBデータのグレーバランスの補正を行うと共に,反射率データ(RGBデータ)を濃度データ(RGBデータ)に変換するRGBγ補正部201と,原稿読取部101から入力したRGBデータに基づいて,文字領域か絵柄領域かを判定して次段のRGBフィルタ部204にC/P信号を出力すると共に,原稿領域の有彩領域か無彩領域かを判定してRGBフィルタ部204にB/C信号を出力する原稿認識部202と,RGBγ補正部201からRGBデータを入力し,原稿認識部202の出力結果と同期をとるためにRGBデータを遅延させる遅延部203と,RGBデータにMTF補正を行うRGBフィルタ部204と,RGBデータを一次のマスキング等でCMYデータに変換する色補正部205と,CMYデータの共通部分をUCR(加色除去)処理してBkデータを生成するUCR部206と,主走査方向の拡大・縮小または等倍処理を施す変倍部207と,平滑化処理や鮮鋭化処理を行うCMYBkフィルタ部208と,画像記録部103の周波数特性に応じてγ補正を行うCMYBkγ補正部209と,ディザ処理・誤差拡散処理等の量子化を行う階調処理部210と,から構成される。
FIG. 2 is a block diagram showing the internal configuration of the
なお,原稿認識部202から出力されるC/P信号は2ビット信号であり,C/P信号が『3』で文字領域を示し,『1』で絵柄上の文字,『0』で絵柄領域を示す。このC/P信号は,RGBフィルタ部204,色補正部205,UCR部206,変倍部207,CMYBkフィルタ部208,CMYBkγ補正部209および階調処理部210にカスケード接続され,画像データに同期して信号IMGを出力する。
The C / P signal output from the
また,B/C信号(1ビット信号)のロジックは,Hで無彩領域,Lで有彩領域を示す。このB/C信号は,RGBフィルタ部204,色補正部205,UCR部206にカスケード接続され,画像データに同期して出力する。
The logic of the B / C signal (1-bit signal) indicates an achromatic region with H and a chromatic region with L. The B / C signal is cascade-connected to the
RGBフィルタ部204は,RGBデータをMTF補正するフィルタであり,N×Nのマトリックスで構成されている。C/P信号が『3』のときには,鮮鋭化処理を行い,『0』のときには平滑化処理を行い,『1』のときには入力データを処理せず,そのまま出力する。
The
UCR部206は,画像データの色再現を向上させるためのものであり,色補正部205から入力したCMYデータの共通部分をUCR(加色除去)処理してBkデータを生成し,CMYBkデータを出力する。ここで,C/P信号が『3』以外のときは,スケルトンブラックのBk生成を行う。C/P信号が『3』のときは,フルブラック処理を行う。さらにC/P信号が『3』かつB/C信号がHのときは,C・M・Yのデータをイレースする。これは,黒文字のとき,黒成分のみで表現するためである。また,出力信号IMGは,C・M・Y・Bkのうち一色を出力する面順次の一色である。すなわち,4回原稿読み取りを行うことにより,フルカラー(4色)データを生成する。
The UCR
CMYBkフィルタ部208は,画像記録部103の周波数特性やC/P信号に応じて,N×Nの空間フィルタを用い,平滑化や鮮鋭化処理を行う。
The
CMYBkγ補正部209は,画像記録部103の周波数特性やC/P信号に応じて,γカーブを変更し処理する。C/P信号が『0』のときは画像を忠実に再現したγカーブを用い,C/P信号が『0』以外のときはγカーブを立たせてコントラストを強調する。
The
階調処理部210は,画像記録部103の階調特性やC/P信号に応じて,ディザ処理等の量子化を行う。C/P信号が『0』のときは階調重視の処理を行い,C/P信号が『0』以外のときは解像力重視の処理を行う。
The
上記画像処理部102の各部の構成より,明らかなように,画像処理部102では,絵柄処理(C/P信号=0)のときは,RGBフィルタ部204で平滑化処理を行い,UCR部206でスケルトンブラックの処理を行い,CMYBkγ補正部209ではリニア(階調性)を重視したカーブを選択し,CMYBkフィルタ部208および階調処理部210では階調を重視した処理を行う。
As is apparent from the configuration of each part of the
一方,文字処理(C/P信号=3)のときは,RGBフィルタ部204で強調処理を行い,UCR部206でフルブラック処理を行い,CMYBkγ補正部209ではコントラストを重視したカーブを選択し,CMYBkフィルタ部208および階調処理部210では解像度を重視した処理を行う。
On the other hand, when character processing (C / P signal = 3), the
また,黒文字処理(C/P信号=3でB/C信号=H)として,Bkを除くCMY処理時には,CMYデータを印字しない。これは,黒文字の周りが位置ずれのために色付くのを回避するためである。また,このときのBkデータのRGBフィルタは色文字のときより,強めに行ってくっきりさせてもよい。 Also, CMY data is not printed during CMY processing except Bk as black character processing (C / P signal = 3 and B / C signal = H). This is to avoid coloring around black characters due to misalignment. Further, the RGB filter of the Bk data at this time may be made stronger and clearer than that of the color character.
さらに,絵柄処理(C/P信号=1)のときは,RGBフィルタ部204で弱強調処理または入力データをそのまま出力するスルー処理を行い,UCR部206でフルブラック処理を行い,CMYBkγ補正部209ではコントラストを重視したカーブを選択し,CMYBkフィルタ部208および階調処理部210では解像度を重視した処理を行う。ここでは黒文字処理のような処理を行わない。
Further, in the case of pattern processing (C / P signal = 1), the
このように画像処理部102では,絵柄,文字のエッヂ,絵柄上の文字の3種の処理を行うことができる。
As described above, the
図3は,原稿認識部202の細部構成を示すブロック図である。原稿認識部202は,大別すると,線画らしさを検出する線画認識部301と,原稿の特定領域が有彩あるか無彩であるかを判定する色判定部302と,から構成される。なお,ここでは,原稿読取部101の読み取り密度が400dpi程度の場合を例として説明する。
FIG. 3 is a block diagram illustrating a detailed configuration of the
線画認識部301は,C/P信号を出力するが,その出力ロジックは,線画のエッヂである場合に『3』を出力し,絵柄上の線画のエッヂである場合に『1』を出力し,それ以外の場合には『0』を出力する。 The line drawing recognition unit 301 outputs a C / P signal, and its output logic outputs “3” when it is the edge of the line drawing, and outputs “1” when it is the edge of the line drawing on the pattern. In other cases, “0” is output.
また,線画認識部301は,図示の如く,モノクロ化部303と,ラプラシアン部304と,パターンマッチング部305A,305Bと,孤立点除去部306A,306Bと,画素密度変換部307A,307Bと,ページメモリ308A,308Bと,セレクタ309A,309Bと,孤立ブロック除去部310A,310Bと,膨張部311A,311Bと,から構成される。なお,線画認識部301は,C/PAとC/PBを出力するが,CPA,Bが,(L,L)のときにC/P信号の『0』,(L,H)のときにC/P信号の『1』,(H,H)のときにC/P信号の『3』とし,C/PAおよびC/PBをC/P信号と呼称する。
The line drawing recognition unit 301 includes a
さらに,原稿認識部202では,原稿読取部101で読み取った原稿が,カラー原稿であるか白黒原稿であるか否かの判定を行っている。自動カラー選択モード時において,第1スキャン(Bk)作像のときに,カラー原稿であるか白黒原稿であるか否かの判定を行う。そして,その判定の結果が,白黒原稿であると判定した場合に1回スキャンで終了し,他方,カラー原稿であると判定した場合に4回スキャンを実行する。
Further, the
色判定部302は,B/C信号を出力するが,その出力ロジックは,有彩領域であるとLを出力し,無彩領域であるとHを出力する。出力結果は,4×4画素を1画素に対応させた信号である。以下において出力結果の単位を1ブロックとする。なお,色判定部302は,図示の如く,色判定回路312と,ページメモリ313と,セレクタ314と,から構成される。
The
以上の構成において,線画認識部301の各部の動作について詳細に説明する。 In the above configuration, the operation of each unit of the line drawing recognition unit 301 will be described in detail.
線画認識部301に入力されたRGBデータは,先ず,モノクロ化部303において輝度データに変換され,モノクロ信号となる。ただし,輝度データでなくとも,RGBデータの中で最も濃いデータを選択し,モノクロ信号としても良く,またはGデータを輝度データとして用い,モノクロ信号としてもよい。何れの場合も,モノクロ化部303から出力される出力データは,数字が大きいと濃く,小さいと薄いことを表す。
The RGB data input to the line drawing recognition unit 301 is first converted into luminance data by the
ラプラシアン部304は,線画のエッヂを抽出すると同時に,白領域と黒領域とを検出する。白領域を検出することにより,白地上の線画の抽出のデータ(細線候補)とする。
A
ここで,図4の記号化されたマトリックスを用いて白領域検出の動作について説明する。例えば,白領域のマトリックスを3×3とすると,次のようになる。
((a00<thw)and(a01<thw)and(a02<thw)
and(a10<thw)and(a11<thw)and(a02<thw))
or ((a10<thw)and(a11<thw)and(a12<thw)
and(a20<thw)and(a21<thw)and(a22<thw))
or ((a00<thw)and(a10<thw)and(a20<thw)
and(a01<thw)and(a11<thw)and(a21<thw))
or ((a01<thw)and(a11<thw)and(a21<thw)
and(a02<thw)and(a12<thw)and(a22<thw))
Here, the operation of white area detection will be described using the symbolized matrix of FIG. For example, when the white area matrix is 3 × 3, the following is obtained.
((a 00 <thw) and (a 01 <thw) and (a 02 <thw)
and (a 10 <thw) and (a 11 <thw) and (a 02 <thw))
or ((a 10 <thw) and (a 11 <thw) and (a 12 <thw)
and (a 20 <thw) and (a 21 <thw) and (a 22 <thw))
or ((a 00 <thw) and (a 10 <thw) and (a 20 <thw)
and (a 01 <thw) and (a 11 <thw) and (a 21 <thw))
or ((a 01 <thw) and (a 11 <thw) and (a 21 <thw)
and (a 02 <thw) and (a 12 <thw) and (a 22 <thw))
注目画素を含んで周辺データが閾値thwより小さいとき,白領域候補とする。ここで,太線用と細線用と異なる値を使用する。太線用白領域候補は,一般的な白地の値を設定する。細線用白領域候補は,一般的な白地の値よりもやや低い値(白寄りの値)にする。細線用白領域候補の方を白寄りにするのは,絵柄(印刷物の網点や複写機の万線)のハイライト(明るい方)が白領域候補となるのを避けるためである。 When the peripheral data including the target pixel is smaller than the threshold thw, it is determined as a white area candidate. Here, different values are used for the thick line and the thin line. For the thick line white area candidate, a general white background value is set. The fine line white area candidate is set to a value (a value close to white) that is slightly lower than a general white background value. The reason for making the white line candidate for the fine line closer to white is to avoid the highlight (brighter one) of the pattern (the halftone dot of the printed matter or the copying machine line) becoming the white area candidate.
このパターンは直交パターンの例を示すが,斜めなどのパターンを追加してもよい。 This pattern shows an example of an orthogonal pattern, but a diagonal pattern may be added.
さらに,白領域候補から,白領域を算出するために以下のようにラプラシアンを求める。
x=(a22×2)−(a21+a23)×i
x=((a22×4)−(a11+a13+a31+a33))×i/2+x
x=(a22×2)−(a12+a32)+x
Further, Laplacian is obtained from the white area candidate as follows in order to calculate the white area.
x = (a 22 × 2) − (a 21 + a 23 ) × i
x = ((a 22 × 4) − (a 11 + a 13 + a 31 + a 33 )) × i / 2 + x
x = (a 22 × 2) − (a 12 + a 32 ) + x
ここで,iは主走査と副走査のMTFの違いや,変倍ときの補正をする重み係数である。このときのxの値がある値(N)の範囲ならば白領域とする。式で記述すると以下のようになる。
−N < x < N
ここでは,太線用の閾値と細線用の閾値とを分けても分けなくてもよい。
Here, i is a difference between the MTF of the main scanning and the sub-scanning, and a weighting coefficient for correcting at the time of scaling. If the value of x at this time is within a certain range (N), a white region is set. It is described as an expression as follows.
-N <x <N
Here, the thick line threshold and the thin line threshold may or may not be separated.
このようにして,細線用白領域と太線用白領域とを算出する。これによって,絵柄上のハイライト側の小網点や万線パターンを抽出しないように除去している。 In this way, the white area for fine lines and the white area for thick lines are calculated. In this way, the small dots and line patterns on the highlight side on the pattern are removed so as not to be extracted.
次に,太線用白領域の補正について説明する。例えば,白黒反転した文字(白が文字で周辺が黒)の画像の際に,複写機のような光学的読取装置の場合,フレア(白一点でなく,周辺に黒の影響を受ける)等で,白データが通常より黒よりになる場合がある。このため,以下の補正を行う。 Next, correction of the white area for thick lines will be described. For example, in the case of an image of black and white reversed characters (white is a character and the surrounding is black), in the case of an optical reading device such as a copying machine, flare (not only a single point of white but the influence of black around it) etc. , White data may be blacker than usual. For this reason, the following correction is performed.
例えば,白領域のマトリックスを3×3とすると,次のようになる。
((a00<thw)and(a01<thw)and(a02<thw)
and(a10<thw)and(a11<thw)and(a02<thw)
and(a20<thw)and(a21<thw)and(a22<thw))
For example, when the white area matrix is 3 × 3, the following is obtained.
((a 00 <thw) and (a 01 <thw) and (a 02 <thw)
and (a 10 <thw) and (a 11 <thw) and (a 02 <thw)
and (a 20 <thw) and (a 21 <thw) and (a 22 <thw))
これを補正白領域候補として,上述したラプラシアンで補正白領域を算出する。ここでは,thwは太線より黒よりの値で,Nは上述した太線用白領域の値より,小さくする。Nを小さくするのは,白データの変化量の少ない安定したデータを抽出するためである。ここで抽出した補正白領域の結果を上述した太線用白領域に補正し,太線用補正白領域とする。すなわち,補正白領域か,太線用白領域であれば,太線用補正白領域となる。ここでも,絵柄上のハイライト側の小網点や万線パターンを抽出しないように除去している。 Using this as a corrected white area candidate, a corrected white area is calculated using the Laplacian described above. Here, thw is a value from black to a thick line, and N is set to be smaller than the value of the white area for thick lines described above. The reason for reducing N is to extract stable data with a small amount of change in white data. The result of the corrected white area extracted here is corrected to the thick line white area described above to obtain a thick line corrected white area. That is, if it is a corrected white area or a white area for thick lines, it becomes a corrected white area for thick lines. Here too, the small dots and line patterns on the highlight side of the pattern are removed so as not to be extracted.
次に,黒領域を検出することにより,黒領域上の線画の抽出データとする。ここで,図4の記号化されたマトリックスを用いて黒領域検出の動作について説明する。例えば,黒領域のマトリックスを3×3とすると,次のようになる。
((a00<thb)and(a01<thb)and(a02<thb)
and(a10<thb)and(a11<thb)and(a02<thb))
or ((a10<thb)and(a11<thb)and(a12<thb)
and(a20<thb)and(a21<thb)and(a22<thb))
or ((a00<thb)and(a10<thb)and(a20<thb)
and(a01<thb)and(a11<thb)and(a21<thb))
or ((a01<thb)and(a11<thb)and(a21<thb)
and(a02<thb)and(a12<thb)and(a22<thb))
Next, by detecting the black region, the extracted data of the line drawing on the black region is obtained. Here, the operation of black region detection will be described using the symbolized matrix of FIG. For example, assuming that the black area matrix is 3 × 3, the following occurs.
((a 00 <thb) and (a 01 <thb) and (a 02 <thb)
and (a 10 <thb) and (a 11 <thb) and (a 02 <thb))
or ((a 10 <thb) and (a 11 <thb) and (a 12 <thb)
and (a 20 <thb) and (a 21 <thb) and (a 22 <thb))
or ((a 00 <thb) and (a 10 <thb) and (a 20 <thb)
and (a 01 <thb) and (a 11 <thb) and (a 21 <thb))
or ((a 01 <thb) and (a 11 <thb) and (a 21 <thb)
and (a 02 <thb) and (a 12 <thb) and (a 22 <thb))
注目画素を含んで周辺データが閾値thbより小さいとき,黒領域候補とする。黒領域候補は,一般的な黒の値(換言すれば,文字として強調したい濃度)を設定する。このパターンは直交パターンの例を示すが,斜めなどのパターンを追加してもよい。 When the peripheral data including the target pixel is smaller than the threshold thb, it is determined as a black region candidate. For the black region candidate, a general black value (in other words, a density to be emphasized as a character) is set. This pattern shows an example of an orthogonal pattern, but a diagonal pattern may be added.
さらに,黒領域候補から,黒領域を算出するために以下のようにラプラシアンを求める。
x=(a22×2)−(a21+a23)×i
x=((a22×4)−(a11+a13+a31+a33))×i/2+x
x=(a22×2)−(a12+a32)+x
Further, Laplacian is calculated from the black region candidates as follows to calculate the black region.
x = (a 22 × 2) − (a 21 + a 23 ) × i
x = ((a 22 × 4) − (a 11 + a 13 + a 31 + a 33 )) × i / 2 + x
x = (a 22 × 2) − (a 12 + a 32 ) + x
ここで,iは主走査と副走査のMTFの違いや,変倍ときの補正をする重み係数であり,前述した白領域の抽出のときと同様の式でよい。 Here, i is a difference between the main scanning and sub-scanning MTFs, and a weighting coefficient for correction at the time of zooming, and may be the same as the above-described white region extraction.
このときのxの値がある値(N)の範囲ならば黒領域とする。式で記述すると以下のようになる。
−N < x < N
この結果を黒領域とする。これによって,絵柄上のシャドウ側の網点や万線パターンを抽出しないように除去している。
If the value of x at this time is within a certain value (N), a black region is set. It is described as an expression as follows.
-N <x <N
This result is defined as a black region. As a result, the halftone dots and line patterns on the shadow side on the pattern are removed so as not to be extracted.
また,エッヂ量抽出は以下の式による。
x=(a22×2)−(a21+a23)×i
x=((a22×4)−(a11+a13+a31+a33))×i/2+x
x=(a22×2)−(a12+a32)+x
The extraction of the edge amount is based on the following formula.
x = (a 22 × 2) − (a 21 + a 23 ) × i
x = ((a 22 × 4) − (a 11 + a 13 + a 31 + a 33 )) × i / 2 + x
x = (a 22 × 2) − (a 12 + a 32 ) + x
ここで,iは選択的な係数であり,ハードウェアを設計する際にゲート規模が小さくなるような係数,例えば,1,1.115,1.25,1.375,1.5,1.625,1.175,1.875,2にしている(固定小数点演算)。このようにしておくことにより,主走査と副走査のMTF(光学系と走行系)等のぼけを修正する。 Here, i is a selective coefficient, and is a coefficient that reduces the gate scale when designing hardware, for example, 1, 1.115, 1.25, 1.375, 1.5, 1. 625, 1.175, 1.875, 2 (fixed point arithmetic). By doing so, blurring of MTF (optical system and traveling system) of main scanning and sub-scanning is corrected.
一般に,主走査と副走査のMTFは異なっており,さらに副走査の変倍は読取装置の読み取り面積(速度)を可変することにより行っているため,副走査の変倍率によりMTFは異なる。ところが,本例では,図2で示したように,主走査変倍(変倍部207)が原稿認識部202の後に配設されているので,特に気にすることはない。さらに副走査の倍率が大きいとき,例えば,200%のときは,次にのようにエッヂ量を求めるようにマトリックスを選択可能にしてある。
In general, the MTFs for main scanning and sub-scanning are different, and the magnification for sub-scanning is changed by changing the reading area (speed) of the reading device. Therefore, the MTF differs depending on the magnification for sub-scanning. However, in this example, as shown in FIG. 2, the main scanning scaling (magnification unit 207) is disposed after the
x=(a22×2)−(a21+a23)×i
x=((a22×4)−(a11+a13+a31+a33))×i/2+x
x=(a22×2)−(a12+a32)+x
x = (a 22 × 2) − (a 21 + a 23 ) × i
x = ((a 22 × 4) − (a 11 + a 13 + a 31 + a 33 )) × i / 2 + x
x = (a 22 × 2) − (a 12 + a 32 ) + x
このようにすることにより,副走査の変倍処理に対応している。
前述したようにラプラシアン部304は,白領域信号と黒領域信号とエッヂ量を出力する。白領域信号(太線用と細線用)はLで白領域を示し,黒領域信号はHで黒領域を示す。
In this way, the sub-scanning scaling process is supported.
As described above, the
図5は,線画の断面図であり,白領域と黒領域と閾値との関係を示す概念図である。図において,THBは黒領域の閾値,Thw1は白領域の細線用閾値,Thw2は白領域の太線用閾値,Thw3は白領域の補正用閾値を示す。また,図6はエッヂ量(x)の関係を示す説明図である。 FIG. 5 is a cross-sectional view of a line drawing, and is a conceptual diagram showing a relationship between a white area, a black area, and a threshold value. In the figure, THB is a black area threshold, Thw1 is a white line thin line threshold, Thw2 is a white line thick line threshold, and Thw3 is a white area correction threshold. FIG. 6 is an explanatory diagram showing the relationship of the edge amount (x).
次に,パターンマッチング部305A,305Bの動作について説明する。
パターンマッチング部305Aでは,黒領域周辺の白領域を抽出する。ここで白領域パターン(W)は,補正太線用白領域の信号であり,黒パターン(K)は黒領域信号とする。パターン例としては,下記の(7×7)のようになる。
Next, the operation of the
The
(k12 AND k13 AND k14 AND k12 AND k23 AND k24 AND k32 AND k33 AND k34 AND ((w52 AND w53 AND w54) or (w62 AND w63 AND w64)
or (w12 AND w13 AND w14) or (w02 AND w03 AND w04)))
or
(k21 AND k31 AND k41 AND k22 AND k32 AND k42 AND k23 AND k33 AND k44 AND ((w25 AND w35 AND w45) or (w26 AND w36 AND w46)
or (w21 AND w31 AND w41) or (w20 AND w30 AND w40)))
(k 12 AND k 13 AND k 14 AND k 12 AND k 23 AND k 24 AND k 32 AND k 33 AND k 34 AND ((w 52 AND w 53 AND w 54 ) or (w 62 AND w 63 AND w 64 )
or (w 12 AND w 13 AND w 14 ) or (w 02 AND w 03 AND w 04 )))
or
(k 21 AND k 31 AND k 41 AND k 22 AND k 32 AND k 42 AND k 23 AND k 33 AND k 44 AND ((w 25 AND w 35 AND w 45 ) or (w 26 AND w 36 AND w 46 )
or (w 21 AND w 31 AND w 41 ) or (w 20 AND w 30 AND w 40 )))
上記の例では,水平成分,垂直成分のみで示したが,同様に斜め成分のパターンも抽出する。このように黒領域上の白領域を抽出する。黒領域が多いので網点を線画と誤認識することなく,黒領域の線画を抽出することが可能となる。 In the above example, only the horizontal component and the vertical component are shown, but the diagonal component pattern is also extracted. In this way, the white area on the black area is extracted. Since there are many black areas, it is possible to extract a black area line drawing without erroneously recognizing a halftone dot as a line drawing.
また,黒領域,太線補正用白領域,細線白領域の大小関係を利用してコード化してもよい。コード化の例として,黒領域をB,太線補正用白領域をW1,細線白領域をW2として説明する。この場合,コード化しないと3ビット×nラインとなるが,次のようにコード化すると2ビット×nラインとなる。
Bのとき → コード『1』
W2のとき → コード『2』
W1でかつW2でないとき → コード『3』
BでもW1でもW2でもないとき → コード『0』
Alternatively, the coding may be performed using the magnitude relationship among the black area, the white area for thick line correction, and the thin line white area. As an example of encoding, a black area is described as B, a white area for thick line correction as W1, and a thin line white area as W2. In this case, if it is not coded, it becomes 3 bits × n lines, but if it is coded as follows, it becomes 2 bits × n lines.
When B → Code “1”
W2 → Code “2”
When W1 and not W2 → Code “3”
When neither B nor W1 nor W2 → Code “0”
コードは『0』〜『3』であるので2ビットで表現することができ,コードを展開するときは逆の処理を行えばよい。また,大小関係は固定でなくとも良く,入れ替えることができるようにした方がよいことは勿論である。 Since the code is “0” to “3”, it can be expressed by 2 bits. When the code is expanded, the reverse process may be performed. Of course, the magnitude relationship does not have to be fixed, and it should be possible to replace it.
なお,処理の流れは,図7および図8のフローチャートで示すようになる。注目画素を図9に示すように設定したときに,図7のように主走査方向に処理を実行して終了する。副走査方向に注目画素を+1とし,主走査方向に再び処理を行う。 The processing flow is as shown in the flowcharts of FIGS. When the target pixel is set as shown in FIG. 9, the process is executed in the main scanning direction as shown in FIG. The target pixel is set to +1 in the sub-scanning direction, and the process is performed again in the main scanning direction.
ここで,図8のフローチャートを参照してパターンマッチング処理(図7のパターンマッチング処理)について説明する。前述したパターンに一致するか否かパターンマッチングを行い(S801),一致すると出力PM1(図2参照)はH(on)を出力し(S802),不一致であれば,出力PM1はL(off)を出力する(S803)。 Here, the pattern matching processing (pattern matching processing in FIG. 7) will be described with reference to the flowchart in FIG. Pattern matching is performed to determine whether or not the pattern matches the above-described pattern (S801). If the pattern matches, the output PM1 (see FIG. 2) outputs H (on) (S802). If the pattern does not match, the output PM1 is L (off). Is output (S803).
パターンマッチング部305Aでは,上記の処理により,線画の太線部分のエッヂを抽出する。
The
パターンマッチング部305Bは,細線の検出を行う。細線とは,線幅が1mm以下で構成されている文字および線画を意味する。ここで黒パターン(k)は,黒領域またはエッヂ量が閾値THRB(図6参照)より大きいものをHとする。また,白パターン(w)は,細線用白領域またはエッヂ量が閾値THRWより小さい(マイナス成分であるので絶対値は大きい)ものをHとする。なお,倍率や,原稿種類(カラー,白黒,印刷写真,印画紙写真,複写原稿,地図等),調整キー等で変更するようにしてもよい。すなわち,エッヂ量成分で補正するのは細線のコントラストを上げるためである。
The
細線のパターンの例としては,下記の(7×7)のようになる。
((w22 AND w23 AND w24) or (w02 AND w03 AND w04)
AND w12 AND w13 AND w14
AND k32 AND k33 AND k34
AND w52 AND w53 AND w54
AND (w42 AND w43 AND w44) or (w62 AND w63 AND w64))
or
((w22 AND w32 AND w42) or (w20 AND w30 AND w40)
AND w21 AND w31 AND w41
AND k23 AND k33 AND k43
AND w25 AND w35 AND w45
AND (w24 AND w34 AND w44) or (w26 AND w36 AND w46))
or
((w12 AND w13 AND w14) or (w02 AND w03 AND w04)
AND w32 AND w33 AND w34
AND ((k22 AND k23 AND k24) or (k42 AND k43 AND k44))
AND (w52 AND w53 AND w54) or (w62 AND w63 AND w64))
or
((w21 AND w31 AND w41) or (w20 AND w30 AND w40)
AND w23 AND w33 AND w43
AND ((k22 AND k32 AND k42) or (k24 AND k34 AND k44))
AND (w25 AND w35 AND w45) or (w26 AND w36 AND w46))
An example of the fine line pattern is as follows (7 × 7).
((w 22 AND w 23 AND w 24 ) or (w 02 AND w 03 AND w 04 )
AND w 12 AND w 13 AND w 14
AND k 32 AND k 33 AND k 34
AND w 52 AND w 53 AND w 54
AND (w 42 AND w 43 AND w 44 ) or (w 62 AND w 63 AND w 64 ))
or
((w 22 AND w 32 AND w 42 ) or (w 20 AND w 30 AND w 40 )
AND w 21 AND w 31 AND w 41
AND k 23 AND k 33 AND k 43
AND w 25 AND w 35 AND w 45
AND (w 24 AND w 34 AND w 44 ) or (w 26 AND w 36 AND w 46 ))
or
((w 12 AND w 13 AND w 14 ) or (w 02 AND w 03 AND w 04 )
AND w 32 AND w 33 AND w 34
AND ((k 22 AND k 23 AND k 24 ) or (k 42 AND k 43 AND k 44 ))
AND (w 52 AND w 53 AND w 54 ) or (w 62 AND w 63 AND w 64 ))
or
((w 21 AND w 31 AND w 41 ) or (w 20 AND w 30 AND w 40 )
AND w 23 AND w 33 AND w 43
AND ((k 22 AND k 32 AND k 42 ) or (k 24 AND k 34 AND k 44 ))
AND (w 25 AND w 35 AND w 45 ) or (w 26 AND w 36 AND w 46 ))
ここでは,水平成分,垂直成分のみで示したが,同様に斜め成分のパターンも抽出する。このように黒パターンの両側が白パターンで挟まれている場合に,細線候補として抽出する。 Although only the horizontal component and the vertical component are shown here, the diagonal component pattern is extracted in the same manner. In this way, when both sides of the black pattern are sandwiched between white patterns, they are extracted as thin line candidates.
なお,処理の流れは,図7および図10のフローチャートで示すようになる。注目画素を図9に示すように設定したときに,図7のように主走査方向に処理を実行して終了する。副走査方向に注目画素を+1とし,主走査方向に再び処理を行う。 The processing flow is as shown in the flowcharts of FIGS. When the target pixel is set as shown in FIG. 9, the process is executed in the main scanning direction as shown in FIG. The target pixel is set to +1 in the sub-scanning direction, and the process is performed again in the main scanning direction.
ここで,図10のフローチャートを参照してパターンマッチング部305Bのパターンマッチング処理について説明する。なお,MFBは状態変数であり,主走査の先端では0である。SFB(i)は,主走査方向の1ライン分の配列であり,1ライン前の状態変数である。
Here, the pattern matching processing of the
先ず,現在の状態変数MFBと1ライン前の状態変数SFB(i)とを比較する(S11)。ここでMFB<SFB(i)であれば,MFB=SFB(i)として(S12),ステップS12へ進み,そうでなければ,そのままステップS12へ進む。 First, the current state variable MFB is compared with the state variable SFB (i) one line before (S11). If MFB <SFB (i), MFB = SFB (i) is set (S12), and the process proceeds to step S12. Otherwise, the process proceeds to step S12.
ステップS12では,パターンマッチング部305Aからの出力PM1がonであるか否かを判定し,PM1がonでなければ(すなわち,offであれば),ステップS18へ進む。一方,PM1がonであれば,ステップS14〜S17でMFBの値が0より大きければ,その値を変更する。具体的には,MFBが8より大きければ16に設定し(S14,S15),MFBが0より大きく8より小さい場合には8に設定する。
In step S12, it is determined whether or not the output PM1 from the
ステップS18では,白地領域であるか否かを判定する。ここでの白地領域は,ラプラシアン部304の出力の細線用白領域をaとして,次のようになるときに白地領域と判定する。
In step S18, it is determined whether the area is a white background. Here, the white area is determined as a white area when the white area for fine lines output from the
a00 AND a01 AND a02
AND a10 AND a11 AND a12
AND a20 AND a21 AND a11
a 00 AND a 01 AND a 02
AND a 10 AND a 11 AND a 12
AND a 20 AND a 21 AND a 11
ステップS18において,白地領域と判定された場合,パターンマッチング部305Bの出力1および出力2にL(off)を出力し(S19),MFB=16に設定し(S20),ステップS36へ進む。
If it is determined in step S18 that the region is a white background region, L (off) is output to
一方,ステップS18において,白地領域でないと判定された場合,前述した細線パターンと一致するか否かによって細線パターンであるか否かを判定し(S21),細線パターンでない場合には,パターンマッチング部305Bの出力1および出力2にL(off)を出力し(S22),MFB=0であるか否かを判定し(S23),MFB=0であればステップS36へ進み,MFB=0でなければ,MFB=MFB−1を設定して(S24),ステップS36へ進む。
On the other hand, if it is determined in step S18 that the region is not a white background region, it is determined whether or not it is a fine line pattern depending on whether or not it matches the fine line pattern described above (S21). L (off) is output to
また,ステップS21において,細線パターンである場合には,MFB>8であるか否か判定し(S25),8より大きければ,パターンマッチング部305Bの出力1および出力2にH(on)を出力し(S26),さらにステップS28,S29で,MFB>16であればMFB=16に設定し,MFB>16でなければそのままステップS36へ進む。
In step S21, if the pattern is a fine line pattern, it is determined whether MFB> 8 (S25). If greater than 8, H (on) is output to the
また,ステップS25で8より大きくなければ,MFB=0であるか否かを判定し(S30),MFB=0であれば,パターンマッチング部305Bの出力1および出力2にL(off)を出力し(S31),ステップS36へ進み,MFB=0でなければ,パターンマッチング部305Bの出力1にL(off)を出力し,出力2にH(on)を出力し(S32),MFB=MFB+4(ただし,MFBが16以上になる場合には,16にする)を設定して(S33),さらにステップS34,S35で,MFB>8であればMFB=8に設定し,MFB>8でなければそのままステップS36へ進む。
If it is not greater than 8 in step S25, it is determined whether MFB = 0 (S30). If MFB = 0, L (off) is output to the
ステップS36では,SFB(i)=MFBに設定し,1ライン前の状態変数SFB(i)を更新する。次に,ステップS37で,SFB(i)>SFB(i−1)を判定する。これは更新した1ライン前のデータと,更新した1ライン1画素前のデータとの比較である。1ライン前のデータSFB(i)が大きければ,SFB(i−1)=SFB(i)を設定し(S38),処理を終了する。 In step S36, SFB (i) = MFB is set, and the state variable SFB (i) one line before is updated. Next, in step S37, SFB (i)> SFB (i-1) is determined. This is a comparison between the updated data one line before and the updated data one pixel one pixel before. If the data SFB (i) one line before is large, SFB (i−1) = SFB (i) is set (S38), and the process is terminated.
上記の処理を主走査方向に順次行う。すなわち,状態変数MFBは,順次,図11の矢印3の方向に伝搬する。そして,ステップS36により矢印1の方向に伝搬し,ステップS37により矢印2の方向に伝搬する。このことより,ステップS18の白地領域判定またはステップS12のパターンマッチングで,状態変数をセットすることにより,白地上の極細線を検出することが可能となり,絵柄上の網点を誤抽出することがなくなる。さらにステップS14の細線パターンのマッチングにより,状態変数を再セットするので,文字の塊も良好に抽出することが可能となる。
The above processing is sequentially performed in the main scanning direction. That is, the state variable MFB sequentially propagates in the direction of
また,状態変数で,パターンマッチング部305Bの出力1,出力2を異ならせて出力するので,白地上の文字と網点上の文字を切りわけて出力することが可能となる。
In addition, since the
図11から明らかなように,副走査の矢印方向は0または+(プラス)方向であるので,ライン単位(主走査1ライン毎)に行う処理には,1ライン分の状態変数とパターンマッチングで必要なライン数のメモリを備えるだけで足り,ページメモリ等を備えることなく容易に実現することができる。 As is clear from FIG. 11, since the sub-scanning arrow direction is 0 or + (plus) direction, the processing performed for each line (each main scanning line) is performed by using state variables and pattern matching for one line. It is sufficient to provide a necessary number of lines of memory, and this can be easily realized without providing a page memory.
なお,パターンマッチング部305Bは,図2に示すように,出力1を孤立点除去部306Aに出力し,出力2を孤立点除去部306Bに出力する。
出力1と出力2との違いは,状態変数の違いである。これによって,例えば,図12に示すように,罫線の枠の内部に文字(あ,い,う等)が記述されており,さらに枠の内部が網点の場合,罫線の枠は出力1,出力2とも細線と判断して,網点上の文字は状態変数の大きい出力2のみが細線と判断することが可能となる。
As shown in FIG. 2, the
The difference between
次に,孤立点除去部306A,306Bについて説明する。
孤立点除去部306A,306Bは,どちらも同一の回路からなる。孤立点除去部306Aの入力データは,パターンマッチング部305Aの出力(PM1)とパターンマッチング部305Bの出力(出力1)からなり,孤立点除去部306Bの入力データは,パターンマッチング部305Aの出力(PM1)とパターンマッチング部305Bの出力(出力2)からなる。孤立点除去部306A,306Bにおいて,線画は連続した線からなるので,孤立点を除去する。孤立点とは,網点を線画と誤検出した場合に生じる。
Next, the isolated
The isolated
パターンマッチング部305A,パターンマッチング部305Bのいずれか1つが抽出パターンであれば抽出パターンとする。例えば,4×4のパターンマッチングにおいて,抽出パターンが2以上ならば,中心画素(a22,a33でもよい)を抽出パターンとして補正して出力Hを出力する(抽出パターンとする)。このことにより,孤立点を除去すると同ときに,膨張(拡大)している。図3に示すように,孤立点除去部306A,306Bの出力は,それぞれPM2,PM3である。
If any one of the
次に,画素密度変換部307A,307Bについて説明する。画素密度変換部307A,307Bは,どちらも同一ロジック(回路)である。現在まで,画像単位で行っていたが,ブロック単位(4×4)で処理を行うため,画素単位のデータをブロック単位に変換する。ここでは,単純に4×4の単純間引きをするが,孤立点除去部306A,306Bで実質上4×4の膨張も行っているのでデータの欠落は生じない。
Next, the pixel
次に,ページメモリ308A,308Bおよびページメモリ313(色判定部302のページメモリ)について説明する。ページメモリ308A,308Bおよび313の回路は,いずれも同一機能である。ページメモリ308Aは画素密度変換部307Aの出力結果を入力し,ページメモリ308Bは画素密度変換部307Bの出力結果を入力し,ページメモリ313は色判定回路312の出力結果を入力する。
Next, the
ページメモリ308A,308Bおよび313は,主走査方向1200ドット×副走査方向1736ライン(約2MB)で構成され,解像度を主・副走査方向共に16ドット/mmとするA3サイズおよびDLT用紙(ダブルレターサイズ)より大きなサイズを有する。第1スキャン時に入力データをブロック(4×4画素)単位でページメモリ308A,308Bおよび313に記憶すると同時に,セレクタ309A,309Bおよび314を介して出力される。第2スキャン以降では,第1スキャン時にページメモリ308A,308Bおよび313に記憶されている判定結果がセレクタ309A,309Bおよび314を介して出力される。すなわち,第1スキャンにおける色判定結果や線画抽出の処理データが第2スキャン以降において用いられるので,スキャン毎の色判定結果,線画抽出結果(C/P信号)のバラツキをなくすことができる。
The
次に,孤立ブロック除去部310A,310Bについて説明する。
孤立ブロック除去部310A,310Bは,同一回路で同一機能を示す。例えば,5×5のブロックのマトリックスで,中心ブロックのみがon(H)で他がoff(L)であるときこのブロックは孤立しているので,offとして出力Lを出力する。onとは抽出パターンを意味する。このことにより,周辺データから孤立しているブロックを除去する。
Next, the isolated
The isolated
次に,膨張部311A,311Bについて説明する。
膨張部311A,311Bは,同一回路で同一機能を示す。ここでは,N×NのOR処理(膨張)をして,その後にM×MのAND処理を行う(縮小)。そして,5×5の補間処理を行う。M−Nが膨張量となる。
Next, the expanding portions 311A and 311B will be described.
The expanding portions 311A and 311B have the same function in the same circuit. Here, N × N OR processing (expansion) is performed, and then M × M AND processing is performed (reduction). Then, 5 × 5 interpolation processing is performed. MN becomes the expansion amount.
MとNはN>Mである。ここでOR処理をするのは,孤立しているブロックを隣接または周辺のブロックと連結させるためである。例として,3×3ブロック(12×12画素に対応)の膨張例を示す。
a00 or a01 or a02
or a10 or a11 or a12
or a20 or a21 or a11
M and N are N> M. Here, the OR process is performed in order to connect an isolated block with an adjacent block or a neighboring block. As an example, an expansion example of a 3 × 3 block (corresponding to 12 × 12 pixels) is shown.
a 00 or a 01 or a 02
or a 10 or a 11 or a 12
or a 20 or a 21 or a 11
その後に5×5画素のAND処理(収縮)を施す。以下にその例を示す。
a00 AND a01 AND a02 AND a03 AND a04
AND a10 AND a11 AND a12 AND a13 AND a14
AND a20 AND a21 AND a22 AND a23 AND a24
AND a30 AND a31 AND a32 AND a33 AND a34
AND a40 AND a41 AND a42 AND a43 AND a44
Thereafter, AND processing (shrinkage) of 5 × 5 pixels is performed. An example is shown below.
a 00 AND a 01 AND a 02 AND a 03 AND a 04
AND a 10 AND a 11 AND a 12 AND a 13 AND a 14
AND a 20 AND a 21 AND a 22 AND a 23 AND a 24
AND a 30 AND a 31 AND a 32 AND a 33 AND a 34
AND a 40 AND a 41 AND a 42 AND a 43 AND a 44
その後に100dpiのギザギザが残っているので,補間処理を行う。図13に補間処理の例を示す。図において実線は100dpiの補正前のギザキザを示し,破線が補正後の出力を示す。
例えば,5×5のマトリックスにおいて以下のようになる。線画抽出したデータが以下の論理式を満たすとき,注目画素a22のデータを反映(補正)する。
(パターン1 and!パターン2)
or(パターン3 and!パターン4)
パターン1,2,3,4の詳細は以下のようになる。なお,ここで!は不定演算子を示す。
Since 100 dpi jagged edges remain after that, interpolation processing is performed. FIG. 13 shows an example of interpolation processing. In the figure, a solid line indicates a jagged edge before correction of 100 dpi, and a broken line indicates an output after correction.
For example, in a 5 × 5 matrix: When the line drawing extracted data satisfies the following logical expression, the data of the pixel of interest a 22 is reflected (corrected).
(
or (
Details of the
パターン1
(a00 and a02 and !a04 and a20 and a22 and!a24
and !a40 and!a42 and!a44 )
or (!a00 and a02 and a04 and!a20 and a22 and a24
and !a40 and!a42 and!a44 )
or (!a00 and!a02 and!a04 and a20 and a22 and!a24
and a40 and a42 and !a44 )
or (!a00 and!a02 and!a04 and!a20 and a22 and a24
and !a40 and a42 and a44 )
(a 00 and a 02 and! a 04 and a 20 and a 22 and! a 24
and! a 40 and! a 42 and! a 44 )
or (! a 00 and a 02 and a 04 and! a 20 and a 22 and a 24
and! a 40 and! a 42 and! a 44 )
or (! a 00 and! a 02 and! a 04 and a 20 and a 22 and! a 24
and a 40 and a 42 and! a 44 )
or (! a 00 and! a 02 and! a 04 and! a 20 and a 22 and a 24
and! a 40 and a 42 and a 44 )
パターン2
(a11 and a12 and a13 and a21 and a22 and a23
and a31 and a32 and a33 )
(a 11 and a 12 and a 13 and a 21 and a 22 and a 23
and a 31 and a 32 and a 33 )
パターン3
(!a00 and!a02 and a04 and !a20 and!a22 and a24
and a40 and a42 and a44 )
or (a00 and!a02 and!a04 and a20 and !a22 and!a24
and a40 and a42 and a44 )
or (a00 and a02 and a04 and!a20 and!a22 and a24
and !a40 and!a42 and a44)
or (a00 and a02 and a04 and a20 and !a22 and!a24
and a40 and!a42 and!a44 )
(! A 00 and! A 02 and a 04 and! A 20 and! A 22 and a 24
and a 40 and a 42 and a 44 )
or (a 00 and! a 02 and! a 04 and a 20 and! a 22 and! a 24
and a 40 and a 42 and a 44 )
or (a 00 and a 02 and a 04 and! a 20 and! a 22 and a 24
and! a 40 and! a 42 and a 44 )
or (a 00 and a 02 and a 04 and a 20 and! a 22 and! a 24
and a 40 and! a 42 and! a 44 )
パターン4
(!a11 and!a12 and!a13 and!a21 and!a22 and!a23
and !a31 and!a32 and!a33 )
(! A 11 and! A 12 and! A 13 and! A 21 and! A 22 and! A 23
and! a 31 and! a 32 and! a 33 )
抽出パターンを膨張することにより,文字の交点などを繋ぎ,さらに線画とその周辺を線画処理する。上述のパターンマッチングは十字の交点を抽出できないが,この膨張処理により連結することができる。また,線画とその周辺を線画と見なすのは,黒文字処理と空間フィルタを良好に作用させるためである。 By expanding the extraction pattern, the intersections of characters are connected, and line drawing and its surroundings are processed. The pattern matching described above cannot extract the intersection of the crosses, but can be connected by this expansion process. The reason why line drawings and their surroundings are regarded as line drawings is to allow black character processing and spatial filtering to work well.
このことにより,特に,カタログの使用期間・仕様表のように罫線の中に網点があっても良好に罫線を抽出できる。白地を含む罫線を文字として抽出し,網点上の文字は白地上の文字と別の判定結果を出力するので,白地上の文字と網点上の文字を識別して別の処理を行うことが可能となる。 This makes it possible to extract a ruled line even if there are halftone dots in the ruled line as in the catalog usage period / specification table. A ruled line including a white background is extracted as a character, and the character on the halftone dot outputs a determination result different from the character on the white ground. Is possible.
〔線画認識部301のパターンマッチング部305Bの他の例〕
ここでは,前述の図3で示した線画認識部301のパターンマッチング部305Bの出力の条件を変えたものである。なお,基本的な構成および動作は前述とと同様に付き,ここでは異なる部分のみを説明する。
[Another example of the
Here, the output condition of the
前述では,パターンマッチング部305Bで行う細線パターンマッチングにおいて,状態変数によって出力1および出力2を設定しているが,ここでは,さらに出力2の設定条件を追加して絵柄上の文字(罫線)を抽出できるようにするものである。
In the above description, in the fine line pattern matching performed by the
図14は,第2のパターンマッチング処理(パターンマッチング部305B)のフローチャートを示す。図10に示したフローチャートと同一の符号は共通の処理を示すため,ここでは異なる部分のみを説明する。
FIG. 14 shows a flowchart of the second pattern matching process (
ステップS21において,前述した細線パターンであるか否かを判定し,細線パターンでない場合には,以下に示す細線パターン1と一致するか否かを判定する(S40)。 In step S21, it is determined whether or not it is the above-described thin line pattern. If it is not the thin line pattern, it is determined whether or not it matches the following thin line pattern 1 (S40).
細線パターン1は,前述した細線パターンと同一のもの使用するが,同一でなくてもよい。ここで黒パターン(k)は,黒領域またはエッヂ量が閾値THRB(図6参照)より大きいものをHとする。また,白パターン(w)は,細線用白領域またはエッヂ量が閾値THRWより小さい(マイナス成分であるので絶対値は大きい)ものをHとする。すなわち,エッヂ量成分で補正するのは細線のコントラストを上げるためである。THRB,THRWの少なくとも一方は,細線パターンマッチングより抽出し易い値にする。ただし,細線パターンと細線パターン1のパターンマッチングのパターンが異なるときは,抽出結果が細線パターンの方が抽出し易いようにしておく。
The
ステップS40で,細線パターン1と一致しない場合は,パターンマッチング部305Bの出力1および出力2にL(off)を出力し(S22),MFB=0であるか否かを判定し(S23),MFB=0であればステップS36へ進み,MFB=0でなければ,MFB=MFB−1を設定して(S24),ステップS36へ進む。
If it does not coincide with the
一方,ステップS40で,細線パターン1と一致する場合は,MFB>8であるか否かを判定し(41),状態変数MFBが8より大きければ,パターンマッチング部305Bの出力1にL(off)を出力し,出力2にH(on)を出力し(S43),MFB=MFB−1を設定して(S24),ステップS36へ進む。また,状態変数MFBが8より大きくなければ,MFB=0であるか否かを判定し(S42),MFB=0でなければステップS32へ進み,MFB=0であれば,パターンマッチング部305Bの出力1および出力2にL(off)を出力し(S22),再度,MFB=0であるか否かを判定し(S23),MFB=0であればステップS36へ進み,MFB=0でなければ,MFB=MFB−1を設定して(S24),ステップS36へ進む。
On the other hand, if it matches with the
また,細線パターンマッチングと細線パターンマッチング1,閾値THRWおよびTHRBは大小関係を利用してコード化してもよい。
コード化の例としては,細線パターンのTHRW,THRBをそれぞれTHRW,THRBとし,細線パターン1のTHRW,THRBをそれぞれTHRW1,THRB1として,その大小関係を
THRW<THRW1<THRB1=THRB
とすると,この場合,コード化しないと4または3ビット×nラインとなるが,次のようにコード化すると2ビット×nラインとなる。
Further, fine line pattern matching and fine line pattern matching 1, threshold values THRW and THRB may be coded using a magnitude relationship.
As an example of coding, THRW and THRB of the thin line pattern are THRW and THRB, respectively, THRW and THRB of the
Then, in this case, if it is not coded, it becomes 4 or 3 bits × n lines, but if it is coded as follows, it becomes 2 bits × n lines.
P<THRW → コード『0』
THRW <P<THRW1 → コード『1』
THRW1<P<THRB → コード『2』
THRB <P → コード『3』
P <THRW → Code “0”
THRW <P <THRW1 → Code “1”
THRW1 <P <THRB → Code “2”
THRB <P → Code “3”
ここで,Pはエッヂ量である。コードは『0』〜『3』であるので2ビットで表現することができ,コードを展開するときは逆の処理を行えばよい。また,大小関係は固定でなくとも良く,入れ替えることができるようにした方がよいことは勿論である。 Here, P is an edge amount. Since the code is “0” to “3”, it can be expressed by 2 bits. When the code is expanded, the reverse process may be performed. Of course, the magnitude relationship does not have to be fixed, and it should be possible to replace it.
このことにより,状態変数(MFB)を用いて,白地上のパターンと網点や色地上のパターンを切り換えることが可能で,しかも状態変数は共通に使用することができる。 Thus, it is possible to switch between a white ground pattern and a halftone dot or color ground pattern using the state variable (MFB), and the state variable can be used in common.
また,良好に網点上の文字を抽出することが可能であれば,網点上の文字を抽出する際(図14のフローチャートのS40),状態変数を参照しなくもよい(S42の判定を常に一致していると判断する)。このような方法で網点上の文字と白地上の文字を分離してやってもよい。 Further, if it is possible to extract characters on the halftone dot well, when extracting the character on the halftone dot (S40 in the flowchart of FIG. 14), it is not necessary to refer to the state variable (determination of S42). Always match). The character on the halftone dot and the character on the white ground may be separated by such a method.
したがって,特に,カタログの使用説明・仕様表のように罫線の中に網点があっても良好に罫線を抽出することができる。
また,白地を含む罫線を文字として抽出し,網点上の文字は白地上の文字と別の判定を行っているので,実施の形態1よりさらに精度が向上する。白地上の文字と網点上の文字とを区別して,それぞれ別の処理を行うことが可能となる。
Therefore, even if there are halftone dots in the ruled line as in the usage instruction / specification table of the catalog, the ruled line can be extracted well.
Further, since the ruled line including the white background is extracted as a character and the character on the halftone dot is determined separately from the character on the white background, the accuracy is further improved as compared with the first embodiment. It is possible to distinguish between the characters on the white background and the characters on the halftone dots and perform different processing.
図11において,P(i,J+1),P(i+1,J),P(i+1,J−1)の3通りの伝搬方向しかないが,特に,P(i+1,J−1)の方向に関しては,−1だけでなく,−2,−3等を追加して,状態変数の伝搬方向の主走査方向性をなくした方がよい。 In FIG. 11, there are only three propagation directions of P (i, J + 1), P (i + 1, J), and P (i + 1, J-1). In particular, regarding the direction of P (i + 1, J-1). , -1 as well as -2, -3, etc. should be added to eliminate the main scanning directionality of the state variable propagation direction.
さらに,画像データ全てをページメモリにもって行う装置においては,状態変数の伝搬方向は全方向(360度)にすれば,よいのは言うまでもない。 Furthermore, in an apparatus that performs all image data using a page memory, it is needless to say that the propagation direction of the state variable is omnidirectional (360 degrees).
図15に示すアンシャープマスキングによるディテール強調効果を施す。図において,(a)は処理対象の主信号,(b)はアンシャープ信号,(c)はアンシャープマスク信号,(d)はディテール強調ずみ信号を示している。これらのエッヂ特性例に基づき補正を行う。この実施の形態2では,ラプラシアン部304で図15(c)のアンシャープマスク信号を用いてエッヂ量の補正を行うが,図15(d)のディテール強調ずみ信号,他の信号を用いて補正してもよい。
A detail emphasis effect by unsharp masking shown in FIG. 15 is applied. In the figure, (a) shows a main signal to be processed, (b) shows an unsharp signal, (c) shows an unsharp mask signal, and (d) shows a detail-enhanced signal. Correction is performed based on these edge characteristic examples. In the second embodiment, the
また,パターンマッチング部305Aで,白地上の黒(輪郭)を拾う場合には,網点(網掛け)上の文字は抽出しない。パターンマッチング部305Bにより,白地上の罫線と,網点上または色地上の罫線を別々に抽出する。例えば,“書”のような込み入った文字もパターンマッチング部305Bにより抽出する。
Further, when the
なお,前述した例における状態変数は,状態変数の上限値を8(網点上の文字)と16(白地上の文字)で説明したが,いくつであっても構わない。 In the example described above, the upper limit value of the state variable has been described as 8 (characters on a halftone dot) and 16 (characters on a white background), but any number may be used.
網点上の文字と白地上の文字の分離方法は,罫線内の網掛けがあり,その中の文字の誤検出を避けるためで,罫線が細いと,文字が近くにある可能性があるからであり,また罫線の幅が太くなるにつれ文字が近くにある可能性が減るからである。 The method of separating the characters on the halftone dots from the characters on the white ground is that there are shading in the ruled lines. To avoid false detection of the characters in the ruled lines, if the ruled lines are thin, the characters may be close. This is because, as the width of the ruled line becomes thicker, the possibility that the characters are nearby decreases.
前述した例により,小さい文字や,線画,白地上の画数の多い文字や網点上の文字を別々に抽出することが可能となる。副走査方向の反映方向が一方向なので,ラスタースキャン方式の読み出し方法で,特にハードウェア化に適し,画像データに容易に反映が可能である。 According to the above-described example, it is possible to separately extract small characters, line drawings, characters with a large number of strokes on white ground, and characters on halftone dots. Since the reflection direction in the sub-scanning direction is one direction, the raster scanning method is particularly suitable for hardware and can be easily reflected in image data.
上記画像処理装置は,線画のエッヂを検出するアルゴリズムであり,特に印刷物特有の網点を検出して除去することはしていないので,ジェネレーション(複写機の複写物)等の網点を含まない原稿にも特に有効である。 The above image processing apparatus is an algorithm for detecting the edge of a line drawing, and does not specifically detect halftone dots peculiar to printed matter. This is especially effective for manuscripts.
抽出したパターンを,画素単位の孤立点除去で小さな領域誤判定を除去し,その後は,大きなブロック単位(4×4)単位で広い範囲で孤立ブロックを除去するので,誤判定を良好に除去できる。さらに,ブロック単位の粗い画素密度を元の画素密度に変換するので,ブロック単位の粗い画素はなくなる。 In the extracted pattern, small area misjudgment is removed by removing isolated points in pixel units, and then isolated blocks are removed in a wide range in large block units (4 × 4) units, so that misjudgment can be removed well. . Further, since the coarse pixel density of the block unit is converted into the original pixel density, there is no coarse pixel of the block unit.
また,前述した膨張部311A,311Bで,単純な膨張を行うと,孤立した領域が大きくなるだけであるが,この実施の形態のように,膨張量XとするとX=M−Nとして,M画素膨張させて,その後にN画素縮小しているので,X<Mであるから孤立した領域を連結させることができる。さらに膨張させる際に粗い密度で行っているので,換言すれば,粗い密度(ブロック単位)のまま膨張させるので,ハードウェアの量を低減することができる。 In addition, if simple expansion is performed in the expansion sections 311A and 311B, the isolated region only becomes large. However, as in this embodiment, when the expansion amount is X, X = MN, M Since the pixels are expanded and then reduced by N pixels, since X <M, isolated regions can be connected. Further, since the expansion is performed with a coarse density, in other words, the expansion is performed with the coarse density (in blocks), so that the amount of hardware can be reduced.
また,第1スキャンの結果を第2スキャン以降も用いるので,必ず線画判定結果と色判定結果は一致するので,バラツキなく処理を行うことができる。さらにメモリに記憶するデータは,最終結果ではなくデータ処理中に,処理密度が粗くなった(粗くした)データを記憶するので,メモリに記憶するデータ量を低減することができる。 Further, since the result of the first scan is also used after the second scan, the line drawing determination result and the color determination result always match, so that the processing can be performed without variation. Furthermore, the data stored in the memory is not the final result but the data whose processing density has become rough (roughened) during the data processing, so that the amount of data stored in the memory can be reduced.
また,線画判定結果と色判定結果の両方を,ページメモリ308A,308Bおよび313に記憶する代わりに,例えば,線画判定結果のみを記憶して,色判定結果はスキャン毎のものを用いてもよい。これにより,メモリ容量が2MB×2=4MBとなるので,市販の4MBのメモリを用いて容易に構成することができる。さらに,ページメモリ308Aを2MBとし,ページメモリ308Bおよび131を4×4ブロックでなく,8×4ブロックとして,ページメモリ308Bおよび131のメモリ容量を1MBとしても,全体のメモリ容量を4MB(2MB×2+1MB)にすることができる。
Further, instead of storing both the line drawing determination result and the color determination result in the
また,全ての判定結果をメモリに記憶する代わりに,スキャン毎にバラツキの大きいものだけをメモリに記憶するようにしてもよい。 Further, instead of storing all the determination results in the memory, only those having large variations for each scan may be stored in the memory.
〔色判定部302の他の例〕
図16は,本発明の実施の形態に係り,本発明の要部である色判定部の構成を示すブロック図である。この色判定部302は,後述する如く構成・動作される色相分割手段としての色相分割部1601と,色相分割部1601の出力c,m,yそれぞれを5ライン蓄えるラインメモリ1602〜1604と,後述する図17の如く構成され,入力画像データが黒画素か色画素かを判定する無彩画素判定手段の機能を有する色画素判定部1605と,から構成されている。
[Another example of the color determination unit 302]
FIG. 16 is a block diagram illustrating a configuration of a color determination unit, which is a main part of the present invention, according to the embodiment of the present invention. The
図17および図18は,図16における色画素判定部1605の内部構成を示すブロック図である。この色画素判定部1605は,c,m,yのプレーンを独立にカウントするカウント部1701およびカウント部1702と,色分割部1601で判定した画素が5×5においてc,m,yの全てが1あるいは全てが0以外の画素(色画素)の部分に対して後述する所定のパターンマッチングを行うパターンマッチング部1703と,カウント部1701の出力に基づいて黒画素の判定を行う黒画素判定部1704と,カウント部1702およびパターンマッチング部1703の出力に基づいて色画素の判定を行う色画素判定部1705と,を備えている。
17 and 18 are block diagrams showing the internal configuration of the color
さらに,色画素判定部1605は,図18に示すように,黒画素判定部1704の出力値を入力し,ブロック化するブロック化部1801と,ブロック化部1801でブロック化されたデータを,注目画素の隣接画素に黒画素ブロックがない場合に孤立点として除去する孤立点除去部1802と,孤立点除去部1802の出力を,色画素ブロックが存在する場合に3ブロック画素を膨張処理する膨張部1803と,色画素判定部1705の出力値を入力し,ブロック化するブロック化部1804と,色画素ブロックの連続性を検出し,カラー原稿であるか白黒原稿であるかを判定する連続カウント部1805と,を備えている。
Further, as shown in FIG. 18, the color
次に,以上のように構成された色判定部の動作について説明する。上記色相分割部1601において,R,G,B,C,M,Y,Bk,Wの信号に分ける。色分割の例としては,それぞれの色の境界を求め,RGBの最大値と最小値との差をRGB差と定義し,以下のようにする。なお,この例では,RGBデータは数字が大きくなるほど黒くなる。
Next, the operation of the color determination unit configured as described above will be described. The
(1)R−Y色相領域境界(ry)
R−2*G+B>0のときry=1,一致しないときry=0
(2)Y−G色相領域境界(rg)
11*R−8*G−3*B>0のときrg=1,一致しないときyg=0
(3)G−C色相領域境界(gc)
1*R−5*G+4*B<0のときgc=1,一致しないときgc=0
(4)C−B色相領域境界(cb)
8*R−14*G+6*B<0のときcb=1,一致しないときcb=0
(5)B−M色相領域境界(bm)
9*R−2*G−7*B<0のときbm=1,一致しないときbm=0
(6)M−R色相領域境界(mr)
R+5*G−6*B<0のときmr=1,一致しないとmr=0
(1) RY hue region boundary (ry)
Ry = 1 when R-2 * G + B> 0, ry = 0 when they do not match
(2) Y-G hue region boundary (rg)
Rg = 1 when 11 * R-8 * G-3 * B> 0, yg = 0 when they do not match
(3) GC hue region boundary (gc)
When 1 * R-5 * G + 4 * B <0, gc = 1, and when they do not match, gc = 0
(4) CB hue region boundary (cb)
Cb = 1 when 8 * R-14 * G + 6 * B <0, cb = 0 when they do not match
(5) BM hue region boundary (bm)
Bm = 1 when 9 * R-2 * G-7 * B <0, bm = 0 when they do not match
(6) MR hue region boundary (mr)
When R + 5 * G-6 * B <0, mr = 1;
(7)W画素判定
(R<thw)&&(g<thw)&&(B<thw)ならば,
y=m=c=0とする。
(8)Y画素判定
(ry==1)&&(yg==0)&&(RGB差>thy)ならば,
y=1,m=c=0とする。
(9)G画素判定
(rg==1)&&(gc==0)&&(RGB差>thg)ならば,
c=y=1,m=0とする。
(10)C画素判定
(gc==1)&&(cb==0)&&(RGB差>thc)ならば,
c=1,m=y=0とする。
(11)B画素判定
(cb==1)&&(bm==0)&&(RGB差>thb)ならば,
c=m=1,y=0とする。
(12)M画素判定
(bm==1)&&(mr==0)&&(RGB差>thm)ならば,
m=1,y=c=0とする。
(13)R画素判定
(mr==1)&&(ry==0)&&(RGB差>thr)ならば,
y=m=1,c=0とする。
(14)Bk画素判定
上記(7)〜(13)の条件に該当しないとき,y=m=c=1とする。
(7) W pixel determination (R <thw) && (g <thw) && (B <thw)
Let y = m = c = 0.
(8) Y pixel determination (ry == 1) && (yg == 0) && (RGB difference> thy)
It is assumed that y = 1 and m = c = 0.
(9) G pixel determination (rg == 1) && (gc == 0) && (RGB difference> thg)
Let c = y = 1 and m = 0.
(10) C pixel determination (gc == 1) && (cb == 0) && (RGB difference> thc)
Let c = 1 and m = y = 0.
(11) B pixel determination (cb == 1) && (bm == 0) && (RGB difference> thb)
Let c = m = 1 and y = 0.
(12) M pixel determination (bm == 1) && (mr == 0) && (RGB difference> thm)
Let m = 1 and y = c = 0.
(13) If R pixel determination (mr = 1) && (ry == 0) && (RGB difference> thr),
It is assumed that y = m = 1 and c = 0.
(14) Bk pixel determination When the above conditions (7) to (13) are not satisfied, y = m = c = 1.
ここで,上記(7)〜(14)の優先順位は,数の小さい方を優先する。
また,thw,thy,thm,thc,thr,thg,thbは,複写(処理)前に決定される閾値である。また,RGB差とは1画素内のRGBそれぞれの画像データの最大値と最小値との差である。
Here, the priority of the above (7) to (14) is given priority to the smaller number.
Further, thw, thy, thm, thc, thr, thg, thb are threshold values determined before copying (processing). The RGB difference is a difference between the maximum value and the minimum value of the image data of RGB in one pixel.
出力信号をc,m,yの3bitを出力する。つまり,3bitでc,m,y,r,g,b,bkを表している。ここで,色相毎に閾値を変えているのは,色相領域毎に,有彩範囲が異なるときに,色相領域に応じた閾値を決定する。なお,この場合のおける色相分割は,一例であって,これに限定されるものではなく,他の式であっても勿論よい。 The output signal is 3 bits of c, m, and y. That is, 3 bits represent c, m, y, r, g, b, and bk. Here, the threshold value is changed for each hue when the chromatic range is different for each hue area and the threshold value is determined according to the hue area. Note that the hue division in this case is an example, and the present invention is not limited to this, and may be another formula.
さて,色相分割部1601の出力c,m,yは,それぞれラインメモリ1602〜1604に5ライン蓄えられ,色画素判定部1605に入力される。5ライン分のc,m,yのデータは,カウント部1701,1702,パターンマッチング部1703に入力される。
The outputs c, m, and y of the
パターンマッチング部1703は,色相分割部1601で判定した画素(c,m,y)が5×5において,c,m,yの全てが1(c=m=y=1),あるいは全てが0(c=m=y=0)以外の画素(色画素)である所のパターンマッチングを行う。すなわち,以下のパターンのいずれかに一致する場合に,色画素候補2とする。
The
(1)パターン1
ary[y+1][x]&&ary[y][x]&&ary[y−1][x]
(2)パターン2
ary[y][x+1]&&ary[y][x]&&ary[y][x−1]
(3)パターン3
ary[y+1][x+1]&&ary[y][x]&&ary[y−1][x−1]
(4)パターン4
ary[y+1][x−1]&&ary[y][x]&&ary[y−1][x+1]
(1)
ary [y + 1] [x] && ary [y] [x] && ary [y-1] [x]
(2)
ary [y] [x + 1] && ary [y] [x] && ary [y] [x-1]
(3)
ary [y + 1] [x + 1] && ary [y] [x] && ary [y-1] [x-1]
(4)
ary [y + 1] [x-1] && ary [y] [x] && ary [y-1] [x + 1]
なお,上記における中心画素はx,yである。このパターン例を図19に示す。上記の如く,パターンマッチング部1703においてパターンマッチングを行っているのは,孤立点などを拾わないようにするためである。反対に,網点などの,小面積の色検出する際には,中心画素が1(c=m=y=1),あるいは全てが0(c=m=y=0)以外の画素(色画素)であるかによって判定すればよい。
The center pixel in the above is x, y. An example of this pattern is shown in FIG. As described above, the
カウント部1702は,上記判定した画素(c,m,y)を5×5内において,それぞれ数をカウントする。このとき,カウントしたc,m,yの最大値と最小値との差が,thcnt以上で,かつカウントしたc,m,yの最小値が,thmin未満ならば,色画素候補1とする。なお,上記thcntおよびthminは,複写(処理)前に設定する閾値である。
The
また,y,m,cをプレーン展開し,N×Nのマトリックスにおいてそれぞれのプレーン毎に数を数え,最小値をブラック(Bk)であると仮定している。これにより,黒画素の読み取りがずれても補正することが可能になる。さらに,最大値と最小値との差を有彩画素であると仮定している。これにより,黒画素が読み取りがずれた画素を補正し,有彩画素を抽出する。つまり,一定画素の有彩画素がある場合に有彩画素としている。 It is assumed that y, m, and c are expanded into planes, the number is counted for each plane in an N × N matrix, and the minimum value is black (Bk). This makes it possible to correct even if the reading of the black pixel is shifted. Furthermore, it is assumed that the difference between the maximum value and the minimum value is a chromatic pixel. As a result, pixels whose black pixels are misread are corrected and chromatic pixels are extracted. That is, when there is a certain chromatic pixel, it is determined as a chromatic pixel.
パターンマッチング部1703とカウント部1702の出力は,色画素判定部1705で色画素か否かを判定する。つまり,色画素候補1で,かつ色画素候補2であれば,入力データが色画素であると判定する。
Outputs from the
次いで,色画素判定部1705の出力をブロック化部1804に入力する。この動作はブロック化部1801と同様に行われ,以下の処理は4×4を1ブロック単位で動作する。そして,ブロック化部1804によってブロック化されたデータは連続カウント部1805に入力される。
Next, the output of the color
連続カウント部1805では,色画素ブロックの連続性をチェックし,カラー原稿か白黒原稿であるか否かを,例えば以下の如く判定する。
OUT=(有彩画素領域が主走査方向に連続するブロック数≧RACS1)
#(有彩画素領域が存在するラインが副走査方向に連続するブロック数≧RACS1)
上記RACS1は,複写(処理)前に決定される閾値である。なお,連続カウント部1805では,ハードウェアは,少なくなるように構成される。ここでは,単に連続性をチェックするので,主走査と副走査の判定条件は違ってもさほど支障をきたすものではない。
The
OUT = (number of blocks in which the chromatic pixel region is continuous in the main scanning direction ≧ RACS1)
# (Number of blocks in which a line having a chromatic pixel region continues in the sub-scanning direction ≧ RACS1)
The
カウント部1701は,色相判定部1601で判定した画素(c,m,y)を5×5内において,それぞれ数をカウントする。すなわち,カウントしたc,m,yの最大値と最小値との差が,thcnt以下で,かつカウントしたc,m,yの最小値が,thmin以上ならば,黒画素とする。
The
なお,thcnt,thminは,複写(処理)前に決定される閾値である。ここでは,y,m,cをプレーン展開し,N×Nのマトリックスにおいてそれぞれのプレーン毎に数を数え,その最小値をブラックであると仮定している。これにより,黒画素の読み取りがずれても補正することが可能となる。 Note that thcnt and thmin are threshold values determined before copying (processing). Here, y, m, and c are expanded into planes, the number is counted for each plane in an N × N matrix, and the minimum value is assumed to be black. As a result, it is possible to correct even if the reading of the black pixel is shifted.
そして,最大値と最小値との差が有彩画素と仮定する。このことにより,黒画素の読み取りがずれた画素を補正し,有彩画素を抽出する。一定画素の有彩画素が存在する場合を有彩画素としている。読み取りずれで黒画素周辺の画素が色付くことがあるので,補正をするのがthminである。 The difference between the maximum value and the minimum value is assumed to be a chromatic pixel. As a result, pixels whose black pixels are misread are corrected and chromatic pixels are extracted. A chromatic pixel is a case where a certain chromatic pixel exists. Since pixels around the black pixel may be colored due to reading deviation, thmin is corrected.
また,黒画素判定部1704による黒画素判定の出力をブロック化部1801においてブロック化する。ブロック化とは,4×4画素のマトリックスにおいて,2画素以上の色画素があれば,色画素ブロックとして出力する。このブロック化部1801以降の処理は,4×4を1ブロックとしてブロック単位に出力する。
Also, the black pixel determination output from the black
続いて,上記ブロック化したデータを孤立点除去部1802において,注目画素の隣り合う画素に黒画素ブロックがなければ,孤立点を除去する。この孤立点除去部1802の出力を,膨張部1803において,色画素ブロックが存在する場合は,3ブロック画素を膨張処理する。ここで膨張処理を行うのは,黒画素の周辺を黒文字処理するためである。ここで,出力B/C信号は,黒画素ブロックのときにHを出力し,それ以外のときはLを出力する。
Subsequently, in the isolated
ところで,カウント部1701およびカウント部1702では,有彩(色)画素/無彩(黒)画素の判定条件によるメモリ量の増加を少なくしている。本来ならば,色相分割部1601から独立させた方がよいが,色相分割を独立にすると,パターンマッチングのメモリが増えるので好ましくない。
By the way, in the
また,上述してきた実施の形態は,RGBデータに対して行ってきたが,RGBデータに限定するものではなく,例えば輝度色差(Lab色空間など)に対して色相判定を行うことは容易である。 The above-described embodiment has been performed on RGB data. However, the present invention is not limited to RGB data. For example, it is easy to perform a hue determination on a luminance color difference (Lab color space or the like). .
101 原稿読取部
102 画像処理部
103 画像記録部
201 RGBγ補正部
202 原稿認識部
203 遅延部
204 RGBフィルタ部
205 色補正部
206 UCR部
207 変倍部
208 CMYBkフィルタ部
209 CMYBkγ補正部
210 階調処理部
301 線画認識部
302 色判定部
303 モノクロ化部
304 ラプラシアン部
305A,305B パターンマッチング部
306A,306B 孤立点除去部
307A,307B 画素密度変換部
308A,308B ページメモリ
309A,309B セレクタ
310A,310B 孤立ブロック除去部
311A,311B 膨張部
1601 色相分割部
1602〜1604 ラインメモリ
1605 色画素判定部
1701,1702 カウント部
1703 パターンマッチング部
1704 黒画素判定部
1705 色画素判定部
1801,1804 ブロック化部
1802 孤立点除去部
1803 膨張部
1805 連続カウント部
101
Claims (6)
前記画素を含む入力画像中の所定の領域であるn×mマトリックス(n,mは1以上の整数)の中で,前記(c,m,y)ごとに1の数をカウントし,該カウントした値の最小値を黒画素とし,最大値−最小値が第1の所定の値以下の場合,n×mマトリックス内の処理対象の画素を無彩画素領域であると判定する無彩画素判定手段と,
を備えたことを特徴とする画像処理装置。 It is determined for each pixel whether the pixel of the input image input from the outside is C, M, Y, R, G, B, BK, or W, and C, M, Y, R, Hue division means for representing each pixel of G, B, BK, W by (c, m, y) having a 3-bit value ;
In an n × m matrix (n and m are integers of 1 or more), which is a predetermined area in the input image including the pixels, the number of 1 is counted for each (c, m, y), and the count If the minimum value of the obtained values is a black pixel and the maximum value−minimum value is equal to or less than the first predetermined value, the pixel to be processed in the n × m matrix is determined to be an achromatic pixel region. Means,
An image processing apparatus comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006077166A JP4047356B2 (en) | 2006-03-20 | 2006-03-20 | Image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006077166A JP4047356B2 (en) | 2006-03-20 | 2006-03-20 | Image processing device |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP29890998A Division JP3989636B2 (en) | 1998-10-20 | 1998-10-20 | Image processing device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2006203939A JP2006203939A (en) | 2006-08-03 |
JP4047356B2 true JP4047356B2 (en) | 2008-02-13 |
Family
ID=36961456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2006077166A Expired - Lifetime JP4047356B2 (en) | 2006-03-20 | 2006-03-20 | Image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4047356B2 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9013770B2 (en) | 2013-03-26 | 2015-04-21 | Brother Kogyo Kabushiki Kaisha | Image processing device determining whether image is chromatic color image or achromatic color image |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7192584B2 (en) * | 2019-03-11 | 2022-12-20 | 株式会社リコー | Image processing device, method, and program |
-
2006
- 2006-03-20 JP JP2006077166A patent/JP4047356B2/en not_active Expired - Lifetime
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9013770B2 (en) | 2013-03-26 | 2015-04-21 | Brother Kogyo Kabushiki Kaisha | Image processing device determining whether image is chromatic color image or achromatic color image |
Also Published As
Publication number | Publication date |
---|---|
JP2006203939A (en) | 2006-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3436828B2 (en) | Image processing device | |
JP3399486B2 (en) | Color image processing apparatus and method | |
JP4637054B2 (en) | Image processing apparatus, control method therefor, computer program, and computer-readable storage medium | |
US9204017B2 (en) | Image processing device, image processing method, and computer program product | |
JP4047356B2 (en) | Image processing device | |
JP3989636B2 (en) | Image processing device | |
JP4320309B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium recording the program | |
JP3861498B2 (en) | Black edge discrimination device and image processing device | |
JP4059600B2 (en) | Image processing apparatus and image processing method | |
JP3999420B2 (en) | Image processing apparatus and image processing method | |
JP3857494B2 (en) | Image processing device | |
JP3767210B2 (en) | Document type determination device and image processing device | |
JP3944032B2 (en) | Image processing apparatus and method | |
JPH0541796A (en) | Copying machine | |
JP7077925B2 (en) | Image processing equipment, image processing methods, and programs | |
JP3064896B2 (en) | Image processing device | |
JP3506848B2 (en) | Image processing device | |
JPH1023251A (en) | Image-processing unit | |
JP3564216B2 (en) | Image processing device | |
JP2000125140A (en) | Picture processor | |
JP3070174B2 (en) | Image forming device | |
JPH1079852A (en) | Image processor | |
JP3723666B2 (en) | Image processing device | |
JP2000152012A (en) | Picture processor | |
JP3700456B2 (en) | Color image processing device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060419 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070828 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071029 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20071120 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20071121 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101130 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111130 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111130 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121130 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131130 Year of fee payment: 6 |
|
EXPY | Cancellation because of completion of term |