JPH1146300A - Image-processing unit - Google Patents

Image-processing unit

Info

Publication number
JPH1146300A
JPH1146300A JP9202026A JP20202697A JPH1146300A JP H1146300 A JPH1146300 A JP H1146300A JP 9202026 A JP9202026 A JP 9202026A JP 20202697 A JP20202697 A JP 20202697A JP H1146300 A JPH1146300 A JP H1146300A
Authority
JP
Japan
Prior art keywords
black
character
pattern
image processing
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP9202026A
Other languages
Japanese (ja)
Inventor
Shinji Yamakawa
愼二 山川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP9202026A priority Critical patent/JPH1146300A/en
Publication of JPH1146300A publication Critical patent/JPH1146300A/en
Pending legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

PROBLEM TO BE SOLVED: To attain optimum image processing which is suitable for a character or a pattern on a black background by discriminating whether a thin line object is a character or a pattern on a black background and updating a state variable, based on the discrimination result so as to distinguish a character from a pattern on the black background. SOLUTION: A pattern of an oblique component is extracted from both the horizontal and vertical components, and in the case that both sides of a black pattern are inbetween white patterns, it is extracted as a thin line object. Pattern matching is processed, while increasing a subscanning direction counter and a main scanning direction counter, and a current state variable is compared with that of one preceding line. The comparison processing is sequentially conducted, and the state variable is set in response to the discrimination result of an output PM 1 from a pattern matching section A43 to detect a very thin line on white background, thereby avoiding mis-detection of a mesh line on the pattern. Furthermore, since the state variable is set again through matching of thin line patterns, even a lump of characters is extracted satisfactorily.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は,画像処理装置に関
し,より詳細には,線画のエッヂを抽出して,その抽出
結果を用いて,黒地上の文字と絵柄とを区別して適切な
画像処理を施す画像処理装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing apparatus, and more particularly, to extracting an edge of a line drawing and using the extraction result to distinguish a character and a picture on a black background and perform an appropriate image processing. The present invention relates to an image processing apparatus that performs the following.

【0002】[0002]

【従来の技術】近年,画像処理装置は高機能化・高性能
化の傾向にある。例えば,入力画像データを高精度で画
像処理するために,画像データの内容が,文字である
か,写真であるかを判定するようにした装置が提供され
ている。
2. Description of the Related Art In recent years, image processing apparatuses have tended to have higher functions and higher performance. For example, in order to perform high-precision image processing of input image data, an apparatus is provided which determines whether the content of the image data is a character or a photograph.

【0003】例えば,特開平3−63887号公報「画
像読取り装置」に開示されている装置によれば,画像デ
ータの内容が,文字であるか,写真であるかを抽出し,
複数の色判定結果を用いて,画像処理の内容を異ならせ
ることにより,忠実な画像再現処理を行えるようにして
いる。
For example, according to an apparatus disclosed in Japanese Patent Application Laid-Open No. Hei 3-638787, "image reading apparatus", it is determined whether the content of image data is text or a photograph.
By differentiating the contents of image processing using a plurality of color determination results, faithful image reproduction processing can be performed.

【0004】また,特開平1−137378号公報「画
像処理方式」に開示されている方法によれば,入力画像
信号の特徴量,例えば濃度勾配(エッヂ量)を抽出し,
その特徴量によって使用するフィルタと,ディザ(階調
処理)で使用する閾値を異ならせて処理することによ
り,文字等の線画像領域ではエッヂを鮮明に2値再現
し,写真等の中間調領域ではノイズ等を抑えて滑らかに
2値で擬似中間調による階調の再現を行えるようにして
いる。
Further, according to the method disclosed in Japanese Patent Application Laid-Open No. 1-137378, "Image processing method", a characteristic amount of an input image signal, for example, a density gradient (edge amount) is extracted.
By processing the filter using the feature amount and the threshold used in dither (gradation processing) differently, the edge is sharply reproduced in the line image area such as the character, and the halftone area such as the photograph is reproduced. In this technology, it is possible to smoothly reproduce binary halftones with two values by suppressing noise and the like.

【0005】[0005]

【発明が解決しようとする課題】しかしながら,上記従
来の技術によれば,それぞれ画像の再現性を向上させる
ことができるものの,特開平3−63887号公報では
単位ラプラシアンデータの閾値を変えているだけであ
り,特開平1−137378号公報では色(有彩・無
彩)レベルに応じて処理を変えているだけであるため,
黒地上の文字や,網点上の文字,さらには絵柄等の区別
を行うことはできなかった。換言すれば,黒地上の文
字,網点上の文字,絵柄等を区別して,それぞれに応じ
た最適な画像処理を行うものはなかった。
However, according to the above-mentioned prior art, although the reproducibility of each image can be improved, Japanese Patent Laid-Open Publication No. Hei 3-63887 merely changes the threshold value of the unit Laplacian data. In JP-A-1-137378, only the processing is changed in accordance with the color (chromatic / achromatic) level.
It was not possible to distinguish characters on black ground, characters on halftone dots, and even pictures. In other words, there is no one that distinguishes a character on a black background, a character on a halftone dot, a picture, and the like, and performs optimal image processing according to each of them.

【0006】本発明は上記に鑑みてなされたものであっ
て,黒地上の文字,絵柄等を区別して,それぞれに応じ
た最適な画像処理を行えるようにすることを目的とす
る。
SUMMARY OF THE INVENTION The present invention has been made in view of the above, and an object of the present invention is to distinguish characters, patterns, and the like on a black background and to perform optimal image processing according to each of them.

【0007】[0007]

【課題を解決するための手段】上記の目的を達成するた
めに,請求項1に係る画像処理装置は,アナログ画像デ
ータをn値(nは2以上の自然数)のデジタルデータに
変換するn値化手段と,前記デジタルデータ中の所定の
黒画素の周辺に複数の黒画素が存在することにより構成
される領域を黒画素領域と判定する黒画素領域判定手段
と,前記黒画素領域判定手段で黒画素領域と判定された
場合に,該当する黒画素に状態変数を設定する第1の状
態変数設定手段と,前記デジタルデータから黒画素を抽
出して補正した補正黒画素および前記デジタルデータか
ら白画素を抽出して補正した補正白画素を用いて,細線
候補とするパターン抽出を行う細線候補抽出手段と,前
記状態変数と前記細線候補抽出手段で抽出した細線候補
とを用いて,前記細線候補が黒字上の文字・絵柄の何れ
であるかを判定すると共に,判定結果に基づいて前記状
態変数を更新する判定・更新手段と,を備えたものであ
る。
According to a first aspect of the present invention, there is provided an image processing apparatus for converting an analog image data into an n-value (n is a natural number of 2 or more) digital data. Conversion means, black pixel area determination means for determining an area formed by a plurality of black pixels around a predetermined black pixel in the digital data as a black pixel area, and black pixel area determination means. First state variable setting means for setting a state variable for the corresponding black pixel when it is determined that the pixel is a black pixel area; a corrected black pixel obtained by extracting and correcting a black pixel from the digital data; A thin line candidate extracting unit for extracting a pattern as a thin line candidate using the corrected white pixel extracted and corrected, and the state variable and the thin line candidate extracted by the thin line candidate extracting unit. With a line candidate to determine which one of the character-pattern on black, in which and a determination and update means for updating the state variable based on the determination result.

【0008】また,請求項2に係る画像処理装置は,ア
ナログ画像データをn値(nは2以上の自然数)のデジ
タルデータに変換するn値化手段と,前記デジタルデー
タ中の所定の黒画素の周辺に複数の黒画素が存在するこ
とにより構成される領域を黒画素領域と判定する黒画素
領域判定手段と,前記黒画素領域判定手段で黒画素領域
と判定された場合に,該当する黒画素に状態変数を設定
する第1の状態変数設定手段と,前記デジタルデータか
ら黒画素を抽出して補正した補正黒画素および前記デジ
タルデータから白画素を抽出して補正した補正白画素を
用いて,細線候補とするパターン抽出を行う細線候補抽
出手段と,前記状態変数と前記細線候補抽出手段で抽出
した細線候補とを用いて,前記細線候補が黒字上の文字
・網点上の文字・絵柄の何れであるかを判定すると共
に,判定結果に基づいて前記状態変数を更新する判定・
更新手段と,を備えたものである。
According to a second aspect of the present invention, there is provided an image processing apparatus, comprising: n-value conversion means for converting analog image data into n-valued (n is a natural number of 2 or more) digital data; And a black pixel area determining means for determining a region constituted by a plurality of black pixels around the black pixel area as a black pixel area. First state variable setting means for setting a state variable in a pixel, a corrected black pixel extracted and corrected by extracting a black pixel from the digital data, and a corrected white pixel extracted and corrected by extracting a white pixel from the digital data. Using the thin line candidate extraction means for extracting a pattern as a thin line candidate, and the state variable and the thin line candidate extracted by the thin line candidate extraction means, With determining which one of the handle, and judgment based on the judgment result to update the state variable
Update means.

【0009】また,請求項3に係る画像処理装置は,請
求項1または2記載の画像処理装置において,さらに,
さらに,白地上の黒文字を検出した際に,前記状態変数
を設定する第2の状態変数設定手段を備えたものであ
る。
According to a third aspect of the present invention, there is provided the image processing apparatus according to the first or second aspect, further comprising:
The apparatus further includes a second state variable setting means for setting the state variable when a black character on a white background is detected.

【0010】また,請求項4に係る画像処理装置は,請
求項1,2,または3記載の画像処理装置において,請
求項1,2,または3記載の画像処理装置において,前
記細線候補抽出手段が,前記状態変数に基づいて,前記
細線候補の抽出条件を異ならせてパターン抽出を行うも
のである。
According to a fourth aspect of the present invention, there is provided the image processing apparatus according to the first, second, or third aspect, and the thin line candidate extracting means is provided in the first, second, or third aspect. However, based on the state variables, pattern extraction is performed by changing the thin line candidate extraction conditions.

【0011】また,請求項5に係る画像処理装置は,請
求項1,2,3,または4記載の画像処理装置におい
て,画像の走査処理の方向を一定方向に行い,前記状態
変数の反映方向が,処理画素P(i,J)に対して,P
(i,j+1),P(i+1,J),P(i+1,J−
1)の座標であるものである。
According to a fifth aspect of the present invention, in the image processing apparatus according to the first, second, third, or fourth aspect, the scanning direction of the image is performed in a fixed direction, and the reflection direction of the state variable is reflected. Is P with respect to the processing pixel P (i, J).
(I, j + 1), P (i + 1, J), P (i + 1, J-
1).

【0012】また,請求項6に係る画像処理装置は,請
求項1,2,3,4,または5記載の画像処理装置にお
いて,前記細線候補抽出手段が,ラプラシアンのデータ
を用いて前記黒画素および白画素の補正を行うものであ
る。
According to a sixth aspect of the present invention, in the image processing apparatus of the first, second, third, fourth, or fifth aspect, the thin line candidate extracting means uses the Laplacian data to generate the black pixel. And correction of white pixels.

【0013】また,請求項7に係る画像処理装置は,請
求項6記載の画像処理装置において,前記細線候補抽出
手段が,走査速度,倍率,または画像回転により,前記
ラプラシアンのデータとして抽出する重み付けを異なら
せるものである。
According to a seventh aspect of the present invention, there is provided the image processing apparatus according to the sixth aspect, wherein the thin line candidate extracting means extracts the Laplacian data as the Laplacian data by scanning speed, magnification, or image rotation. Are different.

【0014】また,請求項8に係る画像処理装置は,請
求項1〜7のいずれか1つに記載の画像処理装置におい
て,さらに,前記デジタルデータ中の文字領域を判定し
て画素密度よりも荒い状態の判定結果を出力する第1の
文字領域判定手段と,画素密度で前記デジタルデータ中
のエッヂを抽出するエッヂ抽出手段と,前記第1の文字
領域判定手段により文字領域と判定され,且つ前記エッ
ヂ抽出手段によりエッヂであると判定された場合に,真
の文字領域と判定する第2の文字領域判定手段と,を備
えたものである。
According to an eighth aspect of the present invention, in the image processing apparatus according to any one of the first to seventh aspects, a character area in the digital data is further determined to determine a character area in the digital data. First character area determining means for outputting a rough state determination result, edge extracting means for extracting an edge in the digital data with a pixel density, and a first character area determining means for determining a character area; And a second character area determining means for determining a true character area when the edge is determined to be an edge by the edge extracting means.

【0015】また,請求項9に係る画像処理装置は,請
求項1〜7のいずれか1つに記載の画像処理装置におい
て,さらに,前記デジタルデータ中の網点上の文字領域
を判定して画素密度よりも荒い状態の判定結果を出力す
る第3の文字領域判定手段と,画素密度で前記デジタル
データ中のエッヂを抽出するエッヂ抽出手段と,前記第
3の文字領域判定手段により網点上の文字領域と判定さ
れ,且つ前記エッヂ抽出手段によりエッヂであると判定
された場合に,真の網点上の文字領域と判定する第4の
文字領域判定手段と,を備えたものである。
According to a ninth aspect of the present invention, in the image processing apparatus according to any one of the first to seventh aspects, a character area on a halftone dot in the digital data is further determined. A third character area determining means for outputting a determination result in a state rougher than the pixel density; an edge extracting means for extracting an edge in the digital data with the pixel density; And a fourth character area determining means for determining a character area on a true halftone dot when the edge extracting means determines that the character area is an edge.

【0016】[0016]

【発明の実施の形態】以下,本発明の画像処理装置につ
いて,〔実施の形態1〕,〔実施の形態2〕の順で,図
面を参照して詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an image processing apparatus according to the present invention will be described in detail in the order of [Embodiment 1] and [Embodiment 2] with reference to the drawings.

【0017】〔実施の形態1〕図1は,実施の形態1の
画像処理装置の概略ブロック図を示し,原稿から画像デ
ータを読み取り,該画像データ(アナログ信号)をデジ
タルデータに変換して出力する原稿読取部1と,原稿読
取部1で読み取った画像データ(デジタルデータ)に各
種補正処理等を施すと共に,線画認識・色判定等の原稿
認識を行う画像処理部2と,画像処理部2からの画像デ
ータに基づいて記録紙に画像を記録する画像記録部3
と,から構成される。
[Embodiment 1] FIG. 1 is a schematic block diagram of an image processing apparatus according to Embodiment 1, which reads image data from a document, converts the image data (analog signal) into digital data, and outputs the digital data. A document reading unit 1, an image processing unit 2 that performs various correction processes and the like on image data (digital data) read by the document reading unit 1, and performs document recognition such as line drawing recognition and color determination; Recording unit 3 for recording an image on recording paper based on image data from
And

【0018】なお,ここでは,原稿読取部1でR(レッ
ド)・G(グリーン)・B(ブルー)の3色のカラー画
像データ(以下,RGBデータと記載する)を読み取っ
て,画像処理部2でRGBデータをC(シアン)・M
(マゼンタ)・(イエロー)・Bk(ブラック)の4色
のカラー画像データ(以下,CMYBkデータと記載す
る)に色変換し,画像記録部3でCMYBkデータに基
づいて記録紙にカラー画像を出力するものとして説明す
る。
Here, the original reading section 1 reads three color image data of R (red), G (green), and B (blue) (hereinafter, referred to as RGB data) and reads the image data. 2 to convert RGB data to C (cyan) M
Color conversion into four color image data (magenta), (yellow), and Bk (black) (hereinafter referred to as CMYBk data), and the image recording unit 3 outputs a color image on recording paper based on the CMYBk data It will be described as what is done.

【0019】図2は,画像処理部2のブロック図を示
し,原稿読取部1からRGBデータ(デジタルデータ)
を入力し,RGBデータのグレーバランスの補正を行う
と共に,輝度データ(RGBデータ)を濃度データ(R
GBデータ)に変換し,メモリ12に出力するRGBγ
補正部11と,A3原稿の半分のサイズ(A4)のRG
Bデータを格納するメモリ12と,メモリ12からRG
Bデータを入力し,原稿認識部14の出力結果と同期を
とるためにRGBデータを遅延させる遅延部13と,メ
モリ12から入力したRGBデータに基づいて,文字領
域か絵柄領域かを判定して次段のRGBフィルタ部15
に文字/絵柄判定信号C/Pを出力すると共に,原稿領
域の有彩領域か無彩領域かを判定してRGBフィルタ部
15に有彩/無彩判定信号B/Cを出力する原稿認識部
14と,RGBデータにMTF補正を行うRGBフィル
タ部15と,RGBデータを一次のマスキング等でCM
Yデータに変換する色補正部16と,CMYデータの共
通部分をUCR(加色除去)処理してBkデータを生成
するUCR部17と,主走査方向の拡大・縮小または等
倍処理を施す変倍部18と,平滑化処理や鮮鋭化処理を
行うCMYBkフィルタ部19と,画像記録部3の周波
数特性に応じてγ補正を行うCMYBkγ補正部20
と,ディザ処理・誤差拡散処理等の量子化を行う階調処
理部21と,から構成される。
FIG. 2 is a block diagram of the image processing unit 2, which reads RGB data (digital data) from the original reading unit 1.
To correct the gray balance of the RGB data and to convert the luminance data (RGB data) to the density data (R
RGBγ) which is converted to RGB data and output to the memory 12.
Correction unit 11 and RG of half size (A4) of A3 original
A memory 12 for storing B data;
Based on the RGB data input from the memory 12 and the delay unit 13 for inputting the B data and delaying the RGB data in order to synchronize with the output result of the document recognizing unit 14, the character area or the picture area is determined. Next-stage RGB filter section 15
And a character / picture determination signal C / P, and outputs a chromatic / achromatic determination signal B / C to the RGB filter section 15 by determining whether the document area is a chromatic area or an achromatic area. 14, an RGB filter unit 15 for performing MTF correction on the RGB data, and CM conversion of the RGB data by primary masking or the like.
A color correction unit 16 for converting into Y data, a UCR unit 17 for generating a Bk data by performing a UCR (additive color removal) process on a common part of the CMY data, and a conversion unit for performing enlargement / reduction or equal magnification processing in the main scanning direction. A multiplying unit 18, a CMYBk filter unit 19 for performing a smoothing process and a sharpening process, and a CMYBkγ correcting unit 20 for performing a γ correction according to the frequency characteristics of the image recording unit 3.
And a gradation processing unit 21 for performing quantization such as dither processing and error diffusion processing.

【0020】なお,原稿認識部14から出力される文字
/絵柄判定信号C/Pは2ビットの信号であり,文字/
絵柄判定信号C/Pが『3』=「11」で文字領域を示
し,『1』=「01」で絵柄上の文字,『0』=「0
0」で絵柄領域を示す。この文字/絵柄判定信号C/P
は,RGBフィルタ部15,色補正部16,UCR部1
7,変倍部18,CMYBkフィルタ部19,CMYB
kγ補正部20および階調処理部21にカスケード接続
され,画像データに同期して信号IMGを出力する。
The character / picture determination signal C / P output from the document recognizing section 14 is a 2-bit signal.
When the pattern determination signal C / P is “3” = “11”, the character area is indicated, “1” = “01” indicates a character on the pattern, and “0” = “0”.
"0" indicates a picture area. This character / picture determination signal C / P
Are the RGB filter unit 15, the color correction unit 16, and the UCR unit 1.
7, scaling unit 18, CMYBk filter unit 19, CMYB
It is cascaded to the kγ correction unit 20 and the gradation processing unit 21 and outputs a signal IMG in synchronization with image data.

【0021】また,有彩/無彩判定信号B/C(1ビッ
ト信号)のロジックは,Hで無彩領域,Lで有彩領域を
示す。この有彩/無彩判定信号B/Cは,RGBフィル
タ部15,色補正部16,UCR部17にカスケード接
続され,画像データに同期して出力する。
In the logic of the chromatic / achromatic determination signal B / C (1 bit signal), H indicates an achromatic region and L indicates a chromatic region. The chromatic / achromatic determination signal B / C is cascaded to the RGB filter unit 15, the color correction unit 16, and the UCR unit 17, and is output in synchronization with image data.

【0022】各ブロック15〜21は,文字/絵柄判定
信号C/Pと有彩/無彩判定信号B/Cに基づいて文字
処理,絵柄処理を行う。
Each of the blocks 15 to 21 performs character processing and picture processing based on the character / picture determination signal C / P and the chromatic / achromatic determination signal B / C.

【0023】次に,画像処理部2の各ブロックの詳細な
動作を説明する。
Next, the detailed operation of each block of the image processing section 2 will be described.

【0024】RGBγ補正部11は,原稿読取部1から
入力されるRGBデータ(デジタルデータ)のグレーバ
ランスの補正を行うと共に,輝度データ(RGBデー
タ)を濃度データ(RGBデータ)に変換し,メモリ1
2に出力する。
The RGBγ correction section 11 corrects the gray balance of the RGB data (digital data) input from the document reading section 1 and converts the luminance data (RGB data) into density data (RGB data). 1
Output to 2.

【0025】メモリ12は,2面取りのメモリであり,
画像データ(RGBデータ)を原稿最大サイズ(A3)
の半分(A4)のメモリを有しており,画像の回転もこ
のメモリを使って行われる。尚,メモリ12は,一回の
原稿の読み取りで全ての作像を可能とするために,原稿
読取部1の近くに配置されている。また,メモリ12と
原稿読取部1とを近くに配置することにより,読み取り
バラツキの少ないデータをメモリ12に出力することが
可能となる。このメモリ12の制御に関しては後述す
る。
The memory 12 is a two-chamfered memory.
Convert image data (RGB data) to maximum document size (A3)
Of the image (A4), and the rotation of the image is also performed using this memory. Note that the memory 12 is arranged near the document reading unit 1 so that all images can be formed by reading the document once. In addition, by arranging the memory 12 and the document reading unit 1 close to each other, it is possible to output data with less reading variation to the memory 12. The control of the memory 12 will be described later.

【0026】RGBフィルタ部15は,遅延部13から
のRGBデータをMTF補正するN×N画素のフィルタ
であり,文字/絵柄判定信号C/Pが「3」(文字)の
時には鮮鋭化処理を行い,「0」(絵柄)の時には平滑
化処理を行い,「1」(絵柄上の文字)の時には入力デ
ータを処理せずにそのまま出力する。
The RGB filter section 15 is an N × N pixel filter for MTF-correcting the RGB data from the delay section 13, and performs a sharpening process when the character / picture determination signal C / P is “3” (character). When the value is "0" (pattern), the smoothing process is performed. When the value is "1" (character on the pattern), the input data is output without processing.

【0027】色補正部16はRGBフィルタ部15によ
り処理されたRGBデータを一次マスキング法などによ
りC,M,Yデータに変換する。
The color correction section 16 converts the RGB data processed by the RGB filter section 15 into C, M, Y data by a primary masking method or the like.

【0028】UCR部17は,画像データの色再現性を
向上させるために色補正部16により変換されたC,
M,Yデータの共通部分をUCR(加色除去)処理する
ことによりBkデータを生成する。具体的には,UCR
部17は,文字/絵柄判定信号C/Pが「3」以外の時
にはスケルトンブラックのBkデータを生成し,「3」
の時にはフルブラックのBkデータを生成し,文字/絵
柄判定信号C/Pが「3」(文字)であって有彩/無彩
判定信号B/CがH(無彩)の時には,黒文字を黒成分
のみで表現するためにC,M,Yデータをイレースす
る。また,UCR部17は変倍部18に対して,画像読
み取り部1が1枚の原稿を4回読み取って画像記録部2
に対して面順次で出力するために,これらのC,M,
Y,Bkのうちの一色の信号IMGを面順次で出力す
る。
The UCR unit 17 converts the C, C converted by the color correction unit 16 to improve the color reproducibility of the image data.
Bk data is generated by subjecting a common portion of the M and Y data to UCR (additive color removal) processing. Specifically, UCR
The unit 17 generates skeleton black Bk data when the character / picture determination signal C / P is other than “3”, and generates “3”
, Full black Bk data is generated, and when the character / picture determination signal C / P is “3” (character) and the chromatic / achromatic determination signal B / C is H (achromatic), black characters are generated. The C, M, and Y data are erased to represent only the black component. Further, the UCR section 17 sends the image reading section 1 four times to the scaling section 18 to read one original document four times.
To output these in C-M,
A signal IMG of one color of Y and Bk is output in a frame sequence.

【0029】変倍部18は,主走査方向の拡大,縮小,
等倍処理を行う。CMYBkフィルタ部19はN×N画
素のフィルタであって画像記録部3の周波数特性や,文
字/絵柄判定信号C/Pに基づいて鮮鋭化処理又は平滑
化処理を行う。CMYBkγ補正部20は画像記録部3
の周波数特性や文字/絵柄判定信号C/Pに基づいてγ
カーブを変更し,具体的には文字/絵柄判定信号C/P
が「0」(絵柄)の時には画像を忠実に再現するγに,
「0」以外の時にはγを立たせてコントラストを強調す
る。
The magnification unit 18 enlarges / reduces in the main scanning direction,
Perform 1: 1 processing. The CMYBk filter unit 19 is a filter of N × N pixels and performs a sharpening process or a smoothing process based on the frequency characteristics of the image recording unit 3 and the character / picture determination signal C / P. The CMYBkγ correction unit 20 is the image recording unit 3
Γ based on the frequency characteristics of the
The curve is changed, and specifically, the character / pattern determination signal C / P
Is “0” (picture), γ that faithfully reproduces the image
When the value is other than "0", the contrast is enhanced by setting γ.

【0030】階調処理部21は画像記録部3の階調特性
や文字/絵柄判定信号C/Pに基づいてディザ処理等の
量子化を行い,具体的には文字/絵柄判定信号C/Pが
「0」(絵柄)の時には階調重視の処理を行い,「0」
以外の時には解像度重視の処理を行う。
The gradation processing section 21 performs quantization such as dither processing based on the gradation characteristics of the image recording section 3 and the character / picture determination signal C / P. When the value is “0” (picture), gradation-oriented processing is performed and “0”
At times other than the above, resolution-oriented processing is performed.

【0031】文字/絵柄判定信号C/Pと有彩/無彩判
定信号B/Cに基づいた,各ブロック15〜21の文字
・絵柄処理の要約を以下に示す。
A summary of the character / picture processing of each of the blocks 15 to 21 based on the character / picture decision signal C / P and the chromatic / achromatic decision signal B / C is shown below.

【0032】 文字/絵柄判定信号C/P=「0」(絵柄)のとき RGBフィルタ部15 →平滑化処理 UCR部17 →スケルトンブラック CMYBkフィルタ部19→リニア(階調性)を重視し
たγカーブ選択 CMYBkγ補正部20 →画像を忠実に再現するγカ
ーブ選択 階調処理部21 →階調重視
When the character / picture determination signal C / P = “0” (picture) RGB filter section 15 → smoothing process UCR section 17 → skeleton black CMYBk filter section 19 → γ curve emphasizing linear (gradation) Selection CMYBk γ correction unit 20 → Gamma curve selection for faithfully reproducing images Gradation processing unit 21 → Gradation emphasis

【0033】 文字/絵柄判定信号C/P=「3」(文字)のとき RGBフィルタ部15 →強調処理 UCR部17 →フルブラック CMYBkフィルタ部19→強調処理 CMYBkγ補正部20 →γを立たせてコントラスト
を強調 階調処理部21 →解像度重視
When character / picture determination signal C / P = “3” (character) RGB filter section 15 → enhancement processing UCR section 17 → full black CMYBk filter section 19 → enhancement processing CMYBkγ correction section 20 → contrast by setting γ Tone processing unit 21 → emphasized resolution

【0034】文字/絵柄判定信号C/P=「3」(文
字)且つ有彩/無彩判定信号B/C=Hのとき(黒文字
処理) 黒文字の回りに位置ずれにより色が付くことを防止する
ためにYMCデータを印字しない。なお,このときのB
kデータのRGBフィルタを色文字のときより強めに行
って,くっきりさせてもよい。
When character / pattern determination signal C / P = “3” (character) and chromatic / achromatic determination signal B / C = H (black character processing) Prevention of color shift due to misalignment around black characters Do not print YMC data. In this case, B
The k-data RGB filter may be performed more strongly than in the case of color characters to make it clearer.

【0035】文字/絵柄判定信号C/P=「1」(絵
柄上の文字)のとき RGBフィルタ部15 →弱強調処理または入力デー
タをそのまま出力するスルー処理 UCR部17 →フルブラック,このときに
は,黒文字処理のような処理を行わず,YMCデータを
印字する。 CMYBkフィルタ部19→強調処理 CMYBkγ補正部20 →γを立たせてコントラスト
を強調 階調処理部21 →解像度重視
When the character / picture determination signal C / P is "1" (character on the picture) RGB filter section 15 → weak emphasis processing or through processing for directly outputting input data UCR section 17 → full black, in this case, YMC data is printed without processing such as black character processing. CMYBk filter section 19 → enhancement processing CMYBkγ correction section 20 → contrast enhancement by setting γ gradation processing section 21 → resolution emphasis

【0036】このように画像処理部2では,絵柄,文
字,絵柄上の文字の3種の処理を行うことができる。
As described above, the image processing section 2 can perform three types of processing of a pattern, a character, and a character on a pattern.

【0037】図3は,本発明の要部である原稿認識部1
3のブロック構成図を示す。
FIG. 3 shows a document recognition unit 1 which is a main part of the present invention.
FIG.

【0038】原稿認識部14は,図3に示す如く,大別
すると,線画らしさを検出する線画認識部14aと,原
稿の特定領域が有彩あるか無彩であるかを判定する色判
定部14bと,から構成される。なお,ここでは,原稿
読取部1の読み取り密度が400dpi程度の場合を例
として説明する。
As shown in FIG. 3, the document recognizing section 14 is roughly divided into a line drawing recognizing section 14a for detecting the likeness of a line drawing and a color determining section for determining whether a specific area of the document is chromatic or achromatic. 14b. Here, a case where the reading density of the document reading unit 1 is about 400 dpi will be described as an example.

【0039】線画認識部14aは,図示の如く,モノク
ロ化部41と,ラプラシアン部42と,パターンマッチ
ング部A43,B44,C45と,孤立点除去部A4
6,B47と,画素密度変換部A48,B49と,ペー
ジメモリA50,B51と,セレクタA52,B53
と,孤立ブロック除去部A54,B55と,膨張部A5
6,B57と,AND演算子58,59と,及びエッヂ
抽出部14cとを備えている。このエッヂ抽出部14c
は,白孤立点除去部61と,黒孤立点除去部62と,輪
郭抽出部63と,膨張縮小部64と,ラインディレイ6
5からなる。
As shown, the line drawing recognition unit 14a includes a monochrome conversion unit 41, a Laplacian unit 42, pattern matching units A43, B44, C45, and an isolated point removal unit A4.
6, B47, pixel density converters A48, B49, page memories A50, B51, selectors A52, B53.
, An isolated block removing section A54, B55, and an expanding section A5
6, B57, AND operators 58 and 59, and an edge extraction unit 14c. This edge extraction unit 14c
Is a white isolated point removing unit 61, a black isolated point removing unit 62, a contour extracting unit 63, an expansion / reduction unit 64, and a line delay 6
Consists of five.

【0040】また,線画認識部14aでは,膨張部A5
6とエッヂ抽出部14cとのAND出力が,系統Aから
文字/絵柄判定信号C/PのMSB(C/PA)として
出力され,他方,膨張部B57とエッヂ抽出部14cと
のAND出力が,系統Bから文字/絵柄判定信号C/P
のLSB(C/PB)として出力される。即ち,線画認
識部13aは,C/PAとC/PBを出力するが,C/
PA,C/PBが,(L,L)の時に文字/絵柄判定信
号C/Pの『0』,(L,H)の時に文字/絵柄判定信
号C/Pの『1』,(H,H)の時に文字/絵柄判定信
号C/Pの『3』とし,C/PAおよびC/PBを文字
/絵柄判定信号C/Pと呼ぶ。
In the line drawing recognition section 14a, the expansion section A5
6 and the edge extraction unit 14c are output from the system A as the MSB (C / PA) of the character / picture determination signal C / P, while the AND output of the expansion unit B57 and the edge extraction unit 14c is Character / Picture determination signal C / P from system B
Is output as the LSB (C / PB). That is, the line drawing recognition unit 13a outputs C / PA and C / PB,
When PA, C / PB is (L, L), the character / design determination signal C / P is “0”, and when PA, C / PB is (L, H), “1”, (H, At the time of H), the character / picture determination signal C / P is set to "3", and C / PA and C / PB are called the character / picture determination signal C / P.

【0041】色判定部14bは,有彩/無彩判定信号B
/Cを出力するが,その出力ロジックは,有彩領域であ
るとLを出力し,無彩領域であるとHを出力する。出力
結果は,4×4画素を1画素に対応させた信号である。
以下において出力結果の単位を1ブロックとする。な
お,色判定部14bは,図示の如く,色判定回路66
と,ページメモリC67と,及びセレクタC68とから
構成される。
The color judgment section 14b outputs a chromatic / achromatic judgment signal B
/ C is output, and its output logic outputs L when it is a chromatic area and outputs H when it is an achromatic area. The output result is a signal in which 4 × 4 pixels correspond to one pixel.
Hereinafter, the unit of the output result is one block. The color determination unit 14b includes a color determination circuit 66 as shown in the figure.
, A page memory C67, and a selector C68.

【0042】以上の構成において,本発明の要部である
線画認識部14aの各部の動作について詳細に説明す
る。
In the above configuration, the operation of each part of the line drawing recognition unit 14a, which is a main part of the present invention, will be described in detail.

【0043】モノクロ化部41は,RGBデータを輝度
データ等に変換することによりモノクロ化してラプラシ
アン部42に出力する。なお,輝度データの代わりに,
RGBデータの中で最も濃いデータを選択してもよい
し,また,Gデータを輝度データとして用いてもよい。
ここで,モノクロ化部41の出力データは数値が大きく
なると濃く,小さくなると薄いことを示す。
The monochrome conversion section 41 converts the RGB data into luminance data or the like, converts the data into monochrome, and outputs the monochrome data to the Laplacian section 42. Note that instead of the luminance data,
The darkest data among the RGB data may be selected, or the G data may be used as the luminance data.
Here, the output data of the monochrome conversion unit 41 indicates that the larger the numerical value is, the deeper the data is, and the smaller the numerical value is, the lighter the output data is.

【0044】ラプラシアン部42は,線画のエッヂを抽
出すると共に白領域と黒領域を検出し,白(w)領域を
検出することにより白地上の線画の抽出データとし,ま
た,黒(k)領域を検出することにより,黒字上の線画
の抽出データとする。
The Laplacian section 42 extracts the edge of the line drawing, detects a white region and a black region, and detects a white (w) region to obtain extracted data of a line drawing on a white background. Is detected, and is used as extracted data of a line drawing on a black character.

【0045】次に,図4〜図6を参照して,ラプラシア
ン部42による白領域抽出動作及び黒領域抽出動作を説
明する。図4は,図3の原稿認識部の参照画素を示す説
明図。図5は線画の断面図(画像データの濃度変化を示
す説明図)であり,白領域と黒領域と閾値との関係を示
す概念図である。図5において,THb は黒領域の閾値,
thw1は白領域の細線用閾値,thw2は白領域の太線用閾
値,thw3は白領域の補正用閾値を示す。図6は,図5の
画像データのエッヂ量(x)の関係を示す説明図であ
る。
Next, the white area extraction operation and the black area extraction operation by the Laplacian unit 42 will be described with reference to FIGS. FIG. 4 is an explanatory diagram showing reference pixels of the document recognition unit in FIG. 3; FIG. 5 is a cross-sectional view of a line drawing (an explanatory diagram showing a density change of image data), and is a conceptual diagram showing a relationship between a white region, a black region, and a threshold. In FIG. 5, THb is the threshold value of the black area,
thw1 indicates a threshold for a thin line in a white area, thw2 indicates a threshold for a thick line in a white area, and thw3 indicates a threshold for correction of a white area. FIG. 6 is an explanatory diagram showing the relationship between the edge amounts (x) of the image data in FIG.

【0046】先ず,白領域検出の動作について説明す
る。例えば,図4に示すマトリクスの内,3×3画素の
ブロックを用い,,以下のような論理により注目画素a
11を含む周辺データが閾値thw より小さいときに白領域
候補とする。 {(a00<thw )and (a01<thw )and (a02<thw
)and (a10<thw )and (a11<thw )and (a12
<thw )}or {(a10<thw )and (a11<thw )and
(a12<thw )and (a20<thw )and (a21<thw
)and (a22<thw )}or {(a00<thw )and (a
10<thw )and (a20<thw )and (a01<thw )and
(a11<thw )and (a21<thw )}or {(a01<thw
)and (a11<thw )and (a21<thw )and (a02
<thw )and (a12<thw )and (a22<thw )}
First, the operation of white area detection will be described. For example, a 3 × 3 pixel block in the matrix shown in FIG.
When the peripheral data including 11 is smaller than the threshold thw, it is determined as a white area candidate. {(A00 <thw) and (a01 <thw) and (a02 <thw
) And (a10 <thw) and (a11 <thw) and (a12
<Thw)} or} (a10 <thw) and (a11 <thw) and
(A12 <thw) and (a20 <thw) and (a21 <thw
) And (a22 <thw)} or {(a00 <thw) and (a
10 <thw) and (a20 <thw) and (a01 <thw) and
(A11 <thw) and (a21 <thw) {or} (a01 <thw
) And (a11 <thw) and (a21 <thw) and (a02)
<Thw) and (a12 <thw) and (a22 <thw)}

【0047】ここで,太線用と細線用の白領域候補を検
出するための閾値thw は異なる値を使用し,図5に示す
ように「太線用白領域候補」では一般的な白地の値thw2
を設定し,「細線用白領域候補」では一般的な白地より
やや低い(白寄りの)値thw1を設定する。その理由は絵
柄(印刷物の網点や複写機の万線)のハイライト(明る
いほう)が「白領域候補」になるのを避けるためであ
る。尚,このパターンは直交パターンの例を示すが,斜
めなどのパターンを追加しても良い。
Here, the threshold value thw for detecting the white area candidate for the thick line and the thin line uses a different value, and as shown in FIG. 5, the general white background value thw2 is used for the "white area candidate for the thick line".
Is set, and in the “thin line white area candidate”, a value thw1 that is slightly lower (closer to white) than a general white background is set. The reason is to avoid the highlight (brighter one) of the picture (halftone dot of the printed matter or line of the copying machine) from becoming a “white area candidate”. Although this pattern shows an example of an orthogonal pattern, an oblique pattern may be added.

【0048】次いで,白領域候補から更に白領域を算出
するために下式(1)のようにしてラプラシアンを求め
る。 x1 =a22×2−(a21+a23)×i x2 ={a22×4−(a11+a13+a31+a33)}×i/2+x1 x3 =a22×2−(a12+a32)+x2 ・・・・(1)
Next, in order to further calculate a white area from the white area candidates, a Laplacian is obtained as in the following equation (1). x1 = a22 * 2- (a21 + a23) * ix2 = {a22 * 4- (a11 + a13 + a31 + a33)} * i / 2 + x1 x3 = a22 * 2- (a12 + a32) + x2 (1)

【0049】ここで,iは主走査方向と副走査方向のM
TFの違いや,変倍や回転時の補正を行うための重み係
数である。このときのxの値が以下のような値であれば
白領域とする。 x−N<x3 <x+N ここでは,太線用と細線用の閾値は別個にしなくてもよ
い。
Here, i is M in the main scanning direction and the sub-scanning direction.
It is a weighting factor for performing a difference between TFs and correction during zooming and rotation. If the value of x at this time is as follows, it is regarded as a white area. x−N <x3 <x + N Here, the thresholds for the thick line and the thin line do not have to be separate.

【0050】このようにして,細線用白領域と太線用白
領域を検出する。これによって,絵柄上のハイライト側
の小網点や万線パターンを抽出しないように除去してい
る。
In this manner, the white area for thin lines and the white area for thick lines are detected. As a result, small halftone dots and line patterns on the highlight side of the picture are removed so as not to be extracted.

【0051】次に,「太線用白領域」の補正について説
明する。例えば,白黒反転した文字(白が文字で周囲が
黒)の原稿の場合には,複写機のような光学的読み取り
装置により読み取ると,フレア(白1点ではなく,周辺
が黒の影響を受ける)などにより白データが通常よりや
や黒寄りになることがある。このため,以下のような補
正を行う。
Next, the correction of the "white area for thick line" will be described. For example, in the case of an original of black-and-white inverted characters (white characters and black surroundings), when an original is read by an optical reading device such as a copying machine, flare (not one white point but the surroundings are affected by black) ), The white data may be slightly blacker than usual. Therefore, the following correction is performed.

【0052】例えば,白領域のマトリクスを3×3とし
た場合以下のような補正を行う。 {(a00<thw )and (a01 <thw )and (a02 <thw
)and(a10 <thw )and (a11 <thw )and (a12 <
thw )and(a20 <thw )and (a21 <thw )and (22
<thw )}
For example, when the matrix of the white area is 3 × 3, the following correction is performed. {(A00 <thw) and (a01 <thw) and (a02 <thw
) And (a10 <thw) and (a11 <thw) and (a12 <
thw) and (a20 <thw) and (a21 <thw) and (22
<Thw)}

【0053】これを「補正白領域候補」とし,上述した
ラプラシアンにより「補正白領域」を算出する。ここ
で,閾値thw は図5に示すように太線の閾値thw2より黒
寄りのthw3であり,また,Nは上述した太線用白領域の
値Nより小さくする。Nを小さくする理由は,白データ
の変化量が少ない安定したデータを抽出するためであ
る。これにより抽出した「補正白領域」を上述した「太
線用白領域」に補正し,これを「太線用補正白領域」と
する。つまり,「太線用補正白領域」とは「補正白領
域」か又は「太線用白領域」である。また,ここでも絵
柄上のハイライト側の小網点や万線パターンを抽出しな
いように除去している。
This is set as a “correction white area candidate”, and a “correction white area” is calculated from the Laplacian described above. Here, the threshold value thw is thw3 closer to black than the threshold value thw2 of the thick line as shown in FIG. 5, and N is set to be smaller than the value N of the white area for the thick line described above. The reason for reducing N is to extract stable data with a small amount of change in white data. The extracted “corrected white area” is corrected to the above-described “white area for thick line”, and is set as a “corrected white area for thick line”. That is, the “corrected white area for thick line” is the “corrected white area” or the “white area for thick line”. Also in this case, small halftone dots and line patterns on the highlight side on the picture are removed so as not to be extracted.

【0054】次に,黒領域検出動作について説明する。
図4に示すマトリックスの内,3×3画素のブロックを
用い,先ず,次のような論理により注目画素a11を含む
周辺データが閾値THb より大きいときに黒領域候補とす
る。 {(a00>THb )and (a01 >THb )and (a02 >THb
)and(a10 >THb )and (a11 >THb )and (a12 >
THb )}or{(a10>THb )and (a11 >THb )and
(a12 >THb )and(a20 >THb )and (a21 >THb )a
nd (a22 >THb )}or{(a00>THb )and (a10 >T
Hb )and (a20 >THb )and(a01 >THb )and (a11
>THb )and (a21 >THb )}or{(a01>THb )and
(a11 >THb )and (a21 >THb )and(a02 >THb )a
nd (a12 >THb )and (a22 >THb )}
Next, the black area detecting operation will be described.
A 3 × 3 pixel block in the matrix shown in FIG. 4 is used. First, when the peripheral data including the pixel of interest a11 is larger than the threshold value THb according to the following logic, it is determined as a black area candidate. {(A00> THb) and (a01> THb) and (a02> THb)
) And (a10> THb) and (a11> THb) and (a12>
THb)} or {(a10> THb) and (a11> THb) and
(A12> THb) and (a20> THb) and (a21> THb) a
nd (a22> THb) {or} (a00> THb) and (a10> T)
Hb) and (a20> THb) and (a01> THb) and (a11
> THb) and (a21> THb)} or {(a01> THb) and
(A11> THb) and (a21> THb) and (a02> THb) a
nd (a12> THb) and (a22> THb)}

【0055】ここで,「黒領域候補」の閾値THb は図5
に示すように,一般的な黒地の値(換言すれば,文字と
して強調したい濃度)を設定する(THb >thw3)。ま
た,このパターンは直交パターンであるが,斜めなどの
パターンを追加してもよい。
Here, the threshold value THb of the “black area candidate” is shown in FIG.
As shown in (1), a general black background value (in other words, the density to be emphasized as a character) is set (THb> thw3). Although this pattern is an orthogonal pattern, a pattern such as an oblique pattern may be added.

【0056】次いで,白の場合と同様に,黒領域候補か
ら更に,黒領域を算出するために前述した式(1)によ
りラプラシアンを求める。
Next, similarly to the case of white, a Laplacian is further obtained from the black region candidate by the above-described equation (1) in order to calculate a black region.

【0057】また,上記式(1)により図6に示すよう
なエッヂ量xを求める。ここで,式(1)における重み
係数iは,選択的な係数であり,ハードウェアを設計す
る際ゲート規模が小さくなるような係数 i=1 =1.115 =1 .25 =1.375 =1.5 =1.625 =1.775 =1.875 =2 に設定される(固定少数点演算)。
Further, the edge amount x as shown in FIG. 6 is obtained by the above equation (1). Here, the weighting coefficient i in the equation (1) is a selective coefficient, and a coefficient i = 1 = 1.115 = 1. 25 = 1.375 = 1.5 = 1.625 = 1.775 = 1.875 = 2 (fixed decimal point calculation).

【0058】また,このように係数iを設定することに
より,主走査方向と副走査方向のMTF(光学系と走行
系)などのぼけを修正することができる。ここで,主走
査方向と副走査方向のMTFは異なっており,また,複
写機では副走査方向の変倍を読み取り装置の読み取り面
積(速度)により行っているため,副走査方向のMTF
は変倍率に応じて異なる。メモリ部12において,画像
データの90度回転には,iも回転に応じた係数をセッ
トする。
By setting the coefficient i in this manner, blurring of the MTF (optical system and traveling system) in the main scanning direction and the sub-scanning direction can be corrected. Here, the MTF in the main scanning direction and the MTF in the sub-scanning direction are different, and in the copying machine, the magnification in the sub-scanning direction is determined by the reading area (speed) of the reading device.
Varies depending on the magnification. In the memory unit 12, for the 90-degree rotation of the image data, i is also set to a coefficient corresponding to the rotation.

【0059】そこで,本実施の形態では主走査方向の変
倍部17が原稿認識部13の後段であるので問題は発生
しない。更に,本実施形態では副走査方向の倍率が大き
いとき,例えば200%のときには式(1)に示すマト
リクスを選択可能にすることによりエッヂ量xを求める
ようにしてもよい。
Therefore, in the present embodiment, no problem occurs because the scaling section 17 in the main scanning direction is located after the document recognition section 13. Further, in this embodiment, when the magnification in the sub-scanning direction is large, for example, 200%, the edge amount x may be obtained by making the matrix shown in Expression (1) selectable.

【0060】すなわち,ラプラシアン部42は,後段の
パターンマッチング部A43,B44,C45,及びエ
ッヂ抽出部14cに対して,白領域記号w(太線用と細
線用)(白領域でH)と,黒領域記号k(黒領域でH)
とエッヂ量xを含む信号RAPを出力する。
That is, the Laplacian section 42 sends the white area symbol w (for the thick line and the thin line) (H for the white area) and the black area to the pattern matching sections A43, B44, C45 and the edge extraction section 14c at the subsequent stage. Area symbol k (H in black area)
And a signal RAP including the edge amount x.

【0061】次に,エッヂ抽出部14cによるエッヂ抽
出を説明する。エッヂ抽出部14cは,ラプラシアン部
42から出力される信号RAPからエッヂの抽出を行
う。図6に示すように,黒パターン(k)は黒領域また
はエッヂ量xが閾値THRbより大きいものをHとし,白パ
ターン(w)は,黒パターン以外である。
Next, edge extraction by the edge extraction unit 14c will be described. The edge extraction unit 14c extracts edges from the signal RAP output from the Laplacian unit 42. As shown in FIG. 6, the black pattern (k) is H when the black area or the edge amount x is larger than the threshold value THRb, and the white pattern (w) is other than the black pattern.

【0062】先ず,白孤立点除去部61について説明す
る。白孤立点除去部61は,孤立している白孤立点を除
去する。具体的には,下式により,注目画素が白で周辺
が黒の時,注目画素(白)を黒に補正する。下式におい
て中心画素をw22 とする。 ( k00 and k01 and k02 and k03 and k10 and k13 and k20 and w22 and k23 and k30 and k31 and k32 and k33 ) or ( k01 and k02 and k03 and k04 and k11 and k14 and k21 and w22 and k24 and k31 and k32 and k33 and k34 ) or ( k10 and k11 and k12 and k13 and k20 and w22 and k23 and k30 and k33 and k40 and k41 and k42 and k43 ) or ( k11 and k12 and k13 and k14 and k21 and w22 and k24 and k31 and k34 and k41 and k42 and k43 and k44 )
First, the white isolated point removing section 61 will be described. The white isolated point removing unit 61 removes isolated white isolated points. Specifically, when the target pixel is white and the periphery is black, the target pixel (white) is corrected to black by the following equation. In the following equation, the central pixel is w22. (K00 and k01 and k02 and k03 and k10 and k13 and k20 and w22 and k23 and k30 and k31 and k32 and k33) or (k01 and k02 and k03 and k04 and k11 and k14 and k21 and w22 and k24 and k31 and k32 and k33 and k34) or (k10 and k11 and k12 and k13 and k20 and w22 and k23 and k30 and k33 and k40 and k41 and k42 and k43) or (k11 and k12 and k13 and k14 and k21 and w22 and k24 and k31 and k34 and k41 and k42 and k43 and k44)

【0063】次に,黒孤立点除去部62について説明す
る。黒孤立点除去部62は,孤立している黒孤立点を除
去する。具体的には,下式により,注目画素が黒で周辺
が白の時,注目画素(黒)を白に補正する。下式におい
て注目画素をk01 とする。 ( k00 and k01 and k02 and k10 and k11 and k12 ) or ( k00 and k01 and k10 and k11 and k20 and k21 )
Next, the black isolated point removing section 62 will be described. The black isolated point removing unit 62 removes isolated black isolated points. Specifically, when the target pixel is black and the periphery is white, the target pixel (black) is corrected to white by the following expression. In the following equation, the pixel of interest is k01. (K00 and k01 and k02 and k10 and k11 and k12) or (k00 and k01 and k10 and k11 and k20 and k21)

【0064】続いて,輪郭抽出部63について説明す
る。輪郭抽出部63は,輪郭抽出を行う。黒と白の孤立
点除去をした後なので,良好に輪郭(エッヂ)抽出がで
きる。以下に輪郭抽出パターンの一例を示す。 w11 and ( k00 or k01 or k02 or k10 or k12 or k20
or k21 or k22 )
Next, the contour extracting unit 63 will be described. The contour extraction unit 63 performs contour extraction. Since the black and white isolated points have been removed, a good edge can be extracted. An example of the contour extraction pattern is shown below. w11 and (k00 or k01 or k02 or k10 or k12 or k20
or k21 or k22)

【0065】次に,膨張縮小部64について説明する。
膨張縮小部64は,輪郭の膨張縮小を行う。具体的に
は,膨張縮小部64は,孤立しているブロックを隣,ま
たは周辺のブロックと連結させるためにN×NのOR処
理(膨張処理)を行い,その後にM×MのAND処理
(収縮処理)を行う。そして,例えば5×5の補間処理
を行う。なお,N−Mが膨張処理である。
Next, the expansion / reduction unit 64 will be described.
The expansion / reduction unit 64 performs expansion / reduction of the contour. Specifically, the expansion / reduction unit 64 performs an N × N OR process (expansion process) to connect an isolated block to an adjacent or neighboring block, and then performs an M × M AND process ( (Shrinkage processing). Then, for example, 5 × 5 interpolation processing is performed. Note that NM is an expansion process.

【0066】一例として7×7(N=7)の膨張処理を
以下に示す。 a00 or a01 or a02 or a03 or a04 or a05 or a06 or a10 or a11 or a12 or a13 or a14 or a15 or a16 or a20 or a21 or a22 or a23 or a24 or a25 or a26 or a30 or a31 or a32 or a33 or a34 or a35 or a36 or a40 or a41 or a42 or a43 or a44 or a45 or a46
As an example, a 7 × 7 (N = 7) expansion process will be described below. a00 or a01 or a02 or a03 or a04 or a05 or a06 or a10 or a11 or a12 or a13 or a14 or a15 or a16 or a20 or a21 or a22 or a23 or a24 or a25 or a26 or a30 or a31 or a32 or a33 or a34 or a35 or a36 or a40 or a41 or a42 or a43 or a44 or a45 or a46

【0067】また,一例として3×3(M=3)ブロッ
クの収縮処理を以下に示す。 a00 and a01 and a02 and a10 and a11 and a12 and a20 and a21 and a22
Further, as an example, a contraction process of a 3 × 3 (M = 3) block will be described below. a00 and a01 and a02 and a10 and a11 and a12 and a20 and a21 and a22

【0068】これにより,孤立領域を減らして,膨張さ
せることができる。
Thus, the isolated area can be reduced and expanded.

【0069】ラインディレイ部65は,膨張部A56,
B57の出力結果と同期をとるために膨張縮小部からの
出力を遅延させてAND演算子58,59に出力する。
The line delay section 65 includes an expansion section A56,
In order to synchronize with the output result of B57, the output from the expansion / contraction section is delayed and output to AND operators 58 and 59.

【0070】次に,パターンマッチング部A43,B4
4,C45の動作について説明する。
Next, the pattern matching units A43, B4
4 and C45 will be described.

【0071】パターンマッチング部A43は,黒領域周
辺の白領域を抽出する。ここで白領域パターン(W)
は,補正太線用白領域の信号であり,黒パターン(K)
は黒領域信号とする。パターン例としては,下記の(7
×7)のようになる。
The pattern matching unit A43 extracts a white area around the black area. Where white area pattern (W)
Is the signal of the white area for the corrected thick line, and the black pattern (K)
Is a black area signal. As an example of the pattern,
× 7).

【0072】[ k12 and k13 and k14 and k22 and k23
and k24and k32 and k33 and k34and {( w52 and w5
3 and w54)or( w62 and w63 and w64)or ( w12 and
w13 and w14)or( w02 and w03 and w04)}]or[ k
21 and k31 and k41 and k22 and k32 and k42and k23
and k33 and k43and {( w25 and w35 and w45)or(
w26 and w36 and w46)or ( w21 and w31 and w41)or
( w20 and w30 and w40)}]
[K12 and k13 and k14 and k22 and k23
and k24and k32 and k33 and k34and {(w52 and w5
3 and w54) or (w62 and w63 and w64) or (w12 and
w13 and w14) or (w02 and w03 and w04)}] or [k
21 and k31 and k41 and k22 and k32 and k42and k23
and k33 and k43and {(w25 and w35 and w45) or (
w26 and w36 and w46) or (w21 and w31 and w41) or
(W20 and w30 and w40)}]

【0073】上記の例では,水平成分,垂直成分のみで
示したが,同様に斜め成分のパターンも抽出する。この
ように黒領域上の白領域を抽出する。黒領域が多いので
網点を線画と誤認識することなく,黒領域の線画を抽出
することが可能となる。
In the above example, only the horizontal component and the vertical component are shown, but similarly, the pattern of the oblique component is extracted. In this way, a white area on a black area is extracted. Since there are many black areas, it is possible to extract a line image of a black area without erroneously recognizing a halftone dot as a line image.

【0074】また,黒領域,太線補正用白領域,細線白
領域の大小関係を利用してコード化しても良い。コード
化の例として,黒領域をB,太線補正用白領域をW1,
細線白領域をW2として説明する。この場合,コード化
しないと3ビット×nラインとなるが,次のようにコー
ド化すると2ビット×nラインとなる。 Bの時 → コード『1』=(01) W2の時 → コード『2』=(02) W1でかつW2でない時 → コード『3』=(11) BでもW1でもW2でもない時 → コード『0』=(00)
The coding may be performed by utilizing the magnitude relation of the black area, the white area for thick line correction, and the white area of the thin line. As an example of the coding, the black area is B, the white area for thick line correction is W1,
The description will be made assuming that the thin line white area is W2. In this case, if it is not coded, it becomes 3 bits × n lines, but if it is coded as follows, it becomes 2 bits × n lines. When B → Code “1” = (01) When W2 → Code “2” = (02) When W1 and not W2 → Code “3” = (11) When neither B nor W1 or W2 → Code “ 0 ”= (00)

【0075】コードは『0』〜『3』であるので2ビッ
トで表現することができ,コードを展開する時は逆の処
理を行えば良い。また,大小関係は固定でなくとも良
く,入れ替えることができるようにした方が良いことは
勿論である。
Since the code is "0" to "3", it can be represented by 2 bits. When the code is expanded, the reverse process may be performed. In addition, the magnitude relation need not be fixed, but it is of course better to be able to exchange the magnitude relation.

【0076】尚,パターッチング部A43の処理の流れ
は,図10及び図11に示すフローチャートのようにな
る。図8及び図9に示すように,主走査方向方向X(=
i)及び副走査方向Y(=j)における注目画素Pij に
おいて,図10のフローチャートに示すように,副走査
方向カウンタjと主走査方向カウンタiをインクリメン
トしながらパターンマッチング処理を行う。
The processing flow of the putting section A43 is as shown in the flowcharts of FIGS. 10 and 11. As shown in FIGS. 8 and 9, the main scanning direction X (=
As shown in the flowchart of FIG. 10, the pattern matching process is performed while incrementing the sub-scanning direction counter j and the main scanning direction counter i at i) and the target pixel Pij in the sub-scanning direction Y (= j).

【0077】ここで,図11のフローチャートを参照し
てパターンマッチング処理(図10のパターンマッチン
グ処理)について説明する。先ず,前述したパターンに
一致するか否かパターンマッチングを行い(S1),一
致すると出力PM1(図2参照)はH(on)を出力し
(S2),不一致であれば,出力PM1はL(off)
を出力する(S3)。
Here, the pattern matching process (the pattern matching process in FIG. 10) will be described with reference to the flowchart in FIG. First, pattern matching is performed to determine whether or not the pattern matches the above-mentioned pattern (S1). If the pattern matches, the output PM1 (see FIG. 2) outputs H (on) (S2). off)
Is output (S3).

【0078】パターンマッチング部A43では,上記の
処理により,線画の太線部分のエッヂを抽出する。この
出力信号PM1はパターンマッチング部B44,C4
5,孤立点除去部A46,B47に印加される。
The pattern matching unit A43 extracts the edge of the thick line portion of the line drawing by the above processing. This output signal PM1 is supplied to the pattern matching units B44 and C4.
5, applied to the isolated point removing units A46 and B47.

【0079】パターンマッチング部B44は,細線の検
出を行う。ここで,細線とは1mm以下の線幅により構
成されている文字,線画を意味する。また,図6に示す
ように,黒パターン(k)は黒領域またはエッヂ量xが
閾値THRbより大きいものをHとし,白パターン(w)は
細線用白領域またはエッヂ量xが閾値THRwより小さい
(マイナス成分であるので絶対値は大きい)ものをHと
する。なお,閾値THRb,THRwは倍率や,原稿の種類(カ
ラー,白黒,印刷写真,印画紙写真,複写原稿,地図な
ど),調整キーなどで変更するようにしてもよい。エッ
ヂ成分で補正する理由は細線のコントラストを上げるた
めである。
The pattern matching section B44 detects a fine line. Here, a thin line means a character or a line drawing having a line width of 1 mm or less. As shown in FIG. 6, the black pattern (k) is H when the black area or the edge x is larger than the threshold THRb, and the white pattern (w) is the white area for thin lines or the edge x is smaller than the threshold THRw. (The absolute value is large because it is a negative component) is set to H. The thresholds THRb and THRw may be changed by the magnification, the type of the original (color, black and white, print photograph, photographic paper photograph, copy original, map, etc.), an adjustment key, or the like. The reason for the correction with the edge component is to increase the contrast of the thin line.

【0080】細線のパターンの一例としては,下記(7
×7)のようになる。 {( w22 and w23 and w24) or ( w02 and w03 and w
04)and w12 and w13 and w14and k32 and k33 and k34
and w52 and w53 and w54and( w42 and w43 and w44)
or ( w62 and w63 and w64)}or{( w22 and w32 a
nd w42) or ( w20 and w30 and w40)and w21 and w3
1 and w41and k23 and k33 and k43and w25 and w35 an
d w45and( w24 and w34 and w44) or ( w26 and w36
and w46)}or[( w12 and w13 and w14) or ( w02
and w03 and w04)and k32 and k33 and k34and{( k
22 and k23 and k24)or( k42 and k43 and k44)}an
d( w52 and w53 and w54) or ( w62 and w63 and w6
4)]or[( w21 and w31and w41 ) or ( w20 and w3
0 and w40)and k23 and k33 and k43and{( k22 and
k32 and k42) or ( k24 and k34 and k44)}and( w
25 and w35 and w45) or ( w26 and w36 and w46)]
As an example of the fine line pattern, the following (7)
× 7). {(W22 and w23 and w24) or (w02 and w03 and w
04) and w12 and w13 and w14and k32 and k33 and k34
and w52 and w53 and w54and (w42 and w43 and w44)
or (w62 and w63 and w64)} or {(w22 and w32 a
nd w42) or (w20 and w30 and w40) and w21 and w3
1 and w41and k23 and k33 and k43and w25 and w35 an
d w45and (w24 and w34 and w44) or (w26 and w36
and w46)} or [(w12 and w13 and w14) or (w02
and w03 and w04) and k32 and k33 and k34and {(k
22 and k23 and k24) or (k42 and k43 and k44)} an
d (w52 and w53 and w54) or (w62 and w63 and w6
4)] or [(w21 and w31and w41) or (w20 and w3
0 and w40) and k23 and k33 and k43and {(k22 and
k32 and k42) or (k24 and k34 and k44)} and (w
25 and w35 and w45) or (w26 and w36 and w46)]

【0081】ここでは,水平成分,垂直成分のみで示し
たが,同様に斜め成分のパターンも抽出する。このよう
に黒パターンの両側が白パターンで挟まれている場合
に,細線候補として抽出する。
Although only the horizontal component and the vertical component are shown here, the pattern of the diagonal component is similarly extracted. As described above, when both sides of the black pattern are sandwiched by the white patterns, they are extracted as thin line candidates.

【0082】なお,パターンマッチング部B44の処理
の流れは,図10および図12のフローチャートで示す
ようになる。図8及び図9に示すように,主走査方向方
向X(=i)及び副走査方向Y(=j)における注目画
素Pij において,図10のフローチャートに示すよう
に,副走査方向カウンタjと主走査方向カウンタiをイ
ンクリメントしながらパターンマッチング処理を行う。
The processing flow of the pattern matching unit B44 is as shown in the flowcharts of FIGS. As shown in FIGS. 8 and 9, at the pixel of interest Pij in the main scanning direction X (= i) and the sub-scanning direction Y (= j), as shown in the flowchart of FIG. The pattern matching process is performed while incrementing the scanning direction counter i.

【0083】ここで,図12のフローチャートを参照し
てパターンマッチング処理(図10のパターンマッチン
グ処理)について説明する。なお,MFBは状態変数で
あり,主走査の先端では0である。SFB(i)は,主
走査方向の1ライン分の配列であり,1ライン前の状態
変数である。
Here, the pattern matching process (the pattern matching process in FIG. 10) will be described with reference to the flowchart in FIG. Note that MFB is a state variable, and is 0 at the leading end of main scanning. SFB (i) is an array for one line in the main scanning direction, and is a state variable one line before.

【0084】先ず,現在の状態変数MFBと1ライン前
の状態変数SFB(i)とを比較する(S11)。ここ
でMFB<SFB(i)であれば,MFB=SFB
(i)として(S12),ステップS12へ進み,そう
でなければ,そのままステップS12へ進む。
First, the current state variable MFB is compared with the state variable SFB (i) one line before (S11). Here, if MFB <SFB (i), MFB = SFB
(I) (S12), the process proceeds to step S12; otherwise, the process directly proceeds to step S12.

【0085】ステップS12では,パターンマッチング
部A43からの出力PM1がonであるか否かを判定
し,PM1がonでなければ(すなわち,offであれ
ば),ステップS18へ進む。一方,PM1がonであ
れば,ステップS14〜S17でMFBの値が0より大
きければ,その値を変更する。具体的には,MFBが8
より大きければ16に設定し(S14,S15),MF
Bが0より大きく8より小さい場合には8に設定する。
In step S12, it is determined whether or not the output PM1 from the pattern matching unit A43 is on. If PM1 is not on (ie, if it is off), the process proceeds to step S18. On the other hand, if PM1 is on, if the value of MFB is larger than 0 in steps S14 to S17, the value is changed. Specifically, MFB is 8
If it is larger, it is set to 16 (S14, S15), and MF
If B is greater than 0 and less than 8, it is set to 8.

【0086】ステップS18では,白地領域であるか否
かを判定する。ここでの白地領域は,ラプラシアン部4
2の出力の細線用白領域をaとして,次のようになる時
に白地領域と判定する。
In step S18, it is determined whether or not the area is a white background area. The white background area here is the Laplacian part 4
The thin line white area of the output of No. 2 is assumed to be a, and it is determined to be a white background area when:

【0087】 a00 and a01 and a02 and a10 and a11 and a12 and a20 and a21 and a11A00 and a01 and a02 and a10 and a11 and a12 and a20 and a21 and a11

【0088】ステップS18において,白地領域と判定
された場合,パターンマッチング部B44の出力1およ
び出力2にL(off)を出力し(S19),MFB=
16に設定し(S20),ステップS36へ進む。
If it is determined in step S18 that the area is a white background area, L (off) is output to outputs 1 and 2 of the pattern matching unit B44 (S19), and MFB =
The value is set to 16 (S20), and the process proceeds to step S36.

【0089】一方,ステップS18において,白地領域
でないと判定された場合,前述した細線パターンと一致
するか否かによって細線パターンであるか否かを判定し
(S21),細線パターンでない場合には,パターンマ
ッチング部B44の出力1および出力2にL(off)
を出力し(S22),MFB=0であるか否かを判定し
(S23),MFB=0であればステップS36へ進
み,MFB=0でなければ,MFB=MFB−1を設定
して(S24),ステップS36へ進む。
On the other hand, if it is determined in step S18 that the area is not a white background area, it is determined whether or not the area is a thin line pattern by determining whether or not the area matches the above-described thin line pattern (S21). L (off) is applied to output 1 and output 2 of the pattern matching unit B44.
Is output (S22), and it is determined whether or not MFB = 0 (S23). If MFB = 0, the process proceeds to step S36. If not MFB = 0, MFB = MFB-1 is set ( S24), and proceed to step S36.

【0090】また,ステップS21において,細線パタ
ーンである場合には,MFB>8であるか否か判定し
(S25),8より大きければ,パターンマッチング部
B44の出力1および出力2にH(on)を出力し(S
26),さらにステップS28,S29で,MFB>1
6であればMFB=16に設定し,MFB>16でなけ
ればそのままステップS36へ進む。
If it is determined in step S21 that the pattern is a thin line pattern, it is determined whether MFB> 8 (S25). If MFB> 8, the output 1 and output 2 of the pattern matching unit B44 are set to H (on). ) Is output (S
26), and in steps S28 and S29, MFB> 1
If MFB = 6, MFB = 16 is set, and if MFB> 16, the process proceeds directly to step S36.

【0091】また,ステップS25で8より大きくなけ
れば,MFB=0であるか否かを判定し(S30),M
FB=0であれば,パターンマッチング部305Bの出
力1および出力2にL(off)を出力し(S31),
ステップS36へ進み,MFB=0でなければ,パター
ンマッチング部305Bの出力1にL(off)を出力
し,出力2にH(on)を出力し(S32),MFB=
MFB+4(ただし,MFBが16以上になる場合に
は,16にする)を設定して(S33),さらにステッ
プS34,S35で,MFB>8であればMFB=8に
設定し,MFB>8でなければそのままステップS36
へ進む。
If it is not larger than 8 in step S25, it is determined whether or not MFB = 0 (S30).
If FB = 0, L (off) is output to output 1 and output 2 of pattern matching section 305B (S31),
Proceeding to step S36, if MFB is not 0, L (off) is output as output 1 of the pattern matching unit 305B, H (on) is output as output 2 (S32), and MFB =
MFB + 4 (however, if MFB is 16 or more, set to 16) (S33), and in steps S34 and S35, if MFB> 8, set MFB = 8 if MFB> 8, and set MFB> 8 if MFB> 8. If not, step S36
Proceed to.

【0092】ステップS36では,SFB(i)=MF
Bに設定し,1ライン前の状態変数SFB(i)を更新
する。次に,ステップS37で,SFB(i)>SFB
(i−1)を判定する。これは更新した1ライン前のデ
ータと,更新した1ライン1画素前のデータとの比較で
ある。1ライン前のデータSFB(i)が大きければ,
SFB(i−1)=SFB(i)を設定し(S38),
処理を終了する。
In step S36, SFB (i) = MF
B, and updates the state variable SFB (i) one line before. Next, in step S37, SFB (i)> SFB
(I-1) is determined. This is a comparison between the updated data one line before and the updated data one pixel before one line. If the data SFB (i) one line before is large,
SFB (i-1) = SFB (i) is set (S38),
The process ends.

【0093】この処理を主走査方向に順次行うと,状態
変数MFBは図9に示す3つの矢印方向〜に伝播す
る。すなわちステップS36に示す更新処理(SFB
(i)=MFB)により,下方向のように,P(i,
j)からP(i+1,j)に伝播し,ステップS38に
示す処理{SFB(i)=SFB(i−1)}により,
斜め左下方向のように,P(i,j)からP(i+
i,j+1)に伝播する。このことより,ステップS1
8の白地領域判定またはステップS13のパターンマッ
チング部A43からの出力PM1の判定結果に応じて,
状態変数をセットすることにより,白地上の極細線を検
出することが可能となり,絵柄上の網点を誤抽出するこ
とがなくなる。さらにステップS21の細線パターンの
マッチングにより,状態変数を再セットするので,文字
の塊も良好に抽出することが可能となる。
When this processing is sequentially performed in the main scanning direction, the state variable MFB propagates in three arrow directions shown in FIG. That is, the update process (SFB) shown in step S36
(I) = MFB), P (i,
j) to P (i + 1, j), and by the processing {SFB (i) = SFB (i−1)} shown in step S38,
As shown in the diagonally lower left direction, P (i, j) to P (i +
i, j + 1). From this, step S1
8 or the determination result of the output PM1 from the pattern matching unit A43 in step S13,
By setting the state variables, it becomes possible to detect a fine line on a white background, and it is possible to prevent halftone dots on a picture from being erroneously extracted. Furthermore, since the state variables are reset by the thin line pattern matching in step S21, it is possible to satisfactorily extract chunks of characters.

【0094】また,状態変数で,パターンマッチング部
B44の出力1,出力2を異ならせて出力するので,白
地上の文字と網点上の文字を切りわけて出力することが
可能となる。
Since the output and output 2 of the pattern matching unit B44 are output differently using the state variables, it is possible to output the characters on the white background and the characters on the halftone dots separately.

【0095】また,図9から明らかなように,副走査の
矢印方向は0または+(プラス)方向であるので,ライ
ン単位(主走査1ライン毎)に行う処理には,1ライン
分の状態変数とパターンマッチングで必要なライン数の
メモリを備えるだけで足り,ページメモリ等を備えるこ
となく容易に実現することができる。
Further, as is apparent from FIG. 9, since the arrow direction of the sub-scan is 0 or + (plus) direction, the processing performed for each line (each main scanning line) requires It is sufficient to provide only the required number of lines of memory for variables and pattern matching, and it can be easily realized without providing a page memory or the like.

【0096】なお,パターンマッチング部B44は,図
2に示すように,出力1を孤立点除去部部A46に出力
し,出力2を孤立点除去部B47に出力する。出力1と
出力2との違いは,状態変数の違いである。これによっ
て,例えば,図7に示すように,罫線の枠の内部に文字
(あ,い,う等)が記述されており,さらに枠の内部が
網点の場合,罫線の枠は出力1,出力2とも細線と判断
して,網点上の文字は状態変数の大きい出力2のみが細
線と判断することが可能となる。
As shown in FIG. 2, the pattern matching section B44 outputs the output 1 to the isolated point removing section A46, and outputs the output 2 to the isolated point removing section B47. The difference between output 1 and output 2 is the difference in state variables. Thereby, for example, as shown in FIG. 7, characters (A, I, U, etc.) are described inside the frame of the ruled line, and when the inside of the frame is a halftone dot, the frame of the ruled line is output 1, The output 2 is determined to be a thin line, and only the output 2 having a large state variable can be determined to be a thin line for a character on a halftone dot.

【0097】パターンマッチング部C45は,反転細線
の検出を行う。ここでは黒地上の白抜きの細線を検出す
ることを目的とする。ハード構成は,パターンマッチン
グ部A43,B44と同一である。だたし,入力データ
の黒と白が逆となる。細線のパターンと白地領域は論理
が逆となり,白領域は黒領域となる。パターンマッチン
グは,黒領域に囲まれた白領域となり,抽出する閾値
は,別途に必要となる。このようにすることで,反転細
線を良好に抽出することが可能となる。尚,パターンマ
ッチング部C45は,反転細線を検出して,孤立点除去
部A46,B47に出力する。
The pattern matching section C45 detects a reversed fine line. Here, the purpose is to detect a thin white line on a black ground. The hardware configuration is the same as that of the pattern matching units A43 and B44. However, the black and white of the input data are reversed. The logic of the thin line pattern and the white background area are reversed, and the white area is a black area. In the pattern matching, a white area surrounded by a black area is obtained, and a threshold value to be extracted is separately required. By doing so, it is possible to satisfactorily extract the inverted fine line. The pattern matching unit C45 detects the inverted fine line and outputs it to the isolated point removing units A46 and B47.

【0098】次に,孤立点除去部A46,B47につい
て説明する。孤立点除去部部A46とB47は,どちら
も同一の回路からなる。孤立点除去部A46の入力デー
タは,パターンマッチング部A43の出力PM1,パタ
ーンマッチング部B44の出力1,及びパターンマッチ
ング部C45の出力であり,孤立点除去部B47の入力
データは,パターンマッチング部A43の出力PM1,
パターンマッチング部B44の出力2,及びパターンマ
ッチング部C45の出力である。孤立点除去部A46,
B47において,線画は連続した線から成るので,孤立
点を除去する。孤立点とは,網点を線画と誤検出した場
合に生じる。
Next, the isolated point removing units A46 and B47 will be described. Both the isolated point removing units A46 and B47 are composed of the same circuit. The input data of the isolated point removing unit A46 is the output PM of the pattern matching unit A43, the output 1 of the pattern matching unit B44, and the output of the pattern matching unit C45. The input data of the isolated point removing unit B47 is the pattern matching unit A43. Output PM1,
These are the output 2 of the pattern matching unit B44 and the output of the pattern matching unit C45. Isolated point removing unit A46,
In B47, since the line drawing is composed of continuous lines, isolated points are removed. An isolated point occurs when a halftone dot is erroneously detected as a line image.

【0099】なお,孤立点除去部A46,B47では,
パターンマッチング部A43,B44,C45のいずれ
か1つが抽出パターンであれば抽出パターンとする。孤
立点除去部A46,B47は,例えば,4×4のマトリ
クスを用いたパターンマッチングにおいて抽出パターン
が2以上の場合には,中心画素(a22 でもa33 でもよ
い)を抽出パターンとして補正して出力Hを出力する
(抽出パターンとする)。このことにより,孤立点を除
去すると同時に,膨張(拡大)している。図3に示すよ
うに,孤立点除去部A46,B47の出力は,PM2,
PM3である。
In the isolated point removing units A46 and B47,
If any one of the pattern matching units A43, B44, C45 is an extraction pattern, it is determined as an extraction pattern. For example, when the number of extracted patterns is two or more in pattern matching using a 4 × 4 matrix, the isolated point removing units A46 and B47 correct the center pixel (a22 or a33) as an extracted pattern and output H. Is output (as an extraction pattern). As a result, the isolated points are removed and, at the same time, they are expanded (expanded). As shown in FIG. 3, the outputs of the isolated point removing units A46 and B47 are PM2,
PM3.

【0100】次に,画素密度変換部A48,B49につ
いて説明する。画素密度変換部A48,B49も共に同
一ロジック回路で構成されている。ここで,前段までの
回路では画素単位で処理していたが,この画素密度変換
部A48,B49ではブロック(4×4画素)単位で処
理を行うために画素単位のデータをブロック単位のデー
タに変換する。この変換では,4×4の単純間引き処理
を行うが,孤立点除去部A48,B49において実質上
4×4の膨張処理も行っているのでデータの欠落は生じ
ない。尚,画素密度変換部A48の出力は,ページメモ
リA50とセレクタA52に印加され,画素密度変換部
B49の出力は,ページメモリB51とセレクタB53
に印加される。
Next, the pixel density conversion units A48 and B49 will be described. The pixel density conversion units A48 and B49 are also formed of the same logic circuit. Here, in the circuits up to the previous stage, processing is performed in pixel units. However, in the pixel density conversion units A48 and B49, in order to perform processing in block (4 × 4 pixel) units, data in pixel units is converted into data in block units. Convert. In this conversion, a simple 4 × 4 thinning-out process is performed. However, since the isolated point removing units A48 and B49 also perform a substantially 4 × 4 expansion process, data loss does not occur. The output of the pixel density converter A48 is applied to the page memory A50 and the selector A52, and the output of the pixel density converter B49 is applied to the page memory B51 and the selector B53.
Is applied to

【0101】次に,ページメモリA50,B51,及び
C67(色判定部14bのページメモリ)について説明
する。ページメモリA50,B51およびC67の回路
は,いずれも同一機能である。ページメモリA50は,
画素密度変換部A48の出力結果を入力し,ページメモ
リB51は画素密度変換部B49の出力結果を入力し,
ページメモリC67は色判定回路66の出力結果を入力
する。
Next, the page memories A50, B51, and C67 (page memory of the color determination unit 14b) will be described. The circuits of the page memories A50, B51 and C67 all have the same function. The page memory A50 is
The output result of the pixel density conversion unit A48 is input, and the page memory B51 receives the output result of the pixel density conversion unit B49.
The page memory C67 receives the output result of the color determination circuit 66.

【0102】ページメモリA50,B51及びC67
は,例えば,主走査方向1200ドット×副走査方向1
736ライン(約2MB)で構成され,解像度を主・副
走査方向共に16ドット/mmとするA3サイズおよび
DLT用紙より大きなサイズを有する。第1スキャン時
に入力データをブロック(4×4画素)単位でページメ
モリA50,B51及びC67に記憶すると同時に,セ
レクタA52,B53およびC68を介して出力され
る。第2スキャン以降では,第1スキャン時にページメ
モリA50,B51及びC67に記憶されている判定結
果がセレクタA52,B53及びC67を介して出力さ
れる。すなわち,第1スキャンにおける色判定結果や線
画抽出の処理データが第2スキャン以降において用いら
れるので,スキャン毎の色判定結果(B/C),線画抽
出結果(C/P)のパラツキをなくすことができる。
The page memories A50, B51 and C67
Is, for example, 1200 dots in the main scanning direction × 1 in the sub-scanning direction.
It is composed of 736 lines (approximately 2 MB), and has an A3 size with a resolution of 16 dots / mm in both the main and sub-scanning directions and a size larger than DLT paper. At the time of the first scan, the input data is stored in the page memories A50, B51 and C67 in block (4 × 4 pixel) units, and at the same time, is output via the selectors A52, B53 and C68. After the second scan, the judgment results stored in the page memories A50, B51 and C67 at the time of the first scan are output via the selectors A52, B53 and C67. That is, since the color determination result in the first scan and the line drawing extraction processing data are used in the second and subsequent scans, there is no variation in the color determination result (B / C) and line drawing extraction result (C / P) for each scan. Can be.

【0103】次に,孤立点除去部A54,B55につい
て説明する。孤立ブロック除去部A54,B55は,同
一の回路であって同一の機能を示す。セレクタA52,
B53からの出力データにおいて,周辺データから孤立
しているブロックを除去する。具体的には,例えば,5
×5のブロックのマトリックスで,中心ブロックのみが
on(H)で他がoff(L)である時このブロックは
孤立しているので,offとして出力Lを出力する。o
nとは抽出パターンを意味する。このことにより,周辺
データから孤立しているブロックを除去する。
Next, the isolated point removing units A54 and B55 will be described. The isolated block removing units A54 and B55 are the same circuit and have the same function. Selector A52,
In the output data from B53, blocks isolated from the peripheral data are removed. Specifically, for example, 5
In a matrix of × 5 blocks, when only the center block is on (H) and the others are off (L), this block is isolated, and the output L is output as off. o
n means an extraction pattern. As a result, blocks isolated from the peripheral data are removed.

【0104】次に,膨張部A58,B59について説明
する。膨張部A58,B59は,同一回路で同一機能を
示す。ここでは,N×NのOR処理(膨張)をして,そ
の後にM×MのAND処理を行う(縮小)。そして,5
×5の補間処理を行う。M−Nが膨張量となる。
Next, the expansion portions A58 and B59 will be described. The expansion portions A58 and B59 have the same function in the same circuit. Here, N × N OR processing (expansion) is performed, and then M × M AND processing is performed (reduction). And 5
× 5 interpolation processing is performed. MN is the expansion amount.

【0105】MとNはN>Mである。ここでOR処理を
するのは,孤立しているブロックを隣または周辺のブロ
ックと連結させるためである。例として,3×3ブロッ
ク(12×12画素に対応)の膨張例を示す。 a00 or a01 or a02 or a10 or a11 or a12 or a20 or a21 or a22
M and N satisfy N> M. The reason why the OR processing is performed here is to connect an isolated block to an adjacent or neighboring block. As an example, an example of expansion of a 3 × 3 block (corresponding to 12 × 12 pixels) is shown. a00 or a01 or a02 or a10 or a11 or a12 or a20 or a21 or a22

【0106】その後に,5×5画素のAND処理(収
縮)を施す。以下にその例を示す。 a00 and a01 and a02 and a03 and a04 and a10 and a11 and a12 and a13 and a14 and a20 and a21 and a22 and a23 and a24 and a30 and a31 and a32 and a33 and a34 and a40 and a41 and a42 and a43 and a44
Thereafter, AND processing (reduction) of 5 × 5 pixels is performed. An example is shown below. a00 and a01 and a02 and a03 and a04 and a10 and a11 and a12 and a13 and a14 and a20 and a21 and a22 and a23 and a24 and a30 and a31 and a32 and a33 and a34 and a40 and a41 and a42 and a43 and a44

【0107】その後に100dpiのギザギザが残って
いるので,補間処理を行う。図13に補間処理の例を示
す。図13において実線は100dpiの補正前のギザ
キザを示し,破線が補正後の出力を示す。例えば,5×
5のマトリックスにおいて以下のようになる。線画抽出
したデータが以下の論理式を満たす時,注目画素a22の
データを反映(補正)する。 (パターン1 and!パターン2)or(パターン3 and!
パターン4) パターン1,2,3,4の詳細は以下のようになる。な
お,ここで!は不定演算子を示す。
Thereafter, since the jaggies of 100 dpi remain, interpolation processing is performed. FIG. 13 shows an example of the interpolation processing. In FIG. 13, the solid line indicates the jaggedness before the correction of 100 dpi, and the broken line indicates the output after the correction. For example, 5 ×
In a matrix of 5: When the line drawing extracted data satisfies the following logical expression, the data of the target pixel a22 is reflected (corrected). (Pattern 1 and! Pattern 2) or (Pattern 3 and!
Pattern 4) Details of patterns 1, 2, 3, and 4 are as follows. In addition, here! Indicates an indefinite operator.

【0108】パターン1 (a00 and a02 and !a04 and a20 and a22 and !a24a
nd !a40 and !a42 and !a44 )or(!a00 and a02 a
nd a04 and !a20 and a22 and a24and !a40 and !a4
2 and !a44 )or(!a00 and !a02 and !a04 and a2
0 and a22 and !a24and a40 and a42 and !a44 )or
(!a00 and !a02 and !a04 and !a20 and a22 and
a24and !a40 and a42 and a44 )
Pattern 1 (a00 and a02 and! A04 and a20 and a22 and! A24a
nd! a40 and! a42 and! a44) or (! a00 and a02a
nd a04 and! a20 and a22 and a24and! a40 and! a4
2 and! a44) or (! a00 and! a02 and! a04 and a2
0 and a22 and! a24and a40 and a42 and! a44) or
(! A00 and! A02 and! A04 and! A20 and a22 and
a24and! a40 and a42 and a44)

【0109】パターン2 (a11 and a12 and a13 and a21 and a22 and a23and a
31 and a32 and a33 )
Pattern 2 (a11 and a12 and a13 and a21 and a22 and a23and a
31 and a32 and a33)

【0110】パターン3 (!a00 and !a02 and a04 and !a20 and !a22 and
a24and a40 and a42 and a44 )or(a00 and !a02
and !a04 and a20 and !a22 and !a24and a40 and
a42 and a44 )or(a00 and a02 and a04 and !a2
0 and !a22 and a24and !a40 and !a42 and a44 )o
r(a00vand a02 and a04 and a20 and !a22 and !a24
and a40 and !a42 and !a44 )
Pattern 3 (! A00 and! A02 and a04 and! A20 and! A22 and
a24and a40 and a42 and a44) or (a00 and! a02
and! a04 and a20 and! a22 and! a24and a40 and
a42 and a44) or (a00 and a02 and a04 and! a2
0 and! a22 and a24and! a40 and! a42 and a44) o
r (a00vand a02 and a04 and a20 and! a22 and! a24
and a40 and! a42 and! a44)

【0111】パターン4 (!a11 and !a12 and !a13 and !a21 and !a22 an
d !a23and!a31 and !a32 and !a33 )
Pattern 4 (! A11 and! A12 and! A13 and! A21 and! A22 an
d! a23and! a31 and! a32 and! a33)

【0112】このように,抽出パターンを膨張すること
により,文字の交点などを繋ぎ,さらに線画とその周辺
を線画処理する。上述のパターンマッチングは十字の交
点を抽出できないが,この膨張処理により連結すること
ができる。また,線画とその周辺を線画と見なすのは,
黒文字処理と空間フィルタを良好に作用させるためであ
る。
As described above, by expanding the extracted pattern, the intersections of the characters and the like are connected, and the line drawing and the periphery thereof are subjected to line drawing processing. In the above-described pattern matching, cross points of crosses cannot be extracted, but they can be connected by this dilation processing. The line drawing and its surroundings are regarded as line drawing because
This is to make the black character processing and the spatial filter work well.

【0113】このことにより,特に,カタログの使用期
間・仕様表のように罫線の中に網点があっても良好に罫
線を抽出できる。また,白地を含む罫線を文字として抽
出し,網点上の文字は白地上の文字と別の判定結果を出
力するので,白地上の文字と網点上の文字を識別して別
の処理を行うことが可能となる。さらに,黒字上の白抜
き細線も良好となる。
As a result, a ruled line can be satisfactorily extracted even if there is a halftone dot in the ruled line as in the catalog usage period / specification table. In addition, the ruled lines including the white background are extracted as characters, and the characters on the halftone dot are output as different judgment results from the characters on the white background. It is possible to do. Furthermore, the white thin line on the black character is also good.

【0114】さて,AND演算子58,59は,それぞ
れ,膨張部A56,B57の出力とエッヂ抽出部14c
の出力とのAND処理を行い,系統Aから文字/絵柄判
定信号C/PのMSB(C/P・A)として出力され,
系統Bから文字/絵柄判定信号C/PのLSB(C/P
・B)として出力される。即ち,文字領域(C/PA,
B)とした部分とエッヂ抽出した400DPIの信号A
NDすることにより,文字のエッヂを良好に抽出するこ
とが可能となる。400DPIのエッヂ抽出により,エ
ッヂの位置精度が良くなる。ここで,400DPIの信
号を孤立点除去部A46や孤立点除去部B47の出力で
なく,単にエッヂとしているのはメモリに蓄えないの
で,スキャン毎に,データのバラ付きが少ないように比
較的単純なエッヂ信号としている。
The AND operators 58 and 59 respectively output the outputs of the expansion units A56 and B57 and the edge extraction unit 14c.
Is output from the system A as the MSB (C / PA) of the character / pattern determination signal C / P.
LSB (C / P) of character / picture determination signal C / P from system B
-Output as B). That is, the character area (C / PA,
B) and the edge of the extracted 400 DPI signal A
By performing the ND, it is possible to satisfactorily extract the edge of the character. Edge position accuracy is improved by extracting edges at 400 DPI. Here, the signal of 400 DPI is not stored in the memory because it is not output from the isolated point removing unit A46 or the isolated point removing unit B47, but is simply stored as an edge. Edge signal.

【0115】〔実施の形態2〕実施の形態2は,実施の
形態1の図3で示した線画認識部14aのパターンマッ
チング部B44の出力の条件を変えたものである。な
お,基本的な構成および動作は実施の形態1と同様に付
き,ここでは異なる部分のみを説明する。
[Embodiment 2] In Embodiment 2, the output condition of the pattern matching unit B44 of the line drawing recognition unit 14a shown in FIG. 3 of Embodiment 1 is changed. The basic configuration and operation are the same as those in the first embodiment, and only different portions will be described here.

【0116】実施の形態1では,パターンマッチング部
B44で行う細線パターンマッチングにおいて,状態変
数によって出力1および出力2を設定しているが,実施
の形態2では,さらに出力2の設定条件を追加して絵柄
上の文字(罫線)を抽出できるようにするものでる。
In the first embodiment, in the fine line pattern matching performed by the pattern matching unit B44, the output 1 and the output 2 are set according to the state variable. In the second embodiment, the setting condition of the output 2 is further added. To extract characters (ruled lines) on the picture.

【0117】図14は,実施の形態2のパターンマッチ
ング処理(パターンマッチング部B44)のフローチャ
ートを示す。図10に示した実施の形態1のフローチャ
ートと同一の符号は共通の処理を示すため,ここでは異
なるのみを説明する。図14に示すステップS11〜S
38は図12と同一であるが,ステップS21とS22
〜S24,S32の間にステップS41〜S44が追加
されている。
FIG. 14 shows a flowchart of the pattern matching processing (pattern matching section B44) according to the second embodiment. Since the same reference numerals as those in the flowchart of the first embodiment shown in FIG. 10 indicate common processing, only different points will be described here. Steps S11 to S shown in FIG.
38 is the same as FIG. 12, except that steps S21 and S22
Steps S41 to S44 are added between steps S24 and S32.

【0118】ステップS21において,先ず,前述した
細線パターンであるか否かを判定し,細線パターンでな
い場合には,以下に示す細線パターン1と一致するか否
かを判定する(S41)。
In step S21, first, it is determined whether or not the pattern is the above-described fine line pattern. If the pattern is not a fine line pattern, it is determined whether or not the pattern matches the following fine line pattern 1 (S41).

【0119】細線パターン1は,前述した細線パターン
と同一のもの使用するが,同一でなくても良い。ここで
黒パターン(k)は,黒領域またはエッヂ量が閾値THRb
(図6参照)より大きいものをHとする。また,白パタ
ーン(w)は,細線用白領域またはエッヂ量が閾値THRw
より小さい(マイナス成分であるので絶対値は大きい)
ものをHとする。すなわち,エッヂ量成分で補正するの
は細線のコントラストを上げるためである。THRb,THRw
の少なくとも一方は,細線パターンマッチングより抽出
し易い値にする。ただし,細線パターンと細線パターン
1のパターンマッチングのパターンが異なる時は,抽出
結果が細線パターンの方が抽出し易いようにしておく。
As the fine line pattern 1, the same fine line pattern as described above is used, but it need not be the same. Here, the black pattern (k) has a threshold value THRb for the black area or edge amount.
(See FIG. 6) A larger one is designated as H. The white pattern (w) has a thin line white area or an edge amount of a threshold THRw.
Less than (absolute value is large because it is a negative component)
Let H be something. That is, the correction with the edge amount component is for increasing the contrast of the fine line. THRb, THRw
Is set to a value that is easier to extract than fine line pattern matching. However, when the pattern of the pattern matching between the fine line pattern and the fine line pattern 1 is different, the extraction result should be such that the fine line pattern is easier to extract.

【0120】ステップS41で,細線パターン1と一致
しない場合は,パターンマッチング部B44の出力1お
よび出力2としてL(off)を出力し(S22),M
FB=0であるか否かを判定し(S23),MFB=0
であればステップS36へ進み,MFB=0でなけれ
ば,MFB=MFB−1を設定して(S24),ステッ
プS36へ進む。
In step S41, if they do not match the fine line pattern 1, L (off) is output as output 1 and output 2 of the pattern matching unit B44 (S22), and M
It is determined whether or not FB = 0 (S23), and MFB = 0
If so, the process proceeds to step S36. If MFB is not 0, MFB = MFB-1 is set (S24), and the process proceeds to step S36.

【0121】一方,ステップS41で,細線パターン1
と一致する場合は,MFB>8であるか否かを判定し
(S42),状態変数MFBが8より大きければ,パタ
ーンマッチング部B44の出力1としてL(off)を
出力し,出力2としてH(on)を出力し(S44),
MFB=MFB−1を設定して(S24),ステップS
36へ進む。また,状態変数MFBが8より大きくなけ
れば,MFB=0であるか否かを判定し(S43),M
FB=0でなければステップS32へ進み,MFB=0
であれば,パターンマッチング部305Bの出力1およ
び出力2にL(off)を出力し(S22),再度,M
FB=0であるか否かを判定し(S23),MFB=0
であればステップS36へ進み,MFB=0でなけれ
ば,MFB=MFB−1を設定して(S24),ステッ
プS36へ進む。
On the other hand, in step S41, the fine line pattern 1
If the state variable MFB is larger than 8, it is determined whether MFB> 8 (S42). If the state variable MFB is larger than 8, L (off) is output as the output 1 of the pattern matching unit B44, and H is output as the output 2. (On) is output (S44),
MFB = MFB-1 is set (S24), and step S24 is executed.
Proceed to 36. If the state variable MFB is not larger than 8, it is determined whether or not MFB = 0 (S43).
If FB = 0, the process proceeds to step S32, where MFB = 0.
Then, L (off) is output to the output 1 and the output 2 of the pattern matching unit 305B (S22), and M is output again.
It is determined whether or not FB = 0 (S23), and MFB = 0
If so, the process proceeds to step S36. If MFB is not 0, MFB = MFB-1 is set (S24), and the process proceeds to step S36.

【0122】また,細線パターンマッチングと細線パタ
ーンマッチング1,閾値THRwおよびTHRbは大小関係を利
用してコード化しても良い。コード化の例としては,細
線パターンのTHRw,THRbをそれぞれTHRw,THRb,とし,
細線パターン1のTHRw,THRbをそれぞれTHRw1 ,THRb1
として,その大小関係を THRw<THRw1 <THRb1 =THRb とすると,この場合,コード化しないと4または3ビッ
ト×nラインとなるが,次のようにコード化すると2ビ
ット×nラインとなる。
Further, the fine line pattern matching and the fine line pattern matching 1, the threshold values THRw and THRb may be coded using a magnitude relation. As an example of coding, THRw and THRb of the thin line pattern are THRw and THRb, respectively.
THRw and THRb of the fine line pattern 1 are THRw1 and THRb1 respectively.
Assuming that the magnitude relationship is THRw <THRw1 <THRb1 = THRb, in this case, if coding is not performed, 4 or 3 bits × n lines are obtained. However, if coding is performed as follows, 2 bits × n lines are obtained.

【0123】 P<THRw → コード『0』 THRw <P<THRw1 → コード『1』 THRw1 <P<THRb → コード『2』 THRb <P → コード『3』P <THRw → code “0” THRw <P <THRw1 → code “1” THRw1 <P <THRb → code “2” THRb <P → code “3”

【0124】ここで,Pはエッヂ量である。コードは
『0』〜『3』であるので2ビットで表現することがで
き,コードを展開する時は逆の処理を行えば良い。ま
た,大小関係は固定でなくとも良く,入れ替えることが
できるようにした方が良いことは勿論である。
Here, P is an edge amount. Since the code is "0" to "3", it can be represented by 2 bits, and when the code is expanded, the reverse process may be performed. In addition, the magnitude relation need not be fixed, but it is of course better to be able to exchange the magnitude relation.

【0125】このことにより,状態変数(MFB)を用
いて,白地上のパターンと網点や色地上のパターンを切
り換えることが可能で,しかも状態変数は共通に使用す
ることができる。
As a result, it is possible to switch between a white background pattern and a halftone dot or color ground pattern using the state variable (MFB), and the state variable can be commonly used.

【0126】また,良好に網点上の文字を抽出すること
が可能であれば,網点上の文字を抽出する際(図14の
フローチャートのS41),状態変数を参照しなくも良
い(S43の判定を常に一致していると判断する)。こ
のような方法で網点上の文字と白地上の文字を分離して
やっても良い。
If the character on the halftone dot can be extracted well (S41 in the flowchart of FIG. 14), the state variable need not be referred to (S43). Is always determined to match). In this manner, characters on a halftone dot and characters on a white background may be separated.

【0127】したがって,特に,カタログの使用説明・
仕様表のように罫線の中に網点があっても良好に罫線を
抽出することができる。また,白地を含む罫線を文字と
して抽出し,網点上の文字は白地上の文字と別の判定を
行っているので,実施の形態1よりさらに精度が向上す
る。白地上の文字と網点上の文字とを区別して,それぞ
れ別の処理を行うことが可能となる。
Therefore, in particular, the description of catalog usage
Even if there is a halftone dot in the ruled line as in the specification table, the ruled line can be extracted well. Since the ruled line including the white background is extracted as a character and the character on the halftone dot is determined differently from the character on the white background, the accuracy is further improved compared to the first embodiment. Characters on a white background and characters on a halftone dot can be distinguished to perform different processing.

【0128】また,図9において,P(i,j+1),
P(i+1,j),P(i+1,j−1)の3通りの伝
搬方向しかないが,特に,P(i+1,J−1)の方向
に関しては,−1だけでなく,−2,−3等を追加し
て,状態変数の伝搬方向の主走査方向性をなくした方が
良い。
In FIG. 9, P (i, j + 1),
There are only three propagation directions, P (i + 1, j) and P (i + 1, j-1). In particular, regarding the direction of P (i + 1, J-1), not only -1 but also -2,- It is better to add 3 or the like to eliminate the main scanning directionality of the propagation direction of the state variable.

【0129】さらに,画像データ全てをページメモリに
もって行う装置においては,状態変数の伝搬方向は全方
向(360度)にすれば,良いのは言うまでもない。
Further, in a device in which all the image data is stored in the page memory, it goes without saying that the propagation direction of the state variable should be all directions (360 degrees).

【0130】図15は,アンシャープマスキングによる
ディテール強調処理を示している。同図において,
(a)は処理対象の主信号,(b)はアンシャープ信
号,(c)はアンシャープマスク信号,(d)はディテ
ール強調ずみ信号を示している。これらのエッヂ特性例
に基づき補正を行う。実施の形態1および実施の形態2
では,ラプラシアン部42で図15(c)のアンシャー
プマスク信号を用いてエッヂ量の補正を行うが,図15
(d)のディテール強調ずみ信号,他の信号を用いて補
正しても良い。
FIG. 15 shows detail enhancement processing by unsharp masking. In the figure,
(A) shows a main signal to be processed, (b) shows an unsharp signal, (c) shows an unsharp mask signal, and (d) shows a detail-emphasized signal. Correction is performed based on these edge characteristic examples. Embodiment 1 and Embodiment 2
Then, the Laplacian unit 42 corrects the edge amount by using the unsharp mask signal of FIG.
The correction may be performed using the detail emphasized signal of (d) and other signals.

【0131】また,パターンマッチング部A43で,白
地上の黒(輪郭)を拾う場合には,網点(網掛け)上の
文字は抽出しない。パターンマッチング部B44によ
り,白地上の罫線と,網点上または色地上の罫線を別々
に抽出する。例えば,“書”のような込み入った文字も
パターンマッチング部B44により抽出する。
When the pattern matching section A43 picks up black (outline) on a white background, characters on halftone dots (shaded) are not extracted. The pattern matching unit B44 separately extracts a ruled line on a white background and a ruled line on a halftone dot or a color ground. For example, complicated characters such as "sho" are also extracted by the pattern matching unit B44.

【0132】なお,実施の形態1および実施の形態2で
状態変数は,状態変数の上限値を8(網点上の文字)と
16(白地上の文字)で説明したが,本発明はこれに限
られるものではなく,いくつであっても構わない。
In the first and second embodiments, the upper limit of the state variable is described as 8 (characters on halftone dots) and 16 (characters on a white background). However, the number is not limited to any number.

【0133】また,網点上の文字と白地上の文字の分離
方法は,罫線内の網掛けがあり,その中の文字の誤検出
を避けるためで,罫線が細いと,文字が近くにある可能
性があるからであり,また罫線の幅が太くなるにつれ文
字が近くにある可能性が減るからである。
A method of separating a character on a halftone dot from a character on a white background is shaded in a ruled line to avoid erroneous detection of a character in the ruled line. This is because there is a possibility, and the possibility that a character is nearby decreases as the width of the ruled line increases.

【0134】前述した実施の形態1および2により,小
さい文字や,線画,白地上の画数の多い文字や網点上の
文字を別々に抽出することが可能となる。副走査方向の
反映方向が一方向なので,ラスタースキャン方式の読み
出し方法で,特にハードウェア化に適し,画像データに
容易に反映が可能である。
According to the first and second embodiments, small characters, line drawings, characters with a large number of strokes on a white background, and characters on halftone dots can be separately extracted. Since the reflection direction in the sub-scanning direction is one direction, the readout method of the raster scan method is particularly suitable for hardware, and can be easily reflected on image data.

【0135】本発明は,線画のエッヂを検出するアルゴ
リズムであり,特に印刷物特有の網点を検出して除去す
ることはしていないので,ジェネレーション(複写機の
複写物)等の網点を含まない原稿にも特に有効である。
The present invention is an algorithm for detecting the edge of a line drawing. In particular, since a dot peculiar to a printed matter is not detected and removed, a dot such as a generation (copied matter of a copying machine) is included. It is especially effective for manuscripts that do not exist.

【0136】更に,抽出したパターンを,孤立点除去部
A46,B47による画素単位の孤立点除去で小さな領
域誤判定を除去し,その後は,孤立ブロック除去部A5
4,B55により大きなブロック単位(4×4)単位で
広い範囲で孤立ブロックを除去するので,誤判定を良好
に除去できる。この場合,膨張部A56,57により,
ブロック単位の粗い画素密度を元の画素密度に変換する
ので,ブロック単位の粗い画素はなくなる。
Further, the extracted pattern is used to remove small area erroneous judgments by removing isolated points in pixel units by the isolated point removing units A46 and B47. Thereafter, the isolated block removing unit A5 is used.
4, B55, an isolated block is removed in a wide range in a larger block unit (4 × 4), so that erroneous determination can be satisfactorily removed. In this case, the expansion portions A56 and 57
Since the coarse pixel density in the block unit is converted to the original pixel density, there is no coarse pixel in the block unit.

【0137】また,前述した膨張部A56,B57で,
単純な膨張を行うと,孤立した領域が大きくなるだけで
あるが,本実施の形態1および2のように,膨張量Xと
するとX=M−Nとして,M画素膨張させて,その後に
N画素縮小しているので,X<Mであるから孤立した領
域を連結させることができる。さらに膨張させる際に粗
い密度で行っているので,換言すれば,粗い密度(ブロ
ック単位)のまま膨張させるので,ハードウェアの量を
低減することができる。
In addition, in the above-mentioned expansion portions A56 and B57,
When simple dilation is performed, only the isolated area becomes large. However, as in the first and second embodiments, when the expansion amount is X, X = M−N, M pixel expansion is performed, and then N pixels are expanded. Since X is smaller than M because pixels are reduced, isolated regions can be connected. Further, since the expansion is performed at a coarse density, in other words, the expansion is performed with the coarse density (block unit), so that the amount of hardware can be reduced.

【0138】また,第1スキャンの結果を第2スキャン
以降も用いるので,必ず線画判定結果と色判定結果は一
致するので,バラツキなく処理を行うことができる。さ
らにページメモリA50,B51に記憶するデータは,
最終結果ではなくデータ処理中に,処理密度が粗くなっ
た(粗くした)データを記憶するので,メモリに記憶す
るデー量を低減することができる。
Further, since the result of the first scan is used in the second and subsequent scans, the line drawing judgment result always matches the color judgment result, so that processing can be performed without variation. The data stored in the page memories A50 and B51 is
Since the data whose processing density has become coarse (roughened) is stored not during the final result but during data processing, the amount of data stored in the memory can be reduced.

【0139】また,線画判定結果用のページメモリA5
0,B51には第1スキャン時の判定結果を記憶して第
2スキャン時以降にも用いることにしても良い。この場
合,第2スキャン以降は,ページメモリA50,B51
を読み出すことにより,スキャン(読み取り)毎のバラ
付きは,エッヂ抽出部14C の変動のみになり,文字/
絵柄判定信号C/Pが安定する。
A page memory A5 for a line drawing determination result
The determination result at the first scan may be stored in 0 and B51, and may be used after the second scan. In this case, after the second scan, the page memories A50, B51
By reading the characters, the variation in each scan (reading) is only caused by the fluctuation of the edge extraction unit 14C.
The picture determination signal C / P is stabilized.

【0140】また,全ての判定結果をメモリに記憶する
代わりに,スキャン毎にパラツキの大きいものだけをメ
モリに記憶するようにしても良い。
Instead of storing all the judgment results in the memory, only those having large variations for each scan may be stored in the memory.

【0141】また,上記した実施の形態1及び実施の形
態2においては,4作像(フルカラー)の場合について
説明したが,本発明はこれに限られるものではなく,作
像数は幾つであっても良く,例えば,1作像(モノク
ロ)についても適用可能であることは勿論である。
In the first and second embodiments described above, the case of four images (full color) has been described. However, the present invention is not limited to this, and the number of images is not limited. For example, it is needless to say that the present invention is also applicable to one image formation (monochrome), for example.

【0142】[画像処理装置の動作シーケンス]次に,
上記画像処理装置の動作シーケンスを説明する。かかる
画像処理装置には,メモリ(画像メモリともいう)12
との組合せで以下の動作シーケンスのモードがある。動
作シーケンスとページメモリ(分離結果メモリ)の関係
を説明する。
[Operation Sequence of Image Processing Apparatus]
An operation sequence of the image processing apparatus will be described. Such an image processing apparatus includes a memory (also referred to as an image memory) 12.
There are the following modes of operation sequence in combination with The relationship between the operation sequence and the page memory (separation result memory) will be described.

【0143】圧板1to1モード(メモリ12使用)
を図16を参照して説明する。このモードは,メモリ1
2に格納できるサイズ(A4)以下の画像を用紙に出力
する時のモードである。このモードでは,1回のスキャ
ンで,4回作像動作を行う。先ず,1色目のスキャン時
に,画像記録部(プリンタともいう)3に画像データを
出力しながら画像メモリに原稿画像データを取り込む。
次いで,2色目以降は画像メモリから画像データを画像
記録部3に出力する。
Pressure plate 1 to 1 mode (using memory 12)
Will be described with reference to FIG. In this mode, memory 1
2 is a mode for outputting an image of a size (A4) or less that can be stored in a sheet 2 on paper. In this mode, an image forming operation is performed four times in one scan. First, at the time of scanning of the first color, original image data is taken into an image memory while outputting image data to an image recording unit (also referred to as a printer) 3.
Next, for the second and subsequent colors, image data is output from the image memory to the image recording unit 3.

【0144】この場合は,4回作像とも,ページメモリ
(分離結果メモリ)を書き込みモードにしておき,ペー
ジメモリ(分離結果メモリ)の内容を読み出さない。4
作像とも画像メモリから読み出しているため,ページメ
モリ(分離結果メモリ)を使う必要はない。第2スキャ
ン以降,ページメモリ(分離結果メモリ)を読み出しに
つかっても問題はない。尚,ページメモリ(分離結果メ
モリ)の読みだし開始位置の初期化は作像毎に行う。
In this case, in all four image formations, the page memory (separation result memory) is set to the write mode, and the contents of the page memory (separation result memory) are not read. 4
Since both the image forming and the image reading are performed from the image memory, it is not necessary to use the page memory (separation result memory). There is no problem if the page memory (separation result memory) is used for reading after the second scan. The reading start position of the page memory (separation result memory) is initialized for each image formation.

【0145】圧板1to1モード(メモリ12不使
用)を図17を参照して説明する。このモードは,メモ
リ12に格納できるサイズ(A4)を超る画像を用紙に
出力する時のモードである。実施の形態1及び実施の形
態2で説明したモードである。このモードでは,4回の
スキャンで4作像を行うものであり,全色スキャナから
画像データを画像記録部(プリンタともいう)3に出力
する。
The pressure plate 1 to 1 mode (without using the memory 12) will be described with reference to FIG. This mode is a mode for outputting an image exceeding the size (A4) that can be stored in the memory 12 to a sheet. This is the mode described in the first and second embodiments. In this mode, four images are formed by four scans, and image data is output from an all-color scanner to an image recording unit (also called a printer) 3.

【0146】この場合は,第1スキャンで,ページメモ
リ(分離結果メモリ)を書き込みモードにしておき,第
2スキャン以降は,読み出しモードにする。このことに
より,スキャナの読み出しばらつきの影響の受けにくく
なり,文字,写真の判定結果が安定する。尚,ページメ
モリ(分離結果メモリ)の読みだし開始位置の初期化
は,スキャンまたは作像毎である。
In this case, the page memory (separation result memory) is set to the write mode in the first scan, and the read mode is set after the second scan. As a result, it is less susceptible to variations in the reading of the scanner, and the result of determining characters and photographs is stabilized. The reading start position of the page memory (separation result memory) is initialized for each scan or image formation.

【0147】メモリ2面取りモード(メモリ12使
用)を図18を参照して説明する。このモードは,従来
技術の2面取りで,メモリ12に格納できるサイズの画
像の出力(A4)までを2面取りで出力する。先ず,1
色目のスキャン時に,スキャナの画像データを画像記録
部3に出力・撮像しながら,RGBの各画像メモリに原
稿画像データを取り込む。次いで,1色目のMFGAT
Aが到来すると(スキャナリターン完了前),2面目の
1色目の画像データを画像メモリから画像記録部3へ出
力・作像する。続いて,1面目の2色目の画像データを
画像メモリから画像記録部3は出力・作像する。そし
て,2面目の2色目の画像データを画像メモリから画像
記録部3に出力する。このモードは,1回スキャンで4
作像である。8作像あるように見えるのは,2面取りの
ためである。
The memory two-chamfer mode (using the memory 12) will be described with reference to FIG. In this mode, the output of an image of a size that can be stored in the memory 12 (A4) is output in two-chamfering. First, 1
At the time of scanning the color, the original image data is taken into each of the RGB image memories while the image data of the scanner is output and imaged to the image recording unit 3. Next, MFGAT for the first color
When A arrives (before the completion of the scanner return), the image data of the first color on the second side is output and imaged from the image memory to the image recording unit 3. Subsequently, the image recording unit 3 outputs and forms the image data of the second color on the first side from the image memory. Then, the image data of the second color of the second surface is output from the image memory to the image recording unit 3. In this mode, four scans
Image formation. The appearance of eight images is due to two chamfers.

【0148】この場合は,4回の作像とも,ページメモ
リ(分離結果メモリ)を書き込みモードにしておき,ペ
ージメモリ(分離結果メモリ)の内容を読み出さない。
4作像とも画像メモリから読み出しているため,ページ
メモリ(分離結果メモリ)を使う必要がないためであ
る。尚,2面取りの場合,紙間が必要なため,第2スキ
ャン以降,メモリの領域が不足することが考えられるの
で,ページメモリ(分離結果メモリ)を使わない。
In this case, in all four image forming operations, the page memory (separation result memory) is set to the write mode, and the contents of the page memory (separation result memory) are not read.
This is because there is no need to use a page memory (separation result memory) because all four images are read from the image memory. In the case of two-chamfering, a page space is required, and a memory area may be insufficient after the second scan. Therefore, the page memory (separation result memory) is not used.

【0149】メモリ2面取りモード(メモリ12不使
用)を図19を参照して説明する。このモードは,メモ
リ12を使わない場合の2面取りである。本実施の形態
では,メモリ12があるので必要ないが,メモリを持た
ないケースとして説明する。このモードでは,8回スキ
ャンで4作像である。ここでは,1作像当たり2回のス
キャンをする。即ち,画像メモリを持たないので,全て
スキャン画像で2面取りを行う。
The memory two-chamfer mode (the memory 12 is not used) will be described with reference to FIG. This mode is two-chamfering when the memory 12 is not used. In the present embodiment, the memory 12 is not necessary because it is present, but a case will be described as having no memory. In this mode, 8 images are scanned and 4 images are formed. Here, two scans are performed per image formation. That is, since there is no image memory, two chamfers are performed on all scanned images.

【0150】この場合,第1スキャン時に,ページメモ
リ(分離結果メモリ)を書き込みモードにしておき,第
2スキャン以降(残り7スキャン)は,読み出しモード
にする。このことにより,スキャナの読み出しばらつき
の影響の受けにくくなり,文字,写真の判定結果が安定
する。尚,ページメモリ(分離結果メモリ)の読みだし
開始位置の初期化は,スキャン毎である。
In this case, at the time of the first scan, the page memory (separation result memory) is set to the write mode, and after the second scan (the remaining seven scans), the read mode is set. As a result, it is less susceptible to variations in the reading of the scanner, and the result of determining characters and photographs is stabilized. The reading start position of the page memory (separation result memory) is initialized every scan.

【0151】ADF1to1モード(メモリ12使
用)を図20を参照して説明する。このモードは,2面
取りの応用であり,通常の2面取りは,1面目と2面目
が同一原稿であるが,これは1面目と2面目の原稿が異
なる場合であり,5スキャン4作像である。このモード
での原稿給紙プロセスは,原稿給紙を行ったらプロセス
を終了とし,この時,次原稿の有り/無しを判断してプ
ロセスが発行される。このモードでの画像メモリ用スキ
ャンプロセスは,次原稿有りの場合,2面取りプロセス
となるので,スキャンプロセスが発行され,1枚目原稿
画像をRGB画像メモリに記憶する。
The ADF 1 to 1 mode (using the memory 12) will be described with reference to FIG. This mode is an application of the two-sided printing. In the normal two-sided printing, the first and second pages are the same original, but this is the case where the first and second pages are different. is there. In the document feeding process in this mode, when the document feeding is performed, the process is terminated, and at this time, the presence / absence of the next document is determined and the process is issued. The scanning process for the image memory in this mode is a two-chamfering process when there is a next original, so a scanning process is issued and the first original image is stored in the RGB image memory.

【0152】次に,コピープロセスを説明する。先ず,
1色目原稿スキャンエンドで原稿入れ替え処理をする。
次いで,画像メモリ用スキャンプロセス正常終了後,コ
ピープロセス(プリンタ・スキャナ同期モード)を実行
する。続いて,プロセス実行開始すると,1枚目の1色
目の画像データを画像メモリから画像記録部3へ出力・
作像する。そして,2枚目の1色目の画像データをスキ
ャナから画像記録部3へ出力・作像し,1枚目の2色目
画像データを画像メモリから画像記録部3へ出力・作像
する。次いで,2枚目の2色目の画像データをスキャナ
から画像記録部3へ出力・作像する。さらに,1枚目の
3色目の画像データを画像メモリから画像記録部3へ出
力・作像し,2枚目の3色目の画像データをスキャナか
ら画像記録部3へ出力・作像する。
Next, the copy process will be described. First,
At the scan end of the first color original, the original is replaced.
Next, after the image memory scan process is normally completed, a copy process (printer / scanner synchronous mode) is executed. Subsequently, when the process execution is started, the image data of the first color and the first color is output from the image memory to the image recording unit 3.
Make an image. Then, the image data of the second sheet of the first color is output and imaged from the scanner to the image recording unit 3, and the image data of the second sheet of the second color is output and imaged from the image memory to the image recording unit 3. Next, the image data of the second sheet of the second color is output and imaged from the scanner to the image recording unit 3. Further, the image data of the first sheet of the third color is output and imaged from the image memory to the image recording unit 3, and the image data of the second sheet of the third color is output and imaged from the scanner to the image recording unit 3.

【0153】上記でも説明したが,第1作像の結果を
ページメモリ(分離結果メモリ)に格納する場合,ペー
ジメモリ(分離結果メモリ)は,最大出力サイズしか確
保していないのが通常である。この時に,入力するデー
タ量は,最大出力サイズ+紙間となる。従って,紙間の
幅だけメモリを増やす必要が生じる。紙間部分のみ,ペ
ージメモリ(分離結果メモリ)の書込みを禁止するのも
可能であるが,制御が複雑となる。
As described above, when the result of the first image formation is stored in the page memory (separation result memory), the page memory (separation result memory) generally secures only the maximum output size. . At this time, the input data amount is the maximum output size + paper interval. Therefore, it is necessary to increase the memory by the width between the sheets. It is possible to prohibit the writing of the page memory (separation result memory) only in the space between sheets, but the control becomes complicated.

【0154】そこで,制御を容易にするために,作像時
に,画像メモリから作像に使うパスにはページメモリ
(分離結果メモリ)を使わずに,スキャナならくるパス
のみに,ページメモリ(分離結果メモリ)を使用する。
この場合,動作条件としては,第2スキャン以降(第二
原稿読み取り時)時のみページメモリを使用する。すな
わち,第1スキャン時は,ページメモリ(分離結果メモ
リ)を使用せず,第1作像スタート後に第2スキャンを
開始する。そして,第2スキャン(第2原稿の第1スキ
ャン)時に,ページメモリ(分離結果メモリ)を書き込
みモードにしておき,データ蓄える。続いて,第2像ス
タート後に,第3スキャンを開始する。更に,第3スキ
ャン(第2原稿の第2スキャン)以降に,ページメモリ
(分離結果メモリ)を読み出しモードにしておき,ペー
ジメモリの出力結果を用いる。
Therefore, in order to facilitate control, the page memory (separation result memory) is not used for the path used for image formation from the image memory at the time of image formation. Result memory).
In this case, as the operating condition, the page memory is used only during the second scan and thereafter (when reading the second document). That is, at the time of the first scan, the second scan is started after the start of the first image formation without using the page memory (separation result memory). Then, at the time of the second scan (first scan of the second document), the page memory (separation result memory) is set to the write mode, and data is stored. Subsequently, after the start of the second image, the third scan is started. Further, after the third scan (second scan of the second document), the page memory (separation result memory) is set to the read mode, and the output result of the page memory is used.

【0155】このことにより,スキャナからのデータに
対して,ページメモリ(分離結果メモリ)を使用するこ
とが可能となる。ページメモリの制御は,スキャナから
読み取り時のみ動作させれば良いので,シーケンスは決
まっており容易に行うことができる。
This makes it possible to use a page memory (separation result memory) for data from the scanner. Since the control of the page memory only needs to be performed at the time of reading from the scanner, the sequence is fixed and can be easily performed.

【0156】尚,上記した実施の形態では,2面取り時
においては,作像の後半のみに,ページメモリ(分離結
果メモリ)を使用するように制御してもよい。
In the above-described embodiment, the control may be performed such that the page memory (separation result memory) is used only in the latter half of the image formation in the two-panel trimming.

【0157】[0157]

【発明の効果】以上説明したように,請求項1に係る画
像処理装置によれば,アナログ画像データをn値(nは
2以上の自然数)のデジタルデータに変換するn値化手
段と,前記デジタルデータ中の所定の黒画素の周辺に複
数の黒画素が存在することにより構成される領域を黒画
素領域と判定する黒画素領域判定手段と,前記黒画素領
域判定手段で黒画素領域と判定された場合に,該当する
黒画素に状態変数を設定する第1の状態変数設定手段
と,前記デジタルデータから黒画素を抽出して補正した
補正黒画素および前記デジタルデータから白画素を抽出
して補正した補正白画素を用いて,細線候補とするパタ
ーン抽出を行う細線候補抽出手段と,前記状態変数と前
記細線候補抽出手段で抽出した細線候補とを用いて,前
記細線候補が黒字上の文字・絵柄の何れであるかを判定
すると共に,判定結果に基づいて前記状態変数を更新す
る判定・更新手段と,を備えたこととしたので,黒地上
の文字,絵柄等を区別して,それぞれに応じた最適な画
像処理を行うことができる。
As described above, according to the image processing apparatus of the first aspect, the n-value conversion means for converting analog image data into n-valued (n is a natural number of 2 or more) digital data, A black pixel area determining means for determining an area constituted by a plurality of black pixels around a predetermined black pixel in the digital data as a black pixel area; and a black pixel area determined by the black pixel area determining means. A first state variable setting means for setting a state variable for the corresponding black pixel, a black pixel extracted from the digital data and a corrected black pixel, and a white pixel extracted from the digital data. A thin line candidate extracting means for extracting a pattern as a thin line candidate by using the corrected corrected white pixel, and the thin line candidate is displayed in black using the state variable and the thin line candidate extracted by the thin line candidate extracting means. A judgment / update means for judging whether the character or the picture is a character, and updating the state variable based on the judgment result. Optimum image processing can be performed according to

【0158】また,請求項2に係る画像処理装置によれ
ば,アナログ画像データをn値(nは2以上の自然数)
のデジタルデータに変換するn値化手段と,前記デジタ
ルデータ中の所定の黒画素の周辺に複数の黒画素が存在
することにより構成される領域を黒画素領域と判定する
黒画素領域判定手段と,前記黒画素領域判定手段で黒画
素領域と判定された場合に,該当する黒画素に状態変数
を設定する第1の状態変数設定手段と,前記デジタルデ
ータから黒画素を抽出して補正した補正黒画素および前
記デジタルデータから白画素を抽出して補正した補正白
画素を用いて,細線候補とするパターン抽出を行う細線
候補抽出手段と,前記状態変数と前記細線候補抽出手段
で抽出した細線候補とを用いて,前記細線候補が黒字上
の文字・網点上の文字・絵柄の何れであるかを判定する
と共に,判定結果に基づいて前記状態変数を更新する判
定・更新手段と,を備えたこととしたので,黒地上の文
字,網点上の文字,絵柄等を区別して,それぞれに応じ
た最適な画像処理を行うことができる。
According to the image processing apparatus of the second aspect, the analog image data is converted into n values (n is a natural number of 2 or more).
N-value conversion means for converting the image data into digital data, and black pixel area determination means for determining an area formed by a plurality of black pixels around a predetermined black pixel in the digital data as a black pixel area A first state variable setting means for setting a state variable for the corresponding black pixel when the black pixel area is determined to be a black pixel area; and a correction for extracting and correcting a black pixel from the digital data A thin line candidate extracting means for extracting a pattern as a thin line candidate using black pixels and a corrected white pixel obtained by correcting a white pixel from the digital data; and a thin line candidate extracted by the state variable and the thin line candidate extracting means. And determining and updating means for determining whether the thin line candidate is a character on a black character, a character on a halftone dot, or a picture, and updating the state variable based on the determination result. Since it was decided to comprise a, black characters on a character on the dot, to distinguish a pattern or the like, it is possible to perform optimal image processing according to each.

【0159】また,請求項3に係る画像処理装置によれ
ば,請求項1または2記載の画像処理装置において,さ
らに,白地上の黒文字を検出した際に,前記状態変数を
設定する第2の状態変数設定手段を備えたこととしたの
で,細線と太線が混在していても,精度良く白地上の文
字,絵柄等を区別することができる。
According to the image processing apparatus of the third aspect, in the image processing apparatus of the first or second aspect, when a black character on a white background is detected, the second state variable is set. Since the state variable setting means is provided, it is possible to accurately distinguish characters and patterns on a white background even if thin lines and thick lines are mixed.

【0160】また,請求項4に係る画像処理装置は,請
求項1,2,または3記載の画像処理装置において,前
記細線候補抽出手段が,前記状態変数に基づいて,前記
細線候補の抽出条件を異ならせてパターン抽出を行うこ
ととしたので,黒字上の文字と網点上の文字の抽出条件
を変えて,画像に応じた良好な抽出を行うことができ
る。
According to a fourth aspect of the present invention, in the image processing apparatus of the first, second, or third aspect, the thin line candidate extracting means is configured to extract the thin line candidate extraction condition based on the state variable. Is varied to perform pattern extraction, so that the conditions for extracting characters on black and characters on halftone dots can be changed to perform favorable extraction according to the image.

【0161】また,請求項5に係る画像処理装置は,請
求項1,2,3,または4記載の画像処理装置におい
て,画像の走査処理の方向を一定方向に行い,前記状態
変数の反映方向が,処理画素P(i,j)に対して,P
(i,j+1),P(i+1,j),P(i+1,j−
1)の座標であることとしたので,ラスタースキャンの
装置に適しており,ハードウェア化が容易である。すな
わち,複写装置等に容易に適用することができる。
According to a fifth aspect of the present invention, in the image processing apparatus of the first, second, third, or fourth aspect, the image scanning process is performed in a fixed direction, and the reflection direction of the state variable is changed. Is P with respect to the processing pixel P (i, j).
(I, j + 1), P (i + 1, j), P (i + 1, j-
Since the coordinates are set to 1), it is suitable for a raster scan device and can be easily implemented in hardware. That is, it can be easily applied to a copying apparatus or the like.

【0162】また,請求項6に係る画像処理装置は,請
求項1,2,3,4,または5記載の画像処理装置にお
いて,前記細線候補抽出手段が,ラプラシアンのデータ
を用いて前記黒画素および白画素の補正を行うこととし
たので,細線を良好に抽出することができる。
According to a sixth aspect of the present invention, in the image processing apparatus of the first, second, third, fourth or fifth aspect, the thin line candidate extracting means uses the Laplacian data to generate the black pixel. Since correction of white pixels is performed, fine lines can be satisfactorily extracted.

【0163】また,請求項7に係る画像処理装置は,請
求項6記載の画像処理装置において,前記細線候補抽出
手段が,走査速度,倍率,または画像回転により,前記
ラプラシアンのデータとして抽出する重み付けを異なら
せることとしたので,変倍や画像回転等に容易に対応す
ることができる。
According to a seventh aspect of the present invention, in the image processing apparatus according to the sixth aspect, the thin line candidate extracting means extracts the Laplacian data as the Laplacian data by scanning speed, magnification, or image rotation. Are made different, so that it is possible to easily cope with scaling, image rotation, and the like.

【0164】また,請求項8に係る画像処理装置は,請
求項1〜7のいずれか1つに記載の画像処理装置におい
て,さらに,前記デジタルデータ中の文字領域を判定し
て画素密度よりも荒い状態の判定結果を出力する第1の
文字領域判定手段と,画素密度で前記デジタルデータ中
のエッヂを抽出するエッヂ抽出手段と,前記第1の文字
領域判定手段により文字領域と判定され,且つ前記エッ
ヂ抽出手段によりエッヂであると判定された場合に,真
の文字領域と判定する第2の文字領域判定手段と,を備
えたこととしたので,文字領域を精度良く検出すること
が可能となる。
The image processing apparatus according to the eighth aspect is the image processing apparatus according to any one of the first to seventh aspects, further comprising: determining a character area in the digital data and determining a character area in the digital data. First character area determining means for outputting a rough state determination result, edge extracting means for extracting an edge in the digital data with a pixel density, and a first character area determining means for determining a character area; A second character area determining unit that determines a true character area when the edge is determined to be an edge by the edge extracting means, so that the character area can be accurately detected. Become.

【0165】また,請求項9に係る画像処理装置は,請
求項1〜7のいずれか1つに記載の画像処理装置におい
て,さらに,前記デジタルデータ中の網点上の文字領域
を判定して画素密度よりも荒い状態の判定結果を出力す
る第3の文字領域判定手段と,画素密度で前記デジタル
データ中のエッヂを抽出するエッヂ抽出手段と,前記第
3の文字領域判定手段により網点上の文字領域と判定さ
れ,且つ前記エッヂ抽出手段によりエッヂであると判定
された場合に,真の網点上の文字領域と判定する第4の
文字領域判定手段と,を備えたこととしたので,網点上
の文字領域を精度良く検出することが可能となる。
An image processing apparatus according to a ninth aspect of the present invention is the image processing apparatus according to any one of the first to seventh aspects, further comprising determining a character area on a halftone dot in the digital data. A third character area determining means for outputting a determination result in a state rougher than the pixel density; an edge extracting means for extracting an edge in the digital data with the pixel density; And a fourth character area determination means for determining a character area on a true halftone dot when the edge extraction means determines that the character area is an edge. , It is possible to accurately detect a character area on a halftone dot.

【図面の簡単な説明】[Brief description of the drawings]

【図1】実施の形態1の画像処理装置の概略ブロック図
である。
FIG. 1 is a schematic block diagram of an image processing apparatus according to a first embodiment.

【図2】本実施の形態1の画像処理部のブロック図であ
る。
FIG. 2 is a block diagram of an image processing unit according to the first embodiment.

【図3】本発明の要部である原稿認識部のブロック構成
図である。
FIG. 3 is a block diagram of a document recognition unit which is a main part of the present invention.

【図4】線画認識部のラプラシアン部における白領域検
出または黒領域検出の動作を説明するための記号化され
たマトリックスを示す説明図である。
FIG. 4 is an explanatory diagram showing a symbolized matrix for explaining an operation of detecting a white region or a black region in a Laplacian part of a line drawing recognition unit.

【図5】線画の断面図であり,白領域と黒領域と閾値と
の関係を示す概念図である。
FIG. 5 is a cross-sectional view of a line drawing, and is a conceptual diagram showing a relationship between a white area, a black area, and a threshold.

【図6】エッヂ量(x)の関係を示す説明図である。FIG. 6 is an explanatory diagram showing a relationship between edge amounts (x).

【図7】線画認識部のパターンマッチング部における状
態変数の違いによる細線の判断例を示す説明図である。
FIG. 7 is an explanatory diagram illustrating an example of determining a thin line based on a difference in state variables in a pattern matching unit of a line drawing recognition unit.

【図8】パターンマッチング処理における注目画素の設
定を示す説明図である。
FIG. 8 is an explanatory diagram showing setting of a target pixel in a pattern matching process.

【図9】図12のパターンマッチング処理における状態
変数MFBの伝搬を示す説明図である。
FIG. 9 is an explanatory diagram showing propagation of a state variable MFB in the pattern matching processing of FIG. 12;

【図10】パターンマッチング処理のフローチャートで
ある。
FIG. 10 is a flowchart of a pattern matching process.

【図11】パターンマッチング処理(パターンマッチン
グ部A43)のフローチャートである。
FIG. 11 is a flowchart of a pattern matching process (pattern matching unit A43).

【図12】実施の形態1のパターンマッチング処理(パ
ターンマッチング部B44)のフローチャートである。
FIG. 12 is a flowchart of a pattern matching process (pattern matching unit B44) according to the first embodiment.

【図13】線画認識部の膨張部における補間処理の例を
示す説明図である。
FIG. 13 is an explanatory diagram illustrating an example of interpolation processing in an expansion unit of a line drawing recognition unit.

【図14】実施の形態2のパターンマッチング処理(パ
ターンマッチング部B44)のフローチャートである。
FIG. 14 is a flowchart of a pattern matching process (pattern matching unit B44) according to the second embodiment.

【図15】アンシャープマスキングによるディテール強
調処理を示す説明図である。
FIG. 15 is an explanatory diagram showing detail enhancement processing by unsharp masking.

【図16】画像処理装置の動作シーケンスを説明するた
めの説明図1である。
FIG. 16 is an explanatory diagram illustrating an operation sequence of the image processing apparatus.

【図17】画像処理装置の動作シーケンスを説明するた
めの説明図2である。
FIG. 17 is an explanatory diagram illustrating an operation sequence of the image processing apparatus.

【図18】画像処理装置の動作シーケンスを説明するた
めの説明図3である。
FIG. 18 is an explanatory diagram illustrating an operation sequence of the image processing apparatus.

【図19】画像処理装置の動作シーケンスを説明するた
めの説明図4である。
FIG. 19 is an explanatory diagram illustrating an operation sequence of the image processing apparatus.

【図20】画像処理装置の動作シーケンスを説明するた
めの説明図5である。
FIG. 20 is an explanatory diagram illustrating an operation sequence of the image processing apparatus.

【符号の説明】[Explanation of symbols]

1 原稿読取部 2 画像処理部 3 画像記録部 11 RGBγ補正部 12 メモリ 13 遅延部 14 原稿認識部 14a 線画認識部 14b 色判定部 14c エッヂ抽出部 15 RGBフィルタ部 16 色補正部 17 UCR部 18 変倍部 19 CMYBkフィルタ部 20 CMYBkγ補正部 21 階調処理部 41 モノクロ化部 42 ラプラシアン部 43 パターンマッチング部A 44 パターンマッチング部B 45 パターンマッチング部C 46 孤立点除去部A 47 孤立点除去部B 48 画素密度変換部A 49 画素密度変換部B 50 ページメモリA 51 ページメモリB 52 セレクタA 53 セレクタB 54 孤立ブロック除去部A 55 孤立ブロック除去部B 56 膨張部A 57 膨張部B 58 AND演算子 59 AND演算子 61 白孤立点除去部 62 黒孤立点除去部 63 輪郭抽出部 64 膨張縮小部 65 ラインディレイ部 66 色判定回路 67 ページメモリC 68 セレクタC REFERENCE SIGNS LIST 1 document reading unit 2 image processing unit 3 image recording unit 11 RGB γ correction unit 12 memory 13 delay unit 14 document recognition unit 14 a line drawing recognition unit 14 b color determination unit 14 c edge extraction unit 15 RGB filter unit 16 color correction unit 17 UCR unit 18 Doubler 19 CMYBk filter unit 20 CMYBk γ correction unit 21 Gradation processing unit 41 Monochrome conversion unit 42 Laplacian unit 43 Pattern matching unit A 44 Pattern matching unit B 45 Pattern matching unit C 46 Isolated point removing unit A 47 Isolated point removing unit B 48 Pixel density conversion unit A 49 Pixel density conversion unit B 50 Page memory A 51 Page memory B 52 Selector A 53 Selector B 54 Isolated block removal unit A 55 Isolated block removal unit B 56 Expansion unit A 57 Expansion unit B 58 AND operator 59 AND operator 61 White isolated point Removed by unit 62 black isolated point removing section 63 contour extraction unit 64 expands the reduced portion 65 the line delay unit 66 color judging circuit 67 page memory C 68 Selector C

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 アナログ画像データをn値(nは2以上
の自然数)のデジタルデータに変換するn値化手段と,
前記デジタルデータ中の所定の黒画素の周辺に複数の黒
画素が存在することにより構成される領域を黒画素領域
と判定する黒画素領域判定手段と,前記黒画素領域判定
手段で黒画素領域と判定された場合に,該当する黒画素
に状態変数を設定する第1の状態変数設定手段と,前記
デジタルデータから黒画素を抽出して補正した補正黒画
素および前記デジタルデータから白画素を抽出して補正
した補正白画素を用いて,細線候補とするパターン抽出
を行う細線候補抽出手段と,前記状態変数と前記細線候
補抽出手段で抽出した細線候補とを用いて,前記細線候
補が黒字上の文字・絵柄の何れであるかを判定すると共
に,判定結果に基づいて前記状態変数を更新する判定・
更新手段と,を備えたことを特徴とする画像処理装置。
An n-value conversion means for converting analog image data into n-valued (n is a natural number of 2 or more) digital data;
A black pixel area determining unit that determines an area formed by a plurality of black pixels around a predetermined black pixel in the digital data as a black pixel area; If it is determined, first state variable setting means for setting a state variable to the corresponding black pixel, and a black pixel extracted from the digital data and corrected to obtain a corrected black pixel and a white pixel extracted from the digital data. Line candidate extracting means for extracting a pattern as a thin line candidate using the corrected white pixels corrected by the method, and using the state variable and the thin line candidate extracted by the thin line candidate extracting means, the thin line candidate is displayed in black. Judge whether it is a character or a picture, and update the state variable based on the judgment result.
An image processing apparatus comprising: updating means.
【請求項2】 アナログ画像データをn値(nは2以上
の自然数)のデジタルデータに変換するn値化手段と,
前記デジタルデータ中の所定の黒画素の周辺に複数の黒
画素が存在することにより構成される領域を黒画素領域
と判定する黒画素領域判定手段と,前記黒画素領域判定
手段で黒画素領域と判定された場合に,該当する黒画素
に状態変数を設定する第1の状態変数設定手段と,前記
デジタルデータから黒画素を抽出して補正した補正黒画
素および前記デジタルデータから白画素を抽出して補正
した補正白画素を用いて,細線候補とするパターン抽出
を行う細線候補抽出手段と,前記状態変数と前記細線候
補抽出手段で抽出した細線候補とを用いて,前記細線候
補が黒字上の文字・網点上の文字・絵柄の何れであるか
を判定すると共に,判定結果に基づいて前記状態変数を
更新する判定・更新手段と,を備えたことを特徴とする
画像処理装置。
2. N-value conversion means for converting analog image data into n-valued (n is a natural number of 2 or more) digital data;
A black pixel area determining unit that determines an area formed by a plurality of black pixels around a predetermined black pixel in the digital data as a black pixel area; If it is determined, first state variable setting means for setting a state variable to the corresponding black pixel, and a black pixel extracted from the digital data and corrected to obtain a corrected black pixel and a white pixel extracted from the digital data. Line candidate extracting means for extracting a pattern as a thin line candidate using the corrected white pixels corrected by the method, and using the state variable and the thin line candidate extracted by the thin line candidate extracting means, the thin line candidate is displayed in black. An image processing apparatus comprising: a determination unit that determines which of a character and a character on a halftone dot is a character or a picture and updates the state variable based on the determination result.
【請求項3】 請求項1または2記載の画像処理装置に
おいて,さらに,白地上の黒文字を検出した際に,前記
状態変数を設定する第2の状態変数設定手段を備えたこ
とを特徴とする画像処理装置。
3. The image processing apparatus according to claim 1, further comprising a second state variable setting means for setting said state variable when a black character on a white background is detected. Image processing device.
【請求項4】 請求項1,2または3記載の画像処理装
置において,前記細線候補抽出手段が,前記状態変数に
基づいて,前記細線候補の抽出条件を異ならせてパター
ン抽出を行うことを特徴とする画像処理装置。
4. The image processing apparatus according to claim 1, wherein said thin line candidate extracting means performs pattern extraction by changing the thin line candidate extraction conditions based on said state variables. Image processing apparatus.
【請求項5】 請求項1,2,3または4記載の画像処
理装置において,画像の走査処理の方向を一定方向に行
い,前記状態変数の反映方向が,処理画素P(i,j)
に対して,P(i,j+1),P(i+1,j),P
(i+1,J−1)の座標であることを特徴とする画像
処理装置。
5. The image processing apparatus according to claim 1, wherein the scanning direction of the image is performed in a fixed direction, and the reflection direction of the state variable is a processing pixel P (i, j).
, P (i, j + 1), P (i + 1, j), P
An image processing apparatus, characterized in that the coordinates are (i + 1, J-1).
【請求項6】 請求項1,2,3,4または5記載の画
像処理装置において,前記細線候補抽出手段が,ラプラ
シアンのデータを用いて前記黒画素および白画素の補正
を行うことを特徴とする画像処理装置。
6. The image processing apparatus according to claim 1, wherein said thin line candidate extracting means corrects said black pixel and white pixel using Laplacian data. Image processing device.
【請求項7】 請求項6記載の画像処理装置において,
前記細線候補抽出手段が,走査速度,倍率,または画像
回転により,前記ラプラシアンのデータとして抽出する
重み付けを異ならせることを特徴とする画像処理装置。
7. The image processing apparatus according to claim 6, wherein
The image processing apparatus according to claim 1, wherein the thin line candidate extracting means changes weights to be extracted as the Laplacian data depending on a scanning speed, a magnification, or an image rotation.
【請求項8】 請求項1〜7のいずれか1つに記載の画
像処理装置において,さらに,前記デジタルデータ中の
文字領域を判定して画素密度よりも荒い状態の判定結果
を出力する第1の文字領域判定手段と,画素密度で前記
デジタルデータ中のエッヂを抽出するエッヂ抽出手段
と,前記第1の文字領域判定手段により文字領域と判定
され,且つ前記エッヂ抽出手段によりエッヂであると判
定された場合に,真の文字領域と判定する第2の文字領
域判定手段と,を備えたことを特徴とする画像処理装
置。
8. The image processing apparatus according to claim 1, further comprising: determining a character area in the digital data and outputting a determination result of a state rougher than a pixel density. Character area determining means, an edge extracting means for extracting an edge in the digital data with a pixel density, a character area determined by the first character area determining means, and an edge determined by the edge extracting means. And a second character area determining means for determining a true character area when the determination is made.
【請求項9】 請求項1〜7のいずれか1つに記載の画
像処理装置において,さらに,前記デジタルデータ中の
網点上の文字領域を判定して画素密度よりも荒い状態の
判定結果を出力する第3の文字領域判定手段と,画素密
度で前記デジタルデータ中のエッヂを抽出するエッヂ抽
出手段と,前記第3の文字領域判定手段により網点上の
文字領域と判定され,且つ前記エッヂ抽出手段によりエ
ッヂであると判定された場合に,真の網点上の文字領域
と判定する第4の文字領域判定手段と,を備えたことを
特徴とする画像処理装置。
9. The image processing apparatus according to claim 1, further comprising: determining a character area on a halftone dot in the digital data to determine a determination result of a state rougher than a pixel density. A third character area determining means for outputting, an edge extracting means for extracting an edge in the digital data with a pixel density, and a character area on a halftone dot by the third character area determining means; An image processing apparatus comprising: a fourth character area determination unit that determines a character area on a true halftone dot when an extraction unit determines that the edge is an edge.
JP9202026A 1997-07-28 1997-07-28 Image-processing unit Pending JPH1146300A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP9202026A JPH1146300A (en) 1997-07-28 1997-07-28 Image-processing unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP9202026A JPH1146300A (en) 1997-07-28 1997-07-28 Image-processing unit

Publications (1)

Publication Number Publication Date
JPH1146300A true JPH1146300A (en) 1999-02-16

Family

ID=16450701

Family Applications (1)

Application Number Title Priority Date Filing Date
JP9202026A Pending JPH1146300A (en) 1997-07-28 1997-07-28 Image-processing unit

Country Status (1)

Country Link
JP (1) JPH1146300A (en)

Similar Documents

Publication Publication Date Title
US8477324B2 (en) Image processor and image processing method that uses s-shaped gamma curve
JP3399486B2 (en) Color image processing apparatus and method
US7903872B2 (en) Image-processing apparatus and method, computer program, and storage medium
JP4749477B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
JP4749476B2 (en) Image processing apparatus, image forming apparatus, image processing method, computer program, and recording medium
US9204017B2 (en) Image processing device, image processing method, and computer program product
US7324244B2 (en) Image forming apparatus and image forming method
JP3362749B2 (en) Color image forming equipment
US6178010B1 (en) Image processing device
JP4047356B2 (en) Image processing device
CN111738960A (en) Image processing apparatus, image processing method, and image forming apparatus
JP3989636B2 (en) Image processing device
JPH1146300A (en) Image-processing unit
JP3944032B2 (en) Image processing apparatus and method
JP3767210B2 (en) Document type determination device and image processing device
JP3857494B2 (en) Image processing device
JPH1155505A (en) Image processing unit
JP3506848B2 (en) Image processing device
JP3854414B2 (en) Image processing apparatus and image forming apparatus
JPH1079852A (en) Image processor
JP3999420B2 (en) Image processing apparatus and image processing method
JP3723666B2 (en) Image processing device
JPH1023251A (en) Image-processing unit
JP2001245142A (en) Image processing apparatus and method
JP2000152012A (en) Picture processor

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051006

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051108

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060926