JP2888555B2 - Image processing device - Google Patents

Image processing device

Info

Publication number
JP2888555B2
JP2888555B2 JP1246363A JP24636389A JP2888555B2 JP 2888555 B2 JP2888555 B2 JP 2888555B2 JP 1246363 A JP1246363 A JP 1246363A JP 24636389 A JP24636389 A JP 24636389A JP 2888555 B2 JP2888555 B2 JP 2888555B2
Authority
JP
Japan
Prior art keywords
error
image
weight
signal
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP1246363A
Other languages
Japanese (ja)
Other versions
JPH03109868A (en
Inventor
浩樹 菅野
等 米田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP1246363A priority Critical patent/JP2888555B2/en
Publication of JPH03109868A publication Critical patent/JPH03109868A/en
Application granted granted Critical
Publication of JP2888555B2 publication Critical patent/JP2888555B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、文字部と写真部とが混在した文書画像を対
象として、文字部の解像性及び写真部の階調性を高く維
持しつつ二値化処理を行う画像処理装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Object of the Invention] (Industrial application field) The present invention is directed to a document image in which a character portion and a photographic portion are mixed, and the resolution of the character portion and the gradation of the photographic portion The present invention relates to an image processing apparatus that performs a binarization process while maintaining high performance.

(従来の技術) 一般に、コード情報だけでなくイメージ情報をも扱う
ことのできる文書画像処理装置等の画像処理装置におい
ては、スキャナ等の読取手段で読取った画像情報に対し
て文字や線図などのコントラストのある画像情報は固定
閾値により単純二値化を行ない、写真などの階調性を有
する画像情報は、ディザ法等の疑似階調化手段によって
二値化を行なっている。これは、読取った画像情報を固
定閾値により一律に単純二値化処理を行なうと、文字・
線図等の領域は解像性が保存されるため画質劣化は生じ
ないが、写真等の領域では階調性が保存されず画質劣化
が生じた画像となってしまう一方、読取った画像情報を
組織的ディザ法等で一律に階調化処理を行なうと、写真
等の領域は階調性が保存されるため画質劣化は生じない
が、文字・線図等の領域では解像性が低下して画質劣化
が生じて画像となってしまうからである。すなわち、読
取った画像情報に対して、単一の二値化手法を適用した
場合は、異なる特徴を有する各領域の画質を同時に満足
しつつ二値化することは不可能である。
(Prior Art) Generally, in an image processing apparatus such as a document image processing apparatus capable of handling not only code information but also image information, image information read by a reading unit such as a scanner is converted into a character or a line diagram. The image information having contrast is subjected to simple binarization using a fixed threshold, and image information having a gradation property such as a photograph is binarized by a pseudo gradation means such as a dither method. This is because when the read image information is uniformly binarized by a fixed threshold value, the character
In areas such as diagrams, image quality degradation does not occur because the resolution is preserved, but in areas such as photographs, gradation is not preserved, resulting in images with image quality degradation. If gradation processing is performed uniformly by the systematic dither method, etc., the image quality will not deteriorate because the gradation is preserved in areas such as photographs, but the resolution will decrease in the areas such as characters and diagrams. This is because image quality is deteriorated and an image is formed. That is, when a single binarization method is applied to read image information, it is impossible to binarize while simultaneously satisfying the image quality of each region having different characteristics.

一方、写真画像の領域の階調性を満足し、文字や線図
の領域も組織的ディザ法に比べ解像性の良い二値化方式
として「誤差拡散法」が提案されている。この「誤差拡
散法」は、雑誌「Proceeding of the S.I.D Vol.17 2 S
econd Quarter 1976 75-77」の文献「An Adaptive Algo
rithm for Spatial Grey Scale」に記載されているよう
に、注目画素を一定の閾値で二値化した際の二値化誤差
に所定の重み係数を乗じたものを注目画素周辺の所定領
域の未だ二値化されていない画素に分散させ、未だ二値
化されていない画素を二値化するに際し、この分散され
た二値化誤差を補正値として加味して二値化を行なおう
とする方式である。
On the other hand, an “error diffusion method” has been proposed as a binarization method that satisfies the gradation properties of a photographic image area and also has a higher resolution than a systematic dither method for a character or diagram area. This "error diffusion method" is based on the magazine "Proceeding of the SID Vol.17 2 S
Econd Quarter 1976 75-77, `` An Adaptive Algo
As described in `` rithm for Spatial Gray Scale '', the value obtained by multiplying the binarization error when the target pixel is binarized with a certain threshold value by a predetermined weighting coefficient is still equal to a predetermined area around the target pixel. When binarizing pixels that have not yet been binarized and binarizing pixels that have not yet been binarized, this binarization error is used as a correction value to perform binarization. is there.

第6図は、上記のような「誤差拡散法」を用いた画像
処理装置の構成を示すブロック図である。図において、
410は入力画像信号、40は注目画素の画像情報を補正す
る補正手段411は補正画像信号、42は補正された注目画
素の画像情報を二値化する二値化手段、421は二値化画
像信号、43は二値化された注目画素の二値化誤差を算出
する二値化誤差算出手段、431は二値化誤差信号、44は
重み誤差を算出するための重み係数を記憶する重み係数
記憶手段、45は二値化誤差算出手段43で算出した二値化
誤差431に重み係数記憶手段44の重み係数を乗じて重み
誤差を算出する重み誤差算出手段、451は重み誤差信
号、46は重み誤差算出手段45で算出した重み誤差を記憶
する誤差記憶手段、461は画像補正信号である。以下、
「誤差拡散法」を用いた二値化処理につき詳細に説明す
る。
FIG. 6 is a block diagram showing a configuration of an image processing apparatus using the above-described “error diffusion method”. In the figure,
410 is an input image signal, 40 is a correction means 411 for correcting image information of a target pixel, 42 is a binarization means for binarizing the corrected image information of the target pixel, and 421 is a binarized image. Signal, 43 is a binarization error calculating means for calculating a binarization error of the binarized target pixel, 431 is a binarization error signal, and 44 is a weighting coefficient for storing a weighting coefficient for calculating a weighting error. The storage means, 45 is a weight error calculation means for calculating a weight error by multiplying the binary error 431 calculated by the binary error calculation means 43 by the weight coefficient of the weight coefficient storage means 44, 451 is a weight error signal, 46 is Error storage means for storing the weight error calculated by the weight error calculation means 45, and 461 is an image correction signal. Less than,
The binarization processing using the “error diffusion method” will be described in detail.

例えばスキャナ等の入力装置で画像を読取って得られ
た入力画像信号410は、補正手段40において、画像補正
信号461により補正処理され、補正画像信号411として出
力される。この補正画像信号411が供給された二値化手
段42は、上記補正画像信号411と二値化閾値Thとを比較
することにより二値化画像信号421を出力する。すなわ
ち、上記二値化閾値Thとして例えば「8016」(添字の「
16」は16進数であることを示す)用い、補正画像信号41
1が二値化閾値Thより大きければ二値化画像信号421とし
て「1(黒画素)を出力し、小さければ「0」(白画
素)を出力する。次に、二値化誤差算出手段43では、補
正画像信号411と二値化画像信号421(ただし、ここでは
二値化画像信号421が「0」のときは「016」、「1」の
ときは「FF16」とする)との差を算出を二値化誤差信号
431として出力する。重み誤差算出手段45では、二値化
誤差信号431に重み係数記憶手段44に記憶されている重
み係数A、B、C、D(ただし、A=7/16、B=1/16、
C=5/16、D=3/16)を乗じた重み誤差451を算出す
る。ここで重み係数記憶手段44における「*」は注目画
素の位置を示し、注目画素の二値化誤差に重み係数A、
B、C、Dを乗じて、注目画素の周辺4画素(重み係数
A、B、C、Dの位置に対応する画素)の重み誤差451
を算出する。誤差記憶手段46は、重み誤差算出手段45で
算出した重み誤差451を記憶するためのものであり、重
み誤差算出手段45で算出した4画素分の重み誤差451
は、注目画素「*」に対してそれぞれeA、eB、eC、eD
領域に加算されて記憶される。前述した画像補正信号46
1は、「*」の位置に対する補正信号であり以上の手順
で算出した計4画素分の重み誤差を累積した信号であ
る。
For example, an input image signal 410 obtained by reading an image with an input device such as a scanner is subjected to correction processing by an image correction signal 461 in the correction means 40 and output as a corrected image signal 411. The binarizing means 42 supplied with the corrected image signal 411 outputs the binarized image signal 421 by comparing the corrected image signal 411 with the binarization threshold Th. That is, for example, “80 16 ” (subscript “
16 "indicates a hexadecimal number).
If “1” is larger than the binarization threshold Th, “1” (black pixel) is output as the binarized image signal 421, and if “1” is smaller, “0” (white pixel) is output. Next, in the binarization error calculating means 43, the corrected image signal 411 and the binarized image signal 421 (here, when the binarized image signal 421 is “0”, “0 16 ” and “1” When calculating the difference from “FF 16 ”), calculate the difference
Output as 431. In the weight error calculating means 45, the weighting coefficients A, B, C, D (where A = 7/16, B = 1/16,
(C = 5/16, D = 3/16) is calculated. Here, “*” in the weight coefficient storage means 44 indicates the position of the pixel of interest, and the weighting coefficient A,
B, C, and D are multiplied to obtain a weight error 451 of four pixels around the target pixel (pixels corresponding to the positions of the weighting factors A, B, C, and D).
Is calculated. The error storage means 46 is for storing the weight error 451 calculated by the weight error calculation means 45, and the weight error 451 for four pixels calculated by the weight error calculation means 45.
Is added to the area of e A , e B , e C , and e D for the target pixel “*” and stored. The aforementioned image correction signal 46
Reference numeral 1 denotes a correction signal for the position of “*”, which is a signal obtained by accumulating weight errors for a total of four pixels calculated by the above procedure.

このように、「誤差拡散法」は注目画素の二値化によ
り発生した二値化誤差を、周辺画素に拡散して誤差補償
を行うことにより、二値化誤差を最小にするものであ
る。したがって、入力画像が写真画像のように階調性を
重視するものである場合は、その階調性を十分満足した
二値化処理を行うことが可能である。
As described above, the “error diffusion method” minimizes the binarization error by diffusing the binarization error generated by the binarization of the target pixel to peripheral pixels and performing error compensation. Therefore, when the input image emphasizes the gradation like a photographic image, it is possible to perform the binarization process that sufficiently satisfies the gradation.

しかしながら、入力画像が文字画像のように、階調性
より解像性を重視する画像においては、誤差補償の処理
が災いし、文字部の解像性が劣化するといった欠点があ
った。また、写真と文字とが混在する画像の場合は、文
字部と写真部との境界近傍において注目画素が文字であ
る場合にも重み誤差が算出されて文字部に隣接する写真
部を二値化する際の補正値に反映されるので写真部の端
部において正確な誤差拡散ができず、画質が低下すると
いう欠点があった。
However, in an image in which resolution is more important than gradation, such as an input image such as a character image, there is a drawback that the error compensation processing is damaged and the resolution of the character portion is deteriorated. Also, in the case of an image in which a photograph and text are mixed, a weight error is calculated even when the pixel of interest is a text near the boundary between the text portion and the photo portion, and the photo portion adjacent to the text portion is binarized. The error is reflected in the correction value at the time of the correction, so that accurate error diffusion cannot be performed at the end of the photographic portion, and the image quality deteriorates.

(発明が解決しようとする課題) 本発明は、「誤差拡散法」が文字領域と写真領域とが
混在した文書画像に対しても単一の手法にて二値化処理
を行うため、各領域ごとに画像の特徴に応じた処理を行
うことができず、入力画像が写真画像のように階調性を
重視するものである場合は、その階調性を十分満足した
二値化処理を行うことが可能であるが、文字画像のよう
に階調性より解像性を重視する画像においては、誤差補
償の処理が災いし、文字部の解像性が劣化するといった
欠点、及び、文字領域と写真領域との境界近傍において
正確な誤差拡散ができず画質が低下するという欠点を除
去し、文字領域と写真領域とが混在する画像情報であっ
ても各画像の特徴に応じた二値化処理を行うことで画質
の向上を図るとともに、文字領域と写真領域との境界近
傍であっても画質の低下を防止することができ、さらに
は画像の特徴に応じた処理を行うことで各種画像処理に
おける処理効率の向上が図れる画像処理装置を提供する
ことを目的とする。
(Problems to be Solved by the Invention) According to the present invention, since the “error diffusion method” performs a binarization process on a document image in which a character region and a photograph region are mixed by a single method, If the input image is of a type that emphasizes the gradation, such as a photographic image, a binarization process that sufficiently satisfies the gradation cannot be performed. However, in an image in which resolution is more important than gradation, such as a character image, the error compensation processing is disturbed, and the resolution of the character portion is degraded. Removes the drawback that accurate error diffusion cannot be performed near the boundary between the image and the photo area, resulting in reduced image quality, and binarization according to the characteristics of each image even for image information that includes both text and photo areas. This process improves image quality and improves text and photo areas. Provided is an image processing apparatus capable of preventing a decrease in image quality even near a boundary with a region, and further improving processing efficiency in various types of image processing by performing processing according to image characteristics. Aim.

[発明の構成] (課題を解決するための手段) 本発明の画像処理装置は、文字部と写真部とが混在し
た対象画像を処理する画像処理装置において、処理対象
画像における注目画素の画像情報を二値化する二値化手
段と、この二値化手段で二値化された情報と前記画像情
報とから二値化誤差を算出する二値化誤差算出手段と、
重み誤差を算出するための重み係数を記憶する重み係数
記憶手段と、この重み係数記憶手段に記憶された重み係
数を前記二値化誤差算出手段で算出された二値化誤差に
乗じて重み誤差を算出する重み誤差算出手段と、前記注
目画素を含む所定範囲内の画像情報から画像の特徴を表
わす特徴量を抽出する特徴量抽出手段と、この特徴量抽
出手段で抽出された特徴量に応じて前記注目画素が文字
部か写真部かを示す識別信号を出力する識別手段と、こ
の識別手段から出力される識別信号が写真部を示す場合
に前記重み誤差算出手段で算出された重み誤差を出力
し、前記識別手段から出力される識別信号が文字部を示
す場合に前記重み誤差算出手段で算出された重み誤差を
切捨てて零にした重み誤差を出力する誤差切捨て手段
と、この誤差切捨て手段から出力される重み誤差を記憶
する誤差記憶手段と、前記識別手段から出力される識別
手段が写真部を示す場合に前記誤差記憶手段に記憶され
ている重み誤差により補正を行うように選択し、前記識
別信号が文字部を示す場合に前記重み誤差を零として補
正を行うように選択する選択手段と、この選択手段によ
り選択された重み誤差または零を加算して前記注目画素
の画像情報を補正する補正手段とから構成されている。
[Structure of the Invention] (Means for Solving the Problems) An image processing apparatus according to the present invention is an image processing apparatus for processing a target image in which a character portion and a photographic portion are mixed, wherein image information of a pixel of interest in the processing target image is provided. A binarization means for binarizing, and a binarization error calculation means for calculating a binarization error from the information binarized by the binarization means and the image information,
Weighting coefficient storage means for storing a weighting coefficient for calculating a weighting error; and a weighting error calculated by multiplying the weighting coefficient stored in the weighting coefficient storage means by the binarization error calculated by the binarization error calculating means. Weighting error calculating means for calculating a feature amount, a feature amount extracting means for extracting a feature amount representing a feature of an image from image information in a predetermined range including the target pixel, and a feature amount extracted by the feature amount extracting means. Identification means for outputting an identification signal indicating whether the pixel of interest is a text part or a photograph part; and a weight error calculated by the weight error calculation means when the identification signal output from the identification means indicates a photograph part. An error truncation means for outputting a weight error calculated by the weight error calculation means and outputting a zero weight error when the identification signal output from the identification means indicates a character portion; Error storage means for storing the weight error output from, and when the identification means output from the identification means indicates a photographic part, to select to perform correction by the weight error stored in the error storage means, Selecting means for selecting the correction so that the weight error is zero when the identification signal indicates a character portion; and adding the weight error or zero selected by the selecting means to correct the image information of the target pixel. And correction means for performing the correction.

(作用) 本発明は、文字部と写真部とが混在した対象画像を処
理する画像処理装置において、処理対象画像における注
目画素の画像情報を二値化し、この二値化された情報と
前記画像情報とから二値化誤差を算出し、重み誤差を算
出するための重み係数を記憶し、この記憶された重み係
数を前記算出された二値化誤差に乗じて重み誤差を算出
し、前記注目画素を含む所定範囲内の画像情報から画像
の特徴を表わす特徴量を抽出し、この抽出された特徴量
に応じて前記注目画素が文字部か写真部かを示す識別信
号を出力し、この出力される識別信号が写真部を示す場
合に前記算出された重み誤差を出力し、前記出力される
識別信号が文字部を示す場合に前記算出された重み誤差
を切捨てて零にした重み誤差を出力し、この出力される
重み誤差を記憶し、前記出力される識別信号が写真部を
示す場合に前記記憶されている重み誤差により補正を行
うように選択し、前記識別信号が文字部を示す場合に前
記重み誤差を零として補正を行うように選択し、この選
択された重み誤差または零を加算して前記注目画素の画
像情報を補正するものとなっている。
(Function) The present invention provides an image processing apparatus for processing a target image in which a text part and a photograph part are mixed, binarizing image information of a pixel of interest in a processing target image, and processing the binarized information and the image. Calculating a binarization error from the information, storing a weight coefficient for calculating a weight error, multiplying the stored binarization coefficient by the calculated binarization error to calculate a weight error; A feature amount representing a feature of an image is extracted from image information within a predetermined range including a pixel, and an identification signal indicating whether the pixel of interest is a character portion or a photograph portion is output according to the extracted feature amount. The calculated weight error is output when the identified identification signal indicates a photo portion, and the calculated weight error is truncated to zero when the output identification signal indicates a character portion. And output the weight error When the identification signal to be output indicates a photographic part, the correction is performed by selecting the correction based on the stored weight error, and when the identification signal indicates a character part, the correction is performed by setting the weight error to zero. The image information of the target pixel is corrected by adding the selected weight error or zero.

(実施例) 以下、図面を参照しながら本発明の一実施例について
説明する。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

第2図は本発明に係る二値化処理の方法を示す原理図
である。図において、ラインバッファ1は、処理対象画
像の画像情報を記憶するもので、「*」はラインバッフ
ァ1中の注目画素の位置を示している。このラインバッ
ファ1からの入力画像信号21は補正手段3に供給される
ようになっている。補正手段3は上記注目画素の画像情
報を補正するもので、この補正手段3で補正された補正
画像信号31は二値化手段4及び二値化誤差算出手段5に
供給される。二値化手段4は、補正された注目画素の画
像情報を所定の閾値Th1で二値化するもので、この二値
化手段4で二値化された二値化画像信号41は、二値化処
理の結果として外部に出力されるとともに、二値化誤差
算出手段5に供給されるようになっている。二値化誤差
算出手段5は、補正画像信号31と二値化画像信号41とか
ら二値化された注目画素の二値化誤差を算出するもの
で、この二値化誤差算出手段5で算出された二値化誤差
信号51は重み誤差算出手段7に供給されるようになって
いる。重み誤差算出手段7は、重み係数記憶手段6に記
憶している重み係数と上記二値化誤差信号51とを入力
し、二値化誤差算出手段5で算出した二値化誤差信号51
に重み係数記憶手段6の重み係数を乗じて重み誤差を算
出するものである。この重み誤差算出手段7で算出した
重み誤差信号71は、誤差切捨て手段8に供給されるよう
になっている。誤差切捨て手段8は、後述する識別手段
11からの識別信号111従って、上記重み誤差信号71を出
力するかゼロを出力するかを選択し、選択重み誤差信号
81として出力するものである。この誤差切捨て手段8が
出力する選択重み誤差信号81は誤差記憶手段9に供給さ
れ、重み誤差として記憶される。この誤差記憶手段9に
記憶された重み誤差は画像補正信号91として選択手段12
に供給されるようになっている。
FIG. 2 is a principle diagram showing a binarization processing method according to the present invention. In the figure, a line buffer 1 stores image information of a processing target image, and “*” indicates a position of a pixel of interest in the line buffer 1. The input image signal 21 from the line buffer 1 is supplied to the correction means 3. The correcting means 3 corrects the image information of the pixel of interest. The corrected image signal 31 corrected by the correcting means 3 is supplied to the binarizing means 4 and the binarizing error calculating means 5. The binarizing unit 4 binarizes the corrected image information of the target pixel with a predetermined threshold Th1, and the binarized image signal 41 binarized by the binarizing unit 4 is binarized. It is output to the outside as a result of the binarization processing and is also supplied to the binarization error calculation means 5. The binarization error calculating unit 5 calculates a binarization error of the binarized pixel of interest from the corrected image signal 31 and the binarization image signal 41. The binarized error signal 51 is supplied to the weight error calculating means 7. The weighting error calculating means 7 receives the weighting coefficient stored in the weighting coefficient storing means 6 and the binary error signal 51 and receives the binary error signal 51 calculated by the binary error calculating means 5.
Is multiplied by a weight coefficient of the weight coefficient storage means 6 to calculate a weight error. The weight error signal 71 calculated by the weight error calculating means 7 is supplied to the error discarding means 8. The error truncation means 8 is an identification means described later.
The identification signal 111 from 11 is used to select whether to output the weight error signal 71 or to output zero.
It is output as 81. The selected weight error signal 81 output from the error truncation means 8 is supplied to the error storage means 9 and stored as a weight error. The weight error stored in the error storage means 9 is used as an image correction signal 91 by the selection means 12.
It is supplied to.

一方、特徴量算出手段10は、ラインバッファ1の所定
領域内(太枠で囲まれた部分)の画像情報から、当該領
域内における最大濃度差(ΔDmax)を算出するものであ
る。この特徴量算出手段10が出力する最大濃度差信号10
1は識別手段11に供給されるようになっている。識別手
段11は、上記最大濃度差信号101を所定の閾値Th2と比較
し、注目画素が写真であるか文字であるかを示す識別信
号111を出力するものである。この識別手段11が出力す
る識別信号111は選択手段12に供給されるようになって
いる。選択手段12は、上記識別信号111が写真である旨
を示している場合は、誤差記憶手段9に記憶されている
重み誤差を選択画像補正信号121として出力し、文字で
ある旨を示している場合は、例えばゼロを選択画像補正
信号121として出力するものである。そして、ラインバ
ッファ1からの入力画像信号21は、補正手段3におい
て、上記選択画像補正信号121により補正が行われて二
値化手段4に供給されることになる。
On the other hand, the feature amount calculating means 10 calculates a maximum density difference (ΔDmax) in a predetermined area of the line buffer 1 from the image information in the area (a portion surrounded by a thick frame). The maximum density difference signal 10 output by the feature amount calculating means 10
1 is supplied to the identification means 11. The identification means 11 compares the maximum density difference signal 101 with a predetermined threshold Th2, and outputs an identification signal 111 indicating whether the pixel of interest is a photograph or a character. The identification signal 111 output from the identification means 11 is supplied to the selection means 12. When the identification signal 111 indicates that the image is a photograph, the selection unit 12 outputs the weight error stored in the error storage unit 9 as the selected image correction signal 121 and indicates that the image is a character. In this case, for example, zero is output as the selected image correction signal 121. Then, the input image signal 21 from the line buffer 1 is corrected by the selected image correction signal 121 in the correction unit 3 and supplied to the binarization unit 4.

次に、上記構成において、本発明の二値化処理方法を
詳細に説明する。
Next, in the above configuration, the binarization processing method of the present invention will be described in detail.

例えばスキャナ等の入力装置で画像を読取って得られ
た入力画像信号21は、補正手段3において、選択画像補
正信号121により補正処理され、補正画像信号31として
出力される。この補正画像信号31が供給された二値化手
段4は、上記補正画像信号31と二値化閾値Th1とを比較
することにより二値化画像信号41を出力する。すなわ
ち、上記二値化閾値Th1として、例えば「8016」を用
い、補正画像信号31が二値化閾値Th1より大きければ二
値化画像信号41として「1」(黒画素)を出力し、小さ
ければ「0」(白画素)を出力する。次に、二値化誤差
算出手段5では、補正画像信号31と二値化画像信号41
(ただし、ここでは二値化画像信号41が「0」のときは
「016」、「1」のときは「FF16」とする。)との差を
算出し、これを二値化誤差信号51として出力する。重み
誤差算出手段7では、二値化誤差信号51に重み係数記憶
手段6に記憶されている重み係数A、B、C、D(ただ
し、A=7/16、B=1/16、C=5/16、D=3/16)を乗じ
た重み誤差71を算出する。ここで、重み係数記憶手段6
における「*」は注目画素の位置を示し、注目画素の二
値化誤差に重み係数A、B、C、Dを乗じて、注目画素
の周辺4画素(重み係数A、B、C、Dの位置に対応す
る画素)の重み誤差71を算出する。そして、この重み誤
差71は誤差切捨て手段8に供給される。誤差切捨て手段
8では、後述する識別手段11からの識別信号111が
「1」、つまり注目画素が文字画素であることを示して
いるときは重み誤差71を切捨ててゼロを選択重み誤差81
として出力し、識別信号111が「0」、つまり注目画素
が写真画素であることを示しているときは重み誤差71を
そのまま選択重み誤差81として出力する。
For example, an input image signal 21 obtained by reading an image with an input device such as a scanner is subjected to correction processing by a selected image correction signal 121 in the correction means 3 and is output as a corrected image signal 31. The binarizing means 4 to which the corrected image signal 31 has been supplied outputs a binarized image signal 41 by comparing the corrected image signal 31 with the binarization threshold Th1. That is, for example, “80 16 ” is used as the above-described binarization threshold Th1, and if the corrected image signal 31 is larger than the binarization threshold Th1, “1” (black pixel) is output as the binarization image signal 41. In this case, “0” (white pixel) is output. Next, in the binarization error calculating means 5, the corrected image signal 31 and the binarized image signal 41
(However, here, when the binarized image signal 41 is “0”, “0 16 ”, and when it is “1”, it is “FF 16 ”). Output as signal 51. In the weight error calculating means 7, the weighting coefficients A, B, C, D (where A = 7/16, B = 1/16, C = 5/16, D = 3/16) is calculated. Here, the weight coefficient storage means 6
Indicates the position of the pixel of interest, and the binarization error of the pixel of interest is multiplied by the weighting factors A, B, C, and D to obtain four pixels around the pixel of interest (the weighting factors A, B, C, and D). The weight error 71 of the pixel corresponding to the position is calculated. Then, the weight error 71 is supplied to the error discarding means 8. The error truncation unit 8 truncates the weight error 71 and selects zero when the identification signal 111 from the later-described identification unit 11 is “1”, that is, indicates that the target pixel is a character pixel.
When the identification signal 111 is “0”, that is, the pixel of interest is a photographic pixel, the weight error 71 is output as it is as the selection weight error 81.

記憶手段9は、重み誤差算出手段7で算出し、重み誤
差切捨て手段8で画像の特徴に応じて切捨て処理が施さ
れた選択重み誤差81を記憶するものである。すなわち、
識別手段11で写真画素であることを識別した場合は、重
み誤差算出手段7で算出した4画素分の重み誤差71は、
注目画素「*」に対してそれぞれeA、eB、eC、eDの各領
域に累積して記憶される。一方、識別手段11で文字画素
であることを識別した場合は、注目画素「*」に対して
それぞれeA、eB、eC、eDの各領域にゼロを加算する。こ
のことは、文字画素の場合は二値化誤差を拡散しないこ
とを意味する。画像補正信号91は、「*」の位置の信号
であり、上記手順で算出した計4画素分の重み誤差の累
積した信号である。
The storage unit 9 stores the selection weight error 81 calculated by the weight error calculation unit 7 and subjected to the truncation processing according to the characteristics of the image by the weight error truncation unit 8. That is,
If the identification means 11 identifies the photo pixel, the weight error 71 for the four pixels calculated by the weight error calculation means 7 is:
Each e A for the target pixel "*", e B, e C, is cumulatively stored in each area of the e D. On the other hand, if the identification unit 11 identifies that the pixel is a character pixel, zero is added to each of the areas e A , e B , e C , and e D for the target pixel “*”. This means that a binary error is not diffused in the case of a character pixel. The image correction signal 91 is a signal at the position of “*”, and is a signal obtained by accumulating weight errors for a total of four pixels calculated by the above procedure.

一方、特徴量算出手段10では、注目画素「*」を含む
(4×4)のウィンドウ内(太枠部)の画像濃度の最大
濃度差を算出し、最大濃度差信号101を出力する。識別
手段11では上記最大濃度信号101と予め設定されている
閾値Th2とを比較し、最大濃度差信号101がTh2より大き
ければ識別信号111として文字部を示す「1」を出力
し、小さければ写真部を示す「0」を出力する。選択手
段12では、識別信号111に応じて選択画像補正信号121を
出力するか否かを決定する。すなわち、識別信号111が
「0」、つまり写真画素であれば選択画像補正信号121
として前記画像補正信号91を、識別信号が「1」、つま
り文字画素であれば選択画像補正信号121としてゼロを
出力する。
On the other hand, the feature amount calculating means 10 calculates the maximum density difference of the image density in the (4 × 4) window (thick frame portion) including the target pixel “*”, and outputs the maximum density difference signal 101. The identification means 11 compares the maximum density signal 101 with a preset threshold Th2. If the maximum density difference signal 101 is larger than Th2, it outputs "1" indicating a character portion as the identification signal 111. "0" indicating the part is output. The selection unit 12 determines whether to output the selected image correction signal 121 according to the identification signal 111. That is, if the identification signal 111 is “0”, that is, a photographic pixel, the selected image correction signal 121
If the identification signal is "1", that is, a character pixel, zero is output as the selected image correction signal 121.

次に、上記二値化処理方法を適用した画像処理装置の
一例について説明する。なお第2図に示した原理図と同
等機能を有する部分及び信号には同一符号を付して説明
する。
Next, an example of an image processing apparatus to which the binarization processing method is applied will be described. Parts and signals having the same functions as those in the principle diagram shown in FIG.

第1図はこの発明の一実施例に係わる画像処理装置を
示す概略構成図である。この画像処理装置は、例えばイ
メージ・スキャナ等の読取装置にて原稿を読取って得ら
れた画像情報を、例えば1画素当り8ビットのデジタル
データとして入力し、これを二値化処理するものであ
る。ラインバッファ1は、このような画像情報を一時的
に格納しておき、以下に示す画像処理(二値化処理)に
供するものである。
FIG. 1 is a schematic configuration diagram showing an image processing apparatus according to an embodiment of the present invention. This image processing apparatus inputs image information obtained by reading a document with a reading device such as an image scanner, for example, as 8-bit digital data per pixel, and binarizes the digital data. . The line buffer 1 temporarily stores such image information and provides it to the following image processing (binarization processing).

遅延手段2は、上記ラインバッファ1から所定のクロ
ックに同期して出力される画像信号を入力し、その画像
信号を所定時間だけ、すなわち後述する識別信号111を
算出し選択画像補正信号121を出力するまでの時間だけ
遅延させるものである。補正手段3は加算器で構成さ
れ、注目画素の画像情報を補正するものである。すなわ
ち、上記遅延手段2で遅延された画像信号21と後述する
選択回路12からの選択画像補正信号121とを加算し、補
正画像信号31を出力する。この補正画像信号31は、二値
化手段4で所定の閾値Th1で比較されることにより二値
化され、二値化画像信号41として出力される。この際、
補正画像信号31が二値化閾値Th1より大きければ二値化
画像信号41として「1」(黒画素)が、小さければ
「0」(白画素)がそれぞれ出力される。
The delay means 2 receives an image signal output from the line buffer 1 in synchronization with a predetermined clock, and outputs the selected image correction signal 121 for a predetermined time, that is, an identification signal 111 described later. This is a delay until the time is reached. The correction means 3 is composed of an adder and corrects the image information of the pixel of interest. That is, the image signal 21 delayed by the delay unit 2 and a selected image correction signal 121 from the selection circuit 12 described later are added, and a corrected image signal 31 is output. The corrected image signal 31 is binarized by being compared by the binarizing means 4 at a predetermined threshold Th1, and is output as a binarized image signal 41. On this occasion,
If the corrected image signal 31 is larger than the binarization threshold Th1, “1” (black pixel) is output as the binarized image signal 41, and if it is smaller, “0” (white pixel) is output.

次に、上記二値化処理で生じた二値化誤差(EB)51を
算出する。二値化誤差算出手段5は減算器で構成され、
上記補正手段3が出力する補正画像信号(CI)31と上記
二値化画像信号(BI)41との減算処理を行い二値化誤差
信号51を算出する。すなわち、二値化誤差(EB)を EB=CI-BI …(1) として求める。
Next, a binarization error (EB) 51 generated in the binarization processing is calculated. The binarization error calculation means 5 includes a subtractor,
A subtraction process is performed on the corrected image signal (CI) 31 output by the correction means 3 and the binarized image signal (BI) 41 to calculate a binarized error signal 51. That is, the binarization error (EB) is obtained as EB = CI-BI (1).

重み誤差算出手段7は乗算器で構成され、二値化誤差
51と重み係数記憶手段6に記憶されている重み係数とを
入力して乗算し、重み誤差71を出力する。重み係数記憶
手段6は、前述した4つの重み係数(A=7/16、B=1/
16、C=5/16、D=3/16)を注目画素の周辺4画素の対
応する位置に応じて記憶するメモリで構成されている。
4画素の重み誤差はそれぞれ eA=A×EB …(2) eB=B×EB …(3) eC=C×EB …(4) eD=D×EB …(5) として求められる。この場合、eBは eB=EB-(eA+eC+eD) …(6) として求めても良い。そして、各重み誤差は誤差記憶
手段9のそれぞれ対応する位置に蓄える。誤差記憶手段
9は2ライン分のラインメモリで構成される。画像補正
信号91は誤差記憶手段9の「*」の位置から読み出した
信号である。誤差記憶手段9の「*」の位置には既に処
理された4画素分の重み誤差が記憶されている。
The weight error calculating means 7 is constituted by a multiplier, and generates a binarization error.
51 and the weighting factor stored in the weighting factor storage means 6 are input and multiplied, and a weighting error 71 is output. The weight coefficient storage means 6 stores the four weight coefficients (A = 7/16, B = 1 /
16, C = 5/16, D = 3/16) according to the corresponding positions of the four pixels around the target pixel.
The weight error of the four pixels is obtained as e A = A × EB (2) e B = B × EB (3) e C = C × EB (4) e D = D × EB (5) . In this case, e B is e B = EB- (e A + e C + e D) ... may be obtained as (6). Then, each weight error is stored in the corresponding position of the error storage means 9. The error storage means 9 is constituted by a line memory for two lines. The image correction signal 91 is a signal read from the position of “*” in the error storage unit 9. At the position of “*” in the error storage means 9, weight errors of four pixels already processed are stored.

一方、上記動作と並行して画像の種類を識別する識別
信号111を算出する。識別信号111は、上記ラインバッフ
ァ1から出力される画像情報から注目画素を含む局所領
域における特徴量情報としての最大濃度差を求め、この
特徴量情報をもとに上記局所領域の画像情報が文字部特
有の性質を示すか、あるいは写真部としての特徴を示す
かを判定して識別信号111を出力する。
On the other hand, an identification signal 111 for identifying the type of image is calculated in parallel with the above operation. The identification signal 111 determines the maximum density difference as feature information in the local area including the pixel of interest from the image information output from the line buffer 1, and based on this feature information, the image information of the local area The identification signal 111 is output by determining whether the characteristic indicates a characteristic unique to a part or a characteristic as a photograph part.

すなわち、特徴量算出手段10はラインバッファ1から
出力される画像情報から、第5図に示すように、注目画
素(斜線で示す画素)を含む(4×4)の領域内におけ
る画像濃度の最大値及び最小値を求める。次に、これら
を減算して、上記(4×4)の領域内の最大濃度差信号
すなわち特徴量情報を出力する。したがって、ラインバ
ッファ1は4ライン分のラインメモリで構成することが
必要である。比較器11では、この特徴量情報と予め設定
した閾値Th2とを比較し、最大濃度差信号がTh2より大き
ければ識別信号として文字を表す「1」を出力し、小さ
ければ写真を表す「0」を出力する。
That is, as shown in FIG. 5, the characteristic amount calculating means 10 calculates the maximum image density in the (4 × 4) area including the pixel of interest (the pixel indicated by oblique lines) from the image information output from the line buffer 1. Find the value and minimum value. Next, these are subtracted, and the maximum density difference signal in the (4 × 4) area, that is, feature amount information is output. Therefore, it is necessary that the line buffer 1 be constituted by line memories for four lines. The comparator 11 compares the feature amount information with a preset threshold value Th2, and outputs “1” representing a character as an identification signal when the maximum density difference signal is larger than Th2, and outputs “0” representing a photograph when the maximum density difference signal is smaller than Th2. Is output.

さて、上述した特徴量情報は次のようにして求められ
る。
The above-described feature amount information is obtained as follows.

第3図は、上記特徴量算出手段10の構成例を示すブロ
ック図である。この特徴量算出手段10は処理対象画像中
の注目画素に対して、第5図に示すように、その注目画
素を含む(4×4)画素の領域内における濃度の最大値
と最小値とをそれぞれ求め、それらを減算して最大濃度
差を求めるものである。
FIG. 3 is a block diagram showing a configuration example of the feature amount calculating means 10. As shown in FIG. As shown in FIG. 5, the feature value calculating means 10 calculates the maximum value and the minimum value of the density in a (4 × 4) pixel area including the target pixel, as shown in FIG. The maximum density difference is obtained by subtracting them from each other.

先ず、特徴量算出手段10は、例えば第4図のタイミン
グチャートに示すように、上記ラインバッファ1からク
ロックCLKに同期して列方向に4画素単位で順次入力さ
れる画像情報(8ビット/画素)をセレクタ10aを介し
て比較器10b、10c、10d、10eに順次分配する。なお、こ
の列単位に入力される画像情報の上記セレクタ10aによ
る比較器10b、10c、10d、10eへの分配は、クロックCLK
を受けて動作する2ビットカウンタ10hからの選択信号S
E1、SE2により動作制御されて行なわれるようになって
いる。
First, as shown in the timing chart of FIG. 4, for example, the characteristic amount calculating means 10 outputs image information (8 bits / pixel) sequentially input in units of four pixels in the column direction from the line buffer 1 in synchronization with the clock CLK. ) Are sequentially distributed to the comparators 10b, 10c, 10d, and 10e via the selector 10a. The distribution of the image information input in units of columns to the comparators 10b, 10c, 10d, and 10e by the selector 10a is performed by the clock CLK.
Signal S from the 2-bit counter 10h that operates upon receiving
The operation is controlled by E1 and SE2.

そして、比較器10b、10c、10d、10eによって画像情報
が4画素単位でそれそれ列方向に比較され、その列にお
ける最大濃度(MAX端子出力)と最小濃度(MIN端子出力
とがそれぞれ求められる。
Then, the comparators 10b, 10c, 10d, and 10e compare the image information in the column direction in units of four pixels, and obtain the maximum density (MAX terminal output) and the minimum density (MIN terminal output) in that column.

次段の比較器10f、10gは上記比較器10b、10c、10d、1
0eからの信号をFTR1のタイミングで入力し、列方向にそ
れぞれ求められた最大値と最小値とから、さらに最大値
と最小値とをそれぞれ求めるものである。以上の比較処
理によって第5図に示す(4×4画素の領域内における
濃度の最大値Dmaxと最小値Dminとがそれぞれ求められ、
FTR2のタイミングで出力される。
The next-stage comparators 10f, 10g are the comparators 10b, 10c, 10d, 1
The signal from 0e is input at the timing of FTR1, and the maximum value and the minimum value are further obtained from the maximum value and the minimum value respectively obtained in the column direction. By the above comparison processing, the maximum value Dmax and the minimum value Dmin of the density in the area of 4 × 4 pixels are obtained, respectively, as shown in FIG.
Output at the timing of FTR2.

減算器10iはこのようにして求められた濃度の最大値D
maxと最小値Dminとの差である最大濃度差ΔDmax ΔDmax=Dmax-Dmin …(7) を求めるものである。
The subtractor 10i calculates the maximum value D of the density thus obtained.
The maximum density difference ΔDmax ΔDmax = Dmax−Dmin (7), which is the difference between max and the minimum value Dmin, is obtained.

前述の比較器11は、このようにして求めた特徴量情報
すなわち最大濃度差ΔDmaxをもとに画像の種別を判定し
識別信号111を出力する。
The comparator 11 determines the type of the image based on the characteristic amount information thus obtained, that is, the maximum density difference ΔDmax, and outputs the identification signal 111.

選択回路12は、上記識別信号111をもとに、前述した
誤差記憶手段9から読み出される画像補正信号91を選択
するか否かを決定する。すなわち、識別信号111が
「0」であれば当該注目画素は写真部であると判定し、
選択画像補正信号121として上記画像補正信号91を出力
し、識別信号111が「1」であれば当該注目画素は文字
部であると判定し、選択画像補正信号121として「0」
を出力する。上記補正手段3は、以上述べた方法で算出
した選択画像補正信号121と画像信号21の加算を行う。
このことは、写真画素であれば補正処理が行われて誤差
拡散法による二値化処理が施され、文字画素であれば補
正処理は行われず単純二値化処理が施されることを意味
する。
The selection circuit 12 determines whether or not to select the image correction signal 91 read from the error storage means 9 based on the identification signal 111. That is, if the identification signal 111 is “0”, the pixel of interest is determined to be a photographic part,
The image correction signal 91 is output as the selected image correction signal 121. If the identification signal 111 is “1”, the pixel of interest is determined to be a character portion, and “0” is selected as the selected image correction signal 121.
Is output. The correction means 3 adds the selected image correction signal 121 calculated by the above-described method and the image signal 21.
This means that the correction process is performed for a photographic pixel and a binarization process is performed by an error diffusion method, and the correction process is not performed for a character pixel and a simple binarization process is performed. .

このように構成した本画像処理装置によれば、注目画
素を二値化する際に、画像情報の特徴に応じて、周辺画
素の二値化誤差により注目画素の補正を行うか否かを選
択するため従来の「誤差拡散法」にみられた文字画像の
解像性の劣化を抑制することができ、文字画像の解像性
と写真画像の階調性を同時に満足した二値化処理を行う
ことが可能となっている。また、文字画素を単純二値化
する際に生じた二値化誤差は切捨てることにより重み誤
差として記憶せず、したがって単純二値化処理時の重み
誤差は以下の二値化処理において周辺画素に分散されな
いようになっている。これにより、文字部と写真部とが
混在する文書画像の文字部と画像部との境界での画質劣
化を防止し、鮮明な画像を得ることができるものとなっ
ている。
According to the image processing apparatus configured as described above, when binarizing the target pixel, whether or not to correct the target pixel based on the binarization error of the peripheral pixels is selected according to the feature of the image information. Therefore, it is possible to suppress the deterioration of the resolution of the character image seen in the conventional "error diffusion method", and to perform the binarization process that simultaneously satisfies the resolution of the character image and the gradation of the photographic image. It is possible to do. In addition, the binarization error generated when the character pixel is simply binarized is not stored as a weight error by truncation, and therefore, the weight error at the time of the simple binarization process is determined by the peripheral pixels in the following binarization process. It is not distributed to. As a result, it is possible to prevent image quality deterioration at the boundary between the character portion and the image portion of the document image in which the character portion and the photograph portion are mixed, and to obtain a clear image.

なお、本発明は上記実施例に限定されるものではな
い。例えば、特徴量を抽出するための参照範囲の領域
は、(4×4)に限定されるものではなく、適宜範囲を
自由に変更しても良い。
The present invention is not limited to the above embodiment. For example, the area of the reference range for extracting the feature amount is not limited to (4 × 4), and the range may be freely changed as appropriate.

また、上記実施例では一画素単位で写真/文字を識別
する場合の例を示したが、(N×N)のブロック単位
(N≧2なる整数)での識別を行なっても良い。その結
果として、処理速度の向上が図れ、高速な画像処理装置
を実現することが可能となる。
In the above-described embodiment, an example in which a photograph / character is identified in units of one pixel has been described. However, identification may be performed in units of (N × N) blocks (an integer of N ≧ 2). As a result, the processing speed can be improved, and a high-speed image processing apparatus can be realized.

また、上記実施例では、写真部と文字部とを区別する
ために画像情報の特徴量情報として最大濃度差ΔDmaxを
用いた場合の例を示したが、規格化された最大濃度差、
つまり最大濃度差を平均濃度で除算した値、あるいは画
像の2次微分値であるラプラシアン値等の文字部と写真
部で異なる性質を持つ特徴量を用いても良い。
Further, in the above-described embodiment, an example in which the maximum density difference ΔDmax is used as the feature amount information of the image information in order to distinguish between the photograph portion and the character portion has been described.
That is, a feature amount having different properties between a text part and a photograph part, such as a value obtained by dividing the maximum density difference by the average density, or a Laplacian value which is a second derivative of the image may be used.

さらに、上記実施例では二値の出力を得る場合につい
て説明したが、閾値Th1を複数個設定することにより多
値の出力も可能であり、多値のレーザプリンタ、熱転写
プリンタ等に対応した最適な階調表現が可能となる。さ
らに本発明では、特徴量の値、及び判定閾値は、読取手
段で読取った画像信号、つまり画像情報の反射率に対応
した量をもとに算出しているが、この量を画像濃度に
(反射率の逆数の対数)変換した値で、さらには、人間
の視覚特性を考慮した変換信号をもとに識別を行っても
よい。
Further, in the above embodiment, the case where a binary output is obtained has been described. However, it is possible to output a multi-value by setting a plurality of thresholds Th1, and it is possible to obtain a multi-value laser printer, a thermal transfer printer, etc. Gradation expression becomes possible. Further, in the present invention, the value of the characteristic amount and the determination threshold are calculated based on the image signal read by the reading unit, that is, the amount corresponding to the reflectance of the image information. The identification may be performed based on the converted value (logarithm of the reciprocal of the reflectivity) and further based on the converted signal in consideration of human visual characteristics.

[発明の効果] 以上詳述したように、本発明によれば、文字領域と写
真領域とが混在する画像情報であっても各画像の特徴に
応じた二値化処理を行うことで画質の向上を図るととも
に、文字領域と写真領域との境界近傍であっても画質の
低下を防止することができ、さらには画像の特徴に応じ
た処理を行うことで各種画像処理における処理効率の向
上が図れる画像処理装置を提供することができる。
[Effects of the Invention] As described in detail above, according to the present invention, even for image information in which a character area and a photographic area are mixed, the binarization processing is performed in accordance with the characteristics of each image to improve the image quality. In addition to improving the image quality, it is possible to prevent the image quality from being reduced even near the boundary between the character area and the photograph area, and to improve the processing efficiency in various types of image processing by performing processing in accordance with the characteristics of the image. It is possible to provide an image processing device that can be achieved.

【図面の簡単な説明】[Brief description of the drawings]

第1図ないし第5図は本発明の一実施例を示すもので、
第1図は画像処理装置の概略の構成を示すブロック図、
第2図は二値化処理の原理を説明するための図、第3図
は特徴量算出手段の構成を示すブロック図、第4図は特
徴量算出手段の動作を示すタイミングチャート、第5図
は画像処理の画素領域の概念を示す図であり、第6図は
従来の「誤差拡散法」の原理を説明するための図であ
る。 1……ラインバッファ、2……遅延手段、3……補正手
段、4……二値化手段、5……二値化誤差算出手段、6
……重み係数記憶手段、7……重み誤差算出手段、8…
…誤差切捨て手段(処理手段)、9……誤差記憶手段、
10……特徴量抽出手段、11……比較器(識別手段)、12
……選択回路(選択手段)。
1 to 5 show an embodiment of the present invention.
FIG. 1 is a block diagram showing a schematic configuration of an image processing apparatus;
FIG. 2 is a diagram for explaining the principle of the binarization process, FIG. 3 is a block diagram showing the configuration of the feature amount calculating means, FIG. 4 is a timing chart showing the operation of the feature amount calculating means, and FIG. FIG. 6 is a diagram showing the concept of a pixel area for image processing, and FIG. 6 is a diagram for explaining the principle of the conventional "error diffusion method". 1 line buffer, 2 delay means, 3 correction means, 4 binarization means, 5 binarization error calculation means, 6
... Weighting coefficient storage means 7 weight error calculating means 8
... Error truncation means (processing means), 9 ... Error storage means,
10 ... feature extraction means, 11 ... comparator (identification means), 12
... Selection circuit (selection means).

Claims (1)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】文字部と写真部とが混在した対象画像を処
理する画像処理装置において、 処理対象画像における注目画素の画像情報を二値化する
二値化手段と、 この二値化手段で二値化された情報と前記画像情報とか
ら二値化誤差を算出する二値化誤差算出手段と、 重み誤差を算出するための重み係数を記憶する重み係数
記憶手段と、 この重み係数記憶手段に記憶された重み係数を前記二値
化誤差算出手段で算出された二値化誤差に乗じて重み誤
差を算出する重み誤差算出手段と、 前記注目画素を含む所定範囲内の画像情報から画像の特
徴を表わす特徴量を抽出する特徴量抽出手段と、 この特徴量抽出手段で抽出された特徴量に応じて前記注
目画素が文字部か写真部かを示す識別信号を出力する識
別手段と、 この識別手段から出力される識別信号が写真部を示す場
合に前記重み誤差算出手段で算出された重み誤差を出力
し、前記識別手段から出力される識別信号が文字部を示
す場合に前記重み誤差算出手段で算出された重み誤差を
切捨てて零にした重み誤差を出力する誤差切捨て手段
と、 この誤差切捨て手段から出力される重み誤差を記憶する
誤差記憶手段と、 前記識別手段から出力される識別信号が写真部を示す場
合に前記誤差記憶手段に記憶されている重み誤差により
補正を行うように選択し、前記識別信号が文字部を示す
場合に前記重み誤差を零として補正を行うように選択す
る選択手段と、 この選択手段により選択された重み誤差または零を加算
して前記注目画素の画像情報を補正する補正手段と、 を具備したことを特徴とする画像処理装置。
1. An image processing apparatus for processing a target image in which a text part and a photograph part are mixed, a binarizing means for binarizing image information of a pixel of interest in the processing target image, A binarization error calculating unit that calculates a binarization error from the binarized information and the image information; a weight coefficient storage unit that stores a weight coefficient for calculating a weight error; Weighting error calculating means for calculating a weighting error by multiplying the weighting coefficient stored in the binarizing error calculating means by the binarizing error calculating means, and calculating an image from image information within a predetermined range including the target pixel. A feature amount extracting unit for extracting a feature amount representing a feature; an identifying unit for outputting an identification signal indicating whether the pixel of interest is a character portion or a photograph portion according to the feature amount extracted by the feature amount extracting unit; Knowledge output from identification means The weight error calculated by the weight error calculating means is output when the different signal indicates a photographic part, and the weight calculated by the weight error calculating means when the identification signal output from the identifying means indicates a character part. An error truncation unit that outputs a weight error in which the error is truncated to zero, an error storage unit that stores a weight error output from the error truncation unit, and a case where the identification signal output from the identification unit indicates a photographic part. Selecting means to perform correction based on the weight error stored in the error storage means, and selecting to perform correction by setting the weight error to zero when the identification signal indicates a character portion; Correction means for adding the weight error or zero selected by the means to correct the image information of the pixel of interest.
JP1246363A 1989-09-25 1989-09-25 Image processing device Expired - Fee Related JP2888555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1246363A JP2888555B2 (en) 1989-09-25 1989-09-25 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1246363A JP2888555B2 (en) 1989-09-25 1989-09-25 Image processing device

Publications (2)

Publication Number Publication Date
JPH03109868A JPH03109868A (en) 1991-05-09
JP2888555B2 true JP2888555B2 (en) 1999-05-10

Family

ID=17147442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1246363A Expired - Fee Related JP2888555B2 (en) 1989-09-25 1989-09-25 Image processing device

Country Status (1)

Country Link
JP (1) JP2888555B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002171410A (en) 2000-12-01 2002-06-14 Minolta Co Ltd Image processing apparatus

Also Published As

Publication number Publication date
JPH03109868A (en) 1991-05-09

Similar Documents

Publication Publication Date Title
US4774569A (en) Method for adaptively masking off a video window in an overscanned image
JPH04119763A (en) Image processor
US5109436A (en) Image data processing system with adaptive binary quantization
EP0415661B1 (en) Image processing apparatus
JP3031994B2 (en) Image processing device
US4855943A (en) Method and apparatus for deaveraging a stream of averaged data
US4868670A (en) Apparatus and method for improving the compressibility of an enhanced image through use of a momentarily varying threshold level
JP2888555B2 (en) Image processing device
EP0382580B1 (en) Image processing apparatus
JP3207012B2 (en) Image processing device
JPH0698157A (en) Halftone image forming device
JP3245600B2 (en) Image processing device
US6625324B1 (en) Apparatus and method for providing compensation bits for post image processing
JPH07302190A (en) Divider and image signal reader using the same
JP3256267B2 (en) Image processing device
JP3373876B2 (en) Image processing device
US20020008879A1 (en) Image processing method
JPH05183737A (en) Picture processor
JP3809274B2 (en) Image processing apparatus and method
JP2859333B2 (en) Image processing device
JP2702593B2 (en) Isolated point removal device
JPH0522588A (en) Picture processor
JP3157870B2 (en) Image processing method
JPH0385965A (en) Picture processing unit
JP3011464B2 (en) Image processing method

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees