JPH03109868A - Picture processor - Google Patents

Picture processor

Info

Publication number
JPH03109868A
JPH03109868A JP1246363A JP24636389A JPH03109868A JP H03109868 A JPH03109868 A JP H03109868A JP 1246363 A JP1246363 A JP 1246363A JP 24636389 A JP24636389 A JP 24636389A JP H03109868 A JPH03109868 A JP H03109868A
Authority
JP
Japan
Prior art keywords
error
image
binarization
pixel
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1246363A
Other languages
Japanese (ja)
Other versions
JP2888555B2 (en
Inventor
Hiroki Sugano
浩樹 菅野
Hitoshi Yoneda
米田 等
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP1246363A priority Critical patent/JP2888555B2/en
Publication of JPH03109868A publication Critical patent/JPH03109868A/en
Application granted granted Critical
Publication of JP2888555B2 publication Critical patent/JP2888555B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE:To improve the picture quality and the processing efficiency by applying binarizing processing in response to a characteristic of each picture with respect to picture information where a character area and a photographic area exist in mixture. CONSTITUTION:The unit is provided with a binarizing means 4, a binarizing error calculation means 5, a weight coefficient storage means 6, a weight error calculation means 7, and a characteristic quantity extraction means 10 or the like. A maximum density difference of a picture within a prescribed range is calculated as a characteristic quantity, and whether a noted picture element is a character or a photograph is identified by the characteristic quantity, then simple binarization is implemented and when photograph is identified, the error spread method is used to apply binarizing processing and the weight error at the binarizing processing is dispersed to peripheral picture elements by the following binarizing processing. Thus, even when photograph and characters exist in mixture in a picture, binarizing processing in response to each characteristic is attained and normal error dispersion is attained even in the vicinity of the border.

Description

【発明の詳細な説明】 [発明の目的] (産業上の利用分野) 本発明は、文字部と写真部とが混在した文書画像を対象
として、文字部の解像性及び写真部の階調性を高く維持
しつつ二値化処理を行う画像処理装置に関する。
[Detailed Description of the Invention] [Objective of the Invention] (Industrial Field of Application) The present invention targets a document image in which a text portion and a photo portion are mixed, and improves the resolution of the text portion and the gradation of the photo portion. The present invention relates to an image processing device that performs binarization processing while maintaining high quality.

(従来の技術) 一般に、コード情報だけでなくイメージ情報をも扱うこ
とのできる文書画像処理装置等の画像処理装置において
は、スキャナ等の読取手段で読取った画像情報に対して
文字や線図などのコントラストのある画像情報は固定閾
値により単純二値化を行ない、写真などの階調性を有す
る画像情報は、デイザ法等の疑似階調化手段によって二
値化を行なっている。これは、読取った画像情報を固定
閾値により一律に単純二値化処理を行なうと、文字・線
図等の領域は解像性が保存されるため画質劣化は生じな
いが、写真等の領域では階調性が保存されず画質劣化が
生じた画像となってしまう一方、読取った画像情報を組
織的デイザ法等で一律に階調化処理を行なうと、写真等
の領域は階調性が保存されるため画質劣化は生じないが
、文字・線図等の領域では解像性が低下して画質劣化が
生じた画像となってしまうからである。すなわち、読取
った画像情報に対して、単一の二値化手法を適用した場
合は、異なる特徴を有する各領域の画質を同時に満足し
つつ二値化することは不可能である。
(Prior Art) Generally, in an image processing device such as a document image processing device that can handle not only code information but also image information, text and line drawings are processed based on the image information read by a reading means such as a scanner. Image information with contrast is simply binarized using a fixed threshold value, and image information with gradation such as photographs is binarized using a pseudo gradation means such as a dither method. This is because if read image information is uniformly subjected to simple binarization processing using a fixed threshold value, resolution will be preserved in areas such as text and line drawings, so image quality will not deteriorate, but in areas such as photographs, image quality will not deteriorate. On the other hand, if the read image information is subjected to uniform gradation processing using systematic dithering, etc., the gradation is preserved in areas such as photographs. However, in areas such as characters and line drawings, the resolution decreases, resulting in an image with degraded image quality. That is, when a single binarization method is applied to read image information, it is impossible to binarize while simultaneously satisfying the image quality of each region having different characteristics.

一方、写真画像の領域の階調性を満足し、文字や線図の
領域も組織的デイザ法に比べ解像性の良い二値化方式と
して「誤差拡散法jが提案されている。この「誤差拡散
法」は、雑誌r Proceedingof the 
S、1.D Vol、1725econd Quart
er 1.97B75−77Jの文献rAn Adap
tive Algorithm forSpatial
 Grey 5caleJに記載されているように、注
目画素を一定の閾値で二値化した際の二値化誤差に所定
の重み係数を乗じたものを注目画素周辺の所定領域の朱
だ二値化されていない画素に分散させ、朱だ二値化され
ていない画素を二値化するに際し、この分散された二値
化誤差を補正値として加味して二値化を行なおうとする
方式である。
On the other hand, the error diffusion method has been proposed as a binarization method that satisfies the gradation of photographic image areas and has better resolution for text and line drawing areas than the systematic dither method. "Error Diffusion Method" is published in the journal Proceedings of the
S, 1. D Vol, 1725econd Quart
er 1.97B75-77J literature rAn Adapt
tive Algorithm for Spatial
As described in Gray 5caleJ, the value obtained by multiplying the binarization error by a predetermined weighting coefficient by the binarization error when the pixel of interest is binarized with a certain threshold value is calculated as the red color of a predetermined region around the pixel of interest. This method attempts to perform binarization by adding this dispersed binarization error as a correction value when binarizing pixels that have not been binarized.

第6図は、上記のような「誤差拡散法」を用いた画像処
理装置の構成を示すブロック図である。
FIG. 6 is a block diagram showing the configuration of an image processing apparatus using the above-described "error diffusion method."

図において、410は入力画像信号、40は注目画素の
画像情報を補正する補正手段411は補正画像信号、4
2は補正された注目画素の画像情報を二値化する二値化
手段、421は二値化画像信号、43は二値化された注
目画素の二値化誤差を算出する二値化誤差算出手段、4
31は二値化誤差信号、44は重み誤差を算出するため
の重み係数を記憶する重み係数記憶手段、45は二値化
誤差算出手段43で算出した二値化誤差431に重み係
数記憶手段44の重み係数を乗じて重み誤差を算出する
重み誤差算出手段、451は重み誤差信号、46は重み
誤差算出手段45で算出した重み誤差を記憶する誤差記
憶手段、481は画像補正信号である。以下、「誤差拡
散法」を用いた二値化処理につき詳細に説明する。
In the figure, 410 is an input image signal, 40 is a correction means 411 for correcting image information of a pixel of interest, and 4 is a corrected image signal.
2 is a binarization means for binarizing the corrected image information of the pixel of interest, 421 is a binarized image signal, and 43 is a binarization error calculation for calculating the binarization error of the binarized pixel of interest. means, 4
31 is a binarization error signal, 44 is a weighting coefficient storage means for storing a weighting coefficient for calculating a weighting error, and 45 is a weighting coefficient storage means 44 for the binarization error 431 calculated by the binarization error calculation means 43. 451 is a weighted error signal, 46 is an error storage means for storing the weighted error calculated by the weighted error calculating means 45, and 481 is an image correction signal. The binarization process using the "error diffusion method" will be explained in detail below.

例えばスキャナ等の入力装置で画像を読取って得られた
入力画像信号410は、補正手段40において、画像補
正信号481により補正処理され、補正画像信号411
として出力される。この補正画像信号411が供給され
た二値化手段42は、上記補正画像信号411と二値化
閾値Thとを比較することにより二値化画像信号421
を出力する。すなわち、上記二値化閾値Thとして例え
ばr80,6J  (添字の「16」は16進数である
ことを示す)用い、補正画像信号4]1が二値化閾値T
hより太きければ二値化画像信号421として[1(黒
画素)を出力し、小さければ「0」 (白画素)を出力
する。
For example, an input image signal 410 obtained by reading an image with an input device such as a scanner is corrected by an image correction signal 481 in the correction means 40, and the corrected image signal 411
is output as The binarization means 42 to which the corrected image signal 411 is supplied generates the binarized image signal 421 by comparing the corrected image signal 411 and the binarization threshold Th.
Output. That is, for example, r80,6J (the subscript "16" indicates a hexadecimal number) is used as the binarization threshold Th, and the corrected image signal 4]1 is set to the binarization threshold T.
If it is thicker than h, ``1'' (black pixel) is output as the binarized image signal 421, and if it is smaller, ``0'' (white pixel) is output.

次に、二値化誤差算出手段43では、補正画像信号41
1と二値化画像信号421(ただし、ここでは二値化画
像信号421が10」のときはrO+6J、「l」のと
きは「F F 16Jとする)止の差を算出を二値化誤
差信号431として出力する。重み誤差算出手段45で
は、二値化誤差信号431に重み係数記憶手段44に記
憶されている重み係数A、B。
Next, in the binarization error calculation means 43, the corrected image signal 41
1 and the binarized image signal 421 (here, when the binarized image signal 421 is 10, it is rO + 6J, and when it is "l", it is F F 16J). The weighting error calculation means 45 outputs the weighting coefficients A and B stored in the weighting coefficient storage means 44 as the binarized error signal 431.

CS、D(ただし、A=7/16、B=1/16、C=
5/16、D=3/16)を乗じた重み誤差451を算
出する。ここで重み係数記憶手段44における「*」は
注目画素の位置を示し、注1」画素の二値化誤差に重み
係数ASBSC,Dを乗じて、注目画素の周辺4画素(
重み係数A、B、C,Dの位置に対応する画素)の重み
誤差451を算出する。誤差記憶手段46は、重み誤差
算出手段45て算出した重み誤差451を記憶するため
のものであり、重み誤差算出手段45で算出した4画素
分の重み誤差451は、注目画素「*」に対してそれぞ
れeAseB 、ec % eDの領域に加算されて記
憶される。
CS, D (A=7/16, B=1/16, C=
5/16, D=3/16) is calculated. Here, "*" in the weighting coefficient storage means 44 indicates the position of the pixel of interest, and the binarization error of the pixel (note 1) is multiplied by the weighting coefficient ASBSC,D, and the surrounding four pixels of the pixel of interest (
The weighting error 451 of pixels corresponding to the positions of weighting coefficients A, B, C, and D is calculated. The error storage means 46 is for storing the weight error 451 calculated by the weight error calculation means 45, and the weight error 451 for 4 pixels calculated by the weight error calculation means 45 is for the pixel of interest "*". are added to the areas eAseB and ec%eD, respectively, and stored.

前述した画像補正信号481は、「*」の位置に対する
補正信号であり以上の手順で算出した計4画素分の重み
誤差を累積した信号である。
The image correction signal 481 described above is a correction signal for the position of "*", and is a signal obtained by accumulating weight errors for a total of four pixels calculated in the above procedure.

このように、「誤差拡散法」は注目画素の二値化により
発生した二値化誤差を、周辺画素に拡散して誤差補償を
行うことにより、二値化誤差を最小にするものである。
In this manner, the "error diffusion method" minimizes the binarization error by diffusing the binarization error generated by binarization of the pixel of interest to surrounding pixels to compensate for the error.

したがって、入力画像か写真画像のように階調性を重視
するものである場合は、その階調性を十分満足した二値
化処理を行うことが可能である。
Therefore, if the gradation is important, such as an input image or a photographic image, it is possible to perform binarization processing that fully satisfies the gradation.

しかしながら、人力画像が文字画像のように、階調性よ
り解像性を1M視する画像においては、誤差補償の処理
か災いし、文字部の解像性が劣化するといった欠点があ
った。また、写真と文字とが混在する画像の場合は、文
字部と写真部との境界近傍において注目画素が文字であ
る場合にも重み誤差が算出されて文字部に隣接する写真
部を二値化する際の補正値に反映されるので写真部の端
部において正確な誤差拡散ができず、画質か低下すると
いう欠点があった。
However, when a human image is a character image, in which 1M resolution is more important than gradation, error compensation processing is a problem, and the resolution of the character part deteriorates. In addition, in the case of an image with a mixture of photos and text, a weighted error is calculated even if the pixel of interest is text near the boundary between the text and photo areas, and the photo area adjacent to the text area is binarized. Since this is reflected in the correction value at the time of image processing, accurate error diffusion cannot be achieved at the edges of the photographic area, resulting in a decrease in image quality.

(発明が解決しようとする課題) 本発明は、「誤差拡散法」が文字領域と写真領域とが混
在した文書画像に対しても単一の手法にて二値化処理を
行うため、各領域ごとに画像の特徴に応じた処理を行う
ことができず、入力画像が写真画像のように階調性を重
視するものである場合は、その階調性を十分満足した二
値化処理を行うことが可能であるが、文字画像のように
階調性より解像性を重視する画像においては、誤差補償
の処理か災いし、文字部の解像性が劣化するといった欠
点、及び、文字領域と写真領域との境界近傍において正
確な誤差拡散ができず画質が低下するという欠点を除去
し、文字領域と写真領域とが混在する画像情報であって
も各画像の特徴に応じた二値化処理を行うことで画質の
向上を図るとともに、文字領域と写真領域との境界近傍
であっても画質の低下を防止することができ、さらには
画像の特徴に応じた処理を行うことで各種画像処理にお
ける処理効率の向上が図れる画像処理装置を提供するこ
とを目的とする。
(Problems to be Solved by the Invention) In the present invention, since the "error diffusion method" performs binarization processing using a single method even for document images in which text areas and photo areas are mixed, each area If it is not possible to perform processing according to the characteristics of each image, and the input image is one that emphasizes gradation, such as a photographic image, perform binarization processing that fully satisfies the gradation. However, in images where resolution is more important than gradation, such as character images, there are disadvantages such as error compensation processing, deterioration of resolution in character areas, and This eliminates the drawback that accurate error diffusion is not possible near the boundary between the text and photo areas, resulting in a decrease in image quality, and the system can binarize image information according to the characteristics of each image, even if the image information includes text areas and photo areas. Through processing, it is possible to improve image quality and prevent deterioration of image quality even near the boundary between text areas and photo areas.Furthermore, by performing processing according to the characteristics of the image, various types of images can be improved. An object of the present invention is to provide an image processing device that can improve processing efficiency in processing.

[発明の構成] (課題を解決するための手段) 本発明の画像処理装置は、処理対象画像における注目画
素の画像情報を二値化する二値化手段と、この二値化手
段で二値化された情報と前記注目画素の画像情報とから
二値化誤差を算出する二値化誤差算出手段と、重み誤差
を算出するための重み係数を記憶する重み係数記憶手段
と、この重み係数記憶手段に記憶された重み係数を前記
二値化誤差算出手段で算出された二値化誤差に乗じて重
み誤差を算出する重み誤差算出手段と、前記注目画素を
含む所定範囲内の画像情報から画像の特徴を表わす特徴
量を抽出する特徴量抽出手段と、この特徴量抽出手段で
抽出された特徴量に応じて、前記重み誤差算出手段で算
出された重み誤差の切捨て処理を行う処理手段と、この
処理手段で切捨て処理が行われた重み誤差を記憶する誤
差記憶手段と、この誤差記憶手段に記憶されている重み
誤差による補正を行うか否かを前記特徴量抽畠手段で抽
出された特徴量に応じて選択する選択手段と、この選択
手段により重み誤差により補正を行う旨が選択された際
、前記注目画素の画像情報を補正する補正手段とを具備
したことを特徴とする。
[Structure of the Invention] (Means for Solving the Problems) An image processing apparatus of the present invention includes a binarization means for binarizing image information of a pixel of interest in an image to be processed, and a binarization means for binarizing image information of a pixel of interest in an image to be processed. binarization error calculation means for calculating a binarization error from the converted information and the image information of the pixel of interest, a weighting coefficient storage means for storing a weighting coefficient for calculating a weighting error, and this weighting coefficient storage. weighting error calculation means for calculating a weighting error by multiplying the binarization error calculated by the binarization error calculation means by a weighting coefficient stored in the means; a feature amount extraction means for extracting a feature amount representing the feature of the feature amount, and a processing means for truncating the weight error calculated by the weight error calculation means according to the feature amount extracted by the feature amount extraction means; an error storage means for storing the weighted error that has been truncated by the processing means; and an error storage means for storing the weighted error that has been truncated by the processing means; The present invention is characterized by comprising a selection means for selecting according to the amount, and a correction means for correcting the image information of the pixel of interest when the selection means selects to perform correction by weight error.

(作 用) 本発明は、注目画素を含む所定範囲内のウィンドウ内に
おける各画素の最大濃度差は、文字領域については大き
く、写真領域については小さいといった特徴を利用し、
先ず、所定範囲内の画像の最大濃度差を特徴量として算
出し、この特徴量により注目画素が文字であるか写真で
あるかを識別する。そして、注目画素が文字であること
を識別した場合は、注目画素の画像信号の補正を行わず
に所定の閾値で二値化する、所謂、単純二値化を行う。
(Function) The present invention utilizes the characteristic that the maximum density difference between each pixel within a window within a predetermined range including the pixel of interest is large for text areas and small for photo areas.
First, the maximum density difference of images within a predetermined range is calculated as a feature amount, and this feature amount is used to identify whether the pixel of interest is a text or a photograph. When it is determined that the pixel of interest is a character, the image signal of the pixel of interest is binarized using a predetermined threshold without correction, so-called simple binarization.

この際、二値化処理により生じた二値化誤差を切捨てる
ことにより重み誤差の記憶を行わず、したかって単純二
値化処理時の重み誤差は以下の二値化処理において周辺
画素に分散させない。
At this time, the weight error is not stored by cutting off the binarization error caused by the binarization process, and therefore the weight error during the simple binarization process is dispersed to surrounding pixels in the following binarization process. I won't let you.

一方、注目画素が写真であることを識別した場合は、注
目画素の画像信号を周辺画素の二値化誤差情報で補正し
て得られる補正画像情報を所定の閾0 値で二値化する、所謂、誤差拡散法を用いて二値化処理
を行い、この二値化処理時の重み誤差は以下の二値化処
理において周辺画素に分散させるようにしたものである
。これにより、写真と文字とが混在する画像であっても
、それぞれの特徴に応じた二値化処理が可能となるとと
もに、文字領域と写真領域との境界近傍においても正確
な誤差拡散ができるものとなっている。
On the other hand, when it is identified that the pixel of interest is a photograph, the image signal of the pixel of interest is corrected with the binarization error information of surrounding pixels, and the corrected image information obtained is binarized using a predetermined threshold value of 0. Binarization processing is performed using a so-called error diffusion method, and weight errors during this binarization processing are dispersed to surrounding pixels in the following binarization processing. This makes it possible to perform binarization processing according to the characteristics of each image, even if the image contains both photographs and text, as well as accurate error diffusion near the boundary between text and photograph areas. It becomes.

(実施例) 以下、図面を参照しながら本発明の一実施例について説
明する。
(Example) Hereinafter, an example of the present invention will be described with reference to the drawings.

第2図は本発明に係る二値化処理の方法を示す原理図で
ある。図において、ラインバッファ1は、処理対象画像
の画像情報を記憶するもので、「*」はラインバッファ
1中の注目画素の位置を示している。このラインバッフ
ァ1からの入力画像信号21は補正手段3に供給される
ようになっている。
FIG. 2 is a principle diagram showing the method of binarization processing according to the present invention. In the figure, a line buffer 1 stores image information of an image to be processed, and "*" indicates the position of a pixel of interest in the line buffer 1. The input image signal 21 from the line buffer 1 is supplied to the correction means 3.

補正手段3は上記注目画素の画像情報を補正するもので
、この補正手段3て補正された補正画像信号31は二値
化手段4及び二値化誤差算出手段5に1 供給される。二値化手段4は、補正された注目画素の画
像情報を所定の閾値Thlで二値化するもので、この二
値化手段4で二値化された二値化画像信号41は、二値
化処理の結果として外部に出力されるとともに、二値化
誤差算出手段5に供給されるようになっている。二値化
誤差算出手段5は、補正画像信号31と二値化画像信号
41とから二値化された注目画素の二値化誤差を算出す
るもので、この二値化誤差算出手段5で算出された二値
化誤差信号51は重み誤差算出手段7に供給されるよう
になっている。重み誤差算出手段7は、重み係数記憶手
段6に記憶している重み係数と上記二値化誤差信号51
とを入力し、二値化誤差算出手段5で算出した二値化誤
差信号51に重み係数記憶手段6の重み係数を乗じて重
み誤差を算出するものである。この重み誤差算出手段7
て算出した重み誤差信号71は、誤差切捨て手段8に供
給されるようになっている。誤差切捨て手段8は、後述
する識別手段1■からの識別信号111従って、上記重
み誤差信号71を出力するかゼロを出力するかを選択し
、2 選択重み誤差信号81として出力するものである。
The correction means 3 corrects the image information of the pixel of interest, and the corrected image signal 31 corrected by the correction means 3 is supplied to the binarization means 4 and the binarization error calculation means 5. The binarization means 4 binarizes the corrected image information of the pixel of interest using a predetermined threshold Thl, and the binarized image signal 41 binarized by the binarization means 4 is a binary The result of the conversion processing is outputted to the outside, and is also supplied to the binarization error calculation means 5. The binarization error calculation means 5 calculates the binarization error of the binarized pixel of interest from the corrected image signal 31 and the binarized image signal 41. The binarized error signal 51 thus obtained is supplied to the weighted error calculation means 7. The weighting error calculation means 7 calculates the weighting coefficients stored in the weighting coefficient storage means 6 and the binarization error signal 51.
is input, and the binarization error signal 51 calculated by the binarization error calculation means 5 is multiplied by the weighting coefficient of the weighting coefficient storage means 6 to calculate the weighting error. This weight error calculation means 7
The calculated weighted error signal 71 is supplied to the error truncation means 8. The error truncation means 8 selects whether to output the weighted error signal 71 or zero according to the identification signal 111 from the identification means 11 (described later), and outputs it as a 2 selection weighted error signal 81.

この誤差切捨て手段8が出力する選択重み誤差信号81
は誤差記憶手段9に供給され、重み誤差として記憶され
る。この誤差記憶手段9に記憶された重み誤差は画像補
正信号91として選択手段12に供給されるようになっ
ている。
Selection weight error signal 81 outputted by this error truncation means 8
is supplied to the error storage means 9 and stored as a weighted error. The weighted error stored in the error storage means 9 is supplied to the selection means 12 as an image correction signal 91.

一方、特徴量算出手段10は、ラインバッファ1の所定
領域内(大枠で囲まれた部分)の画像情報から、当該領
域内における最大濃度差(ΔDmax)を算出するもの
である。この特徴量算出手段10が出力する最大濃度差
信号101は識別手段11に1」(給されるようになっ
ている。識別手段11は、上記最大濃度差信号101を
所定の閾値Th2と比較し、注目画素が写真であるか文
字であるかを示す識別信号111を出力するものである
。この識別手段11がIJ−1カする識別信号111は
選択手段J2に1」丸給されるようになっている。選択
手段12は、上記識別信号J、 l ]か写真である旨
を示している場合は、誤差記憶手段9に記憶されている
重み誤差を選択画像補正信号121として出力し、文字
である旨を示し3 ている場合は、例えばゼロを選択画像補正信号121と
して出力するものである。そして、ラインバッファ1か
らの入力画像信号21は、補正手段3において、上記選
択画像補正信号121により補正が行われて二値化手段
4に供給されることになる。
On the other hand, the feature calculation means 10 calculates the maximum density difference (ΔDmax) within a predetermined area of the line buffer 1 (the area surrounded by a large frame) from image information within the area. The maximum density difference signal 101 outputted by the feature quantity calculation means 10 is supplied to the identification means 11.The identification means 11 compares the maximum density difference signal 101 with a predetermined threshold Th2. , outputs an identification signal 111 indicating whether the pixel of interest is a photograph or a character.The identification signal 111 outputted by the identification means 11 is sent to the selection means J2 in such a manner that If the identification signal J, l ] indicates that it is a photograph, the selection means 12 outputs the weighted error stored in the error storage means 9 as the selected image correction signal 121, and 3 indicates that the selected image correction signal 121 is output as the selected image correction signal 121. Then, the input image signal 21 from the line buffer 1 is outputted as the selected image correction signal 121 in the correction means 3. The signal is corrected and supplied to the binarization means 4.

次に、上記構成において、本発明の二値化処理方法を詳
細に説明する。
Next, in the above configuration, the binarization processing method of the present invention will be explained in detail.

例えばスキャナ等の入力装置で画像を読取って得られた
入力画像信号21は、補正手段3において、選択画像補
正信号121により補正処理され、補正画像信号31と
して出力される。この補正画像信号31が供給された二
値化手段4は、上記補正画像信号31と二値化閾値Th
lとを比較することにより二値化画像信号41を出力す
る。すなわち、上記二値化閾値Thlとして、例えばr
80+6」を用い、補正画像信号31が二値化閾値Th
lより大きければ二値化画像信号41として「1」 (
黒画素)を出力し、小さければ「0」 (白画素)を出
力する。
For example, an input image signal 21 obtained by reading an image with an input device such as a scanner is corrected by the selected image correction signal 121 in the correction means 3 and output as a corrected image signal 31. The binarization means 4 to which the corrected image signal 31 is supplied is configured to combine the corrected image signal 31 and the binarization threshold Th.
A binary image signal 41 is output by comparing with l. That is, as the binarization threshold Thl, for example, r
80+6", the corrected image signal 31 is set to the binarization threshold Th
If it is larger than l, the binary image signal 41 is set to “1” (
If it is smaller, it outputs "0" (white pixel).

次に、二値化誤差算出手段5では、補正画像信号31と
二値化画像信号41(ただし、ここでは二値化コ4 画像信号41が「O」のときはrO+6J、「1」のと
きは「FF16」とする。)との差を算出し、これを二
値化誤差信号51として出力する。重み誤差算出手段7
では、二値化誤差信号51に重み係数記憶手段6に記憶
されている重み係数ASB。
Next, in the binarization error calculation means 5, the corrected image signal 31 and the binarized image signal 41 (here, the binarized image signal 41 is rO+6J when the image signal 41 is "O", and rO+6J when it is "1"). is assumed to be "FF16"), and outputs this as a binarized error signal 51. Weight error calculation means 7
Now, the weighting coefficient ASB stored in the weighting coefficient storage means 6 is added to the binarization error signal 51.

C,D (ただし、A 、= 7 / 16、B=1/
16、C=5/16、D=3/16)を乗じた重み誤差
71を算出する。ここで、重み係数記憶手段6における
「*」は注目画素の位置を示し、注目画素の二値化誤差
に重み係数ASBSC,Dを乗じて、注目画素の周辺4
画素(重み係数A、B、C,Dの位置に対応する画素)
の重み誤差71を算出する。
C, D (However, A = 7/16, B = 1/
16, C=5/16, D=3/16) is calculated. Here, "*" in the weighting coefficient storage means 6 indicates the position of the pixel of interest, and the binarization error of the pixel of interest is multiplied by the weighting coefficient ASBSC,D.
Pixel (pixel corresponding to the position of weighting coefficient A, B, C, D)
Calculate the weight error 71 of .

そして、この重み誤差71は誤差切捨て手段8に供給さ
れる。誤差切捨て手段8では、後述する識別手段11か
らの識別信号111が「1」、つまり注目画素が文字画
素であることを示しているときは重み誤差71を切捨て
てゼロを選択重み誤差81として出力し、識別信号1.
11が「0」、つまり注目画素が写真画素であることを
示しているときは重み誤差71をそのまま選択重み誤差
81として出力する。
This weighted error 71 is then supplied to the error truncation means 8. In the error truncation means 8, when the identification signal 111 from the identification means 11, which will be described later, is "1", that is, indicating that the pixel of interest is a character pixel, the weighted error 71 is truncated and zero is selected and outputted as the weighted error 81. and identification signal 1.
When 11 is "0", that is, the pixel of interest is a photographic pixel, the weight error 71 is output as is as the selection weight error 81.

5 記憶手段9は、重み誤差算出手段7で算出し、重み誤差
切捨て手段8で画像の特徴に応じて切捨て処理が施され
た選択重み誤差81を記憶するものである。すなわち、
識別手段11で写真画素であることを識別した場合は、
重み誤差算出手段7て算出した4画素分の重み誤差71
は、注目画素「*」に対してそれぞれeAs  B、e
CSepの各類域に累積して記憶される。一方、識別手
段11で文字画素であることを識別した場合は、注目画
素「*」に対してそれぞれeAz enSeCSeDの
各領域にゼロを加算する。このことは、文字画素の場合
は二値化誤差を拡散しないことを意味する。画像補正信
号91は、「*」の位置の信号であり、上記手順で算出
した計4画素分の重み誤差の累積した信号である。
5. The storage means 9 stores the selection weight error 81 calculated by the weight error calculation means 7 and subjected to truncation processing by the weight error truncation means 8 according to the characteristics of the image. That is,
When the identification means 11 identifies the pixel as a photographic pixel,
Weight error 71 for 4 pixels calculated by weight error calculation means 7
are eAs B and e for the pixel of interest “*”, respectively.
It is stored cumulatively in each class area of CSep. On the other hand, if the identification means 11 identifies the pixel as a character pixel, zero is added to each area of eAz enSeCSeD for each pixel of interest "*". This means that in the case of character pixels, binarization errors are not diffused. The image correction signal 91 is a signal at the position of "*", and is a signal obtained by accumulating weight errors for a total of four pixels calculated in the above procedure.

一方、特徴量算出手段10では、注目画素「*」を含む
(4X4)のウィンドウ内(大枠部)の画像濃度の最大
濃度差を算出し、最大濃度差信号101を出力する。識
別手段11では上記最大濃度信号101と予め設定され
ている閾値Th2とを比較6 し、最大濃度差信号101がTh2より大きければ識別
信号111として文字部を示す「1」を出力し、小さけ
れば写真部を示す「0」を出力する。選択手段12では
、識別信号111に応じて選択画像補正信号121を出
力するか否かを決定する。すなわち、識別信号111か
「O」、つまり写真画素であれば選択画像補正信号12
1として前記画像補正信号91を、識別信号が「1」、
つまり文字画素であれば選択画像補正信号121として
ゼロを出力する。
On the other hand, the feature calculation means 10 calculates the maximum density difference in image density within the (4×4) window (large frame portion) including the pixel of interest “*”, and outputs a maximum density difference signal 101. The identification means 11 compares the maximum density signal 101 with a preset threshold Th2, and if the maximum density difference signal 101 is larger than Th2, it outputs "1" indicating the character part as the identification signal 111, and if it is smaller, it outputs "1" indicating the character part. Outputs "0" indicating the photo section. The selection means 12 determines whether or not to output the selected image correction signal 121 according to the identification signal 111. That is, the identification signal 111 or "O", that is, the selected image correction signal 12 if it is a photographic pixel.
The image correction signal 91 is set as "1", the identification signal is set as "1",
In other words, if it is a character pixel, zero is output as the selected image correction signal 121.

次に、上記二値化処理方法を適用した画像処理装置の一
例について説明する。なお第2図に示した原理図と同等
機能を有する部分及び信号には同一符号を付して説明す
る。
Next, an example of an image processing apparatus to which the above binarization processing method is applied will be described. Note that parts and signals having the same functions as those in the principle diagram shown in FIG. 2 will be described with the same reference numerals.

第1図はこの発明の一実施例に係わる画像処理装置を示
す概略構成図である。この画像処理装置は、例えばイメ
ージ・スキャナ等の読取装置にて原稿を読取って得られ
た画像情報を、例えば1画素当り8ビツトのデジタルデ
ータとして入力し、これを二値化処理するものである。
FIG. 1 is a schematic configuration diagram showing an image processing apparatus according to an embodiment of the present invention. This image processing device inputs image information obtained by reading a document with a reading device such as an image scanner as digital data of, for example, 8 bits per pixel, and binarizes this data. .

ラインバッファ1は、このような画像情報を一時的に格
納して7 おき、以下に示す画像処理(二値化処理)に供するもの
である。
The line buffer 1 temporarily stores such image information and provides it for image processing (binarization processing) described below.

遅延手段2は、上記ラインバッファ1から所定のクロッ
クに同期して出力される画像信号を入力し、その画像信
号を所定時間だけ、すなわち後述する識別信号111を
算出し選択画像補正信号121を出力するまでの時間だ
け遅延させるものである。
The delay means 2 inputs the image signal output from the line buffer 1 in synchronization with a predetermined clock, and processes the image signal for a predetermined period of time, that is, calculates an identification signal 111 to be described later and outputs a selected image correction signal 121. This is to delay the amount of time until the

補正手段3は加算器で構成され、注目画素の画像情報を
補正するものである。すなわち、上記遅延手段2で遅延
された画像信号21と後述する選択回路12からの選択
画像補正信号121とを加算し、補正画像信号31を出
力する。この補正画像信号31は、二値化手段4で所定
の閾値Thlと比較されることにより二値化され、二値
化画像信号41として出力される。この際、補正画像信
号31が二値化閾値Thlより大きければ二値化画像信
号41として「1」 (黒画素)が、小さければ「0」
 (白画素)がそれぞれMカされる。
The correction means 3 is composed of an adder, and corrects the image information of the pixel of interest. That is, the image signal 21 delayed by the delay means 2 is added to a selected image correction signal 121 from a selection circuit 12, which will be described later, and a corrected image signal 31 is output. This corrected image signal 31 is binarized by being compared with a predetermined threshold Thl by the binarizing means 4 and output as a binarized image signal 41. At this time, if the corrected image signal 31 is larger than the binarization threshold Thl, "1" (black pixel) is set as the binarized image signal 41, and if it is smaller, it is set to "0".
(white pixels) are each multiplied by M.

次に、上記二値化処理で生じた二値化誤差(EB)51
を算出する。二値化誤差算出手段5は8 減算器で構成され、上記補正手段3が自刃する補正画像
信号(CI)31と上記二値化画像信号(Bl)41と
の減算処理を行い二値化誤差信号51を算出する。すな
わち、二値化誤差(E B)をEB=CI−B I  
       ・・・(1)として求める。
Next, the binarization error (EB) 51 generated in the binarization process is
Calculate. The binarization error calculating means 5 is composed of 8 subtracters, and performs a subtraction process between the corrected image signal (CI) 31 which the correction means 3 self-cuts and the binarized image signal (Bl) 41 to generate a binarization error. A signal 51 is calculated. That is, the binarization error (EB) is expressed as EB=CI-B I
...Find as (1).

重み誤差算出手段7は乗算器で構成され、二値化誤差5
1と重み係数記憶手段6に記憶されている重み係数とを
入力して乗算し、重み誤差71を出力する。重み係数記
憶手段6は、前述した4つの重み係数(A=7/16、
B=1/16、C=5/16、D=3/16)を注目画
素の周辺4画素の対応する位置に′応じて記憶するメモ
リで構成されている。4画素の重み誤差はそれぞれe 
p、 = A X E B          、= 
(2)e B= B X E B          
−(3)e(=CXEB          −−−(
The weight error calculation means 7 is composed of a multiplier, and the binarization error 5
1 and the weighting coefficient stored in the weighting coefficient storage means 6 are input and multiplied, and a weighting error 71 is output. The weighting coefficient storage means 6 stores the aforementioned four weighting coefficients (A=7/16,
B=1/16, C=5/16, D=3/16) in accordance with the corresponding positions of the four surrounding pixels of the pixel of interest. The weight error of 4 pixels is e
p, = A X E B, =
(2) e B= B X E B
-(3)e(=CXEB---(
.

eD=DxEB          −(5)として求
められる。この場合、e13はeB =EB −(eA
+e(+eD)−(8)9 として求めても良い。そして、各重み誤差は誤差記憶手
段9のそれぞれ対応する位置に蓄える。誤差記憶手段9
は2ライン分のラインメモリで構成される。画像補正信
号91は誤差記憶手段9の「*」の位置から読み出した
信号である。誤差記憶手段9の「*」の位置には既に処
理された4画素分の重み誤差が記憶されている。
It is obtained as eD=DxEB-(5). In this case, e13 is eB =EB - (eA
It may also be obtained as +e(+eD)-(8)9. Then, each weight error is stored at a corresponding position in the error storage means 9. Error storage means 9
is composed of line memory for two lines. The image correction signal 91 is a signal read from the "*" position of the error storage means 9. At the position of "*" in the error storage means 9, weighted errors for four pixels that have already been processed are stored.

一方、上記動作と並行して画像の種類を識別する識別信
号111を算出する。識別信号111は、上記ラインバ
ッファ1から出力される画像情報から注目画素を含む局
所領域における特徴量情報としての最大濃度差を求め、
この特徴量情報をもとに上記局所領域の画像情報が文学
部特有の性質を示すか、あるいは写真部としての特徴を
示すかを判定して識別信号111を出力する。
Meanwhile, in parallel with the above operation, an identification signal 111 for identifying the type of image is calculated. The identification signal 111 is obtained by determining the maximum density difference as feature amount information in a local area including the pixel of interest from the image information output from the line buffer 1, and
Based on this feature amount information, it is determined whether the image information of the local area exhibits characteristics specific to the Literature Department or characteristics of the Photography Department, and an identification signal 111 is output.

すなわち、特徴量算出手段IOはラインバッファ1から
出力される画像情報から、第5図に示すように、注目画
素(斜線で示す画素)を含む(4×4)の領域内におけ
る画像濃度の最大値及び最小値を求める。次に、これら
を減算して、上記0 (4X4)の領域内の最大濃度差信号すなわち特徴量情
報を抽出する。したがって、ラインバッファ1は4ライ
ン分のラインメモリで構成することが必要である。比較
器11では、この特徴量情報と予め設定した閾値Th2
とを比較し、最大濃度差信号がTh2より大きければ識
別信号として文字を表す「1」を出力し、小さければ写
真を表す「0」を出力する。
That is, the feature amount calculation means IO calculates the maximum image density within a (4×4) area including the pixel of interest (pixel indicated by diagonal lines) from the image information output from the line buffer 1, as shown in FIG. Find the value and minimum value. Next, these are subtracted to extract the maximum density difference signal in the 0 (4×4) area, that is, the feature amount information. Therefore, the line buffer 1 needs to be composed of line memories for four lines. The comparator 11 uses this feature information and a preset threshold Th2.
If the maximum density difference signal is larger than Th2, "1" representing a character is outputted as an identification signal, and if it is smaller, "0" representing a photograph is outputted.

さて、上述した特徴量情報は次のようにして求められる
Now, the above-mentioned feature amount information is obtained as follows.

第3図は、上記特徴量算出手段10の構成例を示すブロ
ック図である。この特徴量算出手段10は処理対象画像
中の注目画素に対して、第5図に示すように、その注目
画素を含む(4X4)画素の領域内における濃度の最大
値と最小値とをそれぞれ求め、それらを減算して最大濃
度差を求めるものである。
FIG. 3 is a block diagram showing an example of the configuration of the feature value calculating means 10. As shown in FIG. As shown in FIG. 5, this feature quantity calculation means 10 calculates the maximum value and minimum value of the density within a (4×4) pixel area including the pixel of interest, respectively, for the pixel of interest in the image to be processed, as shown in FIG. , and subtract them to find the maximum density difference.

先ず、特徴量算出手段■0は、例えば第4図のタイミン
グチャートに示すように、上記ラインバッファ1からク
ロックCLKに同期して列方向に41 画素単位で順次入力される画像情報(8ビット/画素)
をセレクタ10aを介して比較器fob、IOC。
First, the feature value calculation means (20) receives image information (8 bits/8 bits/8 bits) that is sequentially input from the line buffer 1 in the column direction in units of 41 pixels in synchronization with the clock CLK, as shown in the timing chart of FIG. 4, for example. pixel)
The comparator fob and IOC through the selector 10a.

10d、10eに順次分配する。なお、この列単位に入
力される画像情報の上記セレクタloaによる比較器1
0bSlOc、 10d、 10eへの分配は、クロッ
クCLKを受けて動作する2ビットカウンタLOhから
の選択信号SE1、SE2により動作制御されて行なわ
れるようになっている。
It is distributed sequentially to 10d and 10e. Note that the comparator 1 uses the selector loa of the image information input column by column.
The distribution to 0bSlOc, 10d, and 10e is controlled by selection signals SE1 and SE2 from a 2-bit counter LOh that operates in response to a clock CLK.

そして、比較器10b、 10c、 lOd、 10e
によって画像情報が4画素単位でそれぞれ列方向に比較
され、その列における最大濃度(MAX端子出力)と最
小濃度(MIN端子出力とがそれぞれ求められる。
And comparators 10b, 10c, lOd, 10e
The image information is compared in the column direction in units of four pixels, and the maximum density (MAX terminal output) and minimum density (MIN terminal output) in that column are respectively determined.

次段の比較器10f、Logは上記比較器10b110
c % 10d 、 10eからの信号をFTRIのタ
イミングで入力し、列方向にそれぞれ求められた最大値
と最小値とから、さらに最大値と最小値とをそれぞれ求
めるものである。以上の比較処理によって第5図に示す
(4×4画素の領域内における濃度の最大値D max
と最小値D minとがそれぞれ求2 められ、FTR2のタイミングで出力される。
The next stage comparator 10f, Log is the above comparator 10b110
The signals from c % 10d and 10e are input at FTRI timing, and the maximum and minimum values are further determined from the maximum and minimum values determined in the column direction. As a result of the above comparison process, the maximum density value D max within a 4×4 pixel area is shown in FIG.
and the minimum value D min are respectively determined and output at the timing of FTR2.

減算器101はこのようにして求められた濃度の最大値
D maXと最小値D 111nとの差である最大濃度
差ΔD max ΔD max = D max −D mtn    
 ・(7)を求めるものである。
The subtracter 101 calculates the maximum density difference ΔD max ΔD max = D max −D mtn which is the difference between the maximum value D max and the minimum value D 111n of the density determined in this way.
- (7) is sought.

前述の比較器11は、このようにして求めた特徴量情報
すなわち最大濃度差ΔD maXをもとに画像の種別を
判定し識別信号111を出力する。
The above-mentioned comparator 11 determines the type of image based on the feature information obtained in this way, that is, the maximum density difference ΔD maX, and outputs an identification signal 111.

選択回路12は、上記識別信号111をもとに、前述し
た誤差記憶手段9から読み川される画像補正信号91を
選択するか否かを決定する。すなわち、識別信号111
が「0」であれば当該注目画素は写真部であると判定し
、選択画像補正信号121として上記画像補正信号91
を出力し、識別信号111か「1」であれば当該注目画
素は文字部であると判定し、選択画像補正信号」21と
して「0」を出力する。上記補正手段3は、以上述べた
方法で算出した選択画像補正信号121と画像信号21
の加算を行う。このことは、写真画素であれば補正処理
3 が行われて誤差拡散法による二値化処理が施され、文字
画素であれば補正処理は行われず単純二値化処理が施さ
れることを意味する。
Based on the identification signal 111, the selection circuit 12 determines whether or not to select the image correction signal 91 read from the error storage means 9 described above. That is, the identification signal 111
is “0”, the pixel of interest is determined to be a photographic area, and the image correction signal 91 is used as the selected image correction signal 121.
If the identification signal 111 is "1", it is determined that the pixel of interest is a character part, and "0" is output as the selected image correction signal "21". The correction means 3 uses the selected image correction signal 121 and the image signal 21 calculated by the method described above.
Perform the addition of . This means that if it is a photographic pixel, correction processing 3 is performed and binarization processing is performed using the error diffusion method, whereas if it is a text pixel, correction processing is not performed and simple binarization processing is performed. do.

このように構成した本画像処理装置によれば、注目画素
を二値化する際に、画像情報の特徴に応じて、周辺画素
の二値化誤差により注目画素の補正を行うか否かを選択
するため従来の「誤差拡散法」にみられた文字画像の解
像性の劣化を抑制することができ、文字画像の解像性と
写真画像の階調性を同時に満足した二値化処理を行うこ
とが可能となっている。また、文字画素を単純二値化す
る際に生じた二値化誤差は切捨てることにより重み誤差
として記憶せず、したがって単純二値化処理時の重み誤
差は以下の二値化処理において周辺画素に分散されない
ようになっている。これにより、文字部と写真部とが混
在する文書画像の文字部と画像部との境界での画質劣化
を防止し、鮮明な画像を得ることができるものとなって
いる。
According to the image processing device configured in this way, when a pixel of interest is binarized, it is possible to select whether or not to correct the pixel of interest based on the binarization error of surrounding pixels, depending on the characteristics of the image information. As a result, it is possible to suppress the deterioration in resolution of character images seen in the conventional "error diffusion method", and it is possible to perform binarization processing that simultaneously satisfies the resolution of character images and the gradation of photographic images. It is possible to do so. In addition, the binarization error that occurs when character pixels are simply binarized is not stored as a weighted error by being discarded. It is designed so that it is not distributed to This prevents image quality from deteriorating at the boundary between the text and image portions of a document image in which text and photo portions coexist, making it possible to obtain a clear image.

なお、本発明は上記実施例に限定されるものではない。Note that the present invention is not limited to the above embodiments.

例えば、特徴量を抽出するだめの参照節4 囲の領域は、(4X4)に限定されるものではなく、適
宜範囲を自由に変更しても良い。
For example, the area surrounded by reference node 4 from which feature quantities are extracted is not limited to (4×4), and the range may be changed as appropriate.

また、上記実施例では一画素単位で写真/文字を識別す
る場合の例を示したが、(N X N)のブロック単位
(N22なる整数)での識別を行なっても良い。その結
果として、処理速度の向上か図れ、高速な画像処理装置
を実現することが可能となる。
Further, in the above embodiment, an example was shown in which a photograph/character is identified in units of one pixel, but identification may be performed in units of (N x N) blocks (an integer N22). As a result, it is possible to improve the processing speed and realize a high-speed image processing device.

また、上記実施例では、写真部と文字部とを区別するた
めに画像情報の特徴量情報として最大濃度差ΔDmaX
を用いた場合の例を示したが、規格化された最大濃度差
、つまり最大濃度差を平均濃度で除算した値、あるいは
画像の2次微分値であるラプラシアン値等の文字部と写
真部で異なる性質を持つ特徴量を用いても良い。
In the above embodiment, the maximum density difference ΔDma
Although we have shown an example using Features with different properties may be used.

さらに、上記実施例では二値の出力を得る場合について
説明したが、閾値Thlを複数個設定することにより多
値の出力も可能であり、多値のレーザプリンタ、熱転写
プリンタ等に対応した最適な階調表現が可能となる。さ
らに本発明では、特5 微量の値、及び判定閾値は、読取手段で読取った画像信
号、つまり画像情報の反射率に対応した量をもとに算出
しているが、この量を画像濃度に(反射率の逆数の対数
)変換した値で、さらには、人間の視覚特性を考慮した
変換信号をもとに識別を行ってもよい。
Furthermore, although the above embodiment describes the case where binary output is obtained, multi-value output is also possible by setting a plurality of threshold values Thl. Gradation expression becomes possible. Furthermore, in the present invention, the value of special 5 trace amount and the judgment threshold are calculated based on the image signal read by the reading means, that is, the amount corresponding to the reflectance of the image information, and this amount is calculated based on the image density. Identification may be performed using a converted value (logarithm of the reciprocal of the reflectance) or further based on a converted signal that takes human visual characteristics into consideration.

[発明の効果] 以上詳述したように、本発明によれば、文字領域と写真
領域とが混在する画像情報であっても各画像の特徴に応
じた二値化処理を行うことで画質の向上を図るとともに
、文字領域と写真領域との境界近傍であっても画質の低
下を防止することかでき、さらには画像の特徴に応じた
処理を行うことで各種画像処理における処理効率の向上
が図れる画像処理装置を提供することができる。
[Effects of the Invention] As detailed above, according to the present invention, even if image information includes a text area and a photo area, the image quality can be improved by performing binarization processing according to the characteristics of each image. In addition to improving image quality, it is possible to prevent image quality from deteriorating even near the border between text areas and photo areas.Furthermore, by performing processing according to the characteristics of the image, processing efficiency in various image processing can be improved. It is possible to provide an image processing device that can perform the following functions.

【図面の簡単な説明】[Brief explanation of drawings]

第1図ないし第5図は本発明の一実施例を示すもので、
第1図は画像処理装置の概略の構成を示すブロック図、
第2図は二値化処理の原理を説明するだめの図、第3図
は特徴量算山手段の構成 6 を示すブロック図、第4図は特重量算出手段の動作を示
すタイミングチャート、第5図は画像処理の画素領域の
概念を示す図であり、第6図は従来の「誤差拡散法」の
原理を説明するための図である。 1・・・ラインバッファ、2・・・遅延手段、3・・・
補正手段、4・・・二値化手段、5・・・二値化誤差算
出手段、6・・・重み係数記憶手段、7・・・重み誤差
算山手段、8・・・誤差切捨て手段(処理手段)、9・
・・誤差記憶手段、10・・・特徴量抽用手段、11・
・・比較器(識別手段)、12・・・選択回路(選択手
段)。
1 to 5 show an embodiment of the present invention,
FIG. 1 is a block diagram showing the general configuration of an image processing device;
Fig. 2 is a diagram for explaining the principle of binarization processing, Fig. 3 is a block diagram showing the configuration of the feature amount calculation means, Fig. 4 is a timing chart showing the operation of the special weight calculation means, and Fig. 4 is a timing chart showing the operation of the special weight calculation means. FIG. 5 is a diagram showing the concept of a pixel region in image processing, and FIG. 6 is a diagram for explaining the principle of the conventional "error diffusion method." 1... line buffer, 2... delay means, 3...
Correction means, 4... Binarization means, 5... Binarization error calculation means, 6... Weighting coefficient storage means, 7... Weighted error calculation means, 8... Error truncation means ( processing means), 9.
...error storage means, 10...feature extraction means, 11.
... Comparator (identification means), 12... Selection circuit (selection means).

Claims (1)

【特許請求の範囲】 処理対象画像における注目画素の画像情報を二値化する
二値化手段と、 この二値化手段で二値化された情報と前記注目画素の画
像情報とから二値化誤差を算出する二値化誤差算出手段
と、 重み誤差を算出するための重み係数を記憶する重み係数
記憶手段と、 この重み係数記憶手段に記憶された重み係数を前記二値
化誤差算出手段で算出された二値化誤差に乗じて重み誤
差を算出する重み誤差算出手段と、前記注目画素を含む
所定範囲内の画像情報から画像の特徴を表わす特徴量を
抽出する特徴量抽出手段と、 この特徴量抽出手段で抽出された特徴量に応じて、前記
重み誤差算出手段で算出された重み誤差の切捨て処理を
行う処理手段と、 この処理手段で切捨て処理が行われた重み誤差を記憶す
る誤差記憶手段と、 この誤差記憶手段に記憶されている重み誤差による補正
を行うか否かを前記特徴量抽出手段で抽出された特徴量
に応じて選択する選択手段と、この選択手段により重み
誤差により補正を行う旨が選択された際、前記注目画素
の画像情報を補正する補正手段と を具備したことを特徴とする画像処理装置。
[Claims] Binarization means for binarizing image information of a pixel of interest in an image to be processed, and binarization from the information binarized by the binarization means and the image information of the pixel of interest. A binarization error calculation means for calculating an error; a weighting coefficient storage means for storing a weighting coefficient for calculating a weighting error; and a binarization error calculation means for using the weighting coefficient stored in the weighting coefficient storage means. weighted error calculation means for calculating a weighted error by multiplying the calculated binarization error; and feature amount extraction means for extracting a feature amount representing a feature of an image from image information within a predetermined range including the pixel of interest; processing means for truncating the weight error calculated by the weight error calculation means according to the feature extracted by the feature extraction means; and an error for storing the weight error truncated by the processing means. a storage means; a selection means for selecting whether or not to perform correction based on the weighted error stored in the error storage means according to the feature quantity extracted by the feature quantity extraction means; An image processing apparatus comprising: a correction means for correcting image information of the pixel of interest when correction is selected.
JP1246363A 1989-09-25 1989-09-25 Image processing device Expired - Fee Related JP2888555B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1246363A JP2888555B2 (en) 1989-09-25 1989-09-25 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1246363A JP2888555B2 (en) 1989-09-25 1989-09-25 Image processing device

Publications (2)

Publication Number Publication Date
JPH03109868A true JPH03109868A (en) 1991-05-09
JP2888555B2 JP2888555B2 (en) 1999-05-10

Family

ID=17147442

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1246363A Expired - Fee Related JP2888555B2 (en) 1989-09-25 1989-09-25 Image processing device

Country Status (1)

Country Link
JP (1) JP2888555B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7405845B2 (en) 2000-12-01 2008-07-29 Minolta Co., Ltd. Image processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7405845B2 (en) 2000-12-01 2008-07-29 Minolta Co., Ltd. Image processing apparatus

Also Published As

Publication number Publication date
JP2888555B2 (en) 1999-05-10

Similar Documents

Publication Publication Date Title
EP0113016B1 (en) Correction of shading effects in video images
JPH04119763A (en) Image processor
US20090136152A1 (en) Image correcting apparatus and method, and image correcting program, and look-up table creating apparatus and method, and look-up table creating program
JPH02253765A (en) Picture processor
JPS62172867A (en) Picture processor
JP3031994B2 (en) Image processing device
JPH03109868A (en) Picture processor
JP3245600B2 (en) Image processing device
JPH0554190A (en) Picture processor
JPH0385965A (en) Picture processing unit
JPH01303869A (en) Picture processor
JPH01169581A (en) Image processor
JP2860039B2 (en) Pseudo halftone image reduction device
JPH0385968A (en) Picture processing unit
JP3157870B2 (en) Image processing method
JPH0522588A (en) Picture processor
JPH02113669A (en) Picture processor
JPH01168164A (en) Picture processing unit
JPH06292005A (en) Picture signal processing unit
JPH06309455A (en) Picture binarizing processor
JPH01143564A (en) Picture processing unit
JPH0326065A (en) Picture processing unit
JPH08307678A (en) Image processing unit
JPH05145747A (en) Image processor
JPH06291993A (en) Picture signal processing unit

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees