JPH09214783A - Picture processor - Google Patents

Picture processor

Info

Publication number
JPH09214783A
JPH09214783A JP8040663A JP4066396A JPH09214783A JP H09214783 A JPH09214783 A JP H09214783A JP 8040663 A JP8040663 A JP 8040663A JP 4066396 A JP4066396 A JP 4066396A JP H09214783 A JPH09214783 A JP H09214783A
Authority
JP
Japan
Prior art keywords
image
data
pixel
color
binary
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP8040663A
Other languages
Japanese (ja)
Inventor
Toru Ishigaki
徹 石垣
Toshiyuki Chikugi
利行 筑木
Hidekiyo Tachibana
英清 立花
Toru Tanaka
徹 田中
Yoshitsugu Hirose
吉嗣 広瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP8040663A priority Critical patent/JPH09214783A/en
Publication of JPH09214783A publication Critical patent/JPH09214783A/en
Pending legal-status Critical Current

Links

Landscapes

  • Color Image Communication Systems (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To obtain binary picture data with a fevorable granual sense by reducing the superimposition of plural colors with respect to a picture where smoothness is required while holding clearness in the edge and the contour part of the picture. SOLUTION: Binary picture data concerning the respective colors are generated from respective multi-level picture signals of the plural colors and stored in a storage means 33 together with the respective multi-level picture signals of the plural colors. A binary data re-distribution processing part 34 is provided, where the local feature quantity of the picture is calculated through the use of the multi-level picture signals concerning the plural colors stored in the storage means 33, the distribution of the data values of the plural colors in a peripheral area adding a picture element to be considered is detected through the use of binary picture data stored in the store means 33, it is discriminated whether or not data of the picture element to be considered is distributed to the peripheral picture elements based on the detection result and the feature quantity of the picture in the peripheral area adding the picture element to be considered and data of the picture element to be considered is distributed to the peripheral picture element in accordance with the discrimination result.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】この発明は、画像処理装置に
関し、特に、例えばカラー2値プリンタ等の画像出力装
置に供給する2値画像データを生成するための装置に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing device, and more particularly to a device for generating binary image data to be supplied to an image output device such as a color binary printer.

【0002】[0002]

【従来の技術】例えばインクジェット方式、熱転写方式
のカラープリンタの多くは、いわゆる2値プリンタであ
り、画像を出力する際に、プリントする各画素位置に対
して色を付けるか、あるいは色を付けないかのどちらか
を選択するようにする。
2. Description of the Related Art For example, most of ink jet type and thermal transfer type color printers are so-called binary printers, and when outputting an image, each pixel position to be printed is colored or not colored. Make sure to select either

【0003】この種の2値プリンタにおいて、多階調画
像から2値画像を生成して、多階調の画像を擬似的に表
現するための中間調生成方法の代表的なものとして誤差
拡散法が知られている。
In this type of binary printer, an error diffusion method is representative of a halftone generating method for generating a binary image from a multi-tone image and artificially expressing the multi-tone image. It has been known.

【0004】この誤差拡散法は、例えば「画像電子学会
誌 第20巻 第5号(1991)第476頁〜482
頁」に紹介されているように、ある入力された画像の注
目画素の画素値(多階調画像データ)に色を付けるか否
かの選択を、入力画素値と、その近傍画素における誤差
(周辺画素の表示輝度と入力輝度との差の重み付け平
均)との和が、閾値を越えるかどうかにより、行うもの
である。つまり、注目画素は、多階調画素データを2値
画素データに変換する。
This error diffusion method is described in, for example, "Journal of the Institute of Image Electronics Engineers, No. 20, No. 5 (1991), pages 476 to 482.
As described in “Page”, the selection of whether to add color to the pixel value (multi-tone image data) of the target pixel of an input image is performed by selecting the error between the input pixel value and its neighboring pixels ( This is performed depending on whether the sum of the weighted average of the difference between the display brightness of the peripheral pixels and the input brightness exceeds a threshold value. That is, the target pixel converts multi-tone pixel data into binary pixel data.

【0005】そして、このように多階調画素データを2
値画素データに変換することにより生じる入力画素値と
出力画素値との間の誤差は、既に2値化された近傍の画
素と、入力画素値との差分の重み付け平均として求めら
れる。したがって、ある入力画素に対して色を付けるか
否かの選択は、近傍カーソルからの誤差を相殺するよう
に選択される。
In this way, the multi-gradation pixel data is converted into 2
The error between the input pixel value and the output pixel value caused by the conversion into the value pixel data is obtained as a weighted average of the difference between the already binarized neighboring pixels and the input pixel value. Therefore, the choice of whether to color certain input pixels is chosen to offset the error from the neighborhood cursor.

【0006】この誤差拡散法を、カラー出力画像に対し
て適用するときには、前記カラー出力画像を得るための
各色、例えばC(シアン)、M(マゼンタ)、イエロー
(Y)、ブラック(K)のそれぞれの画像フレームに対
して独立に適用して中間調を生成し、その生成した各色
についての2値画像信号にしたがって色付けされたカラ
ー画像が出力される。
When this error diffusion method is applied to a color output image, each color for obtaining the color output image, for example, C (cyan), M (magenta), yellow (Y) and black (K) is used. The image is independently applied to each image frame to generate a halftone, and a color image colored according to the generated binary image signal for each color is output.

【0007】以上のように、誤差拡散法により各色に対
して独立に中間調を生成して出力された画像では、ある
位置に、C,M,Y,Kの各色がどのような重なりを持
っているかにより出力画像を制御することは行っていな
かった。したがって、色の重なりの問題があった。
As described above, in an image in which halftones are independently generated for each color by the error diffusion method and output, what kind of overlap each color of C, M, Y, and K has at a certain position. The output image is not controlled depending on whether or not it is. Therefore, there is a problem of overlapping of colors.

【0008】例えば、人間の顔の画像の明るい肌色部分
などにおいて、シアンとマゼンタが重なってブルーなど
の2次色や、C,M,Yの3次色即ちプロセスブラック
が発生し、出力された画像の粒状感に悪影響を与える場
合があった。
For example, in a light skin color portion of a human face image, cyan and magenta are overlapped with each other to generate a secondary color such as blue and a tertiary color of C, M and Y, that is, process black, which is output. The graininess of the image may be adversely affected.

【0009】この色の重なりを回避する手法としては、
ドット非混色手法が知られているが、この方法による
と、ドット(画素)として出力されなかった色成分の濃
度が画面上に保存されなくなり、画像全体の濃度保存が
できないという問題があった。
As a method for avoiding this color overlap,
Although a dot non-color mixing method is known, this method has a problem that the density of the color component that is not output as dots (pixels) is not saved on the screen and the density of the entire image cannot be saved.

【0010】この問題を回避する一つの手法として、特
開平7−107305号には、赤と黒の2色画像につい
て、表示ドット(画素)において重なりがあるときに
は、値の大きい方の色をその画素の色とし、その画素の
色として出力されない値の小さい方の色成分は、その画
素の近傍の周辺画素に拡散させるようにする手法が開示
されている。
As one method for avoiding this problem, Japanese Patent Laid-Open No. 7-107305 discloses that for a two-color image of red and black, when there is an overlap in display dots (pixels), the color with the larger value is used. A method is disclosed in which the color of a pixel is used and the color component having a smaller value that is not output as the color of the pixel is diffused to peripheral pixels in the vicinity of the pixel.

【0011】[0011]

【発明が解決しようとする課題】しかしながら、上記の
公開公報に記載の手法を使用した場合には、2次色やプ
ロセスブラックの発生量は最小限に押さえられるもの
の、画像のエッジ部分や輪郭部分においても、2値化後
に色を拡散することになるので、これら画像のエッジ、
輪郭部分に「にじみ」を生じさせることになるという問
題があった。
However, when the method described in the above publication is used, the generation amount of the secondary color and process black is suppressed to the minimum, but the edge portion and the contour portion of the image are reduced. Also in, since the color is diffused after binarization, the edges of these images,
There was a problem that "blurring" would occur in the contour portion.

【0012】この発明は、以上の点にかんがみ、画像の
エッジや輪郭部分の鮮明さを保持しつつ、肌色などの滑
らかさが要求される画像に対しては、複数色の重なりを
低減し、好ましい粒状感を与えることができる画像を出
力するための2値画像データを生成することができる画
像処理装置を提供することを目的とする。
In view of the above points, the present invention reduces the overlapping of a plurality of colors for an image that requires smoothness such as skin color while maintaining the sharpness of the edges and contours of the image. An object of the present invention is to provide an image processing device capable of generating binary image data for outputting an image capable of giving a preferable graininess.

【0013】[0013]

【課題を解決するための手段】上記課題を解決するた
め、この発明による画像処理装置は、後述の実施例の参
照符号を対応させると、入力カラー画像信号を2値画像
データに変換して中間調を発生し、画像出力装置に供給
する画像処理装置であって、前記入力カラー画像信号に
対応するカラー画像を再現するための複数個の色のそれ
ぞれについての多階調画像信号のそれぞれから、各色に
ついての2値画像データをそれぞれ生成する2値化手段
(32)と、前記カラー画像を再現するための複数個の
色のそれぞれについての多階調画像信号と、前記各色に
ついての2値画像データとを記憶する記憶手段(33)
と、前記記憶手段に記憶された前記多階調画像信号を用
いて、局所的な画像の特徴量を算出する特徴量算出手段
(342)と、前記記憶手段に記憶された2値画像デー
タを用いて、注目画素を含む周辺領域における少なくと
も2色以上の複数色のデータ値の分布を検出する検出手
段(341)と、前記検出手段の検出結果と、前記特徴
量算出手段により算出された前記注目画素を含む周辺領
域の画像の特徴量とに基づいて、前記注目画素データを
周辺画素に分配するか否かを判別する判別手段(34
3)と、前記判別手段の判別結果に従い、前記注目画素
データを周辺画素に分配する分配手段(344)とを備
えることを特徴とする。
In order to solve the above problems, the image processing apparatus according to the present invention converts an input color image signal into binary image data by converting the intermediate color image data into binary image data by making reference numerals of the embodiments described later correspond to each other. An image processing device that generates a tone and supplies the image output device, and from each of the multi-tone image signals for each of a plurality of colors for reproducing a color image corresponding to the input color image signal, A binarizing means (32) for generating binary image data for each color, a multi-tone image signal for each of a plurality of colors for reproducing the color image, and a binary image for each color. Storage means for storing data and (33)
And a feature quantity calculating means (342) for calculating a local feature quantity of the image using the multi-gradation image signal stored in the storage means, and binary image data stored in the storage means. By using the detection means (341) for detecting the distribution of data values of at least two or more colors in the peripheral region including the pixel of interest, the detection result of the detection means, and the feature quantity calculation means A discriminating means (34) for discriminating whether or not to distribute the target pixel data to the peripheral pixels based on the feature amount of the image of the peripheral region including the target pixel.
3) and a distribution unit (344) for distributing the target pixel data to peripheral pixels according to the determination result of the determination unit.

【0014】[0014]

【作用】上述の構成のこの発明によれば、2値化手段に
おいて、入力カラー画像信号に対応するカラー画像を再
現するための複数個の色のそれぞれについての多階調画
像信号のそれぞれから、各色についての2値画像データ
がそれぞれ生成される。そして、この生成された2値画
像データと、前記多階調画像信号とが、それぞれ記憶手
段に記憶される。
According to the present invention having the above-mentioned structure, in the binarizing means, from each of the multi-gradation image signals for each of a plurality of colors for reproducing a color image corresponding to the input color image signal, Binary image data for each color is generated. Then, the generated binary image data and the multi-tone image signal are stored in the storage means.

【0015】記憶手段に記憶された前記複数個の色につ
いての2値化前の多階調画像信号が用いられて、特徴量
算出手段において、局所的な画像の特徴量が算出され
る。この算出された特徴量から、注目画素とその近傍画
素を含む画像部分が、画像のエッジや輪郭部分であるか
否かの判定が可能となる。
The multi-gradation image signal before binarization for the plurality of colors stored in the storage means is used to calculate the local feature quantity of the image in the feature quantity calculation means. From the calculated feature amount, it is possible to determine whether the image portion including the pixel of interest and its neighboring pixels is the edge or contour portion of the image.

【0016】また、検出手段において、記憶手段に記憶
された2値画像データが用いられて、注目画素を含む周
辺領域における少なくとも2色以上の複数色のデータ値
の分布が検出される。
Further, the detection means uses the binary image data stored in the storage means to detect the distribution of data values of a plurality of colors of at least two colors in the peripheral area including the pixel of interest.

【0017】判定手段では、この検出手段での検出の結
果、注目画素での色の重なりがあると検出された場合
に、特徴量算出手段からの特徴量から、注目画素データ
を周辺画素に分配するかどうかが判別される。分配手段
は、判別手段の判別結果が周辺画素への分配の必要があ
ることを示している場合に、注目画素データをその周辺
画素に分配する。
In the determination means, when it is detected as a result of the detection by the detection means that there is a color overlap in the target pixel, the target pixel data is distributed to the peripheral pixels from the feature amount from the feature amount calculation means. It is determined whether to do. The distribution unit distributes the pixel data of interest to the peripheral pixels when the determination result of the determination unit indicates that distribution to the peripheral pixels is necessary.

【0018】例えば、判別手段は、特徴量算出手段から
の特徴量から、注目画素近傍の局所的な画像がエッジ部
分ではなく、粒状感の低減を優先すべき部分であると判
別したときには、注目画素データをその周辺画素に分配
する。また、注目画素近傍の局所的な画像がエッジ部分
であるときには、注目画素データの周辺画素への分配を
行わず、画像のエッジの鮮明さを保持する。
For example, when the discriminating means discriminates from the characteristic amount from the characteristic amount calculating means that the local image in the vicinity of the pixel of interest is not the edge portion but the portion where the reduction of graininess should be prioritized, the attention is paid. Pixel data is distributed to its surrounding pixels. When the local image near the target pixel is an edge portion, the sharpness of the edge of the image is maintained without distributing the target pixel data to the peripheral pixels.

【0019】したがって、この発明によれば、画像のエ
ッジの鮮明さを保持しつつ、肌色などの滑らかさを要求
するような画像部分に対しては、複数色の重なりを低減
し、好ましい粒状感を与える画像を出力することができ
る2値画像データを得ることができる。
Therefore, according to the present invention, overlapping of a plurality of colors is reduced and a preferable graininess is obtained for an image portion which requires smoothness such as skin color while maintaining the sharpness of the edge of the image. It is possible to obtain binary image data capable of outputting an image giving

【0020】[0020]

【発明の実施の形態】以下、この発明による画像処理装
置の実施の形態を、図を参照しながら説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of an image processing apparatus according to the present invention will be described below with reference to the drawings.

【0021】[第1の実施の形態]図2は、この発明に
よる画像処理装置が適用される画像出力システムの概略
を示すブロック図である。この例の画像出力システム
は、カラー画像信号発生装置1と、色変換/色補正器2
と、中間調生成器3と、2値カラープリンタ4とからな
る。
[First Embodiment] FIG. 2 is a block diagram showing an outline of an image output system to which an image processing apparatus according to the present invention is applied. The image output system of this example includes a color image signal generator 1 and a color converter / color corrector 2.
And a halftone generator 3 and a binary color printer 4.

【0022】カラー画像信号発生装置1は、赤(R)、
緑(G)、青(B)の3原色信号あるいはCIE表示色
系の、L,a,b信号で表されるカラー画像信号
を発生する。このカラー画像信号発生装置1は、例えば
スキャナー等の画像読取り装置を備えるコンピュータで
構成することができる。そして、前記カラー画像信号
は、例えば画像読取装置で読み取られた結果の画像信
号、あるいは、いわゆるコンピュータグラフィックスに
より作成、編集されたカラー画像信号な度とすることが
できる。
The color image signal generator 1 includes red (R),
A color image signal represented by L * , a * , and b * signals of the three primary color signals of green (G) and blue (B) or the CIE display color system is generated. The color image signal generator 1 can be configured by a computer including an image reading device such as a scanner. The color image signal may be, for example, an image signal obtained as a result of being read by an image reading device, or a color image signal created and edited by so-called computer graphics.

【0023】色変換/色補正器2は、前記のカラー画像
信号を、プリンタ4でプリント出力を行う色、例えばシ
アン(C)、マゼンタ(M)、イエロー(Y)、ブラッ
ク(K)の各色について、その出力の割合を表す、例え
ば8ビットの多階調画像信号に変換する。この場合、カ
ラー画像信号発生装置1からのカラー画像信号が、シア
ン、マゼンタ、イエロー、ブラックの各色の多階調画像
信号からなる場合には、この色変換/色補正器2は必ず
しも必要ではない。この色変換/色補正器2での処理は
周知であり、また、この発明による画像処理装置とは関
係がないので、この色変換/色補正器2の詳細な説明は
省略する。
The color converter / color corrector 2 outputs the above-mentioned color image signals to the printer 4 for printing, for example, cyan (C), magenta (M), yellow (Y) and black (K). Is converted into a multi-tone image signal of, for example, 8 bits, which represents the output ratio. In this case, when the color image signal from the color image signal generator 1 is a multi-gradation image signal of each color of cyan, magenta, yellow and black, this color conversion / color corrector 2 is not always necessary. . Since the processing in the color conversion / color corrector 2 is well known and is not related to the image processing apparatus according to the present invention, detailed description of the color conversion / color corrector 2 will be omitted.

【0024】中間調生成器3は、色変換/色補正器2か
らのC,M,Y,Kの各多階調画像信号から、プリンタ
4が出力する2値画像を得るためのC,M,Y,Kの各
2値画像データを得る。この発明は、主としてこの中間
調生成器3の部分に関わるものである。
The halftone generator 3 obtains C, M for obtaining a binary image output from the printer 4 from the C, M, Y, K multi-tone image signals from the color conversion / color corrector 2. , Y, K binary image data are obtained. The present invention mainly relates to this halftone generator 3.

【0025】2値カラープリンタ4は、例えばインクジ
ェットプリンタからなり、中間調生成器3からのC,
M,Y,Kの各2値画像データに基づいてそれぞれの色
についての画像を生成し、その合成として例えば記録紙
上にカラー出力画像を得る。
The binary color printer 4 is composed of, for example, an ink jet printer, and C from the halftone generator 3
An image for each color is generated based on each of the binary image data of M, Y, and K, and a color output image is obtained on, for example, a recording paper as a combination thereof.

【0026】中間調生成器3は、この実施の形態におい
ては、図1に示すような一連の処理機能を実行して、前
述したようなC,M,Y,Kの各2値画像データを得
る。すなわち、図1は、中間調生成器3の機能ブロック
図であり、この実施の形態においては、中間調生成器3
は、画像入力部31と、画像2値化処理部32と、画像
情報記憶部33と、2値データ再分配処理部34とから
なる。
In this embodiment, the halftone generator 3 executes a series of processing functions as shown in FIG. 1 to convert the binary image data of C, M, Y and K as described above. obtain. That is, FIG. 1 is a functional block diagram of the halftone generator 3, and in this embodiment, the halftone generator 3 is used.
Includes an image input unit 31, an image binarization processing unit 32, an image information storage unit 33, and a binary data redistribution processing unit 34.

【0027】画像2値化処理部32は、画像入力部31
を通じて入力されるC,M,Y,Kの各多階調画像信号
について、それぞれ独立に誤差拡散法を用いて2値化処
理を施し、得られた2値化データを画像情報記憶部33
に転送する。この場合の誤差拡散法としては、前述した
周知の手法が用いられ、例えば、各多階調画像信号の画
素データが、逐次的に近傍画素より算出された誤差と加
算された後、閾値と比較され、その大小に応じて当該画
素データ(注目画素データ)の2値化が行われる。
The image binarization processing unit 32 includes an image input unit 31.
The C, M, Y, and K multi-tone image signals input through are subjected to binarization processing independently using an error diffusion method, and the obtained binarized data is used as the image information storage unit 33.
Transfer to As the error diffusion method in this case, the well-known method described above is used. For example, the pixel data of each multi-tone image signal is sequentially added with the error calculated from the neighboring pixels, and then compared with the threshold value. The pixel data (target pixel data) is binarized according to the size.

【0028】この画像2値化処理部32での処理は、こ
の実施の形態においてはライン単位で行われる。原理的
には、画像全体に対して1度に2値化処理を行うように
することできるし、所定の矩形ブロック単位で行うこと
もできるが、画像情報記憶部33に必要とされるメモリ
容量が少なくて済み、高速にプリント処理ができるとい
う観点から、この実施の形態ではライン単位で行うもの
である。
The processing in the image binarization processing unit 32 is performed in units of lines in this embodiment. In principle, the binarization process can be performed on the entire image at once, or can be performed in units of a predetermined rectangular block. However, the memory capacity required for the image information storage unit 33 is required. This is done in line units in this embodiment from the viewpoint that the number of prints can be reduced and high-speed print processing can be performed.

【0029】ただし、後述するように、この実施の形態
では、2値データ再分配処理部34において、注目画素
を中心した縦×横=3×3=9個の画素について2値デ
ータ再分配処理を行うので、その処理対象となる3ライ
ン単位の2値化処理は、2値データ再分配処理部34で
その部分のデータについて処理が開始されるまでに終了
しておくように構成されている。
However, as will be described later, in this embodiment, in the binary data redistribution processing unit 34, binary data redistribution processing is performed on the vertical × horizontal = 3 × 3 = 9 pixels centered on the pixel of interest. Therefore, the binarization processing in units of three lines to be processed is configured to be completed before the processing of the data of that portion is started by the binary data redistribution processing unit 34. .

【0030】画像情報記憶部33は、2値化処理部32
からのC,M,Y,Kの各2値画像データを記憶すると
共に、画像入力部31を通じたC,M,Y,Kの各多階
調画像データを記憶する。なお、後述するように、2値
データ再分配処理部34により、前記の2値化処理部3
2からのC,M,Y,Kの各2値画像データは、必要に
応じて書き換えられる。
The image information storage unit 33 includes a binarization processing unit 32.
Each of the C, M, Y, and K binary image data is stored, and the C, M, Y, and K multi-tone image data through the image input unit 31 is stored. As will be described later, the binary data redistribution processing unit 34 causes the binarization processing unit 3 to operate.
Each of the binary image data of C, M, Y, and K from 2 is rewritten as necessary.

【0031】2値データ再分配処理部34は、この実施
の形態の要部となる部分であり、前記画像2値化処理部
32で得られた2値画像データを、より好ましいプリン
ト出力が得られるように修正する。
The binary data redistribution processing unit 34 is a main part of this embodiment, and the binary image data obtained by the image binarization processing unit 32 can be obtained as a more preferable print output. To be corrected.

【0032】この実施の形態では、2値データ再分配処
理部34は、画像2値化処理後のシアン画像をマゼンタ
画像に従属的に再分配する処理を行う。ただし、画像の
輪郭やエッジ部分においては、再分配は行わないように
する。すなわち、シアン画素(シアンで着色される画
素)を再分配するかどうかを、同位置のマゼンタ画素
(マゼンタで着色される画素)の有無と、画像の輪郭や
エッジ部分を検出するための画像の特徴量とに基づいて
判断する。具体的には、シアン画素とマゼンタ画素とが
重複しているときには、その画像部分が滑らかな画像部
分であれば、シアン画素を、その周辺の近傍画素位置に
移動させる再分配を行い、その画像部分がエッジ部分あ
れば、シアン画素とマゼンタ画素とが重なっていても再
分配は行わない。
In this embodiment, the binary data redistribution processing section 34 performs a processing of subordinately redistributing the cyan image after the image binarization processing to the magenta image. However, redistribution is not performed at the contour or edge portion of the image. That is, whether or not to redistribute cyan pixels (pixels colored with cyan) is determined by the presence / absence of magenta pixels (pixels colored with magenta) at the same position and the image for detecting the contour or edge portion of the image. Judgment based on the feature amount. Specifically, when the cyan pixel and the magenta pixel overlap, if the image portion is a smooth image portion, the cyan pixel is moved to a neighboring pixel position in the vicinity thereof, and redistribution is performed to If the portion is an edge portion, redistribute is not performed even if the cyan pixel and the magenta pixel overlap.

【0033】シアン画像をマゼンタ画像に従属的に再分
配する理由は、シアンやイエローに比較してマゼンタ
が、人間に対して粒状感を強く感じさせることから、マ
ゼンタ画素を再分配して、粒状感を悪化させてしまわな
いようにするためである。
The reason why the cyan image is redistributed subordinately to the magenta image is that magenta has a stronger granular feeling to humans than cyan and yellow. This is to prevent the feeling from getting worse.

【0034】この実施の形態においては、イエロー画素
(イエローで着色される画素)およびブラック画素(ブ
ラックで着色される画素)についても再分配は行わな
い。しかし、イエロー画素を再分配するかどうかを、同
位置のマゼンタ画素およびシアン画素を元に判断して、
イエロー画素の再分配を実行するようにしてもよい。も
っとも、イエローの影響によって人間が感じる粒状感
は、マゼンタ、シアンと比較して極めて少ないので、こ
の実施の形態のように、イエロー画素に対して再分配処
理を行わなくても、この発明の効果は十分に得られる。
In this embodiment, redistributing is not performed for yellow pixels (pixels colored with yellow) and black pixels (pixels colored with black). However, whether to redistribute the yellow pixels is judged based on the magenta pixel and the cyan pixel at the same position,
Redistributing the yellow pixels may be performed. However, since the graininess that humans feel due to the influence of yellow is extremely small compared to magenta and cyan, the effect of the present invention can be achieved without performing the redistribute processing on the yellow pixels as in this embodiment. Is fully obtained.

【0035】この場合、この2値データ再分配処理部3
4は、処理機能をブロック化すると、図1に示すよう
に、2値データ重複検出部341と、画像特徴量算出部
342と、2値データ分配判別部343と、2値データ
分配部344と、乱数発生器345とから構成されたも
のとなっている。
In this case, the binary data redistribution processing unit 3
4, when the processing function is divided into blocks, as shown in FIG. 1, a binary data duplication detection unit 341, an image feature amount calculation unit 342, a binary data distribution determination unit 343, and a binary data distribution unit 344. , And a random number generator 345.

【0036】2値データ重複判別部341は、再分配処
理の対象である注目する画素位置のシアン画素とマゼン
タ画素とが重なっているかどうかを、画像情報記憶部3
3の2値化シアン画像データと2値化マゼンタ画像デー
タとを用いて判別する。重なりがない場合には、2値デ
ータ再分配処理部34では、分配処理を行わないので、
以下に説明する処理を実行しない。
The binary data duplication determination unit 341 determines whether or not the cyan pixel and the magenta pixel at the pixel position of interest, which is the object of the redistribution processing, overlap each other.
The determination is performed using the binarized cyan image data of 3 and the binarized magenta image data. If there is no overlap, the binary data redistribution processing unit 34 does not perform the distribution process,
The processing described below is not executed.

【0037】注目する画素位置において、シアン画素と
マゼンタ画素とが重なっている場合には、2値データ重
複判別部341は、また、注目する画素位置の近傍に、
シアン画素と、マゼンタ画素が存在するかどうかを調べ
る。
When the cyan pixel and the magenta pixel are overlapped at the pixel position of interest, the binary data duplication discrimination unit 341 is also arranged near the pixel position of interest.
Check if cyan and magenta pixels are present.

【0038】この実施の形態においては、後述もするよ
うに再分配を行う範囲を、図3に示すように、注目画素
Pzの周辺の8個の画素R0〜R7に限定するので、2
値データ重複判別部341は、この再分配範囲に等し
い、注目画素位置を中心とした、縦×横=3×3=9画
素からなる局所的な領域ARについて、シアン画素と、
マゼンタ画素の存在を調べる。
In this embodiment, as will be described later, the range of redistribution is limited to eight pixels R0 to R7 around the target pixel Pz as shown in FIG.
The value data duplication determination unit 341 determines that, for a local area AR consisting of vertical × horizontal = 3 × 3 = 9 pixels, which is equal to the redistribution range and is centered on the target pixel position, a cyan pixel,
Check for the presence of magenta pixels.

【0039】そして、この場合、シアン画素とマゼンタ
画素とが存在しているかどうかを、注目する画素位置を
中心とする3×3のマトリクス形式の近傍画素情報fo
(i,j)(i=0,1,2;j=0,1,2)で表
す。ある画素位置(x,y)におけるシアン画素のデー
タ値をCb(x,y)、また、ある画素位置(x,y)
におけるマゼンタ画素のデータ値をMb(x,y)と
し、さらに、各2値画素データは、着色が行われる場合
にはデータ値が「1」、着色が行われない場合はデータ
値が「0」となるとすると、前記近傍画素情報fo
(i,j)は、 fo(i,j)=Cb(x−1+i,y−1+j) ・OR・Mb(x−1+i,y−1+j) … (1) として算出される。ここで、・OR・は、論理和を示し
ている。
Then, in this case, it is determined whether or not cyan pixels and magenta pixels are present, and neighboring pixel information fo in a 3 × 3 matrix format centered on the pixel position of interest.
It is represented by (i, j) (i = 0,1,2; j = 0,1,2). The data value of the cyan pixel at a certain pixel position (x, y) is Cb (x, y), and at the certain pixel position (x, y)
The data value of the magenta pixel in Mb (x, y) is Mb (x, y), and each binary pixel data has a data value of "1" when coloring is performed and a data value of "0" when coloring is not performed. , The neighboring pixel information fo
(I, j) is calculated as fo (i, j) = Cb (x-1 + i, y-1 + j) .OR.Mb (x-1 + i, y-1 + j) (1). Here, * OR * has shown the logical sum.

【0040】例えば、注目画素位置(xo,yo)の近
傍のシアンの2値画像データ値Cb(x,y)が図4A
に示すようなものであり、また、注目画素位置(xo,
yo)の近傍のマゼンタの2値画像データ値Mb(x,
y)が図4Bに示すようなものである場合には、これら
図4A,Bにおいて太線枠で囲んだ部分の2値データC
b(x,y)およびMb(x,y)から、近傍画素情報
fo(i,j)は、図4Cのように得られる。
For example, the cyan binary image data value Cb (x, y) near the target pixel position (xo, yo) is shown in FIG. 4A.
And the pixel position of interest (xo,
magenta binary image data value Mb (x,
When y) is as shown in FIG. 4B, the binary data C in the portion surrounded by the thick line frame in FIGS. 4A and 4B.
Neighboring pixel information fo (i, j) is obtained from b (x, y) and Mb (x, y) as shown in FIG. 4C.

【0041】この図4Cに示されるように、注目位置の
画素を含む9個の画素において、近傍画素情報fo
(i,j)の各値は、シアンまたはマゼンタのいずれか
に着色が行われる画素位置については「1」、着色が行
われない画素位置については「0」となる。したがっ
て、この近傍画素情報fo(i,j)により、注目画素
の周辺のいずれの画素が着色されるか、あるいは着色さ
れないかが示されることになる。この近傍画素情報fo
(i,j)の情報は、2値データ分配判別部343に供
給される。
As shown in FIG. 4C, in the nine pixels including the pixel at the target position, the neighboring pixel information fo
Each value of (i, j) is "1" for a pixel position where coloring is performed on either cyan or magenta, and "0" for a pixel position where coloring is not performed. Therefore, the neighboring pixel information fo (i, j) indicates which pixel around the pixel of interest is colored or not colored. This neighboring pixel information fo
The information of (i, j) is supplied to the binary data distribution determination unit 343.

【0042】画像特徴量算出部342は、画像情報記憶
部33に記憶されている2値化される前のシアンの多階
調画像信号を用いて、注目画素が滑らかな領域にある
か、エッジ領域にあるかを、エッジ抽出オペレータを用
いて得る特徴量により数値化する。
The image feature amount calculation section 342 uses the cyan multi-tone image signal before binarization stored in the image information storage section 33 to determine whether the target pixel is in a smooth region or an edge. Whether it is in the region is digitized by the feature amount obtained by using the edge extraction operator.

【0043】この実施の形態においては、再分配範囲が
前述した図3に示した領域ARであるので、この画像領
域ARについて特徴量の算出を行う。
In this embodiment, since the redistribution range is the area AR shown in FIG. 3 described above, the feature amount is calculated for this image area AR.

【0044】エッジ抽出オペレータとしては、数多くの
オペレータが知られているが、この実施の形態において
は、図5Aおよび図5Bに示すようなソベル(Sobe
l)オペレータからエッジ勾配(以下、エッジ量とい
う)を特徴量として算出する。ここで、図5Aのx方向
(横方向)のオペレータを、3×3のマトリクス形式の
ex(i,j)、図5Bのy方向(縦方向)のオペレー
タを3×3のマトリクス形式のey(i,j)とすれ
ば、エッジ量epは、注目位置のシアン画素C(x,
y)を元にして、 ep=sqrt{(ΣΣ(ex(i,j)×C(x−1+i,y−1+j))2 +(ΣΣ(ey(i,j)×C(x−1+i,y−1+j))2 } … (2) として算出される。なお、上記の(2)式において、sq
rtは平方根演算を示している。
Although many operators are known as edge extraction operators, in this embodiment, a Sobel (Sobe) as shown in FIGS. 5A and 5B is used.
l) An operator calculates an edge gradient (hereinafter, referred to as an edge amount) as a feature amount. Here, the operator in the x direction (horizontal direction) in FIG. 5A is ex (i, j) in the 3 × 3 matrix format, and the operator in y direction (vertical direction) in FIG. 5B is the ey in the 3 × 3 matrix format. If (i, j), the edge amount ep is the cyan pixel C (x,
y), ep = sqrt {(ΣΣ (ex (i, j) × C (x−1 + i, y−1 + j)) 2 + (ΣΣ (ey (i, j) × C (x−1 + i, y-1 + j)) 2 } (2) is calculated as sq.
rt indicates a square root operation.

【0045】さらに、画像特徴量算出部342は、前述
のようにして求めたエッジ量epの値を、図6に示すよ
うな曲線特性の正規化関数feを用いて Rep=fe(ep) として正規化し、エッジ量epを0〜1の範囲に正規化
した値Repを得る。この正規化のための正規化関数f
eは、エッジ量と見た目の好ましさとの対応を取ること
ができるように、テスト画像を用いて予め適切なものと
して求めたものである。この正規化した値Repは、2
値データ分配判別部343に供給する。
Further, the image feature amount calculation unit 342 sets the value of the edge amount ep obtained as described above to Rep = fe (ep) using the normalizing function fe of the curve characteristic as shown in FIG. A value Rep is obtained by normalizing the edge amount ep in the range of 0 to 1. Normalization function f for this normalization
e is obtained as an appropriate value in advance using a test image so that the edge amount can be associated with the appearance preference. This normalized value Rep is 2
It is supplied to the value data distribution determination unit 343.

【0046】この画像特徴量算出部342での処理を、
具体例について、さらに説明する。今、前述した図4A
の2値画像データに変換される前の注目画素位置(x
o,yo)の近傍のシアンの多階調画像データが図7A
に示すようなものであった場合には、x方向のエッジ量
は、図7Bに示すように、前述の図5Aのソベルオペレ
ータを用いて、 ΣΣ(ex(i,j)×C(x−1+i,y−1+j) =(−1)×60+0×40+1×23+(−2)×6
3+0×44+2×26+(−1)×67+0×47+
1×28=−150 となる。
The processing in the image feature quantity calculation unit 342 is
Specific examples will be further described. FIG. 4A described above
Of the target pixel position (x
The multi-tone image data of cyan near (o, yo) is shown in FIG. 7A.
7B, the edge amount in the x direction can be calculated by using the Sobel operator of FIG. 5A as shown in FIG. 7B: ΣΣ (ex (i, j) × C (x− 1 + i, y-1 + j) = (-1) * 60 + 0 * 40 + 1 * 23 + (-2) * 6
3 + 0x44 + 2x26 + (-1) x67 + 0x47 +
1 × 28 = −150.

【0047】また、y方向のエッジ量は、図7Cに示す
ように、前述の図5Bのソベルオペレータを用いて、 ΣΣ(ey(i,j)×C(x−1+i,y−1+j) =1×60+2×40+1×23+0×63+0×44
+0×26+(−1)×67+(−2)×47+(−
1)×28=−26 となる。
Further, as shown in FIG. 7C, the edge amount in the y direction is calculated by using the Sobel operator shown in FIG. 5B. ΣΣ (ey (i, j) × C (x−1 + i, y−1 + j) = 1 x 60 + 2 x 40 + 1 x 23 + 0 x 63 + 0 x 44
+ 0x26 + (-1) x67 + (-2) x47 + (-
1) x28 = -26.

【0048】したがって、総和のエッジ量epは、前記
(2)式から、 ep=152.237 となる。
Therefore, the total edge amount ep is ep = 152.237 from the equation (2).

【0049】そして、このエッジ量epを、図8に示す
ように、前述の図6に示した正規化関数feにより正規
化すると、Rep=0.85が得られる。
Then, when the edge amount ep is normalized by the normalizing function fe shown in FIG. 6 as shown in FIG. 8, Rep = 0.85 is obtained.

【0050】2値データ分配判別部343では、2値デ
ータ重複判別部341からの近傍画素情報fo(i,
j)と、画像特徴量算出部342からの正規化されたエ
ッジ量Repとに基づいて、シアン画素を再分配する
か、あるいはそのまま出力するかを判別する。ここで、
シアン画素の再分配は、マゼンタ画素と重なっているシ
アン画素の画素位置の移動を意味している。
In the binary data distribution discriminating unit 343, the neighboring pixel information fo (i, from the binary data duplication discriminating unit 341 is acquired.
Based on j) and the normalized edge amount Rep from the image feature amount calculation unit 342, it is determined whether the cyan pixel is redistributed or is output as it is. here,
Redistribution of the cyan pixel means movement of the pixel position of the cyan pixel overlapping with the magenta pixel.

【0051】この2値データ分配判別部343では、前
記の注目画素を中心とする領域AR内の9個の画素位置
のそれぞれに関して、注目画素がその画素位置に移動さ
れる確率を意味する重み係数p(i,j)(i=0,
1,2、j=0,1,2)を、次のようにして求める。
ただし、以下の説明では、計算の便宜上、n×n=3×
3のマトリクス形式の係数p(i,j)を1次元配列で
表した、図9Aに示すような係数p(k)(k=i+n
×j;n=3であり、k=0,1,2,…,n2−1)
を用いることとする。
In the binary data distribution discriminating unit 343, with respect to each of the nine pixel positions in the area AR centering on the target pixel, a weighting coefficient which means the probability that the target pixel is moved to the pixel position. p (i, j) (i = 0,
1, 2, j = 0, 1, 2) is obtained as follows.
However, in the following description, for convenience of calculation, n × n = 3 ×
The coefficient p (i, j) in the matrix format of 3 is represented by a one-dimensional array, and the coefficient p (k) (k = i + n) as shown in FIG. 9A.
× j; n = 3 and k = 0, 1, 2, ..., N 2 −1)
Shall be used.

【0052】2値データ分配判別部343では、重み係
数p(k)を、k=(n2 −1)/2の注目画素位置の
ときは、 p(k)=Rep k≠(n2 −1)/2の注目画素位置のときは、 p(k)=!fo(i,j)×(1−Rep) ÷(n×n−Σfo(i,j)) … (3) により求める。ここで、!fo(i,j)は、近傍画素
情報fo(i,j)の否定値、すなわち、近傍画素情報
fo(i,j)の各値「1」と「0」とを、それぞれ反
転させた値を意味している。
In the binary data distribution discriminating unit 343, when the weighting coefficient p (k) is the target pixel position of k = (n 2 -1) / 2, p (k) = Rep k ≠ (n 2 − At the pixel position of interest 1) / 2, p (k) =! fo (i, j) × (1-Rep) ÷ (n × n−Σfo (i, j)) (3) here,! fo (i, j) is a negative value of the neighboring pixel information fo (i, j), that is, a value obtained by inverting each value “1” and “0” of the neighboring pixel information fo (i, j). Means

【0053】前述の例の場合には、近傍画素情報fo
(i,j)は、図4Cに示すようなものであり、Rep
=0.85であるので、図9Aに示す領域AR内の各画
素位置に関する前記重み係数p(k)は、図9Bに示す
ように、 p(0)=p(2)=p(3)=p(6)=p(8)=0 p(1)=p(5)=p(7)=0.05 p(4)=0.85 となる。
In the case of the above example, the neighboring pixel information fo
(I, j) is as shown in FIG. 4C, and Rep
= 0.85, the weighting factor p (k) for each pixel position in the area AR shown in FIG. 9A is, as shown in FIG. 9B, p (0) = p (2) = p (3) = P (6) = p (8) = 0 p (1) = p (5) = p (7) = 0.05 p (4) = 0.85.

【0054】前述したように、各p(k)の値は、その
画素位置に、注目画素位置のシアン画素が移動される確
率である。この場合、図9Cに示した近傍画素情報fo
(i,j)の値により、既にシアン画素あるいはマゼン
タ画素が存在している画素位置に対しては、重み係数p
(k)は0になり、その画素位置には、再分配は行われ
ない。
As described above, the value of each p (k) is the probability that the cyan pixel at the target pixel position is moved to that pixel position. In this case, the neighboring pixel information fo shown in FIG. 9C
Depending on the value of (i, j), the weighting factor p is applied to the pixel position where the cyan pixel or the magenta pixel already exists.
(K) becomes 0, and redistribution is not performed at the pixel position.

【0055】上述の例の場合には、注目画素の位置の重
み係数p(4)の値は0.85であり、また、再分配が
可能な周辺画素の重み係数は0.05であって、これ
は、エッジ量が大きいため、注目画素位置のシアン画素
は移動させないほう良いことを示している。
In the above example, the value of the weighting factor p (4) at the position of the pixel of interest is 0.85, and the weighting factor of the peripheral pixels that can be redistributed is 0.05. This indicates that it is better not to move the cyan pixel at the target pixel position because the edge amount is large.

【0056】逆に、エッジ量epあるいはRepが小さ
いほど、注目画素位置のシアン画素を周辺画素位置に移
動させる確率が高くなる。つまり、画像のエッジ部や輪
郭部でない滑らかな画像部分では、マゼンタ画素と重な
っているシアン画素が周辺の画素位置に再分配され、重
なりが最小限に押さえられることになる。
Conversely, the smaller the edge amount ep or Rep, the higher the probability of moving the cyan pixel at the target pixel position to the peripheral pixel position. That is, in a smooth image portion that is not the edge portion or the contour portion of the image, the cyan pixel overlapping the magenta pixel is redistributed to the peripheral pixel positions, and the overlapping is suppressed to the minimum.

【0057】以上のようにして求めた重み係数p(k)
は、2値データ分配部344に与えられる。2値データ
分配部344は、重み係数p(k)に従って、次のよう
にしてシアン画素を再分配する。
Weighting coefficient p (k) obtained as described above
Is provided to the binary data distribution unit 344. The binary data distribution unit 344 redistributes cyan pixels according to the weighting coefficient p (k) as follows.

【0058】すなわち、まず、係数p(k)を、計算の
便宜上1次元配列の形式で表す、図10Aに示すような
累積確率密度pa(k)に変換する。ただし、シアン画
素あるいはマゼンタ画素が存在している画素位置につい
ては、値を0にしておく。すなわち、
That is, first, the coefficient p (k) is converted into a cumulative probability density pa (k) as shown in FIG. 10A, which is represented in the form of a one-dimensional array for convenience of calculation. However, the value is set to 0 for the pixel position where the cyan pixel or the magenta pixel exists. That is,

【0059】[0059]

【数1】 により、累積確率密度pa(k)を求める。この数1の
(4)式の演算のために、2値データ重複判別部341
からの近傍画素情報fo(i,j)が、この2値データ
分配部344に与えられる。
[Equation 1] Thus, the cumulative probability density pa (k) is obtained. The binary data duplication determination unit 341 is used for the calculation of the equation (4) of the equation 1.
The neighboring pixel information fo (i, j) from is given to the binary data distribution unit 344.

【0060】前述の例に当て嵌めると、pa(k)の各
値は、図10Bにも示すように、pa(0)=0、pa
(1)=0.05、pa(2)=0、pa(3)=0、
pa(4)=(0.85+0.05)=0.90、pa
(5)=0.90、pa(6)=0、pa(7)=1.
00、pa(8)=0となる。
When applied to the above-mentioned example, each value of pa (k) is pa (0) = 0, pa as shown in FIG. 10B.
(1) = 0.05, pa (2) = 0, pa (3) = 0,
pa (4) = (0.85 + 0.05) = 0.90, pa
(5) = 0.90, pa (6) = 0, pa (7) = 1.
00 and pa (8) = 0.

【0061】次に、2値データ分配部344は、乱数発
生器345から、0〜1の値からなる乱数値Rを取得
し、累積確率密度pa(k)と比較し、そのk番目の画
素位置にシアン画素を再分配するか、すなわち、その画
素位置に移動させるか否かを確定する。この場合、再分
配されるシアン画素の位置は、R≦pa(k)を満たす
最小のkに相当する位置である。
Next, the binary data distribution unit 344 obtains the random number value R consisting of the values 0 to 1 from the random number generator 345, compares it with the cumulative probability density pa (k), and outputs the kth pixel. It is determined whether the cyan pixel is redistributed to the position, that is, moved to that pixel position. In this case, the position of the redistributed cyan pixel is the position corresponding to the minimum k that satisfies R ≦ pa (k).

【0062】前述の例に当て嵌めると、乱数値Rが、例
えば0.05以下であるときには、pa(1)の位置に
注目位置のシアン画素を移動させ、乱数値Rが0.05
〜0.90であれば、pa(4)の位置、つまり、注目
位置のシアン画素は移動させない。また、乱数値Rが
0.90〜0.95であれば、pa(5)の位置に注目
位置のシアン画素を移動させ、乱数値Rが0.95〜
1.0であれば、pa(7)の位置に注目位置のシアン
画素を移動させる。この例の場合であれば、乱数発生器
345からの乱数値Rが0.05〜0.90である確率
が非常に高いので、シアン画素の移動はない。
Applying to the above example, when the random number value R is, for example, 0.05 or less, the cyan pixel at the target position is moved to the position of pa (1), and the random number value R is 0.05.
If it is ˜0.90, the position of pa (4), that is, the cyan pixel at the target position is not moved. If the random number value R is 0.90 to 0.95, the cyan pixel at the target position is moved to the position of pa (5), and the random number value R is 0.95 to 0.95.
If 1.0, the cyan pixel at the position of interest is moved to the position of pa (7). In the case of this example, since the probability that the random number value R from the random number generator 345 is 0.05 to 0.90 is very high, the cyan pixel does not move.

【0063】以上のようにして、再分配処理が終了する
と、2値データ分配部344は、画像情報記憶部33に
記憶されている2値シアン画像データを書き換える。し
たがって、この書き換えられた2値画像データが、プリ
ンタ等の画像出力装置に出力されることになる。
When the redistribution processing is completed as described above, the binary data distribution unit 344 rewrites the binary cyan image data stored in the image information storage unit 33. Therefore, the rewritten binary image data is output to an image output device such as a printer.

【0064】2値データ再分配処理部34での上述のよ
うな処理は、ソフトウエアにより実現される。その場合
の処理の流れを示すフローチャートを図11に示す。
The above-mentioned processing in the binary data redistribution processing section 34 is realized by software. FIG. 11 is a flowchart showing the flow of processing in that case.

【0065】すなわち、再分配処理の対象のすべての画
素についての処理が終了したか否か判別し(ステップS
1)、終了していなければ、次の画素(処理の開始時に
は、最初の画素)を注目画素としてセットする(ステッ
プS2)。
That is, it is judged whether or not the processing for all the pixels of the redistribution processing has been completed (step S
1) If not completed, the next pixel (at the start of the process, the first pixel) is set as the target pixel (step S2).

【0066】ステップS2の次にはステップS3に進
み、画像情報記憶部33に記憶している2値画像データ
を用いて、シアン画素とマゼンタ画素が注目画素位置に
おいて、重なっているか否か判別する。重なっていなけ
れば、ステップS1に戻り、次の画素をセットする。重
なっているときには、ステップS4に進み、注目画素を
中心とした9個の画素についての前述した近傍画素情報
fo(i,j)を生成する。
After step S2, the process proceeds to step S3, and using the binary image data stored in the image information storage unit 33, it is determined whether or not the cyan pixel and the magenta pixel overlap at the target pixel position. . If they do not overlap, the process returns to step S1 to set the next pixel. If they overlap, the process proceeds to step S4, and the above-described neighboring pixel information fo (i, j) for nine pixels centered on the pixel of interest is generated.

【0067】次に、ステップS5に進み、注目画素近傍
の9個の画素の領域ARの画像の特徴量として、エッジ
量epを、画像情報記憶部33の、対応するシアンの多
階調画像データを用いて算出する。また、このエッジ量
epを正規化して値Repを求める。
Next, in step S5, the edge amount ep is used as the feature amount of the image of the area AR of 9 pixels near the target pixel, and the edge amount ep is stored in the image information storage unit 33 as the corresponding cyan multi-tone image data. Calculate using. Further, the edge amount ep is normalized to obtain the value Rep.

【0068】次に、ステップS6に進み、近傍画素情報
fo(i,j)と、値Repを用いて重み係数p(k)
を算出する。次に、ステップS7に進み、この重み係数
p(k)を用いて前述したような再分配の演算を行い、
次のステップS8において、その演算結果に基づいて再
分配処理を実行し、再分配処理後のシアンの2値画像デ
ータに、画像情報記憶部33のシアンの2値画像データ
を書き換える。
Next, in step S6, the weighting factor p (k) is calculated using the neighboring pixel information fo (i, j) and the value Rep.
Is calculated. Next, in step S7, the redistribution operation as described above is performed using the weighting coefficient p (k),
In the next step S8, redistribution processing is executed based on the calculation result, and the cyan binary image data in the image information storage unit 33 is rewritten to the cyan binary image data after the redistribution processing.

【0069】その後、ステップS1に戻る。そして、こ
のステップS1において、すべての画素の処理が終了し
ていると判別したときには、ステップS9に進み、再分
配処理後のシアンの2値画像データに、画像情報記憶部
33のシアンの2値画像データを書き換える。そして、
この処理ルーチンを終了する。
Then, the process returns to step S1. When it is determined in step S1 that the processing of all the pixels is completed, the process proceeds to step S9, and the cyan binary image data after the redistribution processing is added to the cyan binary image of the image information storage unit 33. Rewrite the image data. And
This processing routine ends.

【0070】上述のようにして、この実施の形態によれ
ば、滑らかな画像部分に関しては、マゼンタとシアンの
重なりが最小限に押さえられるため、見た目に粒状感の
少ない好ましい画像として出力することができる。一
方、画像の輪郭や、エッジ部においては、再分配が行わ
れないようになっているので、輪郭がぼやけたり、エッ
ジ部で色がにじんだりすることがない。 [第2の実施の形態]次に、この発明による画像処理装
置の第2の実施の形態について説明する。この第2の実
施の形態においても、対象となる画像出力システムは、
図2に示したものと同様であり、また、要部となる中間
調生成器3のブロック図も、図1と同様である。
As described above, according to this embodiment, the overlap of magenta and cyan is suppressed to a minimum for a smooth image portion, so that it can be output as a preferable image with less graininess in appearance. it can. On the other hand, since the redistribute is not performed on the contour of the image or the edge portion, the contour is not blurred and the color is not blurred at the edge portion. [Second Embodiment] Next, a second embodiment of the image processing apparatus according to the present invention will be described. Also in the second embodiment, the target image output system is
It is the same as that shown in FIG. 2, and the block diagram of the halftone generator 3 which is the main part is also the same as that of FIG.

【0071】この第2の実施の形態では、前述した第1
の実施の形態と比較して、2値データ再分配処理部34
のうちの、画像特徴量算出部342における特徴量アル
ゴリズムと、2値データ分配判別部343におけるマト
リクスへの分配の重み係数の算出アルゴリズムとが異な
っている。
In the second embodiment, the above-mentioned first embodiment is used.
In comparison with the embodiment of FIG.
Among them, the feature quantity algorithm in the image feature quantity calculation unit 342 and the calculation algorithm of the weighting coefficient of distribution to the matrix in the binary data distribution determination unit 343 are different.

【0072】以下に、この第2の実施の形態における画
像特徴量算出処理および2値データ分配処理について説
明する。
The image feature amount calculation process and the binary data distribution process according to the second embodiment will be described below.

【0073】この第2の実施の形態においては、画像特
徴量算出部342では、エッジ量を、画像情報記憶部3
3に記憶されている2値化前のシアン多階調画像データ
Cb(x,y)を参照して、前述した領域AR内におい
て、注目画素の周辺の8画素のそれぞれの値と、注目画
素の値との差分量dとして算出する。
In the second embodiment, the image feature amount calculation unit 342 calculates the edge amount as the image information storage unit 3.
With reference to the cyan multi-gradation image data Cb (x, y) before binarization stored in No. 3, the respective values of the eight pixels around the target pixel and the target pixel in the area AR described above. It is calculated as the difference amount d from the value of.

【0074】この差分量dを、3×3のマトリクス形式
のd(i,j)(i,j=0,1,2)で表すと、この
差分量d(i,j)は、 d(i,j)=abs{C(x,y)−C(x−1+i,y−1+j)} …(5) により算出される。(5)式において、absは絶対値
演算を意味している。
When this difference amount d is represented by d (i, j) (i, j = 0,1,2) in a 3 × 3 matrix format, this difference amount d (i, j) is d (i, j) i, j) = abs {C (x, y) -C (x-1 + i, y-1 + j)} (5). In the equation (5), abs means absolute value calculation.

【0075】そして、この画像特徴量算出部342で
は、前述と同様にして、エッジ量である差分量d(i,
j)と、見た目の好ましさとの対応を取るため、図12
に示すような特性曲線の正規化関数fdを用いて正規化
し、正規化した差分量をRd(i、j)とする。この場
合の正規化関数fdは、図12から分かるように、差分
量dが小さい時には、正規化した差分量Rd(i,j)
は「1」、差分量dが所定値よりも大きくなると、急激
に、正規化した差分量Rd(i,j)の値を小さくする
ものである。
Then, in the image feature amount calculation unit 342, the difference amount d (i,
In order to make a correspondence between j) and the appearance preference, FIG.
Normalization is performed using the normalization function fd of the characteristic curve as shown in, and the normalized difference amount is defined as Rd (i, j). As can be seen from FIG. 12, the normalized function fd in this case is the normalized difference amount Rd (i, j) when the difference amount d is small.
Is "1", and when the difference amount d becomes larger than a predetermined value, the value of the normalized difference amount Rd (i, j) is rapidly reduced.

【0076】この演算により求められた差分量Rd
(i,j)は、再分配を行うシアン画素との画素値の差
が大きい画素位置ほど、小さくなり、再分配が行われる
確率が低くなる。つまり、画像の輪郭やエッジ部分で、
エッジを越えた領域への画素の再分配を防ぐことができ
る。
Difference amount Rd obtained by this calculation
(I, j) becomes smaller as the pixel position has a larger difference in pixel value from the cyan pixel to be redistributed, and the probability of redistributing becomes lower. In other words, at the contours and edges of the image,
It is possible to prevent redistributing pixels into the area beyond the edge.

【0077】2値データ分配判別部343においては、
上述のようにして画像特徴量算出部で算出された差分量
Rd(i,j)と、2値データ重複検出部341からの
近傍画素情報fo(i,j)とから、前述の第1の実施
の形態と同様にして、近傍画素に再分配する確率を表す
重み係数p(k)を算出する。この場合、重み係数p
(k)は、 p(k)=!fo(i,j)×Rd(i,j) …(6) ただし、k=i+n×j、n=3である。として算出さ
れる。
In the binary data distribution discriminating unit 343,
From the difference amount Rd (i, j) calculated by the image feature amount calculation unit as described above and the neighboring pixel information fo (i, j) from the binary data duplication detection unit 341, Similar to the embodiment, the weighting coefficient p (k) representing the probability of redistributing to neighboring pixels is calculated. In this case, the weighting factor p
(K) is p (k) =! fo (i, j) × Rd (i, j) (6) However, k = i + n × j and n = 3. Is calculated as

【0078】また、注目画素位置の重み係数p(4)
は、 p(4)=1−Σp(k) (ただし、Σp(k)は、すべてのkについてのp
(k)の和を意味する)とし、もし、p(4)が負の値
のときはp(4)=0とする。
Further, the weighting factor p (4) of the pixel position of interest
P (4) = 1−Σp (k) (where Σp (k) is p for all k
(Meaning the sum of (k)), and if p (4) is a negative value, p (4) = 0.

【0079】さらに、 p(k)=p(k)/Σp(k) として、合計が1になるように正規化する。こうして得
られた正規化された重み係数p(k)=p(i+n×
j)は、前述もしたように、注目画素の近傍位置(i,
j)にシアン画素が移動される確率である。この実施の
形態の場合には、注目画素と近傍画素との差分値が小さ
いほど、当該近傍画素に注目シアン画素が再分配される
確率が高くなる。そして、前述と同様にして、すでにマ
ゼンタ画素あるいはシアン画素が存在している画素位置
には再分配は行われない。
Further, p (k) = p (k) / Σp (k) is set and normalized so that the total becomes 1. The normalized weighting factor p (k) = p (i + n ×) thus obtained
j) is, as described above, the position (i,
j) is the probability that the cyan pixel is moved. In the case of this embodiment, the smaller the difference value between the target pixel and the neighboring pixel, the higher the probability that the target cyan pixel will be redistributed to the neighboring pixel. Then, in the same manner as described above, the redistribution is not performed to the pixel position where the magenta pixel or the cyan pixel already exists.

【0080】2値データ分配部344では、正規化され
た重み係数p(k)にしたがってシアン画素を再分配す
る。すなわち、第1の実施の形態の場合と同様に、2値
データ分配部344は、乱数発生器345からの乱数値
Rを取得し、R<p(k)を満たす最小のkに相当する
シアン画素を再分配する。そして、再分配後のシアンの
2値画像データに、画像情報記憶部33のシアンの2値
画像データを書き換える。
The binary data distribution unit 344 redistributes cyan pixels according to the normalized weighting coefficient p (k). That is, as in the case of the first embodiment, the binary data distribution unit 344 acquires the random number value R from the random number generator 345, and the cyan corresponding to the minimum k that satisfies R <p (k). Redistribute pixels. Then, the cyan binary image data in the image information storage unit 33 is rewritten with the cyan binary image data after the redistribution.

【0081】この第2の実施の形態を、具体例について
説明すると、次のようになる。すなわち、画像特徴量算
出部342においては、例えば、画像情報記憶部33の
シアン多階調画像データが図13Aに示すようなもので
あって、注目画素位置(xo,yo)を中心とする領域
ARが、図13Aで太線で示す領域である場合には、
(5)式により、図13Bに示すような差分値d(i,
j)を算出する。
A concrete example of the second embodiment will be described below. That is, in the image feature amount calculation unit 342, for example, the cyan multi-gradation image data of the image information storage unit 33 is as shown in FIG. 13A, and the area around the pixel position of interest (xo, yo) is the center. If AR is the area indicated by the thick line in FIG. 13A,
From the equation (5), the difference value d (i,
j) is calculated.

【0082】そして、画像特徴量算出部342は、この
差分値d(i,j)を、図13Cに示す特性曲線の正規
化関数fdを用いて、図13Dに示すように、正規化差
分値Rd(i,j)に変換する。
Then, the image feature amount calculation unit 342 uses the difference value d (i, j) as a normalized difference value as shown in FIG. 13D by using the normalization function fd of the characteristic curve shown in FIG. 13C. Convert to Rd (i, j).

【0083】2値データ分配判別部343では、図15
Aに示すような画素位置に対応するものとして表される
重み係数p(k)を、図15Bに示す前記の画像特徴量
算出部342において算出された正規化差分値Rd
(i,j)と、図15Cに示す2値データ重複判別部3
41からの近傍画素情報fo(i,j)とを用いて算出
する。図15Dは、この算出結果の重み係数p(k)の
各値を示している。そして、この重み係数p(k)をさ
らに、合計が1になるように正規化して、図15Eに示
すような係数p(k)を得る。
In the binary data distribution discriminating unit 343, as shown in FIG.
The weighted coefficient p (k) represented as corresponding to the pixel position as shown in A is the normalized difference value Rd calculated by the image feature amount calculation unit 342 shown in FIG. 15B.
(I, j) and the binary data duplication determination unit 3 shown in FIG. 15C.
It is calculated using the neighboring pixel information fo (i, j) from 41. FIG. 15D shows each value of the weighting coefficient p (k) of this calculation result. Then, the weighting coefficient p (k) is further normalized so that the sum becomes 1, and the coefficient p (k) as shown in FIG. 15E is obtained.

【0084】2値データ分配部344は、この図15E
の正規化された係数p(k)にしたがい、乱数発生器3
45からの乱数値Rを用いてシアン画素の再分配処理を
実行し、実行した結果のシアン2値画像データに、画像
情報記憶部33のシアン2値画像データを書き換える。
The binary data distribution unit 344 is shown in FIG.
Random number generator 3 according to the normalized coefficient p (k) of
The cyan pixel redistribution processing is executed using the random number value R from 45, and the cyan binary image data of the image information storage unit 33 is rewritten with the cyan binary image data of the executed result.

【0085】以上のような再分配処理を行うことによ
り、この第2の実施の形態においても、第1の実施の形
態と同様に、滑らかな画像に関してはマゼンタとシアン
の重なりが最小限に押さえられ、見た目の粒状感の少な
い好ましい画像を出力することができる2値画像データ
を出力することができる。一方、注目画素と近傍画素と
の差分が大きい場合には、再分配しないように処理を行
っているため、輪郭がぼやけたり、エッジ部で色がにじ
んだりすることがない。
By performing the redistribution processing as described above, also in the second embodiment, the overlap of magenta and cyan can be minimized for smooth images, as in the first embodiment. Therefore, it is possible to output binary image data capable of outputting a preferable image with a less grainy appearance. On the other hand, when the difference between the pixel of interest and the neighboring pixel is large, the processing is performed so that the pixel is not redistributed, so that the contour is not blurred and the color is not blurred at the edge portion.

【0086】[変形例]この発明による画像処理は、従
来の誤差拡散処理の方法には依存せずに行うことができ
るので、この発明は、少なくとも単色で使用できるあら
ゆる誤差拡散処理によって処理を施されたマルチカラー
あるいはフルカラーの2値画像データに対して適用可能
である。
[Modification] Since the image processing according to the present invention can be performed without depending on the conventional error diffusion processing method, the present invention performs processing by any error diffusion processing that can be used for at least a single color. The present invention can be applied to multi-color or full-color binary image data that has been created.

【0087】なお、上述した実施の形態は、出力画像が
シアン、マゼンタ、イエロー、ブラックからなる場合で
あるが、この発明は、ブラックを持たないシアン、マゼ
ンタ、イエローからなる画像や、2色のマルチカラー画
像である場合にも適用可能である。また、モニターディ
スプレイに出力画像を表示するための、赤、緑、青のデ
ータに対しても適用することができる。
In the above-described embodiment, the output image is composed of cyan, magenta, yellow and black. However, the present invention is an image composed of cyan, magenta and yellow without black, and of two colors. It is also applicable to the case of a multi-color image. It can also be applied to red, green, and blue data for displaying an output image on a monitor display.

【0088】[0088]

【発明の効果】以上説明したように、この発明によれ
ば、原画像の特徴量に基づいて複数色の2値データの重
なりを制御することにより、滑らかな画像部に関して
は、見た目に粒状感の少ない好ましい画像を出力するこ
とができ、また、輪郭部やエッジ部に対しては、ぼけや
色のにじみが最小限に押さえられた鮮明な画像を出力す
ることができる。
As described above, according to the present invention, the overlap of binary data of a plurality of colors is controlled on the basis of the feature amount of the original image, so that the smooth image portion has a visually granular appearance. It is possible to output a preferable image with less blurring, and to output a clear image in which blurring and color bleeding are suppressed to a minimum for the contour portion and the edge portion.

【図面の簡単な説明】[Brief description of drawings]

【図1】この発明による画像処理装置の一実施の形態の
要部のブロック図である。
FIG. 1 is a block diagram of a main part of an embodiment of an image processing apparatus according to the present invention.

【図2】この発明による画像処理装置の一実施の形態の
システム構成を示す図である。
FIG. 2 is a diagram showing a system configuration of an embodiment of an image processing apparatus according to the present invention.

【図3】この発明による画像処理装置の一実施の形態に
おいて、再分配処理を行う範囲の一例を示す図である。
FIG. 3 is a diagram showing an example of a range for performing redistribution processing in the embodiment of the image processing apparatus according to the present invention.

【図4】この発明による画像処理装置の一実施の形態に
おいて、色画素の重なりおよびその周辺画素の情報を得
る処理の具体例を示す図である。
FIG. 4 is a diagram showing a specific example of a process for obtaining information on overlapping of color pixels and peripheral pixels thereof in the embodiment of the image processing apparatus according to the present invention.

【図5】この発明による画像処理装置の一実施の形態に
おいて、画像特徴量の算出処理の説明のための図であ
る。
FIG. 5 is a diagram for explaining the calculation processing of the image feature amount in the embodiment of the image processing apparatus according to the present invention.

【図6】この発明による画像処理装置の一実施の形態に
おいて、画像特徴量を正規化する処理の説明のための図
である。
FIG. 6 is a diagram for explaining a process of normalizing an image feature amount in the embodiment of the image processing device according to the present invention.

【図7】この発明による画像処理装置の一実施の形態に
おいて、画像特徴量の算出処理の具体例を説明するため
の図である。
FIG. 7 is a diagram for explaining a specific example of image feature amount calculation processing in the embodiment of the image processing apparatus according to the present invention.

【図8】この発明による画像処理装置の一実施の形態に
おいて、画像特徴量を正規化する処理の具体例を説明す
るための図である。
FIG. 8 is a diagram for explaining a specific example of a process for normalizing an image feature amount in the embodiment of the image processing device according to the present invention.

【図9】この発明による画像処理装置の一実施の形態に
おいて、再分配を行うか否かの指標の算出の具体例を説
明するための図である。
FIG. 9 is a diagram for explaining a specific example of calculation of an index as to whether or not redistribution is performed in the embodiment of the image processing apparatus according to the present invention.

【図10】この発明による画像処理装置の一実施の形態
において、再分配を行うか否かの指標の具体例を説明す
るための図である。
FIG. 10 is a diagram for explaining a specific example of an index as to whether or not redistribution is performed in the embodiment of the image processing apparatus according to the present invention.

【図11】この発明による画像処理装置の一実施の形態
における要部の処理の流れの例を示すフローチャートで
ある。
FIG. 11 is a flowchart showing an example of a processing flow of a main part in the embodiment of the image processing apparatus according to the present invention.

【図12】この発明による画像処理装置の他の実施の形
態において、画像特徴量を正規化する処理の説明のため
の図である。
FIG. 12 is a diagram for explaining a process of normalizing an image feature amount in another embodiment of the image processing device according to the present invention.

【図13】この発明による画像処理装置の他の実施の形
態において、画像特徴量を算出する処理を説明するため
の図である。
FIG. 13 is a diagram for explaining a process of calculating an image feature amount in another embodiment of the image processing device according to the present invention.

【図14】この発明による画像処理装置の他の実施の形
態において、画素の再分配を行うか否かの指標の算出の
具体例を説明するための図である。
FIG. 14 is a diagram for explaining a specific example of calculation of an index as to whether or not to redistribute pixels in another embodiment of the image processing apparatus according to the present invention.

【符号の説明】[Explanation of symbols]

1 カラー画像信号発生装置 2 色変換/色補正器 3 中間調生成器 4 2値プリンタ 32 画像2値化処理部 33 画像情報記憶部 34 2値データ再分配処理部 341 2値データ重複判別部 342 画像特徴量算出部 343 2値データ分配判別部 344 2値データ分配部 345 乱数発生器 1 Color Image Signal Generator 2 Color Converter / Color Corrector 3 Halftone Generator 4 Binary Printer 32 Image Binarization Processor 33 Image Information Storage 34 Binary Data Redistribution 341 Binary Data Duplication Discrimination 342 Image feature amount calculation unit 343 Binary data distribution determination unit 344 Binary data distribution unit 345 Random number generator

───────────────────────────────────────────────────── フロントページの続き (72)発明者 田中 徹 神奈川県足柄上郡中井町境430 グリーン テクなか い 富士ゼロックス株式会社内 (72)発明者 広瀬 吉嗣 神奈川県足柄上郡中井町境430 グリーン テクなか い 富士ゼロックス株式会社内 ─────────────────────────────────────────────────── ─── Continuation of the front page (72) Toru Tanaka Toru Tanaka 430 Nakai-cho, Ashigaragami-gun, Kanagawa Green Tech Nakai Fuji Xerox Co., Ltd. Xerox Co., Ltd.

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】入力カラー画像信号を2値画像データに変
換して中間調を発生し、画像出力装置に供給する画像処
理装置であって、 前記入力カラー画像信号に対応するカラー画像を再現す
るための複数個の色のそれぞれについての多階調画像信
号のそれぞれから、各色についての2値画像データをそ
れぞれ生成する2値化手段と、 前記カラー画像を再現するための複数個の色のそれぞれ
についての多階調画像信号と、前記各色についての2値
画像データとを記憶する記憶手段と、 前記記憶手段に記憶された前記多階調画像信号を用い
て、局所的な画像の特徴量を算出する特徴量算出手段
と、 前記記憶手段に記憶された2値画像データを用いて、注
目画素を含む周辺領域における少なくとも2色以上の複
数色のデータ値の分布を検出する検出手段と、 前記検出手段の検出結果と、前記特徴量算出手段により
算出された前記注目画素を含む周辺領域の画像の特徴量
とに基づいて、前記注目画素データを周辺画素に分配す
るか否かを判別する判別手段と、 前記判別手段の判別結果に従い、前記注目画素データを
周辺画素に分配する分配手段とを備えることを特徴とす
る画像処理装置。
1. An image processing apparatus for converting an input color image signal into binary image data to generate a halftone and supplying the halftone to an image output apparatus, wherein a color image corresponding to the input color image signal is reproduced. Binarizing means for respectively generating binary image data for each color from each of the multi-gradation image signals for each of the plurality of colors, and each of the plurality of colors for reproducing the color image. Storage means for storing the multi-gradation image signal and the binary image data for each color, and the multi-gradation image signal stored in the storage means to determine a local image feature amount. Using the characteristic amount calculation means for calculating and the binary image data stored in the storage means, a detection method for detecting a distribution of data values of a plurality of colors of at least two colors or more in the peripheral region including the target pixel. Whether the target pixel data is distributed to the peripheral pixels based on a step, the detection result of the detection unit, and the feature amount of the image of the peripheral region including the target pixel calculated by the feature amount calculation unit. An image processing apparatus, comprising: a determining unit that determines whether the target pixel data is distributed to peripheral pixels according to a determination result of the determining unit.
【請求項2】前記分配手段は、前記判別手段の判別結果
に従い、前記周辺画素に前記注目画素データを分配する
場合において、前記2色以上の複数色の重なりのない前
記周辺画素にのみ、分配するようにしたことを特徴とす
る請求項1に記載の画像処理装置。
2. The distributing means, when distributing the target pixel data to the peripheral pixels according to the discrimination result of the discriminating means, distributes only to the peripheral pixels having no overlap of the two or more colors. The image processing apparatus according to claim 1, wherein the image processing apparatus is configured to do so.
【請求項3】前記特徴量算出手段は、前記多階調画像信
号について特徴量としてエッジ勾配の大きさを算出する
ものであり、前記判別手段は、前記注目画素データを周
辺画素に分配するか否かを、重み係数として表すことを
特徴とする請求項1に記載の画像処理装置。
3. The feature quantity calculating means calculates the magnitude of an edge gradient as a feature quantity for the multi-gradation image signal, and the judging means distributes the target pixel data to peripheral pixels. The image processing apparatus according to claim 1, wherein whether or not the weight is represented is represented as a weighting coefficient.
【請求項4】前記特徴量算出手段は、前記多階調画像信
号について特徴量として前記注目画素データと、その近
傍画素データとの差分値を算出するものであり、前記判
別手段は、前記注目画素データを周辺画素に分配するか
否かを、重み係数として表すことを特徴とする請求項1
に記載の画像処理装置。
4. The feature amount calculating means calculates a difference value between the pixel data of interest and its neighboring pixel data as a feature amount of the multi-gradation image signal, and the discriminating means calculates the difference value. 2. A weighting coefficient indicating whether or not to distribute pixel data to peripheral pixels.
An image processing apparatus according to claim 1.
JP8040663A 1996-02-02 1996-02-02 Picture processor Pending JPH09214783A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8040663A JPH09214783A (en) 1996-02-02 1996-02-02 Picture processor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8040663A JPH09214783A (en) 1996-02-02 1996-02-02 Picture processor

Publications (1)

Publication Number Publication Date
JPH09214783A true JPH09214783A (en) 1997-08-15

Family

ID=12586779

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8040663A Pending JPH09214783A (en) 1996-02-02 1996-02-02 Picture processor

Country Status (1)

Country Link
JP (1) JPH09214783A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102222319A (en) * 2011-04-08 2011-10-19 中兴通讯股份有限公司 Image processing method and device
CN102496148A (en) * 2011-11-30 2012-06-13 哈尔滨工业大学 Method for removing image burr

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102222319A (en) * 2011-04-08 2011-10-19 中兴通讯股份有限公司 Image processing method and device
CN102496148A (en) * 2011-11-30 2012-06-13 哈尔滨工业大学 Method for removing image burr

Similar Documents

Publication Publication Date Title
US5883973A (en) Method and apparatus for processing a document by segmentation into text and image areas
US6549303B1 (en) Trapping methods and arrangements for use in printing color images
EP1073260B1 (en) Image processing device, image forming device incorporating the same, and storage medium for storing program used thereby
US6778297B1 (en) Image processing apparatus, method, and computer program product
JPH07195714A (en) Image processing method for reducing application range of recording material in printing processing
JP2008005317A (en) Image processor and image processing method, and computer program and recording medium
EP0707414B1 (en) Improved method and apparatus for reducing artifacts in halftone images using gray balance correction
JPH10334230A (en) Control method for image emphasis processing
JPH08116464A (en) Colored picture processing and picture processor
JP4620948B2 (en) Multicolor image processing system and method
US6851783B1 (en) Replacement halftoning
EP0783226B1 (en) Image processing apparatus and method
JP3604902B2 (en) Image processing device
US6972873B1 (en) Halftoning method and apparatus, and computer-readable recording medium in which halftoning program is recorded
US5485529A (en) Image processing apparatus with the ability to suppress isolated points
JPH09214783A (en) Picture processor
JP3618776B2 (en) Image processing apparatus and method
JPH01227576A (en) Image processing unit
JP3455078B2 (en) Image processing apparatus and image processing method
JP2812401B2 (en) Image processing device
CN101188661A (en) Image forming apparatus and control method thereof
JP3830269B2 (en) Image correction processing method
JP2954230B2 (en) Image processing device
JP2755313B2 (en) Image processing device
KR100283747B1 (en) Method for Preventing Overlap of Color Ink When Printing