JPH08307690A - Image processing unit - Google Patents

Image processing unit

Info

Publication number
JPH08307690A
JPH08307690A JP7105671A JP10567195A JPH08307690A JP H08307690 A JPH08307690 A JP H08307690A JP 7105671 A JP7105671 A JP 7105671A JP 10567195 A JP10567195 A JP 10567195A JP H08307690 A JPH08307690 A JP H08307690A
Authority
JP
Japan
Prior art keywords
image
block
edge
function
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP7105671A
Other languages
Japanese (ja)
Inventor
Naoyuki Nishikawa
尚之 西川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP7105671A priority Critical patent/JPH08307690A/en
Publication of JPH08307690A publication Critical patent/JPH08307690A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Ink Jet (AREA)
  • Particle Formation And Scattering Control In Inkjet Printers (AREA)
  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PURPOSE: To generate an image excellent in gradation and resolution. CONSTITUTION: A multi-value original image is divided into plural image blocks and a 2-path edge detection section 321 detects an edge from each image block and the image block is classified into plural patterns depending on the presence of an edge component of an obtained two longitudinal and lateral areas. Then a binarization pattern decision section 322 forms a dither block and an original image is binarized by the dither block.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、多値画像を二値化画像
に展開する画像処理装置に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image processing device for developing a multi-valued image into a binarized image.

【0002】[0002]

【従来の技術】従来のカラーインクジェットプリンタで
は、例えば、多値のRGBデータで構成される入力デー
タが、インターフェースを介してプリンタ内部の色変換
処理によりRGB値からYMCK値へ変換している。さ
らに、内部に設けられた展開処理より画像を生成し、Y
MCK多値データを得た後、二値化処理を経て、最終的
な描画データを得る構成となっている。
2. Description of the Related Art In a conventional color ink jet printer, for example, input data composed of multi-valued RGB data is converted from RGB values to YMCK values by color conversion processing inside the printer via an interface. Furthermore, an image is generated by the expansion processing provided inside, and Y
After obtaining MCK multi-valued data, binarization processing is performed to obtain final drawing data.

【0003】上記の構成をとるカラーインクジェットプ
リンタのように、1ドットで表現できる濃度を変えるこ
とができない二値表示デバイスにおいて階調画像を再現
するためには、原画像へ局所的なノイズを加えること
で、階調を擬似的に再現する、いわゆるディザ法が広く
知られている。このディザ法は、人間が、空間周波数特
性、すなわち高周波成分の知覚が鈍いことを利用してい
るために、上記のノイズは、それが知覚されない程度に
充分高い周波数を有することが望ましい。
In order to reproduce a gradation image in a binary display device in which the density that can be expressed by one dot cannot be changed like the color ink jet printer having the above structure, local noise is added to the original image. Therefore, a so-called dither method, which reproduces the gradation in a pseudo manner, is widely known. Since the dither method utilizes the fact that human beings have a low spatial frequency characteristic, that is, the perception of high frequency components is low, it is desirable that the noise has a sufficiently high frequency so that it cannot be perceived.

【0004】[0004]

【本発明が解決しようとする課題】しかしながら、ディ
ザ法による二値化手法では、原理的に階調性の向上と解
像度の向上は相反関係になるという問題が存在する。例
えば、中間調の滑らかな画像信号の再生を考えた場合、
この中間調の再生のために、できるだけ高い階調性を実
現する必要がある。そして、高い階調性を得るために
は、ディザを加える単位領域を大きくとる必要がある
が、これは、必然的に解像度の低下を招く結果となる。
However, in the binarization method based on the dither method, there is a problem in principle that the improvement in gradation and the improvement in resolution are in a trade-off relationship. For example, considering the reproduction of smooth halftone image signals,
In order to reproduce this halftone, it is necessary to realize as high gradation as possible. Then, in order to obtain high gradation, it is necessary to make the unit area to which the dither is added large, but this inevitably results in a decrease in resolution.

【0005】本発明は、上記の課題に鑑みてなされたも
ので、その目的とするところは、階調性と解像度に優れ
た画像を容易に生成できる画像処理装置を提供すること
である。
The present invention has been made in view of the above problems, and an object thereof is to provide an image processing apparatus which can easily generate an image excellent in gradation and resolution.

【0006】[0006]

【課題を解決するための手段】上記の目的を達成するた
め、本発明は、多値画像を二値画像ヘ展開して画像生成
を行なう画像処理装置において、前記多値画像を複数の
画像ブロックに分割する手段と、前記画像ブロックごと
に複数パスのエッジの検出を行なうエッジ検出手段と、
前記エッジの検出結果をもとに前記画像ブロックをあら
かじめ決めた複数のパターンに分類する手段と、前記分
類された複数のパターンによりディザブロックを形成す
る手段と、前記ディザブロックに基づく二値化処理を施
す手段とを備える。
In order to achieve the above object, the present invention is an image processing apparatus for developing a multi-valued image into a binary image to generate an image, in which the multi-valued image is divided into a plurality of image blocks. Means for dividing the image block into two parts, and edge detection means for detecting edges of a plurality of paths for each image block,
Means for classifying the image block into a plurality of predetermined patterns based on the edge detection result, means for forming a dither block by the plurality of classified patterns, and binarization processing based on the dither block And means for applying.

【0007】[0007]

【作用】以上の構成において、階調性と解像度に優れた
画像を生成するよう機能する。
With the above construction, it functions to generate an image excellent in gradation and resolution.

【0008】[0008]

【実施例】以下、添付図面を参照して、本発明に係る好
適な実施例を詳細に説明する。 [第1実施例]最初に、本発明に係る第1の実施例につ
いて説明する。 <カラープリンタ装置の説明>図1は、本実施例に係る
カラープリンタ装置の概略構成を示す図である。同図に
おいて、符号220〜223はカラーインクカートリッ
ジであり、カートリッジ220にはイエロー(Y)のカ
ラーインク、カートリッジ221にはマゼンタ(M)の
カラーインク、カートリッジ222にはシアン(C)の
カラーインク、そして、カートリッジ223にはブラッ
ク(K)のカラーインクが充填されている。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Preferred embodiments of the present invention will be described in detail below with reference to the accompanying drawings. [First Embodiment] First, a first embodiment of the present invention will be described. <Description of Color Printer Device> FIG. 1 is a view showing the schematic arrangement of a color printer device according to this embodiment. In the figure, reference numerals 220 to 223 are color ink cartridges. The cartridge 220 has yellow (Y) color ink, the cartridge 221 has magenta (M) color ink, and the cartridge 222 has cyan (C) color ink. The cartridge 223 is filled with black (K) color ink.

【0009】上記の各カラーインクカートリッジから
は、各々独立したパイプが伸びており、それらが圧力ポ
ンプ216と接続されている。この圧力ポンプ216か
らプリントヘッド212までは、一定の圧力で各々のイ
ンクが送られるようになっている。
Independent pipes extend from the color ink cartridges and are connected to the pressure pump 216. Each ink is sent from the pressure pump 216 to the print head 212 at a constant pressure.

【0010】印刷用紙は、本カラープリンタ装置201
の後面より給紙され、用紙プラテン211とフロントガ
イドローラ215により固定されている。本カラープリ
ンタ装置の操作は、コントロールパネル218上のキー
ボタンを押下することで行なわれ、コントローラボード
219が、カラープリンタ装置201のすべての動作を
制御するようになっている。
The printing paper is the color printer device 201.
The paper is fed from the rear surface and is fixed by a paper platen 211 and a front guide roller 215. The color printer device is operated by pressing a key button on the control panel 218, and the controller board 219 controls all operations of the color printer device 201.

【0011】本カラープリンタ装置201へ印字を行な
うためには、不図示のインターフェースを介して印字制
御命令及び印字データを送る。上記のコントロールボー
ド219は、例えば、色指定命令でRGB色の指定があ
った場合、内部の色処理装置を介してRGB色をYMC
Kのデータへ変換した後、プリントヘッド212を駆動
して印刷を行なう。 <処理概要の説明>図2は、本実施例に係るカラープリ
ンタ装置の内部処理を示すブロック図である。同図に示
すように、多値のRGBデータで構成される入力データ
310は、インターフェース311を介して本プリンタ
装置内部の色変換処理部312により、RGB値からY
MCK値ヘ変換される。さらに、展開処理部313にて
画像生成を行なうことで、YMCKの多値データ314
を得る。
In order to perform printing on the color printer device 201, a print control command and print data are sent via an interface (not shown). For example, when the RGB color is designated by the color designation command, the control board 219 controls the RGB color to YMC via the internal color processing device.
After conversion into K data, the print head 212 is driven to print. <Description of Processing Outline> FIG. 2 is a block diagram showing the internal processing of the color printer apparatus according to this embodiment. As shown in the figure, the input data 310 composed of multi-valued RGB data is converted from the RGB value to the Y value by the color conversion processing unit 312 inside the printer apparatus via the interface 311.
Converted to MCK value. Further, by generating an image in the expansion processing unit 313, the YMCK multivalued data 314 is generated.
Get.

【0012】この多値データ314に対しては、領域毎
に2パスのエッジ検出を2パスエッジ検出部321にて
実行し、この結果をもとに、各領域における二値化パタ
ーンを二値化パターン決定部322で決定する。また、
二値化部315では、2パスエッジ検出部312で決定
された二値化パターンにより、多値データ314を二値
化し、最終的に描画データ316を得る。 <ブロックの切り出し>図3は、本実施例において、画
像411から矩形領域(以下、これを画像ブロック42
1という)を切り出し、これを解析する様子を模式的に
示した図である。
With respect to the multi-valued data 314, the 2-pass edge detection section 321 executes edge detection of 2 passes for each region, and the binarization pattern in each region is binarized based on the result. The pattern determining unit 322 determines the pattern. Also,
The binarization unit 315 binarizes the multivalued data 314 by the binarization pattern determined by the 2-pass edge detection unit 312, and finally obtains the drawing data 316. <Cutout of Block> FIG. 3 shows a rectangular region (hereinafter referred to as image block 42) from the image 411 in this embodiment.
FIG. 3 is a diagram schematically showing a state in which (1) is cut out and analyzed.

【0013】ここで切り出す画像ブロックサイズは、そ
の水平方向がXn、垂直方向がYnである。例えば、あ
る画像からブロック切り出しを行ない、そのブロック内
の各ピクセル濃度をグラフ上にプロットすると、グラフ
431に示すような分布が得られる。 <2パスによる画像エッジ成分検出>図3において、X
0,Y0は、画像ブロック421の縦横2領域のエッジ
成分を抽出した値であり、これらは、以下のようにして
求める。すなわち、 パス1の求め方:ブロック領域内におけるX方向のエッ
ジ成分を、以下の式(1)により求め、これをEx0と
する。そして、このEx0の値と閾値関数Tx0( )
を比較して、X0の値を決定する。
The image block size to be cut out here is Xn in the horizontal direction and Yn in the vertical direction. For example, when a block is cut out from a certain image and the pixel densities in the block are plotted on a graph, the distribution shown in the graph 431 is obtained. <Detection of Image Edge Component by 2-Pass> X in FIG.
0 and Y0 are values obtained by extracting the edge components of the vertical and horizontal two regions of the image block 421, and these are obtained as follows. That is, how to obtain path 1: the edge component in the X direction in the block area is obtained by the following equation (1), and this is set as Ex0. Then, the value of Ex0 and the threshold function Tx0 ()
To determine the value of X0.

【式1】 ただし、関数wx( )は、重み付けを定義した関数、
関数f( )は、ブロック内の入力画像信号を表わす関
数、また、関数gx( )は、水平エッジ信号を定義し
た関数である。そして、X0については、 X0=0 (Ex0≦Tx0( )のとき) X0=1 (Ex0>Tx0( )のとき) という値をとる。ただし、関数Tx0( )は、その平
均値をほぼMx0とするランダムな出力値を提供する関
数である。ここで、Mx0は、画像またはシステムの特
性により(実験的に、または定量的に)適宜決定された
定数である。
(Equation 1) However, the function wx () is a function that defines weighting,
The function f () is a function that represents the input image signal in the block, and the function gx () is a function that defines the horizontal edge signal. Then, for X0, the values are as follows: X0 = 0 (when Ex0 ≦ Tx0 ()) X0 = 1 (when Ex0> Tx0 ()). However, the function Tx0 () is a function that provides a random output value whose average value is approximately Mx0. Here, Mx0 is a constant appropriately determined (experimentally or quantitatively) according to the characteristics of the image or the system.

【0014】パス2の求め方:ブロック領域内における
Y方向のエッジ成分を、以下の式(2)により求め、こ
れをEy0とする。そして、このEy0の値と閾値関数
Ty0( )を比較して、Y0の値を決定する。
How to obtain path 2: The edge component in the Y direction in the block area is obtained by the following equation (2), and this is Ey0. Then, the value of Ey0 is compared with the threshold value function Ty0 () to determine the value of Y0.

【式2】 ただし、関数wy( )は、重み付けを定義した関数、
関数f( )は、ブロック内の入力画像信号を表わす関
数、そして、関数gy( )は、垂直エッジ信号を定義
した関数である。また、Y0については、 Y0=0 (Ey0≦Ty0( )のとき) Y0=1 (Ey0>Ty0( )のとき) となる。ただし、関数Ty0( )は、平均値をほぼM
y0とするランダムな出力値を提供する関数であり、M
y0は、画像またはシステムの特性により(実験的に、
または定量的に)適宜決定された定数である。 <エッジ成分値による塗りパターンの分類>図4は、上
述のエッジ成分値による塗りパターン分類を示すマップ
である。同図に示すように、ここでは、X0,Y0のと
り得る値(0はエッジなし、1はエッジ有りを示す)の
4種類に応じて、ブロック内の塗りパターンを分類す
る。
(Equation 2) However, the function wy () is a function that defines weighting,
The function f () is a function that represents an input image signal in the block, and the function gy () is a function that defines a vertical edge signal. Regarding Y0, Y0 = 0 (when Ey0 ≦ Ty0 ()) and Y0 = 1 (when Ey0> Ty0 ()). However, the function Ty0 () has an average value of approximately M.
A function that provides a random output value as y0, and M
y0 depends on the characteristics of the image or system (experimentally,
Or (quantitatively) an appropriately determined constant. <Classification of Paint Patterns by Edge Component Values> FIG. 4 is a map showing the above-mentioned classification of paint patterns by edge component values. As shown in the figure, here, the paint patterns in the block are classified according to four kinds of possible values of X0 and Y0 (0 indicates no edge, 1 indicates edge).

【0015】塗りパターンは、便宜上、□をスクェア
型、□□をI型と定義し、これらの組合わせにより構成
する。ただし、これらのパターンについては、回転した
ものを区別しないが、その大小は区別する。具体的に
は、図4に示すように、 領域 X0,Y0のエッジ成分が、0,0のときはスク
ェア型(大)が1つ 領域 X0,Y0のエッジ成分が0,1のときはI型が
2つ 領域 X0,Y0のエッジ成分が1,0のときはI型が
2つ 領域 X0,Y0のエッジ成分が1,1のときはスクェ
ア型(小)が4つの如く分類する。 <二値化の方法についての説明>図5は、上述の塗りパ
ターン分類に基づいて塗りパターンを組立て、多値の原
画像を二値化する様子を示した概念図である。同図で
は、原画像611を画像ブロック単位に分割した後、ブ
ロックB621において2パスのエッジ成分検出を行な
い、この処理結果により、ブロックB622内で塗りパ
ターンを生成する。
For the sake of convenience, the coating pattern is defined as a square type, a square type is an I type, and a combination thereof. However, with respect to these patterns, rotated patterns are not distinguished, but their sizes are distinguished. Specifically, as shown in FIG. 4, when the edge component of the region X0, Y0 is 0, 0, there is one square type (large), and when the edge component of the region X0, Y0 is 0, 1, I There are two types. When the edge component of the region X0, Y0 is 1,0, there are two I types. When the edge component of the region X0, Y0 is 1,1, the square type (small) is classified as four. <Description of Binarization Method> FIG. 5 is a conceptual diagram showing a manner of assembling a painting pattern based on the above-mentioned painting pattern classification and binarizing a multi-valued original image. In the figure, after the original image 611 is divided into image blocks, a 2-pass edge component detection is performed in block B621, and a painting pattern is generated in block B622 according to the processing result.

【0016】このブロックB622では、図4で示され
るような分類により、ディザブロック(スクェア型、I
型)を、例えば、ルックアップテーブル等を参照して、
適宜組み合わせ、塗りパターンを生成する。そして、こ
の生成パターンを適用することで画像を二値化する。
In this block B622, the dither block (square type, I type) is classified according to the classification shown in FIG.
Type), for example, by looking up a lookup table or the like,
Appropriate combinations are used to generate a painting pattern. Then, the image is binarized by applying this generation pattern.

【0017】以上説明したように、本実施例によれば、
多値の原画像を複数の画像ブロックに分割し、これらの
画像ブロック毎に検出した縦横2領域のエッジ成分の有
無により画像ブロックを複数パターンに分類してディザ
ブロックを形成し、このディザブロックにより原画像を
二値化することで、画像ブロック内に埋もれていたエッ
ジ成分の再現が可能となると同時に、エッジ部以外のデ
ィザ領域を広くとることで階調再現性を高くできる。 [第2実施例]以下、本発明に係る第2の実施例につい
て説明する。 <処理概要の説明>図6は、本実施例に係るカラーイン
クジェットプリンタの内部処理を示すブロック図であ
る。同図に示すように、多値のRGBデータで構成され
る入力データ710は、インターフェース711を介し
て、プリンタ内部の色変換処理部712にてRGB値か
らYMCK値へ変換される。変換後の信号は、さらに、
展開処理部713にて画像生成が行なわれ、YMCK多
値データ714を得る。
As described above, according to this embodiment,
The multi-valued original image is divided into a plurality of image blocks, and the dither blocks are formed by classifying the image blocks into a plurality of patterns according to the presence or absence of edge components of two vertical and horizontal regions detected for each of these image blocks. By binarizing the original image, it is possible to reproduce the edge component buried in the image block, and at the same time, the gradation reproducibility can be improved by widening the dither area other than the edge portion. [Second Embodiment] A second embodiment according to the present invention will be described below. <Explanation of Processing Outline> FIG. 6 is a block diagram showing the internal processing of the color inkjet printer according to the present embodiment. As shown in the figure, input data 710 composed of multi-valued RGB data is converted from RGB values to YMCK values by a color conversion processing unit 712 inside the printer via an interface 711. The converted signal is
An image is generated in the expansion processing unit 713, and YMCK multivalued data 714 is obtained.

【0018】この多値データ714については、3パス
エッジ検出部721にて領域毎に3パスのエッジ検出を
実行し、この結果をもとに、各領域における二値化パタ
ーンを二値化パターン決定部722で決定する。そし
て、二値化部715では、二値化パターン決定部722
で決定された二値化パターンにより多値データ714を
二値化し、最終的に描画データ716を得る。 <ブロックの切り出し>図7は、本実施例における、画
像(多値画像)811から矩形領域(以下、画像ブロッ
ク821と呼ぶ)を切り出す様子を示したものである。
ここでは、切り出す画像ブロックサイズは、その水平方
向がXn、垂直方向がYnである。例えば、ある画像か
らブロックを切り出し、このブロック内の各ピクセル濃
度をグラフ上にプロットすると、図7のグラフ831の
ような分布を示す。 <3パスによる画像エッジ成分検出>図7において、X
0,X1,Y0は、画像ブロック821の3領域のエッ
ジ成分を抽出した値であり、それらは、以下のようにし
て求められる。
With respect to this multi-valued data 714, the 3-pass edge detection unit 721 performs 3-pass edge detection for each region, and based on this result, the binarized pattern in each region is determined. The determination is made in part 722. Then, in the binarization unit 715, the binarization pattern determination unit 722.
The multi-valued data 714 is binarized according to the binarization pattern determined in step S4, and finally the drawing data 716 is obtained. <Cutout of Block> FIG. 7 shows how a rectangular area (hereinafter referred to as an image block 821) is cut out from an image (multi-valued image) 811 in the present embodiment.
Here, the image block size to be cut out is Xn in the horizontal direction and Yn in the vertical direction. For example, when a block is cut out from an image and the pixel densities in this block are plotted on a graph, a distribution like the graph 831 in FIG. 7 is shown. <Image Edge Component Detection by 3-Pass> X in FIG.
0, X1, and Y0 are values obtained by extracting the edge components of the three areas of the image block 821, and they are obtained as follows.

【0019】パス1の求め方:領域(Yi=0〜Yn/
2;Xi=0〜Xn)における、X方向のエッジ成分
を、以下の式(3)により求め、これをEx0とする。
そして、このEx0の値と閾値関数Tx0( )を比較
して、X0の値を決定する。
How to obtain path 1: area (Yi = 0 to Yn /
2; Xi = 0 to Xn), the edge component in the X direction is obtained by the following equation (3), and this is set to Ex0.
Then, the value of Ex0 is compared with the threshold value function Tx0 () to determine the value of X0.

【式3】 ただし、関数wx()は、重み付けを定義した関数、関
数f( )は、ブロック内の入力画像信号を表わす関
数、そして、関数gx( )は、水平エッジ信号を定義
した関数である。そして、X0については、 X0=0 (Ex0≦Tx0( )のとき) X0=1 (Ex0>Tx0( )のとき) である。ただし、関数Tx0( )は、その平均値をほ
ぼMx0とするランダムな出力値を提供する関数で、M
x0は、画像またはシステムの特性により(実験的に、
または定量的に)適宜決定された定数である。
(Equation 3) However, the function wx () is a function that defines weighting, the function f () is a function that represents an input image signal in a block, and the function gx () is a function that defines a horizontal edge signal. Regarding X0, X0 = 0 (when Ex0 ≦ Tx0 ()) X0 = 1 (when Ex0> Tx0 ()). However, the function Tx0 () is a function that provides a random output value whose average value is approximately Mx0.
x0 depends on the characteristics of the image or system (experimentally,
Or (quantitatively) an appropriately determined constant.

【0020】パス2の求め方:領域(Yi=Yn/2〜
Yn;Xi=0〜Xn)における、X方向のエッジ成分
を、以下の式(4)により求め、これをEx1とする。
そして、このEx1の値と閾値関数Tx1( )を比較
し、X1の値を決定する。
How to obtain path 2: area (Yi = Yn / 2 to 2)
Yn; Xi = 0 to Xn), the edge component in the X direction is obtained by the following equation (4), and this is defined as Ex1.
Then, the value of Ex1 is compared with the threshold value function Tx1 () to determine the value of X1.

【式4】 ただし、関数wx( )は、重み付けを定義した関数、
関数f( )は、ブロック内の入力画像信号を表わす関
数、そして、関数gx( )は、水平エッジ信号を定義
した関数である。また、X1については、 X1=0(Ex1≦Tx1( )のとき) X1=1(Ex1>Tx1( )のとき) である。ただし、関数Tx1( )は、その平均値をほ
ぼMx1とするランダムな出力値を提供する関数で、M
x1は、画像またはシステムの特性により(実験的に、
または定量的に)適宜決定された定数である。
(Equation 4) However, the function wx () is a function that defines weighting,
The function f () is a function that represents an input image signal in the block, and the function gx () is a function that defines a horizontal edge signal. Regarding X1, X1 = 0 (when Ex1 ≦ Tx1 ()) X1 = 1 (when Ex1> Tx1 ()). However, the function Tx1 () is a function that provides a random output value whose average value is approximately Mx1.
x1 depends on the characteristics of the image or system (experimentally,
Or (quantitatively) an appropriately determined constant.

【0021】パス3の求め方:領域(Xi=0〜Xn/
2;Yi=0〜Yn)における、Y方向のエッジ成分
を、以下の式(5)により求め、これをEy0とする。
そして、このEy0の値と閾値関数Ty0( )を比較
し、Y0の値を決定する。
How to obtain path 3: area (Xi = 0 to Xn /
2; Yi = 0 to Yn), the edge component in the Y direction is obtained by the following equation (5), and this is Ey0.
Then, the value of Ey0 is compared with the threshold value function Ty0 () to determine the value of Y0.

【式5】 ただし、関数wy( )は、重み付けを定義した関数、
関数f( )は、ブロック内の入力画像信号を表わす関
数、そして、関数gy( )は、垂直エッジ信号を定義
した関数である。また、Y0については、 Y0=0(Ey0≦Ty0( )のとき) Y0=1(Ey0>Ty0( )のとき) である。ただし、関数Ty0( )は、その平均値をほ
ぼMy0とするランダムな出力値を提供する関数で、M
y0は、画像またはシステムの特性により(実験的に、
または定量的に)適宜決定された定数である。 <エッジ成分値による塗りパターンの分類>図8は、本
実施例における、エッジ成分値による塗りパターンの分
類を示すマップである。ここでは、X0,X1,Y0の
とり得る値(0はエッジなし、1はエッジ有りを示す)
の8種類に応じて、ブロック内の塗りパターンを分類す
る。
[Formula 5] However, the function wy () is a function that defines weighting,
The function f () is a function that represents an input image signal in the block, and the function gy () is a function that defines a vertical edge signal. Regarding Y0, Y0 = 0 (when Ey0 ≦ Ty0 ()) and Y0 = 1 (when Ey0> Ty0 ()). However, the function Ty0 () is a function that provides a random output value whose average value is approximately My0.
y0 depends on the characteristics of the image or system (experimentally,
Or (quantitatively) an appropriately determined constant. <Classification of Paint Patterns by Edge Component Values> FIG. 8 is a map showing classification of paint patterns by edge component values in this embodiment. Here, possible values of X0, X1, Y0 (0 indicates no edge, 1 indicates edge)
The paint patterns in the block are classified according to the eight types.

【0022】ここで、塗りパターンは、便宜上、□をス
クェア型、□□をI型、□がL字型を形成しているもの
をL型と定義し、これらの組合わせにより構成する。た
だし、これらのパターンは、回転または反転したものを
区別しないが、その大小は区別する。具体的には、図8
に示すように、 領域 X0,X1,Y0のエッジ成分が0,0,0のと
きはスクェア型(大)が1つ 領域 X0,X1,Y0のエッジ成分が0,0,1のと
きはI型が2つ 領域 X0,X1,Y0のエッジ成分が0,1,0のと
きは、L型+スクェア型(小) 領域 X0,X1,Y0のエッジ成分が0,1,1のと
きは、L型+スクェア型(小) 領域 X0,X1,Y0のエッジ成分が1,0,0のと
きは、L型+スクェア型(小) 領域 X0,X1,Y0のエッジ成分が1,0,1のと
きは、L型+スクェア型(小) 領域 X0,X1,Y0のエッジ成分が1,1,0のと
きはI型が2つ 領域 X0,X1,Y0のエッジ成分が1,1,1のと
きはスクェア型(小)が4つ と分類する。 <二値化の方法についての説明>図9は、上述の塗りパ
ターン分類に基づいて塗りパターンを組立て、多値の原
画像を二値化する様子を示した概念図である。同図で
は、原画像1011を画像ブロック単位に分割した後、
ブロックB1021において、3パスのエッジ成分検出
を行ない、この処理結果により、ブロックB1022内
で塗りパターンを生成する。
Here, for the sake of convenience, the coating pattern is defined as a square type, a square type is an I type, and a square type is an L type, and is formed by a combination thereof. However, although these patterns do not distinguish rotated or inverted patterns, their sizes are distinguished. Specifically, FIG.
As shown in, when the edge component of the region X0, X1, Y0 is 0, 0, 0, there is one square type (large) I when the edge component of the region X0, X1, Y0 is 0, 0, 1 Two types of regions When the edge components of the regions X0, X1, Y0 are 0, 1, 0, L type + square type (small) When the edge components of the regions X0, X1, Y0 are 0, 1, 1, When the edge component of L type + square type (small) region X0, X1, Y0 is 1, 0, 0, the edge component of L type + square type (small) region X0, X1, Y0 is 1, 0, 1 When, the L-type + square type (small) area X0, X1, Y0 has edge components of 1, 1, 0, and two I-type areas X0, X1, Y0 have edge components of 1, 1, 1 In case of, the square type (small) is classified into four. <Description of Binarization Method> FIG. 9 is a conceptual diagram showing how a multi-value original image is binarized by assembling a paint pattern based on the above-mentioned paint pattern classification. In the figure, after dividing the original image 1011 into image blocks,
In block B1021, 3-pass edge component detection is performed, and a painting pattern is generated in block B1022 based on the processing result.

【0023】ブロックB1022では、図8に示される
ような分類により、ディザブロック(スクェア型、I
型、L型)を、例えば、ルックアップテーブル等を参照
することにより、適宜組み合わせて塗りパターンを生成
し、この生成パターンを適用することで、画像を二値化
する。
In block B1022, the dither block (square type, I type) is classified according to the classification shown in FIG.
Type, L type) are appropriately combined by referring to, for example, a lookup table or the like to generate a paint pattern, and the generated pattern is applied to binarize the image.

【0024】以上説明したように、本実施例によれば、
多値の原画像を複数の画像ブロックに分割し、これらの
画像ブロック毎に検出した縦横3領域のエッジ成分の有
無により画像ブロックを複数パターンに分類してディザ
ブロックを形成し、このディザブロックにより原画像を
二値化することで、画像ブロック内に埋もれていたエッ
ジ成分の再現が可能となると同時に、エッジ部以外のデ
ィザ領域を広くとることで階調再現性を高くできる。
As described above, according to this embodiment,
The multi-valued original image is divided into a plurality of image blocks, and the dither blocks are formed by classifying the image blocks into a plurality of patterns according to the presence or absence of edge components in the vertical and horizontal three regions detected for each of these image blocks. By binarizing the original image, it is possible to reproduce the edge component buried in the image block, and at the same time, the gradation reproducibility can be improved by widening the dither area other than the edge portion.

【0025】なお、本発明は、複数の機器から構成され
るシステムに適用しても、1つの機器から成る装置に適
用しても良い。また、本発明は、システムあるいは装置
にプログラムを供給することによって達成される場合に
も適用できることは言うまでもない。
The present invention may be applied to a system including a plurality of devices or an apparatus including a single device. Further, it goes without saying that the present invention can be applied to the case where it is achieved by supplying a program to a system or an apparatus.

【0026】[0026]

【発明の効果】以上説明したように、本発明によれば、
局所的に分離した画像についての複数のパスのエッジ検
出を行ない、その結果により塗りパターンを決定するこ
とで、エッジ成分の再現や階調再現性を高くでき、画像
全体を通して階調性と解像度に優れた画像を容易に生成
できる。
As described above, according to the present invention,
Edge detection and gradation reproducibility can be improved by detecting the edges of multiple passes for locally separated images and determining the paint pattern based on the results, and the gradation and resolution can be improved throughout the image. Excellent images can be easily generated.

【0027】[0027]

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1の実施例に係るカラープリンタ装
置の概略構成を示す図である。
FIG. 1 is a diagram showing a schematic configuration of a color printer device according to a first embodiment of the invention.

【図2】第1実施例に係るカラープリンタ装置の内部処
理を示すブロック図である。
FIG. 2 is a block diagram showing an internal process of the color printer apparatus according to the first embodiment.

【図3】第1実施例において矩形領域を切り出し解析す
る様子を模式的に示した図である。
FIG. 3 is a diagram schematically showing how a rectangular region is cut out and analyzed in the first embodiment.

【図4】エッジ成分値による塗りパターン分類を示す図
である。
FIG. 4 is a diagram showing a painting pattern classification according to edge component values.

【図5】塗りパターン分類に基づいて多値の原画像を二
値化する様子を示した概念図である。
FIG. 5 is a conceptual diagram showing how a multivalued original image is binarized based on a painting pattern classification.

【図6】第2実施例に係るカラーインクジェットプリン
タの内部処理を示すブロック図である。
FIG. 6 is a block diagram showing internal processing of a color inkjet printer according to a second embodiment.

【図7】第2実施例における矩形領域を切り出す様子を
示す図である。
FIG. 7 is a diagram showing how a rectangular area is cut out in the second embodiment.

【図8】第2実施例におけるエッジ成分値による塗りパ
ターンの分類を示す図である。
FIG. 8 is a diagram showing classification of painting patterns according to edge component values in the second embodiment.

【図9】塗りパターン分類に基づいて多値の原画像を二
値化する様子を示した概念図である。
FIG. 9 is a conceptual diagram showing how a multivalued original image is binarized based on a painting pattern classification.

【符号の説明】[Explanation of symbols]

201 カラープリンタ装置 211 用紙プラテン 212 プリントヘッド 216 圧力ポンプ 215 フロントガイドローラ 218 コントロールパネル 219 コントローラボード 220〜223 カラーインクカートリッジ 310,710 入力データ 311,711 インターフェース 312,712 色変換処理部 313,713 展開処理部 314,714 多値データ 315,715 二値化部 316,716 描画データ 321 2パスエッジ検出部 322,722 二値化パターン決定部 721 3パスエッジ検出部 201 Color printer device 211 Paper platen 212 Print head 216 Pressure pump 215 Front guide roller 218 Control panel 219 Controller board 220 to 223 Color ink cartridge 310,710 Input data 311,711 Interface 312,712 Color conversion processing unit 313,713 Development processing Part 314, 714 Multi-valued data 315, 715 Binarization part 316, 716 Drawing data 321 Two-path edge detection part 322, 722 Binarization pattern determination part 721 Three-path edge detection part

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.6 識別記号 庁内整理番号 FI 技術表示箇所 G06T 5/00 G06F 15/68 320A ─────────────────────────────────────────────────── ─── Continuation of the front page (51) Int.Cl. 6 Identification code Internal reference number FI Technical display location G06T 5/00 G06F 15/68 320A

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 多値画像を二値画像ヘ展開して画像生成
を行なう画像処理装置において、 前記多値画像を複数の画像ブロックに分割する手段と、 前記画像ブロックごとに複数パスのエッジの検出を行な
うエッジ検出手段と、 前記エッジの検出結果をもとに前記画像ブロックをあら
かじめ決めた複数のパターンに分類する手段と、 前記分類された複数のパターンによりディザブロックを
形成する手段と、 前記ディザブロックに基づく二値化処理を施す手段とを
備えることを特徴とする画像処理装置。
1. An image processing device for expanding a multi-valued image into a binary image to generate an image, means for dividing the multi-valued image into a plurality of image blocks, and an edge of a plurality of paths for each of the image blocks. Edge detecting means for performing detection, means for classifying the image block into a plurality of predetermined patterns based on the edge detection result, means for forming a dither block by the plurality of classified patterns, An image processing apparatus comprising: a unit that performs a binarization process based on a dither block.
【請求項2】 前記エッジ検出手段は、さらに、前記画
像ブロックの水平方向での急峻な濃度変化の有無を判定
する手段と、 前記画像ブロックの縦方向での急峻な濃度変化の有無を
判定する手段とを備えることを特徴とする請求項1に記
載の画像処理装置。
2. The edge detecting means further determines a presence / absence of a sharp density change in the horizontal direction of the image block, and a presence / absence of a sharp density change in the vertical direction of the image block. The image processing apparatus according to claim 1, further comprising:
【請求項3】 前記複数パスは、前記画像ブロックにつ
いての縦横2方向のパスであることを特徴とする請求項
1に記載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein the plurality of paths are vertical and horizontal bidirectional paths for the image block.
【請求項4】 前記複数パスは、前記画像ブロックにつ
いての縦横3方向のパスであることを特徴とする請求項
1に記載の画像処理装置。
4. The image processing apparatus according to claim 1, wherein the plurality of passes are passes in the vertical and horizontal directions of the image block.
JP7105671A 1995-04-28 1995-04-28 Image processing unit Withdrawn JPH08307690A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP7105671A JPH08307690A (en) 1995-04-28 1995-04-28 Image processing unit

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP7105671A JPH08307690A (en) 1995-04-28 1995-04-28 Image processing unit

Publications (1)

Publication Number Publication Date
JPH08307690A true JPH08307690A (en) 1996-11-22

Family

ID=14413912

Family Applications (1)

Application Number Title Priority Date Filing Date
JP7105671A Withdrawn JPH08307690A (en) 1995-04-28 1995-04-28 Image processing unit

Country Status (1)

Country Link
JP (1) JPH08307690A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6285800B1 (en) 1997-10-30 2001-09-04 Minolta Co., Ltd. Apparatus and method for processing image
US7164502B2 (en) 2000-09-29 2007-01-16 Fujitsu Limited Image processing method, and image processor and storage medium thereof

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6285800B1 (en) 1997-10-30 2001-09-04 Minolta Co., Ltd. Apparatus and method for processing image
US7164502B2 (en) 2000-09-29 2007-01-16 Fujitsu Limited Image processing method, and image processor and storage medium thereof

Similar Documents

Publication Publication Date Title
US7142717B2 (en) Image processing apparatus and method
EP1906644A1 (en) Electronic watermark embedding apparatus and electronic watermark detection apparatus
JPH10108022A (en) Method and device for acquiring halftone image data and halftone printing method and device
JPH1051632A (en) Method and device for improving quality of document in composite mode
KR950001543A (en) Image forming apparatus and method
US7173734B2 (en) Intercolor bleed reduction in liquid ink printers
JPH0879530A (en) Image processing method for reducing marking material coating in printing
US7460272B2 (en) Image processing apparatus, image processing method, and image processing program
EP0558340A1 (en) Image processing method and apparatus
JP2003101761A (en) Image processing apparatus and image processing method
JP2004172710A (en) Image processing apparatus
US20040070777A1 (en) Image processing method and image processing apparatus
US6842268B1 (en) Printing of digital color images with locally adjusted half-toning
US7315398B2 (en) Multi-level error diffusion with color image data
JPH08307690A (en) Image processing unit
US7295347B2 (en) Image processing method for generating multi-level data
EP0248616A2 (en) Picture printing apparatus
CN101226350A (en) Image forming device and method thereof
US7016082B2 (en) Halftone dot thinning
JP3548321B2 (en) Image processing method and apparatus
US20120069357A1 (en) System and method for enhancing the density of black
JPH0923335A (en) Picture processor
EP0786895B1 (en) Image processing system and method
US6837570B2 (en) Print device and print processing method
US7379585B2 (en) Image processing for trapping in color printing

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020702