JP7303504B2 - Image processing device, image processing method and program - Google Patents
Image processing device, image processing method and program Download PDFInfo
- Publication number
- JP7303504B2 JP7303504B2 JP2019238003A JP2019238003A JP7303504B2 JP 7303504 B2 JP7303504 B2 JP 7303504B2 JP 2019238003 A JP2019238003 A JP 2019238003A JP 2019238003 A JP2019238003 A JP 2019238003A JP 7303504 B2 JP7303504 B2 JP 7303504B2
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- quantized
- unit
- valued
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Facsimile Image Signal Circuits (AREA)
Description
本発明は、モノクロ又はカラーの多値入力画像データを多値量子化出力画像データに変換する画像処理装置、画像処理方法及びプログラムに関する。 The present invention relates to an image processing apparatus, an image processing method, and a program for converting monochrome or color multi-valued input image data into multi-valued quantized output image data.
印刷画像の二値量子化手法として誤差拡散法が広く普及している。誤差拡散法は、二値量子化するときの量子化誤差を周囲に伝搬し、白黒の密集度により擬似的に中間濃度を再現するものである。誤差拡散法は、構成、制御が簡単である反面、印刷画像の輪郭部分の二値量子化の空間的なばらつきが大きくなり、輪郭部分を正確に再現できないという問題点を有していた。 The error diffusion method is widely used as a binary quantization method for printed images. The error diffusion method propagates a quantization error during binary quantization to the surroundings, and reproduces a pseudo intermediate density by the density of black and white. The error diffusion method is simple in configuration and control, but has the problem that the spatial variation in binary quantization of the contour portion of the printed image increases, and the contour portion cannot be reproduced accurately.
この問題点に対して、特許文献1に記載された画像処理装置、プログラム、方法は、一般に印刷画像の量子化手法として利用されている誤差拡散法を利用した際に生じる印刷文字の輪郭部分の量子化の空間的なばらつきの軽減を目的として、エッジ部分の量子化と非エッジ部分の量子化を別々に行った後に、それらを論理合成することによって、エッジ部分の滑らかさを保存した量子化を実現している。 To address this problem, the image processing apparatus, program, and method described in Japanese Patent Application Laid-Open No. 2002-200010 are designed to reduce the outline portion of printed characters that occurs when using the error diffusion method, which is generally used as a quantization method for printed images. Quantization that preserves the smoothness of edges by performing logical synthesis after performing quantization on edges and quantization on non-edges separately for the purpose of reducing spatial variations in quantization. is realized.
しかしながら、特許文献1は、特許文献1の実施例図10および図11に示されるように、背景と明確に輝度差のある文字などを対象としており、写真のような自然画像に対しては、実施例図5に示されるような、エッジが明確である特殊な箇所のみが処理され、基本的には写真などには影響しないように工夫されている。したがって、本発明で対象とするような画像内のテクスチャの保存に適用することができない。 However, as shown in FIGS. 10 and 11 of an embodiment of Patent Document 1, Patent Document 1 targets characters having a clear luminance difference from the background, and for natural images such as photographs, Embodiment As shown in FIG. 5, only special portions with clear edges are processed, and basically it is devised so as not to affect photographs and the like. Therefore, it cannot be applied to the storage of textures in images, which is the object of the present invention.
また、市販のプリンタでは二値量子化画像データが用いられているが、新聞や広告など、専門印刷の分野では必ずしも二値量子化画像データを出力とせず、むしろ階調の表現力向上のために、四値などの多値量子化画像を印刷することが多い。 In addition, although binary quantized image data is used in commercial printers, in the field of specialized printing such as newspapers and advertisements, binary quantized image data is not necessarily output, but rather to improve the expressive power of gradation. In addition, multilevel quantized images such as quaternary are often printed.
本発明は、モノクロ又はカラーの多値入力画像データを多値量子化出力画像データに変換する手法を実現し、写真などの画像内のテクスチャの強調に適用できる画像処理装置、画像処理方法及びプログラムを提供することを目的とする。 The present invention realizes a technique for converting monochrome or color multi-valued input image data into multi-valued quantized output image data, and is applicable to enhancement of texture in images such as photographs, an image processing apparatus, an image processing method, and a program. intended to provide
上記課題を解決するため、本発明の画像処理装置は、多値入力画像データを多値量子化出力画像データに変換する画像処理装置であって、前記多値入力画像データに対して、明度の異なる複数の各多値画像データを生成するレベル画像生成部と、前記各多値画像データのテクスチャ情報を検出するテクスチャ検出部と、
前記テクスチャ情報を強調するように前記各多値画像データに対する階調変換処理を実行することで、前記各多値画像データを各二値量子化画像データに変換する誤差拡散部と、複数の前記各二値量子化画像データに基づいて多値量子化出力画像データを生成する多値量子化画像生成部と、を有する画像処理装置である。
In order to solve the above problems, an image processing apparatus according to the present invention is an image processing apparatus for converting multi-valued input image data into multi-valued quantized output image data. a level image generation unit for generating a plurality of different multivalued image data; a texture detection unit for detecting texture information of each of the multivalued image data;
an error diffusion unit for converting each multi-valued image data into each binary quantized image data by executing a gradation conversion process on each of said multi-valued image data so as to emphasize said texture information; and a multi-level quantized image generation unit that generates multi-level quantized output image data based on each binary quantized image data.
前記テクスチャ情報が、表面凹凸情報、表面模様情報、明度情報、エッジ情報又は輪郭情報であるのが好適である。 It is preferable that the texture information is surface unevenness information, surface pattern information, brightness information, edge information, or contour information.
前記テクスチャ情報に応じて、前記変換の量子化誤差の分配を算出する誤差分配部を有するのが好適である。 It is preferred to have an error distribution unit for calculating the distribution of the quantization error of the transform according to the texture information.
前記テクスチャ情報が、前記多値入力画像データの質感強調処理情報であるのが好適である。 It is preferable that the texture information is texture enhancement processing information of the multivalued input image data.
前記質感強調処理情報が、周波数サブバンド情報であるのが好適である。 It is preferable that the texture enhancement processing information is frequency subband information.
前記各多値入力画像データ及び前記誤差拡散部で量子化された各二値量子化画像データの差分画像を生成する差分演算部と、前記差分画像を入力する視覚特性フィルタである視覚処理部と、前記テクスチャ情報を保存するように修正量を演算する修正量演算部と、前記修正量に基づいて前記各多値入力画像データを修正する多値画像修正部と、をさらに有し、前記多値画像修正部の出力に基づいて前記誤差拡散部で前記各二値量子化画像データを生成するのが好適である。 a difference calculation unit that generates a difference image of each of the multilevel input image data and each of the binary quantized image data quantized by the error diffusion unit; and a visual processing unit that is a visual characteristic filter that inputs the difference image. a correction amount calculation unit for calculating a correction amount so as to preserve the texture information; and a multi-valued image correction unit for correcting each of the multi-valued input image data based on the correction amount. Preferably, the error diffusion section generates the binary quantized image data based on the output of the value image correction section.
本発明の画像処理方法は、多値入力画像データを多値量子化出力画像データに変換する画像処理方法であって、前記多値入力画像データに対して、レベル画像生成部で明度の異なる複数の各多値画像データを生成する各多値画像生成工程と、前記各多値画像データのテクスチャ情報をテクスチャ検出部で検出するテクスチャ検出工程と、前記テクスチャ情報を強調するように前記各多値画像データに対する階調変換処理を実行することで、前記各多値画像データを誤差拡散部で各二値量子化画像データに変換する工程と、複数の前記各二値量子化画像データに基づいて多値量子化画像生成部で多値量子化出力画像データを生成する工程と、を有する画像処理方法である。 An image processing method according to the present invention is an image processing method for converting multi-valued input image data into multi-valued quantized output image data, wherein the multi-valued input image data is generated by a level image generation section with a plurality of levels having different brightnesses. a texture detection step of detecting texture information of each multivalued image data by a texture detection unit; and each multivalued image data so as to emphasize the texture information. a step of converting each multi-valued image data into each binary quantized image data by an error diffusion unit by executing a gradation conversion process on the image data; and generating multi-level quantized output image data in a multi-level quantized image generation unit.
前記各多値入力画像データ及び前記誤差拡散部で量子化された二値量子化画像データの差分画像を差分演算部で生成する工程と、前記差分画像を、視覚特性フィルタである視覚処理部に入力する工程と、前記テクスチャ情報を保存するように修正量演算部で修正量を演算する工程と、前記修正量に基づいて前記各多値入力画像データを多値画像修正部で修正する工程と、前記多値画像修正部の出力に基づいて前記誤差拡散部で前記二値量子化画像データを生成する工程と、を有するのが好適である。 a step of generating a differential image of the binary quantized image data quantized by the error diffusion unit and each of the multi-valued input image data by a difference calculation unit; a step of calculating a correction amount by a correction amount calculation unit so as to store the texture information; and a step of correcting each of the multivalued input image data by the multivalued image correction unit based on the correction amount. and generating the binary quantized image data in the error diffusion section based on the output of the multi-valued image correction section.
前記修正量演算部で修正量を演算する工程を反復的に繰り返すのが好適である。 It is preferable to repeatedly repeat the step of calculating the correction amount in the correction amount calculating section.
本発明のプログラムは、コンピュータを、前記画像処理装置の各手段として機能させるためのプログラムである。 A program of the present invention is a program for causing a computer to function as each means of the image processing apparatus.
本発明によれば、モノクロ又はカラーの多値入力画像データを多値量子化出力画像データに変換する手法を実現し、写真などの画像内のテクスチャの強調に適用できる画像処理装置、画像処理方法及びプログラムを提供することができるという著大な効果を有する。さらに、本発明によれば、カラー画像を分版したCMYKなどの画像に本発明の処理を適用することによって、カラーの多値画像の処理も実現できる。 INDUSTRIAL APPLICABILITY According to the present invention, an image processing apparatus and an image processing method that realize a method of converting monochrome or color multi-valued input image data into multi-valued quantized output image data and that can be applied to enhance textures in images such as photographs. and a program can be provided. Furthermore, according to the present invention, by applying the processing of the present invention to images such as CMYK images obtained by separating color images, it is possible to process color multi-valued images.
以下に本発明の実施の形態を説明するが、これら実施の形態は例示的に示されるもので、本発明の技術思想から逸脱しない限り種々の変形が可能なことはいうまでもない。なお、基本的に同一部材は同一符号で表される。 Embodiments of the present invention will be described below, but these embodiments are shown by way of example, and it goes without saying that various modifications are possible without departing from the technical idea of the present invention. Note that basically the same members are represented by the same reference numerals.
図において、符号10A,10Bは本発明に係る画像処理装置のそれぞれの実施形態を示す。画像処理装置10A,10Bは、例えば図6に示すようなワンパス方式のインクジェットプリンタ100などに好適に用いられる。図6において、インクジェットプリンタ100は、ロール12a,12bに掛け渡されたウェブ状印刷基材14に、例えば、C(シアン),M(マゼンタ),Y(イエロー),K(黒)の各色のインクを印刷するためのインクジェットヘッド16a,16b,16c,16dを備えており、ヘッド制御部18によって制御されてインクジェットヘッド16a,16b,16c,16dからインクが吐出される。
In the figure,
画像処理装置10A,10Bは、ヘッド制御部18に画像データを出力することで、インクジェットヘッド16a,16b,16c,16dによってウェブ状印刷基材14に印刷が行われる構成とされている。
The
<画像処理装置10A>
画像処理装置10Aの概略構成を図1のブロック図に示す。画像処理装置10Aは、図1に示すように、多値入力画像データ20を多値量子化出力画像データ42に変換する画像処理装置であって、前記多値入力画像データ20に対して、明度の異なる複数の各多値画像データ28(多値画像データレベル1~多値画像データレベルN)を生成するレベル画像生成部22と、前記各多値画像データ28のテクスチャ情報を検出するテクスチャ検出部30と、前記テクスチャ情報を強調するように前記各多値画像データ28に対する階調変換処理を実行することで、前記各多値画像データ28を各二値量子化画像データ36(二値画像データ1~二値画像データN)に変換する誤差拡散部34と、複数の前記各二値量子化画像データ36に基づいて多値量子化出力画像データを生成する多値量子化画像生成部40と、を有する画像処理装置である。また、前記テクスチャ情報の強さに応じて、誤差拡散法の量子化誤差の分配を決定する機能を有する誤差分配部32も備えている。
<
A schematic configuration of the
本発明では、多値入力画像データ20をNビットの多値量子化出力画像データ42に変換することができる。従って、複数の各多値画像データ28は、出力する多値量子化画像のビット数に応じて多値画像データレベル1から多値画像データレベルNまでの幾つの数のレベルとする。そして、各多値画像データ28の数(レベル1~レベルN)に応じて、量子化部26にて、各二値量子化画像データ36(二値画像データ1~二値画像データN)が作成されることとなる。
In the present invention, multilevel
画像処理装置10Aは、例えばCPU等の制御部及び記憶部を備えるコンピュータであり、画像処理装置10Aの各処理を行うようにプログラムによって各手段として機能せしめられる。また、画像処理装置10Aの各処理は、インターネット等のネットワークを介して行われるようにしてもよい。
The
多値入力画像データ20は、8ビットなどの階調などで表現されるカラー又はモノクロのディジタル画像であり、これを2値でない全ての画像(例えば、8ビット形式で表現される画像)に置き換えるように量子化して多値量子化出力画像データ42とする。
The multi-valued
画像処理装置10Aによる画像処理方法の一つの実施の形態を図1~図3に基づいて説明する。前記画像処理方法は、コンピュータの記憶部に格納されたプログラムによって実行されることができる。
One embodiment of the image processing method by the
画像処理装置10Aによる本発明の画像処理方法は、モノクロ又はカラーの多値入力画像データ20をモノクロ又はカラーの多値量子化出力画像データ42に変換する画像処理方法である。以下に、例として、多値量子化出力画像データ42として四値量子化画像(2ビット:N=2)を出力する場合について図1~3に基づいて説明する。
The image processing method of the present invention by the
まず、他の情報端末や記憶媒体などから、モノクロ又はカラーの多値入力画像データ20を入力する(多値画像データ入力工程、S100)。
First, monochrome or color multi-valued
多値入力画像データ20に対して、レベル画像生成部22で2種類の多値画像を生成する(各多値画像生成工程、S102)。このとき、明部を強調した画像と暗部を強調した画像の2種類を非線形画像変換によって生成できれば、どのような変換関数でも良い。例えば、
Y=xn と Y=x1/n , 0≦n≦1
の2種類の変換関数を設定すれば、これを実現できる。生成された異なる明度の2種類の画像である各多値画像データ28(多値画像データレベル1及び多値画像データレベル2)に対して、量子化部26にて、2種類の二値量子化画像を生成する(量子化工程、S106a)。
The level
Y=x n and Y=x 1/n , 0≤n≤1
This can be achieved by setting two types of conversion functions. The
前記量子化工程S106aにおけるサブステップを図3に基づいて説明する。 The sub-steps in the quantization step S106a are described with reference to FIG.
前記レベル画像生成部22で生成された2種類の前記各多値画像データ28が入力されると(各多値画像データ入力工程、SS150)、前記各多値画像データ28が、事前に何らかのテクスチャ情報を扱うような画像処理(例えば質感を強調するような画像処理)がされているか判断し(事前テクスチャ情報処理検出工程、SS152)、前記各多値画像データ28が、事前に何らのテクスチャ情報処理(例えば質感を強調するような画像処理)もなされていない場合には、前記各多値画像データ28のテクスチャ情報をテクスチャ検出部30で検出する(テクスチャ検出工程、SS154)。
When the two types of
ここで、テクスチャ情報とは、テクスチャ部分の情報という意味である。テクスチャ部分は、物理的には画像中の輝度勾配が高く、局所領域の輝度勾配分散が高い箇所となり、画像特徴としては、輝度変化のある細かな表面凹凸や表面模様、細かな物体の集合における輪郭(エッジ)などの部分のことを指す。そして、テクスチャ情報としては、かかるテクスチャ部分の、例えば、表面凹凸情報や表面模様の情報、明度情報、細かな物体の集合における輪郭情報又はエッジ情報が挙げられる。なお、これらの情報は、ノイズ除去後の輝度勾配と局所輝度勾配分散情報につき、それらの値の違いによって、知覚的に「凹凸」「模様」「エッジ」などと称している。 Here, texture information means information on texture portions. Physically, the texture part is a place where the luminance gradient in the image is high and the luminance gradient dispersion in the local area is high. It refers to parts such as contours (edges). The texture information includes, for example, surface unevenness information, surface pattern information, brightness information, and contour information or edge information in a collection of fine objects of such a texture portion. These pieces of information are perceptually referred to as 'unevenness', 'pattern', 'edge', etc., depending on the difference in values between the luminance gradient after noise removal and the local luminance gradient variance information.
テクスチャ検出工程SS154では、例えば、前記テクスチャ情報がエッジ情報の場合、前記多値入力画像データに対して予めノイズ除去によってノイズ成分を分離した後に、前記多値入力画像データから輝度信号(明度)の勾配を利用してエッジ強度を抽出し、抽出されたエッジ強度の局所領域の分散を用いて、テクスチャ強度を算出することで、前記テクスチャ情報を検出する。なお、ノイズを除去しないと、ノイズ成分もテクスチャ部分と見なされるため、予め分離するのが好ましい。 In the texture detection step SS154, for example, when the texture information is edge information, noise components are separated from the multilevel input image data by noise removal in advance, and then luminance signals (brightness) are extracted from the multilevel input image data. The texture information is detected by extracting the edge intensity using the gradient and calculating the texture intensity using the local area variance of the extracted edge intensity. Note that if the noise is not removed, the noise component is also regarded as a texture portion, so it is preferable to separate it in advance.
また、前記各多値画像データ28が事前に何らかのテクスチャ情報を扱うような画像処理(例えば質感を強調するような画像処理)がなされている場合には、前記各多値画像データ28のテクスチャ情報を用いる(テクスチャ情報の利用工程、SS156)。この場合、既存のテクスチャ情報を利用するため、テクスチャ情報を検出するための演算量が削減される利点がある。
Further, when each of the
また、誤差分配部32では、前記テクスチャ情報の強さに応じて、誤差拡散法の量子化誤差の分配を決定する機能を有しており、前記テクスチャ情報を優先的に保存するように誤差分配を実現する(誤差分配工程、SS158)。
The
そして、前記テクスチャ情報を強調するように前記各多値画像データ28に対する階調変換処理を実行することで、前記各多値画像データ28を誤差拡散部34で二値量子化画像データ36に変換する(誤差拡散部での量子化工程、S160)。誤差拡散部34では、誤差分配部32で決定された誤差分配結果に基づいて、量子化を実施する。そして、1画素ずつラスタースキャンやベクタースキャンなどによって全画素順番に繰り返し処理する(全画素量子化されたか否かの判断工程、SS162)。
An
全画素量子化されると、二値量子化画像データ36として出力する(二値量子化画像データ出力工程、SS164)。残っている画素がある場合には、誤差分配部32での誤差分配工程SS158に戻って繰り返す。
After all pixels are quantized, they are output as binary quantized image data 36 (binary quantized image data output step, SS164). If there are remaining pixels, the process returns to the error distribution step SS158 in the
なお、上述した画像処理装置10Aによる前記量子化工程S106aの例では、事前テクスチャ情報処理検出工程SS152を設けた例を示したが、画像処理装置10Aによる前記量子化工程S106aの他の例としては、事前テクスチャ情報処理検出工程SS152を設けずに、前記各多値画像データ28に事前テクスチャ情報処理がされている場合及び事前テクスチャ情報処理がされていない場合のそれぞれの処理を行うようにすることもできる。
In the example of the quantization step S106a by the
このようにして生成された2種類の二値量子化画像データを入力(二値量子化画像データ入力工程、S108)することによって、多値量子化画像生成部40において最終的な出力となる四値量子化画像が生成される(多値量子化画像生成工程、S110)。このようにして、図1の多値量子化出力画像データ42が作成されて、最終的に図2に示すように多値量子化出力画像データとして出力される(出力工程、S112)。
By inputting the two types of binary quantized image data generated in this way (binary quantized image data input step, S108), the multi-valued quantized
多値量子化画像生成部40における各画素における四値(a < b < c < d)への量子化は、以下のアルゴリズムによって実現する。
a, if 多値入力画像の画素値=0
b, if 二値量子化画像1の画素値=0 and二値量子化画像2の画素値=0
c, if 二値量子化画像1の画素値=0 and二値量子化画像2の画素値=1
もしくは、二値量子化画像1の画素値=1 and二値量子化画像2
画素値=0
d, if 二値量子化画像1の画素値=1 and二値量子化画像2の画素値=1
ここで、a, b, c, dの値は、例えばa = 0(黒), b= 1/3(濃いグレー), c = 2/3(薄いグレー), d = 1(白)とすれば良い。これにより、多値入力画像データの黒を多値量子化出力画像データとした後でも黒として表現できる。また、中間調を異なる明度の2種類の二値量子化画像の論理演算とすることによって、ドット分散度のよい出力結果を得ることが可能となる。
Quantization to four values (a<b<c<d) in each pixel in the multi-value quantized
a, if Pixel value of multilevel input image = 0
b, if pixel value of binary quantized image 1 = 0 and pixel value of binary quantized image 2 = 0
c, if pixel value of binary quantized image 1 = 0 and pixel value of binary quantized image 2 = 1
Or, pixel value of binary quantized image 1 = 1 and binary quantized image 2
pixel value=0
d, if pixel value of binary quantized image 1 = 1 and pixel value of binary quantized image 2 = 1
Here, the values of a, b, c, and d are, for example, a = 0 (black), b = 1/3 (dark gray), c = 2/3 (light gray), d = 1 (white). Good luck. As a result, black in the multilevel input image data can be represented as black even after the multilevel quantized output image data. In addition, it is possible to obtain an output result with good dot dispersion by performing a logical operation of two types of binary quantized images with different lightness for halftones.
入力階調数より小さければ、本発明は四値に限らず、任意の階調数の量子化にも適用できる。 As long as the number of gradations is smaller than the number of input gradations, the present invention is not limited to quaternary quantization, and can be applied to quantization of any number of gradations.
また、上記では、各多値画像生成工程S102のレベル画像生成部22において、N=2の2ビット(四値)に変換する例を示したが、他の値にも変換することが可能である。例えば、N=3ビット(八値)へ変換する場合には、例えば、
Y=xn, Y=x, Y=x1/n , 0≦n≦1
の3種類の変換関数を設定すれば、これを実現できる。平均明度の異なる多値画像に非線形変換することが重要である。
In the above description, the level
Y= xn , Y=x, Y=x1 /n , 0≤n≤1
This can be achieved by setting three types of conversion functions. It is important to perform nonlinear transformation to multivalued images with different average brightness.
さらに、多値量子化画像生成部40における多値量子化画像生成工程S110の他のアルゴリズム、即ち変換ルールの例としては、
a, if 二値量子化画像1の画素値=0 and二値量子化画像2の画素値=0
b, if 二値量子化画像1の画素値=0 and二値量子化画像2の画素値=1
もしくは、二値量子化画像1の画素値=1 and二値量子化画像2の
画素値=0
c, if 二値量子化画像1の画素値=1 and二値量子化画像2の画素値=1
d, if 多値入力画像の画素値=1
という変換ルールとすることも可能である。
Furthermore, another algorithm for the multilevel quantized image generation step S110 in the multilevel quantized
a, if pixel value of binary quantized image 1 = 0 and pixel value of binary quantized image 2 = 0
b, if pixel value of binary quantized image 1 = 0 and pixel value of binary quantized image 2 = 1
Or pixel value of binary quantized image 1 = 1 and pixel value of binary quantized image 2 = 0
c, if pixel value of binary quantized image 1 = 1 and pixel value of binary quantized image 2 = 1
d, if Pixel value of multilevel input image = 1
It is also possible to set the conversion rule as
<画像処理装置10B>
画像処理装置10Bの概略構成を図4のブロック図に示す。画像処理装置10Bは、図4に示すように、多値入力画像データ50を多値量子化出力画像データ90に変換する画像処理装置であって、前記多値入力画像データ50に対して、明度の異なる複数の各多値画像データ62(多値画像データレベル1~多値画像データレベルN)を生成するレベル画像生成部52と、前記各多値画像データ62のテクスチャ情報を検出するテクスチャ検出部64と、前記テクスチャ情報を強調するように前記各多値画像データ62に対する階調変換処理を実行することで、前記各多値画像データ62を各二値量子化画像データ76(二値画像データ1~二値画像データN)に変換する誤差拡散部74と、複数の前記各二値量子化画像データ76に基づいて多値量子化出力画像データを生成する多値量子化画像生成部80と、を有する画像処理装置である。
<
A schematic configuration of the
画像処理装置10Bでは、さらに、前記各多値入力画像データ62及び前記誤差拡散部74で量子化された各二値量子化画像データの差分画像を生成する差分演算部68と、前記差分画像を入力する視覚特性フィルタである視覚処理部70と、前記テクスチャ情報を保存するように修正量を演算する修正量演算部66と、前記修正量に基づいて前記各多値入力画像データ62を修正する多値画像修正部72と、をさらに有し、前記多値画像修正部72の出力に基づいて前記誤差拡散部74で前記各二値量子化画像データ76を生成する構成とされている。
The
本発明では、多値入力画像データ50をNビットの多値量子化出力画像データ90に変換することができる。従って、画像処理装置10Bでも、複数の各多値画像データ62は、出力する多値量子化画像のビット数に応じて多値画像データレベル1から多値画像データレベルNまでの幾つの数のレベルとする。そして、各多値画像データ62の数(レベル1~レベルN)に応じて、量子化部60にて、各二値量子化画像データ76(二値画像データ1~二値画像データN)が作成されることとなる。画像処理装置10Bの概略構成は、画像処理装置10Aの概略構成と基本的に同じであり、量子化部60の構成が画像処理装置10Aの量子化部26と異なるのみである。
In the present invention, multilevel input image data 50 can be converted into N-bit multilevel quantized
画像処理装置10Bは、上述した画像処理装置10Aと同様に、例えばCPU等の制御部及び記憶部を備えるコンピュータであり、画像処理装置10Aの各処理を行うようにプログラムによって各手段として機能せしめられる。また、画像処理装置10Aの各処理は、インターネット等のネットワークを介して行われるようにしてもよい。
The
多値入力画像データ50は、多値入力画像データ20と同じであり、8ビットなどの階調などで表現されるカラー又はモノクロのディジタル画像であり、これを2値でない全ての画像(例えば、8ビット形式で表現される画像)に置き換えるように量子化して多値量子化出力画像データ90とする。
The multi-valued input image data 50 is the same as the multi-valued
画像処理装置10Bによる画像処理方法の一つの実施の形態を図2,図4~図5に基づいて説明する。前記画像処理方法は、コンピュータの記憶部に格納されたプログラムによって実行されることができる。
One embodiment of the image processing method by the
画像処理装置10Bによる本発明の画像処理方法は、モノクロ又はカラーの多値入力画像データ50をモノクロ又はカラーの多値量子化出力画像データ90に変換する画像処理方法である。以下に、例として、多値量子化出力画像データ90として四値量子化画像(2ビット:N=2)を出力する場合について図2,図4~図5に基づいて説明する。
The image processing method of the present invention by the
まず、他の情報端末や記憶媒体などから、モノクロ又はカラーの多値入力画像データ50を入力する(多値画像データ入力工程、S100)。 First, monochrome or color multi-valued input image data 50 is input from another information terminal or storage medium (multi-valued image data input step, S100).
多値入力画像データ50に対して、上述した画像処理装置10Aと同様にして、レベル画像生成部52で2種類の多値画像を生成する(各多値画像生成工程、S102)。生成された異なる明度の2種類の画像である各多値画像データ62(多値画像データレベル1及び多値画像データレベル2)に対して、量子化部60にて、2種類の二値量子化画像を生成する(量子化工程、S106b)。
As with the
前記量子化工程S106bにおけるサブステップを図5に基づいて説明する。 Sub-steps in the quantization step S106b will be described with reference to FIG.
前記レベル画像生成部52で生成された2種類の前記各多値画像データ62が入力されると(各多値画像データ入力工程、SS200)、前記各多値画像データ62が、事前に何らかのテクスチャ情報を扱うような画像処理(例えば質感を強調するような画像処理)がされているか判断し(事前テクスチャ情報処理検出工程、SS202)、前記各多値画像データ62が、事前に何らのテクスチャ情報を扱うような画像処理(例えば質感を強調するような画像処理)もなされていない場合には、前記各多値画像データ62のテクスチャ情報をテクスチャ検出部64で検出する(テクスチャ検出工程、SS204)。テクスチャ情報やテクスチャ検出工程SS204については上述の画像処理装置10Aで説明した通りである。
When the two types of
また、前記各多値画像データ62が事前に何らかのテクスチャ情報を扱うような画像処理(例えば質感を強調するような画像処理)がなされている場合には、前記各多値画像データ62のテクスチャ情報を用いる。
Further, when each of the
また、事前に何らかのテクスチャ情報を扱うような画像処理がなされている前記各多値画像データ62に対しては、多値画像修正部72で修正し(多値画像修正工程、SS212)、誤差拡散部74で量子化する(量子化工程、SS214)。
Further, each of the
前記SS214で誤差拡散部74で量子化された二値量子化画像データは、前記差分演算部68に送られて前記各多値画像データ62と前記SS214で量子化された二値量子化画像データとの差分画像が差分演算部68で生成される(差分画像生成工程、SS206)。
The binary quantized image data quantized by the
この生成された差分画像は、視覚処理部70で視覚特性のフィルタを通した後(フィルタ処理工程、SS208)、修正量演算部66で、テクスチャ検出工程SS204でテクスチャ検出部64によって得られたテクスチャ情報と比較し、多値量子化画像がテクスチャ情報を保存するように、修正量演算部66で修正量を導出する(修正量導出工程、SS210)。
This generated difference image is passed through a visual characteristic filter by the visual processing unit 70 (filter processing step, SS208), and then processed by the correction
そして、修正量演算部66による修正量導出工程SS210での修正量に基づいて、入力された多値入力画像を多値画像修正部72で修正(多値画像修正工程、SS212)し、これを誤差拡散部74で量子化する(量子化工程、SS214)。そして、1画素ずつラスタースキャンやベクタースキャンなどによって全画素順番に繰り返し処理する(全画素量子化されたか否かの判断工程、SS216)。
Then, based on the correction amount in the correction amount derivation step SS210 by the correction
全画素量子化されると、二値量子化画像データ76として出力する(二値量子化画像データ出力工程、SS218)。残っている画素がある場合には、差分演算部68での差分画像生成工程SS206に戻って繰り返す。
After all pixels are quantized, they are output as binary quantized image data 76 (binary quantized image data output step, SS218). If there are remaining pixels, the process returns to the difference image generation step SS206 in the
なお、上述した画像処理装置10Bによる前記量子化工程S106bの例では、事前テクスチャ情報処理検出工程SS202を設けた例を示したが、画像処理装置10Bによる前記量子化工程S106bの他の例としては、事前テクスチャ情報処理検出工程SS202を設けずに、前記各多値画像データ62に事前テクスチャ情報処理がされている場合及び事前テクスチャ情報処理がされていない場合のそれぞれの処理を行うようにすることもできる。
In the example of the quantization step S106b by the
このようにして生成された2種類の二値量子化画像データを入力(二値量子化画像データ入力工程、図2のS108)することによって、多値量子化画像生成部80において最終的な出力となる四値量子化画像が生成される(多値量子化画像生成工程、図2のS110)。このようにして、図4の多値量子化出力画像データ90が作成されて、最終的に図2に示すように多値量子化出力画像データとして出力される(出力工程、S112)。
By inputting the two kinds of binary quantized image data generated in this way (binary quantized image data input step, S108 in FIG. 2), the multi-valued quantized
多値量子化画像生成部40における各画素における四値などへの量子化のアルゴリズムは上述した画像処理装置10Aと同様である。
The algorithm for quantizing each pixel into four values or the like in the multi-value quantized
上記したプロセスを反復的に繰り返すことにより、知覚的にテクスチャ情報を保存した量子化を実現できる。画像処理装置10Bによる本発明の画像処理方法は、画像処理装置10Aによる画像処理方法と比べて、一般的に良好な量子化結果が得られる利点がある。
By iteratively repeating the above process, perceptually texture-preserving quantization can be achieved. The image processing method of the present invention by the
上記した誤差拡散部34,74では、誤差拡散法により、1画素ずつラスタースキャンやベクタースキャンなどによって全画素順番に量子化を行う。誤差拡散法は、中間階調の処理で画像を滑らかに表現する方法の一種である。ディジタル画像の画素(ピクセル)の処理で生じた誤差を周囲の画素へ割り振り、その後も誤差を割り振った影響を考慮して処理を行うことで全体としての誤差を最小にする方法である。例として、C(シアン),M(マゼンタ),Y(イエロー),K(黒)のインクによる四値量子化画像を出力とする場合について説明する。
The
例えば、C,M,Y,Kのインクを用いる場合、CMYKがそれぞれ四値を持つことになり、以下の方法でそれぞれのインクについて四値を決定する。
<C(シアン)の場合>
output = 0(濃いシアン), if X ≦ a1,
output = 85(中間のシアン), if a1< X ≦ a2,
output = 170(薄いシアン), if a2 < X ≦a3,
output = 255(インクを置かない), if a3 < X
ここで、a1,a2,a3 は液滴サイズとインク濃度によって決定される閾値パラメータであり、現行のカラー校正技術によって、入力と印刷画像の色差が最小となるように決定される。他のM,Y,Kのそれぞれのインクについても上記のようにして四値を決定する。
For example, when inks of C, M, Y, and K are used, CMYK each has four values, and four values are determined for each ink by the following method.
<For C (cyan)>
output = 0 (dark cyan), if X ≤ a 1 ,
output = 85 (middle cyan), if a 1 < X ≤ a 2 ,
output = 170 (light cyan), if a 2 < X ≤ a 3 ,
output = 255 (no ink placed), if a 3 < X
where a 1 , a 2 , and a 3 are threshold parameters determined by droplet size and ink density, determined by current color proofing techniques to minimize the color difference between input and printed image. For each of the other M, Y, and K inks, four values are determined in the same manner as described above.
入力階調数より小さければ、本発明は四値に限らず、任意の階調数の量子化にも適用できる。なお、インクの特性、紙の特性、ヘッドの特性など、印刷過程における様々な要因が積み重なって非線形に生じるため、例えばディジタル画像のカラーチャートを印刷して、画像の色と印刷結果を測色して推定して四値を決定することになる。誤差拡散部34,74では、この閾値パラメータに基づいて誤差を拡散することで、1画素ずつラスタースキャンやベクタースキャンなどによって全画素順番に量子化を行う。C以外の他のM,Y,Kのそれぞれのインクについても同様にして量子化を行う。
As long as the number of gradations is smaller than the number of input gradations, the present invention is not limited to quaternary quantization, and can be applied to quantization of any number of gradations. In addition, since various factors in the printing process, such as ink characteristics, paper characteristics, and head characteristics, accumulate to cause non-linearity, for example, a color chart of a digital image is printed, and the color of the image and the print result are measured. Four values are determined by estimating The
また、他の例として、C(シアン),M(マゼンタ),Y(イエロー),K(黒)のインクによる六値量子化画像を出力とする場合について説明する。例えば、C,M,Y,Kのインクを用いる場合、CMYKがそれぞれ六値を持つことになり、以下の方法でそれぞれのインクについて六値を決定する。
<C(シアン)の場合>
output = 0(濃いシアン), if X ≦ a1,
output = 51(やや濃いシアン), if a1< X ≦ a2,
output = 102(中間のシアン), if a2 < X ≦a3,
output = 153(やや薄いシアン), if a3 < X ≦a4,
output = 204(薄いシアン), if a4 < X ≦a5,
output = 255(インクを置かない), if a5 < X
ここで、a1,a2,a3,a4,a5 は上記と同様に、液滴サイズとインク濃度によって決定される閾値パラメータである。誤差拡散部34,74では、これら閾値パラメータに基づいて誤差を拡散することで、1画素ずつラスタースキャンやベクタースキャンなどによって全画素順番に量子化を行う。C以外の他のM,Y,Kのそれぞれのインクについても上記のようにして六値を決定し、同様にして量子化を行う。
As another example, a case of outputting a hexanary quantized image with inks of C (cyan), M (magenta), Y (yellow), and K (black) will be described. For example, when inks of C, M, Y, and K are used, CMYK each have hexavalues, and the hexavalues are determined for each ink by the following method.
<For C (cyan)>
output = 0 (dark cyan), if X ≤ a 1 ,
output = 51 (slightly dark cyan), if a 1 < X ≤ a 2 ,
output = 102 (middle cyan), if a 2 < X ≤ a 3 ,
output = 153 (light cyan), if a 3 < X ≤ a 4 ,
output = 204 (light cyan), if a 4 < X ≤ a 5 ,
output = 255 (no ink placed), if a 5 < X
Here, a 1 , a 2 , a 3 , a 4 , and a 5 are threshold parameters determined by droplet size and ink density, as described above. The
各段階における処理過程の例を図7に示す。図7は、カラー画像のシアン成分の画像である。図7(a)は多値入力画像(8ビット)であり、図7(b)と図7(c)はレベル画像生成部22,52によって生成された2種類の多値画像(即ち、各多値画像データ)である。図7(d)と図7(e)はそれらを図1~3に基づいて説明した画像処理装置10Aの量子化部26によって二値量子化した結果である。図7(f)が多値量子化画像生成部40によって生成された多値量子化出力画像データ42であり、本発明による量子化結果である。
FIG. 7 shows an example of processing steps in each stage. FIG. 7 is an image of the cyan component of the color image. FIG. 7(a) shows a multivalued input image (8 bits), and FIGS. 7(b) and 7(c) show two kinds of multivalued images (that is, each multivalued image data). 7(d) and 7(e) are the results of binary quantization by the
本発明の実施例1及び比較例1による写真画像の印刷結果を図8に示す。実施例1及び比較例1では、株式会社シンク・ラボラトリー社製のインクジェット印刷機FXIJを用いて、水性インク用600dpiインクジェットKJ48を使用し、C,M,Y,Kの水性インクを用いて印刷した。各液滴サイズは、0pL(インク吐出量ゼロピコリットル,ドットなし),3pL,4pL,5pLを使用した。 FIG. 8 shows the results of printing photographic images according to Example 1 and Comparative Example 1 of the present invention. In Example 1 and Comparative Example 1, an inkjet printer FXIJ manufactured by Think Laboratory Co., Ltd. was used, and printing was performed using a 600 dpi inkjet KJ48 for water-based inks and using water-based inks of C, M, Y, and K. . For each droplet size, 0 pL (ink discharge amount zero picoliter, no dots), 3 pL, 4 pL, and 5 pL were used.
<比較例1>
図8(a)は従来法の誤差拡散法を600dpiで四値量子化した画像データをインクジェット印刷した結果である。図8(a)に示す従来法の結果では、テクスチャの構造を考慮せずに空間的に誤差を拡散しているため、テクスチャが十分に再現されていない。さらに印刷プロセスが入ると、インクによってテクスチャはほとんどつぶれる結果となった。
<Comparative Example 1>
FIG. 8A shows the results of inkjet printing of image data obtained by quantizing the conventional error diffusion method into four values at 600 dpi. In the result of the conventional method shown in FIG. 8A, the texture is not sufficiently reproduced because the error is spatially diffused without considering the structure of the texture. Further into the printing process, the ink almost crushed the texture.
<実施例1>
図8(b)は図1~図3で示した本発明の画像処理装置10A及び画像処理方法を用いて600dpiで四値量子化して得られた多値量子化出力画像データをインクジェット印刷した結果である。上述したC,M,Y,Kのインクを用いる場合の例と同様にして、それぞれのインクについて四値を決定した。誤差拡散部34では、この閾値パラメータに基づいて誤差を拡散することで、1画素ずつラスタースキャンやベクタースキャンなどによって全画素順番に量子化を行った。それぞれのインクについて同様にして量子化を行った。本発明による図8(b)では、細かな毛並みや表面反射などのテクスチャに表現されるように、入力画像のテクスチャを強調する形で量子化して表現できている。このため、印刷プロセスを経ても、テクスチャ情報を保存した印刷結果を得ることが可能となった。
<Example 1>
FIG. 8(b) is the result of inkjet printing multi-level quantized output image data obtained by four-level quantization at 600 dpi using the
<比較例2及び実施例2>
また、上記と同様の手法で行った実施例として、従来の誤差拡散法で4値化する場合に、空間的に一様な色が入力されると、実質2値化となる。例えば、濃度を画素値に置き換えたときに、(0, 85, 170, 255)のインクが使用されると仮定すると、128の画素値の色に対して、85と170の色のみで表現される。そのため、従来の誤差拡散法では図9(a)のように特定のパターンが出現するアーチファクトが目立つこととなる(比較例2)。これに対して、本発明は明暗の2種類の色に変換して、それぞれを2値化した後に合成するため、実質的に多値化を実現することができ、図9(b)に示すように目障りなアーチファクトも軽減できる(実施例2)。
<Comparative Example 2 and Example 2>
Further, as an embodiment performed by a method similar to the above, in the case of quaternarization by the conventional error diffusion method, if a color that is spatially uniform is input, it is substantially binarized. For example, assuming that (0, 85, 170, 255) inks are used when densities are replaced by pixel values, only 85 and 170 colors are used for 128 pixel value colors. be. Therefore, in the conventional error diffusion method, artifacts in which a specific pattern appears as shown in FIG. 9A are conspicuous (comparative example 2). On the other hand, according to the present invention, since the colors are converted into two kinds of light and dark colors, and synthesized after binarizing each color, it is possible to substantially realize multi-value conversion, as shown in FIG. 9(b). Obtrusive artifacts can also be reduced (Embodiment 2).
このように、本発明によれば、印刷紙、インク、ヘッドなどのハードウェアを変更せずに、従来の誤差拡散法の印刷結果と比較して、本発明は印刷対象のオブジェクトが有するテクスチャや質感を向上できる優位性が確認できた。 As described above, according to the present invention, compared with the printing result of the conventional error diffusion method, the texture and the The superiority that can improve the texture has been confirmed.
さらに、従来の誤差拡散法は高輝度ディスプレイの低輝度コントラストを表現するための技術としても用いられている。そして、ディスプレイの技術分野においても、画像内のテクスチャを強調することは重要な課題である。そこで、本発明の量子化技術をディスプレイに採用すれば、テクスチャの強調に適用できるテレビなどのディスプレイを実現することができる。 Furthermore, the conventional error diffusion method is also used as a technique for expressing low luminance contrast in high luminance displays. Also in the technical field of displays, enhancing textures in images is an important issue. Therefore, if the quantization technique of the present invention is applied to a display, a display such as a television that can be applied to emphasize texture can be realized.
なお、上記において、テクスチャ検出部の具体的構成については示していないが、例えば、画像のエッジの強度を微分フィルタによって抽出する。抽出された強度の高いエッジには、画像内のノイズや物体の輪郭が含まれているため、テクスチャ情報を検出するためには、抽出されたエッジからそれらを除去する必要がある。各画素の局所領域における濃度の分散値が大きな場合をノイズや物体の輪郭と仮定し、それらの逆数をエッジ強度に乗じることによって、テクスチャ情報のみを検出することができる。 In addition, although the specific configuration of the texture detection unit is not shown in the above description, for example, the intensity of the edge of the image is extracted by a differential filter. Since the extracted high-intensity edges contain noise in the image and object contours, it is necessary to remove them from the extracted edges in order to detect the texture information. It is possible to detect only texture information by assuming that a large density variance value in a local region of each pixel is noise or the outline of an object, and multiplying the edge intensity by the reciprocal thereof.
なお、テクスチャ情報として、縦線、透明感(明度情報)、エッジ情報又は輪郭情報について説明したが、物体の質感、表面状態に関連する凹凸情報など、他のテクスチャ情報でもよい。 As texture information, vertical lines, transparency (brightness information), edge information, or contour information have been described, but other texture information such as texture of an object, unevenness information related to surface conditions, etc. may be used.
また、質感強調処理のために用いられた既存のテクスチャ情報として、周波数サブバンド情報などが考えられるが、他のテクスチャ情報でもよい。 Moreover, frequency subband information and the like can be considered as the existing texture information used for texture enhancement processing, but other texture information may be used.
また、画像処理装置10Bを用いた画像処理方法(図2及び図5)において、修正量を求めて、修正量に基づいて制御するプロセスを反復的に繰り返したが、反復的に繰り返す回数は、回数が多いほど、良好な量子化結果を得ることができる反面、回数が少ないほど、少ない演算量になる特徴を有する。また、反復的に繰り返さない構成でもよく、その場合、最も演算量を少なくできる。
In addition, in the image processing method (FIGS. 2 and 5) using the
本発明は、写真などの画像内のテクスチャの強調に適用できる画像処理装置、画像処理方法及びプログラムとして産業上利用可能である。本発明は、商業用印刷機、家庭用プリンタ、ディスプレイ、テレビ、ディジタルカメラ、画像処理ソフトウェアなどに好適に用いることができる。 INDUSTRIAL APPLICABILITY The present invention is industrially applicable as an image processing apparatus, an image processing method, and a program that can be applied to enhance textures in images such as photographs. The present invention can be suitably used for commercial printers, home printers, displays, televisions, digital cameras, image processing software, and the like.
10A,10B:画像処理装置、12a,12b:ロール、14:ウェブ状印刷基材、16a,16b,16c,16d:インクジェットヘッド、18:ヘッド制御部、20,50:多値入力画像データ、22,52:レベル画像生成部、26,60:量子化部、28,62:各多値画像データ、30,64:テクスチャ検出部、32:誤差分配部、34,74:誤差拡散部、36,76:二値量子化画像データ、40,80:多値量子化画像生成部、42,90:多値量子化出力画像データ、66:修正量演算部、68:差分演算部、70:視覚処理部、72:多値画像修正部、100:インクジェットプリンタ。
10A, 10B: image processing device, 12a, 12b: roll, 14: web-like printing substrate, 16a, 16b, 16c, 16d: inkjet head, 18: head controller, 20, 50: multi-value input image data, 22 , 52: level image generation unit, 26, 60: quantization unit, 28, 62: each multivalued image data, 30, 64: texture detection unit, 32: error distribution unit, 34, 74: error diffusion unit, 36, 76: Binary
Claims (10)
前記多値入力画像データに対して、明度の異なる複数の各多値画像データを生成するレベル画像生成部と、
前記各多値画像データのテクスチャ情報を検出するテクスチャ検出部と、
前記テクスチャ情報を強調するように前記各多値画像データに対する階調変換処理を実行することで、前記各多値画像データを各二値量子化画像データに変換する誤差拡散部と、
複数の前記各二値量子化画像データに基づいて多値量子化出力画像データを生成する多値量子化画像生成部と、
を有する画像処理装置。 An image processing device for converting multilevel input image data into multilevel quantized output image data,
a level image generation unit that generates a plurality of multivalued image data with different brightness for the multivalued input image data;
a texture detection unit that detects texture information of each of the multivalued image data;
an error diffusion unit that converts each of the multi-valued image data into each of binary quantized image data by executing tone conversion processing on each of the multi-valued image data so as to emphasize the texture information;
a multi-level quantized image generating unit that generates multi-level quantized output image data based on the plurality of binary quantized image data;
An image processing device having
前記多値画像修正部の出力に基づいて前記誤差拡散部で前記各二値量子化画像データを生成することを特徴とする請求項1~5いずれか1項記載の画像処理装置。 a difference calculation unit that generates a difference image of each of the multilevel input image data and each of the binary quantized image data quantized by the error diffusion unit; and a visual processing unit that is a visual characteristic filter that inputs the difference image. , a correction amount calculation unit that calculates a correction amount so as to preserve the texture information, and a multi-valued image correction unit that corrects each of the multi-valued input image data based on the correction amount,
6. The image processing apparatus according to any one of claims 1 to 5, wherein the error diffusion unit generates each of the binary quantized image data based on the output of the multivalued image correction unit.
前記多値入力画像データに対して、レベル画像生成部で明度の異なる複数の各多値画像データを生成する各多値画像生成工程と、
前記各多値画像データのテクスチャ情報をテクスチャ検出部で検出するテクスチャ検出工程と、
前記テクスチャ情報を強調するように前記各多値画像データに対する階調変換処理を実行することで、前記各多値画像データを誤差拡散部で各二値量子化画像データに変換する工程と、
複数の前記各二値量子化画像データに基づいて多値量子化画像生成部で多値量子化出力画像データを生成する工程と、
を有する画像処理方法。 An image processing method for converting multilevel input image data into multilevel quantized output image data, comprising:
each multi-valued image generating step of generating a plurality of multi-valued image data with different brightness in a level image generation unit for the multi-valued input image data;
a texture detection step of detecting texture information of each of the multivalued image data by a texture detection unit;
a step of converting each multi-valued image data into each binary quantized image data in an error diffusion unit by executing a gradation conversion process on each multi-valued image data so as to emphasize the texture information;
a step of generating multilevel quantized output image data in a multilevel quantized image generation unit based on each of the plurality of binary quantized image data;
An image processing method comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019238003A JP7303504B2 (en) | 2019-12-27 | 2019-12-27 | Image processing device, image processing method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019238003A JP7303504B2 (en) | 2019-12-27 | 2019-12-27 | Image processing device, image processing method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021106364A JP2021106364A (en) | 2021-07-26 |
JP7303504B2 true JP7303504B2 (en) | 2023-07-05 |
Family
ID=76918975
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019238003A Active JP7303504B2 (en) | 2019-12-27 | 2019-12-27 | Image processing device, image processing method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7303504B2 (en) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000333010A (en) | 1999-05-07 | 2000-11-30 | Hewlett Packard Co <Hp> | Gradation dependent type error spread half tone processing method |
JP2001016437A (en) | 1999-07-01 | 2001-01-19 | Canon Inc | Picture processor, picture processing method and computer readable memory with program code executing picture processing stored therein |
JP2001157056A (en) | 1999-11-30 | 2001-06-08 | Fujitsu Ltd | Method and device for producing halftone, and computer- readable recording medium with halftone making program thereon |
JP2002185790A (en) | 2000-10-06 | 2002-06-28 | Seiko Epson Corp | Image processing unit, print controller, image processing method, and recording medium |
JP2007074345A (en) | 2005-09-07 | 2007-03-22 | Seiko Epson Corp | Image processing apparatus, method, and program |
JP2013026729A (en) | 2011-07-19 | 2013-02-04 | Konica Minolta Business Technologies Inc | Image processing device, image forming device, image processing method, and computer program |
JP2015216455A (en) | 2014-05-08 | 2015-12-03 | キヤノン株式会社 | Image processing device, image processing method and program |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3200287B2 (en) * | 1994-07-14 | 2001-08-20 | キヤノン株式会社 | Image processing method and apparatus |
-
2019
- 2019-12-27 JP JP2019238003A patent/JP7303504B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2000333010A (en) | 1999-05-07 | 2000-11-30 | Hewlett Packard Co <Hp> | Gradation dependent type error spread half tone processing method |
JP2001016437A (en) | 1999-07-01 | 2001-01-19 | Canon Inc | Picture processor, picture processing method and computer readable memory with program code executing picture processing stored therein |
JP2001157056A (en) | 1999-11-30 | 2001-06-08 | Fujitsu Ltd | Method and device for producing halftone, and computer- readable recording medium with halftone making program thereon |
JP2002185790A (en) | 2000-10-06 | 2002-06-28 | Seiko Epson Corp | Image processing unit, print controller, image processing method, and recording medium |
JP2007074345A (en) | 2005-09-07 | 2007-03-22 | Seiko Epson Corp | Image processing apparatus, method, and program |
JP2013026729A (en) | 2011-07-19 | 2013-02-04 | Konica Minolta Business Technologies Inc | Image processing device, image forming device, image processing method, and computer program |
JP2015216455A (en) | 2014-05-08 | 2015-12-03 | キヤノン株式会社 | Image processing device, image processing method and program |
Also Published As
Publication number | Publication date |
---|---|
JP2021106364A (en) | 2021-07-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5260865B2 (en) | Method, apparatus and computer program for halftoning a digital image | |
US8649061B2 (en) | Laser print apparatus with dual halftones | |
JP2000333010A (en) | Gradation dependent type error spread half tone processing method | |
JPH10108022A (en) | Method and device for acquiring halftone image data and halftone printing method and device | |
JP4149269B2 (en) | Error diffusion method and system using intermediate dots | |
JP2010541356A (en) | Method, apparatus and computer program for adaptive sunspot correction | |
JPH1084478A (en) | Input image conversion method and pixel value quantization method | |
US7315398B2 (en) | Multi-level error diffusion with color image data | |
US6851783B1 (en) | Replacement halftoning | |
US6608700B1 (en) | Removal of error diffusion artifacts with alternating distribution weights | |
JP2015216455A (en) | Image processing device, image processing method and program | |
JP4428206B2 (en) | Image forming apparatus, image forming method, and image forming program | |
JP7303504B2 (en) | Image processing device, image processing method and program | |
US7295347B2 (en) | Image processing method for generating multi-level data | |
JP3979372B2 (en) | Image processing apparatus, image processing method, and image processing program | |
Li et al. | Texture-aware error diffusion algorithm for multi-level digital halftoning | |
JP7344498B2 (en) | Image processing device, image processing method and program | |
JP4742871B2 (en) | Image processing apparatus, image processing method, image processing program, and recording medium recording the program | |
Kitanovski et al. | Orientation modulation for data hiding in chrominance channels of direct binary search halftone prints | |
JP7224616B2 (en) | Image processing device | |
JP4549306B2 (en) | Image processing method, image processing apparatus, image forming apparatus, and computer program | |
JP5162430B2 (en) | Image processing apparatus and image processing method | |
Sharma et al. | An Approach to Digital Halftone Processing using Error Diffusion in Forward and Backward Direction | |
Feng et al. | An edge enhanced technique for digital halftoning using error diffusion | |
JP2001069349A (en) | Picture processing method, picture processor and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220829 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230529 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230612 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230613 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7303504 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |