JP2014220664A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2014220664A
JP2014220664A JP2013098893A JP2013098893A JP2014220664A JP 2014220664 A JP2014220664 A JP 2014220664A JP 2013098893 A JP2013098893 A JP 2013098893A JP 2013098893 A JP2013098893 A JP 2013098893A JP 2014220664 A JP2014220664 A JP 2014220664A
Authority
JP
Japan
Prior art keywords
image
pixel
screen
edge
value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2013098893A
Other languages
Japanese (ja)
Other versions
JP6190152B2 (en
JP2014220664A5 (en
Inventor
成緒 兒玉
Naruo Kodama
成緒 兒玉
克行 萩原
Katsuyuki Hagiwara
克行 萩原
石川 尚
Takashi Ishikawa
尚 石川
藤本昭宏
Akihiro Fujimoto
昭宏 藤本
健太 寳▲崎▼
Kenta Takarazaki
健太 寳▲崎▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2013098893A priority Critical patent/JP6190152B2/en
Publication of JP2014220664A publication Critical patent/JP2014220664A/en
Publication of JP2014220664A5 publication Critical patent/JP2014220664A5/ja
Application granted granted Critical
Publication of JP6190152B2 publication Critical patent/JP6190152B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41JTYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
    • B41J3/00Typewriters or selective printing or marking mechanisms characterised by the purpose for which they are constructed
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits

Landscapes

  • Engineering & Computer Science (AREA)
  • Color, Gradation (AREA)
  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technique for obtaining a halftone processing result of a high image quality in which deterioration in image quality is reduced, while reducing a jaggy at an edge.SOLUTION: AM screen processing is applied to an input image to generate an image having undergone AM screen processing. When a pixel under consideration in the input image is a pixel detected as a pixel constituting an edge, a value based on the density difference between the input image and the image having undergone AM screen processing in an area including the pixel under consideration is outputted. When the pixel under consideration is a pixel not detected as a pixel constituting the edge, the pixel value of the pixel under consideration in the image having undergone AM screen processing is outputted.

Description

本発明は、ハーフトーン処理技術に関するものである。   The present invention relates to a halftone processing technique.

PC(パーソナルコンピュータ)などで作成した画像やドキュメントをプリンタで印刷するということが一般的に行われている。しかしながら、プリンタで印刷可能な画像の階調数は、PCで扱える画像の階調数よりも少ない。そのため、印刷指示のあった画像に対して、階調数を低減しつつある一定の面積で元の階調を疑似的に再現可能なハーフトーン処理が施される。   In general, an image or document created by a PC (personal computer) or the like is printed by a printer. However, the number of gradations of an image that can be printed by a printer is smaller than the number of gradations of an image that can be handled by a PC. For this reason, halftone processing is performed on an image for which printing has been instructed so that the original gradation can be reproduced in a pseudo manner with a certain area where the number of gradations is being reduced.

ところで、プリンタの一種であるレーザービームプリンタでは、帯電、露光、現像、転写、定着などの複雑なプロセスを経て画像が紙面上に形成される。故に、トナーを安定して紙面に定着させて階調性を確保する目的で、トナーのドット形成がある一点に集中する閾値マトリクスを周期的に並べたAMスクリーンを用いてハーフトーン処理することが多い。また、カラー表現をするために、CMYKなどの各色画像を夫々異なるAMスクリーンを用いてハーフトーン処理し、後に各色トナーを重ね合わせて画像を形成する。このようなレーザービームプリンタでは各色トナーを重ね合わせたときに生じる色モアレをできるだけ低減する為に、各色のAMスクリーン間でスクリーン角と呼ばれる周期的に並ぶドットの成長角度ができるだけ大きくなるように設計されることが一般的である。   By the way, in a laser beam printer which is a kind of printer, an image is formed on a paper surface through complicated processes such as charging, exposure, development, transfer, and fixing. Therefore, for the purpose of securing the gradation by stably fixing the toner on the paper surface, halftone processing may be performed using an AM screen in which threshold matrixes that are concentrated at a certain point where toner dots are formed are arranged periodically. Many. In addition, in order to express color, each color image such as CMYK is subjected to halftone processing using different AM screens, and then each color toner is superimposed to form an image. In such a laser beam printer, in order to reduce as much as possible the color moire that occurs when toners of each color are superimposed, the growth angle of periodically arranged dots called screen angles between AM screens of each color is designed to be as large as possible. It is common to be done.

上記のように電子写真プロセスを利用したレーザービームプリンタでは、AMスクリーンを用いてハーフトーン処理を行う場合、印刷解像度に比べ表現可能な空間解像度が低下してしまうことがある。具体的には、画像中で滑らかな斜線となっているエッジ部がジャギーと呼ばれる階段状に配置されたドットで表現されてしまうことがある。また、印刷対象の画像に網点パターンのような周期的なパターンが含まれる場合には、AMスクリーンの周期性と干渉を起こし、原稿モアレと呼ばれる干渉縞を生じた画像が印刷されてしまうことがあった。   In the laser beam printer using the electrophotographic process as described above, when halftone processing is performed using an AM screen, the spatial resolution that can be expressed may be lower than the print resolution. Specifically, an edge portion that is a slanted line in an image may be expressed by dots arranged in a step shape called jaggy. In addition, when the image to be printed includes a periodic pattern such as a halftone dot pattern, an image with interference fringes called document moire is printed due to interference with the periodicity of the AM screen. was there.

これに対し、特許文献1では、ハーフトーン処理前後の画像データを夫々平滑化し、差分を求めることで原稿モアレを濃度差として検出する技術が開示されている。また、特許文献2では、着目画素近傍の周波数解析を行い、この結果に基づいて、複数のハーフトーン処理の混合比を決定するという技術が開示されている。更に、特許文献3では、輪郭領域を強調又は抑制するようにレベル補正したデータとハーフトーン処理用にレベル補正したデータに異なるハーフトーン処理を施していずれか一方を選択するという技術が開示されている。   On the other hand, Patent Document 1 discloses a technique for detecting document moire as a density difference by smoothing image data before and after halftone processing and obtaining a difference. Patent Document 2 discloses a technique of performing frequency analysis in the vicinity of a target pixel and determining a mixture ratio of a plurality of halftone processes based on the result. Further, Patent Document 3 discloses a technique in which different halftone processing is performed on data that has been level-corrected so as to enhance or suppress the contour region and data that has been level-corrected for halftone processing, and either one is selected. Yes.

特開2011−155632号公報JP 2011-155632 A 特開2010−272987号公報JP 2010-272987 A 特開2005−341249号公報JP 2005-341249 A

特許文献1で開示された技術では、画像データに含まれる周期的なパターンとAMスクリーンが持つ周期性との干渉により生じた原稿モアレを濃度差という形で検出することが可能となる。この濃度差が画像中のエッジ部で生じているのがジャギーと呼ばれる現象である。そのため、この濃度差が大きい場合にはAMスクリーンではないハーフトーン処理を施すことでエッジ部のジャギーの発生を低減することができる。   With the technique disclosed in Patent Document 1, it is possible to detect document moire caused by interference between a periodic pattern included in image data and the periodicity of the AM screen in the form of a density difference. It is a phenomenon called jaggy that this density difference occurs at the edge portion in the image. Therefore, when this density difference is large, the occurrence of jaggies at the edge portion can be reduced by performing halftone processing that is not an AM screen.

また、特許文献2で開示された技術によると、表現するのに高い解像性を要するエッジ部などの画素が、周波数解析の結果によって高周波成分を比較的多く含んでいることから判別可能である。そこで、高周波成分の大きな画素では、AMスクリーンと比較して解像性の高い誤差拡散によって得られたハーフトーン処理結果の混合比を高くすることで、好適なエッジ部の表現を試みている。   Further, according to the technique disclosed in Patent Document 2, pixels such as edge portions that require high resolution for expression can be distinguished from each other because they contain a relatively large amount of high-frequency components based on the result of frequency analysis. . Therefore, in a pixel having a large high-frequency component, an attempt is made to express a suitable edge portion by increasing the mixing ratio of the halftone processing result obtained by error diffusion having high resolution as compared with the AM screen.

更に、特許文献3で開示された技術においても、輪郭部には強調又は抑制されたデータに対して解像性の高いハーフトーン処理、平坦部には階調性の高いハーフトーン処理を切り替えて使用することで、エッジ部の好適な表現を試みている。   Further, in the technique disclosed in Patent Document 3, halftone processing with high resolution is switched for emphasized or suppressed data in the outline portion, and halftone processing with high gradation is switched in the flat portion. By using it, it is trying to express the edge part appropriately.

しかしながら、これらの先行技術においては、異なる複数の処理結果を混合又は切り替えるため、混合や切り替えによって生成した画素が目立ってしまい、画質劣化として視認される可能性があった。これは、異なる濃度表現を行っている処理結果に対して、それぞれの濃度表現を考慮することなく混合や切り替えを行うために整合性がとれないためである。また、上記技術によって混合又は切り替えを画像内で頻繁に繰り返すと、AMスクリーンの周期構造を壊しスクリーン角が乱れてしまうため、各色画像を重ね合わせた際に色モアレが生じてしまう可能性がある。   However, in these prior arts, since a plurality of different processing results are mixed or switched, pixels generated by mixing or switching may be noticeable and may be visually recognized as image quality degradation. This is because the results of processing with different density expressions are not consistent because mixing and switching are performed without considering each density expression. Further, if mixing or switching is frequently repeated in the image by the above technique, the periodic structure of the AM screen is broken and the screen angle is disturbed, so that color moiré may occur when the color images are superimposed. .

本発明はこのような問題に鑑みてなされたものであり、エッジ部のジャギーを低減しつつ、画質劣化が少ない高画質なハーフトーン処理結果を得るための技術を提供する。   The present invention has been made in view of such a problem, and provides a technique for obtaining a high-quality halftone processing result with less image quality deterioration while reducing jaggies at an edge portion.

本発明の画像処理装置は、入力画像に対してスクリーン処理する画像処理装置であって、前記入力画像においてエッジを構成する画素を検出する検出手段と、前記入力画像に対してAMスクリーン処理を施してAMスクリーン処理済み画像を生成するスクリーン処理手段と、前記入力画像において着目画素が前記検出手段によりエッジを構成する画素として検出された画素であれば、前記着目画素を含む領域における前記入力画像と前記AMスクリーン処理済み画像との濃度差分に基づいた値を出力し、前記着目画素が前記検出手段によりエッジを構成する画素として検出されなかった画素であれば、前記AMスクリーン処理済み画像における前記着目画素の画素値を出力する出力手段とを有することを特徴とする。   An image processing apparatus according to the present invention is an image processing apparatus that performs screen processing on an input image, and includes detection means that detects pixels constituting an edge in the input image, and AM screen processing on the input image. Screen processing means for generating an AM screen processed image, and if the target pixel in the input image is a pixel detected as a pixel constituting an edge by the detection means, the input image in the region including the target pixel If a value based on a density difference from the AM screen processed image is output and the target pixel is not detected as a pixel constituting an edge by the detection means, the target in the AM screen processed image is output. Output means for outputting the pixel value of the pixel.

本発明の構成によれば、エッジ部のジャギーを低減しつつ、画質劣化が少ない高画質なハーフトーン処理結果を得ることができる。   According to the configuration of the present invention, it is possible to obtain a high-quality halftone processing result with less image quality deterioration while reducing edge jaggy.

画像処理装置の機能構成例を示すブロック図。FIG. 3 is a block diagram illustrating an example of a functional configuration of the image processing apparatus. エッジの検出技術の一例を説明する図。The figure explaining an example of the detection technique of an edge. 画像群を示す図。The figure which shows an image group. AMスクリーン処理を説明する図。The figure explaining AM screen processing. AMスクリーン処理結果と階調数復元処理結果との関係を示す図。The figure which shows the relationship between AM screen process result and a gradation number restoration process result. 参照範囲を説明する図。The figure explaining a reference range. 入出力特性を説明する図。The figure explaining input-output characteristics. 画像処理装置の機能構成例を示すブロック図。FIG. 3 is a block diagram illustrating an example of a functional configuration of the image processing apparatus. 画像群を示す図。The figure which shows an image group. 画像処理装置の機能構成例を示すブロック図。FIG. 3 is a block diagram illustrating an example of a functional configuration of the image processing apparatus. 出力画像を示す図。The figure which shows an output image. 画像処理装置として機能する装置のハードウェア構成を示す図。The figure which shows the hardware constitutions of the apparatus which functions as an image processing apparatus.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態に係る画像処理装置は、N(N≧3)値の画素値を有する画素から成る入力画像からM(M<N)値の画素値を有する画素から成る出力画像を生成して出力する。先ず、この本実施形態に係る画像処理装置の機能構成例について、図1のブロック図を用いて説明する。
[First Embodiment]
The image processing apparatus according to the present embodiment generates and outputs an output image composed of pixels having pixel values of M (M <N) from an input image composed of pixels having pixel values of N (N ≧ 3). To do. First, a functional configuration example of the image processing apparatus according to this embodiment will be described with reference to the block diagram of FIG.

本画像処理装置には、N(N≧3)値の画素値を有する画素から成る入力画像が入力される。エッジ検出部101は、この入力された入力画像からエッジを検出する(すなわち、エッジを構成する画素であるエッジ画素を検出する)。エッジを検出する技術は周知であり、ラプラシアンや着目画素近傍の周波数解析などによる公知技術が利用可能である。エッジの検出技術の一例について図2を用いて説明する。   The image processing apparatus receives an input image composed of pixels having N (N ≧ 3) pixel values. The edge detection unit 101 detects an edge from the input image that has been input (that is, detects an edge pixel that is a pixel constituting the edge). Techniques for detecting edges are well known, and known techniques such as Laplacian and frequency analysis near the pixel of interest can be used. An example of the edge detection technique will be described with reference to FIG.

図2において「*」が記されている矩形は、エッジ画素であるか非エッジ画素であるかを判定する対象となる画素(対象画素)である。また「a」、「b」、「c」、「d」のそれぞれが記されている矩形は対象画素に隣接する画素(隣接画素)である。対象画素がエッジ画素であるか否かを判定するためには、先ず、対象画素とそれぞれの隣接画素との画素値の差分の絶対値を計算する。図2では、隣接画素aと対象画素との画素値の差分の絶対値を|a−*|、隣接画素bと対象画素との画素値の差分の絶対値を|b−*|として表している。また、隣接画素cと対象画素との画素値の差分の絶対値を|c−*|、隣接画素dと対象画素との画素値の差分の絶対値を|d−*|として表している。そして、この計算した4つの差分の絶対値のうち最大値DIFFを特定し、該特定した最大値DIFFが規定の閾値THRESHOLD以上であれば、対象画素はエッジ画素EDGEであると判定する。一方、該特定した最大値DIFFが規定の閾値THRESHOLD未満であれば、対象画素は非エッジ画素non−EDGEであると判定する。   A rectangle marked with “*” in FIG. 2 is a pixel (target pixel) that is a target for determining whether it is an edge pixel or a non-edge pixel. In addition, rectangles in which “a”, “b”, “c”, and “d” are written are pixels adjacent to the target pixel (adjacent pixels). In order to determine whether or not the target pixel is an edge pixel, first, an absolute value of a difference between pixel values of the target pixel and each adjacent pixel is calculated. In FIG. 2, the absolute value of the difference between the pixel values of the adjacent pixel a and the target pixel is represented as | a− * |, and the absolute value of the difference between the pixel values of the adjacent pixel b and the target pixel is represented as | b− * |. Yes. Also, the absolute value of the difference between the pixel values of the adjacent pixel c and the target pixel is represented as | c− * |, and the absolute value of the difference between the pixel values of the adjacent pixel d and the target pixel is represented as | d− * |. Then, the maximum value DIFF is specified from the calculated absolute values of the four differences, and if the specified maximum value DIFF is equal to or greater than the prescribed threshold value THRESHOLD, it is determined that the target pixel is the edge pixel EDGE. On the other hand, if the specified maximum value DIFF is less than the prescribed threshold value THRESHOLD, it is determined that the target pixel is a non-edge pixel non-EDGE.

このような技術により、画像中の各画素がエッジ画素であるのか、それとも非エッジ画素であるのかを判定することができるので、結果として、該画像からエッジ(エッジ画素)を検出することができる。   With such a technique, it is possible to determine whether each pixel in the image is an edge pixel or a non-edge pixel, and as a result, an edge (edge pixel) can be detected from the image. .

入力画像が図3(a)に示す画像である場合に、この入力画像に対して図2を用いて説明したエッジ検出技術を適用して得られる結果を図3(b)に示す。図3(b)において、入力画像データを構成する画素のうち、非エッジ画素のみ画素値を0に更新すると、図3(b)の画像(エッジ画像)が得られる。図3(b)のエッジ画像は、エッジ画素のみ元の画素値が残っているため、結果として入力画像中の輪郭が抽出された画像がエッジ画像として得られることになる。   FIG. 3B shows a result obtained by applying the edge detection technique described with reference to FIG. 2 to the input image when the input image is the image shown in FIG. In FIG. 3B, when the pixel value of only the non-edge pixels among the pixels constituting the input image data is updated to 0, the image (edge image) in FIG. 3B is obtained. In the edge image of FIG. 3B, since the original pixel values remain only for the edge pixels, as a result, an image from which the contour in the input image is extracted is obtained as the edge image.

図1に戻って、次に、AMスクリーン処理部102は、本画像処理装置に入力された入力画像中の各画素値とAMスクリーンの各閾値とを比較し、N値の画素値からなる入力画像をM値の画像に変換する。この変換技術については周知であるので、ここではこの変換技術については簡単に説明する。ここでは、図3(a)に示す入力画像(256階調)に対して、図4に示すように3値化をするAMスクリーンを用いる例について説明する。   Returning to FIG. 1, the AM screen processing unit 102 compares each pixel value in the input image input to the image processing apparatus with each threshold value of the AM screen, and inputs an N-value pixel value. The image is converted into an M-value image. Since this conversion technique is well known, this conversion technique will be briefly described here. Here, an example will be described in which an AM screen that performs ternarization as shown in FIG. 4 is used for the input image (256 gradations) shown in FIG.

図4に示すAMスクリーンは、セルと呼ばれる一組のインデックス番号が付与された画素の集合を周期的に並べた構造になっている。入力画像の各画素値(入力画素値)をこのAMスクリーンのインデックス番号に対応する量子化のための閾値と比較する。比較の結果に応じて、該入力画素値に対応する出力画素値として0、1、2のいずれかを決定する。図3(a)に示す入力画像にAMスクリーン処理を行うと、図3(c)に示すような画像(AMスクリーン処理済み画像)を得ることができる。なお図3(c)では、AMスクリーン処理済み画像における出力画素値0、1、2のそれぞれの濃度を、入力画素値の0、128、255に対応する濃度として表している。図3(c)に示す画像は、セルに含まれる画素数が16で、画素当り0以外の濃度を2レベル表現するため、2×16=32階調とセルの画素全て0レベルの1階調を足して33階調をセル単位で擬似的に表現できる。しかしながら、このように階調数をできるだけ多く表現するためにセル単位で階調を表現すると、解像性が低減してしまう。このため図3(c)に示すAMスクリーン処理済み結果は、図中の輪郭部分や文字において階段状のジャギーや線の途切れになり、不鮮明な画像となってしまっている。   The AM screen shown in FIG. 4 has a structure in which a set of pixels assigned with a set of index numbers called cells is periodically arranged. Each pixel value (input pixel value) of the input image is compared with a threshold value for quantization corresponding to the index number of this AM screen. Depending on the comparison result, 0, 1, or 2 is determined as the output pixel value corresponding to the input pixel value. When AM screen processing is performed on the input image shown in FIG. 3A, an image (AM screen processed image) as shown in FIG. 3C can be obtained. In FIG. 3C, the densities of the output pixel values 0, 1, and 2 in the AM screen processed image are represented as densities corresponding to the input pixel values of 0, 128, and 255. In the image shown in FIG. 3C, the number of pixels included in the cell is 16, and the density other than 0 per pixel is expressed in two levels. Therefore, the first floor of 2 × 16 = 32 gradations and all the pixels of the cell are at the zero level. By adding keys, 33 gradations can be expressed in a pseudo manner in units of cells. However, if the gradation is expressed in units of cells in order to express the number of gradations as much as possible, the resolution is reduced. For this reason, the result of the AM screen processing shown in FIG. 3C is a blurred image due to step-like jaggies and line breaks in the contours and characters in the figure.

階調数復元部103は、AMスクリーン処理部102によって変換されたM値のAMスクリーン処理済み画像を、N値の画像に復元する。AMスクリーン処理部102の処理結果は後段の濃度差分検出部104によって、入力画素値との濃度差分が検出されるが、AMスクリーン処理部102によって階調数が低減されているため、入力画素値の情報量よりも少ない情報量しか持たない。このため、階調数復元部103によって、低減された階調数を元の階調数に戻すことで情報量を復元し、演算精度を向上させる。本実施形態では、AMスクリーン処理済み画像における各画素の画素値0,1,2を、0、128,255に変換すればよい。階調数の復元は、一般的に知られた逆量子化の方法を適用すればよい。   The gradation number restoration unit 103 restores the M-value AM screen processed image converted by the AM screen processing unit 102 to an N-value image. As a result of processing of the AM screen processing unit 102, the density difference detection unit 104 in the subsequent stage detects a density difference from the input pixel value. However, since the number of gradations is reduced by the AM screen processing unit 102, the input pixel value The amount of information is less than the amount of information. For this reason, the number of gradations restoration unit 103 restores the reduced number of gradations to the original number of gradations, thereby restoring the amount of information and improving the calculation accuracy. In the present embodiment, the pixel values 0, 1, and 2 of each pixel in the AM screen processed image may be converted to 0, 128, and 255. To restore the number of gradations, a generally known inverse quantization method may be applied.

ここで、AMスクリーン処理済み画像における各画素値は、3値であり、階調数復元部103が3値の各画素値を256値の画素値に復元する。図5は、AMスクリーン処理済み画像における各画素値と階調数復元処理した結果における各画素値との関係を示す。   Here, each pixel value in the AM screen processed image is ternary, and the gradation number restoring unit 103 restores each ternary pixel value to a 256 pixel value. FIG. 5 shows a relationship between each pixel value in the AM screen processed image and each pixel value as a result of the gradation number restoration processing.

図5(a)には、AMスクリーン処理結果と階調数復元処理結果との対応が決まっている場合のそれぞれの対応関係を示している。然るに、該対応が予め決まっている場合には、階調数復元部103は、このような対応関係に基づいて、AMスクリーン処理結果から階調数復元処理結果を得る。   FIG. 5A shows the corresponding relationship when the correspondence between the AM screen processing result and the gradation number restoration processing result is determined. However, when the correspondence is determined in advance, the gradation number restoration unit 103 obtains the gradation number restoration processing result from the AM screen processing result based on such correspondence.

一方、AMスクリーン処理結果と階調数復元処理結果との対応が分からない場合には、図5(b)に示すように、入力画素値のビット数に達するまで、AMスクリーン処理結果を上位ビットから繰り返すことで階調数復元処理結果を得ても良い。但し、この場合には、階調数を変換した際に変換誤差が含まれる可能性がある。更には、AMスクリーン処理部102では局所的な濃度が入力画像に一致するようにセル単位で量子化が行われることを考慮して、AMスクリーン処理部102の処理結果のセル内平均を元に階調数を復元しても良い。仮に、セル内平均値を元に階調数を復元する場合にセル内平均値が小数点以下の値を含んでいても、図5に示す変換表を元に整数値の間を補間することによって階調数復元処理結果を算出することができる。以下では、階調数復元部103によって復元された画像を復元画像と呼称する。   On the other hand, if the correspondence between the AM screen processing result and the gradation number restoration processing result is not known, as shown in FIG. It is also possible to obtain the gradation number restoration processing result by repeating from. However, in this case, a conversion error may be included when the number of gradations is converted. Further, in consideration of the fact that the AM screen processing unit 102 performs quantization in units of cells so that the local density matches the input image, the AM screen processing unit 102 is based on the in-cell average of the processing results of the AM screen processing unit 102. The number of gradations may be restored. Even if the number of gradations is restored based on the average value in the cell, even if the average value in the cell includes a value after the decimal point, by interpolating between the integer values based on the conversion table shown in FIG. The gradation number restoration processing result can be calculated. Hereinafter, the image restored by the tone number restoration unit 103 is referred to as a restored image.

濃度差分検出部104は、0≦x≦X−1、0≦y≦Y−1(X,Yはそれぞれ画像(入力画像、復元画像)のx方向、y方向の画素数)を満たす全てのx、yについて、次のような処理を行う。即ち、復元画像中の画素(x、y)の周辺領域と、入力画像中の画素(x、y)の周辺領域との間の濃度差分を検出する。AMスクリーン処理部102が行うAMスクリーン処理によって、ほとんどの画素において量子化誤差が発生している。そこで濃度差分検出部104は、AMスクリーン処理済み画像について、着目画素を含む局所的な領域(以下、参照領域)における各画素の量子化誤差に基づいて、濃度差分を算出する。   The density difference detection unit 104 satisfies all 0 ≦ x ≦ X−1 and 0 ≦ y ≦ Y−1 (X and Y are the numbers of pixels in the x direction and the y direction of the image (input image and restored image), respectively). The following processing is performed for x and y. That is, the density difference between the peripheral region of the pixel (x, y) in the restored image and the peripheral region of the pixel (x, y) in the input image is detected. By the AM screen processing performed by the AM screen processing unit 102, a quantization error occurs in most pixels. Therefore, the density difference detection unit 104 calculates the density difference of the AM screen processed image based on the quantization error of each pixel in a local area including the target pixel (hereinafter referred to as a reference area).

本実施形態では、基準となる画素値をN値の入力画素値とする。そのため階調数復元部103によって、AM値のスクリーン処理済み画像をN値に復元した。また、AMスクリーン処理部102では、入力画像が表す濃度をセル単位で表すように量子化が行われる。セルを構成する画素群の中で入力値が一定でない場合には、入力画像とAMスクリーンとが干渉し、濃度変動(モアレ)となって画像の劣化を起こしている可能性がある。そのため、濃度変動の要因となる濃度差分を、着目画素を含む局所的な領域を参照して算出する必要がある。更に、濃度差分を求める際にはAMスクリーンにおけるセルの大きさ以上の範囲の参照領域を参照することが好ましい。本実施形態では、図4に示す4×4のセル単位でAMスクリーン処理を行っているため、濃度差分を検出するために図6に示すような範囲の画素を参照する。   In this embodiment, the reference pixel value is an N-value input pixel value. For this reason, the tone-number restoring unit 103 restored the screen processed image of the AM value to the N value. Further, the AM screen processing unit 102 performs quantization so that the density represented by the input image is represented in cell units. If the input value is not constant in the pixel group constituting the cell, the input image and the AM screen may interfere with each other, resulting in density fluctuation (moire) and image deterioration. Therefore, it is necessary to calculate the density difference that causes the density fluctuation with reference to a local region including the target pixel. Furthermore, when obtaining the density difference, it is preferable to refer to a reference area in a range larger than the cell size on the AM screen. In this embodiment, since AM screen processing is performed in units of 4 × 4 cells shown in FIG. 4, pixels in a range as shown in FIG. 6 are referred to in order to detect density differences.

図6において各矩形は画素を表しており、網がけの矩形は着目画素を表している。また、各矩形内に記している数字は、各画素における量子化誤差の和をとる際の重み付け係数である。濃度差分を検出する際には、着目画素に対してできるだけ等方的な参照領域である方が入力画像の周期性に影響されず良好な結果となる。そのため、着目画素を中心として等距離内にある参照画素における量子化誤差の和を、濃度差分として算出することが好ましい。しかし、本実施形態の場合、セルの形は4ピクセル×4ピクセルの正方形となっている。そのため、着目画素が中心付近となるように参照領域を決めたものが図6(a)に示す範囲である。また、図6(b)は、4ピクセル×4ピクセルのセルよりも大きく、かつ着目画素に対して等方的な領域を示している。さらに図6(a)が示す4×4の中心を着目画素とした時の重複度合いを重み付け係数として定めている。このように、必ずしもセルの形状と一致しない領域を参照領域として定めてもよい。   In FIG. 6, each rectangle represents a pixel, and the shaded rectangle represents a pixel of interest. In addition, the numbers written in each rectangle are weighting coefficients for calculating the sum of quantization errors in each pixel. When detecting a density difference, a reference region that is as isotropic as possible with respect to the pixel of interest provides a better result without being affected by the periodicity of the input image. For this reason, it is preferable to calculate the sum of quantization errors in reference pixels within the same distance from the target pixel as a density difference. However, in the case of this embodiment, the shape of the cell is a square of 4 pixels × 4 pixels. For this reason, the range shown in FIG. 6A is obtained by determining the reference region so that the pixel of interest is near the center. FIG. 6B shows a region that is larger than a cell of 4 pixels × 4 pixels and isotropic with respect to the pixel of interest. Furthermore, the degree of overlap when the pixel of interest is the 4 × 4 center shown in FIG. 6A is defined as a weighting coefficient. Thus, an area that does not necessarily match the cell shape may be determined as the reference area.

ここでは、図6(b)に示す参照領域における濃度差分を検出する。すなわち、入力画像及び復元画像のそれぞれにおいて、着目画素(斜線で示した矩形)とその周辺の24個の画素(周辺画素)の合計25個の画素を参照する。図6(b)の場合、−2≦i≦2、−2≦j≦2とすると、先ず、以下の式を計算することでD1を求める。   Here, the density difference in the reference region shown in FIG. 6B is detected. That is, in each of the input image and the restored image, a total of 25 pixels including the pixel of interest (rectangle indicated by diagonal lines) and 24 surrounding pixels (peripheral pixels) are referred to. In the case of FIG. 6B, assuming −2 ≦ i ≦ 2 and −2 ≦ j ≦ 2, first, D1 is obtained by calculating the following equation.

D1=ΣW(i、j)×S(x+i、y+j)
ここで、S(x+i、y+j)は復元画像中の画素(x+i、y+j)における画素値、W(i、j)は画素(x+i、y+j)に対する重み付け係数、Σはi=−2〜2及びj=−2〜2について総和を計算する演算子である。ここで、i、jは着目画素位置を原点とする参照領域内の画素位置を表す変数である。図6(a)の場合、−2≦i≦1、−2≦j≦1となり、図6(b)の場合、−2≦i≦2、−2≦j≦2となる。
D1 = ΣW (i, j) × S (x + i, y + j)
Here, S (x + i, y + j) is a pixel value in the pixel (x + i, y + j) in the restored image, W (i, j) is a weighting coefficient for the pixel (x + i, y + j), Σ is i = −2 to 2 and This is an operator for calculating the sum for j = −2 to 2. Here, i and j are variables representing pixel positions in the reference area with the target pixel position as the origin. In the case of FIG. 6A, −2 ≦ i ≦ 1 and −2 ≦ j ≦ 1, and in the case of FIG. 6B, −2 ≦ i ≦ 2 and −2 ≦ j ≦ 2.

然るに、例えば図6(b)の場合、W(−2,−2)は周辺領域の左上隅の画素に対する重み付け係数「1/4」であり、W(0,0)は周辺領域の着目画素位置の画素に対する重み付け係数「1」である。次に、以下の式を計算することでD2を求める。   However, in the case of FIG. 6B, for example, W (−2, −2) is the weighting coefficient “¼” for the pixel in the upper left corner of the surrounding area, and W (0, 0) is the pixel of interest in the surrounding area. The weighting coefficient “1” for the pixel at the position. Next, D2 is calculated | required by calculating the following formula | equation.

D2=ΣW(i、j)×T(x+i、y+j)
ここで、T(x+i、y+j)は入力画像中の画素(x+i、y+j)における画素値である。そして、以下の式を計算することで、着目画素位置(x、y)に対する濃度差分D(x、y)を求める。
D2 = ΣW (i, j) × T (x + i, y + j)
Here, T (x + i, y + j) is a pixel value at a pixel (x + i, y + j) in the input image. Then, the density difference D (x, y) with respect to the target pixel position (x, y) is obtained by calculating the following expression.

D(x、y)=D1−D2
ここで、W(i、j)×S(x+i、y+j)とW(i、j)×T(x+i、y+j)との差分は、画素(x+i、y+j)における量子化誤差に重み付け係数を乗じた結果である。つまり濃度差分D(x、y)は、着目画素に対応する参照領域について、参照領域に含まれる各画素の量子化誤差を重み付き平均して得られる値である。このような処理を、0≦x≦X−1、0≦y≦Y−1を満たす全てのx、yについて行うことで、各画素(x、y)に対する濃度差分D(x、y)を求めることができる。
D (x, y) = D1-D2
Here, the difference between W (i, j) × S (x + i, y + j) and W (i, j) × T (x + i, y + j) is obtained by multiplying the quantization error in the pixel (x + i, y + j) by a weighting coefficient. It is a result. That is, the density difference D (x, y) is a value obtained by averaging the quantization error of each pixel included in the reference area with respect to the reference area corresponding to the target pixel. By performing such processing for all x and y satisfying 0 ≦ x ≦ X−1 and 0 ≦ y ≦ Y−1, the density difference D (x, y) for each pixel (x, y) is obtained. Can be sought.

濃度差分加算部105は、入力画像中の画素(x、y)の画素値T(x、y)に濃度差分D(x、y)を加算することで該入力画像を更新する。   The density difference adding unit 105 updates the input image by adding the density difference D (x, y) to the pixel value T (x, y) of the pixel (x, y) in the input image.

階調数低減部106は、濃度差分加算部105により更新された入力画像(更新入力画像:N値)をM値の画像(変換画像)に変換する。濃度差分加算部105から出力される画素値は階調数Nであり、この画素値を画像処理装置の出力であるM値の画素値に低階調化する必要がある。本実施形態では、図3(a)に示す階調数256の入力画像を、図7に示すような入出力特性を用いて画素毎に3値(0、1、2)に変換する。すなわち、更新入力画像中の各画素を参照し、該参照した画素の画素値cが0≦c<64であれば、出力画素値として0を出力する。また、該参照した画素の画素値cが64≦c<192であれば、出力画素値として1を出力する。また、該参照した画素の画素値cが192≦c≦255であれば、出力画素値として2を出力する。このようにして、0≦x≦X−1、0≦y≦Y−1を満たす全てのx、yについて、0,1,2の何れか1つを出力することができ、結果として、256階調の更新入力画像を3階調の画像に変換することができる。   The gradation number reducing unit 106 converts the input image (updated input image: N value) updated by the density difference adding unit 105 into an M value image (converted image). The pixel value output from the density difference adding unit 105 is the number of gradations N, and it is necessary to reduce the gradation of this pixel value to the pixel value of M value that is the output of the image processing apparatus. In the present embodiment, an input image having 256 gradations shown in FIG. 3A is converted into ternary values (0, 1, 2) for each pixel using input / output characteristics as shown in FIG. That is, each pixel in the updated input image is referenced, and if the pixel value c of the referenced pixel is 0 ≦ c <64, 0 is output as the output pixel value. If the pixel value c of the referenced pixel is 64 ≦ c <192, 1 is output as the output pixel value. If the pixel value c of the referenced pixel is 192 ≦ c ≦ 255, 2 is output as the output pixel value. In this way, any one of 0, 1, and 2 can be output for all x and y that satisfy 0 ≦ x ≦ X−1 and 0 ≦ y ≦ Y−1. As a result, 256 An update input image of gradation can be converted into an image of three gradations.

画素選択部107は出力画像を構成する各画素の出力画素値を、階調数低減部106により階調数が低減された画像と、AMスクリーン処理部102により階調数が低減された画像と、の何れかから選択して出力する。この選択に、エッジ検出部101によるエッジ検出結果を用いる。即ち、入力画像中の画素(x、y)がエッジ画素であれば、階調数低減部106により階調数が低減された画像中の画素(x、y)の画素値を選択し、出力画像中の画素(x、y)の画素値として出力する。入力画像中の画素(x、y)が非エッジ画素であれば、AMスクリーン処理部102によるAMスクリーン処理済み画像中の画素(x、y)の画素値を選択し、出力画像中の画素(x、y)の画素値として出力する。   The pixel selection unit 107 sets the output pixel value of each pixel constituting the output image to an image in which the number of gradations is reduced by the gradation number reduction unit 106 and an image in which the number of gradations is reduced by the AM screen processing unit 102. Either of these is selected and output. For this selection, the edge detection result by the edge detection unit 101 is used. That is, if the pixel (x, y) in the input image is an edge pixel, the pixel value of the pixel (x, y) in the image with the number of gradations reduced by the gradation number reduction unit 106 is selected and output. The pixel value of the pixel (x, y) in the image is output. If the pixel (x, y) in the input image is a non-edge pixel, the pixel value of the pixel (x, y) in the AM screen processed image by the AM screen processing unit 102 is selected, and the pixel ( x, y) are output as pixel values.

入力画像中の画素(x、y)が非エッジ画素の場合にも、濃度差分が大きい可能性はある。しかしながら、平坦部ではAMスクリーンの周期構造が壊れると視認されやすい。さらに色毎のAMスクリーン処理済み画像を重ねてカラー画像にすると、色モアレ等の発生による画質劣化が懸念される。そのため、非エッジ画素の場合には、濃度差分に基づいて更新された画素値ではなく、AMスクリーン処理部102により得られた画素(x、y)の画素値を選択する。   Even when the pixel (x, y) in the input image is a non-edge pixel, the density difference may be large. However, when the AM screen has a broken periodic structure, it is easily visible on the flat part. Furthermore, when the AM screen processed images for each color are overlapped to form a color image, there is a concern about image quality deterioration due to occurrence of color moire or the like. Therefore, in the case of a non-edge pixel, the pixel value of the pixel (x, y) obtained by the AM screen processing unit 102 is selected instead of the pixel value updated based on the density difference.

また、入力画像中の画素(x、y)がエッジ画素の場合には、濃度差分に基づいて補正された入力画素値を選択することで、エッジにおけるジャギーを補正することができる。   Further, when the pixel (x, y) in the input image is an edge pixel, the jaggy at the edge can be corrected by selecting the input pixel value corrected based on the density difference.

仮に、図3(a)に示す入力画像に対してエッジ検出を行い、エッジ画素であれば入力画素値、非エッジ画素であればAMスクリーン処理済み画像における画素値を選択した場合は、図3(d)に示す出力画像が得られる。この図3(d)に示す出力画像は、エッジ画素には入力画素値が選択されるため、入力画像の解像性を維持している。また、非エッジ画素には、AMスクリーン処理済み画像における画素値が選択されるため、入力画像の階調性を維持している。しかしながら、例えば図3(d)中の領域Aで、入力画像と比較すると局所的に濃度が濃く見えすぎてしまう。また、図3(d)の領域Bでは、エッジ部の濃度が足りずに依然として階段状の形状が目立ってしまう。   If edge detection is performed on the input image shown in FIG. 3A and an input pixel value is selected for an edge pixel and a pixel value in an AM screen processed image is selected for a non-edge pixel, FIG. The output image shown in (d) is obtained. In the output image shown in FIG. 3D, since the input pixel value is selected as the edge pixel, the resolution of the input image is maintained. Further, since the pixel value in the AM screen processed image is selected for the non-edge pixel, the gradation of the input image is maintained. However, for example, in the area A in FIG. 3D, the density appears to be excessively high as compared with the input image. Further, in the region B in FIG. 3D, the density of the edge portion is insufficient and the stepped shape is still conspicuous.

係る点、本実施形態では、上記構成により、図3(e)に示すような出力画像を得ることができる。図3(e)に示す出力画像は、上記のような局所的な濃度変動が少ない。これは、モアレを発生させる濃度差分により画素値の補正を行っているためである。さらに、図3(e)に示す出力画像では、濃度差分を用いた補正をしながらも、スクリーン構造を保っている。エッジは、スクリーン構造が崩れても視認されにくい。一方平坦部では、スクリーン構造が崩れると目立ってしまう。そこで本実施形態では、エッジ画素に対してのみ濃度差分による補正を行った。このため、補正の結果、スクリーン構造が崩れて画質が劣化するのを抑制することができる。非エッジ部分(平坦部)のスクリーン角を乱すことがないため、各色に対応する出力画像を重ねたとしても色モアレが目立つこともない。   In this regard, in the present embodiment, an output image as shown in FIG. 3E can be obtained by the above configuration. The output image shown in FIG. 3E has little local density fluctuation as described above. This is because the pixel value is corrected by the density difference that causes moire. Further, in the output image shown in FIG. 3E, the screen structure is maintained while correction using the density difference is performed. The edge is difficult to see even if the screen structure collapses. On the other hand, in the flat part, it becomes noticeable when the screen structure is broken. Therefore, in the present embodiment, the correction based on the density difference is performed only on the edge pixel. For this reason, as a result of the correction, it is possible to suppress the deterioration of the image quality due to the collapse of the screen structure. Since the screen angle of the non-edge portion (flat portion) is not disturbed, color moiré does not stand out even if output images corresponding to the respective colors are superimposed.

以上のように、エッジ検出結果によってAMスクリーン処理結果と濃度差分に基づいて補正した結果とを切り替える。これにより、平坦部の階調性とエッジ部の解像性を維持し、ジャギーやモアレを低減したハーフトーン処理を実現することが可能である。また、濃度差分による補正をエッジ画素にのみ行うことによって、スクリーン構造の乱れが目立たない出力結果を得ることができる。   As described above, the AM screen processing result and the result corrected based on the density difference are switched according to the edge detection result. As a result, it is possible to realize halftone processing that maintains the gradation of the flat portion and the resolution of the edge portion and reduces jaggy and moire. Further, by performing correction based on the density difference only on the edge pixels, an output result in which the disturbance of the screen structure is not noticeable can be obtained.

なお、以上説明した構成は、以下に示す基本構成の一例に過ぎず、以下の基本構成に帰着する構成であれば、如何なる構成を採用しても構わない。即ち、基本構成の画像処理装置は、入力画像に対してスクリーン処理する画像処理装置である。   The configuration described above is merely an example of the basic configuration shown below, and any configuration may be adopted as long as the configuration results in the following basic configuration. That is, the basic configuration image processing apparatus is an image processing apparatus that performs screen processing on an input image.

このような画像処理装置では、入力画像に対してAMスクリーン処理を施してAMスクリーン処理済み画像を生成する。画素毎に、セルより大きい参照領域に含まれる各画素の量子化誤差を重み付き平均することにより、濃度差分を算出する。   In such an image processing apparatus, an AM screen process is performed on an input image to generate an AM screen processed image. For each pixel, the density difference is calculated by averaging the quantization error of each pixel included in the reference area larger than the cell.

そして、入力画像中の着目画素がエッジを構成する画素であれば、濃度差分に基づいて得られる画素値を選択する。一方、入力画像中の該着目画素が非エッジを構成する画素であれば、AMスクリーン処理済み画像中の画素値を選択する。そして、選択した画素値を、出力画像中の着目画素の画素値として出力する。   If the pixel of interest in the input image is a pixel constituting an edge, a pixel value obtained based on the density difference is selected. On the other hand, if the pixel of interest in the input image is a pixel constituting a non-edge, a pixel value in the AM screen processed image is selected. Then, the selected pixel value is output as the pixel value of the pixel of interest in the output image.

なお本実施形態では、AMスクリーン処理部102は3値化をおこない、AMスクリーン処理済み画像は0、1,2の画素値からなる画像データに変換された。そして、画素毎の量子化誤差を算出するために階調数復元部103は、AMスクリーン処理済み画像を入力画像にならって、0,1,2をそれぞれ0、128,255に変換した。しかしながら、AMスクリーン処理部102が入力画像を、量子化代表値である0,125、255に実質的に3値化するような構成でもよい。これにより階調数復元部103を省略することができる。   In this embodiment, the AM screen processing unit 102 performs ternarization, and the AM screen processed image is converted into image data composed of 0, 1, and 2 pixel values. Then, in order to calculate the quantization error for each pixel, the tone number restoration unit 103 converts 0, 1, and 2 into 0, 128, and 255, respectively, following the AM screen processed image as an input image. However, the AM screen processing unit 102 may be configured to substantially ternarize the input image into the quantization representative values 0, 125, and 255. Thereby, the gradation number restoration unit 103 can be omitted.

なお本実施形態では、演算により濃度差分D(x、y)を算出する例を示したが、フィルタ処理を行う構成でもよい。濃度差分を算出する参照領域に対して、各画素に重み係数が格納されたフィルタを用いる。入力画像と復元画像それぞれに対してフィルタ処理を行い、各フィルタ処理結果の差分を濃度成分として取得することができる。または、入力画像と復元画像との差分を画素毎に算出することで量子化誤差画像を出力し、量子化誤差画像に対してフィルタ処理を行うことでも同様の濃度差分を算出することができる。   In the present embodiment, an example in which the density difference D (x, y) is calculated by calculation is shown, but a configuration in which filter processing is performed may be used. A filter in which a weighting coefficient is stored in each pixel is used for the reference region for calculating the density difference. Filter processing is performed on each of the input image and the restored image, and the difference between the filter processing results can be acquired as a density component. Alternatively, the same density difference can be calculated by calculating a difference between the input image and the restored image for each pixel, outputting a quantization error image, and performing a filtering process on the quantization error image.

[第2の実施形態]
本実施形態に係る画像処理装置は、画像処理において第1の実施形態よりも簡略化した方法によって濃度差分を検出する。本実施形態に係る画像処理装置の機能構成例について、図8のブロック図を用いて説明する。なお、図8において、図1と同じ機能部には同じ参照番号を付している。また、以下では第1の実施形態との差分のみについて説明し、以下で特に触れない限りは第1の実施形態と同様であるとする。
[Second Embodiment]
The image processing apparatus according to the present embodiment detects a density difference by a method that is simpler than that of the first embodiment in image processing. A functional configuration example of the image processing apparatus according to the present embodiment will be described with reference to the block diagram of FIG. In FIG. 8, the same reference numerals are given to the same functional units as those in FIG. In the following description, only differences from the first embodiment will be described, and unless otherwise noted, the same as the first embodiment.

本実施形態に係る階調数低減部106は、N階調の入力画像をM階調の画像に変換する。本実施形態では、図3(a)に示す階調数256の入力画像を3階調の画像(3値の値(0、1、2)を画素値として有する画像)に変換する例を示す。図7に示すような入出力特性の通りに階調数変換を行うと、図3(a)に示す入力画像は図9(a)に示すような階調数低減処理結果としての画像を得ることができる。図9(a)に示す階調数低減処理結果は、図3(c)に示すAMスクリーン処理結果と同様に、出力画素値0、1、2の濃度を入力画素値0、128、255に対応する濃度としている。図9(a)に示す階調数低減処理結果は、画素単位で量子化を行っているため階調性を維持することができずに、グラデーション等を適切に表現することができなくなっている。しかしながら、入力画像の輪郭部分や文字などの高い解像性が必要な形状を忠実に表現できていることが分かる。このように階調数低減部106は、解像性の高い階調数低減処理であることが望ましい。例えば階調数低減部106は、本実施形態のAMスクリーン処理部102が施すAMスクリーンよりも高線数なAMスクリーン処理を用いても良い。   The gradation number reduction unit 106 according to the present embodiment converts an N gradation input image into an M gradation image. In the present embodiment, an example in which an input image having 256 gradations shown in FIG. 3A is converted into an image having three gradations (an image having ternary values (0, 1, 2) as pixel values) is shown. . When the tone number conversion is performed according to the input / output characteristics as shown in FIG. 7, the input image shown in FIG. 3A obtains an image as a result of the tone number reduction process as shown in FIG. 9A. be able to. The gradation number reduction process result shown in FIG. 9A is similar to the AM screen process result shown in FIG. 3C. The density of the output pixel values 0, 1 and 2 is changed to the input pixel values 0, 128 and 255. Corresponding concentration. In the gradation number reduction processing result shown in FIG. 9A, gradation is not maintained because gradation is performed in units of pixels, and gradation or the like cannot be appropriately expressed. . However, it can be seen that shapes that require high resolution, such as contour portions and characters of the input image, can be faithfully expressed. As described above, the gradation number reduction unit 106 is desirably a gradation number reduction process with high resolution. For example, the gradation number reduction unit 106 may use AM screen processing having a higher line number than the AM screen applied by the AM screen processing unit 102 of the present embodiment.

濃度差分検出部104は、AMスクリーン処理部102によるAMスクリーン処理済み画像と入力画像とから、着目画素の濃度差分を検出する。前述の通り、着目画素の濃度差分とは、着目画素を含む局所的な領域(参照領域)において、各画素の量子化誤差に基づいて算出される。なお本実施形態では、量子化誤差を算出するために、階調数低減部106が入力画像の階調数を低減し、AMスクリーン処理済み画像の階調値に合わせた。つまり、濃度差分検出部104は、階調数低減部106が出力した画像とAMスクリーン処理済み画像とに対して処理を行う。   The density difference detection unit 104 detects the density difference of the pixel of interest from the AM screen processed image by the AM screen processing unit 102 and the input image. As described above, the density difference of the target pixel is calculated based on the quantization error of each pixel in a local region (reference region) including the target pixel. In this embodiment, in order to calculate the quantization error, the gradation number reduction unit 106 reduces the gradation number of the input image and matches the gradation value of the AM screen processed image. That is, the density difference detection unit 104 performs processing on the image output from the gradation number reduction unit 106 and the AM screen processed image.

さらに本実施形態では、着目画素の濃度差分にエッジ画素の量子化誤差を含まない構成とする。図6(b)に示す範囲を、着目画素を含む局所的な領域とする。AMスクリーン処理済み画像について、参照領域に含まれる画素のうちエッジ検出部101により非エッジ画素と判定された画素の画素値を合計する。また階調数低減済画像についても同様に、参照領域に含まれる画素のうち非エッジ画素の画素値を合計する。そして、それぞれの合計された画素値の差分を、着目画素の濃度差分として出力する。   Furthermore, in the present embodiment, the density difference of the target pixel does not include the edge pixel quantization error. The range shown in FIG. 6B is a local region including the target pixel. For the AM screen processed image, the pixel values of the pixels determined as non-edge pixels by the edge detection unit 101 among the pixels included in the reference area are summed. Similarly, for the image with the reduced number of gradations, the pixel values of the non-edge pixels among the pixels included in the reference area are summed. Then, the difference between the summed pixel values is output as the density difference of the pixel of interest.

濃度差分加算部105は、階調数低減部106により階調数が低減された画像中の画素(x、y)の画素値に濃度差分D(x、y)を加算することで該画像を更新する。画素選択部107は出力画像を構成する各画素を、濃度差分加算部105によって更新された画像(更新画像)、AMスクリーン処理部102により階調数が低減された画像、の何れかから選択して出力する。この選択に、エッジ検出部101によるエッジ検出結果を用いる。即ち、入力画像中の画素(x、y)がエッジ画素であれば、濃度差分加算部105による更新画像中の画素(x、y)の画素値を選択し、該選択した画素値を出力画像中の画素(x、y)の画素値として出力する。入力画像中の画素(x、y)が非エッジ画素であれば、AMスクリーン処理部102により階調数が低減された画像中の画素(x、y)の画素値を選択し、該選択した画素値を出力画像中の画素(x、y)の画素値として出力する。   The density difference addition unit 105 adds the density difference D (x, y) to the pixel value of the pixel (x, y) in the image whose number of gradations has been reduced by the gradation number reduction unit 106, thereby adding the image. Update. The pixel selection unit 107 selects each pixel constituting the output image from either an image updated by the density difference addition unit 105 (updated image) or an image with the number of gradations reduced by the AM screen processing unit 102. Output. For this selection, the edge detection result by the edge detection unit 101 is used. That is, if the pixel (x, y) in the input image is an edge pixel, the pixel value of the pixel (x, y) in the updated image by the density difference adding unit 105 is selected, and the selected pixel value is output to the output image. The pixel value of the middle pixel (x, y) is output. If the pixel (x, y) in the input image is a non-edge pixel, the AM screen processing unit 102 selects the pixel value of the pixel (x, y) in the image whose number of gradations has been reduced, and the selected The pixel value is output as the pixel value of the pixel (x, y) in the output image.

入力画像中の画素(x、y)が非エッジ画素であっても濃度差分が検出される可能性はあるが、平坦部のスクリーン構造を壊さないように、このような場合は、AMスクリーン処理済み画像中の画素(x、y)の画素値を選択する。   Even if the pixel (x, y) in the input image is a non-edge pixel, there is a possibility that a density difference is detected, but in this case, AM screen processing is performed so as not to break the screen structure of the flat portion. The pixel value of the pixel (x, y) in the finished image is selected.

以上のような構成によって、図3(a)に示す入力画像に処理を施すと、図9(b)に示す画像を得ることができる。図9(b)に示す画像は、図3(c)に示すAMスクリーン処理済み画像と比較して、エッジ部のジャギーが低減された画像となっている。図3(e)に示す第1の実施形態による出力画像と比較すると、エッジ部は強調されたような画像となる。これは、濃度差分を検出する際の基準となる画素値として階調数低減処理の結果を用いているため、変換誤差が含まれるためである。一方で、画像がN値よりも階調数の少ないM値で内部演算を行うことができるので、演算コストを大幅に低減可能である。   With the above configuration, when the input image shown in FIG. 3A is processed, the image shown in FIG. 9B can be obtained. The image shown in FIG. 9B is an image in which the jaggies at the edge portions are reduced as compared with the AM screen processed image shown in FIG. Compared with the output image according to the first embodiment shown in FIG. 3 (e), the edge portion becomes an enhanced image. This is because a conversion error is included because the result of the gradation number reduction process is used as the pixel value that serves as a reference when detecting the density difference. On the other hand, since the internal calculation can be performed with an M value having a smaller number of gradations than the N value, the calculation cost can be greatly reduced.

[第3の実施形態]
本実施形態に係る画像処理装置は、第2の実施形態よりも更に簡略化した構成によって濃度差分を検出する。本実施形態に係る画像処理装置の機能構成例について、図10のブロック図を用いて説明する。なお、図10において、図1と同じ機能部には同じ参照番号を付している。また、以下では第2の実施形態との差分のみについて説明し、以下で特に触れない限りは第2の実施形態と同様であるとする。
[Third Embodiment]
The image processing apparatus according to the present embodiment detects the density difference with a configuration that is further simplified than in the second embodiment. A functional configuration example of the image processing apparatus according to the present embodiment will be described with reference to the block diagram of FIG. In FIG. 10, the same reference numerals are assigned to the same functional units as those in FIG. In the following description, only differences from the second embodiment will be described, and unless otherwise noted, the same as the second embodiment.

濃度差分検出部104は、AMスクリーン処理部102によるAMスクリーン処理済み画像と、濃度差分を検出する基準となる階調数低減部106により階調数が低減された画像と、の間で第1の実施形態と同様にして濃度差分を画素毎に計算する。即ち、各画素位置について、AMスクリーン処理済み画像中の参照領域内の合計画素値から階調数低減部106による階調数低減済み画像中の参照内の合計画素値を差し引いた残りを該画素位置に対する濃度差分として求める。   The density difference detection unit 104 is a first between an image that has been subjected to AM screen processing by the AM screen processing unit 102 and an image in which the number of gradations has been reduced by the gradation number reduction unit 106 that serves as a reference for detecting density differences. The density difference is calculated for each pixel as in the embodiment. That is, with respect to each pixel position, a remaining value obtained by subtracting the total pixel value in the reference in the image whose gradation number has been reduced by the gradation number reduction unit 106 from the total pixel value in the reference area in the AM screen processed image is the pixel. Obtained as the density difference with respect to the position.

本実施形態では、AMスクリーン処理部102によってN値の入力画素値がM値に変換されるのに合わせて、階調数低減部106によって入力画素値をM値に変換した値を、濃度差分を検出する基準となる画素値として用いることで演算コストを削減している。   In the present embodiment, the value obtained by converting the input pixel value into the M value by the gradation number reducing unit 106 is converted into the density difference in accordance with the conversion of the N input pixel value into the M value by the AM screen processing unit 102. The calculation cost is reduced by using the pixel value as a reference for detecting the.

濃度差分加算部105は、エッジ検出部101の検出結果により、濃度差分を入力画像中の画素(x、y)に加算するか否かを判断する。即ち、入力画像中の画素(x、y)がエッジ画素であれば、濃度差分加算部105は、AMスクリーン処理済み画像中の画素(x、y)の画素値に濃度差分D(x、y)を加算する。そして濃度差分加算部105は、AMスクリーン処理済み画像中の画素(x、y)の画素値に濃度差分D(x、y)を加算した画素値を、出力画像の画素位置(x、y)における画素値として出力する。一方、この判断の結果、入力画像中の画素(x、y)が非エッジ画素であれば、濃度差分加算部105は、AMスクリーン処理済み画像中の画素(x、y)の画素値を、出力画像の画素(x、y)の画素値として出力する。   The density difference addition unit 105 determines whether or not to add the density difference to the pixel (x, y) in the input image based on the detection result of the edge detection unit 101. That is, if the pixel (x, y) in the input image is an edge pixel, the density difference adding unit 105 converts the density difference D (x, y) to the pixel value of the pixel (x, y) in the AM screen processed image. ) Is added. The density difference adding unit 105 adds the pixel value obtained by adding the density difference D (x, y) to the pixel value of the pixel (x, y) in the AM screen processed image to the pixel position (x, y) of the output image. Is output as the pixel value at. On the other hand, as a result of this determination, if the pixel (x, y) in the input image is a non-edge pixel, the density difference adding unit 105 determines the pixel value of the pixel (x, y) in the AM screen processed image as The pixel value of the pixel (x, y) of the output image is output.

このような処理により、AMスクリーン処理部102の処理結果でエッジ部のジャギーにより発生している画素を、濃度差分を用いて補正することが可能となる。これによりジャギーを低減したAMスクリーン処理結果を得ることができる。また、平坦部のスクリーン構造を壊すことがないため、複数の色画像を重ね合わせた場合にも色モアレの発生のしにくい出力画像を出力することが可能である。   By such processing, it is possible to correct pixels generated due to jaggies at the edge portion in the processing result of the AM screen processing unit 102 using the density difference. As a result, an AM screen processing result with reduced jaggy can be obtained. Further, since the screen structure of the flat portion is not broken, it is possible to output an output image in which color moiré is unlikely to occur even when a plurality of color images are superimposed.

以上のような構成によって、図3(a)に示す入力画像を本画像処理装置に入力した場合に該画像処理装置から出力される出力画像を図11に示す。図11に示す出力画像は、図3(c)に示すAMスクリーン処理結果と比較してエッジ部のジャギーが低減されており、良好なエッジ部の表現ができている。一方で、線の途切れがあり文字が読みにくいなどの課題が残っているが、これは公知技術である文字領域の抽出などにより別の処理を行うことで改善可能である。   FIG. 11 shows an output image output from the image processing apparatus when the input image shown in FIG. 3A is input to the present image processing apparatus with the above configuration. In the output image shown in FIG. 11, the jaggy of the edge portion is reduced as compared with the AM screen processing result shown in FIG. On the other hand, problems such as line breaks and difficult character reading remain, but this can be improved by performing another process such as extraction of a character region, which is a known technique.

上記のように、本実施形態では、AMスクリーン処理結果のエッジ部にのみ濃度差分を加算することでジャギーを低減することが可能である。そのため、異なるAMスクリーン処理やより解像性の高いハーフトーン処理を切り替える必要なく、簡単な構成によってエッジ部を改善したハーフトーン処理結果を得ることができる。なお、上記のそれぞれの実施形態は部分的に適宜組み合わせて使用しても構わない。   As described above, in this embodiment, it is possible to reduce jaggy by adding the density difference only to the edge portion of the AM screen processing result. Therefore, it is possible to obtain a halftone processing result with an improved edge portion with a simple configuration without switching between different AM screen processing and halftone processing with higher resolution. In addition, you may use each said embodiment in combination suitably partially.

[第4の実施形態]
図1,8,10のそれぞれに示した各機能部はいずれもハードウェアで構成しても良いが、ソフトウェア(コンピュータプログラム)として実装しても良い。後者の場合、このようなコンピュータプログラムを実行可能な装置は第1乃至3の実施形態に係る画像処理装置として機能することになる。このようなコンピュータプログラムを実行可能な装置の一構成例を図12のブロック図を用いて説明する。
[Fourth Embodiment]
Each of the functional units shown in FIGS. 1, 8, and 10 may be configured by hardware, but may be implemented as software (computer program). In the latter case, an apparatus capable of executing such a computer program functions as the image processing apparatus according to the first to third embodiments. An example of the configuration of an apparatus capable of executing such a computer program will be described with reference to the block diagram of FIG.

CPU1201は、RAM1202やROM1203に格納されているコンピュータプログラムやデータを用いて処理を実行することで、本装置全体の動作制御を行うと共に、第1乃至3の実施形態に係る画像処理装置が行うものとして上述した処理を実行する。   The CPU 1201 executes operations using computer programs and data stored in the RAM 1202 and the ROM 1203, thereby controlling the operation of the entire apparatus and the image processing apparatus according to the first to third embodiments. The above-described processing is executed.

RAM1202は、外部記憶装置1206からロードされたコンピュータプログラムやデータ、I/F(インターフェース)1207を介して外部から受信したデータを一時的に記憶するためのエリアを有する。また、CPU1201が各種の処理を実行する際に用いるワークエリアも有する。すなわちRAM1202は、各種のエリアを適宜提供することができる。   The RAM 1202 has an area for temporarily storing computer programs and data loaded from the external storage device 1206 and data received from the outside via an I / F (interface) 1207. The CPU 1201 also has a work area used when executing various processes. That is, the RAM 1202 can provide various areas as appropriate.

ROM1203には、本装置の設定データやブートプログラムなどが格納されている。操作部1204はキーボードやマウスなどにより構成されており、本装置の操作者が操作することで各種の指示をCPU1201に対して入力することができる。表示部1205はCRTや液晶画面などにより構成されており、CPU1201による処理結果を画像や文字などでもって表示することができる。   The ROM 1203 stores setting data and a boot program for the apparatus. The operation unit 1204 includes a keyboard, a mouse, and the like, and various instructions can be input to the CPU 1201 by an operator of the apparatus. The display unit 1205 is configured by a CRT, a liquid crystal screen, or the like, and can display the processing result by the CPU 1201 using images, characters, or the like.

外部記憶装置1206はハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置1206には、OS(オペレーティングシステム)や、図1,8,10に示した各機能部の機能をCPU1201に実行させるためのコンピュータプログラムやデータ、上記の処理において既知の情報として取り扱った情報、などが保存されている。また、上記の各処理によって生成されるデータを保存することもできる。外部記憶装置1206に保存されているコンピュータプログラムやデータは、CPU1201による制御に従って適宜RAM1202にロードされ、CPU1201による処理対象となる。   The external storage device 1206 is a large-capacity information storage device represented by a hard disk drive device. The external storage device 1206 is handled as an OS (Operating System), computer programs and data for causing the CPU 1201 to execute the functions of the functional units shown in FIGS. 1, 8, and 10, and known information in the above processing. Information, etc. are stored. In addition, data generated by each of the above processes can be stored. Computer programs and data stored in the external storage device 1206 are appropriately loaded into the RAM 1202 under the control of the CPU 1201 and are processed by the CPU 1201.

I/F1207は外部機器やインターネットに本装置を接続するためのインターフェースとして機能するものである。例えば、上記のN階調の入力画像をこのI/F1207を介して本装置に入力しても良いし、本装置の最終的な出力である出力画像をこのI/F1207を介して外部に対して送信しても良い。   The I / F 1207 functions as an interface for connecting this apparatus to an external device or the Internet. For example, the input image of the N gradations may be input to the apparatus via the I / F 1207, or the output image that is the final output of the apparatus is externally output via the I / F 1207. May be sent.

上記の各部はいずれも、バス1208に接続されている。なお、図1,8,10に示した各機能部の機能を実行させるためのコンピュータプログラムを実行可能な装置の構成は図12に示した構成に限るものではない。   Each of the above parts is connected to the bus 1208. The configuration of the apparatus that can execute the computer program for executing the functions of the functional units shown in FIGS. 1, 8, and 10 is not limited to the configuration shown in FIG.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, etc.) of the system or apparatus reads the program. It is a process to be executed.

Claims (11)

入力画像に対してスクリーン処理する画像処理装置であって、
前記入力画像においてエッジを構成する画素を検出する検出手段と、
前記入力画像に対してAMスクリーン処理を施してAMスクリーン処理済み画像を生成するスクリーン処理手段と、
前記入力画像において着目画素が前記検出手段によりエッジを構成する画素として検出された画素であれば、前記着目画素を含む領域における前記入力画像と前記AMスクリーン処理済み画像との濃度差分に基づいた値を出力し、前記着目画素が前記検出手段によりエッジを構成する画素として検出されなかった画素であれば、前記AMスクリーン処理済み画像における前記着目画素の画素値を出力する出力手段と
を有することを特徴とする画像処理装置。
An image processing apparatus that performs screen processing on an input image,
Detecting means for detecting pixels constituting an edge in the input image;
Screen processing means for performing AM screen processing on the input image to generate an AM screen processed image;
If the pixel of interest in the input image is a pixel detected as a pixel constituting an edge by the detection means, a value based on the density difference between the input image and the AM screen processed image in the region including the pixel of interest And output means for outputting the pixel value of the target pixel in the AM screen processed image if the target pixel is not detected as a pixel constituting an edge by the detection means. A featured image processing apparatus.
前記濃度差分は、前記領域に含まれる画素における量子化誤差を重み付け平均することにより得られた値であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the density difference is a value obtained by weighted averaging of quantization errors in pixels included in the region. 前記出力手段は、
前記入力画像中の前記領域に含まれる画素の合計画素値と、前記AMスクリーン処理済み画像中の前記領域に含まれる画素の合計画素値と、の差分に基づいて前記濃度差分を求めることを特徴とする請求項2に記載の画像処理装置。
The output means includes
The density difference is obtained based on a difference between a total pixel value of pixels included in the area in the input image and a total pixel value of pixels included in the area in the AM screen processed image. The image processing apparatus according to claim 2.
前記出力手段は、
前記エッジを構成する画素について、前記濃度差分を用いて、前記入力画像中における前記着目画素の画素値を補正した値を出力する
ことを特徴とする請求項1乃至3の何れか一項に記載の画像処理装置。
The output means includes
The value which corrected the pixel value of the said pixel of interest in the said input image about the pixel which comprises the said edge using the said density | concentration difference is output. Image processing apparatus.
前記出力手段は、
前記エッジを構成する画素について、前記濃度差分を用いて、前記AMスクリーン処理済み画像における前記着目画素の画素値を補正した値を出力することを特徴とする請求項1乃至4の何れか一項に記載の画像処理装置。
The output means includes
5. A value obtained by correcting the pixel value of the pixel of interest in the AM screen processed image is output using the density difference for the pixels constituting the edge. An image processing apparatus according to 1.
前記出力手段は、
前記領域に含まれる画素のうち、前記検出手段によりエッジを構成する画素として検出された画素の量子化誤差を含まないように前記濃度差分を算出することを特徴とする請求項2乃至4の何れか一項に記載の画像処理装置。
The output means includes
5. The density difference is calculated so as not to include a quantization error of a pixel detected as a pixel constituting an edge by the detection unit among pixels included in the region. An image processing apparatus according to claim 1.
前記出力手段は、
前記AMスクリーン処理済み画像をN値の画像に変換することで復元画像を生成する復元手段を有し、
前記復元画像と前記入力画像とに基づいて、前記濃度差分を算出することを特徴とする請求項3に記載の画像処理装置。
The output means includes
Restoring means for generating a restored image by converting the AM screen processed image into an N-value image;
The image processing apparatus according to claim 3, wherein the density difference is calculated based on the restored image and the input image.
前記出力手段は、
前記入力画像をM値の画像に変換することで変換画像を生成する変換手段を有し、
前記変換画像と前記AMスクリーン処理済み画像とに基づいて、前記濃度差分を算出することを特徴とする請求項3に記載の画像処理装置。
The output means includes
Conversion means for generating a converted image by converting the input image into an M-value image;
The image processing apparatus according to claim 3, wherein the density difference is calculated based on the converted image and the AM screen processed image.
さらに、前記出力手段が出力した画像に対して低階調化を行う低階調化手段を有することを特徴とする請求項1乃至6の何れか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a gradation reduction unit that performs gradation reduction on the image output by the output unit. 入力画像に対してスクリーン処理する画像処理装置が行う画像処理方法であって、
前記画像処理装置の検出手段が、前記入力画像においてエッジを構成する画素を検出する検出工程と、
前記画像処理装置のスクリーン処理手段が、前記入力画像に対してAMスクリーン処理を施してAMスクリーン処理済み画像を生成するスクリーン処理工程と、
前記画像処理装置の出力手段が、前記入力画像において着目画素が前記検出工程でエッジを構成する画素として検出された画素であれば、前記着目画素を含む領域における前記入力画像と前記AMスクリーン処理済み画像との濃度差分に基づいた値を出力し、前記着目画素が前記検出工程でエッジを構成する画素として検出されなかった画素であれば、前記AMスクリーン処理済み画像における前記着目画素の画素値を出力する出力工程と
を有することを特徴とする画像処理方法。
An image processing method performed by an image processing apparatus that performs screen processing on an input image,
A detection step in which the detection means of the image processing device detects pixels constituting an edge in the input image;
A screen processing step in which the screen processing means of the image processing device performs AM screen processing on the input image to generate an AM screen processed image;
If the output means of the image processing device is a pixel in which the pixel of interest is detected as a pixel constituting an edge in the detection step in the input image, the input image and the AM screen processed in the region including the pixel of interest If the pixel of interest outputs a value based on the density difference from the image and the pixel of interest is not detected as a pixel constituting an edge in the detection step, the pixel value of the pixel of interest in the AM screen processed image is An image processing method comprising: an output step for outputting.
コンピュータを、請求項1乃至9の何れか1項に記載の画像処理装置の各手段として機能させるためのコンピュータプログラム。   The computer program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 9.
JP2013098893A 2013-05-08 2013-05-08 Image processing apparatus and image processing method Active JP6190152B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013098893A JP6190152B2 (en) 2013-05-08 2013-05-08 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013098893A JP6190152B2 (en) 2013-05-08 2013-05-08 Image processing apparatus and image processing method

Publications (3)

Publication Number Publication Date
JP2014220664A true JP2014220664A (en) 2014-11-20
JP2014220664A5 JP2014220664A5 (en) 2016-06-23
JP6190152B2 JP6190152B2 (en) 2017-08-30

Family

ID=51938751

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013098893A Active JP6190152B2 (en) 2013-05-08 2013-05-08 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP6190152B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10205850B2 (en) 2016-09-22 2019-02-12 Brother Kogyo Kabushiki Kaisha Image processor and storage medium storing program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287474A (en) * 2005-03-31 2006-10-19 Kyocera Mita Corp Image processor and image processing program
JP2011120027A (en) * 2009-12-03 2011-06-16 Canon Inc Image processor and processing method
JP2011155632A (en) * 2009-12-28 2011-08-11 Canon Inc Image processing apparatus, image processing method, and computer program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006287474A (en) * 2005-03-31 2006-10-19 Kyocera Mita Corp Image processor and image processing program
JP2011120027A (en) * 2009-12-03 2011-06-16 Canon Inc Image processor and processing method
JP2011155632A (en) * 2009-12-28 2011-08-11 Canon Inc Image processing apparatus, image processing method, and computer program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10205850B2 (en) 2016-09-22 2019-02-12 Brother Kogyo Kabushiki Kaisha Image processor and storage medium storing program

Also Published As

Publication number Publication date
JP6190152B2 (en) 2017-08-30

Similar Documents

Publication Publication Date Title
JP4492704B2 (en) Edge enhancement processing device, output device, edge enhancement processing method, and computer-readable recording medium
JP5874721B2 (en) Image processing apparatus, image correction method, and program
US11233921B2 (en) Image processing apparatus that specifies edge pixel in target image using single-component image data
JP4498233B2 (en) Image processing apparatus and image processing method
US9967429B2 (en) Image processing apparatus, image processing method, and storage medium
JP4779987B2 (en) Image processing apparatus and image processing method
US8619330B2 (en) Image processing apparatus and image processing method
JP6613115B2 (en) Image processing apparatus, image processing method, and program
JP5863001B2 (en) Image processing apparatus, image forming apparatus, and program
JP2009253805A (en) Image processing apparatus
US10529058B2 (en) Image processing apparatus that smooths image using classification result of pixels included therein
WO2017098832A1 (en) Image processing apparatus and program
JP6190152B2 (en) Image processing apparatus and image processing method
JP6736299B2 (en) Printing device, printing method, and program
US20180253828A1 (en) Image processing apparatus that specifies edge pixel in target image by calculating edge strength
US10404892B2 (en) Image forming apparatus for outputting a halftone image and image forming method
JP4161141B2 (en) Edge enhancement processing apparatus, edge enhancement processing method, and computer-readable recording medium recording an edge enhancement processing program
US10389909B2 (en) Image processing apparatus that specifies edge pixel in target image using minimum and maximum component values of pixel value in target image data
JP4067538B2 (en) Image processing method, image processing apparatus, image forming apparatus, computer program, and recording medium
JP7250508B2 (en) Image processing device, image processing method, and program
JP7066562B2 (en) Image processing equipment, image processing methods and programs
JP2019121870A (en) Image processing apparatus, control method of the same, and program
JP2013242817A (en) Image processing device and method of the same
JP6651776B2 (en) Image processing apparatus, image processing method, and program
JP2021197708A (en) Image processing apparatus, image processing method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160502

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170804

R151 Written notification of patent or utility model registration

Ref document number: 6190152

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151