JP2016123070A - Image processing apparatus, image processing method, and program - Google Patents

Image processing apparatus, image processing method, and program Download PDF

Info

Publication number
JP2016123070A
JP2016123070A JP2015198477A JP2015198477A JP2016123070A JP 2016123070 A JP2016123070 A JP 2016123070A JP 2015198477 A JP2015198477 A JP 2015198477A JP 2015198477 A JP2015198477 A JP 2015198477A JP 2016123070 A JP2016123070 A JP 2016123070A
Authority
JP
Japan
Prior art keywords
image
image data
unit
pixel
pixel value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015198477A
Other languages
Japanese (ja)
Other versions
JP6651776B2 (en
Inventor
宮城 徳子
Noriko Miyagi
徳子 宮城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to US14/963,310 priority Critical patent/US9681022B2/en
Priority to EP15199088.4A priority patent/EP3038338B1/en
Publication of JP2016123070A publication Critical patent/JP2016123070A/en
Application granted granted Critical
Publication of JP6651776B2 publication Critical patent/JP6651776B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an apparatus performing correction of the position and deformation of a multi-value image, and prevent the occurrence of white void around characters and line drawings to output high-quality images even when a background is other than white.SOLUTION: There is provided an image processing apparatus performing geometric correction to input image data, the image processing apparatus comprising: geometric correction means that creates a plurality of pieces of pixel value correction image data having different pixel values from each other on the basis of object information on the image data; composition means that selects, from the plurality of pieces of pixel value correction image data created by the geometric correction means, a pixel value to be applied for each of pixels to create correction image composition data; and pseudo gradation processing means that performs pseudo gradation processing on the correction image composition data created by the composition means.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理装置、画像処理方法、及び、プログラムに関する。   The present invention relates to an image processing apparatus, an image processing method, and a program.

電子写真方式の画像形成装置では、レジストずれやスキューずれ、表裏に印刷可能な装置では表裏ずれが発生する。そこで、ずれ量を測定して、それを相殺するように画像の位置補正や変形補正を行う補正技術が既に知られている。このような補正技術の例として、平行移動、倍率補正、歪み補正、色間ずれ補正、表裏ずれ補正等が知られている。   In an electrophotographic image forming apparatus, registration deviation or skew deviation occurs, and in an apparatus capable of printing on both sides, front and back deviations occur. Therefore, a correction technique for measuring the amount of deviation and correcting the position or deformation of an image so as to cancel it is already known. As examples of such correction techniques, parallel movement, magnification correction, distortion correction, inter-color shift correction, front / back shift correction, and the like are known.

上記のような補正技術には、擬似階調処理前の多値画像に対して補正を行うものと、例えば特許文献1に記載された擬似階調処理後の少値画像に対して補正を行うものが知られている。そして、一般的には、多値画像に対して補正を行う処理が、少値画像に対して補正を行う処理より、本質的に画質異常が発生しにくく、比較的自由な画像変形が行えることが知られている。   In the correction technique as described above, correction is performed on a multi-value image before pseudo gradation processing, and correction is performed on a small-value image after pseudo gradation processing described in Patent Document 1, for example. Things are known. In general, a process for correcting a multi-valued image is inherently less likely to cause an image quality abnormality than a process for correcting a low-valued image, and relatively free image deformation can be performed. It has been known.

多値画像に対する補正処理を行う具体例として、例えば特許文献1には、画像のスキューに起因する色版の重ね合わせずれを抑えつつ、細線画像の太りを抑え、かつ、画像の部分抜けの発生を抑える目的で、画像を構成する画素の一部を、スキューずれ等のずれ量に基づいて画素内に存在する画像箇所の面積に応じた多値の中間調の画素に変換し、書込用マトリクス(所謂ディザ閾値マトリクス)を適用して書込用画素に変換する際に、書込用マトリクス内分布を周辺画素の階調に基づいて決定する技術が開示されている。   As a specific example of performing a correction process on a multi-value image, for example, Japanese Patent Laid-Open No. 2004-228561 discloses that the color plate overlay shift due to image skew is suppressed, the thin line image is suppressed from being thickened, and the partial omission of the image is generated. For the purpose of suppressing the image, a part of the pixels constituting the image is converted into a multi-value halftone pixel corresponding to the area of the image location existing in the pixel based on the amount of deviation such as skew deviation, and for writing There has been disclosed a technique for determining a distribution in a writing matrix based on gradations of peripheral pixels when converting to writing pixels by applying a matrix (a so-called dither threshold matrix).

しかし、従来の多値画像に対して画像の位置補正や変形補正を行う装置では、背景が白地以外の場合に、文字や線画の周囲で白抜けが発生して画像劣化になるという問題が発生する。   However, with conventional devices that perform image position correction or deformation correction on multi-valued images, when the background is other than a white background, white spots occur around characters and line drawings, resulting in image degradation. To do.

本発明は、このような実情に鑑みてなされたものであって、多値画像に対して画像の位置補正や変形補正を行う装置において、背景が白地以外の場合であっても、文字や線画の周囲で白抜けの発生するのを防止することを目的とする。   The present invention has been made in view of such circumstances, and in an apparatus that performs image position correction and deformation correction on a multi-valued image, even if the background is other than a white background, characters and line drawings are provided. The purpose of this is to prevent white spots from occurring in the surrounding area.

上述した目的を達成するため、本発明の画像処理装置は、入力された画像データに対して幾何補正を行う画像処理装置であって、その画像データのオブジェクト情報に基づいて画素値が異なる複数の画素値補正画像データを生成する幾何補正手段と、幾何補正手段によって生成された複数の画素値補正画像データから、画素ごとに適用する画素値を選択して補正画像合成データを生成する合成手段と、合成手段により生成された補正画像合成データに対して疑似階調処理を施す疑似階調処理手段と、を備えることを特徴とする。   In order to achieve the above-described object, an image processing apparatus of the present invention is an image processing apparatus that performs geometric correction on input image data, and a plurality of pixel values having different pixel values based on object information of the image data. Geometric correction means for generating pixel value corrected image data, and synthesis means for generating corrected image composite data by selecting a pixel value to be applied to each pixel from a plurality of pixel value corrected image data generated by the geometric correction means And pseudo gradation processing means for performing pseudo gradation processing on the corrected image composition data generated by the composition means.

本発明によれば、多値画像に対して画像の位置補正や変形補正を行う装置において、背景が白地以外の場合であっても、文字や線画の周囲で白抜けが発生するのを防止することが可能となる。   According to the present invention, in an apparatus that performs image position correction and deformation correction on a multi-valued image, white spots are prevented from occurring around characters and line drawings even when the background is other than a white background. It becomes possible.

本発明の実施形態における画像処理装置のハードウェア構成図である。It is a hardware block diagram of the image processing apparatus in embodiment of this invention. 本発明の第1実施形態における画像処理装置の全体構成図である。1 is an overall configuration diagram of an image processing apparatus according to a first embodiment of the present invention. 本発明の第1実施形態におけるオブジェクト情報の一例を示す模式図である。It is a schematic diagram which shows an example of the object information in 1st Embodiment of this invention. 本発明の第1実施形態における画像歪みに対する幾何補正の一例について説明する模式図である。It is a schematic diagram explaining an example of the geometric correction with respect to the image distortion in 1st Embodiment of this invention. 本発明の第1実施形態における幾何補正部の構成図である。It is a block diagram of the geometric correction | amendment part in 1st Embodiment of this invention. 本発明の第1実施形態における対応座標点算出部を説明する模式図である。It is a schematic diagram explaining the corresponding coordinate point calculation part in 1st Embodiment of this invention. 本発明の第1実施形態における補間演算部を説明する模式図である。It is a schematic diagram explaining the interpolation calculating part in 1st Embodiment of this invention. 本発明の第1実施形態における前景・背景二値化部の概略構成図である。It is a schematic block diagram of the foreground / background binarization unit in the first embodiment of the present invention. 本発明の第1実施形態における合成部について説明する模式図である。It is a schematic diagram explaining the synthetic | combination part in 1st Embodiment of this invention. 本発明の第1実施形態におけるドット寄せ部の概略構成図である。It is a schematic block diagram of the dot approach part in 1st Embodiment of this invention. 本発明の第1実施形態における第1の判定部および第2の判定部について説明する模式図である。It is a schematic diagram explaining the 1st determination part and 2nd determination part in 1st Embodiment of this invention. 本発明の第1実施形態における閾値決定部について説明する模式図である。It is a schematic diagram explaining the threshold value determination part in 1st Embodiment of this invention. 本発明の第1実施形態における幾何補正処理手順を示すフローチャートである。It is a flowchart which shows the geometric correction process sequence in 1st Embodiment of this invention. 本発明の第1実施形態における幾何補正結果の具体例を示す模式図である。It is a schematic diagram which shows the specific example of the geometric correction result in 1st Embodiment of this invention. 本発明の第1実施形態における幾何補正部で生成される画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image produced | generated by the geometric correction part in 1st Embodiment of this invention. 本発明の第1実施形態における前景・背景二値化処理手順を示すフローチャートである。It is a flowchart which shows the foreground / background binarization processing procedure in 1st Embodiment of this invention. 本発明の第1実施形態におけるドット寄せ部による出力結果の一例を示す模式図である。It is a schematic diagram which shows an example of the output result by the dot approach part in 1st Embodiment of this invention. 本発明の第1実施形態における処理画像例を示す模式図である。It is a schematic diagram which shows the example of a process image in 1st Embodiment of this invention. 本発明の第2実施形態における画像処理装置の全体構成図である。It is a whole block diagram of the image processing apparatus in 2nd Embodiment of this invention. 本発明の第2実施形態におけるオブジェクト情報の一例を示す模式図である。It is a schematic diagram which shows an example of the object information in 2nd Embodiment of this invention. 本発明の第2実施形態における幾何補正部の構成図である。It is a block diagram of the geometric correction | amendment part in 2nd Embodiment of this invention. 本発明の第2実施形態における幾何補正部で生成される画像の一例を示す模式図である。It is a schematic diagram which shows an example of the image produced | generated by the geometric correction part in 2nd Embodiment of this invention. 本発明の第2実施形態における前景・背景二値化部の概略構成図である。It is a schematic block diagram of the foreground / background binarization part in 2nd Embodiment of this invention. 本発明の第2実施形態におけるドット寄せ部による出力結果の一例を示す模式図である。It is a schematic diagram which shows an example of the output result by the dot approach part in 2nd Embodiment of this invention. 本発明の第2実施形態におけるパラメータ選択部にて選択するオブジェクト境界用のパラメータを説明する図である。It is a figure explaining the parameter for the object boundary selected in the parameter selection part in 2nd Embodiment of this invention. 図25におけるスクリーンパラメータ決定方法を示す模式図である。It is a schematic diagram which shows the screen parameter determination method in FIG. 本発明の第2実施形態におけるパラメータ選択部にて選択する非オブジェクト境界用のパラメータを説明する図である。It is a figure explaining the parameter for non-object boundaries selected by the parameter selection part in 2nd Embodiment of this invention. 図27におけるスクリーンパラメータ決定方法を示す模式図である。It is a schematic diagram which shows the screen parameter determination method in FIG. 本発明の第2実施形態における処理画像例を示す模式図である。It is a schematic diagram which shows the example of a process image in 2nd Embodiment of this invention. 従来の処理画像例を示す模式図である。It is a schematic diagram which shows the example of the conventional process image.

本発明の実施形態の画像処理装置に関し以下図面を用いて説明するが、本発明の趣旨を越えない限り、何ら本実施形態に限定されるものではない。なお、各図中、同一又は相当する部分には同一の符号を付しており、その重複説明は適宜に簡略化乃至省略する。なお、本実施形態における画像処理装置は、例えば複合機、プリンタ、FAX等の画像形成機能を有する画像形成装置に適用されるものであってよい。   An image processing apparatus according to an embodiment of the present invention will be described below with reference to the drawings. However, the present invention is not limited to the present embodiment as long as the gist of the present invention is not exceeded. In addition, in each figure, the same code | symbol is attached | subjected to the part which is the same or it corresponds, The duplication description is simplified thru | or abbreviate | omitted suitably. Note that the image processing apparatus according to the present embodiment may be applied to an image forming apparatus having an image forming function such as a multifunction peripheral, a printer, or a FAX.

本実施形態における画像処理装置のハードウェア構成について図1を参照して説明する。本実施形態における画像処理装置は、画像処理に必要な情報処理機能を担う基本的なハードウェアとして、CPU100、RAM101、ROM102、NW I/F103、HDD104、入力部105、出力部106、画像形成部107を備えている。   A hardware configuration of the image processing apparatus according to the present embodiment will be described with reference to FIG. The image processing apparatus according to the present embodiment includes a CPU 100, a RAM 101, a ROM 102, an NW I / F 103, an HDD 104, an input unit 105, an output unit 106, and an image forming unit as basic hardware that performs an information processing function necessary for image processing. 107.

CPU100は、画像処理装置における後述する各種処理を実現する処理部である。CPU100は、ROM102に格納された各処理プログラムをRAM101に読み出して、これを実行することにより各種処理を実現する。   The CPU 100 is a processing unit that implements various processes to be described later in the image processing apparatus. The CPU 100 implements various processes by reading each processing program stored in the ROM 102 into the RAM 101 and executing it.

RAM101は、上記のようにCPU100のワークメモリとして機能する。また、RAM101はこの後実施形態で説明するラインメモリとしての役割も担う。ROM102は、上記のように、各処理プログラムや画像処理装置の処理に必要な各種パラメータ等を格納する記憶部である。   The RAM 101 functions as a work memory for the CPU 100 as described above. The RAM 101 also serves as a line memory described later in the embodiment. As described above, the ROM 102 is a storage unit that stores various processing programs and various parameters necessary for processing of the image processing apparatus.

NW I/F103は、画僧処理装置と外部装置又は外部ネットワーク等と接続するためのネットワークインタフェースである。なお、通信形態としては例えばLANやWAN、あるいはNFC等の近距離無線通信も適用でき、無線か有線かを問わない。   The NW I / F 103 is a network interface for connecting the image processing apparatus to an external apparatus or an external network. As a communication form, for example, short-range wireless communication such as LAN, WAN, or NFC can be applied, regardless of whether it is wireless or wired.

HDD104は、例えば画像等を保存するための記憶部であり、入力部105から入力された入力画像等を保存する。   The HDD 104 is a storage unit for storing an image or the like, for example, and stores an input image or the like input from the input unit 105.

入力部105は画像形成部107が形成するための画像の元データ等を入力するハードウェアであり、例えばスキャナ等に相当する。出力部106は画像を表示する表示部であったり、画像形成部107で画像が形成された用紙を排出する用紙排出部等を含む。画像形成部107は、上記の元データ等に基づいて画像を形成するエンジン部である。   The input unit 105 is hardware for inputting original data of an image to be formed by the image forming unit 107, and corresponds to, for example, a scanner. The output unit 106 includes a display unit that displays an image, a paper discharge unit that discharges the paper on which the image is formed by the image forming unit 107, and the like. The image forming unit 107 is an engine unit that forms an image based on the original data and the like.

[第1実施形態]
本発明の第1実施形態における画像処理装置は、概略的には幾何補正後の画素値を、周囲4点の整数値座標のオブジェクト情報に基づく値から算出し、算出した補正後の画素値を二値化するというものである。そして、本実施形態においては、二値化したデータの一方を前景、他方を背景と分類し、それぞれに応じた画素値を選択することで、前景と背景の境界部で中間濃度画素が発生することを防ぎ、疑似階調処理後の白抜けを防止する。
[First Embodiment]
The image processing apparatus according to the first embodiment of the present invention generally calculates a pixel value after geometric correction from a value based on object information of integer value coordinates of four surrounding points, and calculates the corrected pixel value. It is to binarize. In the present embodiment, one of the binarized data is classified as the foreground and the other is classified as the background, and the pixel value corresponding to each is selected to generate an intermediate density pixel at the boundary between the foreground and the background. This prevents white spots after pseudo gradation processing.

第1実施形態における画像処理装置の全体構成について図2を参照して説明する。本実施形態の画像処理装置は、入力画像取得部1と、レンダリング部2と、ずれ量取得部3と、幾何補正パラメータ設定部4と、幾何補正部5と、前景・背景二値化部6と、擬似階調処理部7と、プリンタ出力部8を備える。   The overall configuration of the image processing apparatus according to the first embodiment will be described with reference to FIG. The image processing apparatus according to the present embodiment includes an input image acquisition unit 1, a rendering unit 2, a deviation amount acquisition unit 3, a geometric correction parameter setting unit 4, a geometric correction unit 5, and a foreground / background binarization unit 6. A pseudo gradation processing unit 7 and a printer output unit 8.

入力画像取得部1は、ページ記述言語で記載された入力画像を取得する。   The input image acquisition unit 1 acquires an input image described in a page description language.

レンダリング部2は、入力画像取得部1が取得したページ記述言語を解釈して、各色8bitの階調値をもつビットマップ画像に変換する。そのとき、入力画像に含まれている文字・ライン・グラフィック・イメージ等のオブジェクト情報も解釈して、画素ごとに付与する。   The rendering unit 2 interprets the page description language acquired by the input image acquisition unit 1 and converts it into a bitmap image having a gradation value of 8 bits for each color. At that time, object information such as characters, lines, graphics, and images included in the input image is also interpreted and given to each pixel.

ずれ量取得部3は、四隅の座標点が幾何補正なしでプリンタ出力するとどう変化するか、つまり、どれくらいずれるか、を計測して取得する。ここでは表面に対する裏面のずれ量を計測して取得し、補正する例について説明する。表裏のずれ量取得は、表面と裏面の四隅にトンボを印字し、それぞれの座標点を計測する。この計測には、装置内蔵型のセンサで自動計測する方法や、記録媒体に印字したものを定規で手動計測し、その結果を入力する方法を用いることが好ましい。   The deviation amount acquisition unit 3 measures and acquires how the coordinate points of the four corners change when the printer outputs without geometric correction, that is, how much. Here, an example will be described in which the amount of deviation of the back surface relative to the front surface is measured and acquired and corrected. To obtain the amount of deviation between the front and back, register marks are printed at the four corners of the front and back surfaces, and the respective coordinate points are measured. For this measurement, it is preferable to use a method of automatic measurement with a built-in sensor, or a method of manually measuring what is printed on a recording medium with a ruler and inputting the result.

幾何補正パラメータ設定部4は、ずれ量取得部3で取得した表裏各4点の座標点から、幾何補正パラメータとして、mat[0]〜mat[7]を算出する。   The geometric correction parameter setting unit 4 calculates mat [0] to mat [7] as geometric correction parameters from the four coordinate points of the front and back acquired by the deviation amount acquisition unit 3.

幾何補正部5は、入力された画像データのオブジェクト情報に基づいて画素値が異なる複数の画素値補正画像データを生成する幾何補正手段である。複数の画素値補正画像データとして生成される補正データとしては、例えば複数の画素値をもつ多値補正画像データであることが好ましい。   The geometric correction unit 5 is a geometric correction unit that generates a plurality of pixel value corrected image data having different pixel values based on the object information of the input image data. The correction data generated as the plurality of pixel value correction image data is preferably multi-value correction image data having a plurality of pixel values, for example.

さらに、幾何補正部5は、画像データのオブジェクト情報に基づいて、オブジェクト情報が異なる複数のオブジェクト補正画像データを生成することとしてもよい。そして、幾何補正部5は、入力された画像データの座標点に対応して算出された座標点に所定の補正量が付加された座標点の画素値を算出することが好ましい。また、幾何補正部5は、画像データのオブジェクト情報の座標点に所定の補正量が付加された座標点の画素値を算出することが好ましい。   Furthermore, the geometric correction unit 5 may generate a plurality of object corrected image data having different object information based on the object information of the image data. The geometric correction unit 5 preferably calculates the pixel value of the coordinate point obtained by adding a predetermined correction amount to the coordinate point calculated corresponding to the coordinate point of the input image data. Further, it is preferable that the geometric correction unit 5 calculates the pixel value of the coordinate point obtained by adding a predetermined correction amount to the coordinate point of the object information of the image data.

幾何補正パラメータとしたmat[0]〜mat[7]を適用して、出力時に発生する位置ずれや歪みを見越した補正を行う。ここでは、オブジェクト情報に基づいて入力画像の前景画素と背景画素を識別し、前景・背景二値化部6で使用するため後述する前景背景合成比率画像を含む複数種類の画像を生成しておく。本実施形態における幾何補正部5は、次ブロックの前景・背景二値化部6の前処理として機能する。   By applying mat [0] to mat [7] as geometric correction parameters, correction is performed in anticipation of misalignment or distortion that occurs during output. Here, foreground and background pixels of the input image are identified based on the object information, and a plurality of types of images including a foreground / background composition ratio image to be described later are generated for use in the foreground / background binarization unit 6. . The geometric correction unit 5 in the present embodiment functions as preprocessing of the foreground / background binarization unit 6 of the next block.

前景・背景二値化部6は、前景背景合成比率画像に対してドット寄せ処理を行い、オブジェクト境界が前景と背景の階調値で二値化された画像を生成する。   The foreground / background binarization unit 6 performs dot alignment processing on the foreground / background composition ratio image, and generates an image in which the object boundary is binarized with the foreground and background gradation values.

オブジェクト境界が前景と背景の階調値で二値化された画像、つまり補正画像合成データに対して、擬似階調処理部7でスクリーン処理を行い白画素と黒画素に二値化し、プリンタ出力部8でプリンタ出力する。   The pseudo gradation processing unit 7 performs screen processing on the image in which the object boundary is binarized with the foreground and background gradation values, that is, the corrected image composite data, and binarizes it into white pixels and black pixels, and outputs to the printer. The unit 8 outputs the printer.

擬似階調処理部7は、オブジェクト情報に応じて、適用するスクリーンを切り替える。オブジェクト情報が文字やラインの場合は300線程度のスクリーンを適用し、グラフィックやイメージの場合は200線程度のスクリーンを適用する。このとき参照するオブジェクト情報も、幾何補正部5および前景・背景二値化部6で処理された後のものであり、その時点での画像と対応がとれている。   The pseudo gradation processing unit 7 switches the screen to be applied according to the object information. When the object information is characters or lines, a screen of about 300 lines is applied, and when the object information is graphics or images, a screen of about 200 lines is applied. The object information to be referred to at this time is also the information after being processed by the geometric correction unit 5 and the foreground / background binarization unit 6 and corresponds to the image at that time.

本実施形態におけるオブジェクト情報の一例について図3を参照して説明する。本実施形態においては、オブジェクト情報を文字、ライン、グラフィック、及びイメージの4種類とする。文字やラインの背景が白地であっても色地であっても、均一濃度である場合、背景部のオブジェクト情報はグラフィックとなる。   An example of object information in the present embodiment will be described with reference to FIG. In the present embodiment, the object information includes four types of characters, lines, graphics, and images. If the background of the character or line is a white background or a color background and the density is uniform, the object information in the background portion is a graphic.

本実施形態においては、オブジェクト情報として2bitで表されたものを用いる。オブジェクト情報として、文字の場合は01、ラインの場合は10、グラフィックの場合は11、イメージの場合は00の各オブジェクト情報が画素ごとに付与される。なお、オブジェクト情報には、予め優先順位をつけておくことが好ましい。本実施形態では、優先度が高い順に、文字、ライン、グラフィック、イメージとする。   In the present embodiment, the object information represented by 2 bits is used. As the object information, 01 for a character, 10 for a line, 11 for a graphic, and 00 for an image are provided for each pixel. It is preferable to prioritize the object information in advance. In this embodiment, characters, lines, graphics, and images are used in descending order of priority.

次に、本実施形態における画像歪みに対する幾何補正について図4を参照して説明する。左側には、破線で表した入力画像(1)を幾何補正なしでプリンタ出力した場合に発生する画像歪みの例として補正なし時の出力画像(2)を実線で表している。また、右側には、プリンタ出力画像(4)を破線で表し、画像歪みを見越して逆補正した画像(3)を実線で表している。逆補正した画像(3)は、プリンタ出力画像(4)が入力画像(1)と同じになるようにするための画像である。   Next, geometric correction for image distortion in the present embodiment will be described with reference to FIG. On the left side, an output image (2) without correction is represented by a solid line as an example of image distortion that occurs when the input image (1) represented by a broken line is output to the printer without geometric correction. On the right side, the printer output image (4) is represented by a broken line, and the image (3) corrected in anticipation of image distortion is represented by a solid line. The reversely corrected image (3) is an image for making the printer output image (4) the same as the input image (1).

例えば、表裏ずれの場合は、入力画像(1)が表面、出力画像(2)が幾何補正なし時の裏面出力画像、逆補正した画像(3)が裏面に対する幾何補正後画像、プリンタ出力画像(4)が逆補正した画像(3)をプリンタ出力した画像となる。なお、ここでは、表面にはプリンタ出力しても歪みが発生しないものとする。   For example, in the case of front-back misalignment, the input image (1) is the front side, the output image (2) is the back side output image without geometric correction, the reversely corrected image (3) is the back side geometrically corrected image, the printer output image ( 4) is an image obtained by outputting the reversely corrected image (3) to the printer. Here, it is assumed that distortion does not occur on the front surface even when output from a printer.

本実施形態では、ずれ量取得部3が、入力画像(1)の四隅の座標と出力画像(2)の四隅の座標を取得し、幾何補正パラメータ設定部4が、プリンタ出力時に発生する画像歪みを見越して逆補正を行い、逆補正した画像(3)の画像を生成するための幾何補正パラメータとして、上述したmat[0]〜mat[7]を設定する。   In the present embodiment, the shift amount acquisition unit 3 acquires the coordinates of the four corners of the input image (1) and the coordinates of the four corners of the output image (2), and the geometric correction parameter setting unit 4 causes image distortion that occurs during printer output. The above-described mat [0] to mat [7] are set as geometric correction parameters for performing reverse correction in anticipation and generating an image of the reverse-corrected image (3).

次に、本実施形態における幾何補正部5の構成について図5を参照して説明する。幾何補正部5は、対応座標点算出部50と、4点抽出部51と、第1のオブジェクト抽出部52と、第2のオブジェクト抽出部53と、補間演算部54と、前景画素値選択部55と、背景画素値選択部56と、蓄積部57を備える。   Next, the configuration of the geometric correction unit 5 in the present embodiment will be described with reference to FIG. The geometric correction unit 5 includes a corresponding coordinate point calculation unit 50, a four-point extraction unit 51, a first object extraction unit 52, a second object extraction unit 53, an interpolation calculation unit 54, and a foreground pixel value selection unit. 55, a background pixel value selection unit 56, and a storage unit 57.

対応座標点算出部50は、逆補正した画像(3)上の座標点(x、y)に対応する入力画像(1)上の座標点(X、Y)を、幾何補正パラメータであるmat[0]〜mat[7]を適用して算出する。座標点(X、Y)は、小数点以下の値をもつ実数値で算出されることが好ましい。   The corresponding coordinate point calculation unit 50 converts the coordinate point (X, Y) on the input image (1) corresponding to the coordinate point (x, y) on the inversely corrected image (3) to the geometric correction parameter mat [ 0] to mat [7] are applied. The coordinate point (X, Y) is preferably calculated as a real value having a value after the decimal point.

4点抽出部51は、座標点(X、Y)を囲む近傍4点を、X及びYの整数部の値に基づき抽出する。   The four-point extraction unit 51 extracts four neighboring points surrounding the coordinate point (X, Y) based on the values of the integer parts of X and Y.

第1のオブジェクト抽出部52は、4点に付与されているオブジェクト情報のうち、最も優先度の高いオブジェクト情報を抽出し、優先度の高いオブジェクト優先画像(d)の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。また、第1のオブジェクト抽出部52は、抽出したオブジェクト情報の他に4点の階調値を後段の前景画素値選択部55に送る。   The first object extraction unit 52 extracts the object information having the highest priority from the object information given to the four points, and the coordinate point (x, y) of the object priority image (d) having the highest priority. Is stored in the line memory of the storage unit 57 as the pixel value. In addition to the extracted object information, the first object extraction unit 52 sends four gradation values to the foreground pixel value selection unit 55 in the subsequent stage.

第2のオブジェクト抽出部53は、4点に付与されているオブジェクト情報のうち、最も優先度の低いオブジェクト情報を抽出し、優先度の低いオブジェクト優先画像(e)の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。また、第2のオブジェクト抽出部53は、抽出したオブジェクト情報の他に4点の階調値を後段の背景画素値選択部56に送る。   The second object extraction unit 53 extracts the object information having the lowest priority from the object information given to the four points, and the coordinate point (x, y) of the object priority image (e) having the lowest priority. Is stored in the line memory of the storage unit 57 as the pixel value. Further, the second object extraction unit 53 sends the four gradation values to the background pixel value selection unit 56 in the subsequent stage in addition to the extracted object information.

補間演算部54は、周囲4点のオブジェクト情報に基づき補間演算を行い、前景背景合成比率画像(a)の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。   The interpolation calculation unit 54 performs interpolation calculation based on the object information of the surrounding four points, and stores it in the line memory of the storage unit 57 as the pixel value of the coordinate point (x, y) of the foreground / background composition ratio image (a).

前景画素値選択部55は、第1のオブジェクト抽出部52で抽出したオブジェクト情報をもつ画素の階調値を4点から抽出し、前景優先画像(b)の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。   The foreground pixel value selection unit 55 extracts the gradation value of the pixel having the object information extracted by the first object extraction unit 52 from four points, and the pixel at the coordinate point (x, y) of the foreground priority image (b) The value is stored in the line memory of the storage unit 57 as a value.

背景画素値選択部56は、第2のオブジェクト抽出部53で抽出したオブジェクト情報をもつ画素の階調値を4点から抽出し、背景優先画像(c)の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。なお、抽出された4点が全て同じオブジェクトである場合、前景優先画像(b)と背景優先画像(c)、優先度の高いオブジェクト優先画像(d)と優先度の低いオブジェクト優先画像(e)の画素値は同じになる。   The background pixel value selection unit 56 extracts the gradation value of the pixel having the object information extracted by the second object extraction unit 53 from four points, and the pixel at the coordinate point (x, y) of the background priority image (c) The value is stored in the line memory of the storage unit 57 as a value. When all the four extracted points are the same object, the foreground priority image (b) and the background priority image (c), the high priority object priority image (d), and the low priority object priority image (e) The pixel values of are the same.

次に、本実施形態における対応座標点算出部50について図6を参照して説明する。対応座標点算出部50は、以下の二次元射影変換式、式1および式2を適用して、(x、y)に対応する座標点(X、Y)を算出する。   Next, the corresponding coordinate point calculation unit 50 in the present embodiment will be described with reference to FIG. The corresponding coordinate point calculation unit 50 calculates the coordinate point (X, Y) corresponding to (x, y) by applying the following two-dimensional projective transformation expression, Expression 1 and Expression 2.

Figure 2016123070
Figure 2016123070

Figure 2016123070
Figure 2016123070

本実施形態における幾何補正は、入力画像(1)における座標点(X、Y)の階調値およびオブジェクト情報を補間演算で求め、逆補正した画像(3)の座標点(x、y)の階調値およびオブジェクト情報として還元することにより行われる。   In the geometric correction in the present embodiment, the gradation value and object information of the coordinate point (X, Y) in the input image (1) are obtained by interpolation calculation, and the coordinate point (x, y) of the image (3) subjected to reverse correction is obtained. This is done by reducing as gradation values and object information.

次に、本実施形態における補間演算部54について図7を参照して説明する。まず、4点抽出部51により、(X、Y)の整数部に該当する(X0、Y0)の座標点、及び、(X0+1、Y0)、(X0、Y0+1)、(X0+1、Y0+1)の計4点の座標点が抽出される。   Next, the interpolation calculation unit 54 in the present embodiment will be described with reference to FIG. First, the four-point extraction unit 51 calculates (X0, Y0) coordinate points corresponding to the integer part (X, Y), and (X0 + 1, Y0), (X0, Y0 + 1), (X0 + 1, Y0 + 1). Four coordinate points are extracted.

補間演算は、画素値に対して次式のように行う。ここでは、重みwx、wyを4点の画素値に適用して、(X、Y)の画素値を算出する。Xの小数部がwxに相当し、Yの小数部がwyに相当する。
(x、y)の画素値=(X、Y)の画素値=(X0、Y0)の画素値×(1−wx)×(1−wy)+(X0+1、Y0)の画素値×wx×(1−wy)+(X0、Y0+1)の画素値×(1−wx)×wy+(X0+1、Y0+1)の画素値×wx×wy
The interpolation calculation is performed on the pixel value as follows. Here, the pixel values of (X, Y) are calculated by applying the weights wx and wy to the four pixel values. The decimal part of X corresponds to wx, and the decimal part of Y corresponds to wy.
Pixel value of (x, y) = pixel value of (X, Y) = pixel value of (X0, Y0) × (1-wx) × (1-wy) + (X0 + 1, Y0) pixel value × wx × (1-wy) + (X0, Y0 + 1) pixel value × (1-wx) × wy + (X0 + 1, Y0 + 1) pixel value × wx × wy

本実施形態における補間演算部54で行う補間演算は、画素値に対して行うのではなく、オブジェクト情報に基づいて行う。つまり、本実施形態における補間演算は、次式のように行う。
画像(a)の(x、y)の画素値=(X0、Y0)のオブジェクト情報に基づく値×(1−wx)×(1−wy)+(X0+1、Y0)のオブジェクト情報に基づく値 × wx × (1−wy)+(X0、Y0+1)のオブジェクト情報に基づく値×(1−wx)×wy+(X0+1、Y0+1)のオブジェクト情報に基づく値×wx×wy
The interpolation calculation performed by the interpolation calculation unit 54 in this embodiment is not performed on the pixel value, but based on the object information. That is, the interpolation calculation in this embodiment is performed as follows.
Pixel value of image (a) (x, y) = value based on object information of (X0, Y0) × (1-wx) × (1-wy) + value based on object information of (X0 + 1, Y0) × Value based on object information of wx × (1-wy) + (X0, Y0 + 1) × Value based on object information of (1-wx) × wy + (X0 + 1, Y0 + 1) × wx × wy

なお、オブジェクト情報に基づく値は、該当画素のオブジェクト情報が第1のオブジェクト抽出部52で抽出された最も優先度の高いオブジェクトである場合は255、それ以外のオブジェクト情報である場合は0となる。ただし、4点全て同じオブジェクトである場合は強制的に0とする。   The value based on the object information is 255 when the object information of the corresponding pixel is the highest priority object extracted by the first object extraction unit 52, and is 0 when the object information is other than that. . However, if all four points are the same object, it is forcibly set to 0.

次に、本実施形態における前景・背景二値化部6の概略構成について図8を参照して説明する。本実施形態における前景・背景二値化部6は、ドット寄せ部60と、合成部61を備える。   Next, a schematic configuration of the foreground / background binarization unit 6 in the present embodiment will be described with reference to FIG. The foreground / background binarization unit 6 in the present embodiment includes a dot shift unit 60 and a synthesis unit 61.

ドット寄せ部60は、多値補正画像データの画素値を二値化処理した二値化画像データを生成するドット寄せ手段である。より具体的には、ドット寄せ部60は、前景背景合成比率画像(a)に対して、背景優先画像(c)を参照してドット寄せ処理を行い、0(白画素)又は255(黒画素)の二値画像であるドット寄せ後の画像(a’)を生成する。ここで、前景背景合成比率画像(a)、背景優先画像(c)は4×4画素を参照するものとする。   The dot gathering unit 60 is a dot gathering unit that generates binary image data obtained by binarizing the pixel values of the multi-value corrected image data. More specifically, the dot alignment unit 60 performs dot alignment processing on the foreground / background composition ratio image (a) with reference to the background priority image (c), and performs 0 (white pixel) or 255 (black pixel). ) Is a binary image (a ′) after dot alignment. Here, the foreground / background composition ratio image (a) and the background priority image (c) refer to 4 × 4 pixels.

合成部61は、幾何補正部5によって生成された複数の画素値補正画像データから、画素ごとに適用する画素値を選択して補正画像合成データを生成する合成手段である。   The synthesizing unit 61 is a synthesizing unit that selects the pixel value to be applied for each pixel from the plurality of pixel value corrected image data generated by the geometric correcting unit 5 and generates corrected image synthesized data.

より具体的には、合成部61は、二値化画像データであるドット寄せ後の画像(a’)に基づき、画素ごとに前景優先画像(b)又は背景優先画像(c)を選択して、補正後8bit画像を生成する。   More specifically, the synthesis unit 61 selects a foreground priority image (b) or a background priority image (c) for each pixel based on the image (a ′) after dot alignment that is binary image data. Then, a corrected 8-bit image is generated.

同様に、合成部61は、ドット寄せ後の画像(a’)に基づき、画素ごとに優先度の高いオブジェクト優先画像(d)又は優先度の低いオブジェクト優先画像(e)を選択して、補正後オブジェクト情報を生成する。ここで、補正後8bit画像および補正後オブジェクト情報は、2×2画素分が求められる。   Similarly, the compositing unit 61 selects an object priority image (d) having a high priority or an object priority image (e) having a low priority for each pixel based on the image (a ′) after dot alignment, and performs correction. After-object information is generated. Here, 2 × 2 pixels are obtained for the corrected 8-bit image and the corrected object information.

合成部61について図9を参照してさらに説明する。本図は、左から、ドット寄せ後の画像(a’)の画素値、補正後8bit画像、補正後オブジェクト情報を示し、ドット寄せ後の画像(a’)の画素値に対して、選択される補正後8bit画像および補正後オブジェクト情報の対応関係を示している。   The combining unit 61 will be further described with reference to FIG. This figure shows, from the left, the pixel value of the image (a ′) after dot alignment, the 8-bit image after correction, and the object information after correction, and is selected for the pixel value of the image (a ′) after dot alignment. The correspondence relationship between the corrected 8-bit image and the corrected object information is shown.

補正後8bit画像は、ドット寄せ後の画像(a’)の画素値に基づき、画素値が255であれば前景優先画像(b)を選択し、画素値が0であれば背景優先画像(c)を選択した画素値で構成される。   The 8-bit image after correction is based on the pixel value of the image (a ′) after dot alignment. If the pixel value is 255, the foreground priority image (b) is selected. If the pixel value is 0, the background priority image (c ) Is composed of selected pixel values.

また、補正後オブジェクト情報は、ドット寄せ後の画像(a’)に基づき、画素値が255であれば優先度の高いオブジェクト優先画像(d)を選択し、画素値が0であれば優先度の低いオブジェクト優先画像(e)を選択した画素値で構成される。   The corrected object information is based on the image (a ′) after dot alignment, and if the pixel value is 255, the object priority image (d) having a high priority is selected, and if the pixel value is 0, the priority is selected. Is composed of selected pixel values.

つまり、本実施形態においては、合成部61は、補正後8bit画像とオブジェクト情報が補正後も完全に対応するように、オブジェクト情報も同様に補正を行っている。なお、ここで決定した補正後8bit画像と補正後オブジェクト情報は、いずれも後段の擬似階調処理部7への入力となる。本実施形態では、補正後オブジェクト情報に基づいて、補正後8bit画像に適用するスクリーンを切り替えて、擬似階調処理が行われることが好ましい。   That is, in the present embodiment, the combining unit 61 similarly corrects the object information so that the corrected 8-bit image and the object information completely correspond to each other after the correction. Note that the 8-bit image after correction and the object information after correction determined here are both input to the pseudo gradation processing unit 7 in the subsequent stage. In the present embodiment, it is preferable that the pseudo gradation processing is performed by switching the screen to be applied to the corrected 8-bit image based on the corrected object information.

次に、ドット寄せ部60について図10を参照してさらに説明する。ドット寄せ部60は、第1の判定部600と、第2の判定部601と、閾値決定部602と、閾値処理部603を備える。   Next, the dot alignment unit 60 will be further described with reference to FIG. The dot alignment unit 60 includes a first determination unit 600, a second determination unit 601, a threshold value determination unit 602, and a threshold value processing unit 603.

第1の判定部600は、二値化処理に用いるスクリーンを判定する第1の判定手段である。より具体的には、第1の判定部600は、横万線スクリーンを適用してドット寄せを行うか、縦万線スクリーンを適用してドット寄せを行うか、あるいは、斜め万線スクリーンを適用してドット寄せを行うかを背景優先画像(c)から判定する。   The first determination unit 600 is a first determination unit that determines a screen used for binarization processing. More specifically, the first determination unit 600 applies a horizontal line screen to perform dot alignment, applies a vertical line screen to perform dot alignment, or applies an oblique line screen. It is determined from the background priority image (c) whether or not to perform dot alignment.

第2の判定部601は、二値化処理におけるドット寄せ方向を判定する第2の判定手段である。より具体的には、第2の判定部601は、斜め万線スクリーンを適用する場合に左上、右上、左下、右下のどちらに比重をおいてドット寄せを行うかを背景優先画像(c)から判定する。   The second determination unit 601 is a second determination unit that determines the dot alignment direction in the binarization process. More specifically, the second determination unit 601 determines whether the upper left, upper right, lower left, or lower right is to be used for dot alignment when applying an oblique line screen to the background priority image (c). Judgment from.

閾値決定部602は、第1の判定部600と第2の判定部601の判定結果に応じて、2×2画素に対して適用するディザ閾値を決定する。   The threshold determination unit 602 determines a dither threshold to be applied to 2 × 2 pixels according to the determination results of the first determination unit 600 and the second determination unit 601.

閾値処理部603は、閾値決定部602で決定したディザ閾値を、前景背景合成比率画像(a)に対して適用し、閾値以上であれば255(黒画素)、閾値未満であれば0(白画素)に変換して出力する。   The threshold processing unit 603 applies the dither threshold determined by the threshold determination unit 602 to the foreground / background composition ratio image (a), and if it is equal to or greater than the threshold, it is 255 (black pixel), and if it is less than the threshold, 0 (white). Pixel).

第1の判定部600及び第2の判定部601について図11を参照してさらに詳細に説明する。ここでは、背景優先画像(c)の4×4画素を参照して判定するものとする。   The first determination unit 600 and the second determination unit 601 will be described in more detail with reference to FIG. Here, the determination is made with reference to 4 × 4 pixels of the background priority image (c).

第1の判定部600は、p00、p01、p10、p11、p20、p21、p30、p31の画素の平均値を算出し、左平均とし、p02、p03、p12、p13、p22、p23、p32、p33の画素の平均値を算出し、右平均とする。   The first determination unit 600 calculates the average value of the pixels of p00, p01, p10, p11, p20, p21, p30, and p31 and sets it as the left average, and p02, p03, p12, p13, p22, p23, p32, The average value of the pixels at p33 is calculated and set as the right average.

また、第1の判定部600は、p00、p01、p02、p03、p10、p11、p12、p13の画素の平均値を算出し、上平均とし、p20、p21、p22、p23、p30、p31、p32、p33の画素の平均値を算出し、下平均とする。   In addition, the first determination unit 600 calculates an average value of pixels of p00, p01, p02, p03, p10, p11, p12, and p13, and sets it as an upper average, and p20, p21, p22, p23, p30, p31, The average value of pixels of p32 and p33 is calculated and set as the lower average.

そして、ここでは、左平均と右平均の差分の絶対値を、左右差、上平均と下平均の差分の絶対値を、上下差とする。そして、第1の判定部600は、左右差<上下差であれば、縦万線スクリーンを適用すると判定し、左右差>上下差であれば、横万線スクリーンを適用すると判定し、左右差=上下差であれば、斜め万線スクリーンを適用すると判定する。   Here, the absolute value of the difference between the left average and the right average is defined as the left-right difference, and the absolute value of the difference between the upper average and the lower average is defined as the vertical difference. The first determination unit 600 determines that the vertical line screen is applied if the left / right difference <up / down difference, and determines that the horizontal line screen is applied if the left / right difference> up / down difference. = If the difference is up and down, it is determined that an oblique line screen is applied.

他方、第2の判定部601は、p00、p01、p10、p11の画素の平均値を算出し、左上平均とし、p02、p03、p12、p13の画素の平均値を算出し、右上平均とする。また、第2の判定部601は、p20、p21、p30、p31の画素の平均値を算出し、左下平均とし、p22、p23、p32、p33の画素の平均値を算出し、右下平均とする。そして、第2の判定部601は、左上、右上、左下、右下のうち、平均値が最大の方向を寄せ方向として判定する。   On the other hand, the second determination unit 601 calculates the average value of the pixels of p00, p01, p10, and p11, calculates the average value of the upper left, calculates the average value of the pixels of p02, p03, p12, and p13, and sets the average value of the upper right. . Further, the second determination unit 601 calculates the average value of the pixels of p20, p21, p30, and p31, sets the lower left average, calculates the average value of the pixels of p22, p23, p32, and p33, and calculates the lower right average. To do. Then, the second determination unit 601 determines the direction having the maximum average value among the upper left, upper right, lower left, and lower right as the approach direction.

閾値決定部602について図12を参照して説明する。まず、前提として、32×32程度のサイズの縦万線スクリーン用ディザ閾値マトリクス、及び、横万線スクリーン用ディザ閾値マトリクスを予め用意する。   The threshold value determination unit 602 will be described with reference to FIG. First, as a premise, a dither threshold matrix for a vertical line screen and a dither threshold matrix for a horizontal line screen having a size of about 32 × 32 are prepared in advance.

閾値決定部602は、第1の判定部600にて縦万線スクリーンを適用すると判定された場合は、縦万線スクリーン用ディザ閾値マトリクスから該当画素位置に対応した2×2画素分のディザ閾値を抽出する。   When the first determination unit 600 determines that the vertical line screen is to be applied, the threshold value determination unit 602 dither threshold value for 2 × 2 pixels corresponding to the corresponding pixel position from the vertical line screen dither threshold value matrix. To extract.

また、閾値決定部602は、第1の判定部600にて横万線スクリーンを適用すると判定された場合は、横万線スクリーン用ディザ閾値マトリクスから該当画素位置に対応した2×2画素分のディザ閾値を抽出する。   In addition, when the first determination unit 600 determines that the horizontal line screen is applied, the threshold value determination unit 602 corresponds to 2 × 2 pixels corresponding to the corresponding pixel position from the horizontal line screen dither threshold value matrix. Extract dither threshold.

さらに、閾値決定部602は、第1の判定部600にて斜め万線スクリーンを適用すると判定された場合は、縦万線スクリーン用ディザ閾値マトリクスから該当画素位置に対応した2×2画素分のディザ閾値を抽出し、図に示すようにドット寄せ方向に応じて並べ替える。   Further, when the first determination unit 600 determines that the oblique line screen is applied, the threshold value determination unit 602 corresponds to 2 × 2 pixels corresponding to the corresponding pixel position from the vertical line screen dither threshold value matrix. Dither thresholds are extracted and rearranged according to the dot alignment direction as shown in the figure.

閾値決定部602は、第2の判定部601にて寄せ方向が右上と判定された場合は、右上に小さい方のディザ閾値、対角の左下に大きい方のディザ閾値を配置する。また、閾値決定部602は、残り2つには小さい方のディザ閾値を大きい方のディザ閾値の平均値を配置する。寄せ方向が左下、左上、右下の場合も同様である。   When the second determination unit 601 determines that the shifting direction is upper right, the threshold determination unit 602 arranges the smaller dither threshold at the upper right and the larger dither threshold at the lower left of the diagonal. Further, the threshold value determination unit 602 places the average value of the smaller dither threshold value and the larger dither threshold value for the remaining two. The same applies to the case where the shifting direction is lower left, upper left, and lower right.

次に、本実施形態における幾何補正処理手順について図13を参照して説明する。まず、幾何補正パラメータ設定部4は、幾何補正後の座標点(x、y)を、初期値(0、0)に設定する(ステップS1、ステップS2)。   Next, the geometric correction processing procedure in this embodiment will be described with reference to FIG. First, the geometric correction parameter setting unit 4 sets the coordinate point (x, y) after geometric correction to an initial value (0, 0) (step S1, step S2).

次に、幾何補正部5は、幾何補正を行う(ステップS3)。幾何補正部5による幾何補正処理の結果が蓄積部57のラインメモリに蓄積される(ステップS4)。幾何補正部5は、x方向に座標点を「+1」する。幾何補正部5は、xの座標位置がx方向の画素数を越える(ステップS8)まで、ステップS3からステップS5までの処理を繰り返す。   Next, the geometric correction unit 5 performs geometric correction (step S3). The result of the geometric correction process by the geometric correction unit 5 is stored in the line memory of the storage unit 57 (step S4). The geometric correction unit 5 “+1” the coordinate point in the x direction. The geometric correction unit 5 repeats the processing from step S3 to step S5 until the coordinate position of x exceeds the number of pixels in the x direction (step S8).

次に、幾何補正部5は、y方向に座標点を「+1」する(ステップS6)。幾何補正部5は、yの座標位置がy方向の画素数を越えないとき(ステップS9、NO)、yが偶数か否かを判定する(ステップS10)。幾何補正部5によりyが偶数と判定されたとき(ステップS10、YES)、前景・背景二値化部6に進み、2ライン分の前景背景二値化結果を取得する(ステップS7)。   Next, the geometric correction unit 5 “+1” the coordinate point in the y direction (step S6). When the coordinate position of y does not exceed the number of pixels in the y direction (step S9, NO), the geometric correction unit 5 determines whether y is an even number (step S10). When the geometric correction unit 5 determines that y is an even number (step S10, YES), the process proceeds to the foreground / background binarization unit 6 to acquire the foreground / background binarization result for two lines (step S7).

幾何補正部5は、yが偶数でないと判定したとき(ステップS10、NO)、ステップS2からの処理を繰り返す。つまり、幾何補正部5は、yの座標位置がy方向の画素数を越えるまで(ステップS9)、ステップS2からステップS6までの処理を繰り返す。なお、ステップS5の蓄積処理においては、最新4ライン分の結果を蓄積し、それ以前の結果は破棄してもよい。   When the geometric correction unit 5 determines that y is not an even number (step S10, NO), it repeats the processing from step S2. That is, the geometric correction unit 5 repeats the processing from step S2 to step S6 until the y coordinate position exceeds the number of pixels in the y direction (step S9). In the accumulation process in step S5, the latest four lines of results may be accumulated, and the previous results may be discarded.

次に、本実施形態における幾何補正処理結果の具体例について図14を参照して説明する。本図に示すように、〇で表した周囲4点の画素に対して、〇の中に×を記載した入力画像(1)の座標点(X、Y)に対応する(a)〜(e)の画素値をwx=0.75、wy=0.5とすると、次のようになる。   Next, a specific example of the geometric correction processing result in the present embodiment will be described with reference to FIG. As shown in this figure, for the four surrounding pixels represented by ◯, (a) to (e) corresponding to the coordinate point (X, Y) of the input image (1) in which “x” is written in ◯. ) Is set as wx = 0.75 and wy = 0.5 as follows.

前景背景合成比率画像(a)は、255×0.25×0.5+255×0.75×0.5+255×0.25×0.5=159.375の小数点以下を切り捨てた159となる。   The foreground / background composition ratio image (a) is 159 with the decimal part of 255 × 0.25 × 0.5 + 255 × 0.75 × 0.5 + 255 × 0.25 × 0.5 = 159.375 rounded down.

優先度の高いオブジェクト優先画像(d)は、文字オブジェクトであることを表す01となり、前景優先画像(b)は、文字オブジェクトの画素がもつ画素値255になる。   The object priority image (d) having a high priority is 01 indicating that it is a character object, and the foreground priority image (b) has a pixel value 255 of the pixel of the character object.

他方、優先度の低いオブジェクト優先画像(e)は、グラフィックオブジェクトであることを表す11となり、背景優先画像(c)は、グラフィックオブジェクトの画素がもつ画素値80になる。   On the other hand, the object priority image (e) having a low priority is 11 indicating that it is a graphic object, and the background priority image (c) has a pixel value 80 of the pixel of the graphic object.

次に、本実施形態における幾何補正部5で生成される(a)〜(c)の画像について図15を参照して説明する。本図では、例示としてひらがな「あ」を表す画像を用いている。   Next, images (a) to (c) generated by the geometric correction unit 5 in the present embodiment will be described with reference to FIG. In this figure, an image representing hiragana “a” is used as an example.

前景背景合成比率画像(a)は、オブジェクト境界のエッジ部で0〜255の値をもつ多値画像になる。前景優先画像(b)は、文字(またはライン)が入力画像に対してやや太めになった画像になり、背景優先画像(c)は、文字(またはライン)が入力画像に対してやや細めになった画像になる。   The foreground / background composition ratio image (a) is a multivalued image having a value of 0 to 255 at the edge portion of the object boundary. The foreground priority image (b) is an image in which characters (or lines) are slightly thicker than the input image, and the background priority image (c) is in which characters (or lines) are slightly narrower than the input image. The resulting image will be.

また、優先度の高いオブジェクト優先画像(d)は、(b)に対応したオブジェクト情報画像になり、優先度の低いオブジェクト優先画像(e)は、(c)に対応したオブジェクト情報画像になる。   The object priority image (d) having a high priority is an object information image corresponding to (b), and the object priority image (e) having a low priority is an object information image corresponding to (c).

次に、本実施形態における前景・背景二値化部6における処理手順について図16を参照して説明する。まず、前景・背景二値化部6は、xを初期値0に設定する(ステップS71)。   Next, a processing procedure in the foreground / background binarization unit 6 in the present embodiment will be described with reference to FIG. First, the foreground / background binarization unit 6 sets x to an initial value 0 (step S71).

次に、前景・背景二値化部6は、蓄積部57のラインメモリに蓄積された最新4ライン分の幾何補正結果から、4×4画素の幾何補正結果を切り出してくる(ステップS72)。このとき、前景・背景二値化部6は、x方向には、x−1、x、x+1、x+2の座標点の結果を切り出す。なお、x=0の場合のようにx−1=−1になってしまい、座標点が存在しないケースでは、幾何補正結果である(a)〜(e)の画素値が全て0であるとする。   Next, the foreground / background binarization unit 6 cuts out a 4 × 4 pixel geometric correction result from the latest four lines of geometric correction results stored in the line memory of the storage unit 57 (step S72). At this time, the foreground / background binarization unit 6 cuts out the result of the coordinate points of x−1, x, x + 1, and x + 2 in the x direction. In the case where x-1 = -1 as in the case of x = 0 and there is no coordinate point, the pixel values of (a) to (e) as the geometric correction results are all 0. To do.

前景・背景二値化部6は、4×4画素の幾何補正結果を参照し、2×2画素分の前景背景二値化結果を取得する(ステップS73)。前景・背景二値化部6は、x方向に+2する(ステップS75)。そして、前景・背景二値化部6は、xの座標位置がx方向の画素数を越えるまで、ステップS72〜ステップS74の処理を繰り返す。   The foreground / background binarization unit 6 refers to the geometric correction result of 4 × 4 pixels and acquires the foreground / background binarization result of 2 × 2 pixels (step S73). The foreground / background binarization unit 6 adds +2 in the x direction (step S75). Then, the foreground / background binarization unit 6 repeats the processing from step S72 to step S74 until the coordinate position of x exceeds the number of pixels in the x direction.

次に、本実施形態におけるドット寄せ部60の出力について図17を参照して説明する。ここでも、例示としてひらがな「あ」を用いる。ドット寄せ部60により、オブジェクト境界のエッジ部で0〜255の値をもつ多値画像であった(a)が、0(白画素)又は255(黒画素)の二値画像に変換される。   Next, the output of the dot alignment unit 60 in the present embodiment will be described with reference to FIG. Here, hiragana “a” is used as an example. The dot shifting unit 60 converts (a), which is a multi-valued image having a value of 0 to 255 at the edge portion of the object boundary, into a binary image of 0 (white pixel) or 255 (black pixel).

ドット寄せは、多値画像から二値画像への変換であるため、横線エッジに対しては縦万線スクリーンを適用して二値化し、縦線エッジに対しては横万線スクリーンを適用して二値化する、といった(a)の画像に対して方向別のスクリーン処理を適用する方法で行うことが好ましい。   Since dot alignment is a conversion from a multi-valued image to a binary image, the horizontal line edge is binarized by applying the vertical line screen, and the horizontal line screen is applied to the vertical line edge. It is preferable to carry out by a method of applying screen processing according to direction to the image of (a) such as binarization.

次に、本実施形態における処理画像例について図18を参照して説明する。前景背景二値化処理後の黒線、つまり黒文字の一部は、図17に示したドット寄せ処理結果を使って合成部61で画像を生成する。このため、エッジ部がギザギザした形状の画像になる。オブジェクト情報も、画像に合わせてギザギザの山部分(以下「黒文字部」とする。)は文字オブジェクト、ギザギザの谷部分はグラフィックオブジェクトに変換される。   Next, an example of a processed image in the present embodiment will be described with reference to FIG. For the black line after the foreground / background binarization processing, that is, a part of the black character, an image is generated by the combining unit 61 using the result of the dot shift processing shown in FIG. For this reason, the edge portion has a jagged shape. In the object information, a jagged mountain portion (hereinafter referred to as “black character portion”) is converted into a character object and a jagged valley portion is converted into a graphic object according to the image.

前景背景二値化処理後の画像に対して擬似階調処理を行うと、黒文字部は階調値255のため文字オブジェクト用のスクリーンパターンを適用しても実質そのまま、すなわち無変換となり、色地部分のみグラフィックオブジェクト用のスクリーンパターンに置き換わる。本図のとおり、オブジェクト境界での白抜けは発生しない。   When the pseudo gradation process is performed on the image after the foreground / background binarization process, the black character portion has a gradation value of 255, so that even if the screen pattern for the character object is applied, it is substantially unchanged, that is, is not converted. Only the part is replaced with a screen pattern for graphic objects. As shown in the figure, white spots do not occur at the object boundary.

なお、エッジ部のギザギザは、画素単位のかなり高周波なものであり、昨今のプリンタの出力解像度では目視で確認できるようなものではない。図18の例では、色地背景のスクリーンパターン上にまっすぐな直線が描画されているように見えるという効果を奏する。   Note that the jaggedness of the edge portion is a considerably high frequency in pixel units, and it cannot be visually confirmed with the output resolution of recent printers. In the example of FIG. 18, there is an effect that a straight line appears to be drawn on the screen pattern of the color background.

なお、図18(a)は、黒文字を構成する横線を、下または上に0.5画素分ずらす幾何補正を想定した図になっており、線画の上下でギザギザ形状が50%を占めている。例えば下に0.25画素分ずらす幾何補正をすると、図18(b)のように線画の上部は75%、下部は25%のギザギザ形状になる。   FIG. 18A is a diagram assuming geometric correction in which a horizontal line constituting a black character is shifted downward or upward by 0.5 pixels, and a jagged shape occupies 50% above and below the line drawing. . For example, when geometric correction is performed by shifting by 0.25 pixels downward, the line drawing has a jagged shape with 75% at the top and 25% at the bottom as shown in FIG.

また、必ず一様なギザギザ模様になるわけではない。回転を伴う幾何補正を行う場合や、入力画像の線画が元々傾きをもっている場合、図18(c)のように比率がグラデーション状に変化するギザギザ形状になる。   Also, it is not always a uniform jagged pattern. When geometric correction with rotation is performed, or when the line drawing of the input image originally has an inclination, a jagged shape whose ratio changes in a gradation as shown in FIG.

どのようなギザギザ形状になるかは、図17に示したドット寄せ処理結果で決まる。図17に示したドット寄せ処理結果に基づき、図9に示した表に従って、図15の前景優先画像(b)又は背景優先画像(c)を画素単位で選択することにより、ギザギザ形状、かつ、前景画像、つまり本例では文字と背景画像の階調値に二値化された画像になる。   What kind of jagged shape is determined by the result of dot alignment shown in FIG. Based on the dot shift processing result shown in FIG. 17, by selecting the foreground priority image (b) or the background priority image (c) of FIG. 15 in units of pixels according to the table shown in FIG. This is a foreground image, that is, an image binarized into gradation values of characters and background images in this example.

[第2実施形態]
次に、本発明の第2実施形態における画像処理装置について説明する。なお、第1実施形態と重複する構成についての説明は省略する。
[Second Embodiment]
Next, an image processing apparatus according to the second embodiment of the present invention will be described. In addition, description about the structure which overlaps with 1st Embodiment is abbreviate | omitted.

第1実施形態においては、スクリーン処理後の網掛けで表された2値画像に対し、ドット寄せ処理を施すことにより、網掛けの周期的な模様が崩れてモアレが発生することがある。   In the first embodiment, by performing dot shifting processing on a binary image represented by shading after screen processing, the periodic pattern of shading may be lost and moire may occur.

第2実施形態は、上記のモアレの発生を防止するための構成を、第1実施形態の構成に加えたものである。   In the second embodiment, a configuration for preventing the occurrence of the above moire is added to the configuration of the first embodiment.

すなわち、第2実施形態においては、オブジェクト情報に基づいて、文字と背景の境界部などのオブジェクト境界では、白抜け防止のためのドット抜け処理を施す一方、グラフィックオブジェクトである網掛けを構成する網掛けドットの境界ではモアレ抑制効果のある凹凸パターンをつけることで、網掛けドットの周期性を崩し、モアレの発生を防止する。   That is, in the second embodiment, on the object boundary such as the boundary between the character and the background based on the object information, the dot omission processing for preventing the white omission is performed, while the mesh constituting the shading that is a graphic object. By applying a concavo-convex pattern having a moire suppressing effect at the boundary of the hanging dots, the periodicity of the shaded dots is destroyed and the occurrence of moire is prevented.

この第2実施形態における画像処理装置の画像処理装置の全体構成について図19を参照して説明する。ここでは、図2に示した第1実施形態における構成の幾何補正部5と前景・背景二値化部6の間にオブジェクト境界判定部62とパラメータ選択部63の構成が新たに加わっている。   The overall configuration of the image processing apparatus of the image processing apparatus according to the second embodiment will be described with reference to FIG. Here, a configuration of an object boundary determination unit 62 and a parameter selection unit 63 is newly added between the geometric correction unit 5 and the foreground / background binarization unit 6 of the configuration in the first embodiment shown in FIG.

オブジェクト境界判定部62は、オブジェクト情報に基づき、2×2画素からなる注目画素ブロックが、異なるオブジェクト間の境目を含むオブジェクト境界領域であるか否かを判定する。   Based on the object information, the object boundary determination unit 62 determines whether or not the target pixel block made up of 2 × 2 pixels is an object boundary region including a boundary between different objects.

パラメータ選択部63は、画像データにおける注目座標がオブジェクト境界であるか網掛けドットの境界である非オブジェクト境界であるかに基づいて第1の判定部600で判定されるスクリーン用のパラメータを選択するパラメータ選択手段である。パラメータ選択部63は、オブジェクト境界判定部62の結果に基づき、パラメータを選択する。   The parameter selection unit 63 selects a screen parameter determined by the first determination unit 600 based on whether the target coordinate in the image data is an object boundary or a non-object boundary that is a boundary of a shaded dot. Parameter selection means. The parameter selection unit 63 selects a parameter based on the result of the object boundary determination unit 62.

パラメータ選択部63は、注目座標がオブジェクト境界である場合、スクリーン用のパラメータを規則的に配列されたパラメータ群から選択する。また、パラメータ選択部63は、注目座標が非オブジェクト境界である場合、スクリーン用のパラメータを不規則に配列されたパラメータ群から選択する。各パラメータ群の詳細については後述する。   The parameter selection unit 63 selects a screen parameter from a regularly arranged parameter group when the target coordinate is an object boundary. In addition, when the target coordinate is a non-object boundary, the parameter selection unit 63 selects a screen parameter from an irregularly arranged parameter group. Details of each parameter group will be described later.

前景・背景二値化部6は、前景背景合成比率画像に対して、パラメータ選択部63で選択されたパラメータを使ってドット寄せ処理を行い、前景と背景の階調値で二値化された画像を生成する。   The foreground / background binarization unit 6 performs a dot shifting process on the foreground / background composition ratio image using the parameters selected by the parameter selection unit 63 and binarizes the foreground / background gradation values. Generate an image.

擬似階調処理部7は、前景と背景の階調値で二値化された画像に対してスクリーン処理を行って白画素と黒画素に二値化し、プリンタ出力部8でプリンタ出力する。   The pseudo gradation processing unit 7 performs screen processing on the image binarized with the foreground and background gradation values to binarize the white pixel and the black pixel, and the printer output unit 8 outputs the printer.

次に、オブジェクト情報について図20を参照して説明する。例えばグラフ等の図表を作成する際に使用される網掛けは、網を構成する各ドットも、背景地も、全てグラフィックとなり、グラフィックオブジェクトとして画素ごとに付与される。   Next, the object information will be described with reference to FIG. For example, in the shading used when creating a chart such as a graph, all dots constituting the mesh and the background are all graphics and are assigned to each pixel as a graphic object.

次に、第2実施形態における画像処理装置に加わるエッジ判定部58、前景・背景画素値選択部59と、オブジェクト境界判定部62の判定処理について図21を参照して説明する。   Next, determination processing performed by the edge determination unit 58, the foreground / background pixel value selection unit 59, and the object boundary determination unit 62 added to the image processing apparatus according to the second embodiment will be described with reference to FIG.

ここでは、補間演算部54は、周囲4点のオブジェクト情報およびエッジ判定結果に基づき補間演算を行う。   Here, the interpolation calculation unit 54 performs an interpolation calculation based on the surrounding four points of object information and the edge determination result.

エッジ判定部58は、注目画素がエッジ部か否かを判定するエッジ判定手段である。結果として、画素ごとに、8bit画像とオブジェクト情報に加えてエッジ判定結果が付与される。注目画素がエッジ部か否かを判定する方法は、注目画素を中心に5×5画素を参照し、最大値と最小値の差が所定値以上であればエッジ、所定値未満であれば非エッジと判定する。   The edge determination unit 58 is an edge determination unit that determines whether or not the target pixel is an edge portion. As a result, an edge determination result is given to each pixel in addition to the 8-bit image and object information. The method for determining whether or not the target pixel is an edge portion refers to 5 × 5 pixels centered on the target pixel, and if the difference between the maximum value and the minimum value is greater than or equal to a predetermined value, it is an edge. Judged as an edge.

オブジェクト境界判定部62は、第一のオブジェクト抽出部52で抽出したオブジェクト情報と第二のオブジェクト抽出部53で抽出したオブジェクト情報が、異なるオブジェクトを指し示している場合は、4点で構成される注目画素ブロックがオブジェクト境界であると判定する。一方、抽出したオブジェクト情報が、同じオブジェクトを指し示している場合、すなわち4点全て同じオブジェクトである場合は、4点で構成される注目画素ブロックが非オブジェクト境界であると判定する。   When the object information extracted by the first object extraction unit 52 and the object information extracted by the second object extraction unit 53 indicate different objects, the object boundary determination unit 62 is configured with four points. It is determined that the pixel block is an object boundary. On the other hand, when the extracted object information points to the same object, that is, when all four points are the same object, it is determined that the pixel block of interest constituted by the four points is a non-object boundary.

前景・背景画素値選択部59は、注目画素ブロックがオブジェクト境界である場合は、第一のオブジェクト抽出部52で抽出したオブジェクト情報をもつ画素の階調値を4点から抽出し、前景優先画像(b) の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。かつ、第二のオブジェクト抽出部53で抽出したオブジェクト情報をもつ画素の階調値を4点から抽出し、背景優先画像(c) の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。   The foreground / background pixel value selection unit 59 extracts the gradation value of the pixel having the object information extracted by the first object extraction unit 52 from four points when the target pixel block is an object boundary, and outputs the foreground priority image. (B) is stored in the line memory of the storage unit 57 as the pixel value of the coordinate point (x, y). In addition, the gradation value of the pixel having the object information extracted by the second object extraction unit 53 is extracted from four points, and the pixel value of the coordinate point (x, y) of the background priority image (c) is stored in the storage unit 57. Accumulate in line memory.

一方、注目画素ブロックが非オブジェクト境界である場合は、エッジ判定部58の結果に応じて、エッジ画素の階調値を4点から抽出し、前景優先画像(b) の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。かつ、非エッジ画素の階調値を4点から抽出し、背景優先画像(c) の座標点(x、y)の画素値として蓄積部57のラインメモリに蓄積する。4点全てエッジ画素である場合は、(c)は、(b)と同じ値とする。4点全て非エッジ画素である場合は、(b)は、(c)と同じ値とする。   On the other hand, if the pixel block of interest is a non-object boundary, the gradation value of the edge pixel is extracted from four points according to the result of the edge determination unit 58, and the coordinate points (x, y) of the foreground priority image (b) ) Is stored in the line memory of the storage unit 57. In addition, the gradation values of the non-edge pixels are extracted from the four points and stored in the line memory of the storage unit 57 as the pixel values of the coordinate point (x, y) of the background priority image (c). When all four points are edge pixels, (c) has the same value as (b). When all four points are non-edge pixels, (b) has the same value as (c).

なお、入力解像度よりも出力解像度の方が高い処理フローにおいては、幾何補正前に、出力解像度への解像度変換を行う。例えば、入力解像度が1200dpiであり、0.5dot分のレジストずれを補正すると、エッジ部で中間階調の画素が発生する。そこで、出力解像度が2400dpiの場合、2400dpiに変換してから1dot分、つまり1200dpiで0.5dot分に相当のレジストずれを補正する。これによりエッジ部で中間階調の画素が発生しない。よって、幾何補正による画質劣化を小さくすることができる。   In a processing flow in which the output resolution is higher than the input resolution, resolution conversion to the output resolution is performed before geometric correction. For example, when the input resolution is 1200 dpi and a registration shift of 0.5 dots is corrected, pixels of intermediate gradation are generated at the edge portion. Therefore, when the output resolution is 2400 dpi, the registration deviation corresponding to 1 dot after conversion to 2400 dpi, that is, 0.5 dot at 1200 dpi is corrected. As a result, intermediate gradation pixels are not generated at the edge portion. Therefore, image quality degradation due to geometric correction can be reduced.

なお、解像度変換は、レンダリング部2と幾何補正部5の間において行われることがこのましい。   The resolution conversion is preferably performed between the rendering unit 2 and the geometric correction unit 5.

第2実施形態における補間演算部54の処理について図7を参照して説明する。第2実施形態における補間演算部54で実施する補間演算は、オブジェクト情報に加えエッジ判定結果に基づいて行う。   The process of the interpolation calculation part 54 in 2nd Embodiment is demonstrated with reference to FIG. The interpolation calculation performed by the interpolation calculation unit 54 in the second embodiment is performed based on the edge determination result in addition to the object information.

抽出した4点からなる注目画素ブロックがオブジェクト境界である場合については、第1実施形態において説明した演算式により行う。なお、エッジ判定結果に基づく値は、該当画素がエッジである場合は255、非エッジである場合は0となる。   When the extracted pixel block of interest consisting of four points is an object boundary, the calculation formula described in the first embodiment is used. The value based on the edge determination result is 255 when the corresponding pixel is an edge, and 0 when the pixel is a non-edge.

他方、抽出した4点からなる注目画素ブロックが非オブジェクト境界である場合は、次式により行う。
画像(a)の(x、y)の画素値=(X0、Y0)のエッジ判定結果に基づく値 × (1−wx) × (1−wy)
+ (X0+1、Y0)のエッジ判定結果に基づく値 × wx × (1−wy)+ (X0 、Y0+1)のエッジ判定結果に基づく値 × (1−wx) × wy+ (X0+1、Y0 +1)のエッジ判定結果に基づく値 × wx × wy
On the other hand, when the extracted pixel block of interest consisting of four points is a non-object boundary, the following equation is used.
Pixel value of (x, y) of image (a) = value based on edge determination result of (X0, Y0) × (1-wx) × (1-wy)
+ Value based on edge determination result of (X0 + 1, Y0) × wx × (1-wy) + value based on edge determination result of (X0, Y0 + 1) × edge of (1-wx) × wy + (X0 + 1, Y0 + 1) Value based on determination result × wx × wy

次に、幾何補正部5で生成される(a)〜(c)の画像について図22を参照して説明する。   Next, images (a) to (c) generated by the geometric correction unit 5 will be described with reference to FIG.

前景背景合成比率画像(a)は、文字や線画のオブジェクト境界、あるいは、網掛けの非オブジェクト境界のエッジ部で、0〜255の値をもつ多値画像になる。前景優先画像(b)は、文字(またはライン)、あるいは、網掛けのドットが入力画像に対してやや太めになった画像になる。背景優先画像(c)は、文字(またはライン)、あるいは、網掛けのドットが入力画像に対してやや細めになった画像になる。   The foreground / background composition ratio image (a) is a multivalued image having a value of 0 to 255 at the edge of a character or line drawing object boundary or a shaded non-object boundary. The foreground priority image (b) is an image in which characters (or lines) or shaded dots are slightly thicker than the input image. The background priority image (c) is an image in which characters (or lines) or shaded dots are slightly narrower than the input image.

優先度の高いオブジェクト優先画像(d)は、(b)に対応したオブジェクト情報画像になる。優先度の低いオブジェクト優先画像(e)は、(c)に対応したオブジェクト情報画像になる。   The object priority image (d) having a high priority is an object information image corresponding to (b). The object priority image (e) having a low priority is an object information image corresponding to (c).

次に、図8に示した構成にパラメータ選択部63を加えた構成について図23を参照して説明する。パラメータ選択部63は、オブジェクト境界判定結果に応じて、ドット寄せで適用する縦万線および横万線スクリーン用のパラメータを選択する。ドット寄せ部60は、前景背景合成比率画像(a)に対して、(c)を参照して、選択したパラメータを使ったドット寄せ処理を行い、0(白画素)または255(黒画素)の二値画像であるドット寄せ後の画像(a’)を生成する。   Next, a configuration in which the parameter selection unit 63 is added to the configuration shown in FIG. 8 will be described with reference to FIG. The parameter selection unit 63 selects the vertical line and horizontal line screen parameters to be applied by dot alignment according to the object boundary determination result. The dot aligning unit 60 performs dot aligning processing using the selected parameter with respect to the foreground / background composition ratio image (a) with reference to (c) to obtain 0 (white pixel) or 255 (black pixel). An image (a ′) after dot alignment, which is a binary image, is generated.

次に、第2実施形態におけるドット寄せ部60の出力について図24を参照して説明する。文字や線画などのオブジェクト境界、あるいは、網掛け領域などの非オブジェクト境界のエッジ部で0〜255の値をもつ多値画像であった(a)が、0(白画素)または255(黒画素)の二値画像に変換される。   Next, the output of the dot alignment unit 60 in the second embodiment will be described with reference to FIG. A multi-valued image (a) having a value of 0 to 255 at an edge of an object boundary such as a character or line drawing or a non-object boundary such as a shaded area is 0 (white pixel) or 255 (black pixel). ) To a binary image.

ドット寄せは、多値画像から二値画像への変換であるため、横線エッジに対しては縦万線スクリーンを適用して二値化し、縦線エッジに対しては横万線スクリーンを適用して二値化する、といった(a)の画像に対して方向別のスクリーン処理を適用する方法で行う。   Since dot alignment is a conversion from a multi-valued image to a binary image, the horizontal line edge is binarized by applying the vertical line screen, and the horizontal line screen is applied to the vertical line edge. This is performed by applying a direction-specific screen process to the image (a), such as binarization.

次に、パラメータ選択部63にて選択する、オブジェクト境界用のパラメータについて図25を参照して説明する。注目画素ブロックがオブジェクト境界である場合は、ドット寄せで適用する縦万線および横万線スクリーン用のパラメータを、図25に示したパラメータ配列から選択する。   Next, the object boundary parameters selected by the parameter selection unit 63 will be described with reference to FIG. When the pixel block of interest is an object boundary, the vertical line and horizontal line screen parameters to be applied by dot alignment are selected from the parameter array shown in FIG.

図25のパラメータ配列をDit(n)、 n=0、…、63とすると、nが偶数の要素には128未満の数値が、nが奇数の要素には128以上の数値が入るよう、すなわち小さい値と大きい値が交互に並んだ配列になるよう、規則的なパラメータ群として構成されている。例えば画素値128の横線に対してDit(n)をそのまま適用して閾値処理を行うと255、0、255、0、255、0、255、0、….が出力され、高周波な白黒パターンになる。Dit(n)は、高周波な白黒パターン(凹凸パターン)に変換することを狙ったパラメータ配列になっている。   When the parameter array in FIG. 25 is Dit (n), n = 0,..., 63, n is an even element, and a numerical value of less than 128 is entered, and n is an odd element. It is configured as a regular parameter group so that a small value and a large value are arranged alternately. For example, when threshold processing is performed by applying Dit (n) as it is to the horizontal line of the pixel value 128, 255, 0, 255, 0, 255, 0, 255, 0,. Is output, resulting in a high-frequency black and white pattern. Dit (n) is a parameter array that is intended to be converted into a high-frequency monochrome pattern (uneven pattern).

幾何補正後の座標(x、y)、 (x+1、y)、 (x、y+1)、 (x+1、y+1) (x、yは偶数)の4点に適用する縦万線スクリーンおよび横万線スクリーンを図26に示す。x%64は、xを64で割った余りである。従って、パラメータ選択部63は、Dit(x%64)、 Dit(x%64 +1)、 Dit(y%64)、 Dit(y%64+1)の4つを、図25のパラメータ配列から選択すればよい。   Vertical and horizontal line screens applied to four points of coordinates (x, y), (x + 1, y), (x, y + 1), (x + 1, y + 1) (x and y are even numbers) after geometric correction Is shown in FIG. x% 64 is the remainder of dividing x by 64. Therefore, the parameter selection unit 63 selects four parameters, Dit (x% 64), Dit (x% 64 +1), Dit (y% 64), and Dit (y% 64 + 1) from the parameter array of FIG. Good.

次に、パラメータ選択部63にて選択する、非オブジェクト境界用のパラメータについて図27を参照して説明する。注目画素ブロックが非オブジェクト境界である場合は、ドット寄せで適用する縦万線および横万線スクリーン用のパラメータを、図27に示したパラメータ配列から選択する。   Next, the non-object boundary parameters selected by the parameter selection unit 63 will be described with reference to FIG. When the pixel block of interest is a non-object boundary, the vertical line and horizontal line screen parameters to be applied by dot alignment are selected from the parameter array shown in FIG.

図27では、パラメータ配列をDit_r(m)(n)、m=0、…、7、n=0、…、63とすると、行ごとに、不規則に数値が並ぶよう、不規則なパラメータ群として構成されている。例えば画素値128の横線に対してDit_r(m)(n)をそのまま適用して閾値処理を行うと、1行目のパラメータを使った場合、64画素のうち32画素が白、32画素が黒のパターンが出力される。他の行のパラメータを使った場合も、白黒の割合は同じになるが、1行目を使った場合とは異なるパターンになる。   In FIG. 27, when the parameter array is Dit_r (m) (n), m = 0,..., 7, n = 0,..., 63, an irregular parameter group so that numerical values are irregularly arranged for each row. It is configured as. For example, when threshold processing is performed by applying Dit_r (m) (n) as it is to a horizontal line having a pixel value of 128, when the parameters in the first row are used, 32 pixels out of 64 pixels are white and 32 pixels are black. Pattern is output. When the parameters of other rows are used, the ratio of black and white is the same, but the pattern is different from that when the first row is used.

また、いずれにしても図26のように0、255、0、255、0、255、0、255、….といった規則的な出力にはならない。Dit_r(m)(n)は、不規則で分散性の良い白黒パターン、つまり凹凸パターンに変換することを狙ったパラメータ配列になっている。   In any case, 0, 255, 0, 255, 0, 255, 0, 255,. It is not a regular output. Dit_r (m) (n) is a parameter array that is intended to be converted into an irregular and highly dispersible black and white pattern, that is, a concavo-convex pattern.

幾何補正後の座標(x、y)、(x+1、y)、(x、y+1)、(x+1、y+1)(x、yは偶数) の4点に適用する縦万線スクリーンおよび横万線スクリーンを図28に示す。   Vertical line screen and horizontal line screen applied to four points of coordinates (x, y), (x + 1, y), (x, y + 1), (x + 1, y + 1) (x and y are even numbers) after geometric correction Is shown in FIG.

従って、パラメータ選択部63は、Dit_r((y/2)%8)(x%64)、Dit_r((y/2)%8)(x%64+1)、Dit_r((x/2)%8)(y%64)、Dit_r((x/2)%8)(y%64+ 1)の4つを、図27のパラメータ配列から選択すればよい。   Accordingly, the parameter selection unit 63 performs Dit_r ((y / 2)% 8) (x% 64), Dit_r ((y / 2)% 8) (x% 64 + 1), Dit_r ((x / 2)% 8) Four (y% 64) and Dit_r ((x / 2)% 8) (y% 64 + 1) may be selected from the parameter array in FIG.

例えばx=2、y=4の場合は、縦万線スクリーン用パラメータとしてDit_r(2)(2)とDit_r(2)(3)、横万線スクリーン用パラメータとしてDit_r(1)(4)とDit_r(1)(5)が選択される。   For example, when x = 2 and y = 4, Dit_r (2) (2) and Dit_r (2) (3) as vertical line screen parameters and Dit_r (1) (4) as horizontal line screen parameters. Dit_r (1) (5) is selected.

ここで選択したパラメータを使って閾値処理すると、2dot長単位のぶつ切りの線が形成されることも考えられるが、ここで選択したパラメータはエッジ部の1dot幅の部分に適用されるため、実際に2dot長単位のぶつ切りの線が出力画像上に形成される場合はない。   If threshold processing is performed using the parameter selected here, it may be possible to form a 2-dot long line, but since the parameter selected here is applied to the 1-dot width portion of the edge, There is no case in which a cut line of 2 dot length unit is formed on the output image.

次に、第2実施形態における閾値決定部602について図10を参照して説明する。第一の判定部600にて縦万線スクリーンを適用すると判定された場合は、パラメータ選択部63で選択された縦万線スクリーン用のパラメータを、閾値処理部603で適用する閾値として決定する。   Next, the threshold value determination unit 602 according to the second embodiment will be described with reference to FIG. When the first determination unit 600 determines that the vertical line screen is to be applied, the vertical line screen parameter selected by the parameter selection unit 63 is determined as a threshold to be applied by the threshold processing unit 603.

他方、第一の判定部600にて横万線スクリーンを適用すると判定された場合は、パラメータ選択部63で選択された横万線スクリーン用のパラメータを、閾値処理部603で適用する閾値として決定する。   On the other hand, if the first determination unit 600 determines that the horizontal line screen is to be applied, the horizontal line screen parameter selected by the parameter selection unit 63 is determined as the threshold value to be applied by the threshold processing unit 603. To do.

第一の判定部600にて斜め万線スクリーンを適用すると判定された場合は、パラメータ選択部63で選択された縦万線スクリーン用のパラメータを、ドット寄せ方向に応じて並べ替えたものを、閾値処理部603で適用する閾値として決定する。   When it is determined by the first determination unit 600 that the oblique line screen is to be applied, the parameters for the vertical line screen selected by the parameter selection unit 63 are rearranged according to the dot alignment direction, The threshold processing unit 603 determines the threshold to be applied.

次に、第2実施形態における処理画像例について図29を参照して説明する。(1)から(3)の黒線、つまり黒文字の一部は、図24のドット寄せ結果を使って合成部61で画像を生成するため、エッジ部がギザギザした形状の画像になる。オブジェクト情報も、画像に合わせてギザギザの山部分、つまり黒画素は文字オブジェクト、ギザギザの谷部分はグラフィックオブジェクトに変換される。   Next, an example of a processed image in the second embodiment will be described with reference to FIG. The black lines in (1) to (3), that is, some of the black characters, are generated with the combining unit 61 using the dot shift result of FIG. 24, so that the edge portion has a jagged shape. The object information is also converted into a jagged mountain portion, that is, a black pixel is a character object, and a jagged valley portion is converted to a graphic object in accordance with the image.

(1)は、黒文字を構成する横線を、下(または上)に0.5画素分ずらす幾何補正を想定した図になっており、線画の上下でギザギザ形状が50%を占めている。(2)は下に0.25画素分ずらす幾何補正を想定した図になっており、線画の上部は75%、下部は25%のギザギザ形状になる。   (1) is a diagram assuming a geometric correction in which a horizontal line constituting a black character is shifted downward (or up) by 0.5 pixels, and a jagged shape occupies 50% at the top and bottom of the line drawing. (2) is a diagram that assumes geometric correction by shifting 0.25 pixels downward, and the line drawing has a jagged shape with 75% at the top and 25% at the bottom.

また、必ず一様なギザギザ模様になるわけではなく、(3)のように回転を伴う幾何補正を行う場合や入力画像の線画が元々傾きをもっている場合は、比率がグラデーション状に変化するギザギザ形状になる。このように、エッジ部に凹凸をつけることで、1dot未満の単位で線の重心を変えることを可能にしている。   In addition, it does not always have a uniform jagged pattern. When geometric correction with rotation is performed as in (3) or when the line drawing of the input image has an original inclination, the jagged shape in which the ratio changes in a gradation shape. become. In this way, by making the edge portion uneven, it is possible to change the center of gravity of the line in units of less than 1 dot.

(1)から(3)は、図25で説明したオブジェクト境界用のパラメータを使って処理されているため、エッジ部に比較的高周波な凹凸パターンが付く。昨今のプリンタ出力解像度では目視で確認できないレベルの凹凸であり、まっすぐな直線が描画されているように見えるはずである。従って、画像変形による線のがたつきを防止する効果がある。   Since (1) to (3) are processed using the object boundary parameters described with reference to FIG. 25, a relatively high frequency uneven pattern is attached to the edge portion. It is unevenness at a level that cannot be visually confirmed with the current printer output resolution, and should appear to be a straight line drawn. Therefore, there is an effect of preventing the rattling of the line due to the image deformation.

(4)は、網掛け部の処理画像である。網掛けドットのエッジに凹凸をつけることで1dot未満の単位で重心を変えているのは同じであるが、図27で説明した非オブジェクト境界用のパラメータを使って処理されているため、(1)や(2)のような規則的な凹凸パターンではなく、不規則なパターンの凹凸が付く。従って、モアレの発生を防止する効果がある。   (4) is a processed image of the shaded portion. It is the same that the center of gravity is changed in units of less than 1 dot by making irregularities on the edges of the shaded dots, but since it is processed using the non-object boundary parameters described in FIG. ) And (2) are not regular irregular patterns, but irregular patterns are irregular. Therefore, there is an effect of preventing the occurrence of moire.

モアレは、周期性のあるパターン同士が、それぞれ異なる周期をもつ場合に、干渉によって発生する模様である。本実施形態における周期性のあるパターン同士とは、一方が網掛け、もう一方がここで言っている凹凸パターンである。網掛けには、いろいろな周期の網掛けがあるため、凹凸パターンの周期と異なる周期をもつ網掛けも存在し、モアレが発生するケースが出てくる。   Moire is a pattern that occurs due to interference when patterns with periodicity have different periods. In the present embodiment, the patterns having periodicity are the uneven patterns which one is shaded and the other is here. Since there are various periods of shading, there is also a case where there is a shading having a period different from the period of the concavo-convex pattern, and moire occurs.

そこで、本実施形態では、干渉発生要因の一方である凹凸パターンの方の周期性をくずしてやることで、干渉は発生しなくなる。なお、ここでの「不規則な」とは、周期性をくずした、非周期的な、程度の意味で使用している。また、本実施形態では規則的に配列されたパラメータ群や不規則に配列されたパラメータ群を予め用意しておく例で説明したが、一般的な乱数発生方式を使って逐次発生させたパラメータを使うようにしてもよい。   Therefore, in the present embodiment, interference is not generated by destroying the periodicity of the uneven pattern, which is one of the causes of interference. Here, “irregular” is used in the sense of non-periodicity with a loss of periodicity. Further, in the present embodiment, an example in which a parameter group that is regularly arranged or a parameter group that is irregularly arranged is prepared in advance has been described. However, parameters that are sequentially generated using a general random number generation method are described. You may make it use.

なお、従来の処理画像例について図30を参照して説明する。例えば特許文献1のように、従来は、前景・背景二値化部6が設けられていない。そのため、幾何補正後に前景(黒文字)と背景(色地)の境界部で中間濃度画素が発生する。よって、擬似階調処理後は、その中間濃度画素が文字オブジェクト用のスクリーンパターンに置き換わり、色地部分がグラフィックオブジェクト用のスクリーンパターンに置き換わることになり、線数が異なるスクリーンパターンの境界部で白抜けが発生してしまうことになる。   A conventional processed image example will be described with reference to FIG. For example, as in Patent Document 1, conventionally, the foreground / background binarization unit 6 is not provided. Therefore, intermediate density pixels are generated at the boundary between the foreground (black characters) and the background (color background) after geometric correction. Therefore, after the pseudo gradation processing, the intermediate density pixel is replaced with the screen pattern for the character object, and the color background portion is replaced with the screen pattern for the graphic object. Omissions will occur.

なお、上述する各実施の形態は、本発明の好適な実施の形態であり、本発明の要旨を逸脱しない範囲内において種々変更実施が可能である。例えば、上述した本実施形態の画像処理装置における各処理を、ハードウェア、又は、ソフトウェア、あるいは、両者の複合構成を用いて実行することも可能である。   Each of the above-described embodiments is a preferred embodiment of the present invention, and various modifications can be made without departing from the scope of the present invention. For example, each process in the above-described image processing apparatus of the present embodiment can be executed using hardware, software, or a combined configuration of both.

なお、ソフトウェアを用いて処理を実行する場合には、処理シーケンスを記録したプログラムを、専用のハードウェアに組み込まれているコンピュータ内のメモリにインストールして実行させることが可能である。あるいは、各種処理が実行可能な汎用コンピュータにプログラムをインストールして実行させることが可能である。   In the case of executing processing using software, it is possible to install and execute a program in which a processing sequence is recorded in a memory in a computer incorporated in dedicated hardware. Alternatively, the program can be installed and executed on a general-purpose computer capable of executing various processes.

1 入力画像取得部
2 レンダリング部
3 ずれ量取得部
4 幾何補正パラメータ設定部
5 幾何補正部
6 前景・背景二値化部
7 擬似階調処理部
8 プリンタ出力部
50 対応座標点算出部
51 4点抽出部
52 第1のオブジェクト抽出部
53 第2のオブジェクト抽出部
54 補間演算部
55 前景画素値選択部
56 背景画素値選択部
57 蓄積部
58 エッジ判定部
59 前景・背景画素値選択部
60 ドット寄せ部
61 合成部
62 オブジェクト境界判定部
63 パラメータ選択部
600 第1の判定部
601 第2の判定部
602 閾値決定部
603 閾値処理部
DESCRIPTION OF SYMBOLS 1 Input image acquisition part 2 Rendering part 3 Deviation amount acquisition part 4 Geometric correction parameter setting part 5 Geometric correction part 6 Foreground / background binarization part 7 Pseudo gradation processing part 8 Printer output part 50 Corresponding coordinate point calculation part 51 4 points Extraction unit 52 First object extraction unit 53 Second object extraction unit 54 Interpolation calculation unit 55 Foreground pixel value selection unit 56 Background pixel value selection unit 57 Storage unit 58 Edge determination unit 59 Foreground / background pixel value selection unit 60 Dot alignment Unit 61 Combining Unit 62 Object Boundary Determination Unit 63 Parameter Selection Unit 600 First Determination Unit 601 Second Determination Unit 602 Threshold Determination Unit 603 Threshold Processing Unit

特開2013−66153号公報JP 2013-66153 A

Claims (13)

入力された画像データに対して幾何補正を行う画像処理装置であって、
前記画像データのオブジェクト情報に基づいて画素値が異なる複数の画素値補正画像データを生成する幾何補正手段と、
前記幾何補正手段によって生成された前記複数の画素値補正画像データから、画素ごとに適用する画素値を選択して補正画像合成データを生成する合成手段と、
前記合成手段により生成された補正画像合成データに対して疑似階調処理を施す疑似階調処理手段と、
を備えることを特徴とする画像処理装置。
An image processing apparatus that performs geometric correction on input image data,
Geometric correction means for generating a plurality of pixel value corrected image data having different pixel values based on object information of the image data;
A synthesis unit that selects a pixel value to be applied for each pixel from the plurality of pixel value correction image data generated by the geometric correction unit, and generates corrected image synthesis data;
Pseudo gradation processing means for performing pseudo gradation processing on the corrected image composition data generated by the composition means;
An image processing apparatus comprising:
前記幾何補正手段は、幾何補正後の所定画素に対応する前記画像データにおける注目座標周辺の座標点のオブジェクト情報と前記オブジェクト情報ごとの優先度に基づいて前記注目座標の画素値を決定し、画素値が異なる複数の画素値補正画像データを生成することを特徴とする請求項1記載の画像処理装置。   The geometric correction means determines the pixel value of the target coordinate based on the object information of the coordinate point around the target coordinate in the image data corresponding to the predetermined pixel after the geometric correction and the priority for each object information, The image processing apparatus according to claim 1, wherein a plurality of pixel value corrected image data having different values are generated. 前記画像データにおける注目画素のエッジ情報を取得するエッジ判定手段を備え、
前記幾何補正手段は、前記画像データにおける前記注目座標がオブジェクト境界である場合は注目座標周辺の座標点のオブジェクト情報と前記オブジェクト情報ごとの優先度に基づいて前記注目座標の画素値を決定し、前記画像データにおける注目座標が非オブジェクト境界である場合は前記注目座標周辺の座標点のエッジ情報に基づいて前記注目座標の画素値を決定して画素値補正画像データを生成することを特徴とする請求項2記載の画像処理装置。
Edge determination means for acquiring edge information of the pixel of interest in the image data;
The geometric correction means determines the pixel value of the target coordinate based on the object information of the coordinate point around the target coordinate and the priority for each object information when the target coordinate in the image data is an object boundary, When the target coordinate in the image data is a non-object boundary, pixel value corrected image data is generated by determining a pixel value of the target coordinate based on edge information of coordinate points around the target coordinate. The image processing apparatus according to claim 2.
前記幾何補正手段は、前記注目座標周辺の座標点のオブジェクト情報と、前記注目座標の座標情報に基づいて前記注目座標の画素値を決定して多値補正画像データを生成し、
前記幾何補正手段によって生成された前記多値補正画像データの画素値を二値化処理した二値化画像データを生成するドット寄せ手段を備え、
前記合成手段は、前記ドット寄せ手段によって生成された前記二値化画像データに基づいて、前記複数の画素値補正画像データから、画素ごとに適用する画素値を選択して補正画像合成データを生成することを特徴とする請求項2又は3記載の画像処理装置。
The geometric correction means determines the pixel value of the target coordinate based on the object information of the coordinate point around the target coordinate and the coordinate information of the target coordinate, and generates multi-value corrected image data,
Comprising dot shifting means for generating binarized image data obtained by binarizing the pixel values of the multi-value corrected image data generated by the geometric correcting means;
The synthesizing unit generates corrected image synthesized data by selecting a pixel value to be applied for each pixel from the plurality of pixel value corrected image data based on the binarized image data generated by the dot shifting unit. The image processing apparatus according to claim 2, wherein the image processing apparatus is an image processing apparatus.
前記幾何補正手段は、前記画像データにおける注目座標がオブジェクト境界である場合は前記画像データのオブジェクト情報に基づいて前記注目座標の画素値を決定し、前記画像データにおける注目座標が非オブジェクト境界である場合は前記画像データのエッジ情報に基づいて前記注目座標の画素値を決定して多値補正画像データを生成することを特徴とする請求項4記載の画像処理装置。   The geometric correction unit determines a pixel value of the target coordinate based on object information of the image data when the target coordinate in the image data is an object boundary, and the target coordinate in the image data is a non-object boundary. 5. The image processing apparatus according to claim 4, wherein the multi-value corrected image data is generated by determining a pixel value of the target coordinate based on edge information of the image data. 前記ドット寄せ手段は、二値化処理に用いるスクリーンを判定する第1の判定手段を備えることを特徴とする請求項4又は5記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the dot shifting unit includes a first determination unit that determines a screen used for binarization processing. 前記ドット寄せ手段は、二値化処理におけるドット寄せ方向を判定する第2の判定手段を備えることを特徴とする請求項4から6の何れか1項に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the dot shift unit includes a second determination unit that determines a dot shift direction in the binarization process. 前記画像データにおける注目画素がオブジェクト境界であるか非オブジェクト境界であるかに基づいて前記ドット寄せ手段において用いられるスクリーンを規定するパラメータを所定のパラメータ群から選択するパラメータ選択手段を備えることを特徴とする請求項5から7の何れか1項に記載の画像処理装置。   Characterized by comprising parameter selection means for selecting a parameter defining a screen used in the dot shifting means from a predetermined parameter group based on whether the pixel of interest in the image data is an object boundary or a non-object boundary. The image processing apparatus according to any one of claims 5 to 7. 前記パラメータ選択手段は、前記画像データにおける注目画素がオブジェクト境界である場合、前記ドット寄せ手段において用いられるスクリーンを規定するパラメータを規則的に配列されたパラメータ群から選択または逐次発生させることを特徴とする請求項8記載の画像処理装置。   The parameter selection means, when a pixel of interest in the image data is an object boundary, selects or sequentially generates a parameter defining a screen used in the dot shifting means from a regularly arranged parameter group. The image processing apparatus according to claim 8. 前記パラメータ選択手段は、前記画像データにおける注目画素が非オブジェクト境界である場合、前記ドット寄せ手段において用いられるスクリーンを規定するパラメータを不規則に配列されたパラメータ群から選択または逐次発生させることを特徴とする請求項8又は9記載の画像処理装置。   The parameter selection unit selects or sequentially generates a parameter for defining a screen used in the dot shifting unit from an irregularly arranged parameter group when a pixel of interest in the image data is a non-object boundary. The image processing apparatus according to claim 8 or 9. 前記幾何補正手段は、前記画像データの歪みを補正し、前記画像データのオブジェクト情報に基づいて、オブジェクト情報が異なる複数のオブジェクト補正画像データを生成し、
前記合成手段は、前記ドット寄せ手段によって二値化された前記二値化画像データに基づいて、前記複数の画素値補正画像データと、前記複数のオブジェクト補正画像データとから、画素ごとに適用する画素値とオブジェクト情報を選択して前記補正画像合成データを生成し、
前記疑似階調処理手段は、前記合成部によって生成された前記補正画像合成データに対して施す疑似階調処理に使用するスクリーンを、前記補正画像合成データのオブジェクト情報に基づいて判定することを特徴とする請求項2から10の何れか1項に記載の画像処理装置。
The geometric correction unit corrects distortion of the image data, generates a plurality of object corrected image data having different object information based on the object information of the image data,
The synthesizing unit applies pixel by pixel from the plurality of pixel value corrected image data and the plurality of object corrected image data based on the binarized image data binarized by the dot shifting unit. Select the pixel value and object information to generate the corrected image composition data,
The pseudo gradation processing means determines a screen to be used for pseudo gradation processing to be performed on the corrected image combined data generated by the combining unit based on object information of the corrected image combined data. The image processing apparatus according to any one of claims 2 to 10.
入力された画像データのオブジェクト情報に基づいて画素値が異なる複数の画素値補正画像データを生成して記憶部に記憶するステップと、
前記記憶部に記憶された前記複数の画素値補正画像データから、画素ごとに適用する画素値を選択して補正画像合成データを生成して前記記憶部に記憶するステップと、
前記記憶部に記憶された補正画像合成データに対して疑似階調処理を施すステップと、
を備えることを特徴とする画像処理方法。
Generating a plurality of pixel value corrected image data having different pixel values based on the object information of the input image data and storing them in the storage unit;
Selecting a pixel value to be applied for each pixel from the plurality of pixel value corrected image data stored in the storage unit, generating corrected image composite data, and storing the corrected image composite data in the storage unit;
Performing pseudo gradation processing on the corrected image composite data stored in the storage unit;
An image processing method comprising:
入力された画像データの歪みを補正し、前記画像データのオブジェクト情報に基づいて画素値が異なる複数の画素値補正画像データを生成して記憶部に記憶する処理と、
前記記憶部に記憶された前記複数の画素値補正画像データから、画素ごとに適用する画素値を選択して補正画像合成データを生成して前記記憶部に記憶する処理と、
前記記憶部に記憶された補正画像合成データに対して疑似階調処理を施す処理と、
をコンピュータに実行させることを特徴とするプログラム。
Processing for correcting distortion of input image data, generating a plurality of pixel value corrected image data having different pixel values based on object information of the image data, and storing the data in a storage unit;
A process of selecting a pixel value to be applied for each pixel from the plurality of pixel value corrected image data stored in the storage unit, generating corrected image composite data, and storing the corrected image composite data in the storage unit;
A process of performing pseudo gradation processing on the corrected image composite data stored in the storage unit;
A program that causes a computer to execute.
JP2015198477A 2014-12-25 2015-10-06 Image processing apparatus, image processing method, and program Expired - Fee Related JP6651776B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US14/963,310 US9681022B2 (en) 2014-12-25 2015-12-09 Image processing apparatus, image processing method, and recording medium
EP15199088.4A EP3038338B1 (en) 2014-12-25 2015-12-10 Image processing apparatus, image processing method, and carrier means

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014263689 2014-12-25
JP2014263689 2014-12-25

Publications (2)

Publication Number Publication Date
JP2016123070A true JP2016123070A (en) 2016-07-07
JP6651776B2 JP6651776B2 (en) 2020-02-19

Family

ID=56329222

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015198477A Expired - Fee Related JP6651776B2 (en) 2014-12-25 2015-10-06 Image processing apparatus, image processing method, and program

Country Status (1)

Country Link
JP (1) JP6651776B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000013605A (en) * 1998-06-18 2000-01-14 Minolta Co Ltd Image processor, method and record medium recording image processing program
JP2000076432A (en) * 1999-08-27 2000-03-14 Seiko Epson Corp Image data interpolation device and method therefor, and medium having recorded image data interpolation program thereon
JP2009225422A (en) * 2008-02-19 2009-10-01 Canon Inc Image encoding apparatus, image processing apparatus, and control method thereof
JP2013026865A (en) * 2011-07-22 2013-02-04 Konica Minolta Business Technologies Inc Image processing apparatus and image processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000013605A (en) * 1998-06-18 2000-01-14 Minolta Co Ltd Image processor, method and record medium recording image processing program
JP2000076432A (en) * 1999-08-27 2000-03-14 Seiko Epson Corp Image data interpolation device and method therefor, and medium having recorded image data interpolation program thereon
JP2009225422A (en) * 2008-02-19 2009-10-01 Canon Inc Image encoding apparatus, image processing apparatus, and control method thereof
JP2013026865A (en) * 2011-07-22 2013-02-04 Konica Minolta Business Technologies Inc Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP6651776B2 (en) 2020-02-19

Similar Documents

Publication Publication Date Title
JP6781406B2 (en) Image processing equipment and computer programs
EP3038338B1 (en) Image processing apparatus, image processing method, and carrier means
JP2011193230A (en) Image processing program and image processing device
JP4111190B2 (en) Image processing device
US10424066B2 (en) Image analyzing apparatus that corrects isolated pixels in target image data
JP5743187B2 (en) Image area separation method, program for executing the same, and image area separation apparatus
JP5458946B2 (en) Image processing apparatus, program, and recording medium
JP5825306B2 (en) Image scaling apparatus and image scaling method
JP6651776B2 (en) Image processing apparatus, image processing method, and program
JP6256747B2 (en) Image conversion processing method, program for executing the same, and image conversion processing apparatus
JP4422128B2 (en) Method for correcting gradation of binary image
JP6880833B2 (en) Control device for causing the print execution unit to execute printing
JP6388337B2 (en) Image conversion processing method, program for executing the same, and image conversion processing apparatus
US10375275B2 (en) Image processing apparatus specifying first and second pixels, and generating processed image data in which the first and second pixels have first and second colors respectively
JP5915410B2 (en) Image processing apparatus and program
JP6108218B2 (en) Image conversion processing method, program for executing the same, and image conversion processing apparatus
JP5679284B2 (en) Pixel number conversion method, program for executing the same, and pixel number conversion device
JP2013526733A (en) How to restore raster image edges
JP2018148378A (en) Image processing device and computer program
JP6108217B2 (en) Image conversion processing method, program for executing the same, and image conversion processing apparatus
JP6732428B2 (en) Image processing device, halftone dot determination method, and program
EP2654283A1 (en) Method for halftoning
JP6548256B2 (en) Method of generating verification image, program for executing the same, and image processing apparatus
JP5601577B2 (en) Pixel number conversion method, program for executing the same, and pixel number conversion device
JP2015207259A (en) Image processor, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180910

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20181019

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191008

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191129

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191224

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200106

R151 Written notification of patent or utility model registration

Ref document number: 6651776

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees