WO2011102334A1 - 画像形成装置、画像形成方法及びプログラム - Google Patents

画像形成装置、画像形成方法及びプログラム Download PDF

Info

Publication number
WO2011102334A1
WO2011102334A1 PCT/JP2011/053111 JP2011053111W WO2011102334A1 WO 2011102334 A1 WO2011102334 A1 WO 2011102334A1 JP 2011053111 W JP2011053111 W JP 2011053111W WO 2011102334 A1 WO2011102334 A1 WO 2011102334A1
Authority
WO
WIPO (PCT)
Prior art keywords
image data
density
image
corrected
correction
Prior art date
Application number
PCT/JP2011/053111
Other languages
English (en)
French (fr)
Inventor
陽一 滝川
英希 久保
Original Assignee
キヤノン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by キヤノン株式会社 filed Critical キヤノン株式会社
Priority to JP2012500594A priority Critical patent/JP5665840B2/ja
Priority to US13/166,597 priority patent/US8373902B2/en
Publication of WO2011102334A1 publication Critical patent/WO2011102334A1/ja
Priority to US13/734,831 priority patent/US8830524B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03GELECTROGRAPHY; ELECTROPHOTOGRAPHY; MAGNETOGRAPHY
    • G03G15/00Apparatus for electrographic processes using a charge pattern
    • G03G15/50Machine control of apparatus for electrographic processes using a charge pattern, e.g. regulating differents parts of the machine, multimode copiers, microprocessor control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/409Edge or detail enhancement; Noise or error suppression
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B41PRINTING; LINING MACHINES; TYPEWRITERS; STAMPS
    • B41JTYPEWRITERS; SELECTIVE PRINTING MECHANISMS, i.e. MECHANISMS PRINTING OTHERWISE THAN FROM A FORME; CORRECTION OF TYPOGRAPHICAL ERRORS
    • B41J2/00Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed
    • B41J2/435Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed characterised by selective application of radiation to a printing material or impression-transfer material
    • B41J2/47Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed characterised by selective application of radiation to a printing material or impression-transfer material using the combination of scanning and modulation of light
    • B41J2/471Typewriters or selective printing mechanisms characterised by the printing or marking process for which they are designed characterised by selective application of radiation to a printing material or impression-transfer material using the combination of scanning and modulation of light using dot sequential main scanning by means of a light deflector, e.g. a rotating polygonal mirror
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03GELECTROGRAPHY; ELECTROPHOTOGRAPHY; MAGNETOGRAPHY
    • G03G2215/00Apparatus for electrophotographic processes
    • G03G2215/00025Machine control, e.g. regulating different parts of the machine
    • G03G2215/00029Image density detection
    • G03G2215/00033Image density detection on recording member
    • G03G2215/00037Toner image detection
    • G03G2215/00042Optical detection

Definitions

  • the present invention relates to a technique for suppressing horizontal stripes (banding) due to the density of light and shade.
  • an image forming apparatus such as an electrophotographic printer or the like forms an electrostatic latent image corresponding to an image signal on the photosensitive member by exposing the photosensitive member using laser light controlled according to the image signal. To do.
  • the formed electrostatic latent image is developed and transferred to a recording medium such as paper to form an output image.
  • a printing position is displaced due to various causes, and the quality of the image is significantly deteriorated.
  • the position in the sub-scanning direction when the laser beam or the like scans the image carrier is displaced, resulting in unevenness in the sub-scan line interval.
  • horizontal stripes hereinafter referred to as banding
  • the scanning line interval is widened, so the exposure amount per predetermined area is reduced and the density is reduced.
  • the rotation speed is low, the scanning line interval is narrowed, so that the exposure amount per predetermined area is increased and the density is increased.
  • the above-described method significantly deteriorates image quality when an image having specific characteristics is corrected.
  • a texture is generated in a high frequency part of an image due to interference between the halftone process and the density correction process.
  • the second method sharpness unevenness occurs, and the unevenness is particularly noticeable in the low frequency part.
  • the image forming apparatus includes a detecting unit that detects a fluctuation amount of a pixel position or density in input image data when printed, and the input according to the fluctuation amount detected by the detecting unit.
  • a first correction unit that corrects the image data, and a second correction that corrects the input image data by correction different from the first correction unit according to the amount of variation detected by the detection unit.
  • combining means for creating image data obtained by combining the correction results obtained by the first correcting means or the second correcting means depending on whether a predetermined condition is satisfied for each area of the input image data.
  • printing means for printing the image data created by the synthesizing means on a recording medium.
  • FIG. 1 is a block diagram illustrating a configuration example of an image forming apparatus according to an embodiment. It is a figure shown in the detailed structural example of the printer engine which concerns on embodiment. It is a flowchart which shows an example of the production process procedure of the image data for output. It is a flowchart which shows an example of the process sequence of the area
  • FIG. It is a figure which shows an example of a density profile. It is a figure explaining the image quality degradation which generate
  • FIG. 1 is a block diagram illustrating a configuration example of an image forming apparatus 100 according to the present embodiment.
  • the image forming apparatus 100 includes a printer controller 1, a printer engine 2, and a control unit 3.
  • the printer controller 1 includes a first correction unit 11, a second correction unit 12, an image data storage unit 13, and a synthesis processing unit 14, in order to suppress horizontal stripes (banding) caused by density gradation on the output image. The correction process is performed.
  • the printer controller 1 transmits / receives a control command, information, and the like to / from the printer engine 2 and transmits image data.
  • the printer engine 2 includes a printer engine control unit 21, a device group 22, and a sensor group 23.
  • the device group 22 includes a motor used for driving an image carrier and a paper transport system
  • the sensor group 23 includes a temperature sensor, a humidity sensor, a density sensor, a speed sensor, a position sensor, and the like.
  • the printer engine control unit 21 controls the device group 22 according to information input from the printer controller 1 and information from the sensor group 23.
  • the control unit 3 has an interface for connecting to a hard disk drive, personal computer, server, network, etc. (not shown), and outputs image data to the printer controller 1.
  • FIG. 2 is a diagram showing a detailed configuration example of the printer engine 2 in FIG.
  • a charger 203 charges the photosensitive drum 202.
  • the laser scanner 204 drives the semiconductor laser in accordance with the input image data and irradiates the laser beam.
  • the laser beam is reflected by the rotating polygon mirror and scans the photosensitive drum 202 to form a latent image.
  • the developing unit 205 develops the latent image recorded on the photosensitive drum 202 and forms a toner image on the photosensitive drum 202.
  • the transfer device 207 transfers the toner image on the photosensitive drum 202 to a recording medium such as paper.
  • the fixing device 208 fixes the toner image transferred to the recording medium to the recording medium by heat and pressure.
  • the developing sleeve 214 is disposed facing the photosensitive drum 202.
  • the density sensor 215 measures the density of the patch developed on the photosensitive drum 202.
  • the speed sensor 216 measures the rotational speed of the photosensitive drum 202.
  • a mark M1 (not shown) is formed on the surface of the photosensitive drum 202.
  • the mark M1 is formed, for example, outside an image forming area (an area where an electrostatic latent image and a toner image can be formed) on the photosensitive drum 202.
  • a phase sensor (not shown) that detects the mark M1 is disposed opposite to the photosensitive drum 202. The phase sensor detects the mark M1 every time the photosensitive drum 202 rotates once.
  • FIG. 1 only a single image forming station (including the photosensitive drum 202, the charger 203, the developing unit 205, etc.) is shown in FIG.
  • image forming stations for cyan, magenta, yellow, and black are sequentially arranged on the transfer unit 207 along the moving direction thereof.
  • the developing devices 205 of the respective colors may be arranged around one photosensitive drum 202, or the developing devices 205 of the respective colors may be arranged in a rotatable housing. In either case, a desired developing device 205 is opposed to the photosensitive drum 202 so as to develop a desired color.
  • FIG. 3 is a flowchart showing a procedure of banding correction processing performed by the image forming apparatus 100.
  • the printer controller 1 inputs image data from the control unit 3 and stores it in the image data storage unit 13.
  • the first correction unit 11 creates position-corrected image data. Details of the banding correction processing performed in the first correction unit 11 will be described with reference to FIG. Banding correction processing is performed for each pixel of image data.
  • FIG. 7A an example will be described in which a pixel whose deviation amount is 0.4 times the 1 pix width is corrected.
  • the center of gravity position obtained by combining the dots printed according to the correction target pixel and the dots printed according to the adjacent pixels matches the reference position.
  • the reference position is a print position of the correction target pixel when the photosensitive drum 202 is rotating at a constant rotation speed at a constant speed. In this way, dots are formed at desired positions by moving the position of the pixel to be corrected by the reciprocal of the deviation amount.
  • the center of gravity position is simulated by appropriately distributing the density level of the correction target pixel to the two pixels. Therefore, the print position can be made to coincide with the reference position in a pseudo manner by moving an amount of 1 pix width or less.
  • the banding correction described with reference to FIG. 7 in order to determine the pixel value of the i-th scanning line to be processed, it is necessary to calculate the total value of density values distributed to the i-th scanning line.
  • the pixel value (Y (j)) of each scanning line of the input image data is set to the reference position (Xref (i)) and the corrected position (Xcor (j) ))
  • the pixel value (Y (j)) after banding correction is calculated by distributing based on the difference (Dst (i, j)).
  • the sub-scanning direction corresponds to the rotation direction of the photosensitive drum.
  • the corrected position in the sub-scanning direction is calculated from the difference between the actual position in the sub-scanning direction of the j-th scanning line to be corrected and the reference position.
  • the actual position of the jth scan line to be corrected can be detected as follows.
  • the rotational speed of the photosensitive drum 202 is detected by the speed sensor 216 of the printer engine 2.
  • the position on the circumferential surface of the photosensitive drum 202 (position in the sub-scanning direction) is associated with the rotational speed.
  • the actual position in the sub-scanning direction is calculated using the rotation speed data associated with the position on the circumferential surface of the photosensitive drum 202.
  • Xcor (j) Xref (j)-(Xerr (j) -Xref (j))
  • Xref (j) is a reference position in the sub-scanning direction corresponding to the pixel on the j-th scanning line.
  • Xerr (j) is the printing position (actual position) of the pixel on the jth scanning line in the sub-scanning direction.
  • Xcor (j) is a corrected position in the sub-scanning direction of the pixel on the j-th scanning line.
  • Xcor (j) is a position in the sub-scanning direction on the image data in consideration of a shift occurring in the process.
  • Dst (i, j)
  • the ratio of distributing the pixel value on the jth scanning line to the pixels at the same scanning position on the ith scanning line is calculated.
  • the pixel position at the same scanning position is a pixel having the same position in the main scanning direction.
  • Cvr (i, j) 1-Dst (i, j) if Dst (i, j) ⁇ 1 0 otherwise
  • Dst (i, j) is greater than 1, it indicates that the corrected position (Xcor (j)) is not near Xref (i), and therefore the distribution ratio is set to 0.
  • the pixel value (Y (j)) of each scanning line of the input image data is distributed to the pixels at the same scanning position on the i-th scanning line using the calculated Cvr (i, j).
  • the pixel value after banding correction (Ycor (i)) is calculated by The process of calculating Ycor (i) is performed for each pixel, and the pixel value Y (j) at the same scanning position as Ycor (i) in the jth scanning line is used.
  • Ycor (i) ⁇ (Cvr (i, j) * Y (j))
  • indicates that the result calculated by changing j is added.
  • step S302 the calculation of the actual position using the phase sensor and the calculation of Cvr (i, j) using the actual position do not need to be performed in real time when creating the position-corrected image data in step S302.
  • the calculation of the actual position using the phase sensor and the calculation of Cvr (i, j) using the actual position are performed when a certain condition is satisfied, for example, when the printer engine 2 is turned on or every predetermined number of prints. Hold Cvr (i, j).
  • step S302 the stored Cvr (i, j) is used to calculate Ycor (i) from the image data.
  • step S303 the second correction unit 12 performs banding correction processing based on the density correction to create image data that has been density corrected.
  • the second correction unit 12 reads a density correction value corresponding to the position on the photosensitive drum held in advance according to the position of the pixel to be processed, and adds the correction value to the pixel to be processed.
  • FIG. 8A is an example of a density profile to be created.
  • the density of the toner image formed on the photosensitive drum 202 is detected by the density sensor 215.
  • the timing at which the phase sensor detects the mark M1 and the detected density are synchronized to associate the position on the peripheral surface of the photosensitive drum 202 with the density, thereby creating a density profile.
  • FIG. 8B is a correction value created from the density profile shown in FIG.
  • the second correction unit 12 increases or decreases the pixel value of the image according to the generated density fluctuation, thereby canceling the density fluctuation and forming an image with a desired density.
  • the correction value is data indicating the increase / decrease amount of the pixel value at each position. Therefore, as illustrated in FIG. 8, the correction value is a large value in the correction data at a position where the density is low in the density profile. That is, in the correction process, correction is performed so as to decrease the pixel value at the position. In this way, by correcting the image data according to the generated density fluctuation, it is possible to cancel the density fluctuation and form an image with a desired density.
  • the banding process based on density correction is not limited to the process of adding the correction value, but calculates a coefficient corresponding to the position from the density profile, and multiplies the pixel value by the coefficient so as to cancel the brain fluctuation. It doesn't matter.
  • image quality degradation that occurs in the position-corrected image data creation process will be described below with reference to FIG.
  • image quality degradation is particularly noticeable when processing is performed on a low-frequency image as shown in FIG.
  • shading unevenness as shown in FIG. 9B is generated in the position-corrected image data to be created, and the unevenness is conspicuous in the formed image.
  • image quality degradation that occurs in the density-corrected image data creation process will be described below with reference to FIG.
  • image quality degradation is particularly noticeable when processing is performed on a high-frequency image as shown in FIG.
  • the density-corrected image data to be created is corrected to be darker than the input image as shown in FIG. FIG. 10C shows an image obtained by performing halftone processing on the density-corrected image data.
  • an area having a density of 0% has a positive density value, so that dots are generated in the area in the halftone image.
  • the density-corrected image data to be created is corrected lightly as compared with the input image as shown in FIG.
  • FIG. 10E shows an image obtained by performing halftone processing on the density-corrected image data. Due to the correction, when the density is 100%, the density becomes light, so that some dots in the region disappear in the halftone image. As illustrated above, the halftone process is performed on each corrected image data to generate and disappear dots, whereby a texture that is not present in the input image is visually recognized.
  • the image quality degradation due to the position-corrected image data creation process and the density-corrected image data creation process described above is conspicuous only when an image having a specific feature is corrected.
  • Image quality degradation due to position-corrected image data creation processing is noticeable in low-frequency images and is small in high-frequency images.
  • Degradation of image quality due to density-corrected image data creation processing is conspicuous in high-frequency images and small in low-frequency images.
  • an image is divided into a plurality of blocks, a feature amount, that is, a spatial frequency is determined in each block, and correction processing with little image quality deterioration is applied based on the determination result.
  • step S304 the composition processing unit 14 performs a region determination process on the input image data.
  • a region determination process an example of the algorithm for the region determination process will be described with reference to the flowchart of FIG.
  • FIG. 4 is a flowchart illustrating an example of a processing procedure for determining the area of the image data by the synthesis processing unit 14.
  • a Laplacian filter process is performed on the image data input in step S301.
  • a Laplacian filter is used.
  • the filter is not limited to Laplacian, and any filter can be used as long as it can extract a contour.
  • step S402 the composition processing unit 14 divides the image data after the filter processing into a plurality of blocks.
  • step S403 one block is selected from the plurality of divided blocks.
  • step S404 the average pixel value of the selected block is calculated.
  • step S405 the calculated average pixel value is compared with a predetermined threshold value. As a result of this comparison, if the calculated average pixel value is equal to or greater than a threshold value (predetermined value), the process proceeds to step S406 to determine a high frequency region. On the other hand, if the average pixel value is less than the threshold value (less than the predetermined value) as a result of the comparison in step S405, the process proceeds to step S407 to determine the low frequency region.
  • step S408 it is determined whether or not region determination has been performed for all blocks. As a result of this determination, if there is an unprocessed block that has not been subjected to area determination, the process returns to step S403. On the other hand, as a result of step S408, when the area determination is performed for all the blocks, the processing is ended as it is.
  • the area determination process is performed using the average pixel value. However, the area determination process may be performed by comparing the threshold value with the highest pixel value or the like. Further, the area determination process may be performed using the object attribute of the image data without performing the block division process. In this case, for example, the composition processing unit 14 functions as an acquisition unit, and acquires attribute information of the object from the image data. Then, an area where the object attribute is a character / thin line is determined as a high frequency area, and if it is a portrait, it is determined as a low frequency area.
  • step S305 the composition processing unit 14 creates image data for output.
  • an algorithm for creating image data for output is performed in the following procedure, for example.
  • the position corrected image data created in step S302 is subjected to mask processing that passes only the block determined to be a high frequency region in step S304, thereby creating a high frequency portion corrected image.
  • a mask process is performed in which only the blocks determined to be the low frequency region in step S304 are passed through the density corrected image data created in step S303 to create a low frequency portion corrected image.
  • the high-frequency portion corrected image and the low-frequency portion corrected image are combined to create output image data.
  • the printer engine 2 performs printing processing by transferring the output image data to a recording medium such as paper.
  • banding correction processing based on position correction is performed on an image region having a high frequency
  • banding correction processing based on density correction is performed on an image region having a low frequency.
  • FIG. 5 is a flowchart showing an example of a processing procedure for creating image data corrected so as not to cause banding in the present embodiment.
  • a method of correcting the print position and density is described as a method of correcting image data, but the present invention is not limited to this, and three or more methods are not limited thereto. It does not matter.
  • steps S301 to S303 in FIG. 5 are the same as steps S301 to S303 in FIG. 3 described in the first embodiment, and thus description thereof is omitted.
  • step S504 the composition processing unit 14 predicts a print image (print result) in the image data input in step S301 under a condition that does not cause a print position shift by the following algorithm. That is, the position and shape of dots formed on a medium such as paper are predicted using the image data input in step S301 and pre-stored characteristic information such as the output method and output conditions of the printer engine 2. To do. And it stores in the image data storage part 13 as 1st prediction image data.
  • step S505 the composition processing unit 14 predicts a print image under the condition that the print position shift occurs in the image data input in step S301 by the following algorithm. Specifically, the image data input in step S301, the data relating to the printing position deviation generated in step S302 (step S702), and the pre-stored characteristic information such as the output method and output conditions of the printer engine 2 And are used. Then, the position and shape of dots formed on a medium such as paper are predicted using these data, and stored in the image data storage unit 13 as second predicted image data.
  • step S506 the composition processing unit 14 predicts a print image under a condition that causes a shift in the print position in the position-corrected image data by the following algorithm. Specifically, the position-corrected image data, the data relating to the printing position deviation amount created in step S302, and the pre-stored characteristic information such as the output method and output condition of the printer engine 2 are used. Then, the position and shape of dots formed on a medium such as paper are predicted using these data, and stored in the image data storage unit 13 as third predicted image data.
  • step S507 the composition processing unit 14 predicts a print image under the condition that the print position shift occurs in the density-corrected image data by the following algorithm. Specifically, the density-corrected image data, the data relating to the printing position shift amount created in step S302, and pre-stored characteristic information such as the output method and output condition of the printer engine 2 are used. Then, the positions and shapes of dots formed on a medium such as paper are predicted using these data, and stored in the image data storage unit 13 as fourth predicted image data.
  • step S508 the composition processing unit 14 calculates the image quality deterioration strength (first image quality deterioration strength) of the print image (second predicted image data) predicted in step S505.
  • the image quality deterioration strength for example, an algorithm described below is used.
  • the absolute value of the pixel value difference between the print image predicted in step S504 (first predicted image data) is calculated for all pixels. To do.
  • an average value of absolute values of the difference between the calculated pixel values is calculated, and the calculated average value is set as an image quality deterioration strength.
  • the average value of the absolute value of the pixel value difference is calculated by comparing with the print image predicted in step S504.
  • the maximum value or A minimum value, an intermediate value, or the like may be used.
  • the frequency characteristics of the predicted print image may be compared instead of the predicted print image.
  • step S509 the composition processing unit 14 calculates the image quality deterioration strength (second image quality deterioration strength) of the print image (third predicted image data) predicted in step S506. Since the algorithm for calculating the image quality deterioration strength is the same as that in step S508, detailed description thereof is omitted.
  • step S510 the composition processing unit 14 calculates the image quality deterioration strength (third image quality deterioration strength) of the print image (fourth predicted image data) predicted in step S507. Since the algorithm for calculating the image quality deterioration strength is the same as that in step S508, detailed description thereof is omitted.
  • step S511 the composition processing unit 14 selects image data for output.
  • image data for output is selected by the following algorithm.
  • the first image quality deterioration strength calculated in step S508, the second image quality deterioration strength calculated in step S509, and the third image quality deterioration strength calculated in step S510 are compared.
  • the image data input in step S301 is selected as the output image data.
  • the second image quality deterioration intensity calculated in step S509 is the minimum as a result of the comparison
  • the position-corrected image data created in step S502 is selected as the output image data.
  • the third image quality deterioration intensity calculated in step S510 is the minimum
  • the density-corrected image data created in step S503 is selected as the output image data.
  • image data that minimizes the image quality deterioration intensity is selected. As a result, it is possible to suppress banding in the output image and reduce image quality degradation caused by the banding correction process.
  • FIG. 6 is a flowchart showing an example of a processing procedure for creating image data corrected so as not to cause banding in the present embodiment.
  • step S301 in FIG. 6 is the same as step S301 in FIG. 3 described in the first embodiment, and a description thereof will be omitted.
  • step S602 the composition processing unit 14 performs Laplacian filter processing on the image data input in step S301 to create high-frequency component image data.
  • a Laplacian filter is used.
  • the filter is not limited to Laplacian, and any filter can be used as long as it can extract a contour.
  • step S603 the composition processing unit 14 functions as a separation unit, and obtains a difference between the image data input in step S301 and the high-frequency component image data created in step S602 to obtain low-frequency component image data. Create
  • step S604 the first correction unit 11 performs position correction processing on the high-frequency component image data created in step S602 to create high-frequency component corrected image data.
  • step S605 the second correction unit 12 performs density correction processing on the low-frequency component image data generated in step S603 to generate low-frequency component corrected image data.
  • step S606 the composition processing unit 14 adds the high-frequency component corrected image data created in step S604 and the low-frequency component corrected image data created in step S605 to create image data for output.
  • correction is performed using the position-corrected image data obtained by moving the pixel position in the high-frequency region, and density-corrected image data in which the print density is changed is used in the low-frequency region. I corrected it.
  • the present invention also provides a system or apparatus with a storage medium storing software program codes for realizing the functions of the above-described embodiments (for example, the functions shown in the flowcharts of FIGS. 3 to 6). realizable.
  • the computer or CPU or MPU
  • the computer reads out and executes the program code stored in the storage medium so that the computer can read the functions of the above-described embodiments.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Control Or Security For Electrophotography (AREA)
  • Color Electrophotography (AREA)

Abstract

 バンディングを防止するとともに、画質の劣化を低減できるようにする。 画像データの実印字位置と基準位置との差に基づき、該画像データの濃度を他の走査ラインの画素に分配し、位置補正された画像データを作成する第1の作成手段と、前記画像データの位置に応じた補正値を用いて、前記画像データを補正し、濃度補正された画像データを作成する第2の作成手段と、前記第1の作成手段によって作成された位置補正された画像データと前記第2の作成手段により作成された濃度補正された画像データとを用いて出力画像データを生成する生成手段とを有する。

Description

画像形成装置、画像形成方法及びプログラム
 本発明は、濃度の濃淡による横縞(バンディング)を抑制する技術に関する。
 従来、電子写真方式のプリンタなどといった画像形成装置は、画像信号に応じて制御されたレーザー光を用いて感光体を露光することにより、感光体上に画像信号に応じた静電潜像を形成する。そして、形成した静電潜像を現像し、用紙等の記録媒体に転写することにより、出力画像を形成する。このような画像形成装置では、各種の原因によって印字位置にズレが発生し、画像の品質を著しく損なうといった問題があった。
 例えば、感光体などの像担持体の回転速度にムラが発生すると、レーザー光などが像担持体を走査する際の副走査方向の位置がずれ、副走査線間隔にムラが生じてしまう。これにより、出力画像に、濃度の濃淡による横縞(以下、バンディングと記述する)が発生する。すなわち、感光体全面にわたり一様に露光しようとしても、回転速度が速いときは走査線間隔が広くなるため所定面積当たりの露光量が小さくなり、濃度が薄くなる。また、回転速度が遅いときは走査線間隔が狭くなるため所定面積あたりの露光量が大きくなり、濃度が濃くなる。
 このような問題を解決する第1の方法として、入力画像データを予め検出した濃度ムラ情報を考慮して濃度を補正する方法が提案されている(例えば、特開平11-112810号公報)。また、第2の方法として、印字位置のズレ特性を考慮して、画像データの位置を補正する方法が提案されている(US 6625331)。
特開平11-112810号公報 US6625331
 しかしながら、上述の方法は、特定の特性を有する画像を補正したときに、画質を著しく劣化させてしまう。第1の方法は、ハーフトーン処理と濃度補正処理との干渉により、画像の高周波部でテクスチャが発生してしまう。また、第2の方法は、鮮鋭性のムラが生じ、特に低周波部でそのムラが目立ってしまう。
 本発明の画像形成装置は、印刷した場合の入力された画像データにおける画素の位置または濃度の変動量を検出する検出手段と、前記検出手段によって検出された変動量に応じて、前記入力された画像データを補正する第1の補正手段と、前記検出手段によって検出された変動量に応じて、前記第1の補正手段とは異なる補正により、前記入力された画像データを補正する第2の補正手段と、前記入力された画像データの領域ごとに、所定の条件を満たすか否かによって前記第1の補正手段または前記第2の補正手段による補正結果を合成した画像データを作成する合成手段と、前記合成手段によって作成された画像データを記録媒体に印刷する印刷手段とを有することを特徴とする。
実施形態に係る画像形成装置の構成例を示すブロック図である。 実施形態に係るプリンタエンジンの詳細な構成例に示す図である。 出力用の画像データの作成処理手順の一例を示すフローチャートである。 画像データの領域判定の処理手順の一例を示すフローチャートである。 出力用の画像データの作成処理手順の一例を示すフローチャートである。 出力用の画像データの作成処理手順の一例を示すフローチャートである。 第1の補正部11において行われるバンディング補正処理を説明する図である。 濃度プロファイルの一例を示す図である。 位置補正画像データ作成処理で発生する画質劣化を説明する図である。 濃度補正画像データ作成処理で発生する画質劣化を説明する図である。
 以下、添付図面を参照して、本発明の好適な実施形態について詳細に説明する。
 (第1の実施形態)
 図1は、本実施形態に係る画像形成装置100の構成例を示すブロック図である。
 図1において、画像形成装置100は、プリンタコントローラ1、プリンタエンジン2、及び制御部3を備えている。
 プリンタコントローラ1は、第1の補正部11、第2の補正部12、画像データ格納部13、合成処理部14を有し、出力画像上の濃度の濃淡によって生じる横縞(バンディング)を抑制するための補正処理を行う。また、プリンタコントローラ1は、プリンタエンジン2に対して、制御命令や情報などを送受信したり、画像データを送信したりする。
 プリンタエンジン2は、プリンタエンジン制御部21、デバイス群22、及びセンサ群23を有する。ここで、デバイス群22には、像担持体や紙搬送系の駆動に用いるモータなどが含まれ、センサ群23には、温度センサ、湿度センサ、濃度センサ、速度センサ、位置センサなどが含まれる。プリンタエンジン制御部21は、プリンタコントローラ1から入力された情報やセンサ群23からの情報に応じて、デバイス群22を制御する。また、制御部3は、図示しないハードディスクドライブ、パーソナルコンピュータ、サーバ、ネットワークなどと接続するためのインターフェースを有し、プリンタコントローラ1に画像データを出力する。
 図2は、図1におけるプリンタエンジン2の詳細な構成例を示す図である。
 図2において、帯電器203は、感光ドラム202を帯電させるものである。レーザースキャナ204は、入力された画像データに応じて半導体レーザーを駆動しレーザ光を照射する。レーザ光は回転しているポリゴンミラーにより反射され、感光ドラム202上を走査して潜像を形成する。現像器205は感光ドラム202上に記録された潜像を現像し、感光ドラム202上にトナー像を形成する。転写器207は、感光ドラム202上のトナー像を紙などの記録媒体に転写する。定着器208は、記録媒体に転写されたトナー像を熱及び圧力によって記録媒体に定着する。現像スリーブ214は、感光ドラム202に面して配置されている。濃度センサ215は、感光ドラム202上に現像されたパッチの濃度を測定する。速度センサ216は、感光ドラム202の回転速度を測定する。
 また、感光ドラム202の表面には、図示しないマークM1が形成されている。このマークM1は、例えば感光ドラム202における画像形成領域(静電潜像およびトナー像を形成可能な領域)の外側に形成される。また、感光ドラム202には、このマークM1を検出する図示しない位相センサが対向配置されている。位相センサは、感光ドラム202が一回転する毎にマークM1を検出する。
 なお、本実施形態では説明を簡単にするために、単一の画像形成ステーション(感光ドラム202、帯電器203、現像器205等を含む)のみを図2に図示している。カラー画像を形成する画像形成装置の場合は、例えば、シアン、マゼンタ、イエロー、及びブラックの各色に対する画像形成ステーションが、転写器207上にその移動方向に沿って順次配列されている。また、1つの感光ドラム202の周囲に各色の現像器205を周囲に沿って配列したり、回転可能な筐体に各色の現像器205を配置したりしてもよい。いずれの場合も所望の現像器205を感光ドラム202に対向させ、所望の色を現像するようにする。
 図3は、画像形成装置100が行うバンディングの補正処理の手順を示すフローチャートである。まず、ステップS301において、プリンタコントローラ1は、制御部3から画像データを入力し、画像データ格納部13に格納する。次に、ステップS302において、第1の補正部11は、位置補正された画像データを作成する。第1の補正部11におて行われるバンディング補正処理の詳細について、図7を用いて説明する。バンディング補正処理は画像データの画素毎に行う。ここでは図7(a)に示すように、ズレ量が1pix幅の0.4倍である画素を補正する場合を例に説明する。この例では、補正対象画素の濃度レベルの40%を、補正対象画素の印字位置ズレ方向と逆方向に隣接する画素に分配する。こうすることで、図7(b)に示すように、補正対象画素に応じて印字されるドットと、隣接する画素に応じて印字されるドットを合わせた重心位置が、基準位置と一致する。基準位置とは、感光体ドラム202が所定の回転速度で等速回転している際の、補正対象画素の印字位置である。この様に、ズレ量の反数だけ補正対象画素の位置を移動させることで所望の位置にドットを形成する。この方法によれば、ズレ量が1pix幅の非整数倍であり移動後の位置が2画素にまたがる場合も、補正対象画素の濃度レベルを当該2画素に適宜分配することにより、重心位置を疑似的に1pix幅以下の量を移動させ、印字位置を疑似的に基準位置に一致させることができる。
 第1の補正部11において行われる位置補正に基づくバンディング補正処理の具体的な処理方法を以下に説明する。
 図7を用いて説明したバンディング補正を行う場合、処理対象であるi番目の走査ラインの画素値を決定するためには、i番目の走査ラインに分配される濃度値の合計値を算出する必要がある。本実施例では以下に示すように、入力画像データの各走査ラインの画素値(Y(j))を、副走査方向における、基準位置(Xref(i))と修正後の位置(Xcor(j))との差(Dst(i,j))に基づき、分配することによりバンディング補正後の画素値(Y(j))を算出する。なお、副走査方向とは感光ドラムの回転方向に対応する。
 まず、修正対象のj番目の走査ラインの副走査方向における実位置と基準位置との差から、副走査方向における修正後の位置を算出する。修正対象のj番目の走査ラインの実位置は、以下のように検出することができる。プリンタエンジン2の速度センサ216により、感光ドラム202の回転速度を検出する。この際、位相センサがマークM1を検出するタイミングと検出した回転速度とを同期させることによって、感光ドラム202周面上の位置(副走査方向の位置)と回転速度との対応付けを行う。そして、感光ドラム202周面上の位置と対応づけられた回転速度データを用いて副走査方向における実位置を算出する。
   Xcor(j)=Xref(j)-(Xerr(j)-Xref(j))
 Xref(j)はj番目の走査ライン上の画素に対応する副走査方向における基準位置である。Xerr(j)はj番目の走査ライン上の画素の副走査方向における印字位置(実位置)である。Xcor(j)はj番目の走査ライン上の画素の副走査方向における修正後の位置である。Xcor(j)は、プロセスにおいて生じるずれを考慮した画像データ上における副走査方向における位置である。
 次に、j番目の走査ライン上の修正後の位置とi番目の走査ライン上の画素に対応する基準位置との差(Dst(i,j))を算出する。
   Dst(i,j)=|Xref(i)-Xcor(j)|
 算出されたDst(i,j)に基づき、j番目の走査ライン上の画素値を、i番目の走査ライン上の同一の走査位置の画素に分配する割合を算出する。同一の走査位置の画素位置とは、主走査方向における位置が同一の画素である。
   Cvr(i,j)=
       1-Dst(i,j)   if
Dst(i,j)<1
       0 otherwise
 ここで、Dst(i,j)が1より大きい場合は、修正後の位置(Xcor(j))がXref(i)付近でないことを示すので、分配する割合を0にする。
 そして、入力画像データの各走査ラインの画素値(Y(j))を、算出されたCvr(i,j)を用いて、i番目の走査ライン上の同一の走査位置の画素に分配することによりバンディング補正後の画素値(Ycor (i))を算出する。Ycor(i)を算出する処理は、各画素ごとに行われ、j番目の走査ラインにおける、Ycor(i)と同一の走査位置の画素値Y(j)を用いる。
   Ycor(i)=Σ(Cvr(i,j)*Y(j))
 ここでΣはjを変更して算出された結果を加算することを示す。
 なお、位相センサを用いた実位置の算出および実位置を用いたCvr(i,j)の算出は、ステップS302の位置補正された画像データを作成する際にリアルタイムに行う必要はない。位相センサを用いた実位置の算出および実位置を用いたCvr(i,j)の算出は、プリンタエンジン2の電源立ち上げ時や、所定枚数プリント毎など、ある条件を満たした時に行い、算出されたCvr(i,j)を保持しておく。そして、ステップS302は、保持されたCvr(i,j)を用いて、画像データからYcor(i)を算出する処理を行う。
 次に、ステップS303において、第2の補正部12は、濃度補正に基づくバンディング補正処理を行い、濃度補正された画像データを作成する。
 第2の補正部12は、あらかじめ保持されている感光ドラム上の位置に応じた濃度の補正値を、処理対象の画素の位置に応じて読み出し、処理対象の画素に加算する。
 あらかじめ保持されている感光ドラム上の位置に応じた濃度の補正値の作成方法を以下に説明する。
 まず、補正量を算出するための補正用画像データを作成する。そして、作成した補正用画像データをプリンタエンジン2に出力し、感光ドラム202にトナー像を形成する。次に、濃度プロファイル作成を行う。図8(a)は、作成する濃度プロファイルの一例である。まず、濃度センサ215により、感光ドラム202上に形成されたトナー像の濃度を検出する。そして、位相センサがマークM1を検出するタイミングと、検出した濃度とを同期させて、感光ドラム202周面上の位置と濃度との対応付けを行い、濃度プロファイルを作成する。
 次に、予め記憶している変換テーブルを用いて、濃度プロファイルの濃度値を補正値に変換する。図8(b)は、図8(a)に示した濃度プロファイルから作成された補正値である。第2補正部12は、発生する濃度変動に応じて画像の画素値を増減することで、濃度変動を相殺し、所望の濃度で画像を形成する。補正値は、各位置の画素値の増減量を示すデータである。そのため、図8に例示するように、濃度プロファイルにおいて濃度が低い位置では、補正データにおいて補正値は大きい値である。つまり、補正処理では当該位置で画素値を減少させるように補正する。この様に、発生する濃度変動に応じて画像データを補正することで、濃度変動を相殺し、所望の濃度で画像を形成することができる。
 なお、濃度補正に基づくバンディング処理は、補正値を加算する処理にかぎらず、濃度プロファイルから位置に応じた係数を算出し、画素値に係数を乗算することにより、脳穂変動を相殺するようにしてもかまわない。
 上記説明した位置補正された画像データ作成処理と濃度補正された画像データ作成処理は、特定の特性を有する画像を補正したときに、画質を著しく劣化させてしまう。
 位置補正された画像データ作成処理で発生する画質劣化につて、図9を用いて以下に説明する。位置補正された画像データ作成処理では、図9(a)に示すような低周波な画像に対して処理を行う場合に、特に画質劣化が目立つ。この場合、作成される位置補正された画像データには、図9(b)に示すような濃淡のムラが生じ、形成される画像にもムラが目立つ。
 濃度補正された画像データ作成処理で発生する画質劣化ついて、図10を用いて以下に説明する。濃度補正された画像データ作成処理では、図10(a)に示すような高周波な画像に対して処理を行う場合に、特に画質劣化が目立つ。
 例として、発生する濃度変動により濃度が薄くなる場合、作成される濃度補正された画像データは、図10(b)に示すように入力画像と比較して濃く補正される。この濃度補正された画像データに対してハーフトーン処理を行って得られる画像は図10(c)。補正により、濃度0%であった領域が正の濃度値を持つことにより、ハーフトーン画像では当該領域にドットが発生する。
 別の例として、発生する濃度変動により濃度が濃くなる場合、作成される濃度補正された画像データは、図10(d)に示すように入力画像と比較して薄く補正される。この濃度補正された画像データに対してハーフトーン処理を行って得られる画像は図10(e)。補正により、濃度100%であったで濃度が薄くなることにより、ハーフトーン画像では当該領域の一部のドットが消失する。以上例示したように、各補正画像データをハーフトーン処理することによりドットが発生及び消失することで、入力画像には無いテクスチャが視認される。
 以上説明した位置補正された画像データ作成処理と濃度補正された画像データ作成処理による画質劣化は、いずれも特定の特徴を有する画像を補正した時にのみ目立つ。位置補正された画像データ作成処理による画質劣化は低周波な画像で目立ち、高周波な画像では少ない。濃度補正された画像データ作成処理による画質劣化は高周波な画像で目立ち、低周波な画像では少ない。
 そこで本実施形態では、画像を複数のブロックに分割し、各ブロックで特徴量すなわち空間周波数の判定を行い、判定結果に基づいて画質劣化の少ない補正処理を適用する。
 図3の説明に戻り、次に、ステップS304において、合成処理部14は、入力された画像データの領域判定処理を行う。ここで、領域判定処理のアルゴリズムの一例について、図4のフローチャートを参照しながら説明する。
 図4は、合成処理部14による画像データの領域を判定する処理手順の一例を示すフローチャートである。
 まず、ステップS401において、ステップS301で入力した画像データに対してラプラシアンフィルタ処理を行う。なお、本実施形態ではラプラシアンフィルタを用いるが、フィルタはラプラシアンに限定されるものではなく、輪郭を抽出するものであれば特に何でもよい。
 次に、ステップS402において、合成処理部14は、フィルタ処理を行った後の画像データを複数のブロックに分割する。次に、ステップS403において、分割した複数のブロックから1つのブロックを選択する。そして、ステップS404において、選択したブロックの平均画素値を算出する。次に、ステップS405において、前記算出した平均画素値と予め定めた閾値とを比較する。この比較の結果、前記算出した平均画素値が閾値以上(所定値以上)である場合は、ステップS406に進み、高周波領域と判定する。一方、ステップS405の比較の結果、平均画素値が閾値未満(所定値未満)である場合は、ステップS407に進み、低周波領域と判定する。
 次に、ステップS408において、全てのブロックに対して領域判定を行ったか否かを判断する。この判断の結果、領域判定を行っていない未処理のブロックがある場合は、ステップS403に戻る。一方、ステップS408の結果、全てのブロックに対して領域判定を行った場合は、そのまま処理を終了する。なお、本実施形態では、平均画素値を用いて領域判定処理を行ったが、最高画素値などを用いて閾値と比較し、領域判定処理を行ってもよい。また、ブロックの分割処理を行わずに、画像データのオブジェクトの属性を用いて領域判定処理を行ってもよい。この場合、例えば、合成処理部14が取得手段として機能し、オブジェクトの属性情報を画像データから取得する。そして、オブジェクトの属性が文字・細線である領域は高周波領域と判定し、人物画である場合は低周波領域と判定する、等があげられる。
 図3の説明に戻り、次に、ステップS305において、合成処理部14は、出力用の画像データを作成する。ここで、出力用の画像データを作成するアルゴリズムは、例えば以下のような手順で行う。まず、ステップS302で作成した位置補正された画像データに、ステップS304で高周波領域と判定したブロックのみを通すマスク処理を行い、高周波部補正画像を作成する。次に、ステップS303で作成した濃度補正された画像データに、ステップS304で低周波領域と判定したブロックのみを通すマスク処理を行い、低周波部補正画像を作成する。そして最後に、高周波部補正画像と低周波部補正画像とを合成して、出力用の画像データを作成する。そして、プリンタエンジン2は、この出力用の画像データを紙などの記録媒体に転写することにより印刷処理を行うことになる。
 以上説明したように本実施形態によれば、高周波である画像領域に対しては位置補正に基づくバンディング補正処理を行い、低周波である画像領域に対しては濃度補正に基づくバンディング補正処理を行う。これにより、出力画像におけるバンディングを抑制するとともに、バンディング補正処理により生じる画質の劣化を低減させることができる。
 (第2の実施形態)
 第1の実施形態では、画像データをブロックに分割し、ブロック毎に補正方法を選択する例について説明した。本実施形態においては、各補正処理を行った後に印刷を行う場合に発生する画質劣化を予測し、その中で最も画質劣化の少ない補正方法を選択する例について説明する。なお、本実施形態に係る画像形成装置の構成は、第1の実施形態で説明した図1及び図2の構成と同一であるため、説明は省略する。
 図5は、本実施形態において、バンディングが生じないように補正した画像データを作成する処理手順の一例を示すフローチャートである。なお、以降の説明を平易にするために、本実施形態では、画像データを補正する方法として印字位置と濃度とを補正する方法について説明するが、これに限定されるものではなく、3つ以上であっても構わない。また、図5のステップS301~S303は、第1の実施形態で説明した図3のステップS301~S303と同様であるため、説明は省略する。
 次に、ステップS504において、合成処理部14は、ステップS301で入力した画像データにおける、印字位置のズレが発生しない条件での印刷画像(印刷結果)を、以下のアルゴリズムにより予測する。すなわち、ステップS301で入力した画像データと、予め記憶しているプリンタエンジン2の出力方式、出力条件などの特性情報とを用いて、紙などの媒体上に形成されるドットの位置及び形状を予測する。そして、画像データ格納部13に第1の予測画像データとして格納する。
 次に、ステップS505において、合成処理部14は、ステップS301で入力した画像データにおける、印字位置のズレが発生する条件での印刷画像を、以下のアルゴリズムにより予測する。具体的には、ステップS301で入力した画像データと、ステップS302(ステップS702)で作成した印字位置のズレ量に関するデータと、予め記憶しているプリンタエンジン2の出力方式、出力条件などの特性情報とを用いる。そして、紙などの媒体上に形成されるドットの位置及び形状をこれらのデータを用いて予測し、画像データ格納部13に第2の予測画像データとして格納する。
 次に、ステップS506において、合成処理部14は、位置補正された画像データにおける、印字位置のズレが発生する条件での印刷画像を、以下のアルゴリズムにより予測する。具体的には、位置補正された画像データと、ステップS302で作成した印字位置のズレ量に関するデータと、予め記憶しているプリンタエンジン2の出力方式、出力条件などの特性情報とを用いる。そして、紙などの媒体上に形成されるドットの位置及び形状をこれらのデータを用いて予測し、画像データ格納部13に第3の予測画像データとして格納する。
 次に、ステップS507において、合成処理部14は、濃度補正された画像データにおける、印字位置のズレが発生する条件での印刷画像を、以下のアルゴリズムにより予測する。具体的には、濃度補正された画像データと、ステップS302で作成した印字位置のズレ量に関するデータと、予め記憶しているプリンタエンジン2の出力方式、出力条件などの特性情報とを用いる。そして、紙などの媒体上に形成されるドットの位置及び形状をこれらのデータを用いて予測し、画像データ格納部13に第4の予測画像データとして格納する。
 次に、ステップS508において、合成処理部14は、ステップS505で予測した印刷画像(第2の予測画像データ)の画質劣化強度(第1の画質劣化強度)を算出する。画質劣化強度を算出する手順としては、例えば以下に説明するアルゴリズムにより行う。まず、ステップS505で予測した印刷画像(第2の予測画像データ)について、ステップS504で予測した印刷画像(第1の予測画像データ)との画素値の差の絶対値を、全ての画素において算出する。そして、算出した画素値の差の絶対値の平均値を算出し、前記算出した平均値を画質劣化強度とする。なお、本実施形態では、画質劣化強度を算出する際に、ステップS504で予測した印刷画像と比較し、画素値の差の絶対値の平均値を算出したが、平均値の代わりに最大値や最小値、中間値などを用いてもよい。また、予測した印刷画像の代わりに、予測した印刷画像の周波数特性などを比較してもよい。
 次に、ステップS509において、合成処理部14は、ステップS506で予測した印刷画像(第3の予測画像データ)の画質劣化強度(第2の画質劣化強度)を算出する。画質劣化強度を算出するアルゴリズムはステップS508と同様であるため、詳細な説明は省略する。そして、ステップS510において、合成処理部14は、ステップS507で予測した印刷画像(第4の予測画像データ)の画質劣化強度(第3の画質劣化強度)を算出する。画質劣化強度を算出するアルゴリズムはステップS508と同様であるため、詳細な説明は省略する。
 次に、ステップS511において、合成処理部14は、出力用の画像データを選択する。本実施形態では、出力用の画像データを以下のアルゴリズムにより選択する。まず、ステップS508で算出した第1の画質劣化強度と、ステップS509で算出した第2の画質劣化強度と、ステップS510で算出した第3の画質劣化強度とを比較する。この比較の結果、ステップS508で算出した第1の画質劣化強度が最小である場合は、出力用の画像データとして、ステップS301で入力した画像データを選択する。一方、比較の結果、ステップS509で算出した第2の画質劣化強度が最小である場合は、出力用の画像データとして、ステップS502で作成した位置補正された画像データを選択する。さらに、比較の結果、ステップS510で算出した第3の画質劣化強度が最小である場合は、出力用の画像データとして、ステップS503で作成した濃度補正された画像データを選択する。
 以上説明したように本実施形態によれば、画質劣化強度が最も小さくなるような画像データを選択するようにした。これにより、出力画像におけるバンディングを抑制するとともに、バンディング補正処理により生じる画質の劣化を低減させることができる。
 (第3の実施形態)
 第1の実施形態では、画像データを複数のブロックに分割し、ブロック毎に補正方法を選択する方法について説明した。また、第2の実施形態では、各補正処理を行った後に印刷する場合に発生する画質劣化を予測し、その中で最も画質劣化の少ない補正方法を選択する例について説明した。本実施形態においては、画像データを高周波成分と低周波成分とに分割し、成分毎に補正方法を選択する例について説明する。なお、本実施形態に係る画像形成装置の構成は、第1の実施形態で説明した図1及び図2の構成と同様であるため説明は省略する。
 図6は、本実施形態において、バンディングが生じないように補正した画像データを作成する処理手順の一例を示すフローチャートである。なお、図6のステップS301は、第1の実施形態で説明した図3のステップS301と同様であるため、説明は省略する。次に、ステップS602において、合成処理部14は、ステップS301で入力した画像データにラプラシアンフィルタ処理を行い、高周波成分の画像データを作成する。なお、本実施形態ではラプラシアンフィルタを用いたが、フィルタはラプラシアンに限られるものではなく、輪郭を抽出するものであれば何でもよい。次に、ステップS603において、合成処理部14は分離手段として機能し、ステップS301で入力した画像データと、ステップS602で作成した高周波成分の画像データとの差分を求めて、低周波成分の画像データを作成する。
 次に、ステップS604において、第1の補正部11は、ステップS602で作成した高周波成分の画像データに対して位置補正処理を行い、高周波成分補正画像データを作成する。なお、位置補正処理の詳細については、第1の実施形態と同様であるため、詳細な説明は省略する。そして、ステップS605において、第2の補正部12は、ステップS603で作成した低周波成分の画像データに対して濃度補正処理を行い、低周波成分補正画像データを作成する。なお、濃度補正処理の詳細については、第1の実施形態と同様であるため、詳細な説明は省略する。そして、ステップS606において、合成処理部14は、ステップS604で作成した高周波成分補正画像データと、ステップS605で作成した低周波成分補正画像データとを足し合わせて、出力用の画像データを作成する。
 以上説明したように本実施形態によれば、高周波領域には画素の位置を移動させた位置補正画像データを用いて補正し、低周波領域には、印刷濃度を変更した濃度補正画像データを用いて補正するようにした。これにより、ハーフトーン処理と濃度補正処理との干渉により、高周波領域でテクスチャが発生したり、低周波領域でムラが横筋として目立ったりすることを防止することができる。すなわち、バンディングを補正することによる画質の劣化を低減することができる。
 (その他の実施形態)
 また、本発明は、上述した実施形態の機能(例えば、図3~図6のフローチャートにより示される機能)を実現するソフトウェアのプログラムコードを記録した記憶媒体を、システム或いは装置に供給することによっても実現できる。この場合、そのシステム或いは装置のコンピュータ(又はCPUやMPU)がコンピュータが読み取り可能に記憶媒体に格納されたプログラムコードを読み出し実行することにより、上述した実施例の機能を実現する。
 本発明は上記実施の形態に制限されるものではなく、本発明の精神及び範囲から離脱することなく、様々な変更及び変形が可能である。従って、本発明の範囲を公にするために以下の請求項を添付する。
 本願は、2010年2月18日提出の日本国特許出願特願2010-33792を基礎として優先権を主張するものであり、その記載内容の全てをここに援用する。

Claims (7)

  1.  画像データの実印字位置と基準位置との差に基づき、該画像データの濃度を他の走査ラインの画素に分配し、位置補正された画像データを作成する第1の作成手段と、
     前記画像データの位置に応じた補正値を用いて、前記画像データを補正し、濃度補正された画像データを作成する第2の作成手段と、
     前記第1の作成手段によって作成された位置補正された画像データと前記第2の作成手段により作成された濃度補正された画像データとを用いて出力画像データを生成する生成手段とを有する画像処理装置。
  2.  前記生成手段は、高周波な画像領域の画像データに対しては前記位置補正された画像データを選択し、低周波な画像領域の画像データに対しては前記濃度補正された画像データを選択することを特徴とする請求項1記載の画像処理装置。
  3.  プリンタの特性情報を用いて、前記実印字位置が前記基準位置とずれていない場合の出力画像を示す第1予測画像データを予測する第1予測手段と、
     前記プリンタの特性情報を用いて、前記位置補正された画像データに対応する出力画像を示す第2予測画像データを予測する第2予測手段と、
     前記プリンタの特性情報を用いて、前記濃度補正された画像データに対応する出力画像を示す第3予測画像データを予測する第3予測手段と、
     前記生成手段は、前記第1予測画像データ、前記第2予測画像データおよび前記第3予測画像データとに基づき、前記出力画像データを生成することを特徴とする請求項1記載の画像処理装置。
  4.  さらに、前記画像データから高周波成分画像データおよび低周波成分画像データを生成する周波数成分画像データ生成手段を有し、
     前記第1の作成手段は、前記高周波成分画像データから前記位置補正された画像データを作成し、
     前記第2の作成手段は、前記低周波成分画像データから前記濃度補正された画像データを作成することを特徴とする請求項1記載の画像処理装置。
  5.  さらに、前記出力画像データに基づき、主走査方向の画像形成を副走査方向に繰り返すことにより出力画像を形成する画像形成手段を有することを特徴とする請求項1記載の画像処理装置。
  6.  画像データの実印字位置と基準位置との差に基づき、該画像データの濃度を他の走査ラインの画素に分配し、位置補正された画像データを作成し、
     前記画像データの位置に応じた補正値を用いて、前記画像データを補正し、濃度補正された画像データを作成し、
     前記第1の作成手段によって作成された位置補正された画像データと前記第2の作成手段により作成された濃度補正された画像データとを用いて出力画像データを生成することを有する画像処理方法。
  7.  コンピュータを請求項1乃至5のいずれか1項に記載の画像処理装置として機能させるためのプログラム。
PCT/JP2011/053111 2010-02-18 2011-02-15 画像形成装置、画像形成方法及びプログラム WO2011102334A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2012500594A JP5665840B2 (ja) 2010-02-18 2011-02-15 画像形成装置、画像形成方法及びプログラム
US13/166,597 US8373902B2 (en) 2010-02-18 2011-06-22 Image forming apparatus, image forming method, and program
US13/734,831 US8830524B2 (en) 2010-02-18 2013-01-04 Image forming apparatus, image forming method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010033792 2010-02-18
JP2010-033792 2010-02-18

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
US13/166,597 Continuation US8373902B2 (en) 2010-02-18 2011-06-22 Image forming apparatus, image forming method, and program

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US13/166,597 Continuation US8373902B2 (en) 2010-02-18 2011-06-22 Image forming apparatus, image forming method, and program
US13/734,831 Continuation US8830524B2 (en) 2010-02-18 2013-01-04 Image forming apparatus, image forming method, and program

Publications (1)

Publication Number Publication Date
WO2011102334A1 true WO2011102334A1 (ja) 2011-08-25

Family

ID=44482919

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/053111 WO2011102334A1 (ja) 2010-02-18 2011-02-15 画像形成装置、画像形成方法及びプログラム

Country Status (3)

Country Link
US (2) US8373902B2 (ja)
JP (1) JP5665840B2 (ja)
WO (1) WO2011102334A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5570310B2 (ja) * 2010-06-07 2014-08-13 キヤノン株式会社 画像形成装置
JP2017024404A (ja) * 2015-07-16 2017-02-02 キヤノン株式会社 画像形成装置の補正方法
JP6756171B2 (ja) * 2016-07-11 2020-09-16 コニカミノルタ株式会社 画像処理装置、画像形成装置、画像形成システム、及び画像処理プログラム
JP6655721B2 (ja) * 2016-07-27 2020-02-26 京セラ株式会社 検出装置、撮像装置、移動体及び検出方法
JP7127435B2 (ja) * 2018-08-31 2022-08-30 沖電気工業株式会社 画像形成装置及び画像形成方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006168241A (ja) * 2004-12-17 2006-06-29 Seiko Epson Corp 印刷用画像処理装置
JP2006305954A (ja) * 2005-04-28 2006-11-09 Seiko Epson Corp 濃度測定方法、印刷方法、補正値算出方法及び印刷装置製造方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4310757A (en) * 1978-07-07 1982-01-12 Pitney Bowes Inc. Apparatus for correcting scanning speed in a polygon used for laser scanning
US6134022A (en) * 1995-07-14 2000-10-17 Kabushiki Kaisha Toshiba Color image printing system capable of correcting density deviation on image and system for detecting color deviation on image
JPH11112810A (ja) 1997-10-07 1999-04-23 Canon Inc 画像形成装置及びその制御方法及び記憶媒体
US6625331B1 (en) 1998-07-03 2003-09-23 Minolta Co., Ltd. Image forming apparatus
EP2107412A1 (en) * 2003-02-17 2009-10-07 Seiko Epson Corporation Scanner
JP4233995B2 (ja) * 2003-12-22 2009-03-04 株式会社バルダン レーザ加工装置を備えたミシンの基準位置補正装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006168241A (ja) * 2004-12-17 2006-06-29 Seiko Epson Corp 印刷用画像処理装置
JP2006305954A (ja) * 2005-04-28 2006-11-09 Seiko Epson Corp 濃度測定方法、印刷方法、補正値算出方法及び印刷装置製造方法

Also Published As

Publication number Publication date
US20110255106A1 (en) 2011-10-20
US20130120807A1 (en) 2013-05-16
JPWO2011102334A1 (ja) 2013-06-17
JP5665840B2 (ja) 2015-02-04
US8830524B2 (en) 2014-09-09
US8373902B2 (en) 2013-02-12

Similar Documents

Publication Publication Date Title
US8320024B2 (en) Method and apparatus for image forming and computer program product
JP5074851B2 (ja) 画像形成装置および画像形成方法
JP5144161B2 (ja) カラー画像形成装置及びカラー画像形成方法
US8384958B2 (en) Image forming apparatus, density-shift correction method, and computer program product
JP4966787B2 (ja) カラー画像形成装置及びカラー画像補正方法
US8553287B2 (en) Pseudo-halftoning device, image forming apparatus, and image forming system
JP5217426B2 (ja) 画像処理装置、画像形成装置、画像処理プログラム、およびそのプログラムを記録した記録媒体
US20090213401A1 (en) Image forming apparatus and image forming method
JP5665840B2 (ja) 画像形成装置、画像形成方法及びプログラム
JP2007300551A (ja) 画像処理装置および画像処理方法
JP4560730B2 (ja) 画像処理装置、画像形成装置、画像処理方法及びプログラム
JP4673192B2 (ja) 画像処理装置、画像処理装置の制御方法
JP2011109272A (ja) 画像形成装置及び画像形成方法
US8335026B2 (en) Image forming apparatus and color shift correction method thereof
JP4667201B2 (ja) 画像形成装置及びその制御方法
JP2006297633A (ja) 画像形成装置及びその制御方法、コンピュータプログラム及び記憶媒体
JP5404340B2 (ja) 画像形成装置、画像形成方法およびプログラム
JP2006297634A (ja) 画像形成装置及びその制御方法、コンピュータプログラム及び記憶媒体
JP2006297631A (ja) カラー画像形成装置及びその制御方法
JP4771527B2 (ja) 画像形成装置および画像形成方法
JP2007279238A (ja) 画像形成装置及び画像形成方法
JP4839106B2 (ja) 画像処理装置及び画像処理方法
US9417554B2 (en) Image forming apparatus and image formation method that perform smoothing
JP5448600B2 (ja) 画像形成装置
JP4114801B2 (ja) 画像形成装置および方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11744620

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2012500594

Country of ref document: JP

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11744620

Country of ref document: EP

Kind code of ref document: A1