JP5501035B2 - Image forming apparatus and image forming system - Google Patents
Image forming apparatus and image forming system Download PDFInfo
- Publication number
- JP5501035B2 JP5501035B2 JP2010045679A JP2010045679A JP5501035B2 JP 5501035 B2 JP5501035 B2 JP 5501035B2 JP 2010045679 A JP2010045679 A JP 2010045679A JP 2010045679 A JP2010045679 A JP 2010045679A JP 5501035 B2 JP5501035 B2 JP 5501035B2
- Authority
- JP
- Japan
- Prior art keywords
- correction
- value
- image
- scanning direction
- sub
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/047—Detection, control or error compensation of scanning velocity or position
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/047—Detection, control or error compensation of scanning velocity or position
- H04N1/0473—Detection, control or error compensation of scanning velocity or position in subscanning direction, e.g. picture start or line-to-line synchronisation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/12—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using the sheet-feed movement or the medium-advance or the drum-rotation movement as the slow scanning component, e.g. arrangements for the main-scanning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/50—Picture reproducers
- H04N1/506—Reproducing the colour component signals picture-sequentially, e.g. with reproducing heads spaced apart from one another in the subscanning direction
-
- G—PHYSICS
- G03—PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
- G03G—ELECTROGRAPHY; ELECTROPHOTOGRAPHY; MAGNETOGRAPHY
- G03G2215/00—Apparatus for electrophotographic processes
- G03G2215/01—Apparatus for electrophotographic processes for producing multicoloured copies
- G03G2215/0151—Apparatus for electrophotographic processes for producing multicoloured copies characterised by the technical problem
- G03G2215/0158—Colour registration
- G03G2215/0161—Generation of registration marks
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04701—Detection of scanning velocity or position
- H04N2201/0471—Detection of scanning velocity or position using dedicated detectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04701—Detection of scanning velocity or position
- H04N2201/04732—Detecting at infrequent intervals, e.g. once or twice per line for main-scan control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04753—Control or error compensation of scanning position or velocity
- H04N2201/04758—Control or error compensation of scanning position or velocity by controlling the position of the scanned image area
- H04N2201/04787—Control or error compensation of scanning position or velocity by controlling the position of the scanned image area by changing or controlling the addresses or values of pixels, e.g. in an array, in a memory, by interpolation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04753—Control or error compensation of scanning position or velocity
- H04N2201/04791—Control or error compensation of scanning position or velocity in the sub-scan direction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/04—Scanning arrangements
- H04N2201/047—Detection, control or error compensation of scanning velocity or position
- H04N2201/04753—Control or error compensation of scanning position or velocity
- H04N2201/04793—Control or error compensation of scanning position or velocity using stored control or compensation data, e.g. previously measured data
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Color Electrophotography (AREA)
- Control Or Security For Electrophotography (AREA)
- Color, Gradation (AREA)
- Laser Beam Printer (AREA)
- Fax Reproducing Arrangements (AREA)
Description
本発明は、形成される画像の位置ずれを補正する画像形成装置に関する。 The present invention relates to an image forming apparatus that corrects misalignment of a formed image.
タンデム方式のカラー画像形成装置の問題点に位置ずれ(色ずれ)が知られている。タンデム方式とは、トナーの色数と同数の現像機および感光体を備え、搬送ベルト上や、記録媒体上に順次異なる色の画像を転写する方式である。位置ずれとは、期待した位置と異なる位置に画像が転写さてしまうことである。位置ずれの要因として、偏向走査装置のレンズの不均一性や取り付け位置ずれ、偏向走査装置のカラー画像形成装置本体への組み付け位置ずれがある。その場合、走査線に傾きや湾曲が生じ、その程度が色毎に異なることで、画像の位置ずれ(色ずれ)が発生する。 A positional shift (color shift) is known as a problem of the tandem color image forming apparatus. The tandem system is a system that includes the same number of developing machines and photoconductors as the number of toner colors, and sequentially transfers images of different colors onto a conveyance belt or a recording medium. The misregistration means that the image is transferred to a position different from the expected position. As a cause of the positional deviation, there are a non-uniformity of the lens of the deflection scanning device, an attachment positional deviation, and an assembling positional deviation of the deflection scanning apparatus to the color image forming apparatus main body. In that case, an inclination or a curve is generated in the scanning line, and the degree is different for each color, thereby causing an image position shift (color shift).
この問題に対処する方法として、光学センサを用いて走査線の傾きと湾曲の大きさを測定し、それらを相殺するようにビットマップ画像データを補正し、その補正した画像を形成する方法が挙げられる(特許文献1)。 As a method of dealing with this problem, there is a method of measuring the inclination and curvature of the scanning line using an optical sensor, correcting the bitmap image data so as to cancel them, and forming the corrected image. (Patent Document 1).
なお、一般的にカラー画像形成装置では、感光体や中間転写体などの像担持体上、又は搬送ベルトなどの転写材担持体上に各色毎の位置ずれ検出用のパターンを形成し、それを下流部の両サイドの光センサで検出している。そして、該検出結果に応じて、位置ずれの補正を実施している。 In general, in a color image forming apparatus, a misregistration detection pattern for each color is formed on an image carrier such as a photosensitive member or an intermediate transfer member, or a transfer material carrier such as a conveyor belt. It is detected by optical sensors on both sides of the downstream part. Then, in accordance with the detection result, the positional deviation is corrected.
しかしながら、特許文献1の手法を用いた位置ずれ補正方法により、位置ずれ検出用のパターンを転写材担持体上に形成した場合、パターンの検出精度が悪化する場合がある。以下、検出精度が悪化する理由について説明する。
However, when a misregistration detection pattern is formed on the transfer material carrier by the misregistration correction method using the technique of
位置ずれ検出用のパターンを用いて、位置ずれ(色ずれ)を求める場合、水平ラインや斜めのラインなどで構成されたパターンを形成し、光センサがライン上を通過することでラインの位置を検出し、検出されたラインの位置を元に位置ずれを計算する。図11(a)に転写材担持体上に形成される位置ずれ検出用のパターンの一例を示す。K1,K2はブラックで形成した位置ずれ検出用のパターンであり、Yはイエローで形成した位置ずれ検出用のパターンである。光センサによるK1、K2、Yのラインの検出タイミングを各々t1、t2、t3とし、中間転写体の搬送速度をvとする。すると、ブラックとイエロー間の副走査方向の位置ずれは、{t3−(t1+t2)/2}×vで求めることができる。なお、副走査方向の位置ずれとは、図11(a)の矢印方向(光センサの走査ライン方向)のずれである。本例のパターンは、ブラックとイエローのみで構成されたものであるが、同様なパターンで他色間の副走査方向の位置ずれも求めることができる。 When obtaining a positional deviation (color deviation) using a positional deviation detection pattern, a pattern composed of horizontal lines and diagonal lines is formed, and the position of the line is determined by the optical sensor passing over the line. Detection is performed, and a positional deviation is calculated based on the detected line position. FIG. 11A shows an example of a misregistration detection pattern formed on the transfer material carrier. K1 and K2 are misregistration detection patterns formed of black, and Y is a misregistration detection pattern formed of yellow. The detection timings of the K1, K2, and Y lines by the optical sensor are t1, t2, and t3, respectively, and the conveyance speed of the intermediate transfer member is v. Then, the position shift in the sub-scanning direction between black and yellow can be obtained by {t3− (t1 + t2) / 2} × v. The positional deviation in the sub-scanning direction is a deviation in the arrow direction (scanning line direction of the optical sensor) in FIG. Although the pattern of this example is composed only of black and yellow, it is possible to obtain a positional shift in the sub-scanning direction between other colors with a similar pattern.
また、各ラインの検出タイミングは、光センサの信号から求められる。図11(b)は、位置ずれ検出用のパターンの一部として形成された水平ラインと光センサの走査ラインを示した図であり、図11(c)は、図11(b)の水平ラインを走査ラインに沿って検出した場合の光センサからの信号を表した図である。図11(c)で示すように信号と閾値(例えば濃度の閾値)が交差するタイミングをラインのエッジの検出タイミングとし、ライン両端の検出タイミングを平均化することで、ラインの副走査方向に対する中心位置の検出タイミングを求める。この中心位置の検出タイミングが、前述のラインの検出タイミングとなる。 Moreover, the detection timing of each line is calculated | required from the signal of an optical sensor. FIG. 11B is a diagram showing a horizontal line formed as a part of a pattern for detecting misalignment and a scanning line of an optical sensor, and FIG. 11C is a horizontal line of FIG. It is a figure showing the signal from the optical sensor at the time of detecting along a scanning line. As shown in FIG. 11C, the timing at which the signal and the threshold (for example, the density threshold) intersect is set as the detection timing of the line edge, and the detection timing at both ends of the line is averaged to obtain the center of the line in the sub-scanning direction. The position detection timing is obtained. This center position detection timing is the above-described line detection timing.
ここで、以上の方法により特許文献1の手法を用いた位置ずれ補正を行った位置ずれ検出用のパターンを検出する場合、その検出精度が悪化してしまうという問題が生じるおそれがある。このことを、図12を用いて説明する。
Here, when detecting a misregistration detection pattern that has been subjected to misregistration correction using the method of
図12(a)は、水平ラインに位置ずれ補正を行った場合の画像形成イメージを示す図であり、図12(b)は図12(a)のラインに対して光センサで検出した場合の検出信号を示した図である。図12(a)で示すように位置ずれ補正を行った場合、画素単位の補正に加え、ラインのエッジ部分に1画素未満の小さな画素が用いられる。なお、これらの補正方法の詳細については、特許文献1に記載されている。
FIG. 12A is a diagram showing an image formation image when the positional deviation correction is performed on the horizontal line, and FIG. 12B is a case where the line of FIG. 12A is detected by the optical sensor. It is the figure which showed the detection signal. When the positional deviation correction is performed as shown in FIG. 12A, in addition to the correction in units of pixels, a small pixel of less than one pixel is used at the edge portion of the line. Details of these correction methods are described in
ここで、一般的に電子写真方式の画像形成装置は、トナーの流動性の影響により小さな画素を安定的に形成することが困難であるため、小さな画素で構成されたラインのエッジ部分が不安定となりやすい。 Here, in general, since an electrophotographic image forming apparatus has difficulty in stably forming small pixels due to the influence of toner fluidity, an edge portion of a line composed of small pixels is unstable. It is easy to become.
小さな画素を形成する場合、露光の際の光量を小さくしたり、露光時間を短くしたりすると、潜像が浅くなり、それによりトナーの載り量が安定しない。そのため、図12(b)の点線で示す理想的な検出信号に比べて、実線で示す実際の検出信号ではエッジがずれて検出されることになる。結果として、上述したラインの中心位置もずれて算出されるため、位置ずれ検出用のパターンの検出精度が悪化することとなる。 In the case of forming a small pixel, if the amount of light at the time of exposure is reduced or the exposure time is shortened, the latent image becomes shallow, and the amount of applied toner is not stabilized. For this reason, the actual detection signal indicated by the solid line is detected with an edge shifted compared to the ideal detection signal indicated by the dotted line in FIG. As a result, since the center position of the line described above is also shifted and calculated, the detection accuracy of the pattern for detecting displacement is deteriorated.
また、上で説明した補正に係らず、例えば画素単位のみの補正を行う場合でも、該補正が原因で、位置ずれ検出結果に不具合が生じ得る。例えば、形成される位置ずれ検出パターンが重複してしまう場合である。このように、副走査方向に関連して、画像データ自体を補正するというデジタル的な位置ずれ補正を行った場合、位置ずれ検出用パターンの検出結果に関し不具合が生じてしまう。 In addition, regardless of the correction described above, even when correction is performed on a pixel-by-pixel basis, for example, a defect may occur in the misalignment detection result due to the correction. For example, this is a case where the formed misregistration detection patterns overlap. As described above, in the case of performing digital misregistration correction in which the image data itself is corrected in relation to the sub-scanning direction, a problem occurs regarding the detection result of the misregistration detection pattern.
本発明は、位置ずれ補正を行う画像形成装置において、位置ずれ検出用パターンを、精度良く検出できるように形成することを目的とする。 An object of the present invention is to form a misregistration detection pattern so as to be detected with high accuracy in an image forming apparatus that performs misregistration correction.
本発明に係る画像形成装置は、画像の副走査方向のずれを補正するために用いられる補正値を記憶する記憶手段と、前記補正値に含まれる小数点以下の値を用いずに、前記補正値に含まれる整数値を用いて、画像データに含まれる画素の位置を副走査方向にずらす補正を行う補正手段と、前記補正の行われた後の画像データに基づいて画像を形成する形成手段と、前記形成された画像の副走査方向のずれが測定されることで求まる値と、前記補正値のうちの、前記補正に用いられた前記整数値を除いた値と、用いて、前記記憶手段に記憶されている前記補正値を更新する更新手段とを有する。 The image forming apparatus according to the present invention includes a storage unit that stores a correction value used to correct a shift in the sub-scanning direction of an image, and the correction value without using a value after the decimal point included in the correction value. Correction means for correcting the position of the pixels included in the image data in the sub-scanning direction using the integer value included in the image data, and forming means for forming an image based on the image data after the correction is performed The storage means using a value obtained by measuring a deviation in the sub-scanning direction of the formed image and a value of the correction value excluding the integer value used for the correction. Updating means for updating the correction value stored in the storage .
本発明によれば、位置ずれ補正を行う画像形成装置において、位置ずれ量の計算精度を向上させることが可能となる。 According to the present invention, it is possible to improve the calculation accuracy of the positional deviation amount in the image forming apparatus that performs the positional deviation correction.
以下、本発明を実施するための最良の形態について図面を用いて説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings.
図1は4色すなわち、イエローY、マゼンタM、シアンC、ブラックKの画像形成手段を備えたカラー画像形成装置の一実施形態を示す断面図である。画像形成装置は、図1に示す画像形成部と図示しない画像処理部から構成される。 FIG. 1 is a cross-sectional view showing an embodiment of a color image forming apparatus having image forming means for four colors, that is, yellow Y, magenta M, cyan C, and black K. The image forming apparatus includes an image forming unit shown in FIG. 1 and an image processing unit (not shown).
図1を用いて、電子写真方式のカラー画像形成装置における画像形成部の動作を説明する。図1のカラー画像形成装置は、画像処理部が変換した露光時間に基づいて点灯される露光光により静電潜像を形成し、この静電潜像を現像して単色トナー像を形成し、この単色トナー像を順次重ね合わせて多色トナー像を形成する。更に、この多色トナー像を転写材11へ転写し、その転写材11上の多色トナー像を定着させる。画像形成部は給紙部21、感光体ドラム(22Y、22M、22C、22K)、注入帯電器(23Y、23M、23C、23K)によって構成されている。また画像形成部は、スキャナ部(24Y、24M、24C、24K)、トナーカートリッジ(25Y、25M、25C、25K)、現像器(26Y、26M、26C、26K)、中間転写ベルト27、転写ローラ28および定着部30によって構成されている。
The operation of the image forming unit in the electrophotographic color image forming apparatus will be described with reference to FIG. The color image forming apparatus of FIG. 1 forms an electrostatic latent image with exposure light that is turned on based on the exposure time converted by the image processing unit, and develops the electrostatic latent image to form a single color toner image. The single color toner images are sequentially superposed to form a multicolor toner image. Further, the multicolor toner image is transferred to the
上記感光体ドラム22Y、22M、22C、22Kは、図示しないモータから駆動伝達を受けて回転するもので、モータは感光ドラム22Y、22M、22C、22Kを画像形成動作に応じて反時計周り方向に回転させる。その感光体ドラム22Y、22M、22C、22Kの周囲には、感光体を帯電させるための注入帯電器23Y、23M、23C、23K、及び、現像を行う現像器26Y、26M、26C、26Kが備えられている。
The
上記中間転写ベルト27は、中間転写ベルト駆動ローラ32(以下、駆動ローラ)の回転により、時計回り方向に回転し、その駆動ローラ32は、図示しないモータから駆動伝達を受けて回転するものである。
The
画像形成に際しては、まず、回転する感光体ドラムを注入帯電器23Y、23M、23C、23Kによって帯電した後に、感光ドラムの表面にスキャナ部24Y、24M、24C、24Kから選択的に露光をして静電潜像を形成する。そして、その潜像を現像器26Y、26M、26C、26Kによってトナー現像することで可視画像化する。そして、その単色トナー像は、感光ドラムの回転にともなって時計回り方向に回転している中間転写ベルト27に重ね合わされて順次転写される。また、その後、中間転写ベルト27に転写ローラ28が接触して、狭持搬送される転写材11に中間転写ベルト27上の多色トナー像が転写される。さらに、多色トナー像を保持した転写材11は、定着部30にて熱および圧力を加えられ、トナーが転写材上に定着される。トナー像定着後の転写材11は、その後図示しない排出ローラによって図示しない排紙トレイに排出する。中間転写ベルト27上に残ったトナーは、クリーニング手段29によってクリーニングされ、クリーニングされたトナーは、クリーナ容器に蓄えられる。
In image formation, first, the rotating photosensitive drum is charged by the
画像検出部31は、中間転写ベルト27の両サイドに設けられた2つの画像検出センサ31L、31R(図5に記載)からなり、後述する方法で各色の位置ずれ量を検出するものである。
The
図2はカラー画像形成装置の機能ブロック図、及び該機能ブロック図における信号処理の一実施形態を示す図である。 FIG. 2 is a functional block diagram of the color image forming apparatus and a diagram illustrating an embodiment of signal processing in the functional block diagram.
図2において、ホスト301、コントローラ302、エンジン303の機器には、各機器内の各ブロックを制御するための独立した主制御部(CPU312、313、314)が存在する。そして、各CPUが各機器内の動作や、各機器間の通信を制御している。本実施形態の画像形成装置は、コントローラ部とエンジン部が別体で構成されており、各機器が個別に制御されるように各機器間で閉じた構成になっている。なお、ホスト301は、画像形成装置とは別体の情報処理装置とすることができる。
In FIG. 2, the
ホスト301からはRGBの画像信号が送出され、コントローラ302へ入力され、入力されたRGB信号には色変換処理部304でマスキング、UCR(under color removal)の処理が施される。また、色補正、下地除去が行われ、イエローY、マゼンタM、シアンC、ブラックKの画像信号へと変換される。また、γ補正部305によって出力濃度曲線が線形となるように補正をかけられる。そしてその後、画像補正部315において、副走査方向における画像位置補正を行うべく各色の画像データの補正を行い、補正された画像データがエンジン303へ入力される。
An RGB image signal is transmitted from the
306はレーザ駆動部であり、コントローラ302からエンジン303への画像データ信号307に従いレーザ点灯及び消灯を行う。308はエンジン303からコントローラ302への水平同期信号、309はエンジン303からコントローラ302への垂直同期信号であり、これら同期信号に従いコントローラ302から画像データがエンジン303に対して出力される。310はコントローラ302からエンジン303への各種コマンド送信信号、311はエンジン303からコントローラ302へ送信される各種ステータス信号を表す。
A
次に、画像補正部315における画像データの補正方法について説明する。
図3は、走査線に傾きや湾曲があった場合の、主走査方向の各位置に対する副走査方向の画像の位置ずれ量と、位置ずれ補正量Δyと、の関係を示した図である。この位置ずれ補正量Δyに従い画像傾きや画像湾曲を補正して画像を形成することになる。位置ずれ補正量Δyは、副走査方向の位置ずれを相殺するための補正量であり、図3に示すように副走査方向の位置ずれ量と位置ずれ補正量Δyは逆の関係となっている。そして例えば、装置の製造工程において、装置毎に位置ずれ量の測定が行われており、測定された位置ずれ量を基に位置ずれ補正量Δyがあらかじめ求められている。なお、予め補正量を求めていても、熱やベルトの耐性などの経時的要因によって別の位置にずれが生じる場合もある。この場合には、後述の位置ずれ検出方法のように中間転写ベルト27上など像担持体上に形成した位置ずれ検出用のパターンを画像検出部31にて検出し、その検出結果からΔyを算出することができる。なお、走査線の傾きや湾曲は、色ごと(イエローY、マゼンタM、シアンC、ブラックK)に異なるので、色ごとの画像データに、それぞれの走査線の傾きや湾曲に応じた異なる補正を行う。
Next, a method for correcting image data in the
FIG. 3 is a diagram illustrating the relationship between the positional deviation amount of the image in the sub-scanning direction and the positional deviation correction amount Δy with respect to each position in the main scanning direction when the scanning line is inclined or curved. The image is formed by correcting the image tilt and the image curvature according to the positional deviation correction amount Δy. The positional deviation correction amount Δy is a correction amount for canceling the positional deviation in the sub-scanning direction. As shown in FIG. 3, the positional deviation amount in the sub-scanning direction and the positional deviation correction amount Δy have an inverse relationship. . For example, in the device manufacturing process, the amount of misalignment is measured for each device, and the misalignment correction amount Δy is obtained in advance based on the measured misalignment amount. Even if the correction amount is obtained in advance, there may be a case where a deviation occurs in another position due to a temporal factor such as heat and belt durability. In this case, a pattern for detecting misregistration formed on the image carrier such as the
図4は、通常の画像形成時に、画像データに対して、主走査方向の各位置で副走査方向に係る画像補正を行い、副走査方向における画像位置の補正が行われることを説明する為の図である。尚、通常の画像形成時とは、後述するキャリブレーション用(位置ずれ検出用パターン)のパターンを形成する場合ではなく、外部から入力されるユーザ所望の画像データに従う画像形成のことを指す。すなわち、位置ずれ検出用パターン以外の画像を形成することを指す。以下、右上がりの画像傾きの位置ずれが生じている部分を一例とし、図4を用いて画像補正方法について説明する。尚、図4に示される画像補正方法は、図2で説明した画像補正部315により実行される。
FIG. 4 is a diagram for explaining that during normal image formation, image correction in the sub-scanning direction is performed on image data at each position in the main scanning direction, and image position correction in the sub-scanning direction is performed. FIG. Note that normal image formation refers to image formation according to user-desired image data input from the outside, not to form a calibration (positional deviation detection pattern) pattern, which will be described later. That is, it means forming an image other than the misregistration detection pattern. Hereinafter, the image correction method will be described with reference to FIG. 4, taking as an example a portion in which a position deviation of the image inclination that rises to the right occurs. The image correction method shown in FIG. 4 is executed by the
図4(a)は、右上がりの傾きの位置ずれが生じている部分の走査線のイメージである。本例では、スキャナ部の主走査方向4ドットあたり、1ドットの傾きが生じていることになる。図4(b)は階調値変換前の水平な直線のビットマップイメージ例であり、2ドットラインを表している。図4(c)は(a)の走査線の傾きによる位置ずれを相殺するために(b)のビットマップイメージを補正した補正ビットビットマップイメージである。図4(c)の補正イメージは理想的な補正ビットマップイメージであり、デジタル的な補正においては、画素ごとに画素値を調整することによって実現する。図4(d)は、(c)の主走査方向の各画素に対する位置ずれ補正量Δyと階調値変換パラメータとの関係を表した表である。階調値変換パラメータとは、1画素未満の補正を行うためのパラメータである。尚、図4(d)のΔyは、図3で説明した位置ずれ補正量Δyに相当する。kは位置ずれ補正量Δyの整数部分(小数点以下切り捨て)であり、1画素単位での副走査方向の補正量を表す。1画素単位の画像位置補正は、補正量に応じて画素を1画素単位で副走査方向へオフセット(座標補正)させる。 FIG. 4A is an image of a scanning line in a portion where a positional deviation with an upward slope is generated. In this example, an inclination of 1 dot is generated per 4 dots in the main scanning direction of the scanner unit. FIG. 4B is an example of a horizontal straight-line bitmap image before gradation value conversion, and represents a 2-dot line. FIG. 4C is a corrected bitmap image obtained by correcting the bitmap image in FIG. 4B in order to cancel the positional deviation due to the inclination of the scanning line in FIG. The correction image in FIG. 4C is an ideal correction bitmap image, and digital correction is realized by adjusting the pixel value for each pixel. FIG. 4D is a table showing the relationship between the positional deviation correction amount Δy and the gradation value conversion parameter for each pixel in the main scanning direction of FIG. The tone value conversion parameter is a parameter for correcting less than one pixel. Note that Δy in FIG. 4D corresponds to the positional deviation correction amount Δy described in FIG. k is an integer part (truncated after the decimal point) of the positional deviation correction amount Δy, and represents the correction amount in the sub-scanning direction in units of one pixel. In the image position correction in units of one pixel, the pixels are offset (coordinate correction) in the sub-scanning direction in units of one pixel according to the correction amount.
βとαは、1画素未満の副走査方向の画像位置補正をおこなうための画像データ調整分配率(階調値変換パラメータ)で、位置ずれ補正量Δyの小数点以下の情報より、副走査方向における前後の画素階調値の分配率を表し、
β=Δy−k
α=1−β
により計算される。αは、元の画素から副走査方向へk画素分オフセットさせた位置における分配率であり、βは、k+1画素分オフセットさせた位置における分配率である。分配率α、βに従って分配された階調値が、補正後のビットマップイメージの各々の分配される位置の階調値に加算される。
β and α are image data adjustment distribution ratios (tone value conversion parameters) for performing image position correction in the sub-scanning direction of less than one pixel, and information in the sub-scanning direction is obtained from information below the decimal point of the position shift correction amount Δy. Represents the distribution ratio of the pixel gradation values before and after,
β = Δy−k
α = 1−β
Is calculated by α is a distribution ratio at a position offset by k pixels from the original pixel in the sub-scanning direction, and β is a distribution ratio at a position offset by k + 1 pixels. The gradation values distributed according to the distribution ratios α and β are added to the gradation values at the distribution positions of the corrected bitmap image.
よって、下記のような形で補正後のビットマップイメージの画素値を表現することが可能である。
processed_value(x, y) =α × value(x, y-k) + β× value(x, y-(k+1))
ここで、value(x,y)は補正前の主走査位置x, 副走査位置yの画素値を示し、processed_value(x,y)は補正後の主走査位置x, 副走査位置yの画素値を示す。
Therefore, it is possible to express the pixel value of the bitmap image after correction in the following form.
processed_value (x, y) = α × value (x, yk) + β × value (x, y- (k + 1))
Here, value (x, y) indicates the pixel value at the main scanning position x and the sub-scanning position y before correction, and processed_value (x, y) is the pixel value at the main scanning position x and the sub-scanning position y after correction. Indicates.
図4(e)は、(d)の画像補正パラメータに従って、副走査方向での前後の画素階調値変換を行ったビットマップイメージである。図4(f)は、階調値変換されたビットマップイメージの像担持体での露光イメージであり、主走査ラインの傾きが相殺され水平な直線が形成されることになる。 FIG. 4E is a bitmap image obtained by performing pixel gradation value conversion before and after in the sub-scanning direction according to the image correction parameter of FIG. FIG. 4F shows an exposure image of an image carrier of a bitmap image that has undergone tone value conversion, and the inclination of the main scanning line is canceled out to form a horizontal straight line.
以上が、画像補正方法の説明である。なお、ここで説明した補正方法は、通常の画像形成時における方法であり、位置ずれ検出時には、後述するようにこの補正方法とは異なる方法を用いる。 The above is the description of the image correction method. Note that the correction method described here is a method at the time of normal image formation, and a method different from this correction method is used as described later at the time of detecting a positional deviation.
次に、本実施形態の位置ずれ検出動作について説明する。 Next, the displacement detection operation of this embodiment will be described.
中間転写ベルト27に、図5で示すような位置ずれ検出用パターン(以下、検出パターン、或は、パターン)を形成し、中間転写ベルト27の両サイドに設けられた画像検出センサ31L、31Rで読み取り、各色の位置ずれ量を検出する。このような位置ずれ検出動作は、前回の位置ずれ検出時からの位置ずれが大きくなっていると予測される際に、CPU313またCPU314が指示することによって実行される。位置ずれが大きくなっていると予想されるのは、起動直後、一定枚数の印刷をしたあと、起動時から一定時間が経過したあと、温度・湿度の変化があった場合等である。図5の41〜44は主走査方向及び副走査方向の位置ずれ量を検出する為のパターンで、この例では45度の傾きで、K1〜K4は基準色(ブラック)、Y、M、Cは検出色(Y:イエロー、M:マゼンタ、C:シアン)を示す。基準色からのずれ量が各検出色における位置ずれ量となる。パターン41、43は、画像検出センサ31Lで、パターン42、44は、画像検出センサ31Rでそれぞれ検出される。また、tYL1、tML1、tCL1、tK1L1、tK2L1、tK3L1、tK4L1はパターン41の検出タイミングを、tYR1、tMR1、tCR1、tK1R1、tK2R1、tK3R1、tK4R1はパターン42の検出タイミングを示す。また、tYL2、tML2、tCL2、tK1L2、tK2L2、tK3L2、tK4L2はパターン43の検出タイミングを、tYR2、tMR2、tCR2、tK1R2、tK2R2、tK3R2、tK4R2はパターン44の検出タイミングを示す。矢印は中間転写ベルト27の移動方向を示す。従って、図5では、副走査方向は矢印方向と同方向又は反対方向である垂直方向に相当し、主走査方向は水平方向に相当する。パターン41の各パターンは等間隔に配置されており、パターン42〜44においても同様に等間隔に配置されている。位置ずれのない理想状態におけるパターン41と43の検出タイミングの間隔、42と44の検出タイミングの間隔をTdtとする。すなわち、パターン41K1及び43K1の検出タイミングtK1L1、tK1L2との差tK1L2−tK1L1は、位置ずれのない理想状態でTdtである。他の検出タイミングの間隔も同様である。これらの値を利用した本実施形態における位置ずれ量算出方法の詳細については後述する。
A misregistration detection pattern (hereinafter referred to as a detection pattern or pattern) as shown in FIG. 5 is formed on the
[画像補正方法切換のフローチャート]
次に、画像補正部315における位置ずれ検出パターンの画像補正方法について説明する。位置ずれ検出パターンの形成時は、通常の画像形成時とは異なる画像データの補正を行う。図6はその画像補正方法の切り替え判断を示したフローチャートであり、画像補正部315による処理を示す。ここで、切り替え判断は全ての画像形成に対して行われる。
[Image correction method switching flowchart]
Next, an image correction method for the misregistration detection pattern in the
以下、図6を用いて切り替え判断について説明する。 Hereinafter, the switching determination will be described with reference to FIG.
まず、CPU313は、画像形成前に、印字する画像が位置ずれ検出パターンであるかを判断する(S1)。例えばホスト301から送られる画像信号に位置ずれ検出パターンであることを示す情報が含まれている場合には、印字する画像が位置ずれ検出パターンであると判断する。CPU313は、印字する画像が位置ずれ検出パターンでない場合、通常の画像形成時の画像補正方法を画像補正部315で用いる(S2)。CPU313は、印字する画像が位置ずれ検出パターンである場合、位置ずれ検出パターン形成時の画像補正方法を画像補正部315で用いる(S3)。このようにして画像補正方法を切り替えている。
First, the
[位置ズレ検出時の画像補正方法]
次に、位置ずれ検出パターン形成時の画像補正方法が、通常の画像形成時と異なる部分について説明する。異なる部分として、以下の2つが挙げられる。
1つめは、位置ずれ検出パターンを形成する時に1画素未満の副走査方向の画像位置補正を行わないことである。
[Image correction method when misalignment is detected]
Next, a description will be given of portions where the image correction method at the time of forming the misregistration detection pattern is different from that at the time of normal image formation. The following two are given as different parts.
The first is that image position correction of less than one pixel in the sub-scanning direction is not performed when the misregistration detection pattern is formed.
通常の画像形成時における画像補正方法では、階調値変換時に1ドット未満の小さな画素を用いて画像の平滑化(スムージング)を行っている。その為に、ラインのエッジ付近に電子写真方式上不安定な小さな画素(中間調のドット)が形成され、ラインのエッジ部分が意図した濃度とならない場合がある。そこで、検出パターン形成時には、スムージングをかけずに検出パターンの画像補正を行うことで、安定したパターンを形成し、精度良くエッジを検出することを可能にする。 In an image correction method at the time of normal image formation, image smoothing (smoothing) is performed using small pixels of less than one dot at the time of gradation value conversion. For this reason, small pixels (halftone dots) unstable in the electrophotographic method are formed near the edge of the line, and the edge portion of the line may not have the intended density. Therefore, when forming a detection pattern, image correction of the detection pattern is performed without applying smoothing, so that a stable pattern can be formed and edges can be detected with high accuracy.
2つめは、副走査方向の段差を発生させないようにする処理を行うことである。
ここで単にスムージング無しで画像補正を行った場合、図7のように水平ラインに1ドットの段差が1つ以上発生することになる。そして画像検出センサの走査ライン付近に段差が生じた場合、画像検出センサ31がこの段差を読み取ってしまい、位置ずれを正確に検出できなくなる可能性がある。例えば、段差の原因となるずれが、画像が上部にずれていることに起因するのか、画像が下部にずれていることに起因するのかを正確に検出できない可能性がある。
The second is to perform processing so as not to generate a step in the sub-scanning direction.
Here, when image correction is simply performed without smoothing, one or more steps of 1 dot occur on the horizontal line as shown in FIG. If there is a step near the scanning line of the image detection sensor, the
そこで、本実施形態では、図8のように画像検出センサ31の走査ライン付近(検出領域近傍)に段差抑制領域51を設け、段差抑制領域51内ではラインの段差が発生しないような対応をする。位置ずれが発生していない理想的な状況で、画像検出センサ31の走査ライン付近と、検出パターンの主走査方向における中央部とは一致する。以下、これら2つの点を加味した検出パターン形成時の画像補正方法について、図9を用いて説明する。
Therefore, in the present embodiment, as shown in FIG. 8, a
[形成される検出パターンの様子]
図9(a)は、右上がりの傾きを有する走査線のイメージであり、具体的には図8で示した例えばtY1L1の検出用パターンを相当させることができる。また、ここでは、図4(a)と同様に主走査方向4ドットあたり、1ドットの傾きが生じている。すなわち、図9(a)は、tY1L1の右上がりの走査線が、さらに右上がりに傾いている様子を示している。
[Detection pattern to be formed]
FIG. 9A shows an image of a scanning line having a slope that rises to the right. Specifically, for example, the detection pattern of tY1L1 shown in FIG. In addition, here, as in FIG. 4A, an inclination of 1 dot occurs per 4 dots in the main scanning direction. That is, FIG. 9A shows a state where the scanning line rising to the right of tY1L1 is further inclined to the right.
図9(b)は補正前の水平な直線のビットマップイメージ例であり、2ドット幅のラインを表している。図8で示すように、検出パターンは斜め45度の角度を有するパターンであるが、ここでは説明の簡素化のため、水平な直線で説明している。 FIG. 9B is an example of a horizontal straight line bitmap image before correction, and represents a 2-dot wide line. As shown in FIG. 8, the detection pattern is a pattern having an angle of 45 degrees, but here it is described as a horizontal straight line for the sake of simplicity of explanation.
図9(c)は(a)の走査線の傾きによる位置ずれを相殺するために(b)のビットマップイメージを補正した補正ビットマップイメージである。図9(c)の補正イメージを実現するために、副走査方向における前後の画素の画像データを調整する。なお、ここでの画像データの調整とは、前述したビットマップイメージの座標補正、画像階調値の調整のことを指す。なお、検出パターンを形成する際には、1画素未満の画素に対するスムージング処理は行わない。 FIG. 9C shows a corrected bitmap image obtained by correcting the bitmap image shown in FIG. 9B in order to cancel the positional deviation caused by the inclination of the scanning line shown in FIG. In order to realize the corrected image of FIG. 9C, the image data of the pixels before and after in the sub-scanning direction are adjusted. The adjustment of the image data here refers to the coordinate correction of the bitmap image and the adjustment of the image gradation value described above. Note that when forming a detection pattern, smoothing processing is not performed on pixels less than one pixel.
図9(d)は位置ずれ補正量Δyと階調値変換パラメータとの関係を表した表である。 FIG. 9D is a table showing the relationship between the positional deviation correction amount Δy and the gradation value conversion parameter.
図9(d)の表において、段差抑制の行に印がついている画素は、段差抑制領域51内にある画素を表している。段差抑制領域51は、画像検出線センサ31の走査ライン付近の領域である。段差抑制領域51は、画像検出センサ31の設置位置やその検出範囲の情報などから算出されることになる。図9(d)に示されるように、検出用パターンの主走査方向における複数の画素位置が、段差抑制領域51に対応している。また、kは、位置ずれ補正量Δyの整数部分(小数点以下を切り捨て)を、k’は1画素単位での副走査方向の補正量を表す。補正量k’に応じて画素を1画素単位で副走査方向へオフセットさせる。通常の画像形成時における画像補正と異なり、kの値を直接補正量として用いず、補正量の値が段差抑制領域内で変化しないようにしている。即ち、段差抑制領域内では、主走査方向における所定の画素位置(第一の所定位置)では、副走査方向についての画像データの座標補正が行われず、所定の画素位置以外(段差抑制領域の外側である第二の所定位置)では座標補正が行われる。
In the table of FIG. 9D, pixels marked in the step suppression row represent pixels in the
段差抑制領域外でk’の値の変化を許していること、すなわち段差抑制領域外で画像データの座標補正を行っているのは、検出パターンの全てについて座標補正を非実行としてしまうと、隣の前後するパターンと重なる場合があるためである。このことを後述の図9(f)(g)で詳しく説明する。 The fact that the change of the value of k ′ is allowed outside the step suppression area, that is, the coordinate correction of the image data outside the step suppression area is the reason why the coordinate correction is not executed for all of the detection patterns. This is because the pattern may overlap with the pattern before and after. This will be described in detail with reference to FIGS.
図9(e)は、(d)の画像補正パラメータに従って、副走査方向での前後の画素の位置調整を行ったビットマップイメージである。図9(e)中の斜線部分は、段差抑制領域51を表している。通常の画像形成時とは画像補正方法が異なるため、傾き量が同一であっても図4(e)とは異なる補正結果となっている。
FIG. 9E is a bitmap image obtained by adjusting the positions of the front and rear pixels in the sub-scanning direction according to the image correction parameter of FIG. A hatched portion in FIG. 9E represents the
図9(f)は、位置ずれ量を検出する為のパターンの元ととなる画像データに、補正を一切行わなかった場合の、パターン形成の様子を示す。すなわち、1画素未満のスムージング処理および1画素単位のオフセット処理を行わなかった場合のパターン形成の様子を示す。この場合、画像傾きや画像湾曲の程度が大きい場合には、副走査方向の前後のパターン同士が重なってしまう。そして、主走査方向のズレが大きい場合には、重なった部分を、画像検出センサにより検出することになり、その結果誤った位置ずれ補正がなされる場合がある。図9(f)の例では、本来基準色の検出タイミングのtK1L1とtK2L1との間に検出色の検出タイミングtYL1が検出されるように検出;パターンを形成している。しかしながら、図9(f)の右側では、検出色の検出タイミングtYL1が基準色の間から飛び出してしまっており、図示しない別の基準色からの位置ずれを誤って算出してしまう。 FIG. 9F shows how the pattern is formed when no correction is performed on the image data that is the basis of the pattern for detecting the amount of displacement. That is, the pattern formation is shown when smoothing processing for less than one pixel and offset processing for each pixel are not performed. In this case, if the degree of image tilt or image curvature is large, the patterns before and after in the sub-scanning direction overlap each other. If the deviation in the main scanning direction is large, the overlapped portion is detected by the image detection sensor, and as a result, erroneous misalignment correction may be performed. In the example of FIG. 9F, the detection; pattern is formed so that the detection timing tYL1 of the detection color is detected between the detection timings tK1L1 and tK2L1 of the reference color. However, on the right side of FIG. 9 (f), the detection timing tYL1 of the detected color has jumped out from between the reference colors, and the misregistration from another reference color (not shown) is erroneously calculated.
一方、図9(g)は、位置ずれ量を検出する為のパターンの元ととなる画像データについて、段差抑制領域51に対応する画像データには画像データの補正を行わず、段差抑制領域51よりも外側のパターンに対応する画像データに補正を行った場合を示す。すなわち、上述したように1画素未満のスムージング処理は行わず、1画素単位のオフセット処理を段差抑制領域51以外の領域に対して行った例を示す。段差抑制領域51は、画像検出センサ31の走査線の近傍の領域であり、形成される全体の画像のパターン(画像データ上では、パターンが形成されていない部分には白色のデータが含まれる)から比べると、その領域は小さい。従って、段差抑制領域51以外の領域については1画素単位のオフセット処理を行うことで、検出パターンが重複してしまうことを防止できる。一方で、段差抑制領域51については、オフセット処理を行わないことで、段左翼性領域51内における段差の発生を防止して、誤った位置ずれを算出することを防止できる。
On the other hand, FIG. 9G shows that the image data corresponding to the
なお、検出パターンが形成されない部分については、実際のオフセット処理を行わなくてもよい。すなわち、位置ずれを補正するための計算自体は行われるが、検出パターンが形成されない部分については画像を実際にオフセットさせる処理ことは省略してもよい。 Note that the actual offset process does not have to be performed for the portion where the detection pattern is not formed. That is, the calculation itself for correcting the misregistration is performed, but the process of actually offsetting the image for the portion where the detection pattern is not formed may be omitted.
なお、主走査方向の位置ずれが大きく発生している場合には、パターンが主走査方向にずれた場所に形成され、画像検出センサ31が形成段差抑制領域51よりも外側のパターンの検出を行う場合がある。すなわち、期待通りの領域に段差抑制領域51で形成されるべき画像を形成できない場合も考えられる。このような場合に、図9(g)のように位置ずれ量を検出する為のパターンを形成すれば、画像検出センサ31の検出領域は、図9(g)の形成段差抑制領域51の外側にある可能性があるので、図7で説明した段差を検出する可能性が出てくる。しかしながら、図9(f)のようにパターンを形成する場合と比べ、少なくとも異なる色の位置ずれ量検出パターンが重なった部分を検出することは回避でき、図9(f)の場合よりも良好な検出結果を得ることが出来る。なお、段差抑制領域外では、kの値とk’の値はほぼ同一である。同一にならないのは、1回について1ライン分の副走査方向のオフセット処理しか行うことができないハードウェアの制約があり、段差抑制領域内で複数回の副走査方向のオフセット処理が行われなかった場合である。そのような場合は、段差抑制領域外で、kの値とk’の値が一致していない領域がある場合がある。ただし、段差抑制領域は画像内の小領域であり、オフセット処理が行われなかった回数は精々数回にしかならないため、これにより異なる色の位置ずれ量検出パターンが重なる可能性は低い。
Note that, when the position shift in the main scanning direction is large, the pattern is formed at a position shifted in the main scanning direction, and the
このように、図9に示した位置ずれ検出パターン形成時用の画像補正がなされた位置ずれ検出用パターンの画像データに基づき、図1で説明した電子写真構成により、中間転写ベルト27状にパターンが形成される。
Thus, based on the image data of the misregistration detection pattern image corrected for the misregistration detection pattern formation shown in FIG. 9, the pattern is formed in the shape of the
[検出パターンの検出精度の差異]
次に、通常の画像形成時における画像補正方法と、位置ずれ検出パターン形成時の画像補正方法とを比較し、各々の補正方法で検出パターンを形成した場合の検出パターンの検出精度の違いについて説明する。
[Difference in detection pattern detection accuracy]
Next, an image correction method at the time of normal image formation and an image correction method at the time of forming a misregistration detection pattern are compared, and the difference in detection pattern detection accuracy when a detection pattern is formed by each correction method is described. To do.
図10は、水平ラインに対して画像補正を行い、印字した場合のラインの様子と、そのラインを画像検出センサ31で検出した場合の検出信号を表したものである。図10(a)は、通常の画像形成時における画像補正を行っており、図10(b)は位置ずれ検出パターン形成時での画像補正を行っている。また、図10で示すように、所定の閾値と信号が交差するタイミングをラインのエッジの検出タイミングとし、ラインの検出タイミングを、ライン両端の検出タイミングの平均値(中心位置の検出タイミング)とする。
FIG. 10 shows the state of a line when image correction is performed on a horizontal line and printing, and a detection signal when the line is detected by the
図10(a)の場合、ラインのエッジ部分にスムージングを行っているため、不安定な1画素未満の小さな画素を用いている。そのため、エッジ部分が不安定となり、エッジが理想的な信号よりずれて検出される。図10(b)では、スムージングを行っていないため、図10(a)に比べてエッジ部分が安定しており、エッジ検出時の誤差が小さくなっている。よって、図10(b)の場合の方が図10(a)の場合に比べてラインの検出精度が向上するため、検出パターンを精度よく検出することが可能となる。 In the case of FIG. 10A, since smoothing is performed on the edge portion of the line, an unstable small pixel smaller than one pixel is used. Therefore, the edge portion becomes unstable, and the edge is detected with a deviation from an ideal signal. In FIG. 10B, since smoothing is not performed, the edge portion is more stable than that in FIG. 10A, and the error during edge detection is small. Therefore, the detection accuracy of the line is improved in the case of FIG. 10B compared to the case of FIG. 10A, and thus the detection pattern can be detected with high accuracy.
[位置ずれ量の計算]
本実施形態における位置ずれ量の計算方法について、図14のフローチャートを用いて説明する。
[Calculation of misalignment]
A method for calculating the amount of misregistration in this embodiment will be described with reference to the flowchart of FIG.
<ステップS1401>
ステップS1401では、CPU313は、主走査方向に関する位置ずれ量を計算する。主走査方向に関して、検出パターンで検出される中間転写ベルト両サイドの各色の位置ずれ量は、
ΔsYL=v×(tYL1−tYL2)
ΔsYR=v×(tYR1−tYR2)
ΔsML=v×(tML1−tML2)
ΔsMR=v×(tMR1−tMR2)
ΔsCL=v×(tCL1−tCL2)
ΔsCR=v×(tCR1−tCR2)
となる。
<Step S1401>
In step S1401, the
ΔsYL = v × (tYL1-tYL2)
ΔsYR = v × (tYR1−tYR2)
ΔsML = v × (tML1-tML2)
ΔsMR = v × (tMR1-tMR2)
ΔsCL = v × (tCL1-tCL2)
ΔsCR = v × (tCR1−tCR2)
It becomes.
これらより、イエロー、マゼンタ、シアンの主走査方向の平均位置ずれ量ΔsY、ΔsM、ΔsCは、
ΔsY=(ΔsYL+ΔsYR)/2
ΔsM=(ΔsML+ΔsMR)/2
ΔsC=(ΔsCL+ΔsCR)/2
となる。
From these, the average positional deviation amounts ΔsY, ΔsM, ΔsC in the main scanning direction of yellow, magenta, and cyan are
ΔsY = (ΔsYL + ΔsYR) / 2
ΔsM = (ΔsML + ΔsMR) / 2
ΔsC = (ΔsCL + ΔsCR) / 2
It becomes.
また、主走査倍率の補正のための値も計算する。主走査倍率の補正は、画像データ信号207の周波数を微調整(走査幅が長い場合は、周波数を速くする。)して、走査線の長さを変えることよって、主走査方向の倍率を補正するものである。主走査方向の位置ずれ補正の仕組みは良く知られた事項であり、ここでの主走査方向の倍率補正についての詳しい説明は省略することとする。 Also, a value for correcting the main scanning magnification is calculated. The main scanning magnification is corrected by finely adjusting the frequency of the image data signal 207 (if the scanning width is long, the frequency is increased) and changing the scanning line length to correct the magnification in the main scanning direction. To do. The mechanism for correcting the misregistration in the main scanning direction is a well-known matter, and a detailed description of magnification correction in the main scanning direction here will be omitted.
<ステップS1402>
ステップS1402では、CPU313は、各検出パターンごとの理想の補正量と実際の補正量との差分量を計算する。図9(d)で図示したように、位置ずれ検出パターン形成時の画像補正においては、位置ずれ補正量Δyと実際の補正量k’に差が生じている。センサ位置でのΔy-k’を計算すれば、この補正量の差分量(補正をしなかった量)を計算することが可能である。そして、この値を利用することにより、副走査方向の位置ずれ量をより精度が良い形で算出することが可能となる。すなわち、実際の補正には使用していない値を、位置ずれ量の計算に利用することで、副走査方向の位置ずれ量をより精度が良い形で算出することが可能となる。(主走査方向の位置ズレ量の計算には、副走査方向の位置ずれ量は関係がないため、この補正量の差分量を用いる必要はない。)なお、同じ色で、パターン検出に利用するセンサが同じである検出パターンの補正量の差分量は、Δyとk’が同じ値であるので、差分量も同じ値となる。
<Step S1402>
In step S1402, the
マーク41Y・43Yの補正量の差分量ΔY_DIF_L、マーク42Y・44Yの補正量の差分量ΔY_DIF_R、マーク41M・43Mの補正量の差分量ΔM_DIF_Lは次式により求まる。また、マーク42M・44Mの補正量の差分量ΔM_DIF_R、マーク41C・43Cの補正量の差分量ΔC_DIF_L、マーク42C・44Cの補正量の差分量ΔC_DIF_Rは次式により求まる。また、マーク41K1〜41K4・43K1〜43K4の補正量の差分量ΔK_DIF_L、マーク42K1〜42K4・44K1〜44K4の補正量の差分量ΔK_DIF_Rは次式により求まる。
ΔY_DIF_L=ΔyY_L − k’Y_L
ΔY_DIF_R=ΔyY_R − k’Y_R
ΔM_DIF_L=ΔyM_L − k’M_L
ΔM_DIF_R=ΔyM_R − k’M_R
ΔC_DIF_L=ΔyC_L − k’C_L
ΔC_DIF_R=ΔyC_R − k’C_R
ΔK_DIF_L=ΔyK_L − k’K_L
ΔK_DIF_R=ΔyK_R − k’K_R
ここで、ΔyY_Lは、画像検出センサ31Lの主走査位置におけるイエローの位置ズレ補正量である。k’Y_Lは画像検出センサ31Lの主走査位置におけるイエローの実際の補正量である。ΔyY_Rとk’Y_Rとは画像検出センサ31Rの主走査位置におけるイエローの位置ズレ補正量と実際の補正量をそれぞれ表している。ΔyM_Lとk’M_Lは画像検出センサ31Lの主走査位置におけるマゼンタの位置ズレ補正量と実際の補正量である。ΔyM_Rとk’M_Rは画像検出センサ31Rの主走査位置におけるマゼンタの位置ズレ補正量と実際の補正量である。ΔyC_Lとk’C_Lは画像検出センサ31Lの主走査位置におけるシアンの位置ズレ補正量と実際の補正量である。ΔyC_Rとk’C_Rは画像検出センサ31Rの主走査位置におけるシアンの位置ズレ補正量と実際の補正量である。ΔyK_Lとk’K_Lは画像検出センサ31Lの主走査位置におけるブラックの位置ズレ補正量と実際の補正量である。ΔyK_Rとk’K_Rは画像検出センサ31Rの主走査位置におけるイエローの位置ズレ補正量と実際の補正量である。なお、センサ位置の主走査位置は、ステップS1401で求めた主走査方向の位置ずれ量は主走査倍率歪みの影響を考慮した値を利用する。
The difference amount ΔY_DIF_L of the correction amounts of the
ΔY_DIF_L = ΔyY_L−k′Y_L
ΔY_DIF_R = ΔyY_R−k′Y_R
ΔM_DIF_L = ΔyM_L−k′M_L
ΔM_DIF_R = ΔyM_R−k′M_R
ΔC_DIF_L = ΔyC_L−k′C_L
ΔC_DIF_R = ΔyC_R−k′C_R
ΔK_DIF_L = ΔyK_L−k′K_L
ΔK_DIF_R = ΔyK_R−k′K_R
Here, ΔyY_L is a yellow misalignment correction amount at the main scanning position of the
<ステップS1403>
ステップS1403では、CPU313は、副走査方向に関して、検出パターンで検出される中間転写ベルト両サイドの各色の位置ずれ量を計算する。
<Step S1403>
In step S1403, the
まず、基準色の補正後の検出タイミングを基に検出色における補正後の検出タイミングのずれを求める。マーク41Y〜44Yの検出タイミングのずれΔYL1、ΔYR1、ΔYL2、ΔYR2は次式により求まる。また、マーク41M〜44Mの検出タイミングのずれΔML1、ΔMR1、ΔML2、ΔMR2、マーク41C〜44Cの検出タイミングのずれΔCL1、ΔCR1、ΔCL2、ΔCR2は、次式により求まる。
ΔYL1=tYL1−(tK1L1+tK2L1)/2
ΔYR1=tYR1−(tK1R1+tK2R1)/2
ΔYL2=tYL2−(tK1L2+tK2L2)/2
ΔYR2=tYR2−(tK1R2+tK2R2)/2
ΔML1=tML1−(tK2L1+tK3L1)/2
ΔMR1=tMR1−(tK2R1+tK3R1)/2
ΔML2=tML2−(tK2L2+tK3L2)/2
ΔMR2=tMR2−(tK2R2+tK3R2)/2
ΔCL1=tCL1−(tK3L1+tK4L1)/2
ΔCR1=tCR1−(tK3R1+tK4R1)/2
ΔCL2=tCL2−(tK3L2+tK4L2)/2
ΔCR2=tCR2−(tK3R2+tK4R2)/2
上記の検出タイミングのずれより、検出パターンで検出される中間転写ベルト両サイドの各色の位置ずれ量は、
ΔpYL_MEASURE=v×(ΔYL1+ΔYL2)/2
ΔpYR_MEASURE=v×(ΔYR1+ΔYR2)/2
ΔpML_MEASURE=v×(ΔML1+ΔML2)/2
ΔpMR_MEASURE=v×(ΔMR1+ΔMR2)/2
ΔpCL_MEASURE=v×(ΔCL1+ΔCL2)/2
ΔpCR_MEASURE=v×(ΔCR1+ΔCR2)/2
となる。ここで、vは中間転写ベルト27の移動速度である。
First, based on the detection timing after correction of the reference color, the detection timing shift after correction in the detection color is obtained. The detection timing shifts ΔYL1, ΔYR1, ΔYL2, and ΔYR2 of the marks 41Y to 44Y are obtained by the following equations. The detection timing shifts ΔML1, ΔMR1, ΔML2, and ΔMR2 of the
ΔYL1 = tYL1- (tK1L1 + tK2L1) / 2
ΔYR1 = tYR1− (tK1R1 + tK2R1) / 2
ΔYL2 = tYL2− (tK1L2 + tK2L2) / 2
ΔYR2 = tYR2− (tK1R2 + tK2R2) / 2
ΔML1 = tML1- (tK2L1 + tK3L1) / 2
ΔMR1 = tMR1- (tK2R1 + tK3R1) / 2
ΔML2 = tML2− (tK2L2 + tK3L2) / 2
ΔMR2 = tMR2- (tK2R2 + tK3R2) / 2
ΔCL1 = tCL1− (tK3L1 + tK4L1) / 2
ΔCR1 = tCR1− (tK3R1 + tK4R1) / 2
ΔCL2 = tCL2- (tK3L2 + tK4L2) / 2
ΔCR2 = tCR2− (tK3R2 + tK4R2) / 2
From the above detection timing shift, the amount of positional shift of each color on both sides of the intermediate transfer belt detected by the detection pattern is
ΔpYL_MEASURE = v × (ΔYL1 + ΔYL2) / 2
ΔpYR_MEASURE = v × (ΔYR1 + ΔYR2) / 2
ΔpML_MEASURE = v × (ΔML1 + ΔML2) / 2
ΔpMR_MEASURE = v × (ΔMR1 + ΔMR2) / 2
ΔpCL_MEASURE = v × (ΔCL1 + ΔCL2) / 2
ΔpCR_MEASURE = v × (ΔCR1 + ΔCR2) / 2
It becomes. Here, v is the moving speed of the
この値は、ステップS1402で計算した補正量の差分量を考慮していなために、本来の位置すれ量に対して、補正量の差分量分の誤差を含んでいる値となっている。よって、ステップS1402で計算した差分量を考慮すると、各色の実際の位置ずれ量は、
ΔpYL=ΔpYL_MEASURE+ΔY_DIF_L−ΔK_DIF_L
ΔpYR=ΔpYR_MEASURE+ΔY_DIF_R−ΔK_DIF_R
ΔpML=ΔpML_MEASURE+ΔM_DIF_L−ΔK_DIF_L
ΔpMR=ΔpMR_MEASURE+ΔM_DIF_R−ΔK_DIF_R
ΔpCL=ΔpCL_MEASURE+ΔC_DIF_L−ΔK_DIF_L
ΔpCR=ΔpCR_MEASURE+ΔC_DIF_R−ΔK_DIF_R
となる。
Since this value does not take into account the difference amount of the correction amount calculated in step S1402, the value includes an error corresponding to the difference amount of the correction amount with respect to the original position shift amount. Therefore, in consideration of the difference amount calculated in step S1402, the actual positional deviation amount of each color is
ΔpYL = ΔpYL_MEASURE + ΔY_DIF_L−ΔK_DIF_L
ΔpYR = ΔpYR_MEASURE + ΔY_DIF_R−ΔK_DIF_R
ΔpML = ΔpML_MEASURE + ΔM_DIF_L−ΔK_DIF_L
ΔpMR = ΔpMR_MEASURE + ΔM_DIF_R−ΔK_DIF_R
ΔpCL = ΔpCL_MEASURE + ΔC_DIF_L−ΔK_DIF_L
ΔpCR = ΔpCR_MEASURE + ΔC_DIF_R−ΔK_DIF_R
It becomes.
差分量は、図9(d)で説明したkとk'が一致している場合は、1ライン以下の値となる。その場合には、ブラックとの差分であるので、最大2画素分の差分量となる。例えば、1画素が600dpiであった場合は、2画素は約80umとなるため、大きな位置ずれの要因となる。それ以上の高解像度であても、位置ずれの原因となることに変わりはない。上記の計算をすることにより、理想的な補正量と実際の補正量の差分量に起因する位置ずれ量を0にすることが可能となる。 The difference amount is a value of one line or less when k and k ′ described in FIG. 9D match. In that case, since the difference is from black, the difference amount is a maximum of two pixels. For example, when one pixel is 600 dpi, two pixels are about 80 μm, which causes a large positional shift. Even higher resolutions will still cause misalignment. By performing the above calculation, it is possible to reduce the amount of positional deviation caused by the difference between the ideal correction amount and the actual correction amount to zero.
この実際の各センサ位置での位置ズレ量をもとに、副走査方向のオフセット位置ずれ量と傾き位置ズレ量の計算を行う。 Based on the actual displacement amount at each sensor position, the offset displacement amount and the inclination displacement amount in the sub-scanning direction are calculated.
副走査方向のオフセット位置ずれ量と傾き位置ズレ量の関係について、イエローを例にして図13に示す。ΔpY_OFFSETは副走査方向のオフセット位置ずれ量であり、ΔpY_TILT_Lは左側の副走査方向の傾き位置ズレ量であり、ΔpY_TILT_Rは右側の副走査方向の傾き位置ズレ量である。 FIG. 13 shows an example of the relationship between the offset position deviation amount and the tilt position deviation amount in the sub-scanning direction, taking yellow as an example. ΔpY_OFFSET is an offset position shift amount in the sub-scanning direction, ΔpY_TILT_L is a tilt position shift amount in the left sub-scanning direction, and ΔpY_TILT_R is a tilt position shift amount in the right sub-scanning direction.
具体的には、イエロー、マゼンタ、シアンの副走査方向のオフセット位置ずれ量ΔpY_OFFSET、ΔpM_OFFSET、ΔpC_OFFSETは、
ΔpY_OFFSET=(ΔpYL+ΔpYR)/2
ΔpM_OFFSET=(ΔpML+ΔpMR)/2
ΔpC_OFFSET=(ΔpCL+ΔpCR)/2
となる。
Specifically, the offset displacement amounts ΔpY_OFFSET, ΔpM_OFFSET, ΔpC_OFFSET in the sub-scanning direction of yellow, magenta, and cyan are:
ΔpY_OFFSET = (ΔpYL + ΔpYR) / 2
ΔpM_OFFSET = (ΔpML + ΔpMR) / 2
ΔpC_OFFSET = (ΔpCL + ΔpCR) / 2
It becomes.
また、イエロー、マゼンタ、シアンの左側の副走査方向の傾き位置ずれ量ΔpY_TILT_L、ΔpM_TILT_L、ΔpC_TILT_Lは、
ΔpY_TILT_L=ΔpYL−ΔpY_OFFSET
ΔpM_TILT_L=ΔpML−ΔpM_OFFSET
ΔpC_TILT_L=ΔpCL−ΔpC_OFFSET
となる。
Further, the tilt position deviation amounts ΔpY_TILT_L, ΔpM_TILT_L, ΔpC_TILT_L in the sub-scanning direction on the left side of yellow, magenta, and cyan are
ΔpY_TILT_L = ΔpYL−ΔpY_OFFSET
ΔpM_TILT_L = ΔpML−ΔpM_OFFSET
ΔpC_TILT_L = ΔpCL−ΔpC_OFFSET
It becomes.
また、イエロー、マゼンタ、シアンの右側の副走査方向の傾き位置ずれ量ΔpY_TILT_R、ΔpM_TILT_R、ΔpC_TILT_Rは、
ΔpY_TILT_R=ΔpYR−ΔpY_OFFSET
ΔpM_TILT_R=ΔpMR−ΔpM_OFFSET
ΔpC_TILT_R=ΔpCR−ΔpC_OFFSET
となる。
Further, the tilt position deviation amounts ΔpY_TILT_R, ΔpM_TILT_R, ΔpC_TILT_R on the right side of yellow, magenta, and cyan are
ΔpY_TILT_R = ΔpYR−ΔpY_OFFSET
ΔpM_TILT_R = ΔpMR−ΔpM_OFFSET
ΔpC_TILT_R = ΔpCR−ΔpC_OFFSET
It becomes.
<ステップS1404>
ステップS1404では、CPU313は、検出された主走査方向及び副走査方向の位置ずれ量より、位置ずれの補正量の計算を行う。副走査方向の傾き位置ずれ量の補正は、上の図3、図4で説明したビットマップイメージの座標補正、画像階調値の調整による位置ずれの補正によって行う。副走査方向のオフセット位置ずれ量と、主走査方向の位置ずれ補正については、イエローに対する位置ずれ補正を例にとって説明する。副走査方向のオフセット位置ずれ量ΔpY_OFFSETを基に、副走査方向の画像形成タイミングを調整する。この際、1画素単位での副走査オフセットの補正しかできないが、1画素未満分の副走査オフセットの補正は、傾き位置ずれ量の補正の仕組みを利用して実現することが可能である。これは、図4(c)の補正ビットマップイメージを生成する際に、1画素未満分の副走査オフセット成分も考慮した形で生成することにより実現可能である。主走査方向の平均位置ずれ量ΔsYを基に、走査線の書き出しタイミングを調整する。また、ΔsYR−ΔsYLを基に、画像データ信号207の周波数を微調整(走査幅が長い場合は、周波数を速くする。)して、走査線の長さを変えることよって、主走査方向の倍率を補正する。なお、主走査方向倍率に誤差がある場合は、書き出し位置はΔsYのみでなく、主走査方向倍率補正に伴い変化した画像周波数の変化量を加味して算出する。マゼンタ、シアンに関しても同様に補正を行う。なお、これら位置ずれ検出用パターンの検出結果に基づく副走査方向のオフセット位置ずれ量と、主走査方向の位置ずれ補正の仕組みは良く知られた事項であり、ここでの詳しい説明は省略することとする。ここで計算した補正値をもとに、次回以降の画像補正を画像補正部315で行っていく。
<Step S1404>
In step S1404, the
以上のように、検出パターン形成時に、スムージングをかけず、かつ、段差抑制領域内で補正量を変化させないように制御することにより、ラインの段差を抑え、精度良く検出パターンを検出することが可能となる。また、異なる色間の位置ずれ量検出パターン同士が重なってしまい、全く誤った位置ずれ検出を行ってしまうなどの事態を防げ、より安定した位置ずれ検出を行うことができる。 As described above, when detecting patterns are formed, smoothing is not applied, and control is performed so that the amount of correction does not change within the step suppression area. It becomes. In addition, it is possible to prevent a situation in which misregistration detection patterns between different colors are overlapped and a misregistration detection is performed completely, and more stable misregistration detection can be performed.
また、検出パターン形成時に、スムージングをかけなかった分の補正量の差分値(理想的な補正量と実際の補正量の差分値)を、位置ずれ量計算の際に利用することにより、より精度の高い位置ずれ量計算をすることが可能となる。そして、それを利用して補正値を計算するため、補正精度が向上することになるので、補正後の位置ずれ量を軽減することが可能となる。 In addition, when the detection pattern is formed, the difference value of the correction amount that was not smoothed (difference value between the ideal correction amount and the actual correction amount) is used when calculating the positional deviation amount. It is possible to calculate a high positional deviation amount. Since the correction value is calculated using this, the correction accuracy is improved, so that the amount of positional deviation after correction can be reduced.
[変形例1]
上の説明では、段差抑制領域51のみを対象に、副走査方向に係る画像補正を行わないように説明したが、それに限定されることはない。例えば、機械的要因の位置ずれの程度が、検出用パターン同士が重なるほどひどくない場合には、位置ずれ検出用パターンの全てについて、副走査方向に係る画像補正を行わないようにしても良い。
[Modification 1]
In the above description, only the
[変形例2]
また、上の図8、図9に関連した説明では、画像補正部315により位置ずれ検出用パターンの画像データを作成するよう説明をしてきた。しかしながら、これに限定されない。例えば、図9で説明した画像処理を事前に行った画像そのもののを不図示の不揮発性メモリに予め記憶しておき、位置ずれ検出用パターンを形成する際に、不揮発性メモリからその画像データを読み出し、位置ずれ検出用パターンを形成するようにしても良い。この場合、例えば、工場にて、図3で説明したような、傾きや湾曲を測定器具で測定し、測定された傾きや湾曲の逆特性の画像データ(図9で説明した補正後の画像データ)を、不図示のビデオコントローラ302に設けられた不揮発性メモリに記憶しておけば良い。尚、不揮発性メモリから予め画像補正が施された位置ずれ検出用パターンの画像データを読み出し、それを用いて位置ずれ検出用パターンを形成する以降の処理は、上の実施形態と同様なので、ここでの詳しい説明を省略する。
[Modification 2]
Further, in the description related to FIGS. 8 and 9 above, the
[変形例3]
また、上述の説明では、画像データに主走査方向の各位置で副走査方向に係る画像補正を行い、副走査方向における画像位置補正を行う場合の一例として、1画素未満の副走査方向に係る画像補正及び画素単位の副走査方向に係る画像補正を行う場合を説明した。しかし、例えば、画素単位の副走査方向に係る画像補正のみを実行する画像形成装置においても、位置ずれ検出用パターンの、検出精度向上という点では、一定の効果を得ることが出来る。
[Modification 3]
In the above description, as an example of performing image correction in the sub-scanning direction at each position in the main scanning direction on the image data and performing image position correction in the sub-scanning direction, the image data is related to the sub-scanning direction of less than one pixel. A case has been described in which image correction and image correction in the sub-scanning direction in pixel units are performed. However, for example, even in an image forming apparatus that executes only image correction in the sub-scanning direction in units of pixels, a certain effect can be obtained in terms of improving detection accuracy of a misregistration detection pattern.
[変形例4]
また、上述では、コントローラ302(画像補正部315)により、位置ずれ検出用パターンの画像補正(副走査方向の1画素単位の座標補正や、副走査方向の各画素の濃度を調整することによる1画素未満の副走査方向の画像位置補正)を行うよう説明した。しかし、画像補正をコントローラ302が行う形態に限定されない。例えば、その画像補正処理の一部或いは全てをエンジン303により行わせても良い。また、コントローラ302、エンジン303側の何れかで、画像補正処理を実行する場合において、その処理をCPU313、CPU314に行わせても良いし、その一部或いは全ての処理をASIC(集積回路)に行わせても良いことはいうまでもない。
[Modification 4]
Further, in the above description, the controller 302 (the image correction unit 315) performs image correction of the positional deviation detection pattern (coordinate correction in units of one pixel in the sub-scanning direction or adjustment of the density of each pixel in the sub-scanning direction. In the above description, the image position correction in the sub-scanning direction less than the pixels is performed. However, the present invention is not limited to the form in which the
[その他の実施例]
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
[Other examples]
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.
Claims (17)
前記補正値に含まれる小数点以下の値を用いずに、前記補正値に含まれる整数値を用いて、画像データに含まれる画素の位置を副走査方向にずらす補正を行う補正手段と、 Correction means for performing correction to shift the position of the pixel included in the image data in the sub-scanning direction using the integer value included in the correction value without using the value after the decimal point included in the correction value;
前記補正の行われた後の画像データに基づいて画像を形成する形成手段と、 Forming means for forming an image based on the image data after the correction;
前記形成された画像の副走査方向のずれが測定されることで求まる値と、前記補正値のうちの、前記補正に用いられた前記整数値を除いた値と、を用いて、前記記憶手段に記憶されている前記補正値を更新する更新手段と The storage means using a value obtained by measuring a deviation in the sub-scanning direction of the formed image and a value obtained by removing the integer value used for the correction among the correction values. Updating means for updating the correction value stored in
を有する画像形成装置。 An image forming apparatus.
前記補正手段は、前記画像データに対して前記補正を行う際に、前記所定の範囲内において同一の整数値を用いて、画像データに含まれる画素の位置を副走査方向にずらす補正を行う請求項1乃至3の何れか1項に記載の画像形成装置。 The correction unit performs correction for shifting the position of a pixel included in image data in a sub-scanning direction using the same integer value within the predetermined range when performing the correction on the image data. Item 4. The image forming apparatus according to any one of Items 1 to 3.
前記補正値に含まれる整数値を用いて画素の位置を副走査方向にずらす量を決定し、前記決定されたずらす量に基づいて前記画像データに含まれる画素の位置を副走査方向にずらす補正を行う第1の補正手段と、 Correction that shifts the position of the pixel included in the image data in the sub-scanning direction based on the determined amount of shift based on the determined shift amount using the integer value included in the correction value. First correcting means for performing
前記補正値に含まれる小数点以下の値を用いて画像データに含まれる画素および該画素に副走査方向で隣接する画素それぞれの重み付けを決定し、前記決定された重み付けに基づいて求められる当該画素のおよび当該隣接する画素の画素値の重み付け和を、当該画素の画素値とする補正を行う第2の補正手段と、 The weights of the pixels included in the image data and the pixels adjacent to the pixels in the sub-scanning direction are determined using values after the decimal point included in the correction value, and the pixel obtained based on the determined weights is determined. And a second correction means for correcting the weighted sum of the pixel values of the adjacent pixels as the pixel value of the pixel,
を有する請求項1乃至5の何れか1項に記載の画像形成装置。 The image forming apparatus according to claim 1, comprising:
前記補正手段は、前記判定手段によって前記形成手段によって形成される画像は、前記補正値の更新のために用いられる所定のパターンであると判定された場合に、前記補正手段は、前記第2の補正手段による補正を行わずに前記第1の補正手段による補正を行い、前記判定手段によって前記形成手段によって形成される画像は、前記補正値の更新のために用いられる所定のパターンでないと判定された場合に、前記第1の補正手段による補正および前記第2の補正手段による補正を行う請求項6に記載の画像形成装置。 The correcting unit determines that the correcting unit determines that the image formed by the forming unit is a predetermined pattern used for updating the correction value. Correction by the first correction unit is performed without correction by the correction unit, and the determination unit determines that the image formed by the forming unit is not a predetermined pattern used for updating the correction value. The image forming apparatus according to claim 6, wherein correction by the first correction unit and correction by the second correction unit are performed.
前記補正値に含まれる小数点以下の値を用いずに、前記補正値に含まれる整数値を用いて、画像データに含まれる画素の位置を副走査方向にずらす補正を行う補正手段と、 Correction means for performing correction to shift the position of the pixel included in the image data in the sub-scanning direction using the integer value included in the correction value without using the value after the decimal point included in the correction value;
前記補正の行われた後の画像データに基づいて画像を形成する形成手段と、 Forming means for forming an image based on the image data after the correction;
前記形成された画像の副走査方向のずれが測定されることで求まる値と、前記補正値のうちの、前記補正に用いられた前記整数値を除いた値と、を用いて、前記記憶手段に記憶されている前記補正値を更新する更新手段と The storage means using a value obtained by measuring a deviation in the sub-scanning direction of the formed image and a value obtained by removing the integer value used for the correction among the correction values. Updating means for updating the correction value stored in
を有する画像形成システム。 An image forming system.
前記補正手段は、前記画像データに対して前記補正を行う際に、前記所定の範囲内において同一の整数値を用いて、画像データに含まれる画素の位置を副走査方向にずらす補正を行う請求項9乃至11の何れか1項に記載の画像形成システム。 The correction unit performs correction for shifting the position of a pixel included in image data in a sub-scanning direction using the same integer value within the predetermined range when performing the correction on the image data. Item 12. The image forming system according to any one of Items 9 to 11.
前記補正値に含まれる整数値を用いて画素の位置を副走査方向にずらす量を決定し、前記決定されたずらす量に基づいて前記画像データに含まれる画素の位置を副走査方向にずらす補正を行う第1の補正手段と、 Correction that shifts the position of the pixel included in the image data in the sub-scanning direction based on the determined amount of shift based on the determined shift amount using the integer value included in the correction value. First correcting means for performing
前記補正値に含まれる小数点以下の値を用いて画像データに含まれる画素および該画素に副走査方向で隣接する画素それぞれの重み付けを決定し、前記決定された重み付けに基づいて求められる当該画素のおよび当該隣接する画素の画素値の重み付け和を、当該画素の画素値とする補正を行う第2の補正手段と、 The weights of the pixels included in the image data and the pixels adjacent to the pixels in the sub-scanning direction are determined using values after the decimal point included in the correction value, and the pixel obtained based on the determined weights is determined. And a second correction means for correcting the weighted sum of the pixel values of the adjacent pixels as the pixel value of the pixel,
を有する請求項9乃至13の何れか1項に記載の画像形成システム。 The image forming system according to claim 9, further comprising:
前記補正手段は、前記判定手段によって前記形成手段によって形成される画像は、前記補正値の更新のために用いられる所定のパターンであると判定された場合に、前記補正手段は、前記第2の補正手段による補正を行わずに前記第1の補正手段による補正を行い、前記判定手段によって前記形成手段によって形成される画像は、前記補正値の更新のために用いられる所定のパターンでないと判定された場合に、前記第1の補正手段による補正および前記第2の補正手段による補正を行う請求項14に記載の画像形成システム。 The correcting unit determines that the correcting unit determines that the image formed by the forming unit is a predetermined pattern used for updating the correction value. Correction by the first correction unit is performed without correction by the correction unit, and the determination unit determines that the image formed by the forming unit is not a predetermined pattern used for updating the correction value. 15. The image forming system according to claim 14, wherein the correction by the first correction unit and the correction by the second correction unit are performed.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010045679A JP5501035B2 (en) | 2010-03-02 | 2010-03-02 | Image forming apparatus and image forming system |
US13/012,611 US8717639B2 (en) | 2010-03-02 | 2011-01-24 | Image processing for position deviation correction |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2010045679A JP5501035B2 (en) | 2010-03-02 | 2010-03-02 | Image forming apparatus and image forming system |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011180446A JP2011180446A (en) | 2011-09-15 |
JP2011180446A5 JP2011180446A5 (en) | 2013-04-11 |
JP5501035B2 true JP5501035B2 (en) | 2014-05-21 |
Family
ID=44531117
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2010045679A Active JP5501035B2 (en) | 2010-03-02 | 2010-03-02 | Image forming apparatus and image forming system |
Country Status (2)
Country | Link |
---|---|
US (1) | US8717639B2 (en) |
JP (1) | JP5501035B2 (en) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20130057310A (en) * | 2011-11-23 | 2013-05-31 | 삼성전자주식회사 | Image scanning apparatus and method for image scanning |
JP2013213916A (en) * | 2012-04-02 | 2013-10-17 | Konica Minolta Inc | Image forming apparatus |
JP6043081B2 (en) | 2012-04-06 | 2016-12-14 | キヤノン株式会社 | Image processing apparatus, image forming apparatus, and program |
JP2013219527A (en) | 2012-04-06 | 2013-10-24 | Canon Inc | Image processing device, image formation device, and program |
JP6308846B2 (en) * | 2014-04-04 | 2018-04-11 | キヤノン株式会社 | Image forming apparatus |
JP6270597B2 (en) * | 2014-04-04 | 2018-01-31 | キヤノン株式会社 | Image forming apparatus |
US9223273B1 (en) * | 2014-07-31 | 2015-12-29 | Kabushiki Kaisha Toshiba | Image forming apparatus and control method thereof |
JP2017015793A (en) * | 2015-06-29 | 2017-01-19 | 株式会社リコー | Image formation method, image formation apparatus and production method of printed matter |
US10338508B2 (en) * | 2017-09-25 | 2019-07-02 | Kabushiki Kaisha Toshiba | Image forming apparatus with image position deviation correction and control method for correcting image position deviation |
JP7358180B2 (en) * | 2019-10-09 | 2023-10-10 | キヤノン株式会社 | Image reading device, its control method, and program |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5828925A (en) * | 1995-03-31 | 1998-10-27 | Canon Kabushiki Kaisha | Image forming apparatus capable of correcting position deviation of image |
JP3527352B2 (en) * | 1996-02-26 | 2004-05-17 | 株式会社リコー | Color image forming apparatus |
JP2004170755A (en) | 2002-11-21 | 2004-06-17 | Canon Inc | Color image forming apparatus |
US7075561B2 (en) * | 2003-05-29 | 2006-07-11 | Konica Minolta Business Technologies, Inc. | Image printing apparatus and color misregistration correction method |
JP2007196621A (en) | 2006-01-30 | 2007-08-09 | Konica Minolta Business Technologies Inc | Signal processing device and imaging device |
JP4194614B2 (en) | 2006-07-18 | 2008-12-10 | キヤノン株式会社 | Image processing apparatus, image processing method, and information processing apparatus |
JP4311753B2 (en) * | 2007-03-06 | 2009-08-12 | キヤノン株式会社 | Image forming apparatus and control method thereof |
JP4956300B2 (en) * | 2007-07-02 | 2012-06-20 | キヤノン株式会社 | Image forming apparatus and control method |
JP4965399B2 (en) * | 2007-09-14 | 2012-07-04 | 株式会社リコー | Image forming apparatus |
JP4412738B2 (en) * | 2007-10-10 | 2010-02-10 | キヤノン株式会社 | Image forming apparatus and image processing method therefor |
JP5139784B2 (en) * | 2007-12-04 | 2013-02-06 | キヤノン株式会社 | Image forming apparatus |
JP5180670B2 (en) | 2008-05-07 | 2013-04-10 | キヤノン株式会社 | Image processing apparatus and image processing method |
JP2010000720A (en) * | 2008-06-20 | 2010-01-07 | Canon Inc | Image adjusting method |
-
2010
- 2010-03-02 JP JP2010045679A patent/JP5501035B2/en active Active
-
2011
- 2011-01-24 US US13/012,611 patent/US8717639B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US20110216379A1 (en) | 2011-09-08 |
US8717639B2 (en) | 2014-05-06 |
JP2011180446A (en) | 2011-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5501035B2 (en) | Image forming apparatus and image forming system | |
JP3891135B2 (en) | Image forming apparatus | |
JP4817727B2 (en) | Color image forming apparatus | |
US7764897B2 (en) | Color image forming apparatus and control method therefor | |
JP4850484B2 (en) | Image forming apparatus, control method therefor, and program | |
JP5241311B2 (en) | Image forming apparatus, image forming method, and program | |
JP2010140019A (en) | Color image forming apparatus and method for color shift correction | |
US8446597B2 (en) | Image forming apparatus, image forming method, and computer program product including a secondary-transfer control unit that transfers a single-color image onto the intermediate transfer medium | |
JP5181753B2 (en) | Color image forming apparatus, misregistration correction method, misregistration correction program, and recording medium | |
JP4412738B2 (en) | Image forming apparatus and image processing method therefor | |
JP4673192B2 (en) | Image processing apparatus and image processing apparatus control method | |
JP2013066153A (en) | Image formation device | |
JP4411339B2 (en) | Color image forming apparatus and control method thereof | |
JP4131313B2 (en) | Image output apparatus control apparatus and image forming apparatus using the same | |
JP5404340B2 (en) | Image forming apparatus, image forming method, and program | |
JP2011085870A (en) | Image forming apparatus | |
JP4832150B2 (en) | Image correction method and image forming apparatus | |
CN112433453B (en) | Image forming apparatus and image forming method | |
US8411337B2 (en) | Image forming apparatus and image forming method | |
JP4391427B2 (en) | Image forming apparatus | |
JP4710287B2 (en) | Image forming apparatus | |
JP2004251955A (en) | Image forming apparatus and picture processor | |
JP2011227342A (en) | Image forming device and method for correcting image formation positional deviation | |
JP6136391B2 (en) | Image processing apparatus, image forming apparatus, image correction method, and program | |
JP4898293B2 (en) | Image forming apparatus, image forming method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130227 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20130227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20131022 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20131023 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131219 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20140212 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140311 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5501035 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |