JP2013026865A - Image processing apparatus and image processing method - Google Patents

Image processing apparatus and image processing method Download PDF

Info

Publication number
JP2013026865A
JP2013026865A JP2011160403A JP2011160403A JP2013026865A JP 2013026865 A JP2013026865 A JP 2013026865A JP 2011160403 A JP2011160403 A JP 2011160403A JP 2011160403 A JP2011160403 A JP 2011160403A JP 2013026865 A JP2013026865 A JP 2013026865A
Authority
JP
Japan
Prior art keywords
image
correction value
amount
correction
deformation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011160403A
Other languages
Japanese (ja)
Inventor
Shoichi Nomura
庄一 野村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konica Minolta Business Technologies Inc
Original Assignee
Konica Minolta Business Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konica Minolta Business Technologies Inc filed Critical Konica Minolta Business Technologies Inc
Priority to JP2011160403A priority Critical patent/JP2013026865A/en
Publication of JP2013026865A publication Critical patent/JP2013026865A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Facsimile Image Signal Circuits (AREA)

Abstract

PROBLEM TO BE SOLVED: To correct displacement with reduced deterioration in image quality.SOLUTION: An image processing apparatus 1 comprises: a correction value calculation part 23 which acquires the amount of the displacement of an image printed on a sheet by printing processing of image data, divides the image into objects, and calculates the correction value of the displacement in accordance with the acquired amount of displacement with respect to each divided object; and a correction processing part 24 which corrects the image data with the correction value calculated with respect to each object and corrects the displacement object by object.

Description

本発明は、画像処理装置及び画像処理方法に関する。   The present invention relates to an image processing apparatus and an image processing method.

プリンターや複写機における印刷時、用紙の曲がりや伸縮、用紙の搬送方向のずれ、印刷ユニットの湾曲や傾き等に起因して、用紙上に印刷された画像に位置ずれが生じることがある。従来、どれだけ位置ずれが生じるか予め特定しておき、特定された位置ずれとは逆方向に位置をずらすように画像を変形する補正処理を画像データに施すことによって、印刷時の位置ずれを相殺することが行われていた。   When printing with a printer or copier, misalignment may occur in the image printed on the paper due to bending or expansion / contraction of the paper, deviation in the conveyance direction of the paper, curvature or inclination of the printing unit, and the like. Conventionally, it is specified in advance how much misalignment occurs, and the image data is subjected to a correction process for deforming the image so that the position is shifted in the opposite direction to the specified misalignment, thereby correcting misalignment during printing. Offsetting was done.

電子写真方式の場合、スクリーン処理のような階調処理によって、擬似中間調を表現することが多い。このような擬似中間調の画像データの補正処理としては、最近傍法(ニアレストネイバー法)等の画素補間法が知られている。また、位置ずれが生じる箇所で、位置ずれとは逆方向に画素単位で画像をシフトする補正処理も開示されている(例えば、特許文献1、2参照)。   In the case of an electrophotographic system, pseudo halftones are often expressed by gradation processing such as screen processing. As such pseudo-halftone image data correction processing, a pixel interpolation method such as a nearest neighbor method (nearest neighbor method) is known. Also, a correction process is disclosed in which an image is shifted in units of pixels in a direction opposite to the position shift at a position where the position shift occurs (for example, see Patent Documents 1 and 2).

特開2000−253231号公報JP 2000-253231-A 特開2001−245156号公報JP 2001-245156 A

上記特許文献1、2に開示されるように画素単位で画像をシフトさせたとき、シフトによって段差が生じることがあり、画質劣化の原因となる。文字や図形のようにエッジや輪郭線を含む画像は特に段差が視認されやすく、画質が劣化しやすい。エッジや輪郭線を含む画像でなくとも、プリンターの解像度が高くない場合も段差が視認されやすい。
また、画素単位のシフトにより画素の挿入や欠落が生じ、ノイズやムラの発生要因にもなる。
As disclosed in Patent Documents 1 and 2, when an image is shifted in units of pixels, a step may occur due to the shift, which causes image quality deterioration. An image including an edge or an outline, such as a character or a figure, is particularly easy to see a step, and the image quality is likely to deteriorate. Even if the image does not include an edge or an outline, a step is easily visible even when the resolution of the printer is not high.
In addition, pixel shifts cause insertion or deletion of pixels, causing noise and unevenness.

上記特許文献1、2によれば、段差が生じた画像データをスムージング処理し、段差付近の濃度を調整することによって段差の視認性を下げていた。しかしながら、位置ずれの補正処理に加え、スムージング処理も行わなければならず、時間やコストを要する。検出パターンに一致しない段差はスムージング処理の対象外となるため、段差が残る可能性もある。   According to Patent Documents 1 and 2, the visibility of the step is lowered by performing smoothing processing on the image data in which the step is generated and adjusting the density near the step. However, in addition to the misalignment correction process, a smoothing process must be performed, which requires time and cost. Steps that do not match the detection pattern are not subject to the smoothing process, so there is a possibility that steps will remain.

本発明の課題は、画質劣化の少ない位置ずれの補正を行うことである。   An object of the present invention is to correct misalignment with little image quality degradation.

請求項1に記載の発明によれば、
画像データの印刷処理によって用紙上に印刷された画像の位置ずれのずれ量を取得し、前記画像をオブジェクト単位に分割し、分割されたオブジェクト毎に、取得されたずれ量に応じて前記位置ずれの補正値を算出する補正値算出部と、
各オブジェクトに対して算出された前記補正値によって前記画像データを補正処理し、オブジェクト単位で前記位置ずれを補正する補正処理部と、
を備える画像処理装置が提供される。
According to the invention of claim 1,
The amount of displacement of an image printed on paper by image data printing processing is acquired, the image is divided into objects, and the position displacement is determined for each divided object according to the amount of displacement acquired. A correction value calculation unit for calculating the correction value of
A correction processing unit that corrects the image data according to the correction value calculated for each object, and corrects the displacement in units of objects;
An image processing apparatus is provided.

請求項2に記載の発明によれば、
前記補正値算出部は、前記位置ずれのずれ量から各オブジェクトの平行移動量と変形量の補正値を算出し、
前記補正処理部は、オブジェクト毎に、前記平行移動量の補正値によってオブジェクトを平行移動するか、前記変形量の補正値によってオブジェクトを変形するか、或いは当該平行移動と当該変形の両方を実行する請求項1に記載の画像処理装置が提供される。
According to invention of Claim 2,
The correction value calculation unit calculates a correction value for the translation amount and deformation amount of each object from the displacement amount of the positional deviation,
For each object, the correction processing unit translates the object with the correction value for the parallel movement amount, deforms the object with the correction value for the deformation amount, or executes both the parallel movement and the deformation. An image processing apparatus according to claim 1 is provided.

請求項3に記載の発明によれば、
前記補正処理部は、閾値を用いて前記変形量が大きいか否かを判定し、
前記変形量が大きくないと判定した場合、前記平行移動量の補正値によってオブジェクトを平行移動させ、
前記変形量が大きいと判定した場合、前記平行移動量の補正値によってオブジェクトを平行移動させるとともに、前記変形量の補正値によって当該オブジェクトを変形する請求項2に記載の画像処理装置が提供される。
According to invention of Claim 3,
The correction processing unit determines whether the deformation amount is large using a threshold,
When it is determined that the deformation amount is not large, the object is translated by the correction value of the parallel movement amount,
3. The image processing apparatus according to claim 2, wherein when the deformation amount is determined to be large, the object is translated by the correction value of the parallel movement amount, and the object is deformed by the correction value of the deformation amount. .

請求項4に記載の発明によれば、
前記補正処理部は、オブジェクトの属性情報によって前記閾値を変更する請求項3に記載の画像処理装置が提供される。
According to invention of Claim 4,
The image processing apparatus according to claim 3, wherein the correction processing unit changes the threshold value according to object attribute information.

請求項5に記載の発明によれば、
前記補正値算出部は、各オブジェクトの周辺に印刷された複数の検出パターンの位置ずれのずれ量を取得し、当該ずれ量から各オブジェクトの平行移動量と変形量の補正値を算出する請求項2〜4の何れか一項に記載の画像処理装置が提供される。
According to the invention of claim 5,
The correction value calculation unit acquires displacement amounts of positional deviations of a plurality of detection patterns printed around each object, and calculates a correction value for a parallel movement amount and a deformation amount of each object from the deviation amounts. The image processing apparatus as described in any one of 2-4 is provided.

請求項6に記載の発明によれば、
前記補正値算出部は、画像データの組版情報又はレイアウト情報を元にオブジェクトを抽出し、前記画像を各オブジェクトに分割する請求項1〜5の何れか一項に記載の画像処理装置が提供される。
According to the invention of claim 6,
The image processing apparatus according to claim 1, wherein the correction value calculation unit extracts an object based on typesetting information or layout information of image data, and divides the image into each object. The

請求項7に記載の発明によれば、
前記補正値算出部は、画像データの属性情報を元に同一の属性からなる閉領域をオブジェクトとして抽出し、前記画像を各オブジェクトに分割する請求項1〜6の何れか一項に記載の画像処理装置が提供される。
According to the invention of claim 7,
The image according to claim 1, wherein the correction value calculation unit extracts a closed region having the same attribute as an object based on attribute information of image data, and divides the image into each object. A processing device is provided.

請求項8に記載の発明によれば、
前記補正値算出部は、画像データを処理して画像のエッジを検出し、検出されたエッジが輪郭線を形成する閉領域をオブジェクトとして抽出し、前記画像を各オブジェクトに分割する請求項1〜7の何れか一項に記載の画像処理装置が提供される。
According to the invention described in claim 8,
The correction value calculating unit detects image edges by processing image data, extracts a closed region in which the detected edges form a contour line as an object, and divides the image into each object. The image processing device according to any one of 7 is provided.

請求項9に記載の発明によれば、
前記補正値算出部は、ユーザにより指定された領域をオブジェクトとして抽出し、前記画像を各オブジェクトに分割する請求項1〜8の何れか一項に記載の画像処理装置が提供される。
According to the invention of claim 9,
The image processing apparatus according to claim 1, wherein the correction value calculation unit extracts an area designated by a user as an object, and divides the image into each object.

請求項10に記載の発明によれば、
前記位置ずれは、色ずれ、表裏の見当ずれ、歪みによる位置ずれを含む請求項1〜9の何れか一項に記載の画像処理装置が提供される。
According to the invention of claim 10,
The image processing apparatus according to any one of claims 1 to 9, wherein the misregistration includes color misregistration, misregistration between front and back surfaces, and misregistration.

請求項11に記載の発明によれば、
画像データの印刷処理によって用紙上に印刷された画像の位置ずれのずれ量を取得する工程と、
前記画像をオブジェクト単位に分割し、分割されたオブジェクト毎に、取得されたずれ量に応じて前記位置ずれの補正値を算出する工程と、
各オブジェクトに対して算出された前記補正値によって前記画像データを補正処理し、オブジェクト単位で前記位置ずれを補正する工程と、
を含む画像処理方法が提供される。
According to the invention of claim 11,
Obtaining a displacement amount of an image printed on a sheet by a printing process of image data;
Dividing the image into object units, and calculating a correction value for the positional deviation according to the obtained deviation amount for each divided object;
Correcting the image data with the correction value calculated for each object, and correcting the positional deviation in units of objects;
An image processing method is provided.

本発明によれば、オブジェクト単位で補正するので、補正によってオブジェクトの輪郭線が乱れたり、オブジェクトの画像が欠落したりすることがなく、画質の劣化が少ない位置ずれの補正が可能である。   According to the present invention, since correction is performed in units of objects, the outline of the object is not disturbed or the image of the object is not lost due to the correction, and it is possible to correct misalignment with little deterioration in image quality.

本実施の形態に係る画像処理装置を示す図である。It is a figure which shows the image processing apparatus which concerns on this Embodiment. (a)色ずれの例である。(b)色ずれの検出に用いられるトンボの例である。(c)色ずれの検出に用いられるノギスパターンの例である。(A) An example of color misregistration. (B) An example of a register mark used for color misregistration detection. (C) It is an example of a caliper pattern used for the detection of color misregistration. (a)表裏の位置ずれの例である。(b)表裏の位置ずれの検出に用いられるトンボの例である。(A) It is an example of position shift of front and back. (B) It is an example of the register mark used for detection of the positional deviation of the front and back. (a)歪みによる位置ずれの例である。(b)、(c)歪みによる位置ずれの検出に用いられるトンボの例である。(A) It is an example of the position shift by distortion. (B), (c) It is an example of the register mark used for the detection of the position shift due to distortion. 位置ずれの補正時に画像処理装置が実行する処理のフローチャートである。10 is a flowchart of processing executed by the image processing apparatus when correcting misalignment. 画像をオブジェクト単位に分割する処理のフローチャートである。It is a flowchart of the process which divides | segments an image into object units. 位置ずれ前後の画像と用紙上の複数の位置に配置されたトンボの図である。FIG. 5 is a diagram of images before and after misalignment and registration marks arranged at a plurality of positions on a sheet. 平行移動量と変形量の補正値を算出する処理のフローチャートである。It is a flowchart of the process which calculates the correction value of the amount of translation and deformation. 位置ずれ前後の四角形のオブジェクトを示す。Shows a square object before and after displacement. 8面割付の画像の表裏の位置ずれの過程を示す。The process of positional deviation of the front and back of an 8-sided image is shown. オブジェクト単位の平行移動により位置ずれを補正する過程を示す。The process of correcting the positional deviation by the parallel movement of the object unit is shown. サイズが大きい画像と小さい画像の表裏の位置ずれを平行移動のみにより補正する過程を示す。The process of correcting the positional deviation between the front and back of a large image and a small image only by translation is shown. サイズが大きい画像は平行移動と変形により補正する過程を示す。An image having a large size indicates a process of correcting by translation and deformation. 位置ずれの補正が可能なタイミングを示す。The timing at which the misalignment can be corrected is shown.

以下、図面を参照して本発明の実施の形態について説明する。   Embodiments of the present invention will be described below with reference to the drawings.

図1は、本実施の形態に係る画像処理装置1を示す。
画像処理装置1は、画像処理装置1に入力されるPDL(Page Description Language)データをラスタライズして画像データを生成し、当該画像データに画像処理を施して図示しない印刷ユニットに出力する。PDLデータは、ワープロ、表計算等のアプリケーションによって作成されたアプリケーションファイル形式のデータが、プリンタードライバー等によってPDL形式に変換されたデータである。画像処理装置1はプリンターや複写機、コントローラー等に搭載され得る。
FIG. 1 shows an image processing apparatus 1 according to the present embodiment.
The image processing apparatus 1 rasterizes PDL (Page Description Language) data input to the image processing apparatus 1 to generate image data, performs image processing on the image data, and outputs the image data to a printing unit (not shown). The PDL data is data obtained by converting data in an application file format created by an application such as a word processor or spreadsheet into a PDL format by a printer driver or the like. The image processing apparatus 1 can be mounted on a printer, a copier, a controller, or the like.

画像処理装置1は、図1に示すようにRIP(Raster Image Processer)11、メモリー12、スクリーン処理部13、メモリー14、書込処理部15、検出パターン処理部21、ずれ検出部22、補正値算出部23、補正処理部24、制御部31、表示部32、操作部33を備えて構成されている。   As shown in FIG. 1, the image processing apparatus 1 includes a RIP (Raster Image Processor) 11, a memory 12, a screen processing unit 13, a memory 14, a writing processing unit 15, a detection pattern processing unit 21, a deviation detection unit 22, and a correction value. A calculation unit 23, a correction processing unit 24, a control unit 31, a display unit 32, and an operation unit 33 are provided.

RIP11はラスタライズにより画像データを生成する。RIP11はコマンドやPDLデータを解析して、ディスプレイリスト及びレイアウト情報を作成する。ディスプレイリストは、オブジェクトの大きさ、色、属性等の情報を含む。レイアウト情報は各ページにおけるオブジェクトの配置の情報を含む。RIP11はディスプレイリスト及びレイアウト情報に従って、ページ単位で各オブジェクトをビットマップに展開した画像データを生成する。RIP11はディスプレイリストを元に画像データの各画素の属性を示す属性情報を生成し、画像データとともに出力する。   The RIP 11 generates image data by rasterization. The RIP 11 analyzes the command and PDL data and creates a display list and layout information. The display list includes information such as the size, color, and attribute of the object. The layout information includes information on the arrangement of objects on each page. The RIP 11 generates image data in which each object is developed into a bitmap in units of pages according to the display list and layout information. The RIP 11 generates attribute information indicating the attribute of each pixel of the image data based on the display list and outputs it together with the image data.

メモリー12はRIP11から出力された画像データ及び属性情報を記憶する。
スクリーン処理部13は、メモリー12に保持された画像データをスクリーン処理し、スクリーン処理後の画像データを出力する。
The memory 12 stores image data and attribute information output from the RIP 11.
The screen processing unit 13 performs screen processing on the image data held in the memory 12 and outputs the image data after the screen processing.

メモリー14は、スクリーン処理部13から出力された画像データを記憶する。
書込処理部15は、メモリー14に保持された画像データをPWM(Pulse Width Modulation)変換する。変換後のPWMデータは図示しない印刷ユニットに出力される。印刷ユニットはPWMデータを用いて印刷処理を実行し、用紙上に画像を印刷する。
The memory 14 stores the image data output from the screen processing unit 13.
The writing processing unit 15 performs PWM (Pulse Width Modulation) conversion on the image data held in the memory 14. The converted PWM data is output to a printing unit (not shown). The printing unit executes a printing process using the PWM data, and prints an image on a sheet.

検出パターン処理部21は、位置ずれの補正の実行時、位置ずれの検出に用いられる検出パターンをスクリーン処理された画像データに付加する。メモリー14は検出パターンが付加された画像データを記憶する。   The detection pattern processing unit 21 adds a detection pattern used for detection of misalignment to the screen-processed image data when performing misalignment correction. The memory 14 stores the image data to which the detection pattern is added.

ずれ検出部22は、スキャナ等によって用紙上に印刷された画像を読み取り、当該画像の位置ずれを検出する。位置ずれとしては色ずれや表裏の見当ずれ、画像の歪みによる位置ずれ等がある。位置ずれは、印刷ユニットのアライメントのずれや用紙自体の歪み、曲がり、用紙の搬送位置のずれ等に起因する。   The deviation detection unit 22 reads an image printed on a sheet by a scanner or the like, and detects a positional deviation of the image. Examples of misregistration include color misregistration, front / back registration misalignment, and misregistration due to image distortion. The misalignment is caused by misalignment of the printing unit, distortion of the sheet itself, bending, misalignment of the sheet conveyance position, and the like.

色ずれは、複数の色のトナーのそれぞれによって形成された画像を重ねてカラー画像を形成する際に生じる。図2(a)は色ずれの一例であり、本来一致すべきシアンの画像とマジェンタの画像の位置がずれて印刷されている。このような色ずれの検出に用いられる検出パターンとしては、図2(b)に示すようなトンボと呼ばれる十字型の画像や、図2(c)に示すようなノギスと呼ばれる線の画像が挙げられる。トンボ、ノギスともに主走査方向と副走査方向のそれぞれに各色の線が形成されるので、ずれ検出部22は線間の距離から位置ずれのずれ量を算出することができる。   Color misregistration occurs when a color image is formed by superimposing images formed by a plurality of color toners. FIG. 2A shows an example of color misregistration, in which a cyan image and a magenta image that should be matched originally are printed with misalignment. As a detection pattern used for detecting such color misregistration, a cross-shaped image called a register mark as shown in FIG. 2B or a line image called caliper as shown in FIG. It is done. Since each color line is formed in each of the main scanning direction and the sub-scanning direction for both the registration marks and the calipers, the shift detection unit 22 can calculate the shift amount of the positional shift from the distance between the lines.

見当ずれは、用紙の表裏に画像を形成する際に生じる。図3(a)は見当ずれの例であり、本来表裏で一致すべき表面の画像と裏面の画像の位置がずれて印刷されている。
見当ずれの検出パターンとしては、図3(b)に示すように表面と裏面に印刷されるトンボを用いることができる。ずれ検出部22は、表面と裏面のそれぞれについて、印刷後の用紙端からトンボまでの距離x1、y1、x2、y2を計測し、その差分x1−x2、y1−y2をずれ量として検出する。
Misregistration occurs when an image is formed on the front and back of a sheet. FIG. 3A shows an example of misregistration, in which the front and back images that should be matched on the front and back are printed with their positions shifted.
As the misregistration detection pattern, registration marks printed on the front surface and the back surface can be used as shown in FIG. The deviation detection unit 22 measures the distances x1, y1, x2, and y2 from the printed paper edge to the registration marks for each of the front surface and the back surface, and detects the differences x1-x2 and y1-y2 as deviation amounts.

歪みによるずれは、印刷時の用紙の傾斜や、ポリゴンミラー等の印刷ユニットの歪みが原因で起こりうる。図4(a)は歪みによる位置ずれの一例であり、本来四角形で形成されるはずの画像が平行四辺形に変形されて印刷されている。歪みによる位置ずれの検出パターンとしては、図3(b)に示したようなトンボを用紙の四隅付近に配置して印刷し、印刷されたトンボの用紙端部からの距離を計測し、基準距離との差分から歪みによる位置ずれを検出することができる。また、図4(b)に示すように用紙上の複数の位置に配置される複数のトンボを用いることができる。図4(b)に示すトンボは単なる十字ではなく、特徴的な形状を有する。十字を構成する縦横の線は太さや形状が上下左右の位置によって異なり、十字の周辺に付された点はトンボの用紙上の配置位置によってそれぞれ異なっている。このような特徴的なトンボによれば、ずれ検出部22は用紙の部分的な情報から、位置ずれのずれ量だけでなく、点の位置により用紙上のどの位置に位置ずれが生じ、十字の線の形状からどの方向に位置ずれが生じているのかを特定することができる。よって、例えばサイズが大きな用紙を用紙より小さなスキャナで読み取り、位置ずれを検出する場合等に便利である。   Deviation due to distortion can occur due to the inclination of the paper during printing and distortion of the printing unit such as a polygon mirror. FIG. 4A is an example of a positional shift due to distortion, and an image that should originally be formed in a quadrangle is transformed into a parallelogram and printed. As a detection pattern for misalignment due to distortion, registration marks as shown in FIG. 3B are arranged near the four corners of the paper, printed, and the distance of the printed registration marks from the paper edge is measured. It is possible to detect a displacement due to distortion from the difference between the two. In addition, as shown in FIG. 4B, a plurality of register marks arranged at a plurality of positions on the sheet can be used. The registration mark shown in FIG. 4B is not a mere cross but has a characteristic shape. The vertical and horizontal lines constituting the cross differ in thickness and shape depending on the vertical and horizontal positions, and the points attached to the periphery of the cross differ depending on the position of the registration mark on the paper. According to such a characteristic register mark, the shift detection unit 22 generates a position shift on the sheet not only based on the position shift amount but also the position of the point from the partial information on the sheet. It is possible to specify in which direction the positional deviation occurs from the shape of the line. Therefore, it is convenient when, for example, a paper having a large size is read by a scanner smaller than the paper and a positional deviation is detected.

なお、印刷処理の後、パンチ処理が可能であるならば、図4(c)に示すようにトンボの中心にパンチ穴を設けることとしてもよい。ずれ検出部22は、トンボの切り欠きのエッジ位置から位置ずれを検出することができ、表裏の見当ずれをより詳細に検出することができる。   If punching is possible after the printing process, a punch hole may be provided at the center of the register mark as shown in FIG. The misalignment detection unit 22 can detect misalignment from the edge position of the register mark notch, and can detect misregistration between the front and back sides in more detail.

ずれ検出部22により検出されたずれ量は記憶部34に保存され、利用される。印刷ユニットが使用する用紙の質やサイズが一定であれば、位置ずれの程度も略一定であるから、記憶部34に保存された位置ずれ量を必要に応じて読み出し、利用することもできる。用紙の質やサイズが異なれば、位置ずれの程度も異なることが予想されるので、記憶部34には複数の用紙の質やサイズ、その他用紙の条件に対応付けて位置ずれのずれ量を保存し、用紙の条件に応じたずれ量を読み出すことが好ましい。
本実施の形態では、ずれ検出部22により位置ずれの検出を行う例を示すが、別途デジタイザーのような位置測定器を用いてずれ量を測定してもよいし、オペレーターが目視によりずれ量を観察してもよい。目視による場合は操作部33からオペレーターによって入力されたずれ量が記憶部34に保存され、用いられる。
The amount of deviation detected by the deviation detector 22 is stored in the storage unit 34 and used. If the quality and size of the paper used by the printing unit is constant, the degree of misalignment is substantially constant. Therefore, the misregistration amount stored in the storage unit 34 can be read and used as necessary. Since it is expected that the degree of misregistration will be different if the paper quality and size are different, the storage unit 34 stores the misregistration amount in association with the quality and size of a plurality of papers and other paper conditions. However, it is preferable to read the amount of deviation according to the paper conditions.
In the present embodiment, an example is shown in which the misalignment detection unit 22 detects misalignment. However, the misalignment amount may be measured separately using a position measuring device such as a digitizer, and the operator can visually determine the misalignment amount. You may observe. In the case of visual observation, the shift amount input by the operator from the operation unit 33 is stored in the storage unit 34 and used.

補正値算出部23は、印刷される画像をオブジェクト単位に分割し、分割されたオブジェクト毎に、ずれ検出部22により検出された位置ずれの補正値を算出する。   The correction value calculation unit 23 divides the image to be printed into object units, and calculates a correction value for the positional deviation detected by the deviation detection unit 22 for each divided object.

補正値算出部23は、画像データのレイアウト情報又は組版情報を元にオブジェクトを抽出し、画像を各オブジェクトに分割する。レイアウト情報、組版情報は何れも1ページの中の配置の情報である。レイアウト情報はアプリケーションソフトウェアによって指定された1ページの中の文字や図形、写真の配置の情報であり、組版情報は印刷時にプリンタードライバー等によって指定された配置の情報である。組版情報は、例えば指定された画像を1ページの中に複数割り付ける場合や、複数ページの画像を縮小して1ページの中に割り付ける場合の各画像の配置を示す。レイアウト情報又は組版情報はPDLデータから得られるので、補正値算出部23はレイアウト情報又は組版情報をRIP11から取得することができる。   The correction value calculation unit 23 extracts an object based on the layout information or typesetting information of the image data, and divides the image into each object. Both layout information and typesetting information are information on the arrangement in one page. The layout information is information on the arrangement of characters, graphics, and photographs in one page specified by the application software, and the format information is information on the arrangement specified by the printer driver or the like at the time of printing. The typesetting information indicates, for example, the arrangement of images when a plurality of designated images are allocated in one page, or when a plurality of pages of images are reduced and allocated in one page. Since the layout information or the composition information is obtained from the PDL data, the correction value calculation unit 23 can obtain the layout information or the composition information from the RIP 11.

補正値算出部23は、画像データの属性情報を元に同一の属性からなる閉領域をオブジェクトとして抽出し、画像を各オブジェクトに分割することもできる。また、補正値算出部23は、画像データを処理してエッジを検出し、検出されたエッジが輪郭線を形成する閉領域をオブジェクトとして抽出し、画像を各オブジェクトに分割することもできる。   The correction value calculation unit 23 can also extract a closed region having the same attribute as an object based on the attribute information of the image data, and divide the image into each object. The correction value calculation unit 23 can also process the image data to detect an edge, extract a closed region where the detected edge forms an outline as an object, and divide the image into each object.

補正値算出部23は、制御部31から出力された制御情報により、オブジェクトとしてユーザにより指定された領域を抽出するよう指示された場合、当該領域をオブジェクトとして抽出し、画像を各オブジェクトに分割する。   When the control information output from the control unit 31 instructs the correction value calculation unit 23 to extract a region designated by the user as an object, the correction value calculation unit 23 extracts the region as an object and divides the image into each object. .

補正値算出部23は、ずれ検出部22から出力された位置ずれのずれ量から各オブジェクトの平行移動量と変形量の補正値を算出し、これを位置ずれの補正値として補正処理部24に出力する。   The correction value calculation unit 23 calculates a correction value for the parallel movement amount and the deformation amount of each object from the displacement amount output from the displacement detection unit 22, and supplies the correction value to the correction processing unit 24 as a correction value for the displacement. Output.

補正処理部24は、各オブジェクトに対して算出された補正値によって元の画像データを補正処理し、オブジェクト単位で位置ずれを補正する。   The correction processing unit 24 corrects the original image data with the correction value calculated for each object, and corrects the positional deviation in units of objects.

補正処理部24は、オブジェクト毎に、補正値算出部23から出力された平行移動量の補正値によってオブジェクトを平行移動するか、補正値算出部23から出力された変形量の補正値によってオブジェクトを変形するか、或いは当該平行移動と当該変形の両方を実行する。   For each object, the correction processing unit 24 translates the object with the correction value of the parallel movement amount output from the correction value calculation unit 23 or moves the object with the correction value of the deformation amount output from the correction value calculation unit 23. Deform or perform both the translation and the deformation.

制御部31は、用紙上に印刷された画像の読み取りデータをずれ検出部22から取得し、表示部32に出力する。制御部31は位置ずれを補正するオブジェクトの領域がユーザにより操作部33を介して指定されると、当該領域をオブジェクトとして抽出するよう制御信号を生成し、補正値算出部23に出力する。   The control unit 31 acquires read data of an image printed on a sheet from the deviation detection unit 22 and outputs the acquired data to the display unit 32. When a region of an object whose position deviation is to be corrected is designated by the user via the operation unit 33, the control unit 31 generates a control signal so as to extract the region as an object, and outputs the control signal to the correction value calculation unit 23.

表示部32はずれ検出部22による読み取りデータをディスプレイ上に表示する。
操作部33はユーザの操作に応じた操作信号を生成して制御部31に出力する。表示部32と操作部33が一体化したタッチパネルを用いてもよい。
The display unit 32 displays the data read by the deviation detection unit 22 on the display.
The operation unit 33 generates an operation signal corresponding to a user operation and outputs the operation signal to the control unit 31. A touch panel in which the display unit 32 and the operation unit 33 are integrated may be used.

記憶部34は用紙上に印刷された画像の位置ずれのずれ量を記憶する。位置ずれのずれ量は印刷ユニットが印刷処理に用いる用紙の質、サイズ等の条件毎に記憶される。記憶部34としては、RAM、ハードディスク、不揮発メモリー等を用いることができる。   The storage unit 34 stores a shift amount of a positional shift of an image printed on a sheet. The amount of misalignment is stored for each condition such as the quality and size of the paper used by the printing unit for the printing process. As the storage unit 34, a RAM, a hard disk, a nonvolatile memory, or the like can be used.

図5は、位置ずれの補正時に画像処理装置1が実行する処理を示すフローチャートである。
位置ずれの補正時、RIP11から出力された画像データは、補正処理部24による補正を経ずに、スクリーン処理部13に出力され、検出パターン処理部21により検出パターンが付加される。その後、画像データは書込処理部15を介して印刷ユニットにより印刷処理される。印刷された用紙をユーザがずれ検出部22のスキャナに読み込ませると、ずれ検出部22は用紙上に印刷された画像を読み取り、得られた読み取りデータを解析して位置ずれのずれ量を検出する(ステップS1)。このとき、ずれ検出部22は検出パターンが付加された用紙上の位置情報を検出パターン処理部21から取得し、検出パターンが付加された領域周辺のみスキャン、解析して、位置ずれの検出の処理効率を向上させてもよい。
FIG. 5 is a flowchart illustrating a process executed by the image processing apparatus 1 when correcting misalignment.
At the time of correcting the misalignment, the image data output from the RIP 11 is output to the screen processing unit 13 without being corrected by the correction processing unit 24, and a detection pattern is added by the detection pattern processing unit 21. Thereafter, the image data is printed by the printing unit via the writing processing unit 15. When the user reads the printed paper into the scanner of the deviation detection unit 22, the deviation detection unit 22 reads an image printed on the paper and analyzes the obtained read data to detect the amount of deviation of the positional deviation. (Step S1). At this time, the deviation detection unit 22 acquires position information on the sheet to which the detection pattern is added from the detection pattern processing unit 21, scans and analyzes only the area around the area to which the detection pattern is added, and detects the position deviation. Efficiency may be improved.

例えば、表裏の見当ずれを検出するため、図3(b)に示すトンボが検出パターンとして付加された場合、ずれ検出部22は読み取りデータを解析して用紙の表面と裏面に印刷されたトンボと用紙端の位置(x1、y1)、(x2、y2)を特定し、その差分(x1−x2、y1−y2)をずれ量として検出する。   For example, when register marks shown in FIG. 3B are added as detection patterns in order to detect misregistration between the front and back sides, the misalignment detection unit 22 analyzes the read data and detects the register marks printed on the front and back surfaces of the paper. The positions (x1, y1) and (x2, y2) of the sheet edge are specified, and the difference (x1−x2, y1−y2) is detected as the shift amount.

補正値算出部23は、位置ずれのずれ量をずれ検出部22から取得し、印刷される画像をオブジェクト単位に分割する(ステップS2)。前述のように、通常、用紙の質やサイズが一定であれば印刷ユニットで生じる位置ずれも略一定であるので、ステップS1で求められたずれ量を記憶部34に保存しておき、保存されたずれ量を補正値算出部23が記憶部34から取得してもよい。   The correction value calculation unit 23 acquires the amount of displacement from the displacement detection unit 22, and divides the image to be printed into object units (step S2). As described above, since the positional deviation generated in the printing unit is generally constant when the paper quality and size are constant, the deviation amount obtained in step S1 is stored in the storage unit 34 and stored. The correction value calculation unit 23 may acquire the amount of deviation from the storage unit 34.

図6は、オブジェクト単位に分割する処理のフローチャートである。図6に示すように、補正値算出部23は元の画像データから1つのオブジェクトを抽出する(ステップT1)。最初はオブジェクトが分割されていない状態であるので、補正値算出部23は画像全体を1つのオブジェクトと扱って画像全体を抽出する。   FIG. 6 is a flowchart of the process of dividing into object units. As shown in FIG. 6, the correction value calculation unit 23 extracts one object from the original image data (step T1). Since the object is initially not divided, the correction value calculation unit 23 treats the entire image as one object and extracts the entire image.

補正値算出部23は、元の画像データにレイアウト情報又は組版情報が有れば(ステップT2)、レイアウト情報又は組版情報を元に、抽出されたオブジェクトを分割する(ステップT3)。レイアウト情報によれば、1ページの中に配置された文字や図形、写真のオブジェクトを特定できるので、補正値算出部23は画像をレイアウト情報により特定されたオブジェクト毎に分割する。また、組版情報によれば、1ページの中に割り付けられた画像単位を特定できるので、補正値算出部23は組版情報によって割り付けられる画像単位をオブジェクトとして画像を分割する。オブジェクトを分割後、補正値算出部23は分割されたオブジェクトの中からオブジェクトを1つ抽出する(ステップT11;N、T12)。抽出されたオブジェクトについてステップT2〜T10の処理が繰り返される。   If the original image data includes layout information or typesetting information (step T2), the correction value calculation unit 23 divides the extracted object based on the layout information or typesetting information (step T3). According to the layout information, it is possible to specify a character, graphic, or photographic object arranged in one page, so that the correction value calculation unit 23 divides the image for each object specified by the layout information. Also, according to the typesetting information, the image unit allocated in one page can be specified, so the correction value calculation unit 23 divides the image using the image unit allocated by the typesetting information as an object. After dividing the object, the correction value calculation unit 23 extracts one object from the divided objects (step T11; N, T12). The processes in steps T2 to T10 are repeated for the extracted object.

レイアウト情報又は組版情報は無いが(ステップT2;N)、抽出されたオブジェクトに属性情報が有れば(ステップT4;Y)、補正値算出部23は当該属性情報を元にオブジェクトを分割する(ステップT5)。補正値算出部23は同じ属性からなる閉領域をオブジェクトとして抽出し、文字の属性のオブジェクト、図形の属性のオブジェクト、写真の属性のオブジェクトに分割する。オブジェクトを分割後、補正値算出部23は分割されたオブジェクトの中からオブジェクトを1つ抽出する(ステップT11;N、T12)。抽出されたオブジェクトについてステップT2〜T10の処理が繰り返される。   Although there is no layout information or typesetting information (step T2; N), if the extracted object has attribute information (step T4; Y), the correction value calculation unit 23 divides the object based on the attribute information ( Step T5). The correction value calculation unit 23 extracts a closed region having the same attribute as an object, and divides it into a character attribute object, a graphic attribute object, and a photo attribute object. After dividing the object, the correction value calculation unit 23 extracts one object from the divided objects (step T11; N, T12). The processes in steps T2 to T10 are repeated for the extracted object.

組版情報、レイアウト情報も無く、属性情報も無い場合(ステップT4;N)、補正値算出部23は抽出されたオブジェクトの領域を処理してエッジの検出を行う(ステップT6)。エッジは、例えばラプラシアンフィルタ処理、ソーベルフィルタ処理等、公知の検出処理によって検出することができる。補正値算出部23は検出されたエッジが輪郭線を形成する閉領域がオブジェクトの中に有れば(ステップT7;Y)、当該閉領域をオブジェクトとして分割する(ステップT8)。オブジェクトを分割後、補正値算出部23は分割されたオブジェクトの中からオブジェクトを1つ抽出する(ステップT11;N、T12)。抽出されたオブジェクトについてステップT2〜T10の処理が繰り返される。   When there is no typesetting information, layout information, and no attribute information (step T4; N), the correction value calculation unit 23 processes the extracted object region to detect an edge (step T6). The edge can be detected by a known detection process such as a Laplacian filter process or a Sobel filter process. The correction value calculation unit 23 divides the closed region as an object (step T8) if the object has a closed region where the detected edge forms a contour line (step T7; Y). After dividing the object, the correction value calculation unit 23 extracts one object from the divided objects (step T11; N, T12). The processes in steps T2 to T10 are repeated for the extracted object.

検出されたエッジが輪郭線を形成する閉領域がオブジェクトの中に無いが、制御部31から制御情報が出力され、位置ずれを補正する画像領域がユーザにより指定されている場合(ステップT7;N、T9;Y)、補正値算出部23はユーザにより指定された領域をオブジェクトとして分割する(ステップT10)。   When there is no closed region in the object where the detected edge forms a contour line, but control information is output from the control unit 31 and an image region for correcting misalignment is designated by the user (step T7; N) , T9; Y), the correction value calculation unit 23 divides the region designated by the user as an object (step T10).

ユーザによる領域指定が無ければ(ステップT9;N)、補正値算出部23は全てのオブジェクトに対しステップT2〜T10の処理を終了したか否かを判断する(ステップT11)。未終了であれば(ステップT11;N)、補正値算出部23は未処理のオブジェクトの中からオブジェクトを1つ抽出する(ステップT12)。抽出されたオブジェクトについてステップT2〜T10の処理が繰り返される。全て終了した場合は(ステップT11;Y)、図5のステップS3に移行する。   If there is no area specification by the user (step T9; N), the correction value calculation unit 23 determines whether or not the processing of steps T2 to T10 has been completed for all objects (step T11). If not completed (step T11; N), the correction value calculation unit 23 extracts one object from the unprocessed objects (step T12). The processes in steps T2 to T10 are repeated for the extracted object. When all the processes are completed (step T11; Y), the process proceeds to step S3 in FIG.

なお、上記オブジェクトの分割は、分割できるオブジェクトが無くなるまで繰り返してもよいし、分割されたオブジェクトの総数が所定数に達した時点で分割を終了してもよい。或いは、分割されたオブジェクトの大きさが所定値以下に達したら、オブジェクトの分割を終了することとしてもよい。
また、ユーザによる領域指定が有る場合、補正値算出部23は指定された領域のみをオブジェクトとして分割し終了してもよい。この場合、ユーザが指定した領域のみ位置ずれの補正が行われる。
The object division may be repeated until there are no more objects that can be divided, or the division may be terminated when the total number of divided objects reaches a predetermined number. Alternatively, the division of the object may be terminated when the size of the divided object reaches a predetermined value or less.
When there is an area designation by the user, the correction value calculation unit 23 may divide only the designated area as an object and end the process. In this case, only the area designated by the user is corrected for positional deviation.

オブジェクトの分割が終了すると、図5に示すように補正値算出部23は分割されたオブジェクトの中から1つのオブジェクトを選択する(ステップS3)。補正値算出部23は、ずれ検出部22から取得された位置ずれのずれ量のうち、選択されたオブジェクトに最も近い位置にある検出パターンによって検出されたずれ量を取得する(ステップS4)。   When the object division is completed, the correction value calculation unit 23 selects one object from the divided objects as shown in FIG. 5 (step S3). The correction value calculation unit 23 acquires a shift amount detected by the detection pattern located closest to the selected object among the shift amounts of the positional shift acquired from the shift detection unit 22 (step S4).

検出パターンが複数ある場合、補正値算出部23はオブジェクトの周辺に印刷された複数の検出パターンのずれ量を取得する。例えば、図7に示すように検出パターン処理部21が検出パターンとして複数のトンボを用紙上に等間隔に配置した場合、ずれ検出部22は各トンボの位置ずれのずれ量を検出する。補正値算出部23は、6つのオブジェクトのそれぞれのずれ量として各オブジェクトの周辺に位置する6つのトンボのずれ量を取得すればよい。   When there are a plurality of detection patterns, the correction value calculation unit 23 acquires the shift amounts of the plurality of detection patterns printed around the object. For example, as shown in FIG. 7, when the detection pattern processing unit 21 arranges a plurality of registration marks as detection patterns at equal intervals on the paper, the shift detection unit 22 detects the shift amount of the positional shift of each registration mark. The correction value calculation unit 23 may acquire the shift amounts of the six registration marks positioned around each object as the shift amounts of the six objects.

補正値算出部23は取得されたずれ量からオブジェクトの平行移動量と変形量の補正値を算出する(ステップS5)。
図8は補正値を算出する処理のフローチャートである。図8に示すように、補正値算出部23は選択されたオブジェクトの重心位置を算出する(ステップU1)。次に、補正値算出部23は取得された検出パターンのずれ量から重心位置のずれ量を算出し、当該ずれ量を平行移動量として得る(ステップU2)。補正値算出部23は、平行移動量の補正値として平行移動量と逆方向のずれ量を算出する(ステップU3)。
The correction value calculation unit 23 calculates correction values for the parallel movement amount and deformation amount of the object from the acquired deviation amount (step S5).
FIG. 8 is a flowchart of the process for calculating the correction value. As shown in FIG. 8, the correction value calculation unit 23 calculates the position of the center of gravity of the selected object (step U1). Next, the correction value calculation unit 23 calculates the shift amount of the center of gravity position from the acquired shift amount of the detection pattern, and obtains the shift amount as a parallel movement amount (step U2). The correction value calculation unit 23 calculates a deviation amount in the opposite direction to the parallel movement amount as a correction value for the parallel movement amount (step U3).

図9に示すような四角形のオブジェクトが選択された場合、補正値算出部23は四角形の頂点m1、m2、m3、m4の位置座標から重心位置g1を算出する。検出パターンとしてオブジェクト周辺に6つのトンボがあるので、補正値算出部23は6つのトンボのずれ量から位置ずれ後のオブジェクトの位置を推定する。まず、補正値算出部23は選択されたオブジェクトの輪郭上で各トンボと最小距離になる6つの点m1、m2、m3、m4、m5、m6を特定する。補正値算出部23は、特定した6つの点m1〜m6を各点が対応するトンボのずれ量分だけずらした点n1〜n6を求め、この6つの点n1〜n6を空間補間して位置ずれ後のオブジェクトと推定する。   When a square object as shown in FIG. 9 is selected, the correction value calculation unit 23 calculates the gravity center position g1 from the position coordinates of the vertices m1, m2, m3, and m4 of the square. Since there are six registration marks around the object as the detection pattern, the correction value calculation unit 23 estimates the position of the object after the positional deviation from the deviation amount of the six registration marks. First, the correction value calculation unit 23 specifies six points m1, m2, m3, m4, m5, and m6 that are the minimum distance from each registration mark on the outline of the selected object. The correction value calculation unit 23 obtains points n1 to n6 obtained by shifting the specified six points m1 to m6 by the amount of registration mark corresponding to each point, and spatially interpolates these six points n1 to n6 to obtain a position shift. Estimated as a later object.

補正値算出部23は位置ずれ後のオブジェクトの4つの頂点n1、n2、n3、n4の位置座標から重心位置g2を算出し、重心位置g1から重心位置g2へのずれ量を平行移動量、当該ずれ量と逆方向のずれ量を平行移動量の補正値として算出する。例えば、重心位置のずれ量が主走査方向に−5、副走査方向に3であった場合、平行移動量は当該ずれ量と同じく主走査方向に−5、副走査方向に3であり、平行移動量の補正値は主走査方向に5、副走査方向に−3である。   The correction value calculation unit 23 calculates the centroid position g2 from the position coordinates of the four vertices n1, n2, n3, and n4 of the position-shifted object, and calculates the shift amount from the centroid position g1 to the centroid position g2 as a parallel movement amount. A deviation amount in the opposite direction to the deviation amount is calculated as a correction value for the parallel movement amount. For example, when the shift amount of the center of gravity position is −5 in the main scanning direction and 3 in the sub-scanning direction, the parallel movement amount is −5 in the main scanning direction and 3 in the sub-scanning direction, which is the same as the shift amount. The correction value of the movement amount is 5 in the main scanning direction and -3 in the sub scanning direction.

補正値算出部23は検出パターンのずれ量からオブジェクトの複数の位置のずれ量を算出し、当該ずれ量から平行移動量を減じたずれ量を変形量として得る(ステップU4)。補正値算出部23は変形量の補正値として変形量と逆方向のずれ量を算出する(ステップU5)。平行移動量によってオブジェクトが平行移動されると、オブジェクトは全体的に平均して本来の位置に補正される。しかし、位置ずれはオブジェクトの全ての位置において常に同じずれ量だけ起こるとは限らず、平行移動によって補正しきれないずれ量については変形による補正が必要となる。よって、オブジェクトの中の各位置のずれ量と平行移動量との差分を変形量として得て、変形量とは逆方向のずれ量を補正値として得る。   The correction value calculation unit 23 calculates the shift amounts of the plurality of positions of the object from the shift amount of the detection pattern, and obtains a shift amount obtained by subtracting the parallel movement amount from the shift amount as a deformation amount (step U4). The correction value calculation unit 23 calculates a deviation amount in the direction opposite to the deformation amount as a deformation amount correction value (step U5). When the object is translated by the amount of translation, the object is corrected to the original position on average as a whole. However, the positional shift does not always occur by the same shift amount at all positions of the object, and the shift amount that cannot be corrected by the parallel movement needs to be corrected by deformation. Therefore, the difference between the shift amount of each position in the object and the translation amount is obtained as the deformation amount, and the shift amount in the opposite direction to the deformation amount is obtained as the correction value.

図9の例の場合、補正値算出部23は6つのトンボのそれぞれのずれ量を、各トンボに対応するオブジェクトの6つの点m1〜m6から、位置ずれ後の点n1〜n6へのずれ量とみなして、6つのトンボのぞれぞれのずれ量から平行移動量を減じて変形量とする。例えば、平行移動量が主走査方向に−5、副走査方向に3であり、左上のトンボのずれ量が主走査方向に−6、副走査方向に5であった場合、左上のトンボに対応するオブジェクトの左上の頂点m1→n1への変形量は主走査方向に−1、副走査方向に2、変形量の補正値は主走査方向に+1、副走査方向に−2である。   In the case of the example of FIG. 9, the correction value calculation unit 23 determines the shift amounts of the six registration marks from the six points m1 to m6 of the object corresponding to each register mark to the shift points n1 to n6. Therefore, the amount of deformation is obtained by subtracting the amount of parallel movement from the amount of shift of each of the six registration marks. For example, if the translation amount is -5 in the main scanning direction and 3 in the sub-scanning direction, and the shift amount of the registration mark on the upper left is -6 in the main scanning direction and 5 in the sub-scanning direction, it corresponds to the registration mark on the upper left. The amount of deformation of the object to the upper left vertex m1 → n1 is −1 in the main scanning direction, 2 in the sub scanning direction, the correction value of the deformation amount is +1 in the main scanning direction, and −2 in the sub scanning direction.

平行移動量及び変形量の補正値が得られると、図5に示すように補正値算出部23は閾値を用いて変形量が大きいか否かを判定する(ステップS6)。複数の変形量が得られた場合、そのうちの少なくとも1つが閾値を超える場合に変形量が大きいと判定することができる。図9の例では6つのトンボから6つの変形量が得られるので、そのうちの少なくとも1つが閾値を超える変形量である場合、補正値算出部23は変形量が大きいと判定できる。なお、変形量が大きいか否かの判定方法はこれに限定されず、複数の変形量の平均が閾値を超えて大きい場合や、変形量に応じた画像処理の度合いが大きい場合(例えば、回転の画像処理が必要であり、回転角度が閾値以上になる場合)等に変形量が大きいと判定してもよい。   When the correction values for the parallel movement amount and the deformation amount are obtained, as shown in FIG. 5, the correction value calculation unit 23 determines whether the deformation amount is large using a threshold value (step S6). When a plurality of deformation amounts are obtained, it can be determined that the deformation amount is large when at least one of them exceeds a threshold value. In the example of FIG. 9, six deformation amounts are obtained from the six registration marks. Therefore, when at least one of the deformation amounts exceeds the threshold value, the correction value calculation unit 23 can determine that the deformation amount is large. Note that the method for determining whether or not the deformation amount is large is not limited to this, and when the average of a plurality of deformation amounts exceeds the threshold or when the degree of image processing according to the deformation amount is large (for example, rotation The image processing is necessary, and the amount of deformation may be determined to be large (for example, when the rotation angle is equal to or greater than the threshold).

変形量が大きくないと判定された場合(ステップS6;N)、補正値算出部23は平均移動量の補正値のみを補正処理部24に出力する。補正処理部24は選択されたオブジェクトを、補正値算出部23から出力された平均移動量の補正値によって平行移動させる(ステップS7)。   When it is determined that the deformation amount is not large (step S6; N), the correction value calculation unit 23 outputs only the correction value of the average movement amount to the correction processing unit 24. The correction processing unit 24 translates the selected object according to the average moving amount correction value output from the correction value calculating unit 23 (step S7).

通常、オブジェクト間は補正値に対して十分な距離があるが、補正値が大きく平行移動によってオブジェクト間で衝突が生じる場合、補正値算出部23は面積が大きい方のオブジェクト又は所定の属性のオブジェクトの衝突部分を削除すればよい。逆に、平行移動によってオブジェクト間に不自然な空隙が生じる場合、補正値算出部23は面積が大きい方のオブジェクト又は所定の属性のオブジェクトを拡大すればよい。所定の属性は、予め定められた優先順位が低い方の属性である。優先順位は削除や拡大による画質劣化への影響が大きい順に高く設定され、例えば文字>図形>写真の順に優先順位が高く設定される。この優先順位によれば、文字のオブジェクトと写真のオブジェクトが衝突したのであれば、優先順位が低い写真のオブジェクトの衝突部分が削除される。   Usually, there is a sufficient distance between objects with respect to the correction value, but when the correction value is large and a collision occurs between objects due to parallel movement, the correction value calculation unit 23 has an object with a larger area or an object with a predetermined attribute. What is necessary is just to delete the collision part. Conversely, when an unnatural gap occurs between objects due to parallel movement, the correction value calculation unit 23 may enlarge an object having a larger area or an object having a predetermined attribute. The predetermined attribute is an attribute having a lower priority order. The priority is set higher in the order of the influence on the image quality degradation due to deletion or enlargement, for example, the priority is set higher in the order of character> figure> photograph. According to this priority, if a character object and a photo object collide, the collision part of a photo object with a low priority is deleted.

一方、変形量が大きいと判定された場合(ステップS6;Y)、補正値算出部23は平均移動量の補正値に加えて変形量の補正値を補正処理部24に出力する。補正処理部24は選択されたオブジェクトを、補正値算出部23から出力された平均移動量の補正値によって平行移動させ、変形量の補正値によって変形する(ステップS8)。変形は、例えば回転、拡大縮小、座標変換等である。補正は、平行移動と変形の両方が実行されることもあれば、変形のみ実行されることもある。変形のみの補正が実行されるのは、オブジェクトの重心位置の移動は無いが、オブジェクト内の各位置での位置ずれがある場合である。   On the other hand, when it is determined that the deformation amount is large (step S6; Y), the correction value calculation unit 23 outputs the correction value for the deformation amount to the correction processing unit 24 in addition to the correction value for the average movement amount. The correction processing unit 24 translates the selected object according to the average movement amount correction value output from the correction value calculation unit 23, and deforms the selected object according to the deformation amount correction value (step S8). The deformation is, for example, rotation, enlargement / reduction, coordinate conversion, or the like. The correction may be performed both in parallel movement and deformation, or may be performed only in deformation. The correction only for the deformation is performed when the position of the center of gravity of the object is not moved, but there is a position shift at each position in the object.

平行移動による補正はオブジェクトの画像自体に変更が無いため、画像の再現性が良好である一方、オブジェクト内で不均一に生じた位置ずれの全てに対応できるわけではないので、変形に比較して補正の精度は高くない。変形による補正はオブジェクト内の個々の位置ずれに対応できるため補正の精度は高いが、オブジェクトの画像に変更がある。   The correction by translation does not change the image of the object itself, so the reproducibility of the image is good. On the other hand, it cannot cope with all of the non-uniform displacement in the object. The accuracy of correction is not high. Correction by deformation can deal with individual positional deviations in the object, so that the correction accuracy is high, but the image of the object is changed.

このような特性を考慮すると、補正を平行移動とするか、変形も加えるか、属性によって切り替えることが好ましい。属性が文字や図形のオブジェクトは輪郭や線等、位置ずれが視認されやすい構造を多く含む。よって、変形する要素については、変形の補正を行うことが好ましい。一方、属性が写真のオブジェクトは連続階調や不明瞭なエッジが多く、変形を加えなくとも平行移動により補正の効果は十分得られる。   In consideration of such characteristics, it is preferable to switch according to the attribute whether the correction is parallel movement or deformation is added. Objects whose attributes are characters and figures include many structures such as outlines and lines where misalignments are easily visible. Therefore, it is preferable to correct the deformation of the deformable element. On the other hand, an object whose attribute is a photograph has many continuous gradations and unclear edges, and a correction effect can be sufficiently obtained by parallel movement without deformation.

よって、補正処理部24は上記ステップS6における変形量の判定時、オブジェクトの属性情報によって補正処理部24が閾値を変更し、文字、図形の属性の場合は変形の補正が行われやすく、写真の属性の場合は平行移動の補正のみ行われるように調整することが好ましい。例えば、補正処理部24は判定用の閾値として大小2つの閾値を保持し、オブジェクトの属性が文字又は図形である場合は小さい方の閾値を用いて、属性が写真である場合は大きい方の閾値を用いて、変形量が大きいか否かを判定する。閾値の変更により判定基準が切り替えられ、属性が文字又は図形の場合は写真の属性の場合よりも変形量が大きいと判定されやすくなる。結果として、文字又は図形の場合は変形の補正が加えられやすくなり、写真の属性の場合は平行移動の補正のみ行われやすくなる。   Therefore, when determining the deformation amount in step S6, the correction processing unit 24 changes the threshold value according to the attribute information of the object, and in the case of a character or graphic attribute, the correction of the deformation is easy to be performed. In the case of an attribute, it is preferable to adjust so that only translational correction is performed. For example, the correction processing unit 24 holds two threshold values as threshold values for determination. If the attribute of the object is a character or a graphic, the smaller threshold is used, and if the attribute is a photograph, the larger threshold is used. Is used to determine whether the amount of deformation is large. When the threshold is changed, the determination criterion is switched, and when the attribute is a character or a graphic, it is easy to determine that the amount of deformation is larger than that of the photograph attribute. As a result, in the case of a character or a figure, it is easy to apply deformation correction, and in the case of a photo attribute, only parallel movement correction is easily performed.

分割された全てのオブジェクトに対しステップS3〜S8の処理が終了していない場合(ステップS9;N)、ステップS3に戻り、未終了のオブジェクトを対象にステップS3〜S8の処理が繰り返される。そして、全てのオブジェクトに対しステップS3〜S8の処理が終了すると(ステップS9;Y)、位置ずれの補正が終了する。   When the processes of steps S3 to S8 have not been completed for all the divided objects (step S9; N), the process returns to step S3, and the processes of steps S3 to S8 are repeated for the unfinished objects. When the processes in steps S3 to S8 are completed for all objects (step S9; Y), the correction of the positional deviation is completed.

図10は、表裏の見当ずれの例である。
はがきや名刺、価格札等は、用紙上に同じ大きさの画像が繰り返し配置され、表面と裏面が同じ配置で印刷されることが多い。図10は、8面割付によって同じサイズの8つの画像が2列4行で等間隔に配置された例を示す。図10に示すように、表面の画像a1は位置ずれなく印刷されたが、裏面の画像b11は印刷時に反時計回り方向の回転が生じたため、印刷後の用紙c1において表面の画像a1と裏面の画像b12の位置ずれが生じている。
FIG. 10 shows an example of misregistration between the front and back sides.
For postcards, business cards, price tags, etc., images of the same size are repeatedly arranged on paper, and the front and back surfaces are often printed in the same arrangement. FIG. 10 shows an example in which eight images of the same size are arranged at equal intervals in two columns and four rows by eight-plane allocation. As shown in FIG. 10, the front image a1 was printed without misalignment, but the back image b11 was rotated counterclockwise during printing, so that the front image a1 and the back image were printed on the printed paper c1. A position shift of the image b12 occurs.

このような位置ずれに対し、補正値算出部23は、図11に示すように用紙上に割り付けられた8つの画像をオブジェクトとして分割し、8つのオブジェクトのそれぞれに対し平行移動量と変形量の補正値を算出する。オブジェクト単位では位置ずれのずれ量は小さいので、補正処理部24は変形量が大きくないと判定し、オブジェクト毎に算出された平行移動量によってオブジェクトをそれぞれ平行移動させる。位置ずれによって裏面の画像b11全体が反時計回りに回転するのに対し、補正後の裏面の画像b13は各オブジェクトの上下左右への平行移動によって、各オブジェクトの位置関係があたかも位置ずれとは逆の時計回りに回転しているかのような位置関係に変更されている。その後、印刷時に位置ずれが生じると、反時計回り方向に裏面の画像b13が回転し、印刷後の用紙c2において表面の画像a1と裏面の画像b13は位置が略一致している。   As shown in FIG. 11, the correction value calculation unit 23 divides the eight images allocated on the sheet as objects as shown in FIG. 11, and the parallel movement amount and the deformation amount of each of the eight objects. A correction value is calculated. Since the displacement amount of the positional deviation is small in the object unit, the correction processing unit 24 determines that the deformation amount is not large, and translates the object according to the translation amount calculated for each object. While the entire back image b11 rotates counterclockwise due to the position shift, the corrected back image b13 is as if the positional relationship of each object is opposite to the position shift due to the parallel movement of each object in the vertical and horizontal directions. The positional relationship is changed as if it is rotating clockwise. Thereafter, when a positional deviation occurs during printing, the back image b13 rotates in the counterclockwise direction, and the front image a1 and the back image b13 substantially coincide with each other on the printed paper c2.

図12は、比較的大きなサイズの画像を含む場合の表裏の見当ずれの例である。
図12に示すように、表面の画像a1と裏面の画像b21は画像の配置が同じであり、用紙の半分を占める大きな画像d1と、その下部に小さな画像d2が4つ配置されている。図11と同様に印刷時に裏面の画像b21に回転が生じた場合、大きな画像d1は回転による位置ずれのずれ量が大きい。それにも関わらず、全ての画像d1、d2のオブジェクトが平行移動によって補正されると、印刷後の用紙c3において表面の画像a2と補正後の裏面の画像b22は、小さい画像d2の位置は略一致するが、大きい画像d1は位置ずれが比較的大きく、補正が不十分となる。
FIG. 12 is an example of misregistration between the front and back when a relatively large size image is included.
As shown in FIG. 12, the front image a1 and the back image b21 have the same image arrangement, and a large image d1 that occupies half of the paper and four small images d2 are arranged below the large image d1. As in FIG. 11, when the image b21 on the back surface is rotated during printing, the large image d1 has a large amount of displacement due to the rotation. Nevertheless, when all the objects of the images d1 and d2 are corrected by translation, the front image a2 and the corrected back image b22 of the printed paper c3 are substantially coincident with each other in the position of the small image d2. However, the large image d1 has a relatively large misalignment and correction is insufficient.

しかしながら、補正処理部24によれば、大きな画像d1のオブジェクトは変形量が大きいと判定され、図13に示すように平行移動だけではなく変形による補正も行われる。その結果、印刷後の用紙c4において表面の画像a2と補正後の裏面の画像b23は、大きな画像d1も小さな画像d2も表裏で位置が略一致している。変形による補正精度が高いため、特に大きな画像d1の一致度は高い。   However, according to the correction processing unit 24, it is determined that the object of the large image d1 has a large deformation amount, and not only the parallel movement but also correction by deformation is performed as shown in FIG. As a result, the front image a2 and the corrected back image b23 of the printed paper c4 are substantially coincident in position on the front and back of the large image d1 and the small image d2. Since the correction accuracy due to deformation is high, the degree of coincidence of a particularly large image d1 is high.

以上のように、本実施の形態によれば、画像処理装置1は、画像データの印刷処理によって用紙上に印刷された画像の位置ずれのずれ量を取得し、画像をオブジェクト単位に分割し、分割されたオブジェクト毎に、取得されたずれ量に応じて位置ずれの補正値を算出する補正値算出部23と、各オブジェクトに対して算出された補正値によって画像データを補正処理し、オブジェクト単位で前記位置ずれを補正する補正処理部24と、を備える。
オブジェクト単位で補正するので、補正によってオブジェクトの輪郭線が乱れたり、オブジェクトの画像が欠落したりすることがなく、画質の劣化が少ない位置ずれの補正が可能である。
As described above, according to the present embodiment, the image processing apparatus 1 acquires the amount of positional deviation of an image printed on paper by image data printing processing, divides the image into objects, For each divided object, a correction value calculation unit 23 that calculates a correction value for misregistration in accordance with the acquired misregistration amount, and correction processing of the image data using the correction value calculated for each object, The correction processing unit 24 corrects the positional deviation.
Since correction is performed in units of objects, the outline of the object is not disturbed or the image of the object is not lost by the correction, and it is possible to correct misalignment with little deterioration in image quality.

また、補正値算出部23は、位置ずれのずれ量から各オブジェクトの平行移動量と変形量の補正値を算出し、補正処理部24は、オブジェクト毎に、平行移動量の補正値によってオブジェクトを平行移動するか、変形量の補正値によってオブジェクトを変形するか、或いは当該平行移動と当該変形の両方を実行する。
補正処理部24は、閾値を用いて前記変形量が大きいか否かを判定し、変形量が大きくないと判定した場合、平行移動量の補正値によってオブジェクトを平行移動させ、変形量が大きいと判定した場合、平行移動量の補正値によってオブジェクトを平行移動させるとともに、変形量の補正値によって当該オブジェクトを変形する。
Further, the correction value calculation unit 23 calculates the correction value of the parallel movement amount and deformation amount of each object from the displacement amount of the positional deviation, and the correction processing unit 24 selects the object by the correction value of the parallel movement amount for each object. Either the object is translated, the object is deformed by the correction value of the deformation amount, or both the parallel movement and the deformation are executed.
The correction processing unit 24 determines whether or not the deformation amount is large using a threshold value. If the deformation processing unit 24 determines that the deformation amount is not large, the correction processing unit 24 translates the object according to the correction value of the parallel movement amount, and the deformation amount is large. When the determination is made, the object is translated by the parallel movement amount correction value, and the object is deformed by the deformation amount correction value.

位置ずれは明瞭なパターンであるオブジェクト同士の位置関係のずれによって視認されやすいことから、その位置関係のみ平行移動によって補正し位置ずれを軽減することにより、オブジェクトの画像自体に変更を加えることなく位置ずれの補正が可能である。平行移動による補正では不十分である場合、変形による補正が加えられるので、画質の劣化を抑えながら精度の高い補正ができる。   Since misalignment is easy to be visually recognized due to misalignment between objects, which is a clear pattern, by correcting only the misalignment by parallel movement and reducing misalignment, the position of the object itself can be changed without any change. Deviation correction is possible. When correction by translation is insufficient, correction by deformation is added, so that correction with high accuracy can be performed while suppressing deterioration in image quality.

なお、上記実施の形態は本発明の好適な一例であり、これに限定されない。
例えば、補正処理部24による位置ずれの補正のタイミングは、RIP11によるラスタライズ後、スクリーン処理の直前に限定されない。図14に示すようにラスタライズ前、ラスタライズ時、メモリー12への画像データの書き込み時、スクリーン処理直後、メモリー14への書き込み時、書込処理部15による書き込み時の何れも可能である。
In addition, the said embodiment is a suitable example of this invention, and is not limited to this.
For example, the timing of correction of misalignment by the correction processing unit 24 is not limited to immediately before screen processing after rasterization by the RIP 11. As shown in FIG. 14, before rasterization, at rasterization, at the time of writing image data to the memory 12, immediately after the screen processing, at the time of writing to the memory 14, or at the time of writing by the writing processing unit 15, it is possible.

ラスタライズ前に補正する場合、補正処理部24は平行移動量、変形量の補正値に応じて、PDLデータのレイアウト、フォント、線幅、スケーリング、回転等のデータを書き換えてオブジェクトの位置を平行移動させる、或いは変形して位置ずれを補正する。
ラスタライズ時に補正する場合、ラスタライズ時に生成するディスプレイリストやレイアウト情報等の中間データを書き換え、オブジェクトのレイアウト、フォント、線幅、スケーリングを変更してオブジェクトの位置を平行移動させる、或いは変形して位置ずれを補正する。
When correcting before rasterization, the correction processing unit 24 rewrites data such as layout, font, line width, scaling, and rotation of PDL data according to the correction value of the translation amount and deformation amount, and translates the position of the object. To correct the misalignment.
When correcting during rasterization, rewrite intermediate data such as the display list and layout information generated during rasterization, and change the object layout, font, line width, and scaling to move the object position in parallel, or deform it to shift the position. Correct.

メモリー12、14への書き込み時に補正する場合、補正処理部24はメモリー12、14に書き込む各画素のアドレスを変更し、平行移動後又は変形後の画素のアドレスを書き込む。
スクリーン処理後に補正をする場合、スクリーン処理によって形成される周期的なパターンが補正によってずれるため、スクリーン処理に用いられる閾値マトリクスを補正する手段を設け、画質の劣化を防ぐことが好ましい。
When correction is performed when writing to the memories 12 and 14, the correction processing unit 24 changes the address of each pixel to be written to the memories 12 and 14, and writes the address of the pixel after translation or deformation.
When correction is performed after the screen processing, a periodic pattern formed by the screen processing is shifted due to the correction. Therefore, it is preferable to provide a means for correcting a threshold matrix used for the screen processing to prevent image quality deterioration.

補正のタイミングを属性情報によって切り替えてもよい。
例えば、写真の属性の画像は本来ラスター構造を有しているため、ラスタライズ後に補正することが好ましい。一方、文字の属性の画像は、PDLデータ上では符号データとして保持され、データ量が小さい。よって、文字の属性のオブジェクトに対してはラスタライズ前に補正することにより、補正に要する処理時間を短縮することができる。しかし、ラスタライズは様々な条件を適切に処理する必要があることから、処理内容をパッケージ化していることが多く、ラスタライズの処理内容は画一化しがちである。平行移動の補正はレイアウト情報を変更することで容易に行うことができるが、変形の補正はラスタライズのパッケージ化によって容易ではない。よって、文字の属性の場合、平行移動の補正はラスタライズ前又はラスタライズ時に行い、変形の補正はラスタライズ後に行う。ラスタライズ後の変形であれば、文字のエッジに対する平滑処理等、より好ましい画像処理を選択することができる。
The correction timing may be switched according to the attribute information.
For example, since an image having a photograph attribute originally has a raster structure, it is preferably corrected after rasterization. On the other hand, a character attribute image is held as code data on the PDL data and has a small data amount. Therefore, the processing time required for correction can be shortened by correcting an object having a character attribute before rasterization. However, since it is necessary to appropriately process various conditions for rasterization, the processing content is often packaged, and the processing content of rasterization tends to be unified. Correction of translation can be easily performed by changing layout information, but correction of deformation is not easy by packaging of rasterization. Therefore, in the case of character attributes, parallel movement correction is performed before or during rasterization, and deformation correction is performed after rasterization. In the case of deformation after rasterization, more preferable image processing such as smoothing processing on the edge of a character can be selected.

また、上述した位置ずれの補正の処理内容をプログラム化し、CPU等のハードウェアと当該プログラムとの協働によって本発明に係る位置ずれの補正を実現してもよい。当該プログラムのコンピュータ読み取り可能な媒体としては、ROM、フラッシュメモリ等の不揮発性メモリー、CD-ROM等の可搬型記録媒体を適用することが可能である。また、当該プログラムのデータを通信回線を介して提供する媒体として、キャリアウエーブ(搬送波)も本発明に適用される。   Further, the above-described misalignment correction processing may be programmed, and misalignment correction according to the present invention may be realized by cooperation of hardware such as a CPU and the program. As the computer-readable medium of the program, a non-volatile memory such as a ROM and a flash memory, and a portable recording medium such as a CD-ROM can be applied. Further, a carrier wave is also applied to the present invention as a medium for providing the program data via a communication line.

1 画像処理装置
11 RIP
12 メモリー
13 スクリーン処理部
14 メモリー
15 書込処理部
21 検出パターン処理部
22 補正処理部
23 補正値算出部
24 補正処理部
31 制御部
32 表示部
33 操作部
1 Image processing device 11 RIP
12 memory 13 screen processing unit 14 memory 15 writing processing unit 21 detection pattern processing unit 22 correction processing unit 23 correction value calculation unit 24 correction processing unit 31 control unit 32 display unit 33 operation unit

Claims (11)

画像データの印刷処理によって用紙上に印刷された画像の位置ずれのずれ量を取得し、前記画像をオブジェクト単位に分割し、分割されたオブジェクト毎に、取得されたずれ量に応じて前記位置ずれの補正値を算出する補正値算出部と、
各オブジェクトに対して算出された前記補正値によって前記画像データを補正処理し、オブジェクト単位で前記位置ずれを補正する補正処理部と、
を備える画像処理装置。
The amount of displacement of an image printed on paper by image data printing processing is acquired, the image is divided into objects, and the position displacement is determined for each divided object according to the amount of displacement acquired. A correction value calculation unit for calculating the correction value of
A correction processing unit that corrects the image data according to the correction value calculated for each object, and corrects the displacement in units of objects;
An image processing apparatus comprising:
前記補正値算出部は、前記位置ずれのずれ量から各オブジェクトの平行移動量と変形量の補正値を算出し、
前記補正処理部は、オブジェクト毎に、前記平行移動量の補正値によってオブジェクトを平行移動するか、前記変形量の補正値によってオブジェクトを変形するか、或いは当該平行移動と当該変形の両方を実行する請求項1に記載の画像処理装置。
The correction value calculation unit calculates a correction value for the translation amount and deformation amount of each object from the displacement amount of the positional deviation,
For each object, the correction processing unit translates the object with the correction value for the parallel movement amount, deforms the object with the correction value for the deformation amount, or executes both the parallel movement and the deformation. The image processing apparatus according to claim 1.
前記補正処理部は、閾値を用いて前記変形量が大きいか否かを判定し、
前記変形量が大きくないと判定した場合、前記平行移動量の補正値によってオブジェクトを平行移動させ、
前記変形量が大きいと判定した場合、前記平行移動量の補正値によってオブジェクトを平行移動させるとともに、前記変形量の補正値によって当該オブジェクトを変形する請求項2に記載の画像処理装置。
The correction processing unit determines whether the deformation amount is large using a threshold,
When it is determined that the deformation amount is not large, the object is translated by the correction value of the parallel movement amount,
The image processing apparatus according to claim 2, wherein when it is determined that the amount of deformation is large, the object is translated by the correction value of the parallel movement amount, and the object is deformed by the correction value of the deformation amount.
前記補正処理部は、オブジェクトの属性情報によって前記閾値を変更する請求項3に記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the correction processing unit changes the threshold value according to object attribute information. 前記補正値算出部は、各オブジェクトの周辺に印刷された複数の検出パターンの位置ずれのずれ量を取得し、当該ずれ量から各オブジェクトの平行移動量と変形量の補正値を算出する請求項2〜4の何れか一項に記載の画像処理装置。   The correction value calculation unit obtains a displacement amount of a positional deviation of a plurality of detection patterns printed around each object, and calculates a correction value for a parallel movement amount and a deformation amount of each object from the deviation amount. The image processing apparatus as described in any one of 2-4. 前記補正値算出部は、画像データの組版情報又はレイアウト情報を元にオブジェクトを抽出し、前記画像を各オブジェクトに分割する請求項1〜5の何れか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the correction value calculation unit extracts an object based on typesetting information or layout information of image data, and divides the image into each object. 前記補正値算出部は、画像データの属性情報を元に同一の属性からなる閉領域をオブジェクトとして抽出し、前記画像を各オブジェクトに分割する請求項1〜6の何れか一項に記載の画像処理装置。   The image according to claim 1, wherein the correction value calculation unit extracts a closed region having the same attribute as an object based on attribute information of image data, and divides the image into each object. Processing equipment. 前記補正値算出部は、画像データを処理して画像のエッジを検出し、検出されたエッジが輪郭線を形成する閉領域をオブジェクトとして抽出し、前記画像を各オブジェクトに分割する請求項1〜7の何れか一項に記載の画像処理装置。   The correction value calculating unit detects image edges by processing image data, extracts a closed region in which the detected edges form a contour line as an object, and divides the image into each object. The image processing apparatus according to any one of claims 7 to 9. 前記補正値算出部は、ユーザにより指定された領域をオブジェクトとして抽出し、前記画像を各オブジェクトに分割する請求項1〜8の何れか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the correction value calculation unit extracts a region designated by a user as an object, and divides the image into each object. 前記位置ずれは、色ずれ、表裏の見当ずれ、歪みによる位置ずれを含む請求項1〜9の何れか一項に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the misregistration includes color misregistration, misregistration between front and back surfaces, and misregistration. 画像データの印刷処理によって用紙上に印刷された画像の位置ずれのずれ量を取得する工程と、
前記画像をオブジェクト単位に分割し、分割されたオブジェクト毎に、取得されたずれ量に応じて前記位置ずれの補正値を算出する工程と、
各オブジェクトに対して算出された前記補正値によって前記画像データを補正処理し、オブジェクト単位で前記位置ずれを補正する工程と、
を含む画像処理方法。
Obtaining a displacement amount of an image printed on a sheet by a printing process of image data;
Dividing the image into object units, and calculating a correction value for the positional deviation according to the obtained deviation amount for each divided object;
Correcting the image data with the correction value calculated for each object, and correcting the positional deviation in units of objects;
An image processing method including:
JP2011160403A 2011-07-22 2011-07-22 Image processing apparatus and image processing method Withdrawn JP2013026865A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011160403A JP2013026865A (en) 2011-07-22 2011-07-22 Image processing apparatus and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011160403A JP2013026865A (en) 2011-07-22 2011-07-22 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
JP2013026865A true JP2013026865A (en) 2013-02-04

Family

ID=47784729

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011160403A Withdrawn JP2013026865A (en) 2011-07-22 2011-07-22 Image processing apparatus and image processing method

Country Status (1)

Country Link
JP (1) JP2013026865A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016091114A (en) * 2014-10-30 2016-05-23 富士通フロンテック株式会社 Document read program, document read method, and information processing apparatus
JP2016123070A (en) * 2014-12-25 2016-07-07 株式会社リコー Image processing apparatus, image processing method, and program
JP2020032540A (en) * 2018-08-27 2020-03-05 京セラドキュメントソリューションズ株式会社 Inkjet recording device

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016091114A (en) * 2014-10-30 2016-05-23 富士通フロンテック株式会社 Document read program, document read method, and information processing apparatus
JP2016123070A (en) * 2014-12-25 2016-07-07 株式会社リコー Image processing apparatus, image processing method, and program
JP2020032540A (en) * 2018-08-27 2020-03-05 京セラドキュメントソリューションズ株式会社 Inkjet recording device
JP7163668B2 (en) 2018-08-27 2022-11-01 京セラドキュメントソリューションズ株式会社 Inkjet recording device

Similar Documents

Publication Publication Date Title
US9264559B2 (en) Method, apparatus, and computer program product for printing image on distendable sheet
US9477914B2 (en) Image processing apparatus, method, and medium for converting page image data
JP4510847B2 (en) Image processing apparatus and image processing program
JP6978205B2 (en) Print control device, raster data generation method, and raster data generation program
EP0901096B1 (en) Peeker detection and correction
US9536183B2 (en) Image processing device and image processing method
JP2013026865A (en) Image processing apparatus and image processing method
US8660357B2 (en) Image processing apparatus, method, and computer program
KR100709364B1 (en) Method and apparatus for generating pattern image
JP5825306B2 (en) Image scaling apparatus and image scaling method
JP4785644B2 (en) Printing system and print data processing apparatus
US10540793B2 (en) Image processing apparatus, image processing method, and storage medium
TW201928537A (en) System and method for digital direct imaging, image generating method and electronic device
JP6541320B2 (en) Image processing apparatus, image processing method, computer program
JP6238589B2 (en) Image forming apparatus, image processing method, and program
JP2019121870A (en) Image processing apparatus, control method of the same, and program
JP5112223B2 (en) Image processing apparatus and image processing program
US11341383B2 (en) Methods and apparatus to detect effective tiling area and fill tiles efficiently
CN109981930B (en) Digital direct imaging method and system, image generation method and electronic device
JP5764992B2 (en) Image processing apparatus, image processing method, and image processing program
JP4764730B2 (en) Image forming apparatus and image forming method
US9824305B2 (en) Printing control device, image processing method, and storage medium
US20120200896A1 (en) Method for Optimizing the Search for Trapping Regions
JP6417822B2 (en) Editing device, printing device, and program
JP5826147B2 (en) Image forming apparatus

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20130416

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20141007