JP2007059971A - Image processing system, image processing method and program - Google Patents

Image processing system, image processing method and program Download PDF

Info

Publication number
JP2007059971A
JP2007059971A JP2005239509A JP2005239509A JP2007059971A JP 2007059971 A JP2007059971 A JP 2007059971A JP 2005239509 A JP2005239509 A JP 2005239509A JP 2005239509 A JP2005239509 A JP 2005239509A JP 2007059971 A JP2007059971 A JP 2007059971A
Authority
JP
Japan
Prior art keywords
image
area
correction information
region
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2005239509A
Other languages
Japanese (ja)
Other versions
JP4505858B2 (en
Inventor
Junichi Ichikawa
順一 市川
Kenji Hyoki
賢治 表木
Jiyungo Harigai
潤吾 針貝
Shinichi Ohashi
慎一 大橋
Kenji Ogi
健嗣 小木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Business Innovation Corp
Original Assignee
Fuji Xerox Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Xerox Co Ltd filed Critical Fuji Xerox Co Ltd
Priority to JP2005239509A priority Critical patent/JP4505858B2/en
Publication of JP2007059971A publication Critical patent/JP2007059971A/en
Application granted granted Critical
Publication of JP4505858B2 publication Critical patent/JP4505858B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing system capable of appropriately extracting data to be used for correction processing after reducing waste of paper. <P>SOLUTION: An image processing apparatus 20 previously stores correction information of an image. Upon receiving an input image, the apparatus 20 performs color conversion processing to convert the pixel value of each of pixels for a correction target position while referring to the correction information. Image data are controlled by an image formation control apparatus 21 and an image subjected to the correction processing is formed on a recording paper 32. An image detecting sensor 22 reads an image from the recording paper 32 and outputs the read image to the apparatus 20. The apparatus 20 detects a correction region from the read image to determine the region, acquires correction information used for correcting colors or density from the determined region, and updates the stored correction information. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、プリンタ、ファクシミリ、複写機等の画像形成システムに関する。   The present invention relates to an image forming system such as a printer, a facsimile machine, and a copying machine.

従来、画像形成装置においては、面内に濃度むらが発生する場合がある。
特許文献1には、テストパターンを出力し、感光ドラム軸方向に発生している濃度むらを読み取り、デジタル画像信号を補正する画像形成装置が開示されている。
Conventionally, in an image forming apparatus, density unevenness may occur in the surface.
Patent Document 1 discloses an image forming apparatus that outputs a test pattern, reads density unevenness generated in the axial direction of the photosensitive drum, and corrects a digital image signal.

しかしながら、テストパターンを出力して補正する場合、画像形成装置は通常のプリント動作を中断して行うため、装置のダウンタイムが発生してしまう。また、テストパターン出力に用いられた用紙は、使用者にとって不要である。   However, when the test pattern is output and corrected, the image forming apparatus interrupts the normal printing operation, which causes downtime of the apparatus. Further, the paper used for test pattern output is unnecessary for the user.

特開平6−3911号公報JP-A-6-3911

本発明は、上述した背景からなされたものであり、用紙の無駄を削減した上で、補正処理に用いられるデータを適切に抽出することができる画像処理システムを提供することを目的とする。   The present invention has been made from the above-described background, and an object of the present invention is to provide an image processing system that can appropriately extract data used for correction processing while reducing paper waste.

上記目的を達成するために、本発明に係る画像処理システムは、画像の補正情報を記憶する補正情報記憶手段と、入力画像を受け付ける画像受付手段と、前記補正情報記憶手段により記憶されている補正情報に基づいて、前記画像受付手段により受け付けられた入力画像を補正する補正手段と、前記画像受付手段により受け付けられた入力画像と、読み取られた読取画像とに基づいて、補正情報を取得する領域を検出する領域検出手段と、前記領域検出手段により検出された領域を、当該領域と当該領域の周辺領域とに基づいて判定する領域判定手段と、前記領域判定手段により判定された領域であって入力画像及び読取画像に含まれる画像部分に基づいて、前記補正情報記憶手段により記憶されている補正情報を更新する補正情報更新手段とを有する。   In order to achieve the above object, an image processing system according to the present invention includes a correction information storage unit that stores correction information of an image, an image reception unit that receives an input image, and a correction stored by the correction information storage unit. An area for obtaining correction information based on the correction means for correcting the input image received by the image receiving means based on the information, the input image received by the image receiving means, and the read read image An area detecting means for detecting the area, an area determining means for determining an area detected by the area detecting means based on the area and a peripheral area of the area, and an area determined by the area determining means. Correction information updating means for updating the correction information stored in the correction information storage means based on the image portion included in the input image and the read image Having.

好適には、前記補正情報記憶手段は、画像のむら情報を記憶する。
好適には、前記領域判定手段は、前記領域検出手段により検出された領域と当該領域の周辺領域とを含む画像部分のうちの少なくとも一部を補正情報取得領域とする。
好適には、前記領域判定手段は、前記領域検出手段により検出された領域と当該領域の周辺領域とを含む画像部分のうち、読取画像において画素値が略均一である画像部分を補正情報取得領域とする。
Preferably, the correction information storage means stores image unevenness information.
Preferably, the region determination unit sets at least a part of an image portion including the region detected by the region detection unit and a peripheral region of the region as a correction information acquisition region.
Preferably, the area determination unit selects an image part whose pixel values are substantially uniform in the read image from among the image parts including the area detected by the area detection unit and the peripheral area of the area. And

また、好適には、前記領域判定手段は、前記領域検出手段により検出された領域のうち、ディフェクトが発生している画像部分を、補正情報取得領域から削除する。
また、好適には、前記領域判定手段により削除される画像部分において、ディフェクトは、入力画像の構造に基づくディフェクトである。
Preferably, the area determination unit deletes, from the correction information acquisition area, an image portion where a defect has occurred among the areas detected by the area detection unit.
Preferably, in the image portion deleted by the area determination unit, the defect is a defect based on the structure of the input image.

本発明に係る画像処理方法は、画像の補正情報を記憶し、入力画像を受け付け、前記記憶されている補正情報に基づいて、前記受け付けられた入力画像を補正し、前記受け付けられた入力画像と、読み取られた読取画像とに基づいて、補正情報を取得する領域を検出し、前記検出された領域を、当該領域と当該領域の周辺領域とに基づいて判定し、前記判定された領域であって入力画像及び読取画像に含まれる画像部分に基づいて、前記記憶されている補正情報を更新する。   An image processing method according to the present invention stores image correction information, receives an input image, corrects the received input image based on the stored correction information, and An area for acquiring correction information is detected based on the read image that has been read, and the detected area is determined based on the area and a peripheral area of the area. Then, the stored correction information is updated based on the image portion included in the input image and the read image.

さらに、本発明に係るプログラムは、コンピュータを含む画像処理システムにおいて、画像の補正情報を記憶する補正情報記憶ステップと、入力画像を受け付ける画像受付ステップと、前記記憶されている補正情報に基づいて、前記受け付けられた入力画像を補正する補正ステップと、前記受け付けられた入力画像と、読み取られた読取画像とに基づいて、補正情報を取得する領域を検出する領域検出ステップと、前記検出された領域を、当該領域と当該領域の周辺領域とに基づいて判定する領域判定ステップと、前記判定された領域であって入力画像及び読取画像に含まれる画像部分に基づいて、前記記憶されている補正情報を更新する補正情報更新ステップとを前記画像処理システムのコンピュータに実行させる。   Further, the program according to the present invention is based on the correction information storing step for storing the correction information of the image, the image receiving step for receiving the input image, and the stored correction information in the image processing system including the computer. A correction step for correcting the received input image, a region detection step for detecting a region for acquiring correction information based on the received input image and the read image that has been read, and the detected region Is determined based on the region and the peripheral region of the region, and the stored correction information based on the determined region and the image portion included in the input image and the read image The correction information update step for updating the image processing system is executed by the computer of the image processing system.

本発明に係る画像処理システムによれば、用紙の無駄を削減した上で、補正処理に用いられるデータを適切に抽出することができる。   According to the image processing system of the present invention, it is possible to appropriately extract data used for correction processing while reducing paper waste.

図1は、本発明に係る画像処理システムをタンデム型の画像形成装置10を中心として示す図である。
図1に示すように、画像形成装置10は、画像読取ユニット12、画像形成ユニット14、中間転写ベルト16、用紙トレイ17、用紙搬送路18、定着器19、画像処理装置20、像形成制御装置21、画像検知センサ22及びユーザインターフェイス(UI)装置23を有する。この画像形成装置10は、パーソナルコンピュータ(不図示)などから受信した画像データを印刷するプリンタ機能に加えて、画像読取ユニット12を用いたフルカラー複写機としての機能、及び、ファクシミリとしての機能を兼ね備えた複合機であってもよい。
FIG. 1 is a diagram showing an image processing system according to the present invention centering on a tandem type image forming apparatus 10.
As shown in FIG. 1, the image forming apparatus 10 includes an image reading unit 12, an image forming unit 14, an intermediate transfer belt 16, a paper tray 17, a paper transport path 18, a fixing device 19, an image processing device 20, and an image forming control device. 21, an image detection sensor 22 and a user interface (UI) device 23. The image forming apparatus 10 has a function as a full-color copying machine using the image reading unit 12 and a function as a facsimile in addition to a printer function for printing image data received from a personal computer (not shown). It may be a multifunction machine.

まず、画像形成装置10の概略を説明すると、画像形成装置10の上部には、画像読取ユニット12、画像処理装置20及び像形成制御装置21が配設されている。画像読取ユニット12は、原稿30に表示された画像を読み取って、画像処理装置20に対して出力する。画像処理装置20は、画像読取ユニット12から入力された画像データ、又は、LANなどのネットワーク回線を介してパーソナルコンピュータ等から入力された画像データに対して、後述する色変換処理及び補正処理などの画像処理を施し、像形成制御装置21に対して出力する。像形成制御装置21は、画像処理を施された画像データに基づいて、画像形成ユニット14を制御する。なお、像形成制御装置21は、画像処理装置20の一部として、画像処理装置20に含まれてもよい。   First, the outline of the image forming apparatus 10 will be described. In the upper part of the image forming apparatus 10, an image reading unit 12, an image processing apparatus 20, and an image forming control apparatus 21 are arranged. The image reading unit 12 reads an image displayed on the document 30 and outputs it to the image processing apparatus 20. The image processing apparatus 20 performs color conversion processing and correction processing described later on image data input from the image reading unit 12 or image data input from a personal computer or the like via a network line such as a LAN. Image processing is performed and output to the image formation control device 21. The image forming control device 21 controls the image forming unit 14 based on the image data subjected to image processing. Note that the image formation control device 21 may be included in the image processing device 20 as a part of the image processing device 20.

画像形成装置10の上面には、例えばタッチパネルなどのUI装置23が設けられている。UI装置23は、画像形成装置10の制御情報や指示情報などを表示すると共に、指示情報などのユーザによる入力を受入れる。即ち、ユーザは、UI装置23を介して画像形成装置10を操作することができる。なお、UI装置23は、スイッチなどの入力のみを受入れるものであってもよいし、表示などの出力のみを行うものであってもよく、これらを組合わせたものであってもよい。   A UI device 23 such as a touch panel is provided on the upper surface of the image forming apparatus 10. The UI device 23 displays control information and instruction information of the image forming apparatus 10 and accepts input by the user such as instruction information. That is, the user can operate the image forming apparatus 10 via the UI device 23. Note that the UI device 23 may accept only an input such as a switch, may perform only an output such as a display, or may be a combination of these.

画像読取ユニット12の下方には、カラー画像を構成する色に対応して、複数の画像形成ユニット14が配設されている。本例では、黒(K)、イエロー(Y)、マゼンタ(M)、シアン(C)の各色に対応して第1の画像形成ユニット14K、第2の画像形成ユニット14Y、第3の画像形成ユニット14M及び第4の画像形成ユニット14Cが、中間転写ベルト16に沿って一定の間隔を空けて水平に配列されている。中間転写ベルト16は、中間転写体として図中矢印Aの方向に回動し、これら4つの画像形成ユニット14K、14Y、14M、14Cは、画像処理装置20から入力された画像データに基づいて各色のトナー像を順次形成し、これら複数のトナー像が互いに重ね合わせられるタイミングで中間転写ベルト16に転写(一次転写)する。なお、各画像形成ユニット14K、14Y、14M、14Cの色の順序は、黒(K)、イエロー(Y)、マゼンタ(M)、シアン(C)の順に限定されるものではなく、イエロー(Y)、マゼンタ(M)、シアン(C)、黒(K)の順序など、その順序は任意である。   Below the image reading unit 12, a plurality of image forming units 14 are arranged corresponding to the colors constituting the color image. In this example, the first image forming unit 14K, the second image forming unit 14Y, and the third image forming corresponding to each color of black (K), yellow (Y), magenta (M), and cyan (C). The unit 14M and the fourth image forming unit 14C are arranged horizontally along the intermediate transfer belt 16 with a certain interval. The intermediate transfer belt 16 rotates as an intermediate transfer member in the direction of an arrow A in the figure, and these four image forming units 14K, 14Y, 14M, and 14C are configured based on the image data input from the image processing apparatus 20. The toner images are sequentially formed and transferred (primary transfer) to the intermediate transfer belt 16 at a timing at which the plurality of toner images are superimposed on each other. The order of the colors of the image forming units 14K, 14Y, 14M, and 14C is not limited to the order of black (K), yellow (Y), magenta (M), and cyan (C). ), Magenta (M), cyan (C), black (K), and the like.

用紙搬送路18は、中間転写ベルト16の下方に配設されている。用紙トレイ17から供給された記録用紙32は、この用紙搬送路18上を搬送され、上記中間転写ベルト16上に多重に転写された各色のトナー像が一括して転写(二次転写)され、転写されたトナー像が定着器19によって定着され、矢印Bに沿って外部に排出される。   The sheet conveyance path 18 is disposed below the intermediate transfer belt 16. The recording paper 32 supplied from the paper tray 17 is transported on the paper transport path 18, and the toner images of each color transferred onto the intermediate transfer belt 16 are collectively transferred (secondary transfer). The transferred toner image is fixed by the fixing device 19 and discharged to the outside along the arrow B.

次に、画像形成装置10の各構成についてより詳細に説明する。
図1に示すように、画像読取ユニット12は、原稿30を載せるプラテンガラス124と、この原稿30をプラテンガラス124上に押圧するプラテンカバー122と、プラテンガラス124上に載置された原稿30の画像を読み取る画像読取部130とを有する。この画像読取部130は、プラテンガラス124上に載置された原稿30を光源132によって照明し、原稿30からの反射光像を、フルレートミラー134、第1のハーフレートミラー135、第2のハーフレートミラー136及び結像レンズ137からなる縮小光学系を介して、CCD等からなる画像読取素子138上に走査露光して、この画像読取素子138によって原稿30の色材反射光像を所定のドット密度(例えば、16ドット/mm)で読み取るように構成されている。
Next, each configuration of the image forming apparatus 10 will be described in detail.
As shown in FIG. 1, the image reading unit 12 includes a platen glass 124 on which a document 30 is placed, a platen cover 122 that presses the document 30 onto the platen glass 124, and a document 30 placed on the platen glass 124. And an image reading unit 130 for reading an image. The image reading unit 130 illuminates the original 30 placed on the platen glass 124 with a light source 132, and displays a reflected light image from the original 30 as a full rate mirror 134, a first half rate mirror 135, and a second half half. Scanning exposure is performed on an image reading element 138 made of a CCD or the like through a reduction optical system including a rate mirror 136 and an imaging lens 137, and the color material reflected light image of the document 30 is transferred to predetermined dots by the image reading element 138. It is configured to read at a density (for example, 16 dots / mm).

画像処理装置20は、画像読取ユニット12により読み取られた画像データ、又は、ネットワーク回線を介して入力された画像データに対して、色変換等の所定の画像処理を施す。なお、画像読取ユニット12により読み取られた原稿30の色材反射光像は、例えば、赤(R)、緑(G)、青(B)の3色の原稿反射率データであり、画像処理装置20による画像処理によって、イエロー(Y)、マゼンタ(M)、シアン(C)、黒(K)の4色の原稿色材階調データに変換される。   The image processing device 20 performs predetermined image processing such as color conversion on image data read by the image reading unit 12 or image data input via a network line. The color material reflected light image of the document 30 read by the image reading unit 12 is, for example, document reflectance data of three colors of red (R), green (G), and blue (B). By the image processing by 20, the original color material gradation data of four colors of yellow (Y), magenta (M), cyan (C), and black (K) is converted.

像形成制御装置21は、画像処理装置20から入力された画像データ(YMCK)に応じて、パルス信号を発生させ、光走査装置140に対して出力する。より具体的には、像形成制御装置21は、画像データに基づいて、後述する第1の光走査装置140K、第2の光走査装置140Y、第3の光走査装置140M及び第4の光走査装置140Cに対して、パルス信号を出力し、画像を形成する。   The image formation control device 21 generates a pulse signal according to the image data (YMCK) input from the image processing device 20 and outputs the pulse signal to the optical scanning device 140. More specifically, the image formation control device 21 performs a first optical scanning device 140K, a second optical scanning device 140Y, a third optical scanning device 140M, and a fourth optical scanning, which will be described later, based on the image data. A pulse signal is output to the device 140C to form an image.

第1の画像形成ユニット14K、第2の画像形成ユニット14Y、第3の画像形成ユニット14M及び第4の画像形成ユニット14Cは、水平方向に一定の間隔をおいて並列的に配置され、形成する画像の色が異なる他は、ほぼ同様に構成されている。そこで、以下、第1の画像形成ユニット14Kについて説明する。なお、各画像形成ユニット14の構成は、K、Y、M又はCを付すことにより区別する。
画像形成ユニット14Kは、画像処理装置20から入力された画像データに応じてレーザ光を走査する光走査装置140Kと、この光走査装置140Kにより走査されたレーザ光により静電潜像が形成される像形成装置150Kとを有する。
The first image forming unit 14K, the second image forming unit 14Y, the third image forming unit 14M, and the fourth image forming unit 14C are arranged and formed in parallel at a certain interval in the horizontal direction. The configuration is almost the same except that the color of the image is different. Accordingly, the first image forming unit 14K will be described below. The configuration of each image forming unit 14 is distinguished by adding K, Y, M, or C.
The image forming unit 14K forms an electrostatic latent image by an optical scanning device 140K that scans a laser beam in accordance with image data input from the image processing device 20, and a laser beam scanned by the optical scanning device 140K. And an image forming apparatus 150K.

光走査装置140Kは、半導体レーザ142Kを黒色(K)の画像データに応じて変調して、この半導体レーザ142Kからレーザ光LB(K)を画像データに応じて出射する。この半導体レーザ142Kから出射されたレーザ光LB(K)は、第1の反射ミラー143K及び第2の反射ミラー144Kを介して回転多面鏡146Kに照射され、この回転多面鏡146Kよって偏向走査され、第2の反射ミラー144K、第3の反射ミラー148K及び第4の反射ミラー149Kを介して、像形成装置150Kの感光体ドラム152K上に照射される。   The optical scanning device 140K modulates the semiconductor laser 142K according to the black (K) image data, and emits the laser light LB (K) from the semiconductor laser 142K according to the image data. The laser beam LB (K) emitted from the semiconductor laser 142K is applied to the rotary polygon mirror 146K via the first reflection mirror 143K and the second reflection mirror 144K, and is deflected and scanned by the rotation polygon mirror 146K. The light is irradiated onto the photosensitive drum 152K of the image forming apparatus 150K through the second reflecting mirror 144K, the third reflecting mirror 148K, and the fourth reflecting mirror 149K.

像形成装置150Kは、矢印Aの方向に沿って所定の回転速度で回転する像担持体としての感光体ドラム152Kと、この感光体ドラム152Kの表面を一様に帯電する帯電手段としての一次帯電用のスコロトロン154Kと、感光体ドラム154K上に形成された静電潜像を現像する現像器156Kと、クリーニング装置158Kとから構成されている。感光体ドラム152Kは、スコロトロン154Kにより一様に帯電され、光走査装置140Kにより照射されたレーザ光LB(K)により静電潜像を形成される。感光体ドラム152Kに形成された静電潜像は、現像器156Kにより黒色(K)のトナーで現像され、中間転写ベルト16に転写される。なお、トナー像の転写工程の後に感光体ドラム152Kに付着している残留トナー及び紙粉等は、クリーニング装置158Kによって除去される。
他の画像形成ユニット14Y、14M及び14Cも、上記と同様に、イエロー(Y)、マゼンタ(M)、シアン(C)の各色のトナー像を形成し、形成された各色のトナー像を中間転写ベルト16に転写する。
The image forming apparatus 150K includes a photosensitive drum 152K as an image carrier that rotates at a predetermined rotational speed in the direction of arrow A, and primary charging as a charging unit that uniformly charges the surface of the photosensitive drum 152K. And a developing device 156K for developing the electrostatic latent image formed on the photosensitive drum 154K, and a cleaning device 158K. The photosensitive drum 152K is uniformly charged by the scorotron 154K, and an electrostatic latent image is formed by the laser beam LB (K) irradiated by the optical scanning device 140K. The electrostatic latent image formed on the photosensitive drum 152K is developed with black (K) toner by the developing device 156K and transferred to the intermediate transfer belt 16. Residual toner, paper dust, and the like adhering to the photosensitive drum 152K after the toner image transfer process are removed by the cleaning device 158K.
The other image forming units 14Y, 14M, and 14C also form yellow (Y), magenta (M), and cyan (C) toner images in the same manner as described above, and intermediately transfer the formed toner images of the respective colors. Transfer to belt 16.

中間転写ベルト16は、ドライブロール164と、第1のアイドルロール165と、ステアリングロール166と、第2のアイドルロール167と、バックアップロール168と、第3のアイドルロール169との間に一定のテンションで掛け回されており、駆動モータ(不図示)によってドライブロール164が回転駆動されることにより、矢印Aの方向に所定の速度で循環駆動される。この中間転写ベルト16は、例えば、可撓性を有するポリイミド等の合成樹脂フィルムを帯状に形成し、この帯状に形成された合成樹脂フィルムの両端を溶着等によって接続することにより無端ベルト状に形成されたものである。   The intermediate transfer belt 16 has a constant tension between the drive roll 164, the first idle roll 165, the steering roll 166, the second idle roll 167, the backup roll 168, and the third idle roll 169. The drive roll 164 is rotationally driven by a drive motor (not shown), and is circulated at a predetermined speed in the direction of arrow A. The intermediate transfer belt 16 is formed into an endless belt shape by, for example, forming a flexible synthetic resin film such as polyimide in a band shape and connecting both ends of the synthetic resin film formed in the band shape by welding or the like. It has been done.

また、中間転写ベルト16には、各画像形成ユニット14K、14Y、14M、14Cに対向する位置にそれぞれ第1の一次転写ロール162K、第2の一次転写ロール162Y、第3の一次転写ロール162M及び第4の一次転写ロール162Cが配設され、感光体ドラム152K、152Y、152M、152C上に形成された各色のトナー像は、これらの一次転写ロール162により中間転写ベルト16上に多重に転写される。なお、中間転写ベルト16に付着した残留トナーは、二次転写位置の下流に設けられたベルト用クリーニング装置189のクリーニングブレード又はブラシにより除去される。   Further, the intermediate transfer belt 16 includes a first primary transfer roll 162K, a second primary transfer roll 162Y, a third primary transfer roll 162M, and a position facing the image forming units 14K, 14Y, 14M, and 14C, respectively. A fourth primary transfer roll 162C is provided, and the toner images of the respective colors formed on the photosensitive drums 152K, 152Y, 152M, and 152C are transferred onto the intermediate transfer belt 16 in a multiple manner by these primary transfer rolls 162. The The residual toner adhering to the intermediate transfer belt 16 is removed by a cleaning blade or brush of a belt cleaning device 189 provided downstream of the secondary transfer position.

用紙搬送路18には、用紙トレイ17から記録用紙32を取り出す給紙ローラ180と、用紙搬送用の第1のローラ対181、第2のローラ対182及び第3のローラ対183と、記録用紙32を既定のタイミングで二次転写位置に搬送するレジストロール184とが配設される。
また、用紙搬送路18上の二次転写位置には、バックアップロール168に圧接する二次転写ロール185が配設されており、中間転写ベルト16上に多重に転写された各色のトナー像は、この二次転写ロール185による圧接力及び静電気力で記録用紙32上に二次転写される。各色のトナー像が転写された記録用紙32は、第1の搬送ベルト186及び第2の搬送ベルト187によって定着器19へと搬送される。
定着器19は、上記各色のトナー像が転写された記録用紙32に対して加熱処理及び加圧処理を施すことにより、トナーを記録用紙32に溶融固着させる。
In the paper transport path 18, a paper feed roller 180 for taking out the recording paper 32 from the paper tray 17, a first roller pair 181, a second roller pair 182 and a third roller pair 183 for paper transport, and a recording paper A registration roll 184 is provided that conveys 32 to the secondary transfer position at a predetermined timing.
In addition, a secondary transfer roll 185 that is in pressure contact with the backup roll 168 is disposed at the secondary transfer position on the paper transport path 18, and each color toner image transferred onto the intermediate transfer belt 16 is Secondary transfer is performed on the recording paper 32 by the pressing force and electrostatic force of the secondary transfer roll 185. The recording paper 32 onto which the toner image of each color is transferred is conveyed to the fixing device 19 by the first conveyance belt 186 and the second conveyance belt 187.
The fixing device 19 melts and fixes the toner to the recording paper 32 by performing heat treatment and pressure treatment on the recording paper 32 to which the toner images of the respective colors are transferred.

用紙搬送路18には、画像検知センサ22が設けられている。画像検知センサ22は、用紙搬送路18を搬送されていく記録用紙32から画像を読み取り、この画像の特徴量を計測する。画像検知センサ22により計測される特徴量は、例えば、各色の濃度、彩度、色相、色分布などの色データである。画像検知センサ22は、読み取られた画像(読取画像)に関するデータを画像処理装置20に対して出力する。   An image detection sensor 22 is provided in the paper transport path 18. The image detection sensor 22 reads an image from the recording paper 32 conveyed along the paper conveyance path 18 and measures the feature amount of the image. The feature quantity measured by the image detection sensor 22 is color data such as the density, saturation, hue, and color distribution of each color, for example. The image detection sensor 22 outputs data relating to the read image (read image) to the image processing device 20.

図2は、画像処理装置20の機能構成を示すブロック図である。
図2に示すように、画像処理装置20は、入力画像受付部200、色空間変換部202、補正部204、データ出力部206、読取画像受付部208、領域検出部210、領域判定部212、補正情報更新部214及び補正情報記憶部220を有し、領域検出部210は、入力画像解析部216及び差異検出部218を有する。
画像処理装置20に含まれる上記各構成は、CPU、メモリ及びプログラムなどによりソフトウェア的に実現されてもよいし、ASICなどによりハードウェア的に実現されてもよい。また、画像処理装置20は、画像形成装置10のみでなく、例えばパーソナルコンピュータなどに含まれてもよい。
FIG. 2 is a block diagram illustrating a functional configuration of the image processing apparatus 20.
As shown in FIG. 2, the image processing apparatus 20 includes an input image receiving unit 200, a color space converting unit 202, a correcting unit 204, a data output unit 206, a read image receiving unit 208, an area detecting unit 210, an area determining unit 212, The correction information update unit 214 and the correction information storage unit 220 are included, and the region detection unit 210 includes an input image analysis unit 216 and a difference detection unit 218.
Each of the above-described components included in the image processing apparatus 20 may be realized by software such as a CPU, a memory, and a program, or may be realized by hardware such as an ASIC. Further, the image processing apparatus 20 may be included not only in the image forming apparatus 10 but also in a personal computer, for example.

画像処理装置20において、入力画像受付部200は、ユーザのパーソナルコンピュータ等から、入力画像を受け付け、色空間変換部202に対して出力する。入力画像データは、例えば、RGB各8bitで表現されており、sRGB空間に属する画像である。
なお、入力画像データが画像処理装置20に記憶されていない場合には、入力画像受付部200は、任意のタイミングでパーソナルコンピュータ等から入力画像を受け付けることができる。
In the image processing apparatus 20, the input image receiving unit 200 receives an input image from a user's personal computer or the like and outputs the input image to the color space conversion unit 202. The input image data is, for example, an image that is represented by 8 bits for each of RGB and belongs to the sRGB space.
When input image data is not stored in the image processing apparatus 20, the input image receiving unit 200 can receive an input image from a personal computer or the like at an arbitrary timing.

色空間変換部202は、所定のプロファイル(色再現特性)を用いて、入力画像(RGB)を測色値であるCIELAB(L*,a*,b*)色空間(又はCIEXYZ)に変換する。また、色空間変換部202は、プロファイルを用いて、変換されたCIELAB色空間の画像データを印刷処理に適した表色系のYMCK色空間の画像データに変換して、補正部204、領域検出部210及び補正情報更新部214に対して出力する。ここで、プロファイルは、画像の色再現特性を示す情報であり、例えば、ICCプロファイルである。なお、色空間変換部202は、予め記憶されているDLUT(色変換テーブル)を用いて、入力されたRGB色空間の画像をYMCK色空間の画像データに変換してもよい。   The color space conversion unit 202 converts the input image (RGB) into a CIELAB (L *, a *, b *) color space (or CIEXYZ) that is a colorimetric value, using a predetermined profile (color reproduction characteristics). . In addition, the color space conversion unit 202 converts the converted CIELAB color space image data into image data in the color system YMCK color space suitable for the printing process by using the profile, and the correction unit 204, area detection Output to the unit 210 and the correction information update unit 214. Here, the profile is information indicating the color reproduction characteristics of the image, and is, for example, an ICC profile. Note that the color space conversion unit 202 may convert the input RGB color space image into YMCK color space image data using a pre-stored DLUT (color conversion table).

補正部204は、入力された画像データを印刷処理に適合した階調に補正し、後述する補正情報記憶部220により記憶されている補正情報に基づいて、入力画像受付部200により受け付けられた入力画像を補正して、データ出力部206に対して出力する。より具体的には、補正部204は、補正情報記憶部220により記憶されている色・濃度等に関する補正情報を参照して、各画素の画素値を変換する。例えば、補正部204は、補正情報を参照して、画像データに対してむら補正処理を行う。   The correction unit 204 corrects the input image data to a gradation suitable for the printing process, and the input received by the input image reception unit 200 based on correction information stored in a correction information storage unit 220 described later. The image is corrected and output to the data output unit 206. More specifically, the correction unit 204 converts the pixel value of each pixel with reference to correction information related to color, density, and the like stored in the correction information storage unit 220. For example, the correction unit 204 refers to the correction information and performs uneven correction processing on the image data.

データ出力部206は、補正部204から入力されたYMCK色空間の画像データを、像形成制御装置21に対して出力する。画像データの画素値が補正部204により変換されるので、像形成制御装置21は、むら補正に適するように感光体ドラム152への露光光量を制御する。また、データ出力部206は、画像データ蓄積のためのメモリに対して、入力された画像データ及び補正された画像データを出力してもよい。   The data output unit 206 outputs the image data in the YMCK color space input from the correction unit 204 to the image formation control device 21. Since the pixel value of the image data is converted by the correction unit 204, the image formation control device 21 controls the exposure light amount to the photosensitive drum 152 so as to be suitable for unevenness correction. The data output unit 206 may output the input image data and the corrected image data to a memory for storing image data.

領域検出部210は、色空間変換部202から入力された入力画像と、後述する読取画像受付部208から入力された読取画像とに基づいて、補正情報を検出するのに適した画像領域(補正領域)を検出する。ここで、読取画像は、画像検知センサ22、画像読取ユニット12又は外部のスキャナにより読み取られた画像である。   The area detection unit 210 is an image area suitable for detecting correction information (correction) based on an input image input from the color space conversion unit 202 and a read image input from a read image reception unit 208 described later. Area). Here, the read image is an image read by the image detection sensor 22, the image reading unit 12, or an external scanner.

より具体的には、領域検出部210において、入力画像解析部216は、入力画像を解析して、入力画像内のデータ均一な画像部分(画像的に滑らかな部分)を特定する。入力画像解析部216は、入力画像を解析し、入力画像とこの入力画像から高周波成分を除いた低周波画像との差分画像を生成して、入力画像内のデータ均一な画像部分を特定する。さらに、入力画像解析部216は、しきい値を設定し、当該画像部分がこのしきい値より大きいか否かを判断し、当該画像部分のうち、所定の範囲以上である画像部分を補正候補領域とする。   More specifically, in the region detection unit 210, the input image analysis unit 216 analyzes the input image and specifies an image portion with uniform data (image-smooth portion) in the input image. The input image analysis unit 216 analyzes the input image, generates a difference image between the input image and a low frequency image obtained by removing a high frequency component from the input image, and specifies a uniform image portion of the data in the input image. Further, the input image analysis unit 216 sets a threshold value, determines whether or not the image portion is larger than the threshold value, and selects an image portion that is equal to or larger than a predetermined range among the image portions as a correction candidate. This is an area.

なお、入力画像解析部216は、時間領域において入力画像を解析し、注目画素の周辺領域において画素値の分散値を求めて、入力画像内のデータ均一な画像部分を特定してもよい。例えば、入力画像解析部216は、注目画素を含む3×3画素のマトリクスを用いて分散値を算出し、算出された分散値と所定のしきい値とを比較して、データ均一な画像部分であるか否かを判定する。   Note that the input image analysis unit 216 may analyze the input image in the time domain, obtain a variance value of pixel values in the peripheral area of the pixel of interest, and specify an image portion with uniform data in the input image. For example, the input image analysis unit 216 calculates a variance value using a 3 × 3 pixel matrix including the target pixel, compares the calculated variance value with a predetermined threshold value, and obtains an image portion with uniform data. It is determined whether or not.

差異検出部218は、補正候補領域に含まれる画素について、入力画像と読取画像との差異を検出し、差異が大きい領域を補正領域とする。
領域検出部210は、差異検出部218により検出された補正領域を、領域判定部212に対して出力する。
The difference detection unit 218 detects a difference between the input image and the read image with respect to the pixels included in the correction candidate area, and sets an area having a large difference as a correction area.
The area detection unit 210 outputs the correction area detected by the difference detection unit 218 to the area determination unit 212.

補正情報は、補正処理、特にむら補正処理のために、均一な色の領域から抽出されることが望ましい。また、抽出された領域内の画像が均一である場合においても、当該領域に近接する画像が、当該領域の色や濃度に影響を及ぼす場合がある。
領域判定部212は、領域検出部210により検出された補正領域を、当該領域と当該領域の周辺領域とに基づいて判定し、判定結果を補正情報更新部214に対して出力する。なお、領域判定部212による判定処理については、後で詳述する。
The correction information is desirably extracted from a uniform color area for correction processing, particularly unevenness correction processing. Even when the image in the extracted area is uniform, an image close to the area may affect the color and density of the area.
The region determination unit 212 determines the correction region detected by the region detection unit 210 based on the region and the peripheral region of the region, and outputs the determination result to the correction information update unit 214. The determination process by the area determination unit 212 will be described in detail later.

読取画像受付部208は、画像検知センサ22、画像読取ユニット12又は外部のスキャナから入力される読取画像データを受け付けて、領域検出部210及び補正情報更新部214に対して出力する。読取画像受付部208は、読取画像データをYMCK色空間のデータとして出力する。例えば、読取画像受付部208は、CIELAB色空間又はCIEXYZ色空間のようなデバイスに依存しない色空間で表現されている読取画像を受け付けた場合には、YMCK色空間のデータに変換して出力する。なお、読取画像受付部208は、YMCK色空間に限らず、他の色空間のデータに変換して出力してもよい。   The read image reception unit 208 receives read image data input from the image detection sensor 22, the image reading unit 12, or an external scanner, and outputs the read image data to the region detection unit 210 and the correction information update unit 214. The read image receiving unit 208 outputs the read image data as data in the YMCK color space. For example, when the read image reception unit 208 receives a read image expressed in a device-independent color space such as the CIELAB color space or the CIEXYZ color space, the read image reception unit 208 converts the data into YMCK color space data and outputs the converted data. . Note that the read image receiving unit 208 is not limited to the YMCK color space, and may be converted into data of another color space and output.

補正情報更新部214は、領域判定部212により判定された領域であって入力画像及び読取画像に含まれる画像部分に基づいて、補正情報記憶部220により記憶されている補正情報を更新する。より具体的には、補正情報更新部214は、補正情報取得領域において、色空間変換部202から入力された入力画像(YMCKデータ)と、読取画像受付部208から入力された読取画像(YMCKデータ)とに基づいて、色及び濃度のずれを検出し、当該画像部分における補正情報として補正情報記憶部220に格納する。格納された補正情報は、次回以降の画像処理において、補正部204により用いられる。   The correction information update unit 214 updates the correction information stored in the correction information storage unit 220 based on the image portion included in the input image and the read image that is the region determined by the region determination unit 212. More specifically, in the correction information acquisition area, the correction information update unit 214 inputs the input image (YMCK data) input from the color space conversion unit 202 and the read image (YMCK data) input from the read image reception unit 208. ) Is detected and stored in the correction information storage unit 220 as correction information for the image portion. The stored correction information is used by the correction unit 204 in subsequent image processing.

補正情報記憶部220は、補正情報更新部214により取得及び格納された補正情報を記憶する。特に、補正情報記憶部220は、画像のむら情報を記憶する。補正情報記憶部220は、HDD等の記録装置(不図示)、又はメモリにより実現される。記憶されている補正情報は、補正部204による補正処理に用いられる。   The correction information storage unit 220 stores the correction information acquired and stored by the correction information update unit 214. In particular, the correction information storage unit 220 stores image unevenness information. The correction information storage unit 220 is realized by a recording device (not shown) such as an HDD, or a memory. The stored correction information is used for correction processing by the correction unit 204.

図3は、領域判定部212による判定処理を説明する図である。
図3(A)は、入力画像の構造に基づいて読取画像に発生したディフェクトを例示し、特に、実線で囲まれた部分は、キャリアとトナーを用いる2成分現像方式において、現像器の現像ロールと感光体の周速差によって発生する白地上のパッチ(本来は同一濃度)の後端の濃度が薄くなるディフェクトである。この濃度低下は、どのような画像でも発生するわけではない。図3(B)に例示するように、実線で囲まれた部分に、濃度低下が発生しない場合もある。
FIG. 3 is a diagram for explaining determination processing by the region determination unit 212.
FIG. 3A illustrates a defect generated in the read image based on the structure of the input image. In particular, a portion surrounded by a solid line is a developing roll of a developing device in a two-component developing system using a carrier and toner. This is a defect in which the density at the rear end of the patch on the white ground (originally the same density) generated by the difference in peripheral speed between the photosensitive member and the photosensitive member is reduced. This decrease in density does not occur in any image. As illustrated in FIG. 3B, there is a case where the density does not decrease in the portion surrounded by the solid line.

このため、補正情報更新部214が、図3(A)の読取画像に基づいて、パッチ後端領域の濃度むらを検出して補正情報を更新すると、図3(B)の画像が入力された場合に、画像処理装置20は、更新された補正情報を用いて、むらを発生させるように補正処理を行ってしまう。   Therefore, when the correction information update unit 214 detects density unevenness in the patch rear end region based on the read image of FIG. 3A and updates the correction information, the image of FIG. 3B is input. In this case, the image processing apparatus 20 performs correction processing so as to generate unevenness using the updated correction information.

したがって、領域判定部212は、領域検出部210により検出された領域と当該領域の周辺領域とを含む画像部分のうちの少なくとも一部を補正情報取得領域として、補正情報更新部214に対して出力する。本例においては、領域判定部212は、領域検出部210により検出された領域のうち、ディフェクトが発生している画像部分(実線で囲まれた部分)を補正情報取得領域から削除して、領域検出部210により検出された領域と当該領域の周辺領域とを含む画像部分のうち、読取画像において画素値が略均一である画像部分を補正情報取得領域とする。   Therefore, the region determination unit 212 outputs at least a part of the image portion including the region detected by the region detection unit 210 and the peripheral region of the region to the correction information update unit 214 as a correction information acquisition region. To do. In this example, the area determination unit 212 deletes an image part (a part surrounded by a solid line) in which a defect has occurred from the area detected by the area detection unit 210 from the correction information acquisition area. Of the image portion including the region detected by the detection unit 210 and the peripheral region of the region, an image portion having substantially uniform pixel values in the read image is set as a correction information acquisition region.

領域判定部212は、「白地上のパッチの後端の濃度が薄くなる」という判定基準を予め記憶しており、この判定基準を用いて、領域検出部210により検出された領域を判定する。なお、領域判定部212は、複数の判定基準を記憶しており、これらの判定基準は、任意の契機で更新されてもよい。   The region determination unit 212 stores in advance a determination criterion that “the density of the rear end of the patch on the white ground becomes light”, and determines the region detected by the region detection unit 210 using this determination criterion. Note that the region determination unit 212 stores a plurality of determination criteria, and these determination criteria may be updated at an arbitrary timing.

図4は、中間調の画像領域に含まれるパッチと、この画像構造に起因するディフェクトを例示する図である。
図4(A)に例示するように、中間調の画像領域に、より高い濃度のパッチが含まれる場合には、パッチ後端に隣接する中間調領域において、ディフェクトが発生する場合がある。このディフェクトは、入力画像の構造に基づくディフェクトであって、パッチ後端に隣接する中間調領域の濃度が低下する現象に関係する。領域判定部212は、当該画像構造に基づくディフェクトが発生している画像部分を補正情報取得領域から削除する旨を記憶している。
FIG. 4 is a diagram illustrating patches included in a halftone image region and defects caused by the image structure.
As illustrated in FIG. 4A, when a patch having a higher density is included in the halftone image area, a defect may occur in the halftone area adjacent to the rear end of the patch. This defect is a defect based on the structure of the input image and relates to a phenomenon in which the density of the halftone area adjacent to the rear end of the patch is lowered. The area determination unit 212 stores information indicating that an image part in which a defect based on the image structure has occurred is deleted from the correction information acquisition area.

図4(B)は、ディフェクトが高い濃度のパッチの周囲の中間調領域の濃度が低下する転写に起因する場合を例示する。このような濃度低下は、当該画像構造の下で発生することが多い。このため、領域判定部212は、当該画像構造に基づくディフェクトが発生している画像部分を補正情報取得領域から削除する旨もまた記憶している。   FIG. 4B illustrates a case where the defect is caused by the transfer in which the density of the halftone area around the high density patch is lowered. Such a decrease in density often occurs under the image structure. For this reason, the area determination unit 212 also stores information indicating that an image part in which a defect based on the image structure has occurred is deleted from the correction information acquisition area.

また、図4(A)及び図4(B)に例示するディフェクトは、画像構造に基づくので、図4(C)のような画像構造においては発生しない。図4(C)に示される画像データにおいては、領域判定部212は、中間調の画像領域全体を補正情報取得領域とするので、補正情報更新部214は、中間調の画像領域全体から補正情報を検出する。   Further, the defects illustrated in FIGS. 4A and 4B are based on the image structure, and thus do not occur in the image structure as shown in FIG. In the image data shown in FIG. 4C, since the area determination unit 212 uses the entire halftone image area as the correction information acquisition area, the correction information update unit 214 performs correction information from the entire halftone image area. Is detected.

図5は、領域判定部212による他の判定処理を説明する図である。
図5(A)に示すように、ディフェクトは、白地上のパッチの後端に発生する場合がある。この領域がパッチとして認識されると、図5(B)に示すように、当該領域における濃度低下が画像全体の濃度低下であると認識されて、濃度を高くする補正情報が取得されてしまう。このため、領域判定部212は、このような画像構造においてはパッチの後端部分をパッチとして認識しない判定基準を有する。
このように、領域判定部212は、予め記憶している判定基準に従って、画像構造に基づくディフェクトを、補正情報取得領域から削除する。
FIG. 5 is a diagram illustrating another determination process performed by the region determination unit 212.
As shown in FIG. 5A, the defect may occur at the rear end of the white ground patch. When this area is recognized as a patch, as shown in FIG. 5B, the density reduction in the area is recognized as the density reduction of the entire image, and correction information for increasing the density is acquired. For this reason, the area determination unit 212 has a determination criterion that does not recognize the rear end portion of the patch as a patch in such an image structure.
As described above, the region determination unit 212 deletes the defect based on the image structure from the correction information acquisition region according to the determination criterion stored in advance.

図6は、画像形成装置10を中心とした画像処理システムの動作(S10)を示すフローチャートである。
図6に示すように、ステップ100(S100)において、ユーザは、パーソナルコンピュータ等を介して印刷要求を行う。入力画像受付部200は、入力画像データが入力されると、この入力画像データをネットワークを介して取得し、受け付けられた画像データ(例えばRGB各8ビット)を、色空間変換部202に対して出力する。
FIG. 6 is a flowchart showing the operation (S10) of the image processing system centered on the image forming apparatus 10.
As shown in FIG. 6, in step 100 (S100), the user makes a print request via a personal computer or the like. When input image data is input, the input image receiving unit 200 acquires the input image data via a network, and receives the received image data (for example, 8 bits for each of RGB) to the color space conversion unit 202. Output.

ステップ102(S102)において、色空間変換部202は、プロファイルを用いて、RGB色空間の入力画像データをCIELAB色空間に色変換し、所定の画像処理を施し、次に、異なるプロファイルを用いて、変換されたCIELAB色空間のデータを出力デバイスに依存するYMCK色空間の画像データに色変換する。色空間変換部202は、色変換テーブルを用いて、RGB色空間の入力画像データをYMCK色空間の画像データに色変換してもよい。色空間変換部202は、色空間を変換された画像データを、補正部204、領域検出部210及び補正情報更新部214に対して出力する。   In step 102 (S102), the color space conversion unit 202 uses the profile to color-convert input image data in the RGB color space into the CIELAB color space, performs predetermined image processing, and then uses a different profile. The converted CIELAB color space data is color-converted into YMCK color space image data depending on the output device. The color space conversion unit 202 may color-convert input image data in the RGB color space into image data in the YMCK color space using a color conversion table. The color space conversion unit 202 outputs the image data whose color space has been converted to the correction unit 204, the region detection unit 210, and the correction information update unit 214.

ステップ104(S104)において、補正部204は、補正情報記憶部220により記憶されている色及び濃度に関する補正情報を参照して、補正対象位置について、補正対象である色信号が存在する場合には、当該位置の各画素の画素値を変換する。
ステップ106(S106)において、データ出力部206は、補正部204から入力された画像データを、像形成制御装置21に対して出力する。像形成制御装置21は、この画像データに基づいて、画像形成ユニット14を制御する。このため、感光体ドラム152への露光光量が制御されて、補正処理がなされた画像が記録用紙32上に形成される。
In step 104 (S104), the correction unit 204 refers to the correction information relating to the color and density stored in the correction information storage unit 220, and if there is a color signal that is the correction target for the correction target position. The pixel value of each pixel at the position is converted.
In step 106 (S106), the data output unit 206 outputs the image data input from the correction unit 204 to the image formation control device 21. The image forming control device 21 controls the image forming unit 14 based on the image data. For this reason, the amount of exposure light to the photosensitive drum 152 is controlled, and an image subjected to correction processing is formed on the recording paper 32.

ステップ108(S108)において、画像検知センサ22は、用紙搬送路18を搬送されていく記録用紙32から画像を読み取り、この読取画像データを画像処理装置20に対して出力する。画像処理装置20において、読取画像受付部208は、画像検知センサ22から入力される読取画像データを受け付けて、領域検出部210及び補正情報更新部214に対して出力する。   In step 108 (S 108), the image detection sensor 22 reads an image from the recording paper 32 that is transported through the paper transport path 18 and outputs the read image data to the image processing device 20. In the image processing apparatus 20, the read image receiving unit 208 receives read image data input from the image detection sensor 22 and outputs the read image data to the region detection unit 210 and the correction information update unit 214.

ステップ110(S110)において、領域検出部210の入力画像解析部216は、色空間変換部202から入力された入力画像を解析して、入力画像内のデータ均一な画像部分を特定し、当該画像部分のうち所定の範囲以上の画像部分を検出する。
ステップ112(S112)において、差異検出部218は、入力画像解析部216により検出された領域において、入力画像と、読取画像受付部208から入力された読取画像との差異を検出し、差異が大きい領域を、補正情報を取得する領域とする。
In step 110 (S110), the input image analysis unit 216 of the region detection unit 210 analyzes the input image input from the color space conversion unit 202, identifies an image portion with uniform data in the input image, and outputs the image. An image portion within a predetermined range is detected from the portion.
In step 112 (S112), the difference detection unit 218 detects a difference between the input image and the read image input from the read image reception unit 208 in the area detected by the input image analysis unit 216, and the difference is large. The region is a region from which correction information is acquired.

ステップ114(S114)において、領域判定部212は、領域検出部210により検出された補正領域と当該領域の周辺領域とを、所定の判定基準に基づいて判定する。例えば、領域判定部212は、判定基準に含まれる画像構造に起因するディフェクトを含む画像部分を、補正情報取得領域から削除する。領域判定部212は、補正情報取得領域として判定された領域を補正情報更新部214に対して出力する。
ステップ116(S116)において、補正情報更新部214は、補正情報取得領域において、入力画像と読取画像とに基づいて、色及び濃度のずれを検出し、当該画像部分における補正情報として補正情報記憶部220に格納する。
In step 114 (S114), the region determination unit 212 determines the correction region detected by the region detection unit 210 and the peripheral region of the region based on a predetermined determination criterion. For example, the region determination unit 212 deletes an image portion including a defect caused by the image structure included in the determination criterion from the correction information acquisition region. The area determination unit 212 outputs the area determined as the correction information acquisition area to the correction information update unit 214.
In step 116 (S116), the correction information update unit 214 detects a color and density shift based on the input image and the read image in the correction information acquisition region, and the correction information storage unit as correction information in the image portion. 220.

以上説明したように、本発明に係る画像処理システムは、画像の補正情報を記憶し、入力画像を受け付け、補正情報に基づいて入力画像を補正し、入力画像と読取画像とに基づいて補正情報を取得する領域を検出し、当該領域と当該領域の周辺領域とに基づいて当該領域を判定し、判定された領域であって入力画像及び読取画像に含まれる画像部分に基づいて補正情報を更新するので、用紙の無駄を削減した上で、補正処理に用いられるデータを適切に抽出することができ、画像形成装置10のダウンタイムを削減することができる。   As described above, the image processing system according to the present invention stores image correction information, receives an input image, corrects the input image based on the correction information, and corrects the correction information based on the input image and the read image. The region for acquiring the image is detected, the region is determined based on the region and the peripheral region of the region, and the correction information is updated based on the determined region and the image portion included in the input image and the read image Therefore, it is possible to appropriately extract data used for the correction process while reducing paper waste, and to reduce downtime of the image forming apparatus 10.

また、本発明に係る画像処理システムは、検出された画像部分のうち、入力画像の構造に基づくディフェクトが発生している画像部分を補正情報取得領域から削除するので、不適切な補正情報が取得されることを防ぐことができる。
なお、本実施形態では、補正情報は、画像処理装置20において色や濃度を補正するために用いられているが、像形成制御装置21において感光体ドラム152への露光光量を制御するために用いられてもよい。
Further, the image processing system according to the present invention deletes an image portion in which a defect based on the structure of the input image has occurred from the detected image portion, so that inappropriate correction information is acquired. Can be prevented.
In the present embodiment, the correction information is used for correcting the color and density in the image processing apparatus 20, but is used for controlling the amount of exposure light to the photosensitive drum 152 in the image forming control apparatus 21. May be.

本発明に係る画像処理システムをタンデム型の画像形成装置10を中心として示す図である。1 is a diagram showing an image processing system according to the present invention centering on a tandem type image forming apparatus 10. FIG. 画像処理装置20の機能構成を示すブロック図である。3 is a block diagram illustrating a functional configuration of the image processing apparatus 20. FIG. 領域判定部212による判定処理を説明する図である。It is a figure explaining the determination process by the area | region determination part. 中間調の画像領域に含まれるパッチと、この画像構造に起因するディフェクトを例示する図である。It is a figure which illustrates the defect contained in the patch contained in the image area of a halftone, and this image structure. 領域判定部212による他の判定処理を説明する図である。It is a figure explaining the other determination processing by the area | region determination part 212. FIG. 画像形成装置10を中心とした画像処理システムの動作(S10)を示すフローチャートである。4 is a flowchart showing an operation (S10) of the image processing system centered on the image forming apparatus 10.

符号の説明Explanation of symbols

10 画像形成装置
12 画像読取ユニット
14 画像形成ユニット
18 用紙搬送路
20 画像処理装置
21 像形成制御装置
22 画像検知センサ
23 UI装置
32 記録用紙
200 入力画像受付部
202 色空間変換部
204 補正部
206 データ出力部
208 読取画像受付部
210 領域検出部
212 領域判定部
214 補正情報更新部
216 入力画像解析部
218 差異検出部
220 補正情報記憶部
DESCRIPTION OF SYMBOLS 10 Image forming apparatus 12 Image reading unit 14 Image forming unit 18 Paper conveyance path 20 Image processing apparatus 21 Image formation control apparatus 22 Image detection sensor 23 UI apparatus 32 Recording paper 200 Input image reception part 202 Color space conversion part 204 Correction part 206 Data Output unit 208 Read image reception unit 210 Region detection unit 212 Region determination unit 214 Correction information update unit 216 Input image analysis unit 218 Difference detection unit 220 Correction information storage unit

Claims (8)

画像の補正情報を記憶する補正情報記憶手段と、
入力画像を受け付ける画像受付手段と、
前記補正情報記憶手段により記憶されている補正情報に基づいて、前記画像受付手段により受け付けられた入力画像を補正する補正手段と、
前記画像受付手段により受け付けられた入力画像と、読み取られた読取画像とに基づいて、補正情報を取得する領域を検出する領域検出手段と、
前記領域検出手段により検出された領域を、当該領域と当該領域の周辺領域とに基づいて判定する領域判定手段と、
前記領域判定手段により判定された領域であって入力画像及び読取画像に含まれる画像部分に基づいて、前記補正情報記憶手段により記憶されている補正情報を更新する補正情報更新手段と
を有する画像処理システム。
Correction information storage means for storing image correction information;
Image receiving means for receiving an input image;
Correcting means for correcting the input image received by the image receiving means based on the correction information stored by the correction information storage means;
Area detecting means for detecting an area for acquiring correction information based on the input image received by the image receiving means and the read read image;
Area determination means for determining the area detected by the area detection means based on the area and the surrounding area of the area;
Correction information updating means for updating correction information stored in the correction information storage means on the basis of an image portion included in the input image and the read image that is an area determined by the area determination means. system.
前記補正情報記憶手段は、画像のむら情報を記憶する
請求項1に記載の画像処理システム。
The image processing system according to claim 1, wherein the correction information storage unit stores unevenness information of an image.
前記領域判定手段は、前記領域検出手段により検出された領域と当該領域の周辺領域とを含む画像部分のうちの少なくとも一部を補正情報取得領域とする
請求項1又は2に記載の画像処理システム。
The image processing system according to claim 1, wherein the area determination unit sets at least a part of an image portion including the area detected by the area detection unit and a peripheral area of the area as a correction information acquisition area. .
前記領域判定手段は、前記領域検出手段により検出された領域と当該領域の周辺領域とを含む画像部分のうち、読取画像において画素値が略均一である画像部分を補正情報取得領域とする
請求項3に記載の画像処理システム。
The region determination unit uses, as a correction information acquisition region, an image portion in which a pixel value is substantially uniform in a read image among image portions including the region detected by the region detection unit and a peripheral region of the region. 4. The image processing system according to 3.
前記領域判定手段は、前記領域検出手段により検出された領域のうち、ディフェクトが発生している画像部分を、補正情報取得領域から削除する
請求項3に記載の画像処理システム。
The image processing system according to claim 3, wherein the region determination unit deletes, from the correction information acquisition region, an image portion where a defect has occurred among the regions detected by the region detection unit.
前記領域判定手段により削除される画像部分において、ディフェクトは、入力画像の構造に基づくディフェクトである
請求項5に記載の画像処理システム。
The image processing system according to claim 5, wherein in the image portion deleted by the region determination unit, the defect is a defect based on a structure of an input image.
画像の補正情報を記憶し、
入力画像を受け付け、
前記記憶されている補正情報に基づいて、前記受け付けられた入力画像を補正し、
前記受け付けられた入力画像と、読み取られた読取画像とに基づいて、補正情報を取得する領域を検出し、
前記検出された領域を、当該領域と当該領域の周辺領域とに基づいて判定し、
前記判定された領域であって入力画像及び読取画像に含まれる画像部分に基づいて、前記記憶されている補正情報を更新する
画像処理方法。
Stores image correction information,
Accept input images,
Correcting the accepted input image based on the stored correction information;
Based on the received input image and the read image that has been read, a region for obtaining correction information is detected,
Determining the detected area based on the area and the surrounding area of the area;
An image processing method for updating the stored correction information based on an image portion included in an input image and a read image in the determined area.
コンピュータを含む画像処理システムにおいて、
画像の補正情報を記憶する補正情報記憶ステップと、
入力画像を受け付ける画像受付ステップと、
前記記憶されている補正情報に基づいて、前記受け付けられた入力画像を補正する補正ステップと、
前記受け付けられた入力画像と、読み取られた読取画像とに基づいて、補正情報を取得する領域を検出する領域検出ステップと、
前記検出された領域を、当該領域と当該領域の周辺領域とに基づいて判定する領域判定ステップと、
前記判定された領域であって入力画像及び読取画像に含まれる画像部分に基づいて、前記記憶されている補正情報を更新する補正情報更新ステップと
を前記画像処理システムのコンピュータに実行させるプログラム。
In an image processing system including a computer,
A correction information storing step for storing image correction information;
An image receiving step for receiving an input image;
A correction step of correcting the received input image based on the stored correction information;
An area detecting step for detecting an area for acquiring correction information based on the received input image and the read image read;
An area determination step for determining the detected area based on the area and a peripheral area of the area;
A program for causing a computer of the image processing system to execute a correction information update step of updating the stored correction information based on an image portion included in an input image and a read image in the determined area.
JP2005239509A 2005-08-22 2005-08-22 Image processing system, image processing method, and program Expired - Fee Related JP4505858B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005239509A JP4505858B2 (en) 2005-08-22 2005-08-22 Image processing system, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005239509A JP4505858B2 (en) 2005-08-22 2005-08-22 Image processing system, image processing method, and program

Publications (2)

Publication Number Publication Date
JP2007059971A true JP2007059971A (en) 2007-03-08
JP4505858B2 JP4505858B2 (en) 2010-07-21

Family

ID=37923112

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005239509A Expired - Fee Related JP4505858B2 (en) 2005-08-22 2005-08-22 Image processing system, image processing method, and program

Country Status (1)

Country Link
JP (1) JP4505858B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012070360A (en) * 2010-08-26 2012-04-05 Ricoh Co Ltd Control device, image forming device, and control method
US20170026526A1 (en) * 2015-07-23 2017-01-26 Konica Minolta, Inc. Color reproduction analyzing apparatus, image forming apparatus, color reproduction analyzing method, and non-transitory computer readable storage medium stored with program for color reproduction analyzing apparatus
JP2018011131A (en) * 2016-07-11 2018-01-18 コニカミノルタ株式会社 Image processing apparatus, image forming apparatus, image forming system, and image processing program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001310498A (en) * 2000-04-28 2001-11-06 Canon Inc Image recorder and image recording method
JP2003324619A (en) * 2002-05-01 2003-11-14 Canon Inc Image processing equipment and its control method
JP2004112343A (en) * 2002-09-18 2004-04-08 Canon Inc Image processor, its method, and image processing system
JP2005012659A (en) * 2003-06-20 2005-01-13 Fuji Photo Film Co Ltd Apparatus and program for forming gradation correction curve

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001310498A (en) * 2000-04-28 2001-11-06 Canon Inc Image recorder and image recording method
JP2003324619A (en) * 2002-05-01 2003-11-14 Canon Inc Image processing equipment and its control method
JP2004112343A (en) * 2002-09-18 2004-04-08 Canon Inc Image processor, its method, and image processing system
JP2005012659A (en) * 2003-06-20 2005-01-13 Fuji Photo Film Co Ltd Apparatus and program for forming gradation correction curve

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012070360A (en) * 2010-08-26 2012-04-05 Ricoh Co Ltd Control device, image forming device, and control method
US20170026526A1 (en) * 2015-07-23 2017-01-26 Konica Minolta, Inc. Color reproduction analyzing apparatus, image forming apparatus, color reproduction analyzing method, and non-transitory computer readable storage medium stored with program for color reproduction analyzing apparatus
JP2017028538A (en) * 2015-07-23 2017-02-02 コニカミノルタ株式会社 Color reproduction analysis device, image forming apparatus and color reproduction analysis method
US9986105B2 (en) 2015-07-23 2018-05-29 Konica Minolta, Inc. Color reproduction analyzing apparatus, image forming apparatus, color reproduction analyzing method, and non-transitory computer readable storage medium stored with program for color reproduction analyzing apparatus
JP2018011131A (en) * 2016-07-11 2018-01-18 コニカミノルタ株式会社 Image processing apparatus, image forming apparatus, image forming system, and image processing program

Also Published As

Publication number Publication date
JP4505858B2 (en) 2010-07-21

Similar Documents

Publication Publication Date Title
US8027062B2 (en) Image forming apparatus
JP2006094295A (en) Image forming apparatus and method, and program therefor
US8019152B2 (en) Color correction data acquiring system, image processing system, color correction data acquiring method, image processing method, and program
JP2007059975A (en) Image processing system, image processing method and program
US9083923B2 (en) Image forming apparatus configured for printing using color expansion table
JP2006229351A (en) Image forming device and image processing method
JP4505858B2 (en) Image processing system, image processing method, and program
JP5120402B2 (en) Image forming apparatus and image forming method
JP2006093770A (en) Image processor, processing method and program
JP2007036330A (en) Image processing system, image processing method and program
JP5305140B2 (en) Image forming apparatus
JP2007178489A (en) Image forming apparatus, image forming method, image adjusting method and program
JP2007030302A (en) Image forming apparatus, apparatus for forming color conversion parameter, test image forming method and program
JP4609776B2 (en) Image forming apparatus and image forming method
JP3903041B2 (en) Image forming apparatus
JP2007088985A (en) System and method for processing image, and program
JP2007059972A (en) Unit and method for processing image, and program
JP2007174007A (en) Image forming apparatus, image processor, correction factor generating method, and program
JP2007088991A (en) Color reproduction characteristic acquisition system, image processing system, color reproduction characteristic acquisition method, and image processing method and program
JP2006094118A (en) Image processing apparatus, image processing method and program thereof
JP2007036331A (en) Image processing system, image processing method and program
JP5946021B2 (en) Image processing apparatus, image forming apparatus, image processing system, and program
JP2007059968A (en) Unit and method for processing image, image reader, and program
JP2007059974A (en) Image processing system, image processing method and program
JP7140550B2 (en) image forming device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080522

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090722

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090915

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100405

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100418

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130514

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Ref document number: 4505858

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140514

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees