JP2010120179A - Image processing apparatus, image processing method and image forming apparatus - Google Patents

Image processing apparatus, image processing method and image forming apparatus Download PDF

Info

Publication number
JP2010120179A
JP2010120179A JP2008293422A JP2008293422A JP2010120179A JP 2010120179 A JP2010120179 A JP 2010120179A JP 2008293422 A JP2008293422 A JP 2008293422A JP 2008293422 A JP2008293422 A JP 2008293422A JP 2010120179 A JP2010120179 A JP 2010120179A
Authority
JP
Japan
Prior art keywords
screen
data
image
image processing
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008293422A
Other languages
Japanese (ja)
Inventor
Koji Yanagisawa
柳沢浩司
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2008293422A priority Critical patent/JP2010120179A/en
Publication of JP2010120179A publication Critical patent/JP2010120179A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To effectively achieve higher operation speed of image processing, and to prevent banding due to screen-processing of image data. <P>SOLUTION: Disclosed is an image processing apparatus including: a band data generating section 33a to divide the image data and generate band data; a screen offset setting section 33c to set coordinates for the band data; a first screen processing section 35d<SB>1</SB>to perform the screen processing of the coordinate-set band data; and a second image processing section 35d<SB>2</SB>to perform the screen processing of the coordinate-set band data, wherein the screen offset setting unit 33c sets the coordinates for use in the screen processing by the first screen processing section 35d<SB>1</SB>or the second screen processing section sets the coordinates for use in the screen processing by the second screen processing section 35d<SB>2</SB>. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、入力された画像データをスクリーン処理する画像処理装置、画像データを画像処理する方法、および整列された発光素子を有する露光ヘッドにより潜像担持体に静電潜像を形成する画像形成装置の技術分野に関する。   The present invention relates to an image processing apparatus that screens input image data, a method for image processing of image data, and image formation in which an electrostatic latent image is formed on a latent image carrier by an exposure head having aligned light emitting elements. It relates to the technical field of equipment.

従来、プリンタ等の画像形成装置として、整列された有機EL素子等の発光素子を有するラインヘッドにより潜像担持体である感光体に静電潜像を形成する画像形成装置が知られている(例えば、特許文献1参照)。この特許文献2に記載の画像形成装置では、画像形成指令に含まれる画像データに対して画像処理コントローラで画像処理を施してビデオデータを形成する。そして、ヘッドコントローラがこのビデオデータに基づいてラインヘッドの発光素子を点灯制御することで、潜像担持体に静電潜像を形成している。   2. Description of the Related Art Conventionally, as an image forming apparatus such as a printer, an image forming apparatus that forms an electrostatic latent image on a photosensitive member that is a latent image carrier using a line head having light emitting elements such as aligned organic EL elements is known ( For example, see Patent Document 1). In the image forming apparatus described in Patent Document 2, image data is included in an image formation command and image processing is performed by an image processing controller to form video data. The head controller controls the lighting of the light emitting elements of the line head based on the video data, thereby forming an electrostatic latent image on the latent image carrier.

また、従来、プリンタ等の画像形成装置として、画像データを印字する際に、画像データに対してハーフトーン等のスクリーン処理を行って画質を向上させた画像形成装置が知られている(例えば、特許文献2参照)。この特許文献1に記載の画像形成装置では、スクリーンパターンの閾値のディザマトリックスを用いて画像データのN値化処理(ハーフトーン処理)を行うことで、高画質の画像の印字を可能としている。具体的には、スクリーンパターンの各閾値と入力画素とを対応付け、その大小を比較して画素値に対応するドットのオン・オフを決定することで、複数種類のサイズのドットを形成可能にしている。
特開2008−137237号公報。 特開2008−153914号公報。
Conventionally, as an image forming apparatus such as a printer, an image forming apparatus in which image data is improved by performing screen processing such as halftone on the image data when printing the image data (for example, Patent Document 2). In the image forming apparatus described in Patent Document 1, high-quality images can be printed by performing N-value processing (halftone processing) on image data using a dither matrix of screen pattern threshold values. Specifically, it is possible to form dots of multiple types of sizes by associating each threshold value of the screen pattern with the input pixel and comparing the size to determine whether the dot corresponding to the pixel value is on or off. ing.
JP 2008-137237 A. Japanese Patent Application Laid-Open No. 2008-153914.

ところで、ラインヘッドを用いた画像形成装置では、近年、高速化や高解像度化がますます求められている。このため、画像処理においても処理の高速化が求められている。しかし、高解像度化等に伴う画像処理のデータ量が肥大化しており、画像処理の高速化の阻害要因となっている。しかも、種々の高解像度に柔軟に対応するように画像形成装置に汎用性を持たせることも求められている。   By the way, in an image forming apparatus using a line head, in recent years, higher speed and higher resolution are increasingly demanded. For this reason, high-speed processing is also required in image processing. However, the amount of image processing data associated with higher resolution and the like is increasing, which is an impediment to increasing the speed of image processing. In addition, the image forming apparatus is also required to have versatility so as to flexibly cope with various high resolutions.

しかしながら、特許文献1に記載の画像形成装置は汎用性を有しておらず、種々の高解像度に柔軟に対応することが難しい。また、画像処理コントローラとヘッドコントローラとの間でデータが1対1で通信されるため、画像処理のより一層の高速化を図ることも難しい。また、このような画像処理の高速化を図る画像形成装置を開発するにあたり、入力画像を特許文献2に記載のようにスクリーン処理を行う場合、画像データを分割して、分割された分割画像データ毎にスクリーン処理を行うことが考えられる。すなわち、分割画像データ毎にスクリーンパターンの閾値と分割画像データの画素とを対応付けて、分割画像データ毎にスクリーン処理を行う。
しかし、スクリーンパターンの閾値と分割画像データの画素とを対応付けて単純に分割画像データ毎にスクリーン処理を行った場合、分割画像データの境界でスクリーンパターンの閾値と分割画像データの画素との対応付けがリセットされてしまうことが考えられる。このように、前述の対応付けがリセットされると、バンディングが発生し、形成された画像が乱れてしまう。
However, the image forming apparatus described in Patent Document 1 does not have versatility, and it is difficult to flexibly cope with various high resolutions. In addition, since data is communicated on a one-to-one basis between the image processing controller and the head controller, it is difficult to further increase the speed of image processing. Further, when developing an image forming apparatus for speeding up such image processing, when screen processing is performed on an input image as described in Patent Document 2, the divided image data is divided by dividing the image data. It is conceivable to perform screen processing every time. That is, the screen processing is performed for each piece of divided image data by associating the threshold value of the screen pattern with the pixels of the divided image data for each piece of divided image data.
However, when screen processing is simply performed for each divided image data by associating the threshold value of the screen pattern with the pixel of the divided image data, the correspondence between the threshold value of the screen pattern and the pixel of the divided image data at the boundary of the divided image data It is possible that the attachment will be reset. Thus, when the above-described association is reset, banding occurs, and the formed image is disturbed.

本発明は、このような事情に鑑みてなされたものであり、その目的は、画像処理のより一層の高速化を効果的に図りつつ、画像データのスクリーン処理によるバンディングを防
止することのできる画像処理装置、画像処理方法、および画像形成装置を提供することである。
The present invention has been made in view of such circumstances, and an object of the present invention is to make it possible to prevent banding due to screen processing of image data while effectively increasing the speed of image processing. A processing apparatus, an image processing method, and an image forming apparatus are provided.

前述の課題を解決するために、本発明に係る画像処理装置、画像処理方法、および画像形成装置では、画像データ分割部で入力画像データが、バンドデータあるいはラインデータ等の分割画像データに分割される。また、座標設定部により画像データまたは分割画像データに座標が設定される。更に、画像処理装置が、第1の画像処理部と第2の画像処理部とを有している。したがって、分割画像データに対して第1の画像処理部および第2の画像処理部により独立してスクリーン処理の並列分散処理が可能となる。これにより、高解像度、大容量の画像データの画像処理をより一層迅速に実行することが可能となる。   In order to solve the above-described problems, in the image processing apparatus, the image processing method, and the image forming apparatus according to the present invention, the input image data is divided into divided image data such as band data or line data by the image data dividing unit. The Also, coordinates are set in the image data or the divided image data by the coordinate setting unit. Furthermore, the image processing apparatus includes a first image processing unit and a second image processing unit. Therefore, the parallel and distributed processing of the screen processing can be independently performed on the divided image data by the first image processing unit and the second image processing unit. As a result, it is possible to execute image processing of high-resolution and large-capacity image data even more quickly.

また、第2の画像処理部でスクリーン処理される分割画像データに設定された座標を、第1の画像処理部でスクリーン処理される分割画像データに設定された座標に対してオフセットしたオフセット座標に設定している。したがって、第1の画像処理部および第2の画像処理部に対して、スクリーンパターンの閾値による座標を分割画像データの境界部でオフセットしたオフセット座標を指定する。これにより、画像のバンディングの発生が防止可能となる。   Also, the coordinates set in the divided image data screen-processed by the second image processing unit are offset coordinates offset from the coordinates set in the divided image data screen-processed by the first image processing unit. It is set. Accordingly, the offset coordinates obtained by offsetting the coordinates based on the threshold value of the screen pattern at the boundary portion of the divided image data are designated for the first image processing unit and the second image processing unit. This can prevent image banding.

こうして、本発明に係る画像処理装置、画像処理方法、および画像形成装置によれば、画像処理のより一層の高速化を効果的に図りつつ、画像データのスクリーン処理によるバンディングを防止することができるようになる。   Thus, according to the image processing apparatus, the image processing method, and the image forming apparatus according to the present invention, it is possible to prevent banding due to screen processing of image data while effectively increasing the speed of image processing. It becomes like this.

以下、図面を用いて本発明を実施するための最良の形態について説明する。
図1は、本発明にかかる画像形成装置の実施の形態の一例を模式的にかつ部分的に示す図である。
図1に示すように、この例の画像形成装置1はハウジング本体2を備えている。このハウジング本体2内には、画像形成ユニット3、転写部4、転写紙等の転写材を収容する転写材供給部5、定着部6、エンジン制御部7、および排紙トレイ8が配設されている。
The best mode for carrying out the present invention will be described below with reference to the drawings.
FIG. 1 is a diagram schematically and partially showing an example of an embodiment of an image forming apparatus according to the present invention.
As shown in FIG. 1, the image forming apparatus 1 of this example includes a housing body 2. In the housing body 2, an image forming unit 3, a transfer unit 4, a transfer material supply unit 5 that accommodates a transfer material such as transfer paper, a fixing unit 6, an engine control unit 7, and a paper discharge tray 8 are disposed. ing.

画像形成ユニット3は、イエロー(Y)の画像形成ステーションである第1の画像形成ステーション9Y、マゼンタ(M)の画像形成ステーションである第2の画像形成ステーション9M、シアン(C)の画像形成ステーションである第3の画像形成ステーション9C、およびブラック(K)の画像形成ステーションである第4の画像形成ステーション9Kを有している。第1ないし第4の画像形成ステーション9Y,9M,9C,9Kは、これ
らの順にタンデムに配置されている。なお、第1ないし第4の画像形成ステーション9Y,9M,9C,9Kの配置順は任意である。以下、図1に示す第1ないし第4の画像形成ス
テーション9Y,9M,9C,9Kの配置順で説明する。
The image forming unit 3 includes a first image forming station 9Y that is a yellow (Y) image forming station, a second image forming station 9M that is a magenta (M) image forming station, and a cyan (C) image forming station. And a fourth image forming station 9K which is a black (K) image forming station. The first to fourth image forming stations 9Y, 9M, 9C, 9K are arranged in tandem in this order. The arrangement order of the first to fourth image forming stations 9Y, 9M, 9C, 9K is arbitrary. Hereinafter, the first to fourth image forming stations 9Y, 9M, 9C, and 9K shown in FIG.

第1ないし第4の画像形成ステーション9Y,9M,9C,9Kはいずれも同一に構成さ
れている。したがって、イエロー(Y)の第1の画像形成ステーション9Yについて説明し、他の色の第2ないし第4の画像形成ステーション9M,9C,9Kについてはそれらの詳細な説明は省略する。なお、第2ないし第4の画像形成ステーション9M,9C,9Kの各構成要素については、イエロー(Y)の画像形成ステーション4Yの対応する構成要素と同じ符号とM,C,Kの添え字を付して示す。
The first to fourth image forming stations 9Y, 9M, 9C, 9K are all configured identically. Therefore, the first image forming station 9Y of yellow (Y) will be described, and detailed descriptions of the second to fourth image forming stations 9M, 9C, 9K of other colors will be omitted. Note that the constituent elements of the second to fourth image forming stations 9M, 9C, and 9K have the same reference numerals and subscripts of M, C, and K as the corresponding constituent elements of the yellow (Y) image forming station 4Y. Attached is shown.

第1の画像形成ステーション9Yは潜像担持体である第1の感光体10Yを有している。また、第1の画像形成ステーション9Yは第1の感光体10Yの周囲に、第1の帯電部11Y、像書込部の露光ヘッドである第1のラインヘッド12Y、第1の現像部13Y、
および第1の感光体クリーナ14Yを有している。
第1の帯電部11Yは従来公知の第1の帯電ローラ15Yを備えている。この第1の帯電ローラ15Yは第1の感光体10Yの表面を予め設定された表面電位に帯電する。
The first image forming station 9Y has a first photoconductor 10Y which is a latent image carrier. The first image forming station 9Y includes a first charging unit 11Y, a first line head 12Y that is an exposure head of an image writing unit, a first developing unit 13Y, around the first photoconductor 10Y.
And a first photoconductor cleaner 14Y.
The first charging unit 11Y includes a conventionally known first charging roller 15Y. The first charging roller 15Y charges the surface of the first photoconductor 10Y to a preset surface potential.

図2に示すように、第1のラインヘッド12Yは、第1のベース基板16Y、第1のLEDアレイ17Y、第1のドライバIC18Y、および第1のロッドレンズアレイ19Yを有している。第1のLEDアレイ17Yは発光素子であるLED素子を備える。その場合、LED素子は第1のベース基板16Yに、転写材の搬送方向(移動方向)と直交もしくはほぼ直交する第1の方向α(いわゆる、主走査方向)に沿って配設される。   As shown in FIG. 2, the first line head 12Y includes a first base substrate 16Y, a first LED array 17Y, a first driver IC 18Y, and a first rod lens array 19Y. The first LED array 17Y includes LED elements that are light emitting elements. In this case, the LED elements are arranged on the first base substrate 16Y along a first direction α (so-called main scanning direction) that is orthogonal or substantially orthogonal to the transfer material conveyance direction (movement direction).

また、第1のドライバIC18Yは第1のベース基板16Yに、転写材の搬送方向と同方向もしくはほぼ同方向である第2の方向β(いわゆる、副走査方向)βに沿ってLED素子に隣接して配設されるとともに第1の方向αに沿って配設される。このとき、1つの第1のドライバIC18Yに対して、予め設定された設定数のLED素子が接続される。したがって、1つの第1のドライバIC18Yは接続されたLED素子を駆動する。その場合、LED素子は、後述するヘッドコントローラ36からビデオ信号が与えられると、このビデオ信号に基づいてこの第1のドライバIC18Yが駆動されて発光する。   The first driver IC 18Y is adjacent to the first base substrate 16Y adjacent to the LED element along a second direction β (so-called sub-scanning direction) β that is the same or substantially the same direction as the transfer material conveyance direction. And arranged along the first direction α. At this time, a preset number of LED elements are connected to one first driver IC 18Y. Accordingly, one first driver IC 18Y drives the connected LED element. In that case, when a video signal is given from the head controller 36 described later, the LED element emits light by driving the first driver IC 18Y based on the video signal.

更に、第1のロッドレンズアレイ19Yは第1の屈折率分布型ロッドレンズ20Yを有している。第1の屈折率分布型ロッドレンズ20Yは第1の方向αに沿って2列千鳥状に配設されるとともに、LED素子に対向して配設される。そして、第1の屈折率分布型ロッドレンズ20YはLED素子からの光を光学的に結像して第1の感光体10Yを露光して、第1の感光体10Yにイエロー(Y)の静電潜像を形成する。なお、第1の屈折率分布型ロッドレンズ20Yは2列に限定されることはなく、3列以上任意に配設することができる。   Furthermore, the first rod lens array 19Y has a first gradient index rod lens 20Y. The first gradient index rod lenses 20Y are arranged in a zigzag pattern in two rows along the first direction α, and are arranged facing the LED elements. The first gradient index rod lens 20Y optically forms an image of the light from the LED element to expose the first photoconductor 10Y, and a yellow (Y) static light is applied to the first photoconductor 10Y. An electrostatic latent image is formed. The first gradient index rod lens 20Y is not limited to two rows, and can be arbitrarily arranged in three or more rows.

第1の現像部13Yは第1の現像ローラ21Yを有している。この第1の現像ローラ21Yはイエロー(Y)のトナーを第1の感光体10Yに供給する。このトナーにより、第1の感光体10Yの静電潜像が現像されて、第1の感光体10Yにイエロー(Y)のトナー像が形成される。
第1の感光体クリーナ14Yは、トナー像が転写された第1の感光体10Yをクリーニングする。
The first developing unit 13Y has a first developing roller 21Y. The first developing roller 21Y supplies yellow (Y) toner to the first photoconductor 10Y. With this toner, the electrostatic latent image on the first photoconductor 10Y is developed, and a yellow (Y) toner image is formed on the first photoconductor 10Y.
The first photoconductor cleaner 14Y cleans the first photoconductor 10Y to which the toner image is transferred.

図1に示すように、転写部4は、イエロー(Y)の第1の転写部22Y、マゼンタ(M)の第2の転写部22M、シアン(C)の第3の転写部22C、ブラック(B)の第4の転写部22K、転写媒体である無端状の転写ベルト23、第5の転写部24、および転写ベルトクリーナ25を有している。   As shown in FIG. 1, the transfer unit 4 includes a yellow (Y) first transfer unit 22Y, a magenta (M) second transfer unit 22M, a cyan (C) third transfer unit 22C, and a black ( B) a fourth transfer portion 22K, an endless transfer belt 23 as a transfer medium, a fifth transfer portion 24, and a transfer belt cleaner 25.

第1の転写部22Yは第1の転写ローラ26Yを有している。また、第2の転写部22Mは第2の転写ローラ26Mを有している。更に、第3の転写部22Cは第3の転写ローラ26Cを有している。更に、第4の転写部22Kは第4の転写ローラ26Kを有している。第1の転写ローラないし第4の転写ローラ26Y,26M,26C,26Kは転写ベル
ト23を対応する第1の感光体ないし第4の感光体10Y,10M,10C,10Kに圧接
させるとともに第1の転写バイアスないし第4の転写バイアスにより第1の感光体ないし第4の感光体10Y,10M,10C,10Kのトナー像を転写ベルト23に転写する。
The first transfer portion 22Y has a first transfer roller 26Y. The second transfer portion 22M has a second transfer roller 26M. Further, the third transfer portion 22C has a third transfer roller 26C. Further, the fourth transfer portion 22K has a fourth transfer roller 26K. The first transfer roller to the fourth transfer rollers 26Y, 26M, 26C, and 26K press the transfer belt 23 to the corresponding first to fourth photoconductors 10Y, 10M, 10C, and 10K and The toner images of the first to fourth photoreceptors 10Y, 10M, 10C, and 10K are transferred to the transfer belt 23 by the transfer bias or the fourth transfer bias.

転写ベルト23は駆動ローラ27と従動ローラ28に掛け渡されるとともに駆動ローラ27により矢印γ方向に回転される。
第5の転写部24は第5の転写ローラ29を有している。第5の転写ローラ29は転写材を転写ベルト23に圧接させるとともに第5の転写バイアスにより転写ベルト23のト
ナー像を転写材に転写する。
転写ベルトクリーナ25は、トナー像が転写された転写ベルトをクリーニングする。
The transfer belt 23 is stretched between a driving roller 27 and a driven roller 28 and is rotated by the driving roller 27 in the arrow γ direction.
The fifth transfer unit 24 has a fifth transfer roller 29. The fifth transfer roller 29 brings the transfer material into pressure contact with the transfer belt 23 and transfers the toner image on the transfer belt 23 to the transfer material with a fifth transfer bias.
The transfer belt cleaner 25 cleans the transfer belt to which the toner image is transferred.

転写材供給部5は、転写紙等の転写材を収容する転写材収容部5aと、この転写材収容部5aから転写材を第5の転写部24に供給する転写材供給部5bとを有している。この転写材供給部5は、画像形成時に転写材収容部5aから転写材を1枚ずつ第5の転写部24に供給する。   The transfer material supply unit 5 includes a transfer material storage unit 5 a that stores a transfer material such as transfer paper, and a transfer material supply unit 5 b that supplies the transfer material from the transfer material storage unit 5 a to the fifth transfer unit 24. is doing. The transfer material supply unit 5 supplies transfer materials one by one from the transfer material storage unit 5a to the fifth transfer unit 24 during image formation.

定着部6は加熱ローラ30と加圧ベルト31を有している。加圧ベルト31は第5の転写部24でトナー像が転写された転写材を加熱ローラ30に圧接する。加熱ローラ30は転写材のトナー像転写面を加熱する。これにより、トナー像が転写材に定着され、転写材に画像が形成される。   The fixing unit 6 includes a heating roller 30 and a pressure belt 31. The pressure belt 31 presses the transfer material on which the toner image is transferred by the fifth transfer unit 24 to the heating roller 30. The heating roller 30 heats the toner image transfer surface of the transfer material. As a result, the toner image is fixed on the transfer material, and an image is formed on the transfer material.

そして、画像形成ユニット3、転写部4、転写材供給部5、および定着部6により、画像形成装置1のエンジン部32が構成される。
エンジン制御部7はこのエンジン部32を制御する。図3に示すように、このエンジン制御部7は、電源回路基板(不図示)、メインコントローラ33、エンジンコントローラ34、画像処理コントローラ35、およびヘッドコントローラ36を有している。メインコントローラ33および画像処理コントローラ35で画像処理装置が構成されている。
The image forming unit 3, the transfer unit 4, the transfer material supply unit 5, and the fixing unit 6 constitute an engine unit 32 of the image forming apparatus 1.
The engine control unit 7 controls the engine unit 32. As shown in FIG. 3, the engine control unit 7 includes a power circuit board (not shown), a main controller 33, an engine controller 34, an image processing controller 35, and a head controller 36. The main controller 33 and the image processing controller 35 constitute an image processing apparatus.

メインコントローラ33は、ホストコンピュータなどの外部装置(不図示)から画像形成指令を与えられると、UART(汎用非同期送受信)通信線を介してエンジンコントローラ34にエンジン部32を起動させるための制御信号を送信する。
エンジンコントローラ34はメインコントローラ33から制御信号を受けると、エンジン部32の初期化およびウォームアップを開始する。そして、初期化およびウォームアップが完了して画像形成動作が実行可能な状態になると、エンジンコントローラ34は、ヘッドコントローラ36に画像形成動作の開始のトリガとなる同期信号をUART通信線を介して出力する。更に、エンジンコントローラ34とヘッドコントローラ36との間の通信においては、この同期信号の送信の他に各ラインヘッド11Y,11M,11C,11K
を制御するための種々の制御パラメータの信号の授受が行われる(なお、これらの制御パラメータの信号の授受は前述の特許文献1に記載されている画像形成装置と同じであるので、それらの詳細な説明は省略する)。
When an image formation command is given from an external device (not shown) such as a host computer, the main controller 33 sends a control signal for starting the engine unit 32 to the engine controller 34 via a UART (general purpose asynchronous transmission / reception) communication line. Send.
When the engine controller 34 receives a control signal from the main controller 33, the engine controller 34 starts initialization and warm-up of the engine unit 32. When initialization and warm-up are completed and the image forming operation is ready, the engine controller 34 outputs a synchronization signal that triggers the start of the image forming operation to the head controller 36 via the UART communication line. To do. Further, in the communication between the engine controller 34 and the head controller 36, in addition to the transmission of the synchronization signal, the line heads 11Y, 11M, 11C, 11K
(Transmission and reception of signals of these control parameters is the same as that of the image forming apparatus described in Patent Document 1 described above, and therefore, details thereof will be described.) Will be omitted).

更に図4に示すように、メインコントローラ33は、画像データ分割部であるバンドデータ生成部33a、スクリーンオフセット計算部33b、座標設定部であるスクリーンオフセット設定部33c、およびデータ転送部33dを有している。バンドデータ生成部33aは、図5に示すように画像形成指令に含まれる画像データをスクリーン処理するため、この画像データへスクリーンパターンの閾値を対応付けた、スクリーンテーブル(ルックアップテーブル:LUT)を生成する。図5に示す例では、スクリーンテーブルの幅(LutWidth)が4(4個の閾値)で、スクリーンテーブルの高さ(LutHeigh)が3(3個の閾
値)である4×3の比較的小さなスクリーンテーブル(LUT)である。このように、スク
リーンテーブル(LUT)を小さくすることで、設計が容易になるとともにメモリ容量を小
さくすることが可能となる。また、スクリーンテーブル(LUT)は同じスクリーンテーブ
ル(LUT)を第1の方向および第2の方向に繰り返し用いられる。したがって、同じスク
リーンテーブル(LUT)が用いられるので、同じ閾値が用いられる。その場合、スクリー
ンテーブル(LUT)は第1の方向または第2の方向に閾値をシフトすることで、バンドデ
ータ境界部で第1の方向のむらまたは第2の方向のむらが目に見えないようにしている。なお、スクリーンテーブル(LUT)の閾値は第1の方向および第2の方向にシフトするこ
ともできる。そして、スクリーンパターンが対応付けられた画像データを、任意の数の分割データに分割したバンドデータを生成する。この画像データの分割によるバンドデータ
の生成の詳細は後述する。
Further, as shown in FIG. 4, the main controller 33 includes a band data generation unit 33a that is an image data division unit, a screen offset calculation unit 33b, a screen offset setting unit 33c that is a coordinate setting unit, and a data transfer unit 33d. ing. As shown in FIG. 5, the band data generation unit 33a screen-processes the image data included in the image formation command, so that a screen table (look-up table: LUT) that associates a screen pattern threshold value with the image data is displayed. Generate. In the example shown in FIG. 5, a relatively small 4 × 3 screen having a screen table width (LutWidth) of 4 (four threshold values) and a screen table height (LutHeigh) of 3 (3 threshold values). It is a table (LUT). Thus, by reducing the screen table (LUT), the design becomes easy and the memory capacity can be reduced. Further, the same screen table (LUT) is repeatedly used in the first direction and the second direction as the screen table (LUT). Therefore, the same threshold is used because the same screen table (LUT) is used. In that case, the screen table (LUT) shifts the threshold value in the first direction or the second direction so that the unevenness in the first direction or the unevenness in the second direction is not visible at the band data boundary. Yes. Note that the threshold value of the screen table (LUT) can be shifted in the first direction and the second direction. Then, band data is generated by dividing the image data associated with the screen pattern into an arbitrary number of divided data. Details of generation of band data by dividing the image data will be described later.

スクリーンオフセット計算部33bは、スクリーン処理においてあるバンドデータから次のバンドデータに移行する際、各バンドデータの先頭画素に対応付けられた各閾値からオフセットした座標(主走査方向である第1の方向オフセット値/副走査方向である第2の方向オフセット値)を計算する。スクリーンオフセット設定部33cは次のバンドデータ移行の際、次のバンドデータの先頭画素に対応付けられた閾値から計算されたオフセット値へのオフセットを設定する。データ転送部33dは画像処理コントローラ35にバンドデータを転送するが、このバンドデータの転送の際、設定されたオフセットの座標を一緒に通知する。これにより、あるバンドデータから次のバンドデータを転送する毎に、座標に基づくオフセットされて転送される。   When the screen offset calculation unit 33b shifts from one band data to the next band data in the screen processing, the coordinates offset from each threshold value associated with the first pixel of each band data (first direction that is the main scanning direction) Offset value / second direction offset value in the sub-scanning direction) is calculated. When the next band data shifts, the screen offset setting unit 33c sets an offset to the offset value calculated from the threshold value associated with the first pixel of the next band data. The data transfer unit 33d transfers the band data to the image processing controller 35. When transferring the band data, the data transfer unit 33d notifies the coordinates of the set offset together. As a result, every time the next band data is transferred from a certain band data, it is transferred after being offset based on the coordinates.

画像処理コントローラ35は、n(n≧2)個の第1の画像処理コントローラ35a1
ないし第nの画像処理コントローラ35anを有している。また、第1の画像処理コント
ローラ35a1は第1の画像処理部35b1および第1の画像処理側通信モジュール35c1を有している。更に、第1の画像処理部35b1は、第1の画像処理部である第1のスクリーン処理部35d1と第1のスクリーンデータ記憶部35e1を有している。他の画像処理コントローラも同様であり、例えば、第nの画像処理部である第nの画像処理コントローラ35anは第nの画像処理部35bnおよび第nの画像処理側通信モジュール35cn
を有している。更に、第nの画像処理部35bnは、第nのスクリーン処理部35dnと第nのスクリーンデータ記憶部35enを有している。その場合、第1の画像処理コントロ
ーラ35a1ないし第nの画像処理コントローラ35anは、独立して駆動される。
The image processing controller 35 includes n (n ≧ 2) first image processing controllers 35a 1.
To have an image processing controller 35a n of the n. The first image processing controller 35a 1 includes a first image processing unit 35b 1 and a first image processing side communication module 35c 1 . Furthermore, the first image processing unit 35b 1 includes a first screen processing unit 35d 1 and a first screen data storage unit 35e 1 which are first image processing units. Other image processing controller is also similar, for example, the image processing controller 35a n of the n is an image processing section of the n-th image processing side communication module 35c n of the image processing unit 35b n and the n of the n
have. Furthermore, the image processing unit 35b n of the n has a screen processing unit 35d n and the screen data storing unit 35e n of the n of the n. In that case, the image processing controller 35a n of the first image processing controller 35a 1 to the n are driven independently.

そして、分割されたバンドデータのうち、r(r≧1)個のバンドデータがデータ転送部33dから第1の画像処理部35b1に転送される。また、分割されたバンドデータの
うち、他のs(s≧1)個のバンドデータがデータ転送部33dから第2の画像処理部35b2に転送される。同様にして、バンドデータが他の画像処理部にも転送されるが、n
番目の第nの画像処理部35bnには、分割されたバンドデータのうち、他のt(t≧0
)個のバンドデータがデータ転送部33dから転送される(t=0のときは、バンドデータが第nの画像処理部35bnに送信されない。すなわち、画像データが最少の2つのバ
ンドデータに分割された場合など、分割されたバンドデータの数によっては、バンドデータが第3の画像処理部35b3ないし第nの画像処理部35bnに送信されない場合もある。)。
Of the divided band data, r (r ≧ 1) band data are transferred from the data transfer unit 33d to the first image processing unit 35b 1 . Also, among the divided band data, other s (s ≧ 1) pieces of band data is transferred from the data transfer unit 33d to the second image processing section 35b 2. Similarly, the band data is transferred to other image processing units, but n
The n-th image processing unit 35b n includes other t (t ≧ 0) out of the divided band data.
) Pieces of band data are transferred from the data transfer unit 33d (when t = 0, the band data is not transmitted to the n-th image processing unit 35b n , that is, the image data is divided into two pieces of minimum band data. etc. If it is, the number of the divided band data is sometimes band data is not transmitted to the image processing unit 35b n of the third image processing unit 35b 3, second n.).

ところで、この例の画像形成装置1においてはこのようにバンドデータ毎に画像処理部に送信される。そこで、入力画像のデータをバンドデータに分割する場合、図6に示すように入力画像へのスクリーンパターンの対応付けをバンドデータ毎に独立してスクリーン割り付けをした第1のバンドデータないし第3のバンドデータを生成することが考えられる。なお、1ページあたりの入力画像のデータをバンドデータに分割する場合、図6に示す3個のバンドデータに分割することに限定されるものではなく、2個以上の任意の数のバンドデータに分割できる。また、図6に示すバンドデータは4ラインとしている。   By the way, in the image forming apparatus 1 of this example, the band data is transmitted to the image processing unit in this way. Therefore, when the data of the input image is divided into band data, as shown in FIG. 6, the first band data to the third band data in which the screen pattern is associated with the input image independently for each band data. It is conceivable to generate band data. In addition, when dividing the data of the input image per page into band data, it is not limited to dividing into the three band data shown in FIG. 6, and it is not limited to two or more pieces of band data. Can be divided. Further, the band data shown in FIG. 6 has four lines.

しかし、図6に示すようにバンドデータを生成したのでは、第1の画像処理コントローラ35a1ないし第nの画像処理コントローラ35anが独立して駆動されるため、入力画素とスクリーンパターンの閾値との対応付けが、例えば第1のバンドデータと第2のバンドデータとのバンド境界でリセットされてしまうことが考えられる。このように、入力画素とスクリーンパターンの閾値との対応付けがバンド境界でリセットされると、バンディングが発生して、印刷画像が乱れてしまうことが考えられる。仮に、スクリーンパターンをバンドサイズに合わせて作成することができれば、バンディングは回避可能であるが、スクリーン設計に制約が入るため、高画質化が困難となる。 However, generated the band data as shown in FIG. 6, the image processing controller 35a n of the first image processing controller 35a 1 through n-th are independently driven, an input pixel and screen pattern threshold It is conceivable that the association is reset at the band boundary between the first band data and the second band data, for example. As described above, if the association between the input pixel and the threshold value of the screen pattern is reset at the band boundary, banding may occur and the print image may be disturbed. If the screen pattern can be created in accordance with the band size, banding can be avoided. However, since the screen design is restricted, it is difficult to improve the image quality.

そこで、この例の画像形成装置1では、入力画像のデータをバンドデータに分割する場合、図7に示すように入力画像へのスクリーンパターンの対応付けをバンドデータ毎に座標に基づいてオフセットしてスクリーン割り付けをすることにより、第1のバンドデータないし第3のバンドデータを生成している。その場合、図7に示すバンドデータでは、第1のバンドデータはそのラインの先頭画素に対応付けられたスクリーンパターンの座標(閾値)が「15」、「55」、「35」、「40」である。また、第2のバンドデータはそのラインの先頭画素に対応付けられたスクリーンパターンの座標(閾値)が「125」、「73」、「35」、「150」である。更に、第3のバンドデータはそのラインの先頭画素に対応付けられたスクリーンパターンの座標(閾値)が「82」、「22」、「70」、「34」である。   Therefore, in the image forming apparatus 1 of this example, when dividing the input image data into band data, as shown in FIG. 7, the association of the screen pattern with the input image is offset based on the coordinates for each band data. By assigning screens, first band data to third band data are generated. In this case, in the band data shown in FIG. 7, the first band data has screen pattern coordinates (threshold values) “15”, “55”, “35”, “40” associated with the first pixel of the line. It is. In the second band data, the coordinates (threshold values) of the screen pattern associated with the first pixel of the line are “125”, “73”, “35”, and “150”. Further, in the third band data, the coordinates (threshold values) of the screen pattern associated with the first pixel of the line are “82”, “22”, “70”, and “34”.

すなわち、第2のバンドデータは第1のバンドデータに対して、主走査方向である第1の方向にオフセット値1だけオフセットされ、また副走査方向である第2の方向にオフセット値1だけオフセットされて、第2のバンドデータの先頭画素の座標が決められている(第1の方向オフセット値=1/第2の方向オフセット値=1)。したがって、この第2のバンドデータをスクリーン処理する画像処理コントローラに対しては、このようにオフセットされた座標が指定される。   That is, the second band data is offset from the first band data by the offset value 1 in the first direction, which is the main scanning direction, and by the offset value 1 in the second direction, which is the sub-scanning direction. Thus, the coordinates of the first pixel of the second band data are determined (first direction offset value = 1 / second direction offset value = 1). Therefore, the offset coordinates are designated for the image processing controller that screen-processes the second band data.

また、第3のバンドデータは第1のバンドデータに対して、主走査方向である第1の方向にオフセット値2だけオフセットされ、また副走査方向である第2の方向にオフセット値2だけオフセットされて、第3のバンドデータの先頭画素の座標が決められている(第1の方向オフセット値=2/第2の方向オフセット値=2)。したがって、この第3のバンドデータをスクリーン処理する画像処理コントローラに対しては、このようにオフセットされた座標が指定される。なお、第3のバンドデータは第2のバンドデータに対しては、第1の方向にオフセット値1だけオフセットされ、また副走査方向である第2の方向にオフセット値1だけオフセットされる。   The third band data is offset from the first band data by an offset value 2 in the first direction, which is the main scanning direction, and by an offset value 2 in the second direction, which is the sub-scanning direction. Thus, the coordinates of the first pixel of the third band data are determined (first direction offset value = 2 / second direction offset value = 2). Accordingly, the offset coordinates are designated for the image processing controller that screen-processes the third band data. The third band data is offset from the second band data by the offset value 1 in the first direction, and is offset by the offset value 1 in the second direction which is the sub-scanning direction.

更に、第4のバンドデータは第1のバンドデータに対してオフセットされずに第3のバンドデータの先頭画素の座標が決められている(第1の方向オフセット値=0/第2の方向オフセット値=0)。したがって、この第4のバンドデータをスクリーン処理する画像処理コントローラに対しては、第1のバンドデータの座標と同じ座標が指定される。なお、第4のバンドデータは第3のバンドデータに対しては、第1の方向にオフセット値1だけオフセットされ、また副走査方向である第2の方向にオフセット値1だけオフセットされる。   Further, the fourth band data is not offset with respect to the first band data, and the coordinates of the first pixel of the third band data are determined (first direction offset value = 0 / second direction offset). Value = 0). Therefore, the same coordinates as the coordinates of the first band data are designated for the image processing controller that screen-processes the fourth band data. The fourth band data is offset from the third band data by the offset value 1 in the first direction, and is offset by the offset value 1 in the second direction which is the sub-scanning direction.

このように、バンドデータをオフセットさせてスクリーン処理を行うことで、第1の画像処理コントローラ35a1ないし第nの画像処理コントローラ35anが独立して駆動されても、入力画素とスクリーンパターンの閾値との対応付けがバンド境界でリセットされることはない。したがって、スクリーン設計に制約を入れることなく、バンド境界でのバンディングが回避可能となる。 In this way, by performing the screen processing by offsetting the band data, even if the image processing controller 35a n of the first image processing controller 35a 1 through n-th are driven independently, the input pixel and the threshold screen pattern Is not reset at the band boundary. Therefore, banding at the band boundary can be avoided without restricting the screen design.

次に、前述のようにバンドデータ毎およびライン毎にスクリーンパターンの座標が決められたバンドデータの先頭座標を、バンドデータ毎にオフセットさせて画像処理コントローラに転送するフローについて説明する。図8は、このフローの一例を示す図である。
図8に示すように、この例のフローでは、最初に画像データを分割してバンドデータを生成し、次に生成したバンドデータに対してオフセット座標を設定している。
Next, a description will be given of a flow in which the leading coordinates of the band data in which the coordinates of the screen pattern are determined for each band data and each line as described above are offset for each band data and transferred to the image processing controller. FIG. 8 is a diagram showing an example of this flow.
As shown in FIG. 8, in the flow of this example, image data is first divided to generate band data, and then offset coordinates are set for the generated band data.

すなわち、ステップS1でスクリーンパターンの座標が対応付けられる(座標設定工程)とともに、入力画像がバンドデータ生成部33aにおいて分割されてバンドデータが生
成される(画像データ分割工程)。その場合、座標設定工程と画像データ分割工程は同時に行うようにすることもできるし、先に座標設定工程を行い、次に画像データ分割工程を行うようにすることもできる。次に、生成されたバンドデータの先頭画素におけるスクリーンパターンの座標をオフセットするためにオフセット座標がスクリーンオフセット計算部33bにおいて計算される。すなわち、ステップS2で、バンドデータの先頭画素の座標を第1の方向(主走査方向)にオフセットするために第1の方向オフセット値が計算される。また、ステップS3でバンドデータの先頭画素の座標を第2の方向(副走査方向)にオフセットするために第2の方向オフセット値が計算される。
That is, in step S1, the coordinates of the screen pattern are associated (coordinate setting step), and the input image is divided by the band data generation unit 33a to generate band data (image data division step). In that case, the coordinate setting step and the image data dividing step can be performed simultaneously, or the coordinate setting step can be performed first, and then the image data dividing step can be performed. Next, in order to offset the coordinates of the screen pattern at the first pixel of the generated band data, the offset coordinates are calculated in the screen offset calculation unit 33b. That is, in step S2, a first direction offset value is calculated to offset the coordinates of the first pixel of the band data in the first direction (main scanning direction). In step S3, a second direction offset value is calculated in order to offset the coordinates of the first pixel of the band data in the second direction (sub-scanning direction).

このバンドデータにおけるスクリーンパターンのオフセット座標の計算方法として、バンド毎にスクリーンパターンのオフセット座標を決める方法と、バンドデータのライン毎にスクリーンパターンのオフセット座標を決める方法とが考えられる。
図9はバンド毎にスクリーンパターンのオフセット座標を決める方法のフローを示し、(a)は第1の方向オフセットの計算のフローを示す図であり、(b)は第2の方向オフセットの計算のフローを示す図である。
As a calculation method of the offset coordinates of the screen pattern in the band data, a method of determining the offset coordinates of the screen pattern for each band and a method of determining the offset coordinates of the screen pattern for each line of the band data can be considered.
FIG. 9 shows the flow of the method for determining the offset coordinates of the screen pattern for each band, (a) shows the flow of calculation of the first direction offset, and (b) shows the calculation of the second direction offset. It is a figure which shows a flow.

以下のフローの説明にあたっては、図7に示すLUTおよびバンドデータに基づいて説明
する。LUTの幅(LutWidth)が4、LUTの高さ(LutHeigh)が3、LUTのシフト量(LutShift)が1である。LutShiftが1であるとは、図7に示す1段目のLUTと2段目のLUTとにお
いて、1段目のLUTの先頭画素の閾値が「15」の基準座標に対して、2段目のLUTの先頭画素の閾値が「40」(○で囲んで示されている)となっていて、2段目のLUTのシフト
量が1段目のLUTに対して「1」となっている。
The following flow will be described based on the LUT and band data shown in FIG. The LUT width (LutWidth) is 4, the LUT height (LutHeigh) is 3, and the LUT shift amount (LutShift) is 1. LutShift is 1 in the first stage LUT and the second stage LUT shown in FIG. 7 with respect to the reference coordinate where the threshold value of the first pixel of the first stage LUT is “15”. The threshold value of the first pixel of the first LUT is “40” (indicated by circles), and the shift amount of the second-stage LUT is “1” with respect to the first-stage LUT .

図9(a)に示すように、まず第1の方向(主走査方向)オフセットの計算では、ステップS11でバンドデータの先頭ラインの絶対ライン番号(LineNo)が取得される。バンドデータの先頭ラインの絶対ライン番号(LineNo)は、バンドデータにおけるLUTのライ
ンの先頭画素の段数である。この段数は、第1のLUTの第1のラインの先頭が0から始ま
るように設定されている。図7に示す例のLUTで説明すると、第2のバンドデータの先頭
ラインの絶対ライン番号は4である。具体的に説明すると、第1のバンドデータの先頭ライン(先頭の閾値が「15」で示されるライン)の絶対ライン番号が0であり、第1のバンドデータの次の段のライン(先頭の閾値が「55」で示されるライン)の絶対ライン番号が1である。したがって、第2のバンドデータの先頭ライン(先頭の閾値が「125」で示されるライン)の絶対ライン番号は4である。
As shown in FIG. 9A, in the calculation of the first direction (main scanning direction) offset, the absolute line number (LineNo) of the first line of the band data is acquired in step S11. The absolute line number (LineNo) of the first line of the band data is the number of stages of the first pixel of the LUT line in the band data. The number of stages is set so that the head of the first line of the first LUT starts from 0. In the example of the LUT shown in FIG. 7, the absolute line number of the first line of the second band data is 4. More specifically, the absolute line number of the first line of the first band data (the line indicated by the first threshold being “15”) is 0, and the next line (the first line of the first band data) The absolute line number of the line whose threshold is “55” is 1. Therefore, the absolute line number of the first line of the second band data (the line whose first threshold is indicated by “125”) is 4.

次に、ステップS12でバンドデータの先頭ラインの属するルックアップテーブルの番号(LutNo)が計算される。このLutNoは、LineNo/LutHeightで与えられる(LutNo = LineNo/LutHeight)。したがって、例えば、第2のバンドデータの先頭ラインのLutNoは4/3であるから「1」と決定される。次いで、ステップS13でバンドデータの先頭ラインでのテーブル総シフト量(TotalShift)が計算される。このTotalShiftは、LutNo×Lutshiftで与えられる(TotalShift = LutNo×Lutshift)。したがって、例えば、第2のバンドデータの先頭ラインのLutNoは「1」であり、またLutshiftは「1」であるから、第
2のバンドデータの先頭ラインでのTotalShiftは、「1」と決定される。次いで、ステップS14でバンドデータの先頭画素の第1の方向(主走査方向)のオフセット(OffsetMain)が取得される。このOffsetMainは、TotalShift % LutWidth(%は剰余)で与えられる(OffsetMain = TotalShift % LutWidth)。したがって、例えば、第2のバンドデータの先頭画素の第1の方向のOffsetMainは1(1%4)と決定される。こうして、第1の方向オフセットが計算される。
Next, in step S12, the lookup table number (LutNo) to which the first line of the band data belongs is calculated. This LutNo is given by LineNo / LutHeight (LutNo = LineNo / LutHeight). Therefore, for example, since the first line's LutNo of the second band data is 4/3, it is determined as “1”. Next, in step S13, the total table shift amount (TotalShift) at the head line of the band data is calculated. This TotalShift is given by LutNo × Lutshift (TotalShift = LutNo × Lutshift). Therefore, for example, since the No. of the first line of the second band data is “1” and the Lutshift is “1”, TotalShift at the first line of the second band data is determined as “1”. The Next, in step S14, an offset (OffsetMain) in the first direction (main scanning direction) of the first pixel of the band data is acquired. This OffsetMain is given by TotalShift% LutWidth (% is a remainder) (OffsetMain = TotalShift% LutWidth). Therefore, for example, OffsetMain in the first direction of the first pixel of the second band data is determined to be 1 (1% 4). Thus, the first directional offset is calculated.

図9(b)に示すように、次に第2の方向(副走査方向)オフセットの計算では、ステップS21でバンドデータの先頭ラインの絶対ライン番号(LineNo)が取得される。これ
は、前述の第1の方向オフセットの計算の場合と同じであるから、第2のバンドデータの先頭ラインの絶対ライン番号は4である。次に、ステップS22でバンドデータの先頭画素の第2の方向のオフセット(OffsetSub)が取得される。このOffsetSubは、LineNo % LutHeight(%は剰余)で与えられる(OffsetSub = LineNo % LutHeight:%は剰余)
。したがって、例えば、第2のバンドデータの先頭画素の第2の方向のOffsetSubは1(
4%3)と決定される。こうして、第2の方向オフセットが計算される。
As shown in FIG. 9B, next, in the calculation of the second direction (sub-scanning direction) offset, the absolute line number (LineNo) of the first line of the band data is acquired in step S21. Since this is the same as the case of the calculation of the first direction offset described above, the absolute line number of the first line of the second band data is 4. Next, in step S22, the offset (OffsetSub) in the second direction of the first pixel of the band data is acquired. This OffsetSub is given by LineNo% LutHeight (% is remainder) (OffsetSub = LineNo% LutHeight:% is remainder)
. Therefore, for example, OffsetSub in the second direction of the first pixel of the second band data is 1 (
4% 3). Thus, a second directional offset is calculated.

図10はバンドデータのライン毎にスクリーンパターンのオフセット座標を決める方法のフローを示し、(a)は第1の方向オフセットの計算のフローを示す図であり、(b)は第2の方向オフセットの計算のフローを示す図である。
ライン毎にスクリーンパターンのオフセット座標を決めることは、ライン数が1のバンドデータに関して、前述のようにバンドデータ毎にオフセット座標を求めることと同じである。したがって、ライン毎にスクリーンパターンのオフセット座標を決めるフローは、実質的に前述のバンドデータ毎にオフセット座標を求めるフローと同じである。
FIG. 10 shows a flow of a method for determining an offset coordinate of a screen pattern for each line of band data, (a) is a diagram showing a flow of calculation of a first direction offset, and (b) is a second direction offset. It is a figure which shows the flow of calculation of.
Determining the offset coordinates of the screen pattern for each line is the same as obtaining the offset coordinates for each band data as described above for the band data having one line. Therefore, the flow for determining the offset coordinates of the screen pattern for each line is substantially the same as the flow for obtaining the offset coordinates for each band data described above.

すなわち図10(a)に示すように、まず第1の方向(主走査方向)オフセットの計算では、ステップS31で該当ラインの絶対ライン番号(LineNo)が取得される。このLineNoは、前述のバンドデータ毎に座標を求める場合と同じであり、4である。   That is, as shown in FIG. 10A, in the calculation of the first direction (main scanning direction) offset, the absolute line number (LineNo) of the corresponding line is acquired in step S31. This LineNo is the same as in the case of obtaining coordinates for each band data described above, and is 4.

次に、ステップS32で該当ラインの属するLUTの番号(LutNo)が計算される。この該当ラインのLutNoは前述と同じ4/3であるから「1」と決定される。次いで、ステップ
S33で該当ラインのテーブル総シフト量(TotalShift)が計算される。この該当ラインでのTotalShiftは、前述と同様に「1」と決定される。次いで、ステップS34で該当ラインの先頭画素の第1の方向(主走査方向)のオフセット(OffsetMain)が取得される。この該当ラインの先頭画素のOffsetMainは、前述と同様に1(1%4)と決定される。こうして、第1の方向オフセットが計算される。
Next, in step S32, the LUT number (LutNo) to which the corresponding line belongs is calculated. Since the LutNo of this corresponding line is 4/3 as described above, it is determined as “1”. Next, in step S33, the table total shift amount (TotalShift) of the corresponding line is calculated. TotalShift on this line is determined to be “1” as described above. Next, in step S34, an offset (OffsetMain) in the first direction (main scanning direction) of the first pixel of the corresponding line is acquired. OffsetMain of the first pixel of the corresponding line is determined to be 1 (1% 4) as described above. Thus, the first directional offset is calculated.

図10(b)に示すように、次に第2の方向(副走査方向)オフセットの計算では、ステップS41で該当ラインの絶対ライン番号(LineNo)が取得される。これは、前述の第1の方向オフセットの計算の場合と同じであるから、該当ラインの絶対ライン番号は4である。次に、ステップS42で該当ラインの先頭画素の第2の方向のオフセット(OffsetSub)が取得される。この該当ラインの先頭画素の第2の方向のOffsetSubは1(4%3)と決定される。こうして、第2の方向オフセットが計算される。   As shown in FIG. 10B, in the calculation of the second direction (sub-scanning direction) offset, the absolute line number (LineNo) of the corresponding line is acquired in step S41. Since this is the same as the calculation of the first direction offset described above, the absolute line number of the corresponding line is 4. Next, in step S42, the offset (OffsetSub) in the second direction of the first pixel of the corresponding line is acquired. OffsetSub in the second direction of the first pixel of the corresponding line is determined to be 1 (4% 3). Thus, a second directional offset is calculated.

再び図8に示すバンドデータ毎にオフセットさせて画像処理コントローラに転送するフローに戻る。そして、ステップS4でスクリーンオフセット設定部33cにおいて計算された第1の方向のオフセット値および第2の方向のオフセット値に基づいてオフセット座標が設定される(オフセット座標設定工程)。次に、ステップS5でこの設定されたオフセット座標とともにバンドデータが、このバンドデータをスクリーン処理する画像処理コントローラに転送される。これにより、バンドデータが転送された画像処理コントローラにおいて、バンドデータに対してオフセット座標に基づいてスクリーン処理が行われる(第1のスクリーン処理工程および第2のスクリーン処理工程)。次に、ステップS6でメインコントローラ33から画像処理コントローラ35への全バンドデータの転送が終了したか否かを判断される。全バンドデータの転送が終了していないと判断されると、ステップS1に戻り、ステップS1ないしS6の処理が繰り返される。ステップS6で全バンドデータの転送が終了したと判断されると、オフセットされたバンドデータの画像処理コントローラ35への転送が終了される。   The flow returns to the flow of offsetting every band data shown in FIG. 8 and transferring it to the image processing controller. In step S4, offset coordinates are set based on the offset value in the first direction and the offset value in the second direction calculated by the screen offset setting unit 33c (offset coordinate setting step). Next, in step S5, the band data together with the set offset coordinates is transferred to an image processing controller that screen-processes the band data. Thereby, in the image processing controller to which the band data has been transferred, the screen processing is performed on the band data based on the offset coordinates (first screen processing step and second screen processing step). Next, in step S6, it is determined whether or not the transfer of all band data from the main controller 33 to the image processing controller 35 has been completed. If it is determined that the transfer of all band data has not been completed, the process returns to step S1, and the processes of steps S1 to S6 are repeated. If it is determined in step S6 that the transfer of all band data has been completed, the transfer of the offset band data to the image processing controller 35 is completed.

図4において、第1の画像処理部35b1に転送されたバンドデータは、この第1の画
像処理部35b1で各トナー色毎のビデオデータ(Video Data)を生成される。そして、
このビデオデータが第1のスクリーン処理部35d1でスクリーン処理されるとともに、
スクリーン処理されたスクリーンデータは第1のスクリーンデータ記憶部35e1に記憶
される。同様にして、第nの画像処理部35bnに転送されたバンドデータは、この第n
の画像処理部35bnで各トナー色毎のビデオデータ(Video Data)を生成される。そし
て、このビデオデータが第nのスクリーン処理部35dnでスクリーン処理されるととも
に、スクリーン処理されたスクリーンデータは第nのスクリーンデータ記憶部35en
記憶される。
4, the band data transferred to the first image processing section 35b 1 are generated video data (Video Data) of the toner colors in the first image processing section 35b 1. And
The video data is screen-processed by the first screen processing unit 35d 1 and
The screen data subjected to the screen processing is stored in the first screen data storage unit 35e 1 . Similarly, the band data transferred to the image processing unit 35b n of the n, the first n
The image processing unit 35b n generates video data for each toner color. Then, the video data with the screen processing by the screen processing unit 35d n of the n, the screened screen data is stored in the screen data storage section 35e n of the n.

このように、この例の画像形成装置1においては、画像処理コントローラ35にn(n≧2)個の第1の画像処理部ないし第nの画像処理部35b1,……,35bnが配設される。そして、n個の画像処理部が配設されることで、印字しようとする画像データが画像処理部の数以上の数に分割され、これらの分割画像データが各画像処理部で並列分散されて画像処理される。 Thus, in the image forming apparatus 1 of this embodiment, the image processing controller 35 to the n (n ≧ 2) pieces first image processing section to the image processing unit 35b 1 of the first n, ......, 35b n is distribution Established. Since n image processing units are arranged, the image data to be printed is divided into a number equal to or greater than the number of image processing units, and these divided image data are distributed in parallel in each image processing unit. Image processing is performed.

この例の画像形成装置1に用いられる分割画像データは、インターリーブ(interleave)形式の画像データである。このインターリーブ形式の画像データは、例えば画像データがイエロ(Y)、マゼンタ(M)、シアン(C)、ブラック(K)のYMCK画像データであるとすると、図11(a)に示すようにこのYMCK画像データがピクセル毎にYMCKの4つのトナー色に色展開されてまとめられた画像データである。そして、分割画像データは、1ラインにつき、数ピクセルのデータに構成される。更に、1ページの画像データを第2の方向(副走査方向)に数ライン毎に分割してバンドデータとして構成されるか、あるいは数ページの画像データを1ページ毎に分割してページデータとして構成される。したがって、分割画像データは、イエロー(Y)、マゼンタ(M)、シアン(C)、およびブラック(K)の各色毎に分けた形式のデータではない。   The divided image data used in the image forming apparatus 1 of this example is image data in an interleave format. For example, if the image data is YMCK image data of yellow (Y), magenta (M), cyan (C), and black (K) as shown in FIG. This is image data in which YMCK image data is color-expanded into four YMCK toner colors for each pixel. The divided image data is composed of several pixels of data per line. Furthermore, one page of image data is divided into several lines in the second direction (sub-scanning direction) and configured as band data, or several pages of image data are divided into one page as page data. Composed. Therefore, the divided image data is not data in a format divided for each color of yellow (Y), magenta (M), cyan (C), and black (K).

図3に示すように、ヘッドコントローラ36は、第1のヘッド側通信モジュール36a1、第2のヘッド側通信モジュール36a2、……、および第nのヘッド側通信モジュールc36aを有している。また、ヘッドコントローラ36は、ヘッド制御モジュール36bおよびページメモリ36cを有している。 As shown in FIG. 3, the head controller 36 includes a first head side communication module 36a 1 , a second head side communication module 36a 2 ,..., And an nth head side communication module c36a. The head controller 36 includes a head control module 36b and a page memory 36c.

第1の画像処理側通信モジュール35c1と第1のヘッド側通信モジュール36a1とが双方向に通信可能とされている。そして、第1のヘッド側通信モジュール36a1から第
1の画像処理側通信モジュール35c1に向けて、1ページの画像データの先頭を示すペ
ージリクエスト信号Preqおよびこの画像データの第1のバンドデータを構成するラインのうち、1ライン分のビデオデータを要求するラインリクエスト信号Lreqが送信される。
The first image processing side communication module 35c 1 and the first head side communication module 36a 1 can communicate bidirectionally. Then, a page request signal Preq indicating the head of image data of one page and the first band data of the image data are sent from the first head side communication module 36a 1 to the first image processing side communication module 35c 1. A line request signal Lreq for requesting video data for one line among the constituent lines is transmitted.

また、第1の画像処理側通信モジュール35c1は第1のヘッド側通信モジュール36
1からページリクエスト信号Preqおよびラインリクエスト信号Lreqを受信すると、第1
のスクリーンデータ記憶部35e1から対応する第1のバンドデータを第1のヘッド側通
信モジュール36a1に向けて出力する。すなわち、第1の画像処理側通信モジュールc1は、第1のヘッド側通信モジュール36a1からページリクエスト信号Preqを受信した後
、第1のヘッド側通信モジュール36a1からラインリクエスト信号Lreqを受信する度に
、第1のバンドデータの先頭部分から1ライン分ずつビデオデータを順次第1のヘッド側通信モジュール36a1に出力する。
Further, the first image processing side communication module 35c 1 is a first head side communication module 36.
Upon receiving the page request signal Preq and line request signals Lreq from a 1, the first
The corresponding first band data is output from the screen data storage unit 35e 1 to the first head side communication module 36a 1 . That is, the first image processing communication module c 1, after receiving a page request signal Preq from the first head-side communication module 36a 1, receives a line request signal Lreq from the first head-side communication module 36a 1 Each time, the video data is sequentially output to the first head side communication module 36a 1 by one line from the head portion of the first band data.

同様にして、第nの画像処理側通信モジュール35cnと第nのヘッド側通信モジュー
ル36anとが双方向に通信可能とされている。そして、第nのヘッド側通信モジュール
36anから第nの画像処理側通信モジュール35cnに向けて、1ページの画像データの先頭を示すページリクエスト信号Preqおよびこの画像データの第nのバンドデータを構成するラインのうち、1ライン分のビデオデータを要求するラインリクエスト信号Lreqが送
信される。
Similarly, the image processing side communication module 35c n of the n and the head-side communication module 36a n of the n is capable of communicating bidirectionally. Then, from the head-side communication module 36a n of the n to the image processing side communication module 35c n of the n, the page request signal Preq and band data of the n of the image data indicating the top of the image data of one page A line request signal Lreq for requesting video data for one line among the constituent lines is transmitted.

また、第nの画像処理側通信モジュール35cnは第nのヘッド側通信モジュール36
nからページリクエスト信号Preqおよびラインリクエスト信号Lreqを受信すると、第n
のスクリーンデータ記憶部35enから対応する第nのバンドデータを第nのヘッド側通
信モジュール36anに向けて出力する。すなわち、第nの画像処理側通信モジュールcnは、第nのヘッド側通信モジュール36anからページリクエスト信号Preqを受信した後
、第nのヘッド側通信モジュール36anからラインリクエスト信号Lreqを受信する度に
、第nのバンドデータの先頭部分から1ライン分ずつビデオデータを順次第nのヘッド側通信モジュール36anに出力する。
Further, the image processing side communication module 35c n n-th head side communication module 36 of the n
Upon receiving the page request signal Preq and line request signals Lreq from a n, a n
The n-th band data corresponding the screen data storing unit 35e n toward the head-side communication module 36a n of the n output. That is, the image processing side communication module c n of the n, after receiving a page request signal Preq from the head-side communication module 36a n of the n, receives a line request signal Lreq from the head-side communication module 36a n of the n Each time, video data is sequentially output to the nth head side communication module 36an by one line from the head portion of the nth band data.

ヘッド制御モジュール36bでは、第1のヘッド側通信モジュール36a1に送信され
たインターリーブ形式の分割画像データは、図示しないヘッド制御モジュール36b内の第1のFIFOバッファに格納される。第1のFIFOバッファに格納された分割画像データは図11(b)に示すように色分けされて、順次、ヘッド制御モジュール36b内の図示しないイエローのYラインバッファ、マゼンタのMラインバッファ、シアンのCラインバッファ、およびブラックのKラインバッファに振り分けられて格納される。同様にして、第nのヘッド側通信モジュール36anに送信されたインターリーブ形式の分割画像
データは、図示しないヘッド制御モジュール36b内の第1のFIFOバッファに格納される。そして、第nのFIFOバッファに格納された分割画像データは図11(b)に示すように色分けされて、順次、ヘッド制御モジュール36b内の図示しないイエローラインバッファ、マゼンタラインバッファ、シアンラインバッファ、およびブラックラインバッファに振り分けられて格納される。
In the head control module 36b, the interleaved divided image data transmitted to the first head-side communication module 36a 1 is stored in a first FIFO buffer in the head control module 36b (not shown). The divided image data stored in the first FIFO buffer is color-coded as shown in FIG. 11B, and sequentially, a yellow Y line buffer (not shown), a magenta M line buffer, a cyan color in the head control module 36b. The data are sorted and stored in the C line buffer and the black K line buffer. Similarly, the interleaved divided image data transmitted to the nth head side communication module 36an is stored in a first FIFO buffer in the head control module 36b (not shown). The divided image data stored in the nth FIFO buffer is color-coded as shown in FIG. 11B, and sequentially, a yellow line buffer, a magenta line buffer, a cyan line buffer (not shown) in the head control module 36b, And sorted and stored in the black line buffer.

そして、イエローラインバッファに1ライン分のイエロー(Y)のデータが溜まると、このラインデータがページメモリ36cの図示しないイエローページデータメモリ部に転送されて記憶される。同様にして、マゼンタラインバッファ、シアンラインバッファ、およびブラックラインバッファに1ライン分のマゼンタ(M)のデータ、シアン(C)のデータ、およびブラック(K)のデータが溜まると、これらのラインデータがページメモリ36cの図示しないマゼンタページデータメモリ部、シアンページデータメモリ部、およびブラックページデータメモリ部に転送されて記憶される。   When one line of yellow (Y) data is accumulated in the yellow line buffer, the line data is transferred to and stored in a yellow page data memory unit (not shown) of the page memory 36c. Similarly, when magenta (M) data, cyan (C) data, and black (K) data for one line are accumulated in the magenta line buffer, cyan line buffer, and black line buffer, these line data are stored. Are transferred to and stored in a magenta page data memory unit, a cyan page data memory unit, and a black page data memory unit (not shown) of the page memory 36c.

このとき、ラインバッファからページデータメモリ部にラインデータを転送する際には、ラインデータはラインヘッドに必要なデータの並べ替えが行われて、各色のラインデータとされる。このように並べ替えられた後の各色のラインデータが各ページデータメモリ部の対応するメモリアドレスに転送されて記憶される。そして、ヘッド制御モジュール36bは要求に応じてページメモリ36cから各色のラインデータを取り出して対応する色の第1ラインヘッドないし第4のラインヘッド12Y,12M,12C,12Kに出力する
。これにより、第1ラインヘッドないし第4のラインヘッド12Y,12M,12C,12
Kは、供給されたラインデータに応じて第1の感光体ないし第4の感光体10Y,10M,10C,10Kに各色の像を書き込む。
At this time, when the line data is transferred from the line buffer to the page data memory unit, the data necessary for the line head is rearranged into the line data of each color. The line data of each color after the rearrangement is transferred to the corresponding memory address of each page data memory unit and stored. Then, the head control module 36b takes out the line data of each color from the page memory 36c as required, and outputs it to the first line heads 12Y, 12M, 12C, 12K of the corresponding colors. As a result, the first to fourth line heads 12Y, 12M, 12C, 12
K writes the image of each color on the first to fourth photoreceptors 10Y, 10M, 10C, and 10K according to the supplied line data.

以上のように、この例の画像処理装置、画像処理方法、および画像形成装置1によれば、画像処理コントローラ35が、第1の画像処理コントローラ35a1ないし第nの画像
処理コントローラ35anを有している。したがって、入力画像データを分割した分割画
像データであるバンドデータあるいはラインデータに対して第1の画像処理コントローラ35a1ないし第nの画像処理コントローラ35anにより独立して画像処理の並列分散処理が可能となる。これにより、高解像度、大容量の画像データの画像処理をより一層迅速に実行することが可能となる。
As described above, the image processing apparatus of this embodiment, an image processing method, and according to the image forming apparatus 1, beamed image processing controller 35, the image processing controller 35a n of the first image processing controller 35a 1 to the n is doing. Thus, possible parallel distributed processing of independently image processing by the image processing controller 35a n of the first image processing controller 35a 1 through n-th relative a divided image data obtained by dividing the input image data band data or line data It becomes. As a result, it is possible to execute image processing of high-resolution and large-capacity image data even more quickly.

また、第1の画像処理コントローラ35a1ないし第nの画像処理コントローラ35anに対して、スクリーンパターンの閾値による座標を分割画像データの境界部でオフセットしたオフセット座標を指定している。これにより、画像のバンディングの発生が防止可能となる。したがって、画像処理のより一層の高速化を効果的に図りつつ、画像データのスクリーン処理によるバンディングを防止することができるようになる。 Further, the image processing controller 35a n of the first image processing controller 35a 1 through the n, specifies the offset coordinates offset coordinates based on the threshold screen pattern at the boundary of the divided image data. This can prevent image banding. Therefore, it is possible to prevent banding due to screen processing of image data while effectively achieving higher speed image processing.

図12は、バンドデータの先頭座標を、バンドデータ毎にオフセットさせて画像処理コントローラに転送するフローの他の例を説明する、図8と同様の図である。
前述の図8に示す例のフローでは、最初に画像データを分割してバンドデータを生成し、次に生成したバンドデータに対してオフセット座標を設定している。これに対して、図12に示すように、この例のフローでは、最初に画像データに対してオフセット座標を設定し、次にオフセット座標が設定された画像データを分割してバンドデータを生成している。
FIG. 12 is a diagram similar to FIG. 8 for explaining another example of the flow in which the leading coordinates of the band data are offset for each band data and transferred to the image processing controller.
In the flow of the example shown in FIG. 8, the image data is first divided to generate band data, and then the offset coordinates are set for the generated band data. On the other hand, as shown in FIG. 12, in the flow of this example, first, offset coordinates are set for image data, and then the image data set with the offset coordinates are divided to generate band data. ing.

すなわち、図12に示すようにステップS51で、画像データの先頭画素の座標を第1の方向(主走査方向)にオフセットするために第1の方向オフセット値が計算される。また、ステップS52で画像データの先頭画素の座標を第2の方向(副走査方向)にオフセットするために第2の方向オフセット値が計算される。これらの第1の方向オフセット値および第2の方向オフセット値の計算は、前述の図9(a)および(b)に示す例と実質的に同じである。その場合、バンドデータに代えて画像データとする。   That is, as shown in FIG. 12, in step S51, a first direction offset value is calculated in order to offset the coordinates of the first pixel of the image data in the first direction (main scanning direction). In step S52, a second direction offset value is calculated to offset the coordinates of the first pixel of the image data in the second direction (sub-scanning direction). The calculation of the first direction offset value and the second direction offset value is substantially the same as the example shown in FIGS. 9A and 9B. In this case, image data is used instead of band data.

そして、ステップS53で第1の方向のオフセット値および第2の方向のオフセット値に基づいてオフセット座標が設定される。次に、ステップS54でオフセット座標が設定された画像データを分割してバンドデータを生成する。次いで、ステップS55でバンドデータが、このバンドデータを処理する画像処理コントローラに転送される。これにより、バンドデータが転送された画像処理コントローラにおいて、バンドデータに対してオフセット座標に基づいてスクリーン処理が行われる。次に、ステップS56でメインコントローラ33から画像処理コントローラ35への全バンドデータの転送が終了したか否かを判断される。全バンドデータの転送が終了していないと判断されると、ステップS51に戻り、ステップS51ないしS56の処理が繰り返される。ステップS56で全バンドデータの転送が終了したと判断されると、オフセットされたバンドデータの画像処理コントローラ35への転送が終了される。   In step S53, offset coordinates are set based on the offset value in the first direction and the offset value in the second direction. Next, the image data for which the offset coordinates are set in step S54 is divided to generate band data. In step S55, the band data is transferred to an image processing controller that processes the band data. As a result, the image processing controller to which the band data has been transferred performs screen processing on the band data based on the offset coordinates. Next, in step S56, it is determined whether or not the transfer of all band data from the main controller 33 to the image processing controller 35 has been completed. If it is determined that the transfer of all band data has not been completed, the process returns to step S51, and the processes of steps S51 to S56 are repeated. If it is determined in step S56 that the transfer of all band data has been completed, the transfer of the offset band data to the image processing controller 35 is completed.

なお、この例の画像形成装置1における他の構成および他の画像動作は、特許文献1に記載の画像形成装置と実質的に同じであるので、その説明は省略する。
また、本発明は、前述の各例に限定されることはなく、特許請求の範囲に記載された事項の範囲内で種々設計変更可能である。
Note that other configurations and other image operations in the image forming apparatus 1 of this example are substantially the same as those of the image forming apparatus described in Patent Document 1, and thus the description thereof is omitted.
The present invention is not limited to the above-described examples, and various design changes can be made within the scope of the matters described in the claims.

本発明にかかる画像形成装置の実施の形態の一例を模式的にかつ部分的に示す図である。1 is a diagram schematically and partially showing an example of an embodiment of an image forming apparatus according to the present invention. 図1に示す例のラインヘッドの部分斜視図である。It is a fragmentary perspective view of the line head of the example shown in FIG. 図1に示す例のエンジン制御部およびエンジン部のブロック図である。It is a block diagram of the engine control part and engine part of the example shown in FIG. メインコントローラおよび画像処理コントローラを模式的に示すブロック図である。2 is a block diagram schematically showing a main controller and an image processing controller. FIG. スクリーンパターンの閾値による座標が設定された画像データの一例を示す図である。It is a figure which shows an example of the image data by which the coordinate by the threshold value of a screen pattern was set. 図5に示す座標が設定された画像データを分割するとともに独立でスクリーンパターンを設定されたバンドデータを示す図である。It is a figure which shows the band data which set the screen pattern independently while dividing the image data to which the coordinate shown in FIG. 5 was set. 図5に示す座標が設定された画像データを分割するとともにオフセットを入れてスクリーンパターンを設定されたバンドデータを示す図である。It is a figure which shows the band data which set the screen pattern by dividing | segmenting the image data in which the coordinate shown in FIG. 5 was set, and putting offset. バンドデータの先頭座標を、バンドデータ毎にオフセットさせて画像処理コントローラに転送するフローの一例を説明する図である。It is a figure explaining an example of the flow which offsets the head coordinate of band data for every band data, and transfers to an image processing controller. バンド毎にスクリーンパターンのオフセット座標を決める方法のフローの一例を説明する図である。It is a figure explaining an example of the flow of the method of determining the offset coordinate of a screen pattern for every band. ライン毎にスクリーンパターンのオフセット座標を決める方法のフローの一例を説明する図である。It is a figure explaining an example of the flow of the method of determining the offset coordinate of a screen pattern for every line. 分割画像データの一例を示す図である。It is a figure which shows an example of division | segmentation image data. バンドデータの先頭座標を、バンドデータ毎にオフセットさせて画像処理コントローラに転送するフローの他の例の説明図である。It is explanatory drawing of the other example of the flow which offsets the head coordinate of band data for every band data, and transfers to an image processing controller.

符号の説明Explanation of symbols

1…画像形成装置、3…画像形成ユニット、7…エンジン制御部、10Y…第1の感光体、10M…第2の感光体、10C…第3の感光体、10K…第4の感光体、12Y…第1のラインヘッド、12M…第2のラインヘッド、12C…第3のラインヘッド、12K…第4のラインヘッド、32…エンジン部、33…メインコントローラ、33a…バンドデータ生成部、33b…スクリーンオフセット計算部、33c…スクリーンオフセット設定部、33d…データ転送部、34…エンジンコントローラ、35…画像処理コントローラ、35a1…第1の画像処理コントローラ、35a2…第2の画像処理コントローラ、35an…第nの画像処理コントローラ、35b1…第1の画像処理部、35b2…第2の画像
処理部、35bn…第nの画像処理部、35c1…第1の画像処理側通信モジュール、35c2…第2の画像処理側通信モジュール、35c…第nの画像処理側通信モジュール、3
5d1…第1のスクリーン処理部、35d2…第2のスクリーン処理部、35dn…第nの
スクリーン処理部、36…ヘッドコントローラ、35e1…第1のスクリーンデータ記憶
部、35e2…第2のスクリーンデータ記憶部、35en…第nのスクリーンデータ記憶部、36…ヘッドコントローラ、36a1…第1のヘッド側通信モジュール、36a2…第2のヘッド側通信モジュール、36an…第nのヘッド側通信モジュール、36b…ヘッド
制御モジュール、36c…ページメモリ
DESCRIPTION OF SYMBOLS 1 ... Image forming apparatus, 3 ... Image forming unit, 7 ... Engine control part, 10Y ... 1st photoreceptor, 10M ... 2nd photoreceptor, 10C ... 3rd photoreceptor, 10K ... 4th photoreceptor, 12Y: first line head, 12M: second line head, 12C: third line head, 12K: fourth line head, 32: engine unit, 33: main controller, 33a: band data generation unit, 33b ... Screen offset calculation unit 33c Screen offset setting unit 33d Data transfer unit 34 Engine controller 35 Image controller 35a 1 First image controller 35a 2 Second image controller 35a n ... image processing controller, 35b 1 ... first image processing unit of n, 35b 2 ... second image processing section, 35b n ... n-th An image processing unit, 35c 1 ... first image processing communication module, 35c 2 ... second image processing side communication module, 35c ... image processing side communication module of the n, 3
5d 1 ... first screen processing unit, 35d 2 ... second screen processing unit, 35d n ... n-th screen processing unit, 36 ... head controller, 35e 1 ... first screen data storage unit, 35e 2 ... first 2 of the screen data storage unit, the screen data storage section 35e n ... n-th, 36 ... head controller, 36a 1 ... first head-side communication module, 36a 2 ... second head-side communication module, 36a n ... n-th Head side communication module, 36b ... head control module, 36c ... page memory

Claims (8)

画像データを分割して分割画像データを生成する画像データ分割部と、
前記分割画像データに座標を設定する座標設定部と、
前記座標を設定された前記分割画像データをスクリーン処理する第1の画像処理部と、
前記座標を設定された前記分割画像データをスクリーン処理する第2の画像処理部と、を有し、
前記座標設定部は、前記第1の画像処理部でスクリーン処理する前記座標、もしくは前記第2の画像処理部でスクリーン処理する前記座標を設定することを特徴とする画像処理装置。
An image data dividing unit for dividing the image data to generate divided image data;
A coordinate setting unit for setting coordinates in the divided image data;
A first image processing unit that screen-processes the divided image data set with the coordinates;
A second image processing unit that screen-processes the divided image data set with the coordinates,
The image processing apparatus, wherein the coordinate setting unit sets the coordinates for screen processing by the first image processing unit or the coordinates for screen processing by the second image processing unit.
前記スクリーン処理を行うためのスクリーンデータを記憶するスクリーンデータ記憶部を有する請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, further comprising a screen data storage unit that stores screen data for performing the screen processing. 前記座標設定部は、前記座標を前記分割画像データのバンドデータに設定するか、または前記座標を前記分割画像データのラインデータに設定する請求項1または2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the coordinate setting unit sets the coordinates to band data of the divided image data, or sets the coordinates to line data of the divided image data. 前記座標設定部は、前記第2の画像処理部でスクリーン処理される前記分割画像データに設定された前記座標を、前記第1の画像処理部でスクリーン処理される前記分割画像データに設定された座標に対してオフセットしたオフセット座標に設定する請求項1ないし3のいずれか1に記載の画像処理装置。   The coordinate setting unit sets the coordinates set in the divided image data screen-processed by the second image processing unit to the divided image data screen-processed by the first image processing unit. The image processing apparatus according to claim 1, wherein the image processing apparatus sets offset coordinates offset with respect to the coordinates. 画像データを分割して分割画像データを生成する画像データ分割工程と、
前記分割画像データに座標を設定する座標設定工程と、
前記座標設定工程で第1の画像処理部でスクリーン処理する座標を設定された前記分割画像データを前記第1の画像処理部でスクリーン処理する第1のスクリーン処理工程と、
前記座標設定工程で第2の画像処理部でスクリーン処理する座標を設定された前記分割画像データを前記第2の画像処理部でスクリーン処理する第2のスクリーン処理工程と、を有することを特徴とする画像処理方法。
An image data dividing step of dividing the image data to generate divided image data;
A coordinate setting step for setting coordinates in the divided image data;
A first screen processing step in which the first image processing unit screen-processes the divided image data in which coordinates for screen processing in the first image processing unit are set in the coordinate setting step;
A second screen processing step in which the second image processing unit screen-processes the divided image data in which coordinates for screen processing in the second image processing unit are set in the coordinate setting step. Image processing method.
前記第2のスクリーン処理工程でスクリーン処理される前記分割画像データに設定された前記座標を、前記第1のスクリーン処理工程でスクリーン処理される前記分割画像データに設定された前記座標に対してオフセットしたオフセット座標に設定するオフセット座標設定工程を有する請求項5に記載の画像処理方法。   The coordinates set in the divided image data screened in the second screen processing step are offset with respect to the coordinates set in the divided image data screened in the first screen processing step. The image processing method according to claim 5, further comprising an offset coordinate setting step for setting the offset coordinates. 前記画像データ分割工程と前記座標設定工程とを同時に行う請求項5または6に記載の画像処理方法。   The image processing method according to claim 5, wherein the image data dividing step and the coordinate setting step are performed simultaneously. 潜像が形成される潜像担持体と、
前記潜像担持体に、画像データに基づく潜像を形成する露光ヘッドと、
前記画像データを分割して分割画像データを生成する画像データ分割部と、
前記分割画像データに座標を設定する座標設定部と、
前記座標を設定された前記分割画像データをスクリーン処理する第1の画像処理部と、
前記座標を設定された前記分割画像データをスクリーン処理する第2の画像処理部と、を有し、
前記座標設定部は、前記第2の画像処理部でスクリーン処理される前記分割画像データに設定された座標を、前記第1の画像処理部でスクリーン処理される前記分割画像データに設定された座標に対してオフセットしたオフセット座標に設定し、
前記第2の画像処理部は前記オフセット座標に基づいて前記分割画像データをスクリー
ン処理することを特徴とする画像形成装置。
A latent image carrier on which a latent image is formed;
An exposure head for forming a latent image based on image data on the latent image carrier;
An image data dividing unit for dividing the image data to generate divided image data;
A coordinate setting unit for setting coordinates in the divided image data;
A first image processing unit that screen-processes the divided image data set with the coordinates;
A second image processing unit that screen-processes the divided image data set with the coordinates,
The coordinate setting unit sets coordinates set in the divided image data screen-processed by the second image processing unit to coordinates set in the divided image data screen-processed by the first image processing unit. Set to the offset coordinates offset with respect to
The image forming apparatus, wherein the second image processing unit screen-processes the divided image data based on the offset coordinates.
JP2008293422A 2008-11-17 2008-11-17 Image processing apparatus, image processing method and image forming apparatus Pending JP2010120179A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008293422A JP2010120179A (en) 2008-11-17 2008-11-17 Image processing apparatus, image processing method and image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008293422A JP2010120179A (en) 2008-11-17 2008-11-17 Image processing apparatus, image processing method and image forming apparatus

Publications (1)

Publication Number Publication Date
JP2010120179A true JP2010120179A (en) 2010-06-03

Family

ID=42321954

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008293422A Pending JP2010120179A (en) 2008-11-17 2008-11-17 Image processing apparatus, image processing method and image forming apparatus

Country Status (1)

Country Link
JP (1) JP2010120179A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013005358A (en) * 2011-06-21 2013-01-07 Konica Minolta Business Technologies Inc Image processing apparatus

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013005358A (en) * 2011-06-21 2013-01-07 Konica Minolta Business Technologies Inc Image processing apparatus

Similar Documents

Publication Publication Date Title
JP5006731B2 (en) Image forming apparatus and image correction method
JP2010210652A (en) Image forming apparatus and image forming method
JP2014058076A (en) Image formation device and gradation conversion method
JP6456013B2 (en) Apparatus, method, and program for performing dither processing
JP2009226712A (en) Image formation device
JP2010120179A (en) Image processing apparatus, image processing method and image forming apparatus
JP6489302B2 (en) Image forming apparatus and data transmission method
JP5079065B2 (en) Color image processing apparatus and program
JP2010131855A (en) Image processing apparatus, image processing method, and image forming apparatus
JP2010131854A (en) Image processing apparatus, image processing method, and image forming apparatus
JP2010124050A (en) Image processing apparatus and method, and image forming apparatus
JP2009133994A (en) Image forming apparatus, image forming method and its program
JP2010124051A (en) Image processing apparatus and method, and image forming apparatus
JP6531340B2 (en) Image forming device
JP7337237B2 (en) IMAGE FORMING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP7116638B2 (en) IMAGE FORMING APPARATUS, CONTROL METHOD THEREOF, AND PROGRAM
JP4403744B2 (en) Correction data generation apparatus and light quantity correction method for optical print head
US20090147311A1 (en) Image Processing Device, Image Forming Apparatus, and Image Forming Method
JP5720149B2 (en) Image processing apparatus, image forming apparatus, image processing method, and density adjustment control program
JP6608488B2 (en) Apparatus, method, and program for performing dither processing
JP5077138B2 (en) Image forming apparatus
JP2010099971A (en) Exposure controller, exposure device, and image forming device
JP2024031853A (en) Exposure equipment and image forming equipment
JP2010099972A (en) Image forming method, image forming device, and image forming system
JP2010099970A (en) Image forming device and image forming method