JP4787685B2 - Seam image data correction method, image reading apparatus, and image forming apparatus - Google Patents

Seam image data correction method, image reading apparatus, and image forming apparatus Download PDF

Info

Publication number
JP4787685B2
JP4787685B2 JP2006168753A JP2006168753A JP4787685B2 JP 4787685 B2 JP4787685 B2 JP 4787685B2 JP 2006168753 A JP2006168753 A JP 2006168753A JP 2006168753 A JP2006168753 A JP 2006168753A JP 4787685 B2 JP4787685 B2 JP 4787685B2
Authority
JP
Japan
Prior art keywords
image
image data
halftone dot
data
halftone
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006168753A
Other languages
Japanese (ja)
Other versions
JP2007336440A (en
Inventor
一史 武井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2006168753A priority Critical patent/JP4787685B2/en
Publication of JP2007336440A publication Critical patent/JP2007336440A/en
Application granted granted Critical
Publication of JP4787685B2 publication Critical patent/JP4787685B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Facsimile Scanning Arrangements (AREA)

Description

本発明は、繋ぎ目処理を行う繋ぎ目画像データ補正方法、この繋ぎ目画像データ補正方法を実行する画像読み取り装置及びこの画像読み取り装置を備えた画像形成装置に関する。   The present invention relates to a seam image data correction method for performing seam processing, an image reading apparatus for executing the seam image data correction method, and an image forming apparatus including the image reading apparatus.

原稿画像を読み取る画像読み取り装置においては、読取特性を保証するために、一般的に公知技術であるシェーディング補正を行って、主走査方向データのばらつきを補正している。複数のイメージセンサを千鳥状に配置した画像読み取り装置では、それぞれのイメージセンサが持つ出力特性にばらつきがあり、全面で均一な濃度出力を得ることが困難である。また、千鳥状に配置したイメージセンサの先に原稿を読み取る側は画像データを一時的にメモリに蓄積し、後で原稿を読み取る側のイメージセンサのデータに合わせ込むように調整している。しかし、原稿搬送時の送りムラやイメージセンサの配置のずれ等によりデータに主、副走査方向にずれが生じてしまう場合がある。   In an image reading apparatus that reads a document image, shading correction, which is a generally known technique, is performed to correct variations in main scanning direction data in order to guarantee reading characteristics. In an image reading apparatus in which a plurality of image sensors are arranged in a staggered manner, output characteristics of each image sensor vary, and it is difficult to obtain uniform density output over the entire surface. In addition, the side of the document reading ahead of the image sensors arranged in a staggered pattern temporarily adjusts the image data to be stored in the memory and later adjusted to the data of the image sensor on the side of reading the document. However, there may be a case where the data is shifted in the main and sub-scanning directions due to feeding unevenness during document transportation, displacement of the image sensor, or the like.

そこで、このような問題に対処する技術として例えば特許文献1ないし3に記載の発明が公知である。このうち特許文献1には、一枚原稿を複数撮像装置で主走査方向に分割して読み取る場合の、撮像装置の副走査方向の位置差Lによる、読み取った分割画像の相対ずれを低減するために、広範囲のエリアを主走査方向で分割読取するための、主走査方向に配列した複数の撮像装置と、該撮像装置と原稿の少なくとも一方を、相対的に副走査方向に駆動する副走査手段と、前記副走査の速度を検出する速度検出手段と、前記複数の撮像装置の読取視野の副走査方向の位置差による撮像装置間の画像データのタイミングずれを、前記速度検出手段の検出速度に基づいて補正する遅延手段と、前記画像データのタイミングずれを補正した画像データを、主走査方向の画像分布対応に連続配列するための集成手段とを備えた画像読み取り装置が開示されている。   Therefore, for example, the inventions described in Patent Documents 1 to 3 are known as techniques for dealing with such problems. Among them, Japanese Patent Application Laid-Open No. 2004-228561 reduces the relative deviation of the read divided images due to the position difference L in the sub-scanning direction of the image pickup apparatus when a single document is divided and read in the main scan direction by a plurality of image pickup apparatuses. In addition, a plurality of imaging devices arranged in the main scanning direction for dividing and reading a wide area in the main scanning direction, and sub-scanning means for relatively driving at least one of the imaging device and the document in the sub-scanning direction A speed detection means for detecting the speed of the sub-scanning, and a timing shift of image data between the imaging devices due to a position difference in the sub-scanning direction of the reading field of the plurality of imaging devices as a detection speed of the speed detection means. Disclosed is an image reading apparatus comprising delay means for correcting based on the image forming apparatus, and collecting means for continuously arranging the image data in which the timing deviation of the image data is corrected in correspondence with the image distribution in the main scanning direction. To have.

また、特許文献2には、副走査方向に位置ずれするとともに、端部が所定量重なる状態で主走査方向に延在して配設された複数の読取センサの読み取った各画像データの繋ぎ合わせを正確に行うために、各読取センサのうち相隣接する読取センサの読み取った画像データの繋ぎ目部分の画像パターンを認識し、当該画像パターンが所定の画像パターンであると、当該繋ぎ目部分の画像データに基づいて当該相隣接する読取センサの読み取った各画像データの副走査方向でのずれ量を検出して、当該ずれ量を保存するずれ量検出処理を行って、当該ずれ量に基づいて前記遅延手段による前記原稿搬送方向上流側の前記読取センサの読み取った画像データの遅延時間を補正させる遅延時間補正処理を行う繋ぎ目画像認識補正手段を備えた画像読み取り装置が開示されている。   Japanese Patent Laid-Open No. 2004-268531 joins image data read by a plurality of reading sensors that are displaced in the sub-scanning direction and extend in the main scanning direction with a predetermined amount of end portions overlapping. In order to perform accurately, the image pattern of the joint portion of the image data read by the adjacent reading sensors among the respective reading sensors is recognized, and if the image pattern is a predetermined image pattern, Based on the image data, a displacement amount detection process for detecting the displacement amount in the sub-scanning direction of each image data read by the adjacent reading sensor and storing the displacement amount is performed. Image reading provided with joint image recognition correction means for performing delay time correction processing for correcting the delay time of the image data read by the reading sensor upstream of the document conveying direction by the delay means. Ri apparatus is disclosed.

さらに、特許文献3には、出力画像における各センサの繋ぎ目部分に現れる濃淡の境界あるいは画像ずれが発生することを防止するため、千鳥状に配列された複数のイメージセンサのうち、副走査方向について一方側に配置されるイメージセンサにおける原稿画像全体の画像データ作成に用いない読取画素より得られた画像データを格納し、当該格納したデータに基づいて副走査方向について他方側に配置されるイメージセンサにおける格納した画像データを得た読取画素と主走査方向について重なる読取画素より得られる画像データを補正する画像読み取り装置が開示されている。
特開2004−215011号公報 特開2004−214769号公報 特開2003−046736号公報
Further, in Patent Document 3, in order to prevent the occurrence of a gray level boundary or image shift appearing at the joint portion of each sensor in the output image, among the plurality of image sensors arranged in a staggered pattern, the sub-scanning direction is disclosed. The image data obtained from the read pixels not used for creating image data of the entire original image in the image sensor arranged on one side is stored, and the image arranged on the other side in the sub-scanning direction based on the stored data An image reading apparatus that corrects image data obtained from a reading pixel that overlaps in the main scanning direction with a reading pixel that has obtained stored image data in a sensor is disclosed.
Japanese Patent Application Laid-Open No. 2004-215011 JP 2004-214769 A JP 2003-046736 A

しかし、前記公知技術では、文字や線などの画像や均一なハーフトーン濃度の画像においては良好であるが、千鳥状に配置されたイメージセンサに位置ずれがあった場合や網点で構成された画像の場合では繋ぎ目部分の濃度が低下したり、かすれが生じたりしてしまう場合があり、適切な処理されたとは言い難かった。   However, the above-described known technique is good for images such as characters and lines and images having a uniform halftone density. However, the image sensor arranged in a zigzag pattern is misaligned or constituted by halftone dots. In the case of an image, the density of the joint portion may decrease or the image may be blurred, and it is difficult to say that the image has been appropriately processed.

そこで、本発明が解決すべき課題は、繋ぎ目補正処理を行う場合に、文字やハーフトーン濃度の画像と網点部分とに処理を分けて、濃度の低下やかすれを防止することができるようにすることにある。   Therefore, the problem to be solved by the present invention is that when performing the seam correction process, it is possible to divide the process into a character or halftone density image and a halftone dot portion to prevent a decrease in density or blurring. Is to make it.

前記目的を達成するため、第1の手段は、隣接するイメージセンサの読み取り部分を所定の画素数だけ主走査方向に千鳥状に重ねて配置した読み取り手段と、前記各イメージセンサが読み取った画像データを取得する取得手段と、を有し、取得した画像データを補正する画像データ補正方法であって、前記画像データの前記重ねて配置された部分の画像データを複数画素からなるブロックに分け、前記イメージセンサの位置が理想の位置に対してずれが生じている場合、当該ずれの大きさに応じて前記重ねて配置された領域の中で、外側のブロックほどずらし量が大きくなるように、前記ブロックごとに3次関数コンボリューションの係数を変えて、前記画像データに対して3次元コンボリューションを行う第1の工程と、前記第1の工程の出力データに対して、前記隣接するイメージセンサの主走査方向の位置に応じた重み付け係数を乗算する第2の工程と、前記第2の工程から出力され、前記隣接するイメージセンサの重なって配置された部分の画像データを、主走査方向の位置に応じて加算する第3の工程と、を備えることを特徴とする。
第2の手段は、第1の手段において、取得した画像データが網点か否かを判定する第3の工程と、前記第3の工程で網点であると判定された画像データについては前記第1の工程及び第2の工程をスルーして第3の工程を実行することを特徴とする。
第3の手段は、隣接するイメージセンサの読み取り部分を所定の画素数だけ主走査方向に千鳥状に重ねて配置した読み取り手段と、前記各イメージセンサが読み取った画像データを取得する取得手段と、を有し、取得した画像データを補正する画像読み取り装置であって、前記画像データの前記重ねて配置された部分の画像データを複数画素からなるブロックに分け、前記イメージセンサの位置が理想の位置に対してずれが生じている場合には、当該ずれの大きさに応じて前記重ねて配置された領域の中で、外側のブロックほどずらし量が大きくなるように、前記ブロックごとに3次関数コンボリューションの係数を変えて、前記画像データに対して3次元コンボリューションを行う第1の補正手段と、前記第1の補正手段からの出力データに対して、前記隣接するイメージセンサの主走査方向の位置に応じた重み付け係数を乗算する第2の補正手段と、前記第2の手段から出力され、前記隣接するイメージセンサの重なって配置された部分の画像データを、主走査方向の位置に応じて加算する第3の補正手段と、を備えることを特徴とする。
第4の手段は、第3の手段において、重なり部分の画像データが網点画像であるか非網点画像であるかを認識する網点検出手段を備え、網点画像である場合は副走査ライン毎に前記繋ぎ目補正処理を行うラインと行わないラインを組み合わせることを特徴とする。
第5の手段は、第3又は第4の手段において、重なり部分の画像データが網点画像であるか非網点画像であるかを判定する網点判定領域を設定する網点注目領域設定手段を備え、当該設定された注目領域で網点であると判定されたときには、副走査ライン毎に請求項1の繋ぎ目補正処理を行うラインと行わないラインを組み合わせることを特徴とする。
第6の手段は、第4又は第5の手段において、前記繋ぎ目補正処理を行うライン数と行わないライン数を任意に設定する手段を備えていることを特徴とする。
第7の手段は、第3の手段において、副走査ライン毎に網点判定を行い、網点画像のラインでは繋ぎ目補正処理を行わず、非網点画像のラインについて繋ぎ目補正処理を行うことを特徴とする。
第8の手段は、第4ないし第7のいずれかの手段において、網点画像である場合に重なり部分に行う繋ぎ目補正処理を行う画素数を少なくする手段を備えていることを特徴とする。
第9の手段は、第3ないし第8のいずれかの手段に係る画像読み取り装置を画像形成装置が備えていることを特徴とする。
To achieve the object, the first means includes reading means in which reading portions of adjacent image sensors are arranged in a staggered manner in the main scanning direction by a predetermined number of pixels, and image data read by each image sensor. comprising obtaining means for obtaining, and an image data correction method for correcting image data obtained, divided into blocks comprising the image data of the overlaid disposed portion of the image data of a plurality of pixels, wherein If the position of the image sensor is deviation occurs for the ideal location, in the disposed overlapping the according to the size of the shift area, so that the amount of shifting as outer block increases , changing the cubic function convolution coefficient for each said block, a first step of the three-dimensional convolution on the image data, the first Engineering Against the output data, the second step of multiplying the weighting coefficient corresponding to the position of the main scanning direction of the adjacent image sensor, is outputted from the pre-Symbol second step, overlapping of the image sensor to the adjacent the image data of the arrangement portion, and a third step of adding according to the position of the main scanning direction, and wherein the obtaining Bei a.
The second means includes a third step of determining whether the acquired image data is a halftone dot in the first means, and the image data determined to be a halftone dot in the third step. The third step is performed through the first step and the second step.
Third means includes reading means in which reading portions of adjacent image sensors are arranged in a staggered manner in the main scanning direction by a predetermined number of pixels, acquisition means for acquiring image data read by each of the image sensors, An image reading device that corrects the acquired image data, wherein the image data of the overlapped portion of the image data is divided into blocks composed of a plurality of pixels, and the position of the image sensor is an ideal position If there is a shift with respect to the third block, a cubic function is set for each block so that the shift amount increases toward the outer block in the overlapped region according to the shift size. First correction means for performing three-dimensional convolution on the image data by changing a convolution coefficient, and output data from the first correction means On the other hand, a second correction unit that multiplies a weighting coefficient corresponding to the position of the adjacent image sensor in the main scanning direction, and a portion that is output from the second unit and that is disposed so as to overlap the adjacent image sensor. And a third correction unit that adds the image data according to the position in the main scanning direction.
The fourth means comprises halftone dot detection means for recognizing whether the image data of the overlapping portion is a halftone dot image or a non-halftone dot image in the third means. A line for performing the joint correction process and a line not to be performed are combined for each line.
The fifth means is a halftone dot attention area setting means for setting a halftone dot determination area for judging whether the image data of the overlapping portion is a halftone dot image or a non-halftone dot image in the third or fourth means. When the determined region of interest is determined to be a halftone dot, a line for performing the seam correction processing of claim 1 and a line not to be performed are combined for each sub-scanning line.
The sixth means is characterized in that, in the fourth or fifth means, there is provided means for arbitrarily setting the number of lines to be subjected to the joint correction processing and the number of lines not to be performed.
Seventh means is the third means for performing halftone dot determination for each sub-scanning line, not performing seam correction processing on the halftone image line, and performing seam correction processing on the non-halftone image line. It is characterized by that.
The eighth means is characterized in that in any of the fourth to seventh means, there is provided means for reducing the number of pixels for performing seam correction processing performed on the overlapping portion in the case of halftone images. .
A ninth means is characterized in that the image forming apparatus includes an image reading apparatus according to any one of the third to eighth means.

本発明によれば、重み付けして加算した場合でも、境界が目立たないようにすることができる。 According to the present invention, even when weighted and added, the boundary can be made inconspicuous .

以下、図面を参照し、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は本発明の実施例1に係る画像読み取り装置の概略を示したブロック図である。この画像読み取り装置100は、第1ないし第3のCIS1,CIS2,CIS3((密着型イメージセンサ-Contact Image Sensor)、第1ないし第3のA/D(アナログ/デジタル)変換器101,102,103、第1及び第2のメモリ111,112、ライン合成処理ブロック120及びメモリ130より構成されている。   FIG. 1 is a block diagram showing an outline of an image reading apparatus according to Embodiment 1 of the present invention. The image reading apparatus 100 includes first to third CIS 1, CIS 2, CIS 3 ((contact image sensor), first to third A / D (analog / digital) converters 101, 102, 103, first and second memories 111 and 112, a line composition processing block 120, and a memory 130.

この画像読み取り装置100では、第1ないし第3のイメージセンサCIS1〜CIS3を、それぞれ隣り合うセンサと主走査方向に所定画素重なって読み取るように配置してある。また、第2のセンサCIS2が副走査方向について上流側に、第1のセンサCIS1及び第3のセンサCIS3が下流側に所定の間隔をもって千鳥状に配置されている。   In the image reading apparatus 100, the first to third image sensors CIS1 to CIS3 are arranged so as to overlap with adjacent sensors by a predetermined pixel in the main scanning direction. The second sensor CIS2 is arranged in a staggered manner at a predetermined interval on the upstream side in the sub-scanning direction, and the first sensor CIS1 and the third sensor CIS3 are arranged on the downstream side in a predetermined interval.

第1のイメージセンサCIS1から出力される画像データは第1のA/D変換器101によってデジタル信号に変換され、ライン合成処理部120に入力され、第2及び第3のイメージセンサCIS2,3から出力される画像データは第2及び第3のA/D変換器102,103によってデジタル信号に変換され、副走査方向のタイミングを合わせの遅延を行うために第1及び第2のメモリ111,112にそれぞれ一時的に蓄積され、その後、タイミングを合わせてライン合成処理部120に転送される。なお、第1のCIS1は副走査方向の最下流側に位置し、遅延の必要がないことからメモリには蓄積せずに直接ライン合成処理ブロック120にデータ転送される。一方、第3のCIS3は第1のCIS1と同一線上にあるが、調整容易化のため数ライン上流側に配置されていることから、第2のメモリ112にデータを蓄積している。第1ないし第3の各CIS1〜3で所望のライン遅延されたデータは、前述のようにライン合成処理部120に送られる。ここで、繋ぎ目部分の補正処理、並びに並列に流れてきた第1ないし第3の各CIS1〜3のデータに対して1ライン化処理回路123で1ライン化処理を行い、後段に渡している。   The image data output from the first image sensor CIS1 is converted into a digital signal by the first A / D converter 101, input to the line synthesis processing unit 120, and output from the second and third image sensors CIS2 and 3. The output image data is converted into a digital signal by the second and third A / D converters 102 and 103, and the first and second memories 111 and 112 are used for delaying the timing in the sub-scanning direction. And then transferred to the line composition processing unit 120 at the same timing. Note that the first CIS 1 is located on the most downstream side in the sub-scanning direction and does not require a delay, and therefore is directly stored in the line composition processing block 120 without being stored in the memory. On the other hand, the third CIS 3 is on the same line as the first CIS 1, but is arranged on the upstream side for several lines for easy adjustment, and therefore stores data in the second memory 112. The desired line delayed data in each of the first to third CISs 1 to 3 is sent to the line composition processing unit 120 as described above. Here, the correction processing of the joint portion and the one-line processing circuit 123 perform the one-line processing on the data of the first to third CISs 1 to 3 that have flown in parallel, and pass them to the subsequent stage. .

図2はライン合成処理部の詳細を示すブロック図である。
図2に示すようにライン合成処理部120は、繋ぎ目補正処理回路201及び網点検出回路202から構成されている。繋ぎ目補正処理回路201は第1ないし第3の3次関数コンボリューション230,231,232、第1ないし第3の重み付け係数部210,211,212、第1ないし第3の乗算回路220,221,222、第1ないし第3のセレクタ240,241,242、及び加算回路250を備えている。これらの各部は第1の3次関数コンボリューション230、第1の乗算回路220及び第1のセレクタ240が直列に配置され、第1のセレクタ240には、前記第1の乗算回路220からの入力の他に前記第1の3次関数コンボリューション230及び第1の乗算回路220をスルーしたデータが入力される。従って、第1のセレクタ240は第1の乗算回路220からのデータとこれらをスルーしたデータのいずれかを選択する。また、第1の乗算回路220にはさらに重み付け係数部210から重み付け係数と、第1の3次関数コンボリューション230をスルーしたデータが入力される。
FIG. 2 is a block diagram showing details of the line composition processing unit.
As shown in FIG. 2, the line composition processing unit 120 includes a joint correction processing circuit 201 and a halftone detection circuit 202. The joint correction processing circuit 201 includes first to third cubic function convolutions 230, 231, 232, first to third weighting coefficient units 210, 211, 212, and first to third multiplication circuits 220, 221. , 222, first to third selectors 240, 241, 242, and an adder circuit 250. In each of these units, a first cubic function convolution 230, a first multiplication circuit 220, and a first selector 240 are arranged in series, and the first selector 240 has an input from the first multiplication circuit 220. In addition, data that has passed through the first cubic function convolution 230 and the first multiplication circuit 220 is input. Therefore, the first selector 240 selects either the data from the first multiplication circuit 220 or the data that has passed through the data. Further, the weighting coefficient and data that has passed through the first cubic function convolution 230 are further input to the first multiplication circuit 220 from the weighting coefficient unit 210.

このような回路が第2及び第3の3次関数コンボリューション231,232側にも並列に配置され、それぞれ第1ないし第3のCIS1〜3の重なり部分の画像データD1,D2,D3が入力される。第1ないし第3のセレクタ240,241,242の後段には加算回路250が設けられ、前記各セレクタ240,241,242からのデータが入力され、加算処理を行った後、補正後データとして出力される。   Such a circuit is also arranged in parallel on the second and third cubic function convolutions 231 and 232 side, and image data D1, D2, and D3 of the overlapping portions of the first to third CIS1 to CIS3 are input respectively. Is done. An adder circuit 250 is provided in the subsequent stage of the first to third selectors 240, 241, and 242. Data from the selectors 240, 241, and 242 is input, subjected to addition processing, and then output as corrected data. Is done.

また、前記繋ぎ目補正処理回路201とは別に設けられた前記網点検出回路202には、前記第1ないし第3のCIS1〜3の重なり部分の画像データD1,D2,D3が入力され、網点か非網点(文字)かが判断され、その判断結果に基づいてセレクタ240,241,242によって選択されるデータが決定される。本実施例では、非網点(文字)領域であると判断されたときは“0”、網点であると判断されたときは“1”がそれぞれ選択される。前者は3次関数コンボリューションで処理される側のデータであり、後者は3次関数コンボリューションをスルーする側のデータで、網点の場合には、入力されたデータをそのまま出力することになる。ただし、例えばベタ画像の場合には3次関数コンボリューションによる処理を必要としないことから、前記第1の3次関数コンボリューション230をスルーしたベタ画像データが第1の乗算回路220に入力され、乗算回路220で補正処理が実行される。なお、網点検出自体は公知技術であり、種々の方法が知られているので、ここでは特に説明しないが、例えば、後述の実施例2における図22ないし図25を参照して説明するような処理によって網点の検出を行うことができる。   Further, the halftone dot detection circuit 202 provided separately from the joint correction processing circuit 201 is inputted with the image data D1, D2, D3 of the overlapping portions of the first to third CIS1 to CIS3. Whether it is a dot or a non-halftone dot (character) is determined, and data to be selected by the selectors 240, 241, and 242 is determined based on the determination result. In this embodiment, “0” is selected when it is determined as a non-halftone (character) region, and “1” is selected when it is determined as a halftone dot. The former is the data processed by the cubic function convolution, and the latter is the data passing through the cubic function convolution. In the case of a halftone dot, the input data is output as it is. . However, for example, in the case of a solid image, the processing by the cubic function convolution is not required, so that the solid image data that has passed through the first cubic function convolution 230 is input to the first multiplication circuit 220. Correction processing is executed by the multiplier circuit 220. The halftone dot detection itself is a known technique, and various methods are known. Therefore, although not specifically described here, for example, as described with reference to FIGS. A halftone dot can be detected by the processing.

このように構成されたライン画像処理部120では、第1ないし第3のCIS1〜3の重複画素データを含む画素データD1,D2,D3が、繋ぎ目補正処理回路201に同時に入力され、網点検出回路202からの結果A(非網点か網点)により決定された経路を通って補正後のデータ出力が行われる。網点検出回路202からの結果Aが文字(非網点)(0)の場合には繋ぎ目補正処理が選択される。また、網点検出回路202からの結果Aが網点(1)の場合には、スルー処理が選択される。なお、第1ないし第3の3次関数コンボリューション230,231,232、第1ないし第3の重み付け係数210,211,212の詳細は後述する。   In the line image processing unit 120 configured as described above, the pixel data D1, D2, and D3 including the overlapping pixel data of the first to third CIS1 to 3 are simultaneously input to the joint correction processing circuit 201 to check the network. The corrected data is output through the path determined by the result A (non-halftone dot or halftone dot) from the output circuit 202. When the result A from the halftone dot detection circuit 202 is a character (non-halftone dot) (0), the joint correction process is selected. When the result A from the halftone dot detection circuit 202 is a halftone dot (1), the through process is selected. Details of the first to third cubic function convolutions 230, 231 and 232 and the first to third weighting coefficients 210, 211 and 212 will be described later.

このように実施例1では、画像情報を認識し、画像が文字画像であった場合には、重なり部分に3次関数コンボリューション法を用いた予想画素の値を算出し、重み付け係数部210,211,212から任意の重み付け係数を選択して乗算し、第1ないし第3の加算器220,221,222で加算処理を行う。一方、画像が網点であった場合には、ライン毎に重なり部分に補正処理を行うか、スルーするかを選択し、加算処理を行って補正後のデータとしている。   As described above, in the first embodiment, when the image information is recognized and the image is a character image, a predicted pixel value using a cubic function convolution method is calculated for the overlapping portion, and the weighting coefficient unit 210, Arbitrary weighting coefficients are selected from 211 and 212 and multiplied, and addition processing is performed by first to third adders 220, 221 and 222. On the other hand, if the image is a halftone dot, it is selected whether correction processing is to be performed on the overlapped portion for each line or through, and addition processing is performed to obtain corrected data.

図3は3次関数コンポリューション法における予想画素の階調計算について示す図、図4は画素間距離と補正係数との関係を示す図、図5は補正係数のテーブルを示す図である。以下、これらの図を参照し、3次関数コンボリューションによる予想画素の算出方法を説明する。   FIG. 3 is a diagram showing tone calculation of an expected pixel in the cubic function convolution method, FIG. 4 is a diagram showing the relationship between the inter-pixel distance and the correction coefficient, and FIG. 5 is a diagram showing a correction coefficient table. Hereinafter, with reference to these drawings, a method of calculating an expected pixel by cubic function convolution will be described.

図3は注目点(S)とその1ライン後の点(Si+1)、2ライン後の点(Si+2)、及び1ライン前の点(Si−1)の4点のデータを用いて点Sと点Si+1の間にある予想点(σ)を求め、それを注目点(S)の値とする。予想点(σ)を算出する演算式は図3に示す式
σ={Si−1*h(1+r)+S*h(r)+S+1*h(1−r)+S+2*h(2−r)}/{h(1+r)+h(r)+h(1−r)+h(2−r)}
・・・(1)
を用いる。
FIG. 3 uses four points of data: a point of interest (S i ), a point after one line (S i + 1 ), a point after two lines (S i + 2 ), and a point before one line (S i-1 ). Then, an expected point (σ) between the point S i and the point S i + 1 is obtained and set as the value of the target point (S i ). An arithmetic expression for calculating the predicted point (σ) is an expression shown in FIG. 3 .sigma. = {S i-1 * h (1 + r) + S i * h (r) + S i + 1 * h (1-r) + S i + 2 * h (2-r)} / {h (1 + r) + h (r) + h (1-r) + h (2-r)}
... (1)
Is used.

図3の式(1)のh(r)は画素間距離と補正係数の関係を表す式であり、図4に示す関数
1−2|r|+|r|(0≦|r|≦1)
h(r)= 4−8|r|+5|r|−|r|(1≦|r|≦2) ・・・(2)
0(2≦|r|)
で表される。
H (r) in equation (1) in FIG. 3 is an equation representing the relationship between the inter-pixel distance and the correction coefficient, and the function shown in FIG.
1-2 | r | 2 + | r | 3 (0 ≦ | r | ≦ 1)
h (r) = 4-8 | r | +5 | r | 2 − | r | 3 (1 ≦ | r | ≦ 2) (2)
0 (2 ≦ | r |)
It is represented by

図5は前記式(2)より導き出された補正係数をテーブルとして示す図である。図5は精度1/8画素の補正係数テーブルである。このテーブルの係数が式(1)に代入されて予想点の値となる。   FIG. 5 is a table showing the correction coefficient derived from the equation (2) as a table. FIG. 5 is a correction coefficient table with an accuracy of 1/8 pixel. The coefficients of this table are substituted into equation (1) to obtain the predicted point value.

本実施例における繋ぎ目補正処理回路201で実行される3次関数コンボリューションを用いた予想画素の求め方は以下の通りである。
網点検出回路202からの判定結果が文字(非網点)であった場合には、繋ぎ合わせる左右の重なり部分を128画素設定し、16画素単位で第1のCIS1からのデータにおいては左側から順に図5に示すr(コード−10進表示)0,1,2,・・・6,7の補正係数から予想画素を算出し(図6参照−黒丸)、さらに左側から順に7/8、6/8、・・・1/8の重み付け係数を第1の乗算回路220で演算処理する。第2のCIS2からのデータは、逆に重なり部分の右側より図5に示すr(コード−10進表示)0,1,2,・・・6,7の補正係数から予想画素を算出し、さらに7/8、6/8、・・・1/8の重み付け係数を第2の乗算回路221で演算処理する。補正係数に関して今回は16画素単位で0〜7の補正係数にしたが、すべて同じ補正係数にするなど任意に選択できる。その後、加算回路250で加算処理を行い、補正後データとする。本方式により、隣り合ったイメージセンサの重なり部分のずれと読み取り時の濃度の段差を段階的に繋ぐことが可能となり、位置ずれ及び濃度段差を吸収することができる。
The method of obtaining the predicted pixel using the cubic function convolution executed by the joint correction processing circuit 201 in this embodiment is as follows.
When the determination result from the halftone dot detection circuit 202 is a character (non-halftone dot), the left and right overlapping portions to be joined are set to 128 pixels, and the data from the first CIS 1 in units of 16 pixels is from the left side. In order, the expected pixels are calculated from the correction coefficients of r (code-decimal display) 0, 1, 2,..., 6 and 7 shown in FIG. The first multiplication circuit 220 performs arithmetic processing on 6/8,. The data from the second CIS2 is calculated from the correction coefficient of r (code-decimal display) 0, 1, 2,..., 6 and 7 shown in FIG. Further, 7/8, 6/8,... 1/8 weighting coefficients are processed by the second multiplication circuit 221. Regarding the correction coefficient, the correction coefficient is 0 to 7 in units of 16 pixels at this time. Thereafter, addition processing is performed by the addition circuit 250 to obtain corrected data. By this method, it is possible to connect the deviation of the overlapping portions of the adjacent image sensors and the density step at the time of reading step by step, and it is possible to absorb the positional deviation and the density step.

一方、網点検出回路202からの判定結果が網点であった場合には、網点画像では文字画像と同様の処理を行うと、イメージセンサの位置ずれがある場合などでは網点部分が消えてしまう可能性がある。そこで、図7に示すように副走査ライン毎に1ライン目はイメージセンサの重なり部分のデータとして第1のCIS1のデータをそのまま使い、第2のCIS2のデータと繋ぎ合わせる(図7*パターン1−1参照)。2ライン目は文字部と同じ処理を行い、補正係数を乗算し、その後重み付け係数を乗算してから第1のCIS1と第2のCIS2のデータを繋ぎ合わせる(図8*パターン1−2参照)。3ライン目は1ライン目とは逆にイメージセンサの重なり部分のデータとして第2のCIS2のデータをそのまま使い、CIS1とCIS2のデータを繋ぎ合わせる(図9*パターン1−3参照)。4ライン目は2ライン目と同様に文字部と同じ処理を行う(図10*パターン1−4)。その後はまた図7に示すようにパターン1−1に戻り、同じ流れを繰り返す。このように本制御方式により網点部分の画像が消えてしまうということを防止することが可能になる。   On the other hand, when the determination result from the halftone dot detection circuit 202 is a halftone dot, if the same processing is performed on the halftone dot image as the character image, the halftone dot portion disappears when the image sensor is misaligned. There is a possibility that. Therefore, as shown in FIG. 7, for each sub-scan line, the first CIS1 data is used as it is for the overlapping portion of the image sensor for the first line, and is connected to the second CIS2 data (FIG. 7 * pattern 1 -1). The second line is processed in the same way as the character part, multiplied by the correction coefficient, and then multiplied by the weighting coefficient, and then the data of the first CIS1 and the second CIS2 are joined (see FIG. 8 * pattern 1-2). . In contrast to the first line, the third line uses the second CIS2 data as it is for the overlapping portion of the image sensor, and connects the CIS1 and CIS2 data (see FIG. 9 * Pattern 1-3). The fourth line performs the same processing as the character part in the same way as the second line (FIG. 10 * pattern 1-4). Thereafter, as shown in FIG. 7, the process returns to the pattern 1-1 and the same flow is repeated. As described above, it is possible to prevent the halftone image from being erased by this control method.

網点であった場合、図11に示すように処理することもできる。すなわち、図11に示すように文字部と同様に補正係数を乗算し、その後、重み付け係数を乗算後、第1のCIS1と第2のCIS2のデータを加算する処理を行うが、その処理を行う画素数を少なくする。重なり部分中心から第1のCIS1側と第2のCIS2側にそれぞれ16画素、計32画素において繋ぎ目補正処理を行う。この際に、重み付け係数は1/2として乗算し、加算回路によって足し合わされる。本方式により、繋ぎ目処理による網点部分の画像が消えてしまうということを防止することが可能になる。ここでは、繋ぎ目補正処理を行う画素数を32画素としたが、この画素数は任意に変更することができる。   If it is a halftone dot, it can be processed as shown in FIG. That is, as shown in FIG. 11, the correction coefficient is multiplied in the same manner as the character part, and after that, the weighting coefficient is multiplied, and then the first CIS1 and second CIS2 data are added. Reduce the number of pixels. A seam correction process is performed on 16 pixels on the first CIS1 side and the second CIS2 side from the center of the overlapped part, for a total of 32 pixels. At this time, the weighting coefficient is multiplied by 1/2 and added by the adder circuit. With this method, it is possible to prevent the halftone dot image from disappearing due to the joint processing. Here, the number of pixels to be subjected to the joint correction process is 32 pixels, but the number of pixels can be arbitrarily changed.

網点部分の処理について本実施例では2つの方式を挙げたが、どちらを選択するかは必要に応じて任意に選択できる。   In the present embodiment, two methods are used for the processing of halftone dots, but which one to select can be arbitrarily selected as necessary.

図12は実施例1におけるシステム全体の構成を示す図である。このシステムは複写機装置本体500と、複写機装置本体500の背面側に連結された紙折り装置401とからなる広幅の用紙に対応した画像形成システムである。紙折り装置は、用紙の端面折りやジャバラ状折りを行う。紙折り装置401は、本体との連結部402、用紙の耳を折る耳折り部403、用紙を搬送方向にジャバラ状に折るジャバラ折り部404、搬送方向を90°変更する搬送切換装置405、クロス折り装置(不図示)、表裏を反転させる反転装置407、用紙を90°回転させ、例えばA4横をA4縦に替える回転装置408、及び折られた用紙を排出しスタックするトレイ409からなっている。   FIG. 12 is a diagram illustrating a configuration of the entire system according to the first embodiment. This system is an image forming system corresponding to a wide sheet of paper including a copying machine main body 500 and a paper folding device 401 connected to the back side of the copying machine main body 500. The paper folding device performs end face folding and bellows folding of the paper. The paper folding device 401 includes a connecting portion 402 to the main body, an ear folding portion 403 for folding paper ears, a bellows folding portion 404 for folding the paper in a bellows shape in the transport direction, a transport switching device 405 for changing the transport direction by 90 °, a cross A folding device (not shown), a reversing device 407 for reversing the front and back, a rotating device 408 for rotating paper by 90 °, for example, changing A4 horizontal to A4 vertical, and a tray 409 for discharging and stacking folded paper are included. .

複写機装置本体500には画像読み取り装置100が配置されていると共に、その下部に手差し給紙台508が配置されている。この手差し給紙台508に用紙をセットしこの用紙は、レジストロール507により一次停止され、タイミングをとって作像ユニット506に供給される。作像ユニット506は、図示しない感光体に画像データに対応した潜像が形成され、この潜像がトナーにより現像され、このトナーが用紙に転写され、定着装置510により定着されるようにしてある。定着装置510でトナーが定着された記録済用紙は記録済用紙排出ロール511により、紙折りを行う場合は紙折り装置401へ排出される。また、紙折りを行わない場合は、図示されていない切換爪により上排紙ローラ509により本体胴内へ排出される。   An image reading apparatus 100 is disposed in the copying machine main body 500, and a manual sheet feed table 508 is disposed below the image reading apparatus 100. A sheet is set on the manual sheet feeding tray 508, and the sheet is temporarily stopped by a registration roll 507, and is supplied to the image forming unit 506 at a timing. The image forming unit 506 forms a latent image corresponding to image data on a photosensitive member (not shown), develops the latent image with toner, transfers the toner onto a sheet, and fixes the image on a fixing device 510. . The recorded paper on which the toner is fixed by the fixing device 510 is discharged by the recorded paper discharge roll 511 to the paper folding device 401 when paper folding is performed. When paper folding is not performed, the paper is discharged into the main body by the upper paper discharge roller 509 by a switching claw (not shown).

用紙を折る場合は記録済用紙排出ロール511より用紙は紙折り装置401に送られ、耳折りする場合は耳折り部403で用紙の角部が折られる。耳折り部403で用紙の角部が折られた後、用紙はジャバラ折り部404でジャバラ状に折られ、搬送切換装置405に送られる。搬送切換装置405では、搬送方向が変更され、クロス折り装置でジャバラ折りされた用紙の短手方向が折られ、反転装置407で表裏を反転され、さらに用紙方向を回転装置408で回転させてトレイ409上にスタックされる。前記画像読み取り装置100はこのような広幅対応の画像形成装置に使用される。   When the paper is folded, the paper is fed from the recorded paper discharge roll 511 to the paper folding device 401. When the paper is folded, the corner of the paper is folded by the ear fold 403. After the corner of the paper is folded at the ear fold 403, the paper is folded into a bellows at the bellows folding unit 404 and sent to the conveyance switching device 405. In the transport switching device 405, the transport direction is changed, the short side direction of the paper folded by the cross folding device is folded, the front and back sides are reversed by the reversing device 407, and the paper direction is further rotated by the rotating device 408. 409 is stacked. The image reading apparatus 100 is used in such a wide-width image forming apparatus.

以上のように、本実施例によれば、下記のような効果を奏する。   As described above, according to this embodiment, the following effects can be obtained.

1)各イメージセンサの重なり部分の画像データを取得し、イメージセンサの位置にずれが生じている場合はそのずれの大きさに応じて補正係数を乗算する補正を行い、さらに隣接したイメージセンサの双方の主走査方向に応じた重み付け係数を乗算し、双方のデータを足し合わせることによって繋ぎ目部分の画像データを補正するので、繋ぎ目部分を目立たなくさせることができる。 1) Acquire image data of the overlapping part of each image sensor, and if there is a deviation in the position of the image sensor, perform correction by multiplying the correction coefficient according to the magnitude of the deviation, and Since the image data of the joint portion is corrected by multiplying the weighting coefficients corresponding to both main scanning directions and adding the both data, the joint portion can be made inconspicuous.

2)前記補正係数、重み付け係数は複数の中から任意に選択するので、選択操作だけで最適な補正処理を行うことができる。 2) Since the correction coefficient and the weighting coefficient are arbitrarily selected from a plurality, the optimum correction process can be performed only by a selection operation.

3)重なり部分の画像データが網点画像であるか非網点画像であるかを認識する網点検出手段を備えているので、網点画像である場合は副走査ライン毎に前記繋ぎ目補正処理を行うラインと行わないラインを組み合わせることができ、繋ぎ目が網点画像であった場合でも濃度低下やかすれが可能となる。 3) Since halftone dot detection means for recognizing whether the image data of the overlapping portion is a halftone dot image or a non-halftone dot image is provided, the joint correction is performed for each sub-scanning line in the case of a halftone dot image. A line to be processed and a line not to be processed can be combined, and even when the joint is a halftone image, density reduction and blurring are possible.

4)網点画像である場合に重なり部分に行う繋ぎ目補正処理を行う画素数を少なくすることができ、最適な網点部分の繋ぎ目の補正処理を行うことができる。 4) When the image is a halftone dot image, the number of pixels to be subjected to the joint correction processing performed on the overlapping portion can be reduced, and the optimum joint correction processing for the halftone dot portion can be performed.

以下、実施例2について説明する。なお、実施例1と同一の構成について適宜省略する。   Example 2 will be described below. In addition, about the same structure as Example 1, it abbreviate | omits suitably.

本実施例は、例えば前述の特許文献3に記載されているように、従来の繋ぎ目補正処理では、ずれで生じた読み取り値の違いはあっても図13(a)に示すようにそのまま重み付け加算処理が行われてしまうため、特に網点で構成された画像では、繋ぎ目部分の濃度が低下したり、かすれが生じたりすることがある。本実施例はこのような現象の発生を防止するため、図13(b)に示すように補正値演算を行い、重複画素のずれを緩和した上で繋ぎ目補正処理を行うものである。   In this embodiment, as described in, for example, Patent Document 3 described above, in the conventional joint correction processing, even if there is a difference in the reading value caused by the deviation, as shown in FIG. Since the addition process is performed, particularly in an image composed of halftone dots, the density of the joint portion may be reduced or blurring may occur. In the present embodiment, in order to prevent such a phenomenon from occurring, correction value calculation is performed as shown in FIG. 13B, and joint correction processing is performed after mitigating the deviation of overlapping pixels.

図14は本発明の実施例2に係る画像読み取り装置の概略を示したブロック図である。この画像読み取り装置100は、第1の実施例におけるライン合成処理部にアービタ121とメモリコンピュータ122とを設けたもので、メモリ130にメモリコントローラ122が接続され、メモリコントローラ122はアービタ121と相互に情報の送受が可能である。また、アービタ121には、前記第1のA/D変換器101からの第1のCIS1の読み取りデータと、第1のメモリからの第2のCIS2の読み取りデータと、第2のメモリからの第3のCIS3の読み取りデータとが入力される。アービタ121からは繋ぎ目補正処理、網点検出処理回路200及び1ライン化処理回路123にメモリ130に記憶された読み取りデータが出力される。   FIG. 14 is a block diagram schematically illustrating an image reading apparatus according to the second embodiment of the present invention. In this image reading apparatus 100, an arbiter 121 and a memory computer 122 are provided in the line composition processing unit in the first embodiment. A memory controller 122 is connected to a memory 130, and the memory controller 122 is mutually connected to the arbiter 121. Information can be sent and received. Further, the arbiter 121 includes the first CIS1 read data from the first A / D converter 101, the second CIS2 read data from the first memory, and the second CIS1 read data from the second memory. 3 CIS3 read data is input. The read data stored in the memory 130 is output from the arbiter 121 to the joint correction processing, halftone detection processing circuit 200 and 1-line processing circuit 123.

すなわち、第1ないし第3の各CIS1〜3で読み取った読み取り画像データは、ライン合成処理ブロック120に同時に入力され、アービタ121を経由し一時的にメモリ130に蓄積される。その後、1ライン化処理を行うために、重なり部分以外のデータは1ライン化処理回路123へ送られ、重なり部分のデータは繋ぎ目補正処理回路200へと送られる。   That is, the read image data read by the first to third CIS 1 to 3 is simultaneously input to the line composition processing block 120 and temporarily stored in the memory 130 via the arbiter 121. Thereafter, in order to perform the one-line processing, data other than the overlapping portion is sent to the one-line processing circuit 123, and the overlapping portion data is sent to the joint correction processing circuit 200.

図15は繋ぎ目補正処理回路201及び網点検出回路202の詳細を示すブロック図である。同図において、繋ぎ目処理回路201は第1及び第2の3次関数コンボリューション230,231と、第1及び第2の重み付け係数210,211と、前記第1及び第2の3次関数コンボリューション230,231の前段に設けられた第1及び第2のセレクタ245,246と、前記第1及び第2の3次関数コンボリューション230,231と第1及び第2の重み付け係数部210,211との間にそれぞれ設けられた第3及び第4のセレクタ247,248と、を備えている。また、第1及び第2の3次関数コンボリューション230,231と並列に第1及び第2のスルー経路251,252が設けられ、さらに、第1及び第2の重み付け係数部210,211と並列に第3及び第4のスルー経路が設けられている。そして、第1及び第2の重み付け係数部210,211の出力、及び第3及び第4のスルー経路の出力が加算回路250に入力され、加算回路250で加算され、加算値が出力される。   FIG. 15 is a block diagram showing details of the joint correction processing circuit 201 and the halftone detection circuit 202. In the figure, the joint processing circuit 201 includes first and second cubic function convolutions 230 and 231, first and second weighting coefficients 210 and 211, and the first and second cubic function convolutions. First and second selectors 245 and 246 provided before the volumes 230 and 231, the first and second cubic function convolutions 230 and 231, and the first and second weighting coefficient units 210 and 211, respectively. , And third and fourth selectors 247 and 248, respectively. In addition, first and second through paths 251 and 252 are provided in parallel with the first and second cubic function convolutions 230 and 231, and further in parallel with the first and second weighting coefficient units 210 and 211. Are provided with third and fourth through paths. The outputs of the first and second weighting coefficient units 210 and 211 and the outputs of the third and fourth through paths are input to the adder circuit 250, added by the adder circuit 250, and the added value is output.

前記第1及び第2のセレクタ245,246には、第1のCIS1と第2のCIS2の重なり部分のデータ、もしくは第2のCIS2と第3のCIS3の重なり部分のデータであるD4,D5が入力される。これらのデータは同時に網点検出回路202にも入力され、網点検出回路で前記データD4,D5部分が網点か非網点かが判断され、この判断に基づいて第1ないし第4のセレクタ245〜248によってデータの選択が行われる。   In the first and second selectors 245 and 246, D4 and D5, which are data of overlapping portions of the first CIS1 and the second CIS2, or data of overlapping portions of the second CIS2 and the third CIS3, are stored. Entered. These data are simultaneously input to the halftone dot detection circuit 202, and the halftone dot detection circuit determines whether the data D4 and D5 are halftone dots or non-halftone dots. Based on this determination, the first to fourth selectors are selected. Data selection is performed by 245 to 248.

このように構成された繋ぎ目補正処理回路201及び網点検出回路202では、繋ぎ目部分の画像データD4、D5は、網点検出回路202の網点検出結果Aにより処理経路が決定される。すなわち、データD4が文字画像(非網点)であると判断されたときには、検出結果は“0”となり、各セレクタ245〜248では“0”が選択され、データD4及びD5に対して繋ぎ目補正が行われる。繋ぎ目補正では、3次関数コンボリューションが実行され、さらに、重み付け係数が乗算され、データD4とD5の補正結果が加算回路250で加算され、補正データとして出力される。   In the joint correction processing circuit 201 and the halftone detection circuit 202 configured as described above, the processing path of the joint portion image data D4 and D5 is determined by the halftone detection result A of the halftone detection circuit 202. That is, when it is determined that the data D4 is a character image (non-halftone dot), the detection result is “0”, “0” is selected by each of the selectors 245 to 248, and the data D4 and D5 are connected to each other. Correction is performed. In joint correction, cubic function convolution is executed, weighting coefficients are multiplied, and the correction results of data D4 and D5 are added by addition circuit 250 and output as correction data.

網点検出は1ライン毎に行うことが可能であり、網点検出回路202からの結果Aが文字(0)の場合には繋ぎ目補正処理が選択される。また、網点検出回路202からの結果Aが網点文字(1)の場合には、スルー処理が選択される。ただし、網点処理の結果に関わらず、レジスタの設定によりセレクタ220,221,240,241によって繋ぎ目補正処理を行うかどうかを選択することも可能である。3次関数コンボリューション法、重み付け係数を選択して乗算する方法は前述の実施例1と同一の方法で行われる。   The halftone dot detection can be performed for each line. When the result A from the halftone dot detection circuit 202 is a character (0), the joint correction process is selected. When the result A from the halftone dot detection circuit 202 is a halftone character (1), the through process is selected. However, regardless of the result of halftone processing, it is also possible to select whether or not to perform joint correction processing by the selectors 220, 221, 240, and 241 according to register settings. A cubic function convolution method and a method of selecting and multiplying weighting coefficients are performed in the same manner as in the first embodiment.

このように実施例2では、画像情報を認識し、重なり部分の画像が文字画像であった場合には、重なり部分に3次関数コンボリューション法を用いた予想画素の値を算出し、任意の重み付け係数を選択して乗算し、加算処理を行う。一方、画像が網点であった場合には、ライン毎に重なり部分に補正処理を行うか、スルーするかを選択し、加算処理を行って補正後のデータとしている。詳細は後述する。   As described above, in the second embodiment, when the image information is recognized and the image of the overlapping portion is a character image, the value of the predicted pixel using the cubic function convolution method is calculated for the overlapping portion, and an arbitrary value is calculated. A weighting coefficient is selected and multiplied, and an addition process is performed. On the other hand, if the image is a halftone dot, it is selected whether correction processing is to be performed on the overlapped portion for each line or through, and addition processing is performed to obtain corrected data. Details will be described later.

3次関数コンボリューションによる予想画素の算出の仕方は図3ないし図6を参照して実施例1で説明した通りであるので説明は省略する。   Since the method of calculating the predicted pixel by the cubic function convolution is the same as that described in the first embodiment with reference to FIGS.

繋ぎ目補正処理での3次関数コンボリューションを用いた予想画素の求め方について説明する。   A method of obtaining the predicted pixel using the cubic function convolution in the joint correction process will be described.

網点検出回路202からの判定結果が文字(非網点)であった場合には、繋ぎ合せる左右の重なり部分を128画素(8,16,32,64,128,256で変更可能とする)を設け、重なり画素数を8分割した単位(128画素の場合は16画素)に同じrコードの係数(図5参照)を掛ける。ただし、重なり部分のすべてのブロックにおいて同じrコードの係数を乗算すると同じCIS内の重なり部分とそうでない部分の境目でギャップが生じてしまう可能性があるため、図16の主走査ずれ量、CIS、及び係数の関係に示すようにCISの位置と1画素以内のずれ量に対しても乗算するrコードの値を変化させる。   If the determination result from the halftone dot detection circuit 202 is a character (non-halftone dot), the left and right overlapping parts to be joined can be changed to 128 pixels (8, 16, 32, 64, 128, 256). And the same r code coefficient (see FIG. 5) is multiplied to a unit obtained by dividing the number of overlapping pixels into eight (16 pixels in the case of 128 pixels). However, if the same r-code coefficient is multiplied in all the blocks in the overlapping portion, a gap may occur at the boundary between the overlapping portion and the other portion in the same CIS. Also, as shown in the relationship between the coefficients, the value of the r code to be multiplied is also changed for the CIS position and the deviation amount within one pixel.

図16に示すように主走査ずれ量が4/8画素だった場合を用いて説明する。CIS1の重なり部分128画素の16画素毎の8つのブロックに対して左から(r0, r1, r1, r2, r2,r3, r3, r4)の係数を乗算し、CIS2の重なり部分128画素の16画素毎の8つのブロックに対しては左から(r4, r3, r3, r2, r2, r1, r1, r0)の係数を乗算する。このような係数の掛け方することによって、同じCIS内の重なり部分とそうでない部分の境目でのギャップの軽減をする。   Description will be made using a case where the main scanning deviation amount is 4/8 pixels as shown in FIG. The eight blocks of every 16 pixels of the overlapping portion of 128 pixels of CIS1 are multiplied from the left by a coefficient of (r0, r1, r1, r2, r2, r3, r3, r4), and 16 of 16 overlapping portions of CIS2 are obtained. The eight blocks for each pixel are multiplied by coefficients (r4, r3, r3, r2, r2, r1, r1, r0) from the left. By multiplying by such a coefficient, the gap at the boundary between the overlapping portion and the other portion in the same CIS is reduced.

次いで、図17に示したような3次関数コンボリューションの係数を掛けて求めた値に重み付け係数回路210によって図18に示す重み付け係数演算(乗算)を行う。すなわち、前記8つに分けたブロックに対して、第1のCIS1の左から7/8、6/8、・・・1/8の係数を掛け、第2のCIS2では逆に右から7/8、6/8、・・・1/8の係数を掛ける。これにより重なり部分の第1のCIS1に近いほど、第1のCIS1の画素値に重みが置かれ、第2のCIS2に近いほど第2のCIS2の画素値に重みが置かれ(図18(a))、合成される(図18(b))。   Next, a weighting coefficient calculation (multiplication) shown in FIG. 18 is performed by the weighting coefficient circuit 210 on the value obtained by multiplying the coefficient of the cubic function convolution as shown in FIG. That is, the block divided into 8 is multiplied by a coefficient of 7/8, 6/8,..., 1/8 from the left of the first CIS1, and 7/7 from the right in the second CIS2. Multiply by a factor of 8, 6/8, ... 1/8. Thus, the closer to the first CIS1 of the overlapping portion, the more weight is placed on the pixel value of the first CIS1, and the closer to the second CIS2, the more weight is placed on the pixel value of the second CIS2 (FIG. 18 (a )), And synthesized (FIG. 18B).

重み付け係数には、他にも図19に示すように1/2の重み付け係数を掛けて合成することもできる。この場合には、第1及び第2のCIS1,2の濃度を平均化して合成することになる。   As shown in FIG. 19, the weighting coefficient can also be combined with a weighting coefficient of 1/2. In this case, the concentrations of the first and second CISs 1 and 2 are averaged and synthesized.

また、セレクタ247及び248で“1”を選択することによって重み付け係数演算をスルーし、図20(a)に示すように重なり部分の中心で繋ぎ合わせることもできる。あるいは、重なり部分のデータを片側だけのCISのデータを用いることも(図20(b),(c))とすることもできる。   Further, by selecting “1” with the selectors 247 and 248, the weighting coefficient calculation can be made through, and as shown in FIG. Alternatively, CIS data on only one side can be used for the overlapping portion data (FIGS. 20B and 20C).

重み付け係数演算後、加算回路250で第1のCIS1及び第2のCIS2の重なり部分、又は第2のCIS2及び第3のCIS3の重なり部分のデータが足し合わされる。その後、アービタ121からの重なり部分以外のデータと1ライン化処理回路123で繋ぎ合わされ、1ライン分のデータとなる。   After the weighting coefficient calculation, the adder circuit 250 adds the data of the overlapping portion of the first CIS1 and the second CIS2 or the overlapping portion of the second CIS2 and the third CIS3. Thereafter, the data other than the overlapping portion from the arbiter 121 is connected by the one-line processing circuit 123 to become data for one line.

本実施例のように処理することによって、隣り合ったイメージセンサの重なり部分のずれと読み取り時の濃度の段差を段階的に繋ぐことが可能となり、位置ずれ及び濃度段差を吸収することが可能となる。   By processing as in the present embodiment, it is possible to connect the deviation of the overlapping portions of the adjacent image sensors and the density step at the time of reading step by step, and to absorb the positional deviation and the density step. Become.

網点画像では文字画像と同様の処理を行うと、イメージセンサの位置ずれがある場合などでは網点部分が消えてしまう可能性がある。以前の繋ぎ目補正処理は先ほど説明した重み付け係数演算のみであり、図21に示すように(この場合は1画素の細線、CISの主走査1画素の位置ずれ)ずれたままで、重み付け演算、加算処理を行ってしまうため、画像がかすれてしまう。網点画像ではさらに副走査のずれなどが生じると、消えてしまう。そこで、網点検出回路202からの判定結果が網点であった場合には、前述の実施例1の図7を参照して説明したようにして処理する。なお、網点であった場合には、前述の実施例1における図11のようにして処理することもできる。
網点であった場合には、さらに下記のように処理することもできる。
すなわち、副走査1ライン毎に網点検知を行い、網点画像の場合にはセレクタ220,221,231,241を切り換えてスルー処理を行うようにする。スルー処理を行った場合は、先ほどと同様に、図20の中から繋ぎ方を選択できる。また、網点画像の場合だけ前の段落に記載したように繋ぎ目部分の画素数を少なし、繋ぎ目補正処理を行う。
If a halftone image is processed in the same way as a character image, the halftone portion may disappear if the image sensor is misaligned. The previous joint correction processing is only the weighting coefficient calculation described above, and as shown in FIG. 21 (in this case, the fine line of one pixel, the positional deviation of one main scanning pixel of CIS), the weighting calculation and addition Since the processing is performed, the image is blurred. The halftone dot image disappears when sub-scanning deviation occurs. Therefore, when the determination result from the halftone dot detection circuit 202 is a halftone dot, the processing is performed as described with reference to FIG. 7 of the first embodiment. If the dot is a halftone dot, it can be processed as shown in FIG. 11 in the first embodiment.
If it is a halftone dot, it can be further processed as follows.
That is, halftone dot detection is performed for each sub-scanning line, and in the case of a halftone image, the selectors 220, 221, 231, and 241 are switched to perform through processing. When the through process is performed, the connection method can be selected from FIG. 20 as before. Further, only in the case of a halftone image, the number of pixels in the joint portion is reduced as described in the previous paragraph, and the joint correction process is performed.

網点の検知方法について説明する。   A method for detecting halftone dots will be described.

図22は網点の検出の処理手順を示すフローチャートである。この処理手順では、入力された画像データ(ステップS1)に対して、フィルタをかけ(ステップS2)、単純2値化(ステップS3)を行う。その後、指定の判定基準(後述)に従って判定を行う(ステップS4)。すなわち、ステップS2では、入力された画像データに対して図23に示すフィルタを使用しフィルタ演算を行う。次いで、ステップS3でフィルタ演算後の画像データに対して単純2値化を行う。その際の量子化閾値はデータが8ビットの場合は128、10ビットの場合は512とする。単純2値化した画像に対して、注目領域内の画像の変化点の数が一定以上であれば網点、そうでなければ非網点と判定する。ただし、注目領域は(注目画素)+(注目画素の左右20画素ずつ)の計41点とし、網点検出回路202で領域設定が行われる(図24参照)。変化点の閾値は図25に示すように変化点閾値10から12で確認する。なお、量子化閾値、変化点閾値は変更することができる。また、網点検出自体は公知技術であり、種々の方法が知られているので、この方法以外の方法を適用することもできる。   FIG. 22 is a flowchart showing a procedure for detecting halftone dots. In this processing procedure, the input image data (step S1) is filtered (step S2), and simple binarization (step S3) is performed. Thereafter, a determination is made according to a specified determination criterion (described later) (step S4). That is, in step S2, a filter operation is performed on the input image data using the filter shown in FIG. Next, in step S3, simple binarization is performed on the image data after the filter calculation. In this case, the quantization threshold is 128 when the data is 8 bits and 512 when the data is 10 bits. For a simple binarized image, a halftone dot is determined if the number of change points of the image in the attention area is equal to or greater than a certain value, and a non-halftone dot is determined otherwise. However, the region of interest is a total of 41 points of (target pixel) + (20 pixels on the left and right of the target pixel), and the halftone detection circuit 202 sets the region (see FIG. 24). As shown in FIG. 25, the threshold value of the change point is confirmed by the change point threshold values 10 to 12. Note that the quantization threshold and the change point threshold can be changed. In addition, halftone dot detection itself is a known technique, and various methods are known. Methods other than this method can also be applied.

以上のように本実施例によれば、下記のような効果を奏する。
1)各イメージセンサの重なり部分の画像データを取得し、イメージセンサの位置にずれが生じている場合はそのずれの大きさに応じた補正係数を乗算する補正を行い、さらに隣接したイメージセンサの双方の主走査方向に応じた重み付け係数を乗算し、双方のデータを足し合わせることによって繋ぎ目部分の画像データを補正するので、繋ぎ目部分を目立たなくすることができる。
As described above, according to this embodiment, the following effects can be obtained.
1) Acquire image data of the overlapping part of each image sensor, and if there is a deviation in the position of the image sensor, perform correction by multiplying a correction coefficient according to the magnitude of the deviation, Since the image data of the joint portion is corrected by multiplying the weighting coefficients corresponding to both main scanning directions and adding the both data, the joint portion can be made inconspicuous.

2)補正係数、重み付け係数を複数の中から任意に選択するので、用途に応じた補正処理を行うことができる。 2) Since a correction coefficient and a weighting coefficient are arbitrarily selected from a plurality, correction processing according to the application can be performed.

3)重なり部分の画像データが網点画像であるか非網点画像であるかを認識する網点判定領域を任意に設定できる網点検出手段を備え、網点画像である場合は副走査ライン毎に繋ぎ目補正処理を行うラインと行わないラインを組み合わせることができるので、繋ぎ目が網点画像であった場合でも画像の欠落を防止することが可能となる。 3) Provided with halftone dot detection means capable of arbitrarily setting a halftone dot determination area for recognizing whether the image data of the overlapping portion is a halftone dot image or a non-halftone dot image. Since it is possible to combine the line for which the seam correction processing is performed and the line for which the seam correction processing is not performed every time, it is possible to prevent image loss even when the seam is a halftone image.

4)繋ぎ目補正処理を行うライン数と行わないライン数を任意に設定するので、用途に応じた補正処理を行うことができる。 4) Since the number of lines to be subjected to joint correction processing and the number of lines not to be performed are arbitrarily set, correction processing according to the application can be performed.

5)網点画像であると判定された場合に重なり部分に行う繋ぎ目補正処理を行う画素数を少なくするので、用途に応じた網点部分の繋ぎ目の補正処理を行うことができる。 5) Since the number of pixels to be subjected to the seam correction processing performed on the overlapping portion when it is determined to be a halftone image is reduced, the seam correction processing of the halftone portion according to the application can be performed.

6)副走査ライン毎に網点判定を行い、網点画像であるラインでは繋ぎ目補正処理を行わず、非網点画像である場合のみ繋ぎ目補正処理を行うので、繋ぎ目が網点画像であった場合でも画像の欠落を防止することができる。 6) Halftone dot determination is performed for each sub-scanning line, and the seam correction process is not performed for lines that are halftone images, and the seam correction process is performed only for non-halftone images. Even in such a case, it is possible to prevent image loss.

7)副走査ライン毎に網点判定を行い、非網点画像である場合のみ繋ぎ目補正処理を行い、網点画像であるラインでは繋ぎ目補正処理を行う画素数を少なくするので、用途に応じた網点部分の繋ぎ目の補正処理を行うことができる。 7) Halftone dot determination is performed for each sub-scanning line, and seam correction processing is performed only when the image is a non-halftone image, and the number of pixels subjected to seam correction processing is reduced for lines that are halftone images. Corresponding halftone dot seam correction processing can be performed.

本発明の実施例1における画像読み取り装置の概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an image reading apparatus in Embodiment 1 of the present invention. 実施例1におけるライン合成処理を行う回路の回路構成を示すブロック図である。FIG. 3 is a block diagram illustrating a circuit configuration of a circuit that performs line synthesis processing in the first embodiment. 3次関数コンポリューション法における予想画素の階調計算の計算式と画素との関係を示す図である。It is a figure which shows the relationship between the calculation formula of the prediction pixel gradation calculation in a cubic function convolution method, and a pixel. 画素間距離と補正係数との関係を示す図である。It is a figure which shows the relationship between the distance between pixels, and a correction coefficient. 式(2)から導かれる補正係数をテーブル化して示す図である。It is a figure which tabulates and shows the correction coefficient derived | led-out from Formula (2). 継ぎ目補正後のデータ導出イメージを示す図である。It is a figure which shows the data derivation image after a seam correction | amendment. 副走査ラインの1ライン目の網点部の処理パターンの一例(処理パターン1−1)を示す図である。It is a figure which shows an example (processing pattern 1-1) of the process pattern of the halftone dot part of the 1st line of a subscanning line. 副走査ラインの2ライン目の網点部の処理パターンの一例(処理パターン1−2)を示す図である。It is a figure which shows an example (processing pattern 1-2) of the processing pattern of the halftone dot part of the 2nd line of a subscanning line. 副走査ラインの3ライン目の網点部の処理パターンの一例(処理パターン1−3)を示す図である。It is a figure which shows an example (processing pattern 1-3) of the halftone dot part processing pattern of the 3rd line of a subscanning line. 副走査ラインの1ライン目の網点部の処理パターンの一例(処理パターン1−4)を示す図である。It is a figure which shows an example (processing pattern 1-4) of the halftone dot part processing pattern of the 1st line of a subscanning line. 網点部の処理パターンの他の例(処理パターン2)を示す図である。It is a figure which shows the other example (processing pattern 2) of the processing pattern of a halftone part. 実施例1に係る画像読み取り装置を画像形成装置に搭載した画像形成システムのシステム構成を示す図である。1 is a diagram illustrating a system configuration of an image forming system in which an image reading apparatus according to a first embodiment is mounted on an image forming apparatus. 従来例と実施例2の補正処理の相違点を示す図である。It is a figure which shows the difference of the correction process of a prior art example and Example 2. FIG. 本発明の実施例2における画像読み取り装置の概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the image reading apparatus in Example 2 of this invention. 実施例2における継ぎ目補正処理及び網点検出を行う回路の回路構成を示すブロック図である。10 is a block diagram illustrating a circuit configuration of a circuit that performs joint correction processing and halftone dot detection in Embodiment 2. FIG. 主走査方向のずれ量に対する補正係数を示す図である。It is a figure which shows the correction coefficient with respect to the deviation | shift amount of a main scanning direction. 主走査ずれ量4/8の予想画素位置イメージを示す図である。It is a figure which shows the prediction pixel position image of main scanning deviation | shift amount 4/8. 実施例2における重み付け係数演算の一例を示す図である。It is a figure which shows an example of the weighting coefficient calculation in Example 2. FIG. 実施例2における重み付け係数演算の他の例を示す図である。It is a figure which shows the other example of the weighting coefficient calculation in Example 2. FIG. 実施例2における重み付け係数演算をスルーする例を示す図である。It is a figure which shows the example through the weighting coefficient calculation in Example 2. FIG. 従来における継ぎ目補正処理を示す図である。It is a figure which shows the seam correction process in the past. 網点判定処理手順を示すフローチャートである。It is a flowchart which shows a halftone dot determination processing procedure. 図22の網点判定処理で使用されるフィルタの一例を示す図である。It is a figure which shows an example of the filter used by the halftone dot determination process of FIG. 網点判定を行う場合の注目領域を示す図である。It is a figure which shows the attention area | region in the case of performing a halftone dot determination. 変化点閾値と参照画素数との関係を示す図である。It is a figure which shows the relationship between a change point threshold value and the number of reference pixels.

符号の説明Explanation of symbols

100 画像読み取り装置
101,102,103 A/D
111,112,130 メモリ
120 ライン合成処理部
121 アービタ
122 メモリコントローラ
123 1ライン化処理回路
200 継ぎ目補正処理、網点検出処理部
201 継ぎ目補正処理回路
202 網点検出回路
210,211,212 重み付け係数部
220,221,223 加算回路
230,231,232 3次関数コンボリューション部
500 画像形成装置
CIS1〜3 密着イメージセンサ
100 Image reading apparatus 101, 102, 103 A / D
DESCRIPTION OF SYMBOLS 111,112,130 Memory 120 Line composition processing part 121 Arbiter 122 Memory controller 123 1-line processing circuit 200 Seam correction processing, halftone detection processing part 201 Seam correction processing circuit 202 Halftone detection circuit 210, 211, 212 Weighting coefficient part 220,221,223 Adder circuit 230,231,232 Third order function convolution unit 500 Image forming apparatus CIS1-3 Contact image sensor

Claims (9)

隣接するイメージセンサの読み取り部分を所定の画素数だけ主走査方向に千鳥状に重ねて配置した読み取り手段と、前記各イメージセンサが読み取った画像データを取得する取得手段と、を有し、取得した画像データを補正する画像データ補正方法であって
前記画像データの前記重ねて配置された部分の画像データを複数画素からなるブロックに分け、前記イメージセンサの位置が理想の位置に対してずれが生じている場合、当該ずれの大きさに応じて前記重ねて配置された領域の中で、外側のブロックほどずらし量が大きくなるように、前記ブロックごとに3次関数コンボリューションの係数を変えて、前記画像データに対して3次元コンボリューションを行う第1の工程と、
前記第1の工程の出力データに対して、前記隣接するイメージセンサの主走査方向の位置に応じた重み付け係数を乗算する第2の工程と、
記第2の工程から出力され、前記隣接するイメージセンサの重なって配置された部分の画像データを、主走査方向の位置に応じて加算する第3の工程と、
を備えることを特徴とする画像データ補正方法。
It has reading means in which reading portions of adjacent image sensors are arranged in a staggered manner in the main scanning direction by a predetermined number of pixels, and acquisition means for acquiring image data read by each image sensor . An image data correction method for correcting image data,
Divided into the Cascade composed of a plurality of pixels of the image data of the deployed partial blocks of the image data, wherein when the position of the image sensor is deviation occurs for the ideal position, the magnitude of the deviation Accordingly, the coefficient of the cubic function convolution is changed for each block so that the shift amount increases toward the outer block in the overlapped region, and the three-dimensional convolution is performed on the image data. A first step of performing
The output data of the first step, a second step of multiplying the weighting coefficient corresponding to the main scanning direction of the position of the image sensor for the adjacent,
Is output from the previous SL second step, a third step of the image data of the overlapping portion disposed by adjacent image sensors, adds in accordance with the position in the main scanning direction,
Image data correction method characterized in that obtaining Bei a.
取得した画像データが網点か否かを判定する第3の工程と、
前記第3の工程で網点であると判定された画像データについては前記第1の工程及び第2の工程をスルーして第3の工程を実行すること
を特徴とする請求項1記載の画像データ補正方法。
A third step of determining whether the acquired image data is a halftone dot;
2. The image according to claim 1, wherein for the image data determined to be halftone dots in the third step, the third step is executed through the first step and the second step. Data correction method.
隣接するイメージセンサの読み取り部分を所定の画素数だけ主走査方向に千鳥状に重ねて配置した読み取り手段と、前記各イメージセンサが読み取った画像データを取得する取得手段と、を有し、取得した画像データを補正する画像読み取り装置であって
前記画像データの前記重ねて配置された部分の画像データを複数画素からなるブロックに分け、前記イメージセンサの位置が理想の位置に対してずれが生じている場合、当該ずれの大きさに応じて前記重ねて配置された領域の中で、外側のブロックほどずらし量が大きくなるように、前記ブロックごとに3次関数コンボリューションの係数を変えて、前記画像データに対して3次元コンボリューションを行う第1の補正手段と、
前記第1の補正手段からの出力データに対して、前記隣接するイメージセンサの主走査方向の位置に応じた重み付け係数を乗算する第2の補正手段と、
記第2の手段から出力され、前記隣接するイメージセンサの重なって配置された部分の画像データを、主走査方向の位置に応じて加算する第3の補正手段と、
を備えることを特徴とする画像読み取り装置。
It has reading means in which reading portions of adjacent image sensors are arranged in a staggered manner in the main scanning direction by a predetermined number of pixels, and acquisition means for acquiring image data read by each image sensor . an image reading apparatus for correcting the image data,
Divided into the Cascade composed of a plurality of pixels of the image data of the deployed partial blocks of the image data, wherein when the position of the image sensor is deviation occurs for the ideal position, the magnitude of the deviation Accordingly, the coefficient of the cubic function convolution is changed for each block so that the shift amount increases toward the outer block in the overlapped region, and the three-dimensional convolution is performed on the image data. First correcting means for performing
The output data from said first correcting means, and second correcting means you calculate multiplied by the weighting coefficient corresponding to the position of the main scanning direction of the image sensor to the adjacent,
Is output from the previous SL second means, the image data of the overlapping portion disposed of an image sensor to the adjacent, and third correction means for adding according to the position of the main scanning direction,
An image reading apparatus comprising:
重なり部分の画像データが網点画像であるか非網点画像であるかを認識する網点検出手段を備え、
網点画像である場合は副走査ライン毎に前記繋ぎ目補正処理を行うラインと行わないラインを組み合わせること
を特徴とする請求項3に記載の画像読み取り装置。
Comprising halftone dot detection means for recognizing whether the image data of the overlapping portion is a halftone dot image or a non-halftone dot image;
4. The image reading apparatus according to claim 3, wherein when the image is a halftone image, a line for performing the joint correction processing and a line for not performing the joint correction processing are combined for each sub-scanning line .
重なり部分の画像データが網点画像であるか非網点画像であるかを判定する網点判定領域を設定する網点注目領域設定手段を備え、
当該設定された注目領域で網点であると判定されたときには、副走査ライン毎に請求項1の繋ぎ目補正処理を行うラインと行わないラインを組み合わせること
を特徴とする請求項3又は4に記載の画像読み取り装置。
Comprising halftone dot attention area setting means for setting a halftone dot determination area for determining whether the image data of the overlapping portion is a halftone dot image or a non-halftone dot image;
5. The method according to claim 3 or 4, wherein when it is determined that the set attention area is a halftone dot, a line for performing the seam correction processing according to claim 1 and a line not to be performed are combined for each sub-scanning line. The image reading apparatus described.
前記繋ぎ目補正処理を行うライン数と行わないライン数を任意に設定する手段を備えていること
を特徴とする請求項4又は5に記載の画像読み取り装置。
6. The image reading apparatus according to claim 4, further comprising means for arbitrarily setting the number of lines to be subjected to the joint correction processing and the number of lines not to be performed .
副走査ライン毎に網点判定を行い、網点画像のラインでは繋ぎ目補正処理を行わず、非網点画像のラインについて繋ぎ目補正処理を行うこと
を特徴とする請求項3に記載の画像読み取り装置。
4. The image according to claim 3, wherein halftone dot determination is performed for each sub-scanning line, and the seam correction processing is not performed for the lines of the halftone image, but the seam correction processing is performed for the lines of the non-halftone image. Reading device.
網点画像である場合に重なり部分に行う繋ぎ目補正処理を行う画素数を少なくする手段を備えていること
を特徴とする請求項4ないし7のいずれか1項に記載の画像読み取り装置。
8. The image reading apparatus according to claim 4, further comprising means for reducing the number of pixels for performing seam correction processing performed on an overlapping portion in the case of a halftone image .
請求項3ないし8のいずれか1項に記載の画像読み取り装置を備えていること
を特徴とする画像形成装置
An image reading apparatus according to any one of claims 3 to 8 is provided.
An image forming apparatus .
JP2006168753A 2006-06-19 2006-06-19 Seam image data correction method, image reading apparatus, and image forming apparatus Expired - Fee Related JP4787685B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006168753A JP4787685B2 (en) 2006-06-19 2006-06-19 Seam image data correction method, image reading apparatus, and image forming apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006168753A JP4787685B2 (en) 2006-06-19 2006-06-19 Seam image data correction method, image reading apparatus, and image forming apparatus

Publications (2)

Publication Number Publication Date
JP2007336440A JP2007336440A (en) 2007-12-27
JP4787685B2 true JP4787685B2 (en) 2011-10-05

Family

ID=38935455

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006168753A Expired - Fee Related JP4787685B2 (en) 2006-06-19 2006-06-19 Seam image data correction method, image reading apparatus, and image forming apparatus

Country Status (1)

Country Link
JP (1) JP4787685B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8264705B2 (en) 2007-11-07 2012-09-11 Ricoh Company, Ltd. Image reading apparatus, image forming apparatus and computer readable information recording medium
US9609165B2 (en) 2014-12-15 2017-03-28 Ricoh Company, Ltd. Processing image read by overlapping adjacent line sensors by detecting frequency of density variations in seam-read image and synthesizing seam-read images based on detection result to form seam image
JP2016116212A (en) * 2014-12-15 2016-06-23 株式会社リコー Read image processing apparatus, image reading device, image forming apparatus, read image processing method, and read image processing program
JP7153425B2 (en) * 2017-01-23 2022-10-14 セイコーエプソン株式会社 Scanners, scan programs and methods of producing scan data
JP7153424B2 (en) 2017-01-23 2022-10-14 セイコーエプソン株式会社 Scanners, scan programs and methods of producing scan data

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1093787A (en) * 1996-09-13 1998-04-10 Ricoh Co Ltd Image reader
JPH10233900A (en) * 1997-02-17 1998-09-02 Ricoh Co Ltd Image reader
JPH118734A (en) * 1997-06-16 1999-01-12 Ricoh Co Ltd Image reader
JP4408771B2 (en) * 2004-08-24 2010-02-03 株式会社リコー Image reading device

Also Published As

Publication number Publication date
JP2007336440A (en) 2007-12-27

Similar Documents

Publication Publication Date Title
JP5096291B2 (en) Image reading apparatus, image forming apparatus, and image data processing program
US20040047666A1 (en) Image forming apparatus
US8447101B2 (en) Image processing apparatus, image forming apparatus, image processing method, and storage medium
JP4787685B2 (en) Seam image data correction method, image reading apparatus, and image forming apparatus
US8264705B2 (en) Image reading apparatus, image forming apparatus and computer readable information recording medium
JP3611742B2 (en) Image processing device
JP4952814B2 (en) Image reading device
JP2008022062A (en) Image reading apparatus
JP2002232654A (en) Device and method for image processing and computer readable recording medium with program for making computer perform the method recorded thereon
JP4408771B2 (en) Image reading device
JPH0879516A (en) Image processor
US8305662B2 (en) Image reading device, method, and computer readable medium for the same
US8559066B2 (en) Image-reader selecting parameter
JP2006229728A (en) Image reader
JP6343956B2 (en) Read image processing apparatus, image reading apparatus, image forming apparatus, read image processing program, and read image processing method
JP3221426B2 (en) Image processing device
JP5533481B2 (en) Image processing apparatus and image processing method
JP6136406B2 (en) Image reading apparatus, image forming apparatus, and image processing method
US8416469B2 (en) Image processing apparatus, image processing method and computer program
JP2005333590A (en) Image reading apparatus, image reading method, and image forming apparatus
JP2014176022A (en) Image reader, image formation device, and image reading method
JP2001119575A (en) Image processing unit
JP2009005398A (en) Image processor
JP4863846B2 (en) Color image forming apparatus and color image processing apparatus
JP3700453B2 (en) Image processing apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090324

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100913

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100921

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110705

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110715

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140722

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees