JP6136406B2 - Image reading apparatus, image forming apparatus, and image processing method - Google Patents

Image reading apparatus, image forming apparatus, and image processing method Download PDF

Info

Publication number
JP6136406B2
JP6136406B2 JP2013053982A JP2013053982A JP6136406B2 JP 6136406 B2 JP6136406 B2 JP 6136406B2 JP 2013053982 A JP2013053982 A JP 2013053982A JP 2013053982 A JP2013053982 A JP 2013053982A JP 6136406 B2 JP6136406 B2 JP 6136406B2
Authority
JP
Japan
Prior art keywords
period
image data
image
scanning direction
correction value
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013053982A
Other languages
Japanese (ja)
Other versions
JP2014179910A (en
Inventor
雅裕 平沼
雅裕 平沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2013053982A priority Critical patent/JP6136406B2/en
Publication of JP2014179910A publication Critical patent/JP2014179910A/en
Application granted granted Critical
Publication of JP6136406B2 publication Critical patent/JP6136406B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Input (AREA)
  • Image Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)

Description

本発明は、画像読取装置、画像形成装置、画像処理プログラム及び画像処理方法に関し、特に、千鳥状に配置されるラインイメージセンサの読み取り信号の境界部分の処理に関する。   The present invention relates to an image reading apparatus, an image forming apparatus, an image processing program, and an image processing method, and more particularly to processing of a boundary portion of a read signal of a line image sensor arranged in a staggered pattern.

近年、情報の電子化が推進される傾向にあり、電子化された情報の出力に用いられるプリンタやファクシミリ及び書類の電子化に用いるスキャナ等の画像処理装置は欠かせない機器となっている。このような画像処理装置は、撮像機能、画像形成機能及び通信機能等を備えることにより、プリンタ、ファクシミリ、スキャナ、複写機として利用可能な複合機として構成されることが多い。   In recent years, there has been a tendency to digitize information, and image processing apparatuses such as printers and facsimiles used for outputting digitized information and scanners used for digitizing documents have become indispensable devices. Such an image processing apparatus is often configured as a multifunction machine that can be used as a printer, a facsimile, a scanner, or a copier by providing an imaging function, an image forming function, a communication function, and the like.

このような画像処理装置のうち、情報の電子化に用いるスキャナの一態様として、A0サイズのような広幅の画像読取装置がある。広幅の画像読取装置においては、低コスト化のため、A4サイズ等の比較的短いラインイメージセンサ複数個を主走査方向に千鳥状に配置し、各ラインイメージセンサによる画像データを合成することにより、広幅の読取処理を可能としたものがある。   Among such image processing apparatuses, one aspect of a scanner used for digitizing information is a wide image reading apparatus such as A0 size. In a wide-width image reading apparatus, a plurality of relatively short line image sensors such as A4 size are arranged in a staggered manner in the main scanning direction for cost reduction, and image data from each line image sensor is synthesized. Some have made it possible to perform wide reading processing.

しかしながら、上述したA4サイズ等のラインイメージセンサ複数個を主走査方向に千鳥状に配置した構成の場合、ラインイメージセンサの副走査方向の位置が異なるため、A0サイズのような広幅サイズの用紙において、用紙の搬送速度などが原因で、ラインイメージセンサごとの画像データが繋ぎ目部分でずれてしまう問題がある。   However, in the case of a configuration in which a plurality of line image sensors of A4 size or the like are arranged in a staggered manner in the main scanning direction, the position of the line image sensor in the sub scanning direction is different. There is a problem that the image data for each line image sensor is shifted at the joint portion due to the sheet conveyance speed.

このような問題を解決するため、ラインイメージセンサごとの画像データを合成する際に、繋ぎ目付近でぼかし処理などの補正処理を行うことで、ずれを目立たなくする技術が提案されている(例えば、特許文献1参照)。   In order to solve such a problem, a technique has been proposed in which, when image data for each line image sensor is synthesized, correction processing such as blurring processing is performed in the vicinity of the joint, thereby making the shift inconspicuous (for example, , See Patent Document 1).

しかしながら特許文献1に開示された技術では、繋ぎ目付近において、画素の濃淡が周期的に変化する画像、いわゆる網点画像であった場合、補正処理を行うことにより、画像がかすれ、或いは画像が消えてしまい、繋ぎ目付近におけるずれが却って目立ってしまう等の問題がある。   However, in the technique disclosed in Patent Document 1, if the image is a so-called halftone dot image in which the shading of pixels changes periodically in the vicinity of the joint, the image is faded or the image becomes blurred by performing correction processing. There is a problem that it disappears and the shift near the joint becomes conspicuous.

本発明は、上記実情を考慮してなされたものであり、広幅の読取装置において、簡易な構成で良好な読取画像を得ることを目的とする。   The present invention has been made in consideration of the above situation, and an object of the present invention is to obtain a good read image with a simple configuration in a wide reading apparatus.

上記課題を解決するために、本発明の一態様は、画像読取装置であって、隣接するイメージセンサにおける主走査方向の端部同士副走査方向から見たときに重複するように千鳥状に配置された読取手段と、前記イメージセンサによりそれぞれ読み取った画像データから主走査方向における読取値の大小の周期を検出する周期検出手段と、前記周期検出手段によって検出された周期に基づいて補正値を算出する補正値算出手段と、前記補正値算出手段により算出された補正値に基づいて、前記画像データを補正する補正手段とを備え、前記補正値算出手段は、前記周期と前記周期の関数とが予め対応付けられたテーブルを参照し、前記周期検出手段により検出された周期に対応した関数を用いて重み付け係数を前記補正値として算出し、前記補正手段は、前記重み付け係数を前記画像データにそれぞれ掛け合わせ、主走査方向の画素位置を揃えて加算することにより、前記重複する部分に含まれる前記画像データを補正することを特徴とする。
また、本発明の一態様は、画像読取装置であって、隣接するイメージセンサにおける主走査方向の端部同士が副走査方向から見たときに重複するように千鳥状に配置された読取手段と、前記イメージセンサによりそれぞれ読み取った画像データから主走査方向における読取値の大小の周期を検出する周期検出手段と、前記周期検出手段によって検出された周期に基づいて補正値を算出する補正値算出手段と、前記補正値算出手段により算出された補正値に基づいて、前記画像データを補正する補正手段と、を備え、前記周期検出手段は、前記重複する部分の画素位置ごとに前記周期を検出し、前記補正値算出手段は、前記画像データごとに、前記周期に基づき前記画素位置ごとの重み付け係数を前記補正値としてそれぞれ算出し、前記補正手段は、前記重み付け係数を前記画像データにそれぞれ掛け合わせ、主走査方向の画素位置を揃えて加算することにより、前記重複する部分に含まれる前記画像データを前記画素位置ごとに補正することを特徴とする。
さらに、本発明の一態様は、画像読取装置であって、隣接するイメージセンサにおける主走査方向の端部同士が副走査方向から見たときに重複するように千鳥状に配置された読取手段と、前記イメージセンサによりそれぞれ読み取った画像データから主走査方向における読取値の大小の周期を検出する周期検出手段と、前記周期検出手段によって検出された周期に基づいて補正値を算出する補正値算出手段と、前記補正値算出手段により算出された補正値に基づいて、前記画像データを補正する補正手段と、を備え、前記周期検出手段は、前記重複する部分において前記画像データごとに前記周期を検出し、同一画素について前記画像データごとに検出された周期同士を比較演算して周期の検出値とすることを特徴とする。
In order to solve the above problem, one aspect of the present invention, there is provided an image reading apparatus, the end portions of the main scanning direction in the adjacent image sensor is in a zigzag shape so as to overlap when viewed from the sub-scanning direction and arranged reading means, and cycle detecting means for detecting the period of the magnitude of the reading in the main scanning direction from the image data read respectively by the image sensor, a correction value based on the detected period by said period detecting means Correction value calculating means for calculating, and correction means for correcting the image data based on the correction value calculated by the correction value calculating means, wherein the correction value calculating means includes the period and a function of the period. Is calculated in advance as a correction value by using a function corresponding to the period detected by the period detecting means with reference to a table associated in advance. Positive means multiplies each said weighting factors to the image data, by adding align the pixel position in the main scanning direction, and corrects the image data included in the overlapping portions.
Another embodiment of the present invention is an image reading apparatus, wherein reading units are arranged in a staggered manner so that ends in the main scanning direction of adjacent image sensors overlap when viewed from the sub-scanning direction. A period detecting means for detecting a period of a read value in the main scanning direction from image data read by the image sensor, and a correction value calculating means for calculating a correction value based on the period detected by the period detecting means. And a correction unit that corrects the image data based on the correction value calculated by the correction value calculation unit, wherein the cycle detection unit detects the cycle for each pixel position of the overlapping portion. The correction value calculation means calculates a weighting coefficient for each pixel position as the correction value based on the period for each of the image data, and The image data included in the overlapped portion is corrected for each pixel position by multiplying the image data by the weighting coefficient and adding the pixel positions in the main scanning direction. To do.
Furthermore, an aspect of the present invention is an image reading apparatus, wherein reading units are arranged in a staggered manner so that ends in the main scanning direction of adjacent image sensors overlap when viewed from the sub-scanning direction. A period detecting means for detecting a period of a read value in the main scanning direction from image data read by the image sensor, and a correction value calculating means for calculating a correction value based on the period detected by the period detecting means. And a correction unit that corrects the image data based on the correction value calculated by the correction value calculation unit, wherein the cycle detection unit detects the cycle for each of the image data in the overlapping portion. The period detected for each image data with respect to the same pixel is compared and calculated to obtain a detected value of the period.

また、本発明の他の態様は、画像形成装置であって、上述した画像読取装置を含むことを特長とする。   According to another aspect of the present invention, there is provided an image forming apparatus including the above-described image reading apparatus.

また、本発明の他の態様は、画像読取装置に実行させる画像処理プログラムであって、隣接するイメージセンサにおける主走査方向の端部同士を副走査方向に重複するように千鳥状に配置した読取部の当該イメージセンサにより生成された画素データを合成する画像読取装置に対し、前記イメージセンサによりそれぞれ読み取った画像データから主走査方向における読取値の大小の周期を検出する第1のステップと、前記周期検出手段によって検出された周期に基づいて補正値を算出する第2のステップと、前記補正値算出手段により算出された補正値に基づいて、前記画像データを補正する第3のステップとを実行させることを特徴とする。   According to another aspect of the present invention, there is provided an image processing program to be executed by an image reading apparatus, wherein reading is performed in a staggered manner so that ends of adjacent image sensors in the main scanning direction overlap in the sub scanning direction. A first step of detecting a period of a read value in a main scanning direction from image data read by the image sensor, for an image reading device that synthesizes pixel data generated by the image sensor of the unit; A second step of calculating a correction value based on the period detected by the period detection unit and a third step of correcting the image data based on the correction value calculated by the correction value calculation unit are executed. It is characterized by making it.

また、本発明の他の態様は、画像読取方法であって、隣接するイメージセンサにおける主走査方向の端部同士副走査方向から見たときに重複するように千鳥状に配置された読取部の当該隣接するイメージセンサにより生成された画像データを合成する画像処理方法であって、前記イメージセンサによりそれぞれ読み取った画像データから主走査方向における読取値の大小の周期を検出する第1の工程と、前記第1の工程で検出された周期に基づいて補正値を算出する第2の工程と、前記第2の工程で算出された補正値に基づいて、前記画像データを補正する第3の工程とを実行し、前記第2の工程において、前記周期と前記周期の関数とが予め対応付けられたテーブルを参照し、前記第1の工程により検出された周期に対応した関数を用いて重み付け係数を前記補正値として算出し、前記第3の工程において、前記重み付け係数を前記画像データにそれぞれ掛け合わせ、主走査方向の画素位置を揃えて加算することにより、前記重複する部分に含まれる前記画像データを補正することを特徴とする。
また、本発明の態様は、隣接するイメージセンサにおける主走査方向の端部同士が副走査方向から見たときに重複するように千鳥状に配置された読取部の当該隣接するイメージセンサにより生成された画像データを合成する画像処理方法であって、前記イメージセンサによりそれぞれ読み取った画像データから主走査方向における読取値の大小の周期を検出する第1の工程と、前記第1の工程で検出された周期に基づいて補正値を算出する第2の工程と、前記第2の工程で算出された補正値に基づいて、前記画像データを補正する第3の工程と、を実行し、前記第1の工程において、前記重複する部分の画素位置ごとに前記周期を検出し、前記第2の工程において、前記画像データごとに、前記周期に基づき前記画素位置ごとの重み付け係数を前記補正値としてそれぞれ算出し、前記第3の工程において、前記重み付け係数を前記画像データにそれぞれ掛け合わせ、主走査方向の画素位置を揃えて加算することにより、前記重複する部分に含まれる前記画像データを前記画素位置ごとに補正することを特徴とする。
また、本発明の態様は、隣接するイメージセンサにおける主走査方向の端部同士が副走査方向から見たときに重複するように千鳥状に配置された読取部の当該隣接するイメージセンサにより生成された画像データを合成する画像処理方法であって、前記イメージセンサによりそれぞれ読み取った画像データから主走査方向における読取値の大小の周期を検出する第1の工程と、前記第1の工程で検出された周期に基づいて補正値を算出する第2の工程と、前記第2の工程で算出された補正値に基づいて、前記画像データを補正する第3の工程と、を実行し、前記第1の工程において、前記重複する部分において前記画像データごとに前記周期を検出し、同一画素について前記画像データごとに検出された周期同士を比較演算して周期の検出値とすることを特徴とする。
Another aspect of the present invention, there is provided an image reading method, reading end portions of the main scanning direction in the adjacent image sensor that is arranged in a zigzag pattern to overlap when viewed from the sub-scanning direction section An image processing method for synthesizing image data generated by the adjacent image sensors, wherein a first period for detecting a magnitude cycle of a read value in a main scanning direction from the image data read by the image sensor; A second step of calculating a correction value based on the period detected in the first step, and a third step of correcting the image data based on the correction value calculated in the second step. run the door, in the second step, using a function and a function of the period and the period reference to associated beforehand table, corresponding to the period detected by said first step A weighting coefficient is calculated as the correction value, and in the third step, the weighting coefficient is multiplied with the image data, and the pixel positions in the main scanning direction are aligned and added to be included in the overlapping portion. The image data is corrected .
Further, the aspect of the present invention is generated by the adjacent image sensors of the reading units arranged in a staggered manner so that the ends of the adjacent image sensors in the main scanning direction overlap when viewed from the sub-scanning direction. An image processing method for combining image data, wherein a first step of detecting a magnitude cycle of a read value in the main scanning direction from image data read by the image sensor, and detected in the first step Performing a second step of calculating a correction value based on the calculated period, and a third step of correcting the image data based on the correction value calculated in the second step, and In the step, the period is detected for each pixel position of the overlapping portion, and in the second step, the weighting coefficient for each pixel position is based on the period for each image data. The correction values are respectively calculated, and in the third step, the weighting coefficients are respectively multiplied with the image data, and the pixel positions in the main scanning direction are aligned and added to thereby add the images included in the overlapping portion. The data is corrected for each pixel position.
Further, the aspect of the present invention is generated by the adjacent image sensors of the reading units arranged in a staggered manner so that the ends of the adjacent image sensors in the main scanning direction overlap when viewed from the sub-scanning direction. An image processing method for combining image data, wherein a first step of detecting a magnitude cycle of a read value in the main scanning direction from image data read by the image sensor, and detected in the first step Performing a second step of calculating a correction value based on the calculated period, and a third step of correcting the image data based on the correction value calculated in the second step, and In the step, the period is detected for each of the image data in the overlapping portion, and the period detected for each of the image data for the same pixel is compared and calculated to detect the period. Characterized in that it.

本発明によれば、広幅の読取装置において、簡易な構成で良好な読取画像を得ることができる。   According to the present invention, it is possible to obtain a good read image with a simple configuration in a wide reading apparatus.

本発明の実施形態に係る画像形成装置の全体構成を示す図である。1 is a diagram illustrating an overall configuration of an image forming apparatus according to an embodiment of the present invention. 本発明の実施形態に係る処理ブロックの構成を示す図である。It is a figure which shows the structure of the process block which concerns on embodiment of this invention. 本発明の実施形態に係る処理ブロックの構成を示す図である。It is a figure which shows the structure of the process block which concerns on embodiment of this invention. 本発明の実施形態に係る網点周期検出処理を示す図である。It is a figure which shows the halftone dot period detection process which concerns on embodiment of this invention. 本発明の実施形態に係る繋ぎ目補正処理部の構成を示す図である。It is a figure which shows the structure of the joint correction process part which concerns on embodiment of this invention. 本発明の実施形態に係る繋ぎ目補正処理の重み付け係数を示す図である。It is a figure which shows the weighting coefficient of the joint correction process which concerns on embodiment of this invention. 本発明の実施形態に係る高線数の網点画像に対する補正効果(1)を示す図である。It is a figure which shows the correction effect (1) with respect to the halftone dot image of the high line number which concerns on embodiment of this invention. 本発明の実施形態に係る高線数の網点画像に対する補正効果(2)を示す図である。It is a figure which shows the correction effect (2) with respect to the halftone dot image of the high line number which concerns on embodiment of this invention. 本発明の実施形態に係る高線数の網点画像に対する補正効果(3)を示す図である。It is a figure which shows the correction effect (3) with respect to the halftone dot image of the high line number which concerns on embodiment of this invention. 本発明の実施形態に係る低線数の網点画像に対する補正効果(1)を示す図である。It is a figure which shows the correction effect (1) with respect to the dot image of the low line number which concerns on embodiment of this invention. 本発明の実施形態に係る低線数の網点画像に対する補正効果(2)を示す図である。It is a figure which shows the correction effect (2) with respect to the halftone dot image of the low line number which concerns on embodiment of this invention. 本発明の実施形態に係る低線数の網点画像に対する補正効果(3)を示す図である。It is a figure which shows the correction effect (3) with respect to the halftone dot image of the low line number which concerns on embodiment of this invention. 本発明の実施形態に係る繋ぎ目補正処理の重み付け係数を示す図である。It is a figure which shows the weighting coefficient of the joint correction process which concerns on embodiment of this invention. 本発明の実施形態に係る繋ぎ目補正処理の重み付け係数を示す図である。It is a figure which shows the weighting coefficient of the joint correction process which concerns on embodiment of this invention. 本発明の実施形態に係る処理ブロックの構成を示す図である。It is a figure which shows the structure of the process block which concerns on embodiment of this invention.

以下、図面を参照して、本発明の実施形態を詳細に説明する。本実施形態においては、A0サイズに対応した広幅の画像読取装置を含む複写機、すなわち画像形成装置を例として説明する。尚、画像形成装置に限らず、広幅の画像読取装置としても実現可能である。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. In this embodiment, a copying machine including a wide image reading apparatus corresponding to the A0 size, that is, an image forming apparatus will be described as an example. Note that the present invention can be realized not only as an image forming apparatus but also as a wide image reading apparatus.

図1は、本実施形態に係る画像形成装置1の全体構成を示す図である。図1に示すように、本実施形態に係る画像形成装置1は、大きく分けて上側の画像読取装置部2及び下側の画像出力部3により構成されている。また画像形成装置1の内部には、全体を統括制御する制御部4及び画像に関する種々の演算処理を行う画像処理部5が設けられている。   FIG. 1 is a diagram illustrating an overall configuration of an image forming apparatus 1 according to the present embodiment. As shown in FIG. 1, the image forming apparatus 1 according to the present embodiment is roughly composed of an upper image reading device section 2 and a lower image output section 3. Further, inside the image forming apparatus 1, a control unit 4 that performs overall control and an image processing unit 5 that performs various arithmetic processes relating to images are provided.

画像読取装置部2は、さらに下側の原稿台7及び上側の原稿カバー8により構成されている。原稿台7は、読取部11、ローラ12及び13、原稿挿入センサ14、サイズ検出センサ15並びに原稿排出センサ16を含む。   The image reading unit 2 is further configured by a lower document table 7 and an upper document cover 8. The document table 7 includes a reading unit 11, rollers 12 and 13, a document insertion sensor 14, a size detection sensor 15, and a document discharge sensor 16.

読取部11は、後述するイメージセンサにより原稿MNの画像を読み取る。ローラ12及び13は、読取部11の前後にそれぞれ配置されており、図示しないモータの駆動力が伝達されることにより、所定の回転軸を中心に回転される。原稿挿入センサ14は、原稿台7及び原稿カバー8の間に原稿MNが挿入されたか否かを検出する。サイズ検出センサ15は、原稿MNの主走査方向の、すなわち左右方向のサイズを検出する。   The reading unit 11 reads an image of the document MN with an image sensor described later. The rollers 12 and 13 are respectively arranged before and after the reading unit 11 and are rotated about a predetermined rotation axis by transmitting a driving force of a motor (not shown). The document insertion sensor 14 detects whether or not the document MN is inserted between the document table 7 and the document cover 8. The size detection sensor 15 detects the size of the document MN in the main scanning direction, that is, in the left-right direction.

原稿カバー8は、白基準板17並びにローラ18及び19を含む。白基準板17は、シェーディング補正用の板であり、原稿台7の読取部11と対向する位置に設置されている。ローラ18及び19は、原稿台7のローラ12及び13とそれぞれ対向する位置に設置されており、図示しないモータの駆動力が伝達されることにより、所定の回転軸を中心に回転される。   The document cover 8 includes a white reference plate 17 and rollers 18 and 19. The white reference plate 17 is a shading correction plate and is installed at a position facing the reading unit 11 of the document table 7. The rollers 18 and 19 are installed at positions facing the rollers 12 and 13 of the document table 7, respectively, and are rotated about a predetermined rotation shaft by transmitting a driving force of a motor (not shown).

この画像読取装置部2は、原稿台7及び原稿カバー8の間に原稿MNを挟み込み、ローラ12及び13とローラ18及び19との間にこの原稿MNを挟持して矢印J1方向へ、すなわち前から後へ向かう副走査方向へ搬送しながら、読取部11により原稿MNの下面から画像を読み取る。   The image reading unit 2 sandwiches the document MN between the document table 7 and the document cover 8 and sandwiches the document MN between the rollers 12 and 13 and the rollers 18 and 19 in the direction of the arrow J1, that is, the front. The image is read from the lower surface of the document MN by the reading unit 11 while being conveyed in the sub-scanning direction from the back to the back.

画像出力部3には、給紙部21及び画像形成部22が含まれる。給紙部21は、例えば印刷用紙などの媒体が格納されており、この媒体を1枚ずつ画像形成部22へ供給する。画像形成部22は、画像読取装置部2により読み取られた画像などを媒体に印字し、排出経路RJ1又はRJ2に沿って排出する。   The image output unit 3 includes a paper feeding unit 21 and an image forming unit 22. The paper supply unit 21 stores a medium such as a printing paper, and supplies the medium to the image forming unit 22 one by one. The image forming unit 22 prints an image read by the image reading device unit 2 on a medium, and discharges it along the discharge path RJ1 or RJ2.

制御部4は、内部に図示しないCPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)及びHDD(Hard Disk Drive)等を有している。   The control unit 4 includes a CPU (Central Processing Unit), a RAM (Random Access Memory), a ROM (Read Only Memory), a HDD (Hard Disk Drive), and the like (not shown).

この制御部4では、このようなハードウェア構成において、ROMやHDD等の記録媒体に格納されたプログラムがRAMに読み出され、CPUがそれらのプログラムに従って演算を行うことにより、ソフトウェア制御部が構成される。このようにして構成されたソフトウェア制御部と、ハードウェアとの組み合わせによって、本実施形態に係る画像形成装置1の機能を実現する機能ブロックが構成される。   In the control unit 4, in such a hardware configuration, a program stored in a recording medium such as a ROM or an HDD is read out to the RAM, and the CPU performs an operation according to the program, whereby the software control unit is configured. Is done. A functional block that realizes the functions of the image forming apparatus 1 according to the present embodiment is configured by a combination of the software control unit configured as described above and hardware.

次に、図2を参照して、本実施形態に係る読取部11及び画像処理部5について説明する。図2は、本実施形態に係る読取部11及び画像処理部5の処理ブロックを示す図である。   Next, the reading unit 11 and the image processing unit 5 according to the present embodiment will be described with reference to FIG. FIG. 2 is a diagram illustrating processing blocks of the reading unit 11 and the image processing unit 5 according to the present embodiment.

読取部11は、コンタクトイメージセンサ(CIS)として構成された第1イメージセンサ31、第2イメージセンサ32及び第3イメージセンサ33の他に、アナログ・デジタル(A/D)変換器34、35及び36並びにメモリ37及び38を有している。   In addition to the first image sensor 31, the second image sensor 32, and the third image sensor 33 configured as a contact image sensor (CIS), the reading unit 11 includes analog / digital (A / D) converters 34, 35, and 36 and memories 37 and 38.

第1イメージセンサ31は、原稿台7(図1)内において、主走査方向を左右に向けるように取り付けられており、光源、レンズ及びセンサにより構成されている。センサは、複数の素子が長手方向(すなわち主走査方向)に沿って一直線状に配置された、いわゆるラインイメージセンサとなっている。   The first image sensor 31 is attached in the document table 7 (FIG. 1) so that the main scanning direction is directed to the left and right, and includes a light source, a lens, and a sensor. The sensor is a so-called line image sensor in which a plurality of elements are arranged in a straight line along the longitudinal direction (that is, the main scanning direction).

すなわち第1イメージセンサ31は、図示しないコンタクトガラス上にある原稿MNに光を照射し、この原稿MNより反射された反射光の光量をセンサの各素子により検出して、その光量の大小をデジタル化した画素値を順次並べて第1画像データD1を生成する。この第1画像データD1は、原稿MNの一部分を主走査方向に細長い画像(ラインイメージ)として表したものとなる。   That is, the first image sensor 31 irradiates a document MN on a contact glass (not shown) with light, detects the amount of reflected light reflected from the document MN by each element of the sensor, and digitally determines the magnitude of the amount of light. The first pixel data D1 is generated by sequentially arranging the converted pixel values. The first image data D1 represents a part of the document MN as an image (line image) elongated in the main scanning direction.

第2イメージセンサ32は、第1イメージセンサ31と同様のラインイメージセンサとして構成されており、第2画像データD2を生成する。この第2イメージセンサ32は、第1イメージセンサ31と同様に主走査方向を左右に向けているものの、第1イメージセンサ31から所定のセンサ間距離だけ前側に、すなわち第1イメージセンサ31に対し副走査方向に先行するように取り付けられている。また第2イメージセンサ32は、前後方向から見て、読取範囲の左端近傍部分を第1イメージセンサ31の読取範囲における右端近傍部分と一部重複させている。   The second image sensor 32 is configured as a line image sensor similar to the first image sensor 31, and generates the second image data D2. Although the second image sensor 32 has the main scanning direction turned to the left and right like the first image sensor 31, a predetermined distance between the first image sensor 31 and the first image sensor 31. It is attached so as to precede the sub-scanning direction. The second image sensor 32 partially overlaps the portion near the left end of the reading range with the portion near the right end in the reading range of the first image sensor 31 when viewed from the front-rear direction.

第3イメージセンサ33は、第1イメージセンサ31及び第2イメージセンサ32と同様のラインイメージセンサとして構成されており、第3画像データD3を生成する。この第3イメージセンサ33は、第1イメージセンサ31及び第2イメージセンサ32と同様に主走査方向を左右に向けているものの、第2イメージセンサ32から所定のセンサ間距離だけ後側に、すなわち第2イメージセンサ32に対し副走査方向に後行するように取り付けられている。また第3イメージセンサ33は、前後方向から見て、読取範囲の左端近傍部分を第2イメージセンサ32の読取範囲における右端近傍部分と一部重複させている。   The third image sensor 33 is configured as a line image sensor similar to the first image sensor 31 and the second image sensor 32, and generates third image data D3. Although the third image sensor 33 has the main scanning direction turned to the left and right like the first image sensor 31 and the second image sensor 32, the third image sensor 33 is rearward from the second image sensor 32 by a predetermined distance between the sensors. The second image sensor 32 is attached so as to follow in the sub-scanning direction. Further, the third image sensor 33 partially overlaps the portion near the left end of the reading range with the portion near the right end in the reading range of the second image sensor 32 when viewed from the front-rear direction.

すなわち読取部11には、第1イメージセンサ31、第2イメージセンサ32及び第3イメージセンサ33が、いわゆる千鳥状に配置されている。   That is, the reading unit 11 includes the first image sensor 31, the second image sensor 32, and the third image sensor 33 arranged in a so-called staggered pattern.

第1イメージセンサ31は、原稿MNを読み取ることによりアナログの画素信号を生成し、これをアナログ・デジタル変換器34によりデジタルの第1画像データD1に変換して、これを画像処理部5へ供給する。   The first image sensor 31 generates an analog pixel signal by reading the document MN, converts it into digital first image data D1 by an analog / digital converter 34, and supplies this to the image processing unit 5. To do.

第2イメージセンサ32は、原稿MNを読み取ることによりアナログの画素信号を生成し、これをアナログ・デジタル変換器35によりデジタルの第2画像データD2に変換して、これをメモリ37へ一度記憶させる。メモリ37は、所定の遅延時間の経過後に第1画像データD1とタイミングを合わせて第2画像データD2を読み出し、画像処理部5へ供給する。   The second image sensor 32 generates an analog pixel signal by reading the document MN, converts it into digital second image data D2 by the analog / digital converter 35, and stores it in the memory 37 once. . The memory 37 reads out the second image data D2 in synchronization with the first image data D1 after the elapse of a predetermined delay time, and supplies the second image data D2 to the image processing unit 5.

第3イメージセンサ33は、原稿MNを読み取ることによりアナログの画素信号を生成し、これをアナログ・デジタル変換器36によりデジタルの第3画像データD3に変換して、これをメモリ38へ一度記憶させる。メモリ38は、所定の遅延時間の経過後に第1画像データD1及び第2画像データD2とタイミングを合わせて第3画像データD3を読み出し、画像処理部5へ供給する。   The third image sensor 33 reads an original MN, generates an analog pixel signal, converts it into digital third image data D3 by an analog / digital converter 36, and stores it in the memory 38 once. . The memory 38 reads out the third image data D3 in synchronization with the first image data D1 and the second image data D2 after a predetermined delay time has passed, and supplies the third image data D3 to the image processing unit 5.

画像処理部5は、ライン合成処理部41及びメモリ42を有しており、複数の画像を合成する画像合成処理や画像を補正する補正処理等、画像に関する種々の処理を行う。   The image processing unit 5 includes a line synthesis processing unit 41 and a memory 42, and performs various processes related to images such as an image synthesis process for synthesizing a plurality of images and a correction process for correcting images.

ライン合成処理部41は、第1画像データD1、第2画像データD2及び第3画像データD3を基に所定のライン合成処理(詳しくは後述する)を行うことにより、1ライン分の合成画像データDAを生成して後段へ出力する。メモリ42は、ライン合成処理部41からの要求に従い、第1画像データD1、第2画像データD2及び第3画像データD3を所定のライン数に渡って記憶し、またこれらを読み出す。   The line composition processing unit 41 performs a predetermined line composition process (details will be described later) based on the first image data D1, the second image data D2, and the third image data D3, thereby synthesizing image data for one line. DA is generated and output to the subsequent stage. The memory 42 stores the first image data D1, the second image data D2, and the third image data D3 over a predetermined number of lines and reads them in accordance with a request from the line composition processing unit 41.

次に、図3を参照して、本実施形態に係る画像処理部5のライン合成処理部41について説明する。図3は、本実施形態に係るライン合成処理部41の処理ブロックを示す図である。   Next, the line composition processing unit 41 of the image processing unit 5 according to the present embodiment will be described with reference to FIG. FIG. 3 is a diagram illustrating processing blocks of the line composition processing unit 41 according to the present embodiment.

ライン合成処理部41は、網点検出部51、網点周期検出部52、重み付け係数算出部53、繋ぎ目補正処理部54及び1ライン化処理部55を有している。   The line composition processing unit 41 includes a halftone dot detection unit 51, a halftone dot period detection unit 52, a weighting coefficient calculation unit 53, a joint correction processing unit 54, and a one-line processing unit 55.

網点検出部51は、第1画像データD1、第2画像データD2及び第3画像データD3のうちそれぞれの重複部分から主走査方向について網点を検出し、その検出結果を網点周期検出部52及び繋ぎ目補正処理部54へ供給する。網点周期検出部52は、網点検出部51により検出された網点の周期Tを検出し、重み付け係数算出部53へ供給する。重み付け係数算出部53は、検出された網点の周期を基に重み付け係数G1、G2及びG3を算出し、これを繋ぎ目補正処理部54へ供給する。   A halftone dot detection unit 51 detects a halftone dot in the main scanning direction from each overlapping portion of the first image data D1, the second image data D2, and the third image data D3, and the detection result is a halftone dot period detection unit. 52 and the joint correction processing unit 54. The halftone dot period detection unit 52 detects the halftone dot period T detected by the halftone dot detection unit 51 and supplies it to the weighting coefficient calculation unit 53. The weighting coefficient calculation unit 53 calculates weighting coefficients G1, G2, and G3 based on the detected halftone dot period, and supplies them to the joint correction processing unit.

繋ぎ目補正処理部54は、重み付け係数算出部53から供給される重み付け係数G1、G2及びG3を用いて第1画像データD1及び第2画像データD2の重複部分、並びに第2画像データD2及び第3画像データD3の重複部分にそれぞれ繋ぎ目補正処理を施し、生成した画像データを1ライン化処理部55へ供給する。1ライン化処理部55は、繋ぎ目補正処理部54により生成された重複部分の画像データを他の部分の画像データと合成することにより1ラインの合成画像データDAを生成する。   The joint correction processing unit 54 uses the weighting coefficients G1, G2, and G3 supplied from the weighting coefficient calculation unit 53 to overlap the first image data D1 and the second image data D2, as well as the second image data D2 and the second image data D2. A joint correction process is performed on the overlapping portions of the three image data D3, and the generated image data is supplied to the one-line processing unit 55. The one-line processing unit 55 generates one-line combined image data DA by combining the overlapping portion image data generated by the joint correction processing unit 54 with the image data of other portions.

次に、図4を参照して、網点周期検出部52による網点周期の検出処理について説明する。図4(a)は、画素値及び網点周期の関係を表す図であり、図4(b)は、網点周期の検出処理手順を表すフローチャートであり、図4(c)は、フィルタの係数を表す図である。   Next, with reference to FIG. 4, the halftone dot period detection process by the halftone period detector 52 will be described. FIG. 4A is a diagram showing the relationship between the pixel value and the halftone dot period, FIG. 4B is a flowchart showing the detection process procedure of the halftone dot period, and FIG. It is a figure showing a coefficient.

網点周期検出部52は、例えば第1イメージセンサ31及び第2イメージセンサ32の繋ぎ目部分であれば、第1画像データD1を用い、第2イメージセンサ32及び第3イメージセンサ33の繋ぎ目部分であれば、第2画像データD2を用いる。   For example, when the halftone dot period detection unit 52 is a joint portion between the first image sensor 31 and the second image sensor 32, the first image data D <b> 1 is used and the joint between the second image sensor 32 and the third image sensor 33 is used. If it is a portion, the second image data D2 is used.

また網点周期検出部52は、重複した領域外も含めた広範囲から網点周期を検出したい場合、例えば第1イメージセンサ31及び第2イメージセンサ32の繋ぎ目部分であれば、繋ぎ目の中心から左側部分については第1画像データD1を用い、繋ぎ目の中心から右側部分については第2画像データD2を用いれば良い。   The halftone dot period detection unit 52 detects the halftone dot period from a wide range including outside the overlapped area. For example, if the halftone dot period is a joint portion between the first image sensor 31 and the second image sensor 32, The first image data D1 may be used for the left portion from the first and the second image data D2 may be used for the right portion from the center of the joint.

さらに網点周期検出部52は、第1画像データD1及び第2画像データD2それぞれについて、個別に網点周期を検出しても良い。この場合、網点周期検出部52は、検出したそれぞれの網点周期の平均値を検出結果とし、或いは長短どちらかを選択して検出結果としても良い。   Further, the halftone dot period detection unit 52 may individually detect the halftone dot period for each of the first image data D1 and the second image data D2. In this case, the halftone dot period detection unit 52 may use the average value of the detected halftone dot periods as the detection result, or may select either the long or short as the detection result.

網点周期検出部52は、図4(a)に示したように、例えば第1画像データD1のうち所定の注目画素及び注目画素の左右15画素ずつの合計31画素を、当該注目画素に対応する注目領域として、網点周期の検出処理を行う。   As shown in FIG. 4A, the halftone dot period detection unit 52 corresponds to, for example, a total of 31 pixels including a predetermined pixel of interest and 15 pixels on the left and right of the pixel of interest in the first image data D1. A halftone dot detection process is performed as a region of interest to be performed.

次に、第1画像データD1の重複部分から網点周期を検出する場合を例に、網点周期検出部52による網点周期の算出処理について説明する。網点周期検出部52は、網点検出部51により網点が検出されると、図4(b)に示した網点周期の検出処理手順を開始し、ステップS1へ移る。   Next, the halftone dot period calculation process by the halftone dot period detection unit 52 will be described by taking as an example the case where the halftone dot period is detected from the overlapping portion of the first image data D1. When the halftone dot is detected by the halftone dot detection unit 51, the halftone dot period detection unit 52 starts the halftone dot period detection processing procedure shown in FIG. 4B, and proceeds to step S1.

ステップS1において網点周期検出部52は、網点検出部51から注目領域の第1画像データD1を取得し、次のステップS2へ移る。ステップS2において網点周期検出部52は、第1画像データD1に対し、図4(c)に示したフィルタ係数によりフィルタ演算処理を行い、次のステップS3へ移る。   In step S1, the halftone dot period detection unit 52 acquires the first image data D1 of the attention area from the halftone dot detection unit 51, and proceeds to the next step S2. In step S2, the halftone dot period detection unit 52 performs filter calculation processing on the first image data D1 using the filter coefficient shown in FIG. 4C, and proceeds to the next step S3.

ステップS3において網点周期検出部52は、フィルタ演算処理が行われた第1画像データD1に対し単純2値化処理を施し、次のステップS4へ移る。このときの量子化閾値としては、第1画像データD1の各画素のデータが8ビットであれば値「128」とし、10ビットであれば値「512」とする。   In step S3, the halftone dot period detection unit 52 performs a simple binarization process on the first image data D1 on which the filter calculation process has been performed, and proceeds to the next step S4. As a quantization threshold at this time, a value “128” is set when the data of each pixel of the first image data D1 is 8 bits, and a value “512” is set when the data is 10 bits.

ステップS4において網点周期検出部52は、2値化された第1画像データD1から、注目領域内において値「0」から値「1」に変化する立上り変化点の数を計数すると共に、互いに隣接する立上り変化点同士の画素間隔である変化点間隔を抽出する。続いて網点周期検出部52は、抽出した変化点間隔について単純平均処理や重加算平均処理等の統計演算を行い、その演算結果を網点周期として決定した後、網点周期の算出処理手順を終了する。   In step S4, the halftone dot period detection unit 52 counts the number of rising change points that change from the value “0” to the value “1” in the region of interest from the binarized first image data D1, and A change point interval which is a pixel interval between adjacent rising change points is extracted. Subsequently, the halftone dot period detection unit 52 performs a statistical calculation such as a simple average process or a multiple addition average process on the extracted change point interval, determines the calculation result as a halftone period, and then calculates a halftone period calculation process. Exit.

ステップS4において単純平均処理を行う場合、網点周期検出部52は、検出した立上り変化点の数をIとし、それぞれの変化点間隔をTi(ただし1≦i≦I−1)として、次の(1)式により、注目画素位置における網点周期T(n)を算出する。
When performing the simple average process in step S4, the halftone dot period detection unit 52 sets the number of detected rising change points as I and sets each change point interval as Ti (where 1 ≦ i ≦ I−1). The halftone dot period T (n) at the target pixel position is calculated by the equation (1).

なお網点周期検出部52は、第1画像データD1等がいわゆるカラー画像である場合、R/G/B値から1つのプレーン画像を生成して一連の処理を実施しても良く、或いはR/G/B各々のプレーン画像で本処理を実施しても良い。   When the first image data D1 and the like are so-called color images, the halftone dot period detection unit 52 may generate a single plane image from the R / G / B values and perform a series of processes, or R This processing may be performed on each plane image of / G / B.

また網点周期検出部52は、立上り変化点だけでなく、値「1」から値「0」に変化する立下り変化点に関しても同様の処理を行い、両者を平均して注目画素位置における網点周期として決定することにより、精度向上を図っても良い。   The halftone dot period detection unit 52 performs the same processing not only on the rising change point but also on the falling change point that changes from the value “1” to the value “0”. The accuracy may be improved by determining the point period.

次に、図5を参照して繋ぎ目補正処理部54による繋ぎ目補正処理について説明する。図5は、繋ぎ目補正処理部54の回路構成を示す図である。繋ぎ目補正処理部54は、第1画像データD1、第2画像データD2及び第3画像データD3に対しそれぞれ補正処理を施すための第1乃至第3の補正処理回路61、62及び63並びに加算回路70を備えている。   Next, the seam correction processing by the seam correction processing unit 54 will be described with reference to FIG. FIG. 5 is a diagram illustrating a circuit configuration of the joint correction processing unit 54. The joint correction processing unit 54 includes first to third correction processing circuits 61, 62, and 63 for performing correction processing on the first image data D1, the second image data D2, and the third image data D3, respectively, and addition. A circuit 70 is provided.

第1乃至第3の補正処理回路61、62及び63は、それぞれ同等に構成されており、第1乃至第3の3次関数コンボリューション64、65及び66並びに第1乃至第3の乗算回路67、68及び69を備えている。   The first to third correction processing circuits 61, 62, and 63 are configured in the same way, and the first to third cubic function convolutions 64, 65, and 66 and the first to third multiplication circuits 67 are provided. , 68 and 69.

第1の補正処理回路61は、第1画像データD1を第1の3次関数コンボリューション64及び第1の乗算回路67へそれぞれ供給する。第1の3次関数コンボリューション64は、第1画像データD1に3次関数を用いた処理を施し、これを第1の乗算回路67へ供給する。   The first correction processing circuit 61 supplies the first image data D1 to the first cubic function convolution 64 and the first multiplication circuit 67, respectively. The first cubic function convolution 64 performs processing using a cubic function on the first image data D 1 and supplies the processed data to the first multiplication circuit 67.

第1の乗算回路67は、第1画像データD1及び第1の3次関数コンボリューション64からのデータに加え、重み付け係数算出部53により算出された重み付け係数G1が入力されており、これらを乗算することにより第1補正画像データD1Sを生成して加算回路70へ供給する。   The first multiplication circuit 67 receives the weighting coefficient G1 calculated by the weighting coefficient calculation unit 53 in addition to the first image data D1 and the data from the first cubic function convolution 64, and multiplies them. Thus, the first corrected image data D1S is generated and supplied to the adding circuit 70.

第2の補正処理回路62及び第3の補正処理回路63は、それぞれ第1の補正処理回路61と同様の処理により、それぞれ第2補正画像データD2S及び第3補正画像データD3Sを生成して加算回路70へ供給する。   The second correction processing circuit 62 and the third correction processing circuit 63 generate and add the second correction image data D2S and the third correction image data D3S, respectively, by the same processing as the first correction processing circuit 61. Supply to circuit 70.

加算回路70は、第1補正画像データD1S、第2補正画像データD2S及び第3補正画像データD3Sを加算することにより繋ぎ目補正画像データDSを生成し、これを後段へ出力する。   The adding circuit 70 adds the first corrected image data D1S, the second corrected image data D2S, and the third corrected image data D3S to generate the joint corrected image data DS, and outputs this to the subsequent stage.

因みに繋ぎ目補正処理部54は、実際には、イメージセンサ同士が互いに隣り合い、重複部分を有する2種類の画像データ同士、例えば第1画像データD1及び第2画像データD2のみ、或いは第2画像データD2及び第3画像データD3のみが入力される。このため加算回路70は、この2種類の画像データに基づいた2種類の補正画像データのみを加算することになる。   Incidentally, the seam correction processing unit 54 actually has two types of image data in which the image sensors are adjacent to each other and have overlapping portions, for example, only the first image data D1 and the second image data D2, or the second image. Only data D2 and third image data D3 are input. Therefore, the adding circuit 70 adds only two types of corrected image data based on the two types of image data.

このように繋ぎ目補正処理部54は、第1画像データD1、第2画像データD2及び第3画像データD3に重み付け係数G1、G2及びG3をそれぞれ乗算して加算することにより、繋ぎ目補正画像データDSを生成するようになされている。   As described above, the joint correction processing unit 54 multiplies the first image data D1, the second image data D2, and the third image data D3 by the weighting coefficients G1, G2, and G3, respectively, and adds them to each other. Data DS is generated.

次に、図6を参照して重み付け係数算出部53による重み付け係数G1、G2及びG3の算出処理について説明する。ここでは、重み付け係数G1及びG2を例に説明する。   Next, the calculation processing of the weighting coefficients G1, G2, and G3 by the weighting coefficient calculation unit 53 will be described with reference to FIG. Here, the weighting coefficients G1 and G2 will be described as an example.

図6は、本実施形態における第1イメージセンサ31及び第2イメージセンサ32のうち重複部分を中心とした一部分と、網点の周期Tと、重み付け係数G1及びG2との関係を示した図であり、(a)、(b)及び(c)により周期T並びに重み付け係数G1及びG2が互いに異なる例を示している。   FIG. 6 is a diagram showing a relationship among a part of the first image sensor 31 and the second image sensor 32 centering on the overlapping portion, the halftone dot period T, and the weighting coefficients G1 and G2 in the present embodiment. Yes, examples in which the period T and the weighting coefficients G1 and G2 are different from each other are shown by (a), (b), and (c).

重み付け係数算出部53は、網点周期検出部52により検出された網点の主走査方向における周期Tを取得する。ここでは、重複部分において周期Tが一定であるとする。或いは、重複部分における周期の平均値を周期Tとしても良い。   The weighting coefficient calculation unit 53 acquires the period T in the main scanning direction of the halftone dot detected by the halftone dot period detection unit 52. Here, it is assumed that the period T is constant in the overlapping portion. Or it is good also considering the average value of the period in an overlap part as the period T. FIG.

続いて重み付け係数算出部53は、取得した周期Tに基づいて、上述した繋ぎ目補正処理において利用する重み付け係数G1及びG2を、それぞれ周期Tの関数として算出する。   Subsequently, the weighting coefficient calculation unit 53 calculates the weighting coefficients G1 and G2 used in the joint correction process described above as functions of the period T based on the acquired period T.

具体的に重み付け係数算出部53は、次の(2)式に従い、重み付け係数G1及びG2を、それぞれ算出する。
Specifically, the weighting coefficient calculation unit 53 calculates weighting coefficients G1 and G2 according to the following equation (2).

ただし、(2)式においてnは重複部分の左端を値「1」としたときの主走査方向の位置を表し、Nは重複部分の画素数を表す。また、αは重み付け係数を表す曲線のカーブを決定する定数を表す。さらに、変数TSは、次の(3)式により算出される値であり、Tmaxは、検出する周期範囲の最大値を表す。
However, in the formula (2), n represents the position in the main scanning direction when the left end of the overlapping portion is set to the value “1”, and N represents the number of pixels in the overlapping portion. Α represents a constant that determines the curve of the curve representing the weighting coefficient. Furthermore, the variable TS is a value calculated by the following equation (3), and Tmax represents the maximum value of the period range to be detected.

ここで、この(2)式及び(3)式により算出される重み付け係数G1及びG2の具体例として、周期T1のときを図6(a)に、周期T2のときを図6(b)に、また周期T3の時を図6(c)に示す。ただし、画像の重複部分の画素数N=128画素とし、検出する周期範囲の最大値Tmax=T1とし、重み付け係数を表す曲線のカーブを決定する定数α=1とした。また、周期T1、T2及びT3の間には、T1>T2>T3の関係が成り立つ。   Here, as specific examples of the weighting coefficients G1 and G2 calculated by the equations (2) and (3), FIG. 6A shows the period T1 and FIG. 6B shows the period T2. FIG. 6C shows the period T3. However, the number of pixels in the overlapping portion of the image is N = 128 pixels, the maximum value of the period range to be detected is Tmax = T1, and the constant α = 1 for determining the curve of the weighting coefficient is set. Further, a relationship of T1> T2> T3 is established between the periods T1, T2, and T3.

図6(a)は、網点の周期Tが最も長い周期T1であった場合を表しており、このとき原稿MNの画像は、線画やグラデーション、或いはベタ画像であると想定される。このような画像の場合、補正処理により、主走査方向に沿って左から右へ移るに連れて、第1画像データD1から第2画像データD2へ段階的に繋ぐことが好適であると考えられる。   FIG. 6A shows a case where the halftone dot period T is the longest period T1, and at this time, the image of the document MN is assumed to be a line drawing, a gradation, or a solid image. In the case of such an image, it is considered preferable to link the first image data D1 to the second image data D2 step by step as the correction process moves from left to right along the main scanning direction. .

このため図6(a)の場合、算出された重み付け係数G1は、重複部分において右へ移るに連れて単調に減少する直線状になり、算出された重み付け係数G2は、重複部分において右へ移るに連れて単調に増加する直線状になる。   For this reason, in the case of FIG. 6A, the calculated weighting coefficient G1 has a linear shape that monotonously decreases as it moves to the right in the overlapping portion, and the calculated weighting coefficient G2 moves to the right in the overlapping portion. It becomes a straight line that monotonously increases with the time.

また図6(c)は、網点の周期Tが最も短い周期T3であった場合を表しており、このとき原稿MNの画像は、高線数の網点画像であると想定される。このような画像の場合、補正処理により、主走査方向に沿って左から右へ移るに連れて、第1画像データD1から第2画像データD2へ急峻に切り替えるように繋ぐことが好適であると考えられる。   FIG. 6C shows a case where the halftone dot period T is the shortest period T3. At this time, the image of the document MN is assumed to be a high-line-number dot image. In the case of such an image, it is preferable that the correction process is performed so that the first image data D1 is switched to the second image data D2 sharply as it moves from the left to the right along the main scanning direction. Conceivable.

このため図6(c)の場合、算出された重み付け係数G1は、重複部分のほぼ中央において矩形を描くように一気に減少する折れ線状になり、算出された重み付け係数G2は、重複部分のほぼ中央において矩形を描くように一気に増加する折れ線状になる。   For this reason, in the case of FIG. 6C, the calculated weighting coefficient G1 has a polygonal line shape that decreases at a stretch so as to draw a rectangle in the approximate center of the overlapping portion, and the calculated weighting coefficient G2 is approximately the center of the overlapping portion. A polygonal line that increases at a stretch like a rectangle is drawn.

一方、図6(b)は、網点の周期Tが周期T1及び周期T3の中間であった場合を表しており、このとき原稿MNの画像は、文字、或いは低線数の網点画像であると想定される。このような画像の場合、補正処理により、図6(a)若しくは図6(c)の二者択一方式ではなく、両者の良い特徴を得るように繋ぐこと、すなわち主走査方向に沿って左から右へ移るに連れて、第1画像データD1から第2画像データD2へ中程度に段階的に繋ぐことが好適であると考えられる。   On the other hand, FIG. 6B shows the case where the halftone dot period T is intermediate between the period T1 and the period T3. At this time, the image of the document MN is a halftone dot image of characters or a low number of lines. It is assumed that there is. In the case of such an image, it is not the alternative method of FIG. 6 (a) or FIG. 6 (c), but is connected so as to obtain a good feature of both, that is, left along the main scanning direction. It is considered that it is preferable to connect the first image data D1 to the second image data D2 in a stepwise manner as it moves from right to right.

このため図6(b)の場合、算出された重み付け係数G1は、重複部分の左端からほぼ中央まで、上に膨らんだ円弧の一部を描くように減少幅が徐々に増加し、重複部分のほぼ中央から右端まで、今度は下に膨らんだ円弧の一部を描くように減少幅が徐々に減少する複雑な曲線状となる。また算出された重み付け係数G2は、重複部分において重み付け係数G1と上下対称になっており、重複部分の左端からほぼ中央まで、下に膨らんだ円弧の一部を描くように増加幅が徐々に増加し、重複部分のほぼ中央から右端まで、今度は上に膨らんだ円弧の一部を描くように増加幅が徐々に減少する複雑な曲線状となる。   For this reason, in the case of FIG. 6B, the calculated weighting coefficient G1 gradually increases so as to draw a part of the arc that swells upward from the left end of the overlapping portion to almost the center. From almost the center to the right end, this time, it becomes a complicated curve shape with a decreasing width gradually decreasing so as to draw a part of a circular arc swelled downward. The calculated weighting coefficient G2 is vertically symmetrical with the weighting coefficient G1 in the overlapping portion, and the increasing width gradually increases so as to draw a part of the arc swelled downward from the left end of the overlapping portion to almost the center. Then, from the substantially center of the overlapping portion to the right end, this time, it becomes a complicated curved line shape in which the increase width gradually decreases so as to draw a part of the arc swelled upward.

このように重み付け係数算出部53は、繋ぎ目補正処理において利用する重み付け係数G1及びG2を、網点周期検出部52により検出された周期Tの関数として算出するようにしたことにより、原稿MNの画像が網点又は非網点の二者択一方式ではなく、画像の網点周期Tに応じて、重み付け係数G1及びG2をきめ細かく調整することが可能となる。   As described above, the weighting coefficient calculation unit 53 calculates the weighting coefficients G1 and G2 used in the joint correction processing as a function of the period T detected by the halftone period detection unit 52. It is possible to finely adjust the weighting factors G1 and G2 according to the halftone dot period T of the image, not the halftone dot or non-halftone image.

次に、本実施形態による効果等について、図7〜図12のシミュレーション結果を用いて説明する。   Next, effects and the like according to the present embodiment will be described using the simulation results of FIGS.

まず図7〜図9は、原稿MNが高線数の網点画像であった場合を想定したシミュレーション結果である。この場合、入力される画像データ、すなわち第1画像データD1及び第2画像データD2としては、周期6画素の正弦波により、白黒に変化する高線数の網点画像を擬似的に表すこととした。D1とD2の主走査方向の画素ずれ量は4画素とした。また主走査方向の画素位置については、重複部分の左端の画素を「0」とし、右端を「128」としている。   First, FIGS. 7 to 9 are simulation results assuming that the document MN is a halftone dot image with a high number of lines. In this case, as the input image data, that is, the first image data D1 and the second image data D2, the halftone image having a high line number that changes to black and white is represented in a pseudo manner by a sine wave having a period of 6 pixels. did. The amount of pixel shift in the main scanning direction between D1 and D2 is 4 pixels. As for the pixel position in the main scanning direction, the leftmost pixel of the overlapping portion is “0”, and the right end is “128”.

図7は、図6(a)の場合と同様に、段階的に繋ぎ目補正処理を行った場合を想定している。図7(a)及び(b)は、重み付け係数G1及びG2をそれぞれ示しており、図6(a)とほぼ同形状となっている。   FIG. 7 assumes a case where joint correction processing is performed in a stepwise manner as in the case of FIG. FIGS. 7A and 7B show weighting coefficients G1 and G2, respectively, which are substantially the same as those in FIG.

図7(c)は、繋ぎ目補正処理後の画素データの読取値を表しており、両端から繋ぎ目の中心(64画素)へ向かうに連れて振幅が小さくなっていく様子が表れている。図7(d)は、画像の解像度の指標であるMTF(Modulation Transfer Function)を表しており、繋ぎ目の中心において大きく劣化している様子が表れている。   FIG. 7C shows the read value of the pixel data after the joint correction process, and shows how the amplitude decreases from both ends toward the center of the joint (64 pixels). FIG. 7D shows MTF (Modulation Transfer Function), which is an index of the resolution of the image, and shows a state in which it is greatly deteriorated at the center of the joint.

図8は、図6(b)の場合と同様に、中程度に段階的な繋ぎ目補正処理を行った場合を想定している。図8(a)及び(b)は、重み付け係数G1及びG2をそれぞれ示しており、図6(b)とほぼ同形状となっている。   FIG. 8 assumes a case where a moderately graded joint correction process is performed as in the case of FIG. FIGS. 8A and 8B show weighting coefficients G1 and G2, respectively, which are substantially the same as those in FIG. 6B.

図8(c)は、繋ぎ目補正処理後の画素データの読取値を表しており、図7(c)の場合よりも度合いが小さいものの、両端から繋ぎ目の中心(64画素)へ向かうに連れて振幅が小さくなっていく様子が表れている。図8(d)は、図7(d)と同様にMTFを表しており、やはり図7(d)の場合よりも度合いが小さいものの、繋ぎ目の中心においてやや劣化している様子が表れている。   FIG. 8C shows the read value of the pixel data after the seam correction process. Although the degree is smaller than that in the case of FIG. 7C, it goes from the both ends toward the joint center (64 pixels). As a result, the appearance of the amplitude becoming smaller appears. FIG. 8 (d) shows the MTF as in FIG. 7 (d). Although the degree is still smaller than in the case of FIG. 7 (d), it shows a slight deterioration at the center of the joint. Yes.

図9は、図6(c)の場合と同様に、急峻に切り替えるような繋ぎ目補正処理を行った場合、すなわち中心位置(64画素)において単純に繋いだ場合を想定している。図9(a)及び(b)は、重み付け係数G1及びG2をそれぞれ示しており、図6(c)とほぼ同形状となっている。   FIG. 9 assumes a case where joint correction processing is performed so as to switch sharply, that is, a simple connection is made at the center position (64 pixels), as in the case of FIG. FIGS. 9A and 9B show weighting coefficients G1 and G2, respectively, which are substantially the same shape as FIG. 6C.

図9(c)は、図7(c)と同様に繋ぎ目補正処理後の画素データの読取値を表しており、繋ぎ目の中心(64画素)付近で局所的に読取地の変化が見られるものの、図7(c)のような振幅の変化は表れていない。図9(d)は、図7(d)と同様にMTFを表しており、図7(d)の場合と異なり、劣化は表れていない。   FIG. 9C shows the read value of the pixel data after the seam correction processing as in FIG. 7C, and the change in the reading place is locally observed near the center (64 pixels) of the seam. However, the change in amplitude as shown in FIG. 7C does not appear. FIG. 9D shows the MTF similarly to FIG. 7D, and no deterioration appears unlike the case of FIG. 7D.

この図7〜図9から、原稿MNが高線数の網点画像であった場合には、図9のように、急峻に切り替えるような繋ぎ目補正処理を行うこと、すなわち中心位置(64画素)において単純に繋ぐことが好適であるといえる。   From FIG. 7 to FIG. 9, when the document MN is a halftone dot image with a high line number, as shown in FIG. 9, a joint correction process that switches sharply is performed, that is, the center position (64 pixels). It can be said that it is preferable to simply connect them in ().

次に、図10〜図12は、原稿MNが低線数の網点画像であった場合を想定したシミュレーション結果である。この場合、入力される画像データ、すなわち第1画像データD1及び第2画像データD2としては、周期20画素の正弦波により、白黒に変化する低線数の網点画像を擬似的に表すこととした。D1とD2の主走査方向の画素ずれ量は4画素とした。また主走査方向の画素位置については、図7〜図9と同様、重複部分の左端の画素を「0」とし、右端を「128」としている。   Next, FIGS. 10 to 12 show simulation results assuming that the document MN is a halftone dot image with a low number of lines. In this case, as the input image data, that is, the first image data D1 and the second image data D2, a halftone dot image with a low line number that changes to black and white is represented in a pseudo manner by a sine wave with a period of 20 pixels. did. The amount of pixel shift in the main scanning direction between D1 and D2 is 4 pixels. As for the pixel position in the main scanning direction, the pixel at the left end of the overlapping portion is set to “0” and the right end is set to “128” as in FIGS.

図10は、図6(a)及び図7の場合と同様に、段階的に繋ぎ目補正処理を行った場合を想定している。図10(a)及び(b)は、図7(a)及び(b)と同様、重み付け係数G1及びG2をそれぞれ示している。   FIG. 10 assumes a case where joint correction processing is performed in a stepwise manner as in the case of FIGS. FIGS. 10A and 10B show the weighting factors G1 and G2, respectively, as in FIGS. 7A and 7B.

図10(c)は、図7(c)と同様、繋ぎ目補正処理後の画素データの読取値を表しており、両端から繋ぎ目の中心(64画素)へ向かうに連れて振幅がやや小さくなっていく様子が表れている。図10(d)は、図7(d)と同様にMTFを表しており、繋ぎ目の中心から比較的広い範囲に渡って劣化している様子が表れている。   FIG. 10C shows the read value of the pixel data after the seam correction process, as in FIG. 7C, and the amplitude is slightly smaller from both ends toward the center of the seam (64 pixels). The appearance is becoming apparent. FIG. 10 (d) represents the MTF as in FIG. 7 (d), and shows that the degradation has occurred over a relatively wide range from the center of the joint.

図11は、図6(b)及び図8の場合と同様に、中程度に段階的な繋ぎ目補正処理を行った場合を想定している。図11(a)及び(b)は、図8(a)及び(b)と同様、重み付け係数G1及びG2をそれぞれ示している。   FIG. 11 assumes a case where a moderately graded joint correction process is performed as in the case of FIGS. 6B and 8. FIGS. 11A and 11B show the weighting coefficients G1 and G2, respectively, similarly to FIGS. 8A and 8B.

図11(c)は、図8(c)と同様、繋ぎ目補正処理後の画素データの読取値を表しており、両端から繋ぎ目の中心(64画素)へ向かうに連れて振幅がやや小さくなっていくものの、変化の度合いが図10(c)の場合よりも程度が小さくなっている。図11(d)は、図8(d)と同様にMTFを表しており、両端から繋ぎ目の中心へ向かうに連れてある程度劣化していくものの、図10(d)の場合よりもその度合いが小さくなっている。   FIG. 11C shows the read value of the pixel data after the seam correction processing as in FIG. 8C, and the amplitude is slightly smaller from both ends toward the center of the seam (64 pixels). However, the degree of change is smaller than in the case of FIG. FIG. 11 (d) shows the MTF as in FIG. 8 (d), which deteriorates to some extent as it goes from the both ends to the center of the joint, but the degree is higher than in the case of FIG. 10 (d). Is getting smaller.

図12は、図6(c)及び図9の場合と同様に、急峻に切り替えるような繋ぎ目補正処理を行った場合、すなわち中心位置(64画素)において単純に繋いだ場合を想定している。図12(a)及び(b)は、図9(a)及び(b)と同様、重み付け係数G1及びG2をそれぞれ示している。   FIG. 12 assumes a case where a joint correction process that switches sharply is performed, that is, a simple connection at the center position (64 pixels), as in the case of FIGS. 6C and 9. . FIGS. 12A and 12B show weighting coefficients G1 and G2, respectively, as in FIGS. 9A and 9B.

図12(c)は、図9(c)と同様、繋ぎ目補正処理後の画素データの読取値を表しており、第1イメージセンサ31及び32のずれがあるため、繋ぎ目の中心付近では、特に低線数の網点画像であるが故の読取値の変化が目立っている。図12(d)は、図9(d)と同様にMTFを表しており、繋ぎ目の中心付近において局所的に劣化している様子が表れている。   FIG. 12C, like FIG. 9C, shows the read value of the pixel data after the seam correction process, and the first image sensors 31 and 32 are misaligned. Particularly, the change in the reading value is conspicuous due to the dot image having a low line number. FIG. 12 (d) represents the MTF as in FIG. 9 (d), and shows a state of local degradation near the center of the joint.

この図10〜12から、原稿MNが低線数の網点画像であった場合には、MTFが劣化する範囲を狭めつつ、繋ぎ目部分における読取値の変化も緩和されていることから、図11のような中程度に段階的な繋ぎ目補正処理を行うことが好適であるといえる。   10 to 12, when the document MN is a halftone dot image with a low number of lines, the change in the read value at the joint portion is reduced while the range in which the MTF deteriorates is narrowed. It can be said that it is preferable to perform a moderately stepwise seam correction process like 11.

このように本実施形態では、(2)式及び(3)式に従い、網点の周期Tの関数として算出される重み付け係数G1及びG2を用いて繋ぎ目補正処理を行う。   As described above, in the present embodiment, the joint correction processing is performed using the weighting coefficients G1 and G2 calculated as a function of the halftone dot period T according to the equations (2) and (3).

すなわち本実施形態では、周期Tが大きく線画やグラデーション、或いはいわゆるベタ画像である場合には、段階的な繋ぎ目補正処理を行い、周期Tが小さく網点画像である場合には急峻に切り替えるような繋ぎ目補正処理を行い、その中間であれば周期Tに応じて中程度に段階的な繋ぎ目補正処理を行う。   That is, in the present embodiment, when the period T is large and is a line drawing, gradation, or so-called solid image, stepwise joint correction processing is performed, and when the period T is small and the image is a halftone dot, it is switched sharply. A seamless seam correction process is performed, and if it is in the middle, a moderately graded seam correction process is performed according to the period T.

これにより本実施形態では、周期Tの大小にかかわらず、常にMTFの劣化を良好に抑えつつ、画像の繋ぎ目を目立たなくすることができる。   Accordingly, in the present embodiment, it is possible to make the joint of the image inconspicuous while always suppressing the deterioration of the MTF satisfactorily regardless of the period T.

また本実施形態では、重み付け係数G1及びG2を網点の周期Tの関数としたことから、繋ぎ目補正処理による補正の度合いを連続的に変化させることができるので、離散的又は段階的に変化させる場合と比較して、より良好に繋ぎ目補正処理を行うことができる。   In the present embodiment, since the weighting coefficients G1 and G2 are functions of the halftone dot period T, the degree of correction by the joint correction process can be continuously changed. Compared with the case of making it, a seam correction process can be performed more favorably.

以上、説明したように、本実施形態によれば、周期Tの関数として重み付け係数を算出し、これを用いて繋ぎ目補正処理を行うことにより、複数のイメージセンサにより生成された画像データ同士を、ずれを目立たせることなく繋ぐことができ、良好な読取画像を得ることが可能となる。   As described above, according to the present embodiment, the weighting coefficient is calculated as a function of the period T, and the seam correction processing is performed using the weighting coefficient, whereby the image data generated by the plurality of image sensors is combined. Therefore, it is possible to connect without making the shift conspicuous, and it is possible to obtain a good read image.

第2の実施形態は、第1の実施形態と比較して、重み付け係数算出処理が異なっているものの、他の部分については同様となっている。   The second embodiment differs from the first embodiment in the weighting coefficient calculation process, but is the same in other parts.

図13は、この実施形態による重み付け係数算出処理について説明する図である。ここでは、図13(b)に示すように、第1イメージセンサ31及び第2イメージセンサ32における重複部分、すなわち第1画像データD1及び第2画像データD2それぞれに掛け合わせる重み付け係数G1及びG2を例に説明する。またこの実施形態においては、第1の実施形態と同様、重複部分において周期Tは一定または平均化されたものとする。   FIG. 13 is a diagram illustrating the weighting coefficient calculation process according to this embodiment. Here, as shown in FIG. 13 (b), weighting coefficients G1 and G2 to be multiplied by overlapping portions in the first image sensor 31 and the second image sensor 32, that is, the first image data D1 and the second image data D2, respectively. Explained as an example. In this embodiment, similarly to the first embodiment, it is assumed that the period T is constant or averaged in the overlapping portion.

本実施形態においては、網点周期検出部52により検出された網点の主走査方向における周期Tと、図13(a)に示すテーブルTBL1とを用いて、重み付け係数算出部53により重み付け係数G1及びG2を算出する。   In this embodiment, the weighting coefficient calculation unit 53 uses the period T in the main scanning direction of the halftone dots detected by the halftone period detection unit 52 and the table TBL1 shown in FIG. And G2.

テーブルTBL1には、周期Tと重み付け係数G1及びG2とが対応づけられている。テーブルTBL1において、周期Tは、図13(c)に示すような3種類の周期Ta、Tb及びTc(ただしTa>Tb>Tc)をそれぞれ閾値とした4段階に分類されている。   The table TBL1 is associated with the period T and the weighting coefficients G1 and G2. In the table TBL1, the cycle T is classified into four stages with thresholds of three types of cycles Ta, Tb and Tc (Ta> Tb> Tc) as shown in FIG.

テーブルTBL1において、重み付け係数G1は、段階ごとに異なる関数fa(n)、fb(n)、fc(n)及びfd(n)として表されている。ここで変数nは、第1の実施形態と同様に、重複部分における画素の位置を表しており、左端が値「1」である。   In the table TBL1, the weighting coefficient G1 is expressed as functions fa (n), fb (n), fc (n), and fd (n) that are different for each stage. Here, similarly to the first embodiment, the variable n represents the position of the pixel in the overlapping portion, and the left end is the value “1”.

図13(d)に示すように、関数fa(n)、fb(n)、fc(n)及びfd(n)をグラフ化すると、いずれも重複部分の中心においてほぼ値0.5を通るような傾斜部分と、値「1」又は値「0」の水平部分との組み合わせとして表される。このため関数fa(n)、fb(n)、fc(n)及びfd(n)は、いずれも変数nの1次関数及び定数との組み合わせとして表すことができる。   As shown in FIG. 13D, when the functions fa (n), fb (n), fc (n), and fd (n) are graphed, all of them pass through a value of 0.5 at the center of the overlapping portion. This is expressed as a combination of an inclined portion and a horizontal portion having a value “1” or a value “0”. For this reason, all of the functions fa (n), fb (n), fc (n), and fd (n) can be expressed as a combination of a linear function and a constant of the variable n.

関数fa(n)は、図6(a)の場合と同様であり、関数fd(n)は図6(c)の場合と同様である。また、傾斜部分における各関数の傾斜角については、fa(n)<fb(n)<fc(n)<fd(n)となっている。   The function fa (n) is the same as that in FIG. 6A, and the function fd (n) is the same as that in FIG. Further, the inclination angle of each function in the inclined portion is fa (n) <fb (n) <fc (n) <fd (n).

またテーブルTBL1において、重み付け係数G2は、各段階において値「1」から重み付け係数G1を差し引いた値となっている。また重み付け係数G2をグラフ化すると、図13(e)に示すように、重み付け係数G1とほぼ左右対称となっている。   In the table TBL1, the weighting coefficient G2 is a value obtained by subtracting the weighting coefficient G1 from the value “1” at each stage. Further, when the weighting coefficient G2 is graphed, as shown in FIG. 13E, the weighting coefficient G2 is substantially symmetrical with the weighting coefficient G1.

このように本実施形態では、周期Tを大まかに4段階に分類し、この段階ごとに重み付け係数G1及びG2を変数nの1次関数または定数としたことにより、第1の実施形態と比較して、重み付け係数G1及びG2の算出処理を簡易化することができる。   As described above, in this embodiment, the period T is roughly classified into four stages, and the weighting coefficients G1 and G2 are set as linear functions or constants of the variable n for each stage, so that the period T is compared with the first embodiment. Thus, the calculation processing of the weighting coefficients G1 and G2 can be simplified.

この結果、本実施形態においても、第1の実施形態と同様、原稿MNが網点画像であった場合に、複数のイメージセンサにより生成された画素データ同士を、ずれを目立たせることなく繋ぐことができ、良好な読取画像を得ることが可能となる。   As a result, also in this embodiment, as in the first embodiment, when the document MN is a halftone dot image, the pixel data generated by a plurality of image sensors are connected without making the shift conspicuous. Therefore, a good read image can be obtained.

以上、説明したように、本実施形態によれば、周期Tを段階的に分類し、テーブルTBL1において段階ごとに対応づけられた関数を基に重み付け係数を算出し、これを用いて繋ぎ目補正処理を行うことにより、複数のイメージセンサにより生成された画像データ同士を、ずれを目立たせることなく繋ぐことができ、良好な読取画像を得ることが可能となる。   As described above, according to the present embodiment, the period T is classified step by step, the weighting coefficient is calculated based on the function associated with each step in the table TBL1, and seam correction is performed using this. By performing the processing, it is possible to connect the image data generated by the plurality of image sensors without making the shift conspicuous, and it is possible to obtain a good read image.

第3の実施形態は、第1の実施形態と比較して、重み付け係数算出処理が異なっているものの、他の部分については同様となっている。   The third embodiment differs from the first embodiment in the weighting coefficient calculation process, but is the same in other parts.

図14(a)及び(b)は、いずれも第1の実施形態について説明した図6と対応しており、本実施形態による重み付け係数算出処理について説明する図である。本実施形態においては、網点周期検出部52により検出された網点の主走査方向における周期Tが、重複部分の途中において変化する場合を想定する。   FIGS. 14A and 14B correspond to FIG. 6 described for the first embodiment, and are diagrams for explaining the weighting coefficient calculation processing according to the present embodiment. In the present embodiment, it is assumed that the period T in the main scanning direction of the halftone dot detected by the halftone dot period detection unit 52 changes in the middle of the overlapping portion.

具体的に図14(a)において、周期Tは、重複部分の中心からわずかに右側の位置(以下これを周期変化位置と呼ぶ)よりも左側が比較的大きな周期T1であり、この周期変化位置よりも右側が比較的小さな周期T3となっている。   Specifically, in FIG. 14A, the period T is a period T1 that is relatively larger on the left side than the position slightly on the right side from the center of the overlapping portion (hereinafter referred to as the period change position). The right side is a relatively small period T3.

この場合、原稿MNは、周期変化位置よりも左側である周期T1の部分が線画やグラデーション、或いはいわゆるベタ画像であり、周期変化位置よりも右側である周期T3の部分が高線数の網点画像であると考えられる。   In this case, in the document MN, the portion of the cycle T1 that is on the left side of the cycle change position is a line image or gradation, or a so-called solid image, and the portion of the cycle T3 that is on the right side of the cycle change position is a halftone dot with a high line number. It is considered to be an image.

この図14(a)において、重み付け係数G1及びG2は、それぞれ周期T1である範囲においては図6(a)と同様の値となっており、周期T3である範囲においては図6(c)と同様の値となっており、その結合部分、すなわち周期変化位置において、両者が折れ線状に接続されている。   In FIG. 14A, the weighting coefficients G1 and G2 have the same values as those in FIG. 6A in the range where the period is T1, and in the range where the period is T3, the weighting coefficients G1 and G2 are as shown in FIG. The values are the same, and both are connected in a polygonal line at the coupling portion, that is, at the period change position.

また図14(b)において、周期Tは、重複部分のうち左側の約1/4の範囲及び中心からわずかに右側の位置よりも右側の範囲が比較的大きな周期T1であり、それ以外の範囲、すなわち重複部分の中心近傍の範囲が比較的小さな周期T3となっている。   Further, in FIG. 14B, the period T is a period T1 in which the range on the left side of the overlapped portion is about 1/4 and the range on the right side is slightly larger than the position on the right side from the center. That is, the range in the vicinity of the center of the overlapping portion is a relatively small cycle T3.

この場合も、原稿MNは、周期T1の部分が線画やグラデーション、或いはいわゆるベタ画像であり、周期T3の部分が高線数の網点画像であると考えられる。   In this case as well, the document MN is considered to have a line image, gradation, or a so-called solid image in the period T1, and a dot image with a high line number in the period T3.

重み付け係数G1及びG2は、それぞれ周期T1である範囲においては図6(a)と同様の値となっており、周期T3である範囲においては図6(c)と同様の値となっている。   The weighting coefficients G1 and G2 have the same values as in FIG. 6A in the range of the period T1, and the same values as in FIG. 6C in the range of the period T3.

この図14(b)においても、重み付け係数G1及びG2は、それぞれ周期T1である範囲においては図6(a)と同様の値となっており、周期T3である範囲においては図6(c)と同様の値となっており、その結合部分において、互いに隣接する部分同士が折れ線状に接続されている。   Also in FIG. 14B, the weighting coefficients G1 and G2 are the same values as in FIG. 6A in the range where the period is T1, and in the range where the period is T3, the weighting coefficients G1 and G2 are as shown in FIG. In the joint portion, adjacent portions are connected in a polygonal line shape.

すなわち本実施形態では、重複部分における主走査方向の位置ごとに周期Tが相違する場合であっても、周期Tが同一となる範囲ごとに(2)式及び(3)式により当該周期Tに基づいた係数をそれぞれ算出し、これらを主走査方向に沿って並べて折れ線状に繋ぎ合わせることにより、重み付け係数G1及びG2を得ることができる。   That is, in the present embodiment, even if the period T is different for each position in the main scanning direction in the overlapping portion, the period T is set to the period T by the expressions (2) and (3) for each range where the period T is the same. Weighting coefficients G1 and G2 can be obtained by calculating the respective coefficients based on them and arranging them along the main scanning direction and connecting them in a polygonal line shape.

これにより本実施形態では、重複部分に低線数の線画やグラデーション、或いはいわゆるベタ画像と、高線数の網点画像とが混在する場合であっても、それぞれの周期Tを適切に検出した上で、この周期Tに応じた適切な係数をそれぞれ算出することができるので、これらを繋ぎ合わせることで適切な重み付け係数G1及びG2を算出することができる。   Thereby, in this embodiment, even when a line drawing or gradation with a low number of lines or a so-called solid image and a halftone image with a high number of lines coexist in the overlapping portion, the respective periods T are appropriately detected. Since appropriate coefficients can be calculated according to the period T, appropriate weighting coefficients G1 and G2 can be calculated by connecting them.

この結果、本実施形態においても、第1の実施形態と同様、原稿MNが網点画像であった場合に、複数のイメージセンサにより生成された画素データ同士を、ずれを目立たせることなく繋ぐことができ、良好な読取画像を得ることが可能となる。   As a result, also in this embodiment, as in the first embodiment, when the document MN is a halftone dot image, the pixel data generated by a plurality of image sensors are connected without making the shift conspicuous. Therefore, a good read image can be obtained.

以上、説明したように、本実施形態によれば、重複部分の位置ごとの周期Tに応じて係数を算出し、主走査方向に沿ってこれらを繋いで重み付け係数を算出し、これを用いて繋ぎ目補正処理を行うことにより、複数のイメージセンサにより生成された画像データ同士を、ずれを目立たせることなく繋ぐことができ、良好な読取画像を得ることが可能となる。   As described above, according to the present embodiment, the coefficient is calculated according to the period T for each position of the overlapping portion, and the weighting coefficient is calculated by connecting them along the main scanning direction. By performing the joint correction process, the image data generated by the plurality of image sensors can be connected without making the shift conspicuous, and a good read image can be obtained.

なお上記第1の実施形態では、(2)式及び(3)式により表される周期Tの関数により重み付け係数G1及びG2を算出したが、これに限らず、種々の数式により表される周期Tの関数を用いても良い。この場合、周期Tが大きくなると図6(a)に近づき、反対に周期Tが小さくなると図6(c)に近づくような関数であれば良い。   In the first embodiment, the weighting coefficients G1 and G2 are calculated by the function of the period T expressed by the expressions (2) and (3). However, the present invention is not limited to this, and the periods expressed by various expressions. A function of T may be used. In this case, the function may be a function that approaches FIG. 6A when the period T increases, and approaches FIG. 6C when the period T decreases.

また上記第2の実施形態では、周期Tを3個の閾値としての周期Ta、Tb及びTcにより4段階に分類し、各段階ごとに異なる関数を用いて重み付け係数を算出したが、これに限らず、3段階以下又は5段階以上に分類し、各段階ごとに異なる関数を用いて重み付け係数を算出しても良い。またこの場合、重み付け係数の算出に用いる関数は1次関数に限らず、2次以上の高次の関数や種々の関数でも良い。   In the second embodiment, the period T is classified into four stages based on the periods Ta, Tb, and Tc as three thresholds, and the weighting coefficient is calculated using a different function for each stage. However, the present invention is not limited to this. Alternatively, the weighting coefficient may be calculated using a function that is classified into three stages or less or five stages or more and that is different for each stage. In this case, the function used to calculate the weighting coefficient is not limited to a linear function, and may be a higher-order function of a second or higher order or various functions.

さらに上記第3の実施形態では、重複部分内で範囲ごとに周期Tが異なる場合に、それぞれの範囲で周期Tに基づいた係数を算出し、これらを折れ線状に繋ぐようにしたが、これに限らず、例えば係数同士の繋ぎ目において重み付け加算処理を施すことにより係数を段階的に変化させても良い。   Further, in the third embodiment, when the period T is different for each range in the overlapping portion, the coefficient based on the period T is calculated in each range, and these are connected in a polygonal line. For example, the coefficient may be changed stepwise by performing weighted addition processing at the joint between the coefficients.

さらに上記第3の実施形態では、上記第1の実施形態と同様に(2)式及び(3)式を用いて周期Tに基づいた係数を算出したが、これに限らず、上記第2の実施形態と同様にテーブルTBL1を参照して周期Tの属する段階に応じた関数を用いて係数を算出するようにしても良い。   Further, in the third embodiment, the coefficient based on the period T is calculated using the equations (2) and (3) as in the first embodiment. However, the present invention is not limited to this. Similarly to the embodiment, the coefficient may be calculated using a function corresponding to the stage to which the period T belongs with reference to the table TBL1.

さらに上記実施形態においては、ライン合成処理部41(図3)において、網点検出部51により網点を検出し、網点と判断された場合にのみ網点周期検出部52により網点周期を検出するようにした場合について述べたが、これに限らず、図15に示すように、網点検出部51を省略し、無条件に網点周期検出部52により網点の周期Tを検出するようにしても良い。   Further, in the above embodiment, in the line composition processing unit 41 (FIG. 3), the halftone dot is detected by the halftone dot detection unit 51, and the halftone dot period is set by the halftone dot period detection unit 52 only when it is determined as a halftone dot. Although the case where the detection is performed has been described, the present invention is not limited to this, and as shown in FIG. 15, the halftone dot detection unit 51 is omitted, and the halftone dot period detection unit 52 detects the halftone dot period T unconditionally. You may do it.

この場合、周期Tが比較的大きくなれば、非網点であることになるが、図6(a)のように段階的な繋ぎ目補正処理が行われることになるため、結果的に非網点に適した繋ぎ目補正処理が行われることになる。これにより、網点検出部51の省略に伴う構成の簡素化及び演算量の削減を図ることができる。   In this case, if the period T is relatively large, it will be a non-halftone dot, but a stepwise seam correction process is performed as shown in FIG. A joint correction process suitable for the point is performed. As a result, simplification of the configuration and reduction in the amount of calculation associated with omission of the halftone dot detection unit 51 can be achieved.

さらに上記実施形態においては、画像処理部5の網点検出部51、網点周期検出部52、重み付け係数算出部53、繋ぎ目補正処理部54及び1ライン化処理部55をハードウェアによって構成する場合について述べたが、これに限らず、これらの一部又は全部をソフトウェアにより構成するようにしても良い。   Furthermore, in the above-described embodiment, the halftone dot detection unit 51, the halftone dot period detection unit 52, the weighting coefficient calculation unit 53, the joint correction processing unit 54, and the one-line processing unit 55 of the image processing unit 5 are configured by hardware. Although the case has been described, the present invention is not limited to this, and some or all of these may be configured by software.

1 画像形成装置
4 制御部
5 画像処理部
11 読取部
31 第1イメージセンサ
32 第2イメージセンサ
33 第3イメージセンサ
41 ライン合成処理部
51 網点検出部
52 網点周期検出部
53 重み付け係数算出部
54 繋ぎ目補正処理部
55 1ライン化処理部
D1 第1画像データ
D2 第2画像データ
D3 第3画像データ
DA 合成画像データ
G1 重み付け係数
G2 重み付け係数
T 周期
T1 周期
T2 周期
T3 周期
DESCRIPTION OF SYMBOLS 1 Image forming apparatus 4 Control part 5 Image processing part 11 Reading part 31 1st image sensor 32 2nd image sensor 33 3rd image sensor 41 Line composition process part 51 Halftone dot detection part 52 Halftone dot period detection part 53 Weighting coefficient calculation part 54 Joint Correction Processing Unit 55 1-Line Processing Processing Unit D1 First Image Data D2 Second Image Data D3 Third Image Data DA Composite Image Data G1 Weighting Factor G2 Weighting Factor T Period T1 Period T2 Period T3 Period

特開2009−135919号公報JP 2009-135919 A

Claims (8)

隣接するイメージセンサにおける主走査方向の端部同士副走査方向から見たときに重複するように千鳥状に配置された読取手段と、
前記イメージセンサによりそれぞれ読み取った画像データから主走査方向における読取値の大小の周期を検出する周期検出手段と、
前記周期検出手段によって検出された周期に基づいて補正値を算出する補正値算出手段と、
前記補正値算出手段により算出された補正値に基づいて、前記画像データを補正する補正手段と
を備え、
前記補正値算出手段は、前記周期と前記周期の関数とが予め対応付けられたテーブルを参照し、前記周期検出手段により検出された周期に対応した関数を用いて重み付け係数を前記補正値として算出し、
前記補正手段は、前記重み付け係数を前記画像データにそれぞれ掛け合わせ、主走査方向の画素位置を揃えて加算することにより、前記重複する部分に含まれる前記画像データを補正する、画像読取装置。
A reading means arranged in a zigzag pattern to overlap when the ends of the main scanning direction in the adjacent image sensor is viewed from the sub-scanning direction,
A period detecting means for detecting a period of a read value in the main scanning direction from image data read by each of the image sensors;
Correction value calculating means for calculating a correction value based on the period detected by the period detecting means;
Correction means for correcting the image data based on the correction value calculated by the correction value calculation means;
With
The correction value calculating means refers to a table in which the period and a function of the period are associated in advance, and calculates a weighting coefficient as the correction value using a function corresponding to the period detected by the period detecting means. And
The image reading apparatus corrects the image data included in the overlapping portion by multiplying the image data by the weighting coefficient, and aligning and adding pixel positions in the main scanning direction .
隣接するイメージセンサにおける主走査方向の端部同士が副走査方向から見たときに重複するように千鳥状に配置された読取手段と、
前記イメージセンサによりそれぞれ読み取った画像データから主走査方向における読取値の大小の周期を検出する周期検出手段と、
前記周期検出手段によって検出された周期に基づいて補正値を算出する補正値算出手段と、
前記補正値算出手段により算出された補正値に基づいて、前記画像データを補正する補正手段と、
を備え、
前記周期検出手段は、前記重複する部分の画素位置ごとに前記周期を検出し、
前記補正値算出手段は、前記画像データごとに、前記周期に基づき前記画素位置ごとの重み付け係数を前記補正値としてそれぞれ算出し、
前記補正手段は、前記重み付け係数を前記画像データにそれぞれ掛け合わせ、主走査方向の画素位置を揃えて加算することにより、前記重複する部分に含まれる前記画像データを前記画素位置ごとに補正する画像読取装置。
Reading means arranged in a staggered manner so that ends in the main scanning direction of adjacent image sensors overlap when viewed from the sub-scanning direction;
A period detecting means for detecting a period of a read value in the main scanning direction from image data read by each of the image sensors;
Correction value calculating means for calculating a correction value based on the period detected by the period detecting means;
Correction means for correcting the image data based on the correction value calculated by the correction value calculation means;
With
The period detection unit detects the period for each pixel position of the overlapping portion,
The correction value calculation means calculates a weighting coefficient for each pixel position as the correction value based on the period for each of the image data ,
The correction means corrects the image data included in the overlapping portion for each pixel position by multiplying the image data by the weighting coefficient, and aligning and adding pixel positions in the main scanning direction . Image reading device.
前記周期検出手段は、前記重複する部分の画素位置を所定の画素数ごとにブロック分割して当該ブロック単位で前記周期を検出し、
前記補正値算出手段は、前記ブロック単位で前記周期を基に補正値を算出し、
前記補正手段は、前記ブロック単位で前記補正値を基に前記画像データを補正する
ことを特徴とする請求項に記載の画像読取装置。
The period detection means divides the pixel position of the overlapping portion into blocks for each predetermined number of pixels and detects the period in units of the blocks,
The correction value calculation means calculates a correction value based on the period in the block unit,
Wherein the correction means includes an image reading apparatus according to claim 1, characterized in that to correct the image data based on the correction value in units of blocks.
隣接するイメージセンサにおける主走査方向の端部同士が副走査方向から見たときに重複するように千鳥状に配置された読取手段と、
前記イメージセンサによりそれぞれ読み取った画像データから主走査方向における読取値の大小の周期を検出する周期検出手段と、
前記周期検出手段によって検出された周期に基づいて補正値を算出する補正値算出手段と、
前記補正値算出手段により算出された補正値に基づいて、前記画像データを補正する補正手段と、
を備え、
前記周期検出手段は、前記重複する部分において前記画像データごとに前記周期を検出し、同一画素について前記画像データごとに検出された周期同士を比較演算して周期の検出値とする画像読取装置。
Reading means arranged in a staggered manner so that ends in the main scanning direction of adjacent image sensors overlap when viewed from the sub-scanning direction;
A period detecting means for detecting a period of a read value in the main scanning direction from image data read by each of the image sensors;
Correction value calculating means for calculating a correction value based on the period detected by the period detecting means;
Correction means for correcting the image data based on the correction value calculated by the correction value calculation means;
With
Said period detecting means, the cycle was detected in the overlapping portion for each of the image data, the detection value of the cycle period between detected for each of the image data for the same pixel comparison operation, the image reading apparatus .
請求項1乃至いずれか1項に記載の画像読取装置を含むことを特徴とする画像形成装置。 An image forming apparatus comprising an image reading apparatus according to any one of claims 1 to 4. 隣接するイメージセンサにおける主走査方向の端部同士副走査方向から見たときに重複するように千鳥状に配置された読取部の当該隣接するイメージセンサにより生成された画像データを合成する画像処理方法であって、
前記イメージセンサによりそれぞれ読み取った画像データから主走査方向における読取値の大小の周期を検出する第1の工程と、
前記第1の工程で検出された周期に基づいて補正値を算出する第2の工程と、
前記第2の工程で算出された補正値に基づいて、前記画像データを補正する第3の工程と
を実行し、
前記第2の工程において、前記周期と前記周期の関数とが予め対応付けられたテーブルを参照し、前記第1の工程により検出された周期に対応した関数を用いて重み付け係数を前記補正値として算出し、
前記第3の工程において、前記重み付け係数を前記画像データにそれぞれ掛け合わせ、主走査方向の画素位置を揃えて加算することにより、前記重複する部分に含まれる前記画像データを補正する、画像処理方法。
Image processing ends in the main scanning direction in the adjacent image sensor that synthesizes the image data generated by the adjacent image sensor of the reading unit arranged in a zigzag pattern to overlap when viewed from the sub-scanning direction A method,
A first step of detecting a period of a read value in a main scanning direction from image data read by each of the image sensors;
A second step of calculating a correction value based on the period detected in the first step;
A third step of correcting the image data based on the correction value calculated in the second step ;
Run
In the second step, referring to a table in which the period and the function of the period are associated in advance, a weighting coefficient is used as the correction value using a function corresponding to the period detected in the first step. Calculate
In the third step, the image processing method corrects the image data included in the overlapping portion by multiplying the image data by the weighting coefficient and aligning and adding the pixel positions in the main scanning direction. .
隣接するイメージセンサにおける主走査方向の端部同士が副走査方向から見たときに重複するように千鳥状に配置された読取部の当該隣接するイメージセンサにより生成された画像データを合成する画像処理方法であって、
前記イメージセンサによりそれぞれ読み取った画像データから主走査方向における読取値の大小の周期を検出する第1の工程と、
前記第1の工程で検出された周期に基づいて補正値を算出する第2の工程と、
前記第2の工程で算出された補正値に基づいて、前記画像データを補正する第3の工程と、
を実行し、
前記第1の工程において、前記重複する部分の画素位置ごとに前記周期を検出し、
前記第2の工程において、前記画像データごとに、前記周期に基づき前記画素位置ごとの重み付け係数を前記補正値としてそれぞれ算出し、
前記第3の工程において、前記重み付け係数を前記画像データにそれぞれ掛け合わせ、主走査方向の画素位置を揃えて加算することにより、前記重複する部分に含まれる前記画像データを前記画素位置ごとに補正する、画像処理方法
Image processing for synthesizing image data generated by the adjacent image sensors of the reading units arranged in a staggered manner so that the ends of the adjacent image sensors in the main scanning direction overlap when viewed from the sub-scanning direction A method,
A first step of detecting a period of a read value in a main scanning direction from image data read by each of the image sensors;
A second step of calculating a correction value based on the period detected in the first step;
A third step of correcting the image data based on the correction value calculated in the second step;
Run
In the first step, the period is detected for each pixel position of the overlapping portion,
In the second step, for each of the image data, a weighting coefficient for each pixel position is calculated as the correction value based on the cycle,
In the third step, the image data included in the overlapping portion is corrected for each pixel position by multiplying the image data by the weighting coefficient and aligning and adding the pixel positions in the main scanning direction. An image processing method .
隣接するイメージセンサにおける主走査方向の端部同士が副走査方向から見たときに重複するように千鳥状に配置された読取部の当該隣接するイメージセンサにより生成された画像データを合成する画像処理方法であって、
前記イメージセンサによりそれぞれ読み取った画像データから主走査方向における読取値の大小の周期を検出する第1の工程と、
前記第1の工程で検出された周期に基づいて補正値を算出する第2の工程と、
前記第2の工程で算出された補正値に基づいて、前記画像データを補正する第3の工程と、
を実行し、
前記第1の工程において、前記重複する部分において前記画像データごとに前記周期を検出し、同一画素について前記画像データごとに検出された周期同士を比較演算して周期の検出値とする、画像処理方法
Image processing for synthesizing image data generated by the adjacent image sensors of the reading units arranged in a staggered manner so that the ends of the adjacent image sensors in the main scanning direction overlap when viewed from the sub-scanning direction A method,
A first step of detecting a period of a read value in a main scanning direction from image data read by each of the image sensors;
A second step of calculating a correction value based on the period detected in the first step;
A third step of correcting the image data based on the correction value calculated in the second step;
Run
In the first step, the period is detected for each of the image data in the overlapping portion, and the period detected for each of the image data for the same pixel is compared and calculated as a period detection value. Way .
JP2013053982A 2013-03-15 2013-03-15 Image reading apparatus, image forming apparatus, and image processing method Active JP6136406B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013053982A JP6136406B2 (en) 2013-03-15 2013-03-15 Image reading apparatus, image forming apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013053982A JP6136406B2 (en) 2013-03-15 2013-03-15 Image reading apparatus, image forming apparatus, and image processing method

Publications (2)

Publication Number Publication Date
JP2014179910A JP2014179910A (en) 2014-09-25
JP6136406B2 true JP6136406B2 (en) 2017-05-31

Family

ID=51699400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013053982A Active JP6136406B2 (en) 2013-03-15 2013-03-15 Image reading apparatus, image forming apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP6136406B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016116212A (en) * 2014-12-15 2016-06-23 株式会社リコー Read image processing apparatus, image reading device, image forming apparatus, read image processing method, and read image processing program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3097785B2 (en) * 1992-04-30 2000-10-10 株式会社リコー Image processing device
JP4408771B2 (en) * 2004-08-24 2010-02-03 株式会社リコー Image reading device

Also Published As

Publication number Publication date
JP2014179910A (en) 2014-09-25

Similar Documents

Publication Publication Date Title
JP4759354B2 (en) Image reading device
JP4912270B2 (en) Image processing apparatus and control method thereof
US8447101B2 (en) Image processing apparatus, image forming apparatus, image processing method, and storage medium
EP1926303A1 (en) Image forming apparatus and method
JP4787685B2 (en) Seam image data correction method, image reading apparatus, and image forming apparatus
JP6331817B2 (en) Image processing apparatus, image processing method, and program
JP6136406B2 (en) Image reading apparatus, image forming apparatus, and image processing method
JP6838348B2 (en) Image reader and image reading method
JP2005117090A (en) Image reading apparatus
JP2018121100A (en) Scanner, scan program, and method for creating scan data
JP4150316B2 (en) Image reading apparatus and shading correction method for the same
US8305662B2 (en) Image reading device, method, and computer readable medium for the same
JP6343956B2 (en) Read image processing apparatus, image reading apparatus, image forming apparatus, read image processing program, and read image processing method
JP4408771B2 (en) Image reading device
JP5515552B2 (en) Pixel interpolation device, pixel interpolation method, and image reading device
JP4375484B2 (en) Image processing device
JP2018121101A (en) Scanner, scan program, and method for creating scan data
JP2014176022A (en) Image reader, image formation device, and image reading method
US20110122462A1 (en) Image reading apparatus, control method for the same, and image forming apparatus
JP7361513B2 (en) Image forming apparatus, its control method, and program
JP5843935B2 (en) Image reading apparatus, image forming apparatus, and image processing method
JP4941390B2 (en) Image processing apparatus and image processing method
JP6394079B2 (en) Read image processing apparatus, image reading apparatus, image forming apparatus, read image processing program, and read image processing method
JP2004343190A (en) Image reading apparatus
JP2008092323A (en) Image processing equipment, and image reading apparatus and image forming apparatus equipped with the same

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161222

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170117

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170321

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170417

R151 Written notification of patent or utility model registration

Ref document number: 6136406

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151