JP2018078425A - Image reading device and method for generating shading data - Google Patents

Image reading device and method for generating shading data Download PDF

Info

Publication number
JP2018078425A
JP2018078425A JP2016218248A JP2016218248A JP2018078425A JP 2018078425 A JP2018078425 A JP 2018078425A JP 2016218248 A JP2016218248 A JP 2016218248A JP 2016218248 A JP2016218248 A JP 2016218248A JP 2018078425 A JP2018078425 A JP 2018078425A
Authority
JP
Japan
Prior art keywords
light
shading
unit
shading data
image reading
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016218248A
Other languages
Japanese (ja)
Inventor
諭史 吉田
Satoshi Yoshida
諭史 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Finetech Nisca Inc
Original Assignee
Canon Finetech Nisca Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Finetech Nisca Inc filed Critical Canon Finetech Nisca Inc
Priority to JP2016218248A priority Critical patent/JP2018078425A/en
Publication of JP2018078425A publication Critical patent/JP2018078425A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an image reading device that obtains a color image by switching a plurality of light sources with different wavelengths every one line and that can shorten movement operation to acquire shading data on each color.SOLUTION: An image reading device limits data acquired by movement shading to a color component from one light source, and calculates shading data on remaining color components from shading data on the color component, an average value of an amount of light corresponding to one line of the other color components, and an average value of an amount of light corresponding to one line of black. Because the movement shading is performed with only one color component like this, movement operation to acquire shading data can be shortened. Furthermore, noise of the device is suppressed, and a time until reading start can be shortened.SELECTED DRAWING: Figure 4

Description

本発明は画像読取装置、及びシェーディングデータの生成方法に関し、特に、例えば、原稿台上に載置された原稿に記録された画像を光学的に読取る画像読取装置、及びそのシェーディングデータの生成方法に関する。   The present invention relates to an image reading apparatus and a method for generating shading data, and more particularly to an image reading apparatus for optically reading an image recorded on a document placed on a document table and a method for generating shading data thereof. .

複写機、ファクシミリ、複写機能とファクシミリ機能を備えた複合機などでは原稿読取の際に一般に、原稿台上に読取面が下向きになるよう原稿を載置する。そして、原稿に光を照射し、原稿によって反射された光を読取ユニットを走査させながら受光し、これを光電変換して得られた画像信号を出力することにより画像読取を実行する。   In a copying machine, a facsimile machine, a multifunction machine having a copying function and a facsimile function, and the like, generally, when reading a document, the document is placed on the document table so that the reading surface faces downward. Then, the image reading is executed by irradiating the original with light, receiving the light reflected by the original while scanning the reading unit, and outputting an image signal obtained by photoelectrically converting the light.

従来より、画像読取前に、画像信号のバラつきを調整するために白シェーディングが実行されている。白シェーディングとは基準白色板の読取値を用いた白校正処理である。白シェーディングを実行することで、読取画像全体が平均的に一様な明るさとなるように補正することができる。具体的には、基準白色板のある一定領域に光源を点灯させた状態で読取を行い白レベルの補正データを生成する。そして、画像読取時には、白レベルの補正データを用いて、読取画像の画像信号の白レベルを補正する。   Conventionally, white shading has been performed in order to adjust variations in image signals before image reading. White shading is a white calibration process using a reading value of a reference white plate. By executing the white shading, the entire read image can be corrected so as to have an average uniform brightness. Specifically, reading is performed in a state where the light source is turned on in a certain region of the reference white plate, and white level correction data is generated. When the image is read, the white level of the image signal of the read image is corrected using the white level correction data.

また、シェーディングには固定シェーディングと移動シェーディングとがある。固定シェーディングとは白レベルの補正データを得るための読取動作を基準白色板内の1箇所で行う処理である。一方、移動シェーディングとは読取ユニットを原稿の幅方向(主走査方向)と直交する方向(副走査方向)に移動させながら、読取動作を基準白色板内の複数箇所で行い、その読取で得られた画像信号の平均値を補正データとする処理である。特に、移動シェーディングは、読取ユニットを移動させながら読取を行うので、基準白色板は一定以上の走査幅が必要になる。   Shading includes fixed shading and moving shading. Fixed shading is a process in which a reading operation for obtaining white level correction data is performed at one location in the reference white plate. On the other hand, moving shading is obtained by scanning the reading unit at a plurality of locations in the reference white plate while moving the reading unit in the direction (sub-scanning direction) orthogonal to the document width direction (main scanning direction). In this process, the average value of the obtained image signals is used as correction data. In particular, since moving shading performs reading while moving the reading unit, the reference white plate needs a scanning width of a certain level or more.

さて、波長が異なる複数の光源等、複数の光を照射する光源を1ライン毎に切り替えてカラー画像を取得する画像読取装置によってシェーディング処理を行う場合、各色成分ごとに数ライン分のデータを取得し、平均値を補正データとする。R(赤)、G(緑)、B(青)の3色成分から構成されるカラー画像を読取る場合、読取ユニットが白黒画像の読取りに比べ3倍の移動距離となることを考慮した基準白色板が必要となり、装置のコストアップや装置の大型化等の問題があった。   When shading processing is performed by an image reading device that acquires a color image by switching light sources that irradiate a plurality of lights, such as a plurality of light sources having different wavelengths, data for several lines is acquired for each color component. The average value is used as correction data. When reading a color image composed of three color components of R (red), G (green), and B (blue), a reference white that takes into account that the reading unit has a moving distance three times that of reading a monochrome image A plate was required, and there were problems such as an increase in the cost of the device and an increase in the size of the device.

そのため、基準白色板の幅を大きくすることなく、シェーディング補正を施した画像信号の出力が可能な、波長が異なる複数の光源を1ライン毎に切り替えてカラー画像データを取得する画像読取装置が提案されている(特許文献1参照)。   For this reason, an image reading apparatus that can output image signals subjected to shading correction without increasing the width of the reference white plate, and switches between a plurality of light sources having different wavelengths for each line to acquire color image data is proposed. (See Patent Document 1).

特開平11−341237号公報Japanese Patent Laid-Open No. 11-341237

しかしながら上記従来例のようなシェーディング補正方法では3色成分の複数のシェーディングデータを取得するために、読取ユニットの移動を異なる方向で繰り返す必要がある。このため、シェーディング動作時における画像読取装置の騒音やそのシェーディング動作時間が長くなってしまう等の問題があった。   However, in the shading correction method as in the above conventional example, it is necessary to repeat the movement of the reading unit in different directions in order to obtain a plurality of shading data of three color components. For this reason, there are problems such as noise of the image reading apparatus during the shading operation and a long shading operation time.

本発明は上記従来例に鑑みてなされたもので、複数の光源を用いて画像を読取る際の各シェーディングデータ取得のための時間を短縮可能な画像読取装置、及びシェーディングデータの生成方法を提供することを目的とする。   The present invention has been made in view of the above conventional example, and provides an image reading apparatus capable of shortening the time for acquiring each shading data when reading an image using a plurality of light sources, and a method for generating shading data. For the purpose.

上記目的を達成するために本発明の画像読取装置は次のような構成からなる。   In order to achieve the above object, the image reading apparatus of the present invention has the following configuration.

即ち、複数の光を照射する照射部と、予め定められた第1の方向に配列された複数の光電変換素子と、前記照射部から照射される複数の光を共通の光電変換素子で受光する撮像部とを含み、原稿画像を光学的に読み取り可能な読取手段と、前記照射される複数の光のうちの少なくとも1つの光による基準部材からの反射光に基づいて第1のシェーディングデータを取得する第1の取得手段と、前記第1の取得手段により取得される前記第1のシェーディングデータに基づいて、前記照射される複数の光のうち前記反射光に含まれない照射光に対応する第2のシェーディングデータを生成する生成手段とを有することを特徴とする。   That is, an irradiation unit that irradiates a plurality of lights, a plurality of photoelectric conversion elements arranged in a predetermined first direction, and a plurality of lights irradiated from the irradiation unit are received by a common photoelectric conversion element. First shading data is acquired based on a reading unit including an imaging unit and capable of optically reading a document image and reflected light from a reference member by at least one of the plurality of irradiated lights A first acquisition unit that performs the first acquisition unit that corresponds to the irradiation light that is not included in the reflected light among the plurality of irradiation light based on the first shading data acquired by the first acquisition unit. And generating means for generating 2 shading data.

従って本発明によれば、シェーディングデータを取得するための移動動作を短縮することができるという効果がある。   Therefore, according to the present invention, there is an effect that the moving operation for obtaining the shading data can be shortened.

本発明の代表的な実施例である光学的に原稿の画像を読取る画像読取装置の構成を示す側断面図である。1 is a side cross-sectional view illustrating a configuration of an image reading apparatus that optically reads an image of an original that is a typical embodiment of the present invention. 図1に示す画像読取装置の制御構成を示すブロック図である。FIG. 2 is a block diagram illustrating a control configuration of the image reading apparatus illustrated in FIG. 1. カラーの画像読取動作を示すフローチャートである。6 is a flowchart illustrating a color image reading operation. カラー読取のシェーディング動作を示すフローチャートである。It is a flowchart which shows the shading operation | movement of a color reading. シェーディングデータの配列を示した図である。It is the figure which showed the arrangement | sequence of shading data. LED点灯パターンの差によるシェーディングデータと主走査方向の位置との関係を示す図である。It is a figure which shows the relationship between the shading data by the difference of LED lighting pattern, and the position of a main scanning direction.

以下添付図面を参照して本発明の好適な実施例について、さらに具体的かつ詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described more specifically and in detail with reference to the accompanying drawings.

なお、この明細書において、「シート(又は、記録媒体)」とは、一般的な画像読取装置で用いられる画像の原稿用紙や印画紙のみならず、広く、布、プラスチック・フィルム(OHP)、金属板、木材、皮革等、画像の記録が可能な媒体を含むものである。   In this specification, the “sheet (or recording medium)” is not limited to image original paper and photographic paper used in a general image reading apparatus, but is widely used for cloth, plastic film (OHP), It includes media that can record images, such as metal plates, wood, and leather.

<画像読取装置の概要(図1〜図2)>
図1は本発明の代表的な実施例である光学的にカット紙などの原稿の画像を読取る画像読取装置1の概略構成を示す側断面図である。画像読取装置1はCISユニット13を使用して光を原稿に照射し、原稿による反射光を受光し、これを光電変換して電気信号を生成することにより、原稿の画像を読取り画像データを生成する。
<Outline of Image Reading Apparatus (FIGS. 1-2)>
FIG. 1 is a side sectional view showing a schematic configuration of an image reading apparatus 1 that optically reads an image of an original such as a cut sheet, which is a typical embodiment of the present invention. The image reading apparatus 1 uses the CIS unit 13 to irradiate light on the original, receives light reflected from the original, and photoelectrically converts this to generate an electrical signal, thereby reading the image of the original and generating image data. To do.

図1に示すように、CISユニット13は照明部131と光学レンズ133と撮像部134とにより構成され、原稿の載置側とは反対側に原稿台ガラス14に密着するように配置される。照明部131は光源として赤色LED、緑色LED及び青色LEDの3つを備えた白色タイプの導光管を含み、原稿台ガラス14に対して所定角度だけ傾斜する方向から原稿を照明する。原稿台ガラス14の上部にはプラテンカバー(不図示)が備えられる。   As shown in FIG. 1, the CIS unit 13 includes an illuminating unit 131, an optical lens 133, and an imaging unit 134, and is disposed so as to be in close contact with the document table glass 14 on the side opposite to the document placement side. The illumination unit 131 includes a white type light guide tube including three red LEDs, green LEDs, and blue LEDs as a light source, and illuminates the document from a direction inclined by a predetermined angle with respect to the document table glass 14. A platen cover (not shown) is provided on the top of the platen glass 14.

また、光学レンズ133はセルフォック(登録商標)レンズ等から構成され、照明部131から照射され原稿面にて反射された光を、所定の結像位置へと導き、原稿からの反射光を等倍で読み取る。   The optical lens 133 is composed of a SELFOC (registered trademark) lens or the like, and guides the light emitted from the illumination unit 131 and reflected by the document surface to a predetermined imaging position, and the reflected light from the document is magnified by an equal magnification. Read with.

撮像部134は複数の光電変換素子等から構成され、光学レンズ133により所定の結像位置へと導かれた光を撮像する。この実施例では、撮像部134はCMOSセンサであるとする。撮像部134で撮像された原稿から生成された画像データは、画像記憶部(後述)に格納される。このような構成のCISユニット13は駆動ベルト16に装着され、ガイドレール17に沿って副走査方向にスキャナモータ18の駆動力が駆動ベルト16を介して伝達されることにより移動する。   The imaging unit 134 includes a plurality of photoelectric conversion elements and the like, and images light guided to a predetermined imaging position by the optical lens 133. In this embodiment, it is assumed that the imaging unit 134 is a CMOS sensor. Image data generated from the document imaged by the imaging unit 134 is stored in an image storage unit (described later). The CIS unit 13 having such a configuration is attached to the driving belt 16 and moves along the guide rail 17 by transmitting the driving force of the scanner motor 18 through the driving belt 16 in the sub-scanning direction.

画像読取装置1は、CISユニット13をスキャナモータ18の駆動力により副走査方向(矢印H方向)に移動させながら、CISユニット13を紙面とは垂直(一般には交差)方向(主走査方向)に電気的に走査することにより原稿15の画像を読取る。一般的に、スキャナモータ18にはステッピングモータやDCモータ等が用いられる。また、画像読取時には、原稿台ガラス14の端部に設けられた基準白色板11に光を照射して、その反射光からシェーディング補正を行うための基準信号を得る。また、基準白色板11の横にはユーザが原稿15を先端基準位置に突き当てるための原稿突き当て板12が取り付けられている。原稿突き当て板12は原稿台ガラス14の上面に配置される。   The image reading apparatus 1 moves the CIS unit 13 in the sub-scanning direction (arrow H direction) by the driving force of the scanner motor 18 while moving the CIS unit 13 in a direction (generally intersecting) with the paper surface (main scanning direction). The image of the document 15 is read by scanning electrically. In general, a stepping motor, a DC motor, or the like is used as the scanner motor 18. At the time of image reading, the reference white plate 11 provided at the end of the platen glass 14 is irradiated with light, and a reference signal for performing shading correction is obtained from the reflected light. A document abutting plate 12 is attached to the side of the reference white plate 11 so that the user can abut the document 15 on the reference end position. The document abutting plate 12 is disposed on the upper surface of the document table glass 14.

以上の構成において、原稿台ガラス14に載置された原稿の画像読取を行う際には、予め基準白色板11を用いたシェーディング補正が行われる。   In the above configuration, when reading an image of a document placed on the platen glass 14, shading correction using the reference white plate 11 is performed in advance.

なお、矢印Fが副走査方向の前進方向を指し、矢印Bがその後進方向を指す。   The arrow F indicates the forward direction in the sub-scanning direction, and the arrow B indicates the backward direction.

図2は図1に示した画像読取装置1の制御構成を示すブロック図である。   FIG. 2 is a block diagram showing a control configuration of the image reading apparatus 1 shown in FIG.

CISユニット13はLED駆動回路(ドライバ)3により主走査方向に1ライン毎に照明部131の光量調整で行った点灯時間に合わせ、原稿15の画像を読取る。LED駆動回路3は照明部131を任意のPWMのデューティで点灯させることが可能である。   The CIS unit 13 reads the image of the document 15 in accordance with the lighting time performed by adjusting the light amount of the illumination unit 131 for each line in the main scanning direction by the LED driving circuit (driver) 3. The LED drive circuit 3 can turn on the illumination unit 131 with an arbitrary PWM duty.

さらに、CISユニット13の照明部131は赤色LED1311、緑色LED1312、及び青色LED1313の3つの光源を備え、これら3つの光源により白色光を生成することができる。   Furthermore, the illumination unit 131 of the CIS unit 13 includes three light sources, a red LED 1311, a green LED 1312, and a blue LED 1313, and white light can be generated by these three light sources.

増幅器(AMP)21はCISユニット13より出力された電気信号を増幅し、A/D変換回路22はその増幅された電気信号をA/D変換して、例えば、各画素を16ビットの輝度値として表現するデジタル画像データを出力する。なお、A/D変換回路22を含め、A/D変換のために必要な構成をまとめて変換部という。CISユニット13が出力する1ライン分の画像信号は、赤色LED1311、緑色LED1312、青色LED1313を順次点灯することにより得られ、1ラインずつ線順次で主走査同期信号に同期してA/D変換回路22に入力される。   The amplifier (AMP) 21 amplifies the electrical signal output from the CIS unit 13, and the A / D conversion circuit 22 performs A / D conversion on the amplified electrical signal. For example, each pixel has a 16-bit luminance value. The digital image data expressed as The configuration necessary for A / D conversion including the A / D conversion circuit 22 is collectively referred to as a conversion unit. The image signal for one line output from the CIS unit 13 is obtained by sequentially turning on the red LED 1311, the green LED 1312, and the blue LED 1313. The A / D conversion circuit synchronizes with the main scanning synchronization signal line by line. 22 is input.

A/D変換回路22により出力されたデジタル画像データ(以下、画像データ)はデジタル処理部6に入力され、デジタル処理部6はその画像データを画像処理する。デジタル処理部6に含まれるメモリ61は、画像データを記憶し、インクジェットプリンタや電子写真方式を用いたレーザビームプリンタ等の印刷装置、さらには他の外部装置とのインタフェースに接続し画像転送を行うことができる。このインタフェースには、例えば、USB等のシリアルインタフェース、有線/無線ネットワークのネットワークインタフェースがある。画像読取装置1は、インタフェースを介して接続される外部装置からの指示に応じて、画像読取動作を実行する。あるいは、画像読取装置1に備わる操作部(不図示)に対するユーザ操作に応じて画像読取動作を実行する。   Digital image data (hereinafter referred to as image data) output by the A / D conversion circuit 22 is input to the digital processing unit 6, and the digital processing unit 6 performs image processing on the image data. A memory 61 included in the digital processing unit 6 stores image data, and transfers images by connecting to an interface with a printing apparatus such as an ink jet printer or a laser beam printer using an electrophotographic system, or another external apparatus. be able to. Examples of this interface include a serial interface such as USB and a network interface of a wired / wireless network. The image reading device 1 executes an image reading operation in response to an instruction from an external device connected via an interface. Alternatively, an image reading operation is executed in response to a user operation on an operation unit (not shown) provided in the image reading apparatus 1.

なお、その操作部はディスプレイ等の表示部と入力キー等の入力操作部を備え、ユーザインタフェースとしての機能を提供する。その表示部のディスプレイには、機器の状態をユーザに通知したり、ユーザに入力操作を案内するためのメッセージが表示される。また、ユーザは入力キーを操作して必要な指示を入力する。   The operation unit includes a display unit such as a display and an input operation unit such as an input key, and provides a function as a user interface. On the display of the display unit, a message for notifying the user of the state of the device or guiding the user to input operation is displayed. Further, the user operates the input keys to input necessary instructions.

タイミング発生回路4はCPU5の設定に応じて、主走査方向に1ライン毎のPWMデューティを変化させて、LED駆動回路3にLEDの点灯ON/OFFの制御信号を送信することでLEDの光量調整を可能にしている。具体的には、LED駆動回路3に照明部131に含まれる赤色LED1311、緑色LED1312、青色LED1313の点灯ON/OFFの制御信号を送信することで、LEDの光量調整を可能している。   The timing generation circuit 4 changes the PWM duty for each line in the main scanning direction in accordance with the setting of the CPU 5, and transmits the LED lighting ON / OFF control signal to the LED driving circuit 3 to adjust the light amount of the LED. Is possible. Specifically, the LED light amount can be adjusted by transmitting a control signal for turning on / off the red LED 1311, the green LED 1312, and the blue LED 1313 included in the illumination unit 131 to the LED drive circuit 3.

なお、CPU5が画像読取装置1の全体を制御する。そのため、CPU5はROM52に格納された制御プログラムをRAM51を作業領域として用いて実行することで、その制御を実行する。   The CPU 5 controls the entire image reading apparatus 1. Therefore, the CPU 5 executes the control by executing the control program stored in the ROM 52 using the RAM 51 as a work area.

また、デジタル処理部6のメモリ61は、画像データとシェーディング基準データを記憶する。デジタル処理部6のシェーディング補正部62はメモリ61に格納されているシェーディング基準データに基づきA/D変換回路22によって変換された画像データにシェーディング補正を施す。   The memory 61 of the digital processing unit 6 stores image data and shading reference data. The shading correction unit 62 of the digital processing unit 6 performs shading correction on the image data converted by the A / D conversion circuit 22 based on the shading reference data stored in the memory 61.

次に、以上の構成の画像読取装置1が実行するカラー画像原稿の読取とシェーディング補正方法について説明する。   Next, a color image original reading and shading correction method performed by the image reading apparatus 1 having the above configuration will be described.

図3はカラー画像原稿の読取動作を示すフローチャートである。   FIG. 3 is a flowchart showing a color image original reading operation.

まず、ステップS101ではユーザによってカラー画像読取の指示があったかどうかを調べる。ここで、そのような読取指示がない場合、処理はそのまま終了するが、カラー画像読取の指示があった場合、処理はステップS102に進む。   First, in step S101, it is checked whether or not a user has instructed color image reading. Here, if there is no such reading instruction, the process ends as it is, but if there is a color image reading instruction, the process proceeds to step S102.

ステップS102ではカラーシェーディング処理を実行する。その処理の詳細については後述する。   In step S102, color shading processing is executed. Details of the processing will be described later.

次にステップS103では、照明部131に含まれる赤色LED1311、緑色LED1312、青色LED1313を主走査方向に1ライン毎に切り替え、順次点灯させる。さらにステップS104では、スキャナモータ18を駆動してCISユニット13を移動させ、原稿台ガラス14に載置されている原稿15の画像の読取を開始する。その読取では、照明部131に含まれる3つのLEDを1ラインごとに切り替えて点灯させ、その点灯するLEDの各色に応じて生成される、赤(R)データ、緑(G)データ、青(B)データをデジタル処理部6に転送する。この時、転送される各色成分データはシェーディング補正部62によるカラーシェーディング処理で算出したシェーディング係数を用いて補正される。   In step S103, the red LED 1311, the green LED 1312, and the blue LED 1313 included in the illumination unit 131 are switched on a line-by-line basis in the main scanning direction and sequentially turned on. In step S104, the scanner motor 18 is driven to move the CIS unit 13, and reading of the image of the document 15 placed on the document table glass 14 is started. In the reading, the three LEDs included in the illumination unit 131 are switched on and turned on line by line, and red (R) data, green (G) data, blue ( B) Transfer the data to the digital processing unit 6. At this time, each transferred color component data is corrected using the shading coefficient calculated by the color shading processing by the shading correction unit 62.

予め指定されていた読取原稿のサイズに応じてCISユニット13の移動距離が異なるため、ステップS105では画像読取が終了したか否かを調べ、カラー画像読取が終了したと判断されると、処理はステップS106に進む。なお、画像読取が終了するまでは照明部131のLED点灯とCISユニット13の移動、画像データの取得を繰り返す。   Since the moving distance of the CIS unit 13 varies depending on the size of the read document specified in advance, it is checked in step S105 whether or not the image reading has been completed. Proceed to step S106. Until the image reading is completed, the LED lighting of the illumination unit 131, the movement of the CIS unit 13, and the acquisition of image data are repeated.

ステップS106では照明部131のLEDを消灯し、ステップS107ではCISユニット13を基準白色板11の下に移動させ、次の画像読取が直ちに実行できるように待機状態にして処理を終了する。   In step S106, the LED of the illumination unit 131 is turned off. In step S107, the CIS unit 13 is moved below the reference white plate 11, and the process is terminated in a standby state so that the next image reading can be immediately executed.

次に図4〜図5を用いて、カラーシェーディング処理の詳細について説明をする。   Next, details of the color shading process will be described with reference to FIGS.

図4は図3に示したステップS102におけるカラーシェーディング処理の詳細を示すフローチャートである。   FIG. 4 is a flowchart showing details of the color shading process in step S102 shown in FIG.

図5はシェーディングデータの配列を概念的に示す図である。   FIG. 5 is a diagram conceptually showing the arrangement of shading data.

まずステップS201では基準白色板11の下部にCISユニット13を移動させ、撮像部134が基準白色板11を読取可能な状態にして移動を停止させる。次に、ステップS202では照明部131に含まれるLEDを全て消灯し、撮像部134に光が入射しない状態とする。さらに、ステップS203では、LED全消灯状態で基準白色板11を読取って黒のシェーディングデータBKSHDを取得し、これをメモリ61に格納する。また、黒のシェーディングデータBKSHDが示す輝度値を主走査方向に平均化し、これを黒の平均値BKAVEとしてメモリ61に格納する。 First, in step S201, the CIS unit 13 is moved to the lower part of the reference white plate 11, and the imaging unit 134 makes the reference white plate 11 readable and stops the movement. Next, in step S <b> 202, all the LEDs included in the illumination unit 131 are turned off so that no light enters the imaging unit 134. Further, in step S203, the reference white plate 11 is read in a state where the LEDs are completely turned off to obtain black shading data BK SHD , which is stored in the memory 61. Also, the luminance value indicated by the black shading data BK SHD is averaged in the main scanning direction, and this is stored in the memory 61 as the black average value BK AVE .

図5に示すように黒のシェーディングデータBKSHD(i)は1次元のマトリックスとなっており、主走査方向の各画素に対応したN個データによって構成される。ここで、i=1〜N(Nは自然数)である。 As shown in FIG. 5, the black shading data BK SHD (i) is a one-dimensional matrix, and is composed of N data corresponding to each pixel in the main scanning direction. Here, i = 1 to N (N is a natural number).

図4に戻って説明を続けると、ステップS204では緑色LED1312を点灯し、撮像部134に緑色LED1312の光が入射する状態とする。そして、ステップS205では、基準白色板11を読取って緑のシェーディングデータを取得し、この輝度値を主走査方向に平均化し、これを緑の平均値GAVEとしメモリ61に格納する。 Returning to FIG. 4, the description is continued. In step S <b> 204, the green LED 1312 is turned on, and the light of the green LED 1312 enters the imaging unit 134. In step S205, the reference white plate 11 is read to obtain green shading data, the luminance value is averaged in the main scanning direction, and this is stored in the memory 61 as the green average value GAVE .

ステップS206では、青色LED1313を点灯し、撮像部134に青色LED1313の光が入射する状態とする。そして、ステップS207では、青のシェーディングデータを取得し、この輝度値を主走査方向に平均化し、これを青の平均値BAVEとしメモリ61に格納する。さらに、ステップS208では、赤色LED1311を点灯し、撮像部134に赤色LED1311の光が入射する状態とする。そして、ステップS209では、赤のシェーディングデータを取得し、この輝度値を主走査方向に平均化し、これを赤の平均値RAVEとし、メモリ61に格納する。 In step S <b> 206, the blue LED 1313 is turned on so that the light of the blue LED 1313 is incident on the imaging unit 134. In step S207, blue shading data is acquired, the luminance value is averaged in the main scanning direction, and this is stored in the memory 61 as a blue average value B AVE . Further, in step S208, the red LED 1311 is turned on so that the light of the red LED 1311 enters the imaging unit 134. Then, in step S209, red shading data is acquired, the luminance value is averaged in the main scanning direction, and this is stored as the red average value R AVE in the memory 61.

ステップS210では、緑(G)成分の赤(R)成分に対する輝度倍率Gain(G)を式(1)を用いて求める。式(1)は次のように表わされる。即ち、
Gain(G)=(GAVE−BKAVE)/(RAVE−BKAVE)……(1)
である。式(1)によれば、黒のオフセット成分を除いて輝度倍率を算出するため、緑の平均値GAVEと赤の平均値RAVEそれぞれ黒の平均値BKAVEとの差から倍率を算出している。
In step S210, the luminance magnification Gain (G) with respect to the red (R) component of the green (G) component is obtained using equation (1). Formula (1) is expressed as follows. That is,
Gain (G) = (G AVE -BK AVE ) / (R AVE -BK AVE ) (1)
It is. According to Equation (1), in order to calculate the luminance magnification by excluding the black offset component, the magnification is calculated from the difference between the green average value G AVE and the red average value R AVE, and the black average value BK AVE. ing.

同様に、ステップS211では、青(B)成分の赤(R)成分に対する輝度倍率Gain(G)を式(2)を用いて求める。式(2)は次のように表わされる。即ち、
Gain(B)=(BAVE−BKAVE)/(RAVE−BKAVE)……(2)
である。
Similarly, in step S211, the luminance magnification Gain (G) with respect to the red (R) component of the blue (B) component is obtained using equation (2). Equation (2) is expressed as follows. That is,
Gain (B) = (B AVE −BK AVE ) / (R AVE −BK AVE ) (2)
It is.

次にステップS212では、赤色LED1311を点灯させたままCISユニット13を移動させながら、基準白色板11を読取り、副走査方向にMライン分のR成分データを取得する。取得したR成分データは、図5に示すように、2次元の配列となっている。一方、赤のシェーディングデータRSHDは1次元の配列となっている。 In step S212, the reference white plate 11 is read while moving the CIS unit 13 while the red LED 1311 is lit, and R component data for M lines is acquired in the sub-scanning direction. The acquired R component data is a two-dimensional array as shown in FIG. On the other hand, the red shading data R SHD is a one-dimensional array.

さらにステップS213では、取得したMライン分のR成分データより副走査方向の平均値を求め、赤のシェーディングデータRSHDのデータを算出する。つまり、主走査方向にN個からなる1ライン分のR成分データを取得し、これを副走査方向にMライン分まで取得したR成分データを、主走査方向に関して同じ位置のデータを合算し、Mで割って平均値を求めるのである。そして、その平均値を赤のシェーディングデータRSHDとして、主走査方向の各位置ごとにメモリ61に格納する。 In step S213, an average value in the sub-scanning direction is obtained from the acquired R component data for M lines, and red shading data R SHD data is calculated. That is, the R component data for one line consisting of N in the main scanning direction is acquired, and the R component data acquired up to M lines in the sub scanning direction is added to the data at the same position in the main scanning direction. Divide by M to find the average value. The average value is stored as red shading data R SHD in the memory 61 for each position in the main scanning direction.

ステップS214では、緑のシェーディングデータGSHDを次の3つの要素を用いて生成する。3つの要素とは、赤のシェーディングデータRSHDと緑成分の赤成分に対する輝度倍率Gain(G)と黒のシェーディングデータBKSHDである。具体的には、式(3)を用いて緑のシェーディングデータGSHDを算出する。式(3)は次のように表わされる。即ち、
SHD=(RSHD−BKSHD)×Gain(G)+BKSHD……(3)
である。式(3)では、黒のオフセット分を取り除くためにRSHDからBKSHDを引き、その値と緑(G)の輝度倍率Gain(G)の積を算出し、黒のオフセット分、BKSHDを加算する。ここで、Gain(G)は定数である。図5に示すように、緑のシェーディングデータGSHDは赤のシェーディングデータRSHDと同様に1次元のマトリックスとなっており、主走査方向の各画素に対応したN個のデータによって構成される。従って、GSHD(i)(i=1〜N)の算出は、主走査方向の座標に対応したRSHDとBKSHDの値を用いて行う。算出後、緑のシェーディングデータGSHDはメモリ61に格納される。
In step S214, green shading data G SHD is generated using the following three elements. The three elements are red shading data R SHD , luminance magnification Gain (G) for the red component of the green component, and black shading data BK SHD . Specifically, the green shading data G SHD is calculated using Equation (3). Equation (3) is expressed as follows. That is,
G SHD = (R SHD −BK SHD ) × Gain (G) + BK SHD (3)
It is. In Equation (3), BK SHD is subtracted from R SHD to remove the black offset, and the product of the value and the luminance magnification Gain (G) of green (G) is calculated, and the black offset, BK SHD is calculated. to add. Here, Gain (G) is a constant. As shown in FIG. 5, the green shading data G SHD is a one-dimensional matrix like the red shading data R SHD, and is composed of N data corresponding to each pixel in the main scanning direction. Therefore, G SHD (i) (i = 1 to N) is calculated using the values of R SHD and BK SHD corresponding to the coordinates in the main scanning direction. After the calculation, the green shading data G SHD is stored in the memory 61.

同様にステップS215では、青シェーディングデータBSHDを式(4)を用いて生成する。式(4)は次のように表わされる。即ち、
SHD=(RSHD−BKSHD)×Gain(B)+BKSHD……(4)
である。
Similarly, in step S215, blue shading data B SHD is generated using equation (4). Equation (4) is expressed as follows. That is,
B SHD = (R SHD -BK SHD ) × Gain (B) + BK SHD (4)
It is.

これで、カラーシェーディング処理を終了する。   This completes the color shading process.

図6は各色成分のシェーディングデータと主走査方向の位置との関係を示す図である。   FIG. 6 is a diagram showing the relationship between the shading data of each color component and the position in the main scanning direction.

図6に示されるように、撮像部134から出力される輝度値レベルは、主走査方向の位置によってバラツキが生じる。このバラツキ原因のほとんどは、センサ感度のバラツキ、レンズのバラツキ、照明の光量バラツキによるものである。この実施例では、照明部131に導光管を用いているため、使用するLEDによる主走査方向に関する相対的な光量バラツキは変わらない。また、センサ感度やレンズにおいても同様である。図6に示した各色成分のシェーディングデータの輝度値の絶対値は異なるが、バラツキの特性や傾向は類似している。   As shown in FIG. 6, the luminance value level output from the imaging unit 134 varies depending on the position in the main scanning direction. Most of the causes of this variation are due to variations in sensor sensitivity, lens variations, and illumination light quantity variations. In this embodiment, since the light guide tube is used for the illumination unit 131, the relative light quantity variation in the main scanning direction by the used LED does not change. The same applies to sensor sensitivity and lenses. Although the absolute value of the luminance value of the shading data of each color component shown in FIG. 6 is different, the characteristics and tendency of variation are similar.

このため、赤色LED1311、緑色LED1312及び青色LED1313を点灯して基準白色板11を読取って生成したデータの平均値からそれぞれの光量比率を求め、その比率に応じて各色のシェーディングデータを求めることが可能になるのである。   For this reason, it is possible to obtain the respective light quantity ratios from the average value of the data generated by turning on the red LED 1311, the green LED 1312 and the blue LED 1313 and reading the reference white plate 11, and obtain the shading data of each color according to the ratio It becomes.

この実施例では、図4〜図5に示すように赤のシェーディングデータRSHDに基づいて緑のシェーディングデータGSHDと青のシェーディングデータBSHDを算出して求めている。つまり、G成分のR成分に対する輝度倍率とB成分のR成分に対する輝度倍率とを求め、これらの輝度倍率をR成分のシェーディングデータにかけることで、緑と青それぞれのシェーディングデータを求めるのである。実際にCISユニットを移動させてシェーディングを行うのは赤のシェーディングデータRSHDを取得する時のみとなる。 In this embodiment, as shown in FIGS. 4 to 5, green shading data G SHD and blue shading data B SHD are calculated and obtained based on red shading data R SHD . That is, the luminance magnification with respect to the R component of the G component and the luminance magnification with respect to the R component of the B component are obtained, and the shading data for green and blue are obtained by applying these luminance magnifications to the shading data of the R component. Actually, the CIS unit is moved to perform shading only when the red shading data R SHD is acquired.

従って以上説明した実施例に従えば、各色成分のシェーディングデータを取得するためCISユニットを移動させる動作を削減することができ、より短時間に全ての色成分のシェーディングデータを取得することができる。これにより、シェーディング動作に伴うCISユニットの移動に要する時間が削減され、これに伴って騒音が発生する時間を抑える効果と画像読取開始までの時間を短くする効果がある。   Therefore, according to the embodiment described above, it is possible to reduce the operation of moving the CIS unit in order to acquire shading data for each color component, and it is possible to acquire shading data for all color components in a shorter time. As a result, the time required for the CIS unit to move due to the shading operation is reduced, and this has the effect of reducing the time for generating noise and the time for starting image reading.

なお、上述した実施例では、赤のシェーディングデータを基準に緑のシェーディングデータと青のシェーディングデータを算出しているが、基準に使用する色成分データを赤に限定する必要はなく、青又は緑成分のデータを基準することもできる。   In the above-described embodiment, the green shading data and the blue shading data are calculated based on the red shading data. However, the color component data used for the reference is not limited to red, and may be blue or green. Component data can also be referenced.

また、上述した実施例では、赤青緑の3色の異なる色の光源を用いて、1色のシェーディングデータに基づいてその他のシェーディングを算出していたが、異なる色に限定する必要はない。例えば、緑の光源を2つ用いる際に、一方のシェーディングデータを用いて他方のシェーディングデータを算出することもできる。   In the above-described embodiment, the other shadings are calculated based on the shading data of one color using the light sources of three different colors of red, blue, and green. However, it is not necessary to limit to different colors. For example, when two green light sources are used, one shading data can be used to calculate the other shading data.

また、上述した実施例では、副走査方向にCISユニットを移動させながら基準白色板を読取ることでシェーディングデータを取得する構成としたが、本発明はこれによって限定されるものではない。例えば、移動シェーディングではなく、主走査1ラインの読取結果から複数のシェーディングデータを生成する際に同じ構成を用いてもよい。   In the above-described embodiment, the shading data is acquired by reading the reference white plate while moving the CIS unit in the sub-scanning direction. However, the present invention is not limited to this. For example, instead of moving shading, the same configuration may be used when generating a plurality of shading data from the reading result of one main scanning line.

さらに、上述した実施例では、単機能の画像読取装置(スキャナ装置)を例として説明したが本発明はこれによって限定されるものではない。本発明は、例えば、画像読取装置(スキャナ装置)と画像形成装置(LBP)とADF装置が一体化した複写機システムにも適用できるし、さらに複写機システムにファクシミリ機能を加えた複合システムとしても良い。そして、これらシステムの画像形成部には電子写真方式に従うプリンタエンジンのみならず、インクジェット記録方式を採用したプリンタエンジンを備えても良い。   Furthermore, in the above-described embodiments, a single-function image reading device (scanner device) has been described as an example, but the present invention is not limited thereto. The present invention can be applied to, for example, a copier system in which an image reading apparatus (scanner apparatus), an image forming apparatus (LBP), and an ADF apparatus are integrated, or a combined system in which a facsimile function is added to the copier system. good. The image forming unit of these systems may include not only a printer engine that conforms to an electrophotographic system, but also a printer engine that employs an ink jet recording system.

1 画像読取装置、3 LED駆動回路、4 タイミング発生回路、5 CPU、
6 デジタル処理部、11 基準白色板、12 原稿突き当て板、
13 CISユニット、14 原稿台ガラス、15 原稿、16 駆動ベルト、
17 ガイドレール、18 モータ、21 増幅器(AMP)、22 A/D変換回路、
61 メモリ、62 シェーディング補正部
1 image reading device, 3 LED drive circuit, 4 timing generation circuit, 5 CPU,
6 digital processing unit, 11 reference white plate, 12 document abutting plate,
13 CIS unit, 14 platen glass, 15 document, 16 drive belt,
17 guide rail, 18 motor, 21 amplifier (AMP), 22 A / D conversion circuit,
61 memory, 62 shading correction unit

Claims (9)

複数の光を照射する照射部と、予め定められた第1の方向に配列された複数の光電変換素子と、前記照射部から照射される複数の光を共通の光電変換素子で受光する撮像部とを含み、原稿画像を光学的に読み取り可能な読取手段と、
前記照射される複数の光のうちの少なくとも1つの光による基準部材からの反射光に基づいて第1のシェーディングデータを取得する第1の取得手段と、
前記第1の取得手段により取得される前記第1のシェーディングデータに基づいて、前記照射される複数の光のうち前記反射光に含まれない照射光に対応する第2のシェーディングデータを生成する生成手段とを有することを特徴とする画像読取装置。
An irradiation unit that irradiates a plurality of light, a plurality of photoelectric conversion elements arranged in a predetermined first direction, and an imaging unit that receives a plurality of lights irradiated from the irradiation unit by a common photoelectric conversion element Reading means capable of optically reading a document image;
First acquisition means for acquiring first shading data based on reflected light from a reference member by at least one of the plurality of irradiated light;
Generation that generates second shading data corresponding to irradiation light that is not included in the reflected light among the plurality of irradiated light based on the first shading data acquired by the first acquisition means And an image reading apparatus.
前記照射部は、異なる色の光を照射する複数の光源を有し、
前記複数の光源それぞれから複数の光を照射し、前記基準部材からの反射光に基づいて前記複数の光源それぞれからの照射光の比率を算出する算出手段をさらに有し、
前記生成手段は、前記第1のシェーディングデータと前記比率に基づいて前記第2のシェーディングデータを生成することを特徴とする請求項1に記載の画像読取装置。
The irradiation unit has a plurality of light sources that emit light of different colors,
Irradiating a plurality of light from each of the plurality of light sources, further comprising a calculation means for calculating a ratio of the irradiation light from each of the plurality of light sources based on reflected light from the reference member;
The image reading apparatus according to claim 1, wherein the generation unit generates the second shading data based on the first shading data and the ratio.
前記読取手段を前記第1の方向と異なる第2の方向に移動可能な移動手段をさらに有し、
前記第1の取得手段は、前記複数の光源のうちの1つの光源から光を照射し、前記移動手段によって前記読取手段を移動させながら取得する前記基準部材からの反射光に基づいて前記第1のシェーディングデータを取得することを特徴とする請求項2に記載の画像読取装置。
A moving unit capable of moving the reading unit in a second direction different from the first direction;
The first acquisition means irradiates light from one of the plurality of light sources, and moves the reading means by the moving means to acquire the first light based on the reflected light from the reference member. The image reading apparatus according to claim 2, wherein the shading data is acquired.
前記複数の光源すべてを消灯した状態で前記基準部材からの反射光を受光してシェーディング補正のための黒のオフセットに対応するデータを取得する第2の取得手段をさらに有し、
前記算出手段はさらに、前記第2の取得手段により取得された黒のオフセットに対応するデータを用いて前記比率を算出することを特徴とする請求項2又は3に記載の画像読取装置。
A second acquisition unit that receives reflected light from the reference member in a state in which all of the plurality of light sources are turned off, and acquires data corresponding to a black offset for shading correction;
4. The image reading apparatus according to claim 2, wherein the calculation unit further calculates the ratio using data corresponding to the black offset acquired by the second acquisition unit. 5.
前記算出手段は、前記複数の光源それぞれからの光を前記基準部材へ照射した際に取得されるそれぞれのデータの平均値を用いて前記比率を算出することを特徴とする請求項4に記載の画像読取装置。   The said calculation means calculates the said ratio using the average value of each data acquired when the light from each of these several light sources is irradiated to the said reference member, The ratio of Claim 4 characterized by the above-mentioned. Image reading device. 前記平均値を格納する記憶手段をさらに有することを特徴とする請求項5に記載の画像読取装置。   The image reading apparatus according to claim 5, further comprising storage means for storing the average value. 前記生成手段は、前記平均値を用いて算出された前記比率と、前記第2の取得手段により取得された黒のオフセットに対応するデータの平均値を用いて、他のデータに対応する色のシェーディングデータを生成することを特徴とする請求項5に記載の画像読取装置。   The generation means uses the ratio calculated using the average value and the average value of the data corresponding to the black offset acquired by the second acquisition means to determine the color corresponding to the other data. The image reading apparatus according to claim 5, wherein shading data is generated. 前記複数の光源は、赤色LEDと、緑色LEDと、青色LEDであることを特徴とする請求項2乃至7のいずれか1項に記載の画像読取装置。   The image reading apparatus according to claim 2, wherein the plurality of light sources are a red LED, a green LED, and a blue LED. 複数の光を照射する照射部と、予め定められた第1の方向に配列された複数の光電変換素子と、前記照射部から照射される複数の光を共通の光電変換素子で受光する撮像部とを含み、原稿画像を光学的に読み取り可能な読取手段とを備える画像読取装置におけるシェーディングデータの生成方法であって、
前記照射される複数の光のうちの少なくとも1つの光による基準部材からの反射光に基づいて第1のシェーディングデータを取得する取得工程と、
前記取得工程において取得される前記第1のシェーディングデータに基づいて、前記照射される複数の光のうち前記反射光に含まれない照射光に対応する第2のシェーディングデータを生成する生成工程とを有することを特徴とするシェーディングデータの生成方法。
An irradiation unit that irradiates a plurality of light, a plurality of photoelectric conversion elements arranged in a predetermined first direction, and an imaging unit that receives a plurality of lights irradiated from the irradiation unit by a common photoelectric conversion element A method for generating shading data in an image reading apparatus including a reading unit capable of optically reading a document image,
An acquisition step of acquiring first shading data based on reflected light from a reference member by at least one of the plurality of irradiated lights;
A generating step of generating second shading data corresponding to irradiation light not included in the reflected light among the plurality of irradiated light based on the first shading data acquired in the acquisition step; A method for generating shading data, comprising:
JP2016218248A 2016-11-08 2016-11-08 Image reading device and method for generating shading data Pending JP2018078425A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016218248A JP2018078425A (en) 2016-11-08 2016-11-08 Image reading device and method for generating shading data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016218248A JP2018078425A (en) 2016-11-08 2016-11-08 Image reading device and method for generating shading data

Publications (1)

Publication Number Publication Date
JP2018078425A true JP2018078425A (en) 2018-05-17

Family

ID=62150716

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016218248A Pending JP2018078425A (en) 2016-11-08 2016-11-08 Image reading device and method for generating shading data

Country Status (1)

Country Link
JP (1) JP2018078425A (en)

Similar Documents

Publication Publication Date Title
US20110043874A1 (en) Image reading apparatus, image formation apparatus, image reading method, image formation method, program for causing image reading method to be executed, and program for causing image formation method to be executed
JP6467598B2 (en) Image reading device
JP6118997B2 (en) Image reading device
US20140293371A1 (en) Image reading device, image forming apparatus, and image reading method
JP6263749B2 (en) Image reading device
JP2018078425A (en) Image reading device and method for generating shading data
JP4134151B2 (en) Image reading apparatus and shading correction data creation method
JP2012070097A (en) Original document reading apparatus
JP2007201892A (en) Image reading method, image reader, and image reading program
JP5830850B2 (en) Image reading apparatus and image forming apparatus
JP2003037713A (en) Image reader
JP5298928B2 (en) Image reading apparatus, image forming apparatus, and image reading method
JP2005184390A (en) Original reading apparatus, computer program, original reading system, and original reading method
US20080204823A1 (en) Compensating Method for Image Scanning, Image Scanning Apparatus and Image Processing System
JP2006246137A (en) Image-reading apparatus
JP2010087953A (en) Image reader
JP2018046335A (en) Image reading device, and shading correction method
US10003713B2 (en) Image forming method and image forming apparatus comprising a scanner section and a light reflection area determination section
JP5895336B2 (en) Image reading apparatus and image forming apparatus
JP2012070219A (en) Document reading apparatus
JP2004328159A (en) Image reading apparatus and copying machine
JP2013074429A (en) Image reader, image forming device, and image reading method
JP2015088934A (en) Image reading device, image forming apparatus, image reading method, and image reading program
JP2017123544A (en) Image reading apparatus and control method
JP2013115499A (en) Image reading apparatus, image forming apparatus, and image reading method