WO2016157728A1 - 画像読取装置 - Google Patents
画像読取装置 Download PDFInfo
- Publication number
- WO2016157728A1 WO2016157728A1 PCT/JP2016/001191 JP2016001191W WO2016157728A1 WO 2016157728 A1 WO2016157728 A1 WO 2016157728A1 JP 2016001191 W JP2016001191 W JP 2016001191W WO 2016157728 A1 WO2016157728 A1 WO 2016157728A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- data
- black
- white
- image
- correction data
- Prior art date
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
- H04N1/401—Compensating positionally unequal response of the pick-up or reproducing head
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00005—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for relating to image data
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00007—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for relating to particular apparatus or devices
- H04N1/00013—Reading apparatus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00007—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for relating to particular apparatus or devices
- H04N1/00018—Scanning arrangements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00026—Methods therefor
- H04N1/00034—Measuring, i.e. determining a quantity by comparison with a standard
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00026—Methods therefor
- H04N1/00039—Analysis, i.e. separating and studying components of a greater whole
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00026—Methods therefor
- H04N1/00045—Methods therefor using a reference pattern designed for the purpose, e.g. a test chart
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00026—Methods therefor
- H04N1/00053—Methods therefor out of service, i.e. outside of normal operation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00026—Methods therefor
- H04N1/00063—Methods therefor using at least a part of the apparatus itself, e.g. self-testing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00026—Methods therefor
- H04N1/00068—Calculating or estimating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00071—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for characterised by the action taken
- H04N1/00082—Adjusting or controlling
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00071—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for characterised by the action taken
- H04N1/00082—Adjusting or controlling
- H04N1/00087—Setting or calibrating
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/024—Details of scanning heads ; Means for illuminating the original
- H04N1/028—Details of scanning heads ; Means for illuminating the original for picture information pick-up
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/024—Details of scanning heads ; Means for illuminating the original
- H04N1/028—Details of scanning heads ; Means for illuminating the original for picture information pick-up
- H04N1/03—Details of scanning heads ; Means for illuminating the original for picture information pick-up with photodetectors arranged in a substantially linear array
- H04N1/031—Details of scanning heads ; Means for illuminating the original for picture information pick-up with photodetectors arranged in a substantially linear array the photodetectors having a one-to-one and optically positive correspondence with the scanned picture elements, e.g. linear contact sensors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/024—Details of scanning heads ; Means for illuminating the original
- H04N1/028—Details of scanning heads ; Means for illuminating the original for picture information pick-up
- H04N1/03—Details of scanning heads ; Means for illuminating the original for picture information pick-up with photodetectors arranged in a substantially linear array
- H04N1/031—Details of scanning heads ; Means for illuminating the original for picture information pick-up with photodetectors arranged in a substantially linear array the photodetectors having a one-to-one and optically positive correspondence with the scanned picture elements, e.g. linear contact sensors
- H04N1/0311—Details of scanning heads ; Means for illuminating the original for picture information pick-up with photodetectors arranged in a substantially linear array the photodetectors having a one-to-one and optically positive correspondence with the scanned picture elements, e.g. linear contact sensors using an array of elements to project the scanned image elements onto the photodetectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/024—Details of scanning heads ; Means for illuminating the original
- H04N1/028—Details of scanning heads ; Means for illuminating the original for picture information pick-up
- H04N1/03—Details of scanning heads ; Means for illuminating the original for picture information pick-up with photodetectors arranged in a substantially linear array
- H04N1/031—Details of scanning heads ; Means for illuminating the original for picture information pick-up with photodetectors arranged in a substantially linear array the photodetectors having a one-to-one and optically positive correspondence with the scanned picture elements, e.g. linear contact sensors
- H04N1/0318—Integral pick-up heads, i.e. self-contained heads whose basic elements are a light-source, a lens array and a photodetector array which are supported by a single-piece frame
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/12—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using the sheet-feed movement or the medium-advance or the drum-rotation movement as the slow scanning component, e.g. arrangements for the main-scanning
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/12—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using the sheet-feed movement or the medium-advance or the drum-rotation movement as the slow scanning component, e.g. arrangements for the main-scanning
- H04N1/121—Feeding arrangements
- H04N1/125—Feeding arrangements the sheet feeding apparatus serving an auxiliary function, e.g. as a white reference
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/19—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/19—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
- H04N1/191—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/04—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
- H04N1/19—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
- H04N1/191—Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
- H04N1/192—Simultaneously or substantially simultaneously scanning picture elements on one main scanning line
- H04N1/193—Simultaneously or substantially simultaneously scanning picture elements on one main scanning line using electrically scanned linear arrays, e.g. linear CCD arrays
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
- H04N1/40006—Compensating for the effects of ageing, i.e. changes over time
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
- H04N1/40056—Circuits for driving or energising particular reading heads or original illumination means
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
- H04N1/407—Control or modification of tonal gradation or of extreme levels, e.g. background level
- H04N1/4076—Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on references outside the picture
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2201/00—Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
- H04N2201/0077—Types of the still picture apparatus
- H04N2201/0081—Image reader
Definitions
- the present disclosure relates to an image reading apparatus that reads an image of an object.
- Patent Document 1 includes a white reference plate, and obtains white reference data from the output of the sensor when the light source is turned on to acquire an image of the white reference plate, while the light source is turned off from the output of the sensor.
- An image reading apparatus that acquires black reference data is disclosed. This image reading apparatus performs shading correction based on the white reference data and black reference data acquired in this way.
- Patent Document 2 determines a white reference level in the sub scanning direction in addition to the main scanning direction, and corrects the white reference level in the main scanning direction using a correction value calculated from the white reference level in the sub scanning direction.
- An image reading apparatus is disclosed.
- JP 2008-060975 A Japanese Patent Laid-Open No. 10-327322
- An image reading device of the present disclosure is an image reading device that reads an image of an object, and includes a light source that irradiates the object and a plurality of sensors that read reflected light from the object and acquire image signals.
- a module a data creation unit that creates black correction data as black reference and white correction data as white reference in shading correction, and shading using black correction data and white correction data for image signals acquired by multiple sensors
- a correction unit that performs correction.
- the plurality of sensors are arranged in the main scanning direction, and are configured to form one line of image signals extending in the main scanning direction by the respective image signals.
- the data creation unit is configured to create the black correction data based on intermediate data that is lighter than the black reference gray level and darker than the white reference gray level.
- the data creation unit acquires intermediate data based on the image signal of the first reference member that is arranged at the first position and extends in the main scanning direction, and the black correction data at the first position based on the intermediate data. A certain first black correction data is created.
- the data generation unit obtains intermediate data based on an image signal of a second reference member that is arranged at a second position different from the first position in the sub-scanning direction and extends in the main scanning direction, The second black correction data, which is black correction data at the second position, is created based on the above.
- the data generation unit creates black correction data corresponding to each position in the sub-scanning direction other than the first position and the second position based on the first black correction data and the second black correction data.
- the correction unit performs shading correction using black correction data at each position in the sub-scanning direction, thereby causing image signals from a plurality of sensors to interfere with each other, thereby causing images in the main scanning direction and the sub-scanning direction. Correct density unevenness.
- the image reading apparatus performs shading correction using correction data at each position in the sub-scanning direction. Accordingly, it is possible to provide an image reading apparatus that can reduce density unevenness of an image in the main scanning direction and the sub-scanning direction due to interference of image signals from a plurality of sensors.
- FIG. 1 is a perspective view of a multifunction peripheral of the image reading apparatus according to the first embodiment.
- FIG. 2 is a cross-sectional view of the multifunction machine according to Embodiment 1.
- FIG. 3 is a schematic diagram of the sensor module in the first embodiment.
- FIG. 4 is a diagram showing the arrangement of the first reference plate and the second reference plate in the first embodiment.
- FIG. 5 is a block diagram of the image reading apparatus according to the first embodiment.
- FIG. 6 is a flowchart of the image reading operation of the image reading apparatus according to the first embodiment.
- FIG. 7 is a flowchart of data acquisition processing of the image reading apparatus according to the first embodiment.
- FIG. 8 is a diagram illustrating an example of the output level of the sensor.
- FIG. 9A is a diagram illustrating an image of a document.
- FIG. 9B is a diagram showing a read image after conventional shading correction.
- FIG. 9C is a diagram illustrating a read image after shading correction.
- FIG. 10 is a graph showing the relationship between the output level of the sensor and the gray level.
- FIG. 11 is a flowchart of the first stage of the correction data creation process in the first embodiment.
- FIG. 12 is a flowchart of the latter stage of the correction data creation process in the first embodiment.
- FIG. 13 is a graph showing a regression line of difference values in each sector.
- FIG. 14 is a graph showing the relationship between the sensor output level and the position in the sub-scanning direction.
- FIG. 15 is a flowchart of data acquisition processing of the image reading apparatus according to the second embodiment.
- FIG. 16 is a schematic view of a reference sheet.
- an image reading apparatus such as a scanner that scans a document and creates image data
- variations in the light receiving elements of sensor modules such as CCD (Charge Coupled Device) and CIS (Contact Image Sensor)
- CCD Charge Coupled Device
- CIS Contact Image Sensor
- Distortion depending on the position of the pixel occurs due to a difference in the degree of condensing and unevenness in the light amount distribution of the light source.
- an image reading apparatus that performs shading correction on the obtained image data is known.
- image forming apparatuses such as multifunction peripherals and copying machines equipped with such an image reading apparatus.
- image density unevenness may occur not only in the main scanning direction but also in the sub scanning direction. Correction is necessary.
- the present disclosure provides an image reading apparatus that reduces image density unevenness in the main scanning direction and the sub-scanning direction due to interference of image signals from a plurality of sensors. .
- FIG. 1 is a perspective view of a multifunction peripheral of the image reading apparatus according to the first embodiment.
- FIG. 2 is a cross-sectional view of the multifunction machine according to the first embodiment.
- the multifunction machine 1 includes a main unit 2 and an image reading device 10 mounted on the upper part of the main unit 2.
- the multifunction device 1 has other functions (for example, a print function, a copy function, a facsimile transmission / reception function, etc.) in addition to the scan function by the image reading apparatus 10.
- the main unit 2 has a configuration corresponding to the function of the multifunction device 1.
- the image reading apparatus 10 is an FB (flat bed) type image scanner as shown in FIGS.
- the image reading apparatus 10 includes a scanner unit 11, an FB glass 12, an ADF glass 13, a first reference plate 14a, a second reference plate 14b, an ADF (Auto Document Feeder) 16, and a controller 100 (see FIG. 5). ).
- the FB glass 12 and the ADF glass 13 are provided on the upper surface of the main unit 2.
- the FB glass 12 occupies most of the upper surface of the main unit 2.
- the ADF glass 13 reads the document S fed by the ADF 16.
- the ADF 16 automatically supplies the document S.
- the ADF 16 is disposed on the main unit 2 so as to cover the FB glass 12 and the ADF glass 13.
- the scanner unit 11 acquires an image to be read.
- the scanner unit 11 is configured to move along the back surfaces of the FB glass 12 and the ADF glass 13 in the main unit 2.
- the direction in which the scanner unit 11 moves is referred to as the sub-scanning direction.
- the FB glass 12 and the ADF glass 13 are arranged in the sub-scanning direction.
- the scanner unit 11 is driven by a motor (not shown) and moves in the sub-scanning direction along a guide (not shown).
- the motor is controlled by the controller 100.
- the scanner unit 11 is connected to the controller 100 via an FFC (flexible flat cable) 15.
- the FFC 15 is a communication cable having a signal line inside.
- the FFC 15 has a sufficient length and flexibility so that the scanner unit 11 can move smoothly within the movable range.
- the scanner unit 11 has a sensor module 102 (see FIG. 3).
- the first reference plate 14a and the second reference plate 14b are reference members for acquiring shading correction data.
- the first reference plate 14 a is disposed at a position between the FB glass 12 and the ADF glass 13 in the upper part of the main unit 2.
- the second reference plate 14b is disposed at the upper end of the main unit 2 and at the end position of the movable range of the scanner unit 11 in the sub-scanning direction (see FIG. 4). That is, the first reference member 14a and the second reference member 14b are arranged with a gap in the sub-scanning direction.
- the first reference plate 14a and the second reference plate 14b are arranged so as to face inward of the main unit 2, that is, to face the scanner unit 11.
- FIG. 3 is a schematic diagram of the sensor module 102 according to the first embodiment.
- the sensor module 102 is a contact image sensor system, that is, a CIS type.
- the sensor module 102 includes a light source 205 and a plurality of sensors 207.
- the plurality of sensors 207 are arranged in the main scanning direction orthogonal to the sub-scanning direction.
- the sensor 207 is a sensor IC, for example, a CMOS image sensor.
- One sensor 207 includes a plurality of pixels (photoelectric conversion units) arranged in the main scanning direction.
- a rod lens array (not shown) is provided above the sensor 207. The light collected by the rod lens array enters the sensor 207.
- the plurality of sensors 207 are divided into a plurality of sectors, convert received light into image signals, and output the converted image signals for each sector. That is, a sector is a group of sensors 207 that output image signals collectively. For example, when the number of sensors 207 is 12 and is divided into 3 sectors, each sector includes 4 sensors 207.
- the sensor 207 outputs an image signal to the controller 100 via the FFC 15.
- the light source 205 is typically an LED (Light Emitting Diode).
- the light source 205 is formed by three LEDs of red (R), green (G), and blue (B).
- the light source 205 is arranged at one end (left end in FIG. 3) in the main scanning direction in the sensor module 102.
- the sensor module 102 has a light guide 206.
- the light from the light source 205 is emitted upward through the light guide 206, that is, toward the FB glass 12, the ADF glass 13, or the first reference plate 14a and the second reference plate 14b.
- the light source 205 and the light guide 206 are disposed in the vicinity of the sensor 207. Accordingly, the original on the FB glass 12 or the ADF glass 13 or the light reflected by the first reference plate 14a and the second reference plate 14b enters the sensor 207 via the rod lens array.
- FIG. 4 is a diagram showing the arrangement of the first reference plate 14a and the second reference plate 14b.
- the first reference plate 14a and the second reference plate 14b are arranged with an interval in the sub-scanning direction. Specifically, the first reference plate 14 a is disposed outside one end of the document placement area 4 in the sub-scanning direction.
- the second reference plate 14 b is disposed outside the other end of the document placement area 4 in the sub-scanning direction. Both the first reference plate 14a and the second reference plate 14b extend in the main scanning direction.
- the length of the first reference plate 14a and the second reference plate 14b in the main scanning direction is at least longer than the sensor module 102 (more specifically, the sensor 207).
- Each of the first reference plate 14a and the second reference plate 14b has at least a white region R1a, a white region R1b, and a black region R2a extending over the entire length of the sensor module 102 in the main scanning direction on the surface facing the sensor module 102.
- the light reflectance of the white region R1a and the white region R1b is substantially 100%.
- the first reference plate 14a and the second reference plate 14b are each provided with a reference pattern indicating a home position outside the black region R2a and the black region R2b in the main scanning direction. Any pattern can be adopted as the reference pattern as long as it can be identified by the image processing unit 204.
- the reference pattern may be a pattern in which a plurality of black lines extending in the sub-scanning direction are arranged in the main scanning direction.
- the first reference plate 14a and the second reference plate 14b are examples of a first reference member and a second reference member, respectively.
- the position of the first reference plate 14a is an example of the first position
- the position of the second reference plate 14b is an example of the second position.
- FIG. 5 is a block diagram of the image reading apparatus 10 according to the first embodiment. As shown in FIG. 5, the image reading apparatus 10 includes a scanner unit 11 and a controller 100.
- the controller 100 controls the image reading operation of the scanner unit 11 and performs image processing on the image signal output from the scanner unit 11.
- the controller 100 includes a CPU 101, an AFE (Analog Front End Circuit) 103, a RAM (Random Access Memory) 104, and a ROM (Read Only Memory) 105.
- the image signal (analog signal) from the sensor module 102 of the scanner unit 11 is input to the AFE 103.
- the AFE 103 includes an analog / digital converter, an amplifier, and the like.
- the AFE 103 amplifies the image signal from the sensor module 102 with an amplifier, adds and subtracts an offset, converts it into a digital signal (image data) with an analog / digital converter, and outputs it to the CPU 101.
- the RAM 104 stores image data acquired by the CPU 101.
- the ROM 105 stores a predetermined program necessary for image processing by the CPU 101.
- the CPU 101 includes a reading control unit 201, a DMAC (Direct Memory Access Controller) 202, a memory 203, and an image processing unit 204.
- a reading control unit 201 a DMAC (Direct Memory Access Controller) 202
- a memory 203 a memory 203
- an image processing unit 204 a DMAC (Direct Memory Access Controller) 204.
- the reading control unit 201 controls operations of the scanner unit 11 (including the sensor module 102), the ADF 16, and the AFE 103.
- the reading control unit 201 controls driving of a motor (not shown) for transporting the document S set on the ADF 16.
- the image processing unit 204 performs image processing on the image signal input from the AFE 103.
- the image processing unit 204 reads out a program stored in the ROM 105 and executes image processing by executing the read program. As will be described in detail later, the image processing unit 204 executes various image processing such as filter processing and shading correction.
- the image processing unit 204 is an example of a data creation unit and an example of a correction unit.
- the DMAC 202 performs a data transfer process for transferring an image signal acquired by image processing by the image processing unit 204.
- the memory 203 stores various data.
- the memory 203 stores data used for shading correction.
- FIG. 6 is a flowchart of the image reading operation of the image reading apparatus 10.
- the image reading operation starts when the power of the image reading apparatus 10 is turned on and a user operation is performed.
- the image processing unit 204 acquires data for creating first correction data and second correction data used for shading correction using the first reference plate 14a and the second reference plate 14b.
- the image processing unit 204 creates first correction data and second correction data based on the data acquired in step S1.
- the image processing unit 204 responds to each position in the sub-scanning direction other than the first position and the second position based on the first correction data and the second correction data created in step S2. Create correction data.
- the image processing unit 204 reads the document. At this time, the image processing unit 204 performs shading correction on the read image signal using the correction data.
- FIG. 7 is a flowchart of data acquisition processing of the image reading apparatus 10 according to the first embodiment.
- the data acquisition process is started when the user performs the data acquisition operation via the operation unit (not shown) of the image reading apparatus 10.
- the image processing unit 204 detects the home position of the sensor module 102. Specifically, the image processing unit 204 moves the sensor module 102 to the home position stored in the memory 203 via the reading control unit 201. This position is a provisional home position. Then, the image processing unit 204 causes the sensor module 102 to acquire an image at the position, and determines whether or not the reference pattern of the first reference plate 14a is detected from the acquired image. When the reference pattern is detected, the image processing unit 204 determines that the current position of the sensor module 102 is an accurate home position.
- the image processing unit 204 moves the sensor module 102 to one side in the sub-scanning direction by a predetermined amount, acquires an image at that position, and determines whether the reference pattern is detected from the acquired image. Determine whether. The image processing unit 204 repeats this process until a reference pattern is detected. However, if the reference pattern is not detected even if the image processing unit 204 moves the sensor module 102 from the temporary home position to one side in the sub-scanning direction to some extent, the image processing unit 204 moves the sensor module 102 to the temporary home position. The above process is repeated from there to the other side in the sub-scanning direction.
- the image processing unit 204 continues to move the sensor module 102 to the other side in the sub-scanning direction until the reference pattern is detected. When the reference pattern is detected, the image processing unit 204 completes the detection of the home position.
- the image processing unit 204 stores the position of the detected home position in the memory 203, and uses the home position stored in the memory 203 as a temporary home position in the next home position detection.
- step S102 the image processing unit 204 moves the sensor module 102 to a position facing the white region R1a of the first reference plate 14a via the reading control unit 201. Since the distance in the sub-scanning direction between the reference pattern and the white region R1a is known, the image processing unit 204 accurately moves the sensor module 102 to the position facing the white region R1a based on the home position detected in step S102. Can be moved to.
- the image processing unit 204 executes calibration. For example, the image processing unit 204 performs initial settings such as setting the lighting time of the light source 205 and setting of the AFE 103. By setting the lighting time of the light source 205, the output levels of the image signals output from the plurality of sensors 207 can be made uniform.
- step S104 the image processing unit 204 moves the sensor module 102 via the reading control unit 201 to a position facing the black region R2a of the first reference plate 14a based on the detected home position. Move.
- step S105 the image processing unit 204 irradiates the black region R2a with the light source 205 (light source ON), and acquires an image of the black region R2a. That is, the image processing unit 204 receives the light reflected by the black region R2a and converts the received light into an image signal.
- the image signal at this time does not represent the output level of the sensor 207 with the darkest gray level at the first position, but does not represent the output level of the sensor 207. Represents the output level.
- the image data having a relatively dark gray level and a color close to black is so-called intermediate data.
- the image processing unit 204 stores this image data in the memory 203 as second black data.
- the second black data is an example of intermediate data at the first position.
- step S106 the image processing unit 204 moves the sensor module 102 to the position facing the white region R1a of the first reference plate 14a again via the reading control unit 201.
- step S107 the image processing unit 204 acquires an image with the light source 205 turned off (light source OFF).
- the light source 205 since the light source 205 is turned off, the light emitted from at least the light source 205 and reflected by the subject is not incident on the sensor 207. That is, the image data at this time represents the output level of the darkest black sensor 207 at the first position.
- This image data is so-called black data.
- the image processing unit 204 stores this image data in the memory 203 as first black data.
- the first black data is an example of black data.
- step S108 the image processing unit 204 acquires an image with the light source 205 turned on (light source ON).
- the sensor module 102 faces the white region R1a of the first reference plate 14a. Therefore, the sensor module 102 acquires an image of the white region R1a. Since the reflectance of the white region R1a is substantially 100%, the image data based on the image signal at this time, that is, the white data, indicates the output level of the sensor 207 of the lightest white color with the light and shade level at the first position. It represents.
- the image processing unit 204 stores this white data in the memory 203 as first white correction data.
- step S109 the image processing unit 204 moves the sensor module 102 to the second position via the reading control unit 201, and detects the reading position of the second reference plate 14b. Specifically, similar to the home position detection in step S101, the sensor module 102 is moved to the detection position stored in the memory 203, and the sensor module 102 is caused to acquire an image at that position.
- the image processing unit 204 determines that the current position of the sensor module 102 is an accurate reading position. If the reference pattern is not detected, the image processing unit 204 repeats the movement of the sensor module 102 and the acquisition of the image until the reference pattern is detected.
- step S110 the image processing unit 204 moves the sensor module 102 to a position facing the white region R1b of the second reference plate 14b via the reading control unit 201.
- step S ⁇ b> 111 the image processing unit 204 performs calibration, and sets the lighting time of the light source 205, the setting of the AFE 103, and the like.
- step S112 the image processing unit 204 moves the sensor module 102 to a position facing the black region R2b of the second reference plate 14b via the reading control unit 201.
- the position of the sensor module 102 may be determined by detecting the reference pattern of the second reference plate 14b.
- step S113 the image processing unit 204 irradiates the black region R2a with the light source 205 (light source ON) via the reading control unit 201, and acquires an image of the black region R2a.
- the image data based on the image signal at this time represents the output level of the sensor 207 having a relatively dark gray level at the second position and a color close to black.
- the image processing unit 204 stores the acquired image data in the memory 203 as third black data.
- the third black data is an example of intermediate data at the second position.
- step S114 the image processing unit 204 moves the sensor module 102 to a position facing the white region R1b of the second reference plate 14b via the reading control unit 201.
- step S115 the image processing unit 204 irradiates the white region R1b with the light source 205 (light source ON) via the reading control unit 201, and acquires an image of the white region R1b.
- the image data based on the image signal at this time that is, the white data, represents the output level of the sensor 207 having the lightest gray level at the second position.
- the image processing unit 204 stores this white data in the memory 203 as second white correction data.
- the image processing unit 204 uses the first black correction data, the second black correction data, and the third black correction data obtained by the data acquisition process as the first black correction data and the second black correction data, which are the black reference for shading correction in the main scanning direction. Create from data.
- the influence of density unevenness due to crosstalk in the main scanning direction which will be described later, is obtained. Can be reduced.
- image signals from a plurality of sensors 207 interfere with each other in the transmission path (crosstalk), and noise is generated in the image signals.
- crosstalk is likely to occur due to the bending of the FFC 15.
- FIG. 8 is a diagram illustrating an example of the output level of the sensor 207.
- an alternate long and short dash line M1 is a case where there is no crosstalk
- a solid line M2 is a case where there is a crosstalk.
- 8 represents the output level of the sensor 207
- the horizontal axis represents the position of each pixel of the sensor 207 in the main scanning direction.
- the output level for each pixel when an object having a uniform reflectance is imaged is as shown by a one-dot chain line M2 in FIG. 8 assuming that there is no individual difference between pixels when there is no crosstalk. It becomes substantially constant.
- the output level for each pixel changes within each sector, as indicated by the solid line M1 in FIG.
- the output level for each pixel in each sector increases linearly from one end of the sector to the other end.
- a step is generated in the output level at a portion where the sector is switched.
- FIG. 9A is a diagram showing an image of a document.
- FIG. 9B is a diagram showing a read image after conventional shading correction.
- FIG. 9C is a diagram illustrating a read image after shading correction.
- FIG. 9A shows an image example of the document S.
- FIG. 9B shows a read image obtained by performing the conventional shading correction after reading the image of the document S.
- noise due to crosstalk occurs, density unevenness occurs in the read image as shown in FIG. 9B.
- density unevenness occurs in the portion corresponding to the sector boundary of the sensor 207.
- FIG. 10 is a graph showing the relationship between the output level of the sensor 207 and the gray level.
- Each pixel of the sensor 207 outputs a voltage signal corresponding to the amount of light.
- the change in voltage according to the amount of light depends on the characteristics of the sensor 207. For example, when the voltage linearly changes according to the amount of light, the ideal change in voltage is as indicated by the alternate long and short dash line L1. However, when noise caused by crosstalk (hereinafter referred to as “interference noise”) is superimposed on the output signal, the voltage change is as shown by a solid line L2. That is, in the case of the darkest black, the output level is small, so that interference noise hardly appears. However, when the gray level is slightly reduced from black, the output level of the sensor 207 increases, and accordingly, the interference noise increases.
- image data is acquired with the light source 205 turned off (point A), and this is used as black correction data serving as a black reference.
- white image data is acquired in a state where the light source 205 is turned on (point B), and is used as white correction data serving as a white reference.
- the image reading apparatus 10 uses the first black data in a state where the light source 205 is turned off and the second black data and the third black data in a state where the light source 205 is turned on. Data and second black data are created.
- FIG. 11 is a flowchart of the previous stage of the correction data creation process of the image reading apparatus 10 according to the first embodiment.
- FIG. 12 is a flowchart of the latter stage of the correction data creation process of the image reading apparatus 10 according to the first embodiment.
- FIG. 13 is a diagram showing a regression line of difference values in each sector. Since the second black correction data is created in the same flow as the first black correction data, only the first black data creation process will be described below.
- the number of sectors of the sensor 207 is 3, and the number of pixels in the main scanning direction is n.
- Sector S 0 is a sector located at one end in the main scanning direction in sensor 207
- sector S 1 is a sector adjacent to sector S 0
- sector S 2 is adjacent to sector S 1
- sensor 207 This is a sector located at the other end in the main scanning direction.
- the pixel X 0 is a pixel at one end in the main scanning direction in the sensor 207, and becomes a pixel on the other end side in the main scanning direction as the pixel number j increases, and the pixel X n ⁇ 1 is It is a pixel at the other end in the main scanning direction.
- step S201 the image processing unit 204 sets the pixel number j to 0.
- step S202 the image processing unit 204 sets the sector number i to 0.
- step S ⁇ b> 203 the image processing unit 204 sets an area (window) for calculating a difference value described later in each sector. Specifically, as shown in FIG. 8, windows are set at one end and the other end in the main scanning direction in each sector. The width of each window is set so as to include a predetermined number of pixels. 8, in the sector S 0, starting at one end of the main scanning direction window R1, termination window R2 to the other end is set. Similarly, in the sector S 1, starting at one end of the main scanning direction window R3, an end window R4 to the other end is set. In the sector S 2, starting at one end of the main scanning direction window R5, termination window R6 to the other end is set.
- the image processing unit 204 increments the pixel number j in step S205 and executes the process in step S204 again. That is, the image processing unit 204 determines whether the next pixel Xj is included in the window.
- the image processing unit 204 in step S206, outputs the output level K2 j of the pixel X j of the second black data and the output level K1 of the pixel X j of the first black data. I asked the difference value between the j the (K2 j -K1 j), to save the difference value obtained in the memory 203.
- step S207 the image processing unit 204 determines whether or not the pixel Xj is the last pixel in the sector S i . If the pixel Xj is not the final pixel, the image processing unit 204 increments the pixel number j in step S205 and executes the process of step S204 again.
- the image processing unit 204 stores the obtained regression line counts a i and b i in the memory 203.
- the dotted line y 0 indicates the regression line of the sector S 0
- the solid line y 2 indicates the regression line of the sector S 1
- the alternate long and short dash line y 3 indicates the regression line of the sector S 2 .
- step S209 the image processing unit 204 determines whether the sector number i is smaller than “2”. If the sector number i is smaller than “2”, the image processing unit 204 increments the sector number i in step S210 and executes the process of step S203 again.
- the sector S i performing the calculation of the regression line is the last sector (i.e., sector S 2) unless, by changing the sector S i to the next sector S i + 1, repeating the calculation of the regression line.
- the image processing unit 204 finishes the process preceding the creation of the correction data.
- the image processing unit 204 sets the pixel number j to 0 in step S212. Subsequently, the image processing unit 204 sets the sector number i to 0 in step S213.
- the image processing unit 204 at step S214, the using the minimum difference value y min, the output level K1 j of the pixel X j of the first black data corrected seek first black correction data.
- the correction value K j of the pixel X j of the first black correction data is expressed by the following equation.
- the image processing unit 204 determines whether or not the pixel X j is the last pixel in the sector S i in step S215. If the pixel Xj is not the final pixel, the image processing unit 204 increments the pixel number j in step S216 and executes the process in step S214 again.
- the image processing unit 204 determines whether or not the sector number i is smaller than “2” in step S217. If the sector number i is smaller than “2”, the image processing unit 204 increments the sector number i in step S218 and executes the process of step S214 again.
- the sector S i performing the calculation of the black correction data is the last sector (i.e., sector S 2) unless, by changing the sector S i to the next sector S i + 1, repeating the calculation of the black correction data.
- the image processing unit 204 ends the subsequent process of creating the correction data.
- the image processing unit 204 adds the value obtained by subtracting the minimum difference value y min from the difference value y i (x) of each sector to the output level K1 j of the first black data to correct the black correction data.
- the value K j is obtained.
- FIG. 14 is a graph showing the output level of the sensor 207 with respect to a typical position in the sub-scanning direction.
- the first position corresponds to the first position of the present embodiment
- the second position corresponds to the second position of the present embodiment.
- a solid circle represents a black output level
- a hollow circle represents a white output level.
- B1 is the black output level acquired at the first position
- B2 is the black output level acquired at the second position
- W1 is the white output level acquired at the first position
- W2 is the white output level acquired at the second position.
- the first correction data and the second correction data are used for each position in the sub-scanning direction other than the first position and the second position. Correction data corresponding to each position in the scanning direction is obtained, and shading correction is performed using the correction data.
- FIG. 14 shows the case where the output level at the first position is lower than the output level at the second position. However, the output level at the second position is different depending on the configuration of the apparatus and environmental variables. May be greater than the output level of the first position.
- the pixel X 0 is a pixel at one end in the sub-scanning direction in the sensor 207, and becomes a pixel at the other end in the sub-scanning direction as the pixel number l increases, and the pixel X m ⁇ 1 is sub - pixel in the sensor 207. This is the pixel at the other end in the scanning direction.
- X 0 corresponds to a pixel in the sub-scanning direction of the one end of the first reference plate 14a
- X m-1 is described as corresponding to a pixel in the sub-scanning direction of the one end of the second reference plate 14b.
- the image processing unit 204 stores the obtained regression line counts c K and d K in the memory 203.
- Correction data c S : regression linear coefficient (slope), d S : regression linear coefficient (constant term)).
- the image processing unit 204 stores the obtained regression line counts c S and d S in the memory 203.
- the image processing unit 204 linearly calculates correction data corresponding to each position in the sub-scanning direction other than the first position and the second position based on the correction data at the first position and the second position. Interpolate.
- the image processing unit 204 performs shading correction using the black correction data and the white correction data corresponding to the calculated positions in the sub-scanning direction.
- the image processing unit 204 performs reading processing. Specifically, the image processing unit 204 moves the sensor module 102 via the reading control unit 201 and causes the image S of the document S to be read. The image processing unit 204 performs shading correction on the read image using each black correction data and each white correction data.
- the first black data acquired in step S107 has an extremely low output level, interference noise included in the first black data is also very small (see point A in FIG. 10).
- the second black data is data having a lighter gray level than the first black data and has a higher output level. Therefore, interference noise appears in the second black data (points in FIG. 10). C). By correcting the first black data using the second black data, black correction data including interference noise can be created.
- the second black data is an image signal of the black region R2a of the first reference plate 14a although the light source 205 is turned on, the second black data is caused by reflected light from the black region R2a in the output of the second black data.
- the output is minute and most of the output is interference noise.
- the difference value (K2 j -K1 j ) between the output level of the second black data and the output level of the first black data can be generally regarded as interference noise.
- the difference value (K2 j ⁇ K1 j ) is linearly regressed, or the offset of the difference value (K2 j ⁇ K1 j ) for each sector is corrected.
- black correction data including interference noise is created. That is, data of point A ′ in FIG. 10 is created.
- each position in the sub-scanning direction other than the first position and the second position is obtained.
- the black correction data and the white correction data corresponding to can be obtained.
- the black correction data corresponding to each position in the sub-scanning direction other than the first position and the second position is linearly interpolated using the first black correction data and the second black correction data.
- the white correction data is calculated by linear interpolation using the first white correction data and the second white correction data.
- the shading correction By performing the shading correction using the point B), it is possible to perform the shading correction according to the actual output of the sensor 207 including interference noise in both the main scanning direction and the sub-scanning direction.
- the third black plate using the second reference plate 14b is started before starting a series of reading of the images of the plurality of documents S.
- the data and the second white data are acquired once, and the first black data, the second black data, and the first white data are acquired before reading the image of the document S every time the image is read.
- the shading correction of the image data of each document S includes the third black data and the second white data acquired once before every reading, the first black data and the first black data acquired every time before each reading.
- the black correction data and the white correction data corresponding to the sub-scanning position are created from the two black data and the first white data and executed.
- the image reading apparatus 10 includes the sensor module 102 including the light source 205 that irradiates the object and the plurality of sensors 207 that reads the reflected light from the object and acquires the image signal, and the black reference in the shading correction.
- An image processing unit 204 that creates black correction data to be used and white correction data to serve as a white reference, and an image processing unit that performs shading correction on the image signals acquired by the plurality of sensors 207 using the black correction data and the white correction data 207.
- the plurality of sensors 207 are arranged in the main scanning direction and configured to form one line of image signals extending in the main scanning direction by the respective image signals.
- the image processing unit 204 is configured to generate the black correction data based on intermediate data having a lightness level lighter than the black reference lightness level and darker than the white reference lightness level.
- the image processing unit 204 acquires second black data, which is intermediate data at the first position, based on the image signal of the first reference plate 14a that is arranged at the first position and extends in the main scanning direction. Based on the data, first black correction data that is black correction data at the first position is created.
- the image processing unit 204 is arranged at the second position based on the image signal of the second reference plate 14b that is arranged at the second position different from the first position in the sub-scanning direction and extends in the main scanning direction.
- Third black data that is data is acquired, and second black correction data that is black correction data at the second position is created based on the third black data.
- the image processing unit 204 creates black correction data corresponding to each position in the sub-scanning direction other than the first position and the second position based on the first black correction data and the second black correction data. .
- the image processing unit 204 performs shading correction using the black correction data at each position in the sub-scanning direction, thereby causing the image signals from the plurality of sensors 207 to interfere with each other.
- the density unevenness of the image in the sub-scanning direction is corrected.
- the second black data is acquired from the image signal of the first reference plate 14a
- the third black data is acquired from the second reference plate 14b
- the first black correction data is based on the second black data.
- the first black correction data including the interference noise in the main scanning direction at the first position and the interference noise in the main scanning direction at the second position are generated by generating the second black correction data based on the third black data.
- the second black correction data including can be obtained.
- black correction data in consideration of fluctuations in interference noise in the sub-scanning direction is also obtained for each position in the sub-scanning direction other than the first position and the second position. Can be calculated.
- the first reference plate 14a and the second reference member 14b have black areas R2a and R2b.
- the image processing unit 204 causes the plurality of sensors 207 to acquire an image signal with the light source 205 turned off at the first position, acquires first black data from the image signal, and uses the second black data as the light source 205. Is obtained based on the image signal of the black region R2a of the first reference plate 14a irradiated on the first reference plate 14a, and the first black correction data is created based on the first black data and the second black data.
- the image processing unit 204 creates the third black data based on the image signal of the black region R2b of the second reference plate 14b irradiated to the light source 205, and generates the second black correction data. Created based on the first black data and the third data.
- the first black data is black data having a darker gray level than the second black data and the third black data.
- the output level itself is small and the interference noise included is small.
- the first black data is black data with a dark gray level, but does not appropriately include interference noise.
- the second black data and the third black data contain a certain amount of interference noise although the gray level is lighter than that of the first black data. Therefore, the first black correction data is generated based on the first black data and the second black data, and the second black correction data is generated based on the first black data and the third black data. It is possible to acquire black correction data that appropriately includes interference noise at the respective positions of the first position and the second position.
- black correction data for performing shading correction in the main scanning direction is based on the first black correction data and the second black correction data. This makes it possible to create black correction data that takes into account fluctuations in interference noise in the sub-scanning direction.
- first reference plate 14a and the second reference plate 14b further have white regions R1a and R1b.
- the image processing unit 204 acquires first white data based on the image signal of the white region R1a of the first reference plate 14a irradiated to the light source 205 at the first position, and uses the white correction data at the first position. Certain first white correction data is created based on the first white data.
- the image processing unit 204 acquires second white data based on the image signal of the white region R1b of the second reference member 14b irradiated to the light source 205 at the second position, and the white at the second position.
- Second white correction data which is correction data, is created based on the second white data.
- the image processing unit 204 converts the white correction data corresponding to each position in the sub-scanning direction other than the first position and the second position for performing shading correction in the main scanning direction into the first white correction data and the first white correction data. 2 based on white correction data.
- the image processing unit 204 performs shading correction using the black correction data and the white correction data at each position in the sub-scanning direction.
- the first white correction data and the second white correction data are correction data including interference noise.
- white correction data corresponding to each position in the sub-scanning direction other than the first position and the second position is created based on the first white correction data and the second white correction data.
- White correction data in consideration of fluctuations in interference noise can be created.
- shading correction is performed between the black correction data considering the fluctuation of interference noise in the sub-scanning direction and the white correction data considering the fluctuation of interference noise in the sub-scanning direction. Appropriate shading correction can be performed.
- the image processing unit 204 when the image processing unit 204 continuously reads the images of the plurality of documents S, the image processing unit 204 reads at least one of the third black data and the second white data before starting a series of reading of the images of the plurality of documents S.
- the first black data, the second black data, and the first white data are acquired every time each image of the plurality of documents S is read.
- the sensor module 102 when acquiring the third black data and the second white data, the sensor module 102 needs to move to the second position to acquire the image of the second reference plate 14b. If the third black data and the second white data are to be acquired every time the images of the plurality of documents S are read, the sensor module 102 moves to the position of the second reference plate 14b every time one document S is read. In particular, in an image reading apparatus having a wide document placement area 4, the time required to read a series of images of a plurality of documents S becomes long. Therefore, the acquisition of the third black data and the second white data is performed at least once before starting a series of readings, and is not performed every time the document S is read.
- the acquisition of the first black data, the second black data, and the first white data is performed using the first reference plate 14a arranged at the first position around the reading start position of the sensor module 102, the data This is performed every time the image of the document S is read without taking a long time. By doing so, it is possible to correct a change in shading over time such as temperature characteristics.
- the acquisition of the third black data and the second white data is not performed every time the images of the plurality of documents S are read, but is performed only once before a series of reading of the images of the plurality of documents S is started. It is not limited to things.
- the series of readings of the plurality of documents S is interrupted, and the sensor The module 102 may be moved to the second position, and the third black data and the second white data may be acquired using the second reference plate 14b.
- Embodiment 2 In the second embodiment, a case where the reference sheet 3 is used for obtaining the third black data and the second white data will be described. That is, in Embodiment 2, the reference sheet 3 is the second reference member.
- FIG. 15 is a flowchart of image data acquisition by the image reading apparatus 10.
- the data acquisition operation is started by performing the data acquisition operation via the operation unit (not shown) of the image reading apparatus 10.
- FIG. 16 is a schematic diagram of the reference sheet 3.
- the reference sheet 3 is used to acquire data necessary for creating shading correction data, and is attached to the image reading apparatus 10.
- the reference sheet 3 is provided with a white region R1b and a black region R2b.
- the light reflectance of the white region R1b is substantially 100%.
- the lengths of the white region R1b and the black region R2b in the main scanning direction are at least longer than the sensor module 102 (more specifically, the sensor 207).
- the size of the white region R1b and the black region R2b in the sub-scanning direction is larger than the size of the sensor 207 in the sub-scanning direction.
- the user sets the reference sheet 3 at a predetermined position on the FB glass 12. At this time, the positions of the white region R1b and the black region R2b of the reference sheet 3 are the second positions. As the second position, it is desirable to arrange the sensor module 102 in the vicinity of the reading end position.
- the material of the reference sheet 3 may be paper or other than paper. Further, the reference sheet 3 may be a sheet in which the image reading device 10 prints the white region R1b and the black region R2b on a sheet.
- the image processing unit 204 moves the sensor module 102 to a position facing the black region R2b of the reference sheet 3 in step S301.
- the black region R2b is irradiated by the light source 205 to acquire an image of the black region R2b. That is, the image processing unit 204 receives the light reflected by the black region R2b and converts the light into an image signal. At this time, although the subject is black, the light emitted from the light source 205 and reflected by the black region R2b is received. Therefore, the image data based on the third image signal at this time does not represent the output level of the sensor 207 having the darkest gray level, but the sensor 207 having a relatively dark gray level and a color close to black. Represents the output level. The image data having a relatively dark gray level and a color close to black is so-called intermediate data. The image processing unit 204 stores this image data in the memory 203 as third black data.
- the third black data is an example of intermediate data at the second position.
- the image processing unit 204 moves the sensor module 102 to a position facing the white region R1b of the reference sheet 3 in step S303.
- the image processing unit 204 acquires the second white data. Specifically, the image processing unit 204 acquires an image of the white region R1b of the reference sheet 3 with the light source 205 turned on. Since the reflectance of the white region R1b is substantially 100%, the image data based on the image signal at this time, that is, the white data, represents the output level of the sensor 207 having the lightest gray level and the lightest white. . The image processing unit 204 stores the second white data in the memory 203 as second white correction data.
- the image processing unit 204 detects the home position in step S305, and moves the sensor module 102 to a position facing the white region R1a of the first reference plate 14a in step S306.
- step S307 the image processing unit 204 executes calibration.
- the image processing unit 204 moves the sensor module 102 to a position facing the black region R2a in step S308, and in step S309, turns on the light source 205 to acquire an image
- the base image data is stored in the memory 203 as second black data.
- the second black data is an example of intermediate data at the first position.
- step S310 the image processing unit 204 moves the sensor module 102 to the white region R1a.
- step S311 the image processing unit 204 acquires an image by turning off the light source 205, and uses the image data as first black data as a memory. Save to 203.
- the first black data is an example of black data.
- step S312 the image processing unit 204 turns on the light source 205 to acquire an image of the white region R1a of the first reference plate 14a, and the image data based on this image signal, that is, white data is converted to the first white plate. It is stored in the memory 203 as correction data.
- the influence of crosstalk in the main scanning direction and the sub-scanning direction can be reduced.
- the reference sheet 3 is used for obtaining the third black data and the second white data.
- the correction value in the actual document placement area is calculated in order to place the reference sheet on the document placement area and calculate the black correction data and the white correction data corresponding to each position in the sub-scanning direction. Can be calculated, and the accuracy of correction is improved.
- the number of parts can be reduced, and the configuration of the image reading apparatus 10 can be simplified.
- the following embodiment may be configured as follows.
- the case where the plurality of sensors 207 are divided into three sectors has been described, but the number of divisions of the sectors is not limited.
- the scanner unit 11 is connected to the controller 100 via the FFC 15, it is not limited to this.
- a wiring for connecting the scanner unit 11 and the controller 100 any communication cable can be adopted.
- the scanner unit 11 and the controller 100 may be connected by an FPC (Flexible Printed Circuits) or the like.
- correction data is created (step S2) after completion of acquisition of all data (step S1).
- the data is being acquired and the image of the first reference plate 14a is being acquired. Is obtained (for example, before obtaining the image of the second reference plate 14b) at the time when the data (first black data, second black data, first white data) based on the first reference data 14b can be obtained.
- Correction data may be created (step S2). Further, the acquisition of the third black data and the second white data may be performed before the acquisition of the first black data or the like.
- the image processing unit 204 functions as a data creation unit and a correction unit.
- the data creation unit and the correction unit may be separate elements.
- the data creation unit and the correction unit do not have to be the image processing unit 204, and a processor different from the image processing unit 204 may function as the data creation unit or the correction unit.
- the second black data and the third black data are acquired based on the images of the black regions R2a and R2b of the first reference plate 14a and the second reference plate 14b irradiated to the light source 205.
- the light intensity of the light source can be adjusted in a plurality of stages, and the light intensity can be adjusted based on the image signals of the white areas R1a and R1b irradiated at a lower light intensity than when the first white data and the second white data are acquired. Good.
- the correction data is created at two positions of the first position and the second position has been described.
- the present disclosure is not limited to this, and the shading correction data is generated at three or more positions in the sub-scanning direction. May be created.
- the present disclosure is suitable for use in an image reading apparatus that reads an image such as a document.
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Facsimile Scanning Arrangements (AREA)
- Image Input (AREA)
Abstract
画像読取装置は、シェーディング補正に用いる補正データを作成し、該補正データを用いてシェーディング補正を行う画像処理部(204)を備えている。画像処理部(204)は、所定の濃淡レベルの中間データを作成するよう構成され、副走査方向においてそれぞれ異なる位置に配置された第1基準板及び第2基準板の画像信号に基づいてそれぞれの位置における中間データを作成し、第1及び第2黒補正データをそれぞれの中間データに基づいて作成し、副走査方向に応じた黒補正データを両黒補正データに基づいて作成し、副走査方向の各位置における黒補正データを用いてシェーディング補正を行う。
Description
本開示は、対象物の画像を読み取る画像読取装置に関する。
特許文献1は、白基準板を備えており、光源を点灯させて白基準板の画像を取得したときのセンサの出力から白基準データを取得する一方、光源を消灯した状態のセンサの出力から黒基準データを取得する画像読取装置を開示している。この画像読取装置は、こうして取得した白基準データ及び黒基準データに基づいてシェーディング補正を行っている。
また、特許文献2は、主走査方向に加え、副走査方向についても白基準レベルを定め、副走査方向の白基準レベルから算出した補正値を用いて、主走査方向の白基準レベルを補正する画像読取装置を開示している。
本開示の画像読取装置は、対象物の画像を読み取る画像読取装置であって、対象物を照射する光源と、対象物からの反射光を読み取って画像信号を取得する複数のセンサとを有するセンサモジュールと、シェーディング補正における黒基準となる黒補正データと白基準となる白補正データとを作成するデータ作成部と、複数のセンサで取得した画像信号に黒補正データ及び白補正データを用いてシェーディング補正を行う補正部と、を備える。
複数のセンサは、主走査方向に配列され、それぞれの画像信号によって主走査方向に延びる1ラインの画像信号を形成するように構成される。
データ作成部は、黒補正データを、黒基準の濃淡レベルよりも薄くかつ白基準の濃淡レベルよりも濃い濃淡レベルの中間データに基づいて作成するよう構成される。まず、データ作成部は、第1の位置に配置され且つ主走査方向に延びる第1基準部材の画像信号に基づいて中間データを取得し、中間データに基づいて第1の位置における黒補正データである第1黒補正データを作成する。次に、データ生成部は、副走査方向において第1の位置とは異なる第2の位置に配置され且つ主走査方向に延びる第2基準部材の画像信号に基づいて中間データを取得し、中間データに基づいて第2の位置における黒補正データである第2黒補正データを作成する。次に、データ生成部は、第1の位置及び第2の位置以外の副走査方向の各位置に応じた黒補正データを第1黒補正データと第2黒補正データとに基づいて作成する。
補正部は、副走査方向の各位置における黒補正データを用いてシェーディング補正を行うことにより、複数のセンサからの画像信号が互いに干渉し合うことに起因する、主走査方向及び副走査方向における画像の濃度ムラを補正する。
この構成により、画像読取装置は、副走査方向の各位置における補正データを用いてシェーディング補正を行う。これにより、複数のセンサからの画像信号が干渉し合うことによる主走査方向及び副走査方向における画像の濃度ムラを低減することができる画像読取装置を提供することができる。
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。ただし、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。
なお、発明者らは、当業者が本開示を十分に理解するために添付図面及び以下の説明を提供するのであって、これらによって請求の範囲に記載の主題を限定することを意図するものではない。
(開示の背景)
原稿を読み取って画像データを作成するスキャナ等の画像読取装置では、CCD(Charge Coupled Device)やCIS(Contact Image Sensor)等のセンサモジュールの各受光素子のばらつきや、レンズ中心部と周辺部での集光度の差や、光源の光量分布のムラ等により、画素の位置に依存した歪みを生ずる。
原稿を読み取って画像データを作成するスキャナ等の画像読取装置では、CCD(Charge Coupled Device)やCIS(Contact Image Sensor)等のセンサモジュールの各受光素子のばらつきや、レンズ中心部と周辺部での集光度の差や、光源の光量分布のムラ等により、画素の位置に依存した歪みを生ずる。
これに対して、得られた画像データにシェーディング補正を行う画像読取装置が知られている。また、そのような画像読取装置を備えた複合機、複写機等の画像形成装置も知られている。
ところで、複数のセンサが主走査方向に配列され、それぞれの画像信号によって主走査方向に延びる1ラインの画像信号を形成する構成においては、複数のセンサからの出力が互いに干渉し合うことに起因して、画像の濃度ムラが発生する場合がある。このような濃度差は、前述のようなシェーディング補正だけでは十分に補正できない。
特に、A3サイズの用紙に対応した画像読取装置等の読取領域が広いものに関しては、主走査方向だけでなく副走査方向においても画像の濃度ムラが起こり得るため、副走査方向に対しても適切な補正を行う必要がある。
そこで、このような問題を解決するために、本開示では、複数のセンサからの画像信号が干渉し合うことによる主走査方向及び副走査方向における画像の濃度ムラを低減する画像読取装置を提供する。
以下、例示的な実施形態を図面に基づいて詳細に説明する。
(実施の形態1)
[1.構成]
[1-1.複合機]
実施の形態1における画像読取装置10を備える複合機1のハードウェア構成について、図1、図2を用いて説明する。図1は、実施の形態1における画像読取装置の複合機の斜視図である。図2は、実施の形態1における複合機の断面図である。
[1.構成]
[1-1.複合機]
実施の形態1における画像読取装置10を備える複合機1のハードウェア構成について、図1、図2を用いて説明する。図1は、実施の形態1における画像読取装置の複合機の斜視図である。図2は、実施の形態1における複合機の断面図である。
複合機1は、メインユニット2と、メインユニット2の上部に搭載された画像読取装置10とを備えている。複合機1は、画像読取装置10によるスキャン機能に加え、その他の機能(例えば、プリント機能、コピー機能、ファクシミリ送受信機能など)を有している。メインユニット2は、複合機1の機能に応じた構成を有している。
画像読取装置10は、図1、図2に示すように、FB(フラットベッド)型イメージスキャナである。画像読取装置10は、スキャナユニット11と、FBガラス12と、ADFガラス13と、第1基準板14aと、第2基準板14bと、ADF(Auto Document Feeder)16と、コントローラ100(図5参照)とを有している。
FBガラス12及びADFガラス13は、メインユニット2の上面に設けられている。FBガラス12は、メインユニット2の上面の大部分を占めている。FBガラス12上には、読取対象である原稿Sが載置される。
ADFガラス13は、ADF16により給紙される原稿Sを読み取る。ADF16は、原稿Sを自動的に供給する。
ADF16は、FBガラス12及びADFガラス13を覆うようにして、メインユニット2上に配置されている。
スキャナユニット11は、読取対象の画像を取得する。スキャナユニット11は、メインユニット2内において、FBガラス12及びADFガラス13の裏面に沿って移動するように構成されている。このスキャナユニット11の移動する方向を副走査方向と称する。FBガラス12とADFガラス13は、副走査方向に並んでいる。
スキャナユニット11は、モータ(図示省略)により駆動され、ガイド(図示省略)に沿って副走査方向に移動する。モータは、コントローラ100に制御されている。スキャナユニット11は、FFC(フレキシブルフラットケーブル)15を介してコントローラ100に接続されている。FFC15は、内部に信号線を有する通信ケーブルである。FFC15は、スキャナユニット11がその可動範囲内でスムーズに移動できるように、余裕を持った長さと可撓性を有している。スキャナユニット11は、センサモジュール102(図3参照)を有している。
第1基準板14aと、第2基準板14bは、シェーディング補正用データを取得するための基準部材である。第1基準板14aは、メインユニット2の上部であって、FBガラス12とADFガラス13との間の位置に配置されている。第2基準板14bは、メインユニット2の上部であって、スキャナユニット11の副走査方向の可動範囲の終端位置に配置されている(図4参照)。すなわち、第1基準部材14aと第2基準部材14bとは副走査方向に間隔を開けて配置されている。第1基準板14a、第2基準板14bは、メインユニット2の内方を向くように、即ち、スキャナユニット11と対向するように配置されている。
図3は、実施の形態1におけるセンサモジュール102の概略図である。センサモジュール102は、本実施形態では、密着イメージセンサ方式、即ち、CISタイプである。センサモジュール102は、光源205と、複数のセンサ207とを有している。
複数のセンサ207は、副走査方向と直交する主走査方向に配列されている。典型的には、センサ207は、センサICであって、例えば、CMOSイメージセンサである。1つのセンサ207には、主走査方向に配列された複数の画素(光電変換部)が含まれている。センサ207の上方には、ロッドレンズアレイ(図示省略)が設けられている。ロッドレンズアレイで集光された光がセンサ207に入射する。
複数のセンサ207は、複数のセクタに分割され、受光した光を画像信号に変換し、変換した画像信号をセクタ毎に出力する。つまり、セクタとは、画像信号を一纏まりで出力するセンサ207のグループである。例えば、センサ207の個数が12個であって、3つのセクタに分割されている場合、各セクタには、4個のセンサ207が含まれる。センサ207は、FFC15を介して画像信号をコントローラ100に出力する。
光源205は、典型的にはLED(Light Emitting Diode)である。例えば、光源205は、レッド(R)、グリーン(G)、ブルー(B)の3つのLEDで形成される。光源205は、センサモジュール102において主走査方向の一端部(図3の左端)に配置されている。センサモジュール102は、導光体206を有している。光源205からの光は、導光体206を介して上方に向かって、即ち、FBガラス12、ADFガラス13又は第1基準板14a、第2基準板14bの方へ光を出射する。光源205及び導光体206は、センサ207の近傍に配置されている。従って、FBガラス12若しくはADFガラス13上の原稿又は第1基準板14a,第2基準板14bで反射した光は、ロッドレンズアレイを介してセンサ207に入射する。
図4は、第1基準板14a及び第2基準板14bの配置を示す図である。第1基準板14aと第2基準板14bとは、副走査方向に間隔を空けて配置されている。具体的には、第1基準板14aは原稿載置領域4の副走査方向の一端よりも外側に配置される。また第2基準板14bは原稿載置領域4の副走査方向の他端よりも外側に配置される。第1基準板14a、第2基準板14bは、いずれも主走査方向に延びている。第1基準板14a、第2基準板14bの主走査方向の長さは、少なくともセンサモジュール102(より具体的にはセンサ207)よりも長い。第1基準板14a、第2基準板14bは、いずれも少なくともセンサモジュール102と対向する面に、主走査方向においてセンサモジュール102の全長に亘って広がる白色領域R1a、白色領域R1bと黒色領域R2a、黒色領域R2bとを有している。白色領域R1a、白色領域R1bの光の反射率は、実質的に100%である。さらに、第1基準板14a、第2基準板14bには、それぞれ黒色領域R2a、黒色領域R2bよりも主走査方向の外側にホームポジションを示す基準パターンが設けられている。基準パターンは、画像処理部204が識別可能なパターンであれば、任意のパターンを採用することができる。例えば、基準パターンは、副走査方向に延びる複数の黒色の線が主走査方向に配列されたものであってもよい。尚、第1基準板14a及び第2基準板14bは、それぞれ第1基準部材及び第2基準部材の一例である。また、第1基準板14aの位置は第1の位置の一例であり、第2基準板14bの位置は第2の位置の一例である。
[1-2.画像読取装置]
図5は、実施の形態1における画像読取装置10のブロック図である。図5に示すように、画像読取装置10は、スキャナユニット11とコントローラ100を備える。
図5は、実施の形態1における画像読取装置10のブロック図である。図5に示すように、画像読取装置10は、スキャナユニット11とコントローラ100を備える。
コントローラ100は、スキャナユニット11の画像の読み取り動作を制御すると共に、スキャナユニット11から出力される画像信号に対して画像処理を行う。コントローラ100は、CPU101と、AFE(Analog Front End Circuit)103と、RAM(Random Access Memory)104と、ROM(Read Only Memory)105とを有している。
AFE103には、スキャナユニット11のセンサモジュール102からの画像信号(アナログ信号)が入力される。AFE103は、アナログ/デジタル変換器及び増幅器等を有している。AFE103は、センサモジュール102からの画像信号を増幅器で増幅し、オフセットを加減算し、アナログ/デジタル変換器でデジタル信号(画像データ)に変換して、CPU101に出力する。
RAM104は、CPU101により取得された画像データを格納する。ROM105は、CPU101での画像処理に必要な所定のプログラムを格納している。
CPU101は、読取制御部201と、DMAC(Direct Memory Access Controller)202と、メモリ203と、画像処理部204とを有している。
読取制御部201は、スキャナユニット11(センサモジュール102を含む)、ADF16及びAFE103の動作を制御する。例えば、読取制御部201は、ADF16にセットされた原稿Sを搬送するためのモータ(図示せず)の駆動を制御する。
画像処理部204は、AFE103から入力された画像信号に画像処理を施す。画像処理部204は、ROM105に格納されているプログラムを読み出し、読み出したプログラムを実行することにより画像処理を実行する。詳しくは後述するが、画像処理部204は、フィルタ処理やシェーディング補正等の様々な画像処理を実行する。画像処理部204は、データ作成部の一例であり、補正部の一例でもある。
DMAC202は、画像処理部204で画像処理して取得した画像信号を転送するデータ転送処理を行う。
メモリ203は、各種データを格納する。例えば、メモリ203には、シェーディング補正に用いるデータを格納する。
[1-3.動作]
[1-3-1.画像読取動作]
画像読取動作について説明する。図6は、画像読取装置10の画像読取動作のフローチャートである。
[1-3-1.画像読取動作]
画像読取動作について説明する。図6は、画像読取装置10の画像読取動作のフローチャートである。
画像読取動作は、画像読取装置10の電源がオンにされ、ユーザの操作を受けてスタートする。まず、ステップS1において、画像処理部204は、第1基準板14a及び第2基準板14bを用いてシェーディング補正に用いる第1補正データ及び第2補正データを作成するためのデータを取得する。次に、ステップS2において、画像処理部204は、ステップS1で取得したデータに基づいて、第1補正データ及び第2補正データを作成する。その後、ステップS3において、画像処理部204は、ステップS2で作成した第1補正データ及び第2補正データに基づいて、第1の位置及び第2の位置以外の副走査方向の各位置に応じた補正データを作成する。これらの補正データの作成が完了した後に、ステップS4にて、画像処理部204は、原稿の読取を実行する。このとき、画像処理部204は、読み取った画像信号に補正データを用いてシェーディング補正を施す。
[1-3-2.データ取得処理]
図7は、実施の形態1の画像読取装置10のデータ取得処理のフローチャートである。
図7は、実施の形態1の画像読取装置10のデータ取得処理のフローチャートである。
ユーザがデータ取得の操作を画像読取装置10の操作部(図示省略)を介して行うことによって、データ取得の処理が開始される。
まず、ステップS101において、画像処理部204は、センサモジュール102のホームポジションを検出する。具体的には、画像処理部204は、読取制御部201を介してセンサモジュール102を、メモリ203に記憶されているホームポジションへ移動させる。この位置は、暫定的なホームポジションである。そして、画像処理部204は、センサモジュール102にその位置で画像を取得させ、取得した画像から第1基準板14aの基準パターンが検出されるか否かを判定する。基準パターンが検出された場合、画像処理部204は、センサモジュール102の現在の位置が正確なホームポジションであると判定する。基準パターンが検出されない場合は、画像処理部204は、センサモジュール102を副走査方向の一方側へ所定量だけ移動させ、その位置で画像を取得させ、取得画像から基準パターンが検出されるか否かを判定する。画像処理部204は、基準パターンが検出されるまでこの処理を繰り返す。ただし、画像処理部204は、センサモジュール102を暫定的なホームポジションから副走査方向の一方側へある程度移動させても、基準パターンが検出されない場合には、センサモジュール102を暫定的なホームポジションへ戻し、そこから副走査方向の他方側に向かって前述の処理を繰り返す。画像処理部204は、基準パターンが検出されるまで、センサモジュール102の副走査方向の他方側への移動を継続する。基準パターンが検出されると、画像処理部204は、ホームポジションの検出を完了する。画像処理部204は、検出されたホームポジションの位置をメモリ203に記憶し、次回のホームポジションの検出においては、メモリ203に記憶したホームポジションを暫定的なホームポジションとして用いる。
次に、ステップS102において、画像処理部204は、読取制御部201を介してセンサモジュール102を、第1基準板14aの白色領域R1aと対向する位置へ移動させる。基準パターンと白色領域R1aとの副走査方向の距離は既知であるので、画像処理部204は、センサモジュール102を、ステップS102で検出したホームポジションに基づいて、白色領域R1aと対向する位置まで正確に移動させることできる。
センサモジュール102が白色領域R1aと対向する位置まで移動すると、ステップS103において、画像処理部204は、キャリブレーションを実行する。例えば、画像処理部204は、光源205の点灯時間の設定、AFE103の設定等の初期設定を行う。光源205の点灯時間の設定を行うことによって、複数のセンサ207から出力される画像信号の出力レベルを揃えることができる。
キャリブレーションが完了すると、ステップS104において、画像処理部204は、読取制御部201を介してセンサモジュール102を、検出したホームポジションに基づいて、第1基準板14aの黒色領域R2aと対向する位置へ移動させる。
次に、ステップS105において、画像処理部204は、光源205により黒色領域R2aを照射し(光源ON)、黒色領域R2aの画像を取得する。すなわち、画像処理部204は、黒色領域R2aで反射した光を受光し、受光した光を画像信号に変換する。このとき、被写体は黒色であるものの、光源205から出射され黒色領域R2aで反射した光を受光している。そのため、このときの画像信号は、第1の位置における濃淡レベルが最も濃い黒色の、センサ207の出力レベルを表すものではないが、濃淡レベルが比較的濃くて黒色に近い色の、センサ207の出力レベルを表している。この濃淡レベルが比較的濃くて黒色に近い色の画像データがいわゆる中間データである。画像処理部204は、この画像データを第2黒データとして、メモリ203に保存する。第2黒データは第1の位置における中間データの一例である。
第2黒データの取得が完了すると、ステップS106において、画像処理部204は、読取制御部201を介してセンサモジュール102を、再び第1基準板14aの白色領域R1aと対向する位置へ移動させる。
次に、ステップS107において、画像処理部204は、光源205を消灯した状態(光源OFF)で画像を取得する。この場合、光源205が消灯しているので、センサ207には、少なくとも光源205から出射し、被写体で反射した光は入射していない。つまり、このときの画像データは、第1の位置における濃淡レベルの最も濃い黒色のセンサ207の出力レベルを表すものである。この画像データがいわゆる黒データである。画像処理部204は、この画像データを第1黒データとして、メモリ203に保存する。第1黒データは黒データの一例である。
ステップS108において、画像処理部204は、光源205を点灯した状態(光源ON)で画像を取得する。このときセンサモジュール102は、第1基準板14aの白色領域R1aと対向している。従って、センサモジュール102は、白色領域R1aの画像を取得する。白色領域R1aの反射率は実質的に100%であるので、このときの画像信号に基づく画像データ、即ち白データは、第1の位置における濃淡レベルの最も薄い白色の、センサ207の出力レベルを表すものである。画像処理部204は、この白データを第1白補正データとして、メモリ203に保存する。
続いて、ステップS109において、画像処理部204は、読取制御部201を介してセンサモジュール102を第2の位置へと移動させ、第2基準板14bの読取位置を検出する。具体的には、ステップS101のホームポジション検出と同様に、センサモジュール102をメモリ203に記憶されている検出位置へ移動させ、センサモジュール102にその位置で画像を取得させる。画像から基準パターンが検出された場合、画像処理部204は、センサモジュール102の現在の位置が正確な読取位置と判定する。また、基準パターンが検出されなかった場合、画像処理部204は、基準パターンが検出されるまで、センサモジュール102の移動と画像の取得とを繰り返す。
読取位置の検出が完了したら、ステップS110において、画像処理部204は、読取制御部201を介してセンサモジュール102を、第2基準板14bの白色領域R1bと対向する位置へ移動させる。
次に、ステップS111において、画像処理部204は、キャリブレーションを実行し、光源205の点灯時間の設定、AFE103の設定等の設定を行う。
キャリブレーションが完了したら、ステップS112において、画像処理部204は、読取制御部201を介してセンサモジュール102を第2基準板14bの黒色領域R2bに対向する位置へと移動させる。尚、移動の際は、第2基準板14bの基準パターンを検知することでセンサモジュール102の位置を決めてもよい。
次に、ステップS113において、画像処理部204は、読取制御部201を介して、光源205により黒色領域R2aを照射し(光源ON)、黒色領域R2aの画像を取得する。このときの画像信号に基づく画像データは、第2の位置における濃淡レベルが比較的濃くて黒色に近い色の、センサ207の出力レベルを表している。画像処理部204は、取得した画像データを第3黒データとして、メモリ203に保存する。第3黒データは第2の位置における中間データの一例である。
第3黒データの取得が完了すると、ステップS114において、画像処理部204は、読取制御部201を介してセンサモジュール102を第2基準板14bの白色領域R1bに対向する位置へと移動させる。
次に、ステップS115において、画像処理部204は、読取制御部201を介して、光源205により白色領域R1bを照射し(光源ON)、白色領域R1bの画像を取得する。このときの画像信号に基づく画像データ、即ち白データは、第2の位置における濃淡レベルの最も薄い白色の、センサ207の出力レベルを表すものである。画像処理部204は、この白データを第2白補正データとして、メモリ203に保存する。
[1-3-3.第1の位置及び第2の位置における補正データの作成]
画像処理部204は、主走査方向のシェーディング補正の黒基準となる第1黒補正データ及び第2黒補正データを、データ取得処理で取得された第1黒データ、第2黒データ及び第3黒データから作成する。第1黒データ、第2黒データ及び第3黒データを用いて第1黒補正データ及び第2黒補正データを作成することによって、後述する主走査方向のクロストークに起因する濃度ムラの影響を低減することができる。
画像処理部204は、主走査方向のシェーディング補正の黒基準となる第1黒補正データ及び第2黒補正データを、データ取得処理で取得された第1黒データ、第2黒データ及び第3黒データから作成する。第1黒データ、第2黒データ及び第3黒データを用いて第1黒補正データ及び第2黒補正データを作成することによって、後述する主走査方向のクロストークに起因する濃度ムラの影響を低減することができる。
複数のセンサ207からの画像信号がその伝送路において互いに干渉し合い(クロストーク)、画像信号にノイズが発生する場合がある。特に、センサ207のように、FFC15を介して画像信号を出力させる構成においては、FFC15の折り曲げによってクロストークが発生し易くなる。
図8は、センサ207の出力レベルの一例を示す図である。図8において、一点鎖線M1はクロストークが無い場合であり、実線M2はクロストークが有る場合である。図8の縦軸は、センサ207の出力レベルを表し、横軸は、センサ207の各画素の主走査方向の位置を表している。例えば、反射率が均一な被写体を撮像した場合の画素ごとの出力レベルは、クロストークが無い場合には、画素間の個体差が無いと仮定すれば、図8の一点鎖線M2で示すように実質的に一定となる。しかし、クロストークが発生すると、図8の実線M1で示すように、画素ごとの出力レベルは、各セクタ内で変化するようになる。例えば、図8に示すように、各セクタ内の画素ごとの出力レベルは、セクタの一端側から他端側に向かって線形的に大きくなる。さらに、各セクタ内で画素ごとの出力レベルに差が生じると、セクタが切り替わる部分で出力レベルに段差が生じるようになる。
図9Aは、原稿の画像を示す図である。図9Bは、従来のシェーディング補正後の読取画像を示す図である。図9Cは、シェーディング補正後の読取画像を示す図である。
図9Aは、原稿Sの画像例を示す。図9Bは、原稿Sの画像を読み取った後に従来のシェーディング補正を行った読取画像を示す。クロストークによるノイズが発生すると、図9Bに示すように、読取画像において、濃度ムラが発生する。図9Bの読取画像においては、センサ207のセクタの境界に相当する部分に濃度ムラが発生している。
また、図10は、濃淡レベルに対するセンサ207の出力レベルの関係を示すグラフである。センサ207の各画素は、光量に応じた電圧の信号を出力する。光量に応じた電圧の変化はセンサ207の特性に依存する。例えば、光量に応じて電圧が線形的に変化する場合、電圧の理想的な変化は、一点鎖線L1に示すようになる。しかしながら、クロストークに起因するノイズ(以下、「干渉ノイズ」という)が出力信号に重畳されると、電圧の変化は実線L2に示すような態様となる。つまり、濃淡レベルが最も濃い黒の場合には出力レベルが小さいため、干渉ノイズもほとんど現れない。しかしながら、濃淡レベルが黒から少し薄くなると、センサ207の出力レベルが上昇し、それに伴い、干渉ノイズも大きくなる。
従来の典型的なシェーディング補正では、光源205を消灯させた状態(点A)で画像データを取得し、それを黒基準となる黒補正データとする。また、光源205を点灯させた状態(点B)で白色の画像データを取得し、それを白基準となる白補正データとする。このようにして取得された黒補正データ及び白補正データを用いてシェーディング補正が行われることによって、画素ごとのオフセットや画素ごとのゲイン(ダイナミックレンジ)が補正される。ところが、光源205を消灯させた状態での画像信号には、干渉ノイズの影響が現れ難い。そのため、点Aと点Bにおける画像データを用いてシェーディング補正を行うと、実際のセンサ207の出力特性とは異なる、二点鎖線L3で示すような特性に基づいてシェーディング補正を行うことになってしまい、シェーディング補正を適切に行うことができない。
そこで、本開示の画像読取装置10は、光源205を消灯させた状態の第1黒データと光源205を点灯させた状態の第2黒データ及び第3黒データとを用いることによって第1黒補正データ及び第2黒データを作成する。
図11は、実施の形態1における画像読取装置10の補正データ作成処理の前段のフローチャートである。図12は、実施の形態1における画像読取装置10の補正データ作成処理の後段のフローチャートである。図13は、各セクタにおける差分値の回帰直線を示す図である。尚、第2黒補正データは第1黒補正データと同様のフローで作成されるため、以下では第1黒データの作成処理のみを説明する。
以下の説明では、センサ207のセクタの個数を3個、主走査方向の画素の個数をn個とする。また、セクタをSi(i=0~2)、画素をXj(j=0~n-1)で表す。セクタS0は、センサ207において主走査方向の一端に位置するセクタであり、セクタS1は、セクタS0に隣接するセクタであり、セクタS2は、セクタS1に隣接し且つセンサ207において主走査方向の他端に位置するセクタである。画素については、画素X0は、センサ207において主走査方向の一端の画素であり、画素番号jが大きくなるにつれて主走査方向の他端側の画素となり、画素Xn-1は、センサ207において主走査方向の他端の画素である。
ステップS201において、画像処理部204は、画素番号jを0にセットする。また、ステップS202において、画像処理部204は、セクタ番号iを0にセットする。
次に、ステップS203において、画像処理部204は、各セクタにおいて後述の差分値の演算を行う領域(ウインドウ)を設定する。詳しくは、図8に示すように、各セクタにおいて、主走査方向の一端部と他端部とにウインドウを設定する。各ウインドウの幅は、所定の個数の画素が含まれるように設定される。図8において、セクタS0においては、主走査方向の一端部に開始ウインドウR1、他端部に終了ウインドウR2が設定される。同様に、セクタS1においては、主走査方向の一端部に開始ウインドウR3、他端部に終了ウインドウR4が設定される。また、セクタS2においては、主走査方向の一端部に開始ウインドウR5、他端部に終了ウインドウR6が設定される。
ステップS204において、画像処理部204は、画素Xjがウインドウ内に含まれているか否かを判定する。例えば、ステップS201を経て直後は、j=0なので、画素Xjは、セクタS0の開始ウインドウR1内に含まれる。
画素Xjがウインドウ外である場合には、画像処理部204は、ステップS205において画素番号jをインクリメントして、ステップS204の処理を再び実行する。つまり、画像処理部204は、次の画素Xjがウインドウ内に含まれるかを判定する。
一方、画素Xjがウインドウ内である場合には、画像処理部204は、ステップS206において、第2黒データの画素Xjの出力レベルK2jと第1黒データの画素Xjの出力レベルK1jとの差分値(K2j-K1j)を求め、求めた差分値をメモリ203に保存する。
その後、ステップS207において、画像処理部204は、画素XjがセクタSiにおける最終画素であるか否かを判定する。画素Xjが最終画素でない場合には、画像処理部204は、ステップS205において画素番号jをインクリメントして、ステップS204の処理を再び実行する。
一方、画素Xjが最終画素である場合には、画像処理部204は、ステップS208において、セクタSiの差分値の回帰直線を求める。具体的には、画像処理部204は、図13に示すように、セクタSiの開始ウインドウに含まれる画素の差分値及び終了ウインドウに含まれる画素の差分値の回帰直線yi(x)=ai×x+bi(x:セクタ内での画素位置)、yi:差分値、i:セクタ番号、ai:回帰直線係数(傾き)、bi:回帰直線係数(定数項))を求める。画像処理部204は、求めた回帰直線計数ai,biをメモリ203に格納する。図13においては、点線y0はセクタS0の回帰直線、実線y2はセクタS1の回帰直線、一点鎖線y3はセクタS2の回帰直線を示す。
次に、ステップS209において、画像処理部204は、セクタ番号iが「2」より小さいか否かを判定する。セクタ番号iが「2」より小さい場合には、画像処理部204は、ステップS210においてセクタ番号iをインクリメントして、ステップS203の処理を再び実行する。つまり、回帰直線の算出を行ったセクタSiが最後のセクタ(即ち、セクタS2)でない限り、セクタSiを次のセクタSi+1に変更して、回帰直線の算出を繰り返す。
一方、セクタ番号iが「2」以上の場合、即ち、セクタ番号が2の場合には、画像処理部204は、補正データの作成の前段の処理を終了する。
続いて、画像処理部204は、補正データの作成の後段の処理を実行する。詳しくは、画像処理部204は、ステップS211において、図13に示すように、メモリ203に格納されているセクタS0、セクタS1及びセクタS2の3つの回帰直線y0~y2のうち、最小値となる最小差分値yminを求める(ymin=min(yi))。すなわち、各セクタの回帰直線における最小値のうち、3つのセクタで最も小さい最小値が最小差分値yminとなる。
次に、画像処理部204は、ステップS212において、画素番号jを0にセットする。続いて、画像処理部204は、ステップS213において、セクタ番号iを0にセットする。
そして、画像処理部204は、ステップS214において、最小差分値yminを用いて、第1黒データの画素Xjの出力レベルK1jを補正して第1黒補正データを求める。具体的には、第1黒補正データの画素Xjの補正値Kjは、以下の式で表される。
Kj=K1j+(yi(x)-ymin)
次に、画像処理部204は、ステップS215において、画素XjがセクタSiにおける最終画素であるか否かを判定する。画素Xjが最終画素でない場合には、画像処理部204は、ステップS216において画素番号jをインクリメントして、ステップS214の処理を再び実行する。
次に、画像処理部204は、ステップS215において、画素XjがセクタSiにおける最終画素であるか否かを判定する。画素Xjが最終画素でない場合には、画像処理部204は、ステップS216において画素番号jをインクリメントして、ステップS214の処理を再び実行する。
一方、画素Xjが最終画素である場合には、画像処理部204は、ステップS217において、セクタ番号iが「2」より小さいか否かを判定する。セクタ番号iが「2」より小さい場合には、画像処理部204は、ステップS218においてセクタ番号iをインクリメントして、ステップS214の処理を再び実行する。つまり、黒補正データの算出を行ったセクタSiが最後のセクタ(即ち、セクタS2)でない限り、セクタSiを次のセクタSi+1に変更して、黒補正データの算出を繰り返す。
一方、セクタ番号iが「2」以上の場合、即ち、セクタ番号が2の場合には、画像処理部204は、補正データの作成の後段の処理を終了する。
このように、画像処理部204は、各セクタの差分値yi(x)から最小差分値yminを減算した値を、第1黒データの出力レベルK1jに加算して黒補正データの補正値Kjを求める。
[1-3-4.副走査方向の各位置に応じた補正データの作成]
第1の位置及び第2の位置以外の副走査方向の各位置に応じた黒補正データ及び白補正データの算出について説明する。
第1の位置及び第2の位置以外の副走査方向の各位置に応じた黒補正データ及び白補正データの算出について説明する。
FFC15を介して画像信号を出力させる構成においては、FFC15の折り曲げによってクロストークが発生し易くなる。図2に示すように、FFC15は、スキャナユニット11が第1の位置(第1基準板14aの位置)のように読取開始位置の周辺に位置している場合は、大部分が重なった状態である。FFC15は、スキャナユニット11が第1の位置から副走査方向に移動するにつれて重なった部分が減少していく。FFC15は、スキャナユニット11が第2の位置(第2基準板14bの位置)のように読取終端位置の周辺に位置している場合は、ほとんど延びきった状態となり、重なる部分は少ない。このようにFFC15の重なりが変動すると、FFC15の折り曲げに起因する干渉ノイズの大きさも変動する。
図14は、典型的な副走査方向の位置に対するセンサ207の出力レベルを示すグラフである。図14において、第1の位置は本実施の形態の第1の位置に対応し、第2の位置は本実施の形態の第2の位置に対応する。また、図中の中塗りの丸は黒色の出力レベルを表し、中抜きの丸は白色の出力レベルを表している。B1は第1の位置で取得した黒色の出力レベル、B2は、第2の位置で取得した黒色の出力レベルである。また、W1は第1の位置で取得した白色の出力レベル、W2は第2の位置で取得した白色の出力レベルである。
各位置で取得した画像信号の出力レベルには干渉ノイズが含まれている。しかし、各位置でFFC15の重なり具合が異なることから、干渉ノイズの大きさは異なる。そのため、副走査方向の位置により出力レベルは変動する。このとき、白色の出力レベルの方が含まれている干渉ノイズが大きいことから、干渉ノイズの変動による影響も大きくなる。すなわち、黒色の出力レベルと比べて白色の出力レベルの方が大きく変動する。これにより、第1の位置と第2の位置とで白色の出力レベルと黒色の出力レベルとの出力レベルの差が変動する。図14の場合、B3で示す黒色レベルB1とB2の差より、W3で示す白色レベルW1とW2の差が大きくなっているのが分かる。
そのため、第1の位置における補正データを用いて第2の位置における画像データをシェーディング補正してしまうと、階調が合わずに図9Bに示す画像の濃度ムラが副走査方向でも発生することとなる。
そこで、本開示の画像読取装置10では、第1補正データと第2補正データとを用いて、第1の位置及び第2の位置以外の副走査方向の各位置に対しても、それぞれの副走査方向の各位置に応じた補正データを求め、その補正データを用いてシェーディング補正を行う。尚、図14では第1の位置の出力レベルの方が第2の位置の出力レベルと比べ低下する場合を示しているが、装置の構成や環境変数等により第2の位置の出力レベルの方が第1の位置の出力レベルよりも大きくなる場合もある。
以下の説明では、副走査方向の画素の個数をm個とし、画素をXl(l=0~m-1)で表す。画素は、画素X0は、センサ207において副走査方向の一端の画素であり、画素番号lが大きくなるにつれて副走査方向の他端側の画素となり、画素Xm-1は、センサ207において副走査方向の他端の画素である。ここではX0が第1基準板14aの副走査方向の一端の画素に対応し、Xm-1が第2基準板14bの副走査方向の一端の画素に対応するとして説明する。
まず、画像処理部204は、第1黒補正データと第2黒補正データとの副走査方向の画素Xlに対する回帰直線y=cK×x+dK(x:画素Xlの画素位置、y:画素Xlにおける補正データ、cK:回帰直線係数(傾き)、dK:回帰直線係数(定数項))を求める。画像処理部204は、求めた回帰直線計数cK,dKをメモリ203に格納する。
次に、画像処理部204は、第1黒補正データと第2黒補正データとに対しても同様に回帰直線y=cS×x+dS(x:画素Xlの画素位置、y:画素x位置における補正データ、cS:回帰直線係数(傾き)、dS:回帰直線係数(定数項))を求める。画像処理部204は、求めた回帰直線計数cS,dSをメモリ203に格納する。
このように、画像処理部204は、第1の位置及び第2の位置以外の副走査方向の各位置に応じた補正データを第1の位置と第2の位置とにおける補正データに基づいて線形補間する。画像処理部204は、算出した副走査方向の各位置に応じた黒補正データ及び白補正データを用いてシェーディング補正を行う。
[1-3-5.読取処理]
副走査方向の各位置に応じた黒補正データ及び白補正データが求まると、画像処理部204は、読取処理を行う。具体的には、画像処理部204は、読取制御部201を介してセンサモジュール102を移動させ、原稿Sの画像の読取動作を実行させる。画像処理部204は、読み取られた画像に対して、各黒補正データ及び各白補正データを用いてシェーディング補正を行う。
副走査方向の各位置に応じた黒補正データ及び白補正データが求まると、画像処理部204は、読取処理を行う。具体的には、画像処理部204は、読取制御部201を介してセンサモジュール102を移動させ、原稿Sの画像の読取動作を実行させる。画像処理部204は、読み取られた画像に対して、各黒補正データ及び各白補正データを用いてシェーディング補正を行う。
副走査方向に応じた黒補正データ及び副走査方向に応じた白補正データを用いて、それぞれの副走査方向の各位置に対して主走査方向のシェーディング補正を行うことによって、クロストークに起因する主走査方向及び副走査方向における画像の濃度ムラの影響を低減することができる。
詳しくは、ステップS107で取得した第1黒データは、それ自体の出力レベルが非常に小さいため、第1黒データに含まれる、干渉ノイズも非常に小さい(図10の点A参照)。一方、第2黒データは、第1黒データよりも濃淡レベルが薄い側のデータであって、出力レベルが大きいため、この第2黒データには、干渉ノイズが現れている(図10の点C参照)。この第2黒データによって第1黒データを補正することによって、干渉ノイズを含んだ黒補正データを作成することができる。
第2黒データは、光源205を点灯させているものの、第1基準板14aの黒色領域R2aの画像信号であるため、第2黒データの出力のうち、黒色領域R2aからの反射光に起因する出力は微小であって、出力の大部分は干渉ノイズである。また、光が照射された黒色領域R2aの濃度は黒に極めて近いため、黒色領域R2aからの反射光に起因する出力は、第1黒データの出力よりも若干大きいものの、ほとんど変わらない。そのため、第2黒データの出力レベルと第1黒データの出力レベルとの差分値(K2j-K1j)は、概ね、干渉ノイズであるとみなすことができる。本開示では、差分値(K2j-K1j)を線形回帰したり、セクタごとの差分値(K2j-K1j)のオフセットを補正したりしているが、原理的には、第1黒データに差分値(K2j-K1j)を加算することによって、干渉ノイズを含んだ黒補正データが作成される。つまり、図10における点A’のデータが作成される。
また、求められた第1黒補正データ及び第2黒補正データと第1白補正データ及び第2白補正データとを用いて、第1の位置及び第2の位置以外の副走査方向の各位置に応じた黒補正データ及び白補正データを求めることができる。黒補正データに関しては、第1の位置及び第2の位置以外の副走査方向の各位置に応じた黒補正データを、第1黒補正データと第2黒補正データとを用いて線形補間することで算出する。一方、白補正データに関しては、第1白補正データと第2白補正データとを用いて線形補間することで算出する。
こうして作成された干渉ノイズを含みかつ副走査方向の干渉ノイズの変動を考慮した黒補正データ(図10の点A’)と、副走査方向の干渉ノイズの変動を考慮した白補正データ(図10の点B)とを用いてシェーディング補正を行うことによって、主走査方向及び副走査方向の両方で干渉ノイズを含んだセンサ207の実際の出力に即したシェーディング補正を行うことができる。
尚、画像処理部204は、複数の原稿Sの画像を連続的に読み取る場合には、複数の原稿Sの画像の一連の読取を開始する前に、第2基準板14bを用いた第3黒データ、第2白データの取得を1回行い、第1黒データ、第2黒データの取得及び第1白データの取得は、原稿Sの画像の読取を行うたびにその読取前に実行する。そして、各原稿Sの画像データのシェーディング補正は、全ての読取の前に1回取得された第3黒データ及び第2白データと、各読取の前に毎回取得される第1黒データ、第2黒データ及び第1白データとから副走査位置に対応した黒補正データ及び白補正データを作成して、実行される。
[1-4.まとめ]
以上のように、画像読取装置10は、対象物を照射する光源205と対象物からの反射光を読み取って画像信号を取得する複数のセンサ207とを有するセンサモジュール102と、シェーディング補正における黒基準となる黒補正データと白基準となる白補正データとを作成する画像処理部204と、複数のセンサ207で取得した画像信号に黒補正データ及び白補正データを用いてシェーディング補正を行う画像処理部207とを備えている。
以上のように、画像読取装置10は、対象物を照射する光源205と対象物からの反射光を読み取って画像信号を取得する複数のセンサ207とを有するセンサモジュール102と、シェーディング補正における黒基準となる黒補正データと白基準となる白補正データとを作成する画像処理部204と、複数のセンサ207で取得した画像信号に黒補正データ及び白補正データを用いてシェーディング補正を行う画像処理部207とを備えている。
複数のセンサ207は、主走査方向に配列され、それぞれの画像信号によって主走査方向に延びる1ラインの画像信号を形成するように構成されている。
画像処理部204は、黒補正データを、黒基準の濃淡レベルよりも薄くかつ白基準の濃淡レベルよりも濃い濃淡レベルの中間データに基づいて作成するよう構成される。
画像処理部204は、第1の位置に配置され且つ主走査方向に延びる第1基準板14aの画像信号に基づいて第1の位置における中間データである第2黒データを取得し、第2黒データに基づいて第1の位置における黒補正データである第1黒補正データを作成する。
次に、画像処理部204は、副走査方向において第1の位置とは異なる第2の位置に配置され且つ主走査方向に延びる第2基準板14bの画像信号に基づいて第2の位置における中間データである第3黒データを取得し、第3黒データに基づいて第2の位置における黒補正データである第2黒補正データを作成する。
次に、画像処理部204は、第1の位置及び第2の位置以外の副走査方向の各位置に応じた黒補正データを第1黒補正データと第2黒補正データとに基づいて作成する。
そして、画像処理部204は、副走査方向の各位置における黒補正データを用いてシェーディング補正を行うことにより、複数のセンサ207からの画像信号が互いに干渉し合うことに起因する、主走査方向及び副走査方向における画像の濃度ムラを補正する。
この構成によれば、第1基準板14aの画像信号から第2黒データを取得し、第2基準板14bから第3黒データを取得し、第1黒補正データを第2黒データに基づいて作成し、第2黒補正データを第3黒データ基づいて作成することで、第1の位置における主走査方向の干渉ノイズを含む第1黒補正データ及び第2の位置における主走査方向の干渉ノイズを含む第2黒補正データを得ることができる。
そして、第1黒補正データと第2黒補正データとから第1の位置及び第2の位置以外の副走査方向の各位置についても、副走査方向の干渉ノイズの変動を考慮した黒補正データを算出することができる。このようにして作成された副走査方向の各位置における黒補正データを用いてシェーディング補正を行うことによって、干渉ノイズに起因する主走査方向及び副走査方向における画像の濃度ムラを補正することができる。
また、第1基準板14a及び第2基準部材14bは黒色領域R2a,R2bを有する。
画像処理部204は、第1の位置において、光源205を消灯させた状態で複数のセンサ207に画像信号を取得させ、該画像信号から第1黒データを取得し、第2黒データを光源205に照射された第1基準板14aの黒色領域R2aの画像信号に基づいて取得し、第1黒補正データを第1黒データ及び第2黒データに基づいて作成する。
次に、画像処理部204は、第2の位置において、第3黒データを光源205に照射された第2基準板14bの黒色領域R2bの画像信号に基づいて作成し、第2黒補正データを第1黒データ及び第3データに基づいて作成する。
この構成によれば、第1黒データは、第2黒データ及び第3黒データよりも濃淡レベルが濃い黒データである。しかしながら、第1黒データは、濃淡レベルが濃いために、出力レベル自体が小さく、含まれる干渉ノイズも小さい。つまり、第1黒データは、濃淡レベルが濃い黒データであるものの、干渉ノイズが適切に含まれていない。一方、第2黒データ及び第3黒データは、濃淡レベルが第1黒データよりも薄いものの、ある程度の干渉ノイズを含んでいる。そこで、第1黒データと第2黒データとに基づいて第1黒補正データを作成し、第1黒データと第3黒データとに基づいて第2黒補正データを作成することにより、第1の位置及び第2の位置のそれぞれの位置における干渉ノイズを適切に含む黒補正データを取得することができる。そして、第1の位置及び第2の位置以外の副走査方向の各位置についても、主走査方向のシェーディング補正を行うための黒補正データを第1黒補正データと第2黒補正データとに基づいて作成することで、副走査方向における干渉ノイズの変動を考慮した黒補正データを作成することができる。
さらに、第1基準板14a及び第2基準板14bはさらに白色領域R1a,R1bを有する。
画像処理部204は、第1の位置において、光源205に照射された第1基準板14aの白色領域R1aの画像信号に基づいて第1白データを取得し、第1の位置における白補正データである第1白補正データを第1白データに基づいて作成する。
次に、画像処理部204は、第2の位置において、光源205に照射された第2基準部材14bの白色領域R1bの画像信号に基づいて第2白データを取得し、第2の位置における白補正データである第2白補正データを第2白データに基づいて作成する。
次に、画像処理部204は、主走査方向のシェーディング補正を行うための第1の位置及び第2の位置以外の副走査方向の各位置に応じた白補正データを第1白補正データと第2白補正データとに基づいて作成する。
そして、画像処理部204は、副走査方向の各位置における黒補正データ及び白補正データを用いてシェーディング補正を行う。
この構成によれば、第1白データ及び第2白データにはもともと干渉ノイズが含まれているため、第1白補正データ及び第2白補正データは干渉ノイズを含んだ補正データである。そのため、第1の位置及び第2の位置以外の副走査方向の各位置に応じた白補正データを第1白補正データと第2白補正データとに基づいて作成することで、副走査方向における干渉ノイズの変動を考慮した白補正データを作成することができる。これにより、副走査方向における干渉ノイズの変動を考慮した黒補正データと副走査方向における干渉ノイズの変動を考慮した白補正データとでシェーディング補正が行われるので、センサ207の実際の出力に即した適切なシェーディング補正を行うことができる。
また、画像処理部204は、複数の原稿Sの画像を連続的に読み取る場合には、複数の原稿Sの画像の一連の読取を開始する前に第3黒データ及び第2白データを少なくとも1回取得する一方、複数の原稿Sのそれぞれの画像の読取のたびに第1黒データ、第2黒データ及び第1白データの取得を行う。
すなわち、第3黒データ及び第2白データを取得する場合は、センサモジュール102は第2の位置に移動して第2基準板14bの画像を取得する必要がある。複数の原稿Sの画像の読取のたびに第3黒データ及び第2白データを取得しようとすると、センサモジュール102は1枚の原稿Sの読取が終わるたびに第2基準板14bの位置までしなければならず、特に、原稿載置領域4の広い画像読取装置では、複数の原稿Sの画像の一連の読取に要する時間が長くなってしまう。そのため、第3黒データ及び第2白データの取得は、一連の読取を開始する前に少なくとも1回行い、原稿Sの読取のたびには行わない。こうすることによって、複数の原稿Sの画像の一連の読取に要する時間を短縮することができる。一方、第1黒データ、第2黒データ及び第1白データの取得は、センサモジュール102の読取開始位置周辺の第1の位置に配置された第1基準板14aを用いて行われるため、データの取得に長時間を要さず、原稿Sの画像の読取のたびに行われる。こうすることによって、温度特性等の経時的なシェーディングの変化も補正することができる。尚、第3黒データ及び第2白データの取得は、複数の原稿Sの画像の読取のたびには行わないが、複数の原稿Sの画像の一連の読取を開始する前に1回だけ行うものに限定されるものではない。つまり、複数の原稿Sの一連の読取の間に、第3黒データ及び第2白データを再度取得する必要が生じた場合などには、複数の原稿Sの一連の読取を中断して、センサモジュール102を第2の位置に移動させ、第2基準板14bを用いて第3黒データ及び第2白データを取得してもよい。
(実施の形態2)
実施の形態2では、第3黒データ、第2白データの取得に基準シート3を用いる場合について説明する。つまり、実施の形態2では、基準シート3が第2基準部材となる。
実施の形態2では、第3黒データ、第2白データの取得に基準シート3を用いる場合について説明する。つまり、実施の形態2では、基準シート3が第2基準部材となる。
尚、ここで説明する構成以外は、実施の形態1と同様であるため、省略する。
[2-1.基準板]
実施の形態2では、第1基準板14aのみが第1の位置に配置され、第2基準板14bは配置されていない。尚、第1基準板14aの構成は実施の形態1と同様である。
実施の形態2では、第1基準板14aのみが第1の位置に配置され、第2基準板14bは配置されていない。尚、第1基準板14aの構成は実施の形態1と同様である。
[2-2.データの取得]
実施の形態2の画像読取装置10の補正データ作成用の画像データの取得について説明する。図15は、画像読取装置10の画像データの取得のフローチャートである。
実施の形態2の画像読取装置10の補正データ作成用の画像データの取得について説明する。図15は、画像読取装置10の画像データの取得のフローチャートである。
実施の形態2では、ユーザが基準用紙をFBガラス12上に載置した後にデータ取得の操作を画像読取装置10の操作部(図示省略)を介して行うことによって、データ取得の処理が開始される。
図16は、基準シート3の概略図である。基準シート3は、シェーディング補正データを作成するために必要なデータの取得に用いるものであり、画像読取装置10に付属しているものである。基準シート3には、白色領域R1bと黒色領域R2bとが設けられている。白色領域R1bの光の反射率は、実質的に100%である。白色領域R1b、黒色領域R2bの主走査方向の長さが少なくともセンサモジュール102(より具体的にはセンサ207)よりも長い。白色領域R1b、黒色領域R2bの副走査方向の寸法は、センサ207の副走査方向の寸法よりも大きい。ユーザは、基準シート3をFBガラス12上の決められた位置にセットする。尚、このとき基準シート3の白色領域R1b、黒色領域R2bの位置が第2の位置となる。第2の位置としては、センサモジュール102の読取終端位置付近に配置することが望ましい。
尚、基準シート3の材質は、紙であっても、紙以外のものであってもよい。また、基準シート3は、画像読取装置10が用紙に白色領域R1b及び黒色領域R2bを印刷したものであってもよい。
まず、画像処理部204は、ステップS301において、センサモジュール102を基準シート3の黒色領域R2bと対向する位置に移動させる。
次に、ステップS302において、光源205により黒色領域R2bを照射し、黒色領域R2bの画像を取得する。すなわち、画像処理部204は、黒色領域R2bで反射した光を受光し、該光を画像信号に変換する。このとき、被写体は黒色であるものの、光源205から出射され黒色領域R2bで反射した光を受光している。そのため、このときの第3画像信号に基づく画像データは、濃淡レベルが最も濃い黒色の、センサ207の出力レベルを表すものではないが、濃淡レベルが比較的濃くて黒色に近い色の、センサ207の出力レベルを表している。この濃淡レベルが比較的濃くて黒色に近い色の画像データがいわゆる中間データである。画像処理部204は、この画像データを第3黒データとして、メモリ203に保存する。第3黒データは、第2の位置における中間データの一例である。
続いて、画像処理部204は、ステップS303において、センサモジュール102を基準シート3の白色領域R1bと対向する位置に移動させる。
センサモジュール102の移動が完了すると、ステップS304において、画像処理部204は、第2白データを取得する。具体的には、画像処理部204は、光源205を点灯させた状態で基準シート3の白色領域R1bの画像を取得する。白色領域R1bの反射率は実質的に100%であるので、このときの画像信号に基づく画像データ、即ち、白データは、濃淡レベルの最も薄い白色の、センサ207の出力レベルを表すものである。画像処理部204は、この第2白データを第2白補正データとして、メモリ203に保存する。
続いて、画像処理部204は、ステップS305において、ホームポジションを検出し、ステップS306において、センサモジュール102を、第1基準板14aの白色領域R1aと対向する位置へ移動させる。
センサモジュール102の移動が完了すると、ステップS307において、画像処理部204は、キャリブレーションを実行する。
画像処理部204は、キャリブレーションが完了すると、ステップS308において、センサモジュール102を黒色領域R2aと対向する位置に移動させ、ステップS309において、光源205をオンにして画像を取得し、この画像信号に基づく画像データを第2黒データとして、メモリ203に保存する。第2黒データは、第1の位置における中間データの一例である。
続いて、画像処理部204は、ステップS310において、センサモジュール102を白色領域R1aに移動させ、ステップS311において、光源205をオフにして画像を取得し、この画像データを第1黒データとして、メモリ203に保存する。第1黒データは黒データの一例である。
次に、ステップS312において、画像処理部204は、光源205をオンにして第1基準板14aの白色領域R1aの画像を取得し、この画像信号に基づく画像データ、即ち白データを、第1白補正データとして、メモリ203に保存する。
尚、各ステップの詳細については実施の形態1と同じであるため、ここでは省略する。
以上のように、本実施の形態によって得られた黒補正データ及び白補正データであっても、主走査方向及び副走査方向のクロストークの影響を低減することができる。
[2-3.まとめ]
本実施の形態では、第3黒データ、第2白データの取得に基準シート3を用いる。本実施の形態によれば、基準シートを原稿載置領域に載置して副走査方向の各位置に応じた黒補正データ及び白補正データを算出するため、実際の原稿載置領域における補正値を算出することができ、補正の精度が向上する。
本実施の形態では、第3黒データ、第2白データの取得に基準シート3を用いる。本実施の形態によれば、基準シートを原稿載置領域に載置して副走査方向の各位置に応じた黒補正データ及び白補正データを算出するため、実際の原稿載置領域における補正値を算出することができ、補正の精度が向上する。
さらに、第2基準板14bを設ける必要がないため、部品数を減らすことができ、画像読取装置10の構成を簡易化することができる。
(その他の実施形態)
以上のように、本出願において開示する技術の例示として、上記実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。また、添付図面及び詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
以上のように、本出願において開示する技術の例示として、上記実施形態を説明した。しかしながら、本開示における技術は、これに限定されず、適宜、変更、置き換え、付加、省略などを行った実施の形態にも適用可能である。また、上記実施形態で説明した各構成要素を組み合わせて、新たな実施の形態とすることも可能である。また、添付図面及び詳細な説明に記載された構成要素の中には、課題解決のために必須な構成要素だけでなく、上記技術を例示するために、課題解決のためには必須でない構成要素も含まれ得る。そのため、それらの必須ではない構成要素が添付図面や詳細な説明に記載されていることをもって、直ちに、それらの必須ではない構成要素が必須であるとの認定をするべきではない。
上記実施形態について、以下のような構成としてもよい。
例えば、上記実施の形態では、複数のセンサ207を3つのセクタに分割する場合について説明したが、セクタの分割数に限定は無い。
さらに、スキャナユニット11は、FFC15を介してコントローラ100に接続されているが、これに限られるものではない。スキャナユニット11とコントローラ100とを接続する配線は、任意の通信ケーブルを採用することができる。例えば、スキャナユニット11とコントローラ100とを、FPC(Flexible Printed Circuits)等で接続してもよい。
また、前述のフローチャートを所期の目的を達成できる限りにおいて、ステップの順番は任意に入れ替えることができ、さらには、幾つかのステップを並列に処理することもできる。例えば、キャリブレーション、第2黒データの取得、第1黒データの取得、第1白データの取得等の順番を入れ替えてもよい。また、前述の説明では、全てのデータの取得(ステップS1)を完了した後に、補正データの作成(ステップS2)を行っているが、データの取得中であって、第1基準板14aの画像に基づくデータ(第1黒データ、第2黒データ、第1白データ)が取得できた時点で(例えば、第2基準板14bの画像を取得する前に)第1黒補正データ及び第1白補正データの作成(ステップS2)を行ってもよい。また、第3黒データ及び第2白データの取得を第1黒データ等の取得よりも前におこなってもよい。
さらに、前述の説明では、画像処理部204がデータ作成部及び補正部の機能を果たしているが、これに限らず、データ作成部と補正部とは、別々の要素であってもよい。また、データ作成部及び補正部は、画像処理部204である必要は無く、画像処理部204とは別のプロセッサがデータ作成部として、又は補正部として機能してもよい。
また、前述のデータ取得では、第2黒データ及び第3黒データは、光源205に照射された第1基準板14a、第2基準板14bの黒色領域R2a,R2bの画像に基づいて取得されていたが、これに限られるものではない。例えば、光源の光度を複数段階に調整可能にして、第1白データ及び第2白データを取得したときよりも低い光度で照射された白色領域R1a,R1bの画像信号に基づいて作成してもよい。
さらに、前述の説明では、第1の位置と第2の位置との2カ所で補正データを作成する場合について説明したが、本開示はこれに限らず副走査方向の3カ所以上でシェーディング補正データを作成してもよい。
本開示は、原稿等の画像を読み取る画像読取装置に用いるに好適である。
1 複合機
10 画像読取装置
11 スキャナユニット
12 FBガラス
13 ADFガラス
14a 第1基準板(第1基準部材)
14b 第2基準板(第2基準部材)
15 FFC
16 ADF
100 コントローラ
101 CPU
102 センサモジュール
103 AFE
104 RAM
105 ROM
2 メインユニット
201 読取制御部
202 DMAC
203 メモリ
204 画像処理部(データ作成部、補正部)
205 光源
206 導光体
207 センサ
3 基準シート
4 原稿載置領域
R1a,R1b 白色領域
R2a,R2b 黒色領域
S 原稿
10 画像読取装置
11 スキャナユニット
12 FBガラス
13 ADFガラス
14a 第1基準板(第1基準部材)
14b 第2基準板(第2基準部材)
15 FFC
16 ADF
100 コントローラ
101 CPU
102 センサモジュール
103 AFE
104 RAM
105 ROM
2 メインユニット
201 読取制御部
202 DMAC
203 メモリ
204 画像処理部(データ作成部、補正部)
205 光源
206 導光体
207 センサ
3 基準シート
4 原稿載置領域
R1a,R1b 白色領域
R2a,R2b 黒色領域
S 原稿
Claims (4)
- 対象物の画像を読み取る画像読取装置であって、
対象物を照射する光源と、対象物からの反射光を読み取って画像信号を取得する複数のセンサとを有するセンサモジュールと、
シェーディング補正における黒基準となる黒補正データと白基準となる白補正データとを作成するデータ作成部と、
前記複数のセンサで取得した画像信号に前記黒補正データ及び前記白補正データを用いてシェーディング補正を行う補正部と、を備え、
前記複数のセンサは、前記主走査方向に配列され、それぞれの画像信号によって前記主走査方向に延びる1ラインの画像信号を形成するように構成され、
前記データ作成部は、
前記黒補正データを、前記黒基準の濃淡レベルよりも薄くかつ前記白基準の濃淡レベルよりも濃い濃淡レベルの中間データに基づいて作成するよう構成され、
第1の位置に配置され且つ前記主走査方向に延びる第1基準部材の画像信号に基づいて前記中間データを取得し、該中間データに基づいて前記第1の位置における前記黒補正データである第1黒補正データを作成し、
副走査方向において前記第1の位置とは異なる第2の位置に配置され且つ前記主走査方向に延びる第2基準部材の画像信号に基づいて前記中間データを取得し、該中間データに基づいて前記第2の位置における前記黒補正データである第2黒補正データを作成し、
前記第1の位置及び前記第2の位置以外の前記副走査方向の各位置に応じた前記黒補正データを前記第1黒補正データと前記第2黒補正データとに基づいて作成し、
前記補正部は、前記副走査方向の各位置における前記黒補正データを用いてシェーディング補正を行うことにより、前記複数のセンサからの画像信号が互いに干渉し合うことに起因する、前記主走査方向及び前記副走査方向における画像の濃度ムラを補正する
画像読取装置。 - 請求項1に記載の画像読取装置において、
前記第1基準部材及び前記第2基準部材は、黒色領域を有し、
前記データ作成部は、
前記第1の位置において、前記光源を消灯させた状態で前記複数のセンサに画像信号を取得させ、該画像信号から黒データを取得し、前記中間データを前記光源に照射された前記第1基準部材の黒色領域の画像信号に基づいて取得し、前記第1黒補正データを前記黒データ及び該中間データに基づいて作成し、
前記第2の位置において、前記中間データを前記光源に照射された前記第2基準部材の黒色領域の画像信号に基づいて作成し、前記第2黒補正データを前記黒データ及び前記中間データに基づいて作成する
画像読取装置。 - 請求項2に記載の画像読取装置において、
前記第1基準部材及び前記第2基準部材は、さらに白色領域を有し、
前記データ作成部は、
前記第1の位置において、前記光源に照射された前記第1基準部材の白色領域の画像信号に基づいて第1白データを取得し、前記第1の位置における前記白補正データである第1白補正データを前記第1白データに基づいて作成し、
前記第2の位置において、前記光源に照射された前記第2基準部材の白色領域の画像信号に基づいて第2白データを取得し、前記第2の位置における前記白補正データである第2白補正データを前記第2白データに基づいて作成し、
前記主走査方向のシェーディング補正を行うための前記第1の位置及び前記第2の位置以外の前記副走査方向の各位置に応じた前記白補正データを前記第1白補正データと前記第2白補正データとに基づいて作成し、
前記補正部は、前記副走査方向の各位置における前記黒補正データ及び前記白補正データを用いてシェーディング補正を行う
画像読取装置。 - 請求項3に記載の画像読取装置において、
前記データ作成部は、複数の対象物の画像を連続的に読み取る場合には、前記複数の対象物の画像の一連の読取を開始する前に前記第2の位置における前記中間データ及び前記第2白データを少なくとも1回取得する一方、前記複数の対象物のそれぞれの画像の読取のたびに前記黒データ、前記第1の位置における中間データ及び前記第1白データの取得を行う
画像読取装置。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016567691A JP6118997B2 (ja) | 2015-03-27 | 2016-03-04 | 画像読取装置 |
US15/346,067 US9930212B2 (en) | 2015-03-27 | 2016-11-08 | Image reading device generating black correction data for shade correction based on intermediate data acquired at different positions in the sub-scanning direction |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015067383 | 2015-03-27 | ||
JP2015-067383 | 2015-03-27 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US15/346,067 Continuation US9930212B2 (en) | 2015-03-27 | 2016-11-08 | Image reading device generating black correction data for shade correction based on intermediate data acquired at different positions in the sub-scanning direction |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2016157728A1 true WO2016157728A1 (ja) | 2016-10-06 |
Family
ID=57006818
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/001191 WO2016157728A1 (ja) | 2015-03-27 | 2016-03-04 | 画像読取装置 |
Country Status (3)
Country | Link |
---|---|
US (1) | US9930212B2 (ja) |
JP (1) | JP6118997B2 (ja) |
WO (1) | WO2016157728A1 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016147524A1 (ja) * | 2015-03-19 | 2016-09-22 | パナソニックIpマネジメント株式会社 | 画像読取装置 |
JP6194486B2 (ja) * | 2015-03-26 | 2017-09-13 | パナソニックIpマネジメント株式会社 | 画像読取装置 |
WO2016157729A1 (ja) * | 2015-03-27 | 2016-10-06 | パナソニックIpマネジメント株式会社 | 画像読取装置 |
US10021268B1 (en) * | 2017-01-09 | 2018-07-10 | Kabushiki Kaisha Toshiba | Image reading apparatus and method for generating image data with reference member used for shading correction having a reference surface and background surface at different positions |
JP6798451B2 (ja) * | 2017-08-17 | 2020-12-09 | 京セラドキュメントソリューションズ株式会社 | 原稿読取装置 |
JP7087620B2 (ja) * | 2018-04-17 | 2022-06-21 | セイコーエプソン株式会社 | 画像読取装置の出力画像生成方法および画像読取装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02254867A (ja) * | 1989-03-29 | 1990-10-15 | Canon Inc | 画像読取装置 |
JPH0898017A (ja) * | 1994-09-24 | 1996-04-12 | Nec Corp | イメージセンサの出力レベル補正装置 |
JP2002135540A (ja) * | 2000-10-23 | 2002-05-10 | Konica Corp | 画像読取装置 |
Family Cites Families (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01101061A (ja) | 1987-10-14 | 1989-04-19 | Canon Inc | 画像読取装置 |
US5371613A (en) * | 1991-02-22 | 1994-12-06 | Canon Kabushiki Kaisha | Image reading apparatus |
JPH0563978A (ja) * | 1991-08-30 | 1993-03-12 | Toshiba Corp | 画像読取装置 |
DE69828542T2 (de) | 1997-03-27 | 2005-12-22 | Seiko Epson Corp. | Schattierungskorrektur für einen Bildscanner |
JPH10327322A (ja) | 1997-03-27 | 1998-12-08 | Seiko Epson Corp | 画像読み取り装置 |
JP2002330267A (ja) * | 2001-04-27 | 2002-11-15 | Konica Corp | 原稿読取装置及び画像形成装置 |
JP4065515B2 (ja) | 2001-10-17 | 2008-03-26 | キヤノン株式会社 | 画像読み取り装置 |
US7391533B2 (en) | 2001-10-17 | 2008-06-24 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus and strage medium |
JP4442272B2 (ja) * | 2004-03-22 | 2010-03-31 | 富士ゼロックス株式会社 | 画像読み取り装置、基準部材の異物検知方法 |
JP4270249B2 (ja) | 2006-08-31 | 2009-05-27 | セイコーエプソン株式会社 | 画像読み取り装置、画像読み取り方法およびプログラム |
JP5007133B2 (ja) | 2007-02-28 | 2012-08-22 | キヤノン電子株式会社 | 画像読取装置、シェーディング補正データ作成方法及び画像読取システム |
JP2010288151A (ja) * | 2009-06-12 | 2010-12-24 | Kyocera Mita Corp | 画像読取装置及びこれを備えた画像形成装置 |
JP2012070089A (ja) * | 2010-09-21 | 2012-04-05 | Toshiba Corp | 画像読取装置 |
JP5578328B2 (ja) | 2011-05-31 | 2014-08-27 | コニカミノルタ株式会社 | 画像読取装置 |
JP6025782B2 (ja) * | 2014-06-30 | 2016-11-16 | 京セラドキュメントソリューションズ株式会社 | 原稿読取装置、及び画像形成装置 |
WO2016147524A1 (ja) * | 2015-03-19 | 2016-09-22 | パナソニックIpマネジメント株式会社 | 画像読取装置 |
JP6194486B2 (ja) * | 2015-03-26 | 2017-09-13 | パナソニックIpマネジメント株式会社 | 画像読取装置 |
WO2016157729A1 (ja) * | 2015-03-27 | 2016-10-06 | パナソニックIpマネジメント株式会社 | 画像読取装置 |
TWI567661B (zh) * | 2015-10-30 | 2017-01-21 | 東友科技股份有限公司 | 影像擷取方法及影像擷取裝置 |
US9986129B2 (en) * | 2016-01-25 | 2018-05-29 | Seiko Epson Corporation | Scanner and image production method for sequentially storing image correction value in plurality of storage regions |
-
2016
- 2016-03-04 WO PCT/JP2016/001191 patent/WO2016157728A1/ja active Application Filing
- 2016-03-04 JP JP2016567691A patent/JP6118997B2/ja active Active
- 2016-11-08 US US15/346,067 patent/US9930212B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02254867A (ja) * | 1989-03-29 | 1990-10-15 | Canon Inc | 画像読取装置 |
JPH0898017A (ja) * | 1994-09-24 | 1996-04-12 | Nec Corp | イメージセンサの出力レベル補正装置 |
JP2002135540A (ja) * | 2000-10-23 | 2002-05-10 | Konica Corp | 画像読取装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6118997B2 (ja) | 2017-04-26 |
US9930212B2 (en) | 2018-03-27 |
US20170054872A1 (en) | 2017-02-23 |
JPWO2016157728A1 (ja) | 2017-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6467598B2 (ja) | 画像読取装置 | |
JP6118997B2 (ja) | 画像読取装置 | |
JP6175655B2 (ja) | 画像読取装置 | |
JP6051654B2 (ja) | 画像読取装置、及び画像形成装置 | |
US20070127046A1 (en) | Offset adjusting device, correcting device, and method of adjusting analog image signal | |
JP6194486B2 (ja) | 画像読取装置 | |
JP6263749B2 (ja) | 画像読取装置 | |
US7889404B2 (en) | Image reading device, image forming apparatus, and reading-unit install method | |
JP5817312B2 (ja) | 画像読取装置および画像形成装置 | |
JP2005348351A (ja) | 画像読取装置及び画像形成装置 | |
JP5310158B2 (ja) | 画像読取装置 | |
JP2009010924A (ja) | 画像読み取り装置、画像形成装置及び組み込み方法 | |
JP5843935B2 (ja) | 画像読取装置、画像形成装置、画像処理方法 | |
JP6264875B2 (ja) | 画像読取装置及び画像形成装置 | |
JP2010035136A (ja) | 画像読取装置、画像形成装置及び画像読取方法 | |
JP4414276B2 (ja) | 画像読取装置 | |
JP6728721B2 (ja) | スキャナーおよび画像データ生産方法 | |
JP5624970B2 (ja) | 画像読取装置、画像形成装置、画像処理方法 | |
JP2016139992A (ja) | 画像読取装置 | |
JP2010220076A (ja) | 画像読み取り装置、画像形成装置、シェーディング補正方法、及びシェーディング補正制御プログラム | |
JP2006025286A (ja) | 画像読取装置及び画像形成装置 | |
JP2008252217A (ja) | 画像読取装置 | |
JP2016139993A (ja) | 画像読取装置 | |
JP2005269179A (ja) | 画像読取装置 | |
JPH0818775A (ja) | 画像読取装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
ENP | Entry into the national phase |
Ref document number: 2016567691 Country of ref document: JP Kind code of ref document: A |
|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16771622 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
122 | Ep: pct application non-entry in european phase |
Ref document number: 16771622 Country of ref document: EP Kind code of ref document: A1 |