WO2014132583A1 - 画像処理装置及び画像処理方法 - Google Patents

画像処理装置及び画像処理方法 Download PDF

Info

Publication number
WO2014132583A1
WO2014132583A1 PCT/JP2014/000750 JP2014000750W WO2014132583A1 WO 2014132583 A1 WO2014132583 A1 WO 2014132583A1 JP 2014000750 W JP2014000750 W JP 2014000750W WO 2014132583 A1 WO2014132583 A1 WO 2014132583A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
overlap region
correction
pixel
pixels
Prior art date
Application number
PCT/JP2014/000750
Other languages
English (en)
French (fr)
Inventor
直之 藤山
善隆 豊田
まさ子 浅村
山縣 浩作
聡 山中
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2015502748A priority Critical patent/JP6052389B2/ja
Publication of WO2014132583A1 publication Critical patent/WO2014132583A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/191Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
    • H04N1/1911Simultaneously or substantially simultaneously scanning picture elements on more than one main scanning line, e.g. scanning in swaths
    • H04N1/1912Scanning main scanning lines which are spaced apart from one another in the sub-scanning direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/191Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
    • H04N1/1911Simultaneously or substantially simultaneously scanning picture elements on more than one main scanning line, e.g. scanning in swaths
    • H04N1/1918Combination of arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/407Control or modification of tonal gradation or of extreme levels, e.g. background level
    • H04N1/4076Control or modification of tonal gradation or of extreme levels, e.g. background level dependent on references outside the picture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/10Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces
    • H04N1/1013Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with sub-scanning by translatory movement of at least a part of the main-scanning components
    • H04N1/1017Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using flat picture-bearing surfaces with sub-scanning by translatory movement of at least a part of the main-scanning components the main-scanning components remaining positionally invariant with respect to one another in the sub-scanning direction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/12Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using the sheet-feed movement or the medium-advance or the drum-rotation movement as the slow scanning component, e.g. arrangements for the main-scanning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0081Image reader

Definitions

  • the present invention relates to an image processing apparatus in which a plurality of line-shaped image sensors are arranged in a staggered manner and the detection ranges at the ends of adjacent image sensors in the main scanning direction are overlapped.
  • the present invention relates to an image processing apparatus that obtains a reproduced image by correcting and combining image data output from each image sensor when reading a document.
  • the “reproduced image” is an image generated by correcting and combining the read image data.
  • the reproduced image is the same image as the read original.
  • the read image data is rectangular image data that is long in the sub-scanning direction when the document is cut in the main scanning direction. That is, rectangular image data that is long in the sub-scanning direction are arranged in the main scanning direction.
  • the “staggered arrangement” means that two rows are arranged alternately. That is, two different things are arranged in two rows by sequentially changing the rows. “Replace the rows in order and place them in two rows” means to arrange them in a zigzag manner.
  • each image sensor is arranged so that end portions of adjacent image sensors overlap (overlap) in the sub-scanning direction.
  • adjacent means being near and does not need to be in contact with each other.
  • Patent Document 1 a technique is disclosed in which a reproduced image having a uniform brightness is obtained when a document having a uniform brightness is read by black correction and white correction.
  • Black correction is correction in which the output of the image sensor when there is no illumination light and the reading optical system is in a dark room state is subtracted from the pixel value of the obtained initial image.
  • White correction is a correction that multiplies the pixel value after black correction by a gain so that the maximum value that the pixel value can take or the maximum value set by the user when reading a white document. It is.
  • the overall brightness may be different between the image data of each image sensor.
  • the width of the image sensor as one unit, bright and dark stripes appear in the main scanning direction for each unit. Due to the appearance of light and dark stripes, the reproduced image becomes a low quality image.
  • the present invention has been made to solve such a problem, and an object of the present invention is to provide an image processing method of an image reading apparatus in which the occurrence of bright and dark stripes in the main scanning direction is suppressed.
  • the image processing apparatus is an image output by a plurality of line-shaped image sensors arranged in the main scanning direction so as to have a portion where the detection ranges of adjacent end portions overlap each other, and the detection range An image having an overlap area in an area corresponding to the overlapping portion is input as an initial image, a correction coefficient is calculated based on the pixel value of the overlap area, and the brightness of the initial image is calculated using the correction coefficient.
  • a brightness correction unit that corrects and outputs a brightness correction image
  • an image combination unit that combines the brightness correction image to generate a reproduction image
  • the correction coefficient includes a plurality of pixels in the overlap region Is calculated using a ratio obtained by adding the sums to the sum of values corresponding to, and dividing the added value by one of the sums.
  • FIG. 1 is a configuration diagram of an image reading apparatus according to Embodiment 1.
  • FIG. 1 is a block diagram of an image processing apparatus according to Embodiment 1.
  • FIG. 3 is a schematic diagram showing image data read by a staggered image sensor according to Embodiment 1.
  • FIG. 6 is a schematic diagram illustrating an image output from a black correction / white correction unit according to Embodiment 1.
  • FIG. 6 is a schematic diagram illustrating an image output from a deviation correction unit according to Embodiment 1.
  • FIG. FIG. 10 is a block diagram showing internal processing of an average value calculation unit 41 in the image processing apparatus according to Embodiment 2.
  • FIG. 1 is a block diagram showing a configuration of an image reading apparatus to which an image processing method according to the present invention is applied.
  • the image reading apparatus 10 includes a reading optical system 12, an image sensor 13, and a substrate 14.
  • the image reading apparatus 10 reads an image written on the original 20 by moving the original 20 with respect to the fixed image sensor 13.
  • the image reading apparatus 10 reads an image described on the document 20 by moving the image sensor 13 with respect to the fixed document 20.
  • the X-axis direction is the main scanning direction.
  • the Y-axis direction is the sub-scanning direction.
  • the direction perpendicular to the XY plane is the Z-axis direction.
  • the direction of the image reading apparatus 10 with respect to the document 20 is the + Z-axis direction.
  • the document 20 moves from the + Y axis direction toward the ⁇ Y axis direction.
  • the image sensor 13 moves from the ⁇ Y axis direction toward the + Y axis direction to read an image.
  • the right side when viewed from the + Y-axis direction is the + X-axis direction.
  • the order of the image sensors 13 is represented by n.
  • the illumination light 11 emitted from a light source (not shown) disposed inside the image reading device 10 illuminates the document 20.
  • the light source is, for example, a halogen lamp or an LED.
  • the light reflected and scattered by the document 20 passes through the reading optical system 12 and forms an image on the image sensor 13.
  • the reading optical system 12 is composed of an optical element such as a lens.
  • the imaged light is converted into an electrical signal by the light receiving element of the image sensor 13 and output to a memory (not shown) as image data.
  • FIG. 1 is a configuration diagram showing the configuration of the image reading apparatus 10.
  • FIG. 1 shows a configuration in which the document 20 moves with respect to the fixed image sensor 13. That is, the document 20 is conveyed and the image sensor 13 reads the image.
  • the conveyance direction of the document 20 is indicated by a direction F.
  • Image data output from the image sensor 13 is sequentially taken into the memory in time series with the conveyance of the document 20.
  • the “time series” is a series of values obtained by continuously observing a temporal change of a certain phenomenon. “Continuous observation” includes observations at regular intervals or observations performed discontinuously.
  • the “series” is a series of values.
  • image is displayed using “image data”, it is regarded as an image signal in the description of image processing. Therefore, in the following description, “image data” and “image” The same meaning is used. That is, for example, the “image” displayed in the drawing may be described as “image data”. Similarly, in the description of signal processing, “image data” may be described as “image”.
  • the ends of the adjacent image sensors 13 are arranged on the substrate 14 so as to overlap in the main scanning direction.
  • An “adjacent image sensor” is the closest image sensor in a different row.
  • An overlapping portion at the end of the image sensor 13 is referred to as an overlap portion OL.
  • a portion of the image data of one image sensor 13 that overlaps with the rectangular image data of the adjacent image sensor 13 is referred to as an “overlap region”.
  • FIG. 2 is a block diagram of the image processing apparatus 30 according to the first embodiment.
  • the image processing apparatus 30 includes a black correction / white correction unit 31, a shift correction unit 32, an image combining unit 33, and a brightness correction unit 40.
  • the brightness correction unit 40 includes an average value calculation unit 41, a correction coefficient calculation unit 42, and a correction processing unit 43.
  • the image sensor When reading an image with a line-shaped image sensor, the image sensor is moved in a direction perpendicular to the longitudinal direction of the image sensor. Thereby, a planar image can be read with a linear image sensor.
  • the longitudinal direction of the image sensor is generally called a main scanning direction
  • the moving direction of the image sensor is called a sub-scanning direction.
  • the image sensors are arranged in two rows in the sub-scanning direction. Adjacent image sensors are alternately arranged on the two rows and arranged in the main scanning direction. Adjacent image sensors are arranged such that their end portions partially overlap in the main scanning direction. As described above, such an arrangement is called a “staggered arrangement”.
  • FIG. 3 is a schematic diagram showing image data read by the image sensor 13 arranged in a staggered pattern.
  • FIG. 3 is read at the same time as the rectangular image IM n ⁇ 1 , the rectangular image IM n, and the rectangular image IM n + 1 .
  • the positional relationship of data DI is shown.
  • the image data read by the image sensor 13 shown in FIG. 3 is called an “initial image”. That is, an image read by the image sensor 13 and not subjected to subsequent image processing is referred to as an “initial image”.
  • the X-axis direction is the main scanning direction.
  • the Y-axis direction is the sub-scanning direction.
  • the image sensor 13 relatively moves from the ⁇ Y axis direction to the + Y axis direction to read an image.
  • the position of the rectangular image IM n is shifted in the + Y-axis direction with respect to the rectangular image IM n ⁇ 1 and the rectangular image IM n + 1 .
  • the image data read by the staggered image sensor 13 is a rectangular image obtained by cutting the document 20 in the main scanning direction.
  • a rectangular image IM n ⁇ 1 is an image read by the n ⁇ 1 th image sensor 13.
  • the rectangular image IM n is an image read by the nth image sensor 13.
  • the rectangular image IM n + 1 is an image read by the (n + 1) th image sensor 13.
  • the data DI read at the same time is image data at different positions on the document 20 in the adjacent rectangular images IM n ⁇ 1 , IM n , IM n + 1 .
  • Data DI read at the same time is image data at a position different from the original 20 in the Y-axis direction (sub-scanning direction). “...” shown in FIG. 3 indicates that there is a rectangular image also in the ⁇ X axis direction of the rectangular image IM n ⁇ 1 , and that there is also a rectangular image in the + X axis direction of the rectangular image IM n + 1. ing
  • the image processing apparatus 30 performs the series of processes shown in FIG. 2 in real time while reading the document 20.
  • the data size in the sub-scanning direction (Y-axis direction) is only a few pixels. That is, as the reading of the document 20 in the sub-scanning direction (Y-axis direction) proceeds, the image data for one pixel for which image processing has been determined is deleted, and the newly read image data for one pixel is added. The image combining process is sequentially performed.
  • “deleting image data” means, for example, outputting from the memory of the image reading apparatus 10 to an external device such as a printer.
  • real time processing refers to processing each time data is generated.
  • Data size refers to the size of image data and is represented by the number of pixels.
  • the black correction / white correction unit 31 takes in the data of the initial image FDM output from the image sensor 13 as an input.
  • the black correction / white correction unit 31 performs black correction and white correction.
  • Black correction and white correction are also referred to as shading correction.
  • An image on which the black correction / white correction unit 31 performs black correction and white correction is referred to as a “shading correction image”.
  • Black correction is correction in which the output (background) of the image sensor 13 when the reading optical system 12 is in the dark room state without the illumination light 11 is subtracted from the pixel value of the obtained initial image FDM.
  • the initial image FDM is image data output from the image sensor 13.
  • the pixel values are red (R), green (G), and blue (B) signal intensities.
  • No illumination light 11 means a state where no illumination is performed.
  • the output of the image sensor 13 when there is no illumination light 11 and the reading optical system 12 is in a dark room state is referred to as “background”. This background value is acquired before the original 20 is read.
  • white correction means that the pixel value after black correction is multiplied by a gain so that the maximum value that the pixel value can take or the maximum value set by the user when reading a pure white document 20 is obtained. It is correction to do.
  • the maximum pixel value is, for example, 255 for an 8-bit image and 1023 for a 10-bit image. This gain is calculated in advance by reading the white reference plate 15 and reading red (R), green (G) and blue (B) signals before reading the document 20.
  • the white correction when the white original 20 is read, all error factors that do not output white image data are corrected simultaneously. Error factors include, for example, the illuminance distribution of the illumination light 11 in the main scanning direction, the peripheral light amount ratio of the reading optical system 12, and the sensitivity variation of each light receiving element of the image sensor 13.
  • a reproduced image (copy image) having a uniform brightness can be obtained when the original 20 having a uniform brightness is read.
  • Uniform brightness means that brightness and density are uniform.
  • Factor A is that the distance from the document 20 to the reading optical system 12 is different from the distance from the white reference plate 15 used for white correction to the reading optical system 12. Factor A is often due to design constraints.
  • Factor B is that depending on the factor A, the main scanning illuminance distribution and the illuminance distribution in the sub-scanning direction of the illumination light 11 differ between when reading the original 20 and when reading the white reference plate 15.
  • the factor B is often due to design constraints.
  • Factor C is a positional deviation of the illuminance distribution in the sub-scanning direction by the illumination light 11 with respect to the two rows of image sensors 13 arranged in a staggered pattern.
  • the image sensor 13 reads the document 20 illuminated by the illumination light 11.
  • the image sensors 13 are arranged in two rows in the sub-scanning direction. For this reason, the reading position 16 of the image sensor 13 of the document 20 is different for each row of the image sensors 13. That is, the reading position 16 a and the reading position 16 b are at different positions in the Y-axis direction of the document 20. If the illuminance distribution at the reading position 16 of the image sensor 13 in each column is different, it causes light and dark stripes in the main scanning direction.
  • the “two-row image sensor” refers to the odd-numbered image sensor 13 and the even-numbered image sensor 13 illustrated in FIG. 1.
  • Factor D is that the reading position 16 of the image sensor 13 in each row varies in the sub-scanning direction. That is, the image sensor 13 is disposed at a position shifted from each column in the sub-scanning direction.
  • the factor C is often due to manufacturing errors.
  • the reading position 16 of the odd-numbered image sensor 13 and the reading position 16 of the even-numbered image sensor 13 are different in the sub-scanning direction.
  • the factor D is, for example, that the reading position 16 in the sub-scanning direction further varies among the odd-numbered image sensors 13.
  • FIG. 4 is a schematic diagram illustrating an image output from the black correction / white correction unit 31.
  • FIG. 4 shows the positional relationship of the data DI read at the same time as the rectangular image IM n ⁇ 1 , rectangular image IM n, and rectangular image IM n + 1 output from the black correction / white correction unit 31.
  • the image output from the black correction / white correction unit 31 is a shading correction image SDM.
  • Each image sensor 13 has a plurality of light receiving elements corresponding to pixels. Each light receiving element of the image sensor 13 has a unique background value and gain value. That is, in the entire image data, each pixel in the main scanning direction has a unique background value and gain value.
  • the position of the rectangular image IM n is shifted in the + Y-axis direction with respect to the rectangular image IM n ⁇ 1 and the rectangular image IM n + 1 .
  • the image data (shading correction image data) SDM output from the black correction / white correction unit 31 is input to the shift correction unit 32.
  • the deviation correction unit 32 corrects a positional deviation in the sub-scanning direction (Y-axis direction) between the rectangular images IM n ⁇ 1 , IM n , IM n + 1 . That is, the correction of the positional deviation between the rectangular images IM n ⁇ 1 , IM n , IM n + 1 is performed on the image data (shading correction image) SDM after the black correction and the white correction are performed.
  • An image corrected by the shift correction unit 32 is referred to as a “shift correction image”.
  • the reading position 16 on the document 20 of the adjacent image sensor 13 is shifted in the sub-scanning direction (Y-axis direction). Therefore, as shown in FIGS. 3 and 4, when viewed from the data DI read at the same time, the initial images FDM of the adjacent image sensors 13 are shifted in the sub-scanning direction (Y-axis direction). In detail, due to the factor D, the initial image FDM of the image sensor 13 in the same column is shifted in the sub-scanning direction (Y-axis direction) with the data DI read at the same time.
  • the brightness correction unit 40 receives the shift correction image DM and matches the brightness between the respective rectangular images IM n ⁇ 1 , IM n , IM n + 1 . That is, the overall brightness when the rectangular images IM n ⁇ 1 , IM n , and IM n + 1 are combined is matched.
  • “brightness” refers to luminance.
  • the brightness correction process performed by the brightness correction unit 40 is performed using the overlap regions R n and L n .
  • the image corrected by the brightness correction unit 40 is referred to as a “brightness corrected image”.
  • the brightness correction image CDM is input to the image combining unit 33.
  • the image combining unit 33 performs a combination process on the brightness-corrected rectangular images IM n ⁇ 1 , IM n , and IM n + 1 .
  • the image combined by the image combining unit 33 is a “reproduced image”.
  • the black correction / white correction unit 31, the shift correction unit 32, the brightness correction unit 40, and the image combining unit 33 actually perform real-time processing while reading the document 20.
  • the data size in the sub-scanning direction (Y-axis direction) is about several pixels.
  • Red is expressed as “R”
  • green is expressed as “G”
  • blue is expressed as “B”.
  • R, G, and B are expressed as “*”. That is, a mathematical expression using “*” is interpreted by replacing “*” with “R”, “G”, or “B”.
  • FIG. 5 is a schematic diagram showing the deviation correction image DM corrected by the deviation correction unit 32.
  • FIG. 5 shows the positional relationship between the rectangular image IM n ⁇ 1 , the rectangular image IM n, and the rectangular image IM n + 1 .
  • the region I n ⁇ 1 is an overlap region R n ⁇ 1 , L, which will be described later, in the rectangular image data (rectangular image IM n ⁇ 1 ) read by the n ⁇ 1 th image sensor 13. This is a region excluding n-1 .
  • the area I n is an area obtained by removing overlap areas R n and L n described later from the image data (rectangular image IM n ) read by the n-th image sensor 13.
  • the area I n + 1 is an area excluding overlap areas R n + 1 and L n + 1 described later in the image data (rectangular image IM n + 1 ) read by the n + 1-th image sensor 13.
  • the positions of the rectangular image IM n ⁇ 1 , the rectangular image IM n, and the rectangular image IM n + 1 are shifted in the Y-axis direction.
  • the overlap region R n ⁇ 1 is an overlap region on the rectangular image IM n side in the rectangular image IM n ⁇ 1 .
  • the overlap region R n is an overlap region of the rectangular image IM n + 1 side in the rectangular image IM n.
  • the overlap region R n + 1 is an overlap region on the rectangular image IM n + 2 side in the rectangular image IM n + 1 .
  • the description of the rectangular image IM n + 2 is omitted.
  • the overlap region L n-1 is an overlap region on the rectangular image IM n-2 side in the rectangular image IM n-1 .
  • the overlap region L n is the overlap area of the rectangular image IM n-1 side in the rectangular image IM n.
  • the overlap region L n + 1 is an overlap region on the rectangular image IM n side in the rectangular image IM n + 1 .
  • the description of the rectangular image IM n-2 is omitted.
  • the brightness correction process will be described using a rectangular image IM n ⁇ 1 , a rectangular image IM n, and a rectangular image IM n + 1 .
  • the displacement correction unit 32 corrects the displacement of the positions of the rectangular image IM n ⁇ 1 , the rectangular image IM n, and the rectangular image IM n + 1 in the sub-scanning direction (Y-axis direction).
  • the sub-scanning direction (Y-axis direction) is the Y-axis direction.
  • the image in the overlap region R n ⁇ 1 and the image in the overlap region L n are exactly the same region on the surface of the document 20. That is, the image of the overlap region R n ⁇ 1 and the image of the overlap region L n should have the same pixel value.
  • the image of the overlap region R n ⁇ 1 and the image of the overlap region L n should have the same brightness. However, for the reason described above, the image of the overlap region R n ⁇ 1 and the image of the overlap region L n do not have the same pixel value.
  • the image of the overlap region R n and the image of the overlap region L n + 1 are exactly the same region on the surface of the document 20. That is, the image of the overlap region R n and the image of the overlap region L n + 1 should have the same pixel value. In other words, the overlap region R n of the image overlap region L n + 1 of the image should be the same brightness. However, for the reason described above, the image of the overlap region R n and the image of the overlap region L n + 1 do not have the same pixel value. Therefore, the following processing is performed.
  • the average value calculation unit 41 obtains average values AR n and AL n of pixel values of image data.
  • the average value of the pixel values of the image data included in the overlap region R n ⁇ 1 is defined as AR n ⁇ 1 (*)
  • the average value of the pixel values of the image data included in the overlap region L n is defined as AL n It is defined as (*). That is, the average value AR n ⁇ 1 (*) of the pixel values is a value obtained by adding the pixel values of the pixels included in the overlap region R n ⁇ 1 and dividing by the number of pixels.
  • the average value AL n (*) of the pixel values is a value obtained by adding the pixel values of the pixels included in the overlap region L n and dividing the result by the number of pixels.
  • the average value calculation unit 41 outputs the average values AR n and AL n of the pixel values to the correction coefficient calculation unit 42.
  • the input of the correction coefficient calculation unit 42 is an average value AR n , AL n of pixel values.
  • the correction coefficient calculation unit 42 receives the average values AR n and AL n of the pixel values and obtains the parameter values WL n (*) and WR n (*). Further, the correction coefficient calculation unit 42 obtains correction coefficients WG ni and WG nq from the parameter values WL n (*) and WR n (*). Then, the correction coefficient calculation unit 42 outputs correction coefficients WG ni and WG nq .
  • a ratio of ⁇ AR n ⁇ 1 (*) + AL n (*) ⁇ / 2 to the average value AL n (*) of pixel values is set as a parameter value WL n (*).
  • ⁇ AR n ⁇ 1 (*) + AL n (*) ⁇ / 2 is an average value of the average value AR n ⁇ 1 (*) of the pixel value and the average value AL n (*) of the pixel value.
  • the average value of the image data included in the overlap area R n is defined as AR n (*), and the average value of the image data included in the overlap area L n + 1 is defined as AL n + 1 (*). That is, AR n (*) is a value obtained by adding the pixel values of the pixels included in the overlap region R n and dividing the result by the number of pixels.
  • the average value AL n + 1 (*) of the pixel values is a value obtained by adding the pixel values of the pixels included in the overlap region L n + 1 and dividing by the number of pixels.
  • a ratio of ⁇ AR n (*) + AL n + 1 (*) ⁇ / 2 to the average value AR n (*) of the pixel values is set as a parameter value WR n (*).
  • ⁇ AR n (*) + AL n + 1 (*) ⁇ / 2 is an average value of the average value AR n (*) of the pixel values and the average value AL n + 1 (*) of the pixel values.
  • parameter values representing the overlap region L n and the overlap region R n are defined by the equation (1).
  • the parameter values WL n (*) and WR n (*) shown in Expression (1) are parameter values for correcting the luminance value (pixel value) of the pixel. In the following, “...” Used in the symbols n, i, etc. indicates that the symbols n, i, etc. continue in an integer string.
  • n N-th overlap region of the right side in the image sensor 13 (+ X-axis side)
  • the size of the overlap regions R n and L n is determined by the number of pixels in the main scanning direction and the number of pixels in the sub scanning direction (Y axis direction). Both are about several tens of pixels.
  • Equation (1) uses the average value of the pixel values, but Equation (2) is obtained using the sum of the pixel values of the image data in the overlap region.
  • the sum of the pixel values of the image data included in the overlap region R n ⁇ 1 is defined as TR n ⁇ 1 (*)
  • the sum of the pixel values of the image data included in the overlap region L n is defined as TL n (* ).
  • the sum of the pixel values of the image data included in the overlap region R n is defined as TR n (*)
  • the sum of the pixel values of the image data included in the overlap region L n + 1 is defined as TL n + 1 (*).
  • a parameter value representing the overlap region R n ⁇ 1 and the overlap region L n and a parameter value representing the overlap region R n and the overlap region L n + 1 can also be obtained as in the following equation (2).
  • Parameter values WL n (*) and WR n (*) shown in Expression (2) are parameter values for correcting the luminance value (pixel value) of the pixel.
  • the number of pixels obtained by subtracting the number of pixels in the main scanning direction of the overlap regions L n and R n from the number of pixels in the main scanning direction of the rectangular image IM n of the nth image sensor 13 is defined as an NI pixel.
  • the width of the overlap regions L n and R n in the main scanning direction is expressed as the number of pixels and is defined as a NO pixel. That is, the value obtained by adding twice the number of pixels NO in pixel number NI is the number of pixels in the main scanning direction of the rectangular image IM n.
  • the reason for adding twice the pixel number NO is to add the number of pixels in the main scanning direction of the overlap region R n in the + X axis direction and the number of pixels in the main scanning direction of the overlap region L n in the ⁇ X axis direction. Because. At this time, the position of the pixel included in the rectangular image data IM n can be represented by the pixel order i.
  • the correction processing unit 43 multiplies the pixel value of each pixel of the rectangular image IM n by the correction coefficient WG ni .
  • the brightness correction image CDM can be obtained by clipping the correction processing unit 43 with the maximum pixel value.
  • the maximum pixel value is, for example, 255 for an 8-bit image and 1023 for a 10-bit image. Therefore, the brightness of the image data obtained from all the image sensors 13 can be smoothly connected.
  • the image combining process performed by the image combining unit 33 combines and outputs image data for one pixel in the sub-scanning direction (Y-axis direction) in which the brightness correction processing is determined according to the conveyance of the document 20. Then, image data for one pixel is newly added in the sub-scanning direction (Y-axis direction).
  • the above processing is sequentially repeated in the sub-scanning direction (Y-axis direction). That is, according to the image processing according to the first embodiment, it is not necessary to add any special hardware. Further, it is not necessary to read a special reference chart and correct it in advance before reading the document.
  • the brightness correction unit 40 can also perform brightness correction in the overlap regions R n and L n where the size in the sub-scanning direction (Y-axis direction) is one pixel. For this reason, in the series of image processing described above, every time image data with one pixel in the sub-scanning direction (Y-axis direction) is read, an image processing result with one pixel in the sub-scanning direction (Y-axis direction) is output. However, if the sub-scanning direction (Y-axis direction) is processed with one pixel, a noise component is mixed, and the accuracy of the sum TRn (*) of the pixel values of the image data or the average value ARn (*) of the pixel values of the image data May be less accurate.
  • the image reading apparatus 10 has a plurality of image sensors 13 in which a large number of light receiving elements are arranged in a straight line.
  • the image reading apparatus 10 arranges the adjacent image sensors 13 in the main scanning direction so that the detection ranges at the ends overlap each other.
  • the image processing apparatus 30 includes a black correction / white correction unit 31, a shift correction unit 32, a brightness correction unit 40, and an image combining unit 33.
  • the black correction / white correction unit 31 performs black correction and white correction on each image data (initial image data) FDM output from the image sensor 13.
  • the deviation correction unit 32 corrects deviations in the sub-scanning direction (Y-axis direction) for each image data (shading correction image data) SDM corrected by the black correction / white correction unit 31.
  • the brightness correction unit 40 uses the data of the shift correction image DM, in which the shift in the sub-scanning direction (Y-axis direction) is corrected by the shift correction unit 32, and overlap regions L n at both ends in the main scanning direction.
  • the brightness correction unit 40 performs brightness correction on the shift correction image DM using the correction coefficient.
  • the image combining unit 33 combines the brightness correction images CDM whose brightness has been corrected by the brightness correction unit 40 to generate a reproduced image.
  • the image processing according to the first embodiment it is not necessary to add any special hardware. Further, it is not necessary to read a special reference chart and correct it in advance before reading the document.
  • the image processing according to the first embodiment can suppress the occurrence of bright and dark stripes in the main scanning direction. Thereby, the image processing according to the first embodiment can obtain a reproduced image RPM closer to the document 20.
  • the size of the overlap regions R n and L n is about ten pixels.
  • the image data (initial image data) FDM output from each image sensor 13 is clipped by multiplying the pixel value by the correction coefficients WG ni and WG nq pixel by pixel.
  • Such conversion processing is sequentially executed in the sub-scanning direction (Y-axis direction).
  • the image processing apparatus 30 outputs the image data for one pixel for which the correction process is determined. Then, the newly read image data for one pixel is added, and the above-described series of processing is executed.
  • the brightness correction unit 40 uses the data of the shift correction image DM in which the shift in the sub-scanning direction (Y-axis direction) is corrected by the shift correction unit 32, and overlap regions at both ends in the main scanning direction. Average values of the pixel values of the pixels included in L n and R n are calculated, and correction coefficients WG ni and WG nq are calculated using the average values. The brightness correction unit 40 multiplies the pixel values by the correction coefficients WG ni and WG nq and clips the multiplication result. Therefore, according to the first embodiment, it is possible to combine images in real time while reading the document 20.
  • Embodiment 2 FIG.
  • the average value calculation unit 41 in the first embodiment for example, the average value AR n ⁇ 1 (*) of the pixel values of the image data included in the overlap region R n ⁇ 1 and the image data included in the overlap region L n.
  • the average value AL n (*) of the pixel values is output.
  • the average value calculation unit 41 in the second embodiment overlaps. An average is calculated between the pixel value of the image data included in the region R n ⁇ 1 and the pixel value of the image data included in the overlap region L n . Then, the average value calculation unit 41 obtains the average value AR n ⁇ 1 (*) and the average value AL n (*) using these average values.
  • the image processing apparatus can make corrections that are less susceptible to the influence.
  • the manufacturing error is an error such as a sensitivity variation of each pixel that occurs when the image sensor 13 is manufactured.
  • the attachment error is a variation between the reading position of the image sensor 13 and the illumination position of the illumination light 11 that occurs when the image sensor 13 is attached to the image reading apparatus 10. An error occurs in the signal intensity read by the variation between the reading position and the illumination position.
  • the average value AR n ⁇ 1 (*) and the average value AL n (*) in the first embodiment are the pixel value of the image data in the overlap region R n ⁇ 1 and the pixel of the image data in the overlap region L n , respectively. Calculated using the value.
  • the pixel value of the image data in the overlap region R n ⁇ 1 and the pixel value of the image data in the overlap region L n are not the same value due to manufacturing errors, attachment errors, and other factors.
  • the pixel values of the pixels corresponding to the same position on the document 20 in the overlap region R n ⁇ 1 and the overlap region L n are greatly different. Performs processing different from that of the first embodiment.
  • the pixel value of the pixel in the overlap region R n ⁇ 1 and the pixel value of the pixel in the overlap region L n and the average value are obtained.
  • the average value is set as the pixel value of the pixel having greatly different pixel values in the overlap region R n ⁇ 1 and the overlap region L n . That is, the pixel value of the corresponding pixel in the image data included in the overlap region R n ⁇ 1 and the overlap region L n is replaced with the average value of these corresponding pixels.
  • the average value AR n ⁇ 1 (*) and the average value AL n (*) are calculated.
  • the average values AR n ⁇ 1 (*) and AL n (*) are average values of the pixel values of the image data included in the overlap region.
  • the same components as those in the first embodiment are denoted by the same reference numerals, and the description thereof is omitted.
  • the same components as those in the first embodiment are a black correction / white correction unit 31, a shift correction unit 32, an image combining unit 33, a correction coefficient calculation unit 42, and a correction processing unit 43.
  • the configuration of the image reading apparatus to which the image processing method according to the second embodiment is applied is represented by the block diagram shown in FIG. 2 as in the first embodiment.
  • the average value calculation unit 41 of the second embodiment is different from the average value calculation unit 41 of the first embodiment, but will be described using the same reference numeral 41.
  • image data (initial image) FDM read by the image sensor 13 is input to the black correction / white correction unit 31.
  • the output (shading correction image) SDM of the black correction / white correction unit 31 is input to the shift correction unit 32.
  • the deviation correction unit 32 outputs image data (deviation corrected image data) DM in which the positional deviation is corrected.
  • Image data (deviation corrected image data) DM is image data (deviation corrected image data) DI n , DL n , DR n , DL n + 1 and DR n ⁇ 1 .
  • Image data (shift-corrected image data) DI n , DL n , DR n , DL n + 1 , DR n ⁇ 1 are image data in the regions I n , L n , R n , L n + 1 , and R n ⁇ 1 , respectively. .
  • the regions I n , L n , R n , L n + 1 , and R n ⁇ 1 will be described later.
  • DI n (data shift corrected image) image data is image data in the region I n.
  • Image data (shift-corrected image data) DL n is image data in the region L n .
  • Image data (shift-corrected image data) DR n is image data in the region R n .
  • Image data (shift-corrected image data) DL n + 1 is image data in the region L n + 1 .
  • Image data (shift-corrected image data) DR n ⁇ 1 is image data in the region R n ⁇ 1 .
  • the image data (shift correction image data) DI n , DL n , DR n , DL n + 1 , DR n ⁇ 1 output from the shift correction unit 32 is input to the brightness correction unit 40.
  • the output (data of the shift correction image) DI n , DL n , DR n , DL n + 1 , DR n ⁇ 1 of the shift correction unit 32 is input to the correction processing unit 43.
  • outputs (data of misalignment corrected images) DL n , DR n , DL n + 1 , DR n ⁇ 1 of the misalignment correction unit 32 are input to the average value calculation unit 41.
  • the output of the average value calculation unit 41 (pixel value average values AR n and AL n ) is input to the correction coefficient calculation unit 42.
  • the output (correction coefficients WG ni , WG nq ) of the correction coefficient calculation unit 42 is input to the correction processing unit 43 as the other input signal.
  • the output of the correction processing unit 43 is the output (brightness corrected image) CDM of the brightness correction unit 40.
  • the output (brightness corrected image) CDM of the brightness correction unit 40 is input to the image combining unit 33.
  • the output (reproduced image) RPM of the image combining unit 33 becomes the output of the image processing device 30.
  • FIG. 6 is a block diagram of the average value calculation unit 41 in the image processing apparatus 30 according to the second embodiment.
  • the average value calculation unit 41 includes an error detection unit 51 and a selective addition unit 52.
  • the shift correction unit 32 outputs image data (shift correction image data) DI n , DL n , DR n , DL n + 1 , DR n ⁇ 1 .
  • the image data (shift correction image data) DL n , DR n , DL n + 1 , DR n ⁇ 1 are input to the average value calculation unit 41.
  • the threshold value TH is input to the average value calculation unit 41.
  • the threshold value TH is temporarily stored in a register or the like as set by the user.
  • the image data (shift correction image data) DL n , DR n , DL n + 1 , DR n ⁇ 1 input to the average value calculation unit 41 is input to the selective addition unit 52.
  • the image data (shift correction image data) DL n , DR n , DL n + 1 , DR n ⁇ 1 input to the average value calculation unit 41 is input to the error detection unit 51.
  • the threshold value TH input to the average value calculation unit 41 is input to the error detection unit 51.
  • the error detection unit 51 outputs a flag FL.
  • the flag FL is a flag indicating the magnitude relationship between the difference between the pixel values of the image data and the threshold value TH.
  • the “pixel value difference” is an absolute value of a difference between two pixel values.
  • the flag FL output from the error detection unit 51 is input to the selective addition unit 52 as an input signal.
  • the average values AR n ⁇ 1 and AL n output from the selective addition unit 52 are output from the average value calculation unit 41.
  • the average values AR n ⁇ 1 (*), AL n (*), AR n (*), AL n + 1 (*) described in the equation (1) shown in the first embodiment are used.
  • the average values AR n ⁇ 1 (*), AL n (*), AR n (*), and AL n + 1 (*) are the average values of the pixel values of the image data included in the overlap areas L n and R n. .
  • image data (deviation correction image data) DR n ⁇ 1 (*), image data (deviation correction image data) DL n (*), and a threshold TH (*) are input.
  • Image data (data of the shift corrected image) DR n-1 (*) is an image included in the overlap region R n-1 of the rectangular image IM n side in the rectangular image IM n-1.
  • Image data (displacement data of the corrected image) DL n (*) is an image included in the rectangular image IM n-1 side of the overlap region L n in the rectangular image IM n.
  • the image data (deviation corrected image data) DR n-1 (*) and the image data (deviation corrected image data) DL n (*) are the same area acquired from the overlap areas R n-1 and L n. Image data.
  • the “overlap region” is a portion where the rectangular images IM n of the adjacent image sensors 13 overlap.
  • the image sensor 13 is a line-shaped image sensor arranged in a staggered manner.
  • the pixel values at the same positions of the image data (shift-corrected image data) DR n-1 (*) and the image data (shift-corrected image data) DL n (*) are usually the same value.
  • the difference between the pixel values of the corresponding pixels between the adjacent line-shaped image sensors 13 may increase even if the pixel values are at the same position. .
  • the left side is the ⁇ X axis side.
  • the upper side is the ⁇ Y axis side.
  • the Y-axis direction is P pixels and the X-axis direction is Q pixels.
  • the pixel value for each pixel at the position (i, j) of the image data (deviation corrected image data) DR n ⁇ 1 included in the overlap region R n ⁇ 1 is expressed as a pixel value IMR i, j (*). .
  • the pixel value for each pixel at the position (i, j) of the image data (shift-corrected image data) DL n included in the overlap region L n is represented as a pixel value IML i, j (*). Note that the image data (shift correction image data) DR n ⁇ 1 and the image data (shift correction image data) DL n at the position (i, j) are a pixel pair.
  • a difference S i, j (*) between the pixel value IMR i, j (*) and the pixel value IML i, j (*) is defined by the following equation (5). Further, the difference S i, j (*) between the pixel value IMR i, j (*) and the pixel value IML i, j (*) is defined as the difference between the pixel pairs.
  • the error detection unit 51 compares the difference S i, j (*) with the threshold value TH (*) and performs the following processing.
  • Condition 1 is “S i, j (R) ⁇ TH (R)”.
  • Condition 2 is “S i, j (G) ⁇ TH (G)”.
  • Condition 3 is “S i, j (B) ⁇ TH (B)”.
  • the image data (shift correction image data) DR 0 of the overlap region R 0 and the image data (shift correction image data) DL N + 1 of the overlap region L N + 1 cannot be obtained from the reading device.
  • the error detection unit 51 determines the difference TL 1 (*) of the image data (shift correction image data) DM and the sum TR N (*) of the image data (shift correction image data) DM. Threshold processing using S i, j (*) and threshold TH (*) is performed.
  • the selective addition unit 52 cumulatively adds the pixel value IMR i, j (*) and the pixel value IML i, j (*) as needed.
  • the average values AR n ⁇ 1 (*), AL n (*), AR n (*), and AL n + 1 (*) of Expression (1) are the sum TR n ⁇ 1 of the image data (shift correction image data) DM.
  • (*), TL n (*), TR n (*), TL n + 1 (*) are divided by the number of pixels (P ⁇ Q) of the overlap regions R n and L n .
  • the sizes of the overlap regions R n and L n are P pixels in the Y-axis direction and Q pixels in the X-axis direction.
  • the correction coefficient calculation unit 42 can calculate a parameter value WR n ⁇ 1 (*) that represents the overlap region R n ⁇ 1 .
  • the correction coefficient calculation unit 42 can calculate a parameter value WL n (*) that represents the overlap region L n .
  • the correction coefficient calculation unit 42 can calculate a parameter value WR n (*) representing the overlap region R n .
  • the correction coefficient calculation unit 42 can calculate a parameter value WL n + 1 (*) that represents the overlap region L n + 1 .
  • the left end (end in the ⁇ X axis direction) is the first in the rectangular image IM n , and the qth in the main scanning direction (X axis direction).
  • the correction coefficient WG nq (*) of the pixel located is derived by the correction coefficient calculation unit 42 as follows.
  • the number of pixels obtained by subtracting the number of pixels (2 ⁇ number of pixels NO) in the main scanning direction of the overlap regions R n and L n from the number of pixels in the main scanning direction of the rectangular image data IM n of the n-th image sensor 13 Let it be NI. Further, the width of the overlap regions R n and L n in the main scanning direction is represented by the number of pixels and is defined as the number of pixels NO. That is, the value obtained by adding twice the number of pixels NO in pixel number NI is the number of pixels in the main scanning direction of the rectangular image IM n.
  • the reason for adding twice the pixel number NO is to add the number of pixels in the main scanning direction of the overlap region R n in the + X axis direction and the number of pixels in the main scanning direction of the overlap region L n in the ⁇ X axis direction. Because. At this time, the position of the pixel included in the rectangular image data IM n can be expressed by the pixel order q.
  • the correction processing unit 43 receives the correction coefficient WG nq (*) from the correction coefficient calculation unit 42.
  • the correction processing unit 43 multiplies the pixel value of each pixel of the rectangular image IM n by a correction coefficient WG nq (*).
  • q fix (NO / 2),..., ⁇ NI + NO + fix (NO / 2) ⁇ 1 ⁇ th in the main scanning direction. That is, if the image data (shift correction image data) included in the rectangular image IM n is expressed as DM n (*), the brightness correction image data CDM n (*) is obtained by the following equation (8). It is done.
  • CDM n (*) DM n (*) ⁇ WG nq (*) (8)
  • the deviation-corrected image data DM n (*) includes image data of the following three areas.
  • the first region is a region from the pixels located in the X-axis direction of the intermediate range of the overlap region L n to the pixel adjacent to the region I n the range of the overlap region L n.
  • the second region is a region I n.
  • the third region is a region from a pixel adjacent to the region I n the range of the overlap region R n to the pixel located at the X-axis direction of the intermediate range of the overlap region R n.
  • the maximum pixel value is, for example, 255 for an 8-bit image and 1023 for a 10-bit image. Therefore, CDM n (*) is clipped at the maximum pixel value to obtain the final brightness corrected image CDM.
  • the brightness of all the image data (initial image) FDM obtained from the image sensor 13 can be smoothly connected. it can.
  • an average value AR n-1 (*) and an average value AL n (*) are calculated by replacing the pixel value of the pixel pair with the average value of the pixel pair.
  • the pixel values are averaged between the pixel pairs. Replace with a value. Thereby, it can suppress that the precision of brightness correction worsens.
  • the average value AR n-1 (*) When there is dust such as dust in one of the image sensor 13 or the optical system that reads the overlap region R n-1 or the overlap region L n , the average value AR n-1 (*) There is a large difference from the average value AL n (*).
  • the average value AR n ⁇ 1 (*) is an average value of the pixel values of the overlap region R n ⁇ 1 .
  • the average value AL n (*) is an average value of the pixel values of the overlap region L n .
  • the average value AR n (*) and the average A large difference is made between the value AL n + 1 (*).
  • a linear problem occurs in the main scanning direction in the brightness corrected image CDM after the brightness is corrected.
  • the average value AR n (*) is an average value of the pixel values of the overlap region R n .
  • the average value AL n + 1 (*) is the average value of the pixel values of the overlap region L n + 1 .

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Image Input (AREA)

Abstract

画像処理装置30は、隣り合う端部の検出範囲が重なる部分を有して主走査方向に並べられた複数のラインセンサが出力する画像で、検出範囲が重なる部分の領域にオーバーラップ領域を有する画像を初期画像FDMとして入力し、明るさ補正部40及び画像結合部33を備える。黒補正・白補正部31は初期画像FDMに対し黒補正及び白補正を行いシェーディング補正画像SDMを出力する。明るさ補正部40はオーバーラップ領域の画素値を基に補正係数を算出し補正係数を用いてずれ補正画像の明るさを補正して明るさ補正画像CDMを出力する。画像結合部33は明るさ補正画像CDMを結合して再生画像RDMを生成する。

Description

画像処理装置及び画像処理方法
 本発明は、複数のライン状のイメージセンサが千鳥配列され、隣り合うイメージセンサの主走査方向の端部の検出範囲が重なるようにして配置された画像処理装置に関するものである。特に、原稿読取時に各イメージセンサから出力される画像データを補正及び結合して、再生画像を得る画像処理装置に関するものである。ここで、「再生画像」とは、読み取った画像データを補正及び結合して生成した画像である。一般的には、再生画像は読み取った原稿と同じ画像である。
 原稿を読み取り、画像データを作成する画像読取装置として、主走査方向に複数のライン状のイメージセンサを千鳥配列した読取装置が知られている。このような読取装置では、読み取られた画像データは、原稿を主走査方向に裁断した副走査方向に長い矩形形状の画像データになる。つまり、副走査方向に長い矩形形状の画像データが主走査方向に並んだ状態となる。ここで、「千鳥配列」とは、2列のものを互い違いに配置することである。つまり、異なる2つのものを順番に列を入れかえて2列に配置することである。「順番に列を入れかえて2列に配置する」ということは、ジグザグに配置することである。ただし、原稿を欠落無く読み取るために、各イメージセンサは、隣り合うイメージセンサの端部を副走査方向に重複(オーバーラップ)するように配置される。ここで、「隣り合う」とは、近くにあることを意味し、接していることを要しない。
 このような画像の読み取りを行う際には、黒補正及び白補正によって、均一な明るさの原稿を読んだときに、均一な明るさの再生画像が得られるようにする技術が開示されている(特許文献1)。「黒補正」とは、得られている初期画像の画素値から、照明光が無く読取光学系が暗室状態にあるときのイメージセンサの出力を差し引く補正である。また、「白補正」とは、白い原稿を読んだときに、画素値が取り得る値の最大値または使用者が設定する最大値になるように黒補正後の画素値にゲインを乗算する補正である。
特開2007-267359号公報
 しかしながら、白補正を行ったにもかかわらず、各イメージセンサの画像データ間で、全体的な明るさが異なる場合がある。この場合には、イメージセンサの幅を一単位として、一単位ごとに主走査方向に明暗の縞が現れる。明暗の縞が現れることにより再生画像は、品質の低い画像になる。
 特許文献1に記載されたように、基準チャートbによる補正を行っても、原稿の読み取り中において、読取光学系から原稿までの距離が変化した場合、又は読取光学系から基準チャートまでの距離と読取光学系から原稿までの距離とが異なる場合には、イメージセンサの幅を一単位として、一単位ごとに主走査方向に明暗の縞が現れるという問題を解消できない。
 本発明は、このような課題を解決するために成されたものであり、主走査方向の明暗の縞の発生を抑えた画像読取装置の画像処理方法を提供することを目的とする。
 本発明に係る画像処理装置は、隣り合う互いの端部の検出範囲が重なる部分を有するように主走査方向に並べられた複数のライン状のイメージセンサが出力する画像であって、前記検出範囲が重なる部分に対応する領域にオーバーラップ領域を有する画像を初期画像として入力し、前記オーバーラップ領域の画素値を基に補正係数を算出し、前記補正係数を用いて前記初期画像の明るさを補正して明るさ補正画像を出力する明るさ補正部と、前記明るさ補正画像を結合して再生画像を生成する画像結合部とを備え、前記補正係数は、複数の前記オーバーラップ領域の画素に対応した値の和について前記和を加算し、前記加算をした値を前記和のうちのひとつで割ることにより得られる比率を用いて算出されるものである。
 本発明によれば、主走査方向の明暗の縞の発生を抑えることが可能である。
実施の形態1に係る画像読取装置の構成図である。 実施の形態1に係る画像処理装置のブロック図である。 実施の形態1に係る千鳥配列されたイメージセンサで読み取られた画像データを示す模式図である。 実施の形態1に係る黒補正・白補正部から出力された画像を示す模式図である。 実施の形態1に係るずれ補正部から出力された画像を示す模式図である。 実施の形態2に係る画像処理装置における平均値計算部41の内部処理を示すブロック図である。
 以下、図面に基づいて、本発明の一実施の形態例を説明する。
実施の形態1.
 図1は、本発明による画像処理方法が適用される画像読取装置の構成も示した構成図である。画像読取装置10は、読取光学系12、イメージセンサ13及び基板14を有する。画像読取装置10は、固定されたイメージセンサ13に対して原稿20が移動することで原稿20に記載された画像を読み取る。または、画像読取装置10は、固定された原稿20に対してイメージセンサ13が移動することで原稿20に記載された画像を読み取る。
 説明を容易にするために、XYZ座標を用いる。X軸方向は主走査方向である。Y軸方向は副走査方向である。X-Y平面に垂直な方向がZ軸方向である。原稿20に対して画像読取装置10の方向が+Z軸方向である。原稿20は、+Y軸方向から-Y軸方向に向かって移動する。相対的に、イメージセンサ13は、-Y軸方向から+Y軸方向に向かって移動して画像を読み取る。+Y軸方向からみて右側が+X軸方向である。イメージセンサ13の順番をnで表す。-X軸方向の端にあるイメージセンサ13をn=1番目とする。+X軸方向の端にあるイメージセンサ13をn=N番目とする。
 画像読取装置10が原稿20を読み取る際には、画像読取装置10の内部に配置された図示しない光源から発せられた照明光11が原稿20を照明する。光源は、例えば、ハロゲンランプ又はLEDなどである。原稿20で反射及び散乱された光は、読取光学系12を通って、イメージセンサ13上に結像される。読取光学系12は、レンズ等の光学素子で構成されている。結像された光は、イメージセンサ13の受光素子によって、電気信号に変換されて、画像データとして図示しないメモリに出力される。
 図1は、画像読取装置10の構成を示す構成図である。図1では、固定されたイメージセンサ13に対して原稿20が移動する構成を示している。つまり、原稿20が搬送されて、イメージセンサ13が画像を読み取る構成である。図1では、原稿20の搬送方向を方向Fで示す。イメージセンサ13から出力される画像データは、原稿20の搬送と共に順次時系列でメモリに取り込まれる。そして、原稿20の搬送が終了すると、原稿20の全体の画像データがメモリに取得される。「時系列」とは、ある現象の時間的な変化を、連続的に観測して得られた値の系列のことである。「連続的に観測」には、一定間隔をおいた観測又は不連続に行われる観測が含まれる。また、「系列」とは、一連の値のことである。なお、「画像」は、「画像データ」を用いて表示されたものであるが、画像処理の説明では画像信号として捉えられるので、以下の説明では、「画像データ」と「画像」とは、同様の意味で用いる。つまり、例えば、図面に表示された「画像」を「画像データ」として説明する場合がある。また、同様に、信号処理の説明で、「画像データ」を、「画像」として説明する場合がある。
 隣り合うイメージセンサ13の端部は、主走査方向に重複して、基板14上に配置されている。「隣り合うイメージセンサ」とは、異なる列の一番近いイメージセンサのことである。例えば、図1で説明すると、n=2番目のイメージセンサ13の「隣り合うイメージセンサ」は、n=1番目のイメージセンサ13とn=3番目のイメージセンサ13とである。イメージセンサ13の端部の重複部分をオーバーラップ部OLと呼ぶ。1つのイメージセンサ13の画像データのうち、隣り合うイメージセンサ13の矩形画像データと重複する部分を、「オーバーラップ領域」と呼ぶ。
 図2は、実施の形態1に係る画像処理装置30のブロック図である。画像処理装置30は、黒補正・白補正部31、ずれ補正部32、画像結合部33及び明るさ補正部40を有する。明るさ補正部40は、平均値計算部41、補正係数算出部42及び補正処理部43を有する。
 ライン状のイメージセンサで画像を読取る場合には、イメージセンサをイメージセンサの長手方向と直角な方向に移動させる。これにより、線状のイメージセンサで、面状の画像を読取ることができる。この場合には、一般的にイメージセンサの長手方向を主走査方向と呼び、イメージセンサの移動方向を副走査方向と呼ぶ。
 イメージセンサは、副走査方向に2列に配置されている。そして、隣り合うイメージセンサは、この2列の上に交互に配置されて主走査方向に並んでいる。また、隣り合うイメージセンサは、主走査方向でその端部が一部重複するように配置されている。上述のように、このような配置を「千鳥配列」と呼ぶ。
 図3は、千鳥配列されたイメージセンサ13で読み取られた画像データを示す模式図である図3は、矩形画像IMn-1、矩形画像IM及び矩形画像IMn+1と同時刻に読み取られたデータDIの位置関係を示す。図3に示された、イメージセンサ13で読み取られた画像データを「初期画像」と呼ぶ。つまり、イメージセンサ13で読み取られて、その後に行う画像処理を行っていない画像を「初期画像」と呼ぶ。図3において、X軸方向は主走査方向である。Y軸方向は副走査方向である。イメージセンサ13は、相対的に、-Y軸方向から+Y軸方向に移動して画像を読み取る。図3において、矩形画像IMは、矩形画像IMn-1及び矩形画像IMn+1に対して+Y軸方向に位置がずれている。
 千鳥配列されたイメージセンサ13で読み取られた画像データは、原稿20を主走査方向に裁断した矩形形状の画像になる。図3において、矩形画像IMn-1は、n-1番目のイメージセンサ13で読み取られた画像である。矩形画像IMは、n番目のイメージセンサ13で読み取られた画像である。矩形画像IMn+1は、n+1番目のイメージセンサ13で読み取られた画像である。同時刻に読み取られたデータDIは、隣り合う矩形画像IMn-1,IM,IMn+1では、原稿20の異なる位置の画像データである。同時刻に読み取られたデータDIは、原稿20のY軸方向(副走査方向)異なる位置の画像データである。図3で示した「・・・」は、矩形画像IMn-1の-X軸方向にも矩形画像が有ることを示し、矩形画像IMn+1の+X軸方向にも矩形画像が有ることを示している。
 実際には、画像処理装置30は、図2で示した一連の処理を、原稿20を読み取りながらリアルタイム処理で行う。このため、副走査方向(Y軸方向)のデータサイズは数画素分のみである。つまり、原稿20の副走査方向(Y軸方向)の読み取りが進むにつれて、画像処理の確定した一画素分の画像データを削除するとともに、新たに読み込まれた一画素分の画像データを追加して、順次、画像結合処理が行われる。ここで、「画像データを削除」とは、例えば、画像読取装置10のメモリからプリンタ等の外部機器へ出力することである。また、「リアルタイム処理」とは、データが発生したときに、そのたびごとに処理を行うことである。「データサイズ」とは、画像データの大きさのことで、画素数で表す。
 黒補正・白補正部31は、イメージセンサ13から出力された初期画像FDMのデータを入力として取り込む。そして、黒補正・白補正部31は、黒補正及び白補正を行う。黒補正及び白補正は、併せてシェーディング補正とも呼ばれる。黒補正・白補正部31が、黒補正及び白補正を行った画像を「シェーディング補正画像」と呼ぶ。
 「黒補正」とは、得られている初期画像FDMの画素値から、照明光11が無く読取光学系12が暗室状態にある時のイメージセンサ13の出力(バックグラウンド)を差し引く補正である。ここで、初期画像FDMは、イメージセンサ13から出力された画像データである。また、画素値は、赤色(R)、緑色(G)及び青色(B)の信号強度である。「照明光11が無く」とは、照明しない状態である。また、照明光11が無く読取光学系12が暗室状態にある時のイメージセンサ13の出力を「バックグラウンド」と呼ぶ。このバックグラウンドの値は、原稿20を読み取る前に取得しておく。
 また、「白補正」とは、真っ白な原稿20を読んだ時に、画素値が取り得る値の最大値または使用者が設定する最大値になるように、黒補正後の画素値にゲインを乗算する補正である。画素値の最大値は、例えば、8ビット画像では255であり、10ビット画像では1023である。このゲインは、原稿20を読み取る前に事前に、白基準板15を読み取り、赤色(R)、緑色(G)及び青色(B)の信号を個別に算出しておく。
 白補正では、白い原稿20を読み取った際に、白の画像データを出力しない誤差要因を全て同時に補正する。誤差要因としては、例えば、照明光11の主走査方向の照度分布、読取光学系12の周辺光量比及びイメージセンサ13の各受光素子の感度のばらつき等である。黒補正・白補正部31が行う白補正処理によって、均一な明るさの原稿20を読んだ際に、均一な明るさの再生画像(複写画像)が得られるようになる。「均一な明るさ」とは、輝度及び濃度が均一なことである。
 しかし、実際には、下記の要因Aから要因Dまでにより、画像データ全体の明るさを均一化する補正を行っても、主走査方向に明暗の縞が現れた再生画像となる。
 要因Aは、原稿20から読取光学系12までの距離が、白補正に用いられる白基準板15から読取光学系12までの距離と異なることである。要因Aは、設計的な制約による場合が多い。
 要因Bは、要因Aによって、照明光11の主走査の照度分布及び副走査方向の照度分布が、原稿20を読み取る際と白基準板15を読み取る際とで異なることである。要因Bも、設計的な制約による場合が多い。
 要因Cは、千鳥配列された2列のイメージセンサ13に対する照明光11による副走査方向の照度分布の位置ずれである。イメージセンサ13は、照明光11によって照明された原稿20を読み取る。イメージセンサ13は、副走査方向に2列に配置されている。このため、原稿20のイメージセンサ13の読取位置16は、各列のイメージセンサ13で異なる。つまり、読取位置16aと読取位置16bとは、原稿20のY軸方向で異なる位置にある。各列のイメージセンサ13の読取位置16の照度分布が異なると主走査方向に明暗の縞が現れる要因となる。つまり、照度分布の中心が、読取位置16aと読取位置16bとのY軸方向の中心からずれている場合に、読取位置16aでの照度と読取位置16bでの照度とは異なる。要因Cは、製造誤差による場合が多い。「2列のイメージセンサ」とは、図1に示した奇数番目のイメージセンサ13及び偶数番目のイメージセンサ13のことである。
 要因Dは、各列のイメージセンサ13の読取位置16が、副走査方向にばらついていることである。つまり、イメージセンサ13が各列から副走査方向にずれた位置に配置されていることである。要因Cは、製造誤差による場合が多い。上述のとおり、奇数番目のイメージセンサ13の読取位置16と偶数番面のイメージセンサ13の読取位置16とは、副走査方向で異なっている。要因Dは、例えば、奇数番目のイメージセンサ13の中で、さらに副走査方向の読取位置16にばらつきがあるということである。
 図4は、黒補正・白補正部31から出力された画像を示す模式図である。図4は、黒補正・白補正部31から出力された矩形画像IMn-1、矩形画像IM及び矩形画像IMn+1と同時刻に読み取られたデータDIの位置関係を示す。黒補正・白補正部31から出力された画像は、シェーディング補正画像SDMである。各イメージセンサ13は、画素に対応する複数の受光素子を有している。そして、イメージセンサ13の各々の受光素子は、固有のバックグラウンドの値及びゲインの値を有している。つまり、画像データの全体で、主走査方向の画素の一つずつが固有のバックグラウンドの値及びゲインの値を有している。図4において、矩形画像IMは矩形画像IMn-1及び矩形画像IMn+1に対して+Y軸方向に位置がずれている。
 次に、黒補正・白補正部31から出力された画像データ(シェーディング補正画像のデータ)SDMは、ずれ補正部32に入力される。ずれ補正部32は、矩形画像IMn-1,IM,IMn+1の間の副走査方向(Y軸方向)の位置ずれを補正する。つまり、矩形画像IMn-1,IM,IMn+1の間の位置ずれの補正は、黒補正及び白補正の行われた後の画像データ(シェーディング補正画像)SDMに対して行われる。ずれ補正部32で補正された画像を「ずれ補正画像」と呼ぶ。
 図1に示すように、隣り合うイメージセンサ13の原稿20上の読取位置16は、副走査方向(Y軸方向)にずれている。このため、図3及び図4に示すように、同時刻に読み取られたデータDIで見ると、隣り合うイメージセンサ13の初期画像FDMは、副走査方向(Y軸方向)にずれている。また、要因Dによって、詳細に見れば、同時刻に読み取られたデータDIで、同じ列のイメージセンサ13の初期画像FDMは、副走査方向(Y軸方向)にずれている。
 明るさ補正部40は、ずれ補正画像DMを入力して、各々の矩形画像IMn-1,IM,IMn+1間の明るさを合わせる。つまり、矩形画像IMn-1,IM,IMn+1を結合した際の全体的な明るさを合わせる。ここで、「明るさ」とは、輝度のことである。明るさ補正部40で行われる明るさ補正処理は、オーバーラップ領域R,Lを利用して行われる。明るさ補正部40で補正された画像を「明るさ補正画像」と呼ぶ。
 明るさ補正画像CDMは、画像結合部33に入力される。画像結合部33は、明るさ補正された矩形画像IMn-1,IM,IMn+1の結合処理を行う。画像結合部33で結合処理された画像は、「再生画像」である。
 黒補正・白補正部31、ずれ補正部32、明るさ補正部40及び画像結合部33は、前述したとおり、実際には、原稿20を読み取りながらリアルタイム処理を行う。このため、副走査方向(Y軸方向)のデータサイズは数画素程度となる。
 以下、明るさ補正部40について詳細に説明する。赤を「R」と表現し、緑を「G」と表現し、青を「B」と表現する。そして、それぞれ同じ数式を用いる場合、R、G及びBを「*」と表現する。つまり、「*」を用いた数式は、「*」を「R」、「G」又は「B」に置き換えて解釈される。
 図5は、ずれ補正部32で補正されたずれ補正画像DMを示す模式図である。図5は、矩形画像IMn-1、矩形画像IM及び矩形画像IMn+1の位置関係を示す。図5に示すように、領域In-1は、n-1番目のイメージセンサ13が読み取った矩形画像データ(矩形画像IMn-1)の内、後述するオーバーラップ領域Rn-1,Ln-1を除いた領域である。同様に、領域Iは、n番目のイメージセンサ13が読み取った画像データ(矩形画像IM)の内、後述するオーバーラップ領域R,Lを除いた領域である。領域In+1は、n+1番目のイメージセンサ13が読み取った画像データ(矩形画像IMn+1)の内、後述するオーバーラップ領域Rn+1,Ln+1を除いた領域である。図5において、矩形画像IMn-1、矩形画像IM及び矩形画像IMn+1は、Y軸方向に位置がずれている。
 オーバーラップ領域Rn-1は、矩形画像IMn-1の中の矩形画像IM側のオーバーラップ領域である。同様に、オーバーラップ領域Rは、矩形画像IMの中の矩形画像IMn+1側のオーバーラップ領域である。オーバーラップ領域Rn+1は、矩形画像IMn+1の中の矩形画像IMn+2側のオーバーラップ領域である。ただし、図5では、矩形画像IMn+2の記載を省略している。
 また、オーバーラップ領域Ln-1は、矩形画像IMn-1の中の矩形画像IMn-2側のオーバーラップ領域である。同様に、オーバーラップ領域Lは、矩形画像IMの中の矩形画像IMn-1側のオーバーラップ領域である。オーバーラップ領域Ln+1は、矩形画像IMn+1の中の矩形画像IM側のオーバーラップ領域である。ただし、図5では、矩形画像IMn-2の記載を省略している。
 明るさ補正処理について、矩形画像IMn-1、矩形画像IM及び矩形画像IMn+1を用いて説明する。ずれ補正部32によって、矩形画像IMn-1、矩形画像IM及び矩形画像IMn+1は副走査方向(Y軸方向)の位置のずれが補正されている。副走査方向(Y軸方向)は、Y軸方向である。このため、オーバーラップ領域Rn-1の画像とオーバーラップ領域Lの画像とは原稿20の面上では全く同じ領域の画像となる。つまり、オーバーラップ領域Rn-1の画像とオーバーラップ領域Lの画像とは、同じ画素値となるはずである。つまり、オーバーラップ領域Rn-1の画像とオーバーラップ領域Lの画像とは、同じ明るさとなるはずである。しかし、前述の理由により、オーバーラップ領域Rn-1の画像とオーバーラップ領域Lの画像とは、同じ画素値にはならない。
 また、オーバーラップ領域Rの画像とオーバーラップ領域Ln+1の画像とは原稿20の面上では全く同じ領域の画像となる。つまり、オーバーラップ領域Rの画像とオーバーラップ領域Ln+1の画像とは、同じ画素値となるはずである。つまり、オーバーラップ領域Rの画像とオーバーラップ領域Ln+1の画像とは、同じ明るさとなるはずである。しかし、前述の理由により、オーバーラップ領域Rの画像とオーバーラップ領域Ln+1の画像とは、同じ画素値にはならない。そこで、次の処理を行う。
 まず、平均値計算部41は、画像データの画素値の平均値AR,ALを求める。
 オーバーラップ領域Rn-1に含まれる画像データの画素値の平均値をARn-1(*)と定義して、オーバーラップ領域Lに含まれる画像データの画素値の平均値をAL(*)と定義する。つまり、画素値の平均値ARn-1(*)は、オーバーラップ領域Rn-1に含まれる画素の画素値を加算して、画素数で割った値である。同様に、画素値の平均値AL(*)は、オーバーラップ領域Lに含まれる画素の画素値を加算して、画素数で割った値である。
平均値計算部41は、画素値の平均値AR,ALを補正係数算出部42に出力する。
 補正係数算出部42の入力は、画素値の平均値AR,ALである。補正係数算出部42は、画素値の平均値AR,ALを受け取り、パラメータ値WL(*),WR(*)を求める。また、補正係数算出部42は、パラメータ値WL(*),WR(*)から補正係数WGni,WGnqを求める。そして、補正係数算出部42は、補正係数WGni,WGnqを出力する。
 画素値の平均値AL(*)に対する{ARn-1(*)+AL(*)}/2の比をパラメータ値WL(*)とする。{ARn-1(*)+AL(*)}/2は、画素値の平均値ARn-1(*)と画素値の平均値AL(*)との平均値である。
 また、オーバーラップ領域Rに含まれる画像データの平均値をAR(*)と定義して、オーバーラップ領域Ln+1に含まれる画像データの平均値をALn+1(*)と定義する。つまり、AR(*)は、オーバーラップ領域Rに含まれる画素の画素値を加算して、画素数で割った値である。同様に、画素値の平均値ALn+1(*)は、オーバーラップ領域Ln+1に含まれる画素の画素値を加算して、画素数で割った値である。そして、画素値の平均値AR(*)に対する{AR(*)+ALn+1(*)}/2の比をパラメータ値WR(*)とする。{AR(*)+ALn+1(*)}/2は、画素値の平均値AR(*)と画素値の平均値ALn+1(*)との平均値である。このとき、オーバーラップ領域L及びオーバーラップ領域Rを代表するパラメータ値を式(1)で定義する。式(1)に示すパラメータ値WL(*),WR(*)は、画素の輝度値(画素値)を補正するためのパラメータ値である。なお、以下において、符号n,i等で使用する「・・・」は、符号n,i等が整数列で続くことを示している。
 WL(*)={ARn-1(*)+AL(*)}/{2×AL(*)}
  n=2,3,・・・,N
 WR(*)={AR(*)+ALn+1(*)}/{2×AR(*)}
  n=1,2,3,・・・,(N-1)
 WL(*)=1.0
 WR(*)=1.0
   ・・・・(1)
 ここで、n=1番目のイメージセンサ13における左側(-X軸側)のオーバーラップ領域Lのパラメータ値WL(*)は、WL(*)=WR(*)としても良い。また、n=N番目のイメージセンサ13における右側(+X軸側)のオーバーラップ領域Rのパラメータ値WR(*)は、WR(*)=WL(*)としても良い。
 また、前述したように、原稿20を読み取りながら順次画像結合処理を行うので、オーバーラップ領域R,Lのサイズは、主走査方向の画素及び副走査方向(Y軸方向)の画素数が共に数十画素程度となる。
 式(1)は画素値の平均値を用いているが、式(2)は、オーバーラップ領域の画像データの画素値の和を用いて求める。オーバーラップ領域Rn-1に含まれる画像データの画素値の和をTRn-1(*)と定義して、オーバーラップ領域Lに含まれる画像データの画素値の和をTL(*)と定義する。また、オーバーラップ領域Rに含まれる画像データの画素値の和をTR(*)と定義して、オーバーラップ領域Ln+1に含まれる画像データの画素値の和をTLn+1(*)と定義する。オーバーラップ領域Rn-1及びオーバーラップ領域Lを代表するパラメータ値および、オーバーラップ領域R及びオーバーラップ領域Ln+1を代表するパラメータ値を次式(2)のように求めることもできる。式(2)に示すパラメータ値WL(*),WR(*)は、画素の輝度値(画素値)を補正するためのパラメータ値である。
 WL(*)={TRn-1(*)+TL(*)}/2×TL(*)
  n=2,3,・・・,N
 WR(*)={TR(*)+TLn+1(*)}/2×TR(*)
  n=1,2,・・・,(N-1)
 WL(*)=1.0
 WR(*)=1.0
   ・・・・(2)
 式(1)と同様に、n=1番目のイメージセンサ13における左側(-X軸側)のオーバーラップ領域Lのパラメータ値WL(*)はWL(*)=WR(*)としても良い。また、n=N番目のイメージセンサ13における右側(+X軸側)のオーバーラップ領域Rのパラメータ値WR(*)はWR(*)=WL(*)としても良い。
 上記の式(1)又は式(2)で求めたオーバーラップ領域を代表するパラメータ値WL(*),WR(*)を用いて、n番目のイメージセンサ13の画像データの明るさ補正処理を行う。
 n番目のイメージセンサ13の矩形画像IMの主走査方向の画素数からオーバーラップ領域L,Rの主走査方向の画素数を引いた画素数をNI画素とする。また、オーバーラップ領域L,Rの主走査方向の幅を画素数で表してNO画素とする。つまり、画素数NIに画素数NOの2倍を加算した値は、矩形画像IMの主走査方向の画素数である。画素数NOの2倍を加算する理由は、+X軸方向のオーバーラップ領域Rの主走査方向の画素数と-X軸方向のオーバーラップ領域Lの主走査方向の画素数とを加算するからである。このとき、矩形画像データIMに含まれる画素の位置は、画素の順番iで表すことができる。画素の順番iは、-X軸方向から+X軸方向にi=0、1、2、3、・・・、(NI+2×NO-1)と表現することができる。ただし、fixは小数点以下の値を打ち切る関数と定義して用いた。
 この表記(fix)を用いて、矩形画像IMの主走査方向でi番目に位置する画素の補正係数は、式(3)のように求められる。
 WGni(*)={WL(*)×(NI+NO-1-(i-fix(NO/2)))
      +WR(*)×(i-fix(NO/2))}/(NI+NO-1)
  i=fix(NO/2)、・・・、{NI+NO+fix(NO/2)-1}
   ・・・・(3)
 1番目(n=1)のイメージセンサ13の左側のオーバーラップ領域Lの補正係数及びN番目(n=N)のイメージセンサ13の右側のオーバーラップ領域Rの補正係数は、次の式(4)で求められる。
 WG1i(*)=WL(*)
  i=0、・・・、{fix(NO/2)-1}
 WG(N)i(*)=WR(*)
  i={NI+NO+fix(NO/2)+1}、・・・、{NI+2×NO-1}
   ・・・・(4)
 上記のように補正係数WGniが求まれば、補正処理部43は、矩形画像IMの各画素の画素値に補正係数WGniを乗算する。補正処理部43が、画素値の最大値でクリッピングすることで、明るさ補正画像CDMを得ることができる。画素値の最大値は、例えば、8ビット画像では255であり、10ビット画像では1023である。従って、全てのイメージセンサ13から得られる画像データの明るさを滑らかに繋ぎ合わせることができる。
 画像結合部33の行う画像結合処理は、原稿20の搬送に従い、明るさ補正処理の確定した副走査方向(Y軸方向)の一画素分の画像データを結合し出力する。そして新たに副走査方向(Y軸方向)一画素分の画像データが追加される。
 原稿20の搬送に従い、前述の処理を副走査方向(Y軸方向)に順次繰り返し行う。すなわち、実施の形態1に係る画像処理によれば、何らかの特別なハードウェアを追加する必要がない。また、原稿を読み取る前に特殊な基準チャートを読み取り、事前に補正する必要もない。
 オーバーラップ領域R,Lを利用して、各イメージセンサ13の画像データ間の全体的な明るさ(輝度)を合わせる明るさ補正により、主走査方向の明暗の縞の発生を抑えられる。これにより、より原稿20に近い再生画像RPMを得ることができる。
 ここで、明るさ補正部40は、明るさ補正を副走査方向(Y軸方向)のサイズを1画素としたオーバーラップ領域R,Lで行うことも可能である。このため、前述の一連の画像処理では、副走査方向(Y軸方向)が1画素の画像データを読み込むごとに、副走査方向(Y軸方向)が1画素の画像処理結果を出力する。しかし、副走査方向(Y軸方向)を1画素で処理すると、ノイズ成分が混入して、画像データの画素値の和TRn(*)の精度又は画像データの画素値の平均値ARn(*)の精度が低くなる場合がある。その結果、良好な明るさ補正が行えないこととなる。従って、オーバーラップ領域R,Lの副走査方向(Y軸方向)の画素数は、複数の画素を用いるのが望ましい。明るさ補正部に好適なのは、経験的に32画素程度である。
 以上説明したように、実施の形態1に係る画像読取装置10は、多数の受光素子を直線状に並べた複数のイメージセンサ13を千鳥配列している。また、画像読取装置10は、隣り合うイメージセンサ13を互いの端部の検出範囲が重なるように主走査方向に並べている。
 実施の形態1に係る画像処理装置30は、黒補正・白補正部31、ずれ補正部32、明るさ補正部40及び画像結合部33を有する。黒補正・白補正部31は、イメージセンサ13から出力された各画像データ(初期画像のデータ)FDMに対して、黒補正および白補正を行う。ずれ補正部32は、黒補正・白補正部31で補正された補正後の各画像データ(シェーディング補正画像のデータ)SDMに対して、副走査方向(Y軸方向)のずれの補正を行う。明るさ補正部40は、ずれ補正部32で副走査方向(Y軸方向)のずれが補正されたずれ補正画像DMのデータを用いて、主走査方向の両方の端部のオーバーラップ領域L,Rに含まれる画素の平均値を各々算出し、それらの平均値を用いて補正係数WGni,WGnqを算出する。明るさ補正部40は、その補正係数を用いて、ずれ補正画像DMに対して明るさ補正を行う。画像結合部33は、明るさ補正部40で明るさが補正された明るさ補正画像CDMを結合して再生画像を生成する。
 従って、実施の形態1に係る画像処理によれば、何らかの特別なハードウェアを追加する必要がない。また、原稿を読み取る前に特殊な基準チャートを読み取り、事前に補正する必要もない。そして、実施の形態1に係る画像処理は、主走査方向の明暗の縞の発生を抑えられる。これにより、実施の形態1に係る画像処理は、より原稿20に近い再生画像RPMを得ることができる。
 また、実施の形態1に係る画像処理装置30では、例えば、オーバーラップ領域R,Lのサイズは十画素程度である。各イメージセンサ13から出力される画像データ(初期画像のデータ)FDMは、一画素ずつ画素値に補正係数WGni,WGnqを乗算されてクリッピングされる。そのような変換処理を副走査方向(Y軸方向)に順次実行していく。
 そして、画像処理装置30は、補正処理の確定した一画素分の画像データを出力する。そして、新たに読み込まれた一画素分の画像データを追加して、上述した一連の処理を実行する。
 また、明るさ補正部40は、ずれ補正部32で副走査方向(Y軸方向)のずれが補正されたずれ補正画像DMのデータを用いて、主走査方向の両方の端部のオーバーラップ領域L,Rに含まれる画素の画素値の平均値を各々算出し、それらの平均値を用いて補正係数WGni,WGnqを算出する。明るさ補正部40は、その補正係数WGni,WGnqを画素値に乗算し、乗算結果をクリッピングする。従って、実施の形態1によれば、原稿20を読み取りながら、リアルタイムに画像の結合処理をすることができる。
実施の形態2.
 実施の形態1における平均値計算部41は、例えば、オーバーラップ領域Rn-1に含まれる画像データの画素値の平均値ARn-1(*)とオーバーラップ領域Lに含まれる画像データの画素値の平均値AL(*)とを出力している。実施の形態2における平均値計算部41は、オーバーラップ領域Rn-1の画像データの画素値とオーバーラップ領域Lの画像データの画素値との間の差が大きい場合には、オーバーラップ領域Rn-1に含まれる画像データの画素値とオーバーラップ領域Lに含まれる画像データの画素値との間で平均を取る。そして、平均値計算部41は、これらの平均値を用いて平均値ARn-1(*)及び平均値AL(*)を求める。
 上記の構成とすることで、製造誤差、取り付け誤差及びその他の要因によって、隣り合う矩形画像IMのオーバーラップ領域L,Rの間で画像データの画素値が大きく異なる場合でも、実施の形態2に係る画像処理装置は、その影響を受けにくい補正をすることができる。なお、製造誤差は、イメージセンサ13の製造の際に発生する各画素の感度バラツキ等の誤差である。また、取り付け誤差は、イメージセンサ13を画像読取装置10に取り付ける際に発生するイメージセンサ13の読み取り位置と照明光11の照明位置とのバラツキである。読み取り位置と照明位置とのバラツキにより読み取られた信号強度に誤差が発生する。
 実施の形態1における平均値ARn-1(*)と平均値AL(*)とはそれぞれ、オーバーラップ領域Rn-1の画像データの画素値とオーバーラップ領域Lの画像データの画素値とを用いて計算される。オーバーラップ領域Rn-1の画像データの画素値とオーバーラップ領域Lの画像データの画素値とは、原稿上の同じ領域を別のセンサで読み取って得られたものである。そのため、理想の読取装置であれば、平均値ARn-1(*)は平均値AL(*)と等しい値となるはずである(ARn-1(*)=AL(*))。しかしながら、オーバーラップ領域Rn-1の画像データの画素値とオーバーラップ領域Lの画像データの画素値とは、製造誤差、取り付け誤差及びその他の要因により同じ値とはならない。
 平均値ARn-1(*)と平均値AL(*)との差が大きくなれば、明るさ補正の精度が悪くなることがある。このような状況を避けるため、本実施の形態2においては、オーバーラップ領域Rn-1とオーバーラップ領域Lとの原稿20上で同じ位置に相当する画素同士の画素値が大きく異なる場合には、実施の形態1とは異なる処理を行う。
 まず、画素値の大きく異なるオーバーラップ領域Rn-1の画素の画素値とオーバーラップ領域Lの画素の画素値と平均値を求める。そして、その平均値をオーバーラップ領域Rn-1及びオーバーラップ領域Lの画素値の大きく異なる画素の画素値とする。
つまり、オーバーラップ領域Rn-1及びオーバーラップ領域Lに含まれる画像データの対応する画素の画素値を、これらの対応する画素の平均値に置き換える。
 この平均値に置きかえられた画素値を基に、平均値ARn-1(*)と平均値AL(*)とが算出される。ここで、平均値ARn-1(*),AL(*)は、オーバーラップ領域に含まれる画像データの画素値の平均値である。
 これにより、明るさ補正の精度が悪くなることを防ぐことができる。以下、図面に基づいて、説明するが、実施の形態1と同一の構成要素には同一の符号を付しその説明を省略する。実施の形態1と同一の構成要素は、黒補正・白補正部31、ずれ補正部32、画像結合部33、補正係数算出部42及び補正処理部43である。
 本実施の形態2による画像処理方法が適用される画像読取装置の構成は、実施の形態1と同様に図2に示されたブロック図で表される。なお、上述のように、実施の形態2の平均値計算部41は、実施の形態1の平均値計算部41と相違するが、同じ符号41を用いて説明する。
 図2において、イメージセンサ13で読み取られた画像データ(初期画像)FDMは、黒補正・白補正部31に入力される。黒補正・白補正部31の出力(シェーディング補正画像)SDMは、ずれ補正部32に入力される。ずれ補正部32は、位置ずれを補正した画像データ(ずれ補正画像のデータ)DMを出力する。画像データ(ずれ補正画像のデータ)DMとは、画像データ(ずれ補正画像のデータ)DI,DL,DR,DLn+1及びDRn-1のことである。画像データ(ずれ補正画像のデータ)DI,DL,DR,DLn+1,DRn-1は、それぞれ領域I,L,R,Ln+1,Rn-1における画像データである。領域I,L,R,Ln+1,Rn-1については後述する。
 つまり、画像データ(ずれ補正画像のデータ)DIは、領域Iにおける画像データである。画像データ(ずれ補正画像のデータ)DLは、領域Lにおける画像データである。画像データ(ずれ補正画像のデータ)DRは、領域Rにおける画像データである。画像データ(ずれ補正画像のデータ)DLn+1は、領域Ln+1における画像データである。画像データ(ずれ補正画像のデータ)DRn-1は、領域Rn-1における画像データである。
 ずれ補正部32から出力される画像データ(ずれ補正画像のデータ)DI,DL,DR,DLn+1,DRn-1は、明るさ補正部40に入力される。明るさ補正部40では、ずれ補正部32の出力(ずれ補正画像のデータ)DI,DL,DR,DLn+1,DRn-1が補正処理部43に入力される。また、ずれ補正部32の出力(ずれ補正画像のデータ)DL,DR,DLn+1,DRn-1は、平均値計算部41に入力される。
 平均値計算部41の出力(画素値の平均値AR,AL)は、補正係数算出部42に入力される。補正係数算出部42の出力(補正係数WGni,WGnq)は、補正処理部43にもう一方の入力信号として入力される。補正処理部43の出力は、明るさ補正部40の出力(明るさ補正画像)CDMとなる。明るさ補正部40の出力(明るさ補正画像)CDMは、画像結合部33に入力される。画像結合部33の出力(再生画像)RPMは、画像処理装置30の出力となる。
 図6は、実施の形態2に係る画像処理装置30における平均値計算部41のブロック図である。平均値計算部41は、誤差検出部51及び選択加算部52を有する。
 ずれ補正部32は、画像データ(ずれ補正画像のデータ)DI,DL,DR,DLn+1,DRn-1を出力する。画像データ(ずれ補正画像のデータ)DL,DR,DLn+1,DRn-1は、平均値計算部41に入力される。また、閾値THは、平均値計算部41に入力される。閾値THは、ユーザが値を設定してレジスタなどに一時的に保存されている。
 平均値計算部41へ入力された画像データ(ずれ補正画像のデータ)DL,DR,DLn+1,DRn-1は、選択加算部52に入力される。また、平均値計算部41へ入力された画像データ(ずれ補正画像のデータ)DL,DR,DLn+1,DRn-1は、誤差検出部51に入力される。平均値計算部41へ入力された閾値THは、誤差検出部51に入力される。
 誤差検出部51は、フラグFLを出力する。フラグFLは、画像データの画素値同士の差分と閾値THとの大小関係を示すフラグである。「画素値の差分」とは、2つの画素値の差の絶対値のことである。誤差検出部51から出力されるフラグFLは、選択加算部52に入力信号として入力される。選択加算部52から出力される平均値ARn-1,ALは、平均値計算部41の出力となる。
 ここで、図6を用いて、実施の形態1で示した式(1)に記載された平均値ARn-1(*),AL(*),AR(*),ALn+1(*)の求め方を詳細に説明する。平均値ARn-1(*),AL(*),AR(*),ALn+1(*)は、オーバーラップ領域L,Rに含まれる画像データの画素値の平均値である。
 まず、画像データ(ずれ補正画像のデータ)DRn-1(*)、画像データ(ずれ補正画像のデータ)DL(*)及び閾値TH(*)を入力する。画像データ(ずれ補正画像のデータ)DRn-1(*)は、矩形画像IMn-1の中の矩形画像IM側のオーバーラップ領域Rn-1に含まれる画像である。画像データ(ずれ補正画像のデータ)DL(*)は、矩形画像IMの中の矩形画像IMn-1側のオーバーラップ領域Lに含まれる画像である。
 画像データ(ずれ補正画像のデータ)DRn-1(*)と、画像データ(ずれ補正画像のデータ)DL(*)とは、オーバーラップ領域Rn-1,Lから取得した同じ領域の画像データである。上述のように、「オーバーラップ領域」とは、隣り合うイメージセンサ13の矩形画像IM同士の重複する部分である。イメージセンサ13は、千鳥配列されたライン状のイメージセンサである。画像データ(ずれ補正画像のデータ)DRn-1(*)と、画像データ(ずれ補正画像のデータ)DL(*)との同じ位置の画素値は、通常同じ値になる。
 しかし、上述したように、設計的な制約又は製造誤差等により、同じ位置の画素値であっても隣り合うライン状のイメージセンサ13同士の対応する画素の画素値の差が大きくなる場合がある。隣り合うライン状のイメージセンサ13同士の画素値の差が大きい場合には、明るさ補正処理を行っても主走査方向の明暗の縞の発生を抑えることが難しくなる。そのため、式(2)の画像データの画素値の和TRn-1(*),TL(*)(ただし、n=2,・・・,N)を次のように計算する。画像データの画素値の和TL(*)及び画像データの画素値の和TR(*)の計算に関しては後述する。
 例えば、図5において、オーバーラップ領域Rn-1及びオーバーラップ領域Lにおける左上の位置を(i,j)=(1,1)とする。左側は、-X軸側である。上側は、-Y軸側である。オーバーラップ領域Rn-1,Lのサイズは、Y軸方向をP画素とし、X軸方向をQ画素とする。そして、オーバーラップ領域Rn-1に含まれる画像データ(ずれ補正画像のデータ)DRn-1の位置(i,j)の画素ごとの画素値を画素値IMRi,j(*)と表す。また、オーバーラップ領域Lに含まれる画像データ(ずれ補正画像のデータ)DLの位置(i,j)の画素ごとの画素値を画素値IMLi,j(*)と表す。なお、位置(i,j)における画像データ(ずれ補正画像のデータ)DRn-1と画像データ(ずれ補正画像のデータ)DLとを画素対とする。
 画素値IMRi,j(*)と画素値IMLi,j(*)との差Si,j(*)を以下の式(5)で定義する。また、画素値IMRi,j(*)と画素値IMLi,j(*)との差Si,j(*)を画素対の差分とする。ここで、「差分」とは、一方の値をもう一方の値から引いた値の絶対値とする。
 Si,j(*)=|IMRi,j(*)-IMLi,j(*)|   ・・・・(5)
 誤差検出部51は、差Si,j(*)と閾値TH(*)とを比較し、以下の処理を行う。
 次の3つの条件を全て満たせば、誤差検出部51は、選択加算部52へ誤差が無いことを示すフラグFL=0を出力する。条件1は、「Si,j(R)<TH(R)」である。条件2は、「Si,j(G)<TH(G)」である。条件3は、「Si,j(B)<TH(B)」である。条件1から3までを満たさない場合には、誤差検出部51は、選択加算部52へ誤差が有ることを示すフラグFL=1を出力する。
 選択加算部52は、フラグFL=0の場合には、画素値IMRi,j(*)と画素値IMLi,j(*)とを累積加算する。また、選択加算部52は、フラグFL=1の場合には、画素値IMRi,j(*)と画素値IMLi,j(*)との平均値IMAi,j=(IMRi,j(*)+IMLi,j(*))/2を累積加算する。
 誤差検出部51による誤差の解析結果に基づき、選択加算部52は、誤差を軽減した画素値IMRi,j(*)と画素値IMLi,j(*)の累積加算を符号i=1~Pについて実行し、符号j=1~Qについて実行する。
 選択加算部52は、上述の計算アルゴリズムをn=2,・・・,Nに対して行い、画像データの和TRn-1(*),TL(*)を得る。
 次に、画像データ(ずれ補正画像のデータ)DMの画素値の和TL(*)及び画像データ(ずれ補正画像のデータ)DMの画素値の和TR(*)の計算について述べる。オーバーラップ領域Rの画像データ(ずれ補正画像のデータ)DR及びオーバーラップ領域LN+1の画像データ(ずれ補正画像のデータ)DLN+1は、読取装置から得られない。このため、誤差検出部51は、画像データ(ずれ補正画像のデータ)DMの和TL(*)及び画像データ(ずれ補正画像のデータ)DMの和TR(*)を求める際に、差Si,j(*)と閾値TH(*)とを用いた閾値処理をしなう。誤差検出部51は、選択加算部52へ誤差が無いことを示すフラグFL=0を出力する。選択加算部52は、画素値IMRi,j(*)と画素値IMLi,j(*)とを随時累積加算する。
 式(1)の平均値ARn-1(*),AL(*),AR(*),ALn+1(*)は、画像データ(ずれ補正画像のデータ)DMの和TRn-1(*),TL(*),TR(*),TLn+1(*)をオーバーラップ領域R,Lの画素数(P×Q)で除算したものである。オーバーラップ領域R,Lのサイズは、Y軸方向をP画素とし、X軸方向をQ画素である。
 この時点で、平均値ARn-1(*),AL(*),AR(*),ALn+1(*)又は画像データ(ずれ補正画像のデータ)DMの和TRn-1(*),TL(*),TR(*),TLn+1(*)が得られる。そして、補正係数算出部42は、オーバーラップ領域Rn-1を代表するパラメータ値WRn-1(*)を計算することができる。同様に、補正係数算出部42は、オーバーラップ領域Lを代表するパラメータ値WL(*)を計算することができる。また、補正係数算出部42は、オーバーラップ領域Rを代表するパラメータ値WR(*)を計算することができる。さらに、補正係数算出部42は、オーバーラップ領域Ln+1を代表するパラメータ値WLn+1(*)を計算することができる。


次に、パラメータ値WL(*),WR(*)を用い、矩形画像IMにおいて左端(-X軸方向の端)を1番目とし、主走査方向(X軸方向)のq番目に位置する画素の補正係数WGnq(*)を、補正係数算出部42にて次のように導出する。
 n番目のイメージセンサ13の矩形画像データIMの主走査方向の画素数からオーバーラップ領域R,Lの主走査方向の画素数(2×画素数NO)を引いた画素数を画素数NIとする。また、オーバーラップ領域R,Lの主走査方向の幅を画素数で表して画素数NOとする。つまり、画素数NIに画素数NOの2倍を加算した値は、矩形画像IMの主走査方向の画素数である。画素数NOの2倍を加算する理由は、+X軸方向のオーバーラップ領域Rの主走査方向の画素数と-X軸方向のオーバーラップ領域Lの主走査方向の画素数とを加算するからである。このとき、矩形画像データIMに含まれる画素の位置は、画素の順番qで表すことができる。画素の順番qは、-X軸方向から+X軸方向にq=0、1、2、3、・・・、(NI+2×NO-1)と表現することができる。ただし、fixは小数点以下の値を打ち切る関数と定義して用いた。
 この表記(fix)を用いて、矩形画像IMの主走査方向でq番目に位置する画素の補正係数WGnq(*)は、式(6)のように求められる。
 WGnq(*)={WL(*)×(NI+NO-1-(q-fix(NO/2)))
      +WR(*)×(q-fix(NO/2))}/(NI+NO-1)
  q=fix(NO/2)、・・・、{NI+NO+fix(NO/2)-1}
   ・・・・(6)
 1番目(n=1)のイメージセンサ13の左側のオーバーラップ領域Lの補正係数WG1q(*)及びN番目(n=N)のイメージセンサ13の右側のオーバーラップ領域Rの補正係数WG(N)q(*)は、次の式(7)で求められる。
 WG1q(*)=WL(*)
  q=0、・・・、{fix(NO/2)-1}
 WG(N)q(*)=WR(*)
  q={NI+NO+fix(NO/2)+1}、・・・、{NI+2×NO-1}
   ・・・・(7)
 補正処理部43は、補正係数WGnq(*)を補正係数算出部42から受け取る。補正処理部43は、矩形画像IMの各画素の画素値に対し、補正係数WGnq(*)を乗算する。各画素の位置は、副走査方向(Y軸方向)にp=fix(P/2)番目である。そして、主走査方向にq=fix(NO/2)、・・・、{NI+NO+fix(NO/2)-1}番目である。
つまり、矩形画像IMに含まれる画像データ(ずれ補正画像のデータ)をDM(*)と表現すれば、明るさ補正画像のデータCDM(*)は、次の式(8)で求められる。
 CDM(*)=DM(*)×WGnq(*)   ・・・・(8)
 ずれ補正画像のデータDM(*)は、次に示す3つの領域の画像データから構成される。第1の領域は、オーバーラップ領域Lの範囲のX軸方向の中間に位置する画素からオーバーラップ領域Lの範囲の領域Iと隣り合う画素までの領域である。第2の領域は、領域Iである。第3の領域は、オーバーラップ領域Rの範囲の領域Iと隣り合う画素からオーバーラップ領域Rの範囲のX軸方向の中間に位置する画素までの領域である。画素値の最大値は、例えば、8ビット画像では255であり、10ビット画像では1023である。従って、画素値の最大値でCDM(*)をクリッピングし、最終的な明るさ補正画像CDMを得る。
 上記処理を全てのイメージセンサ13から得られる画像データ(初期画像)FDMに対し実行することで、イメージセンサ13から得られる全ての画像データ(初期画像)FDMの明るさを滑らかに繋ぎ合わせることができる。
 上記のように、本実施の形態2においては、オーバーラップ領域Rn-1とオーバーラップ領域Lとの同じ位置に相当する画素同士の画素値が大きく異なる場合には、画素値が大きく異なる画素対の画素値を、その画素対の平均値に置き換えて、平均値ARn-1(*)と平均値AL(*)とを算出する。
 また、本実施の形態2においては、赤色(R)、緑色(G)及び青色(B)のどれか一つでも画素同士の画素値が異なる場合には、それらの画素値を画素対の平均値に置き換える。これにより、明るさ補正の精度が悪くなることを抑えることができる。
 画像データ(ずれ補正画像のデータ)DRn-1,DL,DR,DLn+1の画素値の和TRn-1(*),TL(*),TR(*),TLn+1(*)についても同様である。
 オーバーラップ領域Rn-1又はオーバーラップ領域Lを読み取るどちらか片方のイメージセンサ13又は光学系等に埃など、点のゴミが存在した場合には、平均値ARn-1(*)と平均値AL(*)との間に大きな差ができてしまう。平均値ARn-1(*)は、オーバーラップ領域Rn-1の画素値の平均値である。平均値AL(*)は、オーバーラップ領域Lの画素値の平均値である。同様に、オーバーラップ領域R又はオーバーラップ領域Ln+1を読み取るどちらか片方のイメージセンサ13又は光学系等に埃など、点のゴミが存在した場合には、平均値AR(*)と平均値ALn+1(*)との間に大きな差ができてしまう。その結果、明るさを補正した後の明るさ補正画像CDMには、主走査方向に線状の弊害が発生してしまう。
 副走査方向に一定の長さのゴミが存在する場合には、副走査方向に数ライン分の幅の主走査方向に伸びる帯状の弊害が発生する。平均値AR(*)は、オーバーラップ領域Rの画素値の平均値である。平均値ALn+1(*)は、オーバーラップ領域Ln+1の画素値の平均値である。前述のような計算方法を用いることで、片方のイメージセンサ13又は光学系にゴミなどが存在しても、その影響を抑えて明るさを補正することができる。
 なお、以上のように本発明の実施の形態について説明したが、本発明はこれらの実施の形態に限るものではない。
 10 画像読取装置、11 照明光、 12 読取光学系、 13 イメージセンサ、 14 基板、 15 白基準板、 16 読取位置、 20 原稿、 30 画像処理装置、 31 黒補正・白補正部、 32 ずれ補正部、 33 画像結合部、 40 明るさ補正部、 41 平均値計算部、 42 補正係数算出部、 43 補正処理部、 51 誤差検出部、52 選択加算部、 DI 同時刻に読み取られたデータ、 IMn-1,IM,IMn+1 矩形画像、 In-1,I,In+1 領域、 Rn-1,R,Rn+1 オーバーラップ領域、 Ln-1,L,Ln+1 オーバーラップ領域、 WGnq 補正係数、 NO,NI 画素数、 F 搬送方向、 OL オーバーラップ部。

Claims (10)

  1.  隣り合う互いの端部の検出範囲が重なる部分を有するように主走査方向に並べられた複数のライン状のイメージセンサが出力する画像であって、前記検出範囲が重なる部分に対応する領域にオーバーラップ領域を有する画像を初期画像として入力し、
     前記オーバーラップ領域の画素値を基に補正係数を算出し、前記補正係数を用いて前記初期画像の明るさを補正して明るさ補正画像を出力する明るさ補正部と、
     前記明るさ補正画像を結合して再生画像を生成する画像結合部と
     を備え、
     前記補正係数は、複数の前記オーバーラップ領域の画素に対応した値の和について前記和を加算し、前記加算をした値を前記和のうちのひとつで割ることにより得られる比率を用いて算出される画像処理装置。
  2.  前記補正係数は、補正対象とする前記ずれ補正画像に対して、主走査方向の一端の方向を第1の方向とし、他端の方向を第2の方向として、
     第1の方向のオーバーラップ領域を第1のオーバーラップ領域とし、第2の方向のオーバーラップ領域を第2のオーバーラップ領域とし、前記補正対象のずれ補正画像の第1の方向に隣り合うずれ補正画像の前記第1のオーバーラップ領域と重なるオーバーラップ領域を第3のオーバーラップ領域とし、前記補正対象のずれ補正画像の第2の方向に隣り合うずれ補正画像の前記第2のオーバーラップ領域と重なるオーバーラップ領域を第4のオーバーラップ領域とする場合に、
     前記第1のオーバーラップ領域の画素に対応した値の和及び前記第3のオーバーラップ領域の画素に対応した値の和の加算値を前記第1のオーバーラップ領域の画素値の和で割った第1の比率と、前記第2のオーバーラップ領域の画素値の和及び前記第4のオーバーラップ領域の画素に対応した値の和の加算値を前記第2のオーバーラップ領域の画素に対応した値の和で割った第2の比率とを用いて算出される請求項1に記載の画像処理装置。
  3.  前記初期画像に対し、黒補正及び白補正を行い、シェーディング補正画像を出力する黒補正・白補正部(31)と、
     隣り合う前記イメージセンサの前記シェーディング補正画像に対して、副走査方向の位置ずれを補正してずれ補正画像を出力するずれ補正部と
    をさらに備えた請求項2に記載の画像処理装置。
  4.  前記画素に対応した値は、画素値である請求項3に記載の画像処理装置。
  5.  *を赤色、緑色又は青色を示す記号とし、nを前記イメージセンサの主走査方向に配置される順番を示す記号とし、iを1つの前記イメージセンサが出力する初期画像の主走査方向の画素の順番を示す記号とし、
     第n番目の前記ずれ補正画像の前記第1のオーバーラップ領域の画素値の加算値をTR(*)とし、前記第3のオーバーラップ領域の画素値の加算値をTLn+1(*)とし、前記TR(*)に対する{TR(*)+TLn+1(*)}/2の比をWR(*)とし、前記第2のオーバーラップ領域の画素値の加算値をTL(*)とし、前記第4のオーバーラップ領域の画素値の加算値をTRn―1(*)とし、前記TL(*)に対する{TRn-1(*)+TL(*)}/2の比をWL(*)とし、
     前記第n番目のずれ補正画像の主走査方向の画素数から前記第1及び第2のオーバーラップ領域の主走査方向の画素数を引いた画素数を画素数NIで表し、前記第1及び第2のオーバーラップ領域の主走査方向の画素数を画素数NOで表し、fixを小数点以下の値を打ち切る関数と定義する場合に、
     n番目の前記イメージセンサが出力する前記初期画像の主走査方向でi番目に位置する画素の補正係数WGni(*)は、
    WGni(*)={WL(*)×(NI+NO-1-(i-fix(NO/2)))+WR(*)×(i-fix(NO/2))}/(NI+NO-1)
    i=fix(NO/2)、・・・、{NI+NO+fix(NO/2)-1}
    で表される請求項4に記載の画像処理装置。
  6.  *を赤色、緑色又は青色を示す記号とし、nを前記イメージセンサの主走査方向に配置される順番を示す記号とし、iを1つの前記イメージセンサが出力する初期画像の主走査方向の画素の順番を示す記号とし、
     第n番目の前記ずれ補正画像の前記第1のオーバーラップ領域の画素値の平均値をAR(*)とし、前記第3のオーバーラップ領域の画素値の平均値をALn+1(*)とし、前記AR(*)に対する{AR(*)+ALn+1(*)}/2の比をWR(*)とし、前記第2のオーバーラップ領域の画素値の平均値をAL(*)とし、前記第4のオーバーラップ領域の画素値の平均値をARn―1(*)とし、前記AL(*)に対する{ARn-1(*)+AL(*)}/2の比をWL(*)とし、
     前記第n番目のずれ補正画像の主走査方向の画素数から前記第1及び第2のオーバーラップ領域の主走査方向の画素数を引いた画素数を画素数NIで表し、前記第1及び第2のオーバーラップ領域の主走査方向の画素数を画素数NOで表し、
    fixを小数点以下の値を打ち切る関数と定義する場合に、
    n番目の前記イメージセンサが出力する前記初期画像の主走査方向でi番目に位置する画素の補正係数WGni(*)は、
    WGni(*)={WL(*)×(NI+NO-1-(i-fix(NO/2)))+WR(*)×(i-fix(NO/2))}/(NI+NO-1)
    i=fix(NO/2)、・・・、{NI+NO+fix(NO/2)-1}
    で表される請求項4に記載の画像処理装置。
  7.  前記第1のオーバーラップ領域及び前記第3のオーバーラップ領域の対応する画素同士、又は前記第2のオーバーラップ領域及び前記第4のオーバーラップ領域の対応する画素同士を画素対として、
    前記画素に対応した値は、
    前記画素対の差分を外部から設定された閾値と比較し、赤色、緑色及び青色のすべての色において前記画素対の差分が外部から設定された閾値より小さい場合には、前記画素と設定され、
    赤色、緑色及び青色のどれかにおいて前記画素対の差分が外部から設定された閾値以上の場合には、前記画素対の平均値と設定される請求項2に記載の画像処理装置。
  8.  *を赤色、緑色又は青色を示す記号とし、nを前記イメージセンサの主走査方向に配置される順番を示す記号とし、iを1つの前記イメージセンサが出力する初期画像の主走査方向の画素の順番を示す記号とし、
     第n番目の前記ずれ補正画像の前記第1のオーバーラップ領域における前記画素に対応した値の加算値をTR(*)とし、前記第3のオーバーラップ領域における前記画素に対応した値の加算値をTLn+1(*)とし、前記TR(*)に対する{TR(*)+TLn+1(*)}/2の比をWR(*)とし、前記第2のオーバーラップ領域における前記画素に対応した値の加算値をTL(*)とし、前記第4のオーバーラップ領域における前記画素に対応した値の加算値をTRn―1(*)とし、前記TL(*)に対する{TRn-1(*)+TL(*)}/2の比をWL(*)とし、
     前記第n番目のずれ補正画像の主走査方向の画素数から前記第1及び第2のオーバーラップ領域の主走査方向の画素数を引いた画素数を画素数NIで表し、前記第1及び第2のオーバーラップ領域の主走査方向の画素数を画素数NOで表し、fixを小数点以下の値を打ち切る関数と定義する場合に、
     n番目の前記イメージセンサが出力する前記初期画像の主走査方向でi番目に位置する画素の補正係数WGni(*)は、
    WGni(*)={WL(*)×(NI+NO-1-(i-fix(NO/2)))+WR(*)×(i-fix(NO/2))}/(NI+NO-1)
    i=fix(NO/2)、・・・、{NI+NO+fix(NO/2)-1}
    で表される請求項7に記載の画像処理装置。
  9.  *を赤色、緑色又は青色を示す記号とし、nを前記イメージセンサの主走査方向に配置される順番を示す記号とし、iを1つの前記イメージセンサが出力する初期画像の主走査方向の画素の順番を示す記号とし、
     第n番目の前記ずれ補正画像の前記第1のオーバーラップ領域の前記画素に対応した値の平均値をAR(*)とし、前記第3のオーバーラップ領域の前記画素に対応した値の平均値をALn+1(*)とし、前記AR(*)に対する{AR(*)+ALn+1(*)}/2の比をWR(*)とし、前記第2のオーバーラップ領域の前記画素に対応した値の平均値をAL(*)とし、前記第4のオーバーラップ領域の画素値の前記画素に対応した値をARn―1(*)とし、前記AL(*)に対する{ARn-1(*)+AL(*)}/2の比をWL(*)とし、
     前記第n番目のずれ補正画像の主走査方向の画素数から前記第1及び第2のオーバーラップ領域の主走査方向の画素数を引いた画素数を画素数NIで表し、前記第1及び第2のオーバーラップ領域の主走査方向の画素数を画素数NOで表し、
    fixを小数点以下の値を打ち切る関数と定義する場合に、
    n番目の前記イメージセンサが出力する前記初期画像の主走査方向でi番目に位置する画素の補正係数WGni(*)は、
    WGni(*)={WL(*)×(NI+NO-1-(i-fix(NO/2)))+WR(*)×(i-fix(NO/2))}/(NI+NO-1)
    i=fix(NO/2)、・・・、{NI+NO+fix(NO/2)-1}
    で表される請求項7に記載の画像処理装置。
  10.  隣り合う互いの端部の検出範囲が重なる部分を有するように主走査方向に並べられた複数のライン状のイメージセンサが出力する画像であって、前記検出範囲が重なる部分に対応する領域にオーバーラップ領域を有する画像を初期画像として入力し、
     前記初期画像に対し、黒補正及び白補正を行い、シェーディング補正画像を出力する黒補正・白補正ステップと、
     隣り合う前記イメージセンサの前記シェーディング補正画像に対して、副走査方向の位置ずれを補正してずれ補正画像を出力するずれ補正ステップと、
     前記オーバーラップ領域の画素値を基に補正係数を算出し、前記補正係数を用いて前記ずれ補正画像の明るさを補正して明るさ補正画像を出力する明るさ補正ステップと、
     前記明るさ補正画像を結合して再生画像を生成する画像結合ステップと
     を備え、
     前記補正係数は、補正対象とする前記ずれ補正画像に対して、主走査方向の一端の方向を第1の方向とし、他端の方向を第2の方向として、
     第1の方向のオーバーラップ領域を第1のオーバーラップ領域とし、第2の方向のオーバーラップ領域を第2のオーバーラップ領域とし、前記補正対象のずれ補正画像の第1の方向に隣り合うずれ補正画像の前記第1のオーバーラップ領域と重なるオーバーラップ領域を第3のオーバーラップ領域とし、前記補正対象のずれ補正画像の第2の方向に隣り合うずれ補正画像の前記第2のオーバーラップ領域と重なるオーバーラップ領域を第4のオーバーラップ領域とする場合に、
     前記第1のオーバーラップ領域の画素に対応した値の和及び前記第3のオーバーラップ領域の画素に対応した値の和の加算値を前記第1のオーバーラップ領域の画素値の和で割った第1の比率と、前記第2のオーバーラップ領域の画素値の和及び前記第4のオーバーラップ領域の画素に対応した値の和の加算値を前記第2のオーバーラップ領域の画素に対応した値の和で割った第2の比率とを用いて算出される画像処理方法。
PCT/JP2014/000750 2013-02-28 2014-02-14 画像処理装置及び画像処理方法 WO2014132583A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015502748A JP6052389B2 (ja) 2013-02-28 2014-02-14 画像処理装置及び画像処理方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013039404 2013-02-28
JP2013-039404 2013-02-28

Publications (1)

Publication Number Publication Date
WO2014132583A1 true WO2014132583A1 (ja) 2014-09-04

Family

ID=51427863

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/000750 WO2014132583A1 (ja) 2013-02-28 2014-02-14 画像処理装置及び画像処理方法

Country Status (2)

Country Link
JP (1) JP6052389B2 (ja)
WO (1) WO2014132583A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115023937A (zh) * 2020-01-31 2022-09-06 三菱电机株式会社 图像读取装置和图像读取方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012004868A (ja) * 2010-06-17 2012-01-05 Mitsubishi Electric Corp 画像読取装置の画像処理方法および画像読取装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004139219A (ja) * 2002-10-16 2004-05-13 Seiko Instruments Inc 画像処理方法および画像処理装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012004868A (ja) * 2010-06-17 2012-01-05 Mitsubishi Electric Corp 画像読取装置の画像処理方法および画像読取装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115023937A (zh) * 2020-01-31 2022-09-06 三菱电机株式会社 图像读取装置和图像读取方法

Also Published As

Publication number Publication date
JP6052389B2 (ja) 2016-12-27
JPWO2014132583A1 (ja) 2017-02-02

Similar Documents

Publication Publication Date Title
US10326908B2 (en) Image reading apparatus and image reading method
US20090147110A1 (en) Video Processing Device
JP2011254321A (ja) 画像処理装置、および画像処理方法、並びにプログラム
US9578264B2 (en) Image processing device, imaging device, and image processing method
JP3157063B2 (ja) カラー画像入力装置
KR100809343B1 (ko) 디스플레이 장치 화면의 공간적 불균일을 보정하는 방법 및장치
JP2006050627A (ja) 色の歪みを補正するための方法およびシステム
JP6249939B2 (ja) 画像処理装置、画像処理方法、画像読取装置、及び画像処理プログラム
JP2011155572A (ja) 画像読取装置の画像処理方法
JP6052389B2 (ja) 画像処理装置及び画像処理方法
JP5570315B2 (ja) 画像読取装置の画像処理方法および画像読取装置
US7738738B2 (en) Mean preserving interpolation calculation circuit, pixel interpolation circuit, mean preserving interpolation method, and pixel interpolation method
JP5511535B2 (ja) 画像読取装置の画像処理方法および画像読取装置
US10848726B2 (en) Color-shift calibration method and device
JP2005079816A (ja) 画像データ作成方法および装置
JP5517769B2 (ja) 画像読取装置の画像処理方法および画像読取装置
JP5078394B2 (ja) 画像処理装置及び方法
JP2017098775A (ja) 撮像装置
JP4483746B2 (ja) 欠陥画素補正方法及び装置
JP2658089B2 (ja) カラー画像処理方法
JP6160264B2 (ja) 画像処理装置および画像処理方法
JP5590911B2 (ja) 画像読取装置及び方法
JPH10285343A (ja) 画像処理装置及び画像処理方法
JP2658086B2 (ja) カラー画像処理方法
JP2004235958A (ja) シェーディング補正方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14756998

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2015502748

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14756998

Country of ref document: EP

Kind code of ref document: A1