WO2016163133A1 - 画像結合装置、画像読取装置及び画像結合方法 - Google Patents

画像結合装置、画像読取装置及び画像結合方法 Download PDF

Info

Publication number
WO2016163133A1
WO2016163133A1 PCT/JP2016/052287 JP2016052287W WO2016163133A1 WO 2016163133 A1 WO2016163133 A1 WO 2016163133A1 JP 2016052287 W JP2016052287 W JP 2016052287W WO 2016163133 A1 WO2016163133 A1 WO 2016163133A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
images
combined
group
information
Prior art date
Application number
PCT/JP2016/052287
Other languages
English (en)
French (fr)
Inventor
山縣 浩作
正 美濃部
聡 山中
まさ子 浅村
善隆 豊田
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2016546122A priority Critical patent/JP6075588B1/ja
Priority to US15/540,125 priority patent/US9936098B2/en
Priority to CN201680018908.2A priority patent/CN107409165B/zh
Publication of WO2016163133A1 publication Critical patent/WO2016163133A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/1903Arrangements for enabling electronic abutment of lines or areas independently scanned by different elements of an array or by different arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/04Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa
    • H04N1/19Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays
    • H04N1/191Scanning arrangements, i.e. arrangements for the displacement of active reading or reproducing elements relative to the original or reproducing medium, or vice versa using multi-element arrays the array comprising a one-dimensional array, or a combination of one-dimensional arrays, or a substantially one-dimensional array, e.g. an array of staggered elements
    • H04N1/192Simultaneously or substantially simultaneously scanning picture elements on one main scanning line
    • H04N1/193Simultaneously or substantially simultaneously scanning picture elements on one main scanning line using electrically scanned linear arrays, e.g. linear CCD arrays
    • H04N1/1932Simultaneously or substantially simultaneously scanning picture elements on one main scanning line using electrically scanned linear arrays, e.g. linear CCD arrays using an array of elements displaced from one another in the sub scan direction, e.g. a diagonally arranged array
    • H04N1/1933Staggered element arrays, e.g. arrays with elements arranged in a zigzag
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3876Recombination of partial images to recreate the original image

Definitions

  • the present invention relates to an image combining device, an image reading device, and an image combining method.
  • An image reading apparatus that reads a paper document with a line sensor group composed of a plurality of short line sensors arranged in a zigzag pattern along the longitudinal direction is used.
  • the longitudinal direction (arrangement direction) of the line sensors is called a main scanning direction
  • the direction orthogonal to the longitudinal direction of the line sensors is called a sub-scanning direction.
  • the line sensors arranged in the main scanning direction in the line sensor group partially overlap the detection ranges when viewed from the sub scanning direction.
  • the line sensor group and the paper document are scanned relatively in the sub-scanning direction, and each line sensor reads a part of the paper document. Images read by each line sensor are combined at overlapping portions, and finally combined into one piece of image data.
  • the present invention has been made in view of the above circumstances, and an object thereof is to provide an image combining device, an image reading device, and an image combining method capable of combining image sequences at high speed.
  • an image combining apparatus includes a plurality of images having overlapping portions that are portions overlapping with other images, and images having overlapping portions corresponding to the same portion of the subject are adjacent to each other.
  • an image sequence that is ordered by arranging the images in this manner is provided for each group formed by grouping into a plurality of consecutive images, and the first image in the group and the order in the image sequence are provided with a plurality of image processing units that perform in parallel a process of detecting, by image matching, joint position information for joining adjacent second images without positional deviation, and a joint information transfer path.
  • the combined information transfer path transfers combined position information between the second image and the first image, the group of which is different from the first image, between the image processing units.
  • Each of the plurality of image processing units has no positional deviation between images belonging to other groups based on the combination position information detected by itself and the combination position information transferred via the combination information transfer path.
  • the images are combined in a state, and a plurality of images belonging to the corresponding group are combined with no positional deviation.
  • a plurality of images having overlapping portions that are portions overlapping with other images are ordered by arranging the images so that the images having the overlapping portions corresponding to the same portion of the subject are adjacent to each other.
  • the image sequence is divided into a plurality of consecutive images and grouped, and the first image in the group, the first image, and the second image in which the sequence in the image sequence is adjacent are parallel in each group. Since the combined position information is detected, the time for detecting the combined position information of these images can be shortened.
  • the coupling position information between the first image and the second image that is adjacent to the first image and is in a different group is transmitted and received between the image processing units via the coupling information transfer path.
  • each image processing unit can combine the images belonging to other groups with no positional deviation, and can combine the images belonging to the corresponding group without any positional deviation.
  • the image sequences can be combined at high speed.
  • FIG. 1 is a block diagram illustrating a configuration of an image reading apparatus according to an embodiment of the present invention. It is a figure which shows the arrangement
  • FIG. 4 is a diagram illustrating an example of a paper document read by an image reading device. It is a figure which shows a mode that a line sensor group and the image of a paper original are relatively scanned. It is a figure which shows an example of the image imaged by each line sensor. It is a block diagram which shows the structure of an A / D conversion part. It is a figure which shows the structure of the memory control part in the image combining apparatus which concerns on one embodiment of this invention.
  • FIG. 1 is a block diagram showing a configuration of an image reading apparatus according to an embodiment of the present invention.
  • the image reading apparatus 200 includes a line sensor group 1 formed on a substrate 50.
  • the line sensor group 1 includes a plurality of line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, and 1c-1 to 1c-4.
  • Each of the line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, and 1c-1 to 1c-4 is an image pickup device composed of a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor). It is a sensor arranged in a dimension.
  • the line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, and 1c-1 to 1c-4 output analog signals corresponding to the intensity of light beams incident on the image sensors arranged in the longitudinal direction. .
  • the line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, 1c-1 to 1c-4 repeatedly output analog signals at a constant period.
  • FIG. 2 is a diagram showing an array of line sensors in the image reading apparatus according to the embodiment of the present invention. As shown in FIG. 2, the plurality of line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, 1c-1 to 1c-4 have the same longitudinal direction and are staggered along the longitudinal direction. Is arranged.
  • FIG. 2 defines an XYZ orthogonal coordinate system composed of an X axis, a Y axis, and a Z axis.
  • the X-axis direction which is the longitudinal direction of the line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, 1c-1 to 1c-4 is defined as the main scanning direction.
  • the Y-axis direction is a sub-scanning direction orthogonal to the main scanning direction.
  • the Z-axis direction is a depth direction orthogonal to both the main scanning direction and the sub-scanning direction.
  • FIG. 3 is a diagram illustrating an example of a paper document read by the image reading apparatus.
  • an image of characters “ABCDEFGH” is formed on the paper document 20 in the main scanning direction (X-axis direction).
  • a plurality of line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, 1c-1 to 1c-4 capture the image “ABCDEFGH” of the paper document 20 as an object to be imaged (subject). Will be described as being imaged.
  • FIG. 4 is a diagram showing a state in which the line sensor group and the image of the paper original are relatively scanned.
  • the reflected light emitted from the illumination light source and reflected by the paper document 20 reaches a position where the substrate 50 is scanned via the imaging optical system, as shown in FIG. Twenty images 21 are formed.
  • the line driving unit 40 of the image reading apparatus 200 scans the line sensor group 1 relative to the image 21 of the paper document 20 at a constant speed in the sub-scanning direction (Y-axis direction). Cross the image 21. By this scanning, “ABCDEFGH” of the paper document 20 is imaged by the line sensor group 1.
  • FIG. 5 is a diagram illustrating an example of an image captured by each line sensor.
  • Each of the line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, 1c-1 to 1c-4 reads a part of the image 21 of the paper document 20 as a subject.
  • the plurality of images picked up by the line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, and 1c-1 to 1c-4 are scanned at the image pickup position on the subject.
  • the image sequences are ordered in the order in which those close to the direction are adjacent to each other.
  • the line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, 1c-1 to 1c-4 are staggered, that is, arranged in two rows every other along the X-axis direction.
  • An image captured by the line sensor is shifted in the sub-scanning direction.
  • the detection ranges of adjacent line sensors in different rows partially overlap as viewed from the sub-scanning direction, some of the images captured by the adjacent line sensors overlap. Therefore, the images picked up by the line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, and 1c-1 to 1c-4 are displayed as a whole when the overlapping portions of the subject are overlapped with each other.
  • One subject image is formed, and an image sequence is formed by arranging the images side by side with overlapping portions corresponding to the same portion of the subject next to each other.
  • the overlapping portion is a portion where the same portion of the subject is captured in a plurality of images and overlapped in the plurality of images. If it sees from a certain image, the part which overlaps with another image is an overlap part.
  • the line sensor group 1 is divided into three groups.
  • the first group is line sensors 1a-1 to 1a-4
  • the second group is line sensors 1b-1 to 1b-4
  • the third group is line sensors 1c-1 to 1c-. 4.
  • the image sequences captured by the line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, 1c-1 to 1c-4 are also captured by the line sensors 1a-1 to 1a-4.
  • the images are grouped into a plurality of images in which the imaging positions of the captured images, the images captured by the line sensors 1b-1 to 1b-4, and the images captured by the line sensors 1c-1 to 1c-4 are sequentially consecutive.
  • the image reading apparatus 200 includes a plurality of line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, 1c-1 to 1c-4, and a plurality of line sensors 1a-1 to 1a. -4, 1b-1 to 1b-4, and 1c-1 to 1c-4.
  • the image combining device 100 includes adjacent images captured by a plurality of line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, 1c-1 to 1c-4, and has a predetermined number or more at the end. By superimposing the portions where the pixels match, the image sequences captured by the line sensor group 1 are combined to generate one image.
  • the image combining device 100 includes a plurality of A / D conversion units 2 and a plurality of image processing units 7 that perform image processing on digital data signals output from the line sensor group 1 and A / D converted by the A / D conversion unit 2. And an image memory 8 for storing image data. Further, the image combining device 100 includes an image data transfer path 9 that transmits and receives image data between the image processing units 7, a combined information transfer path 10 that transfers combined information for combining images between the image processing units 7, And an output unit 15 that outputs the synthesized image data.
  • an A / D converter 2a, an image processor 7a, and an image memory 8a are provided corresponding to the group of line sensors 1a-1 to 1a-4. Further, an A / D conversion unit 2b, an image processing unit 7b, and an image memory 8b are provided corresponding to the group of line sensors 1b-1 to 1b-4. Further, an A / D conversion unit 2c, an image processing unit 7c, and an image memory 8c are provided corresponding to the group of line sensors 1c-1 to 1c-4.
  • image data transfer paths 9 a and 9 b are provided as the image data transfer path 9.
  • the image data transfer path 9a transfers image data between the image processing unit 7a and the image processing unit 7b
  • the image data transfer path 9b transfers image data between the image processing unit 7b and the image processing unit 7c.
  • combined information transfer paths 10a and 10b are provided as the combined information transfer path 10.
  • the combined information transfer path 10a transmits and receives combined information between the image processing unit 7a and the image processing unit 7b.
  • the combined information transfer path 10b transmits and receives combined information between the image processing unit 7b and the image processing unit 7c.
  • the A / D converters 2a, 2b, 2c, the image processors 7a, 7b, 7c and the image memories 8a, 8b, 8c can operate independently and in parallel.
  • FIG. 6 is a block diagram showing the configuration of the A / D converter.
  • the A / D converter 2 b includes four A / D converters 25 and a buffer 26.
  • the A / D converter 2b receives analog signals output from the line sensors 1b-1, 1b-2, 1b-3, 1b-4.
  • the four A / D converters 25 A / D convert analog signals input from the line sensors 1b-1, 1b-2, 1b-3, and 1b-4, respectively, and output digital data signals.
  • the four digital data signals output from the four A / D converters 25 are input to the buffers 26, respectively.
  • the buffer 26 stores four digital data signals arranged in a line.
  • the buffer 26 outputs digital data signals in the order of the line sensors 1b-1, 1b-2, 1b-3, 1b-4, that is, in the order in which they are arranged in the main scanning direction.
  • the A / D converter 2b outputs the digital data signal output from the buffer 26 to the image processor 7b as 1-line image data 1b-m.
  • the configuration of the A / D conversion units 2a and 2c is the same as the configuration of the A / D conversion unit 2b.
  • the A / D converter 2a receives analog signals output from the line sensors 1a-1, 1a-2, 1a-3, 1a-4, performs A / D conversion, and outputs digital data signals 1a-m. Output.
  • the A / D converter 2c receives analog signals output from the line sensors 1c-1, 1c-2, 1c-3, 1c-4, performs A / D conversion, and outputs a digital data signal 1c-m. Output.
  • each image processing unit 7 (7a, 7b, 7c) is implemented by an integrated logic IC (IC; Integrated ⁇ Circuit) such as an ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). It may be realized by a wear circuit.
  • IC integrated logic
  • ASIC Application Specific Integrated Circuit
  • FPGA Field Programmable Gate Array
  • Each image processing unit 7 (7a, 7b, 7c) is a software program in which hardware such as a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor) is stored in a memory. Execution, that is, hardware and software programs may be realized in cooperation.
  • Each image processing unit 7 includes a shading correction unit 3 that performs shading correction on the image data input from the A / D conversion unit 2, a memory control unit 4 that controls reading / writing of the image data to the image memory 8, and The image data stored in the image memory 8 is read via the memory control unit 4, and the combined information deriving unit 5 for deriving combined information based on the read image data, and the combined information derived by the combined information deriving unit 5 And an image combining unit 6 for combining images.
  • the image processing unit 7a includes a shading correction unit 3a, a memory control unit 4a, a combined information derivation unit 5a, and an image combining unit 6a.
  • the image processing unit 7b includes a shading correction unit 3b, a memory control unit 4b, A combined information deriving unit 5b and an image combining unit 6b are provided, and the image processing unit 7c is provided with a shading correction unit 3c, a memory control unit 4c, a combined information deriving unit 5c, and an image combining unit 6c. .
  • the shading correction unit 3 (3a, 3b, 3c) performs shading correction on the input digital data signal. For example, in the shading correction, luminance errors caused by individual characteristics of the image sensors of the line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, and 1c-1 to 1c-4 are reduced. If the brightness is uniform, the digital data signal is corrected so that the entire image has an average uniform brightness.
  • FIG. 7 is a diagram showing a configuration of the memory control unit in the image combining device according to the embodiment of the present invention. As shown in FIG. 7, each time the digital data signals 1a-m, 1b-m, 1c-m are input, the memory control unit 4 (4a, 4b, 4c) receives the digital data signals 1a-m, 1b-m. 1c-m are stored in the image memory 8 (8a, 8b, 8c).
  • the memory control units 4a and 4b include image temporary storage memories 11 (11a and 11b).
  • the memory control unit 4b converts t-byte data from the beginning of the input digital data signal 1b-m as data 1b-1t to the image temporary storage memory 11a of the memory control unit 4a via the image data transfer path 9a. Transfer and memorize.
  • the memory control unit 4c sets t1 (t is a natural number) bit data from the head of the input digital data signal 1c-m as data 1c-1t, and passes through the image data transfer path 9b to the memory control unit 4b. Is transferred to and stored in the temporary image storage memory 11b.
  • the t bit is large enough to cover the width in the main scanning direction of the overlapping portion of the detection range of each line sensor.
  • the memory control unit 4a stores the digital data 1b-1t stored in the image temporary storage memory 11a in a form connected to the digital data 1a-m stored in the image memory 8a.
  • the memory control unit 4b stores the digital data 1c-1t stored in the image temporary storage memory 11b in a form that is connected to the digital data 1b-m stored in the image memory 8b.
  • the memory control unit 4a converts the digital data obtained by combining the digital data 1a-m with the front end of the digital data 1b-1t into the image memory 8a. It memorizes sequentially. Further, each time the digital data 1b-m is input, the memory control unit 4b sequentially stores the digital data obtained by combining the rear end of the digital data 1b-m with the front end of the digital data 1c-1t in the image memory 8b. Each time the digital data 1c-m is input, the memory control unit 4c sequentially stores the digital data 1c-m in the image memory 8c.
  • FIG. 8 is a diagram showing an example of image data stored in the image memory in the image combining device according to the embodiment of the present invention.
  • the image memory 8a an image based on the digital data 1a-m captured by the line sensors 1a-1 to 1a-4 and a digital data 1b captured by the head portion of the line sensor 1b-1 are stored. -1t image is stored.
  • the image memory 8b stores an image based on the digital data 1b-m captured by the line sensors 1b-1 to 1b-4 and an image based on the digital data 1c-1t captured by the head portion of the line sensor 1c-1. Is done.
  • the image memory 8c stores images based on digital data 1c-m captured by the line sensors 1c-1 to 1c-4.
  • the memory control unit 4 (4a, 4b, 4c) stores the image data read by the line sensor group 1 in the image memory 8 (8a, 8b, 8c) and then, if necessary, a combined information deriving unit.
  • the image data stored in the image memory 8 (8a, 8b, 8c) is read and output to 5 (5a, 5b, 5c) or the image combining unit 6 (6a, 6b, 6c).
  • the memory control unit 4 (4a, 4b, 4c) can also read and output part of the image data stored in the image memory 8 (8a, 8b, 8c).
  • the combined information deriving units 5a, 5b, and 5c are a plurality of images stored in the image memory 8a, a plurality of images stored in the image memory 8b, and a plurality of images stored in the image memory 8c. Are combined without any positional deviation and without any luminance difference.
  • the line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, 1c-1 to 1c-4 are arranged in a staggered manner in the main scanning direction, and the detection range of each line sensor is They are partially overlapped when viewed from the sub-scanning direction. For this reason, the images read by the line sensors 1a-1 to 1a-4, 1b-1 to 1b-4, 1c-1 to 1c-4 are alternately positioned in the sub-scanning direction with respect to the adjacent images.
  • images are combined by shifting one of adjacent images in the sub-scanning direction and superimposing this area in the main scanning direction.
  • a region where a predetermined number or more of pixels coincide with each other at the end portions of the images in the main scanning direction becomes an overlapping portion which is a portion overlapping with other images in the image.
  • FIG. 9 is a diagram showing how images are combined.
  • the images captured by the line sensors 1a-1 to 1a-4 are referred to as images Pa1, Pa2, Pa3, and Pa4, respectively.
  • the images picked up by the line sensors 1b-1 to 1b-4 are referred to as images Pb1, Pb2, Pb3, and Pb4, respectively.
  • the images picked up by the line sensors 1c-1 to 1c-4 are referred to as images Pc1, Pc2, Pc3, and Pc4, respectively.
  • a part of the image Pb1 stored in the image memory 8a is referred to as an image Pa5.
  • This image Pa5 is an image formed by the digital data 1b-1t.
  • the image Pa5 is image data used for image matching between the image Pa4 and the image Pb1 in which the image Pa4 is in a different group.
  • the image Pa5 is transferred and stored in the image temporary storage memory 11a of the memory control unit 4a via the image data transfer path 9a, and then stored in the image memory 8a by the memory control unit 4a.
  • a part of the image Pc1 stored in the image memory 8b is referred to as an image Pb5.
  • This image Pb5 is an image formed by the digital data 1c-1t.
  • the image Pb5 is image data used for image matching between the image Pb4 and an image Pc1 in which the image Pb4 is in a different group.
  • the image Pb5 is transferred and stored in the image temporary storage memory 11b of the memory control unit 4b via the image data transfer path 9b, and then stored in the image memory 8b by the memory control unit 4b.
  • the memory control unit 4a may acquire the image Pa5 with reference to the image memory 8b, and the memory control unit 4b may acquire the image Pb5 with reference to the image memory 8c. In that case, the image data transfer paths 9a and 9b are unnecessary.
  • the combined information deriving unit 5a includes images Pa1 to Pa4 (first image and second image in the group) belonging to the corresponding group, and image Pa5 (second image adjacent to the first image).
  • image Pa5 second image adjacent to the first image
  • connection information for combining adjacent images without positional deviation and luminance deviation is derived by image matching.
  • the combined information deriving unit 5b includes the images Pb1 to Pb4 (first image and second image in the group) belonging to the corresponding group, and the image Pb5 (second image belonging to another group adjacent to the first image).
  • Image information is used to derive connection information for combining adjacent images without positional deviation and luminance deviation.
  • the combination information deriving unit 5c is a combination for combining adjacent images out of the images Pc1 to Pc4 (first image and second image in the group) belonging to the corresponding group without any positional deviation and luminance deviation.
  • Information is derived by image matching.
  • the second image that is image-matched with the first image is an image that is adjacent to the first image in the order in the image sequence.
  • the second image includes an image belonging to the same group as the first image and an image belonging to a group different from the first group.
  • FIG. 10 is a diagram illustrating an absolute coordinate system defined by a combined image in which each image is finally combined.
  • FIG. 10 shows a design coupling position Pa12 as a reference on which the image Pa1 and the image Pa2 are superimposed.
  • the combined information deriving unit 5a derives the positional deviation amount ( ⁇ Xp1, ⁇ Yp1) of the combined position between the image Pa1 and the image Pa2 from the point Pa12 as combined information.
  • FIG. 10 shows a design coupling position Pa23 that serves as a reference for superimposing the image Pa2 and the image Pa3.
  • the coupling information deriving unit 5a derives the positional deviation amounts ( ⁇ Xp2, ⁇ Yp2), ( ⁇ Xp3, ⁇ Yp3), ( ⁇ Xp4, ⁇ Yp4) of the coupling positions as coupling information (coupling position information).
  • design coupling positions serving as a reference for superposition in images Pb1, Pb2, Pb2, Pb3, Pb3, Pb4, Pb4, and Pb5 are Pb12, Pb23, Pb34, and Pb45.
  • the combined information deriving unit 5b combines the positional deviation amounts ( ⁇ Xp5, ⁇ Yp5), ( ⁇ Xp6, ⁇ Yp6), ( ⁇ Xp7, ⁇ Yp7), ( ⁇ Xp8, ⁇ Yp8) of the overlapping positions with respect to the combined positions Pb12, Pb23, Pb34, and Pb45. Derived as (binding position information). Further, as shown in FIG.
  • the design coupling positions serving as a reference for superposition in the images Pc1, Pc2, Pc2, Pc3, Pc3, and Pc4 are Pc12, Pc23, and Pc34.
  • the combined information deriving unit 5c derives the positional deviation amounts ( ⁇ Xp9, ⁇ Yp9), ( ⁇ Xp10, ⁇ Yp10), ( ⁇ Xp11, ⁇ Yp11) of the overlapping positions with respect to the combined positions Pc12, Pc23, and Pc34 as combined information (coupled position information). .
  • FIG. 11 is a block diagram showing a configuration of a combined information deriving unit in the image combining apparatus according to the embodiment of the present invention.
  • the combined information deriving unit 5 (5b) includes a matching region range initial value storage unit 30 (30b), a combined information detection unit 31 (31b), a combined information storage unit 32 (32b), A combined information temporary storage unit 33 (33b) and a combined information determination unit 34 (34b) are provided.
  • the matching area range initial value storage unit 30 (30b) stores the above-described combination positions Pb12, Pb23, Pb34, and Pb45 in the overlay design and the initial values of the range in which image matching is performed with the position coordinates as the center. .
  • the combination information detection unit 31 (31b) reads the image data around the overlapping area in the adjacent images from the image memory 8b via the memory control unit 4b.
  • the combined information detecting unit 31 (31b) reads the designed combined positions Pb12, Pb23, Pb34, Pb45 and the matching region range from the matching region range initial value storage unit 30 (30b) and reads the overlapping region from the image memory 8b. Perform image matching using surrounding images.
  • the combination information detection unit 31 (31b) detects the combination position information that is the optimum solution with the highest degree of correlation between both images. Specifically, the positional shift amounts ( ⁇ Xp5, ⁇ Yp5) to ( ⁇ Xp8, ⁇ Yp8) having the highest degree of correlation of image matching are detected as combined position information with reference to the designed combined positions Pb12 to Pb45.
  • FIG. 12 is a diagram showing a state of image matching between two images.
  • an image Pb2 located at the design coupling position Pb12 with respect to the image Pb1 is indicated by a dotted line.
  • the image Pb2 at the position of the optimum solution having the highest degree of correlation with the image Pb1 by image matching is indicated by a solid line.
  • a positional deviation between the image Pb2 (dotted line) and the image Pb2 (solid line) is obtained as a positional deviation amount ( ⁇ Xp5, ⁇ Yp5).
  • the combined information detection unit 31 (31b) detects the accuracy of the combined position in addition to the combined positions obtained as a plurality of optimum solutions. For example, if there are k (k is a natural number) multiple solutions, the accuracy may be calculated as 1 / k. The calculated accuracy is associated with the coupling position information and stored as coupling information in the coupling information storage unit 32 (32b).
  • the combined information detection unit 31 (31b) has an overlapping specified range when the images Pb1 to Pb5 are overlapped with each other centering on the positional deviation amounts ( ⁇ Xp5, ⁇ Yp5) to ( ⁇ Xp8, ⁇ Yp8) as combined position information.
  • the average luminance of the plurality of pixels is obtained, and the difference between the average luminances of the two images is calculated as luminance difference information.
  • the combined information detection unit 31 (31b) stores the calculated luminance difference information as combined information in the combined information storage unit 32 (32b).
  • the combined information detection unit 31 (31b) detects the combined position information, the accuracy of the combined position information, and the luminance difference information, and uses the detected information as combined information as the combined information storage unit 32 (32b). To remember.
  • image matching may be performed only in the sub-scanning direction to detect only the amount of misalignment in the sub-scanning direction.
  • FIG. 13 is a block diagram showing the overall configuration of the combined information deriving unit.
  • the combined information deriving units 5a and 5c operate in substantially the same manner as the combined information deriving unit 5b.
  • the combined information detecting unit 31 (31a) reads the images Pa1 to Pa5 from the image memory 8a via the memory control unit 4a, and further combines the designed combined positions Pa12, Pa23, Pa34, Pa45 and the matching area range are read from the matching area range initial value storage unit 30 (30a). Then, the combination information detection unit 31 (31a) performs image matching around the overlapping area in the adjacent image read from the image memory 8a.
  • the positional deviation amounts ( ⁇ Xp1, ⁇ Yp1) to ( ⁇ Xp4, ⁇ Yp4) are detected as the coupling position information, and the accuracy of the coupling position information and the luminance difference information are further detected.
  • the combined information is stored in the combined information storage unit 32 (32a).
  • the combined information detecting unit 31 reads from the image memory 8c via the memory control unit 4c, and matches the designed combined positions Pc12, Pc23, Pc34 and the matching region range.
  • the image is read from the area range initial value storage unit 30 (30c), and image matching around the overlapping area in the adjacent image read from the image memory 8c is performed.
  • the positional deviation amounts ( ⁇ Xp9, ⁇ Yp9) to ( ⁇ Xp11, ⁇ Yp11) are detected as the coupling position information, and further, the accuracy of the coupling position and the luminance difference information are detected.
  • the combined information is stored in the combined information storage unit 32 (32c).
  • an image Pa4 (first image) and an image Pa5 (second image having different groups from the first image). Is transmitted to and stored in the combined information temporary storage unit 33 (33b) of the image processing unit 7b via the combined information transfer circuit 10a. Further, of the combination information stored in the combination information storage unit 32 (32a), the combination between the image Pb4 (first image) and the image Pb5 (second image in which the first image is different in group). The information is transmitted and stored in the combined information temporary storage unit 33 (33c) of the image processing unit 7c via the combined information transfer circuit 10b.
  • FIG. 14 is a diagram showing how images are combined across different groups.
  • the amount of positional deviation ( ⁇ Xp4, ⁇ Yp4) between the image Pa4 and the image Pa5 is the amount of positional deviation between the image Pa4 and the image Pb1. Therefore, as described above, the combined information deriving unit 5 (5a) determines the positional deviation amount ( ⁇ Xp4, ⁇ Yp4) between the image Pa4 and the image Pa5 via the combined information transfer path 10a. It transmits to the combined information temporary storage part 33 (33b) of (5b), and stores it. Further, the positional deviation amounts ( ⁇ Xp8, ⁇ Yp8) between the image Pb4 and the image Pb5 are the positional deviation amounts between the image Pb4 and the image Pc1.
  • the combined information deriving unit 5 (5b) stores the positional deviation amount ( ⁇ Xp8, ⁇ Yp8) between the image Pb4 and the image Pb5 in the combined information temporary storage unit 33 (33c) of the combined information deriving unit 5 (5c). Send.
  • the combination information determination unit 34 (34b) stores the image Pb1.
  • the combined position information and brightness difference information of Pb4 are determined. For example, if the detected combination position (positional deviation amount) of an adjacent image is statistically significantly different from the combination position (positional deviation amount) of another adjacent image, the combination information determination unit 34 ( 34b) determines the coupling position based on the average value of the coupling positions (position shift amounts) of the other images without using the coupling information.
  • the joint information determination unit 34 (34b) does not use the joint information.
  • the combination position and the luminance difference are determined based on the average value of the combination information between other adjacent images.
  • the combined information determination unit 34 (34b) averages the combined position information of image matching between other adjacent images. Based on the value, the joint position information between the adjacent images is determined.
  • FIG. 15 is a diagram illustrating an example of how to obtain the combined position information of adjacent images based on the average value of the combined position information of other adjacent images. For example, as shown in FIG. 15, when a plurality of coupling positions are derived by image matching between the image Pb2 and the image Pb3, the amount of positional deviation obtained between the image Pb1 and the image Pb2 ( If an average value of the positional deviation amount (solid arrow) obtained between the image Pb3 and the image Pb4 is adopted as the positional deviation amount (dotted arrow) between the image Pb2 and the image Pb3. Good. In this way, in this embodiment, the influence of erroneously detected combined information is minimized.
  • the combined information temporary storage unit 33 (33b) stores the combined information between the image Pa4 and the image Pa5 sent from the combined information storage unit 32 (32a) of the image processing unit 7a. For this reason, the combination information determination unit 34 (34b) receives the combination information transmitted from the image processing unit 7a and combines adjacent images in the group in the same manner as the adjacent images in the group are combined. Determine binding information. All the determined combination information is output to the image combining unit 6b.
  • the image combining unit 6 (6a) reads the corresponding groups of images Pa1 to Pa4 from the image memory 8 (8a) via the memory control unit 4 (4a), and is determined by the combined information determining unit 34 (34a). Based on the luminance difference information, the luminance of each of the images Pa1 to Pa4 is corrected, and the images are combined based on the determined combination position information. The correction of the brightness is performed with reference to the image Pa1, for example. The images are combined on the absolute coordinate system (Xp, Yp). The image combining unit 6a outputs the combined image data to the output unit 15.
  • the image combination unit 6 (6b) reads the corresponding group of images Pb1 to Pb4 from the image memory 8 (8b) via the memory control unit 4 (4b), and is determined by the combination information determination unit 34 (34b).
  • the brightness of the images Pb1 to Pb4 is corrected based on the brightness difference information, and the images Pb1 to Pb4 are joined based on the joining position.
  • the correction of luminance is performed with reference to the image Pb1 (Pa5) whose luminance is corrected by the luminance difference from the image Pa4.
  • the image combining unit 6 b outputs the combined image data to the output unit 15.
  • the image combining unit 6 (6c) reads the corresponding group of images Pc1 to Pc4 from the image memory 8 (8c) via the memory control unit 4 (4c), and is determined by the combined information determining unit 34 (34c).
  • the brightness of the images Pc1 to Pc4 is corrected based on the brightness difference information, and the images Pc1 to Pc4 are combined based on the combination position.
  • the correction of luminance is performed on the basis of the image Pc1 (Pb5) whose luminance is corrected by the luminance difference with the image Pb4.
  • the image combining unit 6 c outputs the combined image data to the output unit 15.
  • the output unit 15 has, for example, an image memory 15M (see FIG. 1) defined by the absolute coordinate system (Xp, Yp) in FIG. 10, and displays and outputs an image set in the image memory 15M.
  • the combined image data output from the image combining units 6a, 6b, and 6c is set to the respective position coordinates determined at the time of combining in the absolute coordinate system (Xp, Yp).
  • FIG. 16 is a diagram illustrating a state in which the image data output from the image combining unit is set in the absolute coordinate system of the image memory 15M of the output unit.
  • images Pa1 to Pa4, images Pb1 to Pb4, and images Pc1 to Pc4 are set in the image memory 15M in a combined form. Since the images Pa1 to Pa4, the images Pb1 to Pb4, and the images Pc1 to Pc4 are combined in consideration of the positional deviation of all the images in the image combining units 6a, 6b, and 6c, there is no positional deviation between the images.
  • the image Pa1 to Pa4, the image Pb1 to Pb4, and the image Pc1 to Pc4 are corrected for the luminance difference in consideration of all luminance deviations in the image combining units 6a, 6b, and 6c, so that the image is unnatural. There is no brightness shift. As a result, a combined image obtained by combining all the images is displayed and output from the output unit 15, for example.
  • FIG. 17 is a diagram illustrating an example of an image output from the output unit.
  • the combined image 22 output from the output unit 15 is an image combined with no image positional deviation and no luminance difference, and thus matches well with the paper document shown in FIG. 3. .
  • FIG. 18 is a flowchart showing the operation of the image combining device.
  • the memory control unit 4 reads and transfers an image (step S1).
  • Digital data 1a-m, 1b-m, 1c-m captured by the line sensor group 1 and A / D converted by the A / D converter 2 (2a, 2b, 2c) are stored in the memory controller 4 (4a, 4b, 4c), the image memory 8 (8a, 8b, 8c) is written.
  • the digital data 1b-1t and 1c-1t are transferred from the memory control units 4b and 4c to the memory control units 4a and 4b via the image data transfer path 9 (9a and 9b). 8b is written.
  • the combination information detection unit 31 (31a, 31b, 31c) of the combination information deriving unit 5 (5a, 5b, 5c) detects the combination position information (position shift amount) of the adjacent images by image matching (step) S2).
  • FIG. 19 is a timing chart of image matching processing performed by the combined information detection unit. As shown in FIG. 19, image matching is performed in parallel by the three combination information detection units 31a, 31b, and 31c, and the combination position information of images related to each group is detected. Compared with a single image processing unit, the time for detecting the coupling position information can be shortened to each stage.
  • the combined information deriving unit 5 detects luminance difference information of adjacent images within a predetermined range centered on the detected combined position (step S3). ).
  • the combined information transfer path 10a transfers the detected combined information from the combined information deriving unit 5a to the combined information temporary storage unit 33b of the combined information deriving unit 5b, and the combined information transfer path 10b detects the combined information detected.
  • the information is transferred from the combined information deriving unit 5b to the combined information temporary storage unit 33c of the combined information deriving unit 5c (step S4).
  • the combined information determination unit 34 stores the combined information stored in the combined information storage unit 32 (32a, 32b, 32c) and, if present, the combined information temporary storage unit 33 (33b). , 33c) to determine the combination information (step S5).
  • step S2 when a combination position that becomes a plurality of optimum solutions is detected between images or when an optimum solution is not obtained, the average value of the combination positions detected between other images is obtained. Based on this, the joint position between the images is determined.
  • the image combination unit 6 (6a, 6b, 6c), based on the combination information determined by the combination information determination unit 34 (34a, 34b, 34c), the images Pa1 to Pa4, the images Pb1 to Pb4, and the image Pc1.
  • ⁇ Pc4 are combined (step S6).
  • the images are arranged and combined according to an absolute coordinate system (Xp, Yp) in which all the images are combined.
  • the output unit 15 inputs the images Pa1 to Pa4, the images Pb1 to Pb4, and the images Pc1 to Pc4 output from the image combining unit 6 (6a, 6b, 6c) into the image memory 15M, and combines all the images.
  • the image is displayed and output (step S7).
  • the image sequence captured by the line sensor group 1 is arranged so that images having overlapping portions corresponding to the same portion of the subject are arranged side by side, Are divided into a plurality of continuous images Pa1 to Pa4, Pb1 to Pb4, Pc1 to Pc4, and the images Pa1 to Pa4 in the group and the second images Pa2 to Pa5 adjacent thereto are parallel in each group. Since the combined position information is detected, the time for detecting the combined position information of these images can be shortened.
  • image data used for image matching between the image Pa4 and the image Pb4 and the images Pb1 and Pc1 in different groups are transmitted between the image processing units 7a and 7b via the image data transfer paths 9a and 9b, the image processing unit 7b, 7c is transferred.
  • the combined position information between the image Pa4 and the images Pb1 (Pa5) and Pc1 (Pb5) adjacent to the image Pa4 and in different groups can be detected by one of the image processing units 7a and 7b.
  • the combined position information between the images Pa4 and Pb4 and the images Pb1 and Pc1 that are adjacent to the images Pa4 and Pb4 and have different groups is connected to the image processing units 7a and 7b via the combined information transfer paths 10a and 10b.
  • each of the image processing units 7a, 7b, and 7c corrects the position of the image Pb1 by taking into account the positional deviation between the images belonging to other groups (for example, the positional deviation amount between the image Pa4 and the image Pa5).
  • the positional deviation between the images belonging to other groups for example, the positional deviation amount between the image Pa4 and the image Pa5.
  • an image sequence in which a plurality of images are arranged can be combined at high speed.
  • Considering a positional shift with an image belonging to another group means that the images are combined without any positional shift with an image belonging to another group.
  • Considering a luminance shift with an image belonging to another group means that the images are combined with an image belonging to another group without a luminance shift.
  • Time can be reduced to about 1/3.
  • the number of line sensors 1a-1 etc. is set to 12, and the number of line sensors 1a-1 etc. included in the group of line sensors 1a-1 etc. is set to 4, but the present invention is not limited to this. Is not limited.
  • the number of line sensors 1a-1 etc. may be four or more.
  • the number of line sensors 1a-1 etc. included in the group may be two or more. Even if the number of line sensors 1a-1 and the like increases, the time required for image combination can be shortened by increasing the number of groups.
  • the line sensor group 1 may not be arranged in a zigzag pattern. For example, it may be arranged in three or more rows. Further, the lengths of the line sensors 1a-1 and the like need not be the same.
  • the image reading apparatus 200 may include an imaging device that can capture an image sequence in which a plurality of images are ordered in the order of imaging positions on a subject and a predetermined number or more of pixels coincide with each other at the ends of the images having the closest imaging positions. That's fine. In that sense, a two-dimensional image sensor may be provided instead of the line sensor 1a-1 or the like.
  • the hardware configuration or software configuration of the image processing unit 7 (7a, 7b, 7c) is an example, and can be arbitrarily changed and modified.
  • the image temporary storage memories 11a and 11b may be outside the memory control units 4a and 4b.
  • the image memories 8a, 8b, and 8c may be inside the image processing units 7a, 7b, and 7c.
  • image data is transferred from the image processing units 7b and 7c to the image processing units 7a and 7b via the image data transfer paths 9a and 9b, and the image processing units 7a and 7b straddle groups.
  • Image matching between adjacent images was performed to detect combined information, and the detected combined information was transferred from the image processing units 7a and 7b to the image processing units 7b and 7c via the combined information transfer paths 10a and 10b.
  • the image data is transferred from the image processing units 7a and 7b to the image processing units 7b and 7c, and the image processing units 7b and 7c perform image matching of adjacent images across the groups to detect the combined information, and
  • the combined information may be transferred from the processing units 7b and 7c to the image processing units 7a and 7b.
  • the image processing unit 7 (7a, 7b, 7c) can be realized by using a normal computer system without using a dedicated system.
  • a computer program for executing the above operation is stored and distributed in a computer-readable recording medium (flexible disk, CD-ROM, DVD-ROM, etc.), and the computer program is installed in the computer.
  • the image processing unit 7 (7a, 7b, 7c) that executes the above-described processing may be configured.
  • the computer program is stored in a storage device included in a server device on a communication network such as the Internet, and the image processing unit 7 (7a, 7b, 7c) is configured by being downloaded by a normal computer system. Also good.
  • the functions of the image processing unit 7 (7a, 7b, 7c) are realized by sharing an OS (Operating System) and an application program, or in cooperation with the OS and the application program, only the application program portion is recorded on the recording medium. Or may be stored in a storage device.
  • OS Operating System
  • the computer program may be posted on a bulletin board (BBS, “Bulletin” Board System) on the communication network, and the computer program may be distributed via the network.
  • BBS bulletin board
  • the computer program may be started and executed in the same manner as other application programs under the control of the OS, so that the above-described processing may be executed.
  • the present invention can be applied to an image combining device that continuously combines adjacent images partially overlapping.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Facsimile Heads (AREA)

Abstract

 複数の画像処理部(7a、7b、7c)は、被写体の同じ部分に対応する重複部を持つ画像が隣り合うように並べた際に順番が連続する複数枚ずつの画像にグループ分けすることにより形成されたグループ毎に設けられ、グループ内の画像とその画像に隣接する画像とを位置ずれなく結合するための結合位置情報を画像マッチングにより検出する処理をそれぞれ並行して行う。結合情報転送経路(10a、10b)は、グループが異なる2つの画像との間の結合位置情報を、画像処理部(7a、7b)の間、画像処理部(7b、7c)の間で転送する。

Description

画像結合装置、画像読取装置及び画像結合方法
 この発明は、画像結合装置、画像読取装置及び画像結合方法に関する。
 長手方向に沿って、千鳥状に配列された複数の短尺のラインセンサから成るラインセンサ群で紙原稿を読み取る画像読取装置が利用されている。この画像読取装置では、一般的に、ラインセンサの長手方向(配列方向)が主走査方向と呼ばれ、ラインセンサの長手方向に直交する方向が副走査方向と呼ばれる。ラインセンサ群において主走査方向に並ぶラインセンサは、副走査方向から見た場合に検出範囲が一部重複している。
 ラインセンサ群と紙原稿とは副走査方向に相対的に走査され、各ラインセンサでは紙原稿の一部が読み取られる。各ラインセンサで読み取られた画像は、重複した部分で結合され、最終的に1枚の画像データに合成される。
 各ラインセンサで読み取られた画像を結合する方法として、各ラインセンサで撮像された画像同士の画像マッチングによる相関度に基づいて、副走査方向に関する各画像の結合位置を検出する方法が開示されている(例えば、特許文献1参照)。
特許第5322885号公報
 最近では、大型の紙原稿を読み取るために、ラインセンサの数が増えている。ラインセンサの数が増えると、画像同士の結合位置をすべて検出するのに時間がかかり、高速な画像の結合が困難になる。
 本発明は、上記実情に鑑みてなされたものであり、画像列を高速に結合することができる画像結合装置、画像読取装置及び画像結合方法を提供することを目的とする。
 上記目的を達成するために、この発明に係る画像結合装置は、他の画像と重複する部分である重複部を有する複数の画像を、被写体の同じ部分に対応する重複部を持つ画像が隣り合うように各画像を並べることで順序付けられる画像列を、順番が連続する複数枚ずつの画像にグループ分けすることにより形成されたグループ毎に設けられ、グループ内の第1の画像と画像列における順番が隣接する第2の画像とを位置ずれなく結合するための結合位置情報を画像マッチングにより検出する処理をそれぞれ並行して行う複数の画像処理部と、結合情報転送経路と、を備える。結合情報転送経路は、第1の画像とはグループが異なる第2の画像と第1の画像との間の結合位置情報を、画像処理部の間で転送する。複数の画像処理部のそれぞれは、自分が検出した結合位置情報と、結合情報転送経路を介して転送された結合位置情報とに基づいて、他のグループに属する画像との間で位置ずれがない状態で結合するとともに、対応するグループに属する複数の画像を位置ずれのない状態で結合する。
 この発明によれば、他の画像と重複する部分である重複部を有する複数の画像を、被写体の同じ部分に対応する前記重複部を持つ画像が隣り合うように各画像を並べることで順序付けられる画像列を、順番が連続する複数枚の画像に分けてグループ化し、グループ内の第1の画像と第1の画像と前記画像列における順番が隣接する第2の画像とについて、各グループで並行して結合位置情報を検出するので、それらの画像の結合位置情報を検出する時間を短縮することができる。また、第1の画像に隣接しグループが異なる第2の画像と第1の画像との間の結合位置情報は、結合情報転送経路を介して画像処理部間で送受信される。これにより、各画像処理部は、他のグループに属する画像との間で位置ずれがない状態で結合するとともに、対応するグループに属する複数の画像を位置ずれのない状態で結合することができる。この結果、画像列を高速に結合することができる。
この発明の一実施の形態に係る画像読取装置の構成を示すブロック図である。 この発明の一実施の形態に係る画像読取装置におけるラインセンサ群の配列を示す図である。 画像読取装置によって読み取られる紙原稿の一例を示す図である。 ラインセンサ群と紙原稿の像とが相対走査される様子を示す図である。 各ラインセンサによって撮像される画像の一例を示す図である。 A/D変換部の構成を示すブロック図である。 この発明の一実施の形態に係る画像結合装置におけるメモリ制御部の構成を示す図である。 この発明の一実施の形態に係る画像結合装置における画像メモリに記憶された画像データの一例を示す図である。 画像が結合される様子を示す図である。 各画像が最終的に結合される結合画像によって規定される絶対座標系を示す図である。 この発明の一実施の形態に係る画像結合装置における結合情報導出部の構成を示すブロック図である。 2つの画像の間の画像マッチングの様子を示す図である。 結合情報導出部の全体構成を示すブロック図である。 異なるグループに跨がって画像を結合する様子を示す図である。 他の隣接画像の結合位置情報の平均値に基づいて、隣接画像の結合位置情報を求める様子の一例を示す図である。 画像結合部から出力された画像データが出力部の画像メモリの絶対座標系にセットされた様子を示す図である。 出力部から出力された画像の一例を示す図である。 画像結合装置の動作を示すフローチャートである。 結合情報検出部で行われる画像マッチングの処理のタイミングチャートである。
 以下、この発明の実施の形態について、図面を参照して詳細に説明する。
 図1は、この発明の一実施の形態に係る画像読取装置の構成を示すブロック図である。図1に示すように、画像読取装置200は、基板50上に形成されたラインセンサ群1を備える。ラインセンサ群1は、複数のラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4から成る。
 ラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4は、それぞれが、CCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor )から成る撮像素子が1次元に配列されたセンサである。ラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4は、長手方向に配列された各撮像素子に入射する光束の強度に応じたアナログ信号を出力する。ラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4は、一定周期で繰り返しアナログ信号を出力する。
 図2は、この発明の一実施の形態に係る画像読取装置におけるラインセンサ群の配列を示す図である。図2に示すように、複数のラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4は、長手方向が同一であり、長手方向に沿って千鳥状に配列されている。
 図2には、X軸、Y軸、Z軸より成るXYZ直交座標系が規定されている。この実施の形態では、ラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4の長手方向であるX軸方向を主走査方向とする。また、Y軸方向を、主走査方向に直交する副走査方向とする。また、Z軸方向を、主走査方向及び副走査方向の両方に直交する深度方向とする。ラインセンサ群1を副走査方向から見ると、隣接するラインセンサの計測範囲は一部重複している。
 図3は、画像読取装置によって読み取られる紙原稿の一例を示す図である。図3に示すように、紙原稿20には、主走査方向(X軸方向)に例えば”ABCDEFGH”という文字の画像が形成されている。この実施の形態では、複数のラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4が、この紙原稿20の画像”ABCDEFGH”を撮像対象(被写体)として撮像するものとして説明する。
 図4は、ラインセンサ群と紙原稿の像とが相対走査される様子を示す図である。画像読取装置200において、照明光源から出射され紙原稿20で反射した反射光は、図4に示すように、結像光学系を介して基板50が走査される位置に到達し、ここに紙原稿20の像21が結像する。画像読取装置200の走査駆動部40により、紙原稿20の像21に対してラインセンサ群1が副走査方向(Y軸方向)に一定速度で相対走査され、ラインセンサ群1が紙原稿20の像21を横切る。この走査により、ラインセンサ群1で紙原稿20の”ABCDEFGH”が撮像される。
 図5は、各ラインセンサによって撮像される画像の一例を示す図である。各ラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4では、被写体としての紙原稿20の像21の一部が読み取られる。図5に示すように、各ラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4において撮像される複数の画像は、被写体上の撮像位置が主走査方向に近いもの同士を隣接させた順に順序付けられた画像列となる。ラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4は千鳥状、すなわちX軸方向に沿って1つ置きに2列に配列されているため、各ラインセンサで撮像される画像は、副走査方向にずれる。また、異なる列で隣り合うラインセンサの検出範囲は、副走査方向から見て一部重複しているため、隣接するラインセンサで撮像された画像の一部が重複している。したがって、各ラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4において撮像される画像は、この被写体の重複部を画像同士で重ね合わせると、全体で1枚の被写体画像を構成するようになり、被写体の同じ部分に対応する重複部を隣り合わせて各画像を並べることで順序付けられる画像列となる。重複部とは複数の画像で被写体の同じ部分が写っており、複数の画像で重複する部分である。ある画像から見れば、他の画像と重複する部分が重複部である。
 ラインセンサ群1は、3つのグループに分けられている。1つ目のグループがラインセンサ1a-1~1a-4であり、2つ目のグループがラインセンサ1b-1~1b-4であり、3つ目のグループがラインセンサ1c-1~1c-4である。このグループ分けにより、ラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4で撮像される画像列も、ラインセンサ1a-1~1a-4で撮像された画像、ラインセンサ1b-1~1b-4で撮像された画像、ラインセンサ1c-1~1c-4で撮像された画像という撮像位置が順に連続する複数枚の画像にグループ分けされる。
 図1に戻り、画像読取装置200は、複数のラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4に加え、複数のラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4でそれぞれ撮像された画像を結合する画像結合装置100を備える。画像結合装置100は、複数のラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4で撮像された隣接する画像同士で、端部において規定数以上の画素が一致する部分を重ね合わせることにより、ラインセンサ群1で撮像された画像列を結合して、1枚の画像を生成する。
 画像結合装置100は、複数のA/D変換部2と、ラインセンサ群1から出力されA/D変換部2でA/D変換されたデジタルデータ信号に対する画像処理を行う複数の画像処理部7と、画像データ記憶用の画像メモリ8と、を備える。さらに、画像結合装置100は、画像処理部7間で画像データを送受信する画像データ転送経路9と、画像を結合するための結合情報を画像処理部7間で転送する結合情報転送経路10と、合成された画像データを出力する出力部15と、を備える。
 この実施の形態では、ラインセンサ1a-1~1a-4のグループに対応して、A/D変換部2a、画像処理部7a及び画像メモリ8aが設けられている。また、ラインセンサ1b-1~1b-4のグループに対応して、A/D変換部2b、画像処理部7b及び画像メモリ8bが設けられている。さらに、ラインセンサ1c-1~1c-4のグループに対応してA/D変換部2c、画像処理部7c及び画像メモリ8cが設けられている。
 また、この実施の形態では、画像データ転送経路9として、画像データ転送経路9a、9bが設けられている。画像データ転送経路9aは、画像処理部7aと画像処理部7bとの間で画像データを転送し、画像データ転送経路9bは、画像処理部7bと画像処理部7cとの間で画像データを転送する。また、結合情報転送経路10として、結合情報転送経路10a、10bが設けられている。結合情報転送経路10aは、画像処理部7aと画像処理部7bとの間で結合情報を送受信する。結合情報転送経路10bは、画像処理部7bと画像処理部7cとの間で結合情報を送受信する。
 A/D変換部2a、2b、2c、画像処理部7a、7b、7c及び画像メモリ8a、8b、8cは、それぞれ独立して並行して動作可能である。
 図6は、A/D変換部の構成を示すブロック図である。図6に示すように、A/D変換部2bは、4つのA/D変換器25と、バッファ26とを備えている。A/D変換部2bは、ラインセンサ1b-1、1b-2、1b-3、1b-4から出力されるアナログ信号を入力する。4つのA/D変換器25は、それぞれラインセンサ1b-1、1b-2、1b-3、1b-4から入力されたアナログ信号をA/D変換して、デジタルデータ信号を出力する。4つのA/D変換器25から出力された4つのデジタルデータ信号は、それぞれバッファ26に入力される。バッファ26は、4つのデジタルデータ信号を1列に並ぶようにして記憶する。バッファ26は、ラインセンサ1b-1、1b-2、1b-3、1b-4の順に、すなわち主走査方向に並んでいる順に、デジタルデータ信号を出力する。A/D変換部2bは、バッファ26から出力されたデジタルデータ信号を、1ライン画像データ1b-mとして、画像処理部7bに出力する。
 A/D変換部2a、2cの構成も、A/D変換部2bの構成と同じである。A/D変換部2aは、ラインセンサ1a-1、1a-2、1a-3、1a-4から出力されるアナログ信号を入力して、A/D変換を行い、デジタルデータ信号1a-mを出力する。A/D変換部2cは、ラインセンサ1c-1、1c-2、1c-3、1c-4から出力されるアナログ信号を入力して、A/D変換を行い、デジタルデータ信号1c-mを出力する。
 図1に戻り、各画像処理部7(7a、7b、7c)は、例えば、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)等の集積ロジックIC(IC;Integrated Circuit)により、ハードウエア回路で実現されるものでもよい。また、各画像処理部7(7a、7b、7c)は、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)等のハードウエアがメモリに記憶されるソフトウエアプログラムを実行することにより、すなわちハードウエアとソフトウエアプログラムとが協働して実現されるものであってもよい。
 各画像処理部7は、A/D変換部2から入力される画像データについてシェーディング補正を行うシェーディング補正部3と、画像メモリ8への画像データの読み出し/書き込みを制御するメモリ制御部4と、画像メモリ8に記憶された画像データを、メモリ制御部4を介して読み込み、読み込んだ画像データに基づいて結合情報を導出する結合情報導出部5と、結合情報導出部5で導出された結合情報に基づいて、画像の結合を行う画像結合部6と、を備える。画像処理部7aには、シェーディング補正部3a、メモリ制御部4a、結合情報導出部5aと、画像結合部6aとが設けられ、画像処理部7bには、シェーディング補正部3b、メモリ制御部4b、結合情報導出部5bと、画像結合部6bとが設けられ、画像処理部7cには、シェーディング補正部3c、メモリ制御部4c、結合情報導出部5cと、画像結合部6cとが設けられている。
 シェーディング補正部3(3a、3b、3c)は、入力されたデジタルデータ信号に対してシェーディング補正を行う。例えば、シェーディング補正は、ラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4の撮像素子の個々の特性によって生じる輝度の誤差が低減され、撮像対象の輝度が一様な明るさであれば、画像全体が平均的に一様な明るさとなるようにデジタルデータ信号を補正する。
 図7は、この発明の一実施の形態に係る画像結合装置におけるメモリ制御部の構成を示す図である。図7に示すように、メモリ制御部4(4a、4b、4c)は、デジタルデータ信号1a-m、1b-m、1c-mを入力する度に、デジタルデータ信号1a-m、1b-m、1c-mを、画像メモリ8(8a、8b、8c)に記憶する。
 一方、メモリ制御部4a、4bは、画像一時保存メモリ11(11a、11b)を備えている。メモリ制御部4bは、入力したデジタルデータ信号1b-mのうち、先頭からtバイトのデータをデータ1b-1tとして、画像データ転送経路9aを介して、メモリ制御部4aの画像一時保存メモリ11aに転送し、記憶させる。また、メモリ制御部4cは、入力したデジタルデータ信号1c-mのうち、先頭からt(tは自然数)ビットのデータをデータ1c-1tとして、画像データ転送経路9bを介して、メモリ制御部4bの画像一時保存メモリ11bに転送し、記憶させる。このtビットは、各ラインセンサの検出範囲の重複部分の主走査方向の幅を十分にカバーできる大きさとなっている。
 メモリ制御部4aは、画像一時保存メモリ11aに記憶されたデジタルデータ1b-1tを画像メモリ8aに記憶されたデジタルデータ1a-mにつなげる形で記憶する。メモリ制御部4bは、画像一時保存メモリ11bに記憶されたデジタルデータ1c-1tを画像メモリ8bに記憶されたデジタルデータ1b-mにつなげる形で記憶する。
 図7に示すように、メモリ制御部4aは、デジタルデータ1a-mを入力する度に、デジタルデータ1a-mの後端にデジタルデータ1b-1tの前端を結合したデジタルデータを、画像メモリ8aに逐次記憶する。また、メモリ制御部4bは、デジタルデータ1b-mを入力する度に、デジタルデータ1b-mの後端にデジタルデータ1c-1tの前端を結合したデジタルデータを、画像メモリ8bに逐次記憶する。メモリ制御部4cは、デジタルデータ1c-mを入力する度に、デジタルデータ1c-mを、画像メモリ8cに逐次記憶する。
 図8は、この発明の一実施の形態に係る画像結合装置における画像メモリに記憶された画像データの一例を示す図である。図8に示すように、画像メモリ8aには、ラインセンサ1a-1~1a-4でそれぞれ撮像されたデジタルデータ1a-mによる画像とラインセンサ1b-1の先頭部分により撮像されたデジタルデータ1b-1tによる画像とが記憶される。画像メモリ8bには、ラインセンサ1b-1~1b-4でそれぞれ撮像されたデジタルデータ1b-mによる画像とラインセンサ1c-1の先頭部分により撮像されたデジタルデータ1c-1tによる画像とが記憶される。画像メモリ8cには、ラインセンサ1c-1~1c-4でそれぞれ撮像されたデジタルデータ1c-mによる画像が記憶される。
 メモリ制御部4(4a、4b、4c)は、ラインセンサ群1で読み取られた画像データが、画像メモリ8(8a、8b、8c)に記憶された後、必要に応じて、結合情報導出部5(5a、5b、5c)又は画像結合部6(6a、6b、6c)に対して、画像メモリ8(8a、8b、8c)に記憶された画像データを読み込んで出力する。メモリ制御部4(4a、4b、4c)は、画像メモリ8(8a、8b、8c)に記憶された画像データの一部を読み込んで出力することも可能である。
 図1に戻り、結合情報導出部5a、5b、5cは、画像メモリ8aに記憶された複数の画像と、画像メモリ8bで記憶された複数の画像と、画像メモリ8cで記憶された複数の画像とを、位置ずれなく、かつ、輝度差なく、結合するための結合情報を導出する。
 前述のように、各ラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4は、主走査方向に千鳥状に配列され、各ラインセンサの検出範囲が副走査方向から見て一部重複して配置されている。このため、各ラインセンサ1a-1~1a-4、1b-1~1b-4、1c-1~1c-4で読み取られた画像は、隣接する画像に対して、副走査方向に交互に位置ずれしており、主走査方向に、画像同士の端部において規定数以上の画素が一致する領域が存在する。この実施の形態では、隣接する画像の一方を副走査方向にずらし、主走査方向にこの領域を重ね合わせることにより、画像が結合される。主走査方向に画像同士の端部において規定数以上の画素が一致する領域が、その画像において、他の画像と重複する部分である重複部になる。
 図9は、画像が結合される様子を示す図である。ここで、ラインセンサ1a-1~1a-4で撮像された画像を、それぞれ画像Pa1、Pa2、Pa3、Pa4とする。また、ラインセンサ1b-1~1b-4で撮像された画像を、それぞれ画像Pb1、Pb2、Pb3、Pb4とする。さらに、ラインセンサ1c-1~1c-4で撮像された画像を、それぞれ画像Pc1、Pc2、Pc3、Pc4とする。
 画像メモリ8aに記憶される画像Pb1の一部の画像を画像Pa5とする。この画像Pa5は、デジタルデータ1b-1tによって形成される画像である。画像Pa5は、画像Pa4と、画像Pa4とはグループが異なる画像Pb1との間の画像マッチングに用いられる画像データである。画像Pa5は、画像データ転送経路9aを介して、メモリ制御部4aの画像一時保存メモリ11aに転送され記憶された後、メモリ制御部4aにより、画像メモリ8aに記憶される。また、画像メモリ8bに記憶される画像Pc1の一部の画像を画像Pb5とする。この画像Pb5は、デジタルデータ1c-1tによって形成される画像である。画像Pb5は、画像Pb4と、画像Pb4とはグループが異なる画像Pc1との間の画像マッチングに用いられる画像データである。画像Pb5は、画像データ転送経路9bを介して、メモリ制御部4bの画像一時保存メモリ11bに転送されて記憶された後、メモリ制御部4bにより、画像メモリ8bに記憶される。
 メモリ制御部4aが画像メモリ8bを参照して画像Pa5を取得し、メモリ制御部4bが画像メモリ8cを参照して画像Pb5を取得してもよい。その場合には、画像データ転送経路9a、9bは不要になる。
 図1に戻り、結合情報導出部5aは、対応するグループに属する画像Pa1~Pa4(グループ内の第1の画像と第2の画像)と、画像Pa5(第1の画像に隣接する第2の画像)のうち、隣接する画像を、位置ずれ、かつ、輝度ずれなく結合するための結合情報を画像マッチングにより導出する。結合情報導出部5bは、対応するグループに属する画像Pb1~Pb4(グループ内の第1の画像と第2の画像)と、画像Pb5(第1の画像に隣接する他のグループに属する第2の画像)とのうち、隣接する画像を、位置ずれ、輝度ずれなく結合するための結合情報を画像マッチングにより導出する。結合情報導出部5cは、対応するグループに属する画像Pc1~Pc4(グループ内の第1の画像と第2の画像)のうち、隣接する画像を位置ずれ、かつ、輝度ずれなく結合するための結合情報を画像マッチングにより導出する。なお、第1の画像と画像マッチングされる第2の画像は、画像列における順番が第1の画像と隣接する画像である。第2の画像には、第1の画像と同じグループに属するものと、第1のグループとは異なるグループに属するものとが存在する。
 この実施の形態では、最終的に、全ての画像が1枚の画像として結合するので、各画像を配置するための1つの絶対座標系が必要となる。図10は、各画像が最終的に結合される結合画像によって規定される絶対座標系を示す図である。図10には、画像Pa1と画像Pa2とが重ね合わせられる基準となる設計上の結合位置Pa12が示されている。結合情報導出部5aは、この点Pa12からの画像Pa1と画像Pa2との結合位置の位置ずれ量(ΔXp1、ΔYp1)を、結合情報として導出する。図10には、画像Pa2と画像Pa3とが重ね合わせられる基準となる設計上の結合位置Pa23が示されている。この他、画像Pa3と画像Pa4とが重ね合わされる設計上の結合位置Pa34、画像Pa4と画像Pa5とが重ね合わされる設計上の結合位置Pa45が示されている。結合情報導出部5aは、それらの結合位置の位置ずれ量(ΔXp2、ΔYp2)、(ΔXp3、ΔYp3)、(ΔXp4、ΔYp4)を結合情報(結合位置情報)として導出する。
 同様に、図10に示すように、画像Pb1、Pb2、画像Pb2、Pb3、画像Pb3、Pb4、画像Pb4、Pb5における重ね合わせの基準となる設計上の結合位置をPb12、Pb23、Pb34、Pb45とする。結合情報導出部5bは、結合位置Pb12、Pb23、Pb34、Pb45に対する重ね合わせ位置の位置ずれ量(ΔXp5、ΔYp5)、(ΔXp6、ΔYp6)、(ΔXp7、ΔYp7)、(ΔXp8、ΔYp8)を結合情報(結合位置情報)として導出する。また、図10に示すように、画像Pc1、Pc2、画像Pc2、Pc3、画像Pc3、Pc4における重ね合わせの基準となる設計上の結合位置をPc12、Pc23、Pc34とする。結合情報導出部5cは、結合位置Pc12、Pc23、Pc34に対する重ね合わせ位置の位置ずれ量(ΔXp9、ΔYp9)、(ΔXp10、ΔYp10)、(ΔXp11、ΔYp11)を結合情報(結合位置情報)として導出する。
 図11は、この発明の一実施の形態に係る画像結合装置における結合情報導出部の構成を示すブロック図である。図11に示すように、結合情報導出部5(5b)は、マッチング領域範囲初期値記憶部30(30b)と、結合情報検出部31(31b)と、結合情報記憶部32(32b)と、結合情報一時記憶部33(33b)と、結合情報決定部34(34b)と、を備える。
 マッチング領域範囲初期値記憶部30(30b)は、上述の重ね合わせの設計上の結合位置Pb12、Pb23、Pb34、Pb45と、その位置座標を中心とする画像マッチングを行う範囲の初期値を記憶する。
 結合情報検出部31(31b)は、隣接する画像における重複領域周辺の画像データを、画像メモリ8bから、メモリ制御部4bを介して読み込む。結合情報検出部31(31b)は、設計上の結合位置Pb12、Pb23、Pb34、Pb45及びマッチング領域範囲をマッチング領域範囲初期値記憶部30(30b)から読み込んで、画像メモリ8bから読み込んだ重複領域周辺の画像を用いた画像マッチングを行う。
 この画像マッチングにより、結合情報検出部31(31b)は、両画像の相関度が最も高い最適解となる結合位置情報を検出する。具体的には、設計上の結合位置Pb12~Pb45を基準として、画像マッチングの相関度が最も高い位置ずれ量(ΔXp5、ΔYp5)~(ΔXp8、ΔYp8)が結合位置情報として検出される。
 図12は、2つの画像の間の画像マッチングの様子を示す図である。図12では、画像Pb1に対して設計上の結合位置Pb12にある画像Pb2が点線で示されている。画像マッチングにより、画像Pb1との相関度が最も高い最適解の位置にある画像Pb2が実線で示されている。この場合、画像Pb2(点線)と画像Pb2(実線)との間の位置ずれが位置ずれ量(ΔXp5、ΔYp5)として求められる。
 ここで、重複領域を含む画像が、無地又は繰り返しパターンを含む画像である場合には、画像マッチングにより、複数の最適解が得られる場合がある。この場合には、検出される位置ずれ量(ΔXp5、ΔYp5)~(ΔXp8、ΔYp8)が誤って検出される可能性が高くなる。そこで、結合情報検出部31(31b)は、複数の最適解として得られた結合位置の他に、結合位置の正確度を検出する。例えば、複数解がk(kは自然数)個存在する場合には、正確度を1/kとして算出すればよい。算出された正確度は、結合位置情報と対応付けられて、結合情報として結合情報記憶部32(32b)に記憶される。
 また、結合情報検出部31(31b)は、結合位置情報としての位置ずれ量(ΔXp5、ΔYp5)~(ΔXp8、ΔYp8)を中心として、画像Pb1~Pb5を重ね合わせた時に、重なり合った規定範囲内の複数の画素の平均輝度を求め、両画像の平均輝度の差を輝度差情報として算出する。結合情報検出部31(31b)は、算出された輝度差情報を結合情報として結合情報記憶部32(32b)に記憶する。
 このように、結合情報検出部31(31b)は、結合位置情報、結合位置情報の正確度、輝度差情報を検出し、検出されたそれらの情報を結合情報として結合情報記憶部32(32b)に記憶する。
 なお、画像の位置ずれが、副走査方向のみに発生する場合には、副走査方向にのみ画像マッチングを行うようにして、副走査方向の位置ずれ量だけ検出するようにしてもよい。
 図13は、結合情報導出部の全体構成を示すブロック図である。図13に示すように、結合情報導出部5a、5cについても、結合情報導出部5bとほぼ同様に動作する。結合情報導出部5aでは、結合情報検出部31(31a)が、画像メモリ8aから、メモリ制御部4aを介して画像Pa1~画像Pa5を読み込んで、さらに設計上の結合位置Pa12、Pa23、Pa34、Pa45及びマッチング領域範囲をマッチング領域範囲初期値記憶部30(30a)から読み込む。そして、結合情報検出部31(31a)は、画像メモリ8aから読み込んだ隣接画像における重複領域周辺の画像マッチングを行う。これにより、位置ずれ量(ΔXp1、ΔYp1)~(ΔXp4、ΔYp4)が結合位置情報として検出され、さらに、結合位置情報の正確度、輝度差情報が検出される。これらの結合情報は、結合情報記憶部32(32a)に記憶される。
 また、結合情報導出部5cでは、結合情報検出部31(31c)が、画像メモリ8cから、メモリ制御部4cを介して読み込んで、設計上の結合位置Pc12、Pc23、Pc34及びマッチング領域範囲をマッチング領域範囲初期値記憶部30(30c)から読み込んで、画像メモリ8cから読み込んだ隣接画像における重複領域周辺の画像マッチングを行う。これにより、位置ずれ量(ΔXp9、ΔYp9)~(ΔXp11、ΔYp11)が結合位置情報として検出され、さらに、結合位置の正確度、輝度差情報が検出される。これら結合情報は、結合情報記憶部32(32c)に記憶される。
 図13に示すように、結合情報記憶部32(32a)へ記憶された結合情報のうち、画像Pa4(第1の画像)と画像Pa5(第1の画像とはグループが異なる第2の画像)との間の結合情報は、結合情報転送回路10aを介して、画像処理部7bの結合情報一時記憶部33(33b)に送信され、記憶される。また、結合情報記憶部32(32a)へ記憶された結合情報のうち、画像Pb4(第1の画像)と画像Pb5(第1の画像とはグループが異なる第2の画像)との間の結合情報は、結合情報転送回路10bを介して、画像処理部7cの結合情報一時記憶部33(33c)に送信され、記憶される。
 図14は、異なるグループに跨がって画像を結合する様子を示す図である。図14に示すように、画像Pa4と画像Pa5との間の位置ずれ量(ΔXp4、ΔYp4)は、画像Pa4と画像Pb1との間の位置ずれ量となる。そこで、結合情報導出部5(5a)は、上述のように、画像Pa4と画像Pa5との間の位置ずれ量(ΔXp4、ΔYp4)を、結合情報転送経路10aを介して、結合情報導出部5(5b)の結合情報一時記憶部33(33b)に送信し、記憶する。また、画像Pb4と画像Pb5との間の位置ずれ量(ΔXp8、ΔYp8)は、画像Pb4と画像Pc1との間の位置ずれ量となる。そこで、結合情報導出部5(5b)は、画像Pb4と画像Pb5との間の位置ずれ量(ΔXp8、ΔYp8)を、結合情報導出部5(5c)の結合情報一時記憶部33(33c)に送信する。
 結合情報決定部34(34b)は、結合情報記憶部32(32b)に記憶された画像の結合情報と、結合情報一時記憶部33(33b)に記憶された結合情報とに基づいて、画像Pb1~Pb4の結合位置情報と輝度差情報を決定する。例えば、検出されたある隣接画像の結合位置(位置ずれ量)が、他の隣接画像の結合位置(位置ずれ量)と比べて統計的に見て大きく異なる場合には、結合情報決定部34(34b)は、その結合情報を用いることなく、他の画像同士の結合位置(位置ずれ量)の平均値に基づいて、結合位置を決定する。また、隣接画像の最適解となる結合位置が複数求められており、正確度が低い場合(例えば0.5未満である)、結合情報決定部34(34b)は、その結合情報を用いることなく、他の隣接画像同士の結合情報の平均値に基づいて、結合位置と輝度差を決定する。
 すなわち、結合情報決定部34(34b)は、隣接画像の画像マッチングにより、最適な結合位置情報を1つに絞ることができない場合には、他の隣接画像同士の画像マッチングの結合位置情報の平均値に基づいて、その隣接画像の間の結合位置情報を決定する。
 図15は、他の隣接画像の結合位置情報の平均値に基づいて、隣接画像の結合位置情報を求める様子の一例を示す図である。例えば、図15に示すように、画像Pb2と画像Pb3との間の画像マッチングで複数個の結合位置が導出された場合には、画像Pb1と画像Pb2との間で求められた位置ずれ量(実線矢印)と、画像Pb3と画像Pb4との間で求められた位置ずれ量(実線矢印)との平均値を画像Pb2と画像Pb3との間での位置ずれ量(点線矢印)として採用すればよい。このようにして、この実施の形態では、誤検出された結合情報の影響を最小限に止めるようにしている。
 結合情報一時記憶部33(33b)には、画像処理部7aの結合情報記憶部32(32a)から送られた画像Pa4と画像Pa5との間の結合情報が記憶されている。このため、結合情報決定部34(34b)は、画像処理部7aから送信された結合情報を受信して、グループ内の隣接画像を結合するのと同様に、グループに跨がる隣接画像間の結合情報を決定する。決定された全ての結合情報は、画像結合部6bに出力される。
 画像結合部6(6a)は、画像メモリ8(8a)からメモリ制御部4(4a)を介して対応するグループの画像Pa1~Pa4を読み取って、結合情報決定部34(34a)で決定された輝度差情報に基づいて、各画像Pa1~Pa4の輝度を補正し、決定された結合位置情報に基づいて各画像を結合する。輝度の補正は、例えば、画像Pa1を基準として行われる。画像の結合は、絶対座標系(Xp、Yp)上で行われる。画像結合部6aは、結合された画像データを出力部15に出力する。
 画像結合部6(6b)は、画像メモリ8(8b)からメモリ制御部4(4b)を介して対応するグループの画像Pb1~Pb4を読み取って、結合情報決定部34(34b)で決定された輝度差情報に基づいて、画像Pb1~Pb4の輝度を補正し、結合位置に基づいて画像Pb1~Pb4を結合する。輝度の補正は、画像Pa4との輝度差で輝度が補正された画像Pb1(Pa5)を基準として行われる。画像結合部6bは、結合された画像データを出力部15に出力する。
 画像結合部6(6c)は、画像メモリ8(8c)からメモリ制御部4(4c)を介して対応するグループの画像Pc1~Pc4を読み取って、結合情報決定部34(34c)で決定された輝度差情報に基づいて、画像Pc1~Pc4の輝度を補正し、結合位置に基づいて画像Pc1~Pc4を結合する。輝度の補正は、画像Pb4との輝度差で輝度が補正された画像Pc1(Pb5)を基準として行われる。画像結合部6cは、結合された画像データを出力部15に出力する。
 出力部15は、例えば、図10における絶対座標系(Xp、Yp)で規定される画像メモリ15M(図1参照)を有し、画像メモリ15Mにセットされた画像を表示出力する。画像結合部6a、6b、6cから出力され結合された画像データは、絶対座標系(Xp、Yp)における結合時に決定されたそれぞれの位置座標にセットされる。
 図16は、画像結合部から出力された画像データが出力部の画像メモリ15Mの絶対座標系にセットされた様子を示す図である。図16に示すように、画像Pa1~Pa4、画像Pb1~Pb4、画像Pc1~Pc4が、すべて結合された形で、画像メモリ15Mにセットされる。画像Pa1~Pa4、画像Pb1~Pb4、画像Pc1~Pc4は、画像結合部6a、6b、6cにおいて、全ての画像の位置ずれを考慮して結合されているので、画像間に位置ずれはない。また、画像Pa1~Pa4、画像Pb1~Pb4、画像Pc1~Pc4は、画像結合部6a、6b、6cにおいて、全ての輝度ずれを考慮して輝度差が補正されているので、画像に不自然な輝度ずれはない。これにより、すべての画像が結合された結合画像が、出力部15から例えば、表示出力される。
 図17は、出力部から出力された画像の一例を示す図である。図17に示すように、出力部15から出力される結合画像22は、画像の位置ずれなく、かつ、輝度差なく結合された画像であるため、図3に示す紙原稿とよく一致している。
 次に、この実施の形態に係る画像結合装置100の動作について説明する。図18は、画像結合装置の動作を示すフローチャートである。
 図18に示すように、まず、メモリ制御部4(4a、4b、4c)は、画像読み込み及び転送を行う(ステップS1)。ラインセンサ群1で撮像され、A/D変換部2(2a、2b、2c)でA/D変換されたデジタルデータ1a-m、1b-m、1c-mは、メモリ制御部4(4a、4b、4c)によって、画像メモリ8(8a、8b、8c)に書き込まれる。これと同時に、画像データ転送経路9(9a、9b)を介して、デジタルデータ1b-1t、1c-1tが、メモリ制御部4b、4cからメモリ制御部4a、4bに転送され、画像メモリ8a、8bに書き込まれる。
 続いて、結合情報導出部5(5a、5b、5c)の結合情報検出部31(31a、31b、31c)は、画像マッチングにより、隣接画像の結合位置情報(位置ずれ量)を検出する(ステップS2)。図19は、結合情報検出部で行われる画像マッチングの処理のタイミングチャートである。図19に示すように、3つの結合情報検出部31a、31b、31cで並行して画像マッチングを行って、各グループに関連する画像の結合位置情報を検出するので、全ての隣接画像の画像マッチングを1つの画像処理部で行うよりも、結合位置情報を検出する時間を各段に短くすることができる。
 図18に戻り、続いて、結合情報導出部5(結合情報検出部31)は、検出された結合位置を中心とする予め決められた範囲内で隣接画像の輝度差情報を検出する(ステップS3)。
 続いて、結合情報転送経路10aが、検出された結合情報を、結合情報導出部5aから結合情報導出部5bの結合情報一時記憶部33bに転送し、結合情報転送経路10bが、検出された結合情報を、結合情報導出部5bから結合情報導出部5cの結合情報一時記憶部33cに転送する(ステップS4)。
 続いて、結合情報決定部34(34a、34b、34c)は、結合情報記憶部32(32a、32b、32c)に記憶された結合情報と、存在する場合には結合情報一時記憶部33(33b、33c)に記憶された結合情報とに基づいて、結合情報を決定する(ステップS5)。ここでは、例えば、ステップS2において、画像間で複数の最適解となる結合位置が検出された場合又は最適解が得られなかった場合に、他の画像間で検出された結合位置の平均値に基づいて、その画像間の結合位置が決定される。
 続いて、画像結合部6(6a、6b、6c)は、結合情報決定部34(34a、34b、34c)で決定された結合情報に基づいて、画像Pa1~Pa4、画像Pb1~Pb4、画像Pc1~Pc4を結合する(ステップS6)。ここでは、全ての画像が合成される絶対座標系(Xp、Yp)に従って、各画像が配置され、結合される。
 続いて、出力部15は、画像結合部6(6a、6b、6c)から出力された画像Pa1~Pa4、画像Pb1~Pb4、画像Pc1~Pc4を画像メモリ15Mに入力し、全ての画像の結合画像を表示出力する(ステップS7)。
 以上詳細に説明したように、この実施の形態によれば、ラインセンサ群1で撮像された画像列を、被写体の同じ部分に対応する重複部を持つ画像が隣り合うように並べた際に順番が連続する複数枚の画像Pa1~Pa4、Pb1~Pb4、Pc1~Pc4に分けてグループ化し、グループ内の画像Pa1~Pa4とそれに隣接する第2の画像Pa2~Pa5とについて、各グループで並行して結合位置情報を検出するので、それらの画像の結合位置情報を検出する時間を短縮することができる。また、画像Pa4、画像Pb4と、グループが異なる画像Pb1、Pc1との画像マッチングに用いられる画像データは、画像データ転送経路9a、9bを介して画像処理部7a、7b間、画像処理部7b、7c間で転送される。これにより、画像Pa4と、画像Pa4に隣接しグループが異なる画像Pb1(Pa5)、Pc1(Pb5)との間の結合位置情報を一方の画像処理部7a、7bで検出することができる。また、画像Pa4、Pb4と、その画像Pa4、Pb4に隣接しグループが異なる画像Pb1、Pc1との間の結合位置情報は、結合情報転送経路10a、10bを介して画像処理部7a、7b、画像処理部7b、7c間で送受信される。これにより、各画像処理部7a、7b、7cは、他のグループに属する画像との間の位置ずれを考慮しつつ(例えば、画像Pa4と画像Pa5の位置ずれ量等だけ画像Pb1の位置を補正しながら)、対応するグループに属する複数の画像を位置ずれのない状態で結合することができる。この結果、複数の画像が並ぶ画像列を高速に結合することができる。他のグループに属する画像との間の位置ずれを考慮するとは、他のグループに属する画像との間で位置ずれがない状態で結合することを意味する。他のグループに属する画像との間の輝度ずれを考慮するとは、他のグループに属する画像との間で輝度ずれがない状態で結合することを意味する。
 例えば、この実施の形態のように、画像列を3つのグループに分け、画像処理部7a、7b、7cを3つ備えるようにすれば、図19に示すように、画像を結合する処理に要する時間を約1/3に短縮することができる。
 なお、上記実施の形態では、ラインセンサ1a-1等の数を12とし、ラインセンサ1a-1等のグループに含まれるラインセンサ1a-1等の数を4つとしたが、本発明はこれには限られない。ラインセンサ1a-1等の数は4つ以上であればよい。また、グループに含まれるラインセンサ1a-1等の数は、2つ以上であればよい。ラインセンサ1a-1等の数が増えても、グループの数を増やせば、画像の結合に要する時間を短くすることができる。
 ラインセンサ群1は、千鳥状に配列されていなくてもよい。例えば、三列以上に配列されていてもよい。また、ラインセンサ1a-1等の長さは同じでなくてもよい。画像読取装置200は、複数の画像が被写体上の撮像位置の順に順序付けられ、撮像位置が最も近い画像同士の端部において規定数以上の画素が一致する画像列を撮像できる撮像素子を備えていればよい。その意味では、ラインセンサ1a-1等に代えて2次元撮像素子を備えていてもよい。
 その他、画像処理部7(7a、7b、7c)のハードウエア構成又はソフトウエア構成は一例であり、任意に変更および修正が可能である。
 例えば、画像一時保存メモリ11a、11bは、メモリ制御部4a、4bの外部にあってもよい。また、画像メモリ8a、8b、8cは、画像処理部7a、7b、7cの内部にあってもよい。
 また、上記実施の形態では、画像処理部7b、7cから画像処理部7a、7bに画像データ転送経路9a、9bを介して画像データを転送し、画像処理部7a、7bでグループに跨がる隣接画像の画像マッチングを行って、結合情報を検出し、結合情報転送経路10a、10bを介して、検出された結合情報を画像処理部7a、7bから画像処理部7b、7cに転送した。しかしながら、画像データを、画像処理部7a、7bから画像処理部7b、7cに転送し、画像処理部7b、7cでグループに跨がる隣接画像の画像マッチングを行って結合情報を検出し、画像処理部7b、7cから画像処理部7a、7bに結合情報を転送するようにしてもよい。
 画像処理部7(7a、7b、7c)については、専用のシステムによらず、通常のコンピュータシステムを用いて実現可能である。例えば、前記の動作を実行するためのコンピュータプログラムを、コンピュータが読み取り可能な記録媒体(フレキシブルディスク、CD-ROM、DVD-ROM等)に記憶して配布し、当該コンピュータプログラムをコンピュータにインストールすることにより、前記の処理を実行する画像処理部7(7a、7b、7c)を構成してもよい。また、インターネット等の通信ネットワーク上のサーバ装置が有する記憶装置に当該コンピュータプログラムを記憶しておき、通常のコンピュータシステムがダウンロード等することで画像処理部7(7a、7b、7c)を構成してもよい。
 画像処理部7(7a、7b、7c)の機能を、OS(Operating System)とアプリケーションプログラムの分担、またはOSとアプリケーションプログラムとの協働により実現する場合などには、アプリケーションプログラム部分のみを記録媒体や記憶装置に記憶してもよい。
 搬送波にコンピュータプログラムを重畳し、通信ネットワークを介して配信することも可能である。たとえば、通信ネットワーク上の掲示板(BBS, Bulletin Board System)にコンピュータプログラムを掲示し、ネットワークを介してコンピュータプログラムを配信してもよい。そして、このコンピュータプログラムを起動し、OSの制御下で、他のアプリケーションプログラムと同様に実行することにより、前記の処理を実行できるように構成してもよい。
 この発明は、この発明の広義の精神と範囲を逸脱することなく、様々な実施の形態及び変形が可能とされるものである。また、上述した実施の形態は、この発明を説明するためのものであり、この発明の範囲を限定するものではない。すなわち、この発明の範囲は、実施の形態ではなく、特許請求の範囲によって示される。そして、特許請求の範囲内及びそれと同等の発明の意義の範囲内で施される様々な変形が、この発明の範囲内とみなされる。
 なお、本願については、2015年4月9日に出願された日本国特許出願2015-080093号を基礎とする優先権を主張し、本明細書中に日本国特許出願2015-080093号の明細書、特許請求の範囲、図面全体を参照として取り込むものとする。
 本発明は、一部が重複する隣接画像を連続して結合する画像結合装置等に適用可能である。
 1 ラインセンサ群、1a-1~1a-4、1b-1~1b-4、1c-1~1c-4 ラインセンサ、2、2a、2b、2c A/D変換部、3、3a、3b、3c シェーディング補正部、4、4a、4b、4c メモリ制御部、5、5a、5b、5c 結合情報導出部、6、6a、6b、6c 画像結合部、7、7a、7b、7c 画像処理部、8、8a、8b、8c 画像メモリ、9、9a、9b 画像データ転送経路、10、10a、10b 結合情報転送経路、11、11a、11b 画像一時保存メモリ、15 出力部、15M 画像メモリ、20 紙原稿、21 像、22 結合画像、25 A/D変換器、26 バッファ、30、30a、30b、30c マッチング領域範囲初期値記憶部、31、31a、31b、31c 結合情報検出部、32、32a、32b、32c 結合情報記憶部、33、33b、33c 結合情報一時記憶部、34、34a、34b、34c 結合情報決定部、40 走査駆動部、50 基板、100 画像結合装置、200 画像読取装置。

Claims (5)

  1.  他の画像と重複する部分である重複部を有する複数の画像を、被写体の同じ部分に対応する前記重複部を持つ画像が隣り合うように各画像を並べることで順序付けられる画像列を、順番が連続する複数枚ずつの画像にグループ分けすることにより形成されたグループ毎に設けられ、グループ内の第1の画像と該第1の画像と前記画像列における順番が隣接する第2の画像とを位置ずれなく結合するための結合位置情報を画像マッチングにより検出する処理をそれぞれ並行して行う複数の画像処理部と、
     前記第1の画像とはグループが異なる前記第2の画像と前記第1の画像との間の前記結合位置情報を、前記画像処理部の間で転送する結合情報転送経路と、
     を備え、
     前記複数の画像処理部のそれぞれは、
     自分が検出した前記結合位置情報と、前記結合情報転送経路を介して転送された前記結合位置情報とに基づいて、他のグループに属する画像との間で位置ずれがない状態で結合するとともに、対応するグループに属する複数の画像を位置ずれのない状態で結合する、
     画像結合装置。
  2.  前記複数の画像処理部は、
     前記第1の画像と前記第2の画像との間で検出された前記結合位置情報に基づいて、前記第1の画像と前記第2の画像とを重ね合わせた時の前記輝度差情報を検出する処理をそれぞれ並行して行い、
     前記結合情報転送経路は、
     前記第1の画像とはグループが異なる前記第2の画像と前記第1の画像との間の前記輝度差情報を、前記画像処理部の間で転送し、
     前記複数の画像処理部のそれぞれは、
     自分が検出した輝度差情報と、前記結合情報転送経路を介して受信した輝度差情報とに基づいて、他のグループに属する画像との間で輝度ずれがない状態で結合するとともに、対応するグループに属する複数の画像を、輝度ずれのない状態で結合する、
     請求項1に記載の画像結合装置。
  3.  前記複数の画像処理部のそれぞれは、
     前記第1の画像と前記第2の画像との画像マッチングにより、前記結合位置情報を1つに絞ることができない場合には、
     他の画像同士の画像マッチングの前記結合位置情報の平均値に基づいて、前記第1の画像と前記第2の画像との間の前記結合位置情報を決定する、
     請求項1に記載の画像結合装置。
  4.  長手方向が同一で、前記長手方向に1つ置きに2列に配列され、異なる列で隣り合うラインセンサの検出範囲が前記長手方向に直交する方向から見て一部重複する複数のラインセンサから成るラインセンサ群と、
     前記ラインセンサ群と撮像対象とを、前記長手方向に直交する方向に相対走査させる走査駆動部と、
     前記走査駆動部による相対走査中に前記ラインセンサ群で撮像された画像列を構成する画像を結合する請求項1から3のいずれか一項に記載の画像結合装置と、
     を備える画像読取装置。
  5.  他の画像と重複する部分である重複部を有する複数の画像を、被写体の同じ部分に対応する前記重複部を持つ画像が隣り合うように各画像を並べることで順序付けられる画像列を、順番が連続する複数枚ずつの画像にグループ分けすることにより形成されたグループ毎に設けられた複数の画像処理部が、グループ内の第1の画像と前記画像列における順番が隣接する第2の画像とを位置ずれなく結合するための結合位置情報を画像マッチングにより検出する処理をそれぞれ並行して行う第1のステップと、
     前記第1の画像とはグループが異なる前記第2の画像との間の前記結合位置情報を、前記画像処理部の間で転送する第2のステップと、
     前記複数の画像処理部のそれぞれが、自分が検出した前記結合位置情報と、転送された前記結合位置情報とに基づいて、他のグループに属する画像との間で位置ずれがない状態で結合するとともに、対応するグループに属する複数の画像を位置ずれのない状態で結合する第3のステップと、
     を含む画像結合方法。
PCT/JP2016/052287 2015-04-09 2016-01-27 画像結合装置、画像読取装置及び画像結合方法 WO2016163133A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2016546122A JP6075588B1 (ja) 2015-04-09 2016-01-27 画像結合装置、画像読取装置及び画像結合方法
US15/540,125 US9936098B2 (en) 2015-04-09 2016-01-27 Image combination device, image reading device and image combination method
CN201680018908.2A CN107409165B (zh) 2015-04-09 2016-01-27 图像结合装置、图像读取装置及图像结合方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-080093 2015-04-09
JP2015080093 2015-04-09

Publications (1)

Publication Number Publication Date
WO2016163133A1 true WO2016163133A1 (ja) 2016-10-13

Family

ID=57072500

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/052287 WO2016163133A1 (ja) 2015-04-09 2016-01-27 画像結合装置、画像読取装置及び画像結合方法

Country Status (4)

Country Link
US (1) US9936098B2 (ja)
JP (1) JP6075588B1 (ja)
CN (1) CN107409165B (ja)
WO (1) WO2016163133A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3352444A1 (en) * 2017-01-23 2018-07-25 Seiko Epson Corporation Scanner, scan program, and method of producing scan data
EP3352443A1 (en) * 2017-01-23 2018-07-25 Seiko Epson Corporation Scanner, scan program, and method of producing scan data
CN108347542A (zh) * 2017-01-23 2018-07-31 精工爱普生株式会社 扫描仪、扫描程序以及扫描数据的生产方法

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10326908B2 (en) * 2015-03-16 2019-06-18 Mitsubishi Electric Corporation Image reading apparatus and image reading method
CN115023937A (zh) * 2020-01-31 2022-09-06 三菱电机株式会社 图像读取装置和图像读取方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120705A (ja) * 2002-09-30 2004-04-15 Fuji Photo Film Co Ltd 画像読取装置
JP2010244184A (ja) * 2009-04-02 2010-10-28 Seiko Epson Corp 映像処理装置、映像処理方法
JP5322885B2 (ja) * 2009-10-22 2013-10-23 三菱電機株式会社 画像結合装置及び画像結合位置算出方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5465163A (en) * 1991-03-18 1995-11-07 Canon Kabushiki Kaisha Image processing method and apparatus for processing oversized original images and for synthesizing multiple images
US5481375A (en) * 1992-10-08 1996-01-02 Sharp Kabushiki Kaisha Joint-portion processing device for image data in an image-forming apparatus
US5532845A (en) * 1994-11-21 1996-07-02 Xerox Corporation High speed high resolution platen scanning system using a plurality of scanning units
JPH09149192A (ja) * 1995-11-17 1997-06-06 Minolta Co Ltd 画像読取装置
US6373995B1 (en) * 1998-11-05 2002-04-16 Agilent Technologies, Inc. Method and apparatus for processing image data acquired by an optical scanning device
US6348981B1 (en) * 1999-01-19 2002-02-19 Xerox Corporation Scanning system and method for stitching overlapped image data
JP2004172856A (ja) * 2002-11-19 2004-06-17 Fuji Photo Film Co Ltd 画像データ作成方法および装置
US8228566B2 (en) * 2008-03-31 2012-07-24 Mitsubishi Electric Corporation Image reading apparatus
JP5068236B2 (ja) * 2008-10-28 2012-11-07 三菱電機株式会社 画像読取装置
JP5923867B2 (ja) * 2010-05-25 2016-05-25 株式会社リコー 画像読み取り装置及び画像形成装置
JP5747083B2 (ja) * 2010-10-01 2015-07-08 コンテックス・エー/エス 光学式スキャナにおけるイメージ・センサ・アラインメントの二次元較正
JP5806103B2 (ja) * 2011-12-20 2015-11-10 三菱電機株式会社 画像読取装置
JP6046966B2 (ja) * 2012-04-19 2016-12-21 キヤノン株式会社 画像処理装置及び画像処理方法、プログラム、並びに記憶媒体
CN103295215A (zh) * 2013-06-28 2013-09-11 电子科技大学 基于cis大幅面扫描仪的图像自动拼接方法
US10326908B2 (en) * 2015-03-16 2019-06-18 Mitsubishi Electric Corporation Image reading apparatus and image reading method
JP6536183B2 (ja) * 2015-06-01 2019-07-03 富士ゼロックス株式会社 画像読取装置及びプログラム
JP6422428B2 (ja) * 2015-12-11 2018-11-14 三菱電機株式会社 画像処理装置、画像処理方法、画像読取装置、及びプログラム
JP6759662B2 (ja) * 2016-03-30 2020-09-23 コニカミノルタ株式会社 画像読み取り装置、同装置における読み取りガラス面の異物検出方法及び異物検出プログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004120705A (ja) * 2002-09-30 2004-04-15 Fuji Photo Film Co Ltd 画像読取装置
JP2010244184A (ja) * 2009-04-02 2010-10-28 Seiko Epson Corp 映像処理装置、映像処理方法
JP5322885B2 (ja) * 2009-10-22 2013-10-23 三菱電機株式会社 画像結合装置及び画像結合位置算出方法

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3352444A1 (en) * 2017-01-23 2018-07-25 Seiko Epson Corporation Scanner, scan program, and method of producing scan data
EP3352443A1 (en) * 2017-01-23 2018-07-25 Seiko Epson Corporation Scanner, scan program, and method of producing scan data
CN108347540A (zh) * 2017-01-23 2018-07-31 精工爱普生株式会社 扫描仪、扫描程序以及扫描数据的生产方法
CN108347541A (zh) * 2017-01-23 2018-07-31 精工爱普生株式会社 扫描仪、扫描程序以及扫描数据的生产方法
CN108347542A (zh) * 2017-01-23 2018-07-31 精工爱普生株式会社 扫描仪、扫描程序以及扫描数据的生产方法
US10397434B2 (en) 2017-01-23 2019-08-27 Seiko Epson Corporation Scanner that combines images read by first and second sensor arrays, scan program, and method of producing scan data
CN108347541B (zh) * 2017-01-23 2019-10-15 精工爱普生株式会社 扫描仪、非易失性存储介质以及扫描数据的生成方法
CN108347540B (zh) * 2017-01-23 2019-11-08 精工爱普生株式会社 扫描仪、扫描程序以及扫描数据的生产方法
CN108347542B (zh) * 2017-01-23 2020-02-28 精工爱普生株式会社 扫描仪、计算机可读的非易失性存储介质以及扫描数据的生成方法
US10659653B2 (en) 2017-01-23 2020-05-19 Seiko Epson Corporation Scanner that combines images read by first and second sensor arrays, scan program, and method of producing scan data

Also Published As

Publication number Publication date
JPWO2016163133A1 (ja) 2017-04-27
CN107409165B (zh) 2019-07-23
CN107409165A (zh) 2017-11-28
JP6075588B1 (ja) 2017-02-08
US9936098B2 (en) 2018-04-03
US20180007232A1 (en) 2018-01-04

Similar Documents

Publication Publication Date Title
JP6075588B1 (ja) 画像結合装置、画像読取装置及び画像結合方法
US10674041B2 (en) Image capturing unit, color measuring device, image forming apparatus, color measuring system and color measurement method for capturing a reference chart and a subject
US20090074330A1 (en) Image reading apparatus, image forming apparatus, image reading method and computer readable medium storing program thereof
US20100067069A1 (en) Image forming apparatus and image forming method
US20070019255A1 (en) Image input apparatus and image forming method
TWI435600B (zh) Image sensor module and image sensor
US20170237873A1 (en) Image scanning apparatus, control method therefor, and multifunction apparatus
JP6701454B2 (ja) 読取装置および識別装置
JP6246379B2 (ja) 画像処理装置、画像処理方法、画像読取装置、及びプログラム
JP5322885B2 (ja) 画像結合装置及び画像結合位置算出方法
JP3719020B2 (ja) 画像読取り装置における画像データ補正方法
JP5732923B2 (ja) 光走査装置、画像形成装置、および光走査方法
US20110001844A1 (en) Blink signal detection circuit, blink signal detection method, object sensing apparatus, object sensing method, and imaging system
JP6690068B1 (ja) 受光ユニット
JP2015226127A (ja) 画像読取装置、画像結合方法及びプログラム
US6897979B1 (en) Multi-level image reading apparatus capable of detecting and correcting color position offsets
JP2020170992A (ja) 画像処理装置および計測装置
JP4107200B2 (ja) 欠陥画素補正装置及び方法
JP2002366887A (ja) シンボル情報読み取り装置
JP5429035B2 (ja) 密着型イメージセンサ
US20160112595A1 (en) Image Sensing Device
JP5251912B2 (ja) 画像読取装置
JP2019047441A (ja) 画像処理装置、読取装置、画像処理方法、およびプログラム
JP2006025289A (ja) マーカー装置及びそれを備えた画像読取装置
JP2000253210A (ja) カラー画像センサの光検出器

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2016546122

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16776302

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 15540125

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16776302

Country of ref document: EP

Kind code of ref document: A1