WO2016052411A1 - 画像読取装置及び方法、並びに読取領域表示装置及び方法、並びにプログラム - Google Patents

画像読取装置及び方法、並びに読取領域表示装置及び方法、並びにプログラム Download PDF

Info

Publication number
WO2016052411A1
WO2016052411A1 PCT/JP2015/077334 JP2015077334W WO2016052411A1 WO 2016052411 A1 WO2016052411 A1 WO 2016052411A1 JP 2015077334 W JP2015077334 W JP 2015077334W WO 2016052411 A1 WO2016052411 A1 WO 2016052411A1
Authority
WO
WIPO (PCT)
Prior art keywords
reading
image data
unit
area
image
Prior art date
Application number
PCT/JP2015/077334
Other languages
English (en)
French (fr)
Inventor
崇弘 三島
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Publication of WO2016052411A1 publication Critical patent/WO2016052411A1/ja
Priority to US15/462,486 priority Critical patent/US9843694B2/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00798Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity
    • H04N1/00801Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity according to characteristics of the original
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00007Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for relating to particular apparatus or devices
    • H04N1/00013Reading apparatus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00007Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for relating to particular apparatus or devices
    • H04N1/00023Colour systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00026Methods therefor
    • H04N1/00039Analysis, i.e. separating and studying components of a greater whole
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00071Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for characterised by the action taken
    • H04N1/00074Indicating or reporting
    • H04N1/00076Indicating or reporting locally
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00071Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for characterised by the action taken
    • H04N1/00082Adjusting or controlling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/0035User-machine interface; Control console
    • H04N1/00405Output means
    • H04N1/00408Display of information to the user, e.g. menus
    • H04N1/0044Display of information to the user, e.g. menus for image preview or review, e.g. to help the user position a sheet
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00798Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity
    • H04N1/00801Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity according to characteristics of the original
    • H04N1/00809Orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00798Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity
    • H04N1/00811Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity according to user specified instructions, e.g. user selection of reading mode
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00798Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity
    • H04N1/00816Determining the reading area, e.g. eliminating reading of margins
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00795Reading arrangements
    • H04N1/00798Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity
    • H04N1/00824Circuits or arrangements for the control thereof, e.g. using a programmed control device or according to a measured quantity for displaying or indicating, e.g. a condition or state
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3872Repositioning or masking
    • H04N1/3873Repositioning or masking defined only by a limited number of coordinate points or parameters, e.g. corners, centre; for trimming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/393Enlarging or reducing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/603Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer
    • H04N1/6033Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer using test pattern analysis
    • H04N1/6047Colour correction or control controlled by characteristics of the picture signal generator or the picture reproducer using test pattern analysis wherein the test pattern is part of an arbitrary user image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/0077Types of the still picture apparatus
    • H04N2201/0081Image reader

Definitions

  • the present invention relates to an image reading apparatus and method used for reading a printed matter, a reading area display apparatus and method, and a program.
  • the color correspondence between the original image data and the printed material on which the image is printed based on the original image data is obtained. ing. This correspondence is obtained by comparing the color information of the document image data with the color information of the read image data obtained by reading the printed matter with a scanner (reading unit).
  • the size of the printed material may be larger than a reading range (also referred to as a reading area) that can be read by the scanner.
  • the printed material is divided into a plurality of regions, each region is read by a scanner to obtain region-read image data for each region, and each region-read image data is combined to obtain the read image data of the entire printed material. It is usual to get.
  • Patent Document 1 describes that a blank portion is generated in an image based on read image data after combining by comparing the degree of inclination between the area image data read for the first time and the area image data read for the second time and thereafter.
  • An image reading apparatus for preventing the above is disclosed.
  • Patent Document 2 discloses an image reading device that combines region-read image data for each region using a cover sheet on which a grid indicating position information of the plurality of regions is printed in dropout color.
  • the image reading apparatus disclosed in Patent Document 2 has two types of illumination light that can acquire an image including a dropout color and an image not including the image when each region is read by a scanner after the cover sheet is superimposed on the printed matter. Switch.
  • the image reading apparatus disclosed in Patent Document 2 can acquire area-read image data for each area including a grid printed in dropout color and area-read image data for each area that does not include a grid.
  • the image reading apparatus disclosed in Patent Document 2 combines the read image data of the entire printed matter by combining the read image data of the areas not including the grid based on the position information acquired from the read area data of the areas including the grid. Have gained.
  • the correspondence between the color of the original image data and the printed material is such that the color information of the read image data of the partial area of the printed material (the above-described area read image data) can be obtained without obtaining the color information of the read image data of the entire printed material. Can be obtained from For this reason, it is not necessary to obtain the read image data of the entire printed matter like the image reading apparatuses described in Patent Document 1 and Patent Document 2, and conversely, it takes time and effort to obtain the read image data of the entire printed matter. Occurs.
  • the scanner when obtaining the correspondence between the color of the original image data and the printed material, the scanner reads a part of the optimum reading area of the printed material suitable for obtaining the correspondence between the two, and the scanned image data of the scanner It is preferable to obtain color information.
  • the optimum reading area is not always easily discriminated from the image printed on the printed matter. In some cases, it is necessary to repeat reading by the scanner many times while changing the reading area.
  • an optimum reading area it is usual to select an area including a main subject (product, person, etc.) rather than a background in an image printed on a printed matter or a surrounding margin (solid image portion). The position of the main subject in the image differs depending on the printed matter. As a result, the optimum reading area needs to be changed depending on the printed matter, and the optimum reading area cannot be easily determined.
  • An advantage of some aspects of the invention is that it provides an image reading apparatus and method, a reading area display apparatus and method, and a program capable of efficiently reading a printed matter. To do.
  • An image reading apparatus for achieving an object of the present invention includes a reading unit that reads a printed material on which an image is printed based on original image data, an original image data that is analyzed by the original image data, and the reading unit.
  • An image analysis unit that detects a feature amount used for specifying a positional relationship with the read image data of the printed material that has been read, and a reading area in which the reading unit reads the printed material is set based on the feature value detected by the image analysis unit
  • a reading area setting unit for setting at least one area including a feature amount in the document image data as a reading area, and reading based on a setting result of the reading area by the reading area setting unit.
  • a display unit that displays a set position of the printed material with respect to the printing unit, and the reading unit reads the printed material set in the reading unit after the display unit displays the set position.
  • the present invention it is possible to indicate to the user a reading area including a feature amount used for specifying the positional relationship between the document image data and the read image data in the document image data. Thereby, it is not necessary to repeat the reading by the reading unit many times while changing the reading area of the printed matter, and the reading area including the above-described feature amount can be read in a short time (about once).
  • the reading unit reads a printed material that is larger than a reading range in which the reading unit can read the printed material.
  • the reading unit reads a printed matter larger than the reading range, the reading area including the above-described feature amount in the document image data can be indicated to the user.
  • the display unit displays the set position so as to overlap the reduced image generated based on the document image data. Thereby, it is possible to indicate to the user a reading area including the above-described feature amount in the document image data.
  • the display unit selects and displays an area corresponding to the reading area in the image based on the document image data. Thereby, it is possible to indicate to the user a reading area including the above-described feature amount in the document image data.
  • the image analysis unit analyzes the edge image data generated based on the document image data, and characterizes the feature shape of the image used for specifying the positional relationship from the edge image data. Detect as quantity. Thereby, the above-mentioned feature amount can be automatically detected.
  • the image analysis unit detects a straight edge as the feature shape. Thereby, it is possible to automatically set a reading area including the above-described feature amount in the document image data.
  • the reading area setting unit sets a plurality of candidate areas as candidates for the reading area in the document image data, and at least the image analysis unit among the plurality of candidate areas.
  • An area including the feature amount detected by the above is set as a reading area. Thereby, it is possible to automatically set a reading area including the above-described feature amount in the document image data.
  • the reading area setting unit sets, as a reading area, an area that includes the largest amount of feature detected by the image analysis unit from among a plurality of candidate areas.
  • region can be set as a reading area
  • the alignment processing for performing the alignment process for specifying the positional relationship between the read image data read by the reading unit and the document image data is performed.
  • a color extracting unit that obtains color information from corresponding image positions of the read image data and the original image data and obtains a correspondence relationship between the read image data and the original image data. Thereby, the correspondence relationship between the color information of the read image data and the document image data is obtained.
  • An image reading method for achieving the object of the present invention is to analyze original image data in an image reading method for reading a printed matter using a reading unit for reading the printed matter on which an image is printed based on the original image data. Then, based on the image analysis step for detecting the feature amount used for specifying the positional relationship between the document image data and the read image data of the printed matter read by the reading unit, and the feature amount detected in the image analysis step, A reading area setting step for setting a reading area in which the reading unit reads a printed material, the reading area setting step for setting at least one area including a feature amount in the document image data as a reading area; Based on the setting result of the reading area in the setting step, a display step for displaying the set position of the printed material with respect to the reading unit, and a display step A reading steps, a reading of the set is set to the reading unit after the display of the position printed matter.
  • a reading area display device for achieving the object of the present invention is a reading area display for displaying a reading area of a printed material when the printed material is read by a reading unit that reads the printed material on which an image is printed based on document image data.
  • An image analysis unit that analyzes document image data and detects a feature amount used for specifying a positional relationship between the document image data and the read image data of the printed matter read by the reading unit; Is a reading area setting unit that sets a reading area in which the reading unit reads a printed material based on the detected feature quantity, and sets at least one area including the feature quantity in the document image data as the reading area.
  • a reading area setting unit and a display unit that displays a set position of the printed material with respect to the reading unit based on a setting result of the reading area by the reading area setting unit.
  • a reading area display method for achieving an object of the present invention includes a reading area display for displaying a reading area of a printed material when the printed portion is read by a reading unit that reads the printed material on which an image is printed based on document image data.
  • an image analysis step for analyzing document image data and detecting a feature amount used for specifying a positional relationship between the document image data and the read image data of the printed matter read by the reading unit; and an image analysis step
  • a reading area setting step in which the reading unit sets a reading area for reading a printed material based on the feature amount detected in step 1, and sets at least one area including the feature quantity in the document image data as the reading area.
  • the set position of the printed material with respect to the reading unit is displayed.
  • a display and a step that, a.
  • a program for achieving an object of the present invention causes a computer to function as means for displaying a printed material reading area when a printed material is read by a reading unit that reads a printed material on which an image is printed based on original image data.
  • An image analysis unit that is a program that analyzes a document image data and detects a feature amount used for specifying a positional relationship between the document image data and the read image data of a printed matter read by the reading unit.
  • a reading area setting unit that sets a reading area in which the reading unit reads a printed material based on the feature amount detected by the image analysis unit, wherein at least one area including the feature amount is included in the document image data.
  • the printed material is set in the reading unit.
  • the reading area setting unit to be set as the reading area and the setting result of the reading area by the reading area setting unit.
  • the printed material is set in the reading unit.
  • a computer-readable medium recording this program is also included in the present invention.
  • the image reading apparatus and method the reading area display apparatus and method, and the program of the present invention, it is possible to efficiently read a printed matter.
  • 1 is a schematic diagram illustrating an overall configuration of an image reading apparatus. It is a flowchart which shows the flow of the production
  • Parts (A) and (B) are explanatory diagrams for explaining the feature shape image data and reading area setting processing of the second embodiment.
  • Portions (A) to (C) are explanatory diagrams for explaining examples of the first edge total data, the second edge total data, and the third edge total data, respectively. It is explanatory drawing for demonstrating the example which detects characteristic shapes other than a linear edge.
  • FIG. 1 is a schematic diagram illustrating the overall configuration of the image reading apparatus 10.
  • the image reading apparatus 10 roughly includes a scanner 12 corresponding to the reading unit of the present invention and a scanner control device 14 corresponding to the reading area display apparatus of the present invention.
  • the scanner 12 reads a printed material 20 on which an image is printed by the printer 18 based on the original image data 16, and the scanner control device 14 generates the target profile 9 using the read result.
  • the document image data 16 is C (cyan), M (magenta), Y (yellow), and K (black) image data.
  • various printing methods such as an inkjet printing method and a flexographic printing method can be adopted.
  • the target profile 9 is also called “target profile” or “input profile”.
  • the target profile 9 is a color conversion that describes a conversion relationship of CMYK ⁇ Lab in which the target color (target color) of the CMYK signal in the device-dependent color space of the document image data 16 is defined in a device-independent color space (here, Lab space). It is a table.
  • the scanner 12 reads (also referred to as a scan) the printed material 20 on which an image is printed based on the document image data 16 under the control of the scanner control device 14, and generates and outputs the read image data 22 of the printed material 20.
  • the read image data 22 is R (red), G (green), and B (blue) image data.
  • a stationary scanner is used as an example of the scanner 12, but various types of known scanners can be used.
  • the size of the printed matter 20 is formed larger than the reading range that can be read on the reading surface (glass surface) of the scanner 12. Accordingly, a part of the printed material 20 is selected and set on the reading surface of the scanner 12.
  • the read image data 22 obtained by one reading by the scanner 12 is read image data corresponding to a partial area in the printed matter 20.
  • various printing methods such as an ink jet printing method and a flexographic printing method can be adopted as a printing format of the printed matter 20 by the printer 18.
  • the scanner control device 14 is composed of, for example, a personal computer and a monitor.
  • the scanner control device 14 controls reading of the printed material 20 by the scanner 12 and displays a reading area when the printed material 20 is read by the scanner 12. Further, the scanner control device 14 performs an association process between the document image data 16 and the read image data 22, that is, an alignment process that specifies the positional relationship between the two, and based on the result of the alignment process, the target profile 9 Generate.
  • the scanner control device 14 includes a control unit 30, an operation unit 31, a first image input I / F (interface) 32, an image analysis unit 33, a reading area setting unit 34, a display unit 35, and a second image.
  • An input I / F 36, an image association unit 39, a color conversion unit 40, and a color conversion table generation unit 41 are included.
  • the control unit 30 is, for example, a CPU (Central Processing Unit).
  • the control unit 30 controls the operation of each unit of the scanner control device 14 and the reading operation of the scanner 12 by appropriately executing a program read from a memory (not shown) according to an input instruction of the operation unit 31.
  • mouth, an operation key, a touch panel etc. can be used, for example.
  • the first image input I / F 32 functions as an image acquisition unit that acquires the document image data 16 from the outside of the image reading apparatus 10. For example, when the document image data 16 is recorded on an information recording medium such as a memory card, the reading I / F is used as the first image input I / F 32. Further, when the document image data 16 is stored in a server or various storage units on the network, a communication I / F is used as the first image input I / F 32.
  • the image analysis unit 33 analyzes the document image data 16 input from the first image input I / F 32, and determines the positional relationship between the document image data 16 and the read image data 22 from the document image data 16. A feature amount used in the matching process is detected. This feature amount is alignment information used in the above-described alignment processing. In this embodiment, the feature amount is an image used in geometric conversion processing for matching at least one of the document image data 16 and the read image data 22 with the other. The characteristic shape. Then, the image analysis unit 33 according to the present embodiment detects a linear edge of the image as a feature shape of the image suitable for the alignment process.
  • the image analysis unit 33 analyzes the document image data 16 to detect the presence / absence and length and position of a linear edge, and generates feature shape image data 45 indicating the detection results.
  • the feature shape image data 45 is used for setting a reading area when the scanner 12 reads the printed material 20 in a reading area setting unit 34 described later.
  • generation processing of the feature shape image data 45 generated by the image analysis unit 33 by analyzing the document image data 16 will be described.
  • FIG. 2 is a flowchart showing a flow of processing for generating the feature shape image data 45 by the image analysis unit 33.
  • the generation processing of the feature shape image data 45 is roughly divided into image division processing (step S1), luminance image conversion processing (steps S2 and S3), and edge image generation processing (step S4).
  • feature shape detection processing step S5.
  • the feature shape image data 45 is generated by repeatedly executing each process (steps S6, S7, S8).
  • FIG. 3 is an explanation for explaining the image division processing.
  • the image analysis unit 33 performs image division processing to divide the original image data 16 shown in the upper part of the drawing into a plurality of blocks BK in a lattice form as shown in the lower part of the drawing (FIG. 2). Step S1).
  • the division includes not only actually dividing the original image data 16 but also virtually dividing.
  • Each block BK is a rectangular area, and its size is appropriately determined according to the maximum reading range of the scanner 12, the size of the printed matter 20, and the like.
  • the size in which the blocks BK are arranged in m ⁇ n (m and n are arbitrary natural numbers) in the vertical and horizontal directions in the figure is equal to the maximum reading range (candidate area described later) of the scanner 12.
  • the size of each block BK is determined (see FIG. 7 and the like). Note that the block BK is not limited to the rectangular area, and may be changed to other shapes such as a circular area.
  • FIG. 4 is an explanatory diagram for explaining luminance image conversion processing and edge image generation processing.
  • the image analysis unit 33 sets, for example, a block BK located at the upper left corner of the document image data 16 as the first block BK (step S2 in FIG. 2). Then, the image analysis unit 33 extracts the luminance component from the CMYK signal of each pixel in the first block BK and obtains the luminance for each pixel, thereby converting the CMYK image data in this block BK into luminance image data.
  • a luminance image conversion process for conversion is performed (step S3 in FIG. 2). In addition, since the method of luminance image conversion processing is known, a specific description is omitted.
  • the image analysis unit 33 performs edge image generation processing for performing edge detection on the luminance image data in the first block BK and generating edge image data 47 ( Step S4 in FIG.
  • the edge detection is performed using, for example, a Canny filter, a Sobel filter, a Laplacian filter, or the like.
  • the edge detection is preferably performed using a Canny filter that can detect an edge with high accuracy.
  • FIG. 5 is an explanatory diagram for explaining the feature shape detection process.
  • the image analysis unit 33 detects the presence or absence of a linear edge in the block BK from the edge image data 47 in the first block BK, and the linear edge is detected. If it is detected, a feature shape detection process for detecting the length and the position thereof is performed (step S5 in FIG. 2).
  • a method of detecting a straight edge from the edge image data 47 a known straight line detection method using Hough transform or the like is used. In the drawing, “black circles” are given to linear edges of a certain length or longer detected by the image analysis unit 33.
  • the image analysis unit 33 performs the above-described luminance image conversion process on the CMYK image data in the second block BK adjacent to the first block BK on the document image data 16.
  • Edge image generation processing and feature shape detection processing are performed (YES in step S6, step S7, step S3 to step S5). Thereby, the presence / absence, the length and the position of the linear edge are detected for the second block BK.
  • the image analysis unit 33 scans the entire area of the document image data 16 while changing the position of the block BK, and the above-described steps S3 to S5 are performed on the CMYK image data in all the blocks BK. This process is repeatedly executed (NO in step S6). Note that the arrows in FIG. 3 to FIG. 5 described above conceptually show how the entire area is scanned while changing the position of the block BK.
  • the image analysis unit 33 After the scanning of all areas is completed, the image analysis unit 33 generates the feature shape image data 45 based on the detection result of the presence / absence and length of the linear edge for each block BK (step S8).
  • edge image data 47 is generated for each block BK and feature shape detection (linear edge detection) is performed.
  • edge image data 47 is generated for the entire document image data 16. After that, the feature shape may be detected for each block BK.
  • FIG. 6 is an explanatory diagram for explaining the feature shape image data 45.
  • the feature shape image data 45 is obtained by detecting the presence / absence, the length, and the position of a linear edge for each block BK obtained by the analysis of the document image data 16 by the image analysis unit 33 described above. The result is shown.
  • the feature shape image data 45 is divided (including virtually divided) in units of the block BK.
  • the feature shape image data 45 includes valid block image data 45 (OK) and invalid block image data 45 (NG).
  • the effective block image data 45 (OK) is block image data that can be used as alignment information used for alignment processing of the document image data 16 and the read image data 22.
  • the image analysis unit 33 determines whether or not a predetermined criterion that can be used as alignment information is satisfied for each block BK based on the presence / absence and the length of a linear edge for each block BK and the detection result of the position. judge. Then, the image analysis unit 33 sets the block image data of the block BK that satisfies the predetermined criterion as effective block image data 45 (OK).
  • this predetermined standard for example, a straight edge having a certain length or more is included, a plurality of edges intersecting each other, or a plurality of edges having a certain number or more are included.
  • the predetermined standard can be changed by the user to a desired standard.
  • the invalid block image data 45 (NG) is block image data that cannot be used as alignment information, contrary to the valid block image data 45 (OK).
  • the image analysis unit 33 sets the block image data corresponding to the block BK that does not satisfy the predetermined criterion as invalid block image data 45 (NG).
  • the area corresponding to the invalid block image data 45 (NG) is displayed in a mask with a shaded line.
  • this identification method is not particularly limited.
  • the image analysis unit 33 outputs the document image data 16 and the feature shape image data 45 to the reading area setting unit 34.
  • the reading area setting unit 34 sets a reading area when the printed matter 20 is read by the scanner 12 based on the feature shape image data 45 input from the image analysis unit 33.
  • This reading area is an area set on the reading surface of the scanner 12 in the printed matter 20.
  • the reading area setting unit 34 sets a plurality of candidate areas as candidates for the reading area in the feature shape image data 45, and includes the most effective block image data 45 (OK) in each candidate area.
  • a candidate area is set as a reading area.
  • FIG. 7 to 10 are explanatory diagrams for explaining setting of a reading area (candidate area) by the reading area setting unit 34.
  • the reading area setting unit 34 uses, as a starting point SA, one of the four corners (upper left corner) of the image based on the feature shape image data 45, and sets the first candidate area RA in contact with the outer periphery of the image as a feature shape.
  • each candidate area including the first candidate area RA is set to the size of the reading surface which is the maximum reading size of the scanner 12.
  • Each candidate area is an area where the printed material 20 does not interfere with the setting when the printed material 20 contacts the hinge supporting the top plate of the scanner 12 when the printed material 20 is set on the reading surface of the scanner 12. It is set to the area that touches the outer periphery of the image.
  • the feature shape image data 45 counts the number of effective block image data 45 (OK) in the first candidate area RA.
  • the reading area setting unit 34 of the present embodiment sets a candidate area so as to be in contact with the outer periphery of the image based on the feature shape image data 45, but is a marker indicating a reference position in the feature shape image data 45.
  • a marker indicating a reference position in the feature shape image data 45.
  • data of an area finally removed from the printed matter 20 such as a registration mark is included.
  • an area in contact with the outer periphery of an effective image in the image based on the feature shape image data 45 may be set as a candidate area.
  • the reading area setting unit 34 uses the lower left corner of the image based on the feature shape image data 45 as the start point SB, and sets the second candidate area RB in contact with the outer periphery of the image as the feature shape image data 45. After the setting, the number of effective block image data 45 (OK) in the second candidate area RB is counted.
  • the reading area setting unit 34 uses the upper right corner of the image based on the feature shape image data 45 as the start point SC and sets the third candidate area RC in contact with the outer periphery of the image as the feature shape image data 45.
  • the number of effective block image data 45 (OK) in the third candidate area RC is counted.
  • the reading area setting unit 34 sets the fourth candidate area RD in contact with the outer periphery of the image as the starting point SD in the feature shape image data 45 based on the lower right corner of the image. After the setting, the number of effective block image data 45 (OK) in the fourth candidate region RD is counted.
  • the reading region setting unit 34 determines the effective block image data 45 in each candidate region RA to RD. A candidate area containing the most (OK) is set as a reading area. Thereafter, the reading area setting unit 34 outputs the setting result of the reading area to the display unit 35. Further, the reading area setting unit 34 outputs the document image data 16 to the display unit 35.
  • the candidate area that contains the most effective block image data 45 (OK) is set as the reading area.
  • at least one candidate area that includes at least the effective block image data 45 (OK) is set as the reading area. May be set as
  • the display unit 35 indicates the set position of the printed matter 20 with respect to the scanner 12, that is, the reading region of the printed matter 20 based on the original image data 16 input from the reading region setting unit 34 and the setting result of the reading region.
  • a reading area display screen 50 (see FIG. 11) is displayed.
  • FIG. 11 is a front view of the reading area display screen 50.
  • the reading area display screen 50 includes an image display field 52, a scan start button 53, a stop button 54, and a message that prompts the user to set the printed material 20 at a predetermined position. .
  • a reduced image based on the reduced image data 56 generated from the document image data 16 and a reading frame 57 indicating the set position of the printed matter 20 with respect to the scanner 12 are displayed.
  • the display unit 35 generates reduced image data 56 in accordance with the size of the image display field 52 from the document image data 16, and displays a reduced image based on the reduced image data 56 in the image display field 52. Further, the display unit 35 displays the reading frame 57 on the reduced image on the image display column 52 based on the setting result of the reading area. Thereby, on the reading area display screen 50, the setting position of the printed matter 20 with respect to the scanner 12, that is, the reading area of the printed matter 20 is indicated to the user.
  • the scan start button 53 is a button for starting the reading of the printed matter 20 by the scanner 12.
  • the scanner 12 reads the read area of the printed matter 20, and generates read image data 22 (RGB values) of the read area.
  • “click” of a button includes an operation corresponding to the button such as touch.
  • the stop button 54 is a button for stopping the reading of the printed matter 20 by the scanner 12.
  • the reading area setting unit 34 sets a plurality of reading areas, for example, two reading areas, first, the reading frame 57 corresponding to the first reading area is displayed. Next, after acquiring the read image data of the first reading area, the reading frame 57 corresponding to the second reading area is displayed. The same applies when three or more reading areas are set.
  • FIG. 12 is a front view of a reading area display screen 50A, which is another embodiment of the reading area display screen 50 shown in FIG. As shown in FIG. 12, on the reading area display screen 50A, instead of displaying the reduced image based on the reduced image data 56 described above, only the area corresponding to the reading area in the original image based on the original image data 16 is displayed. indicate.
  • the reading area display screen 50A is basically the same as the reading area display screen 50 except that an image display field 52A different from the image display field 52 is included.
  • the image display field 52A an area corresponding to the reading area in the original image based on the original image data 16 is displayed.
  • the display unit 35 selects or cuts out the reading area image data 59 corresponding to the reading area from the original image data 16 based on the original image data 16 and the reading area setting result set by the reading area setting unit 34.
  • a reading area image based on the reading area image data 59 is displayed in the image display field 52A.
  • the reading area image displayed in the image display field 52A indicates the set position of the printed matter 20 with respect to the scanner 12, that is, the reading area of the printed matter 20.
  • the second image input I / F 36 functions as an image acquisition unit that acquires the read image data 22 generated and output by the scanner 12, and is similar to the first image input I / F 32 described above.
  • Various I / Fs can be used.
  • the scanner 12 and the second image input I / F 36 are connected via a wired or wireless communication network, and the read image data 22 generated by the scanner 12 is automatically used as the second image input I / F 36.
  • the second image input I / F 36 is provided separately from the first image input I / F 32, but both may be integrated.
  • the second image input I / F 36 outputs the read image data 22 to the image association unit 39.
  • the image association unit 39 receives the read image data 22 from the second image input I / F 36 and the document image data 16 from the first image input I / F 32.
  • the image associating unit 39 associates (positions aligning) image positions between the original image data 16 in the CMYK color space and the read image data 22 in the RGB color space, and outputs color information from the image area at the corresponding position. Perform extraction. For this reason, the image association unit 39 includes an image position alignment unit 62 and a color extraction unit 63.
  • the image alignment unit 62 performs alignment processing for specifying the positional relationship between the document image data 16 and the read image data 22.
  • a known method can be used for this alignment processing, and for example, the technique described in paragraphs [0064]-[0068] of Japanese Patent Laid-Open No. 2013-30996 can be used.
  • the image alignment unit 62 estimates the geometric correspondence between the document image data 16 and the read image data 22, and based on this geometric correspondence, both of the two image data are obtained.
  • a geometric transformation process for matching is performed.
  • the geometric correspondence includes at least one element among the displacement, rotation angle, and magnification of the image between the two images to be compared.
  • a method using a marker, a method using pattern matching, a method using a phase-only correlation method, and the like can be used to estimate the geometric correspondence between two image data (see Japanese Patent Laid-Open No. 2013-30996). .
  • the color extraction unit 63 extracts color information in units of pixels from the image regions (image regions overlapping each other) at corresponding positions in the document image data 16 and the read image data 22 after the alignment process.
  • the color information extracted in units of pixels from the “image region at the corresponding position” of the document image data 16 by the color extraction unit 63 is a CMYK value
  • the “image region at the corresponding position” of the read image data 22 is RGB values.
  • correspondence data 67 indicating the correspondence (CMYK-RGB) between the CMYK values of the document image data 16 and the RGB values of the read image data 22 is obtained from the correspondence data 67.
  • the color extraction unit 63 outputs the correspondence data 67 to the color conversion unit 40.
  • the color conversion unit 40 performs color conversion processing for converting the RGB space color information of the read image data 22 into Lab color space color information using the scanner profile.
  • the scanner profile is a color conversion table that represents the correspondence between the RGB values that are read image signal values in the device-dependent color space obtained from the scanner 12 and the Lab values in the device-independent color space.
  • the scanner profile is stored in advance in the scanner control device 14. Then, through the color conversion processing by the color conversion unit 40, correspondence data 69 indicating the correspondence (CMYK-Lab) between the CMYK values and Lab values of the document image data 16 is obtained from the correspondence data 67.
  • the color conversion unit 40 outputs the correspondence data 69 to the color conversion table generation unit 41.
  • the color conversion table generation unit 41 defines a conversion relationship (CMYK ⁇ Lab) for converting an image signal value (CMYK) to a chromaticity value (Lab) based on the correspondence relationship data 69 input from the color conversion unit 40.
  • a target profile 9 is generated by generating a color conversion table.
  • an example of generation of the target profile 9 by the color conversion table generation unit 41 will be described.
  • the color conversion table generation unit 41 prepares a “provisional color conversion table” in which the smoothness of the corresponding color change is ensured in advance in the entire color space, and uses the correspondence data 69 described above to prepare a temporary color conversion table. Is modified locally (partially).
  • the “provisional color conversion table” used here is, for example, Japan Color (registered trademark), Specific SWOP (Specifications Web Offset Printing), GRACoL (General Requirements for Applications Offset Lithography), ography Fogra, etc. Any one of color conversion tables representing standard color reproduction in offset printing can be used. For RGB input, any of color conversion tables such as sRGB and AdobeRGB can be used.
  • the standard color conversion table as described above and the color conversion table generated by the color conversion table generation unit 41 in the past are stored in the database. Then, the color conversion table generating unit 41 selects from the database the color conversion table closest to the correspondence data 69 newly acquired based on the read image data 22 and the original image data 16 of the printed matter 20 this time. Thus, this color conversion table can also be used as a “temporary color conversion table”.
  • the conversion table generation unit 41 can automatically extract from the database to obtain a “temporary color conversion table”.
  • a configuration in which the candidates are displayed on the display unit 35 and selected by the user is also possible.
  • the color conversion table generating unit 41 associates the CMYK values of the correspondence relationship data 69 with the grid points [one or more (for example, two or four)] of the temporary color conversion table, and associates them with each other.
  • the Lab value of the lattice point is replaced with the Lab value of the corresponding correspondence data 69. Since the corrected color conversion table obtained in this way is obtained by locally replacing the chromaticity value of the grid point in the temporary color conversion table, the grid point with the replaced chromaticity value and the grid point with no replacement. It is expected that the continuity (smoothness) of the chromaticity values will deteriorate. Therefore, it is preferable to further smooth the color conversion table after correction to ensure smoothness of conversion of chromaticity values. In this way, the color conversion table generation unit 41 generates the corrected color conversion table as the target profile 9.
  • FIG. 13 shows a flow of the reading process of the printed matter 20 and the generation process of the target profile 9 (image reading method) by the image reading apparatus 10, and particularly the flow of the display process of the reading region of the printed matter 20 (reading region display method). It is a flowchart to show.
  • the original document image data 16 of the printed matter 20 is input to the first image input I / F 32 of the scanner control device 14 (step S10). .
  • the document image data 16 is input from the first image input I / F 32 to the image analysis unit 33 and the image association unit 39.
  • the image analysis unit 33 analyzes the document image data 16 in units of blocks BK. That is, the presence / absence and length of a linear edge that is a characteristic shape for each block BK. And the position is detected, and the feature shape image data 45 indicating these detection results is generated (step S11, corresponding to the image analysis step of the present invention).
  • the image analysis unit 33 outputs the feature shape image data 45 and the document image data 16 to the reading area setting unit 34.
  • the document image data 16 may be directly output from the image analysis unit 33 to the display unit 35 without using the reading area setting unit 34.
  • the reading area setting unit 34 When the feature shape image data 45 or the like is input to the reading area setting unit 34, the reading area setting unit 34 reads the reading area of the document image data 16 as described with reference to FIGS. Four candidate regions (first candidate region RA to fourth candidate region RD) are set as candidates. Next, the reading area setting unit 34 counts the number of valid block image data 45 (OK) for each candidate area, and sets a candidate area having the maximum count number among the candidate areas as a reading area (step S12). This corresponds to the reading area setting step of the present invention). Then, the reading area setting unit 34 outputs the setting result of the reading area and the document image data 16 input from the image analysis unit 33 to the display unit 35.
  • the reading area display screen 50 When the reading area setting result or the like is input to the display unit 35, the display unit 35, as described with reference to FIG. 11, described above, the original image data 16 input from the reading area setting unit 34 and the reading area. Based on the setting result, the reading area display screen 50 is displayed. In the image display field 52 of the reading area display screen 50, a reading frame 57 indicating a set position of the printed material 20 (reading area of the printed material 20) on a reduced image based on the reduced image data 56 obtained by reducing the original image data 16. Overlaid and displayed (step S13, corresponding to the display step of the present invention). Thereby, the setting position of the printed material 20 set on the reading surface of the scanner 12, that is, the reading area of the printed material 20 can be indicated to the user. Instead of displaying the reading area display screen 50, the reading area display screen 50A shown in FIG. 12 may be displayed.
  • Step S14 After displaying the set position of the printed matter 20 on the reading region display screen 50 by the display unit 35, the user sets the reading region of the printed matter 20 on the reading surface of the scanner 12 according to the display in the image display field 52 (step S14). .
  • the scanner 12 reads the reading area of the printed matter 20 under the control of the control unit 30, and the read image data 22 (RGB value) of the reading area is read. (Step S15, corresponding to the reading step of the present invention).
  • the read image data 22 (RGB values) generated by the scanner 12 is input from the scanner 12 to the second image input I / F 36, and the image position of the image association unit 39 is further input from the second image input I / F 36.
  • the data is input to the matching unit 62 (step S16).
  • the image alignment unit 62 estimates the geometric correspondence between the document image data 16 input from the first image input I / F 32 and the read image data 22 input from the second image input I / F 36. Then, based on the estimated geometric correspondence, the image alignment unit 62 performs a geometric conversion process for matching at least one of the two image data. Thereby, an alignment process for specifying the positional relationship between the document image data 16 and the read image data 22 is performed (step S17).
  • the read image data 22 to be subjected to the alignment process with the document image data 16 is the reading area that contains the most effective block image data 45 (OK), that is, optimal for the alignment process.
  • This is read image data 22 obtained by reading the reading area with the scanner 12. For this reason, the alignment processing by the image alignment unit 62 can be executed accurately.
  • the color extraction unit 63 extracts color information in pixel units from the image areas at corresponding positions in the original image data 16 and the read image data 22 after the alignment processing, and the CMYK value of the original image data 16 and the read image data 22. Correspondence relationship data 67 indicating the correspondence relationship of the color information with the RGB values of is generated. Then, the color extraction unit 63 outputs the generated correspondence data 67 to the color conversion unit 40.
  • the color conversion unit 40 performs color conversion processing for converting the RGB space color information of the read image data 22 into the Lab color space color information using a scanner profile corresponding to the model of the scanner 12. Correspondence data 69 indicating the correspondence between the CMYK values and Lab values of the document image data 16 is generated. The color conversion unit 40 outputs the correspondence data 69 to the color conversion table generation unit 41.
  • the color conversion table generation unit 41 locally corrects the provisional color conversion table prepared in advance using the correspondence data 69 input from the color conversion unit 40, and targets the corrected color conversion table as a target.
  • a profile 9 is generated (step S18).
  • the image reading apparatus according to the second embodiment has basically the same configuration as the image reading apparatus 10 according to the first embodiment. Therefore, the same reference numerals are used for the same functions and configurations as those in the first embodiment. The description is omitted (see FIG. 1).
  • the image reading apparatus of the second embodiment is different from the image reading apparatus 10 of the first embodiment in the method of setting the reading area by the reading area setting unit 34.
  • document image data 16A different from the document image data 16 of the first embodiment is used.
  • FIG. 14A to 14C are explanatory diagrams for explaining the analysis processing of the document image data 16A by the image analysis unit 33 of the second embodiment.
  • the frame lines indicating the blocks BK are not shown in order to prevent the drawing from becoming complicated.
  • the image analysis unit 33 of the second embodiment performs luminance image conversion processing and edge image generation processing in units of blocks BK on the original image data 16A shown in part (A) of FIG. And a feature shape detection process.
  • the characteristic shape is obtained from the edge image data 47A as shown in the part (C) of FIG.
  • a straight edge E is detected.
  • the edge E is displayed as a bold line on the document image data 16A.
  • the feature shape image data 45A (part (A) in FIG. 15, part (B) in FIG. 15) indicating the presence / absence of the linear edge for each block BK, the length thereof, and the detection result of the position thereof. A partial reference) is generated.
  • the 15A and 15B are explanatory diagrams for explaining the feature shape image data 45A and the reading area setting process of the second embodiment.
  • the feature shape image data 45 ⁇ / b> A is divided in units of blocks BK similarly to the feature shape image data 45 of the first embodiment.
  • the feature shape image data 45A includes valid block image data 45A (OK) and invalid block image data 45A (NG). In the figure, the invalid block image data 45A (NG) is shown in gray.
  • the reading area setting unit 34 of the second embodiment starts from the four corners of the image based on the feature shape image data 45A, and starts from the first candidate area RA that touches the outer periphery of the image.
  • Each region RD maximum reading size of the scanner 12
  • the reading area setting unit 34 determines, for each candidate area from the first candidate area RA to the fourth candidate area RD, the number and edges of the linear edges E included in the effective block image data 45A (OK) in the candidate area. The length of E is detected.
  • the reading area setting unit 34 reads first edge total data 100, second edge total data 101, and third edge total data 102 (part (A) of FIG. 16 to ( The reading area is set by obtaining any one of C). Note that which of the edge total data 100 to 102 is to be obtained can be selected by the user using the operation unit 31.
  • FIG. 16 (A) part of Drawing 16 is an explanatory view for explaining an example of the 1st edge tabulation data 100.
  • a portion (B) of FIG. 16 is an explanatory diagram for explaining an example of the second edge total data 101.
  • a part (C) of FIG. 16 is an explanatory diagram for explaining an example of the third edge total data 102.
  • the reading region setting unit 34 calculates the number of effective block image data 45A (OK) including the linear edge E for each candidate region RA to RD. Count and register in the first edge total data 100. Then, the reading area setting unit 34 refers to the first edge tabulated data 100 and sets the candidate area having the maximum count number among the candidate areas RA to RD as the reading area.
  • the first candidate area RA is set as the reading area.
  • the reading area setting unit 34 refers to the second edge total data 101 and sets the candidate area having the maximum count number among the candidate areas RA to RD as the reading area. 15A and 15B, it is difficult to discriminate the straight edge E for convenience of drawing, but the count number of the second candidate region RB is “ 5 ”is the maximum, and the second candidate area RB is set as the reading area.
  • the third edge total data 102 includes the number of edges E in the effective block image data 45A (OK) including the most edges E for each candidate area RA to RD. It is registered.
  • the reading area setting unit 34 detects the effective block image data 45A (OK) including the largest number of edges E in each candidate area based on the detection result of the linear edge E by the image analysis unit 33 described above. Next, the reading area setting unit 34 counts the number of edges E in the detected effective block image data 45 ⁇ / b> A (OK) for each candidate area, and registers the counted number in the third edge total data 102.
  • the reading area setting unit 34 refers to the third edge total data 102 and sets the candidate area having the maximum count number among the candidate areas RA to RD as the reading area. 15A and 15B, it is difficult to discriminate the straight edge E for the convenience of drawing, but the effective block image data of the fourth candidate region RD is difficult. When the count number of the edge E within 45A (OK) is “5”, the count becomes the maximum, and the fourth candidate region RD is set as the reading region.
  • the reading area setting unit 34 outputs the setting result of the reading area and the document image data 16 to the display unit 35. Since the subsequent processing is basically the same as that of the first embodiment, a detailed description thereof is omitted here.
  • the reading area is automatically set in the document image data 16, and the set position of the printed matter 20 with respect to the scanner 12 is displayed based on the setting result. The same effect can be obtained.
  • a program for causing a computer to function is a CD-ROM, a magnetic disk, or other computer-readable medium (a non-transitory information storage medium as a tangible object; non -transitory computer-readable tangible medium) and the program can be provided through the information storage medium.
  • a program signal is also possible to provide the program signal as a download service using a communication network such as the Internet.
  • the computer can realize each function of the image reading device (reading area display device), and display of the reading area described in the above-described embodiment can be realized.
  • the program is applied as an operation program for the CPU of the scanner 12, and the like.
  • the reading area of the printed matter 20 is read using the scanner 12, but various reading units such as a camera that can read an image printed on the printed matter 20 can be used.
  • the set position of the printed matter 20 with respect to the scanner 12 is displayed to the user by the reading area display screens 50 and 50A displayed on the display unit 35.
  • the set position of the printed matter 20 is indicated.
  • a message may be displayed on the display unit 35.
  • This message is not particularly limited as long as the user knows the set position of the printed material 20 such as “Move the upper left corner of the printed material to the upper left corner of the reading surface of the scanner”.
  • the above message may be displayed as a voice to the user through a speaker or the like.
  • an audio display such as a speaker functions as the display unit of the present invention.
  • the case where a linear edge is detected as a characteristic shape from the document image data 16 has been described as an example.
  • the positional relationship between the document image data 16 and the read image data 22 is specified.
  • the shape is not limited to a straight edge.
  • FIG. 17 is an explanatory diagram for explaining an example in which a characteristic shape other than a linear edge is detected.
  • the image analysis unit 33 characterizes the corner CE from the edge image data 47 (for the sake of easy understanding, the original image data 16 is displayed) using, for example, the Harris corner detection method. Detect as shape.
  • a circle may be detected as a characteristic shape from the edge image data 47 by, for example, a circle detection method using Hough transform.
  • corner detection and circle detection are easy to detect a fine structure as compared to detection of a linear edge. For this reason, it is preferable to detect a straight edge as a characteristic shape used in the above-described alignment processing, but there is no particular problem in the above-described alignment processing even when corner detection or circle detection is performed.
  • a characteristic shape such as a linear edge is detected as the characteristic amount of the document image data 16, and the reading area is set based on the detection result.
  • a feature amount used for the alignment process between the document image data 16 and the read image data 22 may be detected.
  • SIFT Service-Invariant Feature Transform
  • feature points used by the alignment algorithm are detected from the document image data, and this is used as a feature amount to set a reading region from the feature point distribution (number of blocks including feature points in the candidate region, density). May be.
  • the density is the number of feature points in the block.
  • a candidate area is set in the feature shape image data starting from the four corners of the image based on the feature shape image data.
  • the top of the scanner 12 is set. If it does not interfere with a plate or the like, a candidate area may be set at the center of the image.
  • examples of the reading area display screens 50 and 50A indicating the set position of the printed material 20 with respect to the scanner 12 are shown in FIGS. 11 and 12, but the printed surface of the printed material 20 is superimposed on the reading surface of the scanner 12.
  • the set position may be displayed on the reading area display screen.
  • the display mode of the image based on the document image data 16 and the read area image data 59 viewed from the back side is indicated by a dotted line so that the user can understand that the set position is viewed from the back side of the printed matter 20. It may be changed to a display or the like.
  • SYMBOLS 10 ... Image reading apparatus, 12 ... Scanner, 14 ... Scanner control apparatus, 16 ... Original image data, 20 ... Printed matter, 22 ... Read image data, 33 ... Image analysis part, 34 ... Reading area setting part, 35 ... Display part, 39 ... Image association unit, 45 ... Feature shape image data, 62 ... Image alignment unit, 63 ... Color extraction unit

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Input (AREA)
  • Facsimiles In General (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)

Abstract

本発明は、印刷物の読み取りを効率的に行うことができる画像読取装置及び方法、並びに読取領域表示装置及び方法、並びにプログラムを提供する。本発明の好ましい態様において、原稿画像データを解析して、原稿画像データと、原稿画像データに基づき画像が印刷された印刷物の読み取りを行う読取部にて読み取られた印刷物の読取画像データとの位置関係の特定に用いられる特徴量を検出する。原稿画像データの中で特徴量を含む少なくとも1以上の領域を読取領域として設定する。読取領域の設定結果に基づき、読取部に対する印刷物のセット位置を表示する。表示部によるセット位置の表示後に読取部にセットされた印刷物の読み取りを行う。

Description

画像読取装置及び方法、並びに読取領域表示装置及び方法、並びにプログラム
 本発明は、印刷物の読み取りに用いられる画像読取装置及び方法、並びに読取領域表示装置及び方法、並びにプログラムに関する。
 印刷の分野では、原稿画像データに基づき画像が印刷された印刷物の色再現を評価するために、原稿画像データと、この原稿画像データに基づき画像が印刷された印刷物との色の対応関係を求めている。この対応関係は、原稿画像データの色情報と、印刷物をスキャナ(読取部)で読み取って得られた読取画像データの色情報とを比較することで求められる。
 近年、スキャナで印刷物の読み取りを行う際に、印刷物の大きさがスキャナの読み取り可能な読取範囲(読取領域ともいう)よりも大きくなる場合がある。この場合には、印刷物を複数の領域に分割し、各領域をそれぞれスキャナで読み取って領域毎の領域読取画像データを取得した後、各領域読取画像データを合成して印刷物全体の読取画像データを得るのが通常である。
 特許文献1には、初回に読み取った領域画像データと、二回目以降に読み取った領域画像データとの傾き度合を比較することで、合成後の読取画像データに基づく画像に空白部が生じることを防止する画像読取装置が開示されている。
 特許文献2には、前述の複数の領域の位置情報を示す格子がドロップアウトカラーで印刷されているカバーシートを用いて、領域毎の領域読取画像データを合成する画像読取装置が開示されている。特許文献2の画像読取装置は、カバーシートを印刷物に重ね合せた後、各領域をそれぞれスキャナで読み取る際に、ドロップアウトカラーを含む画像と含まない画像とをそれぞれ取得可能な2種類の照明光の切り替えを行う。これにより、特許文献2の画像読取装置は、ドロップアウトカラーで印刷された格子を含む領域毎の領域読取画像データと、格子を含まない領域毎の領域読取画像データとを取得することができる。そして、特許文献2の画像読取装置は、格子を含む領域毎の領域読取画像データから取得した位置情報に基づき、格子を含まない領域毎の領域読取画像データを結合して印刷物全体の読取画像データを得ている。
 このような特許文献1及び特許文献2に記載の画像読取装置によれば、印刷物の大きさがスキャナの読取範囲よりも大きい場合でも、印刷物を複数の領域に分割して各領域をそれぞれスキャナで読み取ることで、印刷物全体の読取画像データが得られる。これにより、印刷物の読取画像データを解析して色情報を得ることができ、この読取画像データの色情報と、原稿画像データの色情報とを比較することで、原稿画像データと印刷物との色の対応関係が求められる。
特開2012-160957号公報 特開2010-068381号公報
 しかしながら、原稿画像データと印刷物との色の対応関係は、印刷物全体の読取画像データの色情報を得なくとも、印刷物の一部の領域の読取画像データ(前述の領域読取画像データ)の色情報から求めることができる。このため、特許文献1及び特許文献2に記載の画像読取装置のように印刷物全体の読取画像データを得る必要はなく、逆に印刷物全体の読取画像データを得るために手間や時間が掛かるという問題が生じる。
 また、特許文献2に記載の画像読取装置では、ドロップアウトカラーの格子が印刷されたカバーシートを用いているので、この格子の直下の印刷物情報は読取画像データから欠落する可能性が高い。さらに、厚みのある印刷物上にカバーシートを重ね合せた際に、印刷物とカバーシートとの間に隙間が生じることにより、正確な位置情報が得られないおそれがある。
 そこで、原稿画像データと印刷物との色の対応関係をとる際には、両者の対応関係をとるのに適した印刷物の一部の最適な読取領域をスキャナで読み取って、このスキャナの読取画像データの色情報を得ることが好ましい。しかし、最適な読取領域は、印刷物に印刷された画像から必ずしも容易に判別できるものでなく、場合によっては読取領域を変えながらスキャナによる読み取りを何回も繰り返す必要がある。また、最適な読取領域としては、印刷物に印刷される画像内の背景や周辺の余白部分(ベタ画像部分)よりも主要被写体(商品、人物など)を含む領域を選択するのが通常であるが、印刷物によって画像内の主要被写体の位置は異なる。その結果、印刷物によって最適な読取領域を変える必要があり、最適な読取領域を簡単に決定することはできない。
 本発明はこのような事情に鑑みてなされたものであり、印刷物の読み取りを効率的に行うことができる画像読取装置及び方法、並びに読取領域表示装置及び方法、並びにプログラムを提供することを目的とする。
 本発明の目的を達成するための画像読取装置は、原稿画像データに基づき画像が印刷された印刷物の読み取りを行う読取部と、原稿画像データを解析して、原稿画像データと、読取部にて読み取られた印刷物の読取画像データとの位置関係の特定に用いられる特徴量を検出する画像解析部と、画像解析部が検出した特徴量に基づき、読取部が印刷物の読み取りを行う読取領域を設定する読取領域設定部であって、原稿画像データの中で特徴量を含む少なくとも1以上の領域を読取領域として設定する読取領域設定部と、読取領域設定部による読取領域の設定結果に基づき、読取部に対する印刷物のセット位置を表示する表示部と、を備え、読取部は、表示部によるセット位置の表示後に読取部にセットされた印刷物の読み取りを行う。
 本発明によれば、原稿画像データの中で、原稿画像データと読取画像データとの位置関係の特定に用いられる特徴量を含む読取領域をユーザに示すことができる。これにより、印刷物の読取領域を変えながら読取部による読み取りを何回も繰り返す必要がなくなり、前述の特徴量を含む読取領域の読み取りを短時間(1回程度)で行うことができる。
 本発明の他の態様に係る画像読取装置において、読取部は、読取部が印刷物を読み取り可能な読取範囲よりも大きい印刷物の読み取りを行う。これにより、読取部によりその読取範囲よりも大きい印刷物の読み取りを行う際に、原稿画像データの中で前述の特徴量を含む読取領域をユーザに示すことができる。
 本発明の他の態様に係る画像読取装置において、表示部は、原稿画像データに基づき生成された縮小画像にセット位置を重ねて表示する。これにより、原稿画像データの中で前述の特徴量を含む読取領域をユーザに示すことができる。
 本発明の他の態様に係る画像読取装置において、表示部は、原稿画像データに基づく画像の中で読取領域に対応する領域を選択して表示する。これにより、原稿画像データの中で前述の特徴量を含む読取領域をユーザに示すことができる。
 本発明の他の態様に係る画像読取装置において、画像解析部は、原稿画像データに基づき生成されたエッジ画像データを解析し、エッジ画像データから位置関係の特定に用いられる画像の特徴形状を特徴量として検出する。これにより、前述の特徴量を自動的に検出することができる。
 本発明の他の態様に係る画像読取装置において、画像解析部は、特徴形状として直線状のエッジを検出する。これにより、原稿画像データの中に、前述の特徴量を含む読取領域を自動的に設定することができる。
 本発明の他の態様に係る画像読取装置において、読取領域設定部は、原稿画像データの中に読取領域の候補となる候補領域を複数設定し、複数の候補領域の中で、少なくとも画像解析部により検出された特徴量を含む領域を読取領域として設定する。これにより、原稿画像データの中に、前述の特徴量を含む読取領域を自動的に設定することができる。
 本発明の他の態様に係る画像読取装置において、読取領域設定部は、複数の候補領域の中で、画像解析部により検出された特徴量を最も多く含む領域を読取領域として設定する。これにより、複数の候補領域の中で最適な候補領域を読取領域として設定することができる。
 本発明の他の態様に係る画像読取装置において、読取部による印刷物の読み取り後に、読取部にて読み取られた読取画像データと、原稿画像データとの位置関係を特定する位置合わせ処理を行う位置合わせ部と、読取画像データと原稿画像データとの対応する画像位置から色情報を取得して、読取画像データと原稿画像データとの色情報の対応関係を求める色抽出部と、を備える。これにより、読取画像データと原稿画像データとの色情報の対応関係が求められる。
 本発明の目的を達成するための画像読取方法は、原稿画像データに基づき画像が印刷された印刷物の読み取りを行う読取部を用いて、印刷物の読み取りを行う画像読取方法において、原稿画像データを解析して、原稿画像データと、読取部にて読み取られた印刷物の読取画像データとの位置関係の特定に用いられる特徴量を検出する画像解析ステップと、画像解析ステップで検出した特徴量に基づき、読取部が印刷物の読み取りを行う読取領域を設定する読取領域設定ステップであって、原稿画像データの中で特徴量を含む少なくとも1以上の領域を読取領域として設定する読取領域設定ステップと、読取領域設定ステップでの読取領域の設定結果に基づき、読取部に対する印刷物のセット位置を表示する表示ステップと、表示ステップでのセット位置の表示後に読取部にセットされた印刷物の読み取りを行う読取ステップと、を有する。
 本発明の目的を達成するための読取領域表示装置は、原稿画像データに基づき画像が印刷された印刷物の読み取りを行う読取部により印刷物の読み取りを行う際の印刷物の読取領域を表示する読取領域表示装置において、原稿画像データを解析して、原稿画像データと、読取部にて読み取られた印刷物の読取画像データとの位置関係の特定に用いられる特徴量を検出する画像解析部と、画像解析部が検出した特徴量に基づき、読取部が印刷物の読み取りを行う読取領域を設定する読取領域設定部であって、原稿画像データの中で特徴量を含む少なくとも1以上の領域を読取領域として設定する読取領域設定部と、読取領域設定部による読取領域の設定結果に基づき、読取部に対する印刷物のセット位置を表示する表示部と、を備える。
 本発明の目的を達成するための読取領域表示方法は、原稿画像データに基づき画像が印刷された印刷物の読み取りを行う読取部により印刷物の読み取りを行う際の印刷物の読取領域を表示する読取領域表示方法において、原稿画像データを解析して、原稿画像データと、読取部にて読み取られた印刷物の読取画像データとの位置関係の特定に用いられる特徴量を検出する画像解析ステップと、画像解析ステップで検出した特徴量に基づき、読取部が印刷物の読み取りを行う読取領域を設定する読取領域設定ステップであって、原稿画像データの中で特徴量を含む少なくとも1以上の領域を読取領域として設定する読取領域設定ステップと、読取領域設定ステップでの読取領域の設定結果に基づき、読取部に対する印刷物のセット位置を表示する表示ステップと、を有する。
 本発明の目的を達成するためのプログラムは、原稿画像データに基づき画像が印刷された印刷物の読み取りを行う読取部により印刷物の読み取りを行う際の印刷物の読取領域を表示させる手段としてコンピュータを機能させるプログラムであって、コンピュータを、原稿画像データを解析して、原稿画像データと、読取部にて読み取られた印刷物の読取画像データとの位置関係の特定に用いられる特徴量を検出する画像解析部と、画像解析部が検出した特徴量に基づき、読取部が印刷物の読み取りを行う読取領域を設定する読取領域設定部であって、原稿画像データの中で特徴量を含む少なくとも1以上の領域を読取領域として設定する読取領域設定部と、読取領域設定部による読取領域の設定結果に基づき、読取部に対する印刷物のセット位置を表示する表示部として機能させる。このプログラムを記録したコンピュータ読み取り可能な媒体も本発明に含まれる。
 本発明の画像読取装置及び方法、並びに読取領域表示装置及び方法、並びにプログラムによれば、印刷物の読み取りを効率的に行うことができる。
画像読取装置の全体構成を示す概略図である。 画像解析部による特徴形状画像データの生成処理の流れを示すフローチャートである。 画像分割処理について説明するための説明図である。 輝度画像変換処理及びエッジ画像生成処理を説明するための説明図である。 特徴形状検出処理を説明するための説明図である。 特徴形状画像データを説明するための説明図である。 読取領域設定部による第1候補領域の設定を説明するための説明図である。 読取領域設定部による第2候補領域の設定を説明するための説明図である。 読取領域設定部による第3候補領域の設定を説明するための説明図である。 読取領域設定部による第4候補領域の設定を説明するための説明図である。 読取領域表示画面の正面図である。 図11に示した読取領域表示画面の他実施例である読取領域表示画面の正面図である 画像読取装置による印刷物の読み取り処理並びにターゲットプロファイルの生成処理の流れ、特に印刷物の読取領域の表示処理の流れを示すフローチャートである。 (A)部分~(C)部分は第2実施形態の画像解析部による原稿画像データの解析処理を説明するための説明図である。 (A)部分,(B)部分は第2実施形態の特徴形状画像データ、及び読取領域の設定処理を説明するための説明図である。 (A)部分~(C)部分はそれぞれ第1エッジ集計データ、第2エッジ集計データ、第3エッジ集計データの一例を説明するための説明図である。 直線状のエッジ以外の特徴的形状の検出を行う例を説明するための説明図である。
 [第1実施形態の画像読取装置の構成]
 図1は、画像読取装置10の全体構成を示す概略図である。図1に示すように、画像読取装置10は、大別して、本発明の読取部に相当するスキャナ12と、本発明の読取領域表示装置に相当するスキャナ制御装置14と、を備えている。画像読取装置10では、原稿画像データ16に基づきプリンタ18により画像が印刷された印刷物20をスキャナ12が読み取り、この読取結果を用いてスキャナ制御装置14がターゲットプロファイル9を生成する。なお、原稿画像データ16は、C(シアン)M(マゼンタ)Y(イエロー)K(ブラック)の画像データである。また、プリンタ18による印刷物20の印刷形式は、インクジェット印刷方式やフレキソ印刷方式などの各種の印刷方式を採用することができる。
 ターゲットプロファイル9は、「目標プロファイル」、或いは「入力プロファイル」とも呼ばれる。ターゲットプロファイル9は、原稿画像データ16のデバイス依存色空間のCMYK信号のターゲットカラー(目標色)をデバイス非依存色空間(ここではLab空間)で定義したCMYK→Labの変換関係を記述した色変換テーブルである。
 スキャナ12は、スキャナ制御装置14の制御の下、原稿画像データ16に基づき画像が印刷された印刷物20の読み取り(スキャンともいう)を行って、印刷物20の読取画像データ22を生成並びに出力する。なお、読取画像データ22は、R(レッド)G(グリーン)B(ブルー)の画像データである。また、図1では、スキャナ12として据え置き型のスキャナを例に挙げているが、公知の各種タイプのスキャナを用いることができる。
 印刷物20の大きさは、スキャナ12の読取面(ガラス面)において読み取り可能な読取範囲よりも大きく形成されている。従って、スキャナ12の読取面上には、印刷物20の中の一部の領域を選択してセットすることになる。そして、スキャナ12による1回の読み取りで得られる読取画像データ22は、印刷物20の中の一部の領域に対応する読取画像データである。なお、プリンタ18による印刷物20の印刷形式は、インクジェット印刷方式やフレキソ印刷方式などの各種の印刷方式を採用することができる。
 <スキャナ制御装置の構成>
 スキャナ制御装置14は、例えば、パーソナルコンピュータ及びモニタなどにより構成されている。スキャナ制御装置14は、スキャナ12による印刷物20の読み取りを制御すると共に、スキャナ12にて印刷物20を読み取る際の読取領域の表示を行う。また、スキャナ制御装置14は、原稿画像データ16と読取画像データ22との対応付け処理、すなわち、両者の位置関係を特定する位置合わせ処理を行い、この位置合わせ処理の結果に基づきターゲットプロファイル9の生成を行う。
 スキャナ制御装置14は、制御部30と、操作部31と、第1画像入力I/F(interface)32と、画像解析部33と、読取領域設定部34と、表示部35と、第2画像入力I/F36と、画像対応付け部39と、色変換部40と、色変換テーブル生成部41と、を有している。
 制御部30は、例えばCPU(Central Processing Unit)などが用いられる。この制御部30は、操作部31の入力指示に従って、図示しないメモリ等から読み出したプログラムを適宜実行することで、スキャナ制御装置14の各部の動作、及びスキャナ12の読み取り動作を制御する。なお、操作部31としては、例えば、キーボード、マウス、操作キー、タッチパネル等を用いることができる。
 第1画像入力I/F32は、画像読取装置10の外部から原稿画像データ16を取得する画像取得部として機能する。例えば、原稿画像データ16がメモリカード等の情報記録媒体に記録されている場合は、第1画像入力I/F32として読み取りI/Fが用いられる。また、原稿画像データ16がネットワーク上のサーバや各種記憶部などに記憶されている場合は、第1画像入力I/F32としては通信I/Fが用いられる。
 <原稿画像データの解析>
 画像解析部33は、第1画像入力I/F32から入力された原稿画像データ16の解析を行い、この原稿画像データ16から、原稿画像データ16と読取画像データ22との位置関係を特定する位置合わせ処理に用いられる特徴量を検出する。この特徴量は、前述の位置合わせ処理に用いられる位置合わせ情報であり、本実施形態では、原稿画像データ16及び読取画像データ22の少なくとも一方に対して他方を一致させる幾何変換処理に用いられる画像の特徴形状である。そして、本実施形態の画像解析部33は、位置合わせ処理に適した画像の特徴形状として、画像の直線状のエッジを検出する。
 具体的に画像解析部33は、原稿画像データ16を解析して直線状のエッジの有無及びその長さ並びにその位置を検出し、これらの検出結果を示す特徴形状画像データ45を生成する。この特徴形状画像データ45は、後述の読取領域設定部34において、スキャナ12で印刷物20の読み取りを行う際の読取領域の設定に用いられる。以下、画像解析部33が原稿画像データ16を解析して生成する特徴形状画像データ45の生成処理について説明する。
 図2は、画像解析部33による特徴形状画像データ45の生成処理の流れを示すフローチャートである。図2に示すように、特徴形状画像データ45の生成処理は、大別して、画像分割処理(ステップS1)と、輝度画像変換処理(ステップS2,S3)と、エッジ画像生成処理(ステップS4)と、特徴形状検出処理(ステップS5)と、により構成されている。そして、各処理を繰り返し実行することにより特徴形状画像データ45が生成される(ステップS6,S7,S8)。
 図3は、画像分割処理について説明するための説明である。図3に示すように、画像解析部33は、図中上段に示す原稿画像データ16を、図中下段に示すように複数のブロックBKに格子状に分割する画像分割処理を行う(図2のステップS1)。ここでいう分割には、原稿画像データ16を実際に分割する以外に、仮想的に分割することも含まれる。
 個々のブロックBKは、矩形領域であり、その大きさはスキャナ12の最大読取範囲や印刷物20のサイズなどに応じて適宜定められている。例えば本実施形態では、ブロックBKを図中の縦横にそれぞれm×n(m、nは任意の自然数)に並べて配置した大きさが、スキャナ12の最大読取範囲(後述の候補領域)と等しくなるように、個々のブロックBKの大きさを定めている(図7等参照)。なお、ブロックBKは、矩形領域に限定されるものではなく、円領域などの他の形状に変更してもよい。
 図4は、輝度画像変換処理及びエッジ画像生成処理を説明するための説明図である。図4の上段に示すように、画像解析部33は、原稿画像データ16の例えば図中左上隅に位置するブロックBKを第1番目のブロックBKとして設定する(図2のステップS2)。そして、画像解析部33は、第1番目のブロックBK内の各画素のCMYK信号から輝度成分を抽出して画素毎の輝度を求めることにより、このブロックBK内のCMYK画像データを輝度画像データに変換する輝度画像変換処理を行う(図2のステップS3)。なお、輝度画像変換処理の方法は公知であるので、具体的な説明は省略する。
 次いで、図4の下段に示すように、画像解析部33は、第1番目のブロックBK内の輝度画像データに対してエッジ検出を行い、エッジ画像データ47を生成するエッジ画像生成処理を行う(図2のステップS4)。エッジ検出は、例えばCannyフィルタやSobelフィルタやLapracianフィルタなどを使用して行うが、望ましくは精度良くエッジを検出することができるCannyフィルタを使用して行うのがよい。また、このエッジ検出時には、数十ピクセル未満の短い線分は除去して検出を行うことが好ましい。このようにエッジ検出を行うことで、原稿画像データ16からその画像の特徴形状である直線状のエッジを検出することができる。
 図5は、特徴形状検出処理を説明するための説明図である。図5に示すように、画像解析部33は、第1番目のブロックBK内のエッジ画像データ47から、このブロックBK内の直線状のエッジの有無を検出すると共に、直線状のエッジが検出された場合にはその長さ並びにその位置も検出する特徴形状検出処理を行う(図2のステップS5)。ここで、エッジ画像データ47から直線状のエッジを検出する方法としては、公知のHough変換などによる直線検出法が用いられる。なお、図中では、画像解析部33により検出された一定長さ以上の直線状のエッジに対して「黒丸」を付している。
 図2に戻って、画像解析部33は、例えば原稿画像データ16上で第1番目のブロックBKに隣接する第2番目のブロックBK内のCMYK画像データに対して、前述の輝度画像変換処理及びエッジ画像生成処理及び特徴形状検出処理を行う(ステップS6でYES、ステップS7,ステップS3からステップS5)。これにより、第2番目のブロックBKについて直線状のエッジの有無及びその長さ並びにその位置が検出される。
 以下同様にして、画像解析部33は、ブロックBKの位置を変えながら原稿画像データ16の全エリアを走査して、全ブロックBK内のCMYK画像データに対して、前述のステップS3からステップS5までの処理を繰り返し実行する(ステップS6でNO)。なお、前述の図3から図5中の矢印は、ブロックBKの位置を変えながら、全エリアを走査する様子を概念的に示したものである。
 全エリアの走査完了後、画像解析部33は、ブロックBK毎の直線状のエッジの有無及びその長さ並びにその位置の検出結果に基づき、特徴形状画像データ45を生成する(ステップS8)。なお、本実施形態では、ブロックBK毎にエッジ画像データ47を生成して特徴形状の検出(直線状のエッジの検出)を行っているが、原稿画像データ16の全体でエッジ画像データ47を生成した後にブロックBK毎に特徴形状の検出を行ってもよい。
 図6は、特徴形状画像データ45を説明するための説明図である。図6に示すように、特徴形状画像データ45は、前述の画像解析部33による原稿画像データ16の解析により得られたブロックBK毎の直線状のエッジの有無及びその長さ並びにその位置の検出結果を示すものである。特徴形状画像データ45は、前述のブロックBK単位で分割(仮想的に分割も含む)されている。この特徴形状画像データ45は、有効ブロック画像データ45(OK)と、無効ブロック画像データ45(NG)とにより構成されている。
 有効ブロック画像データ45(OK)は、原稿画像データ16と読取画像データ22との位置合わせ処理に用いられる位置合わせ情報として用いることができるブロック画像データである。画像解析部33は、ブロックBK毎の直線状のエッジの有無及びその長さ並びにその位置の検出結果に基づき、ブロックBK毎に、位置合わせ情報として用いることができる所定基準を満たすか否かを判定する。そして、画像解析部33は、所定基準を満たすブロックBKのブロック画像データを、有効ブロック画像データ45(OK)とする。この所定基準としては、例えば、一定の長さ以上の直線状のエッジを含むこと、或いは互いに交差している複数のエッジを含むこと、或いは一定数以上で密集している複数のエッジを含むことなどが例として挙げられる。なお、この所定基準は、ユーザが所望の基準に変更することができる。
 無効ブロック画像データ45(NG)は、有効ブロック画像データ45(OK)とは逆に位置合わせ情報として用いることができないブロック画像データである。画像解析部33は、前述の所定基準を満たさないブロックBKに対応するブロック画像データを無効ブロック画像データ45(NG)とする。なお、図中では、特徴形状画像データ45内での無効ブロック画像データ45(NG)の識別を容易にするため、無効ブロック画像データ45(NG)に相当する領域を網掛け線でマスク表示しているが、この識別方法は特に限定されない。
 以上で、原稿画像データ16の解析結果である特徴形状画像データ45の生成が終了する。この特徴形状画像データ45を参照することで、原稿画像データ16内において前述の位置合わせ処理に適した領域を判別することができる。そして、画像解析部33は、原稿画像データ16及び特徴形状画像データ45を読取領域設定部34に出力する。
 <読取領域の設定>
 図1に戻って、読取領域設定部34は、画像解析部33から入力される特徴形状画像データ45に基づき、スキャナ12で印刷物20の読み取りを行う際の読取領域を設定する。この読取領域は、印刷物20の中でスキャナ12の読取面にセットされる領域である。
 具体的に、読取領域設定部34は、特徴形状画像データ45の中に読取領域の候補となる候補領域を複数設定し、各候補領域の中で有効ブロック画像データ45(OK)を最も多く含む候補領域を読取領域として設定する。
 図7から図10は、読取領域設定部34による読取領域(候補領域)の設定を説明するための説明図である。図7に示すように、読取領域設定部34は、特徴形状画像データ45に基づく画像の四隅の1つ(左上隅)を始点SAとして、この画像の外周に接する第1候補領域RAを特徴形状画像データ45に設定する。ここで、第1候補領域RAを含む各候補領域は、スキャナ12の最大読取サイズである読取面のサイズに設定される。また、各候補領域は、スキャナ12の読取面に印刷物20をセットする際に、スキャナ12の天板を支えるヒンジに印刷物20が接触してセットの妨げとはならないような領域であって且つ原稿画像の外周に接する領域に設定される。そして、特徴形状画像データ45は、第1候補領域RA内の有効ブロック画像データ45(OK)の数をカウントする。
 なお、本実施形態の読取領域設定部34は、特徴形状画像データ45に基づく画像の外周に接するように候補領域を設定しているが、特徴形状画像データ45に、基準位置を示すマーカーであるトンボなどのような最終的に印刷物20から除かれる領域のデータが含まれている場合がある。この場合には、特徴形状画像データ45に基づく画像内で有効な画像の外周に接する領域を候補領域として設定してもよい。
 次いで、図8に示すように、読取領域設定部34は、特徴形状画像データ45に基づく画像の左下隅を始点SBとして、この画像の外周に接する第2候補領域RBを特徴形状画像データ45に設定した後、この第2候補領域RB内の有効ブロック画像データ45(OK)の数をカウントする。
 そして、図9に示すように、読取領域設定部34は、特徴形状画像データ45に基づく画像の右上隅を始点SCとして、この画像の外周に接する第3候補領域RCを特徴形状画像データ45に設定し、この第3候補領域RC内の有効ブロック画像データ45(OK)の数をカウントする。その後、図10に示すように、読取領域設定部34は、特徴形状画像データ45に基づく画像の右下隅を始点SDとして、この画像の外周に接する第4候補領域RDを特徴形状画像データ45に設定した後、この第4候補領域RD内の有効ブロック画像データ45(OK)の数をカウントする。
 第1候補領域RAから第4候補領域RD内の有効ブロック画像データ45(OK)の数のカウントが終了すると、読取領域設定部34は、各候補領域RA~RDの中で有効ブロック画像データ45(OK)を最も多く含む候補領域を読取領域として設定する。その後、読取領域設定部34は、読取領域の設定結果を表示部35へ出力する。また、読取領域設定部34は、原稿画像データ16を表示部35へ出力する。
 なお、本実施形態では、有効ブロック画像データ45(OK)を最も多く含む候補領域を読取領域として設定しているが、少なくとも有効ブロック画像データ45(OK)を含む1以上の候補領域を読取領域として設定してもよい。
 <読取領域表示>
 図1に戻って、表示部35は、読取領域設定部34から入力される原稿画像データ16及び読取領域の設定結果に基づき、スキャナ12に対する印刷物20のセット位置、すなわち、印刷物20の読取領域を示す読取領域表示画面50(図11参照)を表示する。
 図11は、読取領域表示画面50の正面図である。図11に示すように、読取領域表示画面50には、画像表示欄52と、スキャン開始ボタン53と、中止ボタン54と、印刷物20の所定位置へのセットを促すメッセージと、が含まれている。
 画像表示欄52には、原稿画像データ16から生成された縮小画像データ56に基づく縮小画像と、スキャナ12に対する印刷物20のセット位置を示す読取枠57と、が表示される。
 表示部35は、原稿画像データ16から画像表示欄52のサイズに合わせた縮小画像データ56を生成し、この縮小画像データ56に基づく縮小画像を画像表示欄52内に表示する。また、表示部35は、読取領域の設定結果に基づき、読取枠57を縮小画像に重ねて画像表示欄52に表示する。これにより、読取領域表示画面50において、スキャナ12に対する印刷物20のセット位置、すなわち、印刷物20の読取領域がユーザに示される。
 スキャン開始ボタン53は、スキャナ12による印刷物20の読み取りを開始させるためのボタンである。このスキャン開始ボタン53がクリックされると、制御部30の制御の下、スキャナ12が印刷物20の読取領域の読み取りを行って、この読取領域の読取画像データ22(RGB値)を生成する。なお、ボタンの「クリック」には、タッチなどのボタンに対応する操作も含まれる。
 中止ボタン54は、スキャナ12による印刷物20の読み取りを中止させるためのボタンである。
 なお、前述したように、読取領域設定部34が複数の読取領域、例えば2つの読取領域を設定した場合には、最初に、第1番目の読取領域に対応する読取枠57の表示を行う。次いで、第1の読取領域の読取画像データの取得後に、第2番目の読取領域に対応する読取枠57を表示する。読取領域が3以上設定された場合も同様である。
 (読取領域表示画面の他実施例)
 図12は、図11に示した読取領域表示画面50の他実施例である読取領域表示画面50Aの正面図である。図12に示すように、読取領域表示画面50Aでは、前述の縮小画像データ56に基づく縮小画像の表示を行う代わりに、原稿画像データ16に基づく原稿画像の中で読取領域に対応する領域のみを表示する。
 読取領域表示画面50Aは、画像表示欄52とは異なる画像表示欄52Aが含まれている点を除けば、読取領域表示画面50と基本的に同じである。
 画像表示欄52Aには、原稿画像データ16に基づく原稿画像の中で読取領域に対応する領域が表示される。表示部35は、原稿画像データ16と、読取領域設定部34が設定した読取領域の設定結果とに基づき、原稿画像データ16から読取領域に対応する読取領域画像データ59を選択または切り出して、この読取領域画像データ59に基づく読取領域画像を画像表示欄52Aに表示する。この場合には、画像表示欄52A内に表示される読取領域画像が、スキャナ12に対する印刷物20のセット位置、すなわち、印刷物20の読取領域を示す。
 <ターゲットプロファイル生成処理>
 図1に戻って、第2画像入力I/F36は、スキャナ12が生成及び出力した読取画像データ22を取得する画像取得部として機能するものであり、前述の第1画像入力I/F32と同様に各種のI/Fを用いることができる。本実施形態では、スキャナ12と第2画像入力I/F36とが有線又は無線の通信ネットワークで接続されており、スキャナ12で生成された読取画像データ22が自動的に第2画像入力I/F36に入力される。なお、本実施形態では、第1画像入力I/F32とは別個に第2画像入力I/F36が設けられているが、両者が一体化していてもよい。第2画像入力I/F36は、読取画像データ22を画像対応付け部39へ出力する。
 画像対応付け部39には、第2画像入力I/F36から読取画像データ22が入力されると共に、第1画像入力I/F32から原稿画像データ16が入力される。この画像対応付け部39は、CMYK色空間の原稿画像データ16と、RGB色空間の読取画像データ22との画像位置の対応付け(位置合わせ処理)を行い、対応する位置の画像領域から色情報の抽出を行う。このため、画像対応付け部39は、画像位置合わせ部62と、色抽出部63とを有している。
 画像位置合わせ部62は、原稿画像データ16と、読取画像データ22との位置関係を特定する位置合わせ処理を行う。この位置合わせ処理には公知の方法を利用可能であり、例えば特開2013-30996号公報の段落[0064]-[0068]に記載の技術を用いることができる。
 具体的には、画像位置合わせ部62は、原稿画像データ16と読取画像データ22との幾何対応関係を推定し、この幾何対応関係に基づいて、2つの画像データの少なくとも一方に対し、両者を一致させるような幾何変換の処理を行う。なお、幾何対応関係には、対比される2画像間の画像の変位量、回転角、変倍率のうち少なくとも1つの要素が含まれる。また、2つの画像データの幾何対応関係の推定には、例えば、マーカーを利用する方法、パターンマッチングを用いる方法、位相限定相関法を用いる方法などが利用できる(特開2013-30996号公報参照)。
 色抽出部63は、位置合わせ処理後の原稿画像データ16及び読取画像データ22の対応する位置の画像領域(両者の互いに重複する画像領域)から画素単位で色情報を抽出する。ここで、色抽出部63によって、原稿画像データ16の「対応する位置の画像領域」から画素単位で抽出される色情報はCMYK値であり、読取画像データ22の「対応する位置の画像領域」から画素単位で抽出される色情報はRGB値である。これにより、対応関係データ67から原稿画像データ16のCMYK値と、読取画像データ22のRGB値との対応関係(CMYK-RGB)を示す対応関係データ67が得られる。色抽出部63は、対応関係データ67を色変換部40に出力する。
 色変換部40は、スキャナプロファイルを用いて、読取画像データ22のRGB空間の色情報をLab色空間の色情報に変換する色変換処理を行う。スキャナプロファイルは、スキャナ12から得られるデバイス依存色空間の読取画像信号値であるRGB値と、デバイス非依存色空間のLab値との対応関係を表す色変換テーブルである。なお、スキャナプロファイルはスキャナ制御装置14内に予め記憶されている。そして、色変換部40による色変換処理を経て、対応関係データ67から、原稿画像データ16のCMYK値とLab値の対応関係(CMYK-Lab)を示す対応関係データ69が得られる。色変換部40は、対応関係データ69を色変換テーブル生成部41に出力する。
 色変換テーブル生成部41は、色変換部40から入力される対応関係データ69を基に、画像信号値(CMYK)から色度値(Lab)に変換する変換関係(CMYK→Lab)を規定する色変換テーブルを生成することで、ターゲットプロファイル9を生成する。以下、色変換テーブル生成部41によるターゲットプロファイル9の生成の一例について説明を行う。
 色変換テーブル生成部41は、予め色空間全体に相応の色変化の滑らかさが確保されている「仮の色変換テーブル」を用意し、前述の対応関係データ69を用いて仮の色変換テーブルを局所的(部分的)に修正する。
  ここでいう「仮の色変換テーブル」は、例えば、CMYKの入力であれば、Japan Color(登録商標)、 SWOP(Specifications Web Offset Printing)、 GRACoL(General Requirements for Applications in Commercial Offset Lithography)、 Fogra等のオフセ ット印刷における標準色再現を表す色変換テーブルのいずれかを用いることができる。なお、RGBの入力であれば、sRGB、AdobeRGB等の色変換テーブルのいずれかを用いることができる。
  また、上述のような標準の色変換テーブルと、過去に色変換テーブル生成部41が生成した色変換テーブルとをデータベースに蓄積しておく。そして、今回の印刷物20の読取画像データ22と原稿画像データ16とに基づき新たに取得された対応関係データ69に最も近い色変換テーブルを、色変換テーブル生成部41がデータベースの中から選択することで、この色変換テーブルを「仮の色変換テーブル」として用いることもできる。
  対応関係データ69に最も近い色変換テーブルの選択に際しては、この対応関係データ69との色差の平均値が最も小さいもの、或いは対応関係データ69との色差の最大値が最も小さいもの、などを色変換テーブル生成部41がデータベースから自動抽出し、「仮の色変換テーブル」とすることができる。なお、自動抽出により、「仮の色変換テーブル」の候補が複数抽出された場合には、それらの候補を表示部35に表示させ、ユーザに選択させる構成も可能である。
 次いで、色変換テーブル生成部41は、対応関係データ69のCMYK値を仮の色変換テーブルの格子点[1つ又は複数(例えば2つ或いは4つ)]に対応付けて、この対応付けられた格子点のLab値を対応する対応関係データ69のLab値で置き換える。こうして得られる修正後の色変換テーブルは、仮の色変換テーブルについて局所的に格子点の色度値を置き換えたものであるため、色度値を置き換えた格子点と置き換えていない格子点との間で色度値の連続性(滑らかさ)が悪くなることが予想される。そのため、修正後の色変換テーブルに対し、更に平滑化(スムージング)処理を施し、色度値の変換の滑らかさを確保することが好ましい。このように、色変換テーブル生成部41は、修正後の色変換テーブルをターゲットプロファイル9として生成する。
 [第1実施形態の画像読取装置の作用]
 次に、図13を用いて上記構成の画像読取装置10の作用について説明を行う。ここで、図13は、画像読取装置10による印刷物20の読み取り処理並びにターゲットプロファイル9の生成処理の流れ(画像読取方法)、特に印刷物20の読取領域の表示処理の流れ(読取領域表示方法)を示すフローチャートである。
 <読取領域表示処理>
 図13に示すように、スキャナ12にて印刷物20の読み取りを行う前に、この印刷物20の元の原稿画像データ16をスキャナ制御装置14の第1画像入力I/F32に入力する(ステップS10)。この原稿画像データ16は、第1画像入力I/F32から画像解析部33と、画像対応付け部39とにそれぞれ入力される。
 画像解析部33は、前述の図2から図6で説明したように、原稿画像データ16をブロックBK単位で解析、すなわち、ブロックBK毎に特徴形状である直線状のエッジの有無及びその長さ並びにその位置を検出して、これらの検出結果を示す特徴形状画像データ45を生成する(ステップS11、本発明の画像解析ステップに相当)。画像解析部33は、特徴形状画像データ45及び原稿画像データ16を読取領域設定部34に出力する。なお、原稿画像データ16については、読取領域設定部34を介さずに、画像解析部33から表示部35に直接出力してもよい。
 特徴形状画像データ45等が読取領域設定部34に入力されると、読取領域設定部34は、前述の図7から図10を用いて説明したように、原稿画像データ16の中に読取領域の候補となる4つの候補領域(第1候補領域RAから第4候補領域RD)を設定する。次いで、読取領域設定部34は、候補領域毎に有効ブロック画像データ45(OK)の数をカウントし、各候補領域の中でカウント数が最大となる候補領域を読取領域として設定する(ステップS12、本発明の読取領域設定ステップに相当)。そして、読取領域設定部34は、読取領域の設定結果と、画像解析部33から入力された原稿画像データ16とを表示部35に出力する。
 読取領域の設定結果等が表示部35に入力されると、表示部35は、前述の図11を用いて説明したように、読取領域設定部34から入力された原稿画像データ16及び読取領域の設定結果に基づき、読取領域表示画面50を表示する。この読取領域表示画面50の画像表示欄52内には、原稿画像データ16を縮小した縮小画像データ56に基づく縮小画像に、印刷物20のセット位置(印刷物20の読取領域)を示す読取枠57が重ねて表示される(ステップS13、本発明の表示ステップに相当)。これにより、ユーザに対して、スキャナ12の読取面上にセットする印刷物20のセット位置、すなわち、印刷物20の読取領域を示すことができる。なお、読取領域表示画面50を表示する代わりに、図12に示した読取領域表示画面50Aを表示してもよい。
 表示部35による読取領域表示画面50での印刷物20のセット位置の表示後、ユーザは、画像表示欄52内の表示に従ってスキャナ12の読取面上に印刷物20の読取領域をセットする(ステップS14)。次いで、ユーザが操作部31を操作してスキャン開始ボタン53をクリックすると、制御部30の制御の下、スキャナ12が印刷物20の読取領域を読み取って、この読取領域の読取画像データ22(RGB値)を生成する(ステップS15、本発明の読取ステップに相当)。
 <ターゲットプロファイル生成処理>
 次いで、スキャナ制御装置14において、ターゲットプロファイル9の生成処理が開始する。
 スキャナ12にて生成された読取画像データ22(RGB値)は、スキャナ12から第2画像入力I/F36に入力され、さらに、この第2画像入力I/F36から画像対応付け部39の画像位置合わせ部62に入力される(ステップS16)。
 画像位置合わせ部62は、第1画像入力I/F32から入力された原稿画像データ16と、第2画像入力I/F36から入力された読取画像データ22との幾何対応関係を推定する。そして、画像位置合わせ部62は、推定した幾何対応関係に基づいて、2つの画像データの少なくとも一方に対し、両者を一致させるような幾何変換の処理を行う。これにより、原稿画像データ16と、読取画像データ22との位置関係を特定する位置合わせ処理がなされる(ステップS17)。
 この際に、原稿画像データ16との位置合わせ処理の対象となる読取画像データ22は、前述の通り、有効ブロック画像データ45(OK)を最も多く含む読取領域、すなわち、位置合わせ処理に最適な読取領域をスキャナ12で読み取って得た読取画像データ22である。このため、画像位置合わせ部62による位置合わせ処理を正確に実行することができる。
 色抽出部63は、位置合わせ処理後の原稿画像データ16及び読取画像データ22の対応する位置の画像領域から画素単位で色情報を抽出して、原稿画像データ16のCMYK値と読取画像データ22のRGB値との色情報の対応関係を示す対応関係データ67を生成する。そして、色抽出部63は、生成した対応関係データ67を色変換部40に出力する。
 色変換部40は、スキャナ12の機種に対応したスキャナプロファイルを用いて、読取画像データ22のRGB空間の色情報をLab色空間の色情報に変換する色変換処理を行い、対応関係データ67から原稿画像データ16のCMYK値とLab値の対応関係を示す対応関係データ69を生成する。色変換部40は、対応関係データ69を色変換テーブル生成部41に出力する。
 色変換テーブル生成部41は、色変換部40から入力される対応関係データ69を用いて、予め用意した前述の仮の色変換テーブルを局所的に修正し、この修正後の色変換テーブルをターゲットプロファイル9として生成する(ステップS18)。
 [第1実施形態の効果]
 以上のように、第1実施形態の画像読取装置10では、原稿画像データ16の中で前述の位置合わせ処理に適した読取領域を自動で設定して、この設定結果に基づきスキャナ12に対する印刷物20のセット位置を表示するため、ユーザに対して印刷物20の適切な読取領域を示すことができる。これにより、印刷物20の読取領域を変えながらスキャナ12による読み取りを何回も繰り返す必要がなくなり、位置合わせ処理に適した読取領域の読み取りを短時間(1回程度)で行うことができる。また、印刷物によって位置合わせ処理に適した主要被写体(商品、人物など)の位置が異なる場合でも、印刷物に合わせた読取領域を表示することができる。その結果、特にスキャナ12の読取範囲より大きい印刷物20の読み取りをスキャナ12にて行う際に、印刷物20の読み取りを効率的に行うことができる。
 [第2実施形態の画像読取装置]
 次に、第2実施形態の画像読取装置について説明を行う。なお、第2実施形態の画像読取装置は、第1実施形態の画像読取装置10と基本的には同じ構成であるので、上記第1実施形態と機能・構成上同一のものについては、同一符号を付してその説明は省略する(図1参照)。
 第2実施形態の画像読取装置は、読取領域設定部34による読取領域の設定方法が、上記第1実施形態の画像読取装置10とは異なる。また、第2実施形態の画像読取装置では、第1実施形態の原稿画像データ16とは異なる原稿画像データ16Aを用いる。
 図14の(A)部分~図14の(C)部分は、第2実施形態の画像解析部33による原稿画像データ16Aの解析処理を説明するための説明図である。なお、図14の(A)部分~図14の(C)部分では、図面の煩雑化を防止するため、ブロックBK(図3参照)を示す枠線の図示は省略している。
 第2実施形態の画像解析部33は、第1実施形態と同様に、図14の(A)部分に示す原稿画像データ16Aに対して、ブロックBK単位での輝度画像変換処理及びエッジ画像生成処理及び特徴形状検出処理を行う。これにより、原稿画像データ16Aから、図14の(B)部分に示すようにエッジ画像データ47Aが生成された後、図14の(C)部分に示すようにエッジ画像データ47Aから特徴形状である直線状のエッジEが検出される。なお、図14の(C)部分では、エッジEを原稿画像データ16A上に太線で表示している。そして、画像解析部33によって、ブロックBK毎の直線状のエッジの有無及びその長さ並びにその位置の検出結果を示す特徴形状画像データ45A(図15の(A)部分,図15の(B)部分参照)が生成される。
 図15の(A)部分,図15の(B)部分は、第2実施形態の特徴形状画像データ45A、及び読取領域の設定処理を説明するための説明図である。図15の(A)部分,図15の(B)部分に示すように、特徴形状画像データ45Aは、第1実施形態の特徴形状画像データ45と同様にブロックBK単位で分割されている。この特徴形状画像データ45Aは、有効ブロック画像データ45A(OK)と、無効ブロック画像データ45A(NG)とにより構成されている。なお、図中では、無効ブロック画像データ45A(NG)をグレー表示で示している。
 第2実施形態の読取領域設定部34は、第1実施形態と同様に、特徴形状画像データ45Aに基づく画像の四隅をそれぞれ始点として、この画像の外周に接する第1候補領域RAから第4候補領域RD(スキャナ12の最大読取サイズ)をそれぞれ特徴形状画像データ45Aに設定する。次いで、読取領域設定部34は、第1候補領域RAから第4候補領域RDの候補領域毎に、候補領域内の有効ブロック画像データ45A(OK)に含まれる直線状のエッジEの数及びエッジEの長さを検出する。そして、この検出結果に基づき、読取領域設定部34は、後述の第1エッジ集計データ100及び第2エッジ集計データ101及び第3エッジ集計データ102(図16の(A)部分~図16の(C)部分参照)のいずれかを求めることにより、読取領域の設定を行う。なお、各エッジ集計データ100~102のいずれを求めるかについては、ユーザが操作部31にて選択することができる。
 図16の(A)部分は、第1エッジ集計データ100の一例を説明するための説明図である。図16の(B)部分は、第2エッジ集計データ101の一例を説明するための説明図である。図16の(C)部分は、第3エッジ集計データ102の一例を説明するための説明図である。
 図16の(A)部分に示すように、第1エッジ集計データ100には、各候補領域RA~RD別に、エッジEを含む有効ブロック画像データ45A(OK)の数が登録される。読取領域設定部34は、前述の画像解析部33による直線状のエッジEの検出結果に基づき、各候補領域RA~RD別に直線状のエッジEを含む有効ブロック画像データ45A(OK)の数をカウントして、第1エッジ集計データ100に登録する。そして、読取領域設定部34は、第1エッジ集計データ100を参照して、各候補領域RA~RDの中でカウント数が最大の候補領域を読取領域として設定する。ここでは、第1候補領域RAが読取領域として設定される。
 図16の(B)部分に示すように、第2エッジ集計データ101には、各候補領域RA~RD別に、各候補領域内の最大長さのエッジEが跨ぐ有効ブロック画像データ45A(OK)の数が登録される。読取領域設定部34は、前述の画像解析部33により得られたエッジ画像データ47Aの連続するピクセルの数をカウントすることにより、各候補領域内に含まれるエッジEの長さをそれぞれ検出する。次いで、読取領域設定部34は、各候補領域RA~RD別に、最大長さのエッジEが跨ぐ有効ブロック画像データ45A(OK)の数をカウントして、第2エッジ集計データ101に登録する。そして、読取領域設定部34は、第2エッジ集計データ101を参照して、各候補領域RA~RDの中でカウント数が最大の候補領域を読取領域として設定する。なお、前述の図15の(A)部分,図15の(B)部分では、図面作成の都合上、直線状のエッジEの判別が困難であるが、第2候補領域RBのカウント数が「5」で最大となり、第2候補領域RBが読取領域として設定される。
 図16の(C)部分に示すように、第3エッジ集計データ102には、各候補領域RA~RD別に、最も多くエッジEを含む有効ブロック画像データ45A(OK)内のエッジEの数が登録されている。読取領域設定部34は、前述の画像解析部33による直線状のエッジEの検出結果に基づき、各候補領域内でエッジEを最も多く含む有効ブロック画像データ45A(OK)を検出する。次いで、読取領域設定部34は、候補領域別に、検出した有効ブロック画像データ45A(OK)内のエッジEの数をそれぞれカウントして、第3エッジ集計データ102に登録する。そして、読取領域設定部34は、第3エッジ集計データ102を参照して、各候補領域RA~RDの中でカウント数が最大の候補領域を読取領域として設定する。なお、前述の図15の(A)部分,図15の(B)部分では、図面作成の都合上、直線状のエッジEの判別が困難であるが、第4候補領域RDの有効ブロック画像データ45A(OK)内のエッジEのカウント数が「5」で最大となり、第4候補領域RDが読取領域として設定される。
 このように読取領域設定部34は、読取領域の設定を行った後、読取領域の設定結果及び原稿画像データ16を表示部35へ出力する。これ以降の処理は第1実施形態と基本的に同じであるので、ここでは具体的な説明は省略する。
 第2実施形態の画像読取装置においても、原稿画像データ16の中で読取領域を自動で設定して、この設定結果に基づきスキャナ12に対する印刷物20のセット位置を表示するので、上記第1実施形態と同様の効果が得られる。
 [印刷物の読取領域を表示させる手段としてコンピュータを機能させるプログラムについて]
 上述の実施形態で説明した画像読取装置(読取領域表示装置)として、コンピュータを機能させるためのプログラムをCD-ROMや磁気ディスクやその他のコンピュータ可読媒体(有体物たる非一時的な情報記憶媒体;non-transitory computer-readable tangible medium)に記録し、該情報記憶媒体を通じて当該プログラムを提供することが可能である。このような情報記憶媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの通信ネットワークを利用してプログラム信号をダウンロードサービスとして提供することも可能である。
 また、このプログラムをコンピュータに組み込むことにより、コンピュータに画像読取装置(読取領域表示装置)の各機能を実現させることができ、上述の実施形態で説明した読取領域の表示等を実現することができる。さらに、このプログラムの一部または全部をスキャナ12に通信ネットワークを介して接続されたホストコンピュータに組み込む態様や、スキャナ12のCPUの動作プログラムとして適用する態様なども可能である。
 [その他]
 上記各実施形態では、スキャナ12を用いて印刷物20の読取領域の読み取りを行うが、カメラなど印刷物20に印刷された画像を読み取り可能な各種の読取部を用いることができる。
 上記各実施形態では、スキャナとスキャナ制御装置とが別体に設けられている例について説明を行ったが、両者が一体に形成されていてもよい。
 上記各実施形態では、表示部35に表示される読取領域表示画面50,50Aにより、ユーザに対してスキャナ12に対する印刷物20のセット位置を表示しているが、例えば、印刷物20のセット位置を示すメッセージを表示部35に表示してもよい。このメッセージは、例えば「印刷物の左上隅をスキャナの読取面の左上隅に合わせてください」など、ユーザが印刷物20のセット位置が分かるものであれば特に限定はされない。また、上記のメッセージをスピーカ等でユーザに対して音声表示してもよい。この場合には、スピーカ等の音声表示が本発明の表示部として機能する。
 上記各実施形態では、原稿画像データ16から特徴的形状として直線状のエッジを検出する場合を例に挙げて説明を行ったが、原稿画像データ16と、読取画像データ22との位置関係を特定する位置合わせ処理に適した特徴的形状であれば、直線状にエッジに限定されるものではない。
 図17は、直線状のエッジ以外の特徴的形状の検出を行う例を説明するための説明図である。図17に示すように、画像解析部33は、例えばHarrisのコーナ検出法を用いてエッジ画像データ47(図中では理解を容易にするため、原稿画像データ16を表示)からコーナCEを特徴的形状として検出する。また、コーナ検出を行う代わりに、例えばHough変換を使用する円検出法により、エッジ画像データ47から円を特徴的形状として検出してもよい。ここで、コーナ検出や円検出は、直線状のエッジの検出と比較して微細な構造物を検出し易い。このため、前述の位置合わせ処理に用いる特徴的形状としては直線状のエッジを検出することが好ましいが、コーナ検出や円検出を行った場合でも前述の位置合わせ処理に特に支障はない。
 上記各実施形態では、原稿画像データ16の特徴量として直線状のエッジなどの特徴的形状を検出して、この検出結果に基づき読取領域の設定を行っているが、エッジ検出を行わずに、原稿画像データ16と読取画像データ22との位置合わせ処理に用いられる特徴量を検出してもよい。具体的に、他の位置合わせアルゴリズム、例えばSIFT(Scale-Invariant Feature Transform,David Loweにより提案、米国特許US6711293参照)を使用して位置合わせ処理を行う場合が例として挙げられる。この場合には、位置合わせアルゴリズムが使用する特徴点を原稿画像データから検出し、これを特徴量として特徴点の分布(候補領域内の特徴点を含むブロック数、密度)から読取領域を設定してもよい。ここで、密度とはブロック内の特徴点の個数である。
 上記各実施形態では、特徴形状画像データに基づく画像の四隅をそれぞれ始点として4つの候補領域を特徴形状画像データに設定しているが、印刷物20をスキャナ12にセットする際に、スキャナ12の天板などに干渉しなければ、画像中央部に候補領域を設定してもよい。
 上記各実施形態では、スキャナ12に対する印刷物20のセット位置を示す読取領域表示画面50,50Aの例を図11及び図12に示したが、印刷物20の印刷面をスキャナ12の読取面に重ね合せて配置した場合に、この印刷物20を裏面から見たときのセット位置を読取領域表示画面に表示してもよい。この場合には、印刷物20の裏面側から見たセット位置であることがユーザに理解できるように、この裏面側から見た原稿画像データ16や読取領域画像データ59に基づく画像の表示態様を点線表示などに変えてもよい。
 更に、本発明は上述した実施の形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能であることは言うまでもない。例えば、上記各実施形態の少なくとも2つの実施形態を適宜に組み合わせてもよい。
 10…画像読取装置,12…スキャナ,14…スキャナ制御装置,16…原稿画像データ,20…印刷物,22…読取画像データ,33…画像解析部,34…読取領域設定部,35…表示部,39…画像対応付け部,45…特徴形状画像データ,62…画像位置合わせ部,63…色抽出部

Claims (14)

  1.  原稿画像データに基づき画像が印刷された印刷物の読み取りを行う読取部と、
     前記原稿画像データを解析して、当該原稿画像データと、前記読取部にて読み取られた前記印刷物の読取画像データとの位置関係の特定に用いられる特徴量を検出する画像解析部と、
     前記画像解析部が検出した前記特徴量に基づき、前記読取部が前記印刷物の読み取りを行う読取領域を設定する読取領域設定部であって、前記原稿画像データの中で前記特徴量を含む少なくとも1以上の領域を前記読取領域として設定する読取領域設定部と、
     前記読取領域設定部による前記読取領域の設定結果に基づき、前記読取部に対する前記印刷物のセット位置を表示する表示部と、を備え、
     前記読取部は、前記表示部による前記セット位置の表示後に当該読取部にセットされた前記印刷物の読み取りを行う画像読取装置。
  2.  前記読取部は、当該読取部が前記印刷物を読み取り可能な読取範囲よりも大きい当該印刷物の読み取りを行う請求項1に記載の画像読取装置。
  3.  前記表示部は、前記原稿画像データに基づき生成された縮小画像に前記セット位置を重ねて表示する請求項1または2に記載の画像読取装置。
  4.  前記表示部は、前記原稿画像データに基づく画像の中で前記読取領域に対応する領域を選択して表示する請求項1または2に記載の画像読取装置。
  5.  前記画像解析部は、前記原稿画像データに基づき生成されたエッジ画像データを解析し、前記エッジ画像データから前記位置関係の特定に用いられる前記画像の特徴形状を前記特徴量として検出する請求項1から4のいずれか1項に記載の画像読取装置。
  6.  前記画像解析部は、前記特徴形状として直線状のエッジを検出する請求項5に記載の画像読取装置。
  7.  前記読取領域設定部は、前記原稿画像データの中に前記読取領域の候補となる候補領域を複数設定し、複数の前記候補領域の中で、少なくとも前記画像解析部により検出された前記特徴量を含む領域を前記読取領域として設定する請求項1から6のいずれか1項に記載の画像読取装置。
  8.  前記読取領域設定部は、複数の前記候補領域の中で、前記画像解析部により検出された前記特徴量を最も多く含む領域を前記読取領域として設定する請求項7に記載の画像読取装置。
  9.  前記読取部による前記印刷物の読み取り後に、前記読取部にて読み取られた前記読取画像データと、前記原稿画像データとの位置関係を特定する位置合わせ処理を行う位置合わせ部と、
     前記読取画像データと前記原稿画像データとの対応する画像位置から色情報を取得して、前記読取画像データと前記原稿画像データとの色情報の対応関係を求める色抽出部と、を備える請求項1から8のいずれか1項に記載の画像読取装置。
  10.  原稿画像データに基づき画像が印刷された印刷物の読み取りを行う読取部を用いて、前記印刷物の読み取りを行う画像読取方法において、
     前記原稿画像データを解析して、当該原稿画像データと、前記読取部にて読み取られた前記印刷物の読取画像データとの位置関係の特定に用いられる特徴量を検出する画像解析ステップと、
     前記画像解析ステップで検出した前記特徴量に基づき、前記読取部が前記印刷物の読み取りを行う読取領域を設定する読取領域設定ステップであって、前記原稿画像データの中で前記特徴量を含む少なくとも1以上の領域を前記読取領域として設定する読取領域設定ステップと、
     前記読取領域設定ステップでの前記読取領域の設定結果に基づき、前記読取部に対する前記印刷物のセット位置を表示する表示ステップと、
     前記表示ステップでの前記セット位置の表示後に前記読取部にセットされた前記印刷物の読み取りを行う読取ステップと、
     を有する画像読取方法。
  11.  原稿画像データに基づき画像が印刷された印刷物の読み取りを行う読取部により前記印刷物の読み取りを行う際の当該印刷物の読取領域を表示する読取領域表示装置において、
     前記原稿画像データを解析して、当該原稿画像データと、前記読取部にて読み取られた前記印刷物の読取画像データとの位置関係の特定に用いられる特徴量を検出する画像解析部と、
     前記画像解析部が検出した前記特徴量に基づき、前記読取部が前記印刷物の読み取りを行う読取領域を設定する読取領域設定部であって、前記原稿画像データの中で前記特徴量を含む少なくとも1以上の領域を前記読取領域として設定する読取領域設定部と、
     前記読取領域設定部による前記読取領域の設定結果に基づき、前記読取部に対する前記印刷物のセット位置を表示する表示部と、
     を備える読取領域表示装置。
  12.  原稿画像データに基づき画像が印刷された印刷物の読み取りを行う読取部により前記印刷物の読み取りを行う際の前記印刷物の読取領域を表示する読取領域表示方法において、
     前記原稿画像データを解析して、当該原稿画像データと、前記読取部にて読み取られた前記印刷物の読取画像データとの位置関係の特定に用いられる特徴量を検出する画像解析ステップと、
     前記画像解析ステップで検出した前記特徴量に基づき、前記読取部が前記印刷物の読み取りを行う読取領域を設定する読取領域設定ステップであって、前記原稿画像データの中で前記特徴量を含む少なくとも1以上の領域を前記読取領域として設定する読取領域設定ステップと、
     前記読取領域設定ステップでの前記読取領域の設定結果に基づき、前記読取部に対する前記印刷物のセット位置を表示する表示ステップと、
     を有する読取領域表示方法。
  13.  原稿画像データに基づき画像が印刷された印刷物の読み取りを行う読取部により前記印刷物の読み取りを行う際の当該印刷物の読取領域を表示させる手段としてコンピュータを機能させるプログラムであって、
     コンピュータを、
     前記原稿画像データを解析して、当該原稿画像データと、前記読取部にて読み取られた前記印刷物の読取画像データとの位置関係の特定に用いられる特徴量を検出する画像解析部と、
     前記画像解析部が検出した前記特徴量に基づき、前記読取部が前記印刷物の読み取りを行う読取領域を設定する読取領域設定部であって、前記原稿画像データの中で前記特徴量を含む少なくとも1以上の領域を前記読取領域として設定する読取領域設定部と、
     前記読取領域設定部による前記読取領域の設定結果に基づき、前記読取部に対する前記印刷物のセット位置を表示する表示部として機能させるためのプログラム。
  14.  請求項13に記載のプログラムを記録したコンピュータ読み取り可能な媒体。
PCT/JP2015/077334 2014-09-30 2015-09-28 画像読取装置及び方法、並びに読取領域表示装置及び方法、並びにプログラム WO2016052411A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/462,486 US9843694B2 (en) 2014-09-30 2017-03-17 Image reading device and method, reading area display device and method, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-200464 2014-09-30
JP2014200464A JP6117164B2 (ja) 2014-09-30 2014-09-30 画像読取装置及び方法、並びに読取領域表示装置及び方法、並びにプログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/462,486 Continuation US9843694B2 (en) 2014-09-30 2017-03-17 Image reading device and method, reading area display device and method, and program

Publications (1)

Publication Number Publication Date
WO2016052411A1 true WO2016052411A1 (ja) 2016-04-07

Family

ID=55630445

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/077334 WO2016052411A1 (ja) 2014-09-30 2015-09-28 画像読取装置及び方法、並びに読取領域表示装置及び方法、並びにプログラム

Country Status (3)

Country Link
US (1) US9843694B2 (ja)
JP (1) JP6117164B2 (ja)
WO (1) WO2016052411A1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6922421B2 (ja) * 2017-05-26 2021-08-18 富士フイルムビジネスイノベーション株式会社 読取方法案内装置、読取方法案内プログラム及び画像処理システム
JP2019036891A (ja) * 2017-08-18 2019-03-07 キヤノン株式会社 画像処理装置とその制御方法、及びプログラム
JP7013806B2 (ja) * 2017-11-15 2022-02-01 富士フイルムビジネスイノベーション株式会社 画像読取装置及びプログラム
JP7331602B2 (ja) * 2019-10-04 2023-08-23 コニカミノルタ株式会社 色変換テーブル修正装置及びプログラム
JP2022087866A (ja) * 2020-12-02 2022-06-14 コニカミノルタ株式会社 色変換テーブル作成装置及びプログラム
ES2963630T3 (es) * 2020-12-21 2024-04-01 SWISS KRONO Tec AG Procedimiento y dispositivo para imprimir una banda de papel

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0492559A (ja) * 1990-08-07 1992-03-25 Fuji Photo Film Co Ltd 画像読取装置
JP2000099705A (ja) * 1998-09-25 2000-04-07 Hitachi Ltd 画像処理方式
JP2007013831A (ja) * 2005-07-04 2007-01-18 Seiko Epson Corp パラメータ値生成装置およびパラメータ値生成方法、並びに画像特徴量読取装置および画像特徴量読取方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3773642B2 (ja) * 1997-12-18 2006-05-10 株式会社東芝 画像処理装置および画像形成装置
US6711293B1 (en) 1999-03-08 2004-03-23 The University Of British Columbia Method and apparatus for identifying scale invariant features in an image and use of same for locating an object in an image
EP1091560A1 (en) * 1999-10-05 2001-04-11 Hewlett-Packard Company Method and apparatus for scanning oversized documents
JP4205825B2 (ja) * 1999-11-04 2009-01-07 本田技研工業株式会社 対象物認識装置
JP2004215178A (ja) * 2003-01-08 2004-07-29 Brother Ind Ltd 画像読取装置、および、画像読取領域設定方法
KR100574526B1 (ko) * 2004-01-06 2006-04-27 삼성전자주식회사 스캐닝장치의 특정영역 스캐닝방법
JP2010068381A (ja) 2008-09-12 2010-03-25 Toshiba Corp 文書読取方法および文書読取システム
US8913285B1 (en) * 2009-06-07 2014-12-16 Apple Inc. Automated method of decomposing scanned documents
KR20110064079A (ko) * 2009-12-07 2011-06-15 삼성전자주식회사 화상형성장치 및 그 스캔 방법
JP2012160957A (ja) 2011-02-01 2012-08-23 Oki Data Corp 読取装置
JP5733083B2 (ja) 2011-07-28 2015-06-10 株式会社リコー 画像処理装置、画像処理システム
JP2013101015A (ja) * 2011-11-08 2013-05-23 Canon Inc 検品装置、検品方法、検品システム、コンピュータプログラム
JP5861503B2 (ja) * 2012-03-06 2016-02-16 株式会社リコー 画像検査装置及び方法
JP6228527B2 (ja) * 2014-09-30 2017-11-08 富士フイルム株式会社 画像読取装置及び方法、並びに読取領域表示装置及び方法、並びにプログラム
JP2016092479A (ja) * 2014-10-30 2016-05-23 京セラドキュメントソリューションズ株式会社 画像読取装置および画像形成装置
US9819824B2 (en) * 2015-08-11 2017-11-14 Xerox Corporation Custom scan areas history and customization

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0492559A (ja) * 1990-08-07 1992-03-25 Fuji Photo Film Co Ltd 画像読取装置
JP2000099705A (ja) * 1998-09-25 2000-04-07 Hitachi Ltd 画像処理方式
JP2007013831A (ja) * 2005-07-04 2007-01-18 Seiko Epson Corp パラメータ値生成装置およびパラメータ値生成方法、並びに画像特徴量読取装置および画像特徴量読取方法

Also Published As

Publication number Publication date
US9843694B2 (en) 2017-12-12
JP6117164B2 (ja) 2017-04-19
US20170195519A1 (en) 2017-07-06
JP2016072816A (ja) 2016-05-09

Similar Documents

Publication Publication Date Title
WO2016052411A1 (ja) 画像読取装置及び方法、並びに読取領域表示装置及び方法、並びにプログラム
JP6015189B2 (ja) 画像検査装置、画像形成装置、画像検査方法及び画像形成システム
US8712166B2 (en) Difference detecting apparatus, difference output apparatus, and medium
JP6339962B2 (ja) 画像処理装置及び方法、並びにプログラム
JP5861503B2 (ja) 画像検査装置及び方法
JP2014112366A (ja) 極めて小さいデータセルを有する印刷されたカラーバーコードの確実な復号化
JP2015111801A (ja) 画像処理装置及び画像処理システム
JP2016027444A5 (ja)
US9967407B2 (en) Image reading device and method, reading area display device and method, and program
US20180152594A1 (en) Image processing apparatus and non-transitory computer readable medium
JP2022162908A (ja) 画像処理装置、画像処理方法、およびプログラム
US20180260363A1 (en) Information processing apparatus and non-transitory computer readable medium storing program
JP6010318B2 (ja) 画像検査装置、画像検査方法、及びプログラム
JP2013029982A (ja) 画像処理システム、画像処理プログラム
JP6521250B2 (ja) 画像形成装置、色変換プログラムおよび色変換方法
JP4710672B2 (ja) 文字色判別装置、文字色判別方法、およびコンピュータプログラム
JP2013090262A (ja) 文書文字差異検出装置
US10250777B2 (en) Image processing apparatus and non-transitory computer readable medium for image difference confirmation
JP2011066589A (ja) 画像処理装置及びその画像処理方法
JP2016001843A (ja) 色変動監視装置、画像形成装置及びプログラム
JP2007028181A (ja) 画像処理装置
JP2019184319A (ja) 画像形成装置、画像検査装置、管理装置およびプログラム
JP6428039B2 (ja) 色変動監視装置、画像形成装置及びプログラム
JP6025803B2 (ja) 画像処理装置
US9098768B2 (en) Character detection apparatus, character detection method, and computer-readable storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15847370

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 15847370

Country of ref document: EP

Kind code of ref document: A1