WO2000000930A1 - Image correction device - Google Patents

Image correction device Download PDF

Info

Publication number
WO2000000930A1
WO2000000930A1 PCT/JP1999/003199 JP9903199W WO0000930A1 WO 2000000930 A1 WO2000000930 A1 WO 2000000930A1 JP 9903199 W JP9903199 W JP 9903199W WO 0000930 A1 WO0000930 A1 WO 0000930A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
document
edge
image correction
correction
Prior art date
Application number
PCT/JP1999/003199
Other languages
English (en)
French (fr)
Inventor
Kazuyuki Nako
Original Assignee
Sharp Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Kabushiki Kaisha filed Critical Sharp Kabushiki Kaisha
Priority to US09/720,704 priority Critical patent/US7072527B1/en
Priority to EP99957653A priority patent/EP1093084B1/en
Publication of WO2000000930A1 publication Critical patent/WO2000000930A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Definitions

  • the present invention relates to an image correction device, and more particularly to an image correction device that reads a document whose specific area is distorted, such as near a book binding, as an image, and corrects the image as if the original document was flat. .
  • An image forming apparatus described in Japanese Patent Application Laid-Open No. 57-191635 is an apparatus for clearly copying an original such as a bound book or notebook whose central binding part is separated from the platen at a uniform magnification. There is.
  • This image forming device measures the distance between the original and the platen and adjusts the scanning speed, the height of the platen, and the illuminance of the light source according to the distance to correct image distortion and brightness.
  • a document is read by a document reading means to obtain image information, and a boundary between the document and the platen is detected by a boundary detecting means. Based on the boundary detection result, the shape and the degree of curving of the document are detected, and the read image data is corrected according to the detection result.
  • a color other than white, such as black is selected for the platen so that the document and the platen can be easily distinguished. It can be.
  • the image processing apparatus described in Japanese Patent Application Laid-Open No. Hei 8-18828 the color of the platen which has been a problem in the document reading apparatus described in Japanese Patent Application Laid-Open No. 5-161004, etc. Restrictions and improvements to manuscript color restrictions have been realized by providing manuscript guides with black and white stripes on the surface that contacts the manuscript. Further, the image processing apparatus described in Japanese Patent Application Laid-Open No. H10-0 657 877 detects an edge of an image obtained by photographing a document, and detects a skew of the document from the obtained edge. There has been disclosed a technique for correcting an original having a skew and a height distortion and a rotational distortion.
  • the result of the distance measuring means generally includes an error, the actual distance between the document and the platen does not match the measurement result, and the image taken cannot always be corrected to a flat surface. there were.
  • the conventional edge position detection method is an isolation method when the connected component of the image subjected to the edge detection filter processing is equal to or less than a predetermined value.
  • a predetermined value When the connected component is less than a predetermined value, interpolation is performed using a straight line.
  • this method has a problem that edge detection errors and edge detection omissions occur.
  • Conventional binding position detection uses a method of determining the maximum or minimum point of the edge position as the binding position, as disclosed in Japanese Patent Application Laid-Open No. 10-065877. Had been. For this reason, there has been a problem that when the document has local changes such as wrinkles, the detection of the binding position is erroneously performed.
  • the inclination of the conventional reference line is, for example, as described in Japanese Patent Application Laid-Open No. 8-18828, since the lower line of the document guide is used as the reference line. When there is no guide, there is a problem that the reference line or the inclination of the reference line cannot be obtained. Also, as described in Japanese Patent Application Laid-Open No. 8-18828, the end point of the document is detected by a judgment criterion common to both pages, so that light is normally irradiated from an oblique direction. There was a problem that the end points of the left and right pages were not correctly detected on the machine.
  • the image of the image near the binding tends to be black, and the correction may be incomplete or impossible. Furthermore, there is a problem that it is particularly difficult to correct a stitch when the color of the original is not white. Further, in the conventional technology, since the shape is confirmed from a high-resolution image as it is read, there is a problem that processing is heavy and memory consumption is increased.
  • the conventional technology has a problem that there is no automatic stop function of correction, and wasteful paper is output.
  • An object of the present invention is to solve the above-described problems, even if the original is rotated or the binding stitches are different between the top and bottom of the original, as if the original was flat.
  • An object of the present invention is to provide an image correction device for correcting geometric distortion and brightness of an image.
  • the present invention provides an image correction device including an image input unit, a storage unit, a central processing unit, and an image output unit, wherein the upper and lower sides of a document are
  • the image forming apparatus further includes a side surface tilt image correction unit that corrects an image of a document having a tilt angle with the platen.
  • the side surface tilt image correcting means includes an edge detecting means for detecting an edge of the document, a binding position detecting means for determining a binding position of the document, and a reference line detecting means for determining a reference line for the position of the document.
  • a document end point detecting means for obtaining left and right end points of the document from a change in brightness of the image near the edge, a side face inclination angle calculating means for calculating an inclination angle of the upper and lower side faces of the document from the reference line and the binding position,
  • An edge three-dimensional position calculating means for calculating the three-dimensional position of the upper and lower edges of the original from the edge, the reference line and the inclination angle; and an original shape calculating means for calculating the shape of the entire original from the three-dimensional position of the edge
  • a brightness correction parameter calculating means for obtaining a background luminance of the pixel to be corrected from the image according to the three-dimensional shape of the document, and obtaining a luminance correction parameter of the pixel from the background luminance and the target luminance. The input image is corrected using the three-dimensional shape and the brightness correction parameter.
  • the edge detection means detects a section having a predetermined length or more in a place where the edge position change is small, and sets a position interpolated from a section detected before and after the section other than the section as a position of the document edge.
  • the binding position detecting means detects, as a binding position, a position closest to the center of the image among the maximum points or the minimum points of the positions of the edges detected by the edge detecting means. I do.
  • the reference line detecting means may be a longest section among sections in which the pixel value of the image near the edge is equal to or more than the first reference value and the amount of change in the slope of the edge is equal to or less than the second reference value.
  • the inclination of the average edge in the above is defined as the inclination of the reference line
  • the straight line extended by the inclination from the end point on the outside of the original in the longest section is used as the reference line
  • the reference lines are detected for the left, right, upper and lower edges of the original It is characterized by being.
  • the document end point detecting means detects the document end point on the left and right pages of the document based on different determination criteria.
  • the document shape calculation means approximates the document surface with a set of straight lines connecting upper and lower edges, and obtains a three-dimensional position of the document surface from an internal division ratio of positions of upper and lower points of the straight line. It is characterized by the following.
  • the document shape calculating means corrects the three-dimensional position of the edge so that when the calculated edge lengths are different between the upper and lower sides, the edges have the same length. Further, the document shape calculation means corrects the three-dimensional shape data of the document such that when the calculated length of the document is different between the left and right pages, the length of the document is the same on the left and right.
  • the document shape calculation means has image reduction means for reducing the input image at a predetermined reduction rate. After obtaining the three-dimensional shape of the document from the reduced image, the document is calculated in accordance with the reduction rate. It is characterized in that the three-dimensional shape data is corrected.
  • the brightness correction parameter calculating means obtains the background brightness of the correction target pixel from the internal division ratio of the brightness of the image near the upper and lower end points of the straight line approximating the document surface according to claim 7, and calculates the ratio of the target brightness to the background brightness. Is a brightness correction parameter. Further, the side inclination image correcting means converts a pixel value near the binding position to a blank and outputs the blank to the image output means.
  • the side inclination image correction means converts the pixel value near the binding position to a pixel value at a location distant from the binding position and outputs the converted pixel value to the image output means.
  • the side inclination image correction means performs reading of an image for creating the reduced image and reading of an image to be corrected separately.
  • the image processing apparatus further includes a correction selection unit that selects application of image correction, and an image input unit that inputs an image with different input characteristics depending on whether the image is corrected or not.
  • a document area detecting unit for detecting a document area from an input image is provided, and the correction is not performed when the document area is out of the image.
  • FIG. 1 is a process diagram showing an electrical configuration of an image correction apparatus 1 according to an embodiment of the present invention.
  • FIG. 1 is a process diagram showing an electrical configuration of an image correction apparatus 1 according to an embodiment of the present invention.
  • FIG. 2 is an example of an image obtained by reading an original 10 such as a book or a magazine.
  • FIG. 3 is a flowchart showing the procedure of edge detection.
  • Figure 4 is a graph of the edge detection result and the absolute value of the difference between the front and rear edge positions.
  • FIG. 5 is a diagram for explaining the binding position detecting means.
  • FIG. 6 is a diagram for explaining the reference line detecting means.
  • FIG. 7 is a flowchart showing the operation procedure of the document end point detecting means.
  • FIG. 8 is a diagram for explaining the document end point detecting means.
  • FIG. 9 is a diagram for explaining the side surface inclination angle calculating means.
  • FIG. 10 is a diagram for explaining the document shape calculation means.
  • FIG. 11 is a diagram for explaining the document shape calculation means, in which the projected image is returned to a plane.
  • FIG. 12 is a flowchart of a method for obtaining the three-dimensional coordinates of the point P on the document surface.
  • FIG. 13 is a flowchart for explaining the brightness correction parameter calculating means.
  • FIG. 14 is a graph showing the background luminance near the edge.
  • FIG. 15 is a diagram for explaining a method of performing image correction for obtaining a reference position P ′ of an image captured on a CCD from a three-dimensional position P of an image on a document surface.
  • FIG. 16 is a diagram for explaining the document area detecting means.
  • FIG. 1 is a block diagram showing an electrical configuration of an image correction device 1 according to an embodiment of the present invention.
  • the image correction device 1 includes a central processing unit 2, an image input device 3, a storage device 4, and an image output device 5, are connected by a bus line 6, and mutually exchange signals via the bus line 6. In the following description, description regarding the bus line is omitted.
  • the image input device 3 which is an image input means, is an image reading device such as a scanner. It is realized by the position. Further, the image input device 3 may be a device for reading an image recorded in advance on a storage medium such as a CD-ROM (Compact Disk-Read Only Memory), a floppy disk, or a magneto-optical disk.
  • a storage medium such as a CD-ROM (Compact Disk-Read Only Memory), a floppy disk, or a magneto-optical disk.
  • the image output device 5 which is an image output unit, t also be realized by, for example, a printer may be a display device such as a CRT (Cathord Ray Tube) or LCD (Liquid Clystal Display).
  • a printer may be a display device such as a CRT (Cathord Ray Tube) or LCD (Liquid Clystal Display).
  • the storage device 4 as storage means is realized by, for example, a semiconductor memory or a hard disk device.
  • the image input by the image input device 3 is stored in the storage device 4 as an image signal.
  • Each image processing means is realized by a program, and is stored in the storage device 4 in advance.
  • the central processing unit 2 as the central processing unit is realized by, for example, a microprocessor, and each image processing unit described below is realized as a program executed on the central processing unit 2.
  • each image processing unit is a program executed on the central processing unit 2, but each unit may be hardware logic.
  • FIG. 2 is an example of an image obtained by reading an original 10 such as a book or a magazine.
  • the original surface is in close contact with the glass surface of the scanner, so the distance between the original surface in close contact with the glass surface and the lens of the scanner is constant, but the original surface near the binding 12 rises from the glass surface. The distance from the lens increases and the image is read at a reduced size. For this reason, geometric distortion occurs near the binding 12. Also, since the scanner irradiates the surface of the original with light and reads the reflected light, the image of the raised portion, such as near the binding 12, becomes dark.
  • the horizontal direction in Fig. 2 is defined as the X direction, and the vertical direction as the y direction.
  • the origin 0 is set at the center of the upper part of the image with the center of the lens. It is assumed that the main scanning direction of the scanner for reading an image is parallel to the X axis and the sub scanning direction is parallel to the y direction. That is, the CCD line sensor and the X axis are parallel, and the movement direction of the lens and the CCD is parallel to the y direction.
  • the original 10 in the input image is rotated 90 ° clockwise, and the page on the top of the image is the left page, and the page on the bottom is Page is called the right page, a of manuscript 10 is called the upper left of the manuscript, b is called the lower left of the manuscript, c is called the upper right of the manuscript, and d is called the lower right of the manuscript.
  • the outline of the manuscript surface is referred to as the manuscript edge, the portion 13 in FIG. 2 is referred to as the manuscript upper edge, and the portion 14 is referred to as the manuscript lower edge.
  • the document surface is flat when it touches the glass surface, and the document edge is also a straight line.
  • the tangent line of the document edge in such a place is used as the reference line
  • the reference line at the upper left of the document is the reference line 15a
  • the reference line at the lower left is the reference line 15b
  • the reference line at the upper right is the reference line 15c.
  • the lower reference line is referred to as reference line 15 d.
  • the image is read so that the original 10 and the outside area 11 can be distinguished so that the edge of the original 1 can be detected.
  • a luminance difference occurs between the outside area 11 of the original and the original 10, and the edge of the original 10 can be detected.
  • the scanner lid is set to a bright color, such as white, and the image is read with the lid closed, resulting in a difference in brightness between the outside area 11 and the original 10. The edge of the original can be detected at the same time.
  • the edge detection means is realized using, for example, an edge detection filter.
  • edge detection filters have been proposed, such as the operator of Sobe 1 and the operator of Prewitt. These edge detection filters output larger values as the brightness of the image changes rapidly. If the brightness of the document surface is different from that of the non-document surface, the edge of the document can be detected by processing the image with an edge detection filter.However, edges other than the document edge, such as character outlines, can also be detected. Therefore, only the original edge is detected as follows. Manuscript here The edge indicates the outermost contour line of the document surface.
  • FIG. 3 is a flowchart showing the procedure of edge detection.
  • an edge is detected by the edge detection filter (S1), and a point (edge) exceeding a predetermined value in the X direction from the end of the image subjected to the edge detection processing is searched (S2).
  • S 2 the validity of the edge is checked (S 4), and if it is valid, the position is recorded (S 5), and the process moves to the next line (S 7). If no edge is found up to the end of the search range, move to the next line without recording the position.
  • the process reaches the last line (S8), the process ends.
  • the validity check checks, for example, that it is not an isolated point and that the edge does not exist at a fixed distance toward the inside of the document. If the edge detected by the filter processing is an isolated point, it is removed because it is an image of dust or dust attached to the glass surface of the scanner or noise.
  • the isolated point is determined by examining the connected components of the pixels of the filtered image, and if the number of connected pixels is equal to or less than a predetermined number, it is determined to be an isolated point.
  • the side and cover of the original in the image are also detected as edges by the edge detection filter, but assuming that there are blanks at the upper and lower edges of the original, there is a slight edge inside the edge of the original. Is considered not to exist.
  • Fig. 4 shows a graph of the edge detection result and the absolute value of the difference between the front and rear edge positions.
  • edge detection is performed according to Fig. 3, there may be errors in edge detection or missing detection.
  • the absolute value of the difference between the front and rear edge positions is calculated in order to detect the a and b portions in FIG. The difference value is small in the portion where the document edge is correctly detected because the edge change is small, but the difference value increases before and after the portion where the edge detection is incorrect. Missing edge detection can be determined by the absence of edge detection data before and after that.
  • the section where the difference value is equal to or less than the predetermined value and the edge detection result exists is the correct edge detection result.
  • sections shorter than a predetermined length are ignored.
  • the approximation method may be a straight line approximation or a Bezier curve.
  • the upper and lower edges of the original can be detected by performing the same processing on the upper and lower sides of the original.
  • the binding position detecting means From the upper edge 13 and the lower edge 14 obtained by the edge detecting means, the upper and lower end points 12 a and 12 b of the joint 12 are obtained.
  • the upper end point 12a of the binding is the minimum point of the upper edge 13 and the lower end point 12b of the binding is the maximum point of the lower edge 14.
  • the line connecting them becomes the binding 12.
  • the reference line detecting means will be described with reference to FIG. Since there is no distortion in the area where the original surface touches the glass surface, the original edge is also straight. Such a straight line is used as a reference line, and in the image processing described later, the document shape is calculated from the positional relationship between the reference line and the edge.
  • 20a represents the slope of the edge at the top of the left page
  • 20b represents the slope of the edge at the top of the right page.
  • Reference numeral 21 denotes a change in the pixel value near the upper edge of the document.
  • the pixel value near the edge may be a value of a pixel at a predetermined distance from the edge or an average value around the pixel. If the document is far from the glass surface, the image will be darker and the pixel value will be smaller. For this reason, a portion within a predetermined range from the maximum pixel value can be determined to be a portion in contact with the glass surface.
  • the straight line of the inclination is a reference line, where the edge position in the section where the document is in contact with the glass surface is a passing point.
  • the passing point may be anywhere within the section determined to be in contact with the glass surface, but the ends of the section are where the edge begins to bend and may not always be straight, It is desirable to be near the center.
  • the reference line 15a, 15b, 15c and 15d can be obtained.
  • the document end point detecting means will be described with reference to FIG.
  • the brightness of the document surface in the area that is in close contact with the glass surface is considered to be approximately constant, the outside of the document is dark because it is away from light sources such as scanners.
  • the change in pixel value near the edge at the top and bottom of the document is determined, and the places where the pixel values are smaller than the maximum pixel value by a certain percentage are detected on the left and right pages (S11).
  • the left and right sides of the original document may be determined differently, for example, if the pixel value on the left side of the original document is 3% and the pixel value on the right side is 5%, the original document point is determined. As shown in Fig. 8, a perpendicular is drawn from the detected end points 22a, 22b, 22c, and 22d to the reference line on the opposite side of the original (S12), and the perpendiculars outside the original are respectively left and right.
  • intersections with the reference line are newly set as document end points 22a ', 22b', 22c ', and 22d' (S13).
  • a perpendicular line outside the document is selected so as not to cut off a necessary portion, but a perpendicular line inside may be selected in order to cut off an unnecessary portion as much as possible.
  • FIG. 9 shows the relationship between the lens and the image of the document, and is a diagram in which the image of the document is rotated by 90 degrees when viewed from the y-axis direction.
  • the z-axis is set perpendicular to the CCD surface and the glass surface, and the origin is set to 0 at the lens center.
  • the distance between the lens and the CCD surface is ⁇ . This indicates that the binding is inclined to the upper side of the document because the upper part of the origin is sunk.
  • the solid line in the figure represents the image of the document projected by the lens.
  • the upper and lower ends ⁇ ⁇ 1, ⁇ 2 of the binding are reduced on the CCD and appear at the positions P 1, P 2. This means that when the book is read by the scanner, the image of the part that is floating is reduced.
  • a line passing through E 1; E 2 and perpendicular to the binding line L0 is defined as L 1; L2. Since a document such as a book is formed by binding rectangular paper on one side, the relationship between the binding edge and the upper and lower sides may be considered to be right. For this reason, it is assumed that the straight lines L 1 and L 2 correspond to the upper side and the lower side of the document, respectively. In addition, it is assumed that the intersection B 1; B 2 between LI; L2 and the CCD surface is on the reference line of the edge. At this time, the inclination ⁇ of the side surface of the document is calculated as follows. Now, it is assumed that the upper end and the lower end of the binding are shown at points P 1 and P 2 on the CCD, respectively. At this time, the images at the top and bottom of the binding are on the straight lines M1 and M2, respectively, and are located at the intersections E1, E2 of the straight line L0 and L1, L2.
  • the X, z of the edge can be obtained.
  • the coordinates are known.
  • imaging is performed by scanning a CCD and a lens.
  • parallel projection is performed in the y direction, and the y coordinate of the edge shown in the CCD matches the y coordinate of the projected image.
  • the 3D position of the image of the edge can be obtained along with the X and z coordinates.
  • FIG. 10 shows an image of the document (left page only) projected by the lens 16.
  • Documents that are in contact with the glass surface are projected onto the CCD surface 17, but those that are raised from the glass surface are projected farther than the CCD surface.
  • the binding edge, upper edge, and lower edge correspond to 12 ', 13', and 14 ', and will be seen at positions 12, 13, and 14 in the CCD image.
  • the positions of the binding 12 ', the upper edge 13', the lower edge 14 ', and the left edge 18 of the document are known by the above edge 3D position calculation means, so the position of the document surface between them is obtained. .
  • FIG. 11 is a diagram in which the projected image is returned to a plane. Assuming that the original is rectangular, the projected image returned to a plane naturally becomes rectangular. The upper side of the rectangle in Fig. 11 corresponds to the upper edge 13 ', and the lower side corresponds to the lower edge 14'.c However, the calculated edge lengths differ due to measurement errors and other reasons. Therefore, it is necessary to adjust the length to either the upper edge or the lower edge. For example, if the lower edge 14 'is shorter than the upper edge 13', first match the upper edge 13 'with the upper edge of the rectangle, and for the lower edge 14' the corresponding position of the lower edge of the rectangle. , So that the lower edge 14 ′ matches the lower edge of the rectangle.
  • the length of the left and right sides of the rectangle is made to match the distance between the upper and lower edge reference lines of the document.
  • the distance between the upper and lower reference lines of the original document may differ due to measurement errors and other reasons. For example, adjust to the average value of the left and right pages. Alternatively, it may be adjusted to either one.
  • the place where the document surface starts to rise from the glass surface is called a rising line 19, and the rising line is assumed to be a straight line.
  • the raised portion of the document surface is constrained by two straight lines, the rising line 19 and the binding line 1 2 ′, so the document surface is a straight line whose slope changes continuously from the rising line 19 to the binding line 1 2 ′. It can be thought of as a set.
  • this straight line is located at a position that internally divides the rising line 19 and the binding 12 'at a fixed ratio. Assume a straight line, but other models may be used.
  • a straight line that is internally divided at a fixed ratio corresponds to the broken line in Fig. 11, and is a set of points that have the same horizontal internal division ratio.
  • the ratio between the left edge 18 of the manuscript and the rising line 19 is also constant. Think of it as a set of straight lines at the position of internal division.
  • FIG. 12 shows a flowchart of how to obtain the three-dimensional coordinates of the point P on the document surface.
  • a point U 1 that internally divides 19, 12 ′ into a: b on 13 ′ and a point B 1 that internally divides 19, 12 ′ into a: b on 14 ′ are obtained (S 22). Since the three-dimensional coordinates on the upper edge 13 ′ and the lower edge 14 ′ are obtained by the edge three-dimensional position calculating means, the coordinates of Ul and B 1 are known.
  • the brightness correction parameter calculating means will be described with reference to FIG. Similarly to the above-mentioned document shape calculating means, at the point of interest P, the internal division ratio a ⁇ b between 19 and 12 ′ and the internal division ratio m: n between 13 ′ and 14 ′ are obtained (S 31). On 13 '' 14 ', find the points Ul and B1 that are internally divided into a: b, and find the background luminance value of the document on the CCD surface of U1 and B1 (S32).
  • the pixel value near the edge may be used as the background luminance.
  • the pixel value near the edge may be the value of a pixel at a certain distance from the edge or the value of a pixel within a certain range.
  • the pixel values near the edge are checked in advance, and the places where the extreme changes occur before and after as shown in Fig. 14. Interpolate from the pixel values of.
  • n Set the background brightness of P (S33) .Calculate the brightness correction parameter from the background brightness and the target brightness (S34) . If the target brightness is Bg and the background brightness is Bb, the brightness correction parameter Br is expressed by the formula (10) ).
  • the target luminance may be the maximum value of the background luminance of the entire image, a sufficiently bright pixel value, or the maximum value within the range that the pixel value can take. Assuming that Iin is a pixel value before correction and Iout is a pixel value after correction, luminance correction can be performed as shown in Expression (11) using the luminance correction parameter Br.
  • the luminance correction is performed simultaneously with the distortion correction in the image correction means.
  • -lout BrIin (11)
  • the pixel value takes a value within a finite range such as 0 to 255.
  • Equation (1 1) should be saturated at the maximum value.
  • the character part may become too bright and thin, so change the correction parameter for pixels below a certain value, or You may not.
  • imaging is performed by scanning the lens and the CCD, so parallel projection is performed in the y direction, which is the direction in which the lens moves, and the original image and the y coordinate on the CCD surface do not change.
  • the coordinates of the image to be referred to at any position on the original thus, the pixel value can be obtained.
  • the image correction means simultaneously performs brightness correction using the equation (11).
  • the correction parameters and the reference coordinates of the pixels in the image are obtained for each pixel.
  • the image is divided into grids of a fixed size, and the correction parameters and the reference coordinates are set only at the grid points. In other places, a value obtained by interpolating the above value may be used.
  • the image output means will be described.
  • the three-dimensional shape of the document surface is obtained by the document shape calculation means, and only the document surface is correlated with the captured image, and correction is performed by the image correction means. For this reason, only the image within the range surrounded by the left and right edges and the upper and lower edges of the original is corrected, and the extra portions other than the original surface are not corrected.
  • the image output means can output an image from which unnecessary portions other than the original have been removed.
  • the size of the document surface after correction is known, if the output is performed on the optimum paper according to the size of the image, the user can print out without waste without selecting the paper. Can be.
  • the output can be divided at the binding position, so that the left and right pages can be output separately.
  • the right and left pages need not be read separately, but can be output to separate papers only by reading them at once.
  • the image may be converted into white data and output. Because the original may not be white, it may be converted to pixel values outside the binding instead of white data.
  • the second embodiment is different from the first embodiment in that an image reduction unit is added and a document shape calculation unit is different. Other parts are the same as in the first embodiment.
  • the image reduction means and the document shape calculation means are provided on the central processing unit 2.
  • each means may be hardware logic.
  • the image reduction means takes an average of a plurality of pixels in the input image and outputs the average as one pixel. Alternatively, it can be realized by thinning out the pixels and outputting.
  • the original shape is obtained from the input image.
  • the image input by a copying machine or the like is a very high-resolution image such as 400 dpi or 600 dpi.
  • the document shape calculation means is the same as that of the first embodiment up to calculating the three-dimensional shape of the document. Since the three-dimensional shape data of the manuscript is obtained from the reduced image, the image must be corrected not with the reduced image but with the input image, so it is necessary to correct the three-dimensional shape data of the manuscript. For example, if the magnification of the reduced image is 1/4, the three-dimensional shape data of the document may be multiplied by four. In addition, the amount of memory required can be reduced by inputting the image twice, when checking the shape of the original and when correcting the image.
  • the shape recognition requires a memory of about the capacity of the reduced image.
  • the correction can be performed while inputting the image, so that the processing can be performed by storing only a part of the image in the memory.
  • the third embodiment is different from the first embodiment in that a selection unit for selecting whether or not to perform image correction is provided so that input characteristics of an image can be switched.
  • the selection means may be a software selection menu or a hardware switch. For example, if correction is performed, the input image is corrected and output. Otherwise, the input image is output as it is. In a normal copier, the input characteristics are adjusted so that black characters are black and white backgrounds are white. It is not possible to detect the edge correctly if the image near the binding is blackened. When performing distortion correction, by inputting the image brightly, the image near the binding is not soaked in black and the edge can be detected correctly. In addition, by performing luminance correction at the time of distortion correction, the brightness of an actual original and the corrected image can be matched.
  • the fourth embodiment is obtained by adding a document area detection unit to the first embodiment.
  • the document area detecting means will be described with reference to FIG.
  • FIG. 16 shows that the original 1 ⁇ is out of the image area.
  • the pixel value of the original area is large, and an area where the pixel value is a certain value or more is detected from the image. If the range of the area touches the outer frame of the image, it can be determined that the document is out of the image area.
  • the distortion correction operation is not performed when a protruding document is detected.
  • the document area is detected from the image.
  • a separate sensor may be provided, and the position of the document may be detected by the sensor.
  • the left and right protruding portions of the document do not significantly affect shape recognition, the left and right protruding portions may be ignored and only the upper and lower protruding portions may be detected.
  • a document it is possible to make a document appear as if it were a flat surface by correcting a distortion and a shadow generated when a book or a magazine is read by a scanner / copier. Also, it is possible to correct even if the way the document sinks at the binding stitch is different between the top and bottom, or if the document is rotating.
  • a section having a predetermined length or more among locations where the edge position is small is detected as an edge position.
  • the one closest to the center of the image is detected as the binding, so that it is not affected by a local fine shape change, and stable.
  • the binding position can now be detected.
  • the slope is continuously changed by setting the average slope of the edge in the longest section as the slope of the reference line in the section in which the amount of change in the slope of the edge is equal to or less than the reference value.
  • the inclination of the reference line can now be accurately detected from the edge of the manuscript.
  • the end points of the left and right pages can be optimally adjusted in a scanner or a copying machine which is normally irradiated with light from an oblique direction. Can now be detected.
  • the original surface is approximated as a set of straight lines having continuously changing inclinations, so that the correction parameters of the original shape at an arbitrary point on the original surface can be easily obtained from the internal division ratio. Is now available.
  • the corrected image can be given a more natural impression.
  • the present invention when the calculated vertical length of the document is different between the left and right, By correcting the data to either length, the balance between the left and right can be maintained, and the corrected image can be given a more natural impression.
  • the image near the binding into a blank and outputting it, the place where the image cannot be corrected can be made less noticeable. Furthermore, by converting the image near the binding into a pixel value at a location distant from the binding and outputting it, even if the original is a color other than white, the image near the binding will be the color matching the original. Can now be turned off.
  • the required memory amount can be significantly reduced by dividing the image reading into image reading for shape recognition and image reading for correction.
  • the image is read with different input characteristics when the image distortion is not corrected and when the image distortion is corrected, so that when the distortion is not corrected, the black-and-white contrast can be read at a high level.
  • the shape of the wedge can be easily detected and an image can be input.

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Facsimile Scanning Arrangements (AREA)
  • Image Input (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Image Analysis (AREA)

Description

明 細 書 画像補正装置
【技術分野】
本発明は、 画像補正装置に閧し、 特に本の綴じ目の付近のように特定部域が歪 んだ原稿を画像として読取り、 元の原稿が平面であつたかのように補正する画像 補正装置に関する。
【背景技術】
製本された本やノートなどのように中央綴じ部が原稿台より離れる原稿を当倍 率に鮮明に複写する装置として、 特開昭 5 7 - 1 9 1 6 5 3号公報記載の画像形 成装置がある。 この画像形成装置は原稿と原稿台との距離を測定し、 その距離に 応じて走査速度と原稿台の高さと光源の照度を調節することに-より、 画像の歪み および明るさを補正するものであり、 中央綴じ部の直線を y軸とし、 見開きぺー ジの方向を X軸とするとき、 原稿台と原稿が y軸方向には傾斜角がなく、 X軸方 向のみに一定の傾斜角 をなすときに有効な方法を提供している。
また、 入力した画像だけから画像補正する技術として、 特開平 5— 1 6 1 0 0 4号公報記載の原稿読取り装置がある。 この原稿読取り装置は、 原稿読取り手段 にて原稿を読取り、 画像情報を得るとともに、 境界検出手段にて原稿と原稿台の 境界を検出する。 この境界検出結果を基に原稿の形状、 曲がり具合を検出し、 そ の検出結果に応じて読取った画像データを補正するものである。 また、 上記原稿 読取り装置では、 原稿と原稿台を区別しやすいように原稿台は黒色など白色以外 の色が選ばれ、 原稿の両方のエッジ部の高さの差がある程度以下のものに適用で きるものである。
また、 特開平 8— 1 8 1 8 2 8号公報記載の画像処理装置によると、 特開平 5 - 1 6 1 0 0 4号公報記載の原稿読取り装置などで課題になった原稿台の色の制 限や、 原稿の色に関する制限に対する改善が、 原稿と接する面に白黒の縞模様の ついた原稿ガイ ドを設けることにより実現されている。 さらに、 特開平 1 0— 0 6 5 8 7 7号公報記載の画像処理装置には、 原稿を撮 影して得られた画像のエッジを検出し、 得られたエッジから原稿のスキュ一を検 出し、 高さ歪みと回転歪みを有する原稿を補正する技術が開示されている。
しかしながら、 従来技術の特開昭 5 7— 1 1 6 5 3号公報記載の画像形成装 置では、 画像を読込みながら走査速度と原稿台の高さと光源の照度を制限する必 要があるため、 非常に複雑な機構が必要になるという問題があつた。
また、 一般に測距手段の結果には誤差が含まれるため、 実際の原稿と原稿台と の距離と測定結果が一致せず、 必ずしも撮像される画像が平面に補正できるとは 限らないという問題もあった。
また、 特開平 5— 1 6 1 0 0 4号公報記載の原稿読取り装置では、 上記の画像 形成装置のように原稿面の高さをセンサなどの測距手段を用いて検出する必要が なく、 画像だけから歪みや明るさの補正を行うが、 境界の位置と原稿の高さを一 意に対応づけているため、 原稿が定められた場所に置かれていない場合、 あるい は回転して置かれている場合には補正をすることができないという問題があった c また、 原稿の高さが読取り手段の主走査方向に対して一定範囲でなければ補正 を行うことができず、 原稿の高さが読取り手段の主走査方向に対して一定範囲で ない場合は警告を発するにとどまるという問題があった。
また、 従来のエッジの位置の検出方法は、 特開平 1 0— 0 6 5 8 7 7号公報で 公開されているように、 ェッジ検出フィルタ処理した画像の連結成分が所定以下 の場合は、 孤立点とし、 上記連結成分が所定以下の場合は、 直線で補間していた が、 この方法の場合、 エッジ検出誤り、 エッジ検出漏れが起こるという問題があ つた。
また、 従来の綴じ目位置の検出は、 特開平 1 0— 0 6 5 8 7 7号公報で公開さ れているように、 エツジ位置の極大若しくは極小点を綴じ目位置と判定する方法 が用いられていた。 このため、 原稿に皺などの局所的な変化がある場合は、 綴じ 目位置の検出を間違えるという問題があった。
さらに、 従来の基準線の傾きは、 たとえば、 特開平 8— 1 8 1 8 2 8号公報に 記載されているように、 原稿ガイ ドの下部の線を基準線としていたため、 原稿ガ ィドのない場合、 基準線あるいは基準線の傾きが求まらないという問題があつた。 また、 原稿の端点は、 特開平 8— 1 8 1 8 2 8号公報に記載されているように、 両ページ共通の判定基準で検出していたため、 通常斜め方向から光が当てられる スキャナ、 複写機において、 左右のページの端点が正しく検出されないという問 題があった。
また、 特開昭 5 7— 1 9 1 6 5 3号公報、 特開平 5 _ 1 6 1 0 0 4号公報、 特 開平 8— 1 8 1 8 2 8号公報で示された技術に共通して、 原稿の高さが読取り手 段の主走査方向に対して一定であるため、 原稿の上下で浮き上がり量が異なる場 合には画像を補正できないという問題があった。 さらに、 左右ページの上下で浮 き上がり量が異なる場合にも左右のバランスを取って補正することができず、 適 正な補正にならないという、 問題があった。
また、 従来技術では、 綴じ目付近の画像の画像は黒くなる傾向があり、 補正が 不完全であったりあるいは不可能である場合があった。 さらに、 原稿の色が白色 でない場合の綴じ目を補正する場合は、 特に補正が難しいという問題があつた。 また、 従来技術では、 読取ったままの高解像度の画像から形状確認を行ってい たため処理が重く、 メモリ消費量が大きくなるという問題があつた。
また、 画像の歪み補正の有無にかかわりなく同一の特性で画像の読取りを行つ ているため、 歪み補正のない場合は白黒コントラストが低すぎ、 歪み補正を行え ば、 エッジ検出が難しくなるという問題があった。
また、 従来技術は、 補正の自動停止機能がなく、 無駄な紙を出力してしまうと いう問題があった。
本発明の目的は、 上記問題点を解決するため、 たとえ原稿が回転していたり、 綴じ目の浮き方が原稿の上下で異なつていても、 あたかも元の原稿が平面であつ たかのように、 画像の幾何学的歪みや明るさを補正する画像補正装置を提供する ことである。
【発明の開示】
前記課題を解決するため、 本発明では、 画像入力手段と、 記億手段と、 中央演 算処理手段と、 画像出力手段を含む画像補正装置であって、 原稿の上下側面と原 稿台とが傾斜角をなす原稿の画像を補正する側面傾斜画像補正手段を有すること を特徴とする。
さらに、 前記側面傾斜画像補正手段は、 原稿のエッジを検出するエッジ検出手 段と、 原稿の綴じ目の位置を求める綴じ目位置検出手段と、 原稿の位置の基準線 を求める基準線検出手段と、 前記ェッジ付近の画像の輝度変化より原稿の左右の 端点を求める原稿端点検出手段と、 上記基準線と綴じ目の位置より原稿の上下の 側面の傾斜角を計算する側面傾斜角算出手段と、 前記ェッジと基準線と傾斜角よ り原稿の上下のェッジの 3次元位置を計算するェッジ 3次元位置算出手段と、 ェ ッジの 3次元位置より原稿全体の形状を計算する原稿形状算出手段と、 原稿の 3 次元形状に従い、 画像から補正対象画素の背景輝度を求め、 背景輝度と目標輝度 から画素の輝度補正パラメータを求める輝度補正パラメータ算出手段とを有し、 前記原稿の 3次元形状と輝度補正パラメータを用いて入力された画像を補正する ことを特徴とする。
また、 前記エッジ検出手段は、 エッジの位置変化が少ない場所のうち所定の長 さ以上の区間を検出し、 前記区間以外は前後で検出した区間から補間した位置を 原稿エッジの位置とすることを特徴とする。
また、 前記綴じ目位置検出手段は、 前記エッジ検出手段によって検出されたェ ッジの位置の極大点若しくは極小点のうち、 画像の中心に最も近いものを綴じ目 位置として検出することを特徴とする。
また、 前記基準線検出手段は、 エッジ付近の画像の画素値が第 1の基準値以上 で、 かつ、 エッジの傾きの変化量が第 2の基準値以下となる区間のうち、 最も長 い区間における平均のエッジの傾きを基準線の傾きとし、 前記最長区間の原稿外 側の端点から前記傾きで延ばした直線を基準線とし、 原稿左右あるいは上下のェ ッジについてそれぞれ基準線を検出するものであることを特徴とする。
また、 前記原稿端点検出手段は、 原稿の左右のページで別々の判定基準に基づ いて原稿端点を検出することを特徴とする。
また、 前記原稿形状算出手段は、 原稿面を上下のエッジの間を結ぶ直線の集合 で近似し、 原稿面の 3次元位置を前記直線の上下端点の位置の内分比から求める ことを特徴とする。
さらに、 前記原稿形状算出手段は、 算出されたエッジの長さが上下で異なる場 合、 同一の長さになるようにエツジの 3次元位置を修正することを特徴とする。 さらに、 前記原稿形状算出手段は、 算出された原稿の縦の長さが左右のページ で異なる場合、 縦の長さが左右で同一となるように原稿の 3次元形状データを修 正することを特徴とする。
さらに、 前記原稿形状算出手段は、 入力された画像を所定の縮小率で縮小する 画像縮小手段を有し、 前記縮小された画像から原稿の 3次元形状を求めた後、 前 記縮小率に従い原稿の 3次元形状データを修正することを特徴とする。
また、 前記輝度補正パラメータ算出手段は、 請求項 7記載の原稿面を近似する 直線の上下端点付近の画像の輝度の内分比から補正対象画素の背景輝度を求め、 背景輝度に対する目標輝度の比を輝度補正パラメータとすることを特徴とする。 また、 前記側面傾斜画像補正手段は、 前記綴じ目位置付近の画素値を空白に変 換して前記画像出力手段に出力することを特徴とする。
さらに、 前記側面傾斜画像補正手段は、 前記綴じ目位置付近の画素値を綴じ目 位置から離れた場所の画素値に変換して前記画像出力手段に出力することを特徴 とする。
さらに、 前記側面傾斜画像補正手段は、 前記縮小画像を作成するための画像の 読取りと、 補正対象となる画像の読取りを別々に行うことを特徴とする。
また、 画像補正の適用を選択する補正選択手段を備え、 画像の補正を行う場合 と行わない場合とで異なる入力特性で画像の入力を行う画像入力手段を備えるこ とを特徴とする。
また、 入力された画像から原稿の領域を検出する原稿領域検出手段を備え、 原 稿領域が画像からはみ出している場合には補正を行わないことを特徴とする。
【図面の簡単な説明】
本発明のこれらの目的とそれ以外の目的と、 特色と利点とは、 下記の詳細な説 明と図面とから一層明確になるであろう。
図 1は、 本発明の実施の一形態である画像補正装置 1の電気的構成を示すプロ ック図である。
図 2は、 本や雑誌などの原稿 1 0を読取った画像の例である。
図 3は、 エッジ検出の手順を示すフローチャートである。
図 4は、 エッジ検出結果と、 前後のエッジ位置の差分の絶対値のグラフである。 図 5は、 綴じ目位置検出手段について説明するための図である。
図 6は、 基準線検出手段について説明するための図である。
図 7は、 原稿端点検出手段の動作手順を示すフローチャートである。
図 8は、 原稿端点検出手段を説明するための図である。
図 9は、 側面傾斜角算出手段について説明するための図である。
図 1 0は、 原稿形状算出手段について説明するための図である。
図 1 1は、 原稿形状算出手段について説明するための図であり、 投影された像 を平面に戻した図である。
図 1 2は、 原稿面上の点 Pの 3次元座標の求め方のフローチャートである。 図 1 3は、 輝度補正パラメータ算出手段について説明するためのフローチヤ一 トである。
図 1 4は、 エッジ付近の背景輝度を表したグラフである。
図 1 5は、 原稿面の像の 3次元位置 Pから C C Dに写つた画像の参照位置 P ' を求める画像補正する方法を説明するための図である。
図 1 6は、 原稿領域検出手段を説明するための図である。
【発明の実施の形態】
以下、 図面を用いて、 本発明の実施の形態について詳細に説明する。
〔実施の形態 1〕
図 1は、 本発明の実施の一形態である画像補正装置 1の電気的構成を示すプロ ック図である。 画像補正装置 1は、 中央演算処理装置 2、 画像入力装置 3、 記憶 装置 4、 画像出力装置 5を含み、 それぞれバスライン 6で接続され、 バスライン 6を介して相互に信号の授受を行う。 以後の説明では、 バスラインに関する記載 は省略する。
画像入力手段である画像入力装置 3は、 たとえばスキャナなどの画像読取り装 置によって実現される。 また、 画像入力装置 3は予め C D— R O M ( Compact Disk -Read Only Memory ) 、 フロッピーディスク、 光磁気ディスクなどの記憶媒 体に記録された画像を読出す装置であってもよい。
画像出力手段である画像出力装置 5は、 たとえばプリンタによって実現される t また、 C R T ( Cathord Ray Tube ) や L C D ( Liquid Clystal Display ) などの 表示装置であってもよい。
記憶手段である記憶装置 4は、 たとえば半導体メモリやハードディスク装置に よって実現される。 画像入力装置 3によって入力された画像は、 画像信号として 記憶装置 4に記憶される。 また、 各画像処理手段はプログラムによって実現され、 予め記憶装置 4に記憶されている。
中央演算処理手段である中央演算処理装置 2はたとえばマイクロプロセッサに よって実現され、 以降で説明する各画像処理手段は、 中央演算処理装置 2上で実 行されるプログラムとして実現される。 本実施形態では、 各画像処理手段は中央 演算処理装置 2上で実行されるプログラムとしているが、 各手段がハードウェア のロジックであってもよい。
図 2は、 本や雑誌などの原稿 1 0を読取った画像の例である。 原稿面はスキヤ ナのガラス面に密着させるため、 ガラス面に密着した原稿面とスキャナのレンズ との距離は一定であるが、 綴じ目 1 2付近の原稿面はガラス面から浮き上がるた めにスキャナのレンズとの距離が広がり、 縮小して読取られる。 このため、 綴じ 目 1 2付近に幾何学的歪みが生じることとなる。 また、 スキャナは原稿面に光を 当て、 その反射光を読取るため、 綴じ目 1 2付近のように浮き上がった場所の画 像は暗くなつてしまう。
以下の説明では、 図 2の水平方向を X方向、 垂直方向を y方向と決める。 原点 0はレンズ中心に合わせ、 画像上部中央に定める。 画像を読取るスキャナの主走 査方向は X軸と平行であるとし、 副走査方向は y方向と平行であるとする。 つま り、 C C Dラインセンサと X軸は平行であり、 レンズおよび C C Dの移動方向は y方向と平行ということである。 入力画像中の原稿 1 0は時計まわりに 9 0 ° 回 転して置かれているとし、 画像の上側に来るページを左ページ、 下側に来るぺー ジを右ページと呼ぶこととし、 原稿 1 0の aを原稿左上、 bを原稿左下、 cを原 稿右上、 dを原稿右下と呼ぶこととする。 原稿面の輪郭を原稿エッジと呼ぶこと とし、 図 2の 1 3の部分を原稿上部エッジ、 1 4の部分を原稿下部エッジと呼ぶ こととする。 原稿面はガラス面に接している部分は平面であり、 原稿エッジも直 線となる。 このような場所における原稿エッジの接線を基準線とし、 原稿左上部 の基準線を基準線 1 5 a、 左下の基準線を基準線 1 5 b、 右上の基準線を基準線 1 5 c . 右下の基準線を基準線 1 5 dとする。
また、 画像は原稿 1 ◦のエッジが検出できるよう、 原稿 1 0と原稿外領域 1 1 が区別できるように読取られているものとする。 背景が白い通常の原稿の場合、 スキャナの蓋を開けた状態で原稿を読込むか、 スキャナの蓋を黒などの色にして おくことにより、 原稿外領域 1 1は原稿 1 0よりも暗く読取られるため、 原稿外 領域 1 1と原稿 1 0で輝度差が生じ、 原稿 1 0のエッジを検出することができる。 また、 黒っぽい原稿であった場合には、 スキャナの蓋を白色など明るい色にし、 蓋を締めて画像を読込むことにより、 原稿外領域 1 1と原稿 1 0で輝度差が生じ るため、 同様に原稿のエッジを検出することができる。
以下、 各画像処理手段について詳細に説明する。 以下の説明では、 特に断らな い限り、 実際の原稿ではなく、 レンズによって投影される像を用いて説明してい る。 これは、 実際の原稿とその像は相似関係にあり、 大きさが違うだけで、 形状 に違いはないことと、 画像として C C Dに写るのはレンズによって投影される原 稿の像の C C D面での断面であり、 画像と同じスケールで原稿の像の形状を計算 することができるため、 より理解しやすいという理由による。
エッジ検出手段は、 たとえばエッジ検出フィルタを使って実現される。 エッジ 検出フィルタは、 S o b e 1のオペレータや P r e w i t tのオペレータなど様 々なものが従来から提案されている。 これらエッジ検出フィルタは、 画像の明る さが急激に変化する場所ほど大きな値を出力する。 原稿面の明るさが原稿面以外 の部分と異なる場合、 画像をエッジ検出フィルタで処理することにより、 原稿の エッジを検出することができるが、 文字の輪郭など、 原稿エッジ以外のエッジも 検出してしまうため、 以下のようにして原稿エッジのみを検出する。 ここで原稿 エッジとは、 原稿面の最も外側の輪郭線のことを示す。
図 3は、 エッジ検出の手順を示すフローチャートである。 まず、 エッジ検出フ イルクでエッジ検出を行い ( S 1 ) 、 エッジ検出処理を行った画像の端から X方 向に所定の閬値を越える点 (エッジ) を探す ( S 2 ) 。 このとき、 見つかれば ( S 3 ) エッジの妥当性のチェックを行い ( S 4 ) 、 妥当であれば位置を記録し ( S 5 ) 、 次のラインに移る ( S 7 ) 。 探索範囲の終端までエッジが見つからない ときは位置を記録せずに次のラインに移る。 最後のラインまで到達すれば ( S 8 ) 処理を終了する。
妥当性のチェックでは、 たとえば、 孤立点ではないこと、 および、 原稿内側に 向かってエツジが一定距離存在していないことを調べる。 フィルタ処理で検出さ れたエッジが孤立点である場合、 スキャナのガラス面に付着したゴミ、 ホコリの 像であったり、 ノイズであったりするため、 これを除去する。 孤立点の判断は、 フィルタ処理した画像の画素の連結成分を調べ、 連結している画素の数が所定数 以下の場合、 孤立点と判断する。 また、 画像に写った原稿の側面やカバーなども エッジ検出フィルタでエッジとして検出されてしまうが、 原稿面の上下端には空 白があると仮定すると、 原稿面のエッジの内側にはしばらくエッジは存在しない と考えられる。 このことから、 検出されたエッジから原稿内側に向かって他のェ ッジが一定距離存在していない場合は原稿のェッジと判断することができる。 図 4は、 エッジ検出結果と、 前後のエッジ位置の差分の絶対値のグラフを示し ている。 図 3に従い、 エッジ検出を行った場合、 エッジの検出誤り、 検出抜けを 含んでいる場合がある。 これはそれぞれ図 4のァ、 ィの部分に相当する。 図 4の ァ、 ィの部分を検出するため、 先ず、 前後のエッジ位置の差分の絶対値を計算す る。 正しく原稿エッジを検出している部分はエッジの変化が少ないため、 差分値 は小さくなるが、 エッジ検出を誤った部分はその前後で差分値が増大する。 エツ ジの検出抜けは、 その前後でエッジ検出のデータがないことから判断できる。 以 上により、 差分値が所定値以下であり、 エッジ検出結果が存在している区間は正 しいエッジ検出結果であると判断する。 ただし、 エッジ検出誤りを避けるため、 所定の長さ以下の区間は無視する。 上記以外の区間はその前後の区間のデータか ら近似により補間する。 近似方法は、 直線で近似してもよいし、 ベジエ曲線など で近似してもよい。
以上により、 原稿の上下について、 同様の処理を行うことにより、 原稿の上下 のエッジを検出することができる。
次に図 5を用いて、 綴じ目位置検出手段について説明する。 エッジ検出手段に よって得られた上部エッジ 1 3と、 下部エッジ 1 4から辍じ目 1 2の上下終点 1 2 a , 1 2 bを求める。 綴じ目の上部端点 1 2 aは上部エッジ 1 3の極小点、 綴 じ目の下部端点 1 2 bは下部エッジ 1 4の極大点とする。 このとき、 綴じ目では ない、 局所的な極大、 極小点も存在する可能性があるため、 最も中心線に近い極 大、 極小点を綴じ目位置とする。
以上により、 綴じ目の上下端点が求められるので、 それらを結ぶ線が綴じ目 1 2となる。 次に、 図 6を用いて基準線検出手段について説明する。 原稿面がガラ ス面に接触している部分では歪みがないため、 原稿エッジも直線となる。 このよ うな直線を基準線とし、 後述の画像処理では基準線とエッジの位置関係から原稿 形状を計算している。
図 6の 2 0 aは左ページ上部のエツジの傾き、 2 0 bは右ページ上部のエツジ の傾きを表している。 また、 2 1は原稿上部のエッジ付近の画素値の変化を示し ている。 エッジ付近の画素値とは、 エッジから所定距離にある画素の値でもよい し、 その周辺の平均値でもよい。 原稿がガラス面から離れた場所では画像が暗く なるため、 画素値は小さくなる。 このため、 画素値の最大値から所定の範囲にあ る部分はガラス面に接触した部分と判断できる。 上記範囲において、 エッジの傾 き 2 0 aおよび 2 0 bにおいて傾きがほぼ一定の値になる場所を検出し、 求めた 値をそれぞれ基準線の傾きとする。 原稿がガラス面に接触している区間における エッジ位置を通過点とする、 前記傾きの直線が基準線となる。 通過点はガラス面 に接触していると判断した区間内であればどこでもよいが、 区間の両端部分はェ ッジが曲がり始める部分であり、 必ずしも直線になっていない場合もあるため、 区間の中心付近である方が望ましい。
原稿下部についても同様の処理を行うことにより、 原稿上下のェッジの基準線 1 5 a, 1 5 b , 1 5 c , 1 5 dを求めることができる。
次に、 図 7を用いて原稿端点検出手段について説明する。 ガラス面に密着して いる部分の原稿面の明るさはおおよそ一定と考えられるが、 原稿の外側はスキヤ ナなどの光源から離れるため、 暗くなる。 図 6と同様に、 原稿上下でエッジ付近 の画素値の変化を求め、 それぞれ、 左右のページで画素値の最大値と比べ、 一定 割合以上小さくなる場所を検出する ( S 1 1 ) 。
また、 一般に、 スキャナや複写機などの光源は原稿の真下からではなく、 斜め 方向から当てられるため、 原稿左右の側面で光の入射角が異なり、 画像に写る明 るさが異なる場合がある。 このため、 たとえば、 原稿左側は 3%、 右側は 5%画 素値が小さくなつたら原稿端点と判断するなど、 原稿の左右で判断基準を変えて もよい。 図 8のように、 検出した端点 22 a, 22 b, 22 c , 22 dから原稿 の上下反対側の基準線に垂線を引き ( S 12 ) 、 原稿の外側になる垂線を左右そ れぞれで選び、 基準線との交点をあらたに原稿端点 22 a' , 22 b ' , 22 c ' , 22 d' とする ( S 13 ) 。 本実施形態では、 必要な部分を切り落としてし まわないように、 原稿の外側になる垂線を選んでいるが、 不要な部分をできるだ け落とすために、 内側になる垂線を選んでもよい。
次に図 9を用いて側面傾斜角算出手段について説明する。 図 9はレンズと原稿 の像の関係を示しており、 原稿の像を y軸方向から見、 90度回転させた図であ る。 図では、 CCD面および、 ガラス面に垂直に z軸を設定し、 レンズ中心を原 点 0としている。 レンズと CCD面の距離は ίとする。 原点上部が沈んでいるた めに、 綴じ目が原稿上側に傾斜していることを示している。 図中の実線は、 レン ズによって投影された原稿の像を表している。 綴じ目の上下端点 Ε 1 ; Ε 2は、 CCD上では縮小され、 P 1 ; P 2の位置に見える。 これは、 本をスキャナで読 込んだ際、 浮き上がつている部分の画像は縮小されることを示している。
ここで、 E 1 ; E 2を通り、 綴じ目 L0に垂直な線を L 1 ; L2とする。 本な どの原稿は、 長方形の紙を 1辺で綴じたものであるため、 綴じ目と上下側面の関 係は直角であると考えてよい。 このため、 直線 L 1 ; L 2はそれぞれ原稿の上部 側面、 下部側面と一致しているとする。 また、 L I ; L2と CCD面との交点 B 1 ; B 2は、 エッジの基準線上にある とする。 このとき、 以下のようにして、 原稿側面の傾き αを算出する。 いま、 C CD上において、 綴じ目の上端、 下端がそれぞれ点 P 1 ; P 2の位置に写ってい たとする。 このとき、 綴じ目の上端、 下端の像はそれぞれ直線 M 1および、 M2 上に存在し、 直線 L0と L 1, L 2の交点 E 1, E 2の位置にある。
先ず、 L 1と M 1の交点 E 1を求める。 直線 L l, M lはそれぞれ
X 二 cc(z一 /) + e0i ( 1 ) x ― —z ( 2 ) と表され、 式 ( 1 ) 、 式 ( 2 ) より L 1と M 1の交点 E 1は.
Figure imgf000014_0001
となる。
次に、 L2と M2の交点 E 2を求める。 直線 L2, M2はそれぞれ
X = θί(ζ一 /) + eQ2 … ( 4 )
62
X = —Z ( 5 ) f
と表され、 式 (4 ) 、 式 ( 5 ) より L2と M2の交点 E 2は.
Figure imgf000014_0002
となる。 式 ( 3 ) 、 式 ( 6 ) より、 直線 LOの方向ベクトルは、
(e。i一 ^02 + e2 - ei)af2 - (e0ie2一 e02ei)/ 、
、 ( 7 )
(e2 - βχ)/2α2一 (e02e2— eQ1ei)f + (e02一 e0i)eie2 ノ であり、 直線 L0および L 1, L 2が直交する条件から
Figure imgf000015_0001
( 8 ) となり、 これを簡単にすると、
( 一 ei)/2a3 + (e01e 一 e02e2)f 2
+{(eo2一 e0i)eie2 + (e01一 e02 + e2— e )f2}
+(e。2ei + e01e2)/ 0 ( 9 ) という aの 3次方程式となり、 その解が求める側面の傾き aとなる。 一般に 3次 方程を解くのは難しいが、 実際には側面の傾きはほぼ z軸と平行に近く、 B l, P 1および B 2 , P 2の z軸からの距離の比率から、 上下どちら側に綴じ目が沈 んでいるかも判るため、 おおよその解は判る。 予めおおよその解が判っている場 合、 2分法などを用いれば、 反復計算で近似解を簡単に求めることができる。 次に、 エッジ 3次元位置算出手段について説明する。 側面傾斜角算出手段によ つて原稿の上下側面の傾き なを求める際に用いた式 ( 3 ) 、 式 ( 6 ) は、 綴じ目 の上下端点だけでなく、 エツジ全体に適用することができる。
レンズと CCDの距離 ί、 基準線の位置、 CCD面に写ったエッジの位置、 原 稿の上下側面の傾き aを式 ( 3 ) 、 式 ( 6 ) に適用することにより、 エッジの X , z座標値が判る。 スキャナなどの入力装置の場合、 CCDおよびレンズを走査し て撮像するため、 y方向には平行投影となり、 CCDに写ったエッジの y座標と . 投影された像における y座標は一致しているため計算する必要はない。 よって、 上記の X, z座標と合わせて、 エッジの像の 3次元位置を求めることができる。 次に、 図 1 0、 図 1 1を用いて、 原稿形状算出手段について説明する。 図 1 0 は、 レンズ 1 6によって投影された原稿の像 (左ページのみ) を表している。 ガ ラス面に接触している原稿は C C D面 1 7上に投影されるが、 ガラス面から浮き 上がっている部分は C C D面より遠くに投影される。 綴じ目、 上部エッジ、 下部 エッジは 1 2 ' , 1 3 ' , 1 4 ' に対応しており、 C C Dに写った画像では、 1 2, 1 3, 1 4の位置に見えることになる。 上記、 エッジ 3次元位置算出手段に より、 綴じ目 1 2 ' , 上部エッジ 1 3 ' , 下部エッジ 1 4 ' 、 原稿左端 1 8の位 置は判っているため、 その間の原稿面の位置を求める。 原稿面の像の任意の位置 での 3次元座標が判れば、 レンズと C C Dの位置関係から簡単に C C Dに写った 画像との対応をとることができ、 画像を平面に補正することが可能となる。
図 1 1は、 投影された像を平面に戻した図である。 原稿形状が長方形であると 仮定すると、 投影された像を平面に戻したものも、 当然長方形になる。 図 1 1の 長方形の上の辺が上部エッジ 1 3 ' 、 下の辺が下部エッジ 1 4 ' に対応している c ただし、 測定誤差などの理由により、 算出されるエッジの長さが異なることがあ るため、 上部エッジと下部エッジのどちらかに長さを合わせる必要がある。 たと えば、 下部エッジ 1 4 ' が上部エッジ 1 3 ' より短い場合、 先ず、 上部エッジ 1 3 ' と長方形の上の辺を対応させ、 下部エッジ 1 4 ' については長方形の下の辺 の対応位置を引き延ばすことにより、 下部エッジ 1 4 ' と長方形の下の辺を一致 させる。
また、 長方形の左右の辺の長さ、 つまり補正後のページの高さは、 原稿上下の エッジ基準線の間の距離と一致させる。 ただし、 測定誤差などの理由により、 原 稿上下の基準線の間の距離が異なることがあるため、 たとえば、 左右ページの平 均値に合わせる。 あるいは、 どちらか一方に合わせてもよい。
原稿面がガラス面から浮き上がり始める場所を立上り線 1 9と呼ぶこととする, 立上り線は、 直線であるとする。 原稿面の浮き上がった部分は、 立上り線 1 9と 綴じ目 1 2 ' の 2直線で拘束されるため、 原稿面は立上り線 1 9から綴じ目 1 2 ' にかけて連続的に傾きの変化する直線の集合と考えることができる。 本実施形 態では、 この直線は立上り線 1 9と綴じ目 1 2 ' を一定の比率で内分する位置に ある直線であると仮定するが、 他のモデルを使ってもよい。 一定の比率で内分す る直線とは図 1 1の破線にあたり、 水平方向の内分比が同じになる点の集合とす る。 原稿左端 18と立上り線 19の間は平面であるため、 このようなモデル化を する必要はないが、 曲面部分と同じ処理が行えるため、 原稿左端 18と立上り線 19の間も一定の比率で内分する位置にある直線の集合と考える。
図 12に原稿面上の点 Pの 3次元座標の求め方のフローチャートを示す。 先ず、 点 Pの 13 ' , 14 ' 間の内分比 m: nと 19, 12 ' 間の内分比 a : bを求め る ( S 21 ) 。 13 ' 上において 19, 12 ' を a : bに内分する点 U 1と、 1 4 ' 上において 19, 12 ' を a : bに内分する点 B 1を求める ( S 22 ) 。 上 部エッジ 13 ' および、 下部エッジ 14 ' 上の 3次元座標は、 上記エッジ 3次元 位置算出手段によって求められているため、 U l, B 1の座標は判っている。 U 1と B 1の間の原稿面は直線と仮定しているため、 その直線を m: nに内分する 点が Pとなる。 上記のように、 原稿面の任意の点の 3次元位置、 つまり原稿面の 3次元形状を求めることができる。
図 13を用いて輝度補正パラメータ算出手段について説明する。 上記原稿形状 算出手段と同様に、 注目点 Pにおいて、 19 , 12 ' の間の内分比 a ·· bと 13 ' , 14 ' の間の内分比 m: nを求める ( S 31〉 。 13' ' 14 ' 上で a : b に内分する点 U l, B 1を求め、 U 1と B 1の CCD面上での原稿の背景輝度の 値を求める ( S32 ) 。 本などの原稿はエッジ付近は空白と考えてよく、 エッジ 付近の画素値を背景輝度とすればよい。 エッジ付近の画素値とは、 エッジから一 定距離の画素の値でもよいし、 一定範囲の画素の値の平均でもよい。 ただし、 ェ ッジ付近に文字や絵が書かれていることもあるため、 予め、 エッジ付近の画素値 を調べておき、 図 14のように、 極端に変化する場所は前後の画素値から補間し ておく。 U 1から B 1の間の背景輝度は直線的に変化すると仮定し、 U 1と B 1 の背景輝度値を m: nに内分する値を Pの背景輝度とする ( S 33 ) 。 背景輝度 と目標輝度から輝度補正パラメータを求める ( S 34 ) 。 目標輝度を B g、 背景 輝度を B bとすると、 輝度補正パラメータ B rは式( 10 ) のように求める。
B r = B g / Bb … (10) 目標輝度は画像全体の背景輝度の最大値でもよいし、 充分明るい画素値、 ある いは、 画素値のとり得る範囲で最大の値でもよい。 I i nを補正前の画素値、 I o u tを補正後の画素値とすると、 輝度補正パラメータ B rを使って、 式 ( 1 1 ) のように輝度補正を行うことができる。
本実施形態では、 輝度補正は画像補正手段において歪み補正と同時に行われる - l o u t = B r I i n ··· (11) 実際は、 画素値は 0から 255など、 有限の範囲内の値をとるため、 式 ( 1 1 ) は最大値で飽和するようにする。 また、 綴じ目付近の暗くなつた画像を式 ( 1 1 ) を用いて補正すると、 文字部分が明るくなり過ぎ、 薄くなることもあるため、 一定値以下の画素について補正パラメータを変える、 あるいは、 補正しないなど としてもよい。
次に、 画像補正手段について説明する。 図 1 1において、 任意の原稿面上の点 Pの画素値が求められれば、 歪みのある画像をあたかも原稿面が平面であつたか のように補正することができる。 すでに、 上記原稿形状算出手段により、 原稿面 の 3次元形状は判っている。
図 1 5を用いて、 原稿面の像の 3次元位置 Pから CCDに写った画像の参照位 置 P' を求める方法を説明する。 原稿面の 3次元位置を P ( x0, y 0 , z 0 ) , C CDに写っている Ρの位置を Ρ' (χ 1 , y 1 , ζ 1 ) とすると、 Ρ' は三角 形の相似の関係から、 式 ( 12 ) のように求められる。
Figure imgf000018_0001
yl = y0 … ( 12) zl = / ここで、 : f とはレンズと CCDの距離である。 スキャナや複写機の場合、 レン ズと CCDを走査することによって撮像するため、 レンズの移動方向である y方 向には平行投影となり、 原稿の像と CCD面上の y座標は変わらない。
以上のように、 原稿面の任意の位置において、 参照すべき画像の座標が求めら れ、 画素値も得ることができる。 原稿面の端から順に参照画素を求め、 出力する ことにより、 画像の歪みだけでなく、 スキューも補正した画像を得ることができ る。 また、 画像補正手段では画素値を出力する際、 式 ( 1 1 ) を用いて同時に輝 度補正も行う。 本実施形態では補正パラメータ、 および画素の画像中での参照座 標は各画素毎に求めているが、 画像を一定の大きさの格子に区切り、 格子点にお いてのみ、 補正パラメータ、 参照座標を求め、 それ以外の場所では前記の値を補 間したものを用いてもよい。
次に、 画像出力手段について説明する。 本実施形態の画像補正装置では、 原稿 形状算出手段によって原稿面の 3次元形状を求め、 原稿面のみを撮像された画像 と対応づけ、 画像補正手段によって補正を行っている。 このため、 原稿の左右端 と上下のェッジで囲まれた範囲の画像のみが補正されることになり、 原稿面以外 の余分な部分は補正されない。 画像出力手段は上記のような補正画像を出力する ことにより、 原稿以外の不必要な部分を除去した画像を出力することができる。 また、 補正後の原稿面の大きさが判っていることから、 画像の大きさに合わせて、 最適な用紙に出力すれば、 ユーザが用紙選択を行うことなく、 無駄のないプリン トアウトを行うことができる。
さらに、 綴じ目位置検出手段によって、 原稿の綴じ目位置が判っているため、 綴じ目位置で出力を分割することにより、 左右のページを別々に出力することが できる。 これにより、 左右のページを別々に読取らなくても、 1度に読取るだけ で、 別々の紙に出力することもできる。
また、 綴じ目部分の影は画像補正手段で輝度補正を行っても除去しきれない場 合もあるため、 綴じ目付近の画像を出力するときには白データに変換して出力し てもよい。 原稿が白でない場合もあるため、 白データではなく、 綴じ目の外側の 画素値に変換してもよい。
〔実施の形態 2〕
第 2の実施の形態は第 1の実施の形態と比べ、 画像縮小手段が加わり、 原稿形 状算出手段が異なる。 その他の部分は、 第 1の実施の形態と同一である。 本実施 の状態では、 画像縮小手段および、 原稿形状算出手段は中央演算処理装置 2上で 実行されるプログラムとして実現されるが、 各手段がハードウェアのロジックで あっててもよい。 画像縮小手段は、 入力画像において、 複数画素の平均をとり、 それを 1画素として出力する。 あるいは、 画素を間引いて出力することにより実 現できる。 第 1の実施の形態では、 入力した画像から原稿形状を求めているが、 複写機などで入力される画像は、 たとえば 4 0 0 d p iや 6 0 0 d p i といった 非常に高解像度の画像であり、 このような高解像度の画像から原稿形状を求める 場合には非常に多くのメモリが必要であり、 また、 多くの計算時間がかかるとい つた問題がある。 たとえば画像を 1 /4に縮小することにより、 データ量は 1 / 1 6になり、 より少ないメモリで、 高速に画像処理を行うことができる。
次に、 原稿形状算出手段について説明する。 原稿形状算出手段は、 原稿の 3次 元形状を算出するところまでは第 1の実施の形態と同一である。 原稿の 3次元形 状データは縮小画像によって求めたものであり、 画像補正は縮小画像ではなく、 入力画像で行う必要があるため、 原稿の 3次元形状データを修正する必要がある データの修正は、 たとえば縮小画像の倍率が 1 /4であれば、 原稿の 3次元形 状データを 4倍すればよい。 また、 原稿の形状確認を行うときと、 画像修正を行 うときの 2回、 画像入力を行うことにより、 必要なメモリ量を削減することがで きる。
1度の画像入力で全ての処理を行う場合には、 画像全てをメモリ上に持ってお く必要があるが、 画像入力を 2回行うことにより、 形状認識では縮小画像の容量 程度のメモリで済み、 画像修正では画像を入力しながら補正を行えばよいので、 画像の一部分だけをメモリ上に置いておけば処理が行える。
〔実施の形態 3〕
第 3の実施の形態は、 第 1の実施の形態に画像補正を行うか否かの選択手段を 設け、 画像の入力特性を切換えることができるようにしたものである。 選択手段 は、 ソフトウェアの選択メニュでもよいし、 ハードウェアスィッチでもよい。 た とえば、 補正を行う場合には入力画像を補正して出力し、 行わない場合には入力 画像をそのまま出力する。 通常のコピー機では黒い文字は黒く、 白い背景は白く なるように入力特性を調節しているが、 本発明の画像補正装置では原稿のエッジ を検出する必要があるため、 綴じ目付近の画像が黒潰れしてしまっては正しくェ ッジ検出を行うことができない。 歪み補正を行う場合には、 画像を明るめに入力 することにより、 綴じ目付近の画像も黒漬れせず、 正しくエッジを検出すること ができる。 また、 歪み補正時に輝度補正を行うことにより、 実際の原稿と補正後 の画像の明るさを一致させることもできる。
以上のように、 補正を行うか否かにより入力特性を切換えることにより、 それ ぞれ最適な画像を得ることができ、 また、 正しく歪み補正を行うことができる。
〔実施の形態 4〕
第 4の実施の形態は、 第 1の実施の形態に原稿領域検出手段を加えたものであ る。 図 1 6を用いて、 原稿領域検出手段を説明する。
図 1 6は、 原稿 1◦が画像領域からはみ出していることを示している。 たとえ ば、 背景が白などの明るい原稿をスキャナで読込んだ場合、 原稿領域の画素値は 大きいので、 画像の中から画素値が一定値以上の領域を検出する。 その領域の範 囲が、 画像の外枠と接していた場合、 原稿は画像領域からはみ出していると判断 できる。
原稿が画像領域からはみ出していた場合、 正しく原稿の上下のエッジを検出す ることができないため、 歪み補正を行うことができない。 このため、 原稿のはみ 出しを検出した場合は歪み補正動作は行わないようにする。 本実施の形態では、 原稿領域の検出を画像から行っているが、 別途センサを設け、 センサによって原 稿の位置を検出してもよい。 また、 原稿の左右がはみ出しても形状認識にはあま り影響しないため、 左右のはみ出しは無視し、 上下のはみ出しのみを検出しても よい。
本発明は、 その精神または主要な特徴から逸脱することなく、 他のいろいろな 形で実施することができる。 したがって、 前述の実施の形態は、 あらゆる点で単 なる例示に過ぎず、 本発明の範囲は、 請求の範囲に示すものであって、 明細書本 文には何ら拘束されない。
さらに、 請求の範囲の均等範囲に属する変形や変更は、 すべて本発明の範囲内 のものである。 【産業上の利用可能性】
本発明によれば、 本や雑誌などをスキャナゃコピー機で読取つた際に生じる歪 み、 影を補正することにより、 あたかも原稿が平面であつたかのようにすること ができる。 また、 原稿の綴じ目での沈み方が上下で異なっていたり、 原稿が回転 していても補正することが可能となる。
また本発明によれば、 エッジ検出処理後の画像の連結成分の長短による孤立点 の判断に加え、 エッジの位置変化の少ない場所のうち所定の長さ以上の区間をェ ッジ位置として検出し、 検出されていない区間は前後の検出した区間から補間す ることにより、 エッジの検出誤りあるいはエッジ検出漏れをなくし、 安定的にェ ッジを検出することができるようになった。
また本発明によれば、 エッジ位置の極大若しくは極小点のうち、 最も画像の中 心に近いものを綴じ目として検出することにより、 局所的な細かな形状変化に影 饗されずに、 安定的に綴じ目位置を検出することができるようになった。
また本発明によれば、 ェッジの傾きの変化量が基準値以下になる区間のうち、 最も長い区間における平均のェッジの傾きを基準線の傾きとすることにより、 連 続的に傾きの変化する原稿のェッジの中から基準線の傾きを正確に検出すること ができるようになった。
また本発明によれば、 原稿左右のページを別々の判定基準で原稿端点を検出す ることにより、 通常斜め方向から光が当てられるスキャナ、 複写機において、 左 右のページの端点をそれぞれ最適に検出することができるようになった。
また本発明によれば、 原稿面を連続的に傾きの変わる直線の集合として近似す ることにより、 原稿面内の任意の点の原稿形状の補正パラメ一タを内分比から簡 単に求めることができるようになった。
また本発明によれば、 算出された原稿エッジの長さが上下で異なる場合、 どち らか一方の長さにデータを修正することにより、 上下で長さが違うまま画像を補 正するよりも、 補正後の画像を、 より自然な印象にすることができるようになつ た。
また本発明によれば、 算出された原稿の縦の長さが左右で異なっていた場合、 どちらか一方の長さにデータを修正することにより、 左右のバランスを保つこと ができ、 補正した画像をより自然な印象にすることができるようになった。
また本発明によれば、 読取った画像を縮小した画像で形状認識をすることによ り、 読取ったままの高解像度の画像から形状認識するよりも処理を大幅に軽くす ることができるようになった。
また本発明によれば、 原稿面を連続的に傾きの変わる直線の集合として近似す ることにより、 原稿面内の任意の点の輝度補正パラメータを内分比から簡単に求 めることができるようになった。
また本発明によれば、 綴じ目付近の画像を空白に変換して出力することにより . 画像を補正しきれない場所を目立たなくすることができるようになった。 さらに. 綴じ目付近の画像を綴じ目から離れた場所の画素値に変換して出力することによ り、 原稿が白以外の色の場合ででも、 原稿に合わせた色で綴じ目付近の画像を消 すことができるようになった。
また本発明によれば、 画像の読取りを、 形状認識のための画像読取りと補正対 象画像の読取りに分けることにより、 必要なメモリ量を大幅に削減することがで さる。
また本発明によれば、 画像の歪みを補正しない場合と、 する場合とで別々の入 力特性で画像の読取りを行うことにより、 歪み補正をしない場合には白黒のコン トラストを高く読取ることができ、 歪み補正する場合にはェッジの形状を検出し やすく画像を入力することができる。
また本発明によれば、 原稿が画像からはみ出していた場合、 補正を行わないこ とにより、 無駄な紙を節約することができる。

Claims

請 求 の 範 囲
1、 画像入力手段と、 記憶手段と、 中央演算処理手段と、 画像出力手段を含む 画像補正装置であつて、 原稿の上下側面と原稿台とが傾斜角をなす原稿の画像を 補正する側面傾斜画像補正手段を有することを特徴とする画像補正装置。
2、 前記側面傾斜画像補正手段は、 原稿のエッジを検出するエッジ検出手段と、 原稿の綴じ目の位置を求める綴じ目位置検出手段と、 原稿の位置の基準線を求め る基準線検出手段と、 前記エッジ付近の画像の輝度変化より原稿の左右の端点を 求める原稿端点検出手段と、 上記基準線と綴じ目の位置より原稿の上下の側面の 傾斜角を計算する側面傾斜角算出手段と、 前記ェッジと基準線と傾斜角より原稿 の上下のェッジの 3次元位置を計算するエツジ 3次元位置算出手段と、 ェッジの 3次元位置より原稿全体の形状を計算する原稿形状算出手段と、 原稿の 3次元形 状に従い、 画像から補正対象画素の背景輝度を求め、 背景輝度と目標輝度から画 素の輝度補正パラメータを求める輝度補正パラメータ算出手段とを有し、 前記原 稿の 3次元形状と輝度補正パラメータを用いて入力された画像を補正することを 特徴とする請求項 1記載の画像補正装置。
3、 前記エッジ検出手段は、 エッジの位置変化が少ない場所で所定の長さ以上 の区間を検出し、 前記区間以外は前後で検出した区間から補間した位置を原稿ェ ッジの位置とすることを特徴とする請求項 2記載の画像補正装置。
4、 前記綴じ目位置検出手段は、 前記エッジ検出手段によって検出されたエツ ジの位置の極大点若しくは極小点のうち、 画像の中心に最も近いものを綴じ目位 置として検出することを特徴とする請求項 2記載の画像補正装置。
5、 前記基準線検出手段は、 エッジ付近の画像の画素値が第 1の基準値以上で, かつ、 エッジの傾きの変化量が第 2の基準値以下となる区間のうち、 最も長い区 間における平均のエッジの傾きを基準線の傾きとし、 前記最長区間の原稿外側の 端点から前記傾きで延ばした直線を基準線とし、 原稿左右あるいは上下のエツジ についてそれぞれ基準線を検出するものであることを特徴とする請求項 2記載の 画像補正装置。
6、 前記原稿端点検出手段は、 原稿の左右のページで別々の判定基準に基づい て原稿端点を検出することを特徴とする請求項 2記載の画像補正装置。
7、 前記原稿形状算出手段は、 原稿面を上下のエッジの間を結ぶ直線の集合で 近似し、 原稿面の 3次元位置を前記直線の上下端点の位置の内分比から求めるこ とを特徴とする請求項 2記載の画像補正装置。
8、 前記原稿形状算出手段は、 算出されたエッジの長さが上下で異なる場合、 同一の長さになるようにエッジの 3次元位置を修正することを特徴とする請求項 7記載の画像補正装置。
9、 前記原稿形状算出手段は、 算出された原稿の縦の長さが左右のページで異 なる場合、 縦の長さが左右で同一となるように原稿の 3次元形状デ一タを修正す ることを特徴とする請求項 7または 8記載の画像補正装置。
10、 前記原稿形状算出手段は、 入力された画像を所定の縮小率で縮小する画像 縮小手段を有し、 前記縮小された画像から原稿の 3次元形状を求めた後、 前記縮 小率に従い原稿の 3次元形状データを修正することを特徴とする請求項 2, 7〜 9のうちのいずれか 1つに記載の画像補正装置。
11、 前記輝度補正パラメータ算出手段は、 請求項 7記載の原稿面を近似する直 線の上下端点付近の画像の輝度の内分比から補正対象画素の背景輝度を求め、 背 景輝度に対する目標輝度の比を輝度補正パラメータとすることを特徴とする請求 項 1または 2記載の画像補正装置。
12、 前記側面傾斜画像補正手段は、 前記綴じ目位置付近の画素値を空白に変換 して前記画像出力手段に出力することを特徴とする請求項 1, 2 , 4のうちのい ずれか 1つに記載の画像補正装置。
Π、 前記側面傾斜画像補正手段は、 前記綴じ目位置付近の画素値を綴じ目位置 から離れた場所の画素値に変換して前記画像出力手段に出力することを特徴とす る請求項 1 , 2 , 4のうちのいずれか 1つに記載の画像補正装置。
14、 前記側面傾斜画像補正手段は、 前記縮小画像を作成するための画像の読取 りと、 補正対象となる画像の読取りを別々に行うことを特徴とする請求項 2また は 1 0記載の画像補正装置。
15、 画像補正の適用を選択する補正選択手段を備え、 画像の補正を行う場合と 行わない場合とで異なる入力特性で画像の入力を行う画像入力手段を備えること を特徴とする請求項 1〜 1 4記載の画像補正装置。
16、 入力された画像から原稿の領域を検出する原稿領域検出手段を備え、 原稿 領域が画像からはみ出している場合には補正を行わないことを特徴とする請求項 1〜1 5のうちのいずれか 1つに記載の画像補正装置。
PCT/JP1999/003199 1998-06-30 1999-06-16 Image correction device WO2000000930A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US09/720,704 US7072527B1 (en) 1998-06-30 1999-06-16 Image correction apparatus
EP99957653A EP1093084B1 (en) 1998-06-30 1999-06-16 Image correction device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP10/183463 1998-06-30
JP18346398A JP3425366B2 (ja) 1998-06-30 1998-06-30 画像補正装置

Publications (1)

Publication Number Publication Date
WO2000000930A1 true WO2000000930A1 (en) 2000-01-06

Family

ID=16136233

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1999/003199 WO2000000930A1 (en) 1998-06-30 1999-06-16 Image correction device

Country Status (6)

Country Link
US (1) US7072527B1 (ja)
EP (1) EP1093084B1 (ja)
JP (1) JP3425366B2 (ja)
KR (1) KR100394202B1 (ja)
CN (1) CN1323372C (ja)
WO (1) WO2000000930A1 (ja)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002074351A (ja) 2000-08-30 2002-03-15 Minolta Co Ltd 歪み補正装置およびその方法ならびに歪み補正プログラムを記録したコンピュータ読み取り可能な記録媒体
US6970592B2 (en) * 2000-09-04 2005-11-29 Fujitsu Limited Apparatus and method for correcting distortion of input image
CN1552155A (zh) * 2001-09-07 2004-12-01 �ʼҷ����ֵ��ӹɷ����޹�˾ 具有照相机和图像透视校正并且可能具有旋转和交错校正的成像设备
DE10156040B4 (de) * 2001-11-15 2005-03-31 Océ Document Technologies GmbH Verfahren, Vorrichtung und Computerprogramm-Produkt zum Entzerren einer eingescannten Abbildung
JP2003168071A (ja) 2001-11-30 2003-06-13 Sanyo Electric Co Ltd 2次元バーコードの読み取り方法
JP2004040395A (ja) * 2002-07-02 2004-02-05 Fujitsu Ltd 画像歪み補正装置、方法及びプログラム
JP4113804B2 (ja) * 2003-03-19 2008-07-09 株式会社リコー 画像処理装置及び画像処理プログラム
JP4175234B2 (ja) * 2003-10-07 2008-11-05 セイコーエプソン株式会社 表示制御装置、携帯型情報端末及び表示制御方法
KR100584577B1 (ko) * 2003-10-07 2006-05-30 삼성전자주식회사 화상 형성 방법 및 장치
JP2005122323A (ja) * 2003-10-14 2005-05-12 Casio Comput Co Ltd 撮影装置、画像処理装置、撮影装置の画像処理方法及びプログラム
JP2005267457A (ja) * 2004-03-19 2005-09-29 Casio Comput Co Ltd 画像処理装置、撮影装置、画像処理方法及びプログラム
US7729017B2 (en) * 2004-05-11 2010-06-01 Lexmark International, Inc. Scanning device and method for scanning
EP1605402A2 (en) * 2004-06-10 2005-12-14 Sony Corporation Image processing device and method, recording medium, and program for blur correction
US7508978B1 (en) * 2004-09-13 2009-03-24 Google Inc. Detection of grooves in scanned images
US7463772B1 (en) * 2004-09-13 2008-12-09 Google Inc. De-warping of scanned images
US20070198942A1 (en) * 2004-09-29 2007-08-23 Morris Robert P Method and system for providing an adaptive magnifying cursor
CN100338618C (zh) * 2004-09-30 2007-09-19 致伸科技股份有限公司 一种倾斜图像自动校正方法
JP4634261B2 (ja) * 2005-09-09 2011-02-16 株式会社リコー 画像形成装置、画像処理装置、画像出力装置、携帯端末、画像処理システム、画像形成方法、画像処理方法、画像出力方法、画像形成プログラム、画像処理プログラムおよび画像出力プログラム
US7705231B2 (en) * 2007-09-07 2010-04-27 Microsoft Corporation Automatic accompaniment for vocal melodies
US10026177B2 (en) 2006-02-28 2018-07-17 Microsoft Technology Licensing, Llc Compact interactive tabletop with projection-vision
US8213687B2 (en) * 2006-04-28 2012-07-03 Hewlett-Packard Development Company, L.P. Image processing methods, image processing systems, and articles of manufacture
KR100768134B1 (ko) * 2006-06-30 2007-10-17 (주) 인펙 손상된 지폐의 영상 보정방법
KR100944002B1 (ko) * 2006-07-14 2010-02-24 삼성전자주식회사 이미지 처리 장치 및 이미지 처리 방법
JP4991411B2 (ja) 2006-07-28 2012-08-01 キヤノン株式会社 画像処理方法
US8270044B2 (en) * 2006-10-26 2012-09-18 Samsung Electronics Co., Ltd. Scanning apparatus having image correction function
US7944592B2 (en) * 2006-12-18 2011-05-17 Hewlett-Packard Development Company, L.P. Image capture device
US8731297B1 (en) * 2007-09-28 2014-05-20 Amazon Technologies, Inc. Processing a digital image of content to remove border artifacts
US8838489B2 (en) 2007-12-27 2014-09-16 Amazon Technologies, Inc. On-demand generating E-book content with advertising
US8174737B2 (en) * 2007-12-28 2012-05-08 Brother Kogyo Kabushiki Kaisha Image reading apparatus
US8284463B2 (en) * 2007-12-28 2012-10-09 Brother Kogyo Kabushiki Kaisha Image reading apparatus
US8107766B2 (en) 2008-04-03 2012-01-31 Abbyy Software Ltd. Method and system for straightening out distorted text-lines on images
JP5223452B2 (ja) * 2008-05-20 2013-06-26 株式会社リコー プロジェクタ及び投影画像形成方法及び車両用ヘッドアップディスプレイ装置
JP4585015B2 (ja) * 2008-07-07 2010-11-24 株式会社リコー 画像歪み補正装置、画像読取装置、画像形成装置及びプログラム
JP5199787B2 (ja) * 2008-08-21 2013-05-15 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP2010057017A (ja) * 2008-08-29 2010-03-11 Konica Minolta Business Technologies Inc 画像処理装置および画像処理方法
JP5319383B2 (ja) * 2009-04-30 2013-10-16 日立アロカメディカル株式会社 超音波画像処理装置
JP5744510B2 (ja) * 2010-12-28 2015-07-08 キヤノン株式会社 画像処理方法
CN102831578B (zh) * 2011-06-15 2014-12-17 富士通株式会社 图像处理方法和图像处理设备
JP5723687B2 (ja) * 2011-06-15 2015-05-27 株式会社Pfu 画像読取装置、画像処理方法、および、プログラム
US8873112B2 (en) * 2011-10-21 2014-10-28 Canon Kabushiki Kaisha Image processing apparatus and determination method
JP5802524B2 (ja) * 2011-11-21 2015-10-28 株式会社Pfu 画像処理装置、画像処理方法、および画像処理プログラム
CN103179315A (zh) * 2011-12-20 2013-06-26 长沙鹏阳信息技术有限公司 连续视频图像处理的纸质文档扫描仪及扫描方法
JP5865113B2 (ja) * 2012-02-20 2016-02-17 株式会社Pfu 画像処理装置、画像処理システム、画像処理方法及び画像処理プログラム
CN103366165B (zh) * 2012-03-30 2016-06-29 富士通株式会社 图像处理装置、图像处理方法以及设备
JP5904024B2 (ja) * 2012-06-13 2016-04-13 ブラザー工業株式会社 画像読取装置
US9495587B2 (en) 2012-06-22 2016-11-15 Steelcase Inc. Document unbending and recoloring systems and methods
KR20140082428A (ko) * 2012-12-24 2014-07-02 삼성전자주식회사 화상독취장치, 이미지 보정 방법 및 컴퓨터 판독가능 기록매체
JP5777601B2 (ja) * 2012-12-25 2015-09-09 京セラドキュメントソリューションズ株式会社 画像処理装置および画像読取装置
US10339406B2 (en) * 2013-03-15 2019-07-02 Orcam Technologies Ltd. Apparatus and method for using background change to determine context
JP5947777B2 (ja) * 2013-10-31 2016-07-06 京セラドキュメントソリューションズ株式会社 画像読取装置、画像形成装置、プログラム、及び画像読取方法
WO2015077688A1 (en) * 2013-11-25 2015-05-28 Blink Technologies, Inc. Systems and methods for enhanced object detection
CN104851078A (zh) * 2014-02-14 2015-08-19 富士通株式会社 文档图像处理装置和方法
JP6128086B2 (ja) * 2014-09-12 2017-05-17 カシオ計算機株式会社 頁画像補正装置、頁画像補正方法及びプログラム
JP6825254B2 (ja) * 2016-07-20 2021-02-03 株式会社リコー 画像読取装置、画像形成装置、原稿画像投影方法およびプログラム
JP6943102B2 (ja) * 2017-09-14 2021-09-29 セイコーエプソン株式会社 スキャナー、スキャンデータの生産方法およびスキャン制御プログラム
JP6972945B2 (ja) * 2017-11-10 2021-11-24 セイコーエプソン株式会社 読取装置、画像処理プログラムおよび画像生産方法
CN109348084B (zh) * 2018-11-26 2020-01-31 珠海奔图电子有限公司 图像形成方法、装置、电子设备和可读存储介质
CN112153239A (zh) * 2020-09-21 2020-12-29 北京辰光融信技术有限公司 一种文档扫描图像的校正方法、装置、存储介质和电子设备
US10991081B1 (en) 2020-12-31 2021-04-27 VoyagerX, Inc. Book scanning using machine-trained model
US11030488B1 (en) 2020-12-31 2021-06-08 VoyagerX, Inc. Book scanning using machine-trained model
CN113449724B (zh) * 2021-06-09 2023-06-16 浙江大华技术股份有限公司 一种图像文本校正方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61125282A (ja) * 1984-11-21 1986-06-12 Mita Ind Co Ltd 影除去方法
JPH02308269A (ja) * 1989-05-24 1990-12-21 Canon Inc 画像処理方法
JPH06217090A (ja) * 1993-01-20 1994-08-05 Ricoh Co Ltd 画像データの補正方法および画像読取装置
JPH0738712A (ja) * 1993-07-20 1995-02-07 Ricoh Co Ltd 読取装置
DE19736696A1 (de) 1996-08-23 1998-02-26 Sharp Kk Bildverarbeitungsvorrichtung
JPH10173905A (ja) * 1996-12-11 1998-06-26 Minolta Co Ltd 画像読取り装置

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57191653A (en) 1981-05-21 1982-11-25 Canon Inc Picture forming device
JPH04331562A (ja) * 1990-07-31 1992-11-19 Xerox Corp 文書複写機
JPH05161004A (ja) 1991-12-05 1993-06-25 Minolta Camera Co Ltd 原稿読み取り装置
US5585926A (en) * 1991-12-05 1996-12-17 Minolta Co., Ltd. Document reading apparatus capable of rectifying a picked up image data of documents
JP3093869B2 (ja) * 1992-04-28 2000-10-03 オリンパス光学工業株式会社 画像取り込み装置
JPH05316302A (ja) * 1992-05-13 1993-11-26 Minolta Camera Co Ltd 画像入力装置
JPH06168324A (ja) 1992-11-30 1994-06-14 Sharp Corp 画像処理方法
US5497236A (en) * 1993-06-23 1996-03-05 Ricoh Company Ltd. Method and apparatus for distortion correction of scanned images
JP3821860B2 (ja) 1994-03-15 2006-09-13 コニカミノルタビジネステクノロジーズ株式会社 画像読取装置
US5831750A (en) * 1994-11-08 1998-11-03 Minolta Co., Ltd. Image reader having height distribution correction for a read document
JPH08237485A (ja) 1994-12-13 1996-09-13 Minolta Co Ltd 画像読み取り装置
US5834762A (en) 1994-12-13 1998-11-10 Minolta Co., Ltd. Image reading apparatus and method
JP3072236B2 (ja) 1994-12-26 2000-07-31 シャープ株式会社 画像入力装置
JPH08307688A (ja) * 1995-04-28 1996-11-22 Minolta Co Ltd 画像読み取り装置
JPH09191376A (ja) * 1996-01-10 1997-07-22 Minolta Co Ltd 画像読み取り装置
JPH09200455A (ja) * 1996-01-19 1997-07-31 Minolta Co Ltd 読取り画像の濃度補正方法及び画像読取り装置
JPH09284491A (ja) 1996-04-17 1997-10-31 Minolta Co Ltd 画像読取り装置
US5760925A (en) * 1996-05-30 1998-06-02 Xerox Corporation Platenless book scanning system with a general imaging geometry
US5835241A (en) * 1996-05-30 1998-11-10 Xerox Corporation Method for determining the profile of a bound document with structured light
US5764383A (en) * 1996-05-30 1998-06-09 Xerox Corporation Platenless book scanner with line buffering to compensate for image skew
JP3569794B2 (ja) * 1997-03-18 2004-09-29 ミノルタ株式会社 画像読取りシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61125282A (ja) * 1984-11-21 1986-06-12 Mita Ind Co Ltd 影除去方法
JPH02308269A (ja) * 1989-05-24 1990-12-21 Canon Inc 画像処理方法
JPH06217090A (ja) * 1993-01-20 1994-08-05 Ricoh Co Ltd 画像データの補正方法および画像読取装置
JPH0738712A (ja) * 1993-07-20 1995-02-07 Ricoh Co Ltd 読取装置
DE19736696A1 (de) 1996-08-23 1998-02-26 Sharp Kk Bildverarbeitungsvorrichtung
JPH10173905A (ja) * 1996-12-11 1998-06-26 Minolta Co Ltd 画像読取り装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP1093084A4

Also Published As

Publication number Publication date
CN1323372C (zh) 2007-06-27
EP1093084A4 (en) 2006-06-21
US7072527B1 (en) 2006-07-04
JP2000020682A (ja) 2000-01-21
EP1093084B1 (en) 2009-12-09
CN1307714A (zh) 2001-08-08
KR20010053292A (ko) 2001-06-25
JP3425366B2 (ja) 2003-07-14
EP1093084A1 (en) 2001-04-18
KR100394202B1 (ko) 2003-08-06

Similar Documents

Publication Publication Date Title
WO2000000930A1 (en) Image correction device
JP3618056B2 (ja) 画像処理装置
US5497236A (en) Method and apparatus for distortion correction of scanned images
US8270044B2 (en) Scanning apparatus having image correction function
US5764383A (en) Platenless book scanner with line buffering to compensate for image skew
JP3631333B2 (ja) 画像処理装置
JP3436025B2 (ja) 読取り画像の修正方法及び画像読取り装置
US7164518B2 (en) Fast scanner with rotatable mirror and image processing system
JPH08228261A (ja) スキャナのための電子イメージ整合装置
JP3891408B2 (ja) 画像補正装置、プログラム、記憶媒体及び画像補正方法
US5774237A (en) Image reading apparatus
JPH08154154A (ja) 画像読み取り装置
JP2003283804A (ja) 綴じ部の湾曲の補正方法およびシステム
US8169670B2 (en) Image scanning device
JP3582988B2 (ja) 非接触型画像読取装置
JP4168957B2 (ja) 画像処理プログラムおよび装置
JPH11341230A (ja) 画像読取装置
WO2005038705A2 (en) Fast scanner with rotatable mirror and image processing system
JP3852247B2 (ja) 画像形成装置及び転写画像歪み補正方法
JPH09284491A (ja) 画像読取り装置
JP6759057B2 (ja) 画像読み取り装置及び画像読み取り方法
KR101695227B1 (ko) 화상형성장치 및 그 양면 카드 복사 방법
JP2004048633A (ja) 画像補正装置、プログラム、記憶媒体及びページ外形の直線部分と曲線部分の境界点の検出方法
JP2001069332A (ja) 画像読み取り装置
JP2020198559A (ja) 画像読取装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 99808089.6

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): CA CN ID KR SG US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LU MC NL PT SE

DFPE Request for preliminary examination filed prior to expiration of 19th month from priority date (pct application filed before 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 09720704

Country of ref document: US

Ref document number: 1020007015015

Country of ref document: KR

WWE Wipo information: entry into national phase

Ref document number: 1999957653

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1999957653

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 1020007015015

Country of ref document: KR

WWG Wipo information: grant in national office

Ref document number: 1020007015015

Country of ref document: KR