WO2018061997A1 - 媒体認識装置および媒体認識方法 - Google Patents
媒体認識装置および媒体認識方法 Download PDFInfo
- Publication number
- WO2018061997A1 WO2018061997A1 PCT/JP2017/034184 JP2017034184W WO2018061997A1 WO 2018061997 A1 WO2018061997 A1 WO 2018061997A1 JP 2017034184 W JP2017034184 W JP 2017034184W WO 2018061997 A1 WO2018061997 A1 WO 2018061997A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- projection
- evaluation value
- rotation angle
- medium
- end points
- Prior art date
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/242—Aligning, centring, orientation detection or correction of the image by image rotation, e.g. by 90 degrees
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20068—Projection on vertical or horizontal image axis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/247—Aligning, centring, orientation detection or correction of the image by affine transforms, e.g. correction due to perspective effects; Quadrilaterals, e.g. trapezoids
Definitions
- the present invention is a medium recognition apparatus and medium recognition method for recognizing information on a rectangular medium.
- Hough transform is well known as a technique for detecting and recognizing specific geometric figures consisting of straight lines or straight lines on a rectangular medium to be processed using digital images. It is widely used in various industrial fields.
- this method performs preprocessing such as noise removal and edge enhancement on an image including a recognition target figure, and then performs Hough transform on the extracted image pattern to convert it into cumulative points, and then The procedure of performing inverse Hough transform on the accumulated points having the cumulative frequency and obtaining a straight line in the image space is taken (see, for example, Patent Documents 1 and 2).
- position coordinates are detected using Hough transform for positioning of a workpiece in a semiconductor device manufacturing process, and used for position correction.
- the inverse Hough transform is performed to obtain a reference straight line to obtain the workpiece angle correction.
- the Hough transform is applied to estimate a line segment constituting a part of the periphery of the object. Count the number of points to be converted to polar coordinates, and select polar coordinates with high frequency. For each selected polar coordinate, a straight line equation is calculated by inverse Hough transform and a rotation angle is detected.
- an object of the present invention is to provide a medium recognition apparatus and a medium recognition method capable of reducing the calculation load.
- the image processing apparatus of the present invention uses a digital image to detect a rotation angle on a rectangular medium image and refers to the detected rotation angle on the rectangular medium.
- a medium recognition device for recognizing information wherein a projection generation unit generates a projection of pixel values by luminance projection with respect to each of a horizontal axis and a vertical axis of an image to be processed, and projection onto the horizontal axis and the vertical axis
- the end point detection unit for determining both end points of the projection pattern of the projection waveform, the interval between the end points of the projection pattern of the projection waveform with respect to the horizontal axis, and both ends of the projection pattern of the projection waveform with respect to the vertical axis
- An interval between points is obtained, an evaluation value acquisition unit that acquires a predetermined evaluation value in association with the interval data and the width and height of the rectangular medium, and an evaluation value obtained by the evaluation value acquisition unit.
- the end point detection unit for determining both end points of the projection pattern of the projection waveform, and the interval between the end points of the projection pattern of the projection waveform on the horizontal axis and the vertical axis are set.
- An evaluation value acquisition unit that obtains a predetermined evaluation value in association with the interval data and the width and height of the rectangular medium, and a rotation angle of the rectangular medium based on the evaluation value by the evaluation value acquisition unit And determining the rotation angle of the rectangular medium based on the projection waveform pattern interval data and the evaluation value associated with the width and height of the rectangular medium.
- the calculation load can be reduced without using the conventional Hough transform. In other words, there is no need to analytically extract the maximum point from the Hough transform matrix as in the prior art.
- the rotation angle determination unit searches an angle corresponding to the evaluation value from a reference table set in advance based on the evaluation value obtained by the evaluation value acquisition unit, and uses the result of the rectangular medium.
- a rotation angle is preferable.
- the angle corresponding to the evaluation value is searched from the reference table set in advance, and the rotation angle of the rectangular medium is determined, so that the calculation load can be further reduced.
- the evaluation value acquisition unit includes a first value based on a width of the rectangular medium and a distance between both end points of the projection pattern of the projection waveform with respect to the horizontal axis, a height of the rectangular medium, and the vertical axis. It is preferable to obtain an evaluation value according to the difference from the second value based on the interval between the end points of the projection pattern of the projection waveform.
- the evaluation value acquisition unit includes a first value based on a width of the rectangular medium and a distance between both end points of the projection pattern of the projection waveform with respect to the horizontal axis, a height of the rectangular medium, and the vertical axis.
- the first evaluation value corresponding to the difference between the second value based on the distance between the two end points of the projected pattern of the projected waveform and the distance between the two end points of the projected pattern of the projected waveform related to the height of the recognition target medium and the horizontal axis.
- the rotation angle determination unit determines the rotation angle as the evaluation value by the evaluation value acquisition unit as the rotation angle of the medium.
- This configuration makes it possible to obtain the actual rotation angle with high accuracy, although the calculation load is slightly increased.
- the image processing method of the present invention is an image processing method for detecting a rotation angle on an image of a rectangular medium using a digital image, and each of the horizontal axis and the vertical axis of the processing target image.
- a projection generation step for generating a projection of pixel values by luminance projection; an endpoint detection step for determining both end points of a projection pattern of the projection waveform for each of the projection to the horizontal axis and the projection to the vertical axis;
- the distance between the two end points of the projection pattern of the projection waveform with respect to the horizontal axis and the distance between the two end points of the projection pattern of the projection waveform with respect to the vertical axis are obtained, and a predetermined evaluation value is associated with the distance data and the width and height of the recognition target medium.
- An evaluation value acquisition step for acquiring a rotation angle and a rotation angle determination step for determining a rotation angle of the medium based on the evaluation value obtained by the evaluation value acquisition step.
- an end point detection step for each projection onto the horizontal axis and the vertical axis, an end point detection step for determining the end points of the projection pattern of the projection waveform, and the interval between the end points of the projection pattern of the projection waveform with respect to the horizontal axis and the vertical axis are determined.
- An evaluation value acquisition step for obtaining a predetermined evaluation value in association with the interval data and the width and height of the rectangular medium, and a rotation angle of the rectangular medium based on the evaluation value by the evaluation value acquisition unit And determining the rotation angle of the rectangular medium based on the projection waveform pattern interval data and the evaluation value associated with the width and height of the rectangular medium.
- the calculation load can be reduced without using the conventional Hough transform. In other words, there is no need to analytically extract the maximum point from the Hough transform matrix as in the prior art.
- the rotation angle determination step searches for an angle corresponding to the evaluation value from a reference table set in advance based on the evaluation value obtained by the evaluation value acquisition step, and uses the result of the rectangular medium.
- a rotation angle is preferable.
- the angle corresponding to the evaluation value is searched from the reference table set in advance, and the rotation angle of the rectangular medium is determined, so that the calculation load can be further reduced.
- the evaluation value acquisition step includes a first value based on a width of the rectangular medium and a distance between both end points of the projection pattern of the projection waveform with respect to the horizontal axis, a height of the rectangular medium, and the vertical axis. It is preferable to obtain an evaluation value according to the difference from the second value based on the interval between the end points of the projection pattern of the projection waveform.
- the evaluation value acquisition step includes a first value based on a width of the rectangular medium and a distance between both end points of the projection pattern of the projection waveform with respect to the horizontal axis, a height of the rectangular medium, and the vertical axis.
- a first evaluation value corresponding to a difference from a second value based on an interval between both end points of the projected waveform of the projected waveform, and an interval between the end points of the projected pattern of the projected waveform with respect to the height of the rectangular medium and the horizontal axis Rotation according to the ratio between the third value based on the second medium and the second evaluation value corresponding to the difference between the width of the rectangular medium and the fourth value based on the distance between the end points of the projection pattern of the projected waveform with respect to the vertical axis
- An angle is obtained, and the rotation angle determination step preferably determines the rotation angle as the evaluation value obtained by the evaluation value acquisition step as the rotation angle of the rectangular medium.
- This configuration makes it possible to obtain the actual rotation angle with high accuracy, although the calculation load is slightly increased.
- the medium recognition apparatus and the medium recognition method determine the rotation angle of the rectangular medium based on the projection waveform pattern interval data and the evaluation values associated with the width and height of the rectangular medium. Therefore, it is possible to reduce the calculation load without using the conventional Hough transform.
- FIG. 1 shows the structural example of the principal part of the medium recognition apparatus which concerns on the 1st Embodiment of this invention. It is a figure which shows typically the external appearance of the card medium which is an example of the rectangular medium. It is a block diagram which shows the structural example of the data processing part in the medium recognition apparatus which concerns on the 1st embodiment. It is a figure which shows an example of the image which imaged the card
- FIG. 5 is a diagram showing a geometrical relationship between intervals of projection patterns and card widths and heights applied to evaluation value acquisition for an image after edge enhancement processing and binarization processing are performed on the image of FIG. 4. is there. It is a flowchart for demonstrating centering on the specific example of a rotation angle detection process for the process of the data processing part which concerns on this 1st Embodiment. It is a flowchart for demonstrating the whole operation
- FIG. 1 is a diagram illustrating a configuration example of a main part of a medium recognition device according to the first embodiment of the present invention.
- FIG. 2 is a diagram schematically showing the appearance of a card which is an example of a rectangular medium.
- the medium recognition apparatus 10 detects a rotation angle on the image of the rectangular medium 100 using a digital image, and is recorded on the rectangular medium 100 with reference to the detected rotation angle. It recognizes information 110 such as a character or barcode.
- the rectangular medium 100 is a general card (hereinafter referred to as “card”) compliant with JIS.
- the card 100 has a rectangular shape (a rectangle having a long side and a short side), and is, for example, a plastic card having a width (a) of 126 mm, a height (b) of 80 mm, and a thickness of 0.76 mm.
- the rectangular medium is not limited to the above-described card, and may be, for example, a plastic card having a width of 86 mm, a height of 54 mm, and a thickness of 0.76 mm.
- it is not limited to a card, An ID card, a passport book, or a driver's license etc. may be sufficient.
- the width direction of the card 100 is the X-axis direction in FIG.
- a direction orthogonal to the X-axis direction is taken as a Y-axis direction.
- the direction of information 110 such as a character string formed in the information (for example, OCR character) recording area 120, that is, characters are arranged.
- the direction in which it is projected is the X-axis direction.
- a direction orthogonal to the X-axis direction is taken as a Y-axis direction.
- the direction orthogonal to the direction in which the characters are arranged is the Y-axis direction.
- the medium recognition apparatus 10 includes a table 20 on which a card 100 is placed, an image reading unit 30 as an image data input unit, an analog / digital converter (A / D converter) 40, an image memory 50, and A data processing unit 60 is included.
- a / D converter analog / digital converter
- the image reading unit 30 guides incident light to a pixel area of a CCD (Charge Coupled Device) image sensor, which is a solid-state imaging device (image sensor) using a photoelectric conversion element that detects light and generates charges (image sensor). It has an optical system (lens and the like) that forms a subject image, and is placed on the table 20 and images a predetermined area including the entire card 100 illuminated by the illumination light source 31.
- a CMOS (Complementary Metal Oxide Semiconductor) image sensor may be used as the solid-state imaging device (image sensor).
- the A / D converter 40 converts an image including the card 100 imaged by the image reading unit 30 into digital image data and stores the digital image data in the image memory 50.
- the A / D converter 40 can also include the function in the image reading unit 30.
- the image memory 50 stores (stores) digitized image data of the card 100 including information 110 such as an OCR character string captured by the image reading unit 30.
- the original image stored in the image memory 50 is formed by arranging a plurality of pixels in a matrix. Specifically, although not shown in the drawing, M rows in the X-axis direction and N columns in the Y-axis direction Is arranged. Each pixel has a pixel value (luminance value). In the present embodiment, each pixel value takes any value between 0 and 255 when expressed in 8 bits, for example. The pixel value is smaller as it is closer to black, and is larger as it is closer to white.
- the image memory 50 may be any memory such as RAM, SDRAM, DDRSDRAM, and RDRAM as long as it can store image data.
- the data processing unit 60 detects a rotation angle on the image of the card 100 using the digital image, and recognizes information 110 such as characters or barcodes recorded on the card 100 with reference to the detected rotation angle.
- Has the function of The data processing unit 60 is configured as a part of a CPU or the like that controls the entire image processing apparatus 10.
- the data processing unit 60 reads multi-valued image data (multi-gradation grayscale image, for example, 256 gradations) from the image memory 50.
- multi-valued image data multi-gradation grayscale image, for example, 256 gradations
- FIG. 3 is a block diagram illustrating a configuration example of the data processing unit 60 in the medium recognition device 10 according to the first embodiment.
- FIG. 4 is a diagram illustrating an example of an image obtained by capturing the card.
- FIG. 5 is a diagram illustrating an example of an image after edge enhancement processing and binarization processing are performed on the image of FIG.
- the data processing unit 60 includes an edge enhancement unit 610, a binarization processing unit 620, a projection generation unit 630, an end point detection unit 640, an evaluation value acquisition unit 650, a rotation angle determination unit 660, an information recognition unit 670, and an angle reference table RTBL.
- the rotation angle detection process and the information recognition process on the card 100 will be described by taking a rectangle drawn on the image space as shown in FIG. 4 as an example.
- the rectangle in FIG. 4 illustrates the image IMG obtained by imaging the card 100, but the image IMG may have noise or distortion depending on the imaging conditions, and noise removal processing is often performed at the preprocessing stage.
- edge emphasis processing is performed, and binarization processing is further performed to obtain the image IMG of FIG.
- the line is binarized with a black line and a white background.
- the straight line may be set to white and the background to black.
- the edge emphasizing unit 610 performs edge emphasis processing on the 256 gradation grayscale image data read from the image memory 50 and outputs the image to the binarization processing unit 620.
- the binarization processing unit 620 performs binarization processing on the 256 gradation grayscale image data read from the image memory 50 and subjected to edge enhancement processing, and supplies the image information to, for example, the end point detection unit 640. .
- the binarization processing unit 620 obtains a threshold value by an appropriate method, and converts the original multi-value grayscale image into a monochrome binary image.
- the projection generation unit 630 has a first projection prjX and a second projection prjY of pixel values by luminance projection with respect to each of the horizontal axis (X axis) and the vertical axis (Y axis) of the image IMG. Is generated.
- the first projection prjX is an average of luminance values for each line in the direction perpendicular to the X axis.
- the second projection prjY is an average of luminance values for each line in the direction perpendicular to the Y axis.
- FIG. 6 is a diagram showing a projection profile by the projection generation unit according to the first embodiment.
- 6A shows the processing target image
- FIG. 6B shows the profile of the first projection prjX on the X axis
- FIG. 6C shows the profile of the second projection prjY on the Y axis. Yes.
- the projection profile corresponds to a projection pattern of a projection waveform.
- FIG. 7 shows the intervals W and H of the projection patterns applied to the evaluation value acquisition for the image after performing the edge enhancement processing and binarization processing on the image of FIG. 4, and the width a and height of the card 100. It is a figure which shows the geometric relationship of b.
- the geometrical relationship between the intervals W and H of each projection pattern in FIG. 7 and the width a and height b of the card 100 is referred to in, for example, the end point detection unit 640 and the evaluation value acquisition unit 650.
- the evaluation value acquisition unit 650 includes a first value (a ⁇ W) based on the interval W between the end points X1 and X2 of the projection pattern of the projection waveform of the first projection prjX with respect to the width a of the card 100 and the X axis (horizontal axis).
- An evaluation value corresponding to -b ⁇ H) is obtained.
- the evaluation value acquisition unit 650 supplies the acquired evaluation value to the rotation angle determination unit 660.
- the rotation angle determination unit 660 determines the rotation angle ⁇ ( ⁇ ) of the card 100 based on the evaluation value obtained by the evaluation value acquisition unit 650. Based on the evaluation value obtained by the evaluation value acquisition unit 650, the rotation angle determination unit 660 searches for an angle corresponding to the evaluation value from the preset angle reference table RTBL, and determines the result as the rotation angle of the card 100. To do.
- the information recognition unit 670 recognizes the information 110 on the card 100 with reference to the rotation angle ⁇ ( ⁇ ) determined by the rotation angle determination unit 660. For example, the information recognition unit 670 corrects (corrects) the inclination on the image of the information recording area 120 in the card 100 based on the detected rotation angle ⁇ ( ⁇ ) from the image data of FIG. 4 or FIG. Information in the information recording area 120 in a later image, for example, character recognition processing is performed.
- the character recognition is performed by searching for a break position between characters of the character string in the captured image.
- the character delimiter position is obtained based on the binarization threshold value.
- the circumscribed rectangular area (upper and lower left and right coordinate values) of the character to be recognized is obtained.
- the feature extraction process the circumscribed rectangular area described above is divided into arbitrary sub-areas, for example, one circumscribed rectangular area is divided into 5 ⁇ 5 areas, and one of the sub-areas is defined as a sub-area.
- the ratio of the number of black pixels to the total number of pixels in the sub-region is obtained, and a feature vector having them as elements is generated.
- the obtained feature vector is compared with the reference feature vector obtained in advance for all characters used in this recording medium, and the character having the highest similarity (for example, normalized correlation coefficient) is selected as the character. Is set as the corresponding candidate character.
- the reference feature vector is stored in advance, and when feature comparison is performed, character data having a high degree of similarity is read from the storage unit, and the feature comparison is performed. Basically, the candidate character set by the feature comparison is recognized as the character used for the recording medium.
- FIG. 8 is a flowchart for explaining the processing of the data processing unit 60 according to the first embodiment, focusing on a specific example of the rotation angle detection processing.
- the edge enhancement unit 610 performs edge enhancement processing on the grayscale image data of 256 gradations read from the image memory 50 (step ST1), and the binarization processing unit 620 performs image processing.
- the 256 gradation grayscale image data read from the memory 50 and subjected to the edge enhancement processing is binarized (step ST2), and the image information is supplied to the end point detection unit 640.
- the first projection prjX is an average of luminance values for each line in the direction perpendicular to the X axis.
- the second projection prjY is an average of luminance values for each line in the direction perpendicular to the Y axis.
- both end points of the projection pattern (projection profile) of the projection waveform are detected.
- the first value (a ⁇ W) based on the interval W between the end points X1 and X2 of the projection pattern of the projection waveform of the first projection prjX with respect to the width a of the card 100 and the X axis (horizontal axis) The difference between the height b of the recognition target medium 100 and the second value (b ⁇ H) based on the distance H between the end points Y1 and Y2 of the projection pattern of the projection waveform of the second projection prjY with respect to the Y axis (vertical axis) (a ⁇ Evaluation value according to W ⁇ b ⁇ H) is obtained.
- the rotation angle determination unit 660 determines the rotation angle ⁇ ( ⁇ ) of the card 100 based on the evaluation value from the evaluation value acquisition unit 650.
- the rotation angle determination unit 660 retrieves an angle corresponding to the evaluation value from a reference table RTBL set in advance based on the evaluation value obtained by the evaluation value acquisition unit 650 (step ST6), and based on the result, the rotation angle of the medium. (Step ST7).
- the long side length of the rectangle in the image is a
- the short side length is b
- Equation 3 and Equation 4 are transformed to obtain the following equation.
- the angle ⁇ can also be obtained by the following equation.
- the angle determination may be performed arithmetically using Equation 7 or Equation 6. However, in the first embodiment, since the calculation of tan-1 requires cost in consideration of the implementation in the device, the following is given. Such an angle determination process is performed.
- Equation 5 If the left side of Equation 5 is ⁇ ( ⁇ ), ⁇ ( ⁇ ) is a function of ⁇ . For example, ⁇ ( ⁇ ) is calculated in increments of 10 degrees, the following numerical list is created, and angle reference is made A table RTBL is stored in a memory or the like.
- the information 110 on the card 100 is recognized with reference to the rotation angle ⁇ ( ⁇ ) determined by the rotation angle determination unit 660 (step ST8).
- the inclination of the information recording area 120 in the card 100 on the image is corrected according to the detected rotation angle ⁇ ( ⁇ ) from the image data in FIG. 4 or FIG.
- the information in the information recording area 120 for example, character recognition processing is performed.
- the data processing unit 60 when the data processing unit 60 detects the rotation angle on the image of the card 100 using the digital image, the data processing unit 60 performs luminance projection on the X axis (horizontal axis) and the vertical axis of the processing target image.
- Projection generation unit 630 that generates a projection of pixel values
- an end point detection unit that determines the end points of the trapezoidal pattern of the projection waveform for each of projection onto the X axis (horizontal axis) and projection onto the Y axis (vertical axis) 640, the distance W between the two end points of the trapezoid pattern of the projected waveform with respect to the X axis (horizontal axis) and the distance H between the two end points of the trapezoid pattern with respect to the Y axis (vertical axis) are obtained, An angle corresponding to the evaluation value is searched from an evaluation value acquisition unit 650 that acquires a predetermined evaluation value using the above-mentioned values and
- FIG. 9 is a flowchart for explaining the overall operation of the medium recognition apparatus 10 according to the first embodiment.
- the card 100 is placed on the table 20 (step ST11).
- the image reading unit 30 captures an image of a predetermined area including the entire card 100 illuminated by the illumination light source 31 (step ST12). Then, the image including the card 100 captured by the image reading unit 30 in the A / D converter 40 is converted into digital image data and stored in the image memory 50 (step ST13).
- the rotation angle on the image of the card 100 is detected using the digital image stored in the image memory 50 (step ST14).
- This rotation angle detection processing is mainly performed in the following processing steps.
- a projection is formed by performing luminance projection on each of the X axis (horizontal axis) and the Y axis (vertical axis) of the processing target image (projection generation step).
- both end points of the projection onto the X axis (horizontal axis) and the projection onto the vertical axis are determined (end point detection step).
- the distance W between the two end points with respect to the X axis (horizontal axis) and the distance H between the two end points with respect to the Y axis (vertical axis) are obtained, and the data and the width and height of the target medium known in advance are used to obtain a predetermined distance.
- An evaluation value is acquired (calculated) (evaluation value acquisition step). Finally, using this evaluation value as a key, an angle corresponding to the evaluation value is searched from a reference table RTBL prepared in advance, and the result is used as the rotation angle of the medium (angle determination step).
- the data processing unit 60 recognizes the information 110 such as characters or barcodes recorded on the card 100 with reference to the detected rotation angle (step ST15).
- the medium recognizing device 10 uses the digital image to detect the rotation angle on the image of the card 100 as a rectangular medium, instead of analytically extracting the maximum point from the Hough transform matrix. Furthermore, a projection generation unit 630 that generates a projection of pixel values by luminance projection for each of the X axis (horizontal axis) and the Y axis (vertical axis) of the processing target image, projection to the X axis (horizontal axis), and Y For each projection onto the axis (vertical axis), an end point detection unit 640 that determines both end points of the trapezoid pattern of the projection waveform, an interval W between the end points of the trapezoid pattern of the projection waveform with respect to the X axis (horizontal axis), and Y An evaluation value acquisition unit 650 that obtains a distance H between both end points of the trapezoidal pattern with respect to the axis (vertical axis) and acquires
- the medium recognition device 10 it is not necessary to analytically extract the maximum point from the Hough transform matrix, and it is possible to detect the rotation angle of the card 100 without using the Hough transform and reducing the calculation load compared to the conventional case. Become. That is, the image processing apparatus 10 does not need to analytically extract the maximum point from the Hough transform matrix, detects the rotation angle of the card 100 without using the Hough transform, and at a lower cost than the conventional method. It becomes possible.
- the rotation angle determination unit 660 searches for an angle corresponding to the evaluation value from a reference table set in advance based on the evaluation value obtained by the evaluation value acquisition unit 650, and determines the rotation angle of the card 100 based on the result. is doing. As a result, the calculation load can be further reduced. That is, the calculation load can be reduced, and an inexpensive processing system can be realized.
- the evaluation value acquisition unit 650 determines the first value (a ⁇ W) based on the interval W between the end points X1 and X2 of the projection pattern of the projection waveform with respect to the width a of the card 100 and the X axis (horizontal axis) and the card 100. According to the difference (a ⁇ Wb ⁇ H) between the height b and the second value (b ⁇ H) based on the interval H between the end points Y1 and Y2 of the projected pattern of the projected waveform with respect to the Y axis (vertical axis) Since the evaluation value is obtained, it is possible to acquire the evaluation value with high accuracy.
- FIG. 10 is a block diagram illustrating a configuration example of the data processing unit in the medium recognition device according to the second embodiment.
- the data processing unit 60A of the second embodiment is different from the data processing unit 60 of the first embodiment described above as follows.
- the rotation angle determination unit 660 searches for an angle corresponding to the evaluation value from a reference table set in advance based on the evaluation value obtained by the evaluation value acquisition unit 650, The result is used as the rotation angle of the card 100.
- the evaluation value acquisition unit 650A obtains the rotation angle ⁇ ( ⁇ ) by calculation, and the rotation angle determination unit 660A evaluates the evaluation value by the evaluation value acquisition unit 650A. Is determined as the rotation angle of the card 100.
- the evaluation value acquisition unit 650A is based on the interval W between the end points X1 and X2 of the projected pattern of the projected waveform with respect to the width a of the card 100 and the X axis (horizontal axis) as shown in the above-described Expression 7 (Expression 7 below).
- the rotation angle is obtained according to the ratio with the corresponding second evaluation value.
- the calculation load is slightly increased, the actual rotation angle can be acquired with high accuracy, and the rotation angle determination process can be speeded up.
- FIG. 11 is a diagram showing a projection profile by the projection generation unit according to the third embodiment.
- 11A shows the processing target image
- FIG. 11B shows the profile of the first projection prjX on the X axis
- FIG. 11C shows the profile of the second projection prjY on the Y axis. Yes.
- the card 100 is set to white and the background is set to black.
- the card 100 is set to black and the background is set to white.
- the detection method of the straight line / graphic pattern angle using the projection of the horizontal axis / vertical axis of the image without using the Hough transform is not only used alone but also using the Hough transform.
- an approximate angle is obtained prior to the process of searching for accumulated points.
- the method described in detail above can be formed as a program corresponding to the above procedure and executed by a computer such as a CPU. Further, such a program can be configured to be accessed by a recording medium such as a semiconductor memory, a magnetic disk, or an optical disk, or a computer in which the recording medium is set, to execute the program.
- a recording medium such as a semiconductor memory, a magnetic disk, or an optical disk, or a computer in which the recording medium is set, to execute the program.
- DESCRIPTION OF SYMBOLS 10 ... Medium recognition apparatus, 20 ... Table, 30 ... Image reading part, 40 ... Analog-digital converter (A / D converter), 50 ... Image memory, 60, 60A ... Data Processing unit, 610... Edge enhancement unit, 620... Binarization processing unit, 630... Projection generation unit, 640 .. end point detection unit, 650, 650A .. evaluation value acquisition unit, 660. 660A ... rotation angle determination unit, 670 ... information recognition unit, RTBL ... angle reference table, 100 ... card (rectangular medium), 110 ... information.
- a / D converter Analog-digital converter
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
- Character Input (AREA)
Abstract
媒体認識装置10のデータ処理部60は、処理対象画像の水平軸および垂直軸のそれぞれに対して輝度投影による画素値の射影を生成する射影生成部630、水平軸への射影および垂直軸への射影のそれぞれについて、その射影波形の台形パターンの両端点を決定する端点検出部640、水平軸に関する射影波形の台形パターンの両端点の間隔Wおよび、垂直軸に関する台形パターンの両端点の間隔Hを求め、そのデータと、カード100の幅と高さを用いて所定の評価値を取得する評価値取得部650、および評価値取得部650による評価値に基づいてカード100の回転角度を決定する回転角度決定部660と、を有する。
Description
本発明は、矩形状した媒体上の情報を認識する媒体認識装置および媒体認識方法である。
デジタル画像を用いて、処理対象となる矩形状した媒体上の直線あるいは直線で構成される特定の幾何学図形を検出し、認識する手法として、ハフ(Hough)変換がよく知られており、さまざまな産業分野で広く用いられている。
この方法は、一般には、認識対象図形を含む画像にノイズ除去やエッジ強調等の前処理を施したのち、抽出された画像パターンに対してハフ変換を施して累積点に変換し、その後、最大の累積度数をもつ累積点に関して逆ハフ変換を行い、画像空間上の直線を求める、という手順をとる(たとえば、特許文献1,2参照)。
特許文献1に記載の技術では、半導体デバイスの製造工程におけるワークの位置決めについて、位置座標をハフ変換を用いて検出し、位置補正に用いるものであるが、最大累積点を求めて、不要パターン除去を行った後、逆ハフ変換して基準となる直線を求め、ワークの角度補正を得るようにしている。
特許文献2に記載の技術では、多角形形状の形状特徴量を算出する場合に、物体の周囲の一部を構成する線分を推定するためにハフ変換を適用している。極座標に変換される点の個数を数え上げ、頻度が多い極座標を選択する。選択された極座標毎に逆ハフ変換で直線の式を算出するとともに回転角の検出を行っている。
しかしながら、特許文献1および特許文献2に示す技術では、ハフ空間上の最大累積点を求めている。このように、ハフ空間上の最大累積点を求めることは、二次元空間上の極大点を求めることであり、不要パターンに起因するノイズを除去する必要があるなど、一般には容易ではなく、かつ演算負荷が大きい。そのため高速処理を行おうとすると、高性能なプロセッサを用いる必要があり、コスト上昇につながるという問題がある。
そこで、上記問題点を鑑みて、本発明の課題は、演算負荷を軽減することが可能な媒体認識装置および媒体認識方法を提供することにある。
上記した課題を解決するため、本発明の画像処理装置は、デジタル画像を用いて、矩形状した媒体の画像上の回転角度を検出し、検出した回転角度を参照して矩形状した媒体上の情報を認識する媒体認識装置であって、処理対象画像の水平軸および垂直軸のそれぞれに対して輝度投影による画素値の射影を生成する射影生成部と、前記水平軸への射影および前記垂直軸への射影のそれぞれについて、その射影波形の射影パターンの両端点を決定する端点検出部と、前記水平軸に関する射影波形の射影パターンの両端点の間隔および前記垂直軸に関する射影波形の射影パターンの両端点の間隔を求め、その間隔データと前記矩形状した媒体の幅と高さに関連付けて所定の評価値を取得する評価値取得部と、前記評価値取得部による評価値に基づいて媒体の回転角度を決定する回転角度決定部とを有することを特徴とする。
本発明では、水平軸および垂直軸への射影のそれぞれについて、その射影波形の射影パターンの両端点を決定する端点検出部と、水平軸および垂直軸に関する射影波形の射影パターンの両端点の間隔を求め、その間隔データと矩形状した媒体の幅と高さに関連付けて所定の評価値を取得する評価値取得部と、前記評価値取得部による評価値に基づいて矩形状した媒体の回転角度を決定する回転角度決定部とを有し、射影波形パターンの間隔データと矩形状した媒体の幅と高さに関連付けされた評価値に基づいて矩形状した媒体の回転角度を決定しているので、従来のようなハフ変換を用いることなく、演算負荷を低減することが可能になる。すなわち、従来のように、ハフ変換行列から極大点を解析的に抽出する必要もない。
本発明において、前記回転角度決定部は、前記評価値取得部による評価値に基づいて、あらかじめ設定しておいた参照テーブルから評価値に対応する角度を検索し、その結果をもって矩形状した媒体の回転角度とすることが好ましい。
このように構成すると、あらかじめ設定しておいた参照テーブルから評価値に対応する角度を検索し、矩形状した媒体の回転角度を決定しているので、さらに演算負荷を軽減することが可能となる。
本発明において、前記評価値取得部は、前記矩形状した媒体の幅と前記水平軸に関する射影波形の射影パターンの両端点の間隔に基づく第1値と前記矩形状した媒体の高さと前記垂直軸に関する射影波形の射影パターンの両端点の間隔に基づく第2値との差に応じた評価値を求めることが好ましい。
このように構成すると、高い精度で評価値を取得することができる。
本発明において、前記評価値取得部は、前記矩形状した媒体の幅と前記水平軸に関する射影波形の射影パターンの両端点の間隔に基づく第1値と前記矩形状した媒体の高さと前記垂直軸に関する射影波形の射影パターンの両端点の間隔に基づく第2値との差に応じた第1評価値と、前記認識対象媒体の高さと前記水平軸に関する射影波形の射影パターンの両端点の間隔に基づく第3値と前記認識対象媒体の幅と前記垂直軸に関する射影波形の射影パターンの両端点の間隔に基づく第4値との差に応じた第2評価値との割合に応じて回転角度を求め、前記回転角度決定部は、前記評価値取得部による評価値としての回転角度を媒体の回転角度として決定することが好ましい。
このように構成すると、演算負荷が若干大きくなるものの、実際の回転角度を高い精度で取得することが可能となる。
また、本発明の画像処理方法は、デジタル画像を用いて、矩形状した媒体の画像上の回転角度を検出する画像処理方法であって、処理対象画像の水平軸および垂直軸のそれぞれに対して輝度投影による画素値の射影を生成する射影生成ステップと、前記水平軸への射影および前記垂直軸への射影のそれぞれについて、その射影波形の射影パターンの両端点を決定する端点検出ステップと、前記水平軸に関する射影波形の射影パターンの両端点の間隔および前記垂直軸に関する射影波形の射影パターンの両端点の間隔を求め、その間隔データと認識対象媒体の幅と高さに関連付けて所定の評価値を取得する評価値取得ステップと、前記評価値取得ステップによる評価値に基づいて媒体の回転角度を決定する回転角度決定ステップとを有することを特徴とする。
本発明では、水平軸および垂直軸への射影のそれぞれについて、その射影波形の射影パターンの両端点を決定する端点検出ステップと、水平軸および垂直軸に関する射影波形の射影パターンの両端点の間隔を求め、その間隔データと矩形状した媒体の幅と高さに関連付けて所定の評価値を取得する評価値取得ステップと、前記評価値取得部による評価値に基づいて矩形状した媒体の回転角度を決定する回転角度決定ステップとを有し、射影波形パターンの間隔データと矩形状した媒体の幅と高さに関連付けされた評価値に基づいて矩形状した媒体の回転角度を決定しているので、従来のようなハフ変換を用いることなく、演算負荷を低減することが可能になる。すなわち、従来のように、ハフ変換行列から極大点を解析的に抽出する必要もない。
本発明において、前記回転角度決定ステップは、前記評価値取得ステップによる評価値に基づいて、あらかじめ設定しておいた参照テーブルから評価値に対応する角度を検索し、その結果をもって矩形状した媒体の回転角度とすることが好ましい。
このように構成すると、あらかじめ設定しておいた参照テーブルから評価値に対応する角度を検索し、矩形状した媒体の回転角度を決定しているので、さらに演算負荷を軽減することが可能となる。
本発明において、前記評価値取得ステップは、前記矩形状した媒体の幅と前記水平軸に関する射影波形の射影パターンの両端点の間隔に基づく第1値と前記矩形状した媒体の高さと前記垂直軸に関する射影波形の射影パターンの両端点の間隔に基づく第2値との差に応じた評価値を求めることが好ましい。
このように構成すると、高い精度で評価値を取得することができる。
本発明において、前記評価値取得ステップは、前記矩形状した媒体の幅と前記水平軸に関する射影波形の射影パターンの両端点の間隔に基づく第1値と前記矩形状した媒体の高さと前記垂直軸に関する射影波形の射影パターンの両端点の間隔に基づく第2値との差に応じた第1評価値と、前記矩形状した媒体の高さと前記水平軸に関する射影波形の射影パターンの両端点の間隔に基づく第3値と前記矩形状した媒体の幅と前記垂直軸に関する射影波形の射影パターンの両端点の間隔に基づく第4値との差に応じた第2評価値との割合に応じて回転角度を求め、前記回転角度決定ステップは、前記評価値取得ステップによる評価値としての回転角度を矩形状した媒体の回転角度として決定することが好ましい。
このように構成すると、演算負荷が若干大きくなるものの、実際の回転角度を高い精度で取得することが可能となる。
本発明によれば、媒体認識装置および媒体認識方法は、射影波形パターンの間隔データと矩形状した媒体の幅と高さに関連付けされた評価値に基づいて矩形状した媒体の回転角度を決定しているので、従来のようなハフ変換を用いることなく、演算負荷を低減することが可能になる。
以下、本発明の実施形態を図面に関連付けて説明する。
(第1の実施形態)
図1は、本発明の第1の実施形態に係る媒体認識装置の主要部の構成例を示す図である。図2は、矩形状した媒体の一例であるカードの外観を模式的に示す図である。
図1は、本発明の第1の実施形態に係る媒体認識装置の主要部の構成例を示す図である。図2は、矩形状した媒体の一例であるカードの外観を模式的に示す図である。
本実施形態に係る媒体認識装置10は、デジタル画像を用いて、矩形状した媒体100の画像上の回転角度を検出し、検出した回転角度を参照して矩形状した媒体100上に記録されている文字あるいはバーコード等の情報110を認識する。
矩形状した媒体100は、JISに準拠している一般的なカード(以下、「カード」という。)である。このカード100は、矩形(長辺と短辺とを有する長方形)しており、たとえば、幅(a)126mm,高さ(b)80mm,厚み0.76mmというサイズのプラスチックカードである。なお、矩形状した媒体は、上述したカードに限定されるものではなく、たとえば、幅86mm,高さ54mm,厚み0.76mmというサイズのプラスチックカードでもよい。また、カードに限定されるものではなく、IDカードやパスポートブック、あるいは運転免許証などでもよい。なお、本実施形態では、図2において、カード100の幅方向をX軸方向としている。このX軸方向に直交する方向をY軸方向とする。また、本実施形態では、説明を簡単にするために、図2に示すように、情報(たとえばOCR文字)記録領域120に形成されている文字列等の情報110の方向、すなわち、文字が並んでいる方向をX軸方向としている。そして、X軸方向に直交する方向をY軸方向としている。具体的には、文字が並んでいる方向と直交する方向はY軸方向である。
図1に示すように、媒体認識装置10は、カード100が載置されるテーブル20、画像データ入力部としての画像読取部30、アナログデジタルコンバータ(A/Dコンバータ)40、画像メモリ50、およびデータ処理部60を有している。
画像読取部30は、光を検出して電荷を発生させる光電変換素子を用いた固体撮像装置(イメージセンサ)としてのCCD(Charge Coupled Device)イメージセンサ、イメージセンサの画素領域に入射光を導く(被写体像を結像する)光学系(レンズ等)を有し、テーブル20上に載置され、照明光源31で照明されるカード100の全体を含む所定の領域を撮像する。なお、固体撮像装置(イメージセンサ)として、CMOS(Complementary Metal Oxide Semiconductor)イメージセンサを用いてもよい。
A/Dコンバータ40は、画像読取部30によって撮像されたカード100を含む画像をデジタル画像データに変換し、画像メモリ50に格納する。なお、A/Dコンバータ40は、画像読取部30にその機能を含ませることも可能である。
画像メモリ50は、画像読取部30で撮像されたOCR文字列等の情報110を含むカード100のデジタル化された画像データを記憶(格納)する。画像メモリ50に格納される原画像は、複数の画素がマトリクス状に配列されて形成され、具体的には、図示していないが、X軸方向にM行、Y軸方向にN列の画素が配置されている。各画素はそれぞれ画素値(輝度値)を有する。本実施形態では、各画素値は、たとえば8ビットで表現すると0~255の間のいずれかの値をとり、画素値は黒に近いほど小さく、白に近いほど大きな値をとる。なお、この画像メモリ50は、RAM,SDRAM,DDRSDRAM,RDRAMなど、画像データを記憶しうるものであれば如何なるものであってもよい。
データ処理部60は、デジタル画像を用いて、カード100の画像上の回転角度を検出し、検出した回転角度を参照してカード100上に記録されている文字あるいはバーコード等の情報110を認識する機能を有する。データ処理部60は、画像処理装置10の全体的な制御を司るCPU等の一部として構成される。
[データ処理部60の各部の構成および機能]
次に、データ処理部60の各部の基本的な構成および機能について説明する。
データ処理部60は、画像メモリ50から多値化された画像データ(多階調の濃淡画像、たとえば、256階調)を読み出す。
次に、データ処理部60の各部の基本的な構成および機能について説明する。
データ処理部60は、画像メモリ50から多値化された画像データ(多階調の濃淡画像、たとえば、256階調)を読み出す。
図3は、本第1の実施形態に係る媒体認識装置10におけるデータ処理部60の構成例を示すブロック図である。図4は、カードを撮像した画像の一例を示す図である。図5は、図4の画像にエッジ強調処理、二値化処理を行った後の画像の一例を示す図である。
データ処理部60は、エッジ強調部610、二値化処理部620、射影生成部630、端点検出部640、評価値取得部650、回転角度決定部660、情報認識部670、および角度参照テーブルRTBLを有する。
ここでは、図4に示すような、画像空間上に描かれた長方形を例にあげて、回転角度の検出処理およびカード100上の情報の認識処理について説明する。図4の長方形はカード100を撮像した画像IMGを例示しているが、画像IMGは撮像条件によってノイズやひずみが存在することがあり、前処理段階でノイズ除去処理が行われることが多い。そのうえでエッジ強調処理が行われ、さらに二値化処理が行われ、図5の画像IMGが得られる。この例では直線が黒に背景が白として二値化されている。直線が白、背景が黒という設定もされることもある。
以上を踏まえて、エッジ強調部610は、画像メモリ50から読み出された256階調の濃淡画像データに対するエッジ強調処理を施し、その画像を二値化処理部620に出力する。
二値化処理部620は、画像メモリ50から読み出され、エッジ強調処理が施された256階調の濃淡画像データに対する二値化処理を施し、その画像情報をたとえば端点検出部640に供給する。二値化処理部620は、適当な方法によってしきい値を求め、元の多値の濃淡画像を白黒2値の画像に変換する。
射影生成部630は、図6に例示するような、画像IMGの水平軸(X軸)および垂直軸(Y軸)のそれぞれに対して輝度投影による画素値の第1射影prjXおよび第2射影prjYを生成する。
ここで、第1射影prjXとは、X軸に垂直方向にラインごとの輝度値の平均をとったものである。第2射影prjYとは、Y軸に垂直方向にラインごとの輝度値の平均をとったものである。
図6は、本第1の実施形態に係る射影生成部による射影プロファイルを示す図である。図6(A)が処理対象画像を示し、図6(B)はX軸への第1射影prjXのプロファイルを示し、図6(C)はY軸への第2射影prjYのプロファイルを示している。なお、射影プロファイルは、射影波形の射影パターンに相当する。
本形態において、第1射影prjXには出力が増加し始める点Xiとして左右に2個の端点X1(=30)、X2(=184)が存在し、第1射影prjXは台形状(台形パターン)に形成されている。第2射影prjYには出力が増加し始める点Yiとして上下に2個の端点Y1(=20)、Y2(=143)が存在し、第2射影prjYは台形状(台形パターン)に形成されている。
端点検出部640は、X軸(水平軸)への第1射影prjXおよびY軸(垂直軸)への第2射影prjYのそれぞれについて、その射影波形の射影パターン(射影プロファイル)の両端点を決定する。本形態では、端点検出部640は、第1射影prjXについては2個の端点X1(=30)、X2(=184)を決定し、第2射影prjYについては2個の端点Y1(=20)、Y2(=143)を決定する。
評価値取得部650は、X軸(水平軸)に関する第1射影prjXの射影波形の射影パターンの両端点X1,X2の間隔W(=X2-X1)およびY軸(垂直軸に関する第2射影prjYの射影波形の射影パターンの両端点Y1、Y2の間隔H(=Y2-Y1)を求め、その間隔データW,Hと認識対象媒体100の幅aと高さbに関連付けて所定の評価値を取得する。
図7は、図4の画像にエッジ強調処理、二値化処理を行った後の画像に対して評価値取得に適用される各射影パターンの間隔W,H、カード100の幅aと高さbの幾何学的関係を示す図である。この図7の各射影パターンの間隔W,H、カード100の幅aと高さbの幾何学的関係は、たとえば端点検出部640、評価値取得部650等において参照される。
評価値取得部650は、カード100の幅aとX軸(水平軸)に関する第1射影prjXの射影波形の射影パターンの両端点X1,X2の間隔Wに基づく第1値(a・W)とカード100の高さbとY軸(垂直軸)に関する第2射影prjYの射影波形の射影パターンの両端点Y1,Y2の間隔Hに基づく第2値(b・H)との差(a・W-b・H)に応じた評価値を求める。評価値取得部650は、取得した評価値を回転角度決定部660に供給する。
回転角度決定部660は、評価値取得部650による評価値に基づいてカード100の回転角度ν(θ)を決定する。回転角度決定部660は、評価値取得部650による評価値に基づいて、あらかじめ設定しておいた角度参照テーブルRTBLから評価値に対応する角度を検索し、その結果をもってカード100の回転角度として決定する。
情報認識部670は、回転角度決定部660で決定された回転角度ν(θ)を参照してカード100上の情報110の認識処理を行う。たとえば、情報認識部670は、図4または図5の画像データからカード100における情報記録領域120の画像上の傾きを、検出された回転角度ν(θ)に応じて修正(補正)し、修正後の画像における情報記録領域120の情報、たとえば文字認識処理を行う。
文字認識処理においては、撮像された画像内の文字列の文字間の区切り位置を検索して文字を認識する。
情報認識部670においては、たとえば、二値化しきい値に基づき文字区切り位置が求められる。文字切り出し処理が終了すると、認識対象となっている文字の外接矩形領域(上下左右の座標値)が求められる。そして、特徴抽出処理として、上述した外接矩形領域を任意のサブ領域に分割、たとえば1個の外接矩形領域を5×5の領域に分割し、そのうち1個の領域をサブ領域とし、各サブ領域において、サブ領域内の全画素数に占める黒画素数の割合が求められ、それらを要素とする特徴ベクトルが生成される。次いで、求められた特徴ベクトルと、あらかじめこの記録媒体で使用される全文字について求めておいた基準特徴ベクトルとが比較されて、類似度(たとえば正規化相関係数)が最も高いものをその文字が該当する候補文字に設定される。なお、基準特徴ベクトルは、あらかじめ格納されているものであって、特徴比較が行われる際に、格納部から類似度が高い文字のデータが読み出され、特徴比較が行われる。そして、基本的に、特徴比較によって設定された候補文字が、記録媒体に用いられた文字として認識される。
ここで、本第1の実施形態に係るデータ処理部60の処理を回転角度検出処理の具体例を中心に、図4~図8に関連付けて説明する。図8は、本第1の実施形態に係るデータ処理部60の処理を回転角度検出処理の具体例を中心に説明するためのフローチャートである。
データ処理部60は、エッジ強調部610で、画像メモリ50から読み出された256階調の濃淡画像データに対してエッジ強調処理が施され(ステップST1)、二値化処理部620で、画像メモリ50から読み出され、エッジ強調処理が施された256階調の濃淡画像データに対して二値化処理され(ステップST2)、その画像情報は端点検出部640に供給される。
次に、射影生成部630において、図6に例示するような、処理対象画像IMGのX軸(水平軸)およびY軸(垂直軸)のそれぞれに対して輝度投影による画素値の第1射影prjXおよび第2射影prjYが生成される(ステップST3)。前述したように、第1射影prjXとは、X軸に垂直方向にラインごとの輝度値の平均をとったものである。第2射影prjYとは、Y軸に垂直方向にラインごとの輝度値の平均をとったものである。
端点検出部640において、X軸(水平軸)への第1射影prjXおよびY軸(垂直軸)への第2射影prjYのそれぞれについて、その射影波形の射影パターン(射影プロファイル)の両端点が検出される(ステップST4)。第1射影prjXにおいて、出力値が増加し始める点Xiが求められる。図6(B)に示すように、点Xiは左右に2個存在し、それを左から順にX1,X2とすると、この例ではX1=30,X2=184となる。同様に、第2prjYにおいて、出力値が増加し始める点Yjが求められる。点Yiは上下に2個存在し、それを上からY1,Y2とすると、この例ではY1=20,Y2=143となる。本形態では、端点検出部640では、第1射影prjXについては2個の端点X1(=30)、X2(=184)が決定され、第2射影prjYについては2個の端点Y1(=20)、Y2(=143)が決定される。
評価値取得部650において、X軸(水平軸)に関する第1射影prjXの射影波形の射影パターンの両端点X1,X2の間隔W(=X2-X1)およびY軸(垂直軸に関する第2射影prjYの射影波形の射影パターンの両端点Y1、Y2の間隔H(=Y2-Y1)が求められ、その間隔データW,Hとカード100の幅aと高さbに関連付けて所定の評価値が取得される(ステップST5)。
評価値取得部650では、カード100の幅aとX軸(水平軸)に関する第1射影prjXの射影波形の射影パターンの両端点X1,X2の間隔Wに基づく第1値(a・W)と認識対象媒体100の高さbとY軸(垂直軸)に関する第2射影prjYの射影波形の射影パターンの両端点Y1,Y2の間隔Hに基づく第2値(b・H)との差(a・W-b・H)に応じた評価値が求められる。
回転角度決定部660において、評価値取得部650による評価値に基づいてカード100の回転角度ν(θ)が決定される。回転角度決定部660は、評価値取得部650による評価値に基づいて、あらかじめ設定しておいた参照テーブルRTBLから評価値に対応する角度が検索され(ステップST6)、その結果をもって媒体の回転角度として決定される(ステップST7)。
評価値取得部650では、まず図7において、画像内の長方形の長辺長さをa、短辺長さをbとし、
とおくと、幾何学的考察から、次式が得られる。
式3と式4を変形して、次式を得る。
ゆえに次式より角度θが求められる。
また、式3、式4より、次式が導かれる。
よって、角度θは次式によっても求められる。
ここで、a=126、b=80、W=184-30=154、H=143-20=123を式7に代入すると、θ=18.4が得られる。
角度決定は、式7または式6によって算術的に行ってもよいが、本第1の実施形態においては、機器への実装を考慮すると、tan-1の計算はコストを要するため、次に示すような角度決定処理を行うように構成されている。
式5の左辺をν(θ)とおくと、ν(θ)はθの関数であり、たとえば10度刻みで、ν(θ)を計算し、次のような数値リストを作成し、角度参照テーブルRTBLとしてメモリ等に保存しておく。
式5の右辺に実際のW,Hの値を代入して計算した結果、
aW - bH =8956
となったとすると、この値はν(20)に近いので、回転角度はθ=20°であることがわかる。すなわち、ν(10)=(a2-b2)cos10°=(1262-802)*0.98=9332となる。そのため、今回求めた値8956は、ν(10)=9332よりも、ν(20)=8907に近い値となっている。
CPUの性能も飛躍的に向上しているので、直接cos-1から求めてもよいが、上述の方法も実装条件に制約がある場合には有効な代替手段となりうる。
そして、情報認識部670において、回転角度決定部660で決定された回転角度ν(θ)を参照してカード100上の情報110の認識処理が行われる(ステップST8)。たとえば、情報認識部670では、図4または図5の画像データからカード100における情報記録領域120の画像上の傾きが、検出された回転角度ν(θ)に応じて修正され、修正後の画像における情報記録領域120の情報、たとえば文字認識処理が行われる。
このように、データ処理部60は、デジタル画像を用いて、カード100の画像上の回転角度を検出するに際し、処理対象画像のX軸(水平軸)および垂直軸のそれぞれに対して輝度投影による画素値の射影を生成する射影生成部630、X軸(水平軸)への射影およびY軸(垂直軸)への射影のそれぞれについて、その射影波形の台形パターンの両端点を決定する端点検出部640、X軸(水平軸)に関する射影波形の台形パターンの両端点の間隔Wおよび、Y軸(垂直軸)に関する台形パターンの両端点の間隔Hを求め、そのデータと、対象媒体の幅と高さを用いて所定の評価値を取得する評価値取得部650、およびこの評価値をキーとして、あらかじめ設定しておいた参照テーブルRTBLから評価値に対応する角度を検索し、その結果をもってカード100の回転角度とする回転角度決定部660を有している。このように構成すると、ハフ変換行列から極大点を解析的に抽出する、ハフ変換を用いることなく、従来よりも演算負荷を軽減でき、低コストでカードの回転角度を検出できる。
[媒体認識装置10の全体的な動作]
次に、本第1の実施形態に係る媒体認識装置10の全体的な動作について図9に関連付けて説明する。図9は、本第1の実施形態に係る媒体認識装置10の全体的な動作を説明するためのフローチャートである。
次に、本第1の実施形態に係る媒体認識装置10の全体的な動作について図9に関連付けて説明する。図9は、本第1の実施形態に係る媒体認識装置10の全体的な動作を説明するためのフローチャートである。
まず、カード100がテーブル20に載置される(ステップST11)。
この状態で、画像読取部30において、照明光源31で照明されるカード100の全体を含む所定の領域が撮像される(ステップST12)。そして、A/Dコンバータ40において画像読取部30によって撮像されたカード100を含む画像がデジタル画像データに変換され、画像メモリ50に格納される(ステップST13)。
次いで、データ処理部60において、画像メモリ50に格納されたデジタル画像を用いて、カード100の画像上の回転角度が検出される(ステップST14)。
この回転角度の検出処理は、主として以下の処理ステップで行われる。
最初に処理対象画像のX軸(水平軸)およびY軸(垂直軸)のそれぞれに対して輝度投影を行って射影を形成する(射影生成ステップ)。次に,X軸(水平軸)への射影および垂直軸への射影のそれぞれについて、その両端点を決定する(端点検出ステップ)。さらにX軸(水平軸)に関する両端点の間隔Wおよび、Y軸(垂直軸)に関する両端点の間隔Hを求め、そのデータと、あらかじめわかっている対象媒体の幅と高さを用いて所定の評価値を取得(計算)する(評価値取得ステップ)。最後に、この評価値をキーとして、あらかじめ用意しておいた参照テーブルRTBLから評価値に対応する角度を検索し、その結果をもって媒体の回転角度とする(角度決定ステップ)。
最初に処理対象画像のX軸(水平軸)およびY軸(垂直軸)のそれぞれに対して輝度投影を行って射影を形成する(射影生成ステップ)。次に,X軸(水平軸)への射影および垂直軸への射影のそれぞれについて、その両端点を決定する(端点検出ステップ)。さらにX軸(水平軸)に関する両端点の間隔Wおよび、Y軸(垂直軸)に関する両端点の間隔Hを求め、そのデータと、あらかじめわかっている対象媒体の幅と高さを用いて所定の評価値を取得(計算)する(評価値取得ステップ)。最後に、この評価値をキーとして、あらかじめ用意しておいた参照テーブルRTBLから評価値に対応する角度を検索し、その結果をもって媒体の回転角度とする(角度決定ステップ)。
そして、データ処理部60において、検出した回転角度を参照してカード100上に記録されている文字あるいはバーコード等の情報110が認識される(ステップST15)。
(本形態の主な効果)
以上説明したように、媒体認識装置10は、デジタル画像を用いて、矩形状した媒体としてのカード100の画像上の回転角度を検出するに際し、ハフ変換行列から極大点を解析的に抽出する代わりに、処理対象画像のX軸(水平軸)およびY軸(垂直軸)のそれぞれに対して輝度投影による画素値の射影を生成する射影生成部630、X軸(水平軸)への射影およびY軸(垂直軸)への射影のそれぞれについて、その射影波形の台形パターンの両端点を決定する端点検出部640、X軸(水平軸)に関する射影波形の台形パターンの両端点の間隔Wおよび、Y軸(垂直軸)に関する台形パターンの両端点の間隔Hを求め、そのデータと、カード100の幅と高さを用いて所定の評価値を取得する評価値取得部650、およびこの評価値をキーとして、あらかじめ設定しておいた参照テーブルRTBLから評価値に対応する角度を検索し、その結果をもってカード100の回転角度とする回転角度決定部660を有している。
以上説明したように、媒体認識装置10は、デジタル画像を用いて、矩形状した媒体としてのカード100の画像上の回転角度を検出するに際し、ハフ変換行列から極大点を解析的に抽出する代わりに、処理対象画像のX軸(水平軸)およびY軸(垂直軸)のそれぞれに対して輝度投影による画素値の射影を生成する射影生成部630、X軸(水平軸)への射影およびY軸(垂直軸)への射影のそれぞれについて、その射影波形の台形パターンの両端点を決定する端点検出部640、X軸(水平軸)に関する射影波形の台形パターンの両端点の間隔Wおよび、Y軸(垂直軸)に関する台形パターンの両端点の間隔Hを求め、そのデータと、カード100の幅と高さを用いて所定の評価値を取得する評価値取得部650、およびこの評価値をキーとして、あらかじめ設定しておいた参照テーブルRTBLから評価値に対応する角度を検索し、その結果をもってカード100の回転角度とする回転角度決定部660を有している。
したがって、媒体認識装置10によれば、以下の効果を得ることができる。
媒体認識装置10では、ハフ変換行列から極大点を解析的に抽出する必要もなく、ハフ変換を用いることなく、従来よりも演算負荷を低減し、カード100の回転角度を検出することが可能となる。すなわち、画像処理装置10は、ハフ変換行列から極大点を解析的に抽出する必要もなく、ハフ変換を用いることなく、従来よりも低コストで処理時間を短く、カード100の回転角度を検出することが可能となる。
媒体認識装置10では、ハフ変換行列から極大点を解析的に抽出する必要もなく、ハフ変換を用いることなく、従来よりも演算負荷を低減し、カード100の回転角度を検出することが可能となる。すなわち、画像処理装置10は、ハフ変換行列から極大点を解析的に抽出する必要もなく、ハフ変換を用いることなく、従来よりも低コストで処理時間を短く、カード100の回転角度を検出することが可能となる。
また、回転角度決定部660は、評価値取得部650による評価値に基づいて、あらかじめ設定しておいた参照テーブルから評価値に対応する角度を検索し、その結果をもってカード100の回転角度を決定している。これにより、さらに演算負荷を軽減することが可能になる。すなわち、演算負荷を軽減でき、安価な処理系を実現することが可能となる。
また、評価値取得部650は、カード100の幅aとX軸(水平軸)に関する射影波形の射影パターンの両端点X1,X2の間隔Wに基づく第1値(a・W)とカード100の高さbとY軸(垂直軸)に関する射影波形の射影パターンの両端点Y1,Y2の間隔Hに基づく第2値(b・H)との差(a・W-b・H)に応じた評価値を求めることから、高い精度で評価値を取得することが可能となる。
(第2の実施形態)
図10は、本第2の実施形態に係る媒体認識装置におけるデータ処理部の構成例を示すブロック図である。
図10は、本第2の実施形態に係る媒体認識装置におけるデータ処理部の構成例を示すブロック図である。
本第2の実施形態のデータ処理部60Aが上述した第1の実施形態のデータ処理部60と異なる点は以下のとおりである。
第1の実施形態のデータ処理部60では、回転角度決定部660は、評価値取得部650による評価値に基づいて、あらかじめ設定しておいた参照テーブルから評価値に対応する角度を検索し、その結果をもってカード100の回転角度としている。これに対して、本第2の実施形態のデータ処理部60Aでは、評価値取得部650Aが計算により回転角度ν(θ)を求め、回転角度決定部660Aは、評価値取得部650Aによる評価値としての回転角度をカード100の回転角度として決定する。
第1の実施形態のデータ処理部60では、回転角度決定部660は、評価値取得部650による評価値に基づいて、あらかじめ設定しておいた参照テーブルから評価値に対応する角度を検索し、その結果をもってカード100の回転角度としている。これに対して、本第2の実施形態のデータ処理部60Aでは、評価値取得部650Aが計算により回転角度ν(θ)を求め、回転角度決定部660Aは、評価値取得部650Aによる評価値としての回転角度をカード100の回転角度として決定する。
評価値取得部650Aは、上述した式7に示すように(下記式7)、カード100の幅aとX軸(水平軸)に関する射影波形の射影パターンの両端点X1,X2の間隔Wに基づく第1値(a・W)とカード100の高さbとY軸(垂直軸)に関する射影波形の射影パターンの両端点Y1,Y2の間隔Hに基づく第2値(b・H)との差(a・W-b・H)に応じた第1評価値と、認識対象媒体100の高さbとX軸(水平軸)に関する射影波形の射影パターンの両端点X1,X2の間隔Wに基づく第3値(b・W)とカード100の幅aとY軸(垂直軸)に関する射影波形の射影パターンの両端点Y1,Y2の間隔Hに基づく第4値(a・H)との差に応じた第2評価値との割合に応じて回転角度を求める。
本第2の実施形態によれば、演算負荷が若干大きくなるものの、実際の回転角度を高い精度で取得することができ、回転角度決定処理の高速化を図ることが可能となる。
(第3の実施形態)
図11は、本第3の実施形態に係る射影生成部による射影プロファイルを示す図である。図11(A)が処理対象画像を示し、図11(B)はX軸への第1射影prjXのプロファイルを示し、図11(C)はY軸への第2射影prjYのプロファイルを示している。
図11は、本第3の実施形態に係る射影生成部による射影プロファイルを示す図である。図11(A)が処理対象画像を示し、図11(B)はX軸への第1射影prjXのプロファイルを示し、図11(C)はY軸への第2射影prjYのプロファイルを示している。
本第3の実施形態が上述した第1および第2の実施形態と異なる点は、以下のとおりである。
第1および第2の実施形態における射影生成の対象画像は、カード100が白で背景が黒に設定されている。これに対して、本第3の実施形態における射影生成の対象画像は、カード100が黒で背景が白に設定されている。
本第2の実施形態によれば、このような画像であっても、第1の実施形態と同様の射影プロファイルを得ることができ、上述した第1および第2の実施形態と同様の効果を得ることが可能となる。
(応用例)
本実施形態の媒体認識装置10では、ハフ変換を用いることなく、画像の水平軸・垂直軸の射影を用いた直線・図形パターン角度の検出方法は、単独で用いることのほか、ハフ変換を使った直線・図形パターン検出処理において、累積点を探索する処理に先行して、おおよその角度を求めておく、といった使い方も可能である。
本実施形態の媒体認識装置10では、ハフ変換を用いることなく、画像の水平軸・垂直軸の射影を用いた直線・図形パターン角度の検出方法は、単独で用いることのほか、ハフ変換を使った直線・図形パターン検出処理において、累積点を探索する処理に先行して、おおよその角度を求めておく、といった使い方も可能である。
これにより、回転角度の検出精度を高く保持することが可能となる。
なお、以上詳細に説明した方法は、上記手順に応じたプログラムとして形成し、CPU等のコンピュータで実行するように構成することも可能である。また、このようなプログラムは、半導体メモリ、磁気ディスク、光ディスク等の記録媒体、この記録媒体をセットしたコンピュータによりアクセスし上記プログラムを実行するように構成可能である。
10・・・媒体認識装置、20・・・テーブル、30・・・画像読取部、40・・・アナログデジタルコンバータ(A/Dコンバータ)、50・・・画像メモリ、60,60A・・・データ処理部、610・・・エッジ強調部、620・・・二値化処理部、630・・・射影生成部、640・・・端点検出部、650,650A・・・評価値取得部、660,660A・・・回転角度決定部、670・・・情報認識部、RTBL・・・角度参照テーブル、100・・・カード(矩形状した媒体)、110・・・情報。
Claims (8)
- デジタル画像を用いて、矩形状した媒体の画像上の回転角度を検出し、検出した回転角度を参照して前記矩形状した媒体上の情報を認識する媒体認識装置であって、
処理対象画像の水平軸および垂直軸のそれぞれに対して輝度投影による画素値の射影を生成する射影生成部と、
前記水平軸への射影および前記垂直軸への射影のそれぞれについて、その射影波形の射影パターンの両端点を決定する端点検出部と、
前記水平軸に関する射影波形の射影パターンの両端点の間隔および前記垂直軸に関する射影波形の射影パターンの両端点の間隔を求め、その間隔データと前記矩形状した媒体の幅と高さに関連付けて所定の評価値を取得する評価値取得部と、
前記評価値取得部による評価値に基づいて前記矩形状した媒体の回転角度を決定する回転角度決定部と、を有することを特徴とする媒体認識装置。 - 前記回転角度決定部は、前記評価値取得部による評価値に基づいて、あらかじめ設定しておいた参照テーブルから評価値に対応する角度を検索し、その結果をもって前記矩形状した媒体の回転角度とすることを特徴とする請求項1記載の媒体認識装置。
- 前記評価値取得部は、前記矩形状した媒体の幅と前記水平軸に関する射影波形の射影パターンの両端点の間隔に基づく第1値と前記矩形状した媒体の高さと前記垂直軸に関する射影波形の射影パターンの両端点の間隔に基づく第2値との差に応じた評価値を求めることを特徴とする請求項2記載の媒体認識装置。
- 前記評価値取得部は、前記矩形状した媒体の幅と前記水平軸に関する射影波形の射影パターンの両端点の間隔に基づく第1値と前記矩形状した媒体の高さと前記垂直軸に関する射影波形の射影パターンの両端点の間隔に基づく第2値との差に応じた第1評価値と、前記矩形状した媒体の高さと前記水平軸に関する射影波形の射影パターンの両端点の間隔に基づく第3値と前記矩形状した媒体の幅と前記垂直軸に関する射影波形の射影パターンの両端点の間隔に基づく第4値との差に応じた第2評価値との割合に応じて回転角度を求め、
前記回転角度決定部は、前記評価値取得部による評価値としての回転角度を前記矩形状した媒体の回転角度として決定することを特徴とする請求項1記載の媒体認識装置。 - デジタル画像を用いて、矩形状した媒体の画像上の回転角度を検出し、検出した回転角度を参照して前記矩形状した媒体上の情報を認識する媒体認識方法であって、
処理対象画像の水平軸および垂直軸のそれぞれに対して輝度投影による画素値の射影を生成する射影生成ステップと、
前記水平軸への射影および前記垂直軸への射影のそれぞれについて、その射影波形の射影パターンの両端点を決定する端点検出ステップと、
前記水平軸に関する射影波形の射影パターンの両端点の間隔および前記垂直軸に関する射影波形の射影パターンの両端点の間隔を求め、その間隔データと前記矩形状した媒体の幅と高さに関連付けて所定の評価値を取得する評価値取得ステップと、
前記評価値取得ステップによる評価値に基づいて前記矩形状した媒体の回転角度を決定する回転角度決定ステップと、を有することを特徴とする媒体認識方法。 - 前記回転角度決定ステップは、前記評価値取得ステップによる評価値に基づいて、あらかじめ設定しておいた参照テーブルから評価値に対応する角度を検索し、その結果をもって前記矩形状した媒体の回転角度とすることを特徴とする請求項5記載の媒体認識方法。
- 前記評価値取得ステップは、前記矩形状した媒体の幅と前記水平軸に関する射影波形の射影パターンの両端点の間隔に基づく第1値と前記矩形状した媒体の高さと前記垂直軸に関する射影波形の射影パターンの両端点の間隔に基づく第2値との差に応じた評価値を求めることを特徴とする請求項6記載の媒体認識方法。
- 前記評価値取得ステップは、前記矩形状した媒体の幅と前記水平軸に関する射影波形の射影パターンの両端点の間隔に基づく第1値と前記矩形状した媒体の高さと前記垂直軸に関する射影波形の射影パターンの両端点の間隔に基づく第2値との差に応じた第1評価値と、前記矩形状した媒体の高さと前記水平軸に関する射影波形の射影パターンの両端点の間隔に基づく第3値と前記矩形状した媒体の幅と前記垂直軸に関する射影波形の射影パターンの両端点の間隔に基づく第4値との差に応じた第2評価値との割合に応じて回転角度を求め、
前記回転角度決定ステップは、前記評価値取得ステップによる評価値としての回転角度を前記矩形状した媒体の回転角度として決定することを特徴とする請求項5記載の媒体認識方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17855951.4A EP3522115A4 (en) | 2016-09-29 | 2017-09-22 | MEDIA RECOGNITION DEVICE AND MEDIA RECOGNITION METHOD |
US16/337,401 US20190279392A1 (en) | 2016-09-29 | 2017-09-22 | Medium recognition device and medium recognition method |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016192187A JP2018055496A (ja) | 2016-09-29 | 2016-09-29 | 媒体認識装置および媒体認識方法 |
JP2016-192187 | 2016-09-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2018061997A1 true WO2018061997A1 (ja) | 2018-04-05 |
Family
ID=61762578
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2017/034184 WO2018061997A1 (ja) | 2016-09-29 | 2017-09-22 | 媒体認識装置および媒体認識方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20190279392A1 (ja) |
EP (1) | EP3522115A4 (ja) |
JP (1) | JP2018055496A (ja) |
WO (1) | WO2018061997A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019175534A (ja) * | 2018-03-29 | 2019-10-10 | 日本電産サンキョー株式会社 | 磁気情報読取装置および磁気情報読取装置の制御方法 |
CN111290582B (zh) * | 2020-02-29 | 2021-09-21 | 华南理工大学 | 一种基于改进型直线检测的投影交互区域定位方法 |
CN112229331B (zh) * | 2020-09-22 | 2022-01-07 | 南京理工大学 | 基于单目视觉的物体旋转角度与平移距离的测量方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08172300A (ja) * | 1994-10-19 | 1996-07-02 | Sanyo Electric Co Ltd | 部品位置認識装置 |
JPH1197512A (ja) | 1997-07-25 | 1999-04-09 | Nikon Corp | 位置決め装置及び位置決め方法並びに位置決め処理プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2006155126A (ja) * | 2004-11-29 | 2006-06-15 | Mitsubishi Heavy Ind Ltd | 車両番号認識装置 |
JP2006163821A (ja) * | 2004-12-07 | 2006-06-22 | Casio Comput Co Ltd | 撮影装置、画像処理装置、画像処理方法及びプログラム |
JP2010079643A (ja) | 2008-09-26 | 2010-04-08 | Kddi Corp | 情報端末装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2530955B2 (ja) * | 1990-12-27 | 1996-09-04 | インターナショナル・ビジネス・マシーンズ・コーポレイション | リ―ド付き部品の検査装置及び検査方法 |
US5422962A (en) * | 1992-03-19 | 1995-06-06 | Fujitsu Limited | Method and apparatus for extracting line segments from an image of an object |
US7650015B2 (en) * | 1997-07-22 | 2010-01-19 | Image Processing Technologies. LLC | Image processing method |
US6201901B1 (en) * | 1998-06-01 | 2001-03-13 | Matsushita Electronic Industrial Co., Ltd. | Border-less clock free two-dimensional barcode and method for printing and reading the same |
JP2000341501A (ja) * | 1999-03-23 | 2000-12-08 | Minolta Co Ltd | 画像処理装置および画像処理方法、ならびに画像処理プログラムを記録した記録媒体 |
US7380718B2 (en) * | 2004-12-21 | 2008-06-03 | Nidec Sankyo Corporation | Method for reading out symbol information and device for reading out symbol information |
JP2007306500A (ja) * | 2006-05-15 | 2007-11-22 | Sanyo Electric Co Ltd | 画像傾き補正装置及び画像傾き補正方法 |
US9547799B2 (en) * | 2008-07-17 | 2017-01-17 | Sharp Laboratories Of America, Inc. | Methods and systems for content-boundary detection |
US8873864B2 (en) * | 2009-12-16 | 2014-10-28 | Sharp Laboratories Of America, Inc. | Methods and systems for automatic content-boundary detection |
TWI439788B (zh) * | 2010-01-04 | 2014-06-01 | Ind Tech Res Inst | 投影校正系統及方法 |
US20120087537A1 (en) * | 2010-10-12 | 2012-04-12 | Lisong Liu | System and methods for reading and managing business card information |
CN102789658B (zh) * | 2012-03-02 | 2015-02-18 | 成都三泰电子实业股份有限公司 | 紫外防伪支票真伪验证方法 |
US9288362B2 (en) * | 2014-02-03 | 2016-03-15 | King Fahd University Of Petroleum And Minerals | Technique for skew detection of printed arabic documents |
CN105303189B (zh) * | 2014-07-29 | 2019-08-20 | 阿里巴巴集团控股有限公司 | 一种用于检测预定区域中特定标识图像的方法及装置 |
US11158057B2 (en) * | 2016-12-30 | 2021-10-26 | Huawei Technologies Co., Ltd. | Device, method, and graphical user interface for processing document |
-
2016
- 2016-09-29 JP JP2016192187A patent/JP2018055496A/ja not_active Withdrawn
-
2017
- 2017-09-22 US US16/337,401 patent/US20190279392A1/en not_active Abandoned
- 2017-09-22 WO PCT/JP2017/034184 patent/WO2018061997A1/ja unknown
- 2017-09-22 EP EP17855951.4A patent/EP3522115A4/en not_active Withdrawn
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH08172300A (ja) * | 1994-10-19 | 1996-07-02 | Sanyo Electric Co Ltd | 部品位置認識装置 |
JPH1197512A (ja) | 1997-07-25 | 1999-04-09 | Nikon Corp | 位置決め装置及び位置決め方法並びに位置決め処理プログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP2006155126A (ja) * | 2004-11-29 | 2006-06-15 | Mitsubishi Heavy Ind Ltd | 車両番号認識装置 |
JP2006163821A (ja) * | 2004-12-07 | 2006-06-22 | Casio Comput Co Ltd | 撮影装置、画像処理装置、画像処理方法及びプログラム |
JP2010079643A (ja) | 2008-09-26 | 2010-04-08 | Kddi Corp | 情報端末装置 |
Non-Patent Citations (1)
Title |
---|
See also references of EP3522115A4 |
Also Published As
Publication number | Publication date |
---|---|
US20190279392A1 (en) | 2019-09-12 |
EP3522115A1 (en) | 2019-08-07 |
JP2018055496A (ja) | 2018-04-05 |
EP3522115A4 (en) | 2020-05-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR101399709B1 (ko) | 모델-기반 디워핑 방법 및 장치 | |
US8306327B2 (en) | Adaptive partial character recognition | |
JP6268023B2 (ja) | 文字認識装置およびその文字切り出し方法 | |
JP4232800B2 (ja) | ラインノイズ除去装置、ラインノイズ除去方法、ラインノイズ除去プログラム | |
US7949187B2 (en) | Character string recognition method and device | |
JP6099686B2 (ja) | 画像処理装置、領域検出方法及びコンピュータプログラム | |
JP2006252162A (ja) | パターン認識装置及びその方法 | |
JP6487255B2 (ja) | 文字切り出し装置、文字認識装置、および文字切り出し方法 | |
EP2438574A2 (en) | Edge detection | |
JP2000105829A (ja) | 顔パーツ検出方法及びその装置 | |
JP6171167B2 (ja) | 文字認識装置、文字認識方法、及び文字認識プログラム | |
WO2019187967A1 (ja) | 画像処理装置および画像処理方法 | |
JP6599672B2 (ja) | 文字切り出し装置、文字認識装置、および文字切り出し方法 | |
WO2018061997A1 (ja) | 媒体認識装置および媒体認識方法 | |
CN108335266B (zh) | 一种文档图像畸变的矫正方法 | |
JP4565396B2 (ja) | 画像処理装置および画像処理プログラム | |
Nandini et al. | Estimation of skew angle in binary document images using hough transform | |
JP5160366B2 (ja) | 電子部品のパターンマッチング方法 | |
WO2019107141A1 (ja) | 画像処理装置および画像処理方法 | |
Chethan et al. | Graphics separation and skew correction for mobile captured documents and comparative analysis with existing methods | |
Kim et al. | Document capturing method with a camera using robust feature points detection | |
CN114332108B (zh) | 一种图片中的虚实线局部区域的提取方法 | |
JP4718527B2 (ja) | 物体検出装置、物体検出方法、物体検出プログラムおよびそのプログラムを記録した記録媒体 | |
Kao et al. | Skew detection of document images using line structural information | |
Guru et al. | Skew Estimation in Digitised Documents: A Novel Approach. |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 17855951 Country of ref document: EP Kind code of ref document: A1 |
|
NENP | Non-entry into the national phase |
Ref country code: DE |
|
ENP | Entry into the national phase |
Ref document number: 2017855951 Country of ref document: EP Effective date: 20190429 |