WO1993007580A1 - Procede pour determiner la direction dans une region locale d'un segment de profil et procede pour determiner les lignes et les angles - Google Patents

Procede pour determiner la direction dans une region locale d'un segment de profil et procede pour determiner les lignes et les angles Download PDF

Info

Publication number
WO1993007580A1
WO1993007580A1 PCT/JP1992/001277 JP9201277W WO9307580A1 WO 1993007580 A1 WO1993007580 A1 WO 1993007580A1 JP 9201277 W JP9201277 W JP 9201277W WO 9307580 A1 WO9307580 A1 WO 9307580A1
Authority
WO
WIPO (PCT)
Prior art keywords
local
pixels
line segment
pixel
azimuth
Prior art date
Application number
PCT/JP1992/001277
Other languages
English (en)
French (fr)
Inventor
Shinji Kanda
Jun Wakitani
Tsugito Maruyama
Toshihiko Morita
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to US08/070,450 priority Critical patent/US5586199A/en
Priority to DE69228741T priority patent/DE69228741T2/de
Priority to JP50645693A priority patent/JP3387499B2/ja
Priority to CA002097492A priority patent/CA2097492C/en
Priority to EP92920916A priority patent/EP0559919B1/en
Publication of WO1993007580A1 publication Critical patent/WO1993007580A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration by the use of local operators
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation

Definitions

  • the present invention relates to a method for determining a direction of a line segment of a contour in a local region of a binary contour image.
  • FIGS. 1 and 2 show the Hough transform conventionally used to extract straight line information from image information.
  • the Hough transform described above has a problem that only a straight line can be detected, and a curve having a curvature cannot be detected globally even if it is locally represented by a line segment. Conventionally, it has been difficult to extract information on the positions and orientations of line segments, corners, polygons, and the like from a binary contour image.
  • the i-th object of the present study is to provide a method for determining the orientation of the local line segment of a contour in a local region of a binary contour image that can detect a local line segment of an image by simple processing. To provide.
  • a second object of the present invention is to reduce the influence of noise and to detect local line segments of an image by simple processing. It is an object of the present invention to provide a method and an apparatus for determining a proper direction.
  • a third object of the present invention is to provide a method and apparatus for determining a macroscopic line segment from local line segments passing through each of the contour points of an image.
  • a fourth object of the present invention is to provide a method and an apparatus for determining a connecting portion connecting macroscopic line segments of an outline point of an image.
  • a fifth object of the present invention is to provide a method and an apparatus for determining the position and orientation of the corner of the contour of an image based on the orientation of a line segment viewed from each of the contour points of the image.
  • a sixth object of the present invention is to provide macroscopic line segments and loops determined from the outline of an image. It is an object of the present invention to provide a method and an apparatus for determining a polygon of an image contour based on the position and orientation of a corner of a contour.
  • the method comprises the steps of: A first step of determining the number of pixels having the predetermined value existing in each of the directions of the second direction, and a second step of determining that a local line segment exists in the direction in which the number of the pixels is larger than the predetermined value.
  • a method is provided that comprises:
  • each of a plurality of pixels having a predetermined value existing in the binary contour image A first step of determining the number of pixels of the predetermined value present in each of a plurality of orientations around the center pixel in the local region in each of the plurality of local regions centered on A second step of determining that a local line segment exists in an orientation in which the number of pixels is greater than a predetermined value in the local region.
  • the method comprises the steps of: A first step of determining the number of pixels having the predetermined value existing in each of the directions, and the number of pixels having the predetermined value existing in each of the plurality of directions; A second step of obtaining a difference from the sum of the number of pixels having the predetermined value existing in the azimuth, and an azimuth in which the difference is larger than a predetermined value as an azimuth where a local line segment exists.
  • the method according to claim 4 further comprising: In each of a plurality of local regions centered on a pixel having a predetermined value, the number of pixels having the predetermined value existing in each of a plurality of directions around the center pixel in the local region is determined. A first step, wherein a difference between the number of pixels having the predetermined value existing in each of the plurality of directions and the sum of the number of pixels having the predetermined value existing in both directions adjacent to the respective directions is calculated.
  • a method for detecting a line segment from a contour line in a binary contour image comprising: centering on each of a plurality of pixels having a predetermined value existing in the binary contour image. In each of the plurality of local regions, the number of pixels having the predetermined value is counted in each region of a pattern having a plurality of kitchen-like regions existing in a range of a fixed azimuth angle with respect to the azimuth from the center.
  • Direction is 180 ° to the direction of the second local line segment
  • the first and second local line segments pass through the center pixel of the local area when the local line segment is within a predetermined azimuth angle from the 180 ° azimuth angle. Detecting as a local line segment having a straight line direction; and forming a first candidate determined to be a candidate forming the one line segment in the fifth step.
  • a first pixel row composed of pixels adjacent to each other through which a plurality of the third local line segments having the following directions pass, and forming the one line segment in the fifth step
  • a second candidate that is determined to be a candidate is formed, and is configured by a plurality of adjacent pixels, each passing through a plurality of the second local line segments each having a second direction different from the first direction.
  • a second pixel column connected by a third pixel column adjacent to the second pixel column.
  • a quasi-linear azimuth line segment is detected around each pixel of the pixel column, and the quasi-linear azimuth line segment is centered around a first pixel adjacent to the first pixel column in the third pixel column.
  • the second pixel adjacent to the second pixel column in the third pixel column in which one of the directions of the first and second local line segments constituting the first pixel line is equal to the first direction. Some orientations of the first and second local line segments forming the quasi-linear orientation line segment at the center are equal to the second orientation, and the third pixel column is one Detecting a third pixel column as a connecting portion connecting the line segments formed by the first and second pixel columns when no candidate for forming a line segment is found. Is provided.
  • a method for detecting a line segment from a contour line in a binary contour image comprising: detecting a plurality of pixels having a predetermined value as a center in the binary contour image; In each of the local regions, the number of pixels of the predetermined value existing in each region of the pattern having a plurality of fan-shaped regions present in a fixed azimuth angle with respect to the azimuth from the center is counted. No.
  • a first step a region where the count is larger than a predetermined value, a second step of determining that a local line segment exists in the direction of these regions, and a determination of the second step
  • Step 3 When there are two local line segments having directions different from each other by 180 °, it is determined that there is a local line segment having a linear direction passing through the pixel in the local region.
  • Step 3 and the orientation of the first local line segment among the directions of the two local line segments determined in the second step are determined in the second step.
  • a fourth step of detecting pixels that are in contact with each other, and the pixel row includes at least one pixel that has been determined in the third step to pass a local line segment in a straight line direction.
  • the pixels outside the at least one pixel in the pixel column are the at least one pixel To the local line segment of the straight line direction determined in the second step.
  • a pixel determined in the third step is to form a local line segment in a quasi-linear direction
  • a fifth step in which the pixel row is determined to be a candidate forming one line segment a method characterized by having:
  • a second pixel column wherein at least one pixel of the second pixel column in which the pixel in the linear direction is determined has a second direction different from the first direction;
  • the first line segment candidate is the at least one pixel of the first pixel column that is closest to the shared pixel.
  • a first line segment extending to a certain first pixel, and a first line segment extending from the second pixel column A second line segment extending to at least one pixel and a second pixel closest to the shared pixel, wherein the first and second line segments are from the first pixel.
  • a method is provided, comprising the step of determining that the connection is established by a connection constituted by pixel columns adjacent to each other up to the second pixel.
  • a method for detecting a position of a corner from a contour line in a binary contour image in which a plurality of predetermined value pixels present in the binary contour image are centered.
  • the second step it is determined that a local line segment exists in the direction in which the number of pixels is larger than a predetermined value; and in the direction of the two local line segments determined in the second step, When the absolute value of the difference between the azimuth difference between the two local line segments and 180 ° exceeds a predetermined angle, the pixel at the center of the local region is located near the corner position.
  • a third step of determining that the point is near a certain corner A fourth step of obtaining a group consisting of pixels of adjacent corner points, and a fifth step of obtaining a representative value of coordinates of each pixel in the group in each of the groups.
  • a method for detecting a line segment from a contour line in a binary contour image in which a plurality of predetermined value pixels existing in the binary contour image are centered.
  • a first step of calculating the number of pixels having the predetermined value existing in each of a plurality of directions around the pixel at the center in the local region A second step of determining that a local line segment exists in an azimuth where the number of pixels is larger than a predetermined value; and an azimuth of the two local line segments determined in the second step.
  • a first and second steps BRIEF DESCRIPTION OF THE FIGURES
  • FIG. 3 is a diagram showing a basic configuration of the first embodiment of the present invention
  • FIG. 4 is a diagram showing an algorithm for detecting a line segment of a local region in an example of the second embodiment of the present invention.
  • FIG. 5 is a diagram showing a local region in the entire region of the contour image
  • FIG. 6 is a diagram showing the azimuth of the target pixel viewed from the center pixel in the local region.
  • FIG. 7 is a diagram showing a column of the number of pixels for obtaining the line segment azimuth.
  • FIG. 8 is a diagram showing a second example of an algorithm for detecting a line segment in a local region in the example of the second embodiment of the present invention.
  • FIG. 9 is a diagram showing an example of the distribution of the contour points in the local region, and a column of the corresponding number of pixels.
  • FIG. 10 is a diagram showing an example of a line segment criterion algorithm
  • FIG. 11 is a diagram showing the arrangement of the center pixel and surrounding pixels
  • FIG. 12 is a diagram showing a line direction detection pattern.
  • FIG. 13 is a diagram showing a second pattern for line direction detection
  • FIG. 14 is a diagram showing an example of a line segment direction determination method according to the first embodiment of the present invention.
  • FIG. 15 is a diagram showing a basic configuration of a third embodiment of the present invention.
  • FIG. 16 is a diagram showing a basic configuration of a fourth embodiment of the present invention.
  • FIG. 17 is an explanatory diagram of azimuth determination according to the present invention.
  • FIG. 18 is an explanatory diagram of azimuth determination according to the present invention.
  • FIG. 19 is a diagram showing an algorithm for detecting a line segment of a local region in the first example of the third embodiment of the present invention.
  • FIG. 20 is a diagram showing an algorithm for detecting a line segment in a local region in the second embodiment of the third embodiment of the present invention.
  • FIG. 21 is a diagram showing an algorithm for detecting a line segment of a local region in an example of the fourth embodiment of the present invention.
  • FIG. 22 is a diagram showing a pixel number distribution as a result of performing a process according to the third mode of the present invention on the pixel number distribution of FIG. 14;
  • FIG. 23 shows another example of the pixel number distribution.
  • FIG. 24 is a diagram showing an example in which the processing according to the third embodiment of the present invention has been performed on the distribution of FIG. 23;
  • FIG. 25 is a diagram showing the local 16 orientations of the line segment, which can be detected by the patterns of FIGS. 12 and 13.
  • FIGS. 26A and 26B are diagrams showing examples in which the patterns of FIGS. 12 and 13 are applied to contour points through which one line segment passes,
  • Figure 26C shows that the local orientation of the line segment detected by the two patterns as shown in Figures 26A and 26B is detected as one of 16 orientations ,
  • FIG. 27 is a diagram showing an algorithm for detecting a line segment in the example of the fifth embodiment of the present invention.
  • FIG. 28 is a diagram showing a definition of a quasi-linear azimuth in an example of the sixth embodiment of the present invention.
  • Figure 29 shows an example where two line segments are smoothly connected by a curve
  • FIG. 30 is a diagram showing an intersection of two line segments, a representative value (position) of the angle detected corresponding to the intersection, and a representative value (azimuth) of the angle azimuth;
  • FIG. 31 is a diagram showing the angular azimuth detected at the corner point of the corner neighborhood point sequence near the intersection of the two line segments.
  • FIG. 32 is a diagram showing an algorithm for corner detection in an example of the ninth embodiment of the present invention.
  • FIG. 33 is a diagram showing a definition of an angular azimuth in an example of the ninth embodiment of the present invention.
  • FIG. 34 is a diagram showing an algorithm of quadrilateral detection in the example of the tenth embodiment of the present invention.
  • FIG. 35 is a diagram showing an example of a square detected according to the tenth aspect of the present invention.
  • FIG. 36 shows a hardware configuration for implementing the various methods of the present invention described above.
  • FIG. 3 shows a basic configuration of the first embodiment of the present invention.
  • step 1 in the binary contour image for which the direction of the line segment is to be obtained, a local region for which the direction of the line segment is to be determined and a central pixel of the local region are determined. I do.
  • step 2 the azimuths of the pixels in the local area other than the center pixel as viewed from the center pixel are obtained.
  • step 3 the number of pixels having the predetermined value in each direction in the local region is counted.
  • step 4 it is recognized that the line segment extends in a direction in which the number of pixels having the above-described predetermined value in each direction in the local region is large.
  • the processing in FIG. 3 is performed on a local region in which all the pixels having the above-described predetermined value in the target image are the central pixels.
  • the distribution of the line segments in all the regions in the target image is recognized.
  • the distribution in all the regions in the target image is determined. Contour lines (curves and straight lines) are recognized.
  • the plurality of pixels at the center can be pixels having all predetermined values existing in the binary contour image.
  • a straight line connecting each of the pixels having the predetermined value existing in each of the local regions and the one pixel serving as the center in the local region is defined as: It can be obtained by determining the angle formed with respect to a straight line having a predetermined direction passing through the center.
  • the counting of the number of pixels having the predetermined value present in each of the plurality of orientations in the first and second modes is performed in each of the local regions, with respect to the orientation from the center, each having a constant azimuth angle. This can be performed by counting the number of pixels having the predetermined value existing in each region of the pattern having a plurality of fan-shaped regions having a range.
  • the counting of the number of pixels having the predetermined value present in each of the plurality of orientations in the first and second embodiments further includes: defining a range relating to the orientation from the center of each fan-shaped region of the pattern; It can also be performed by counting the number of pixels of the predetermined value existing in each region of the second pattern composed of a plurality of fan-shaped regions shifted by lZ in the range.
  • the determination of the azimuth of the line segment in the local region is such that at least one pixel having the predetermined value adjacent to the pixel at the center is adjacent. When connected, the pixel is considered to be isolated, so it is better not to perform the above azimuth detection.
  • the determination of the azimuth of the line segment in the local region is such that all pixels adjacent to the center pixel are equal to the predetermined value. If it has a value, it can be determined that the center pixel at this time is not a part of the line segment, and the above-described azimuth detection is not performed.
  • FIGS. 4 to L2 Examples of First and Second Embodiments of the Present Invention (FIGS. 4 to L2)
  • FIG. 4 shows an algorithm for detecting a line segment in a local region in the first and second embodiments of the present invention.
  • step 11 an original image is obtained. Then, in step 12, contour lines are extracted from the original image.
  • step 13 as shown in FIG. 5, when the coordinates of one corner of the image memory of the contour image are (0, 0), the initial values of the coordinates X0 and Y0 of the central pixel of the local area are Let the coordinates of the pixel at one corner of the image memory of the contour image be the nth pixel in the X and Y directions from the (0, 0) force.
  • the size of the local region is set to (2n + 1) (2 ⁇ + 1).
  • step 14 it is determined whether or not the center pixel of the coordinates X0, Y0 is black (when the contour image displays the contour points in black). If not, go to step 26; if black, go to step 15.
  • step 15 the initial value of the coordinates (X, y) of the pixel for which the azimuth with respect to the central pixel in the local area is to be determined is the smallest value of the X coordinate and the y coordinate of the local area. Then, in step 16, it is determined whether or not the target pixel at the coordinates x and y is black (when the contour image is displaying the contour points in black). If not black, go to step 19; if black, go to step 17.
  • step 17 as shown in FIG. 6, the orientation of the target pixel coordinates ⁇ x, y with respect to the center pixel X 0, Y 0 of the local region is determined by the angle with respect to the X axis. Calculate as 0. And in step 18, 1. Of the register rows corresponding to 360 azimuths (or the rows of the memory area) divided for each, the register line [ ⁇ Is incremented by one.
  • the image data processing apparatus that executes the method of the present invention is divided into three sections as shown in FIG. It shall have a register row for the azimuth.
  • step 19 it is determined whether or not the X coordinate of the target pixel has reached the maximum value of the X coordinate of the local region. If so, proceed to step 20; if not, proceed to step 21 to increment the X coordinate by 1 and return to step 16.
  • step 20 it is determined whether or not the y coordinate of the target pixel has reached the maximum value of the y coordinate of the local region. If so, proceed to step 23. If not, proceed to step 21 to increment the y-coordinate by 1 and return to step 16.
  • step 23 it is determined whether or not the X coordinate X0 of the center pixel of the local area has reached the maximum value (1 n) of the X coordinate of the target contour image memory. If so, proceed to step 27; if not, proceed to step 24, increment the X coordinate X0 by 1 and return to step 14.
  • step 27 it is determined whether or not the Y coordinate Y'O of the center pixel of the local area has reached the maximum value (1 ⁇ ) of the ⁇ coordinate of the target contour image memory. If it has arrived, the processing of FIG. 4 ends, and if it has not arrived, it proceeds to step 25 and increments the ⁇ coordinate ⁇ 0 by 1 and returns to step 14.
  • some conventional image data processing devices have a function of storing only the coordinates of a contour point (black pixel) in the contour point buffer among the contour image data.
  • steps 14 and 16 and the like that is, a procedure for determining whether or not the coordinates are contour points, and the coordinate values stored in the contour point buffer are used as coordinates.
  • FIG. 8 shows an algorithm for detecting line segments in a local region in such a case.
  • FIGS. 9A and 9B show an example of the distribution of the contour points in the local region, and a column of the number of pixels for the line direction obtained from the local region.
  • FIG. 10 shows a column of the number of pixels with respect to the line segment direction, which is obtained for each local region in the entire region of the contour image by the procedure as shown in FIG. 4 or FIG. 8 above (FIG. 7).
  • 3 shows a process for determining the direction of a line segment in the local region.
  • the data line [ ⁇ corresponding to each angle 0 is less than a predetermined threshold, the data is not stored in the test direction buffer (step 52). If it is equal to or more than the predetermined threshold value N, it is stored in the line segment direction buffer (step 53).
  • the azimuth of the target pixel in each local region as viewed from the center pixel is obtained by calculation from the coordinates of the center pixel and the target pixel (step 17 in FIG. 4 and step 3 in FIG. 8). 5) using a pattern having a plurality of squares as shown in FIG. The number of contour points (black pixels) in each of the areas 0 to 7 in the pattern is counted, and the sequence of the number of pixels with respect to the line segment direction (FIG. 7) is obtained. Can be.
  • the second pattern as shown in FIG. 13 can be used together with the pattern in FIG. 12 to interpolate the column of the number of pixels (FIG. 7) for the line direction.
  • This second pattern is obtained by shifting each fan-shaped region by a half pitch in the pattern of FIG.
  • the regions where the counts are the largest and the second largest when using the first and second patterns, respectively, are determined, and the regions where the counts in the first pattern are the largest and the second largest are determined.
  • the two regions where the region with the largest count and the region with the second largest overlap in the second pattern are obtained, and it is determined that the first and second local line segments are present in the directions of these two regions, respectively. .
  • the local line segment of the image Can be detected by simple processing. Problems in the first and second embodiments of the present invention (FIG. 14)
  • FIG. 14 shows, as an example, the method of the first embodiment of the present invention described above.
  • the number of pixels having the same value as the pixels P existing in the six directions near the pixel P is calculated with the pixel P as the center. It shows the result obtained as the number of pixels having the same value as the pixel P existing in the fan-shaped regions (0) to (7).
  • the number of pixels having the same value as the pixel P existing in each of the fan-shaped areas (0) to (7) is indicated with an underline in each of the fan-shaped areas. As shown in Fig. 14, the fan-shaped area through which the contour passing through pixel P passes Counts in the region are increasing.
  • the number of pixels having the predetermined value existing in each of a plurality of directions around one of the pixels having the predetermined value in the local region is determined (step 101).
  • the number of pixels of the predetermined value present in each of the plurality of directions is determined by summing the number of pixels of the predetermined value existing in the directions on both sides of the respective directions (step 102).
  • a difference between the number of pixels having the predetermined value existing in each of the plurality of directions and the sum is determined, and it is determined whether the difference is greater than a predetermined value (step 103).
  • it is determined that there are many lines it is determined that there is a line segment in each direction (step 104).
  • the number of pixels having the predetermined value existing in each of a plurality of directions around one of the pixels having the predetermined value in the local region is determined (step 101).
  • the number of pixels of the predetermined value existing in each of the plurality of directions is the sum of the number of pixels of the predetermined value existing in the direction next to the rain in each direction (step 1). 0 2),
  • step 107 The difference between the number of pixels having the predetermined value present in each of the plurality of directions and the above sum is obtained (step 107), the direction in which the difference is greater than the predetermined value, and A large number of directions are detected, and it is determined that a line segment exists in each of the directions (step 108).
  • the processing according to the third and fourth aspects of the present invention can be performed in each of a plurality of local regions centered on a plurality of pixels of a predetermined value existing in a binary contour image. .
  • the plurality of pixels at the center may be all pixels having a predetermined value existing in the binary contour image.
  • the counting of the number of pixels having the predetermined value existing in each of the plurality of orientations is performed in each of the local regions, in the orientation from the center. Can be performed by counting the number of pixels having the predetermined value existing in each region of the pattern having a plurality of fan-shaped regions each having a fixed azimuth range.
  • the distribution of line segments in all regions in the target image is recognized, and thereafter, by determining these line segments in an integrated manner, all regions in the target image are determined.
  • the contour lines (curves and straight lines) at are recognized.
  • a straight line connecting each of the pixels having the predetermined value existing in each of the local regions and one pixel as the center in the local region is defined as It can be obtained by determining the angle formed with respect to a straight line having a predetermined direction passing through the center.
  • the counting of the number of pixels having a predetermined value is performed in each of the local areas, in each of the areas of the pattern having a plurality of kitchen-like areas each having a fixed azimuth angle range with respect to the azimuth of the center power.
  • the counting can be performed by counting the number of pixels having the predetermined value.
  • the counting of the number of pixels having the predetermined value present in each of the plurality of orientations in the third and fourth modes further includes: defining a range relating to the orientation from the center of each fan-shaped region of the pattern; It can also be performed by counting the number of pixels having the predetermined value existing in each region of the second pattern including a plurality of fan-shaped regions shifted by 12 in the range.
  • the determination of the azimuth of the line segment in the local region is such that at least one pixel having the predetermined value is adjacent to the center pixel. When connected, the pixel is considered to be isolated, so the above azimuth detection can not be performed.
  • the orientation of the line segment in the local region is determined by determining that all the pixels adjacent to the center pixel are the predetermined value. If it has the same value as, it can be determined that the center pixel at this time is not a part of the line segment, and the above-described azimuth detection is not performed.
  • FIG. 17 shows an example of a procedure for azimuth determination specific to the third embodiment of the present invention.
  • the partial region is regarded as a region of interest, and the above-described counting (part of the pixel having the same value as the pixel Find the sum of In the case of Fig. 17, the count in the region of interest (the number of pixels having the same value as the pixel P) is 15 and the count in the adjacent regions I and II is 0 and 5 respectively. Therefore, the sum of the counts in the adjacent regions I and II is 5. Comparing the sum 5 with the count 15 in the attention area, the count 15 in the attention area is larger than the sum 5 described above. Therefore, the direction of this attention area is determined to be the direction of the line segment.
  • FIG. 18 shows that the above comparison is based on the number of pixels having the same value as the pixel P existing in each of the plurality of orientations (the region of interest), and the pixels having the predetermined value existing in the orientations on both sides of the respective orientations.
  • This figure shows a case where it is realized by a step of subtracting the sum of the numbers (the sum of the counts in the adjacent areas I and II) and a step of comparing the subtracted number with zero.
  • FIG. 19 shows an algorithm for detecting a line segment of a local region in the first embodiment of the third mode of the present invention.
  • step 111 an original image is obtained and a contour line is extracted. Then, between steps 112 and 119, each of the pixels constituting the contour is taken as a pixel of interest, and the orientation of a line segment around each pixel of interest is determined.
  • step 112 the pixel at coordinates (Xi, Yi) is extracted as the pixel of interest, and in step 113, each of a plurality of partial regions around the pixel of interest is specified.
  • Index X is set to 0.
  • step 114 the number of pixels I of the partial area X is counted.
  • step 115 the sum O of the number of pixels of the partial area on both sides of the partial area X is counted.
  • step 1 16 the count I of the partial area X is compared with the sum O of the counts in the adjacent partial areas, and when I> 0, a line segment indicates the direction of the partial area X.
  • the direction is extracted, and in step 117, the index X is incremented to specify the next partial area.
  • X reaches 7 in step 118 (in this example, as shown in Fig. 14 above, the periphery of the pixel of interest corresponds to eight directions) (The index that specifies the partial area is 0 to 7), and the operations from step 1 12 to step 1 18 are repeated as described above.
  • the processing is completed until it is determined in step 1 19 that the processing has been performed for all the pixels of the extracted contour line.
  • FIG. 20 shows an algorithm for detecting a line segment in a local region in the second example of the third embodiment of the present invention.
  • step 111 in FIG. 20 differs from the step 116 in FIG. 19 only in step 126, and the other steps are the same as those in FIG.
  • step 126 of FIG. 20 the count I of the partial area X is not directly compared with the sum O of the counts in the adjacent partial areas.
  • the count I of the partial area X and the adjacent partial areas are not compared.
  • the difference between the count O and the sum O is calculated, and this difference is compared with 0. If this difference is greater than 0, the azimuth of the partial region X is extracted as the azimuth where the line segment exists. is there.
  • FIG. 21 shows an algorithm for detecting a line segment in a local region in the example of the fourth embodiment of the present invention.
  • step 146 the count I of the partial area X and the sum O of the counts in the adjacent partial areas and Calculate the difference and store it in memory.
  • the difference between the count I of the partial area X and the sum 0 of the counts of the adjacent partial areas is calculated for all the partial areas, and this is temporarily stored in the memory.
  • step 149 the azimuth of the partial region where the value of the stored difference is the largest and the azimuth of the second largest partial region are extracted as the azimuth where the line segment exists. .
  • FIG. 22 shows the result of performing the processing described with reference to FIGS. 17 and 18 on the pixel number distribution of FIG. 14 described above. If the procedure of FIG. 21 is followed, the orientations of (2) and (7) are extracted as the orientation of the line segment passing through this pixel P. In this result, the effect of the noise shown in Fig. 14 is completely suppressed.
  • FIG. 23 shows another example of the pixel number distribution different from that of FIG. 14, and FIG. 24 shows the result of performing the above processing according to the present invention on the distribution of FIG. It is shown. As shown in FIG. 24, the orientation of the line segment is very clear by the processing according to the present invention.
  • a method for detecting a line segment from a contour in a binary contour image In the first step, in each of a plurality of local regions centered on each of a plurality of pixels of a predetermined value existing in the binary contour image, a plurality of local regions are centered on the centered pixel in the local region. The number of pixels having the predetermined value existing in each of the directions is obtained.
  • the second step it is determined that a local line segment exists in an azimuth where the number of the pixels is larger than a predetermined value in the local area.
  • the linear azimuth passing through the pixel in the local region is determined. It is determined that a local line segment exists.
  • a group of pixels is determined as a candidate that constitutes one line segment.
  • the azimuth of the local line segment may be obtained by any of the various methods described above (the first to fourth embodiments of the present invention). Examples of the fifth and seventh embodiments of the present invention (Table, FIGS. 25 to 27)
  • the above-described patterns of FIGS. 12 and 13 are used for determining the orientation of a local line segment centered on each contour point.
  • the patterns of FIGS. 12 and 13 consist of eight azimuth regions each having an azimuth range of 45 °. By using these two patterns, 16 positions from 0 to 15 are detected as shown in the table and FIG.
  • the peak of the number of pixels is detected in the direction of 5. In this way, as shown in the table and FIG.
  • FIG. 27 shows an algorithm for detecting a line segment in the example of the fifth embodiment of the present invention.
  • step 201 of FIG. 27 the position of a local line segment centered on each contour point is determined according to the first to fourth aspects of the present invention described above.
  • an orientation in which the number of pixels of other contour points is larger than a predetermined value is detected in a local area centered on each contour point.
  • step 202 the two line segment directions obtained in step 201 above are calculated.
  • step 2031 when it is determined in each local region that local pixels having the same direction and passing through the pixels that are adjacent to each other and that pass through these pixels are determined. Are determined to be candidates forming one line segment.
  • step 204 a correlation coefficient is obtained from the coordinates of pixels adjacent to each other through which a group of pixels determined to be a candidate constituting one line segment passes, for example, by the following equation.
  • R is the correlation coefficient
  • N is the number of pixels in the group of pixels determined to be a candidate to form one line segment
  • Xi and Yi are the X and Y coordinates of each pixel in the above group
  • Xm And Ym are the average values of the X and Y coordinates of each pixel in the group
  • ⁇ and CJy are the standard deviations of the X and Y coordinates of each pixel in the group.
  • step 207 If it is equal to or greater than the predetermined value, it is determined in step 207 that the above-described pixel duplication constitutes a line segment, and the inclination and the coordinates of the intercept (end point) are obtained. If the value is not equal to or more than the predetermined value, it is determined in step 208 that the above pixel group forms a line segment.
  • step 206 when detecting a line segment, according to the above-described seventh embodiment of the present invention, not only the local line segment having the same azimuth but also the same azimuth, An integrated pixel row that also includes local line segments in a quasi-linear azimuth within a predetermined angle range may be considered as one line segment candidate.
  • the direction having the largest number of pixels of other contour points is the second most frequent, the direction Is different from the azimuth of 180 °, but when within a predetermined azimuth from the azimuth of 180 °, the first and second local line segments are It is detected as forming a local line segment in the quasi-linear direction passing through the center pixel.
  • the orientations of 3-10, 3-12, 2-11, and 4-11 are detected as constituting a local line segment of the quasi-linear orientation.
  • the first and second pixel columns determined to be the features forming the line segment in step 203 of FIG. 27 described above (or the line segment in step 207 of FIG. 27) are connected by a third pixel column adjacent to each other, and the quasi-linear azimuth line segment is detected centering on each pixel of the third pixel column.
  • the first of One of the two orientations detected around the pixel of the third pixel row adjacent to the pixel row is one of the two orientations detected around the pixel of the first pixel row.
  • One of the above two orientations that match one and is detected around a pixel of the third pixel column adjacent to the second pixel column is each pixel of the second pixel column.
  • the third pixel row When one of the two orientations detected with respect to is the same, and the third pixel row does not find a candidate for forming a line segment, the third pixel row is replaced with the first and the second pixel row. It detects as a connecting part connecting the line segments formed by the second pixel column.
  • this connecting portion may be a curved portion connecting two line segments smoothly, or the two line segments detected as described above may actually be further connected to the above connecting portion. And may intersect each other here.
  • the two line segments directly intersect, the pixels in the azimuth of the intersection point from the pixels that are within the size of the local region from the intersection point of these line segments among the pixels that constitute the extended line segment
  • the pixels on the other line segment are also counted. If the difference between the orientations of the two line segments is not so large, the distance within the size of the local region is reduced.
  • a “local line segment in the quasi-linear direction” is detected.
  • the above-described connection portion is obtained as follows according to the eighth embodiment of the present invention. That is, pixels passing through a local line segment having at least one straight line azimuth having the same azimuth may be combined with pixels passing a line segment having a quasi-linear azimuth with respect to this straight line azimuth.
  • the pixel of the first line segment candidate Said few of the rows A first line segment extending to at least one pixel and a first pixel closest to the shared pixel, wherein the at least one pixel in the second pixel column is A second line segment extending to a second pixel closest to the shared pixel, wherein the first and second line segments are connected to each other from the first pixel to the second pixel. It is determined that the connection is made by the connection part formed by the adjacent pixel columns.
  • FIG. 32 shows an algorithm for corner detection in the ninth embodiment of the present invention. Also in step 211 of FIG. 32, the orientation of a local line segment having each contour point as the center 2 is determined by the above-described first to fourth embodiments of the present invention. Also in this case, an orientation in which the number of pixels of other contour points is larger than a predetermined value is detected in a local region centered on each contour point. Next, in the present embodiment, in step 2 12, the orientations of the two local line segments detected as described above, and the difference between the two orientations and the difference between 180 ° When the absolute value exceeds a predetermined angle, it is determined that the pixel at the center of the local region is a corner neighboring point near the corner position.
  • step 2 13 a group (corner point sequence) consisting of pixels of neighboring corner points is obtained.
  • step 214 in each of the groups (corner point sequence), the average value of the X and Y coordinates of each pixel in the group is calculated as a representative value of this group (corner point sequence).
  • step 215 in each of the groups, an intermediate direction between the directions of the above two local line segments in a local region centered on each pixel in the group is set to the vicinity of the corner. Obtained as the angular orientation of a point. .
  • two line segments 300 and 301 intersect as shown in FIGS. 30 and 31.
  • the angular azimuth of each pixel of the connection portion is detected from the corner formed by the above. Then, in each of the above groups, the average value of the angular azimuths of all the pixels in the group is obtained as a representative value of the angular azimuth of all the pixels (see FIG. 33).
  • the representative value of the above group the average of the sequence of points near the corner is obtained, and the representative value (average value) of the angular azimuth as shown by 401 is obtained.
  • Example of embodiment Figs. 34, 35
  • FIG. 34 shows a quadrilateral detection algorithm in the tenth embodiment of the present invention.
  • step 222 of FIG. 34 information on the position (representative value of coordinates) and the representative value of the azimuth of one corner (for example, corner 1 in FIG. 35) is obtained according to the above-described procedure.
  • step 222 an angle having an angle azimuth opposite to the obtained angle azimuth (an azimuth different by 180 °) (for example, angle 3 in FIG. 35) is determined.
  • the corners be pairs in opposite directions (eg, corner 1 and corner 3 in Figure 35).
  • step 223 a line segment connecting the representative value points of the coordinates of the groups (corner point sequence) forming the above pair of corners is obtained.
  • two pairs of pairs for example, the corners 1 and 3 and the corners 2 and 4 in FIG. 35 in which the line segments connecting the representative values of the coordinates intersect each other are obtained. .
  • step 224 of the line segments obtained as described above, Search for a connection between four groups of pixels that are in contact with each other in the set of pairs (for example, line 1, line 2, line 3, and line 4 in Figure 35). Calculate as a polygon.
  • Hardware configuration of the present invention FIG. 36
  • FIG. 36 shows a hardware configuration for implementing the various methods of the present invention described above.
  • reference numeral 400 denotes a television camera
  • reference numeral 401 denotes an image input board
  • reference numeral 402 denotes an image memory
  • reference numeral 403 denotes a contour extraction circuit
  • reference numeral 404 denotes a central control unit interface
  • reference numeral 405 denotes a center. It is a control unit.
  • the central control unit 405 includes a CPU 406, a RAM 407, a ROM 408, a keyboard interface 409, a keyboard 410, a display interface 411, and a display 412. Then, the magnetic disk device 4 13 is connected.
  • the television camera 400 captures the recognition target and supplies image information to the image input board 401 as, for example, a TSC video signal.
  • the image input board 401 digitizes the NTSC video signal by an AD conversion circuit (not shown), and stores the digitized image data in the image memory 402.
  • the contour extraction circuit 403 reads out the image data stored in the image memory 402 and extracts the contour points of the image.
  • the contour point extraction may be performed by any known method, for example, zero cross processing is performed.
  • the extracted contour point data is supplied to the central control unit 405 via the central control unit interface 404, and the central control unit 405 controls the contour points under the control of the CPU 406.
  • the data is stored in the RAM 407 or the magnetic disk device 413.
  • the magnetic disk device 4 13 of the central control unit 405 programs for executing the above-described various methods according to the present invention are stored.
  • the program When activated, the program is loaded on the RAM 407, and executes the above-described various methods according to the present invention in accordance with an operation by the operator from the keyboard 410.
  • the display 4 12 displays the result obtained by the above processing.
  • the register shown in FIG. 7 may be an area provided in the RAM 407 described above.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Description

明 細 書 輪郭線分の局所領域における方位決定方法 および線分と角の決定方法 技術分野
本発明は、 二値輪郭画像の局所領域における輪郭の線分の方位の決定 方法に関する。
画像計測、 画像認識の分野において、 画像メモリ内に取り込まれた画 像から、 対象となる物体等の特徴となる部分の情報を取り出そうとする 場合、 画像の輪郭を抽出し、 その後、 特徴となる線分、 角 (coraer)、 およ び、 多角形等の情報を取り出すことが要求される。 背景技術
図 1および図 2は、 従来、 画像情報から直線の情報を取り出すために 用いられていたハフ変換を示すものである。 ハフ変換においては、 元の 画像上の黒 (または白) である画素の座標を (xi , yりで表すときに、 式 ρ =x i s i n 0 +y i c o s 0
で表される曲線を έ, 0平面 (図 2 ) 上に、 全ての黒 (または白) であ る画素の関数を描く。 このとき、 元の画像 (x y平面) 上で同一の直線 上にあるものは、 図 1に示されているように、 同一の , に対応する ので、 , 0平面上で上記の曲線は 1つの点 ( , Θ ) で交わる (図 2) 。 したがって、 Q , 0平面上での上記の曲線の交点から元の画像 ( x y平面) 上の直線が求められる。
しかしながら、 上記の方法で直線を求めるためには、 各直線上の全て の点について上記の曲線を描く処理が必要であり、 そして、 各直線毎に 交点を求める処理が必要となるため、 データ処理量が膨大となり、 ソフ トウエア処理では処理時間が長くなり、 ハードウエア処理を行うために もハードウエア規模が大きくなるという問題がある。
更に、 上記のハフ変換では直線しか検出できず、 局所的には線分で表 されても大局的には曲率を有する曲線は検出できないという問題がある。 また、 従来は、 二値輪郭画像から、 線分、 角 (comer)、 および、 多角形 等の位置や方位に関する情報を取り出すことは困難であった。
発明の開示
本究明の第 iの目的は、 画像の局所的な線分を簡素な処理によつて検 出することができる二値輪郭画像の局所領域における輪郭の局所的な線 分の方位の決定方法を提供することである。
本発明の第 2の目的は、 ノイズによる影響を抑制して、 画像の局所的 な線分を簡素な処理によつて検出することができる二値輪郭画像の局所 領域における輪郭の線分の局所的な方位の決定方法および装置を提供す ることである。
本発明の第 3の目的は、 画像の輪郭点の各々を通る局所的な線分から 巨視的な線分を決定する方法および装置を提供することである。
本発明の第 4の目的は、 画像の輪郭点の巨視的な線分同士の間を接続 する接続部を決定する方法および装置を提供することである。
本発明の第 5の目的は、 画像の輪郭点の各々から見た線分の方位に基 づいて画像の輪郭の角の位置および方位を決定する方法および装置を提 供することである。
本発明の第 6の目的は、 画像の輪郭から求めた巨視的な線分および輪 郭の角の位置および方位に基づいて、 画像の輪郭の多角形を決定する方 法および装置を提供することである。
本発明の第 1の形態によれば、 二値輪郭画像の局所領域における輪郭 の局所的な線分の方位の決定方法において、 前記局所領域内の所定の値 の画素の 1つを中心として複数の方位の各々に存在する該所定の値の画 素の数を求める第 1のステップと、 該画素の数が所定の値より多い方位 に局所的な線分が存在すると判定する第 2のステツプとを有することを 特徴とする方法が提供される。
本発明の第 2の形態によれば、 二値輪郭画像内の輪郭線が含む局所的 な線分の方位の決定方法において、 前記二値輪郭画像内に存在する複数 の所定の値の画素各々を中心とする複数の局所領域の各々において、 該 局所領域内の前記中心とした画素を中心として複数の方位の各々に存在 する該所定の値の画素の数を求める第 1のステップと、 前記局所領域内 では該画素の数が所定の値より多い方位に局所的な線分が存在すると判 定する第 2のステップとを有することを特徴とする方法が提供される。 本発明の第 3の形態によれば、 二値輪郭画像の局所領域における輪郭 の局所的な線分の方位の決定方法において、 前記局所領域内の所定の値 の画素の 1つを中心として複数の方位の各々に存在する該所定の値の画 素の数を求める第 1のステップと、 該複数の方位の各々に存在する該所 定の値の画素の数と、 該各々の方位の両隣の方位に存在する該所定の値 の画素の数の和との差を求める第 2のステップと、 前記差が所定の値よ り大きい方位を、 局所的な線分が存在する方位として求める第 3のステツ プとを有することを特徴とする方法が提供される。
本発明の第 4の形態によれば、 二値輪郭画像内の輪郭線が合む局所的 な線^^の方位の決定方法において、 前記二値輪郭画像内に存在する複数 の所定の値の画素各々を中心とする複数の局所領域の各々において、 該 局所領域内の前記中心とした画素を中心として複数の方位の各々に存在 する該所定の値の画素の数を求める第 1のステップと、 該複数の方位の 各々に存在する該所定の値の画素の数と、 該各々の方位の両隣の方位に 存在する該所定の値の画素の数の和との差を求める第 2のステップと、 前記差が所定の値より大きい方位を、 局所的な線分が存在する方位とし て求める第 3のステップとを有することを特徵とする方法が提供される。 本発明の第 5の形態によれば、 二値輪郭画像内の輪郭線から線分を検 出する方法において、 前記二値輪郭画像内に存在する複数の所定の値の 画素各々を中心とする複数の局所領域の各々において、 前記中心からの 方位に関して各々一定の方位角の範囲に存在する複数の厨状の領域を有 するパターンの各領域に存在する前記所定の値の画素の数を計数する第 1のステップと、 前記計数が所定の値より大きい領域を求め、 これらの 領域の方位に、 それぞれ局所的な線分が存在すると判定する第 2のステツ プと、 前記第 2のステップにて判定された 2つの局所的な線分の方位で あって互いに 1 8 0 ° 異なるものがあるときに、 前記局所領域内では該 画素を通過する直線方位の局所的な線分が存在すると判定する第 3のス テツプと、 前記第 3のステップにおいて、 互いに隣接する画素であって、 これらの画素を同一の方位を有する局所的な線分が通過すると各局所領 域内で判定されるとき、 これらの画素のグループが 1つの線分を構成す る侯補と判定する第 4のステップとを有することを特徴とする方法が提 供される。
本発明の第 6の形態によれば、 上記の本発明の第 5の形態において、 前記第 2のステップにて判定された局所的な線分の方位のうちで第 1の 局所的な線分の方位が第 2の局所的な線分の方位に対して 1 8 0 ° の方 位とは異なるが、 該 1 8 0 ° の方位から所定の方位角の範囲内にあると き、 該第 1および第 2の局所的な線分が該局所領域の中心画素を通過す る準直線方位の局所的な線分を構成するものとして検出するステップと、 前記第 5のステップにて前記 1つの線分を構成する候補と判定される第 1の候補を構成し、 各々が第 1の方位を有する複数の前記第 3の局所的 な線分がそれぞれ通過する互いに隣接する画素から構成される第 1の画 素列と、 前記第 5のステップにて前記 1つの線分を構成する候補と判定 される第 2の候補を構成し、 各々が前記第 1の方位と異なる第 2の方位 を有する複数の前記第 2の局所的な線分がそれぞれ通過する互いに隣接 する画素から構成される第 2の画素列とが、 互いに隣接する第 3の画素 列によって接続され、 該第 3の画素列の各画素を中心として前記準直線 方位の線分が検出され、 該第 3の画素列において前記第 1の画素列に隣 接する第 1の画素を中心とする前記準直線方位の線分を構成する前記第 1および第 2の局所的な線分の何れかの方位が前記第 1の方位に等しぐ 該第 3の画素列において前記第 2の画素列に隣接する第 2 画素を中心 とする該準直線方位の線分を構成する前記第 1および第 2の局所的な線 分の何 かの方位が前記第 2の方位に等しく、 且つ、 該第 3の画素列が 1つの線分を構成する候補を舍まないときは、 該第 3の画素列を、 前記 第 1および第 2の画素列が構成する線分間を接続する接続部として検出 するステップとを有することを特徴とする方法が提供される。
本発明の第つの形態によれば、 二値輪郭画像内の輪郭線から線分を検 出する方法において、 前記二値輪郭画像内に存在する複数の所定の値の 画素各々を中心とする複数の局所領域の各々において、 前記中心からの 方位に関して各々一定の方位角の範囲に存在する複数の扇状の領域を有 するパターンの各領域に存在する前記所定の値の画素の数を.計数する第 1のステップと、 前記計数が所定の値より大きい領域を求め、 これらの 領域の方位に、 それぞれ局所的な線分が存在すると判定する第 2のステツ プと、 前記第 2のステップにて判定された 2つの局所的な線分の方位で あって互いに 1 8 0 ° 異なるものがあるときに、 前記局所領域内では該 画素を通過する直線方位の局所的な線分が存在すると判定する第 3のス テツプと、 前記第 2のステップにて判定された 2つの局所的な線分の方 位のうちで第 1の局所的な線分の方位が前記第 2のステップにて判定さ れた直線方位の局所的な線分における前記 2つの局所的な線分の方位の —方から所定の方位角の範囲内にあり、 前記 2つの局所的な線分の方位 のうちで第 2の局所的な線分の方位が前記第 2のステップにて判定され た直線方位の局所的な線分における前記 2つの局所的な線分の方位の他 方から所定の方位角の範囲内にあり、 且つ、 該第 1および第 2の局所的 な線分の方位が互いに 1 8 0 ° 異なるものでないときには、 該第 1およ び第 2の局所的な線分が、 前記第 2のステツプにて判定された直線方位 の局所的な線分に対して準直線方位の局所的な線分を構成するものとし て検出する第 4のステップと、 互いに瞬接する画素であって、 該画素列 は、 前記第 3のステップにおいて直線方位の局所的な線分が通過すると 判定された画素を少なくとも 1つ合み、 該画素列内の該少なくとも 1つ の画素は全て同一の局所的な線分の方位を有し、 該画素列内の該少なく とも 1つの画素 外の画素は、 該少なくとも 1つの画素について前記第 2のステップにて判定された直線方位の局所的な線分に対して準直線方 位の局所的な線分を構成すると前記第 3のステップにて判定された画素 であるとき、 該画素列が 1つの線分を構成する候補と判定する第 5のス テツプとを有することを特徵とする方法が提供される。
本発明の第 8の形態によれば、 上記の本発明の第 7の形態において、 前記第 5のステップにて前記 1つの線分を構成する候補と判定される第 1の候補を構成する第 1の画素列であって、 該第 1の画素列のうち前記 直線方位の画素が判定される前記少なくとも 1つの画素が第 1の方位を 有する第 1の画素列と、 前記第 5のステップにて前記 1つの線分を構成 する候補と判定される第 2の候補を構成する第 2の画素列であって、 該 第 2の画素列のうち前記直線方位の画素が判定される前記少なぐとも 1 つの画素が前記第 1の方位と異なる第 2の方位を有する第 2の画素列と が、 少なくとも 1つの画素を共有するときには、 前記第 1の線分の候補 は、 前記第 1の画素列のうちの前記少なくとも 1つの画素であって前記 共有される画素に最も近い側にある第 1の画素まで延びる第 1の線分で あり、 前記第 2の画素列のうちの前記少なくとも 1つの画素であって前 記共有される画素に最も近い側にある第 2の画素まで延びる第 2の線分 であり、 前記第 1および第 2の線分は前記第 1の画素から前記第 2の画 素に到る互いに隣接する画素列によつて構成される接続部によつて接続 されると判定するステップを有することを特徴とする方法が提供される。 本発明の第 9の形態によれば、 二値輪郭画像内の輪郭線から角の位置 を検出する方法において、 前記二値輪郭画像内に存在する複数の所定の 値の画素各々を中心とする複数の局所領域の各々において、 該局所領域 内の前記中心とした画素を中心として複数の方位の各々に存在する該所 定の値の画素の数を求める第 1のステップと、 前記局所領域内では該画 素の数が所定の値より多い方位に局所的な線分が存在すると判定する第 2のステップと、 前記第 2のステップにて判定された 2つの局所的な線 分の方位のうちで該 2つの局所的な線分の方位の差と 1 8 0 ° との差の 絶対値が所定の角度を超えるときに、 該局所領域の前記中心の画素は、 角の位置の近傍にある角近傍点であると判定する第 3のステップと、 互 いに隣接する角近傍点の画素からなるグループを求める第 4のステップ と、 前記グループの各々において、 該グループ内の各画素の座標の代表 値を求める第 5のステップと、 前記グループの各々において、 該グルー プ内の各画素を中心とする局所領域内における前記 2つの局所的な線分 の方位の中間の方位を、 該角近傍点の角方位として求める第 6のステツ プと、 前記グループの各々において、 該グループ内の全画素の角方位の 代表値を求める第 7のステップとを有してなることを特徴とする方法が 提供される。
本発明の第 1 0の形態によれば、 二値輪郭画像内の輪郭線から線分を 検出する方法において、 前記二値輪郭画像内に存在する複数の所定の値 の画素各々を中心とする複数の局所領域の各々において、 該局所領域内 の前記中心とした画素を中心として複数の方位の各々に存在する該所定 の値の画素の数を求める第 1のステツプと、 前記局所領域内では該画素 の数が所定の値より多い方位に局所的な線分が存在すると判定する第 2 のステップと、 前記第 2のステップにて判定された 2つの局所的な線分 の方位であって互いに 1 8 0 ° 異なるものがあるときに、 該局所領域内 では該画素を通過する第 3の局所的な線分が存在すると判定する第 3の ステップと、 前記第 3のステップにおいて、 互いに隣接する画素であつ て、 これらの画素を同一の方位を有する局所的な線分が通過すると各局 所領域内で判定されるとき、 これらの画素のグループが 1つの線分を構 成する候補と判定する第 4のステップと、 前記第 2のステップにて判定 された 2つの局所的な線分の方位の差と 1 8 0 ° との差の絶対値が所定 の角度を超えるときに、 該局所領域の前記中心の画素は、 角の位置の近 傍にある角近傍点であると判定する第 5のステップと、 互いに隣接する 角近傍点の画素からなるグループを求める第 6のステップと、 前記グルー プの各々において、 該グループ内の各画素の座標の代表値を求める第 6 のステップと、 前記グループの各々において、 該グループ内の各画素を 中心とする局所領域内における前記 2つの局所的な線分の方位の中間の 方位を、 該角近傍点の角方位として求める第 7のステップと、 前記グルー プの各々において、 該グループ内の全画素における角方位の代表値を求 める第 8のステップと、 前記第 8のステップにて求めた角方位の代表値 の中から、 互いに 1 8 0度異なるものの対のグループを求める第 9のス テツプと、 前記第 9のステップにて求めた対のグループ同士において、 互いの座標の代表値の点の間を結ぶ線分を求める第 1 0のステップと、 前記互いの座標の代表値の点の間を結ぶ線分同士が互いに交わる 2つの 対の組を求める第 1 1のステップと、 前記第 4のステップにおいて求め た線分の候補の中で、 前記 2つの対の組における、 互いに瞵接する画素 からなる 4つのグループの間を結ぶものを検索して 4辺形として求める 第 1 2のステップとを有することを特徴とする方法が提供される。 図面の簡単な説明
図 1および図 2は、 ハフ変換の説明図、
図 3は、 本発明の第 1の形態の基本構成を示す図、
図 4は、 本発明の第 2の形態の実施例における局所領域の線分検出の アルゴリズムを示す図、
図 5は、 輪郭画像の全領域内の局所領域を示す図、
図 6は、 局所領域において対象画素を中心画素から見た方位を示す図、 図 7は、 線分方位を求めるための画素数の列を示す図、
図 8は、 本発明の第 2の形態の実施例における局所領域の線分検出の ァルゴリズムの第 2の例を示す図、 図 9は、 局所領域内の輪郭点の分布の 1例、 および、 対応する画素数 の列を示す図、
図 1 0は、 線分判定基準アルゴリズムの 1例を示す図、
図 1 1は、 中心画素および周囲の画素の配置を示す図、
図 1 2は、 線分方位検出用パターンを示す図、
図 1 3は、 線分方位検出用の第 2のパターンを示す図、
図 1 4は、 本発明の第 1の形態による線分の方位決定方法の 1例を示 す図、
図 1 5は、 本発明の第 3の形態の基本構成を示す図、
図 1 6は、 本発明の第 4の形態の基本構成を示す図、
図 1 7は、 本発明による方位判定の説明図、
図 1 8は、 本発明による方位判定の説明図、
図 1 9は、 本発明の第 3の形態の第 1の実施例における局所領域の線 分検出のァルゴリズムを示す図、
図 2 0は、 本発明の第 3の形態の第 2の実施树における局所領域の線 分検出のァルゴリズムを示す図、
図 2 1は、 本発明の第 4の形態の実施例における局所領域の線分検出 のアルゴリズムを示す図、
図 2 2は、 図 1 4の画素数分布に対して、 本努明の第 3の形態による 処理を施した結果の画素数分布を示す図、
図 2 3は、 他の画素数分布の例を示す図、
図 2 4は、 図 2 3の分布に対して本発明の第 3の形態による処理を施 した例を示す図、
図 2 5は、 図 1 2および 1 3のパターンによって検出可能な、 線分の 局所的な 1 6方位を示す図、 図 2 6 Aおよび図 2 6 Bは、 1つの線分が通過する輪郭点において、 図 1 2および 1 3のパターンを適用した例を示す図、
図 2 6 Cは、 図 2 6 Aおよび図 2 6Bに示されるようにして 2つのパター ンによって検出された線分の局所的な方位が 1 6方位の 1つとして検出 されることを示す図、
図 2 7は本発明の第 5の形態の実施例における線分検出のァルゴリズ ムを示す図、
図 2 8は、 本発明の第 6の形態の実施例における準直線方位の定義を 示す図、
図 2 9は、 2つの線分が曲線によって滑らかに接続している例を示す 図、
図 3 0は、 2つの線分の交点と、 該交点に対応して検出される角の代 表値 (位置) と角方位の代表値 (方位) を示す図、
図 3 1は、 2つの線分の交点の近傍における角近傍点列の角点におい て検出される角方位を示す図、
図 3 2は、 本発明の第 9の形態の実施例における角検出のァルゴリズ ムを示す図、
図 3 3は、 本発明の第 9の形態の実施例における角方位の定義を示す 図、
図 3 4は、 本発明の第 1 0の形態の実施例における 4角形検出のアル ゴリズムを示す図、
図 3 5は、 本発明の第 1 0の形態によって検出される四角形の 1例を 示す図、 そして
図 3 6は、 以上述べた本発明の種々の方法を実施するハードウェア構 成を示すものである。 発明を実施するための最良の形態
本究明の第 1および第 2の形態の基本構成 (図 3 )
図 3は、 本発明の第 1の形態の基本構成を示すものである。 図 3に示 されているように、 ステップ 1においては、 線分の方位を求める対象と なる 2値輪郭画像において、 該線分の方位を求める局所領域、 および、 該局所領域の中心画素を決定する。
ステップ 2においては、 該局所領域内の上記の中心画素以外の画素の 該中心画素から見たときの方位を求める。
ステップ 3においては、 上記の局所領域内で各方位にある上記の所定 の値の画素の数を計数する。
そして、 ステップ 4においては、 上記の局所領域内で各方位にある上 記の所定の値の画素の数の多い方向に線分が伸びていることが認識され る。
図示しないが、 本究明の第 2の形態においては、 図 3の処理を、 対象 となる画像内の全ての上記の所定の値の画素を中心画素とする局所領域 について行う。 これにより、 対象となる画像内の全ての領域における線 分の分布が認識され、 この後、 これらの線分を統合的に判断することに より、 上記の対象となる画像内の全ての領域における輪郭線 (曲線およ び直線) が認識される。
上記の第 2の形態における、 中心とする複数の画素は、 該ニ値輪郭画 像内に存在する全ての所定の値の画素とすることができる。
上記の第 1および第 2の形態における複数の方位は、 前記局所領域の 各々に存在する前記所定の値の画素の各々と、 該局所領域における前記 中心とする 1つの画素とを結ぶ直線が該中心を通る所定の方位の直線に 対してなす角度を決定することにより求めることができる。 上記の第 1および第 2の形態における複数の方位の各々に存在する該 所定の値の画素の数の計数は、 前記局所領域の各々において、 前記中心 からの方位に関して各々が一定の方位角の範囲を有する複数め扇状の領 域を有するパターンの各領域に存在する前記所定の値の画素の数を計数 することにより行うことができる。
上記の第 1および第 2の形態における複数の方位の各々に存在する該 所定の値の画素の数の計数は、 更に、 前記パターンの各扇状領域の中心 からの方位に関する範囲を、 方位に関して該範囲の l Z 2 つずらして なる複数の扇状領域からなる第 2のパターンの各領域に存在する前記所 定の値の画素の数を計数することによつても行うことができる。
上記の第 1および第 2の形態において、 該方位の前記所定の値の画素 の数が最も大きい方位、 および、 2番目に大きい方位に上記の方位に線 分が存在すると判定することができる。
尚、 上記の第 1および第 2の形態において、 上記の局所領域内におけ る線分の方位の判定は、 前記中心とする画素の回りに隣接して前記所定 の値を有する画素が少なくとも 1つないときには、 その画素は孤立して いると考えられるので、 上記の方位検出は行わないようにすることがで さる。
尚、 上記の第 1および第 2の形態において、 上記の局所領域内におけ る線分の方位の判定は、 前記中心とする画素の回りに隣接する全ての画 素が前記所定の値と同じ値を有するときには、 このときの中心画素は線 分の一部ではないと判断して上記の方位検出は行わないようにすること ができる。 本発明の第 1および第 2の形態の実施例 (図 4〜; L 2)
図 4は本発明の第 1および第 2の形態の実施例における局所領域の線 分検出のアルゴリズムを示すものである。
図 4において、 ステップ 11にては、 原画像を取得する。 そして、 ス テツプ 12にては、 上記の原画像から輪郭線を抽出する。 ステップ 13 では、 図 5に示されているように、 輪郭画像の画像メモリの 1隅の座標 を (0, 0) とするとき、 局所領域の中心画素の座標 X0, Y0の初期 値を、 上記の輪郭画像の画像メモリの 1隅の画素の座標を (0, 0) 力 ら X方向および Y方向にそれぞれ n番目の画素とする。 この実施例では、 図 5に示されているように、 局所領域のサイズを (2 n+ l) (2 π +1) とする。
ステップ 1 4にては、 座標 X0, Y0の中心画素が黒 (上記の輪郭画 像が輪郭点を黒で表示しているとき) か否かを判定する。 黒でなければ ステップ 26に進み、 黒でならばステップ 15に進む。
ステップ 15では、 当該局所領域内の、 中心画素に対する方位を求め る対象の画素の座標 (X, y) の初期値を当該局所領域のうち X座標お よび y座標の最も小さい値とする。 そして、 ステップ 16では、 座標 x, yの対象画素が黒 (上記の輪郭画像が輪郭点を黒で表示しているとき) 力否かを判定する。 黒でなければステップ 19に進み、 黒でならばステツ プ 17に進む。
ステップ 1 7では、 図 6に示されているように、 対象画素の座檫 x, yが当該局所領域の中心画素 X 0, Y 0に対してどの方位に位置するか を、 X軸に対する角度 0として求める。 そして、 ステップ 18では、 1 。 毎に区切った 360方位に対応するレジスタ列 (或るいは、 メモリ領 域の列) のうち、 求めた角度 0に封応するレジスタ line [Θ 内のデータ を 1インクリメントする。 ここで、 この実施例では、 上記の角度 0の分 布を求めるために、 本発明の方法を実行する画像データ処理装置は、 図 7に示されているように、 毎に区切った 3 6 0方位に対 するレジ スタ列を有するものとする。
次に、 ステップ 1 9においては、 上記の対象画素の X座標が当該局所 領域の X座標の最大値に到達したか否かを判定する。 到達したならば、 ステップ 2 0に進み、 到達しないならば、 ステップ 2 1に進んで X座標 を 1インクリメントして、 ステップ 1 6に戻る。
ステップ 2 0においても、 上記の対象画素の y座標が当該局所領域の y座標の最大値に到達したか否かを判定する。 到達したならば、 ステツ プ 2 3に進み、 到達しないならば、 ステップ 2 1に進んで y座標を 1ィ ンクリメン卜して、 ステップ 1 6に戻る。
ステップ 2 3においては、 局所領域の中心画素の X座標 X 0が対象と なる輪郭画像メモリの X座標の最大値 (一 n ) に到達したか否かを判定 する。 到達したならば、 ステップ 2 7に進み、 到達しないならば、 ステツ プ 2 4に進んで X座標 X 0を 1インクリメン卜して、 ステップ 1 4に戻 る。
ステップ 2 7においては、 局所領域の中心画素の Y座標 Y'Oが対象と なる輪郭画像メモリの Υ座標の最大値 (一 η ) に到達したか否かを判定 する。 到達したならば、 図 4の処理は終了し、 到達しないならば、 ステツ プ 2 5に進んで Υ座標 Υ 0を 1インクリメントして、 ステップ 1 4に戻 る。
ところで、 従来の画像データ処理装置においては、 輪郭画像データの うち、 輪郭点 (黒の画素) の座標のみを輪郭点バッファに格納する機能 を有するものがある。 この場合は、 図 4の手 MIにおける、 ステップ 1 4およびステップ 1 6 等処理、 すなわち、 輪郭点の座標か否かを判定する手順は不要であり、 輪郭点バッファに格納された座標値を座標値の大小順に読み出して方位 Θを検出する処理を行えばよい。 図 8はこのような場合の局所領域の線 分検出のァルゴリズムを示すものである。
図 9 Aおよび 9 Bは、 局所領域内の輪郭点の分布の 1例、 および、 この 局所領域から求めた線分方位に対する画素数の列を示すものである。
図 1 0は、 上記の図 4または図 8に示されているような手順で、 輪郭 画像の全領域内の各局所領域について求めた、 線分方位に対する画素数 の列 (図 7 ) カゝらその局所領域における線分の方位を決定する処理を示 すものである。 図 1 0に示されているように、 各角度 0に対応するデ一 タ line [Θ が、 予め設定した所定のしきレ ¾Ν未満ならば、 驗方位バッ ファに格納せず (ステップ 5 2 ) 、 予め設定した所定のしきい値 N以上 ならば、 線分方位バッファに格納する (ステップ 5 3 ) 。
更に、 先に述べたように、 中心画素 A (図 1 1 ) の周囲の画素 a〜h (図 1 1 ) が、 中心画素 Aの回りに隣接して黒の画素が少なくとも 1つ ないときには、 その画素は孤立していると考えられるので、 上記の方位 検出は行わないようにすることができる。
また、 中心画素 Aの回りに瞬接する全ての画素が黒のときには、 この ときの中心画素は線分の一部ではないと判断して上記の方位検出は行わ ないようにすることができる。
以上述べた実施例においては、 各局所領域内における対象画素の中心 画素から見た方位は、 中心画素および対象画素の座標から演算によって 求めている (図 4のステップ 1 7および図 8のステップ 3 5 ) が、 図 1 2に示されているような、 複数の厦状領域を有するパターンを用いて、 パタ一ン内の領域 0〜 7それぞれの中に存在する輪郭点 (黒の画素) の 数を計数し、 これによつて、 前記の線分方位に対する画素数の列 (図 7) を求めることができる。
更に、 図 1 2のパターンと共に、 図 1 3に示されているような第 2の パターンをも用いて前記の線分方位に対する画素数の列 (図 7 ) を補間 することができる。 この第 2のパターンは、 図 1 2のパターンにおいて 各扇状領域をハーフピッチずらしたものである。
この場合、 第 1および第 2のパターンそれぞれを用いたときの計数が 最も大きい領域および 2番目に大きい領域をそれぞれ求め、 第 1のパター ンにおける計数が最も大きい領域および 2番目に大きい領域と、 前記第 2のパターンにおける計数が最も大きい領域および 2番目に大きい領域 とが重なる 2つの領域を求め、 これら 2つの領域の方位にそれぞれ第 1 および第 2の局所的な線分が存在すると判定する。
以上説明したように、 本発明の第 1および第 2の形態の二値輪郭画像 の二値輪郭画像の局所領域における輪郭の線分の方位の決定方法によれ ば、 画像の局所的な線分を簡素な処理によつて検出することができると いう効果がある。 本発明の第 1および第 2の形態における課題 (図 1 4 )
図 1 4は、 上記の本発明の第 1の形態の方法を、 1例として、 画素 P の近傍の 6方向に存在する画素 Pと同じ値の画素の数を、 画素 Pを中心 とする 8枚の扇状領域 (0)〜(7)に存在する画素 Pと同じ値の画素の数と して求めた結果を示すものである。 各扇状領域 (0)〜(7)に存在する画素 P と同じ値の画素の数は、 該扇状領域内にアンダライン付きで示されてい る。 図 1 4に示されているように、 画素 Pを通る輪郭線分が通る扇状領 域内の計数が大きくなっている。
しかしながら、 図 1 4に示されているように、 実際に求めたい輪郭線 分の他にノイズ等が入った場合には、 上記の方法だけからは、 輪郭線分 か否かの判定が難しくなる。 例えば、 図 1 4の領域 (6)では、 該領域内の 計数は 9であるが、 そのうち、 実際の輪郭線分からの寄与は 5であり、 その他の 4はノィズによるものである。 本発明の第 3および第 の形態の基本構成
本発明の第 3の形態は、 図 1 5に示されているように、 二値輪郭画像 の局所領域における輪郭の線分の方位の決定方法において、
前記局所領域内の所定の値の画素の 1つを中心として複数の方位の各々 に存在する該所定の値の画素の数を求め (ステップ 1 0 1 ) 、
該複数の方位の各々に存在する該所定の値の画素の数が該各々の方位 の両隣の方位に存在する該所定の値の画素の数の和を求め (ステップ 1 0 2 ) 、
上記の複数の方位の各々に存在する該所定の値の画素の数と上記の和 との差を求めて、 該差が所定の値より多いか否かを判定し (ステップ 1 0 3 ) 、 多いと判定されたときには、 該各々の方位に線分が存在すると 判定する (ステップ 1 0 4 ) ことを特徵とするものである。
本発明の第 4の形態は、 図 1 6に示されているように、 二値輪郭画像 の局所領域における輪郭の線分の方位の決定方法において、
前記局所領域内の所定の値の画素の 1つを中心として複数の方位の各々 に存在する該所定の値の画素の数を求め (ステップ 1 0 1 ) 、
該複数の方位の各々に存在する該所定の値の画素の数が該各々の方位 の雨隣の方位に存在する該所定の値の画素の数の和を求め (ステップ 1 0 2 ) 、
上記の複数の方位の各々に存在する該所定の値の画素の数と上記の和 との差を求め (ステップ 1 0 7 ) 、 該差が所定の値より最も多い方位、 および、 2番目に多い方位を検出し、 該各々の方位に線分が存在すると 判定する (ステップ 1 0 8 ) ことを特徴とするものである。
そして、 上記の本発明の第 3および第 4の形態による処理は、 二値輪 郭画像内に存在する複数の所定の値の画素各々を中心とする複数の局所 領域の各々において行うことができる。
上記の本発明の第 3および第 4の形態において、 上記の中心とする複 数の画素は、 該ニ値輪郭画像内に存在する全ての所定の値の画素とする ことができる。
上記の本発明の第 3および第 4の形態において、 上記の複数の方位の 各々に存在する該所定の値の画素の数の計数は、 前記局所領域の各々に おいて、 前記中心からの方位に関して各々が一定の方位角の範囲を有す る複数の扇状の領域を有するパターンの各領域に存在する前記所定の値 の画素の数を計数することにより行うことができる。
本発明により、 対象となる画像内の全ての領域における線分の分布が ¾1識され、 この後、 これらの線分を統合的に判断することにより、 上記 の対象となる画像内の全ての領域における輪郭線 (曲線および直線) が 認識される。
上記の第 3および第 4の形態における複数の方位は、 前記局所領域の 各々に存在する前記所定の値の画素の各々と、 該局所領域における前記 中心とする 1つの画素とを結ぶ直線が該中心を通る所定の方位の直線に 対してなす角度を決定することにより求めることができる。
上記の第 3および第 4の形態における複数の方位の各々に存在する該 所定の値の画素の数の計数は、 前記局所領域の各々において、 前記中心 カ^の方位に関して各々が一定の方位角の範囲を有する複数の厨状の領 域を有するパターンの各領域に存在する前記所定の値の画素の数を計数 することにより行うことができる。
上記の第 3および第 4の形態における複数の方位の各々に存在する該 所定の値の画素の数の計数は、 更に、 前記パターンの各扇状領域の中心 からの方位に関する範囲を、 方位に関して該範囲の 1 2づっずらして なる複数の扇状領域からなる第 2のパターンの各領域に存在する前記所 定の値の画素の数を計数することによつても行うことができる。
尚、 上記の第 3および第 4の形態において、 上記の局所領域内におけ る線分の方位の判定は、 前記中心とする画素の回りに隣接して前記所定 の値を有する画素が少なくとも 1つないときには、 その画素は孤立して いると考えられるので、 上記の方位検出は行わないようにすることがで ぎる。
尚、 上記の第 3および第 4の形態において、 上記の局所領域内におけ ' る線分の方位の科定は、 前記中心とする画素の回りに隣接する全ての画 素が前記所定の値と同じ値を有するときには、 このときの中心画素は線 分の一部ではないと判断して上記の方位検出は行わないようにすること ができる。
図 1 7は、 本発明の第 3の形態に特有の方位判定の手順の 1例を示す ものである。 画素 Pを中心とする局所領域の複数の方位の部分領域の各々 について、 その部分領域を注目領域として、 その注目領域の両隣の部分 領域 Iおよび I Iにおける前記計数 (画素 Pと同じ値の画素の数) の和 を求める。 図 1 7の場合、 注目領域における計数 (画素 Pと同じ値の画 素の数) は、 1 5であり、 隣接領域 Iおよび I Iにおける計数は、 それ ぞれ、 0および 5である。 したがって、 隣接領域 Iおよび I Iにおける 前記計数の和は 5となる。 この和 5と、 注目領域における計数 1 5との 大小を比較すると、 注目領域における計数 1 5が上記の和 5より大きい。 よって、 この注目領域の方位が線分の方位と判定される。
図 1 8は、 上記の比較を、 複数の方位の各々 (注目領域) に存在する、 画素 Pと同じ値の画素の数から該各々の方位の両隣の方位に存在する該 所定の値の画素の数の和 (隣接領域 Iおよび I Iにおける前記計数の和) を差し引くステップと、 該差し引いた数と零とを比較するステップとに よって実現する場合を示すものである。
注目領域における計数 1 5と上記の和 5との差は 1 0であり、 1 0と 0とを比較すれば、 0より大であるので、 この注目領域の方位が線分の 方位と判定される。 本発明の第 3および第 4の形態の実施例 (図 1 9〜 2 4 )
図 1 9は本発明の第 3の形態の第 1の実施例における局所領域の線分 検出のアルゴリズムを示すものである。
図 1 9において、 ステップ 1 1 1にては、 原画像を取得して輪郭線を 抽出する。 そして、 ステップ 1 1 2から 1 1 9の間においては、 上記の 輪郭線を構成する画素の 1つ 1つを順次注目する画素として、 各注目す る画素の周囲の線分の方位を求める。 ステップ 1 1 2においては、 座標 (Xi,Yi)の画素を上記の注目する画素として取り出し、 ステップ 1 1 3に おいては、 該注目する画素の周囲の複数の部分領域の各々を指定するィ ンデックス Xを 0とおく。 そして、 ステップ 1 1 4において、 上記の部 分領域 Xの画素数 Iを計数する。 次に、 ステップ 1 1 5においては、 上 記の部分領域 Xの両隣の部分領域の画素数の和 Oを計数する。 そして、 ステップ 1 1 6においては、 上記の部分領域 Xの計数 Iと両隣の部分領 域における計数の和 Oとを比較し、 I〉0のときには、 この部分領域 X の方位を、 線分が存在する方位として抽出し、 ステップ 1 1 7において、 上記のインデックス Xをインクリメントして次の部分領域を指定する。 以上、 ステップ 1 1 4から 1 1 7の動作を、 ステップ 1 1 8において X が 7に到達する (この例では、 前述の図 1 4におけるように、 注目する 画素の周囲が 8つの方位に対応する 8つの部分領域に分割されているも のとしているので部分領域を指定するインデックスは 0〜 7である) ま で繰り返し、 更に、 ステップ 1 1 2からステップ 1 1 8までの動作を、 上記の抽出した輪郭線の全ての画素について行われたとステップ 1 1 9 にて判断されるまで行って処理を完了する。
図 2 0は本発明の第 3の形態の第 2の実施例における局所領域の線分 検出のァルゴリズムを示すものである。
図 2 0の手 !111は、 ステップ 1 2 6においてのみ、 図 1 9のステップ 1 1 6と異なり、 他の竽順は、 図 1 9の手順と同じである。 図 2 0のステツ プ 1 2 6においては、 部分領域 Xの計数 Iと両隣の部分領域における計 数の和 Oとを直接比較せず、 先ず、 部分領域 Xの計数 Iと両隣の部分領 域における計数の和 Oとの差を演算し、 そして、 この差を 0と比較して、 この差が 0より大きければ、 この部分領域 Xの方位を、 線分が存在する 方位として抽出するものである。
図 2 1は本発明の第 4の形態の実施例における局所領域の線分検出の ァルゴリズムを示すものである。
図 2 1のステップ 1 4 1〜1 4 5の動作、 および、 ステップ 5 0の動 作は、 上記の図 1 9のステップ 1 1 1〜1 1 5の動作、 および、 ステツ プ 1 1 9の動作、 および、 図 2 0のステップ 1 2 1〜1 2 5の動作、 お よび、 ステップ 1 2 9の動作に、 それぞれ対応するものであるが、 図 2 1の手順においては、 ステップ 1 4 6においては、 部分領域 Xの計数 I と両隣の部分領域における計数の和 Oとの差を演算して、 これをー且メ モリに格納する。 以下、 全ての部分領域について、 上記のように、 部分 領域 Xの計数 Iと両隣の部分領域における計数の和 0との差を演算して、 これを一旦メモリに格納する。 そして、 ステップ 1 4 9にて、 上記の格 納した差の値が最も大きい部分領域の方位、 および、 2番目に大きい部 分領域の方位を、 線分が存在する方位として抽出するものである。
図 2 2は、 前述の図 1 4の画素数分布に対して、 図 1 7および 1 8を 参照して説明したような処理を施した結果を示すものである。 上記の図 2 1の手順に従うならば、 (2)および (7)の方位が、 この画素 Pを通る線 分の方位として抽出される。 この結果においては、 図 1 4に示されてい るノィズの影響は全く抑制されている。
図 2 3は、 図 1 4とは異なる画素数分布の他の例を示すものであり、 図 2 4は、 図 2 3の分布に対して、 本発明による上記の処理を施した結 果を示すものである。 図 2 4に示されているように、 本発明による処理 によって、 線分の方位が非常に明確になつている。
上説明したように、 本発明の第 3および第 4の二値輪郭画像の局所 領 ¾^における輪郭の線分の方位の決定方法によれば、 ノィズによる影響 を抑制して、 画像の局所的な線分を簡素な処理によって検出することが できるという効果がある。 本発明の第 5の形態の基本構成
本発明の第 5の形態においては、 二値輪郭画像内の輪郭線から線分を 検出する方法において、 第 1のステップでは、 前記二値輪郭画像内に存在する複数の所定の値 の画素各々を中心とする複数の局所領域の各々において、 該局所領域内 の前記中心とした画素を中心として複数の方位の各々に存在する該所定 の値の画素の数を求める。
第 2のステップでは、 前記局所領域内では該画素の数が所定の値より 多い方位に局所的な線分が存在すると判定する。
第 3のステップでは、 前記第 2のステップにて W定された 2つの局所 的な線分の方位が互いに 1 8 0 ° 異なるときに、 該局所領域内では該画 素を通過する直線方位の局所的な線分が存在すると判定する。
第 4のステップでは、 前記第 3のステップにおいて、 互いに隣接する 画素であって、 これらの画素を同一の方位を有する局所的な線分が通過 すると各局所領域内で判定されるとき、 これらの画素のグループが 1つ の線分を構成する候補と判定する。
なお、 上記の局所的な線分の方位は、 前述 (本発明の第 1〜4の形態) のような種々の方法の何れによって求めてもよい。 本発明の第 5および第 7の形態の実施例 (表、 図 2 5〜 2 7 )
本発明の第 5の形態の実施例においては、 各輪郭点を中心とする局所 的な線分の方位の決定のために、 前述の図 1 2および 1 3のパターンを 使用する。 図 1 2および 1 3のパターンは、 各々 4 5 ° の方位角の範囲 を有する 8方位の領域からなるものである。 これら 2つのパターンを用 いることにより、 表および図 2 5に示されるように、 0〜 1 5の 1 6方 位が検出される。
例えば、 図 2 6Aおよび 2 6Bでは、 線分方位を検出するときの中心画 素 Gを輪郭線の直線 0 0が通過するとすると、 図 2 6 Aでは、 方位 1お よび 5の方位に画素数のピークが検出され、 図 2 6 Bでも、 方位 1および
5の方位に画素数のピークが検出される。 こうして、 表および図 2 6 Cに 示されるように、 1 6方位のうち、 3— 1 1の方位に画素数のピーク 1
2 1が存在することが検出される。
図 2 7は本発明の第 5の形態の実施例における線分検出のァルゴリズ ムを示すものである。 図 2 7のステップ 2 0 1においては、 前述の本発 明の第 1〜4の形態によって、 各輪郭点を中心とする局所的な線分の方 位が決定される。 ここでは、 各輪郭点を中心とする局所領域内では他の 輪郭点の画素の数が所定の値より多い方位が検出される。 次に、 ステツ プ 2 0 2において、 上記のステップ 2 0 1にて求めた 2つの線分方位が
1 8 0 ° 異なる方位であるとき、 この輪郭点を通過する局 的な線分が 存在すると判定する。 例えば、 図 2 5の 1 6方位のうち、 方位 3と方位 1 1は 1 8 0 ° 異なる方位である。 そして、 ステップ 2 0 31こおいて、 互いに瞵接する画素であって、 これらの画素を同一の方位を有する直線 方位の局所的な線分が通過すると各局所領域内で判定されるとき、 これ らの画素のグループが 1つの線分を構成する候補と判定する。 本実施例 では更に、 ステップ 2 0 4にて、 1つの線分を構成する候補と判定され た画素のグループが通過する互いに隣接する画素の座標から、 例えば、 以下の式によって相関計数を求める。
R: (∑XiYi/N - XmYm) /oxOy
ここで、 Rは相関計数、 Nは 1つの線分を構成する候補と判定された画素 のグループ内の画素数、 Xiおよび Yiは、 上記のグループ内の各画素の Xお よび Y座標、 Xmおよび Ymは、 上記のグループ内の各画素の Xおよび Y座標 の平均値、 そして、 σχおよび CJyは、 上記のグループ内の各画素の Xおよび Y座標の標準偏差である。 ステップ 2 0 6では、 上記のようにして求めた相関係数が所定の値以 _ ^否かを判定する。 所定の値以上であるならば、 ステップ 2 0 7にて、 上記の画素のダル一プは線分を構成するものと判定し、 その傾きおよび 切片 (端点) の座標を求める。 また、 所定の値以上でないならば、 ステツ プ 2 0 8にて、 上記の画素のグループは線分を構成するものと判定する。 なお、 上記のステップ 2 0 6において、 線分を検出する際には、 前述 の本発明の第 7の形態によって、 同一方位の直線方位の局所的な線分だ けでなく、 該同一方位から所定の角度の範囲にある準直線方位の局所的 な線分をも舍む連綜する画素列を 1つの線分の候補としてもよレ、。 本発明の第 6および第 8の形態の実施例 (図 2 8〜3 1 )
線分が前述の本発明の第 5の形態に従って求められるときには、 各輪 郭点を中心とする局所領域において、 他の輪郭点の画素の数が最も多い 方位が、 2番目に多レ、方位に対して 1 8 0 ° の方位とは異なるが、 該 1 8 0 ° の方位から所定の方位角の範囲内にあるとき、 該第 1および第 2 の局所的な線分が該局所領域の中心画素を通過する準直線方位の局所的 な線分を構成するものとして検出する。 ここでは、 例えば、 局所的な線 分の構成要素として図 1 7のステップ 2 0 2で検出される 3— 1 1の方 位のまわりでは、 図 2 8に示されるように、 図 2 8の 3— 1 0、 3— 1 2、 2 - 1 1 , および、 4 - 1 1の方位が、 準直線方位の局所的な線分 を構成するものとして検出される。 そして、 前述の図 2 7のステップ 2 0 3にて線分を構成する侯捕と判定された第 1および第 2の画素列 (ま たは、 図 2 7のステップ 2 0 7にて線分を構成すると判定された画素列) が、 互いに瞵接する第 3の画素列によつて接続され、 該第 3の画素列の 各画素を中心として上記の準直線方位の線分が検出され、 上記の第 1の 画素列に隣接する第 3の画素列の画素を中心として検出された前述の 2 つの方位のうちの 1つが、 上記の第 1の画素列の各画素を中心として検 出された 2つの方位の 1つに一致し、 上記の第 2の画素列に隣接する第 3の画素列の画素を中心として検出された前述の 2つの方位のうちの 1 つが、 上記の第 2の画素列の各画素を中心として検出された 2つの方位 の 1つに一致し、 且つ、 該第 3の画素列が線分を構成する候補を舍まな いときは、 該第 3の画素列を、 前記第 1および第 2の画素列が構成する 線分間を接続する接続部として検出する。
この接続部は、 図 2 9に示されるように、 2つの線分を滑らかに接続 する曲線部であることもあれば、 上記のように検出された 2つの線分が 実際には更に上記の接続部まで延びており、 ここで、 互いに交わってい る場合もあり得る。 2つの線分が直接交わるときには、 上記の延びてい る線分を構成する画素のうち、 これらの線分の交点から上記の局所領域 のサイズ以内の距離にある画素から上記の交点の方位の画素数を計数す るときには、 他方の線分上の画素をも計数することになり、 上記の 2つ の線分の方位の差がさほど大きくないときには、 上記の局所領域のサイ ズ以内の距離にある画素では 「準直線方位の局所的な線分」 が検出され る。
線分が前述の本発明の第 5の形態に従って求められるときには、 上記 の接続部は、 本発明の第 8の形態に従って以下のように求められる。 す なわち、 同一の方位を有する少なくとも 1つの直線方位の局所的な線分 が通過する画素を舍み、 更に、 この直線方位に対する準直線方位の線分 が通過する画素をも合んでよいものとして求められた第 1の線分候補と、 方位が異なる第 2の線分候補とが該素を共有する (すなわち、 輪郭点で 接続されている) ときには、 該第 1の線分候補の画素列のうちの前記少 なくとも 1つの画素であって前記共有される画素に最も近い側にある第 1の画素まで延びる第 1の線分であり、 前記第 2の画素列のうちの前記 少なくとも 1つの画素であって前記共有される画素に最も近い側にある 第 2の画素まで延びる第 2の線分であり、 前記第 1および第 2の線分は 前記第 1の画素から前記第 2の画素に到る互いに瞵接する画素列によつ て構成される接続部によつて接続されると判定する。 本発明の第 9の形態の実施例 (図 3 2, 3 3 )
図 3 2は、 本 明の第 9の形態の実施例における角検出のァルゴリズ ムを示すものである。 図 3 2のステップ 2 1 1においても、 前述の本発 明の第 1〜4の形態によって、 各輪郭点を中 2心とする局所的な線分の 方位が決定される。 ここでも、 各輪郭点を中心とする局所領域内では他 の輪郭点の画素の数が所定の値より多い方位が検出される。 次に、 本実 施例においては、 ステップ 2 1 2において、 上記のように検出された 2 つの局所的な線分の方位であって該 2つの方位の差と 1 8 0 ° との差の 絶対値が所定の角度を超えるときに、 該局所領域の前記中心の画素は、 角の位置の近傍にある角近傍点であると判定する。 そして、 ステップ 2 1 3にては、 互いに隣接する角近傍点の画素からなるグループ (角近傍 点列) を求める。 次に、 ステップ 2 1 4においては、 前記グループ (角 近傍点列) の各々において、 該グループ内の各画素の Xおよび Y座標の平 均値を、 このグループ (角近傍点列) の代表値として求める。 更に、 ス テツプ 2 1 5において、 前記グループの各々において、 該グループ内の 各画素を中心とする局所領域内における上記の 2つの局所的な線分の方 位の中間の方位を、 該角近傍点の角方位として求める。 。 例えば、 図 3 0および図 3 1に示されるような 2つの線分 3 0 0および 3 0 1が交わ ることによって形成される角では、 図 3 1に符号 3 1 1〜3 I nにて示さ れるように、 接続部の各画素の角方位が検出される。 そして、 上記のグ ループの各々において、 該グループ内の全画素の角方位の平均値を全画 素の角方位の代表値として求める (図 3 3参照) 図 3 0の例では、 符号 4 0 0で示される位置に上記のグループの代表値 (角近傍点列の平均 が求められ、 4 0 1で示されるような角方位の代表値 (平均値) が求め られる。 本発明の第 1 0の形態の実施例 (図 3 4, 3 5 )
以上述べたようにして得られた線分の傾きおよび切片の情報、 そして、 角の位 (座標の代表値) および方位の代表値の情報はデータベースに記 憶される。 本発明の第 1 0の形態は、 これらの情報を用いて、 輪郭線が 形成する 4角形を検出するものである。 図 3 4は、 本発明の第 1 0の形 態の実施例における 4角形検出のアルゴリズムを示すものである。 図 3 4のステップ 2 2 1においては、 上記のような手順に従って 1つの角 (例えば、 図 3 5の角 1 ) の位置 (座標の代表値) および方位の代表値 の情報を取得する。 そして、 ステップ 2 2 2においては、 取得した各角 の角方位と反対方位 (1 8 0 ° 異なる方位) の角方位を有する角 (例え ば、 図 3 5の角 3 ) を求めて、 これらの角を反対方位の対 (例えば、 図 3 5の角 1および角 3 ) とする。 ステップ 2 2 3においては、 上記のよ うな対の角を形成するグループ (角近傍点列) 同士において、 互いの座 標の代表値の点の間を結ぶ線分を求める。 次に、 前記互いの座標の代表 値の点の間を結ぶ線分同士が互いに交わる 2つの対の組 (例えば、 図 3 5の角 1および角 3、 そして、 角 2および角 4 ) を求める。 そして、 ス テツプ 2 2 4において、 前述のようにして求めた線分の中で、 前記 2つ の対の組における、 互いに隙接する画素からなる 4つのグループの間を 結ぶもの (例えば、 図 3 5の線分 1、 線分 2、 線分 3、 そして、 線分 4) を検索して 4辺形として求める。 本発明のハードウェア構成 (図 3 6 )
図 3 6は、 以上述べた本発明の種々の方法を実施するハードウェア構 成を示すものである。 図 3 6において、 4 0 0はテレビカメラ、 4 0 1 は画像入力ボード、 0 2は画像メモリ、 4 0 3は輪郭抽出回路、 4 0 4は中央制御部インターフェイス、 そして、 4 0 5は中央制御部である。 更に、 中央制御部 4 0 5は、 CPU 4 0 6、 RAM 4 0 7、 ROM 4 0 8、 キーボードインターフヱイス 4 0 9、 キーボード 4 1 0、 ディスプレイ インタ一フェイス 4 1 1、 ディスプレイ 4 1 2、 そして、 磁気ディスク 装置 4 1 3を接続する。
テレビカメラ 4 0 0は、 認識対象を撮影して画像情報を、 例えば、 TSC映像信号として画像入力ボード 4 0 1に供給する。 画像入力ボード 4 0 1は、 NTSC映像信号を A D変換回路 (図示せず) によってディジタ ル化し、 ディジタル化した画像データを画像メモリ 4 0 2に格納する。 輪郭抽出回路 4 0 3は、 画像メモリ 4 0 2に格納された画像データを読 み出して、 画像の輪郭点を抽出する。 ここで、 輪郭点抽出は、 公知の何 れの方法によってもよく、 例えば、 ゼロクロス処理を行う。 抽出された 輪郭点のデータは、 中央制御部インターフェイス 4 0 4を介して中央制 御部 4 0 5に供給され、 中央制御部 4 0 5は CPU 4 0 6の制御の下に輪 郭点のデータを RAM 4 0 7または磁気ディスク装置 4 1 3に格納する。 中央制御部 4 0 5の磁気ディスク装置 4 1 3には、 前述の本発明による 種々の方法を実行するためのプログラムが記億されており、 中央制御部 4 0 5は、 起動されると、 このプログラムを RAM4 0 7上に展開し、 キー ボード 4 1 0からのオペレータによる操作に従って、 前述の本発明によ る種々の方法を実行する。 ディスプレイ 4 1 2は、 上記の処理によって 得られた結果を表示する。 前述の図 7に示したレジスタは、 上記の RAM 4 0 7内に設けた領域としてもよい。
表. 線分方位パターン 図 25の 図 12のパターン 図 13のパターン 線分方位 の領域 の領域
Figure imgf000034_0001

Claims

請 求 の 範 囲
1 . 二値輪郭画像の局所領域における輪郭の局所的な線分の方位の 決定方法において、
前記局所領域内の所定の値の画素の 1つを中心として複数の方位の各々 に存在する該所定の値の画素の数を求める第 1のステップと、
該画素の数が所定の値より多い方位に局所的な線分が存在すると判定 する第 2のステップとを有することを特徴とする方法。
2. 二値輪郭画像内の輪郭線が舍む局所的な線分の方位の決定方法 において、
前記二値輪郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 該局所領域内の前記中心とした画素 を中心として複数の方位の各々に存在する該所定の値の画素の数を求め る第 1のステップと、
前記局所領域内では該画素の数が所定の値より多い方位に局所的な線 分が存在すると判定する第 2のステップとを有することを特徴とする方 法。
3 . 前記中心とする複数の画素は、 該ニ値輪郭画像内に存在する全 ての所定の値の画素とする請求項 2記載の方法。
4. 前記第 2のステップにおいて、 前記画素の数が最も多い方位お よび 2番目に多い方位に局所的な線分が存在すると判定する請求項 1〜 3の何れかに記載の方法。
5 . 前記複数の方位は、 前記局所領域の各々に存在する前記所定の 値の画素の各々と、 該局所領域における前記中心とする 1つの画素とを 結ぶ直線が該中心を通る所定の方位の直線に対してなす角度を決定する ことにより求める請求項 1〜 4の何れかに記載の方法。
6. 前記第 1のステップにおいて、 前記複数の方位の各々に存在す る該所定の値の画素の数の計数は、 前記局所領域の各々において、 前記 中心からの方位に関して各々一定の方位角の範囲に存在する複数の厦状 の領域を有するパターンの各領域に存在する前記所定の値の画素の数を 計数することにより行う請求項 1〜 5の何れかに記載の方法。
7. 前記局所領域の各々において、 前記第 1のステップにおいては、. 前記中心からの方位に関して各々が一定の方位角の範囲を有する複数の 夏状の領域を有する第 1のパターンの各領域と、 該第 1のパターンの各 扇状領域の中心からの方位に関する範囲から、 方位角に関して該範囲の 1 / 2づつ、 それぞれ異なる複数の扇状領域からなる第 2のパターンの 各領域とを設定し、
前記第 1および第 2のパターンそれぞれを用いたときの計数が所定の 値より大きくなる領域が重なる領域の方位に前記局所的な線分が存在す ると判定する請求項 1〜5の何れかに記載の方法。
8 . 前記局所領域の各々において、 前記第 1のステップにおいては、 前記中心からの方位に関して各々が一定の方位角の範囲を有する複数の 扇状の領域を有する第 1のパターンの各領域と、 該第 1のパタ一ンの各 夏状領域の中心からの方位に関する範囲から、 方位に関して該範囲の 1 Z 2づつ、 それぞれ異なる複数の屠状領域からなる第 2のパタ ^ンの各 領域とを設定し、
前記第 1および第 2のパターンそれぞれを用いたときの計数が所定の 値より大きい領域をそれぞれ求め、
前記第 1のパターンにおける計数が所定の値より大きい領域と、 前記 第 2のパタ一ンにおける計数が所定の値より大きい領域とが重なる領域 を求め、 これらの領域の方位に局所的な線分が存在すると判定する請求 項 4に記載の方法。
9 . 前記局所領域内における局所的な線分の方位の判定ほ、 前記中 心とする画素の回りに隣接する少なくとも 1つの画素が前記所定の値を 有するときに行う請求項 1〜 8の何れかに記載の方法。
1 0 . 前記局所領域内における局所的な線分の方位の判定は、 前記 中心とする画素の回りに隣接する少なくとも 1つの画素が前記所定の値 とは異なる値を有するときに行う請求項 1〜 9の何れかに記載の方法。
1 1 . 二値輪郭画像の局所領域における輪郭の局所的な線分の方位 の決定方法において、
前記局所領域内の所定の値の画素の 1つを中心として複数の方位の各々 に存在する該所定の値の画素の数を求める第 1のステップと、
該複数の方位の各々に存在する該所定の値の画素の数が該各々の方位 の両隣の方位に存在する該所定の値の画素の数の和より多いか否かを判 定する第 2のステップと、
多いと判定されたときには、 該各々の方位に局所的な線分が存在する と判定する第 3のステップとを有することを特徴とする方法。
1 2 . 二値輪郭画像内の輪郭線が舍む局所的な線分の方位の決定方 法において、
前記二値輪郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 該局所領域内の前記中心とした画素 を中心として複数の方位の各々に存在する該所定の値の画素の数を求め る第 1のステップと、
該複数の方位の各々に存在する該所定の値の画素の数が該各々の方位 の両隣の方位に存在する該所定の値の画素の数の和より多いか否かを判 定する第 2のステップと、
多いと判定されたときには、 該各々の方位に局所的な線分が存在する と判定する第 3のステップとを有することを特徴とする方法。
1 3 . 二値輪郭画像の局所領域における輪郭の局所的な線分の方位 の決定方法において、
前記局所領域内の所定の値の画素の 1つを中心として複数の方位の各々 に存在する該所定の値の画素の数を求める第 1のステップと、
数の方位の各々に存在する該所定の値の画素の数と、 該各々の方 位の両隣の方位に存在する該所定の値の画素の数の和との差を求める第
2のステップと、
前記差が所定の値より大きい方位を、 局所的な線分が存在する方位と して求める第 3のステップとを有することを特徴とする方法。
1 4 . 二値輪郭画像内の輪郭線が含む局所的な線分の方位の決定方 法において、
前記二値输郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 該局所領域内の前記中心とした画素 を中心として複数の方位の各々に存在する該所定の値の画素の数を求め る第 1のステップと、
該複数の方位の各々に存在する該所定の値の画素の数と、 該各々の方 位の両隣の方位に存在する該所定の値の画素の数の和との差を求める第 2のステップと、
前記差が所定の値より大きい方位を、 局所的な線分が存在する方位と して求める第 3のステップとを有することを特徴とする方法。
1 5 . 前記所定の値は、 零である請求項 1 3または 1 4の何れかに 記載の方法。
1 6 . 前記中心とする複数の画素は、 該ニ値輪郭画像内に存在する 全ての所定の値の画素とする請求項 1 1〜1 5の何れかに記載の方法。
1 7 . 前記第 1のステップにおいて、 前記複数の方位の各々に存在 する該所定の値の画素の数の計数は、 前記局所領域の各々において、 前 記中心からの方位に関して各々が一定の方位角の範囲に存在する複数の 扇状の領域を有するパターンの各領域に存在する前記所定の値の画素の 数を計数することにより行う請求項 1 1〜1 6の何れかに記載の方法。
1 8 . 二値輪郭画像内の輪郭線が舍む局所的な線分の方位の決定方 法において、
前記二値輪郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 前記中心からの方位に関して各々が 一定の方位角の範囲を有する複数の扇状の領域を有する第 1のパターン の各領域と、 該第 1のパターンの各扇状領域の中心からの方位に関する 範囲から、 方位に関して該範囲の 1 2づっ、 それぞれ異なる複数の扇 状領域からなる第 2のパターンの各領域とを設定し、 該第 1および第 2 のパターンの各々について、 該複数の領域の各々に存在する該所定の値 の画素の数を求める第 1のステップと、
前記第 1および第 2のパターン各々について、 該複数の領域の各々に 存在する該所定の値の画素の数と、 該各々の領域の両隣の方位の領域に 存在する該所定の値の画素の数の和との差を求める第 2のステップと、 前記第 1および第 2のパターン各々について、 前記差が所定の値より 大きい領域の方位を、 それぞれ求める第 3のステップと、
前記第 1のパターンにおける前記差が所定の値より大きい領域と、 前 記第 2のパターンにおける前記差が所定の値より大きい領域とが重なる 領域を求め、 これらの領域の方位にそれぞれ局所的な線分が存在すると 判定する第 4のステップとを有することを特徵とする方法。
1 9. 二値輪郭画像内の論郭線から線分を検出する方法において、 前記二値輪郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 該局所領域内の前記中心とした画素 を中心として複数の方位の各々に存在する該所定の値の画素の数を求め る第 1のステップと、
前記局所領域内で該画素の数が所定の値より多い方位にそれぞれ 1つ の局所的な線分が存在すると判定する第 2のステップと、
前記第 2のステツプにて判定された局所的な線分の方位であって互い に 1 8 0。 異なるものがあるときに、 該局所領域内では該画素を通過す る第 3の局所的な線分が存在すると判定する第 3のステップと、
前記第 3のステップにおいて、 互いに隣接する画素であって、 これら の画素を同一の方位を有する局所的な線分が通過すると各局所領域内で 判定されるとき、 これらの画素のグループが 1つの線分を構成する候補 と判定する第 4のステップとを有することを特徵とする方法。
2 0. 二値輪郭画像内の輪郭線から線分を検出する方法において、 前記二値輪郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 前記中心からの方位に関して各々一 定の方位角の範囲に存在する複数の扇状の領域を有するパターンの各領 域に存在する前記所定の値の画素の数を計数する第 1のステップと、 前記計数が所定の値より大きい領域を求め、 該領域の方位にそれぞれ 局所的な線分が存在すると判定する第 2のステップと、
前記第 2のステップにて判定された線分の方位で互いに 1 8 0 ° 異な るものがあるときに、 前記局所領域内では該画素を通過する第 3の局所 的な線分が存在すると判定する第 3のステップと、 前記第 3のステップにおいて、 互いに隣接する画素であって、 これら の画素を同一の方位を有する局所的な線分が通過すると各局所領域内で 判定されるとき、 これらの画素のグループが 1つの線分を構成する候補 と判定する第 4のステップとを有することを特徴とする方法。
2 1 . 二値輪郭画像内の輪郭線から線分を検出する方法において、 前記二値輪郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 前記中心からの方位に関して各々が 一定の方位角の範囲を有する複数の扇状の領域を有する第 1のパターン の各領域と、 該第 1のパターンの各扇状領域の中心からの方位に関する 範囲から、 方位に関して該範囲の l Z 2 つ、 それぞれ異なる複数の扇 状領域からなる第 2のパターンの各領域とを設定し、 該第 1および第 2 のバターンの各々について、 該複数の領域の各々に存在する該所定の値 の画素の数を求める第 1のステップと、
前記計数が所定の値より大きい領域を求め、 これらの領域の方位に、 それぞれ局所的な線分が存在すると判定する第 2のステップと、
前記第 1のパターンにおける計数が所定の値より大きい領域と、 前記 第 2のパターンにおける計数が所定の値より大きい領域とが重なる領域 を求め、 これらの領域の方位にそれぞれ局所的な線分が存在すると判定 する第 3のステップと、
前記第 3のステップにて判定された線分の方位であって互いに 1 8 0 。 異なるものがあるときに、 前記局所領域内では該画素を通過する直線 方位の局所的な線分が存在すると判定する第 4のステップと、
前記第 4のステップにおいて、 互いに隣接する画素であって、 これら の画素を同一の方位を有する局所的な線分が通過すると各局所領域内で 判定されるとき、 これらの画素のグループが 1つの線分を構成する候補 と判定する第 5のステップとを有することを特徴とする方法。
2 2. 二値輪郭画像内の輪郭線から線分を検出する方法において、 前記二値輪郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 該局所領域内の前記中心とした画素 を中心として複数の方位の各々に存在する該所定の値の画素の数を求め る第 1のステップと、
該複数の方位の各々に存在する該所定の値の画素の数と、 該各々の方 位の両隣の方位に存在する該所定の値の画素の数の和との差を求める第 2のステップと、
前記差が所定の値より大きい領域を求め、 これらの領域の方位に、 そ れぞれ局所的な線分が存在すると判定する第 3のステップと、
前記第 3のステップにて判定された線分の方位であって互いに 1 8 0 ° 異なるものがあるときに、 前記局所領域内では該画素を通過する直線 方位の局所的な線分が存在すると判定する第 4のステップと、
前記第 4のステップにおいて、 互いに瞵接する画素であって、 これら の画素を同一の方位を有する局所的な線分が通過すると各局所領域内で 判定されるとき、 これらの画素のグループが 1つの線分を構成する侯補 と判定する第 5のステップとを有することを特徵とする方法。
2 3 . 二値輪郭画像内の輪郭線から線分を検出する方法において、 前記二値輪郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 前記中心からの方位に関して各々一 定の方位角の範囲に存在する複数の厦状の領域を有するパターンの各領 域に存在する前記所定の値の画素の数を計数する第 1のステップと、 該複数の領域の各々に存在する該所定の値の画素の数と、 該各々の領 域の雨瞵の方位の領域に存在する該所定の値の画素の数の和との差を求 める第 2のステップと、
前記差が所定の値より大きい領域の方位を、 それぞれ局所的な線分が 存在する方位として求める第 3のステップと、
前記第 3のステップにて判定された線分の方位であって互いに 1 8 0 ° 異なるものがあるときに、 前記局所領域内では該画素を通過する直線 方位の局所的な線分が存在すると判定する第 4のステップと、
前記第 4のステップにおいて、 互いに隣接する画素であって、 これら の画素を同一の方位を有する局所的な線分が通過すると各局所領域内で 判定されるとき、 これらの画素のグループが 1つの線分を構成する候補 と判定する第 5のステップとを有することを特徴とする方法。
2 4 . 前記局所領域内における局所的な線分の検出は、 前記中心と する画素の回りに瞵接する少なくとも 1つの画素が前記所定の値を有す るときに行う請求項 1 9〜 2 3の何れかに記載の方法。
2 5 . 前記局所領域内における局所的な線分の方位の判定は、 前記 中心とする画素の回りに瞵接する少なくとも 1つの画素が前記所定の値 とは異なる値を有するときに行う請求項 1 9〜2 3の何れかに記載の方 法。
2 6 . 前記 1つの線分を構成するものと判定された第 3の局所的な 線分が通過する前記互いに隣接する画素の座標から相関計数を求めるス テツプと、
前記相関計数が所定の値より大きいとき前記候補を 1つの線分として 検出するステップとを有する請求項 1 9〜2 5の何れかに記載の方法。
2 7 . 前記局所的な線分の方位の第 1の局所的な線分の方位が、 前 記局所的な線分の第 2の局所的な線分の方位に対して 1 8 0 ° の方位と は異なるが、 該 1 8 0 ° の方位から所定の方位角の範囲内にあるとき、 該第 1および第 2の局所的な線分が該局所領域の中心画素を通過する準 直線方位の局所的な線分を構成するものとして検出するステッブと、 前記第 5のステツプにて前記 1つの線分を構成する候補と判定される 第 1の候補を構成し、 各々が第 1の方位を有する複数の前記第 3の局所 的な線分がそれぞれ通過する互いに隣接する画素から搆成される第 1の 画素列と、 前記第 5のステップにて前記 1つの線分を構成する候補と判 定される第 2の候補を構成し、 各々が前記第 1の方位と異なる第 2の方 位を有する複数の前記第 2 局所的な線分がそれぞれ通過する互いに瞵 接する画素から構成される第 2の画素列とが、 互いに隣接する第 3の画 素列によって接続され、 該第 3の画素列の各画素を中心として前記準直 線方位の線分が検出され、 該第 3の画素列において前記第 1の画素列に 隣接する第 1の画素を中心とする前記準直線方位の線分を構成する前記 第 1および第 2の局所的な線分の何れかの方位が前記第 1の方位に等し く、 該第 3の画素列において前記第 2の画素列に瞵接する第 2の画素を 中心とする該準直線方位の線分を構成する前記第 1および第 2の局所的 な線分の何れかの方位が前記第 2の方位に等しく、 且つ、 該第 3の画素 列が 1つの線分を構成する候補を舍まないときは、 該第 3の画素列を、 前記第 1および第 2の画素列が構成する線分間を接続する接続部として 検出するステップとを有する請求項 1 9〜2 6の何れかに記載の方法。
2 8 . 前記第 1の画素列、 および、 前記第 1の画素から前記第 3 の画素列の任意の 1点までの互いに隣接する画素が第 1の線分を構成し、 前記第 2の画素列、 および、 前記第 2の画素から前記第 3の画素列の前 記任意の 1点までの互いに隣接する画素が第 2の線分を構成するものと して、 該第 1および第 2の線分を検出するステップを有する請求項 2 7 に記載の方法。
2 9 . 前記第 3の画素列の任意の 1点は、 該第 3の画素列の中点 である請求項 2 8に記載の方法。
3 0 . 二値輪郭画像内の輪郭線から角の位置および方位を検出する 方法において、
前記二値輪郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 該局所領域内の前記中心とした画素 を中心として複数の方位の各々に存在する該所定の値の画素の数を求め る第 1のステップと、
前記局所領域内では該画素の数が所定の値より多い方位に局所的な線 分が存在すると判定する第 2のステップと、
前記第 2のステップにて判定された 2つの局所的な線分の方位であつ て、 それらの差と 1 8 0 ° との差の絶対値が所定の角度を超えるときに、 該局所領域の前記中心の画素は、 角の位置の近傍にある角近傍点である と判定する第 4のステップと、
互いに隣接する角近傍点の画素からなるグループを求める第 5のステツ プと、
前記グループの各々において、 該グループ内の各画素の座檫の代表値 を求める第 6のステップと、
前記グループの各々において、 該グループ内の各画素を中心とする局 所領域内における前記 2つの局所的な線分の方位の中間の方位を、 該角 近傍点の角方位として求める第つのステップと、
前記グループの各々において、 該グループ内の全画素の角方位の代表 値を求める第 8のステップとを有してなることを特徴とする方法。
3 1 . 二値輪郭画像内の輪郭線から角の位置および方位を検出する 方法において、 前記二値輪郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 前記中心からの方位に関して各々一 定の方位角の範囲に存在する複数の扇状の領域を有するパターンの各領 域に存在する前記所定の値の画素の数を計数する第 1のステップと、 前記第 2のステップにて判定された線分の方位で互いに 1 8 0 ° 異な るものがあるときに、 前記局所領域内では該画素を通過する第 3の局所 的な線分が存在すると判定する第 2のステップと、
前記第 2のステツプにて判定された局所的な線分のうちの 2つの方位 の差と 1 8 0 ° との差の絶対値が所定の角度を超えるときに、 該局所領 域の前記中心の画素は、 角の位置の近傍にある角近傍点であると判定す る第 3のステップと、
互いに瞵接する角近傍点の画素からなるグループを求める第 4のステツ プと、
前記グループの各々において、 該グループ内の各画素の座標の代表値 を求める第 5のステップと、
前記グループの各 において、 該グループ内の各画素を中心とする局 所領域内における前記 2つの局所的な線分の方位の中間の方位を、 該角 近傍点の角方位として求める第 6のステップと、
前記グループの各々において、 該グループ内の全画素の角方位の代表 値を求める第 7のステップとを有してなることを特徴とする方法。
3 2 . 二値輪郭画像内の輪郭線から角の位置および方位を検出する 方法において、
前記二値輪郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 前記中心からの方位に関して各々が 一定の方位角の範囲を有する複数の扇状の領域を有する第 1のパターン の各領域と、 該第 1のパターンの各扇状領域の中心からの方位に関する 範囲から、 方位に関して該範囲の 1 2づっ、 それぞれ異なる複数の扇 状領域からなる第 2のパターンの各領域とを設定し、 該第 1および第 2 のパターンの各々について、 該複数の領域の各々に存在する該所定の値 の画素の数を求める第 1のステップと、
前記計数が所定の値より大きい領域を求め、 これらの領域の方位に、 それぞれ局所的な線分が存在すると判定する第 2のステップと、
前記第 1のパターンにおける計数が所定の値より大きい領域と、 前記 第 2のパターンにおける計数が所定の値より大きい領域とが重なる 2つ の領域があるならば、 これら 2つの領域の方位にそれぞれ第 1および第 2の局所的な線分が存在すると判定する第 3のステップと、
前記第 2および第 3のステップにて判定された第 1および第 2の局所 的な線分の方位の差と 1 8 0 ° との差の絶対値が所定の角度を超えると きに、 該局所領域の前記中心の画素は、 角の位置の近傍にある角近傍点 であると判定する第 4のステップと、
互いに隣接する角近傍点の画素からなるグループを求める第 5のステツ プと、
前記グループの各々において、 該グループ内の各画素の座標の代表値 を求める第 6のステップと、
前記グループの各々において、 該グループ内の各画素を中心とする局 所領域内における前記第 1および第 2の局所的な線分の方位の中間の方 位を、 該角近傍点の角方位として求める第 7のステップと、
前記グループの各々において、 該グループ内の全画素の角方位の代表 値を求める第 8のステップとを有してなることを特徴とする方法。
3 3 . 二値輪郭画像内の輪郭線から角の位置および方位を検出する 方法において、
前記二値輪郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 該局所領域内の前記中心とした画素 を中心として複数の方位の各々に存在する該所定の値の画素の数を求め る第 1のステップと、
数の方位の各々に存在する該所定の値の画素の数と、 該各々の方 位の両隣の方位に存在する該所定の値の画素の数の和との差を求める第
2のステップと、
前記差が所定の値より大きレ、領域を求め、 これらの領域の方位に、 そ れぞれ局所的な線分が存在すると判定する第 3のステップと、
前記第 3のステツプにて判定された第 1および第 2の局所的な線分の 方位の差と 1 8 0 ° との差の絶対値が所定の角度を超えるときに、 該局 所領域の前記中心の画素は、 角の位置の近傍にある角近傍点であると判 定する第 4のステップと、
互いに隣接する角近傍点の画素からなるグループを求める第 5のステツ プと、
前記グループの各々において、 該グループ内の各画素の座標の代表値 を求める第 6のステップと、
前記グループの各々において、 該グループ内の各画素を中心とする局 所領域内における前記第 1および第 2の局所的な線分の方位の中間の方 位を、 該角近傍点の角方位として求める第 7のステップと、
前記グループの各々において、 該グループ内の全画素の角方位の代表 値を求める第 8のステップとを有してなることを特徴とする方法。
3 . 二値輪郭画像内の輪郭線から角の位置および方位を検出する 方法において、 前記二値輪郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 前記中心からの方位に関して各々一 定の方位角の範囲に存在する複数の扇状の領域を有するパターンの各領 域に存在する前記所定の値の画素の数を計数する第 1のステップと、 該複数の領域の各々に存在する該所定の値の画素の数と、 該各々の領 域の両隣の方位の領域に存在する該所定の値の画素の数の和との差を求 める第 2のステップと、
前記差が所定の値より大きい領域の方位を、 それぞれ局所的な線分の 方位として求める第 3のステップと、
前記第 2のステップにて求められた局所的な線分のうち、 それぞれの 方位の差と 1 8 0 ° との差の絶対値が所定の角度を超える 2つの局所的 な線分があるときに、 該局所領域の前記中心の画素は、 角の位置の近傍 にある角近傍点であると判定する第 4のステップと、
互いに隣接する角近傍点の画素からなるグループを求める第 5のステツ プと、
前記グループの各々において、 該グループ内の各画素の座標の代表値 を求める第 6のステップと、
前記グループの各々において、 該グループ内の各画素を中心とする局 所領域内における前記第 1および第 2の局所的な線分の方位の中間の方 位を、 該角近傍点の角方位として求める第 7のステップと、
前記グループの各々において、 該グループ内の全画素における角方位 の代表値を求める第 8のステップとを有してなることを特徴とする方
3 5 . 前記方位に線分が存在するとする判定は、 該方位の前記所定 の値の画素の数が所定の数以上あるときになされる請求項 3 0〜3 4の 何れかに記載の方法。
3 6 . 前記局所領域内における線分の方位の判定は、 前記中心とす る画素の回りに瞵接する少なくとも 1つの画素が前記所定の値を有する ときに行う請求項 3 0〜3 4の何れかに記載の方法。
3 7 . 前記局所領域内における線分の方位の判定は、 前記中心とす る画素の回りに隣接する少なくとも 1つの画素が前記所定の値とは異な る値を有するときに行う請求項 3 0 - 3 4の何れかに記載の方法。
3 8 . 前記座標の代表値は、 当該グループ内の各画素の座標の平均 値である請求項 3 0〜3 4の何れかに記載の方法。
3 9 . 前記グループ内の全画素における角方位の代表値は、 当該グ ループ内の各画素における角方位の平均値である請求項 3 0〜3 4の何 れかに記載の方法。
4 0 . 前記局所的な線分の方位であって、 該方位の差と 1 8 0 ° と の差の絶対値が所定の角度を超える 2つの局所的な線分の方位があると きに、 該局所領域の前記中心の画素は、 角の位置の近傍にある角近傍点 であると判定する第 6のステップと、
互いに騰接する角近傍点の画素からなるグループを求める第 7のステツ プと、
前記グループの各々において、 該グループ内の各画素の座標の代表値 を求める第 6のステップと、
前記グループの各々において、 該グループ内の各画素を中心とする局 所領域内における前記 2つの局所的な線分の方位の中間の方位を、 該角 近傍点の角方位として求める第 8のステップと、
前記グループの各々において、 該グループ内の全画素における角方位 の代表値を求める第 9のステップとを有する請求項 1 9〜2 3の何れか に記載の方法。
4 1 . 前記第 9のステップにて求めた角方位の代表値の中から、 互 いに 1 8 0度異なるものの対のグループを求める第 1 0のステップと、 前記第 1 0のステップにて求めた対のグループ同士におい 、 互いの 座標の代表値の点の間を結ぶ線分を求める第 1 1のステップと、
前記互いの座標の代表値の点の間を結ぶ線分同士が互いに交わる 2つ の対の組を求める第 1 2のステップと、
前記第 5のステツプにおいて求めた線分の候補の中で、 前記 2つの対 の組における、 互いに隣接する画素からなる 4つのグループの間を結ぶ ものを検索して 4辺形として求める第 1 3のステップとを有する請求項 4 0に記載の方法。
4 2. 二値輪郭画像内の輪郭線から線分を検出する方法において、 前記二値輪郭画像内に存在する複数の所定の値の画素各々を中心とす る複数の局所領域の各々において、 前記中心からの方位に関して各々一 定の方位角の範囲に存在する複数の扇状の領域を有するパターンの各領 域に存在する前記所定の値の画素の数を計数する第 1のステップと、 前記計数が所定の値より大きい領域を求め、 これらの領域の方位に、 それぞれ局所的な線分が存在すると判定する第 2のステップと、
前記第 2のステツプにて判定された 2つの局所的な線分の方位であつ て互いに 1 8 0 ° 異なるものがあるときに、 前記局所領域内では該画素 を通過する直線方位の局所的な線分が存在すると判定する第 3のステツ プと、
前記第 2のステップにて判定された 2つの局所的な線分の方位のうち で第 1の局所的な線分の方位が前記第 2のステップにて判定された直線 方位の局所的な線分における前記 2つの局所的な線分の方位の一方から 所定の方位角の範囲内にあり、 前記 2つの局所的な線分の方位のうちで 第 2の局所的な線分の方位が前記第 2のステップにて判定された直線方 位の局所的な線分における前記 2つの局所的な線分の方位 β他方から所 定の方位角の範囲内にあり、 且つ、 該第 1および第 2の局所的な線分の 方位が互いに 1 8 0 ° 異なるものでないときには、 該第 1および第 2の 局所的な線分が、 前記第 2のステップにて判定された直線方位の局所的 な線分に対して準直線方位の局所的な線分を構成するものとして検出す る第 4のステップと、
互いに隣接する画素であって、 該画素列は、 前記第 3のステップにお いて直線方位の局所的な線分が通過すると判定された画素を少なくとも 1っ舍み、 該画素列内の該少なくとも 1つの画素は全て同一の局所的な ^^の方位を有し、 該画素列内の該少なくとも 1つの画素以外の画素は、 該少なくとも 1つの画素について前記第 2のステップにて判定された直 線方位の局所的な線分に対して準直線方位の局所的な線分を構成すると 前記第 3のステツプにて判定された画素であるとき、 該画素列が 1つの 線分を構成する候補と判定する第 5のステップとを有することを特徵と する方法が提供される。
3 . 前記第 5のステップにて前記 1つの線分を構成する候補と判 定される第 1の候補を構成する第 1の画素列であって、 該第 1の画素列 のうち前記直線方位の画素が判定される前記少なくとも iつの画素が第 1の方位を有する第 1の画素列と、 前記第 5のステップにて前記 1つの 線分を構成する候補と判定される第 2の候補を構成する第 2の画素列で あって、 該第 2の画素列のうち前記直線方位の画素が判定される前記少 なくとも 1つの画素が前記第 1の方位と異なる第 2の方位を有する第 2 の画素列とが、 少なくとも 1つの画素を共有するときには、 前記第 1の 線分の候補は、 前記第 1の画素列のうちの前記少なくとも 1つの画素で あって前記共有される画素に最も近い側にある第 1の画素まで延びる第 1の線分であり、 前記第 2の画素列のうちの前記少なくとも 1つの画素 であつて前記共有される画素に最も近い側にある第 2の画素まで延びる 第 2の線分であり、 前記第 1および第 2の線分は前記第 1の画素から前 記第 2の画素に到る互いに隣接する画素列によって構成される接続部に よって接続されると判定するステップを有する請求項 4 2に記載の方法。
4 4 . 二値輪郭画像の局所領域における輪郭の局所的な線分の方位 の決定装置において、
前記二値輪郭画像の少なくとも輪郭点の座標を示す情報を保持する輪 郭画像情報保持手段と、
前記局所領域内の輪郭点の画素の 1つを中心として複数の方位の各々 に存在する輪郭点の画素の数を求める画素数計数手段と、
該画素の数が最も多い方位に局所的な線分が存在すると判定する局所 線分方位検出手段とを有することを特徴とする装置。
4 5 . 二値輪郭画像の局所領域における輪郭の局所的な線分の方位 の決定装置において、
前記二値輪郭画像の少なくとも輪郭点の座標を示す情報を保持する輪 郭画像情報保持手段と、
前記局所領域において、 該局所領域内の前記中心とした画素を中心と して複数の方位の各々に存在する輪郭点の画素の数を求める画素数計数 手段と、
該複数の方位の各々に存在する輪郭点の画素の数と、 該各々の方位の 両隣の方位に存在する輪郭点の画素の数の和との差を求めるフィルタ手 段と、
前記差が所定の値より大きい方位を、 局所的な線分が存在する方位と して求める局所線分方位検出手段とを有することを特徴とする装置。
4 6 . 二値輪郭画像の局所領域における輪郭の局所的な線分の方位 の決定装置において、
前記二値輪郭画像の少なくとも輪郭点の座標を示す情報を保持する輪 郭画像 保持手段と、
前記局所領域において、 前記中心からの方位に関して各々が一定の方 位角の範囲を有する複数の屠状の領域を有する第 1のパタ一ンの各領域 と、 該第 1のパターンの各厨状領域の中心からの方位に関する範囲から、 方位に関して該範囲の 1 / 2づっ、 それぞれ異なる複数の厦状領域から なる第 2のパターンの各領域とを設定し、 該第 1および第 2のパターン の各々について、 該複数の領域の各々に存在する輪郭点の画素の数を求 める画素数計数手段と、
前記第 1および第 2のパターン各々について、 該複数の領域の各々に 存在する輪郭点の画素の数と、 該各々の領域の両隣の方位の領域に存在 する輪郭点の画素の数の和との差を求めるフィルタ手段と、
前記第 1および第 2のパターン各々について、 前記差が所定の値より 大きい領域の方位を、 それぞれ求めるパターン内方位決定手段と、 前記第 1のパターンにおける前記差が所定の値より大きい領域と、 前 記第 2のパターンにおける前記差が所定の値より大きい領域とが重なる 2つの領域を求め、 これら 2つの領域の方位にそれぞれ第 1および第 2 の局所的な線分が存在すると判定する局所線分方位検出手段とを有する ことを特徴とする装置。
4 7. 二値輪郭画像内の輪郭線から線分を検出する装置において、 前記二値輪郭画像の少なくとも輪郭点の座檫を示す情報を保持する輪 郭画像情報保持手段と、 前記二値輪郭画像内に存在する複数の輪郭点の画素各々を中心とする 複数の局所領域の各々において、 該局所領域内の前記中心とした画素を 中心として複数の方位の各々に存在する輪郭点の画素の数を求める画素 数計数手段と、
前記局所領域内では該画素の数が所定の値より多い方位に局所的な線 分が存在すると判定する局所線分方位検出手段と、
前記局所線分方位検出手段にて判定された局所的な線分の方位であつ て互いに 1 8 0 ° 異なるものがあるときに、 該局所領域内では該画素を 通過する直線方位の局所的な線分が存在すると判定する局所線分検出手 段と、
前記局所線分検出手段において、 互いに隣接する画素であって、 これ らの画素を同一の方位を有する局所的な線分が通過すると各局所領域内 で判定されるとき、 これらの画素のグループが 1つの線分を構成する候 補と判定する線分候補検出手段とを有することを特徴とする装置。
4 8 . 二値輪郭画像内の輪郭線から線分を検出する装置において、 前記二値輪郭画像の少なくとも輪郭点の座標を示す情報を保持する輪 郭画像情報保持手段と、
前記二値輪郭画像内に存在する複数の輪郭点の画素各々を中心とする 複数の局所領域の各々において、 前記中心からの方位に関して各々一定 の方位角の範囲に存在する複数の扇状の領域を有するパターンの各領域 に存在する前記輪郭点の画素の数を計数する画素数計数手段と、
前記計数が所定の値より大きい領域の方位に、 それぞれ局所的な線分 が存在すると判定する局所線分方位検出手段と、
前記局所線分方位検出手段にて判定された線分の方位であって互いに 1 8 0 ° 異なるものがあるときに、 前記局所領域内では該画素を通過す る直線方位の局所的な線分が存在すると判定する局所線分検出手段と、 前記局所線分検出手段において、 互いに隣接する画素であって、 これ らの画素を同一の方位を有する局所的な線分が通過すると各局所領域内 で判定されるとき、 これらの画素のグループが 1つの線分を構成する候 補と判定する線分侯補検出手段とを有することを特徴とする装置。
4 9 . 二値輪郭画像内の輪郭線から線分を検出する装置において、 前記二値輪郭画像の少なくとも輪郭点の座標を示す情報を保持する輪 郭画像情報保持手段と、
前記二値輪郭画像内に存在する複数の輪郭点の画素各々を中心とする 複数の局所領域の各々において、 前記中心からの方位に関して各々がー 定の方位角の範囲を有する複数の厨状の領域を有する第 1のパタ—ンの 各領域と、 該第 1のパタ一ンの各蕭状領域の中心からの方位に関する範 囲力ゝら、 方位に関して該範囲の 1 / 2づつ、 それぞれ異なる複数の厦状 領域からなる第 2のパターンの各領域とを設定し、 該第 1および第 2の パタ一ンの各々について、 該複数の領域の各々に存在する輪郭点の画素 の数を求める画素数計数手段と、
前記第 1のパターンにおける計数が所定の値より大きい領域と、 前記 第 2のパターンにおける計数が所定の値より大きい領域とが重なる 2つ の領域を求め、 これら 2つの領域の方位にそれぞれ局所的な線分が存在 すると判定する局所線分方位検出手段と、
前記局所線分方位検出手段にて判定された線分の方位であって互いに 1 8 0 ° 異なるものがあるときに、 前記局所領域内では該画素を通過す る直線方位の局所的な線分が存在すると判定する局所線分検出手段と、 前記局所線分検出手段において、 互いに隣接する画素であって、 これ らの画素を同一の方位を有する局所的な線分が通過すると各局所領域内 で判定されるとき、 これらの画素のグループが 1つの線分を構成する候 補と判定する線分候補検出手段とを有することを特徴とする装置。
5 0. 二値輪郭画像内の輪郭線から線分を検出する装置におい 、 前記二値輪郭画像の少なくとも輪郭点の座標を示す情報を保持する輪 郭画像情報保持手段と、
前記二値輪郭画像内に存在する複数の輪郭点の画素各々を中心とする 複数の局所領域の各々において、 該局所領域内の前記中心とした画素を 中心として複数の方位の各々に存在する輪郭点の画素の数を求める画素 数計数手段と、
該複数の方位の各々に存在する輪郭点の画素の数と、 該各々の方位の 両隣の方位に存在する輪郭点の画素の数の和との差を求めるフィルタ手 段と、
前記差が所定の値より大きい領域を求め、 これらの領域の方位に、 そ れぞれ局所的な線分が存在すると判定する局所線分方位検出手段と、 前記局所線分検出手段にて判定された第 1および第 2の線分の方位が 互いに 1 8 0 ° 異なるときに、 前記局所領域内では該画素を通過する第 3の局所的な線分が存在すると判定する局所線分検出手段と、
前記局所線分検出手段において、 互いに隣接する画素であって、 これ らの画素を同一の方位を有する局所的な線分が通過すると各局所領域内 で判定されるとき、 これらの画素のグループが 1つの線分を構成する候 補と判定する線分候補検出手段とを有することを特徴とする装置。
5 1 . 二値輪郭画像内の輪郭線から線分を検出する装置において、 前記二値輪郭画像の少なくとも輪郭点の座標を示す情報を保持する輪 郭画像情報保持手段と、
前記二値輪郭画像内に存在する複数の輪郭点の画素各々を中心とする 複数の局所領域の各々において、 前記中心からの方位に関して各々一定 の方位角の範囲に存在する複数の厨状の領域を有するパターンの各領域 に存在する前記輪郭点の画素の数を計 wる画素数計数手段と、
該複数の領域の各々に存在する輪郭点の画素の数と、 該各々の領域の 両隣の方位の領域に存在する輪郭点の画素の数の和との差を求めるフィ ルタ手段と、
前記差が所定の値より大きい領域の方位を、 それぞれ局所的な線分が 存在する方位として求める局所線分方位検出手段と、
前記局所線分方位検出手段にて判定された線分の方位であって互いに
1 8 0 ° 異なるものがあるときに、 前記局所領域内では該画素を通過す る直線方位の局所的な線分が存在すると判定する局所線分検出手段と、 前記局所線分検出手段において、 互いに隣接する画素であって、 これ らの画素を同一の方位を有する局所的な線分が通過すると各局所領域内 で判定されるとき、 これらの画素のグループが 1つの線分を構成する候 補と判定する線分候補検出手段とを有することを特徵とする装置。
5 2 . 二値輪郭画像内の輪郭線から角の位置および方位を検出する 装置において、
前記二値輪郭画像の少なくとも輪郭点の座標を示す情報を保持する輪 郭画像情報保持手段と、
前記二値輪郭画像内に存在する複数の輪郭点の画素各々を中心とする 複数の局所領域の各々において、 該局所領域内の前記中心とした画素を 中心として複数の方位の各々に存在する輪郭点の画素の数を求める画素 数計数手段と、
前記局所領域内では該画素の数が所定の値より多い方位に局所的な線 分が存在すると判定する局所線分方位検出手段と、 前記局所線分方位検出手段にて判定された 2つの局所的な線分の方位 であって、 これら方位の差と 1 8 0 ° との差の絶対値が所定の角度を超 えるときに、 該局所領域の前記中心の画素は、 角の位置の近傍にある角 近傍点であると判定する角近傍点検出手段と、
互いに瞵接する角近傍点の画素からなるグループを求める角近傍点列 検出手段手段と、
前記グループの各々において、 該グループ内の各画素の座標の代表値 を求める角座標代表値決定手段と、
前記グループの各々において、 該グループ内の各画素を中心とする局 所領域内における前記 2つの局所的な線分の方位の中間の方位を、 該角 近傍点の角方位として求める角近傍点角方位決定手段と、
前記グループの各々において、 該グループ内の全画素の角方位の代表 値を求める角方位代表値決定手段とを有してなることを特徴とする装
5 3 . 二値輪郭画像内の輪郭線から角の位置および方位を検出する 装置において、
前記二値輪郭画像の少なくとも輪郭点の座標を示す情報を保持する輪 郭画像情報保持手段と、
前記二値輪郭画像内に存在する複数の輪郭点の画素各々を中心とする 複数の局所領域の各々において、 前記中心からの方位に関して各々一定 の方位角の範囲に存在する複数の扇状の領域を有するバタ一ンの各領域 に存在する前記輪郭点の画素の数を計数する画素数計数手段と、
前記計数が所定の値より大きい領域の領域を求め、 該領域の方位に、 それぞれ局所的な線分が存在すると判定する局所線分方位検出手段と、 前記局所線分方位検出手段にて判定された 2つの局所的な線分であつ て、 これらの方位の差と 1 8 0 ° との差の絶対値が所定の角度を超える ときに、 該局所領域の前記中心の画素は、 角の位置の近傍にある角近傍 点であると判定する角近傍点検出手段と、
互いに隣接する角近傍点の画素からなるグループを求める角近傍点列 検出手段と、
前記グループの各々において、 該グループ内の各画素の座標の代表値 を求める角座標代表値決定手段と、
前記グループの各々において、 該グループ内の各画素を中心とする局 所領域内における前記第 1および第 2の局所的な線分の方位の中間の方 位を、 該角近傍点の角方位として求める角近傍点角方位決定手段と、 前記グループの各々において、 該グループ内の全画素の角方位の代表 値を求める角方位代表値決定手段とを有してなることを特徵とする装
5 4 . 二値輪郭画像内の輪郭線から角の位置および方位を検出する 装置において、
前記二値輪郭画像の少なくとも輪郭点の座標を示す情報を保持する輪 郭画像情報保持手段と、
前記二値輪郭画像内に存在する複数の輪郭点の画素各々を中心とする 複数の局所領域の各々において、 前記中心からの方位に関して各々がー 定の方位角の範囲を有する複数の扇状の領域を有する第 1のパタ一ンの 各領域と、 該第 1のパターンの各蕭状領域の中心からの方位に関する範 囲から、 方位に関して該範囲の 1 Z2 つ、 それぞれ異なる複数の羸状 領域からなる第 2のパターンの各領域とを設定し、 該第 1および第 2の パターンの各々について、 該複数の領域の各々に存在する輪郭点の画素 の数を求める画素数計数手段と、
前記第 1のパターンにおける計数が所定の値より大きい領域と、 前記 第 2のパターンにおける計数が所定の値より大きい領域とが重なる領域 を求め、 これらの領域の方位にそれぞれ局所的な線分が存在すると判定 する局所線分方位検出手段と、
前記局所線分方位検出手段にて判定された局所的な線分であって、 こ れらの方位の差と 1 8 0 ° との差の絶対値が所定の角度を超えるものが あるときに、 該局所領域の前記中心の画素は、 角の位置の近傍にある角 近傍点であると判定する角近傍点検出手段と、
互いに隣接する角近傍点の画素からなるグループを求める角近傍点列 検出手段と、
前記グループの各々において、 該グループ内の各画素の座標の代表値 を求める角座標代表値決定手段と、
前記グループの各々において、 該グループ内の各画素を中心とする局 所領域内において前記局所線分方位検出手段前記によって検出された局 所的な線分の方位の中間の方位を、 該角近傍点の角方位として求める角 近傍点角方位決定手段と、
前記グループの各々において、 該グループ内の全 ®素の角方位の代表 値を求める角方位代表値決定手段とを有してなることを特徴とする装 ¾
5 5 . 二値輪郭画像内の輪郭線から角の位置および方位を検出する 装置において、
前記二値輪郭画像の少なくとも輪郭点の座標を示す情報を保持する輪 郭画像情報保持丰段と、 - 前記二値輪郭画像内に存在する複数の輪郭点の画素各々を中心とする 複数の局所領域の各々において、 該局所領域内の前記中心とした画素を 中心として複数の方位の各々に存在する輪郭点の画素の数を求める画素 数計数手段と、
該複数の方位の各々に存在する輪郭点の画素の数と、 該各々の方位の 両瞵の方位に存在する輪郭点の画素の数の和との差を求めるフィルタ手 段と、
前記差が所定の値より大きい領域を求め、 これらの領域の方位に、 そ れぞれ局所的な線分が存在すると判定する局所線分方位検出丰段と、 前記第 1および第 2の局所的な線分の方位の差と 1 8 0 ° との差の絶 対値が所定の角度を超えるときに、 該局所領域の前記中心の画素は、 角 の位置の近傍にある角近傍点であると判定する角近傍点検出手段と、 互いに隣接する角近傍点の画素からなるグループを求める角近傍点列 検出手段と、
前記グループの各々において、 該グループ内の各画素の座標の代表値 を求める角座標代表値決定手段と、
前記グループの各々において、 該グループ内の各画素を中心とする局 所領域内における前記第 1および第 2の局所的な線分の方位の中間の方 位を、 該角近傍点の角方位として求める角近傍点角方位決定手段と、 前記グループの各々において、 該グループ内の全画素の角方位の代表 値を求める角方位代表値決定手段とを有してなることを特徴とする装
PCT/JP1992/001277 1991-10-02 1992-10-02 Procede pour determiner la direction dans une region locale d'un segment de profil et procede pour determiner les lignes et les angles WO1993007580A1 (fr)

Priority Applications (5)

Application Number Priority Date Filing Date Title
US08/070,450 US5586199A (en) 1991-10-02 1992-10-02 Method for determining orientation of contour line segment in local area and for determining straight line and corner
DE69228741T DE69228741T2 (de) 1991-10-02 1992-10-02 Verfahren zur bestimmung der lokalen orientierung eines kontursegmentes und zur bestimmung von linien und ecken
JP50645693A JP3387499B2 (ja) 1991-10-02 1992-10-02 輪郭線分の局所領域における方位決定方法および線分と角の決定方法
CA002097492A CA2097492C (en) 1991-10-02 1992-10-02 Method for determining orientation of contour line segment in local area and for determining straight line and corner
EP92920916A EP0559919B1 (en) 1991-10-02 1992-10-02 Method for determining orientation of contour line segment in local area and for determining straight line and corner

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP25535391 1991-10-02
JP3/255353 1991-10-02
JP4/92996 1992-04-13
JP9299692 1992-04-13

Publications (1)

Publication Number Publication Date
WO1993007580A1 true WO1993007580A1 (fr) 1993-04-15

Family

ID=26434361

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP1992/001277 WO1993007580A1 (fr) 1991-10-02 1992-10-02 Procede pour determiner la direction dans une region locale d'un segment de profil et procede pour determiner les lignes et les angles

Country Status (6)

Country Link
US (3) US5586199A (ja)
EP (1) EP0559919B1 (ja)
JP (1) JP3387499B2 (ja)
CA (1) CA2097492C (ja)
DE (1) DE69228741T2 (ja)
WO (1) WO1993007580A1 (ja)

Families Citing this family (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5586199A (en) * 1991-10-02 1996-12-17 Fujitsu Limited Method for determining orientation of contour line segment in local area and for determining straight line and corner
US6549638B2 (en) 1998-11-03 2003-04-15 Digimarc Corporation Methods for evidencing illicit use of a computer system or device
EP0698860A3 (en) * 1994-08-22 1998-08-05 Matsushita Electric Industrial Co., Ltd. Edge line measuring method
ATE238565T1 (de) * 1994-12-07 2003-05-15 Koninkl Philips Electronics Nv Verfahren und vorrichtung zur messung des doppler-winkels
US6035066A (en) * 1995-06-02 2000-03-07 Cognex Corporation Boundary tracking method and apparatus to find leads
JPH09138471A (ja) * 1995-09-13 1997-05-27 Fuji Photo Film Co Ltd 特定形状領域の抽出方法、特定領域の抽出方法及び複写条件決定方法
US6141462A (en) * 1995-10-11 2000-10-31 Dainippon Screen Mfg. Co., Ltd. Image processing using adjoining relationships between image parts
US5875040A (en) * 1995-12-04 1999-02-23 Eastman Kodak Company Gradient based method for providing values for unknown pixels in a digital image
JP2836681B2 (ja) * 1997-01-14 1998-12-14 日本電気株式会社 パタンマッチング符号化方法及び符号化装置
US6097839A (en) * 1997-03-10 2000-08-01 Intermec Ip Corporation Method and apparatus for automatic discriminating and locating patterns such as finder patterns, or portions thereof, in machine-readable symbols
US6128414A (en) * 1997-09-29 2000-10-03 Intermec Ip Corporation Non-linear image processing and automatic discriminating method and apparatus for images such as images of machine-readable symbols
US6249606B1 (en) * 1998-02-19 2001-06-19 Mindmaker, Inc. Method and system for gesture category recognition and training using a feature vector
US6141464A (en) * 1998-03-30 2000-10-31 Xerox Corporation Robust method for finding registration marker positions
US6965693B1 (en) * 1999-08-19 2005-11-15 Sony Corporation Image processor, image processing method, and recorded medium
US6813376B1 (en) * 1999-10-29 2004-11-02 Rudolph Technologies, Inc. System and method for detecting defects on a structure-bearing surface using optical inspection
US6361910B1 (en) * 2000-02-03 2002-03-26 Applied Materials, Inc Straight line defect detection
KR20020064897A (ko) * 2000-09-07 2002-08-10 코닌클리케 필립스 일렉트로닉스 엔.브이. 디지털 이미지들의 세그멘테이션
FR2818855A1 (fr) * 2000-12-26 2002-06-28 Koninkl Philips Electronics Nv Procede de traitement d'images
US7302111B2 (en) * 2001-09-12 2007-11-27 Micronic Laser Systems A.B. Graphics engine for high precision lithography
JP3639825B2 (ja) * 2002-04-03 2005-04-20 キヤノン株式会社 動画像表示方法、プログラム、コンピュータ可読記憶媒体、及び動画像表示装置
US6776690B2 (en) * 2002-08-19 2004-08-17 Hitachi Global Storage Technologies Netherlands B.V. Storage device slider with sacrificial lapping extension
US7251059B2 (en) * 2002-10-16 2007-07-31 Xerox Corporation System for distinguishing line patterns from halftone screens in image data
CN1791890A (zh) * 2003-05-20 2006-06-21 皇家飞利浦电子股份有限公司 估算边缘取向
JP2007503641A (ja) * 2003-08-25 2007-02-22 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 画像強調
US8885229B1 (en) 2013-05-03 2014-11-11 Kofax, Inc. Systems and methods for detecting and classifying objects in video captured using mobile devices
US9769354B2 (en) 2005-03-24 2017-09-19 Kofax, Inc. Systems and methods of processing scanned data
US7801644B2 (en) * 2006-07-05 2010-09-21 Battelle Energy Alliance, Llc Generic robot architecture
US8271132B2 (en) * 2008-03-13 2012-09-18 Battelle Energy Alliance, Llc System and method for seamless task-directed autonomy for robots
US7584020B2 (en) * 2006-07-05 2009-09-01 Battelle Energy Alliance, Llc Occupancy change detection system and method
US8355818B2 (en) * 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
US8965578B2 (en) 2006-07-05 2015-02-24 Battelle Energy Alliance, Llc Real time explosive hazard information sensing, processing, and communication for autonomous operation
US7668621B2 (en) * 2006-07-05 2010-02-23 The United States Of America As Represented By The United States Department Of Energy Robotic guarded motion system and method
US7974738B2 (en) * 2006-07-05 2011-07-05 Battelle Energy Alliance, Llc Robotics virtual rail system and method
US7620477B2 (en) * 2006-07-05 2009-11-17 Battelle Energy Alliance, Llc Robotic intelligence kernel
US7587260B2 (en) * 2006-07-05 2009-09-08 Battelle Energy Alliance, Llc Autonomous navigation system and method
US8073564B2 (en) * 2006-07-05 2011-12-06 Battelle Energy Alliance, Llc Multi-robot control interface
US8200466B2 (en) 2008-07-21 2012-06-12 The Board Of Trustees Of The Leland Stanford Junior University Method for tuning patient-specific cardiovascular simulations
US9767354B2 (en) 2009-02-10 2017-09-19 Kofax, Inc. Global geographic information retrieval, validation, and normalization
US8958605B2 (en) 2009-02-10 2015-02-17 Kofax, Inc. Systems, methods and computer program products for determining document validity
US9576272B2 (en) 2009-02-10 2017-02-21 Kofax, Inc. Systems, methods and computer program products for determining document validity
US9405886B2 (en) 2009-03-17 2016-08-02 The Board Of Trustees Of The Leland Stanford Junior University Method for determining cardiovascular information
JP5290915B2 (ja) * 2009-09-03 2013-09-18 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
CN102202142B (zh) * 2010-03-26 2014-04-30 鸿富锦精密工业(深圳)有限公司 毛刺检测装置及毛刺检测方法
US8315812B2 (en) 2010-08-12 2012-11-20 Heartflow, Inc. Method and system for patient-specific modeling of blood flow
US8157742B2 (en) 2010-08-12 2012-04-17 Heartflow, Inc. Method and system for patient-specific modeling of blood flow
US8989515B2 (en) * 2012-01-12 2015-03-24 Kofax, Inc. Systems and methods for mobile image capture and processing
US10146795B2 (en) 2012-01-12 2018-12-04 Kofax, Inc. Systems and methods for mobile image capture and processing
US9058515B1 (en) 2012-01-12 2015-06-16 Kofax, Inc. Systems and methods for identification document processing and business workflow integration
US8548778B1 (en) 2012-05-14 2013-10-01 Heartflow, Inc. Method and system for providing information from a patient-specific model of blood flow
US8965179B1 (en) * 2012-06-19 2015-02-24 Google Inc. Systems and methods facilitating the generation of automatic transitions in video
US9355312B2 (en) 2013-03-13 2016-05-31 Kofax, Inc. Systems and methods for classifying objects in digital images captured using mobile devices
US9311531B2 (en) 2013-03-13 2016-04-12 Kofax, Inc. Systems and methods for classifying objects in digital images captured using mobile devices
US9208536B2 (en) 2013-09-27 2015-12-08 Kofax, Inc. Systems and methods for three dimensional geometric reconstruction of captured image data
US20140316841A1 (en) 2013-04-23 2014-10-23 Kofax, Inc. Location-based workflows and services
US9386235B2 (en) 2013-11-15 2016-07-05 Kofax, Inc. Systems and methods for generating composite images of long documents using mobile video data
US9760788B2 (en) 2014-10-30 2017-09-12 Kofax, Inc. Mobile document detection and orientation based on reference object characteristics
US10242285B2 (en) 2015-07-20 2019-03-26 Kofax, Inc. Iterative recognition-guided thresholding and data extraction
JP6776559B2 (ja) * 2016-03-03 2020-10-28 富士通株式会社 生体画像処理装置、生体画像処理方法および生体画像処理プログラム
US9779296B1 (en) 2016-04-01 2017-10-03 Kofax, Inc. Content-based detection and three dimensional geometric reconstruction of objects in image and video data
CN108242057B (zh) * 2017-09-22 2020-04-07 西安电子科技大学 基于嵌入边界约束因子的局部主动轮廓图像分割方法
US11062176B2 (en) 2017-11-30 2021-07-13 Kofax, Inc. Object detection and image cropping using a multi-detector approach

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57182877A (en) * 1981-05-06 1982-11-10 Toshiba Corp Detection system for angle change of outline edge
JPS5949071A (ja) * 1982-09-13 1984-03-21 Dainippon Screen Mfg Co Ltd 図形輪郭デ−タ圧縮方法
JPS62125481A (ja) * 1985-11-26 1987-06-06 インターナショナル・ビジネス・マシーンズ・コーポレーション パタ−ン認識装置
JPH03175591A (ja) * 1989-12-05 1991-07-30 Fuji Xerox Co Ltd 文字認識装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4547895A (en) * 1978-10-30 1985-10-15 Fujitsu Limited Pattern inspection system
JPS6012674B2 (ja) * 1979-04-02 1985-04-02 日本電気株式会社 パタ−ン特徴抽出装置
GB2147474B (en) * 1983-10-03 1987-05-07 Shaken Kk Method of processing character or pictorial image data
US4876726A (en) * 1986-01-07 1989-10-24 De La Rue Printrak, Inc. Method and apparatus for contextual data enhancement
JPH07120385B2 (ja) * 1987-07-24 1995-12-20 シャープ株式会社 光学的読取り方法
US5267328A (en) * 1990-01-22 1993-11-30 Gouge James O Method for selecting distinctive pattern information from a pixel generated image
US5586199A (en) * 1991-10-02 1996-12-17 Fujitsu Limited Method for determining orientation of contour line segment in local area and for determining straight line and corner

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57182877A (en) * 1981-05-06 1982-11-10 Toshiba Corp Detection system for angle change of outline edge
JPS5949071A (ja) * 1982-09-13 1984-03-21 Dainippon Screen Mfg Co Ltd 図形輪郭デ−タ圧縮方法
JPS62125481A (ja) * 1985-11-26 1987-06-06 インターナショナル・ビジネス・マシーンズ・コーポレーション パタ−ン認識装置
JPH03175591A (ja) * 1989-12-05 1991-07-30 Fuji Xerox Co Ltd 文字認識装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP0559919A4 *

Also Published As

Publication number Publication date
DE69228741D1 (de) 1999-04-29
EP0559919A1 (en) 1993-09-15
US5668893A (en) 1997-09-16
US5870494A (en) 1999-02-09
EP0559919A4 (ja) 1994-02-23
DE69228741T2 (de) 1999-09-02
JP3387499B2 (ja) 2003-03-17
US5586199A (en) 1996-12-17
CA2097492A1 (en) 1993-04-03
EP0559919B1 (en) 1999-03-24
CA2097492C (en) 1999-05-18

Similar Documents

Publication Publication Date Title
WO1993007580A1 (fr) Procede pour determiner la direction dans une region locale d'un segment de profil et procede pour determiner les lignes et les angles
US4361830A (en) Device for displaying feature of contour image
JP2897772B1 (ja) 画像位置合わせ方法、画像位置合わせ装置及び記録媒体
US5497429A (en) Apparatus for automatic fingerprint classification
CN108573511B (zh) 点状分布合作编码标志及其识别定位方法
KR20060100376A (ko) 물체 윤곽 이미지를 분석하기 위한 방법 및 이미지 처리장치, 물체를 검출하기 위한 방법 및 이미지 처리 장치,산업용 비전 장치, 스마트 카메라, 이미지 디스플레이,보안 시스템, 및 컴퓨터 프로그램 제품
US20070201733A1 (en) Fingerprint collation apparatus, fingerprint pattern area extracting apparatus and quality judging apparatus, and method and program of the same
CN109711404A (zh) 印章选票填涂的识别方法、装置及计算机可读存储介质
CN113379777A (zh) 一种基于最小外接矩形垂直内距离比例的形状描述与检索方法
JP2008116207A (ja) 画像計測装置、画像計測方法及びプログラム
US7027637B2 (en) Adaptive threshold determination for ball grid array component modeling
JP3460824B2 (ja) 形状認識方法及び装置
Chen et al. Subpixel estimation of circle parameters using orthogonal circular detector
JPH01271883A (ja) 指紋中心検出方式
JP2551021B2 (ja) 指紋像の中心位置決定方法
JPH07220081A (ja) 画像認識装置の図形の切出し方法
CN115880303B (zh) 用于pcb板圆孔的亚像素精度定位检测方法及系统
JPH04295973A (ja) ハフ変換によるパターン曲線当てはめ方法
JP3031594B2 (ja) パターン認識装置
Liu et al. Research on improved diffusion algorithm based on gradient quantization in target localization algorithm
CN117934818A (zh) 图像处理方法、装置、电子设备及存储介质
CN115879489A (zh) 一种畸变二维码的定位方法及装置
CN116863176A (zh) 一种数字智能制造用图像模板匹配方法
CN113673518A (zh) 一种目标定位候选位置筛选策略方法
JP2022060505A (ja) 指紋処理装置、指紋処理方法、プログラム、指紋処理回路

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA JP US

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): DE FR GB

WWE Wipo information: entry into national phase

Ref document number: 2097492

Country of ref document: CA

WWE Wipo information: entry into national phase

Ref document number: 1992920916

Country of ref document: EP

Ref document number: 08070450

Country of ref document: US

WWP Wipo information: published in national office

Ref document number: 1992920916

Country of ref document: EP

WWG Wipo information: grant in national office

Ref document number: 1992920916

Country of ref document: EP