WO2009145336A1 - エッジ抽出装置、測量機、およびプログラム - Google Patents

エッジ抽出装置、測量機、およびプログラム Download PDF

Info

Publication number
WO2009145336A1
WO2009145336A1 PCT/JP2009/059935 JP2009059935W WO2009145336A1 WO 2009145336 A1 WO2009145336 A1 WO 2009145336A1 JP 2009059935 W JP2009059935 W JP 2009059935W WO 2009145336 A1 WO2009145336 A1 WO 2009145336A1
Authority
WO
WIPO (PCT)
Prior art keywords
edge
unit
processing
image
intersection
Prior art date
Application number
PCT/JP2009/059935
Other languages
English (en)
French (fr)
Inventor
北村 和男
高地 伸夫
大谷 仁志
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Priority to CN200980119219.0A priority Critical patent/CN102047291B/zh
Priority to EP09754844.0A priority patent/EP2296114B1/en
Publication of WO2009145336A1 publication Critical patent/WO2009145336A1/ja
Priority to US12/954,395 priority patent/US8600170B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation

Definitions

  • the present invention relates to an edge extraction device that extracts an outline of an object from an image, and particularly relates to an edge extraction device that extracts an edge based on the length and strength of the edge.
  • An edge is a portion where the brightness changes sharply in a grayscale image.
  • the contour of the object can be extracted from the result of edge detection.
  • Edge detection is performed by examining local changes in the luminance value of a pixel and detecting a portion where the change is large as an edge.
  • a typical edge detection method there is a method using a differential filter.
  • filters such as Sobel, Laplacian, Pre-Uwit, Roberts, etc. are used.
  • Patent Document 1 As a means for solving such a problem, for example, Patent Document 1 is disclosed.
  • the invention described in Patent Document 1 first estimates the edge direction, and calculates the edge strength from the estimated edge direction and the gradient at each position. As a result, the directivity of the edge can be obtained, so that only the edges constituting the contour of the object can be detected.
  • Patent Document 2 Japanese Patent Laid-Open No. 8-3 2 9 2 5 2
  • Patent Document 2 Japanese Patent Laid-Open No. 2 0 0 1-1 7 7 7 2 8
  • Patent Document 1 automatically generates a cubic spline curve from a point group on the contour designated by the operator in order to estimate the edge direction. It is difficult to detect only the contour of the.
  • processing for calculating a spline curve of a third order or a different order takes time.
  • Patent Document 2 does not disclose that threshold processing is performed by relating the edge strength detected by the differential filter to the length of the edge. For this reason, there is a problem that the edge is not detected because the edge length is short although the edge strength is strong. In addition, when threshold processing is performed using the edge length and curvature as separate parameters, it is difficult to intuitively extract a desired edge, resulting in poor operability.
  • an object of the present invention is to provide a technique for reducing noise detection other than the contour of an object and improving operability thereof.
  • the invention according to claim 1 is an edge detection unit that detects an edge by calculating an edge intensity from an image, and performs a labeling process on the edge detected by the edge detection unit, and the length of the edge A labeling processing unit for obtaining the edge, an edge emphasizing processing unit for performing edge emphasizing processing based on a value obtained by associating the edge length obtained by the labeling processing unit with the edge intensity calculated by the edge detection unit, and the edge
  • An edge extraction device comprising: an edge extraction unit that performs edge binarization processing on an image emphasized by the edge enhancement processing unit according to a threshold that can be adjusted, and extracts an edge. .
  • the length of the edge is associated with the edge strength.
  • the image is binarized according to the values obtained. For this reason, if the edge length is relatively short and the edge strength is relatively weak, it is removed as noise, and even if the edge length is short, the edge strength is strong or the edge strength is weak. If the edge length is too long, it will not be removed. According to this aspect, noise detection other than the contour of the object can be reduced.
  • the invention according to claim 2 is characterized in that, in the invention according to claim 1, the edge detection section performs edge detection by a differential filter represented by a sobel filter. To do. According to the second aspect of the invention, by using the differential filter, it is possible to easily detect many edges while suppressing noise detection.
  • the invention of claim 3 is characterized in that, in the invention of claim 1, the threshold value of the edge extraction section is configured to be adjustable by a single operation section. According to the invention described in claim 3, since the contour of the object can be extracted with only one parameter (a value in which the edge length and the edge strength are associated with each other), the operability is improved.
  • the invention described in claim 4 is characterized in that, in the invention described in claim 3, the operation section is configured to be adjustable by a single slider operation section. According to the invention described in claim 4, since the parameter (value in which edge length and edge strength are associated with each other) can be adjusted by a single slider operation unit, operability is improved.
  • the invention of claim 5 is the invention of claim 1, further comprising a pre-processing unit that performs pre-processing prior to processing of the edge detection unit, and the processing content of the pre-processing unit is It is configured to be changeable according to the characteristics of the object. According to the invention described in claim 5, when the contour of the object is darker than the surroundings or when the unevenness of the brightness of the object is more intense than the surroundings, the pre-processing is performed according to the characteristics of the object. By changing the contents, the detection accuracy of the contour of the object can be improved, and noise detection can be reduced.
  • the invention according to claim 6 is the invention according to claim 1, wherein the edge detection is performed. It is characterized in that a pre-processing unit that performs reduction processing is provided prior to processing of the output unit. According to the invention described in claim 6, by reducing the resolution by the reduction process, it is possible to suppress the detection of noise and reduce the subsequent processing time.
  • the invention of claim 7 is the invention of claim 1, wherein the ratio of the number of pixels extracted by the edge extraction unit to the number of pixels not extracted is defined as the S / N ratio.
  • the edge detection unit performs edge detection by automatically determining a threshold value of edge strength based on the SZN ratio. According to the invention described in claim 7, even when the edge strength is relatively weak, the edge can be detected while suppressing the generation of noise.
  • the invention described in claim 8 is characterized in that, in the invention described in claim 1, an intersection detection unit that detects an intersection of the edges extracted by the edge extraction unit is provided. According to the invention described in claim 8, the contour shape of the object can be estimated by detecting the intersection of the edges.
  • the invention according to claim 9 is the invention according to claim 8, wherein the intersection detection unit obtains a regression line from edge points of the edges extracted by the edge extraction unit, and the regression line It is characterized by detecting intersections between each other. According to the ninth aspect of the invention, it is possible to process the detection of the intersection of the edges at high speed by obtaining the regression line from the end points of the edges.
  • the invention according to claim 10 is the invention according to claim 1, further comprising a corner removing unit that removes a corner of the edge detected by the edge detecting unit.
  • a corner removing unit that removes a corner of the edge detected by the edge detecting unit.
  • the invention according to claim 11 is the invention according to claim 10, wherein It is characterized in that the angle of the corner removed by the toner removal unit is adjustable. According to the invention described in claim 11, by adjusting the angle of the corner to be removed, it is possible to extract a contour edge composed of a straight line component or a contour edge composed of a curve component.
  • the invention according to claim 12 is the surveying instrument having the configuration according to claim 8, wherein the edge extracted by the edge extraction unit or the intersection or the end point detected by the intersection detection unit It is a surveying instrument characterized in that it is configured to perform measurement while collimating. According to the invention described in claim 12, since the surveying instrument measures only the extracted edge, intersection, or end point, it can perform measurement at a higher speed than when scanning the entire measurement area. Can
  • the invention according to claim 13 includes an edge detection step of calculating edge strength from an image and performing edge detection, labeling processing of the edge detected by the edge detection unit, and length of the edge A labeling processing step for determining the height, an edge emphasizing processing step for performing edge emphasis processing by a value in which the edge length obtained by the labeling processing unit and the edge strength calculated by the edge detection unit are associated with each other;
  • This is a program for causing a computer to execute an edge extraction step for performing binarization processing on an image enhanced by the edge enhancement processing unit with a threshold that can be adjusted, and extracting an edge. According to the invention described in claim 13, it is possible to reduce noise detection other than the contour of the object.
  • the invention according to claim 14 is a program for causing a surveying instrument having the configuration according to claim 8 to execute, the edge extracted by the edge extraction unit, or the intersection point.
  • This is a program for causing a surveying instrument to execute a measurement step in which a measurement is performed by collimating the intersection or end point detected by the detection unit.
  • the measurement is performed at a higher speed than when scanning the entire measurement area. Can be made.
  • FIG. 1 is a drawing substitute photograph for explaining features to be extracted.
  • FIG. 3 Flow chart of pre-processing unit.
  • FIG. 4 is an explanatory diagram of a reduction method.
  • FIG. 5 is a drawing-substituting photograph showing edge detection comparison when reduction processing is performed.
  • FIG. 6 Drawing substitute photo (A) showing the input image, drawing substitute photo (B) showing the image after histogram expansion, histogram (C) of original image, and histogram (D) after expansion is there.
  • FIG. 7 A relationship diagram between input luminance and output luminance in r correction (A), and a drawing substitute photograph (B) showing the image after correction.
  • FIG. 8 A drawing substitute photo (A) showing an input image and a drawing substitute photo (B) showing an image smoothed by a Gaussian filter.
  • FIG. 9 is a diagram illustrating an example of a Gaussian filter.
  • FIG. 10 is a diagram showing a 3 ⁇ 3 pixel matrix.
  • FIG. 11 is a flowchart of the edge detection unit.
  • FIG. 13 is a drawing substitute photo (A) showing the input image and a drawing substitute photo (B) showing the edge strength image after the differential filter.
  • FIG. 15 is a drawing-substituting photograph showing an edge strength image after thinning.
  • FIG. 16 is a drawing substitute photograph showing a binarized edge image.
  • FIG. 17 is a flowchart of the edge extraction unit.
  • FIG. 18 is a diagram (A) showing eight neighboring pixels, and (B) and (C) showing an image and look-up table during the labeling process.
  • FIG. 19 is a diagram showing a corner detection method.
  • FIG. 20 is a drawing-substituting photograph showing a stone wall image after corner removal.
  • FIG. 21 is a drawing-substituting photograph showing a sample image of a contour edge composed of linear components.
  • FIG. 22 is a drawing-substituting photograph showing a sample image of a contour edge composed of curved components.
  • FIG. 23 A drawing substitute photo (A) showing an edge extraction image when the integration threshold is 2 5 0, a drawing substitution photo (B) showing an edge extraction image when the integration threshold is 100 0 0, and an integration threshold 4 It is a drawing substitute photo (C) showing an edge extraction image in the case of 0 0 0
  • FIG. 25 is a flowchart of the intersection detection unit.
  • FIG. 26 is a diagram showing endpoints and regression lines.
  • FIG. 27 is a drawing substitute photo (A) showing the result of extending the regression line, and a drawing substitute photo (B) showing the intersection detection result.
  • FIG. 28 is a sectional view (A) and an external view (B) of the surveying instrument.
  • FIG. 29 is a diagram showing an optical system in a lens barrel.
  • FIG. 30 is a block diagram of the surveying instrument.
  • FIG.31 Flow chart of surveying instrument control program.
  • Measurement area 30 ... Telescope unit, 3 1 ... Ranging unit, 32 ... Imaging unit, 33 ... Objective lens, 34 ... Dichroic prism, 35 ... Focus lens, 36 ... Erect prism, 37 ... Focus mirror, 38 ... Eyepiece lens, 39 ... Prism, 40 ... Prism 4 1 ... Prism 42 ... Light emitting part 43 ... Light receiving part 44 ... Laser light source 45 ... Condensing lens 46 ... Laser medium 47 ... Saturable absorber 48 ... Resonant mirror 49 ... Ranging optical axis , 50 ... perforated mirror, 5 1 ... relay lens, 52 ... relay lens, 53 ... imaging optical axis, 54 '"relay lens, 55 ... reflection mirror, 56 ... relay lens, 57 Imaging device, 60 ... control calculation unit, 61 ... storage unit.
  • Edge extraction is a process of automatically extracting features (contour lines, their end points, and intersections) of an object from an image.
  • Fig. 1 is a drawing substitute photo for explaining the extracted features.
  • Figure 1 shows the target stone wall.
  • the features of the stone walls to be extracted are the contour lines of individual stones indicated by solid lines and the intersections (circles) between the contour lines or the end points of the contour lines. Judgment as
  • FIG. 2 is a schematic flowchart of the edge extraction program.
  • This edge extraction program can be provided by being stored in a storage medium such as a CD ROM.
  • the edge extraction program first performs edge detection after pre-processing (step S1).
  • Step S 2 an edge that is the contour of the object is extracted (Step S 3), and an intersection of the extracted edges is detected (Step S 4).
  • Step S 3 an edge that is the contour of the object is extracted
  • Step S 4 an intersection of the extracted edges is detected
  • FIG. 3 is a flowchart of the preprocessing unit.
  • the preprocessing unit performs reduction processing (step S1-1), corrects the brightness (step S1-2), and then performs a Gaussian filter (step S1-3).
  • Fig. 4 is an explanatory diagram of the reduction method.
  • the reduction processing unit calculates the average value of luminance in the n X n pixel matrix, and one pixel of n X n is calculated with the calculated average value.
  • the reduction ratio is 1Zn (area ratio is 1 / n 2 )
  • the reduction processing unit calculates the average value of luminance in the n X n pixel matrix, and one pixel of n X n is calculated with the calculated average value.
  • 3 pixels are replaced with one pixel whose average value is the luminance.
  • FIG. 5 is a drawing-substituting photo showing edge detection comparison when the reduction processing is performed.
  • 5A shows no reduction
  • the reduction ratio the initial value is 1Z2, and when looking at the final result, if necessary, the reduction ratio can be changed, such as no reduction, 1/3, 1/4.
  • Brightness correction is performed under various lighting conditions.
  • the brightness correction unit is composed of a two-stage process in which the histogram is first stretched and then corrected based on the average value of the brightness after the stretch. However, if the minimum brightness of the input image is 0 and the maximum brightness is 255, the brightness correction unit does not stretch the histogram. Also, depending on the average value of luminance, r correction may not be performed.
  • Histogram extension is a process of enhancing the contrast by expanding the histogram. First, the minimum and maximum luminance values of the input image are obtained. Then, linear transformation of luminance is performed using the following formula 1 so that the minimum value is 0 and the maximum value is 255.
  • Figure 6 shows a drawing substitute photo (A) showing the input image and the histogram. Drawing substitute photo (B) showing the image after image expansion and histogram of input image (C
  • FIG. 24 shows the menu screen of the edge extraction program. Execution / non-execution of brightness correction can be selected by brightness correction selection section 2 on menu screen 1.
  • r correction is a process for improving contrast.
  • Figure 7 shows the relationship between input luminance and output luminance in r correction (A), and a drawing substitute photo (r) showing the image after r correction (
  • r Correction will make images that are too bright become dark (r> i), and images that are too dark will become bright (r ⁇ i).
  • the average luminance i of the image after the histogram expansion processing is calculated, and the luminance is converted by determining the r correction coefficient value) based on the average luminance i.
  • Table 1 below shows the relationship between the average luminance i and direct.
  • the r value setting can be changed. After determining the r value, calculate the output brightness I 'from the input brightness I using the following formula 2.
  • Gaussian filter section To suppress noise detection, a Gaussian filter that can be smoothed while preserving the edges to be extracted is used.
  • the Gaussian filter unit performs smoothing by taking a weighted average with a large weight for pixels close to the target pixel and a small weight for pixels far from the target pixel, and changing the value of the standard deviation ⁇ representing the spread. To adjust the degree of smoothing.
  • the smoothed image F ( ⁇ , y) is obtained by convolving the two-dimensional isotropic Gaussian function G (x, y) shown in Equation 3 with the input image f (x, y). can get.
  • FIG. 9 is a diagram illustrating an example of a Gaussian filter.
  • the luminance after smoothing of the pixel of interest b 2 in the 3 ⁇ 3 pixel matrix shown in FIG. Figure 8 shows a drawing substitute photo (A) showing an input image and a drawing substitute photo (B) showing an image smoothed by a Gaussian filter.
  • FIG. 11 is a flowchart of the edge detection unit.
  • the edge detection unit performs a differentiation filter (Step S 2-1), and after thinning (Step S 2-2), performs threshold processing based on edge strength (Step S 2-3).
  • Differentiating filters include Sobel (S obe I), Laplacian (L ap I a Filters such as cian), Preewit, and Roberts are used.
  • the differential filter unit calculates the edge strength using the differential filter and creates an edge strength image.
  • Figure 12 shows the X direction differential filter (A) and the y direction differential filter (B) of the Sobel filter.
  • Fig. 10 Partial differentiation in the X direction at the pixel of interest b 2 in the 3 X 3 pixel matrix shown in 0
  • ⁇ / c, + 2c, + Cj-(a, + a 2 + a 3 )
  • the edge intensity image is obtained by replacing the luminance value of the target pixel b 2 with the edge intensity obtained in Equation 6 above.
  • Figure 13 shows a drawing substitute photo (A) showing the input image and a drawing substitute photo (B) showing the edge strength image after the differential filter.
  • the thinning unit thins the edge intensity image with a line width of 1 pixel. By performing thinning, the processing described later becomes easy. For thinning, the methods of Hillditch (Hi i d i t c h), Deutsch (D e u t s c h), Yokoi, Tamura, etc. are used.
  • the binarized edge intensity image is raster-scanned sequentially from four directions, up, down, left, and right, and 8 neighboring pixels of the white pixel (1) are examined, and among the pattern conditions shown in FIG. If it matches at least one, the white pixel (1) becomes a black pixel (0) and is erased. This is repeated until it cannot be erased.
  • the asterisk (*) shown in Fig. 14 indicates that either a white pixel (1) or a black silicon (0) may be used.
  • Fig. 14 ( ⁇ ) shows the pattern conditions when raster scanning from the upper left to the lower right
  • Fig. 14 ( ⁇ ⁇ ) shows the pattern conditions when raster scanning from the lower right to the upper left
  • Fig. 14 (C) shows the pattern conditions for raster scanning from the upper right to the lower left
  • Fig. 14 (D) shows the pattern conditions for raster scanning from the lower left to the upper right.
  • the edge is thinned into one pixel at the center by processing the raster scan sequentially from 4 directions.
  • Figure 15 shows the edge strength image after thinning.
  • the threshold processing unit removes noise by performing threshold processing on the thinned edge intensity image.
  • many edges are left by processing with a lower threshold (less than about 1% of the maximum edge strength), and noise removal is performed by edge extraction processing described later.
  • the threshold value of edge strength is binarized by 20.
  • Figure 16 shows the binarized edge image.
  • FIG. 17 is a flowchart of the edge extraction unit.
  • the edge extraction unit performs labeling (step S3-1), removes the corner of the labeled edge (step S3-2), and then performs labeling on the edge after corner removal again to increase the length. (Step S3-3) and create an enhanced image of edge length X edge strength (Step S3-4). Then, by performing threshold processing based on the edge length XI wedge strength (step S3-5), the edge that becomes the contour of the object is extracted.
  • the first labeling processing unit assigns the same label to pixels belonging to the same connected component, and assigns different labels to different connected components.
  • the 8-neighboring type labeling process includes a first step in which the labels are provisionally moved by raster scanning, and a second step in which the labels are updated by referring to the lookup table created in the first step.
  • Consists of. Fig. 18 is a diagram (A) showing eight neighboring pixels, and (B) and (C) showing an image and a lookup table during the labeling process.
  • the corner removal unit detects a corner for each label and removes the detected corner.
  • a contour composed of linear components and a contour composed of curved components are extracted.
  • a contour shape composed of straight line components such as triangles and squares is divided into 3 and 4 straight lines by removing the corners, and is extracted as an edge when the straight line is long by the edge extraction unit described later. If it is short, it is removed as noise. Then, by detecting and connecting the intersections of the three straight lines and the four straight lines by an intersection detection unit to be described later, a contour shape composed of linear components such as triangles and squares is detected.
  • an outline shape composed of curve components such as an ellipse is divided into two curves by removing the corners, and is extracted as an edge when the curve is long by an edge extraction unit described later, and when it is short Is removed as noise. Then, an intersection detection unit (to be described later) detects and connects the intersections of the two straight lines, thereby detecting a shape composed of curved components such as an ellipse.
  • Figure 19 shows the corner detection method. The corner is detected by calculating the vector a and vector b of the pixel of interest O and the pixels A and B n pixels ahead and behind it, and calculating the angular difference between vector a and vector b using the following formula 7. Do it.
  • the corner angle to be removed (the angle difference between vector a and vector b) can be adjusted by the corner angle adjustment unit 3 in the menu screen 1 shown in FIG. As a result, it is possible to extract a contour composed of linear components and a contour composed of curved components.
  • FIGS. Fig. 20 is a drawing-substituting photo showing the stone wall image after the corner removal
  • Fig. 21 is a drawing-substituting photo showing a sample image of the contour edge composed of straight line components
  • Fig. 22 is the curve component It is a drawing substitute photograph which shows the sample image of the contour edge comprised by these.
  • Fig. 20 compared to Fig. 16 before the corner removal, the edges of the stone wall pattern have more corners, so the edges are shorter by removing the corners, and are difficult to extract as edges. It is summer.
  • the edges are treated as noise because the corners are removed by the corner removal unit, the edges are cut, and the length of the edges is shortened.
  • the pipe shown in FIG. 21 is a contour edge composed of linear components, the corner is not removed and the length of the edge is long, so that it is extracted as a contour edge.
  • the unevenness of the road surface shown in Fig. 22 is that the corner is removed by the corner removal unit, the edge is divided, the edge length is reduced, and the edge extraction unit performs threshold processing. It is treated as noise.
  • the tire mark shown in Fig. 22 is a contour edge composed of curved components, The corner is not removed by one angle adjustment and the edge length is long, so it is extracted as a contour edge.
  • Hough transform may be used to extract a contour composed of linear components and a contour composed of curved components.
  • the above-described extraction by corner removal can be performed at a higher speed than the Hough transform because the storage capacity and the calculation amount are small.
  • the second labeling unit performs the labeling again on the edge after the corner is removed. At this time, the second labeling processing unit obtains the length of the edge and calculates the accumulated value of the edge strength calculated in step S2-1 for each label.
  • the labeling method is the same as the first labeling processing unit.
  • the edge enhancement processing unit After labeling again, the edge enhancement processing unit performs edge enhancement processing using an integral value obtained by multiplying the edge length and the edge strength.
  • the brightness of each label is replaced with edge length X edge strength, and an edge length X edge strength image is created.
  • the edge extraction unit extracts an edge as a contour by performing threshold processing on the edge length X edge intensity image.
  • the threshold value can be adjusted by the slider operation unit 4 on the menu screen 1 shown in FIG.
  • the edge extraction level edge length X threshold value based on edge strength
  • the resulting edge extraction image is displayed in real time.
  • the adjustment of the edge extraction condition is not limited to the slider operation unit 4, but may be a threshold value input unit that directly inputs a threshold value.
  • FIG. Fig. 23 shows a drawing substitute photo (A) showing an edge extraction image in the case of an integration threshold 2 5 0, a drawing substitute photo (B) showing an edge extraction image in the case of an integration threshold 1 00 0 0, and an integration threshold. It is a drawing substitute photo (C) showing an edge extracted image in the case of a value of 400.
  • Figure 2 In the parts other than the monochrome check grid shown in Fig. 3, the edge length is long, but the edge strength is weak.By increasing the integration threshold from Fig. 23 (A) to Fig. 23 (C), It is no longer extracted as an edge. However, the monochrome check grid part has a slightly short edge, but the edge strength is relatively strong, so even if the integration threshold is raised, it is extracted as an edge.
  • the intersection detection unit detects the intersection between the edges based on the edge extraction result. By detecting the intersection of edges, the contour of the object can be estimated. Hough transform, regression line, etc. are used for intersection detection. In the following, the intersection detection method using the regression line will be described.
  • FIG. 25 is a flowchart of the intersection detection unit. The intersection detection unit first detects the end point (Step S4-1), calculates the regression line based on the end point coordinate (Step S4-2), and then extends the regression line from the end point (Step S4-3). ) Detect the intersection of the extended regression lines (Step S 4-4).
  • the end point detection unit obtains end point coordinates for each edge extracted by the edge extraction unit.
  • FIG. 26 is a diagram showing endpoints and regression lines. For example, the end point detection unit determines that the target pixel is the end point C when only one pixel out of eight neighborhoods of the target pixel is the white pixel (1).
  • the regression line calculation unit simply calculates the slope and y intercept of the regression line L based on the two end point coordinates of each edge.
  • the correlation coefficient r may be calculated based on all pixel coordinates (X i, y,) in each edge, and the slope a and y intercept b of the regression line may be obtained from Equation 8 below.
  • the regression line extension extends the regression line from the endpoint based on the slope and y-intercept of the regression line.
  • One pixel is extended from each end point, and a label for the regression line is assigned to the extended pixel.
  • Figure 27 (A) shows the result of extending the regression line.
  • the intersection detection unit uses the extended pixel as the pixel of interest and checks whether there are three or more regression line labels in the vicinity of the pixel. If there are three or more regression line labels, the intersection detection unit detects the target pixel as an intersection and assigns a label for the intersection. However, if there are already labels for intersections in the vicinity of 8, they are not detected as intersections.
  • Figure 27 (B) shows the intersection detection results. The black pixel shown in Fig. 27 (B) is the detected intersection.
  • an intersection / end point selection unit 5 is provided. When “ ⁇ intersection” is selected, intersection detection is performed, and when “end point” is selected, only endpoint detection is performed. In addition, it is possible to select whether or not the end points are connected by the end point connection section 6, and display of the extracted edges, end points, and intersection points is not displayed. Switching of the indication is also possible.
  • the edge extraction apparatus and program perform threshold processing based on edge length X edge strength. For this reason, if the edge length is relatively short and the edge strength is relatively weak, it will be removed as noise, and even if the edge length is short, the edge strength is strong or the edge strength is weak. Long edges are not removed. According to this aspect, noise detection other than the contour of the object can be reduced.
  • the edge extraction degree can be adjusted with only one parameter (edge length X edge strength), and the resulting edge extraction image is displayed in real time. For this reason, it is not necessary to repeat the work when several parameters are readjusted several times and the result is confirmed. Therefore, a desired edge can be quickly and intuitively extracted, and the operability is improved.
  • the processing content of the preprocessing can be changed according to the characteristics of the object.
  • a pattern selection unit 7 is provided as an optional function. Processing when “None” is selected is the same as the preprocessing according to the first embodiment.
  • the “dark contour pattern” option is used when the features to be extracted are darker than the surroundings, such as the stone contour of “Ishigaki”. Selecting this option improves contour detection accuracy.
  • the pre-processing unit executes the minimum value filter after brightness correction (step S 1-2). For example, the minimum value filter replaces the luminance value of the target pixel with the minimum luminance value in the vicinity of 8.
  • the “uneven brightness pattern” option is used when the feature of an object is more uneven than the surrounding area like a road. "Uneven brightness pattern By selecting the J option, noise detection due to rough roads can be suppressed. With the “Uneven brightness pattern” option, the pre-processing part
  • the detection accuracy of the contour of the object can be improved and noise detection can be reduced.
  • the edge strength threshold in edge detection is automatically determined based on the SZN (signal / noise) ratio.
  • the edge detection unit detects edges using a lower threshold (less than 1% of the maximum edge strength, for example, 20). did. However, with this fixed threshold, an edge may not be detected for an object with weak edge strength. If the edge cannot be detected in step S2-3, the threshold processing of the edge length X edge strength in step S3-5 becomes impossible. Conversely, if the fixed threshold is further lowered, there is a problem that a new noise is detected.
  • the threshold value in step S2-3 is automatically determined based on the SZN ratio.
  • the threshold value of edge strength is fixed to 20 and the threshold value of edge length X edge strength is fixed to 2.0
  • the number of pixels finally adopted as an edge is called “signal”.
  • the number of pixels that were not calculated is regarded as “noise” and is calculated by the following equation (9).
  • Table 2 below calculates the SZN ratio for multiple sample images (not shown). It is a thing. “Living room” with a relatively weak edge strength in the sample image,
  • the “factory” had an SZN ratio of 2.0 or more, and these were the third largest SZN ratio, and more than three times the value of “Church J (0. 77)”
  • the SZN ratio indicates the noise level
  • whether or not the threshold value in step S2-3 can be lowered can be automatically determined based on the SZN ratio. For example, according to the results in Table 2, the edge detection unit has less noise when the SZN ratio is 2.0 or more. If the detected SZN ratio is less than 2.0, there is a lot of noise. By setting the threshold value based on the edge strength to 20, noise detection can be suppressed.
  • an edge can be detected while suppressing the occurrence of noise even for an object with weak edge strength.
  • the surveying instrument using an edge extraction device or program will be described below.
  • the surveying instrument according to the fourth embodiment is an image total station that performs measurement by collimating the extracted edges, end points, and intersections.
  • the configuration of the surveying instrument will be described below with reference to FIGS.
  • Figure 28 is a cross-sectional view (A) and external view (B) of the surveying instrument.
  • the surveying instrument 10 includes a substrate unit 8 attached to a tripod, a surveying instrument main unit 1 1 rotatably supported around a vertical axis 9 on the substrate unit 8, and a surveying instrument main unit 1 1. Centered on horizontal axis 1 2 A lens barrel portion 13 that is pivotally supported by the shaft 13 and a display device 20 are provided.
  • the surveying instrument main body 11 is provided with a horizontal driving unit 21 that horizontally rotates the lens barrel unit 13 around the vertical axis 9.
  • the horizontal drive unit 21 rotates the lens barrel unit 13 horizontally by a horizontal rotation motor 15 via a horizontal rotation drive gear 14.
  • the vertical axis 9 is provided with a horizontal angle measuring unit 16 for detecting a horizontal angle by a horizontal angle encoder.
  • the lens barrel 13 is provided with a vertical drive unit 22 that vertically rotates the lens barrel 13 about the horizontal axis 12.
  • the vertical drive unit 22 rotates the lens barrel unit 13 vertically by the lead direct rotation motor 18 through the vertical rotation drive gear 17.
  • the horizontal axis 12 is provided with a vertical angle measuring unit 19 for detecting a vertical angle by a vertical angle encoder.
  • the surveying instrument 10 drives the horizontal drive unit 21 and the vertical drive unit 22 to align the collimation position with the measurement point.
  • the surveying instrument 10 detects the horizontal angle and the vertical angle by the horizontal angle measuring unit 16 and the vertical angle measuring unit 19.
  • FIG. 29 is a diagram showing the optical system in the lens barrel.
  • an objective lens 3 3 On the optical axis of the telescope unit 30, an objective lens 3 3, a dichroic prism 3 4, a focusing point lens 3 5, an erecting prism 3 6, a focusing mirror 3 7, and an eyepiece lens 3 8 are sequentially arranged.
  • the dichroic prism 34 includes a prism 39, a prism 40, and a prism 41, and forms a first surface and a second surface that are dichroic mirror surfaces.
  • the first surface transmits visible light out of incident light from the objective lens 33 and reflects infrared light.
  • the second surface divides the visible light transmitted through the first surface.
  • the first surface transmits visible light from 400 to 65 nm and reflects infrared light from 65 to 85 nm.
  • the second surface transmits 40% of visible light of, for example, 4 0 0 to 6 50 nm, and reflects 60%.
  • the visible light incident from the objective lens 33 and transmitted through the first surface and the second surface is focused on the focusing mirror 37 by the focusing lens 35 and collimated.
  • the distance measuring unit 31 is provided on the reflected optical axis 49 reflected by the first surface
  • the imaging unit 32 is provided on the reflected optical axis 53 reflected by the second surface.
  • the distance measuring unit 3 1 includes a light emitting unit 4 2 and a light receiving unit 4 3.
  • Light emitter 4 2 This is a solid-state laser device that oscillates laser light and can perform non-prism ranging without requiring a corner cube at the measurement point.
  • the light emitting unit 42 includes a laser light source 44, a condenser lens 45, a laser medium 46, a saturable absorber 47, and a resonance mirror 48.
  • the laser light pulse-oscillated from the light emitting section 42 passes through the aperture mirror 50 and the relay lens 51 arranged on the distance measuring optical axis 49, reflects on the first surface, and exits from the objective lens 33. .
  • the reflected laser beam reflected at the measurement point is reflected by the first surface and the perforated mirror 50, passes through the relay lens 52, and is received by the light receiving unit 43.
  • the distance measuring unit 31 pulsates laser light from the light emitting unit 4 2.
  • the distance measuring unit 3 1 performs distance measurement by calculating the distance to the measurement point based on the time difference until the light emitting unit 42 emits laser light and the light receiving unit 43 receives the laser light and the speed of light. .
  • the imaging unit 3 2 images visible light divided by the second surface.
  • the visible light divided by the second surface forms an image on the image sensor 5 7 via the relay lens 54, the reflection mirror_55, and the relay lens 56.
  • the image sensor 5 7 is, for example, a CMOS sensor having 6 40 X 4 80 pixels.
  • the image picked up by the image pickup element 57 is displayed on the display device 20 shown in FIG. 28 (B).
  • the display device 20 includes a display unit 23 and an operation unit 24.
  • the display unit 2 3 displays an image captured by the imaging unit 3 2, a menu screen, and the like.
  • the display unit 23 is a liquid crystal screen that can be touch-operated, and the measurement area 25 can be set on the displayed image.
  • a surveyor performs rectangle designation with two diagonal points on the image, and collimates the two designated diagonal points with the telescope unit 30 to calculate the horizontal angle and vertical angle. Is set. This associates the horizontal and vertical angles corresponding to the image coordinates.
  • the operation unit 24 inputs and operates measurement conditions, measurement area scan start commands, and the like.
  • Fig. 30 is a block diagram of the surveying instrument.
  • the surveying instrument 10 is comprehensively controlled by the control arithmetic unit 60, and the control arithmetic unit 60 reads out the programs stored in the storage unit 61 and sequentially executes them.
  • the control calculation unit 60 first captures images by the image capturing unit 3 2. The displayed image is displayed on the display unit 23. The surveyor sets the measurement area 25 on the image displayed on the display unit 23. The control calculation unit 60 performs edge extraction from the image of the measurement area 25.
  • the control calculation unit 60 displays the menu screen 1 shown in Fig. 24 on the display unit 23.
  • the surveyor extracts the contour of the object to be measured by adjusting the edge extraction condition (edge length X edge strength) using the slider operation section 4 on the menu screen 1.
  • the extracted edges, end points, and intersections are displayed on the display unit 23 as shown in FIG. 28 (B).
  • the control calculation unit 60 automatically measures only the edges, end points, or intersections extracted in the measurement area 25. At this time, the control calculation unit 60 controls the vertical drive unit 22 and the horizontal drive unit 21 based on the pixel coordinates of the extracted edge, end point, or intersection, thereby collimating the pixel coordinates. Center. Then, the control calculation unit 60 measures the distance by causing the distance measuring unit 31 to measure the distance and causing the vertical angle measuring unit 19 and the horizontal angle measuring unit 16 to measure the angle. Distance measurement and angle measurement data (measurement data) are stored in the storage unit 61 in association with the image coordinates of the measurement points.
  • the next pixel coordinate is set as the collimation center and measurement is performed. Thereafter, the above process is repeated until there are no more measurement points.
  • Fig. 31 is a flowchart of the control program for the surveying instrument.
  • the imaging unit 3 2 captures an object to be measured (step S 10).
  • the measurement area 25 is set on the display unit 23 on which the captured image is displayed (step S 11)
  • the surveying instrument 10 performs edge extraction.
  • the surveyor makes various settings on the menu screen 1 displayed on the display unit 23. If the feature to be extracted is darker than the surrounding area, select the “Dark outline pattern” option in the pattern selection section 7 and the brightness unevenness is higher than the surrounding area. Select the “Uneven Brightness Pattern” option and if none,
  • the surveying instrument 10 preprocesses the image in the measurement area 25 (step S 1 2).
  • the surveying instrument 10 performs edge detection from the preprocessed image (step S 13), and extracts an edge that becomes the contour of the object from the detected edge (step S 14). At this time, the surveyor adjusts the edge extraction level with the slider operation section 4 of the menu screen 1. If the “intersection” option is selected, the intersection of the edges is detected from the end points of the extracted edges (step S 15).
  • step S 16 If the desired edge is not extracted (NO in step S 16), the setting is readjusted on the menu screen 1 and the edge is extracted again.
  • the surveyor operates the operation unit 24 to input a scan start command (step S 17). At this time, the surveyor operates the operation unit 24 to set the collimation target from the extracted edge, end point, intersection, or all of them.
  • the surveying instrument 10 rotates horizontally and vertically to align the collimation position with the measurement point (edge, end point, or intersection) (step S 18).
  • the distance measuring unit 31 performs distance measurement
  • the vertical angle measuring unit 22 and the horizontal angle measuring unit 21 perform angle measurement (step S 19).
  • step S 1 8 If the measurement point remains, repeat the process of step S 1 8 and step S 19 (YES in step S 20). If there is no measurement point, surveying instrument 10 ends the measurement (NO in step S20).
  • steps S 18 to S 20 are performed. Loop processing is reduced, enabling high-speed measurement. You can.
  • edge extraction condition can be adjusted with only one parameter (edge length X edge strength)
  • the repetitive work from step S 1 2 to step S 16 is reduced, and the operability of surveying instrument 10 is reduced. improves.
  • the present invention can be used for an edge extraction apparatus that extracts edges from an image, a surveying instrument using the same, and a program thereof.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】対象物の輪郭以外のノイズ検出を低減すると共に、その操作性を向上する。 【解決手段】  エッジ抽出装置は、画像からエッジ強度を算出してエッジ検出を行うエッジ検出部と、エッジ検出部が検出したエッジをラベリング処理し、かつ、エッジの長さを求めるラベリング処理部と、ラベリング処理部が求めたエッジの長さとエッジ検出部が算出したエッジ強度とを対応付けた値によってエッジの強調処理を行うエッジ強調処理部と、エッジ強調処理部によって強調された画像に対して、調整可能とされる閾値により2値化処理を施し、エッジを抽出するエッジ抽出部とを備える。

Description

明 細 書
発明の名称 : エッジ抽出装置、 測量機、 およびプログラム 技術分野
[0001 ] 本発明は画像から対象物の輪郭などを抽出するエツジ抽出装置に係リ、 特 にエツジの長さと強度に基づいてエツジを抽出するエツジ抽出装置に関する 背景技術
[0002] 従来、 画像からエッジを検出する種々の方法が知られている。 エッジとは 、 濃淡画像内で輝度が急峻に変化している部分である。 通常、 急峻な変化は 、 対象物の輪郭で起きるため、 エッジ検出の結果から対象物の輪郭を抽出す ることができる。
[0003] エッジ検出は、 局所的な画素の輝度値の変化を調べ、 その変化が大きい部 分をエッジとして検出することで行われる。 代表的なエッジの検出方法とし て、 微分フィルタを用いるものがあり、 例えば、 ソーベル、 ラプラシアン、 プリユーウイット、 ロバーツ等のフィルタが用いられる。
[0004] しかしながら、 これらの微分フィルタは、 輝度情報のみに基づいてエッジ を検出するものであるため、 対象物内部の模様や色変化も検出してしまい、 対象物の概略形状である輪郭のみを検出するのは困難である。 このような課 題を解決する手段として、 例えば特許文献 1が開示されている。 特許文献 1 に記載の発明は、 まずエッジ方向を推定し、 推定したエッジ方向と各位置に おけるグラディェン卜からエッジ強度を算出するものである。 これにより、 エッジの指向性を得ることができるため、 対象物の輪郭を構成するエッジの みを検出することができる。
[0005] 一方、 エッジの長さおよび湾曲度に基づいて対象物の輪郭か否かを判定す るエッジ検出方法も開示されている (例えば、 特許文献 2 ) 。 特許文献 2に 記載の発明によれば、 短いエッジや急激に湾曲しているようなエッジをノィ ズとみなすことで、 輪郭のみを検出することができる。 特許文献 1 :特開平 8— 3 2 9 2 5 2号公報
特許文献 2:特開 2 0 0 1 - 1 7 7 7 2 8号公報
発明の開示
発明が解決しょうとする課題
[0006] しかしながら、 上述した特許文献 1に記載の発明は、 エッジ方向を推定す るために、 オペレータが指定した輪郭上の点群から 3次スプライン曲線を生 成するため、 自動的に対象物の輪郭のみを検出することは困難である。 また 、 3次またはこれと異なる次数のスプライン曲線を演算する処理は処理時間 が掛る。
[0007] 一方、 特許文献 2に記載の発明は、 微分フィルタにより検出したエッジ強 度をエッジの長さに関係付けて閾値処理を行う旨を開示していない。 このた め、 エッジの強度が強いにも関わらず、 エッジの長さが短いためにエッジが 検出されないといった課題が残る。 また、 エッジの長さおよび湾曲度を別々 のパラメータとして閾値処理する場合には、 直感的に所望のェッジを抽出す るのが困難であり、 操作性が悪いものとなってしまう。
[0008] そこで、 本発明は、 このような問題に鑑み、 対象物の輪郭以外のノイズ検 出を低減すると共に、 その操作性を向上する技術を提供することを目的とす る。
課題を解決するための手段
[0009] 請求項 1に記載の発明は、 画像からエッジ強度を算出してエッジ検出を行 うエツジ検出部と、 前記ェッジ検出部が検出したエッジをラベリング処理し 、 かつ、 前記エッジの長さを求めるラベリング処理部と、 前記ラベリング処 理部が求めたエツジの長さと前記ェッジ検出部が算出したエツジ強度とを対 応付けた値によってエツジの強調処理を行うエツジ強調処理部と、 前記ェッ ジ強調処理部によって強調された画像に対して、 調整可能とされる閾値によ リ 2値化処理を施し、 エッジを抽出するエッジ抽出部とを備えることを特徴 とするエッジ抽出装置である。
[0010] 請求項 1に記載の発明によれば、 エッジの長さとエッジ強度とを対応付け た値によって画像が 2値化される。 このため、 エッジの長さが相対的に短く 、 かつ、 エッジ強度が相対的に弱いものは、 ノイズとして除去され、 エッジ の長さが短くてもエツジ強度が強いものや、 ェッジ強度が弱くてもエッジの 長さが長いものは、 除去されない。 この態様により、 対象物の輪郭以外のノ ィズ検出を低減することができる。
[001 1 ] 請求項 2に記載の発明は、 請求項 1に記載の発明において、 前記エッジ検 出部は、 ソ一べルフィルタ一に代表される微分フィルターによリェッジ検出 を行うことを特徴とする。 請求項 2に記載の発明によれば、 微分フィルタを 用いることで、 ノイズ検出を抑えながら、 多くのエッジを簡易に検出するこ とができる。
[0012] 請求項 3に記載の発明は、 請求項 1に記載の発明において、 前記エッジ抽 出部の閾値は、 単一の操作部により調整可能に構成されていることを特徴と する。 請求項 3に記載の発明によれば、 1つのパラメータ (エッジの長さと エッジ強度とを対応付けた値) のみで対象物の輪郭を抽出できるため、 操作 性が向上する。
[0013] 請求項 4に記載の発明は、 請求項 3に記載の発明において、 前記操作部は 、 単一のスライダー操作部により調整可能に構成されていることを特徴とす る。 請求項 4に記載の発明によれば、 パラメータ (エッジの長さとエッジ強 度とを対応付けた値) が単一のスライダー操作部により調整できるため、 操 作性が向上する。
[0014] 請求項 5に記載の発明は、 請求項 1に記載の発明において、 前記エッジ検 出部の処理に先立ち、 前処理を行う前処理部を備え、 前記前処理部の処理内 容は、 対象物の特徴に応じて変更可能に構成されていることを特徴とする。 請求項 5に記載の発明によれば、 対象物の輪郭が周辺に比べて暗い場合や、 対象物が周辺に比べて輝度の凹凸が激しい場合には、 対象物の特徴に応じて 前処理の内容を変更することで、 対象物の輪郭の検出精度が向上し、 ノイズ 検出を低減することができる。
[0015] 請求項 6に記載の発明は、 請求項 1に記載の発明において、 前記エッジ検 出部の処理に先立ち、 縮小処理を行う前処理部を備えていることを特徴 る。 請求項 6に記載の発明によれば、 縮小処理により解像度を落とすことで 、 ノイズの検出を抑えると共に、 その後の処理時間を短縮することができる
[0016] 請求項 7に記載の発明は、 請求項 1に記載の発明において、 前記エッジ抽 出部によって抽出された画素数と抽出されなかった画素数の比を S / N比と して定義し、 前記エッジ検出部は、 前記 S Z N比に基づいてエッジ強度の閾 値を自動決定してエッジ検出を行うことを特徴とする。 請求項 7に記載の発 明によれば、 エッジ強度が相対的に弱い場合であって.も、 ノイズの発生を抑 えながらエッジを検出することができる。
[0017] 請求項 8に記載の発明は、 請求項 1に記載の発明において、 前記エッジ抽 出部によって抽出されたエッジ同士の交点を検出する交点検出部を備えるこ とを特徴とする。 請求項 8に記載の発明によれば、 エッジ同士の交点を検出 することで、 対象物の輪郭形状を推定することができる。
[0018] 請求項 9に記載の発明は、 請求項 8に記載の発明において、 前記交点検出 部は、 前記ェッジ抽出部によつて抽出されたエツジの端点から回帰直線を求 め、 前記回帰直線同士の交点を検出することを特徴とする。 請求項 9に記載 の発明によれば、 エッジの端点から回帰直線を求めることで、 エッジ同士の 交点の検出を高速に処理することができる。
[0019] 請求項 1 0に記載の発明は、 請求項 1に記載の発明において、 前記ェッジ 検出部が検出したエッジのコーナーを除去するコーナー除去部を備えること を特徴とする。 請求項 1 0に記載の発明によれば、 対象物の輪郭以外のエツ ジは、 対象物の輪郭エッジと比べてコーナーが多いため、 コーナーを除去さ れて分割されたエッジの長さに基づいてエッジを抽出することで、 対象物の 輪郭エッジのみが抽出され易くなる。 また、 コーナー除去による輪郭エッジ の抽出は、 公知のハフ変換を用いて検出する場合と比べ、 高速に処理するこ とができる。
[0020] 請求項 1 1に記載の発明は、 請求項 1 0に記載の発明において、 前記コー ナー除去部が除去するコーナーの角度は調整可能に構成されていることを特 徴とする。 請求項 1 1に記載の発明によれば、 除去するコーナーの角度を調 整することで、 直線成分で構成される輪郭エッジ、 または、 曲線成分で構成 される輪郭エッジを抽出することができる。
[0021 ] 請求項 1 2に記載の発明は、 請求項 8に記載の構成を有する測量機におい て、 前記エッジ抽出部によって抽出されたエッジ、 または、 前記交点検出部 によって検出された交点もしくは端点を視準して測定を行うように構成され ていることを特徴とする測量機である。 請求項 1 2に記載の発明によれば、 測量機は、 抽出されたエッジ、 交点、 または端点のみを測定するため、 測定 エリア全体を走査して測定する場合と比べ、 高速に測定を行うことができる
[0022] 請求項 1 3に記載の発明は、 画像からエッジ強度を算出してエッジ検出を 行うエッジ検出ステップと、 前記ェッジ検出部が検出したエッジをラベリン グ処理し、 かつ、 前記エッジの長さを求めるラベリング処理ステップと、 前 記ラベリング処理部が求めたエツジの長さと前記ェッジ検出部が算出したェ ッジ強度とを対応付けた値によってエツジの強調処理を行うエツジ強調処理 ステップと、 前記エッジ強調処理部によって強調された画像に対して、 調整 可能とされる閾値により 2値化処理を施し、 エッジを抽出するエッジ抽出ス テツプとをコンピュータに実行させるためのプログラムである。 請求項 1 3 に記載の発明によれば、 対象物の輪郭以外のノイズ検出を低減することがで きる。
[0023] 請求項 1 4に記載の発明は、 請求項 8に記載の構成を有する測量機に実行 させるためのプログラムであって、 前記エッジ抽出部によって抽出されたェ ッジ、 または、 前記交点検出部によって検出された交点もしくは端点を視準 して測定を行う測定ステップを測量機に実行させるためのプログラムである 。 請求項 1 4に記載の発明によれば、 測量機に抽出されたエッジ、 交点、 ま たは端点のみを測定させるため、 測定エリア全体を走査して測定させる場合 と比べ、 高速に測定を行わせることができる。 発明の効果
[0024] 本発明によれば、 対象物の輪郭以外のノイズ検出を低減すると共に、 その 操作性を向上することができる。
図面の簡単な説明
[0025] [図 1]抽出する特徴を説明するための図面代用写真である。
[図 2]エッジ抽出プログラムの概略フローチヤ一トである。
[図 3]前処理部のフローチヤ一卜である。
[図 4]縮小方法の説明図である。
[図 5]縮小処理を行った場合におけるエッジ検出比較を示す図面代用写真であ る。
[図 6]入力画像を示す図面代用写真 (A) と、 ヒストグラム伸張後の画像を示 す図面代用写真 (B) と、 元画像のヒストグラム (C) と、 伸張後のヒスト グラム (D) である。
[図 7] r補正における入力輝度と出力輝度の関係図 (A) と、 補正後の画像 を示す図面代用写真 (B) である。
[図 8]入力画像を示す図面代用写真 (A) と、 ガウシアンフィルタにより平滑 化した画像を示す図面代用写真 (B) である。
[図 9]ガウシアンフィルタの一例を示す図である。
[図 10] 3 X 3の画素マトリクスを示す図である。
[図 11]エッジ検出部のフローチヤ一トである。
[図 12] X方向の微分フィルタ (A) と、 y方向の微分フィルタ (B) である
[図 13]入力画像を示す図面代用写真 (A) と、 微分フィルタ後のエッジ強度 画像を示す図面代用写真 (B) である。
[図 14]左上から右下にラスタ走査する際のパターン条件 (A) と、 右下から 左上にラスタ走査する際のパターン条件 (B) と、 右上から左下にラスタ走 査する際のパターン条件 (C) と、 左下から右上にラスタ走査する際のバタ ーン条件 (D) である。 [図 15]細線化後のエッジ強度画像を示す図面代用写真である。
[図 16] 2値化したエッジ画像を示す図面代用写真である。
[図 17]エッジ抽出部のフローチヤ一トである。
[図 18] 8近傍画素を示す図 (A ) と、. ラベリング処理中の画像とルックアツ プテーブルを示す図 (B ) 、 ( C ) である。
[図 19]コーナー検出方法を示す図である。
[図 20]コーナー除去後の石垣画像を示す図面代用写真である。
[図 21 ]直線成分で構成される輪郭エッジのサンプル画像を示す図面代用写真 である。
[図 22]曲線成分で構成される輪郭エッジのサンプル画像を示す図面代用写真 である。
[図 23]積分閾値 2 5 0の場合のエッジ抽出画像を示す図面代用写真 (A ) と 、 積分閾値 1 0 0 0の場合のエッジ抽出画像を示す図面代用写真 (B ) と、 積分閾値 4 0 0 0の場合のエッジ抽出画像を示す図面代用写真 (C ) である
[図 24]エッジ抽出プログラムのメニュー画面である。
[図 25]交点検出部のフローチャートである。
[図 26]端点および回帰直線を示す図である。
[図 27]回帰直線を延長した結果を示す図面代用写真 (A ) と、 交点検出結果 を示す図面代用写真 (B ) である。
[図 28]測量機の断面図 (A ) および外観図 (B ) である。
[図 29]鏡筒部内の光学系を示す図である。
[図 30]測量機のブロック図である。
[図 31 ]測量機の制御プログラムのフローチヤ一トである。
符号の説明
1…メニュー画面、 2…明るさ補正選択部、 3…コーナー角度調整部、 4 …スライダー操作部、 5…交点 ·端点選択部、 6…端点接続部、 7…パター ン選択部、 8…基板部、 9…鉛直軸、 1 0…測量機、 1 1…測量機本体、 1 2…水平軸、 1 3…鏡筒部、 1 4…水平回転駆動ギア、 1 5…水平回転モー タ、 1 6…水平測角部、 1 7…鉛直回転駆動ギア、 1 8…鉛直回転モータ、 1 9…鉛直測角部、 20…表示装置、 2 1…水平駆動部、 22…鉛直駆動部 、 23…表示部、 24…操作部、 25…測定エリア、 30…望遠鏡部、 3 1 …測距部、 32…撮像部、 33…対物レンズ、 34…ダイクロイツクプリズ ム、 35…合焦点レンズ、 36…正立プリズム、 37…焦点鏡、 38…接眼 レンズ、 39…プリズム、 40…プリズム、 4 1…プリズム、 42…発光部 、 43…受光部、 44…レーザ光源、 45…集光レンズ、 46…レーザ媒質 、 47…可飽和吸収体、 48…共振ミラー、 49…測距光軸、 50…孔明ミ ラ一、 5 1…リレーレンズ、 52…リレーレンズ、 53…撮像光軸、 54'" リレーレンズ、 55…反射ミラー、 56…リレーレンズ、 57…撮像素子、 60…制御演算部、 6 1…記憶部。
発明を実施するための最良の形態
[0027] 1. 第 1の実施形態
以下、 エッジ抽出装置およびプログラムの一例について説明する。
[0028] エッジ抽出とは、 画像中から対象物の特徴 (輪郭線やその端点および交点 ) を自動で抽出する処理である。 図 1は、 抽出する特徴を説明するための図 面代用写真である。 図 1には対象物である石垣が示されている。 抽出する石 垣の特徴とは、 実線で示される個々の石の輪郭線と、 その輪郭線同士の交点 (丸印) もしくは輪郭線の端点であり、 細部の特徴である石の模様部分はノ ィズとして判断する。
[0029] 図 2は、 エッジ抽出プログラムの概略フローチャートである。 このエッジ 抽出プログラムは、 CD ROM等の記憶媒体に格納して提供可能である。 ェ ッジ抽出プログラムは、 まず前処理後 (ステップ S 1 ) 、 エッジ検出を行い
(ステップ S 2) 、 対象物の輪郭であるエッジを抽出し (ステップ S 3) 、 抽出したエッジ同士の交点を検出する (ステップ S 4) 。 以下、 各工程にお ける処理の詳細について説明する。
[0030] ( 1 ) 前処理部 前処理部は、 様々な対象物や撮影環境を想定して、 入力画像をエッジ検出 に適した画像に画質調整する。 図 3は、 前処理部のフローチャートである。 前処理部は、 縮小処理して (ステップ S 1— 1 ) 、 明度補正した後 (ステツ プ S 1— 2) 、 ガウシアンフィルタ (ステップ S 1—3) を行う。
[0031] (1 -1 ) 縮小処理部
図 4は、 縮小方法の説明図である。 縮小率が 1Znである場合 (面積比で 1 /n 2) 、 縮小処理部は、 n X nの画素マトリクスにおける輝度の平均値を 算出し、 算出した平均値で n X nの画素を 1画素に置き換える。 例えば、 図 4に示すように縮小率が n = 1ノ 3とした場合、 3 X 3の画素は、 それらの 平均値を輝度とする 1画素に置き換えられる。
[0032] 図 5は、 縮小処理を行った場合におけるエッジ検出比較を示す図面代用写 真である。 図 5 (A) は縮小無し、 図 5 (B) は縮小率 =1Z2、 図 5 (C ) は縮小率 =1 3である。 図 5に示すように、 石の輪郭部分の検出具合は 同程度であるが、 石の模様部分 (ノイズ) の検出は縮小率 =1 3の画像が 最も少ない。 また、 縮小することにより、 その後の処理時間の短縮化が図ら れる。 なお、 縮小率は、 初期値を 1Z2とし、 最終結果を見て、 必要であれ ば、 縮小無し、 1ノ 3、 1ノ 4など縮小率を変更可能とする。
[0033] (1一 2) 明度補正部
様々な照明下を想定して、 明度補正を行う。 明度補正部は、 始めにヒス卜 グラムの引き伸ばしを行い、 次に引き伸ばした後の輝度の平均値に基づいて 補正を行うといった 2段階の処理で構成する。 ただし、 入力画像の最小輝 度が 0で、 最大輝度が 255の場合には、 明度補正部は、 ヒストグラムの引 き延ばしを行わない。 また、 輝度の平均値次第で、 r補正が行われない場合 もある。
[0034] ヒストグラムの伸張は、 ヒストグラムを拡張してコントラストを強調する 処理である。 まず、 入力画像の輝度の最小値と最大値を求める。 そして、 最 小値が 0、 最大値が 255となるように以下の数 1の式を用いて、 輝度の線 形変換を行う。 図 6は、 入力画像を示す図面代用写真 (A) と、 ヒストグラ ム伸張後の画像を示す図面代用写真 (B) と、 入力画像のヒストグラム (C
) と、 伸張後のヒストグラム (D) である。
[0035] [数 1]
Figure imgf000012_0001
Max:入力画像の輝度の最大値
ΛΛ«:入力画像の輝度の最小値
. /:入力画像の輝度
/':変換後の輝度
[0036] なお、 明度補正を実行するか否かは選択可能である。 図 24は、 エッジ抽 出プログラムのメニュー画面を示す図である。 メニュー画面 1の明るさ補正 選択部 2によって、 明度補正の実行非実行が選択可能である。
[0037] r補正もコントラス トを改善する処理である。 図 7は、 r補正における入 力輝度と出力輝度の関係図 (A) と、 r補正後の画像を示す図面代用写真 (
B) である。 r補正によって、 明るすぎる画像は暗くなリ (r>i) 、 暗す ぎる画像は明るくなる (r<i) 。 まず、 ヒストグラム伸張処理後の画像の 平均輝度 iを算出し、 この平均輝度 iに基づいて r補正の係数 値) を決 めて輝度の変換を行う。 平均輝度 iと 直との関係を以下の表 1に示す。 な お、 この r値の設定は、 変更可能である。 r値を決定後、 以下の数 2により 入力輝度 Iから出力輝度 I ' を算出する。
[0038] ほ 1] 平均輝度 i r値
i≤60 0. 4
60< i≤ 100 0. 5
100< i≤230 変換無し
230< i 1. 6
[0039] [数 2]
/' = 255·| 1— |
^255
明るくする場合:;" <ί
暗くする場合 >7
[0040] ( 1一 3) ガウシアンフィルタ部 ノイズの検出を抑制するため、 抽出すべきエッジを保存しながら平滑化が 可能なガウシアンフィルタを行う。 ガウシアンフィルタ部は、 注目画素に近 い画素に大きな重みを、 注目画素から遠い画素には小さい重みを付けた加重 平均を取ることで平滑化を行い、 広がりを表す標準偏差 σの値を変えること で平滑化の度合いを調節する。 数 4に示すように、 平滑化画像 F (χ, y) は、 数 3に示す 2次元の等方的なガウス関数 G (x, y) を入力画像 f (x , y) に畳み込むことで得られる。
[0041] [数 3]
G('y)= e 2°2
[0042] 画
Ρ(χ,γ) = 0(χ,γ)* (χ,γ)=ΙΐΠα,β)·0(χ-α,γ-β)άαάβ
[0043] 図 9は、 ガウシアンフィルタの一例を示す図である。 図 9に示すガウシァ ンフィルタは、 σ値 =0. 849321 800288を数 3のガウス関数に 代入することで得られる。 このとき、 図 1 0に示す 3 X 3の画素マトリクス の注目画素 b2の平滑化後の輝度に は、 以下の数 5により算出される。 図 8 は、 入力画像を示す図面代用写真 (A) と、 ガウシアンフィルタにより平滑 化した画像を示す図面代用写真 (B) である。
[0044] [数 5]
Γ =— (a} + 2b} + 2a2 +4o2 + 2c2 +a3+ 2b3 +c3)
lb
[0045] (2) エッジ検出部
図 1 1は、 エッジ検出部のフローチャートである。 エッジ検出部は、 微分 フィルタを行い (ステップ S 2— 1 ) 、 細線化した後 (ステップ S 2— 2) 、 エッジ強度による閾値処理を行う (ステップ S 2— 3) 。
[0046] (2- 1 ) 微分フィルタ部
微分フィルタには、 ソ一ベル (S o b e I ) 、 ラプラシアン (L a p I a c i a n ) 、 プリユーウイット (P r ew i t t ) 、 ロバーツ (Ro b e r t s) 等のフィルタを用いる。 微分フィルタ部は、 微分フィルタを用いてェ ッジ強度を算出し、 エッジ強度画像を作成する。 図 1 2は、. ソーベルフィル タの X方向の微分フィルタ (A) と、 y方向の微分フィルタ (B) である。 図 1 0に示す 3 X 3の画素マトリクスの注目画素 b 2における X方向の偏微分
△ x f 、 y方向の偏微分 A y f 、 および注目画素 b 2のエッジ強度 I ' は、 以 下の数 6で算出される。
[0047] [数 6]
Δ/ = c, +2c, +Cj -(a, + a2 +a3 )
Avf =a3+ 2b, + c3 - (Oj +2b +Cj)
Figure imgf000014_0001
[0048] ェッジ強度画像は、 注目画素 b2の輝度値を上記数 6で得られたェッジ強度 に に置き換えることで得られる。 図 1 3は、 入力画像を示す図面代用写真 ( A) と、 微分フィルタ後のエッジ強度画像を示す図面代用写真 (B) である
[0049] (2-2) 細線化部
細線化部は、 エッジ強度画像に対して線幅を 1画素とする細線化を行う。 細線化を行うことで、 後述の処理が容易となる。 細線化には、 ヒルデイッチ (H i I d i t c h) 、 ドイチュ (D e u t s c h) 、 横井、 田村等の方法 を用いる。
[0050] 例えば、 2値化したエッジ強度画像に対して、 上下左右 4方向から順次ラ スタ走査し、 白画素 (1 ) の 8近傍の画素を調べて、 図 1 4に示すパターン 条件のうち、 少なくとも一つに合致すれば、 その白画素 (1 ) を黒画素 (0 ) にして消去する。 これを、 消去ができなくなるまで繰り返す。 なお、 図 1 4に示すアスタリスク (*) は、 白画素 (1 ) 、 黒 ϋ素 (0) のいずれでも よい旨を表している。
[0051] 図 1 4 (Α) は、 左上から右下にラスタ走査する際のパターン条件であり 、 図 1 4 (Β) は、 右下から左上にラスタ走査する際のパターン条件であり 、 図 1 4 (C) は、 右上から左下にラスタ走査する際のパターン条件であり 、 図 1 4 (D) は、 左下から右上にラスタ走査する際のパターン条件である 。 4方向から順次ラスタ走査して処理することにより、 エッジは、 中央の 1 画素に細線化される。 細線化後のエッジ強度画像を図 1 5に示す。
[0052] (2-3) 閾値処理部
閾値処理部は、 細線化したエッジ強度画像に対して閾値処理を行うことで ノイズを除去する。 ただし、 低めの閾値 (エッジ強度の最大値の約 1 %以下 ) で処理することで多くのエッジを残すようにし、 ノイズ除去は、 後述する エッジ抽出処理で除去することとする。 このため、 例えばエッジ強度の閾値 を 20で 2値化する。 2値化したエッジ画像を図 1 6に示す。
[0053] (3) エッジ抽出部
図 1 7は、 エッジ抽出部のフローチャートである。 エッジ抽出部は、 ラベ リングを行い (ステップ S 3— 1 ) 、 ラベリングしたエッジのコーナ一を除 去した後 (ステップ S3— 2) 、 コーナー除去後のエッジに対して再度ラベ リングを行って長さを求め (ステップ S 3— 3) 、 エッジの長さ Xエッジ強 度の強調画像を作成する (ステップ S 3— 4) 。 そして、 エッジの長さ XI ッジ強度による閾値処理を行うことで (ステップ S3— 5) 、 対象物の輪郭 となるエッジを抽出する。
[0054] (3- 1 ) 第 1ラベリング処理部
第 1ラベリング処理部は、 同じ連結成分に属する画素に同じラベルを割り 当て、 異なる連結成分には異なるラベルを割り当てる。 例えば、 8近傍型の ラベリング処理は、 ラスタ走査して暫定的にラベルを振っていく第 1ステツ プと、 第 1ステップで作成したルックアップテーブルを参照してラベルを更 新する第 2ステップとで構成される。 図 1 8は、 8近傍画素を示す図 (A) と、 ラベリング処理中の画像とルックアップテーブルを示す図 (B) 、 (C ) である。
[0055] 第 1ステップでは、 図 1 8 (A) に示す近傍画素 x2〜x 5にいずれもラベ ルが割り当てられていない場合には、 x。に新規ラベルが割り当てられ、 図 1 8 (B) に示すルックアップテーブルに新規ラベル iが追加される。 近傍画 素 χ25に同一のラベルが割り当てられている場合、 またはいずれかにラ ベルが割り当てられている場合には、 そのラベルが X。に割り当てられる。 近 傍画素 Χ 2~ Χ 5に異なるラベルが割り当てられている場合には、 最も小さい ラベルが χ。に割り当てられる。 例えば、 図 1 8 (Β) に示す丸印で囲まれた 注目画素 X。の近傍画素 X 2〜 X 5のうち X 2= 2、 χ 4=3、 χ 5=3が割り当 てられているため、 χ。に m i n (2、 3、 3) =2が割り当てられる。 この 際、 ルックアップテーブルは、 図 1 8 (C) に示すように、 ラベル 3がラベ ル 2と等価であることを表すため、 LUT (3) にラベル 2が代入される。
[0056] 第 2ステップでは、 ルックアップテーブルに基づいて、 画像中のラベルが 等価なラベルに置き換えられる。 例えば、 図 1 8 (C) の場合、 画像中のラ ベル 3は、 全て LUT (3) =2に置き換えられる。 置き換えるラベルがな くなるまで、 この処理が繰り返される。 すると、 異なる連結成分には異なる ラベルが割り当てられる。
[0057] (3-2) コーナ一除去部
コーナ一除去部は、 ラベル毎にコーナーを検出し、 検出したコーナーを除 去する。 これにより、 直線成分で構成される輪郭や、 曲線成分で構成される 輪郭が抽出される。 例えば、 三角、 四角といった直線成分で構成される輪郭 形状は、 コーナーを除去することで 3直線、 4直線に分断され、 後述するェ ッジ抽出部により、 その直線が長い場合にはエッジとして抽出され、 短い場 合にはノイズとして除去される。 そして、 後述する交点検出部により、 この 3直線、 4直線の交点を検出し、 接続することで、 三角、 四角といった直線 成分で構成される輪郭形状が検出される。 また、 例えば、 楕円といった曲線 成分で構成される輪郭形状は、 コーナーを除去することで 2曲線に分断され 、 後述するエッジ抽出部により、 その曲線が長い場合にはエッジとして抽出 され、 短い場合にはノイズとして除去される。 そして、 後述する交点検出部 により、 この 2直線の交点を検出し、 接続することで、 楕円といった曲線成 分で構成される形状が検出される。 [0058] 以下、 コーナーの除去方法について説明する。 図 1 9は、 コーナー検出方 法を示す図である。 コーナーの検出は、 注目画素 Oとその前後 n画素先の画 素 A、 Bとのべクトル a、 べクトル bを求め、 べクトル aとべクトル bの角 度差を以下の数 7により算出して行う。
[0059] [数 7]
Figure imgf000017_0001
[0060] 例えば、 コーナー除去部は、 n = 2とし、 ベクトルの向きの変化が 4 5度 以上の場合に注目画素 Oをコーナーであると判断し、 これを黒画素に置き換 えることでコーナーを除去する。 また、 除去するコーナーの角度 (べクトル aとベクトル bの角度差) は、 図 2 4に示すメニュー画面 1において、 コ一 ナー角度調整部 3により調整可能である。 これにより、 直線成分で構成され る輪郭や、 曲線成分で構成される輪郭を抽出することができる。
[0061 ] コーナー除去部の処理結果を図 2 0 ~図 2 2に示す。 図 2 0は、 コーナー 除去後の石垣画像を示す図面代用写真であり、 図 2 1は、 直線成分で構成さ れる輪郭エッジのサンプル画像を示す図面代用写真であり、 図 2 2は、 曲線 成分で構成される輪郭エッジのサンプル画像を示す図面代用写真である。 図 2 0に示すように、 コーナー除去前の図 1 6と比べ、 石垣の模様部分のエツ ジはコーナーが多いため、 コーナ一が除去されることでエツジが短くなリ、 エッジとして抽出され難くなつている。 図 2 1に示す植木の葉の輪郭は、 コ ーナー除去部によってコーナ一が除去されてエツジが分断され、 エツジの長 さが短くなることでノイズとして処理されている。 一方、 図 2 1に示すパイ プは、 直線成分で構成される輪郭エッジであるため、 コーナーが除去されず 、 エッジの長さが長いために、 輪郭エッジとして抽出されている。
[0062] 同様に、 図 2 2に示す道路表面の凹凸は、 コーナー除去部によってコーナ 一が除去されてエッジが分断され、 エッジの長さが短くなリ、 エッジ抽出部 によって閾値処理されることで、 ノイズとして処理されている。 一方、 図 2 2に示すタイヤ痕は、 曲線成分で構成される輪郭エッジであるため、 コーナ 一の角度調整によってコーナーが除去されず、 エッジの長さが長いために、 輪郭エッジとして抽出されている。
[0063] なお、 直線成分で構成される輪郭や、 曲線成分で構成される輪郭の抽出に ハフ変換を用いてもよい。 ただし、 上述したコーナー除去による抽出は、 記 憶容量、 計算量が少ないためハフ変換よりも高速に処理することができる。
[0064] ( 3— 3 ) 第 2ラベリング処理部
コーナーを除去したことにより同じラベルが連結性を失っているため、 第 2ラベリング処理部は、 コーナ一除去後のェッジに対して再度ラベリングを 行う。 この際、 第 2ラベリング処理部は、 エッジの長さを求めると共に、 ス テツプ S 2— 1で算出したエッジ強度の累積値をラベル毎に算出する。 ラベ リング方法は、 第 1ラベリング処理部と同様の方法による。
[0065] ( 3 - 4 ) エッジ強調処理部
再度ラベリングした後、 エッジ強調処理部は、 エッジの長さとエッジ強度 を掛け合わせた積分値によりエツジの強調処理を行う。 各ラベルの輝度は、 エッジの長さ Xエッジ強度に置き換えられ、 エッジの長さ Xエッジ強度画像 が作成される。
[0066] ( 3 - 5 ) エッジ抽出部
エッジ抽出部は、 エッジの長さ Xエッジ強度画像に対して閾値処理を行う ことで輪郭となるエッジを抽出する。 閾値は、 図 2 4に示すメニュー画面 1 において、 スライダー操作部 4により調整可能である。 スライダー操作部 4 によってエッジ抽出具合 (エッジの長さ Xエッジ強度による閾値) を調節す ると、 その結果であるエッジ抽出画像がリアルタイムに表示される。 なお、 エッジ抽出具合の調整は、 スライダー操作部 4に限らず、 閾値を直接入力す る閾値入力部であってもよい。
[0067] エッジ抽出部の処理結果について図 2 3を参照して説明する。 図 2 3は、 積分閾値 2 5 0の場合のエッジ抽出画像を示す図面代用写真 (A ) と、 積分 閾値 1 0 0 0の場合のエッジ抽出画像を示す図面代用写真 (B ) と、 積分閾 値 4 0 0 0の場合のエッジ抽出画像を示す図面代用写真 (C ) である。 図 2 3に示すモノクロのチェック格子以外の部分は、 エッジの長さは長いが、 ェ ッジ強度が微弱であるため、 積分閾値を図 23 (A) から図 23 (C) へと 上げることで、 エッジとして抽出されなくなる。 しかしながら、 モノクロの チェック格子の部分は、 エッジの長さが若干短いが、 エッジ強度が相対的に 強いため、 積分閾値を上げたとしてもエッジとして抽出される。
[0068] (4) 交点検出部
交点検出部は、 エッジ抽出の結果に基づいて、 エッジ同士の交点を検出す る。 エッジ同士の交点を検出することで、 対象物の輪郭を推定することがで きる。 交点検出には、 ハフ変換、 回帰直線等を用いる。 以下、 回帰直線によ る交点検出方法について説明する。 図 25は、 交点検出部のフローチャート である。 交点検出部は、 まず端点検出を行い (ステップ S 4— 1 ) 、 端点座 標に基づいて回帰直線を算出後 (ステップ S 4— 2) 、 端点から回帰直線を 延長し (ステップ S 4— 3) 、 延長した回帰直線同士の交点を検出する (ス テツプ S 4— 4) 。
[0069] (4- 1 ) 端点検出部
端点検出部は、 エッジ抽出部が抽出したエッジ毎に端点座標を求める。 図 26は、 端点および回帰直線を示す図である。 端点検出部は、 例えば、 注目 画素の 8近傍のうち 1つ画素のみが白画素 (1 ) である場合、 注目画素を端 点 Cであると判断する。
[0070] (4-2) 回帰直線算出部
回帰直線算出部は、 各ェッジの 2つの端点座標に基づいて回帰直線 Lの傾 きと y切片を求めることで簡易的に算出する。 なお、 各エッジ内の全ての画 素座標 (X i, y ,) に基づいて、 相関係数 rを算出し、 以下の数 8から回帰 直線の傾き aと y切片 bを求めてもよい。
[0071] 園 n に y)2 - 2
b = y -xa
r:相関係数
回帰直線の傾き
わ:回帰直線の y切片
画素座標
):画素座標の平均
η:各エッジ内の画素数
[0072] (4-3) 回帰直線の延長部
回帰直線の延長部は、 回帰直線の傾きおよび y切片に基づいて、 端点から 回帰直線を延長する。 各端点から 1画素ごと延長し、 延長した画素に回帰直 線用のラベルを割り当てる。 図 27 (A) は、 回帰直線を延長した結果を示 す図である。
[0073] (4-4) 回帰直線の交点検出部
交点検出部は、 延長した画素を注目画素として、 その 8近傍に 3つ以上の 回帰直線用ラベルが存在するか否かを調べる。 3つ以上の回帰直線用ラベル が存在する場合には、 交点検出部は、 注目画素を交点として検出し、 交点用 のラベルを割り当てる。 ただし、 すでに 8近傍に交点用のラベルがある場合 には、 交点として検出しない。 図 27 (B) は、 交点検出結果を示す図であ る。 図 27 (B) に示す黒画素は、 検出された交点である。
[0074] 図 24に示すメニュー画面 1には、 交点■端点選択部 5が設けられる。 Γ 交点」 が選択された場合には交点検出が行われ、 「端点」 が選択された場合 には端点検出のみが行われる。 また、 端点接続部 6によって、 端点同士を接 続するか否かが選択可能であり、 抽出されたエッジ、 端点、 交点の表示非表 示の切替えも可能である。
[0075] (第 1の実施形態の優位性)
第 1の実施形態において、 エッジ抽出装置およびプログラムは、 エッジの 長さ Xエッジ強度により閾値処理を行う。 このため、 エッジの長さが相対的 に短く、 かつ、 エッジ強度が相対的に弱いものは、 ノイズとして除去され、 ェッジの長さが短くてもェッジ強度が強いものや、 ェッジ強度が弱くてもェ ッジの長さが長いものは、 除去されない。 この態様により、 対象物の輪郭以 外のノイズ検出を低減することができる。
[0076] また、 図 2 4に示すように、 1つのパラメータ (エッジの長さ Xエッジ強 度) のみでエッジ抽出具合が調整可能であり、 その結果であるエッジ抽出画 像がリアルタイムに表示されるため、 複数のパラメータを何度か再調整して 結果を確認するといつた作業を繰り返す必要がない。 したがって、 所望のェ ッジを直感的に素早く抽出することができ、 操作性が向上している。
[0077] 2 . 第 2の実施形態
以下、 エッジ抽出装置またはプログラムの変形例について説明する。 第 2 の実施形態は、 対象物の特徴に応じて前処理の処理内容を変更可能とするも のである。
[0078] 図 2 4に示すメニュー画面には、 オプション機能としてパターン選択部 7 が設けられる。 「無し」 を選択した場合の処理は、 第 1の実施形態に係る前 処理と同様となる。
[0079] 「暗輪郭パターン」 オプションは、 「石垣」 の石の輪郭のように、 抽出す べき特徴が周辺に比べて暗い場合に用いる。 このオプションを選択すること で輪郭の検出精度が向上する。 「暗輪郭パターン」 オプションによって、 前 処理部は、 明度補正後 (ステップ S 1— 2 ) 、 最小値フィルタを実行する。 最小値フィルタは、 例えば、 注目画素の輝度値を 8近傍の輝度値の最小値に 置き換えるものである。
[0080] 「凹凸輝度パターン」 オプションは、 対象物の特徴が道路のように周辺に 比べて輝度の凹凸が激しい場合に使用するものである。 「凹凸輝度パターン J オプションを選択することで道路部分のザラつきによるノィズの検出を抑 えることができる。 「凹凸輝度パターン」 オプションによって、 前処理部は
、 ぼかしをきつくしたガウシアンフィルタ (ステップ S 1—3 ) を実行する
。 ガウシアンフィルタ部は、 σ値 = 1を数 3のガウス関数に代入することで 実数型フィルタを生成して処理を行う。
[0081 ] (第 2の実施形態の優位性)
第 2の実施形態によれば、 対象物の特徴に応じて画質調整を行うため、 対 象物の輪郭の検出精度が向上し、 ノィズ検出を低減することができる。
[0082] 3 . 第 3の実施形態
以下、 エッジ抽出装置またはプログラムの変形例について説明する。 第 3 の実施形態は、 S Z N (シグナル /ノイズ) 比によってエッジ検出における エッジ強度の閾値を自動決定するものである。
[0083] 図 1 1に示す閾値処理 (ステップ S 2— 3 ) において、 エッジ検出部は、 低めの閾値 (エッジ強度の最大値の約 1 %以下、 例えば 2 0 ) を用いてエツ ジを検出した。 しかしながら、 この固定閾値では、 エッジ強度が弱い対象物 の場合、 エッジが検出できない場合がある。 ステップ S 2— 3においてエツ ジが検出できない場合、 ステップ S 3— 5におけるエッジの長さ Xエツジ強 度の閾値処理自体が不可能となる。 逆に固定閾値を更に下げると、 新たなノ ィズを検出してしまうといった問題がある。
[0084] そこで、 ステップ S 2— 3における閾値を S Z N比により自動決定する。
S Z N比は、 例えば、 エッジ強度の閾値を 2 0、 エッジの長さ Xエッジ強度 の閾値を 2 . 0に固定した場合に、 最終的にエッジとして採用された画素数 を 「シグナル」 とし、 採用されなかった画素数を 「ノイズ」 として、 以下の 数 9により算出するものである。
[0085] [数 9] エッジの画素数
^ ノイズの画素数
[0086] 以下の表 2は、 複数のサンプル画像 (図示省略) について S Z N比を算出 したものである。 サンプル画像のうちエッジ強度が比較的微弱な 「居室」 、
「工場」 は、 SZN比が 2. 0以上であり、 これらは 3番目に SZN比が大 きい 「教会 J (0. 77) の 3倍以上の値となった。
2]
Figure imgf000023_0001
[0088] SZN比はノイズレベルを示しているため、 SZN比によってステップ S 2-3における閾値を下げてよいか否かを自動決定することができる。 例え ば、 表 2の結果によれば、 エッジ検出部は、 SZN比が 2. 0以上の場合に はノイズが少ないため、 ステップ S 2— 3における閾値を 1 5とすることで 多くのエッジを検出し、 SZN比が 2. 0未満の場合にはノイズが多いため 、 エッジ強度による閾値を 20とすることで、 ノイズの検出を抑えることが できる。
[0089] (第 3の実施形態の優位性)
第 3の実施形態において、 エッジ強度が弱い対象物であっても、 ノイズの 発生を抑えながらエッジを検出することができる。
[0090] 4. 第 4の実施形態
以下、 エッジ抽出装置またはプログラムを用いた測量機 (トータルステー シヨン) について説明する。 第 4の実施形態に係る測量機は、 抽出されたェ ッジ、 端点、 交点を視準して測定を行う画像トータルステーションである。
[0091] (測量機の構成)
以下、 測量機の構成について図 28〜図 30を参照して説明する。 図 28 は、 測量機の断面図 (A) および外観図 (B) である。 測量機 1 0は、 三脚 に取リ付けられた基板部 8.と、 基板部 8上で鉛直軸 9を中心に回転可能に軸 支された測量機本体 1 1と、 測量機本体 1 1に設けられた水平軸 1 2を中心 に回転可能に軸支された鏡筒部 1 3と、 表示装置 2 0とを備えている。
[0092] 測量機本体 1 1には、 鏡筒部 1 3を鉛直軸 9回りに水平回転させる水平駆 動部 2 1が設けられる。 水平駆動部 2 1は、 水平回転駆動ギア 1 4を介して 水平回転モータ 1 5により鏡筒部 1 3を水平回転させる。 また、 鉛直軸 9に は水平角エンコーダにより水平角を検出する水平測角部 1 6が設けられる。
[0093] 鏡筒部 1 3には、 鏡筒部 1 3を水平軸 1 2回りに鉛直回転させる鉛直駆動 部 2 2が設けられる。 鉛直駆動部 2 2は、 鉛直回転駆動ギア 1 7を介して鉛 直回転モータ 1 8により鏡筒部 1 3を鉛直回転させる。 また、 水平軸 1 2に は鉛直角エンコーダにより鉛直角を検出する鉛直測角部 1 9が設けられる。
[0094] 測量機 1 0は、 水平駆動部 2 1および鉛直駆動部 2 2を駆動して測定点に 視準位置を合わせる。 測定点が視準中心となった時、 測量機 1 0は、 水平測 角部 1 6および鉛直測角部 1 9により水平角および鉛直角を検出する。
[0095] また、 鏡筒部 1 3の内部には、 望遠鏡部 3 0、 測距部 3 1、 撮像部 3 2の 光学系が設けられる。 図 2 9は、 鏡筒部内の光学系を示す図である。 望遠鏡 部 3 0の光軸上には、 対物レンズ 3 3、 ダイクロイツクプリズム 3 4、 合焦 点レンズ 3 5、 正立プリズム 3 6、 焦点鏡 3 7、 接眼レンズ 3 8を順次配設 する。 ダイクロイツクプリズム 3 4は、 プリズム 3 9、 プリズム 4 0、 プリ ズム 4 1 とから構成され、 ダイクロイツクミラー面である第 1面、 第 2面を 形成する。
[0096] 第 1面は、 対物レンズ 3 3からの入射光のうち可視光を透過し、 赤外光を 反射する。 一方、 第 2面は、 第 1面を透過した可視光を分割する。 例えば、 第 1面は、 4 0 0〜 6 5 0 n mの可視光を透過し、 6 5 0〜8 5 0 n mの赤 外光を反射する。 また、 第 2面は、 例えば 4 0 0 ~ 6 5 0 n mの可視光の 4 0 %を透過し、 6 0 %を反射する。 対物レンズ 3 3から入射して第 1面およ び第 2面を透過した可視光は、 合焦点レンズ 3 5により焦点鏡 3 7に結像し 視準される。 また、 第 1面で反射した反射光軸 4 9上に測距部 3 1を設け、 第 2面で反射した反射光軸 5 3上に撮像部 3 2を設ける。
[0097] 測距部 3 1は、 発光部 4 2と、 受光部 4 3とを備えている。 発光部 4 2は 、 レーザ光をパルス発振する固体レーザ装置であり、 測定点にコーナーキュ ーブを必要としないノンプリズム測距が可能である。 発光部 4 2は、 レーザ 光源 4 4、 集光レンズ 4 5、 レーザ媒質 4 6、 可飽和吸収体 4 7、 共振ミラ 一 4 8を備える。 発光部 4 2からパルス発振したレーザ光は、 測距光軸 4 9 上に配置された孔明ミラー 5 0とリレーレンズ 5 1を透過して第 1面で反射 して対物レンズ 3 3から出射する。 測定点で反射した反射レーザ光は、 第 1 面と孔明ミラ一 5 0で反射してリレーレンズ 5 2を透過し、 受光部 4 3に受 光する。
[0098] 測量機 1が測定点に視準位置を合わせた後、 測距部 3 1は発光部 4 2から レーザ光をパルス発振する。 測距部 3 1は、 発光部 4 2がレーザ光を発光し 、 このレーザ光を受光部 4 3が受光するまでの時間差と光速により測定点ま での距離を演算することで測距を行う。
[0099] 撮像部 3 2は、 第 2面で分割した可視光を撮像する。 第 2面で分割した可 視光は、 リレーレンズ 5 4、 反射ミラ _ 5 5、 リレーレンズ 5 6を介して撮 像素子 5 7に結像する。 撮像素子 5 7は、 例えば画素数が 6 4 0 X 4 8 0の C M O Sセンサである。 撮像素子 5 7に撮像された画像は、 図 2 8 ( B ) に 示す表示装置 2 0に表示される。
[0100] 表示装置 2 0は、 表示部 2 3と、 操作部 2 4とを備えている。 表示部 2 3 は、 撮影部 3 2が撮像した画像やメニュー画面等を表示する。 表示部 2 3は 、 タツチ操作が可能な液晶画面であり、 表示した画像上で測定エリア 2 5の 設定が可能である。 測定エリア 2 5は、 例えば、 測量者が画像上で対角 2点 による矩形指定を行い、 指定した対角 2点を望遠鏡部 3 0で視準して水平角 、 鉛直角を算出することで設定される。 これにより、 画像座標に対応する水 平角および鉛直角が関連付けられる。 一方、 操作部 2 4は、 測定条件、 測定 ェリァのスキヤン開始指令等を入力操作する。
[0101] 図 3 0は、 測量機のブロック図である。 測量機 1 0は、 制御演算部 6 0に より統括制御され、 制御演算部 6 0は、 記憶部 6 1に記憶されたプログラム を読み出して順次実行する。 制御演算部 6 0は、 まず撮像部 3 2により撮像 された画像を表示部 2 3に表示する。 測量者は、 表示部 2 3に表示された画 像上で測定エリア 2 5を設定する。 制御演算部 6 0は、 測定エリア 2 5の画 像からエッジ抽出を行う。
[0102] その際、 制御演算部 6 0は、 図 2 4に示すメニュー画面 1を表示部 2 3に 表示する。 測量者は、 メニュー画面 1のスライダー操作部 4でエッジ抽出具 合 (エッジの長さ Xエッジ強度) を調整することで、 測定すべき対象物の輪 郭を抽出させる。 抽出されたエッジ、 端点、 交点は、 図 2 8 ( B ) に示すよ うに表示部 2 3に表示される。
[0103] 制御演算部 6 0は、 操作部 2 4からスキャン開始指令を入力すると、 測定 エリア 2 5内で抽出されたエッジ、 端点、 または交点のみを自動視準して測 定を行う。 この際、 制御演算部 6 0は、 抽出されたエッジ、 端点、 または交 点の画素座標に基づいて鉛直駆動部 2 2および水平駆動部 2 1を制御するこ とで、 その画素座標を視準中心にする。 そして、 制御演算部 6 0は、 測距部 3 1に測距させると共に、 鉛直測角部 1 9および水平測角部 1 6に測角させ ることで測定を行う。 測距,測角データ (測定データ) は、 測定点の画像座 標と関連付けて記憶部 6 1に記憶される。
[0104] 1つの測定点について測定が終了すると、 制御演算部 6 0は、 鉛直駆動部
2 2および水平駆動部 2 1を制御することで、 次の画素座標を視準中心にし 、 測定を行う。 以後、 測定点がなくなるまで、 上記処理を繰り返す。
[0105] (測量機の動作)
以下、 上述した測量機 1 0の動作について詳述する。 図 3 1は、 測量機の 制御プログラムのフローチャートである。 まず、 撮像部 3 2が測定対象を撮 影する (ステップ S 1 0 ) 。 撮影された画像が表示された表示部 2 3上で、 測定エリア 2 5が設定された後 (ステップ S 1 1 ) 、 測量機 1 0は、 エッジ 抽出を行う。
[0106] 測量者は、 まず、 表示部 2 3に表示されたメニュー画面 1で各種設定を行 う。 抽出すべき特徴が周辺に比べて暗い場合には、 パターン選択部 7の 「暗 輪郭パターン」 オプションを選択し、 周辺に比べて輝度の凹凸が激しい場合 には、 「凹凸輝度パターン」 オプションを選択し、 いずれでもない場合は、
「無し」 オプションを選択する。 また、 表示された画像が暗い場合や明るい 場合には、 明るさ補正選択部 2の 「明るさ補正」 をチェックする。 設定が完 了すると、 測量機 1 0は、 測定エリア 25の画像に対して前処理を行う (ス テツプ S 1 2) 。
[0107] そして、 測量機 1 0は、 前処理した画像からエッジ検出を行い (ステップ S 1 3) 、 検出されたエッジから対象物の輪郭となるエッジを抽出する (ス テツプ S 1 4) 。 この際、 測量者は、 メニュー画面 1のスライダー操作部 4 でエッジ抽出具合を調整する。 また、 「交点」 オプションが選択されている 場合には、 抽出されたエッジの端点からエッジ同士の交点を検出する (ステ ップ S 1 5) 。
[0108] 所望のエッジが抽出されない場合には (ステップ S 1 6の NO) 、 メニュ 一画面 1で設定を再調整してエッジを再抽出する。 所望のエッジが抽出され た場合には (ステップ S 1 6の YES) 、 測量者は、 操作部 24を操作する ことで、 スキャン開始指令を入力する (ステップ S 1 7) 。 この際、 測量者 は、 操作部 24を操作することで、 抽出されたエッジ、 端点、 交点、 または これら全ての中から視準目標を設定する。
[0109] スキャンが開始すると、 測量機 1 0は、 水平回転および鉛直回転して測定 点 (エッジ、 端点、 または交点) に視準位置を合わせる (ステップ S 1 8) 。 測定点が視準中心になると、 測距部 31は測距を行い、 鉛直測角部 22お よび水平測角部 21は、 測角を行う (ステップ S 1 9) 。
[0110] 測定点が残っている場合には、 ステップ S 1 8、 ステップ S 1 9の処理を 繰り返す (ステップ S 20の YES) 。 測定点がない場合には、 測量機 1 0 は、 測定を終了する (ステップ S 20の NO) 。
[0111] (第 4の実施形態の優位性)
第 4の実施形態によれば、 測量機 1 0は、 抽出したエッジ、 端点、 または 交点のみを測定するため、 測定エリア全体を走査して測定する場合と比べ、 ステップ S 1 8〜ステップ S 20のループ処理が減り、 高速に測定を行うこ とができる。
[0112] また、 1つのパラメータ (エッジの長さ Xエッジ強度) のみでエッジ抽出 具合を調整できるため、 ステップ S 1 2〜ステップ S 1 6の繰り返し作業が 減り、 測量機 1 0の操作性が向上する。
産業上の利用可能性
[01 13] 本発明は、 画像からエッジ抽出を行うエッジ抽出装置、 これを用いた測量 機、 およびこれらのプログラムに利用することができる。

Claims

請求の範囲
画像からエツジ強度を算出してエツジ検出を行うェッジ検出部と、 前記エッジ検出部が検出したエッジをラベリング処理し、 かつ、 前 記ェッジの長さを求めるラベリング処理部と、
前記ラベリング処理部が求めたエツジの長さと前記ェッジ検出部が 算出したェッジ強度とを対応付けた値によってエツジの強調処理を行 うエッジ強調処理部と、
前記ェッジ強調処理部によって強調された画像の値に対して、 調整 可能とされる閾値により 2値化処理を施し、 所定のエッジを抽出する エッジ抽出部とを備えることを特徴とするエッジ抽出装置。
前記ェッジ検出部は、 ソーベルフィルターに代表される微分フィル ターによりエッジ検出を行うことを特徴とする請求項 1に記載のエツ ジ抽出装置。
前記エッジ抽出部の閾値は、 単一の操作部によリ調整可能に構成さ れていることを特徴とする請求項 1に記載のエツジ抽出装置。
前記操作部は、 単一のスライダー操作部によリ調整可能に構成され ていることを特徴とする請求項 3に記載のエッジ抽出装置。
前記エッジ検出部の処理に先立ち、 前処理を行う前処理部を備え、 前記前処理部の処理内容は、 対象物の特徴に応じて変更可能に構成 されていることを特徴とする請求項 1に記載のエッジ抽出装置。 前記エッジ検出部の処理に先立ち、 縮小処理を行う前処理部を備え ていることを特徴とする請求項 1に記載のエツジ抽出装置。
前記エッジ抽出部によって抽出された画素数と抽出されなかった画 素数の比を S Z N比として定義し、
前記ェッジ検出部は、 前記 S N比に基づいてエツジ強度の閾値を 自動決定してエツジ検出を行うことを特徴とする請求項 1に記載のェ ッジ抽出装置。
前記エッジ抽出部によって抽出されたエッジ同士の交点を検出する 交点検出部を備えることを特徴とする請求項 1に記載のエツジ抽出装 置。
[請求項 9] 前記交点検出部は、 前記エッジ抽出部によって抽出されたエッジの 端点から回帰直線を求め、 前記回帰直線同士の交点を検出することを 特徴とする請求項 8に記載のェッジ抽出装置。
[請求項 10] 前記ェッジ検出部が検出したエツジのコーナーを除去するコーナー 除去部を備えることを特徴とする請求項 1に記載のエッジ抽出装置。
[請求項 11 ] 前記コーナー除去部が除去するコーナーの角度は調整可能に構成さ れていることを特徴とする請求項 1 0に記載のエツジ抽出装置。
[請求項 12] 請求項 8に記載の構成を有する測量機において、
前記エッジ抽出部によって抽出されたエッジ、 または、 前記交点検 出部によって検出された交点もしくは端点を視準して測定を行うよう に構成されていることを特徴とする測量機。
[請求項 13] 画像からエツジ強度を算出してエッジ検出を行うエッジ検出ステツ プと、
前記エッジ検出部が検出したエッジをラベリング処理し、 かつ、 前 記エッジの長さを求めるラベリング処理ステップと、 前記ラベリング処理部が求めたエツジの長さと前記ェッジ検出部が 算出したエツジ強度とを対応付けた値によってエツジの強調処理を行 うエツジ強調処理ス亍ップと、
前記エッジ強調処理部によって強調された画像に対して、 調整可能 とされる閾値により 2値化処理を施し、 エッジを抽出するエッジ抽出 ステップとをコンピュータに実行させるためのプログラム。
[請求項 14] 請求項 8に記載の構成を有する測量機に実行させるためのプログラ ムであって、
前記エッジ抽出部によって抽出されたエッジ、 または、 前記交点検 出部によって検出された交点もしくは端点を視準して測定を行う測定 ステップを測量機に実行させるためのプログラム。
PCT/JP2009/059935 2008-05-26 2009-05-26 エッジ抽出装置、測量機、およびプログラム WO2009145336A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN200980119219.0A CN102047291B (zh) 2008-05-26 2009-05-26 边缘提取装置、测量机
EP09754844.0A EP2296114B1 (en) 2008-05-26 2009-05-26 Edge extraction apparatus, surveying equipment, and program
US12/954,395 US8600170B2 (en) 2008-05-26 2010-11-24 Edge extraction apparatus, surveying equipment, and program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2008137136A JP5356728B2 (ja) 2008-05-26 2008-05-26 エッジ抽出装置、測量機、およびプログラム
JP2008-137136 2008-05-26

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/954,395 Continuation US8600170B2 (en) 2008-05-26 2010-11-24 Edge extraction apparatus, surveying equipment, and program

Publications (1)

Publication Number Publication Date
WO2009145336A1 true WO2009145336A1 (ja) 2009-12-03

Family

ID=41377203

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/059935 WO2009145336A1 (ja) 2008-05-26 2009-05-26 エッジ抽出装置、測量機、およびプログラム

Country Status (5)

Country Link
US (1) US8600170B2 (ja)
EP (1) EP2296114B1 (ja)
JP (1) JP5356728B2 (ja)
CN (1) CN102047291B (ja)
WO (1) WO2009145336A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013149025A (ja) * 2012-01-18 2013-08-01 Secom Co Ltd 画像監視装置
US10552861B2 (en) 2013-02-11 2020-02-04 Solutran, Inc. Dual redemption path with shared benefits system and method
US10558997B2 (en) 2013-02-11 2020-02-11 Solutran, Inc. Server-based product substantiation with local filtering system and method

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5666852B2 (ja) * 2009-09-02 2015-02-12 Necプラットフォームズ株式会社 カラー判定装置、画像処理装置、カラー判定方法、カラー判定プログラム
US9760799B2 (en) * 2010-03-10 2017-09-12 Tandent Vision Science, Inc. Pipeline for generating an intrinsic image
US8928783B2 (en) * 2011-09-26 2015-01-06 Ricoh Company, Ltd. Imaging apparatus including switchable edge extraction
JP5871571B2 (ja) * 2011-11-11 2016-03-01 株式会社Pfu 画像処理装置、矩形検出方法及びコンピュータプログラム
JP5854774B2 (ja) 2011-11-11 2016-02-09 株式会社Pfu 画像処理装置、直線検出方法及びコンピュータプログラム
JP5822664B2 (ja) 2011-11-11 2015-11-24 株式会社Pfu 画像処理装置、直線検出方法及びコンピュータプログラム
RU2483354C1 (ru) * 2011-12-16 2013-05-27 Открытое Акционерное Общество "Производственное Объединение "Уральский Оптико-Механический Завод" Имени Э.С. Яламова" (Оао "По "Уомз") Способ выделения объекта в изображении
US9064317B2 (en) * 2012-05-15 2015-06-23 Palo Alto Research Center Incorporated Detection of near-field camera obstruction
KR20140028959A (ko) * 2012-08-31 2014-03-10 삼성전자주식회사 화상형성장치 및 화상형성방법
KR102139698B1 (ko) * 2013-11-14 2020-07-31 삼성디스플레이 주식회사 표시 패널의 영상 보정 방법
US10089787B2 (en) * 2013-12-26 2018-10-02 Flir Systems Ab Systems and methods for displaying infrared images
US9508006B2 (en) * 2014-11-03 2016-11-29 Intelescope Solutions Ltd. System and method for identifying trees
CN104613901A (zh) * 2015-01-12 2015-05-13 张长隆 一种单目摄像头平面角度的测量方法和系统
WO2016207749A1 (en) * 2015-06-23 2016-12-29 Mobile Telephone Networks (Proprietary) Limited A device and method of detecting potholes
JP6824619B2 (ja) * 2016-03-31 2021-02-03 キヤノン株式会社 画像処理装置、およびその制御方法
WO2018046617A1 (en) * 2016-09-07 2018-03-15 Starship Technologies Oü Method and system for calibrating multiple cameras
JP6841075B2 (ja) * 2017-02-17 2021-03-10 ブラザー工業株式会社 画像処理装置、および、コンピュータプログラム
JP2018147199A (ja) 2017-03-03 2018-09-20 ブラザー工業株式会社 画像処理装置、および、コンピュータプログラム
JP6781406B2 (ja) 2017-03-28 2020-11-04 ブラザー工業株式会社 画像処理装置、および、コンピュータプログラム
US11200433B2 (en) * 2017-05-03 2021-12-14 Mobileye Vision Technologies Ltd. Detection and classification systems and methods for autonomous vehicle navigation
CN107737410B (zh) * 2017-10-12 2024-04-09 佛山科学技术学院 一种白癜风治疗系统及其实现方法
JP6962792B2 (ja) * 2017-11-17 2021-11-05 株式会社パスコ 石垣管理支援システム、石垣管理支援方法及びコンピュータプログラム
JP7003669B2 (ja) * 2018-01-10 2022-01-20 株式会社アイシン 表面検査装置、及び表面検査方法
JP7027978B2 (ja) * 2018-03-14 2022-03-02 富士通株式会社 検査装置、検査方法、及び検査プログラム
TWI664392B (zh) * 2018-04-12 2019-07-01 時豪 葉 估算由縱橫線件所構成之材料之虛擬輪廓的方法
CN109632007B (zh) * 2019-01-17 2020-12-04 北京理工大学 一种边缘点提取方法及齿轮高精度视觉测量系统
CN110363205B (zh) * 2019-06-25 2021-06-22 浙江大学 一种基于Talbot效应光学卷积的图像特征提取系统及方法
JP7341808B2 (ja) * 2019-09-11 2023-09-11 キヤノン株式会社 画像読取装置およびその制御方法
CN112348837B (zh) * 2020-11-10 2023-06-09 中国兵器装备集团自动化研究所 一种点线检测融合的物体边缘检测方法及系统
CN113446959B (zh) * 2021-06-28 2023-04-18 菲特(天津)检测技术有限公司 基于外部传感器触发线阵相机的触发系统及图像检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08329252A (ja) 1995-05-31 1996-12-13 Sony Corp エッジ検出方法及びエッジ検出装置
JPH10267618A (ja) * 1997-03-24 1998-10-09 Nissan Motor Co Ltd 距離計測装置
JP2000155841A (ja) * 1998-11-19 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> 図形認識方法、装置、および図形認識プログラムを記録した記録媒体
JP2000209430A (ja) * 1999-01-18 2000-07-28 Canon Inc 輪郭抽出装置及び方法並びに記憶媒体
JP2001177728A (ja) 1999-12-17 2001-06-29 Fuji Photo Film Co Ltd エッジ検出方法および画像処理方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000293696A (ja) * 1999-04-07 2000-10-20 Matsushita Electric Ind Co Ltd 画像認識装置
JP4144377B2 (ja) * 2003-02-28 2008-09-03 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US7983446B2 (en) * 2003-07-18 2011-07-19 Lockheed Martin Corporation Method and apparatus for automatic object identification
JP4992212B2 (ja) * 2005-09-06 2012-08-08 ソニー株式会社 画像処理装置、画像判定方法及びプログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08329252A (ja) 1995-05-31 1996-12-13 Sony Corp エッジ検出方法及びエッジ検出装置
JPH10267618A (ja) * 1997-03-24 1998-10-09 Nissan Motor Co Ltd 距離計測装置
JP2000155841A (ja) * 1998-11-19 2000-06-06 Nippon Telegr & Teleph Corp <Ntt> 図形認識方法、装置、および図形認識プログラムを記録した記録媒体
JP2000209430A (ja) * 1999-01-18 2000-07-28 Canon Inc 輪郭抽出装置及び方法並びに記憶媒体
JP2001177728A (ja) 1999-12-17 2001-06-29 Fuji Photo Film Co Ltd エッジ検出方法および画像処理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2296114A4

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013149025A (ja) * 2012-01-18 2013-08-01 Secom Co Ltd 画像監視装置
US10552861B2 (en) 2013-02-11 2020-02-04 Solutran, Inc. Dual redemption path with shared benefits system and method
US10558997B2 (en) 2013-02-11 2020-02-11 Solutran, Inc. Server-based product substantiation with local filtering system and method
US10685369B2 (en) 2013-02-11 2020-06-16 Solutran, Inc. Server-based product substantiation with local filtering system and method
US11004105B2 (en) 2013-02-11 2021-05-11 Solutran, Inc. Dual redemption path with shared benefits system and method
US11004104B2 (en) 2013-02-11 2021-05-11 Solutran, Inc. Dual redemption path with shared benefits system and method
US11315141B2 (en) 2013-02-11 2022-04-26 Solutran, LLC Server-based product substantiation with local filtering system and method
US11468469B2 (en) 2013-02-11 2022-10-11 Solutran, Inc. Server-based product substantiation with local filtering system and method

Also Published As

Publication number Publication date
JP5356728B2 (ja) 2013-12-04
CN102047291B (zh) 2014-05-28
JP2009282928A (ja) 2009-12-03
CN102047291A (zh) 2011-05-04
EP2296114A4 (en) 2015-10-14
US8600170B2 (en) 2013-12-03
EP2296114A1 (en) 2011-03-16
EP2296114B1 (en) 2016-09-28
US20110085738A1 (en) 2011-04-14

Similar Documents

Publication Publication Date Title
WO2009145336A1 (ja) エッジ抽出装置、測量機、およびプログラム
CN106911921B (zh) 基于单个摄像机的投影仪红外触控和自动对焦方法
JP3868876B2 (ja) 障害物検出装置及び方法
JP4930046B2 (ja) 路面判別方法および路面判別装置
JP4130820B2 (ja) 顔中心位置検出装置及び方法並びにプログラム
US20100128231A1 (en) Projection-type display apparatus and method for performing projection adjustment
CN108027248A (zh) 具有基于特征的定位和导航的工业车辆
JP2004341422A (ja) 地図作成装置、地図配信方法及び地図作成プログラム
US20100171809A1 (en) Microscope system and method of operation thereof
US9826884B2 (en) Image processing device for correcting captured image based on extracted irregularity information and enhancement level, information storage device, and image processing method
JP2007234019A (ja) 車両画像領域特定装置およびその方法
JP4872769B2 (ja) 路面判別装置および路面判別方法
JP2010237169A (ja) 自動追尾方法及び測量装置
US9482855B2 (en) Microscope system
CN111679418B (zh) 基于激光图像的显微镜自动聚焦方法、系统及计算机设备
CN104966302B (zh) 一种任意角度激光十字的检测定位方法
WO2023019793A1 (zh) 一种确定方法、清洁机器人和计算机存储介质
JP4743773B2 (ja) エッジ検出方法、装置、及びプログラム
JPWO2005096129A1 (ja) 撮像装置の指示位置検出方法および装置、撮像装置の指示位置検出用プログラム
JP2003167529A (ja) 画面欠陥検出方法及び装置並びに画面欠陥検出のためのプログラム
US8736706B1 (en) Method and system for generating high resolution composite images
JP2010136207A (ja) 歩行者検出表示システム
CN112571409B (zh) 基于视觉slam的机器人控制方法、机器人及介质
JP4664805B2 (ja) 顔端検出装置、顔端検出方法、及び、プログラム
Xi et al. Multi-retinal images stitching based on the maximum fusion and correction ratio of gray average

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200980119219.0

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09754844

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2009754844

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2009754844

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE