WO2007138898A1 - 認識システム、認識方法および認識プログラム - Google Patents

認識システム、認識方法および認識プログラム Download PDF

Info

Publication number
WO2007138898A1
WO2007138898A1 PCT/JP2007/060315 JP2007060315W WO2007138898A1 WO 2007138898 A1 WO2007138898 A1 WO 2007138898A1 JP 2007060315 W JP2007060315 W JP 2007060315W WO 2007138898 A1 WO2007138898 A1 WO 2007138898A1
Authority
WO
WIPO (PCT)
Prior art keywords
voting
point
space
parameter space
distance
Prior art date
Application number
PCT/JP2007/060315
Other languages
English (en)
French (fr)
Inventor
Kazuyuki Sakurai
Original Assignee
Nec Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nec Corporation filed Critical Nec Corporation
Priority to US12/092,025 priority Critical patent/US8208757B2/en
Priority to JP2008517843A priority patent/JP4577532B2/ja
Priority to EP07743749A priority patent/EP2026281A1/en
Publication of WO2007138898A1 publication Critical patent/WO2007138898A1/ja

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/48Extraction of image or video features by mapping characteristic values of the pattern into a parameter space, e.g. Hough transformation

Definitions

  • Recognition system recognition method oppi recognition program
  • the present invention relates to a recognition system, a recognition method, and a recognition program, and more particularly to a recognition system that is robust against noise and can suppress overdetection using a partial area other than a recognition target specific pattern as a recognition target specific pattern.
  • this conventional recognition system includes an imaging unit 31, an edge detection unit 3 2, a Hough transform processing unit 3 3, a Hough space creation unit 3 4, and a linear component extraction unit 3. It consists of five.
  • the conventional recognition system having such a configuration operates as follows.
  • an image to be recognized is input by the imaging unit 31. Further, the edge of the image is detected by differentiating the image sent from the imaging unit 31 by the edge detection unit 3 2. Further, the edge point sequence of the image detected by the H o u g h conversion processing unit 33 is subjected to H o u g h conversion. Further, a H o u g h space creation unit 3 4 creates a histogram (hereinafter referred to as a H o u g h space) according to the function of the H o u g h transformation.
  • a histogram hereinafter referred to as a H o u g h space
  • the peak component of the frequency of the Hough space is detected by the linear component extraction unit 35, and the image corresponding to each Hough function curve passing through the detected peak point is detected. It is determined that the edge point sequence is a straight line, and a linear component is extracted from the image.
  • the linear component extraction unit 35 detects the maximum peak point from the Hough space created by the Hough space creation unit 34 and extracts a linear component corresponding to the maximum peak point. Then, the range in which the maximum peak point affects the frequency distribution of the histogram and the contribution amount are obtained.
  • the linear component extraction unit 35 reduces the influence of the maximum peak point to the frequency in the Hough space of other peak points according to the calculated contribution amount within the range. To correct.
  • the linear component extraction unit 35 detects the next largest peak point using the partially modified Hough space, extracts the straight line component corresponding to the peak point, and so on. These processes are performed sequentially. Disclosure of the invention:
  • the first problem is that, in general, when a specific pattern such as a straight line is detected by the H o ugh h transformation, a false specific pattern appears around the true specific pattern.
  • the second problem is that a large amount of processing is required for dealing with the phenomenon that a false specific pattern appears around a true specific pattern as in the prior art.
  • An object of the present invention is to realize a recognition system that can easily detect a robust specific pattern. Is to provide a stem.
  • the recognition system includes feature point detection means, (1 2 0), H o gh h conversion means (1 3 0), and specific pattern output means (1 4 0).
  • the Hough transforming means (1 3 0) the magnitude relationship of the distances between the points in the Hough space is the same as the magnitude relationship of the distances between the specific patterns representing a difference between the predetermined specific patterns.
  • a Hough space is designed, and a specific pattern is detected using the Hough space.
  • the first effect is to suppress the phenomenon that a false specific pattern appears around a true specific pattern, which is generally a problem when using the H o ugh h transformation.
  • the Hough space is designed so that the magnitude relationship of the distance between each point in the Hough space is equivalent to the magnitude relationship of the distance between the specific patterns that represents the difference between the predetermined patterns. This is because specific patterns that are more similar in the above are expressed as closer points in the Hough space.
  • the second effect is that the suppression of the appearance of the false specific pattern can be easily realized.
  • FIG. 1 is a block diagram showing the configuration of the prior art.
  • FIG. 2 is a block diagram showing the configuration of the recognition system according to the first embodiment of the present invention.
  • FIG. 3 is a flowchart showing the operation of the recognition system according to the first embodiment.
  • FIG. 4 is a diagram showing a road image as an example of target data.
  • FIG. 5 is a block diagram showing a specific configuration of the recognition system according to the first embodiment.
  • FIG. 6 is a diagram for explaining the Sobel filter.
  • FIG. 7 is a diagram for explaining the distance between straight lines.
  • Fig. 8 is a diagram for explaining the voting method for the H o u g h space in consideration of the quantization error.
  • FIG. 9 is a diagram illustrating a specific example of the operation of the recognition system according to the first embodiment.
  • FIG. 10 is a block diagram showing the configuration of the recognition system according to the second embodiment of the present invention.
  • FIG. 11 is a flowchart showing the operation of the recognition system according to the second embodiment.
  • FIG. 12 is a block diagram showing a specific configuration of the recognition system according to the second embodiment.
  • FIG. 13 is a diagram showing a specific example of the operation of the recognition system according to the second embodiment. Best Mode for Carrying Out the Invention:
  • the first embodiment of the present invention is composed of a computer (central processing unit; processor; data processing unit) 10 0 0 and a target data input unit 1 1 0 which operate under the programm control. Has been.
  • Computer (central processing unit; processor; data processing unit) 1 0 0 is a feature point detection unit 1 2 0, a Hough conversion unit 1 3 0, and a specific pattern output unit 1 4 W
  • the H o u g h conversion unit 1 3 0 includes a H o u g h space voting unit 1 3 1, a H o u g h space smoothing unit 1 3 2, and a H o u h h space peak detection unit 1 3 3.
  • the target data input device 110 inputs data that is a detection target of a desired specific pattern.
  • the feature point detecting means 120 detects a point estimated as a point on the specific pattern from the target data as a feature point.
  • the Hough space voting means 1 31 is a space (hereinafter referred to as a Hough space) having a parameter representing the specific pattern as an axis (hereinafter referred to as a Hough space). For each point on the trajectory corresponding to the feature point, a weight corresponding to the feature point is voted.
  • the H ou g h space smoothing means 1 3 2 determines, for each point in the H ou g h space, a voting value smoothed at the point using the voting value of the point and a nearby point. However, in some cases, this H o u g h space smoothing means 1 3 2 may be omitted.
  • the H o u g h space peak detecting means 1 3 3 detects a point giving a peak of one or a plurality of the voting values in the H o u g h space.
  • the specific pattern output means 140 outputs the specific pattern corresponding to the corresponding parameter for each point giving the peak of the vote value detected by the H o hgh space peak detection means 1 33.
  • a distance between specific patterns representing a difference between the specific patterns in a predetermined region of interest in the target data is defined, and the magnitude relationship of the distance between the specific patterns and the correspondence in the Hough space
  • the parameter expression of the specific pattern is adopted so that the magnitude relation of the distance between the points to be processed is the same value.
  • mapping h n ⁇ ⁇ ⁇ " is designed so that the equivalence relation expressed by the following formula (1) is established, and ⁇ " is used as a parameter expressing the specific pattern.
  • the space with the axis be the Hough space.
  • voting for each point on the locus in the Hough space for the feature point in the Hough space voting means 1 3 it is determined by a noise component considered to be included in the position of the feature point It is also possible to vote for the near range of each point on the trajectory.
  • step A 1 data to be subjected to the specific pattern detection process is input by the target data input device 110 (step A 1 in FIG. 3).
  • the feature point detecting means 120 detects a point estimated from the target data as a point on the specific pattern as a feature point (step A 2).
  • the Hough space voting means 1 3 1 votes the weights corresponding to the feature points for the respective points on the trajectory corresponding to the feature spaces in the Hough space (Step A 3).
  • the Hough space smoothing means 1 3 2 determines, for each point in the Hough space, a smoothed voting value at the point using the voting value of the point and neighboring points. (Step A4).
  • step A4 may be omitted in some cases.
  • the Hough space peak detecting means 133 detects a point giving a peak of one or a plurality of the voting values in the Hough space (Step A 5).
  • the specific pattern output means 140 outputs the specific pattern for the corresponding parameter for each point that gives the peak of the vote value detected by the Hough space peak means (step A). 6).
  • voting may be performed for the neighborhood range of each point on the trajectory determined by a noise component considered to be included in the position of the feature point.
  • the distance between the specific patterns representing the difference between the specific patterns in the predetermined region of interest in the target data is defined, and the magnitude relationship of the distance between the specific patterns and the Hough space
  • the Hough space is configured by the above-described parameter expression of the specific pattern such that the magnitude relationship of the distances between corresponding points in the bag is the same value or approximately the same value. For this reason, by appropriately defining the distance between the specific patterns, the distance is closer in the Hough space, and the points are closer in the target area of the target data, corresponding to the specific pattern. By performing smoothing of an appropriate range at each point in the ough space, it is possible to easily suppress the appearance of a false specific pattern that appears near a true specific pattern, which is a conventional problem.
  • the Hough space voting means 1 3 1 votes for the neighborhood range of each point on the locus determined by the noise component considered to be included in the position of the feature point. Therefore, the specific pattern robust to the noise component included in the feature point can be detected.
  • an image input from an input device such as a camera is used as the target data, and a plurality of points (hereinafter referred to as edge points) where the pixel value changes sharply as the feature points.
  • the straight line formed by these edge points is detected as the specific pattern.
  • W 200 / n is detected.
  • a specific example of the image will be described by taking a road image 310 obtained by photographing a road from a camera mounted on a vehicle or the like as shown in FIG. By detecting a straight line from the road image, a white line 3 1 2 etc. indicating a driving lane boundary drawn on the road surface 3 1 1 is recognized.
  • the authentication system includes an image input device 4 1 0 such as a force mela as the target data input device 1 1 0, and an edge point detection as the feature point detection means 1 2 0.
  • the edge point detection means 4 2 0 includes 3 X 3 Sobel filter means 4 2 1, edge strength calculation means 4 2 2, edge strength threshold processing means 4 2 3, and edge point output means 4 2 4 including.
  • the edge point detection means 4 20 is not limited to the above-described configuration, and may be any means that detects a point with a sharp change in pixel value.
  • the Hough transforming means 4 30 includes a Hough space voting means 4 31, a Hough space smoothing means 4 3 2, and a Hough space peak detecting means 4 33.
  • the road image 3 1 0 is input as the target data by the image input device 4 1 0.
  • the edge point detection means 420 detects a plurality of the edge points.
  • the Hough transform means 4 3 0 is a linear parameter expression described later.
  • the H o u g h space defined as a two-dimensional plane with the horizontal axis and the vertical axis, respectively, is processed in the same manner as the H o u h h conversion means 1 30.
  • the straight line detecting means 4 40 is the voting detected by the Hough converting means 4 30.
  • the 3 X 3 Sobel filter means 4 2 1 includes the pixel values in the vicinity of 3 3 for each point of the road image 3 10 and the X direction gradient kernel and the y direction gradient kernel shown in FIG. Take the sum of the products of the coefficients. These sums of products are called the Sobel X component and Sobel y component, respectively.
  • the edge strength calculating means 4 2 2 calculates the square of the sum of squares of the Sobel X component and the Sobel y component or the sum of absolute values for each point of the road image 3 10, respectively.
  • the edge strength of the point Further, the edge strength threshold processing means 4 23 determines whether or not the edge strength for each point of the road image 3 10 is not less than a predetermined threshold, for example, 100 or more. Further, the edge point output means 4 24 outputs, as an edge point, the point at which the edge strength is judged to be equal to or higher than the threshold by the edge strength threshold processing means 4 23.
  • the Hough space voting means 4 31 is defined by the edge point detected by the edge point detection means 4 20 within a space (hereinafter referred to as Hough space) having a parameter representing the straight line as an axis. For each point on the corresponding trajectory, a weight corresponding to the edge point is voted.
  • Hough space a space having a parameter representing the straight line as an axis.
  • the weight according to the edge point is not limited to this.
  • the slope of the pixel value at the edge point calculated by a constant, a Sobel X component and a Sobel y component described later, and the locus It is also possible to use a value calculated from a pixel value of the edge point or its vicinity, such as an angle formed with the slope of the straight line corresponding to the point, or a value calculated from these values, the edge strength, etc. Good.
  • the Hough space smoothing means 43 2 determines, for each point in the Hough space, a smoothed vote value at the point using the vote value of the point and a nearby point. To do. Here, for example, as an average value of points near 3 X 3 of the point The smoothed vote value is determined. However, the method for determining the neighborhood range and the smoothed vote value is not limited to this. In some cases, a book
  • Ho u g h space smoothing means 432 may be omitted.
  • the Hough space peak detecting means 433 determines a point having a maximum voting value in a neighborhood range such as 3 ⁇ 3 neighborhood, which is equal to or greater than a predetermined threshold in the Hough space. Detect as a peak.
  • the criterion for detecting the peak is not limited to this. For example, a criterion corresponding to the problem setting is adopted, for example, only a point having the maximum vote value in the Hough space is used as a peak. Things come out.
  • L represents the y coordinate of a horizontal line in the road image 310 as shown in FIG.
  • the attention area is set as a lower area of the road image 310, for example, an area below the central horizontal line as shown in FIG.
  • This attention area A31 1 is the road This area is expected to correspond to the road surface in the image 3 10.
  • Equation (3) is transformed into Equation (4).
  • the Hough space voting means 4 3 1 assigns a weight corresponding to the edge point to each point on the trajectory corresponding to the edge point detected by the edge point detection means 4 20 in the Hough space. Vote.
  • the H o u g h space voting means 4 3 1 in the computer 4 0 it is necessary to discretize the H o u g h space. If the straight line parameter expression is the above equation (6), the parameters in the equation (6) are as shown in FIG.
  • the accuracy is considered to be equal to the positional accuracy of each point in the road image in the X direction. Yes.
  • the discretization interval is set to 1 in this embodiment.
  • the parameter is also determined by the error range for the position of each point of the road image considering the factor. Just do it.
  • the same interval as the parameter may be used in order to maintain the relationship of Equation (1).
  • the discretization interval of the H ou g h space can be automatically determined from the error range of the target data.
  • the Hough space voting means 4 31 will be supplemented.
  • the Hough space voting means 4 3 1 votes the weight corresponding to the edge point for each point on the trajectory corresponding to the edge point detected by the edge point detection means 4 20 in the Hough space.
  • this voting can be performed not on each point on the trajectory but on a neighborhood range of each point on the trajectory determined by a noise component considered to be included in the position of the edge point.
  • the voting only the noise component resulting from the coordinate discretization is considered as the noise component included in the edge point position.
  • a certain pixel position in the road image It can be considered that the true position of the edge point detected in (5) is in the range of the formula (7).
  • the road image is input by the image input device 4 1 0 (step B 1 in FIG. 9) 0
  • the single filter means 4 2 1 applies to each point of the road image. to calculate the source one ⁇ ⁇ les X component and Seo 1 ⁇ Le y component (step B 2).
  • the above-described wedge strength calculating means 4 2 2 calculates the wedge strength for each point of the road image (step B 3).
  • the edge strength threshold processing means 4 2 3 performs threshold processing on edge strength for each point of the road image (step B 4).
  • the edge point output means 4 24 outputs a point having the edge strength equal to or higher than the threshold value as the edge point (step B 5).
  • the Hough space voting means 431 votes on the locus in the Hough space for each edge point (step B6). Further, the Hough space smoothing means 4 32 smoothes the voting value of each point in the Hough space (step B 7). Further, the Hough space peak detecting means 4 33 detects the peak point in the Hough space (step B 8). Finally, the straight line output means 44 0 outputs the straight lines corresponding to the respective Hough space peak points (step B 9).
  • the target data is an image.
  • the target data is not limited to this.
  • a distance image indicating a distance to a real object corresponding to a pixel value, and a position at each position in a three-dimensional space.
  • 3D image given pixel values, obtained at different times It is only necessary to use data in which the coordinate position and the data value at each position are associated with each other, such as the obtained image or the time-series image obtained by arranging the three-dimensional images in the time-series direction.
  • the distance between the straight lines is defined as the sum of squares of the difference of the X coordinate on each horizontal line of the attention area A 31 1, but this is limited to the horizontal line. Rather, it should be the sum of squares of the distances between positions on each line of a set of parallel lines such as vertical lines.
  • the distance between straight lines is defined as the sum of squares of the distance between positions on each line of a set of lines parallel to each other, but this is not limited to the sum of squares.
  • the set of straight line positions on each line of the set of lines parallel to each other such as the sum of absolute values, the maximum absolute value, etc., corresponds to the two lines corresponding to the two straight lines. It may be an amount defined as the distance between the kuttles.
  • Equation (8) may be used as the linear parameter expression ( ⁇ , ⁇ ) - ⁇ .
  • the straight line parameter expression according to the mathematical formula (9) is obtained by replacing the straight line parameter expression according to the mathematical formula (8) with the discrete discretization at the time of the Hoough transform. It is modified to remove the influence of noise components. Therefore, in the Hough transformation using the Hough space by the linear parameter expression according to Equation (9), voting to the set of trajectories 7 06 shown in FIG. 8 and Equation (7) above There is no need to vote for the locus 7 0 5 only. In this case, the amount of processing can be reduced compared to the vote for the set of trajectories 7 06.
  • the authentication system includes a computer (central processing unit; processor; data processing unit) 9 0 0 that operates by program control, and a target data input unit. Has 9 1 0.
  • the computer (central processing unit; processor; data processing unit) 9 0 0 includes characteristic point detection means 9 2 0, H o u g h conversion means 9 3 0, and specific pattern output means 9 4 0.
  • the H o u g h conversion means 9 30 includes H o u g h space voting means 9 3 1, H o u g h space smoothing means 9 3 2, and H o u g h space peak detection means 9 3 3.
  • the target data input device 9 10 inputs data that is a detection target of a desired specific pattern.
  • the feature point detecting means 9 20 detects a point estimated from the target data as a point on the specific pattern as a feature point.
  • the Hough space voting means 9 3 1 is configured to obtain, for each point on the trajectory corresponding to the feature point detected by the feature detection means 9 20, the feature point in the Hough space expressing the specific pattern. Vote according to the weight.
  • the Hough space smoothing means 9 3 2 determines, for each point in the Hough space, a smoothed vote value at the point using the vote value of the point and a nearby point. .
  • the Hough space peak detecting means 9 33 detects a point giving a peak of one or a plurality of the vote values in the H 0 ug li space.
  • the specific pattern output means 94 0 outputs the specific pattern corresponding to the corresponding parameter for each point giving the peak of the vote value detected by the Hough space peak detection means 9 33.
  • the Hough space smoothing means 9 3 2 is configured such that each point of the Hough space
  • the set of m is considered as the neighborhood of the point, and a vote value within this neighborhood or an approximation of this neighborhood is determined.
  • r is a predetermined constant or a number determined according to some criterion for each point in the H o u g h space.
  • the Hough space voting means 9 31 performs voting on each point on the locus in the Hough space for the feature point, it is determined by a noise component considered to be included in the position of the feature point It is also possible to vote for the near range of each point on the trajectory.
  • the target data input device 9 10 inputs data to be subjected to the specific pattern detection process (step C 1 in FIG. 3).
  • the feature point detection means 9 20 0 force S a point estimated from the target data to be a point on the specific pattern is detected as a feature point (step C 2).
  • the Hough space voting means 9 3 1 votes the weights corresponding to the feature points for the respective points on the trajectory corresponding to the feature spaces in the Hough space (Step C 3).
  • the Hough space smoothing means 93 2 determines, for each point in the Hough space, a smoothed vote value at the point using the vote value of the point and a nearby point. (Step C4).
  • the Hough space peak detecting means 93 3 detects a point giving a peak of one or a plurality of the vote values in the Hough space (step C 5).
  • the specific pattern output means 94 0 outputs the specific pattern for the corresponding parameter for each point that gives the peak of the vote value detected by the Hough space peak means (step C 6). In the voting in step C3, voting may be performed for the neighborhood range of each point on the locus determined by the noise component considered to be included in the position of the feature point.
  • the distance between the specific patterns representing the difference between the specific patterns in the predetermined area of interest in the target data is defined, and the area where the distance between the specific patterns is close is considered as the neighborhood. Since the Hough transform smoothing is performed in the vicinity range, by appropriately defining the distance between the specific patterns, a false specific pattern that appears near the true specific pattern, which is a conventional problem, can be easily obtained. Appearance can be suppressed.
  • the Hough space voting means 1 3 1 votes for the neighborhood range of each point on the locus determined by the noise component considered to be included in the position of the feature point. Therefore, the specific pattern robust to the noise component included in the feature point can be detected.
  • This authentication system uses an image input from an input device such as a camera as the target data, detects a plurality of points (hereinafter referred to as edge points) where the pixel value changes sharply as the feature points, and detects them.
  • a straight line formed by the edge points is detected as the specific pattern.
  • a road image 3 10 obtained by photographing a road from a camera mounted on a vehicle as shown in FIG. 4 is taken up. By detecting a straight line from this road image, the white line 3 1 2 indicating the traveling lane boundary drawn on the road surface 3 11 is recognized.
  • the target data input device 9 10 is an image input device 1 1 1 0 such as a camera
  • the feature point detection means 9 2 0 is an edge.
  • Point detection means 1 1 2 0, Hough conversion means 1 1 3 0, and linear pattern output means 1 1 4 0 as specific pattern output means 9 4 0 are included.
  • the wedge point detection means 1 1 20 includes 3 ⁇ 3 sobel filter means 1 121, edge strength calculation means 1 1 22, edge strength threshold processing means 1 123, and edge point output means 1 124.
  • the edge point detection means 1120 is not limited to the above-described configuration, and may be any means that detects a point with a sharp change in pixel value.
  • the H o gh h conversion means 1 130 includes a Ho u g h space voting means 1 131, a H o u g h space smoothing means 1 1 32, and a Ho u g h space peak detection means 1 1 33.
  • the Ho g h space defined as a two-dimensional plane with the horizontal axis and the vertical axis, respectively, is subjected to the same processing as the H o ugh conversion unit 930.
  • the straight line detection means 1140 outputs a straight line represented by the straight line parameter expression corresponding to each point in the Hough space that gives the peak of the vote value detected by the H o h h h conversion means 1 1 30.
  • the 3 ⁇ 3 Sobel filter means 1121 calculates a Sobel ⁇ component and a Sobel y component for each point of the road image 310. Further, the edge strength calculating means 1 1 22 calculates the square of the sum of squares of the Sobel X component and the Sobel y component or the sum of absolute values for each point of the road image 3 10, respectively. The edge strength of each point is used.
  • the edge strength threshold processing means 1 1 23 is for each point of the road image 3 10 It is determined whether the edge strength is a predetermined threshold value, for example, 100 or more.
  • the wedge point output means 1 1 2 4 outputs, as the edge point, the point at which the edge strength is judged to be equal to or higher than the threshold value by the edge strength threshold processing means 1 1 2 3.
  • the Hough space voting means 1131 is the edge for each point on the trajectory corresponding to the edge point detected by the edge point detection means 1120 in the Hough space. Vote for weights according to points.
  • the edge strength is voted as a weight corresponding to the edge point.
  • the weight according to the edge point is not limited to this.
  • the gradient of the pixel value and the locus at the edge point calculated by a constant, a so-called mil X component and a Sobel y component, which will be described later, are used.
  • a value calculated from the edge point or a pixel value in the vicinity thereof such as an angle formed with the slope of the straight line corresponding to the upper point, or a value calculated from these values or the edge strength, etc. Also good.
  • the Hough space smoothing means 1 1 3 2 uses, for each point in the Hough space, the average value of voting values at neighboring points, for example, using the voting values at the point and neighboring points. Determine the smoothed vote value at the point.
  • the smoothed voting value is not limited to this, and is calculated from the positional relationship and voting value of neighboring points such as the sum of each neighboring point multiplied by an appropriate weight and the maximum voting value in the neighborhood. Various values may be used.
  • the Hough space peak detecting means 1 1 3 3 is a peak having a maximum voting value in a neighborhood range such as a neighborhood of 3 X 3 in the Hough space and not less than a predetermined threshold value. Detect as.
  • the criterion for detecting the peak is not limited to this.
  • a criterion corresponding to the problem setting is used, such as peaking only at a point having the maximum vote value in the Hough space. I can do it.
  • the H 0 ug h space smoothing means 1 1 3 2 will be described.
  • L represents the y coordinate of a horizontal line in the road image 310 as shown in FIG.
  • the attention area is set as a lower area of the road image 310, for example, an area below the central horizontal line as shown in FIG.
  • This attention area A31 1 is an area expected to correspond to a road surface in the road image 310.
  • Equation (10) can be transformed to Equation (12) below from Equation (4).
  • the Hough space smoothing means 1132 is configured so that each point of the Hough space
  • an average value of the voting values in the approximate region thereof can be used as the smoothed voting value.
  • the smoothed voting value is not limited to this, and the position relationship between neighboring points such as the sum of each point of the set of points multiplied by an appropriate weight, the maximum voting value in the neighborhood, etc.
  • Various values calculated from the vote value may be used.
  • the Hough space voting means 1 1 3 1 will be supplemented.
  • the Hough space voting means 1 1 3 1 according to the edge point for each point on the trajectory corresponding to the edge point detected by the edge point detection means 1 1 2 0 in the Hough space.
  • this voting can be performed not on each point on the trajectory but on the neighborhood range of each point on the trajectory determined by a noise component considered to be included in the position of the edge point.
  • only the noise component resulting from the coordinate discretization is considered as the noise component included in the edge point position at the time of voting. In this case, a certain pixel position in the road image
  • the true position of the edge point detected in step 3 is considered to be in the range of the following formula (1 3).
  • the road image is input by the image input device 1 1 1 0 (step D 1 in FIG. 13).
  • the Sobel filter component 1 1 2 1 force S and the Sobel X component and Sobel y component are calculated for each point of the road image (Step D 2).
  • the edge strength calculating means 1 1 2 2 calculates edge strength for each point of the road image (step D 3).
  • the edge strength threshold processing means 1 1 2 3 Force Edge strength is thresholded for each point of the road image (step D 4).
  • the edge point output means 1 1 2 4 outputs a point having the edge strength equal to or higher than the threshold value as the edge point (step D 5).
  • the H o g h space peak detecting means 1 1 3 3 force The peak point in the H o u g h space is detected (step D 8).
  • the straight line output means 1 1 4 0 force The straight lines corresponding to the respective H o u g h space peak points are outputted (step D 9).
  • the target data is an image.
  • the target data is not limited to this.
  • a distance image indicating a distance to a real object corresponding to a pixel value or each position in a three-dimensional space.
  • the distance between the straight lines is defined as the sum of squares of the difference of the X coordinate on each horizontal line of the region of interest A 3 11, but this is limited to the horizontal line. Instead, it is only necessary to use the sum of squares of the distances between positions on each line of a set of parallel lines such as vertical lines.
  • the distance between the straight lines is defined as the sum of squares of the distance between positions on each line of a set of lines parallel to each other.
  • this is not limited to the sum of squares.
  • the vectors corresponding to the two straight lines when the set of straight line positions on each line of the set of parallel lines such as the sum of values and the maximum absolute value is regarded as one vector. It may be an amount defined as a distance between them.
  • the present invention can be applied to uses such as detecting a specific pattern in target data such as an image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

 本発明の認識システムは、特徴点検出手段と(120)と、Hough変換手段(130)と、特定パターン出力手段(140)とを有する。前記Hough変換手段(130)において、Hough空間における各点間の距離の大小関係が予め定められた特定パターン間の違いを表す特定パターン間距離の大小関係と同値であるように前記Hough空間が設計される。前記認識システムは前記Hough空間内を用いて特定パターンを検出する。このような構成を採用し、画像内でより似通っている特定パターンを前記Hough空間内でもより近い点として表現することにより本発明の目的を達成することができる。

Description

認識システム、 認識方法おょぴ認識プログラム 技術分野:
本発明は認識システム、 認識方法および認識プログラムに関し、 特にノイズに 対して頑健であり、 認識対象特定パターン以外の部分領域を認識対象特定パター ンとする過検出を抑制することができる認識システム、 認識方法おょぴ認識プロ 明
グラムに関する。 書
背景技術:
従来の認識システムの一例が、 以下の特開平 6— 3 1 4 3 3 9号公報 (先行技 術文献 1 ) に記載されている。 本従来の認識システムは対象データとしての画像 から特定パターンとしての直線を検出するものである。従来の認識システムでは、 一般的に H o u g h変換を用いる際に問題となっている、 真の直線成分の周りに 偽の直線成分が現れてしまう現象を抑えることが出来る。
図 1に示すように、 この従来の認識システムは、 撮像部 3 1と、 エッジ検出部 3 2と、 H o u g h変換処理部 3 3と、 H o u g h空間作成部 3 4と、 直線成分 抽出部 3 5とから構成されている。
このような構成を有する従来の認識システムは以下のように動作する。
すなわち、 撮像部 3 1により認識対象となる画像が入力される。 さらに、 エツ ジ検出部 3 2により撮像部 3 1から送られてくる画像を微分処理することによつ て画像のエッジが検出される。 さらに、 H o u g h変換処理部 3 3により検出さ れた画像の前記ェッジの点列が H o u g h変換される。 さらに、 H o u g h空間 作成部 3 4により前記 H o u g h変換の関数 にしたがうヒストグラム (以下、 これを H o u g h空間と呼ぶ) が作成される。
最後に、 直線成分抽出部 3 5により前記 H o u g h空間の頻度のピーク点が検 出され、 検出されたピーク点を通過する各 H o u g h関数曲線に対応する画像の 前記エッジの点列が直線であると判定され、 画像のなかから直線成分が抽出され る。
ここで、 直線成分抽出部 3 5の動作について説明をする。 直線成分抽出部 3 5 は、 前記 H o u g h空間作成部 3 4において作成された前記 H o u g h空間のな かから最大のピーク点を検出し、 前記最大のピーク点に対応した直線成分を抽出 したうえで、 その前記最大のピーク点がその前記ヒストグラムの頻度分布に影響 を与えている範囲と寄与量とを求める。
次に、 直線成分抽出部 3 5は、 前記範囲内において、 求められた前記寄与量に したがって他のピーク点の H o u g h空間内での頻度を前記最大のピーク点の影 響が抑制されるように修正する。
次に、 直線成分抽出部 3 5は、 部分的に修正された前記 H o u g h空間を用い て次に大きなピーク点を検出して、 そのピーク点に対応した直,線成分を抽出し、 以下同様の処理を順次行っていく。 発明の開示:
発明が解決しようとする課題:
第 1の問題点は、 一般に直線のような特定パターンを H o u g h変換により検 出する際に真の特定パターンの周りに偽の特定パターンが現れてしまうというこ とである。
その理由は、 本来 1つのピーク点に集中すべきパターンがノイズ等のために分 散してしまうからである。
第 2の問題点は、 前記従来技術のような真の特定パターンの周りに偽の特定パ ターンが現れてしまうという現象への対処に関して、 多くの処理量を要するとい うことである。
その理由は、 従来の技術では H o u g h空間のピーク点を 1つ検出する毎に、 そのピーク点が他の H o u g h空間内の点に及ぼす影響を関係する H o u g h空 間内の領域から除去するように構成されているためである。
本発明の目的は、 簡便に頑健な特定パターンの検出を行うことが出来る認識シ ステムを提供することにある。
課題を解決するための手段:
本発明の第 1の態様に係る認識システムは、 特徴点検出手段と (1 2 0 ) と、 H o u g h変換手段 (1 3 0 ) と、 特定パターン出力手段 (1 4 0 ) とを有する。 前記 H o u g h変換手段 (1 3 0 ) において、 H o u g h空間における各点間の 距離の大小関係が予め定められた特定パターン間の違いを表す特定パターン間距 離の大小関係と同値であるように前記 H o u g h空間が設計されており、 前記 H o u g h空間内を用いて特定パターンが検出される。 このような構成を採用し、 画像内でより似通っている特定パターンを前記 H o u g h空間内でもより近い点 として表現することにより本発明の目的を達成することができる。
発明の効果:
第 1の効果は、 一般的に H o u g h変換を用いる際に問題となっている、 真の 特定パターンの周りに偽の特定パターンが現れてしまう現象を抑制できることに ある。
その理由は、 H o u g h空間における各点間の距離の大小関係が予め定められ た特定パターン間の違いを表す特定パターン間距離の大小関係と同値であるよう に前記 H o u g h空間が設計され、 画像内でより似通っている特定パターンを前 記 H o u g h空間内でもより近い点として表現しているためである。
第 2の効果は、 前記偽の特定パターンの出現の抑制を簡便に実現できることに ある。
その理由は、 画像内でより似通っている特定パターンを前記 H o u g h空間内 でもより近い点として表現しているために、 前記偽の特定パターンの出現の抑制 を前記 H o u g h空間内での局所的な処理のみ、 もしくは処理を行うことなく実 現できるためである。 図面の簡単な説明:
図 1は、 従来技術の構成を示すプロック図である。
図 2は、 本発明の第 1の実施の形態に係る認識システムの構成を示すプロック 図である。
図 3は、 前記第 1の実施の形態に係る認識システムの動作を示すフローチヤ一 トである。
図 4は、 対象データの一例である道路画像を示す図である。
図 5は、 第 1の実施の形態に係る認識システムの具体的な構成を示すプロック 図である。
図 6は、 ソーベルフィルタを説明する図である。
図 7は、 直線間距離を説明する図である。
図 8は、 量子化誤差を考慮した H o u g h空間への投票方法を説明する図であ る。
図 9は、第 1の実施の形態に係る認識システムの動作の具体例を示す図である。 図 1 0は、 本発明の第 2の実施の形態に係る認識システムの構成を示すプロッ ク図である。
図 1 1は、 前記第 2の実施の形態に係る認識システムの動作を示すフローチヤ ートである。
図 1 2は、 前記第 2の実施の形態に係る認識システムの具体的構成を示すプロ ック図である。
図 1 3は、 前記第 2の実施の形態に係る認識システムの動作の具体例を示す図 である。 発明を実施するための最良の形態:
以下、 図面を参照して本発明を実施するための最良の形態について詳細に説明 する。
図 2を参照すると、本発明の第 1の実施の形態は、 プロダラム制御により動作 するコンピュータ (中央処理装置;プロセッサ;データ処理装置) 1 0 0と、 対 象データ入力装置 1 1 0とから構成されている。
コンピュータ (中央処理装置;プロセッサ;データ処理装置) 1 0 0は、 特徴 点検出手段 1 2 0と、 H o u g h変換手段 1 3 0と、 特定パターン出力手段 1 4 W
0とを含む。
H o u g h変換手段 1 3 0は、 H o u g h空間投票手段 1 3 1と、 H o u g h 空間平滑化手段 1 3 2と、 H o u g h空間ピーク検出手段 1 3 3とを含む。
これらの手段はそれぞれ以下のように動作する。
前記対象データ入力装置 1 1 0は、 所望の特定パターンの検出対象であるデー タを入力する。
前記特徴点検出手段 1 2 0は、 前記対象データから前記特定パターン上の点で あると推定される点を特徴点として検出する。
前記 H o u g h空間投票手段 1 3 1は、 前記特定パターンを表現するパラメ一 タを軸とする空間 (以下、 H o u g h空間と呼ぶ) 内において、 前記特徴検出手 段 1 2 0で検出された前記特徴点に対応する軌跡上の各点について、 前記特徴点 に応じた重みを投票する。
前記 H o u g h空間平滑化手段 1 3 2は、前記 H o u g h空間の各点について、 当該点および近傍の点の前記投票値を用いて当該点での平滑化された投票値を決 定する。 ただし、 場合によっては本 H o u g h空間平滑化手段 1 3 2を省略して よい。
前記 H o u g h空間ピーク検出手段 1 3 3は、 前記 H o u g h空間内において 単数あるいは複数の前記投票値のピークを与える点を検出する。
前記特定パターン出力手段 1 4 0は、 前記 H o u g h空間ピーク検出手段 1 3 3で検出した前記投票値のピークを与える各点について、 対応する前記パラメ一 タに対応する前記特定パターンを出力する。
ここで前記 H o u g h空間について説明する。 前記特定パターンのパラメータ 表現において、 一般に複数の違ったパラメータ表現が考えられる。 ここで前記特 定パターン (以下、
とする) の仮のパラメータ表現を
lx;a") = 0
とおく。 ただし、
X
は前記対象データ内での各点の位置、 は仮のパラメータを表す。
本発明では、 前記対象データ内の予め定められた注目領域における前記特定パ ターン間の違いを表す特定パターン間距離が定義され、 その前記特定パターン間 距離の大小関係と前記 H o u g h空間内における対応する点間の距離の大小関係 が同値となるような前記特定パターンのパラメータ表現が採用される。
具体的には、 2つ前記特定パターンを
とし、
' m と、 の前記特定パターン間距離を
Figure imgf000008_0001
とした場合、 以下の数式 (1 ) で表される同値関係が成り立つように、 写像 h n ι→ β" を設計し、 β" を、 前記特定パターンを表現するパラメータとして、 このパラメータ を軸とする空間を前記 H o u g h空間とする。
このとき、 前記特定パターンのパラメータ表現は
Figure imgf000009_0001
となる。
Figure imgf000009_0002
ここで、 上記数式 (1 ) で示される同値関係は必ずしも厳密に成立しなくても よく、 近似的に成立するように前記パラメータ β "
を設定してもよい。
また、 前記 H o u g h空間投票手段 1 3 1において前記特徴点に対する前記 H o u g h空間における前記軌跡上の各点についての投票を行う際に、 前記特徴点 の位置に含まれると考えられる雑音成分により決定される前記軌跡上の各点の近 傍範囲について投票を行うこともできる。
次に、 図 2及び図 3のフローチャートを参照して本実施の形態の全体の動作に ついて詳細に説明する。
まず、 前記対象データ入力装置 1 1 0により前記特定パターン検出処理の対象 となるデータが入力される (図 3のステップ A 1 )。 次に、 前記特徴点検出手段 1 2 0が、 対象データから前記特定パターン上の点であると推定される点を特徴点 として検出する(ステップ A 2 )。さらに、前記 H o u g h空間投票手段 1 3 1が、 前記各特徴点について、 前記 H o u g h空間内における対応する前記軌跡上の各 点について、 前記特徴点に応じた重みを投票する (ステップ A 3 )。 さらに、 前記 H o u g h空間平滑化手段 1 3 2が、 前記 H o u g h空間の各点について、 当該 点および近傍の点の前記投票値を用いて当該点での平滑化された投票値を決定す る (ステップ A 4 )。 ただし、 場合によってはステップ A 4を省略してもよい。 さ らに、 前記 H o u g h空間ピーク検出手段 1 3 3は、 前記 H o u g h空間内にお いて単数あるいは複数の前記投票値のピークを与える点を検出する (ステップ A 5 )。 最後に、 前記特定パターン出力手段 1 4 0が、 前記 H o u g h空間ピーク手 段で検出した前記投票値のピークを与える各点について、 対応する前記パラメ一 タに対する前記特定パターンを出力する (ステップ A 6 )。 また、 前記ステップ A 3における投票において、 前記特徴点の位置に含まれると考えられる雑音成分に より決定される前記軌跡上の各点の近傍範囲について投票を行うこともできる。 次に、 本実施の形態の効果について説明する。
本実施の形態では、 前記対象データ内の予め定められた前記注目領域における 前記特定パターン間の違いを表す前記特定パターン間距離が定義され、 その前記 特定パターン間距離の大小関係と前記 H o u g h空間內における対応する点間の 距離の大小関係が同値もしくは近似的に同値となるような前記特定パターンの前 記パラメータ表現により、 前記 H o u g h空間が構成されている。 このため、 前 記特定パターン間距離を適切に定義することにより前記 H o u g h空間内でより 距離が近 、点どうしが前記対象データの前記注目領域でもより近 、特定パターン に対応し、 従って前記 H o u g h空間の各点で適当な範囲の平滑化等を行うこと により、 簡便に従来の課題である真の特定パターンの近くに現れる偽の特定パタ ーンの出現を抑制することが出来る。
また、 本実施の形態では、 さらに、 前記 H o u g h空間投票手段 1 3 1におい て前記特徴点の位置に含まれると考えられる雑音成分により決定される前記軌跡 上の各点の近傍範囲について投票することもできるように構成されているため、 前記特徴点に含まれる雑音成分に対して頑健な前記特定パターンの検出を行うこ とができる。
次に、 具体的な実施例を用レ、て上記実施の形態に係る認証システムの動作につ いて説明する。
前記具体的な実施例では、 前記対象データとしてカメラ等の入力装置から入力 される画像が用いられ、 前記特徴点として画素値の変化が急峻な点 (以下、 エツ ジ点と呼ぶ) が複数個検出され、 それらのエッジ点がなす直線が前記特定パター W 200 / ンとして検出されるというものである。 具体的な画像の例として図 4に示すよう な車両等に搭載したカメラから道路を撮影した道路画像 3 1 0を取り上げて説明 する。 その道路画像から直線を検出することにより道路面 3 1 1に描かれた走行 レーン境界を示す白線 3 1 2等が認識される。
図 5に示すように、 本実施例に係る認証システムは、 前記対象データ入力装置 1 1 0として例えば力メラ等の画像入力装置 4 1 0と、 前記特徴点検出手段 1 2 0としてェッジ点検出手段 4 2 0と、 H o u g h変換手段 4 3 0と、 前記特定パ ターン出力手段 1 4 0として直線出力手段 4 4 0とを有する。
前記エッジ点検出手段 4 2 0は、 3 X 3ソーベルフィルタ手段 4 2 1と、 エツ ジ強度計算手段 4 2 2と、 エッジ強度閾値処理手段 4 2 3と、 エッジ点出力手段 4 2 4とを含む。 ただし、 前記エッジ点検出手段 4 2 0は前記構成に限定される ものではなく、 画素値の変化が急峻な点を検出する手段であればよい。
前記 H o u g h変換手段 4 3 0は、 H o u g h空間投票手段 4 3 1と、 H o u g h空間平滑化手段 4 3 2と、 H o u g h空間ピーク検出手段 4 3 3とを含む。 前記画像入力装置 4 1 0によって、 前記対象データとして前記道路画像 3 1 0 が入力される。 また、 前記エッジ点検出手段 4 2 0は、 前記エッジ点を複数個検 出する。 また、 前記 H o u g h変換手段 4 3 0は、 後述の直線パラメータ表現
Figure imgf000011_0001
の 2次元パラメータ
P = ( f 5^)T (Tほ転置を表す)
の各要素 '
をそれぞれ横軸、 縦軸とする 2次元平面として定義される H o u g h空間につい て前記 H o u g h変換手段 1 3 0と同様の処理を行う。
また、 直線検出手段 4 4 0は、 前記 H o u g h変換手段 4 3 0で検出した投票 値のピークを与える H o u g h空間内の各点に対応して前記直線パラメータ表現
^(χ5¾-!(β))= 0 で表される直線を出力する。
前記 3 X 3ソーベルフィルタ手段 4 2 1は、 前記道路画像 3 1 0の各点につい て 3 Χ 3近傍中の各画素値と図 6に示す X方向勾配カーネル、 y方向勾配カーネ ルの各係数の積の和をとる。 これらの積和をそれぞれソーベル X成分、 ソーベル y成分と呼ぶ。
また、 前記エッジ強度計算手段 4 2 2は、 前記道路画像 3 1 0の各点について 前記ソーベル X成分と前記ソーベル y成分の 2乗和の平方、 もしくは絶対値の和 を計算し、 それぞれ前記各点のエッジ強度とする。 また、 前記エッジ強度閾値処 理手段 4 2 3は、 前記道路画像 3 1 0の各点について前記エッジ強度が予め定め られた閾値、 例えば 1 0 0以上か否かを判断する。 また、 前記エッジ点出力手段 4 2 4は、 前記ェッジ強度閾値処理手段 4 2 3で前記ェッジ強度が閾値以上と判 断された点をエッジ点として出力する。
前記 H o u g h空間投票手段 4 3 1は、 前記直線を表現するパラメータを軸と する空間 (以下、 H o u g h空間と呼ぶ) 内において、 前記エッジ点検出手段 4 2 0で検出された前記エッジ点に対応する軌跡上の各点について、 前記エッジ点 に応じた重みを投票する。
ここで、 前記ェッジ点に応じた重みとして前記ェッジ強度を投票する処理が実 行される。ただし、前記エッジ点に応じた重みはこれに限定されるものではなく、 例えば定数、 後述のソ一ベル X成分とソーベル y成分により算出される前記エツ ジ点における画素値の勾配と前記軌跡上の点に対応する前記直線の傾きとのなす 角など、 前記エッジ点もしくはその近傍の画素値等から算出される値、 もしくは これらの値や前記エッジ強度等から算出される値等を用いてもよい。
また、 前記 H o u g h空間平滑化手段 4 3 2は、 前記 H o u g h空間の各点に ついて、 当該点および近傍の点の前記投票値を用いて当該点での平滑化された投 票値を決定する。 ここでは、 例えば前記当該点の 3 X 3近傍の点の平均値として 前記平滑化された投票値を決定する。 ただし、 前記近傍の範囲や前記平滑化され た投票値の決定方法はこれに限定されるものではない。 また、 場合によっては本
Ho u g h空間平滑化手段 432を省略してもよレ、。
また、 前記 Ho u g h空間ピーク検出手段 433は、 前記 Ho u g h空間内に おいて予め定められた閾値以上であり、 かつ例えば 3 X 3近傍等の近傍範囲で最 大の投票値を持つ点を前記ピークとして検出する。 ただし、 前記ピークを検出す る基準はこれに限定されるものではなく、 例えば、 前記 Ho u g h空間内での最 大投票値をもつ点のみをピークとする等、 問題設定に応じた基準をとることが出 来る。
ここで、 前記直線パラメータ表現
Figure imgf000013_0001
について説明する。 前記仮のパラメータ a二 (a,b) による直線パラメータ表現 ^x5a) = 0 を数式 (2) のように定義する。 g/(x>a)-x-(a+^( -l))=0 ただし、
Figure imgf000013_0002
は前記道路画像 310上の各点の座標を表し、 Lは図 4に示すように前記道路画 像 310内のある水平ラインの y座標を表す。
前記注目領域は、 図 4に示すように前記道路画像 310の下部領域、 例えば中 央水平ライン以下の領域として設定される。 この注目領域 A31 1は、 前記道路 画像 3 1 0内において道路面に相当すると予想される領域である。 こ
に示すように前記特定パターン間距離に対応する直線間距離
Figure imgf000014_0001
を数式 (3 ) のように定義する。 ただし、
と eれ はそれぞれ直線を表す,
Figure imgf000014_0002
∑1 ( 3 )
Figure imgf000014_0003
ここで、 は前記注目領域 A 3 1 1内の y座標であり、 通常ある一定の間隔で離散化されて いる。 本実施例では間隔 1で離散化されているとする。
Figure imgf000014_0004
は前記注目領域 A 3 1 1での水平ライン数を表す。
図 7および数式 (3 ) より、 前記直線間距離
Figure imgf000014_0005
は前記注目領域 A 3 1 1の各水平ライン上での X座標の差の 2乗和であり、 m = nの場合に
Figure imgf000015_0001
となる。
Figure imgf000015_0002
はその他に正値性、
についての対称性、 三角不等式
Figure imgf000015_0003
を満たすので距離関数として適当な性質を有する。
Figure imgf000015_0004
が近いということは前記注目領域 A 3 1 1内の各水平ライン上での
£n の位置が近いということである。 したがって、 感覚的な直線間の 「近さ」 ともよ く適合すると考えられる。
ここで、 数式 (3 ) を数式 (4 ) のように変形する。
Figure imgf000016_0001
≡ αΜ-α" Β α"'-α"
.で、 数式 (4) において
Figure imgf000016_0002
とすれば、 β = h{a) = Ca としてパラメータ
P
に関して数式 (5) が成立する ( なお、 は対称行列なので、
C
の存在は保証される。 ( - p""2 従って、 上記数式 (5) により
― J十 とすると、 数式 (1) が成立する t 刖記パラメータ P = ( ) τ の各要素
a bT
をそれぞれ横軸、 縦軸とする 2次元平面として定義される前記 H o u g h空間に おける点間の距離の大小関係と対応する直線間距離の大小関係とは同値である。 特に、 上記数式 (2 ) において
Figure imgf000017_0001
すなわち Lを前記注目領域 A 3 1 1の中央に位置する水平ラインの y座標とす ると、 前記直線パラメータ表現は以下の数式 (6 ) のようになる。
Figure imgf000017_0002
次に、 前記 H o u g h空間について説明する。 前記 H o u g h空間投票手段 4 3 1は、 前記 H o u g h空間内において前記エッジ点検出手段 4 2 0で検出され た前記ェッジ点に対応する軌跡上の各点について、 前記ェッジ点に応じた重みを 投票する。 この際、 前記 H o u g h空間投票手段 4 3 1をコンピュータ 4 0 0に おいて実現するにためには前記 H o u g h空間を離散化する必要がある。 前記直 線パラメータ表現を上記数式 (6 ) とすると、 図 7に示すとおり数式 (6 ) にお けるパラメータ
a
は前記道路画像内での水平ライン
v - L
における前記直線の切片である。
したがって、 その精度は前記道路画像の各点の X方向の位置精度と等しいと考 えてよい。 ここで、 前記道路画像の各点の位置についての誤差が前記座標離散化 のみに起因すると仮定すると、 本実施例においては離散化間隔を 1に設定してい る。
このためパラメータ
a
も間隔 1で設定すればよい。
また、 前記道路画像の前記各点の位置についての誤差が前記座標離散化以外の 要因を持つ場合はその要因を勘案した前記道路画像の前記各点の位置についての 誤差範囲によってパラメータ も間隔を定めればよい。
ここで、 パラメータ
bf
の離散化間隔については、 数式 (1 ) の関係を保持するためにパラメータ と同じ間隔をとればよい。
このように、 本発明によると前記 H o u g h空間の離散化間隔を前記対象デー タの誤差範囲から自動的に決定することが出来る。
次に、 前記 H o u g h空間投票手段 4 3 1について補足をする。 前記 H o u g h空間投票手段 4 3 1は、 前記 H o u g h空間内において前記エッジ点検出手段 4 2 0で検出された前記エッジ点に対応する軌跡上の各点について前記エッジ点 に応じた重みを投票するが、 この投票を前記軌跡上の各点ではなくエッジ点の位 置に含まれると考えられる雑音成分により決定される前記軌跡上の各点の近傍範 囲について行うことも出来る。 本実施例では、 前記投票に際しては前記エッジ点 位置に含まれる前記雑音成分として前記座標離散化に起因するもののみを考える。 この場合、 前記道路画像内のある画素位置
Figure imgf000018_0001
で検出されるエッジ点について真の位置は数式(7 )の範囲にあると考えられる。
Figure imgf000019_0001
ここで、 図 8に示すようにェッジ点 7 0 2に対応する H o u g h空間内の軌跡 7 0 5だけではなく、 上記数式 (7 ) で表されるエッジ点の真の位置範囲 7 0 3 の全ての点に対応する H o u g h空間内の軌跡の集合 7 0 6についてエッジ点 7 ◦ 2に応じた重みを投票する。 これにより、 前記座標離散化に起因する雑音成分 の影響を抑制することが出来る。
次に、 以上説明した構成要素により構成される本実施例の動作について、 図 5 及び図 9のフローチヤ一トを参照して詳細に説明する。
まず、 前記画像入力装置 4 1 0により前記道^画像が入力される (図 9のステ ップ B 1 ) 0次に、前記ソ一べルフィルタ手段 4 2 1が前記道路画像の各点につい て前記ソ一^ ^レ X成分とソ1 ^ル y成分を算出する (ステップ B 2 )。 さらに、前 記ェッジ強度計算手段 4 2 2が前記道路画像の各点についてェッジ強度を計算す る (ステップ B 3 )。 さらに、前記エッジ強度閾値処理手段 4 2 3が前記道路画像 の各点についてエッジ強度を閾値処理する (ステップ B 4 )。 さらに、前記エッジ 点出力手段 4 2 4が前記エッジ強度が前記閾値以上の点を前記エッジ点として出 力する (ステップ B 5 )。 さらに、 前記 H o u g h空間投票手段 4 3 1が前記各ェ ッジ点について H o u g h空間内の軌跡上に投票を行う(ステップ B 6 )。さらに、 前記 H o u g h空間平滑化手段 4 3 2が前記 H o u g h空間内の各点の前記投票 値を平滑化する (ステップ B 7 )。 さらに、前記 H o u g h空間ピーク検出手段 4 3 3が前記 H o u g h空間内の前記ピーク点を検出する(ステップ B 8 )。最後に、 前記直線出力手段 4 4 0が前記各 H o u g h空間ピーク点に対応する前記直線を 出力する (ステップ B 9 )。
本実施例において前記対象データを画像としたが、 前記対象データはこれに限 られるものではなく、例えば画素値が対応する実物体への距離を示す距離画像や、 3次元空間内で各位置における画素値が与えられる 3次元画像、 異なる時刻で得 られた前記画像もしくは前記 3次元画像を時系列方向に並べることにより得られ る時系列画像等、 座標位置と各位置でのデータ値が対応付けられているデータで めればよい。
また、 本実施例では、 前記直線間距離は、 前記注目領域 A 31 1の各水平ライ ン上での X座標の差の 2乗和として定義されているが、 これは水平ラインに限ら れるものではなく、 鉛直ライン等、 互いに平行なラインの集合の各ライン上での 位置間距離の 2乗和であればよレ、。
また、 本実施例では、 前記直線間距離は、 互いに平行なラインの集合の各ライ ン上での位置間距離の 2乗和として定義されているが、 これは 2乗和に限られる ものではなく、 絶対値の和、 絶対値の最大値等、 前記互いに平行なラインの集合 の各ライン上での直線位置の集合を 1つのべクトルとみなした場合の 2つの前記 直線に対応する前記べクトル間の距離として定義される量であればよい。
また、 前記直線パラメータ表現 (χ,α)-Ο として上記数式 (2) の代わりに以下の数式 (8) を用いてもよい χ·
Figure imgf000020_0001
また上記数式 (8) による前記直線パラメータ表現の代わりに以下の数式(9) を用いてもよい。 (α (9)
Figure imgf000020_0002
上記数式 (8) および上記数式 (9) による前記パラメータ表現による前記 Η o u g h空間は厳密には上記数式 (1) の関係を満たしていないが、 近似的には 満たしていると考えられる。 従って、 この場合でも本実施例の効果をある程度期 待することが出来る。
上記数式 (9) による前記直線パラメータ表現は上記数式 (8) による前記直 線パラメータ表現を、 前記 H ou g h変換の際の前記座檫離散化に起因する前記 雑音成分の影響を取り除くように変形したものである。 従って、 数式 (9 ) によ る前記直線パラメータ表現による前記 H o u g h空間を用いた前記 H o u g h変 換においては、 図 8及び上記数式 (7 ) により示される前記軌跡の集合 7 0 6へ の投票は必要なく、 前記軌跡 7 0 5のみへの投票をすればよい。 この場合、 前記 軌跡の集合 7 0 6への投票と比べて処理量を削減することが出来る。
次に、 本発明の第 2の発明を実施するための最良の形態について図面を参照し て詳細に説明する。
図 1 0を参照すると、 本発明の第 2の実施の形態に係る認証システムは、 プロ グラム制御により動作するコンピュータ (中央処理装置;プロセッサ;データ処 理装置) 9 0 0と、 対象データ入力装置 9 1 0を有している。
コンピュータ (中央処理装置;プロセッサ;データ処理装置) 9 0 0は、 特徴 点検出手段 9 2 0と、 H o u g h変換手段 9 3 0と、 特定パターン出力手段 9 4 0とを含む。
H o u g h変換手段 9 3 0は H o u g h空間投票手段 9 3 1と、 H o u g h空 間平滑化手段 9 3 2と、 H o u g h空間ピーク検出手段 9 3 3とを含む。
これらの手段はそれぞれ以下のように動作する。
前記対象データ入力装置 9 1 0によって、 所望の特定パターンの検出対象であ るデータが入力される。
前記特徴点検出手段 9 2 0は、 前記対象データから前記特定パターン上の点で あると推定される点を特徴点として検出する。
前記 H o u g h空間投票手段 9 3 1は、 前記特定パターンを表現する H o u g h空間内において、 前記特徴検出手段 9 2 0で検出された前記特徴点に対応する 軌跡上の各点について、 前記特徴点に応じた重みを投票する。
前記 H o u g h空間平滑化手段 9 3 2は、前記 H o u g h空間の各点について、 当該点およぴ近傍の点の前記投票値を用いて当該点での平滑化された投票値を決 定する。
前記 H o u g h空間ピーク検出手段 9 3 3は、 前記 H 0 u g li空間内において 単数あるいは複数の前記投票値のピークを与える点を検出する。 前記特定パターン出力手段 9 4 0は、 前記 H o u g h空間ピーク検出手段 9 3 3で検出した前記投票値のピークを与える各点について、 対応する前記パラメ一 タに対応する前記特定パターンを出力する。
ここで、 前記 H o u g h空間平滑化手段 9 3 2について説明する。 前記特定パ ターン
£n
のパラメータ表現を は)
とおく。
ただし、
X
は前記対象データ内での各点の位置を表し、 はパラメータを表す。
本発明の第 2の実施の形態では、 本発明の第 1の実施の形態と同様に前記対象 データ内の予め定められた注目領域における前記特定パタ一ン と との違レヽを表す特定パターン間距離を
Figure imgf000022_0001
として定義がなされている。
前記 H o u g h空間平滑化手段 9 3 2は、 前記 H o u g h空間の各点
Figure imgf000022_0002
について対応する前記特定パターン を考え、 以下の数式 (1 0 ) を満たす前記特定パターン
m 対応する前記 Η 0 u g h空間内の点
m の集合を前記当該点の近傍と考え、 この近傍内、 もしくはこの近傍を近似した領 れた投票値を決定する。
Figure imgf000023_0001
ただし、 rは予め定められた定数、 もしくは前記 H o u g h空間の各点毎に何某 かの基準で定められる数である。
また、 前記 H o u g h空間投票手段 9 3 1において前記特徴点に対する前記 H o u g h空間における前記軌跡上の各点についての投票を行う際に、 前記特徴点 の位置に含まれると考えられる雑音成分により決定される前記軌跡上の各点の近 傍範囲について投票を行うこともできる。
次に、 図 1 0及ぴ図 1 1のフローチャートを参照して本実施の形態の全体の動 作について詳細に説明する。
まず、 前記対象データ入力装置 9 1 0により前記特定パターン検出処理の対象 となるデータが入力される (図 3のステップ C l )。 次に、前記特徴点検出手段 9 2 0力 S、 対象データから前記特定パターン上の点であると推定される点を特徴点 として検出する(ステップ C 2 )。さらに、前記 H o u g h空間投票手段 9 3 1が、 前記各特徴点について、 前記 H o u g h空間内における対応する前記軌跡上の各 点について、 前記特徴点に応じた重みを投票する (ステップ C 3 )。 さらに、 前記 H o u g h空間平滑化手段 9 3 2が、 前記 H o u g h空間の各点について、 当該 点およぴ近傍の点の前記投票値を用いて当該点での平滑化された投票値を決定す る (ステップ C 4 )。 さらに、 前記 H o u g h空間ピーク検出手段 9 3 3が、 前記 H o u g h空間内において単数あるいは複数の前記投票値のピークを与える点を 検出する (ステップ C 5 )。 最後に、 前記特定パターン出力手段 9 4 0が、 前記 H o u g h空間ピーク手段で検出した前記投票値のピークを与える各点について、 対応する前記パラメータに対する前記特定パターンを出力する (ステップ C 6 )。 前記ステップ C 3における投票において、 前記特徴点の位置に含まれると考え られる雑音成分により決定される前記軌跡上の各点の近傍範囲について投票を行 うこともできる。
次に、 本実施の形態における効果について説明する。
本実施の形態では、 前記対象データ内の予め定められた前記注目領域における 前記特定パターン間の違いを表す前記特定パターン間距離が定義され、 その前記 特定パターン間距離が近い領域を近傍と考えその近傍範囲内での前記 H o u g h 変換平滑化を行っているため、 前記特定パターン間距離を適切に定義することに より簡便に従来の課題である真の特定パターンの近くに現れる偽の特定パターン の出現を抑制することが出来る。
また、 本実施の形態では、 さらに、 前記 H o u g h空間投票手段 1 3 1におい て前記特徴点の位置に含まれると考えられる雑音成分により決定される前記軌跡 上の各点の近傍範囲について投票することもできるように構成されているため、 前記特徴点に含まれる雑音成分に対して頑健な前記特定パターンの検出を行うこ とができる。
次に、 具体的な実施例を用いて本実施の形態に係る認証システムの動作につ!/ヽ て説明する。
この認証システムは、 前記対象データとしてカメラ等の入力装置から入力され る画像を用い、 前記特徴点として画素値の変化が急峻な点 (以下、 エッジ点と呼 ぶ) を複数個検出し、 それらのエッジ点がなす直線を前記特定パターンとして検 出する。 具体的な画像の例として図 4に示すような車両等に搭載したカメラから 道路を撮影した道路画像 3 1 0を取り上げる。 この道路画像から直線を検出する ことにより道路面 3 1 1に描かれた走行レーン境界を示す白線 3 1 2等が認識さ れる。
図 1 2に示すように、 この認証システムは、 本実施例は前記対象データ入力装 置 9 1 0として例えばカメラ等の画像入力装置 1 1 1 0と、 前記特徴点検出手段 9 2 0としてェッジ点検出手段 1 1 2 0と、 H o u g h変換手段 1 1 3 0と、 前 記特定パターン出力手段 9 4 0として直線出力手段 1 1 4 0とを含む。 前記ェッジ点検出手段 1 1 20は、 3 X 3ソ一べルフィルタ手段 1 121と、 エッジ強度計算手段 1 1 22と、 エッジ強度閾値処理手段 1 123と、 エッジ点 出力手段 1 124とを含む。 ただし、 前記エッジ点検出手段 1 120は前記構成 に限定されるものではなく、 画素値の変化が急峻な点を検出する手段であればよ い。
前記 H o u g h変換手段 1 130は、 Ho u g h空間投票手段 1 131と、 H o u g h空間平滑化手段 1 1 32と、 Ho u g h空間ピーク検出手段 1 1 33と を含む。
前記画像入力装置 1 1 10は、 前記対象データとして前記道路画像 310を入 力する。 また、 前記エッジ点検出手段 1 1 20は、 前記エッジ点を複数個検出す る。 また、 前記 Ho u g h変換手段 1 130は、 後述の直線パラメータ表現 gl\x, )=0
の 2次元パラメータ
a = (a,b)T (Tは転置を表す)
の各要素
a、 b
をそれぞれ横軸、 縦軸とする 2次元平面として定義される Ho u g h空間につい て前記 H o u g h変換手段 930と同様の処理が行なわれる。
直線検出手段 1 140は、 前記 H o u g h変換手段 1 1 30で検出した投票値 のピークを与える Ho u g h空間内の各点に対応して前記直線パラメータ表現 で表される直線を出力する。
前記 3 X 3ソーベルフィルタ手段 1 1 21は、 前記道路画像 310の各点につ いてソーベル χ成分、 ソーベル y成分を算出する。 また、 前記エッジ強度計算手 段 1 1 22は、 前記道路画像 3 10の各点について前記ソーベル X成分と前記ソ 一ベル y成分の 2乗和の平方、 もしくは絶対値の和を計算し、 それぞれ前記各点 のエッジ強度とする。
前記エッジ強度閾値処理手段 1 1 23は、 前記道路画像 3 10の各点について 前記エッジ強度が予め定められた閾値、 例えば 1 0 0以上か否かを判断する。 前記ェッジ点出力手段 1 1 2 4は、 前記ェッジ強度閾値処理手段 1 1 2 3で前 記ェッジ強度が閾値以上と判断された点をェッジ点として出力する。
前記 H o u g h空間投票手段 1 1 3 1は、 H o u g h空間内において、 前記ェ ッジ点検出手段 1 1 2 0で検出された前記エッジ点に対応する軌跡上の各点につ いて、 前記エッジ点に応じた重みを投票する。 ここで、 前記エッジ点に応じた重 みとして前記エッジ強度を投票する。 ただし、 前記エッジ点に応じた重みはこれ に限定されるものではなく、 例えば定数、 後述のソ一^ミル X成分とソーベル y成 分により算出される前記ェッジ点における画素値の勾配と前記軌跡上の点に対応 する前記直線の傾きとのなす角など、 前記ェッジ点もしくはその近傍の画素値等 から算出される値、 もしくはこれらの値や前記エッジ強度等から算出される値等 を用いてもよい。
前記 H o u g h空間平滑化手段 1 1 3 2は、 前記 H o u g h空間の各点につい て、 当該点および近傍の点の前記投票値を用いて、 例えば近傍の点での投票値の 平均値として当該点での平滑化された投票値を決定する。 ただし、 前記平滑化さ れた投票値はこれに限るものではなく近傍の各点に適当な重みを乗じたものの和 や近傍での最大投票値等、 近傍の点の位置関係や投票値から計算される各種の値 を用いてよい。
前記 H o u g h空間ピーク検出手段 1 1 3 3は、 前記 H o u g h空間内におい て予め定められた閾値以上であり、 かつ例えば 3 X 3近傍等の近傍範囲で最大の 投票値を持つ点を前記ピークとして検出する。 ただし、 前記ピークを検出する基 準はこれに限定されるものではなく、 例えば、 前記 H o u g h空間内での最大投 票値をもつ点のみをピークとする等、問題設定に応じた基準をとることが出来る。 ここで、 前記 H 0 u g h空間平滑化手段 1 1 3 2について説明する。
前記直線パラメータ表現 /(x,a) = 0 は以下の数式 (1 1 ) で与えられるとする。 g!(x,a)-x-{ +b(y-L))^0 (11 ただし、
X = ,
は前記道路画像 310上の各点の座標を表し、 Lは図 4に示すように前記道路画 像 310内のある水平ラインの y座標を表す。
前記注目領域は、 図 4に示すように前記道路画像 310の下部領域、 例えば中 央水平ライン以下の領域として設定される。 この注目領域 A31 1は、 前記道路 画像 310内において道路面に相当すると予想される領域である。 ここで、 本発 明の第 1の実施の形態と同様に、 図 7に示すように前記特定パターン間距離に対 応する直線間距離
Figure imgf000027_0001
は上記数式 (3) のように定義される。 ただし
Figure imgf000027_0002
と はそれぞれ直線を表す。
ここで、 数式 (10) は上記数式 (4) より以下の数式 (12) のように変形 できる。
Figure imgf000027_0003
.れより、 前記 H o u g h空間平滑化手段 1132は、 前記 H o u g h空間の 各点
Figure imgf000028_0001
'こついて
Figure imgf000028_0002
を満たす点の集合
Figure imgf000028_0003
またはこれの近似領域での前記投票値の平均値を前記平滑化された投票値とす ることができる。
ただし、 前記平滑化された投票値は、 これに限るものではなく前記点の集合の 各点に適当な重みを乗じたものの和や近傍での最大投票値等、 近傍の点の位置関 係や投票値から計算される各種の値を用いてよい。
次に、 前記 H o u g h空間投票手段 1 1 3 1について補足をする。 前記 H o u g h空間投票手段 1 1 3 1は、 前記 H o u g h空間内において前記エッジ点検出 手段 1 1 2 0で検出された前記エッジ点に対応する軌跡上の各点について前記ェ ッジ点に応じた重みを投票するが、 この投票を前記軌跡上の各点ではなくエッジ 点の位置に含まれると考えられる雑音成分により決定される前記軌跡上の各点の 近傍範囲について行うことも出来る。 本実施例では、 前記投票に際しては前記ェ ッジ点位置に含まれる前記雑音成分として前記座標離散化に起因するもののみを 考える。 この場合、 前記道路画像内のある画素位置
Figure imgf000028_0004
で検出されるエッジ点について真の位置は以下の数式 (1 3 ) の範囲にあると考 えら る。
Figure imgf000028_0005
ここで、 図 8に示すようにエッジ点 7 0 2に対応する H o u g h空間内の軌跡 W
7 0 5だけではなく、 上記数式 (1 3 ) で表されるエッジ点の真の位置範囲 7 0 3の全ての点に対応する H o u g h空間內の軌跡の集合 7 0 6についてエッジ点 7 0 2に応じた重みが投票される。 これにより、 前記座標離散化に起因する雑音 成分の影響を抑制することが出来る。
次に、 上記実施例の動作について、 図 1 2及ぴ図 1 3のフローチャートを参照 して詳細に説明する。
まず、 前記画像入力装置 1 1 1 0により前記道路画像が入力される (図 1 3の ステップ D 1 )。 次に、 前記ソーベルフィルタ手段 1 1 2 1力 S、 前記道路画像の各 点について前記ソーベル X成分とソーベル y成分を算出する (ステップ D 2 )。 さ らに、 前記エッジ強度計算手段 1 1 2 2が、 前記道路画像の各点についてエッジ 強度を計算する (ステップ D 3 )。 さらに、前記エッジ強度閾値処理手段 1 1 2 3 力 前記道路画像の各点についてエッジ強度を閾値処理する (ステップ D 4 )。 さ らに、 前記エッジ点出力手段 1 1 2 4が、 前記エッジ強度が前記閾値以上の点を 前記エッジ点として出力する (ステップ D 5 )。 さらに、前記 H o u g h空間投票 手段 1 1 3 1力 S、 前記各エッジ点について H o u g h空間内の軌跡上に投票を行 う (ステップ D 6 )。 さらに、 前記 H o u g h空間平滑ィヒ手段 1 1 3 2力 前記 H o u g h空間内の各点の前記投票値を平滑化する (ステップ D 7 )。 さらに、 前記 H o u g h空間ピーク検出手段 1 1 3 3力 前記 H o u g h空間内の前記ピーク 点を検出する (ステップ D 8 )。 最後に、 前記直線出力手段 1 1 4 0力 前記各 H o u g h空間ピーク点に対応する前記直線を出力する (ステツプ D 9 )。
本実施例において前記対象データを画像としたが、 前記対象データは、 これに 限られるものではなく、 例えば画素値が対応する実物体への距離を示す距離画像 や、 3次元空間内で各位置における画素値が与えられる 3次元画像、 異なる時刻 で得られた前記画像もしくは前記 3次元画像を時系列方向に並べることにより得 られる時系列画像等、 座標位置と各位置でのデータ値が対応付けられているデー タであればよレ、。
また、 本実施例において前記直線間距離を前記注目領域 A 3 1 1の各水平ライ ン上での X座標の差の 2乗和として定義したが、 これは水平ラインに限られるも のではなく、 鉛直ライン等、 互いに平行なラインの集合の各ライン上での位置間 距離の 2乗和であればよい。
また、 本実施例において前記直線間距離を互いに平行なラインの集合の各ライ ン上での位置間距離の 2乗和として定義したが、 これは 2乗和に限られるもので はなく、 絶対値の和、 絶対値の最大値等、 前記互いに平行なラインの集合の各ラ ィン上での直線位置の集合を 1つのべクトルとみなした場合の 2つの前記直線に 対応する前記べクトル間の距離として定義される量であればよい。 産業上の利用可能性:
本発明によれば、 画像等の対象データ内の特定のパターンを検出といった用途 に適用できる。

Claims

1 . 特徴点毎にパラメータ空間の対応する軌跡上に投票を行う H o u g h空 間投票手段と、 投票済み前記パラメータ空間のピークを検出する H o u g h 間 ピーク検出手段とを含み、 対象データから H o u g h変換により特定パターンを 検出する認識システムにおいて、
投票を行う前記パラメータ空間での各点の距離の大小関係が予め定められた前 記特定パターン間の違いを表す特定パターン間距離の大小関係と同値または近似 求
的に同値であるように、 前記 H o u g h空間投票手段において、 前記パラメータ の
空間が設訐されていることを特徴とする認識システム。
2 . 特徴点毎にパラメータ空間の対応する軌跡上に投票を行う H o u g h空 囲
間投票手段と、 前記パラメータ空間の各点の投票値を平滑化する H o u g h空間 平滑化手段と、 投票済み前記パラメータ空間のピークを検出する H o u g h空間 ピーク検出手段とを含み、 対象データから H o u g h変換により特定パターンを 検出する認識システムにおいて、
前記 H o u g h空間平滑化手段は、 前記パラメータ空間内の各点での平滑化さ れた投票値を、 予め定められた前記特定パターン間距離が予め定められた値以下 となるような、 前記各点の近傍もしくは近傍を近似した領域内の点の投票値を用 いて決定することを特徴とする認識システム。
3 . 前記対象データが画像であり、 前記特定パターンが直線であることを特 徴とする請求項 1または 2に記載の認識システム。
4 . 前記特定パターン間距離が予め定められた前記対象データ内のある注目 領域における各水平ライン上もしくは各鉛直ライン上もしくは水平なライン群の 各ライン上での各前記特定パターンの位置の間の距離の前記注目領域における 2 乗和であることを特徴とする請求項 3に記載の認識システム。
5 . 前記直線が前記注目領域内のある水平ラインでの切片と傾きの係数をパ ラメータとして表現されることを特徴とする請求項 4に記載の認識システム。
6 · 前記 H o u g h空間投票手段における 1回の投票処理において、 対象デ ータの量子化誤差に応じた重みが単数または複数の投票箇所に投票されることを 特徴とする請求項 3に記載の認識システム。
7 . 前記画像が車載機器から撮影された道路画像であり、 前記注目領域が前 記道路画像内の道路面像に相当する領域であり、 前記直線を検出することにより 白線や道路端等の走行レーン境界が検出されることを特徴とする請求項 4、 5ま たは 6に記載の認識システム。
8 . 特徴点毎にパラメータ空間の対応する軌跡上に投票を行う投票ステップ と、 投票済みパラメータ空間のピークを検出するピーク検出ステップを含み、 対 象データから H o u g h変換により特定パターンを検出する認識方法において、 前記投票ステップにおいて、 投票を行う前記パラメータ空間での各点の距離の 大小関係が予め定められた前記特定パターン間の違いを表す特定パターン間距離 の大小関係と同値もしくは近似的に同値であるように前記パラメータ空間が設計 されることを特徴とする認識方法。
9 . 特徴点毎にパラメータ空間の対応する軌跡上に投票を行う投票ステップ と、 前記パラメータ空間の各点の投票値を平滑化する平滑化ステップと、 投票済 みパラメータ空間のピークを検出するピーク検出ステツプを含み、 対象データか ら H o u g h変換により特定パターンを検出する認識方法において、
前記平滑化ステップは、 前記パラメータ空間内の各点での平滑化された投票値 を、 予め定められた前記特定パターン間距離が予め定められた値以下となるよう な前記各点の近傍もしくは近傍を近似した領域内の点の投票値を用いて決定する ステップを有することを特徴とする認識方法。
1 0 . 前記対象データが画像であり、 前記特定パターンが直線であることを 特徴とする請求項 8または 9に記載の認識方法。
1 1 . 前記特定パターン間距離が、 予め定められた前記対象データ内のある 注目領域における各水平ライン上もしくは各鉛直ライン上もしくは水平なライン 群の各ライン上での各前記特定パターンの位置の間の距離の前記注目領域におけ る 2乗和であることを特徴とする請求項 1 0に記載の認識方法。
1 2 . 前記直線が、 前記注目領域内のある水平ラインでの切片と傾きの係数 をパラメータとして表現されることを特徴とする請求項 1 1に記載の認識方法。
1 3 . 前記投票ステップは、 1回の投票処理において対象データの量子化誤 差に応じた重みを単数または複数の投票箇所に投票するステップを有することを 特徴とする請求項 1 0に記載の認識方法。
1 4 . 前記画像が車載機器から撮影された道路画像であり、 前記注目領域が 前記道路画像内の道路面像に相当する領域であり、
前記直線を検出することにより白線や道路端等の走行レーン境界を検出するス テツプを有することを特徴とする請求項 1 1、 1 2または 1 3に記載の認識方法。
1 5 . 特徴点毎にパラメータ空間の対応する軌跡上に投票を行う投票ステツ プと、 投票済み前記パラメータ空間のピークを検出するピーク検出ステップをコ ンピュータに実行させ、 対象データから H o u g h変換により特定パターンを検 出させる認識プログラムにおいて、
前記投票ステップにおいて、 投票を行う前記パラメータ空間での各点の距離の 大小関係が予め定められた前記特定パターン間の違いを表す特定パターン間距離 の大小関係と同値もしくは近似的に同値であるように前記パラメータ空間が設計 されていることを特徴とする認識プログラム。
1 6 . 特徴点毎にパラメータ空間の対応する軌跡上に投票を行う投票ステツ プと、 前記パラメータ空間の各点の投票値を平滑化する平滑ィヒステップと、 投票 済み前記パラメータ空間のピークを検出するピーク検出ステップをコンピュータ に実行させ、 対象データから H o u g h変換により特定パターンを検出させる認 識プログラムにおいて、
前記平滑化ステップは、 前記パラメータ空間内の各点での平滑化された投票値 を、 予め定められた前記特定パターン間距離が予め定められた値以下となるよう な前記各点の近傍、 もしくは近傍を近似した領域内の点の投票値を用いて決定す るステップを有することを特徴とする認識プログラム。
1 . 前記対象データが画像であり、 前記特定パターンが直線であることを 特徴とする請求項 1 5または 1 6に記載の認識プログラム。
1 8 . 前記特定パターン間距離が、 予め定められた前記対象データ内のある 注目領域における各水平ライン上もしくは各鉛直ライン上もしくは水平なライン 群の各ラィン上での各前記特定パターンの位置の間の距離の前記注目領域におけ る 2乗和であることを特徴とする請求項 1 7に記載の認識プログラム。
1 9 . 前記直線は、 前記注目領域内のある水平ラインでの切片と傾きの係数 をパラメータとして表現されることを特徴とする請求項 1 8に記載の認識プログ ラム。
2 0 . 前記投票ステップは、 1回の投票処理において対象データの量子化誤 差に応じた重みを単数または複数の投票箇所に投票することを特徴とする請求項 1 7に記載の認識プログラム。
2 1 . 前記画像が車載機器から撮影された道路画像であり、 前記注目領域が 前記道路画像内の道路面像に相当する領域であり、
前記直線を検出することにより白線や道路端等の走行レーン境界を検出するス テツプを実行させることを特徴とする請求項 1 8、 1 9または 2 0に記載の認識 プログラム。
PCT/JP2007/060315 2006-05-25 2007-05-15 認識システム、認識方法および認識プログラム WO2007138898A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
US12/092,025 US8208757B2 (en) 2006-05-25 2007-05-15 Recognition system, recognition method, and recognition program
JP2008517843A JP4577532B2 (ja) 2006-05-25 2007-05-15 認識システム、認識方法および認識プログラム
EP07743749A EP2026281A1 (en) 2006-05-25 2007-05-15 Recognizing system, recognizing metho and recognizing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006-145274 2006-05-25
JP2006145274 2006-05-25

Publications (1)

Publication Number Publication Date
WO2007138898A1 true WO2007138898A1 (ja) 2007-12-06

Family

ID=38778418

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/060315 WO2007138898A1 (ja) 2006-05-25 2007-05-15 認識システム、認識方法および認識プログラム

Country Status (5)

Country Link
US (1) US8208757B2 (ja)
EP (1) EP2026281A1 (ja)
JP (1) JP4577532B2 (ja)
CN (1) CN101356547A (ja)
WO (1) WO2007138898A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239165A (ja) * 2012-05-15 2013-11-28 Palo Alto Research Center Inc 近視野のカメラの障害物の検出

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101567086B (zh) * 2009-06-03 2014-01-08 北京中星微电子有限公司 一种车道线检测方法及其设备
WO2011065399A1 (ja) * 2009-11-25 2011-06-03 日本電気株式会社 走路認識装置、車両、走路認識方法及び走路認識プログラム
US8675089B2 (en) * 2009-12-25 2014-03-18 Samsung Electronics Co., Ltd. Apparatus and method for assisting composition of photographic image
JP2013003686A (ja) * 2011-06-13 2013-01-07 Sony Corp 認識装置および方法、プログラム、並びに記録媒体
KR101279712B1 (ko) * 2011-09-09 2013-06-27 연세대학교 산학협력단 실시간 차선 검출 장치 및 방법과 이에 관한 기록매체
US9189702B2 (en) * 2012-12-31 2015-11-17 Cognex Corporation Imaging system for determining multi-view alignment
CN103955925B (zh) * 2014-04-22 2017-03-29 湖南大学 基于分块固定最小采样的改进概率霍夫变换曲线检测方法
EP3227855A4 (en) * 2014-12-04 2018-06-20 Le Henaff, Guy System and method for interacting with information posted in the media
US9852287B1 (en) 2016-10-04 2017-12-26 International Business Machines Corporation Cognitive password pattern checker to enforce stronger, unrepeatable passwords
JP6345224B1 (ja) * 2016-12-19 2018-06-20 株式会社Pfu 画像処理装置、矩形検出方法及びコンピュータプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266828A (ja) * 1993-03-12 1994-09-22 Fuji Heavy Ind Ltd 車輌用車外監視装置
JPH10208056A (ja) * 1997-01-16 1998-08-07 Honda Motor Co Ltd 直線検出方法
JP2003271975A (ja) * 2002-03-15 2003-09-26 Sony Corp 平面抽出方法、その装置、そのプログラム、その記録媒体及び平面抽出装置搭載型ロボット装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06314339A (ja) 1993-04-27 1994-11-08 Honda Motor Co Ltd 画像の直線成分抽出装置

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06266828A (ja) * 1993-03-12 1994-09-22 Fuji Heavy Ind Ltd 車輌用車外監視装置
JPH10208056A (ja) * 1997-01-16 1998-08-07 Honda Motor Co Ltd 直線検出方法
JP2003271975A (ja) * 2002-03-15 2003-09-26 Sony Corp 平面抽出方法、その装置、そのプログラム、その記録媒体及び平面抽出装置搭載型ロボット装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013239165A (ja) * 2012-05-15 2013-11-28 Palo Alto Research Center Inc 近視野のカメラの障害物の検出

Also Published As

Publication number Publication date
EP2026281A1 (en) 2009-02-18
CN101356547A (zh) 2009-01-28
US8208757B2 (en) 2012-06-26
JP4577532B2 (ja) 2010-11-10
US20090252420A1 (en) 2009-10-08
JPWO2007138898A1 (ja) 2009-10-01

Similar Documents

Publication Publication Date Title
WO2007138898A1 (ja) 認識システム、認識方法および認識プログラム
US20210118161A1 (en) Vehicle environment modeling with a camera
CN107679520B (zh) 一种适用于复杂条件下的车道线视觉检测方法
US8655081B2 (en) Lane recognition system, lane recognition method, and lane recognition program
JP2008123036A (ja) 消失点検出システム、消失点検出方法および消失点検出用プログラム
US8300949B2 (en) Edge detection technique having improved feature visibility
JP4637618B2 (ja) 車線認識装置
US9811742B2 (en) Vehicle-surroundings recognition device
EP1329850A2 (en) Apparatus, program and method for detecting both stationary objects and moving objects in an image
US9330472B2 (en) System and method for distorted camera image correction
EP1320072A2 (en) Lane marker recognition method
JPH10208056A (ja) 直線検出方法
KR101191308B1 (ko) 지능형 운송 시스템의 도로 및 차선 검출 시스템 및 방법
WO2014002692A1 (ja) ステレオカメラ
CN102194102A (zh) 对交通标志进行分类的方法和装置
Sujatha Computer vision based novel steering angle calculation for autonomous vehicles
JP5287335B2 (ja) 道路白線認識装置及び道路白線認識方法
EP2256691B1 (en) Image processing device for vehicle and image processing program
Dinh et al. Image segmentation based on histogram of depth and an application in driver distraction detection
Ying et al. An illumination-robust approach for feature-based road detection
Nuthong et al. Lane detection using smoothing spline
CN102073842A (zh) 一种通过分类匹配的人脸识别方法
JP4479174B2 (ja) 物体検出装置
JP2004038760A (ja) 車両用走行路認識装置
JP2015215235A (ja) 物体検出装置及び物体検出方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780001275.5

Country of ref document: CN

DPE2 Request for preliminary examination filed before expiration of 19th month from priority date (pct application filed from 20040101)
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07743749

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2008517843

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2007743749

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 12092025

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE