WO2020240609A1 - 部材判別装置、部材判別方法及びコンピュータ可読媒体 - Google Patents

部材判別装置、部材判別方法及びコンピュータ可読媒体 Download PDF

Info

Publication number
WO2020240609A1
WO2020240609A1 PCT/JP2019/020598 JP2019020598W WO2020240609A1 WO 2020240609 A1 WO2020240609 A1 WO 2020240609A1 JP 2019020598 W JP2019020598 W JP 2019020598W WO 2020240609 A1 WO2020240609 A1 WO 2020240609A1
Authority
WO
WIPO (PCT)
Prior art keywords
point cloud
cloud data
inspected
dimensional sensor
inspection target
Prior art date
Application number
PCT/JP2019/020598
Other languages
English (en)
French (fr)
Inventor
聡 辻
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to PCT/JP2019/020598 priority Critical patent/WO2020240609A1/ja
Priority to US17/610,748 priority patent/US20220236050A1/en
Priority to JP2021523138A priority patent/JP7156522B2/ja
Publication of WO2020240609A1 publication Critical patent/WO2020240609A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • EFIXED CONSTRUCTIONS
    • E04BUILDING
    • E04CSTRUCTURAL ELEMENTS; BUILDING MATERIALS
    • E04C5/00Reinforcing elements, e.g. for concrete; Auxiliary elements therefor
    • E04C5/01Reinforcing elements of metal, e.g. with non-structural coatings

Definitions

  • the present invention relates to a member discriminating device, a member discriminating method, and a computer-readable medium.
  • Patent Document 1 the reinforcing bar is measured from a plurality of places with a three-dimensional laser scanner, the measured data are integrated, and the measured data after the integration is compared with the reference data to determine the reinforcing bar arrangement state.
  • the technology is disclosed.
  • Patent Document 1 requires measurement from a plurality of locations, and has a problem that measurement is troublesome. Further, the reinforcing bars are standardized, for example, at intervals of 2 to 3 mm in diameter, but in the technique of Patent Document 1, the difference in diameter of these reinforcing bars can be discriminated with an accuracy (that is, a milliorder discrimination accuracy). It is necessary to make a measurement. Therefore, there is a problem that the cost of the measuring device increases.
  • the present invention has been made in view of the above background, and it is possible to automatically and accurately determine the type of the inspection target member by the simple measurement of the inspection target member at low cost using a three-dimensional sensor.
  • An object of the present invention is to provide a member discriminating device capable of performing the same.
  • the member discriminating device includes a three-dimensional sensor that irradiates one or more members to be inspected with a beam and acquires first point group data based on at least light amplitude information.
  • the second point group data which is the point group data of the inspection target member, is extracted from the first point group data, and the second point group data is obtained in the vertical direction, which is the longitudinal direction of the inspection target member, in the inspection target member.
  • the beam irradiation direction and the horizontal direction orthogonal to the vertical direction, and the depth direction orthogonal to the vertical direction and the horizontal direction are provided.
  • the non-temporary computer-readable medium uses a three-dimensional sensor capable of acquiring point group data at least based on light amplitude information to emit a beam to one or more members to be inspected.
  • the first step of irradiating and acquiring the first point group data, and the second point group data which is the point group data of the member to be inspected is extracted from the first point group data, and the second point is described.
  • the longitudinal direction which is the longitudinal direction of the member to be inspected, is orthogonal to the irradiation direction of the beam when the area of the surface of the member to be inspected, which is irradiated by the beam irradiated by the three-dimensional sensor, is maximized.
  • a second step of obtaining the distribution of point group data in the horizontal direction and each of the vertical direction and the depth direction orthogonal to the horizontal direction, and a third step of determining the type of the member to be inspected from the distribution. Contains a program that causes the computer to execute.
  • the type of the inspection target member can be automatically and accurately determined by the simple measurement of the inspection target member at low cost using the three-dimensional sensor.
  • FIG. 5 is a flowchart illustrating a flow of processing for discriminating the type of a member to be inspected in the member discriminating device according to the second embodiment.
  • FIG. 5 is a schematic diagram illustrating a method of obtaining distributions in the vertical direction, the horizontal direction, and the depth direction in the second point cloud data of each member to be inspected in step S103 of FIG. It is a flowchart which shows the flow of the process which obtains the distribution in the vertical direction, the horizontal direction and the depth direction in the 2nd point cloud data of each inspection target member. It is a schematic diagram explaining the method of discriminating which of the vertical direction, the horizontal direction, and the depth direction corresponds to each of the three obtained principal components in the method of principal component analysis.
  • FIG. 1 is a block diagram showing a configuration of a member discriminating device 10 according to the first embodiment.
  • the member discriminating device 10 includes a three-dimensional sensor 11, a point cloud data analysis unit 12, and a member discriminating unit 13.
  • the three-dimensional sensor 11 can measure the distance at least based on the amplitude information of light, and irradiates one or more members to be inspected with a beam to acquire the first point group data.
  • the point cloud data analysis unit 12 extracts the second point cloud data, which is the point cloud data of the member to be inspected, from the first point cloud data. Further, the point group data analysis unit 12 maximizes the area of the surface of the inspection target member to which the beam emitted from the three-dimensional sensor hits in the vertical direction, which is the longitudinal direction of the inspection target member, for the second point group data.
  • the distribution of the point group data in the horizontal direction orthogonal to the irradiation direction of the beam and the depth direction orthogonal to the vertical direction and the horizontal direction is obtained.
  • the member discriminating unit 13 discriminates the type of the member to be inspected from the above distribution.
  • the type of the inspection target member can be automatically and accurately determined by the simple measurement of the inspection target member at low cost using the three-dimensional sensor 11.
  • FIG. 2 is a block diagram showing the configuration of the member discriminating device 110 according to the second embodiment.
  • the member discriminating device 110 includes a three-dimensional sensor 111, a point cloud data analysis unit 112, and a member discriminating unit 113.
  • the three-dimensional sensor 111 can measure the distance at least based on the amplitude information of light, and irradiates one or more members to be inspected with a beam to acquire the first point group data.
  • the three-dimensional sensor 111 is, for example, a 3D-LiDAR (Light Detection and Ringing) sensor.
  • FIG. 3 is a schematic view showing the outer shape of the deformed steel bar.
  • the deformed steel bar is provided with uneven protrusions called "ribs" and "knots" on the surface.
  • Standard names such as "D10", “D13", “D16", and “D19" are defined for the deformed steel bars according to the diameter.
  • the numbers shown in the standard name indicate, for example, the diameter of D10 is 9.53 mm and the diameter of D13 is 12.7 mm, which are approximate diameters of the deformed steel bars. That is, the diameter of the deformed steel bar is standardized every 2 to 3 mm.
  • the point cloud data analysis unit 112 extracts the second point cloud data, which is the point cloud data of the member to be inspected, from the first point cloud data. Further, the point cloud data analysis unit 112 obtains the distribution of the point cloud data in each of the vertical direction, the horizontal direction, and the depth direction of the member to be inspected for the second point cloud data. The distribution here is variance. The definitions of the vertical direction, the horizontal direction, and the depth direction of the member to be inspected will be described later.
  • the member discriminating unit 113 discriminates the type of the inspection target member from the distribution of the point cloud data in each of the vertical direction, the horizontal direction, and the depth direction of the inspection target member obtained by the point cloud data analysis unit 112.
  • FIG. 4 is a schematic diagram illustrating the definition of the direction of the member to be inspected.
  • the reference three-dimensional Cartesian coordinate system starts from the position of the three-dimensional sensor 111 and starts from the x-axis as the first axis, the y-axis as the second axis, and the z-axis as the third axis.
  • the reference three-dimensional Cartesian coordinate system is set so that, for example, the z-axis as the third axis is in the vertical direction, and the plane including the x-axis as the first axis and the y-axis as the second axis is horizontal.
  • the reference 3D Cartesian coordinate system can be converted into a reference 3D polar coordinate system whose origin is the position of the 3D sensor 111.
  • the point P which is a representative point of the point where the beam emitted from the three-dimensional sensor 111 hits the member to be inspected, is (x, y, z) in the three-dimensional Cartesian coordinate system and (d, ⁇ , It is expressed as ⁇ ).
  • d is the distance from the origin to the point P, that is, the moving diameter.
  • is the angle formed by the projection of the radial vector (the vector from the origin to the point P) on the x-axis and the xy plane.
  • is the angle formed by the xy plane and the diameter vector.
  • the vertical direction is the longitudinal direction of the member to be inspected.
  • the lateral direction is a direction orthogonal to the irradiation direction of the beam when the area of the surface of the member to be inspected to be irradiated by the three-dimensional sensor 111 is maximized.
  • the irradiation direction of the beam is the direction of the optical axis of the beam.
  • the depth direction is a direction orthogonal to the vertical direction and the horizontal direction. In the three-dimensional Cartesian coordinate system (x, y, z), the vertical direction is a direction parallel to the z-axis.
  • the lateral direction is parallel to the direction vector e1 of the beam emitted from the three-dimensional sensor 111 onto the xy plane and the direction vector e2 orthogonal to the xy plane.
  • the direction. Assuming that the point where the beam emitted from the three-dimensional sensor 111 hits the member to be inspected is the point P, the angle formed by the projection of the beam emitted from the three-dimensional sensor 111 on the xy plane with the x-axis is the angle ⁇ . Equivalent to.
  • FIG. 2 will also be referred to as appropriate.
  • FIG. 5 is a flowchart illustrating a flow of processing for discriminating the type of the member to be inspected in the member discriminating device 110.
  • the three-dimensional sensor 111 irradiates one or more members to be inspected with a beam to acquire the first point group data (step S101), that is, the three-dimensional sensor 111 is constructed.
  • the beam is irradiated to the reinforcing bar group arranged at the site to acquire the first point group data.
  • the point cloud data analysis unit 112 extracts the second point cloud data, which is the point cloud data for each member to be inspected, from the first point cloud data. (Step S102). That is, the second point cloud data, which is the point cloud data of each reinforcing bar, is extracted from the first point cloud data. Subsequently, the point cloud data analysis unit 112 analyzes the distribution in the vertical direction, the horizontal direction, and the depth direction with respect to the second point cloud data of each member to be inspected (step S103). Since the second point cloud data approximately represents the shape of the member to be inspected, the vertical, horizontal, and depth directions of the second point cloud data are the inspection targets described with reference to FIG. It matches the vertical, horizontal and depth directions of the member. Following step S103, the member discriminating unit 113 discriminates the type of the member to be inspected from the analysis results of the distribution in the vertical direction, the horizontal direction, and the depth direction (step 104).
  • the extraction of the second point cloud data in step S102 of FIG. 5 is performed by dividing the first point cloud data into regions by clustering.
  • clustering algorithm a general-purpose algorithm, for example, Euclidean clustering or Region Growing can be used.
  • Euclidean clustering is an algorithm in which if the Euclidean distance between points is less than or equal to the threshold value, the same cluster is used, and if it is larger than the threshold value, another cluster is used. In Euclidean clustering, it is necessary to determine the threshold value of the Euclidean distance between points in advance.
  • the region expansion method is an algorithm in which a point having a certain point with a surrounding point and a point having a surface orientation within a threshold value is set as the same cluster, and if it is larger than the threshold value, another cluster is set.
  • it is necessary to determine in advance the threshold value of the orientation of the surface, and it is also necessary to determine in advance how many surrounding points are included in the calculation of the orientation of the surface.
  • FIG. 6 is a schematic diagram illustrating a method of extracting the second point cloud data, which is the point cloud data of each member to be inspected, from the first point cloud data.
  • the first point cloud data there is a region where the point cloud data cannot be obtained due to the shadow of the beam.
  • Such first point cloud data is clustered by the distance between points or the orientation of faces. For example, since the first point cloud data is in the shadow of the beam and the distance between the points is large in the area where the point cloud data cannot be obtained, the area is divided into cluster 1, cluster 2, and cluster 3 according to the distance between the points. Will be done.
  • the two clusters, cluster 2 and cluster 3, are considered to be the same reinforcing bar because the points are separated from each other but the orientations of the surfaces are the same. Therefore, the clusters 2 and 3 are integrated into one cluster based on the orientation of the surface, that is, the coordinates of the central axis and the average of the coordinates in the depth direction and the horizontal direction. That is, the cluster in which the cluster 2 and the cluster 3 are integrated is used as the second point cloud data. Further, since the cluster 1 has a different surface orientation from the cluster 2 and the cluster 3, it is independently used as the second point cloud data. In this way, the second point cloud data, which is the point cloud data for each member to be inspected, is extracted.
  • FIG. 7 is a schematic diagram illustrating a method of obtaining distributions in the vertical direction, the horizontal direction, and the depth direction in the second point cloud data of each member to be inspected in step S103 of FIG.
  • the x-axis (first axis) and the xy plane (third axis) are parallel to the xz plane (the plane including the first axis and the third axis) in the second point group data.
  • the second point group data and the lateral and depth directions are rotationally converted based on the angle ⁇ (see FIG. 3) formed by the projection of the radial vector onto the plane including the first axis and the second axis.
  • the variance in each of the vertical direction, the horizontal direction, and the depth direction in the second point cloud data is obtained.
  • FIG. 8 is a flowchart showing the flow of processing for obtaining the variance as the distribution in the vertical direction, the horizontal direction, and the depth direction in the second point cloud data of each member to be inspected.
  • the longitudinal direction of the second point cloud data is parallel to the xy plane (the plane including the first axis and the second axis) or the z-axis (third axis).
  • Is determined step S201.
  • the lateral direction of the second point group data is the xz plane (including the first axis and the third axis).
  • the second point group data is rotationally converted based on the angle ⁇ so as to be parallel to the plane) (step S202). Then, after the rotation transformation, the variance in the lateral direction of the second point cloud data is calculated (step S203). If it is determined in step S201 that the longitudinal direction of the second point cloud data is parallel to the xy plane, the lateral variance of the second point cloud data as it is is calculated (step S204). ..
  • step S103 of FIG. 5 the method of principal component analysis (PCA: Principal Component Analysis) is applied as a method of obtaining the distribution in the vertical direction, the horizontal direction, and the depth direction in the second point cloud data of each member to be inspected. You can also.
  • the eigenvalues of the principal components are variances.
  • the first principal component, the second principal component, and so on are called in order from the largest eigenvalue.
  • the second point cloud data since it is composed of three parameters (x, y, z), even the third principal component can be obtained.
  • 9 and 10 are schematic views illustrating a method of determining which of the three obtained principal components corresponds to the vertical direction, the horizontal direction, and the depth direction in the method of principal component analysis. is there.
  • the variance in the vertical direction is maximized.
  • the point cloud data exists only on the surface facing the three-dimensional sensor 111, the dispersion in the lateral direction is larger than the dispersion in the depth direction. Therefore, as shown in FIG. 10, among the obtained principal components, it is determined that the first principal component having the largest eigenvalue is in the vertical direction and the second principal component having the second largest eigenvalue is in the horizontal direction. be able to.
  • FIG. 11 is a flowchart showing the flow of processing for obtaining the variance in the vertical direction, the horizontal direction, and the depth direction of the second point cloud data by the method of principal component analysis.
  • the method of principal component analysis PCA
  • PCA principal component analysis
  • the eigenvalues of the three principal components are calculated (step S301).
  • the largest eigenvalue of the principal component obtained by the method of principal component analysis is determined to be the variance in the vertical direction (step S302).
  • the second largest eigenvalue is determined to be the lateral variance (step S303).
  • the smallest of the eigenvalues of the three principal components is determined to be the variance in the depth direction (step S304).
  • the principal component analysis method it is not necessary to rotationally convert the second point cloud data regardless of the longitudinal direction of the inspection target member as the inspection target member. That is, by using the method of principal component analysis, even if the longitudinal direction of the reinforcing bar as the member to be inspected is a reinforcing bar arranged in an oblique direction other than the horizontal direction or the vertical direction, the second reinforcing bar can be easily obtained. It is possible to obtain the distribution of point group data in each direction.
  • the eigenvalue of the second principal component which corresponds to the lateral dispersion of the reinforcing bar as the member to be inspected, correlates with the diameter of the reinforcing bar as the member to be inspected.
  • FIG. 12 is a graph showing the relationship between the diameter and the eigenvalue of the second principal component in the reinforcing bar which is the inspection target member.
  • the horizontal axis is the diameter of the reinforcing bar [mm]
  • the vertical axis is the eigenvalue [m 2 ] of the second principal component.
  • the member discriminating unit 113 is obtained by analyzing the second point cloud data of the reinforcing bar (D10, D13, D16, D19) as the inspection target member by the PCA method. 2
  • the type of reinforcing bar can be determined by the range of the main components.
  • the threshold value P1 is a threshold value for discriminating between D10 and D13.
  • the threshold value P2 is a threshold value for discriminating between D13 and D16.
  • the threshold value P3 is a threshold value for discriminating between D16 and D19.
  • the reinforcing bar is D10, if the second principal component is in the range of the threshold P1 or more and less than the threshold P2, the reinforcing bar is D13, and if the second principal component is in the range of the threshold P2 or more and less than the threshold P3, the reinforcing bar is D16. If it is in the range of the threshold value P3 or more, it can be determined that the reinforcing bar is D19.
  • FIG. 13 is a schematic view illustrating an error in dispersion of a reinforcing bar as an inspection target member in the lateral direction.
  • the diameter of the beam emitted from the three-dimensional sensor 111 increases as the distance from the three-dimensional sensor 111 increases.
  • the reinforcements located farther from the three-dimensional sensor 111 are the second point cloud data with respect to the reinforcements located closer.
  • the error of the lateral dispersion in is large.
  • the lateral dispersion of the reinforcing bar is affected by the distance between the reinforcing bar and the three-dimensional sensor 111. Therefore, the threshold value of the range of the second main component for discriminating the reinforcing bar, which has been described with reference to FIG. 12, needs to be changed according to the distance of the reinforcing bar from the three-dimensional sensor 111.
  • FIG. 14 is a schematic view illustrating a dispersion error in the depth direction of the reinforcing bar as an inspection target member.
  • the angle (incident angle ⁇ ) at which the beam irradiated by the three-dimensional sensor 111 is incident on the reinforcing bar is large, the beam is totally reflected on the surface of the reinforcing bar. Therefore, the beam totally reflected on the surface of the reinforcing bar may hit the surrounding object, and the reflected light may return to the three-dimensional sensor 111.
  • a point cloud extending in the depth direction can be obtained at both ends in the lateral direction of the reinforcing bar.
  • the beam totally reflected on the surface of the reinforcing bar hits an object located at a considerable distance from the reinforcing bar and the reflected light returns to the three-dimensional sensor 111, the point becomes another region due to the clustering described above. There is no problem because it is judged.
  • FIG. 15 is a schematic view illustrating a method for reducing a dispersion error in the depth direction of a reinforcing bar as an inspection target member.
  • FIG. 15 is a frequency distribution graph showing the frequency of appearance of points in the vertical direction of the reinforcing bar with respect to the distance from the three-dimensional sensor 111 to the reinforcing bar.
  • the horizontal axis is the distance from the three-dimensional sensor 111 to the reinforcing bar
  • the vertical axis is the frequency of appearance of points in the vertical direction of the reinforcing bar.
  • the data of points in the section where the section of the frequency distribution graph is out of the predetermined range based on the section of the mode value is deleted from the second point cloud data.
  • the predetermined range is set based on the measurement error of the three-dimensional sensor 111.
  • FIG. 16 is a schematic view illustrating another method of reducing the dispersion error in the depth direction of the reinforcing bar as the inspection target member.
  • the point cloud data of the reinforcing bar which is the second point cloud data
  • the point cloud t1 having the minimum x-axis coordinates and the point cloud t2 having the maximum x-axis coordinates are deleted.
  • FIG. 17 is a schematic diagram illustrating an error that occurs in the depth direction when the three-dimensional sensor 111 is of the ToF (Time of Flight) method, which is the mainstream of 3D-LiDAR sensors for autonomous driving.
  • ToF Time of Flight
  • the measured value in the depth direction is measured at least the diameter of the reinforcing bar.
  • An error (cm order) occurs. Therefore, the coordinates in the depth direction shift back and forth by the amount of error. In the distribution of the second point cloud data in the depth direction, this error may be corrected.
  • FIG. 18 is a block diagram showing the configuration of the member discriminating unit 113.
  • the member discriminating unit 113 includes an information holding unit 113a and a comparison unit 113b as functional blocks.
  • the information holding unit 113a holds information on the type of the inspection target member for each type of the inspection target member. Further, the information holding unit 113a is dispersed in the discriminating direction, which is the direction used for discriminating between the distance from the three-dimensional sensor 111 to the member to be inspected and the second point cloud data in the vertical direction, the horizontal direction, and the depth direction. Holds reference information, including information about its relationship to the range of values to obtain.
  • the variance in each direction of the second point cloud data is input to the information holding unit 113a. When the variance of the second point cloud data is calculated by principal component analysis, the information holding unit 113a may hold information indicating which principal component is used for determination.
  • the comparison unit 113b determines the type of the inspection target member based on the reference information, the distance from the three-dimensional sensor 111 to the inspection target member, and the dispersion in the determination direction of the second point cloud data, and the discrimination target member is determined. Outputs information about the type of.
  • the distance from the three-dimensional sensor 111 to the member to be inspected is obtained by the point cloud data analysis unit 112 based on the second point cloud data, and is input to the comparison unit 113b.
  • FIG. 19 is a schematic diagram showing an example of reference information held in the information holding unit 113a (see FIG. 18).
  • the reference information is, for example, a table.
  • the distance from the three-dimensional sensor 111 to the reinforcing bar as the inspection target member is 1 m to 10 m at predetermined intervals, and each type of the reinforcing bar to be inspected (here, standard names D10, D13, D16). , D19), the range of the variance v in the determination direction is shown.
  • the determination direction is the horizontal direction of the second point cloud data.
  • the predetermined interval is appropriately set to, for example, 1 m interval and 5 m interval according to the specifications of the three-dimensional sensor 111, the type of the member to be inspected, and the like.
  • the distance from the three-dimensional sensor 111 to the reinforcing bar is 1 m
  • the variance v in the discriminating direction of the second point cloud data of the reinforcing bar is 3.0E-06m 2 .
  • the variance v in the discriminating direction of the second point cloud data of the reinforcing bar is 1.8E-06m 2 ⁇ v ⁇ 5.8E-06m 2 when the distance from the three-dimensional sensor 111 to the reinforcing bar is 1 m. Enter the range. Therefore, the comparison unit 113b (see FIG. 18) determines that the reinforcing bar is “D13”.
  • FIG. 20 is a block diagram showing a configuration according to a modification 1 of the member discrimination unit 113, that is, a configuration different from the configuration shown in FIG. As shown in FIG. 20, the member discrimination unit 113 includes a simulation unit 213a and a comparison unit 213b as functional blocks.
  • the distance between the three-dimensional sensor 111 and the point cloud in the second point cloud data is input to the simulation unit 213a.
  • the simulation unit 213a obtains each type of the inspection target member by measurement based on the distance from the three-dimensional sensor 111 to the inspection target member, information on the specifications of the three-dimensional sensor 111, and information on the shape of the inspection target member.
  • a third point group data which is a point group data expected to be generated, is generated. Then, the simulation unit 213a obtains the variance in the lateral direction for the generated third point cloud data.
  • the variance in each direction of the second point cloud data is input to the comparison unit 213b.
  • the comparison unit 213b describes the lateral dispersion of the second point cloud data and each type of inspection target member corresponding to the distance from the three-dimensional sensor 111 obtained based on the second point cloud data to the inspection target member.
  • a comparison is made with the lateral variance of the third point cloud data.
  • the comparison unit 213b outputs information regarding the type of the member to be inspected corresponding to the third point cloud data having the smallest difference from the variance of the second point cloud data.
  • FIG. 21 is a schematic diagram showing a method of generating the third point cloud data in the simulation unit 213a (see FIG. 20). As shown in FIG. 21, it is determined whether or not the intersection with the beam emitted from the three-dimensional sensor 111 exists within the range of each polygon for each polygon constituting the CAD drawing depicting the member to be inspected. Then, when it is determined that the intersection with the beam is within the range of the polygon, the intersection is set as a point included in the third point cloud data. In this way, the simulation unit 213a virtually scans the member to be inspected and generates the third point cloud data by changing the irradiation direction of the beam according to the specifications of 3D-LiDAR.
  • FIG. 22 is a schematic diagram showing a method different from the method described with reference to FIG. 21 for generating the third point cloud data in the simulation unit 213a (see FIG. 20). As shown in FIG. 22, the intersection of the shape and the beam emitted from the three-dimensional sensor 111 is stored as point cloud data by approximating the member to be inspected to a simple shape that can be expressed by an equation.
  • (a, b) are the center coordinates of the cylinder of the member to be inspected in the three-dimensional Cartesian coordinate system described with reference to FIG.
  • m is the z-coordinate of the bottom surface of the cylinder of the member to be inspected
  • n is the z-coordinate of the top surface of the cylinder of the member to be inspected.
  • x d ⁇ cos ⁇ ⁇ cos ⁇
  • x d ⁇ cos ⁇ ⁇ sin ⁇
  • z. D ⁇ sin ⁇ .
  • the intersection near the three-dimensional sensor 111 is the point (point P) where the beam hits the surface of the member to be inspected, and the intersection far from the three-dimensional sensor 111 is the shadow of the beam. Therefore, let d be the smaller of the two solutions of the quadratic equation.
  • the simulation unit 213a shown in FIG. 20 may execute the simulation a plurality of times for each type of the member to be inspected and generate the third point cloud data which is the estimated point cloud data a plurality of times.
  • the simulation unit 213a obtains the lateral dispersion of the generated third point cloud data, and determines the range of the lateral variance variation of the third point cloud data of each type of the member to be inspected.
  • the comparison unit 213b refers to the range of variation of the third point cloud data of each type of the inspection target member corresponding to the distance from the three-dimensional sensor 111 obtained based on the second point cloud data to the inspection target member. ..
  • the comparison unit 213b outputs information regarding the type of the member to be inspected corresponding to the third point cloud data in which the lateral dispersion of the second point cloud data is included in the range of variation.
  • the conditions of the simulation are as follows. 1)
  • the members to be inspected are four types of reinforcing bars (D10, D13, D16, D19).
  • the three-dimensional sensor 111 is a 3D-LiDAR sensor having the following specifications.
  • the reflected light returns to 3D-LiDAR.
  • the shape of the reinforcing bar is a cylinder. 6) Simulate 1000 times for each of the four types of reinforcing bars that are the members to be inspected.
  • FIG. 23 is a graph plotting the lateral variance obtained by executing the simulation with the distance from the three-dimensional sensor 111 to the reinforcing bar set to 5 m.
  • the horizontal axis is the diameter of the reinforcing bar [mm]
  • the vertical axis is the lateral dispersion of the reinforcing bar [m 2 ].
  • the variance obtained by executing the simulation a plurality of times varies. The range of dispersion variation in D10, D13, D16, and D19 is different.
  • the lateral dispersion of the second point cloud data obtained by the measurement of the reinforcing bar by the three-dimensional sensor 111 is included in the range of the dispersion variation of D10, D13, D16, and D19 obtained by the simulation.
  • the type of reinforcing bar measured can be determined by.
  • FIG. 24 is a graph plotting the variance obtained by executing the simulation with the distance from the three-dimensional sensor 111 to the reinforcing bar set to 10 m.
  • the horizontal axis is the diameter of the reinforcing bar [mm]
  • the vertical axis is the lateral dispersion of the reinforcing bar [m 2 ].
  • the range of variation in the dispersion of the second point cloud data in the lateral direction overlaps in the region r1 in D10 and D13, in the region r2 in D13 and D16, and in the region r3 in D16 and D19. There is.
  • the lateral dispersion of the second point cloud data obtained by the actual measurement by the three-dimensional sensor 111 is included in any of the regions r1, r2, and r3. Therefore, when the distance from the three-dimensional sensor 111 to the reinforcing bar is 10 m, the reinforcing bar is measured a plurality of times by the three-dimensional sensor 111, and the second point group data obtained by the measurement is performed in the lateral direction. The type of rebar measured is determined from the variation in dispersion.
  • the member discriminating device 110 utilizes the distribution in each direction of the second point cloud data, which is the point cloud data of the member to be inspected acquired by the three-dimensional sensor 111. Automatically identify the type of member to be inspected. By utilizing the distribution of the second point cloud data in each direction, the three-dimensional sensor 111 cannot measure the accurate dimensions of the member to be inspected, and the type of the member to be inspected even if it is low cost. Allows discrimination.
  • the low-cost three-dimensional sensor 111 referred to here has a discrimination accuracy on the order of centimeters. Further, by automatically identifying the type of the member to be inspected, for example, when the member to be inspected is a reinforcing bar, the workload of the bar arrangement inspection can be reduced.
  • the member to be inspected to which the member discriminating device according to the above-described embodiment can be applied includes not only reinforcing bars but also all members having similar shapes and differences in diameter and the like, such as reinforcing bars.
  • the present invention has been described as a hardware configuration, but the present invention is not limited thereto.
  • the present invention can also be realized by causing a CPU (Central Processing Unit) to execute a program for each process.
  • a CPU Central Processing Unit
  • Non-transitory computer-readable media include various types of tangible storage media (tangible storage media).
  • Examples of non-temporary computer-readable media include magnetic recording media (eg, flexible disks, magnetic tapes, hard disk drives), optomagnetic recording media (eg, optomagnetic disks), CD-ROMs (Read Only Memory), CD-Rs, CD-R / W, semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory).
  • the program includes various types of temporary memory.
  • a computer may be supplied to a computer by a computer readable medium (transition computer readable medium).
  • Examples of temporary computer readable media include electrical signals, optical signals, and electromagnetic waves.
  • Temporary computer readable media include wires and light.
  • the program can be supplied to the computer via a wired communication path such as a fiber or a wireless communication path.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

部材判別装置(10)は、少なくとも光の振幅情報をもとに距離を測ることができるものであり、一以上の検査対象部材に対してビームを照射して第1の点群データを取得する三次元センサ(11)と、第1の点群データから検査対象部材の点群データである第2の点群データを抽出し、第2の点群データについて、検査対象部材の長手方向である縦方向、検査対象部材における三次元センサより照射されたビームの当たる面の面積が最大になるときのビームの照射方向と縦方向に直交する横方向、及び、縦方向と横方向に直交する奥行き方向のそれぞれにおける点群データの分布を求める点群データ解析部(12)と、分布から検査対象部材の種類を判別する部材判別部(13)と、を備える。

Description

部材判別装置、部材判別方法及びコンピュータ可読媒体
 本発明は、部材判別装置、部材判別方法及びコンピュータ可読媒体に関する。
 鉄筋コンクリート構造物を建築する際、どの位置にどの太さ(径)の鉄筋を配置したかを検査する配筋検査を行う必要がある。特許文献1には、3次元レーザスキャナで鉄筋を複数個所から測定し、それらの測定データを統合し、統合後の測定データと基準となるデータとの比較を行うことで配筋状態を判定する技術が開示されている。
特開2010-014693号公報
 特許文献1に記載の技術では、複数個所からの測定が必要であり、測定に手間がかかるという問題があった。また、鉄筋は、例えば直径が2~3mm間隔で規格化されているが、特許文献1の技術では、これらの鉄筋の直径の差を判別できる程度の精度(すなわち、ミリオーダーの判別精度)で測定を行う必要がある。このため、測定機器のコストが増加するという問題があった。
 本発明は、以上の背景に鑑みなされたものであり、三次元センサを用いた、コストを抑えた簡便な検査対象部材の測定により、検査対象部材の種類を自動的に精度良く判別することができる部材判別装置を提供することを目的とする。
 本発明の第1の態様に係る部材判別装置は、一以上の検査対象部材に対してビームを照射し少なくとも光の振幅情報に基づいて第1の点群データを取得する三次元センサと、前記第1の点群データから検査対象部材の点群データである第2の点群データを抽出し、前記第2の点群データについて、検査対象部材の長手方向である縦方向、検査対象部材における前記三次元センサより照射されたビームの当たる面の面積が最大になるときのビームの照射方向と前記縦方向に直交する横方向、及び、前記縦方向と前記横方向に直交する奥行き方向のそれぞれにおける点群データの分布を求める点群データ解析部と、前記分布から検査対象部材の種類を判別する部材判別部と、を備える。
 本発明の第2の態様に係る部材判別方法は、少なくとも光の振幅情報に基づいて点群データを取得することができる三次元センサにより一以上の検査対象部材に対してビームを照射して第1の点群データを取得する第1のステップと、前記第1の点群データから検査対象部材の点群データである第2の点群データを抽出し、前記第2の点群データについて、検査対象部材の長手方向である縦方向、検査対象部材における前記三次元センサより照射されたビームの当たる面の面積が最大になるときのビームの照射方向と前記縦方向に直交する横方向、及び、前記縦方向と前記横方向に直交する奥行き方向のそれぞれにおける点群データの分布を求める第2のステップと、前記分布から検査対象部材の種類を判別する第3のステップと、を有する。
 本発明の第3の態様に係る非一時的なコンピュータ可読媒体は、少なくとも光の振幅情報に基づいて点群データを取得することができる三次元センサにより一以上の検査対象部材に対してビームを照射して第1の点群データを取得する第1のステップと、前記第1の点群データから検査対象部材の点群データである第2の点群データを抽出し、前記第2の点群データについて、検査対象部材の長手方向である縦方向、検査対象部材における前記三次元センサより照射されたビームの当たる面の面積が最大になるときのビームの照射方向と前記縦方向に直交する横方向、及び、前記縦方向と前記横方向に直交する奥行き方向のそれぞれにおける点群データの分布を求める第2のステップと、前記分布から検査対象部材の種類を判別する第3のステップと、をコンピュータに実行させるプログラムが格納されている。
 本発明によれば、三次元センサを用いた、コストを抑えた簡便な検査対象部材の測定により、検査対象部材の種類を自動的に精度良く判別することができる。
実施の形態1に係る部材判別装置の構成を示すブロック図である。 実施の形態2に係る部材判別装置の構成を示すブロック図である。 実施の形態2に係る部材判別装置の検査対象部材としての鉄筋である、異形棒鋼の外形を示す模式図である。 検査対象部材の方向の定義について説明する模式図である。 実施の形態2に係る部材判別装置において、検査対象部材の種類を判別する処理の流れについて説明するフローチャートである。 第1の点群データから、各検査対象部材の点群データである第2の点群データを抽出する方法について説明する模式図である。 図5のステップS103において、各検査対象部材の第2の点群データにおける縦方向、横方向及び奥行き方向の分布を求める方法について説明する模式図である。 各検査対象部材の第2の点群データにおける縦方向、横方向及び奥行き方向の分布を求める処理の流れを示すフローチャートである。 主成分分析の手法において、得られた3個の主成分が、それぞれ、縦方向、横方向、奥行き方向のどれに対応するかを判別する方法について説明する模式図である。 主成分分析の手法において、得られた3個の主成分が、それぞれ、縦方向、横方向、奥行き方向のどれに対応するかを判別する方法について説明する模式図である。 主成分分析の手法により第2の点群データの縦方向、横方向及び奥行き方向の分散を求める処理の流れを示すフローチャートである。 検査対象部材である鉄筋における、直径と第2主成分の固有値との関係を示すグラフである。 検査対象部材としての鉄筋の横方向における分散の誤差について説明する模式図である。 検査対象部材としての鉄筋の奥行き方向における分散の誤差について説明する模式図である。 検査対象部材としての鉄筋の奥行き方向における分散の誤差を削減する手法について説明する模式図である。 検査対象部材としての鉄筋の奥行き方向における分散の誤差を削減する別の手法について説明する模式図である。 三次元センサが、自動運転向け3D-LiDARセンサで主流となっているToF方式のものである場合に奥行き方向に生じる誤差について説明する模式図である。 部材判定部の構成について示すブロック図である。 情報保持部に保持されている参照情報の一例を示す模式図である。 部材判定部の変形例1に係る構成について示すブロック図である。 シミュレーション部において、第3の点群データを生成する方法について示す模式図である。 シミュレーション部において、第3の点群データを生成する別の方法について示す模式図である。 三次元センサから鉄筋までの距離を5mとしてシミュレーションを実行することにより得られた横方向の分散をプロットしたグラフである。 三次元センサから鉄筋までの距離を5mとしてシミュレーションを実行することにより得られた分散をプロットしたグラフである。
 以下、図面を参照して本発明の実施の形態について説明する。説明の明確化のため、以下の記載及び図面は、適宜、省略、及び簡略化がなされている。各図面において、同一の要素には同一の符号が付されており、必要に応じて重複説明は省略されている。
[実施の形態1]
 以下、実施の形態1について説明する。
 図1は、実施の形態1に係る部材判別装置10の構成を示すブロック図である。図1に示すように、部材判別装置10は、三次元センサ11と、点群データ解析部12と、部材判別部13と、を備えている。
 三次元センサ11は、少なくとも光の振幅情報をもとに距離を測ることができるものであり、一以上の検査対象部材に対してビームを照射して第1の点群データを取得する。点群データ解析部12は、第1の点群データから検査対象部材の点群データである第2の点群データを抽出する。また、点群データ解析部12は、第2の点群データについて、検査対象部材の長手方向である縦方向、検査対象部材における三次元センサより照射されたビームの当たる面の面積が最大になるときのビームの照射方向と縦方向に直交する横方向、及び、縦方向と横方向に直交する奥行き方向のそれぞれにおける点群データの分布を求める。部材判別部13は、上記分布から検査対象部材の種類を判別する。
 このようにすることで、三次元センサ11を用いた、コストを抑えた簡便な検査対象部材の測定により、検査対象部材の種類を自動的に精度良く判別することができる。
[実施の形態2]
 以下、実施の形態2について説明する。
 まず、実施の形態2にかかるに係る部材判別装置の構成例について説明する。図2は、実施の形態2に係る部材判別装置110の構成を示すブロック図である。図2に示すように、部材判別装置110は、三次元センサ111と、点群データ解析部112と、部材判別部113と、を備えている。
 三次元センサ111は、少なくとも光の振幅情報をもとに距離を測ることができるもので、一以上の検査対象部材に対してビームを照射して第1の点群データを取得する。三次元センサ111は、例えば3D-LiDAR(Light Detection and Ranging)センサである。
 ここで、検査対象部材は、異形棒鋼と呼ばれる(異形鉄筋とも呼ばれる)鉄筋である。図3は、異形棒鋼の外形を示す模式図である。図3に示すように、異形棒鋼には表面に「リブ」や「節」と呼ばれる凹凸の突起が設けられている。異形棒鋼は径に応じて“D10”、“D13”、“D16”、“D19”のような規格名が定められている。規格名に示される数字は、例えば、D10の直径が9.53mm、D13の直径が12.7mmと、異形棒鋼のおおよその直径を示している。すなわち、異形棒鋼の直径は2~3mmごとに規格化されている。
 再び図2を参照し、点群データ解析部112は、第1の点群データから検査対象部材の点群データである第2の点群データを抽出する。また、点群データ解析部112は、第2の点群データについて、検査対象部材の縦方向、横方向及び奥行き方向のそれぞれにおける点群データの分布を求める。ここでの分布は分散である。検査対象部材の縦方向、横方向及び奥行き方向の定義については後述する。部材判別部113は、点群データ解析部112が求めた、検査対象部材の縦方向、横方向及び奥行き方向のそれぞれにおける点群データの分布から検査対象部材の種類を判別する。
 図4は、検査対象部材の方向の定義について説明する模式図である。図4に示すように、基準の三次元直交座標系は、三次元センサ111の位置を原点とし、第1軸としてのx軸、第2軸としてのy軸、第3軸としてのz軸からなる。基準の三次元直交座標系は、例えば、第3軸としてのz軸が鉛直方向、第1軸としてのx軸と第2軸としてのy軸を含む平面が水平になるように設定される。
 基準の三次元直交座標系は、三次元センサ111の位置を原点とする基準の三次元極座標系に変換することができる。検査対象部材において三次元センサ111から照射されたビームが当たった箇所の代表点である点Pは、三次元直交座標系で(x、y、z)、三次元極座標系で(d、φ、θ)と表されるとする。ここで、dは、原点から点Pまでの距離、すなわち動径である。φは、x軸とxy平面への動径ベクトル(原点から点Pに向かうベクトル)の射影がなす角度である。θはxy平面と動径ベクトルがなす角度である。x=d・cosθ・cosφ、x=d・cosθ・sinφ、z=d・sinθの関係が成り立つ。なお、ビームが検査対象部材に当たった箇所の代表点は、ビームの光軸上にあるものとする。
 縦方向は、検査対象部材の長手方向である。横方向は、検査対象部材における三次元センサ111より照射されたビームの当たる面の面積が最大になるときのビームの照射方向と縦方向に直交する方向である。ビームの照射方向とはビームの光軸の方向である。奥行き方向は、縦方向と横方向に直交する方向である。三次元直交座標系(x、y、z)において、縦方向はz軸に平行な方向である。三次元直交座標系(x、y、z)において、横方向は、三次元センサ111より照射されたビームのxy平面への射影の方向ベクトルe1とxy平面上で直交する方向ベクトルe2に平行な方向である。なお、三次元センサ111より照射されたビームが検査対象部材に当たった点を点Pとすると、三次元センサ111より照射されたビームのxy平面への射影がx軸となす角度が角度φに相当する。
 次に、図2に示す部材判別部113において検査対象部材の種類を判別する処理の流れについて説明する。なお、以下の説明では図2についても適宜参照する。
 図5は、部材判別装置110において、検査対象部材の種類を判別する処理の流れについて説明するフローチャートである。図5に示すように、まず、三次元センサ111が一以上の検査対象部材に対してビームを照射して第1の点群データを取得する(ステップS101)すなわち、三次元センサ111が、建築現場に配置された鉄筋群にビームを照射して第1の点群データを取得する。
 ステップS102に続いて、点群データ解析部112が、第1の点群データから、検査対象部材ごとの点群データである第2の点群データを抽出する。(ステップS102)。すなわち、第1の点群データから、個々の鉄筋の点群データである第2の点群データを抽出する。続いて、点群データ解析部112が、各検査対象部材の第2の点群データに対して、縦方向、横方向及び奥行き方向の分布を解析する(ステップS103)。なお、第2の点群データは検査対象部材の形状を近似的に表すものなので、第2の点群データの縦方向、横方向及び奥行き方向は、図4を参照して説明した、検査対象部材の縦方向、横方向及び奥行き方向に一致する。ステップS103に続いて、部材判別部113が、縦方向、横方向及び奥行き方向の分布の解析結果から検査対象部材の種類を判別する(ステップ104)。
 図5のステップS102における、第2の点群データを抽出は、第1の点群データをクラスタリングにより領域分割することにより行う。クラスタリングのアルゴリズムとしては、汎用的なもの、例えば、ユークリッドクラスタリング(Euclidean Clustering)や、領域拡張法(Region Growing)を用いることができる。ユークリッドクラスタリングは、点間のユークリッド距離が閾値以下であれば同じクラスタ、閾値より大きければ別のクラスタとするアルゴリズムである。ユークリッドクラスタリングでは、点間のユークリッド距離の閾値を予め決めておく必要がある。また、領域拡張法は、ある点が周囲との点と構成する面の向きが閾値以内の点を同じクラスタ、閾値より大きければ別のクラスタとするアルゴリズムである。領域拡張法では、面の向きの閾値を予め決めておく必要があると共に、周囲の点をどこまで(何個まで)含めて面の向きを算出するかについて予め決めておく必要がある。
 図6は、第1の点群データから、各検査対象部材の点群データである第2の点群データを抽出する方法について説明する模式図である。図6に示すように、第1の点群データにおいて、ビームの影になり点群データが採れない領域が生じている。このような第1の点群データを、点間の距離、または面の向きでクラスタリングする。例えば、第1の点群データは、ビームの影になり点群データが採れない領域において点間の距離が離れているので、点間の距離により、クラスタ1、クラスタ2及びクラスタ3に領域分割される。クラスタ2とクラスタ3の2つのクラスタは、点間の距離が離れているが、面の向きが同じであるので同一の鉄筋であると考えられる。よって、クラスタ2とクラスタ3は、面の向きに基づいて、すなわち、中心軸の座標や奥行き方向と水平方向の座標の平均等に基づいて1つのクラスタに統合する。つまり、クラスタ2とクラスタ3を統合したクラスタを第2の点群データとする。また、クラスタ1は、クラスタ2とクラスタ3と面の向きが異なるので、単独で第2の点群データとする。このようにして、検査対象部材ごとの点群データである第2の点群データが抽出される。
 図7は、図5のステップS103において、各検査対象部材の第2の点群データにおける縦方向、横方向及び奥行き方向の分布を求める方法について説明する模式図である。図5に示すように、第2の点群データにおける横方向がxz平面(第1軸と第3軸を含む平面)に平行になるように、x軸(第1軸)とxy平面(第1軸と第2軸を含む平面)への動径ベクトルの射影がなす角度φ(図3参照)に基づいて、第2の点群データと横方向及び奥行き方向とを回転変換する。そして、回転変換後に第2の点群データにおける縦方向、横方向及び前記奥行き方向のそれぞれにおける分散を求める。
 図8は、各検査対象部材の第2の点群データにおける縦方向、横方向及び奥行き方向の分布としての分散を求める処理の流れを示すフローチャートである。図8に示すように、第2の点群データの長手方向が、xy平面(第1軸と第2軸を含む平面)に平行な方向か、z軸(第3軸)に平行な方向か、を判定する(ステップS201)。ステップS201において、第2の点群データの長手方向がz軸に平行な方向であると判定された場合、第2の点群データの横方向がxz平面(第1軸と第3軸を含む平面)に平行になるように、角度φに基づいて第2の点群データを回転変換する(ステップS202)。そして、回転変換後、第2の点群データの横方向における分散を計算する(ステップS203)。ステップS201において、第2の点群データの長手方向がxy平面と平行な方向であると判定された場合には、そのままの第2の点群データの横方向における分散を計算する(ステップS204)。
 上述の方法により、第2の点群データの長手方向がz軸に平行な方向である場合に、第2の点群データの縦方向、横方向及び奥行き方向の分布としての分散を求めることが可能になる。
 図5のステップS103において、各検査対象部材の第2の点群データにおける縦方向、横方向及び奥行き方向の分布を求める方法として、主成分分析(PCA:Principle Component Analysis)の手法を適用することもできる。主成分分析の手法では、主成分(固有ベクトル)の固有値が分散である。主成分分析の手法では、固有値が大きいから順に第1主成分、第2主成分、・・・と呼ぶ。第2の点群データの場合、3つのパラメータ(x、y、z)から成るため、第3主成分まで得られる。
 主成分分析の手法では、得られた3個の主成分が、それぞれ、縦方向、横方向、奥行き方向のどれに対応するかを別途判別する必要がある。図9及び図10は、主成分分析の手法において、得られた3個の主成分が、それぞれ、縦方向、横方向、奥行き方向のどれに対応するかを判別する方法について説明する模式図である。図9に示すように、第2の点群データにおいて、縦方向の分散が最大になる。また、三次元センサ111と対向する面にのみ点群データが存在するため、横方向の分散の方が奥行き方向の分散よりも大きくなる。よって、図10に示すように、得られた主成分のうちで、固有値が最大になる第1主成分が縦方向、固有値が2番目に大きくなる第2主成分が横方向であると判定することができる。
 図11は、主成分分析の手法により第2の点群データの縦方向、横方向及び奥行き方向の分散を求める処理の流れを示すフローチャートである。図11に示すように、第2の点群データに主成分分析(PCA)の手法を実行し、3つの主成分の固有値を算出する(ステップS301)。続いて、主成分分析の手法により得られた主成分の固有値のうち最大のものを縦方向の分散と判定する(ステップS302)。続いて、主成分分析の手法により得られた主成分の固有値のうち2番目に大きいものを横方向の分散と判定する(ステップS303)。続いて、3つの主成分の固有値のうち最小のものを奥行き方向の分散と判定する(ステップS304)。
 主成分分析の手法では、検査対象部材としての検査対象部材の長手方向がどの方向であっても第2の点群データを回転変換する必要がない。つまり、主成分分析の手法を用いることで、検査対象部材としての鉄筋の長手方向が、水平方向でも、鉛直方向でもない斜めの方向に配筋された鉄筋であっても、容易に第2の点群データの各方向における分布を求めることが可能である。
 検査対象部材としての鉄筋の横方向の分散に相当する第2主成分の固有値は、検査対象部材としての鉄筋の直径と相関がある。図12は、検査対象部材である鉄筋における、直径と第2主成分の固有値との関係を示すグラフである。ここで、横軸は鉄筋の直径[mm]、縦軸は第2主成分の固有値[m]である。図12に示すように、鉄筋の直径に応じて第2主成分の固有値の範囲に明確な差が見られる。このため、図5のステップ104において、部材判別部113は、検査対象部材としての鉄筋(D10、D13、D16、D19)の第2の点群データをPCAの手法により解析して得られた第2主成分の範囲によって鉄筋の種類を判別することができる。図12において、閾値P1は、D10とD13を判別するための閾値である。閾値P2は、D13とD16を判別するための閾値である。閾値P3は、D16とD19を判別するための閾値である。つまり、第2主成分が、閾値P1未満の範囲であれば鉄筋はD10、閾値P1以上閾値P2未満の範囲であれば鉄筋はD13、閾値P2以上閾値P3未満の範囲であれば鉄筋はD16、閾値P3以上の範囲であれば鉄筋はD19であると判定することができる。
 次に、検査対象部材としての鉄筋の横方向における分散の誤差について説明する。
 図13は、検査対象部材としての鉄筋の横方向における分散の誤差について説明する模式図である。図13に示すように、三次元センサ111から照射されたビームの直径は、三次元センサ111からの距離が長くなるほど大きくなる。三次元センサ111では、ビームの一部が鉄筋に当たった場合であっても点群データの点が取得される可能性がある。点群データとして取得される点の座標はビームの中心の座標になるので、三次元センサ111から、遠くに位置する鉄筋の方が、近くに位置する鉄筋に対して、第2の点群データにおける横方向の分散の誤差が大きくなる。このように、鉄筋の横方向の分散は、鉄筋と三次元センサ111との距離の影響を受ける。よって、図12を用いて説明した、鉄筋を判別するための第2主成分の範囲の閾値は、鉄筋の三次元センサ111からの距離に応じて変更する必要がある。
 次に、検査対象部材としての鉄筋の奥行き方向における分散の誤差について説明する。
 図14は、検査対象部材としての鉄筋の奥行き方向における分散の誤差について説明する模式図である。図14に示すように、三次元センサ111の照射したビームが鉄筋に入射する角度(入射角λ)が大きいとビームが鉄筋の表面で全反射する。このため、鉄筋の表面で全反射したビームが周囲の物体に当たり、その反射光が三次元センサ111に戻ってくる場合がある。このような場合、鉄筋の横方向の両端において奥行き方向に延びた点群が得られる。なお、鉄筋の表面で全反射したビームが、当該鉄筋からかなり離れたところに位置する物体に当たってその反射光が三次元センサ111に戻ってくる場合、前述したクラスタリングにより、当該点は別の領域と判定されるので問題は無い。
 図15は、検査対象部材としての鉄筋の奥行き方向における分散の誤差を削減する手法について説明する模式図である。図15は、三次元センサ111から鉄筋までの距離に対する鉄筋の縦方向における点の出現頻度を表す度数分布グラフである。ここで、横軸は三次元センサ111から鉄筋までの距離、縦軸は鉄筋の縦方向における点の出現頻度である。図15に示すように、度数分布グラフの区間が、最頻値の区間を基準とする所定範囲を外れている区間にある点のデータを第2の点群データより削除する。ここで、所定範囲は三次元センサ111の測定誤差に基づいて設定する。
 図16は、検査対象部材としての鉄筋の奥行き方向における分散の誤差を削減する別の手法について説明する模式図である。図16に示すように、まず、図7を参照して説明した方法で第2の点群データである鉄筋の点群データを横方向がxz平面に平行になるように回転変換する。そして、回転変換後の第2の点群データにおいて、x軸の座標が最小となる点群t1と最大となる点群t2を削除する。
 図17は、三次元センサ111が、自動運転向け3D-LiDARセンサで主流となっているToF(Time of Flight)方式のものである場合に奥行き方向に生じる誤差について説明する模式図である。図17に示すように、三次元センサ111が、自動運転向け3D-LiDARセンサで主流となっているToF方式のものである場合、一般的に、奥行き方向の測定値に鉄筋の直径以上の測定誤差(cmオーダ)が生じる。このため、奥行き方向の座標は、誤差の分だけ前後にずれる。第2の点群データの奥行き方向の分布において、この誤差についての補正を行っても良い。
 次に、図2に示す部材判別部113の処理の詳細について説明する。
 図18は、部材判別部113の構成について示すブロック図である。図17に示すように、部材判別部113は、機能ブロックとして、情報保持部113aと、比較部113bと、を含む。
 情報保持部113aは、検査対象部材の種類ごとに、検査対象部材の種類に関する情報を保持する。また、情報保持部113aは、三次元センサ111から検査対象部材までの距離と第2の点群データの縦方向、横方向及び奥行き方向のうちの判別に用いる方向である判別方向における分散が取り得る値の範囲との関係についての情報を含む参照情報を保持する。情報保持部113aには、第2の点群データの各方向における分散が入力される。なお、情報保持部113aは、第2の点群データの分散を主成分分析によって算出する場合、どの主成分によって判別するかを示す情報を保持していても良い。
 比較部113bは、参照情報、三次元センサ111から検査対象部材までの距離、及び、第2の点群データの判別方向における分散に基づいて検査対象部材の種類を判別し、判別した検査対象部材の種類に関する情報を出力する。なお、三次元センサ111から検査対象部材までの距離は、点群データ解析部112において第2の点群データに基づいて求められ、比較部113bに入力される。
 図19は、情報保持部113a(図18参照)に保持されている参照情報の一例を示す模式図である。図19に示すように、参照情報は例えばテーブルである。参照情報としてのテーブルには、三次元センサ111から検査対象部材としての鉄筋までの距離が1mから10mまで所定の間隔で、検査対象の鉄筋の各種類(ここでは、規格名D10、D13、D16、D19)について、判定方向における分散vの範囲が示されている。ここで、判定方向は第2の点群データの横方向である。また、所定の間隔は、三次元センサ111の仕様や検査対象部材の種類などに応じて、例えば1m間隔、5m間隔と適宜設定する。例えば、三次元センサ111から鉄筋までの距離が1mで、当該鉄筋の第2の点群データの判別方向における分散vが3.0E-06mであるとする。参照情報において、当該鉄筋の第2の点群データの判別方向における分散vは、三次元センサ111から鉄筋までの距離が1mで、1.8E-06m≦v<5.8E-06mの範囲に入る。よって、比較部113b(図18参照)は、当該鉄筋が“D13”であると判別する。
[変形例1]
 図20は、部材判別部113の変形例1に係る構成、すなわち、図18に示す構成とは別の構成について示すブロック図である。図20に示すように、部材判別部113は、機能ブロックとして、シミュレーション部213aと、比較部213bと、を含む。
 シミュレーション部213aには、第2の点群データにおける三次元センサ111と点群までの距離が入力される。シミュレーション部213aは、検査対象部材の各種類について、三次元センサ111から検査対象部材までの距離、三次元センサ111の仕様に関する情報、及び、検査対象部材の形状に関する情報に基づいて、測定により得られると想定される点群データである第3の点群データをそれぞれ生成する。そして、シミュレーション部213aは、生成した第3の点群データについて横方向における分散を求める。
 比較部213bには、第2の点群データの各方向における分散が入力される。比較部213bは、第2の点群データの横方向における分散と、第2の点群データに基づいて求めた三次元センサ111から検査対象部材までの距離に対応する検査対象部材の各種類の第3の点群データの横方向における分散と、の比較を行う。そして、比較部213bは、第2の点群データの分散との差が最も小さくなる第3の点群データに対応する検査対象部材の種類に関する情報を出力する。
 図21は、シミュレーション部213a(図20参照)において、第3の点群データを生成する方法について示す模式図である。図21に示すように、検査対象部材を描いたCAD図面を構成するポリゴン毎に三次元センサ111から照射されたビームとの交点がポリゴンの範囲内に存在するかどうかを判定する。そして、ビームとの交点がポリゴンの範囲内であると判定されたときには、当該交点を第3の点群データに含まれる点とする。このように、シミュレーション部213aでは、ビームの照射方向を3D-LiDARの仕様に合わせて変化させることで、検査対象部材を仮想的にスキャンし、第3の点群データを生成する。
 図22は、シミュレーション部213a(図20参照)において、第3の点群データを生成する、図21を参照して説明した方法とは別の方法について示す模式図である。図22に示すように、検査対象部材を方程式で表現できるようなシンプルな形状に近似して、当該形状と三次元センサ111から照射されたビームの交点を点群データとして保存する。
 例えば、検査対象部材が鉄筋である場合、検査対象部材の形状は円筒であると近似することができる。よって、検査対象部材の方程式を、下記の円筒の方程式によって近似する。
円筒の方程式:(x-a)+(y-b)=1、m≦z≦n
ここで、(a、b)は、図4を参照して説明した三次元直交座標系における、検査対象部材の円筒の中心座標である。mは検査対象部材の円筒の底面のz座標、nは検査対象部材の円筒の上面のz座標である。
 検査対象部材において三次元センサ111から照射されたビームが当たった点である点P(図4参照)は、上述したように、x=d・cosθ・cosφ、x=d・cosθ・sinφ、z=d・sinθと表される。これを検査対象部材の方程式に代入すると、dについての2次方程式になる。この2次方程式に解が存在すれば、点Pの座標(x、y、z)を求めることができる。なお、三次元センサ111の照射したビームと検査対象部材との交点が2つになる場合、上述の2次方程式の解が2つ存在する。この場合、三次元センサ111に近い側の交点が検査対象部材の表面にビームが当たった箇所の点(点P)となり、三次元センサ111に遠い側の交点がビームの影になる点となるため、2次方程式の2つの解のうち小さい方の値をdとする。
 図20に示すシミュレーション部213aは、検査対象部材の各種類について、シミュレーションを複数回実行し、推定される点群データである第3の点群データをそれぞれ複数回生成するようにしてもよい。このようにする場合、シミュレーション部213aは、生成した第3の点群データについて横方向における分散を求め、検査対象部材の各種類における第3の点群データについて横方向における分散のばらつきの範囲を求める。比較部213bは、第2の点群データに基づいて求めた三次元センサ111から検査対象部材までの距離に対応する検査対象部材の各種類の第3の点群データのばらつきの範囲を参照する。そして、比較部213bは、第2の点群データの横方向における分散がばらつきの範囲に含まれる第3の点群データに対応する検査対象部材の種類に関する情報を出力する。
 次に、三次元センサ111から鉄筋までの距離が5m、10mの場合について、シミュレーション部213aが、異なる種類の検査対象部材に複数回シミュレーションを行った結果について説明する。
 シミュレーションの諸条件は以下の通りである。
1)検査対象部材は4種類の鉄筋(D10、D13、D16、D19)とする。
2)三次元センサ111は、以下の仕様の3D-LiDARセンサとする。
 水平方向角度分解能:0.011°
 垂直方向角度分解能:0.1°
 0m地点でのビーム径:9.5mm
 ビーム広がり角:3.0mrad
 測距誤差:±3cm(1σ、測距誤差は平均0、標準偏差3cmの正規分布に従って生ずるものとする)
3)照射されたビームの一部でも鉄筋に当たれば、ビームが鉄筋に当たったものとする。
4)鉄筋からの反射光は、ビームが当たった面積に応じて確率的に3D-LiDARに戻るものとする。具体的には、ビーム径に対する当たった面積の比率(当たった面積/ビーム径)が0.0~1.0の間で生成した乱数値以上であれば反射光が3D-LiDARに戻るとものする。
5)鉄筋の形状は円筒であるとする。
6)検査対象部材である4種類の鉄筋について、それぞれ1000回シミュレーションを実行する。
 図23は、三次元センサ111から鉄筋までの距離を5mとしてシミュレーションを実行することにより得られた横方向の分散をプロットしたグラフである。グラフにおいて、横軸は鉄筋の直径[mm]、縦軸は鉄筋の横方向の分散[m]である。図23に示すように、4種類の鉄筋において、それぞれ、複数回シミュレーションを実行して得られた分散にはばらつきがある。D10、D13、D16、D19における分散のばらつきの範囲は、それぞれ異なる。よって、三次元センサ111による鉄筋の測定により得られた第2の点群データの横方向における分散が、シミュレーションで得られた、D10、D13、D16、D19の分散のばらつきの範囲のどこに含まれるか、によって測定した鉄筋の種類を判別できる。
 図24は、三次元センサ111から鉄筋までの距離を10mとしてシミュレーションを実行することにより得られた分散をプロットしたグラフである。グラフにおいて、横軸は鉄筋の直径[mm]、縦軸は鉄筋の横方向の分散[m]である。図24に示すように、第2の点群データの横方向における分散のばらつきの範囲が、D10とD13では領域r1で、D13とD16では領域r2で、D16とD19では領域r3で、重なっている。つまり、三次元センサ111による実測で得られた第2の点群データの横方向における分散が、領域r1、r2、r3のいずれかに含まれてしまう可能性がある。このため、三次元センサ111から鉄筋までの距離が10mである場合、三次元センサ111による鉄筋の測定を複数回行って、それらの測定により得られた、第2の点群データの横方向における分散のばらつきから、測定した鉄筋の種類を判別するようにする。
 以上のように、本実施の形態に係る部材判別装置110は、三次元センサ111により取得された検査対象部材の点群データである第2の点群データの各方向における分布を利用して、検査対象部材の種類を自動的に識別する。第2の点群データの各方向における分布を利用することで、三次元センサ111が、検査対象部材の正確な寸法を測ることができない、低コストなものであっても検査対象部材の種類の判別を可能とする。ここでいう低コストな三次元センサ111は、すなわち、センチメートルオーダーの判別精度のものである。また、検査対象部材の種類を自動的に識別可能にすることで、例えば検査対象部材が鉄筋である場合に、配筋検査の作業負荷を軽減することができる。
 なお、上述した実施の形態に係る部材判別装置を適用することが可能な検査対象部材は、鉄筋に限らず、鉄筋のように形状が類似し直径などに差がある部材全般が含まれる。
 上述の実施の形態では、本発明をハードウェアの構成として説明したが、本発明は、これに限定されるものではない。本発明は、各処理を、CPU(Central Processing Unit)にプログラムを実行させることにより実現することも可能である。
 上述の処理を実現するためのプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory)を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 以上、実施の形態を参照して本願発明を説明したが、本願発明は上記によって限定されるものではない。本願発明の構成や詳細には、発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
10、110 部材判別装置
11、111 三次元センサ
12、112 点群データ解析部
13、113 部材判別部
113a 情報保持部
113b、213b 比較部
213a シミュレーション部

Claims (11)

  1.  一以上の検査対象部材に対してビームを照射し、少なくとも光の振幅情報に基づいて第1の点群データを取得する三次元センサと、
     前記第1の点群データから検査対象部材の点群データである第2の点群データを抽出し、前記第2の点群データについて、検査対象部材の長手方向である縦方向、検査対象部材における前記三次元センサより照射されたビームの当たる面の面積が最大になるときのビームの照射方向と前記縦方向に直交する横方向、及び、前記縦方向と前記横方向に直交する奥行き方向のそれぞれにおける点群データの分布を求める点群データ解析部と、
     前記分布から検査対象部材の種類を判別する部材判別部と、を備える部材判別装置。
  2.  前記分布は分散である、請求項1に記載の部材判別装置。
  3.  前記点群データ解析部は、第1軸、第2軸及び第3軸からなり前記縦方向が第3軸に平行で前記横方向が前記第1軸と前記第2軸を含む平面にあるように設定された基準の三次元直交座標系において、前記横方向が前記第1軸と前記第3軸を含む平面に平行になるように、ビームの照射方向を前記第1軸と前記第2軸を含む平面へ射影した方向と前記第1軸とのなす角に基づいて、前記第2の点群データと前記横方向及び前記奥行き方向とを回転変換し、回転変換後に前記第2の点群データにおける前記縦方向、前記横方向及び前記奥行き方向のそれぞれにおける分散を求める、請求項2に記載の部材判別装置。
  4.  前記点群データ解析部は、前記第2の点群データの前記縦方向、前記横方向及び前記奥行き方向のそれぞれにおける分散を主成分分析の手法により求める、請求項2に記載の部材判別装置。
  5.  前記点群データ解析部は、前記第2の点群データに基づいて前記三次元センサから検査対象部材までの距離を求め、
     前記部材判別部は、
     検査対象部材の種類ごとに、検査対象部材の種類に関する情報、及び、前記三次元センサから検査対象部材までの距離と前記第2の点群データの前記縦方向、前記横方向及び前記奥行き方向のうちの判別に用いる方向である判別方向における分散が取り得る値の範囲との関係についての情報を含む参照情報を保持する情報保持部と、
     前記参照情報、前記三次元センサから検査対象部材までの距離、及び、前記第2の点群データの前記判別方向における分散に基づいて検査対象部材の種類を判別し、判別した検査対象部材の種類に関する情報を出力する比較部と、
     を含む、請求項2から4のいずれか一項に記載の部材判別装置。
  6.  前記部材判別部は、
     検査対象部材の各種類について、前記三次元センサから検査対象部材までの距離、前記三次元センサの仕様に関する情報、及び、検査対象部材の形状に関する情報に基づいて、推定される点群データである第3の点群データをそれぞれ生成し、生成した第3の点群データについて前記横方向における分散を求めるシミュレーション部と、
     前記第2の点群データの前記横方向における分散と、前記第2の点群データに基づいて求めた前記三次元センサから検査対象部材までの距離に対応する検査対象部材の各種類の第3の点群データの前記横方向における分散と、の比較を行い、前記第2の点群データの分散との差が最も小さくなる第3の点群データに対応する検査対象部材の種類に関する情報を出力する比較部と、
     を含む、請求項2から4のいずれか一項に記載の部材判別装置。
  7.  前記部材判別部は、
     検査対象部材の各種類について、前記三次元センサから検査対象部材までの距離、前記三次元センサの仕様に関する情報、及び、検査対象部材の形状に関する情報に基づいて、推定される点群データである第3の点群データをそれぞれ複数回生成し、生成した第3の点群データについて前記横方向における分散を求め、検査対象部材の各種類における前記第3の点群データについて前記横方向における分散のばらつきの範囲を求めるシミュレーション部と、
     前記第2の点群データに基づいて求めた前記三次元センサから検査対象部材までの距離に対応する検査対象部材の各種類の前記第3の点群データのばらつきの範囲を参照し、前記第2の点群データの前記横方向における分散が前記ばらつきの範囲に含まれる第3の点群データに対応する検査対象部材の種類に関する情報を出力する比較部と、
     を含む、請求項2から4のいずれか一項に記載の部材判別装置。
  8.  前記情報保持部は、前記第2の点群データの前記縦方向、前記横方向及び前記奥行き方向のうちのいずれが前記判別方向であるかに関する情報を保持する、請求項5に記載の部材判別装置。
  9.  検査対象部材は異形棒鋼である、請求項1から8のいずれか一項に記載の部材判別装置。
  10.  少なくとも光の振幅情報に基づいて点群データを取得することができる三次元センサにより一以上の検査対象部材に対してビームを照射して第1の点群データを取得する第1のステップと、
     前記第1の点群データから検査対象部材の点群データである第2の点群データを抽出し、前記第2の点群データについて、検査対象部材の長手方向である縦方向、検査対象部材における前記三次元センサより照射されたビームの当たる面の面積が最大になるときのビームの照射方向と前記縦方向に直交する横方向、及び、前記縦方向と前記横方向に直交する奥行き方向のそれぞれにおける点群データの分布を求める第2のステップと、
     前記分布から検査対象部材の種類を判別する第3のステップと、を有する部材判別方法。
  11.  少なくとも光の振幅情報に基づいて点群データを取得することができる三次元センサにより一以上の検査対象部材に対してビームを照射して第1の点群データを取得する第1のステップと、
     前記第1の点群データから検査対象部材の点群データである第2の点群データを抽出し、前記第2の点群データについて、検査対象部材の長手方向である縦方向、検査対象部材における前記三次元センサより照射されたビームの当たる面の面積が最大になるときのビームの照射方向と前記縦方向に直交する横方向、及び、前記縦方向と前記横方向に直交する奥行き方向のそれぞれにおける点群データの分布を求める第2のステップと、
     前記分布から検査対象部材の種類を判別する第3のステップと、をコンピュータに実行させるプログラムが格納された非一時的なコンピュータ可読媒体。
PCT/JP2019/020598 2019-05-24 2019-05-24 部材判別装置、部材判別方法及びコンピュータ可読媒体 WO2020240609A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
PCT/JP2019/020598 WO2020240609A1 (ja) 2019-05-24 2019-05-24 部材判別装置、部材判別方法及びコンピュータ可読媒体
US17/610,748 US20220236050A1 (en) 2019-05-24 2019-05-24 Member distinguish apparatus, member distinguish method, and computer-readable medium
JP2021523138A JP7156522B2 (ja) 2019-05-24 2019-05-24 部材判別装置、部材判別方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/020598 WO2020240609A1 (ja) 2019-05-24 2019-05-24 部材判別装置、部材判別方法及びコンピュータ可読媒体

Publications (1)

Publication Number Publication Date
WO2020240609A1 true WO2020240609A1 (ja) 2020-12-03

Family

ID=73552742

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/020598 WO2020240609A1 (ja) 2019-05-24 2019-05-24 部材判別装置、部材判別方法及びコンピュータ可読媒体

Country Status (3)

Country Link
US (1) US20220236050A1 (ja)
JP (1) JP7156522B2 (ja)
WO (1) WO2020240609A1 (ja)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005331285A (ja) * 2004-05-18 2005-12-02 Toyota Motor Corp 画像処理方法及び画像処理装置
JP2010014693A (ja) * 2008-06-03 2010-01-21 Shimizu Corp 配筋検査装置および配筋検査方法
JP2014153336A (ja) * 2013-02-13 2014-08-25 Nippon Telegr & Teleph Corp <Ntt> 点群解析処理装置及び点群解析処理プログラム
JP2016206026A (ja) * 2015-04-23 2016-12-08 株式会社デンソー 物体認識装置
US20180144496A1 (en) * 2015-04-24 2018-05-24 Oxford University Innovation Limited A method of detecting objects within a 3d environment
US20180241923A1 (en) * 2015-08-26 2018-08-23 Zhejiang Dahua Technology Co., Ltd. Methods and systems for traffic monitoring

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005331285A (ja) * 2004-05-18 2005-12-02 Toyota Motor Corp 画像処理方法及び画像処理装置
JP2010014693A (ja) * 2008-06-03 2010-01-21 Shimizu Corp 配筋検査装置および配筋検査方法
JP2014153336A (ja) * 2013-02-13 2014-08-25 Nippon Telegr & Teleph Corp <Ntt> 点群解析処理装置及び点群解析処理プログラム
JP2016206026A (ja) * 2015-04-23 2016-12-08 株式会社デンソー 物体認識装置
US20180144496A1 (en) * 2015-04-24 2018-05-24 Oxford University Innovation Limited A method of detecting objects within a 3d environment
US20180241923A1 (en) * 2015-08-26 2018-08-23 Zhejiang Dahua Technology Co., Ltd. Methods and systems for traffic monitoring

Also Published As

Publication number Publication date
JPWO2020240609A1 (ja) 2020-12-03
US20220236050A1 (en) 2022-07-28
JP7156522B2 (ja) 2022-10-19

Similar Documents

Publication Publication Date Title
US7433797B2 (en) Method for verifying scan precision of a laser measurement machine
CN110018491B (zh) 激光扫描方法、装置及激光雷达
KR101089638B1 (ko) 교차 검사 가속을 위한 광선 추적 장치 및 방법 및 이를 이용한 렌더링 장치 및 방법
JP2004272459A (ja) 三次元形状の自動生成装置、自動生成方法、そのプログラム、及びそのプログラムを記録した記録媒体
WO2020240609A1 (ja) 部材判別装置、部材判別方法及びコンピュータ可読媒体
CN110726534B (zh) 一种视觉装置视场范围测试方法及装置
CN111598941A (zh) 一种杆塔倾斜度测量方法、装置、设备及存储介质
JP2018151315A (ja) レーザ式測距装置のノイズデータの特定方法
WO2023027068A1 (ja) 溶接検査方法、溶接検査システム、溶接検査プログラム
WO2021019616A1 (ja) 検査装置、測定方法及びコンピュータ可読媒体
US20220260500A1 (en) Inspection support apparatus, inspection support method, and computer-readable medium
CN112017290B (zh) 一种圆锥面拟合方法、装置、计算机设备和存储介质
CN114170160A (zh) 一种基于几何模型的钢筋分类扫描规划方法
CN109752730B (zh) 一种基于v槽检测的激光定位方法及系统
CN111007067A (zh) 岩体结构面自动识别方法及系统
Smítka et al. 3D scanner point cloud denoising by near points surface fitting
WO2023058113A1 (ja) 解析装置、解析方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
KR20180046909A (ko) 3차원 데이터 처리 방법
WO2024023900A1 (ja) 抽出装置、抽出方法、及び抽出プログラム
WO2020049682A1 (ja) 検知装置、判定方法、及びプログラムが格納された非一時的なコンピュータ可読媒体
WO2024023950A1 (ja) 線状物検出装置、線状物検出方法、及び線状物検出プログラム
JP7417750B2 (ja) 固体lidar装置の較正
JP7375944B2 (ja) 処理装置、異常検知システム、異常検知方法、及びプログラム
KR102275671B1 (ko) 객체 형태 검출 장치 및 방법
WO2024023949A1 (ja) 線状物検出装置、線状物検出方法、及び線状物検出プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19931114

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021523138

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19931114

Country of ref document: EP

Kind code of ref document: A1