WO2006098258A1 - 3次元計測のためのキャリブレーション方法およびその方法を用いた3次元計測システム - Google Patents

3次元計測のためのキャリブレーション方法およびその方法を用いた3次元計測システム Download PDF

Info

Publication number
WO2006098258A1
WO2006098258A1 PCT/JP2006/304861 JP2006304861W WO2006098258A1 WO 2006098258 A1 WO2006098258 A1 WO 2006098258A1 JP 2006304861 W JP2006304861 W JP 2006304861W WO 2006098258 A1 WO2006098258 A1 WO 2006098258A1
Authority
WO
WIPO (PCT)
Prior art keywords
calibration
plane
imaging device
measurement
pattern
Prior art date
Application number
PCT/JP2006/304861
Other languages
English (en)
French (fr)
Inventor
Yasuyuki Ikeda
Shiro Fujieda
Original Assignee
Omron Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corporation filed Critical Omron Corporation
Publication of WO2006098258A1 publication Critical patent/WO2006098258A1/ja

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/02Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness
    • G01B21/04Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring length, width, or thickness by measuring coordinates of points
    • G01B21/042Calibration or calibration artifacts

Definitions

  • the present invention uses the two-dimensional calibration pattern capable of extracting a plurality of feature points whose relative positional relationships are known prior to the three-dimensional measurement process using a plurality of imaging devices.
  • the present invention relates to a method for performing calibration for measurement.
  • the present invention also relates to a three-dimensional measurement system to which the calibration method is applied.
  • a representative example of the calibration method is a method using a three-dimensional calibration work.
  • the positioned calibration work is imaged by each imaging device, the feature points are extracted for each image obtained from each imaging device, and these coordinates are associated between the images.
  • an unknown coefficient in the equation is calculated by multiplication (see Japanese Patent Publication No. 3237414).
  • Still another method uses a flat calibration work.
  • a single planar work with a predetermined calibration pattern is used, and the image is obtained multiple times while changing the direction of the work or the distance of the image pickup device, and the image is obtained every hour. Extract feature points for each image (see paper below). Hengyou Zhang A Flexible New i, echnique for shi amera Calibration, Microsoft Research Microsoft Corporation, [Search February 24, 2005], Internet URL: http://research.Microsoft.com/ ⁇ zhang/calib/>
  • Zhang's paper uses a planar workpiece, which makes it easier to handle the workpiece. Also, since one workpiece is used, there is no risk that the feature points will be hidden by other workpieces.
  • This invention pays attention to this point, and it is an object of the present invention to simplify calibration work so that general users can easily perform accurate calibration.
  • the method according to the present invention uses a two-dimensional calibration pattern capable of extracting a plurality of feature points whose relative positional relationships are known prior to a three-dimensional measurement process using a plurality of imaging devices.
  • the calibration for the three-dimensional measurement is performed.
  • a specific one of the three or more types of calibration patterns is provided on a plane regardless of translucency, and all other calibration patterns are provided.
  • a pattern is provided on a light-transmitting plane. Each plane intersects the optical axis of each image pickup device, and the plane that does not matter the translucency when viewed from each image pickup means is the rearmost direction, and each plane is moved away from each image pickup device. Arranged in order.
  • each imaging device is driven in the arrangement state of the plane. In this case, each imaging device can be driven simultaneously. However, since it is unlikely that each plane will be moved during imaging due to the intent of performing calibration, drive each imaging device in turn.
  • the feature points are separated and extracted for each calibration pattern for the image obtained by each imaging means in the first step.
  • various feature points can be extracted for each calibration pattern by executing various methods according to the form of the calibration pattern. Specific embodiments will be described later in detail.
  • each feature point extracted in the second step is associated between images based on the relative positional relationship. That is, based on the relative positional relationship in the calibration pattern, it can be considered that feature points on the image corresponding to the same feature points in the real space are extracted and the coordinates of these points are associated.
  • reference points standard feature points (hereinafter referred to as “reference points”) defined in advance are extracted from images obtained for each imaging apparatus, and these coordinates are associated with each other.
  • reference points defined in advance are extracted from images obtained for each imaging apparatus, and these coordinates are associated with each other.
  • other feature points having the same positional relationship to the reference point for example, the direction with respect to the reference point and the order of arrangement
  • a parameter for three-dimensional measurement is calculated using the position information of each feature point associated in the third step.
  • the position information of the feature points can be considered to include both the coordinates on each image associated in the third step and the coordinates in the real space.
  • the coordinates in the real space can be obtained based on the arrangement relation of the feature points on the plane where the calibration pattern is provided and the distance to the plane at the end of the plane.
  • the parameters can be calculated by the same method as the above-mentioned Zhang paper.
  • all parameters can be obtained by calculation even if the positional relationship between the planes is not stiff. Also, do not unify the orientation of each plane.
  • the rearmost plane may have translucency similarly to the other planes.
  • the plurality of planes provided with the calibration patterns are arranged in an arbitrary order, and the calibration of all the planes is performed only by executing the imaging by each imaging device once. A feature point necessary for calculating a parameter can be extracted.
  • the calibration pattern of each plane can be visually recognized through the foreground plane, it is possible to easily confirm whether or not each calibration pattern is installed in a separable state. Therefore, the work for the calibration is simplified, and it is possible for a general user to easily perform a precise calibration.
  • the second and third methods according to the present invention use two calibration patterns, so that one of the calibration patterns is provided on a light-transmitting plane and the other calibration pattern is used. It is provided on a plane that does not require translucency.
  • each plane intersects the optical axis of each imaging unit, and the plane having the translucency seen from each imaging unit is positioned in front of the plane regardless of the translucency.
  • Each plane is arranged at a predetermined distance in the front-rear direction along the direction in which the force of each imaging device also moves away. Then, the first to fourth steps similar to the first method are executed.
  • the third method is performed in an environment in which the above two types of information are not known.
  • the two planes intersect the optical axis of each imaging unit, and the light transmission is viewed from each imaging unit.
  • the plane that has the property is positioned in front of the plane that does not require translucency, and the planes are parallel to each other. Place it back and forth along the direction. Then, the same first to fourth steps as in the first method are executed.
  • the plane located in front of each imaging device is made translucent, so that the calibration pattern on the rear plane is visually recognized via the front plane. Can. Therefore, if each calibration can be separated, such as using different calibration patterns on these planes or changing the orientation of the calibration pattern, it is possible to capture two calibration patterns simultaneously.
  • the feature points necessary for calculating the parameters are obtained by capturing an image including the calibration pattern of all planes by performing the imaging by each imaging device only once. Can be extracted. Therefore, it becomes possible to simplify the work for calibration, and even a general user can easily execute calibration with high accuracy.
  • the calibration pattern includes two or more types of parallel straight lines and the direction of these straight lines is set to be different for each plane.
  • a process of extracting a straight line corresponding to the plane for each direction and a process of extracting an intersection between the extracted lines as the feature point are executed.
  • a straight line along two directions is crossed.
  • Pattern for example, a grid pattern
  • the direction of the straight line related to each straight line group is changed for each plane by changing the formation direction of the calibration pattern for each plane, or by installing the plane where the same calibration is formed while rotating it by a predetermined angle.
  • an image projection process (specifically, a sum of density values is obtained along the direction of the straight line) along the direction of the straight line to be extracted is performed.
  • the position with the lowest density (however, the darker the image, the lower the density value).
  • the edge constituent pixels on the image may be extracted, and from the extraction result, an image region in which the edge constituent pixels having the same density gradient direction are connected may be extracted as a straight line.
  • a pattern in which a plurality of marks having different modes is arranged for each plane is used as the calibration pattern.
  • marks corresponding to the respective planes are separated and recognized, and the representative points of these marks are recognized as the feature points.
  • the shape, size, and the like of the marks arranged on each plane can be changed for each plane. Note that, in the same plane, not only one mode but also a plurality of mode marks can be arranged. However, it is assumed that it can be distinguished from marks on other planes.
  • each mark when using a mark having a different shape for each plane, in the second step, each mark can be extracted for each plane using a pattern matching process.
  • the mark corresponding to each plane can be individually recognized by measuring the area of each mark.
  • the center point or the center of gravity of the mark can be used.
  • the second step includes a process of individually extracting the color or density corresponding to each plane. For example, it is possible to extract each color and density individually using multiple binary values.
  • each has a different color for each plane and has translucency.
  • a calibration pattern can be provided. In this way, even if there is an overlap in the calibration pattern between the planes, the overlap can be identified by a specific color, so that the overlap can be identified by the common pattern of each calibration pattern. Can be processed as
  • a calibration pattern is formed on one of the two planes by a mark showing only the outline, and the other is filled with the interior.
  • a calibration pattern can be formed using the marked marks.
  • the former mark mark with outline only
  • the latter mark filled mark
  • the width of the outline of the former mark is set to be smaller than the latter mark.
  • the calibration pattern formed on each plane is a pattern having periodicity.
  • a device lacking the periodicity only at a specific position can be used.
  • a mark different from the others can be placed, or a blank area can be set without any turns.
  • a representative point such as the center of gravity can be extracted for a portion lacking periodicity, and can be used as the reference point.
  • other periodic patterns The feature point extracted by the carrier can be identified based on the positional relationship with the reference point.
  • each plane can be aligned using the part lacking periodicity as a mark, a spatial coordinate system with the origin of any plane as the origin is set, and each feature point is 3D coordinates can be specified.
  • a fourth calibration method In a fourth calibration method according to the present invention, two planes provided with a calibration pattern intersect with the optical axes of the respective imaging devices, and the planes are parallel to each other. In this way, the image pickup device forces are also arranged in order along the direction in which the force of each image pickup device is turned away at a predetermined distance. Furthermore, polarization means are provided on the front plane.
  • the arrangement state of the two planes in this method is basically the same as in the third method.
  • the difference is that a polarizing means is provided on the plane in front of the force.
  • the front plane by configuring the front plane with a polarizing medium, the direction of light acting on the rear plane can be limited to one direction.
  • light that passes through the front plane is referred to as “light corresponding to the direction of polarization”, and light that does not pass through the front plane is referred to as “light that does not correspond to the direction of polarization”.
  • Step A in the arrangement state of the plane described above, the front plane is irradiated with light corresponding to the polarization direction of the polarization means and light not corresponding to the polarization direction, and the light is irradiated sequentially.
  • Each imaging device is driven every time. That is, with this method, it is necessary to perform imaging at least twice while changing the direction of illumination.
  • step B feature points included in the calibration pattern on the front plane are extracted for each image obtained by each imaging device when light not corresponding to the polarization direction is irradiated.
  • Step C features included in the calibration pattern on the back plane using the images obtained by each imaging device when light corresponding to the direction of polarization is irradiated and the extraction results in Step B above. Extract points.
  • step D the feature points extracted in steps B and C are associated between images.
  • Step E the position information of each feature point that has been associated is used for 3D measurement. Calculate the parameters.
  • the number of times of imaging is two, but feature points can be easily extracted.
  • step B since the image processed in step B includes only the calibration pattern of the front plane, it is only necessary to perform normal feature point extraction processing.
  • step C the image obtained under illumination with light corresponding to the direction of polarization is processed. Therefore, after extracting the feature points, the feature points on the image extracted in step B are extracted. By removing the same ones, it is possible to extract the feature points included in the calibration pattern on the back plane.
  • the front plane may be a light-transmitting plane, and a polarizing plate may be provided between the planes to execute the above steps A to E.
  • the three-dimensional measurement processing system includes a plurality of imaging devices, a measurement device that performs three-dimensional measurement processing using an image obtained from each imaging device, and a feature point with a known relative positional relationship.
  • a plurality of flat workpieces provided with a two-dimensional calibration pattern capable of extracting a plurality of workpieces, and a support that supports at least two workpieces on different planes. At least one of the plurality of workpieces is made of a light-transmitting material.
  • the support tool is arranged so that each workpiece to be supported crosses the optical axis of each imaging device, and is sequentially positioned along a direction in which each imaging device force is also separated at a predetermined distance. To support.
  • each of the workpieces excluding the one supported at the position farthest from each imaging device is a workpiece made of a material having translucency, so that the first to third calibration braces described above are used.
  • the method can be carried out. Of course, all supporting positions have translucency. It can be done by setting up a work with a material.
  • the measurement device captures an image obtained by each imaging device.
  • the feature point extracting means for separating and extracting the feature points for each calibration pattern; the associating means for associating the extracted feature points between the images based on the relative positional relationship;
  • the feature point extracting means is for executing the second step, the associating means is for executing the third step, and the parameter calculating means is for executing the fourth step.
  • a program for executing the corresponding steps. It can comprise with the computer which incorporated.
  • the storage means can be set in the memory of the computer.
  • the measuring device may be provided with means corresponding to the first step, that is, means for driving each imaging device.
  • this drive means can be provided outside the measuring device.
  • the support is configured to support a pair of workpieces in a state where the workpiece surfaces are horizontal at the predetermined distance. Is done.
  • the third calibration method it is possible to execute the third calibration method if the workpiece supported above is made of a transparent material and each imaging device is arranged above the support. .
  • a support for supporting each work in a horizontal state a support having a work support surface along the horizontal direction can be considered. In this case, however, at least the upper support surface must be made of a light-transmitting material. In addition, if each work has a certain thickness, a support tool configured to support each work with an edge can be used. The lower work should be installed on the same plane as the support is installed, and the support may be installed across the work to support the upper work.
  • the support has at least a workpiece support surface for supporting an upper workpiece.
  • This work support surface is formed of a translucent material.
  • a mark for standing is formed at each position to be the reference point of a pair of workpieces.
  • a work having a calibration pattern in which the periodicity is missing only at a specific position of the force, which is a pattern having the above-described periodicity can be employed.
  • the reference points of the upper and lower workpieces can be easily aligned by referring to the respective alignment marks. Therefore, it is possible to set a spatial coordinate system with one of the reference points as the origin, and to specify the positions of both workpieces using the coordinates of the coordinate system. In addition, it is desirable to make the alignment mark easy to identify the reference point, such as thumbprint or X mark. Or it can be done by using the intersection of two straight lines as an alignment mark.
  • At least the upper work of the pair of works is formed of a light-transmitting material, and each work Are integrally provided on the support body. According to this configuration, since the pair of works are fixedly arranged, the work positioning work by the user is unnecessary, and even a general user can easily execute the calibration work.
  • FIG. 1 is a block diagram showing a configuration of a three-dimensional measurement system.
  • FIG. 2 is an explanatory diagram showing a specific example of an imaging method for calibration.
  • FIG. 3 is an explanatory diagram showing a calibration pattern of each sheet.
  • FIG. 4 is a flowchart showing the flow of calibration processing.
  • FIG. 5 is an explanatory diagram showing a processing target image generated by the method of FIG.
  • FIG. 6 is an explanatory diagram showing a method for extracting feature points.
  • FIG. 7 is an explanatory diagram illustrating a straight line extraction process.
  • FIG. 8 is an explanatory diagram showing a specific example of the first sheet straight line extraction processing power up to the feature point extraction processing.
  • FIG. 9 is an explanatory diagram showing a method for extracting a straight line of the second sheet.
  • FIG. 10 is an explanatory diagram showing a method for specifying feature points on a sheet.
  • FIG. 11 is an explanatory diagram showing another example of a calibration pattern on a sheet.
  • FIG. 12 is a flowchart showing the flow of processing when calibration is performed using the sheet of FIG.
  • FIG. 1 shows a configuration example of a three-dimensional measurement system to which the present invention is applied.
  • This three-dimensional measurement system includes two cameras 1A and 1B, a measurement device 2, and a monitor 3 for image display.
  • the measuring device 2 is provided with image input units 20A and 20B, a camera driving unit 21, an arithmetic processing unit 22, an output unit 29, and the like corresponding to the cameras 1A and 1B.
  • This 3D measurement system is premised on imaging a measurement object placed on a horizontal plane, and each camera 1A, 1B is deployed with its optical axis facing downward as shown in Fig. 2. Is done.
  • the camera driving unit 21 simultaneously drives the cameras 1A and 1B to image the measurement object.
  • the driving of the cameras 1A and 1B during measurement is performed by an operation unit (not shown) in the calibration process described later in accordance with an input of an external signal (for example, a sensor force signal for detecting a measurement object).
  • the cameras 1A and 1B are driven according to the imaging operation.
  • the image signals generated by the power cameras 1A and 1B are input to the respective image input units 20A and 20B, and are digitally converted.
  • a digital image for processing hereinafter referred to as “processing target image” is generated for each camera.
  • the arithmetic processing unit 22 is configured by a computer, and executes a three-dimensional measurement process using a processing target image for each camera.
  • the output unit 29 is an output interface for outputting the 3D measurement result to an external device such as PLC.
  • the arithmetic processing unit 22 includes a power of the image memory 23 for storing the processing target image, an image processing unit 24, a parameter calculation unit 25, a measurement processing unit 26, a display control unit 27, and a parameter storage. Part 28 etc. are included.
  • Each unit other than the image memory 23 and the parameter storage unit 28 is a function set in the computer by a dedicated program. Further, the image memory 23 and the parameter storage unit 28 are set in a memory (RAM or the like) of the computer.
  • the image processing unit 24 performs edge extraction processing or the like on the two processing target images stored in the image memory 23, and extracts constituent points of the measurement target (for example, constituent points of the contour). Further, the image processing unit 24 uses a pattern matching process or the like to process each processing target image. A process of associating the same constituent points is executed. The result of this association is passed to the measurement processing unit 26. For each component point, the measurement processing unit 26 substitutes the coordinates of the component point in each processing target image into a predetermined arithmetic expression, and calculates the three-dimensional coordinates (X, ⁇ , Z) of each component point. .
  • the parameter storage unit 28 stores various coefficients included in the arithmetic expression (included in a matrix [Q] in expressions (1) and (2) described later).
  • the values of these coefficients are the relationship between the stereo coordinate system configured by each camera and the spatial coordinate system representing the actual position (the distance between the origins between each coordinate, the amount of rotational displacement of the stereo coordinate system relative to the spatial coordinate system) (These coefficients are hereinafter referred to as “parameters.”) O
  • This parameter is calculated by the processing of the image processing unit 24 and the parameter calculation unit 25 prior to the three-dimensional measurement, and the parameter It is stored in the meter storage unit 28.
  • the display control unit 27 is for controlling the display operation of the monitor 3.
  • Processing results conversion images generated from images to be processed, 3D measurement results, etc. can be displayed.
  • a transparent sheet 5 on which a predetermined calibration pattern is printed (hereinafter simply referred to as “sheet 5”) is used as a calibration work.
  • sheet 5 a transparent sheet 5 on which a predetermined calibration pattern is printed
  • two transparent support plates (not shown) are connected via a connecting rod 4 having a predetermined length, and the sheet 5 is installed on the upper surface of each support plate.
  • the sheets 5 and 5 are arranged side by side in a vertical direction with a predetermined distance therebetween and with the sheet surfaces horizontal.
  • FIG. 3 shows a specific example of the sheet 5.
  • a calibration pattern (a so-called lattice pattern) having a configuration in which a plurality of straight lines along the two directions are arranged at equal intervals is printed.
  • first sheet 5p has a lattice pattern formed by straight lines along the vertical and horizontal directions, and the other sheet 5 (hereinafter referred to as “second sheet 5q”).
  • second sheet 5q has a grid pattern of 45 degrees that is the same shape as the first sheet 5p. Formed in a rotated state!
  • the sheets 5p and 5q are imaged by the method shown in FIG. 2, and a plurality of feature points necessary for calibration are extracted for each obtained image force sheet.
  • Fig. 4 shows the flow of a series of processes in this calibration process.
  • steps 1 to 8 shown in this figure will be described in order.
  • Step 1 Imaging processing
  • step 1 in this state, the cameras 1A and 1B are simultaneously driven to generate a processing target image for calibration.
  • the straight lines on the image are separated and extracted for each direction, and then the straight lines corresponding to the first sheet (the 0 ° straight line and the 90 ° straight line in the figure) and the straight line corresponding to the second sheet. (45 ° straight line and 135 ° straight line in the figure) are combined, and the intersection of the straight lines is found for each of these combinations.
  • the following steps 2 to 5 embody the above processing, and are executed for every two processing target images.
  • Step 2 a 0 ° straight line and a 90 ° straight line corresponding to the first sheet are individually extracted from the processing target image.
  • FIG. 7 shows a specific example of a method for extracting a 0 ° straight line.
  • the direction of 0 ° is defined as the X axis, and the direction perpendicular to this (the direction of 90 °) ⁇ y axis.
  • a small area 10 having a length extending over a plurality of straight lines is set at a predetermined position of the processing target image, and an image in the small area 10 is projected along the X-axis direction. More specifically, the pixels having the same y coordinate in the small region are grouped into one group, the sum of the density for each group is obtained, and a histogram is created in which the calculated value is associated with the y coordinate.
  • FIG. 7 (A) is an overall image of the processing target image, and (B) is an enlarged image of the small area 10. Further, (C) shows the histogram obtained by the projection processing of the small region 10 with the y coordinate in the enlarged view (B).
  • the projection value at the position corresponding to the 0 ° straight line is It becomes smaller than the projection value at other positions. Therefore, it corresponds to each local minimum value (indicated by a + mark) in the histogram.
  • the y-coordinate can be specified as the position through which the 0 ° straight line passes.
  • the reference line 51p along the direction of 0 ° is wider than the other straight lines, it is reflected on the histogram as a change wider than the other straight lines (dotted line circle in the figure).
  • the portion surrounded by R is the change corresponding to the reference line 5 lp.) 0, that is, the y coordinate indicating the passing position of the reference line is specified by comparing the width of the change around the minimum value It becomes possible to do.
  • FIG. 8 shows details of the processing performed in Step 2 and Step 3.
  • step 2 in order to extract a straight line at 0 °, a plurality of small areas 10 for projection processing described above are set along the X axis, projection processing is performed for each of these small areas, and straight line passing is performed.
  • Overscores (indicated by + marks in the figure) are extracted ((1) in Figure 8).
  • a point one point per area where the difference in y-coordinate with respect to the noted point is within a predetermined range.
  • Associate with By repeating this process several cycles, for each straight line, a plurality of points located on the straight line are specified, and a straight line expression is specified using the coordinates of these points.
  • a plurality of small areas 10 are set, a straight line passing point is obtained for each of these areas, and a straight line expression is set from the coordinates of these passing points. Even when it deviates from the 0 ° direction, the direction can be extracted with high accuracy.
  • FIG. 8 shows the result of straight line extraction by the above method.
  • the range in which the straight line expression is set is indicated by solid lines, and the straight line specified by each expression is replaced with another straight line. It is shown with a wider width.
  • step 2 in order to extract a 90 ° straight line, the small region 10 is changed to a long one in the X-axis direction, and a plurality of small regions 10 are set along the y-axis direction. Then, each small area 10 is projected, and the image in each area is projected along the y-axis direction to extract a straight passing point ((3) in FIG. 8).
  • Step 3 includes the process of specifying the coordinates of the reference force Op of the reference lines 50p and 5 lp (in Fig. 8 (5), this reference point Op is indicated by a circle). ) o
  • a plurality of feature points of the first sheet 5p are extracted for each processing target image.
  • the coordinates of the extracted feature points are stored in a RAM (not shown), and the process proceeds to the next process for the second sheet.
  • Steps 4 and 5 the second sheet straight line extraction processing and feature point extraction processing
  • step 4 a straight line along two directions is extracted by the same projection process as in step 2. However, since the straight line of the second sheet 5q faces 45 ° or 135 °, it is necessary to perform projection processing along that direction.
  • FIG. 9 shows a method for extracting a 45 ° straight line and a 135 ° straight line.
  • the long / small area 10 is set in a direction orthogonal to the projection direction.
  • a plurality of small regions 10 are arranged along the projection direction.
  • step 5 calculate the coordinates of the intersection point from each straight line equation, and store each coordinate in the RAM as the feature point coordinates. Further, this step 5 includes a process for specifying the coordinates of the reference point Oq using the formulas of the reference lines 50q and 51q specified from the projection processing result.
  • Step 6 Processing for associating feature points between images
  • step 6 When a plurality of feature points are extracted for each of the sheets 5p and 5q for the two images to be processed obtained from the cameras 1A and 1B by the above steps 2 to 5, in step 6, the image is displayed. A process of associating the same feature points between images is executed. This association process is performed using a relative positional relationship with respect to the reference points Op and Oq.
  • a partial region 52 of the first sheet 5p is enlarged, and each feature point in the region 52 (the reference point Op is marked with X and the other feature points are marked with thumbs up). ) Represents the arrangement state.
  • each feature point can be labeled as the i-th point Uij in the horizontal direction (X-axis direction) and the j-th point Uij in the vertical direction (Y-axis direction) as seen from the reference point Op (i, j is their respective X-axis direction, but vary along the y-axis direction, a positive or negative integer.
  • the reference point Op can set the label of U00.) 0
  • each feature point can be labeled based on the positional relationship with the reference point Oq.
  • step 6 based on the above consideration, the characteristic points for the sheets 5p and 5q in the processing target image are determined based on the reference points Op and Oq specified in steps 3 and 5, respectively. Use to label. Then, feature points with the same values of i and j are extracted from each processing target image, and these coordinates are associated with each other.
  • Step 7 Specifying the 3D coordinates of each feature point
  • step 7 the coordinates (X, ⁇ , Z) in the actual space of each feature point are specified prior to the calculation of the meter. Even in this process, the arrangement order based on the reference points Op and Oq can be used. In the following description, it is assumed that the first sheet 5p is installed on the upper side and the second sheet 5q is installed on the lower side as shown in FIG.
  • step 7 using the fact that the sheets 5p and 5q are aligned at the reference points Op and Oq, the reference point Oq of the lower second sheet 5q is set to the origin (0, 0, 0). Set the spatial coordinate system. If the distance between the sheets 5p and 5q is dz, the coordinates of the other reference point Op are (0, 0, dz).
  • the distance between the feature points on each sheet 5p, 5q is D
  • the coordinates of the feature point U ij on the first sheet 5p are (Xpij, Ypij, Zpij)
  • the feature points on the second sheet 5q If the coordinates are (Xqij, Yqij, Zqij), these coordinates are expressed as follows.
  • Step 8 Parameter calculation
  • step 8 for each feature point, various parameters are calculated using the three-dimensional coordinates specified in step 7 and the coordinates on each processing target image associated in step 6.
  • the three-dimensional coordinates are (X, ⁇ , Z) (where X is Xpij or X qij; Y is Ypij or Yqij; Z is Zpij or Zqij). If the coordinates in the image are (xA, yA) and the coordinates in the image on the camera IB side are (xB, yB), then between these coordinates, the following equations (1) and (2) The relationship is established. Therefore, in ST8, for each feature point, the above three types of coordinates are substituted into Eqs. (1) and (2), and the matrix [P] [Q] is calculated using the method of least squares. The constitutive equation of the matrix [P] [Q] is as shown in Equations (3) and (4).
  • step 9 When the parameters constituting the matrix] [Q] are calculated as described above, in step 9, these parameters are stored in the parameter storage unit 28. As a result, the series of calibration processes is completed, and the 3D measurement process can be executed.
  • the two sheets 5p and 5q are arranged one above the other with the reference points Op and Oq aligned with each other, and imaging with each camera 1A and 1B is executed only once.
  • the parameters required for 3D measurement can be calculated. Therefore, even a general user with no specialized knowledge can easily perform calibration.
  • the alignment markers such as the straight lines 50p, 51p, 50q, 51q of the respective sheets 5p, 5q are attached to the above-mentioned support plate, the sheets 5p, 5q can be accurately and easily Can be aligned.
  • straight lines in each direction are extracted by projection processing. Instead, edge extraction processing is executed on the processing target image, and the density gradient of each edge constituent pixel is determined. A straight line extraction process using a direction can also be executed. For details of this process, refer to Japanese Published Patent Publication No. 2002-230562.
  • the two types of grid patterns described above are printed on a pair of plate-like workpieces, and these plate-like workpieces are connected to connecting rods of a predetermined length.
  • the reference points Op and Oq can be aligned in advance, the user only has to place a jig under the cameras 1A and 1B to perform imaging. Calibration can be performed easily.
  • a grid pattern is used as the calibration pattern.
  • the present invention is not limited to this, and other patterns can also be used.
  • FIG. 11 shows an example in which patterns other than the lattice pattern are formed on the sheets 5p and 5q.
  • circles filled in black are arranged at equal intervals in the vertical and horizontal directions.
  • circles having only outlines having an area larger than that of the first sheet 5p are arranged at equal intervals in the vertical and horizontal directions.
  • the center of gravity of each circle can be made to function as a feature point.
  • the center of gravity can be obtained by setting an imaginary state force of other circles in the part where the center circle is missing. Therefore, the center of gravity of this virtual circle can be functioned as a reference point.
  • FIG. 12 shows the flow of processing when calibration is performed using the sheets 5p and 5q of FIG.
  • the sheets 5p and 5q are installed in a state where the missing part of the center circle is aligned and imaged by the cameras 1A and 1B. Thereafter, the processes of Steps B to F are performed on the processing target images obtained for the cameras 1A and 1B, respectively.
  • step B the processing target image is expanded. Specifically, the brightness of each pixel is converted to the maximum brightness in the peripheral neighborhood of that pixel. By performing such processing, the circle of the second sheet 5q where only the contour line is dark can be eliminated. On the other hand, the black circle on the first sheet 5p can be left after processing, although the area is slightly smaller.
  • step C the image after the expansion process is subjected to a contraction process. Specifically, contrary to the above, the brightness of each pixel is converted to the minimum brightness in the surrounding neighborhood of that pixel. By this process, the size of the circle of the first sheet 5p can be recovered.
  • Step D the image that has undergone Steps B and C is binarized, and the circle of the first sheet 5p is extracted. Then, the coordinates of the center of gravity of each circle are obtained, and these are stored in the RAM as the feature point coordinates. Furthermore, the missing part of the center circle is extracted from the extracted circle arrangement state, a virtual circle is set in that part, and the center of gravity is obtained. The coordinates of the center of gravity are stored in the RAM as the coordinates of the reference point Op of the first sheet 5p.
  • step E a difference calculation process of these images is executed on the processing target image generated in step A and the image after the expansion processing in step B. According to this difference processed image, the circle of the first sheet 5p disappears and the circle of the second sheet 5q remains.
  • Step F the above-described difference-processed image is binarized and a circle of the second sheet 5q is extracted. Then, the coordinates of the center of gravity of each circle are obtained, and these are stored in the RAM as the feature point coordinates.
  • the missing part of the center circle is extracted, and a virtual circle is set in that part to obtain the center of gravity.
  • the coordinates of the center of gravity are stored in the RAM as the coordinates of the reference point Oq of the second sheet 5q.
  • steps G, H, I, J are executed in order. These steps correspond to steps 6, 7, 8, and 9 in FIG. 4, and detailed description thereof is omitted here.
  • parameters necessary for 3D measurement are calculated and stored in the meter storage unit 28.
  • the circle for each sheet is separated and extracted by the expansion / contraction process or the difference process, but the circle extraction method is not limited to this.
  • an edge component pixel is extracted from the processing target image, and a line segment having a length corresponding to the radius of one circle is set along each density gradient direction in each extracted pixel.
  • the center point corresponding to the circle of the line segment can be extracted. Details of this method In detail, the Japanese republication publication WO99Z52072 was referred to!
  • the force using the sheet on which the calibration pattern having periodicity is used. Any calibration pattern that allows multiple extraction is acceptable.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

 2台のカメラを用いた3次元計測処理のためのキャリブレーションとして、格子状のキャリブレーションパターンが印刷された2種類の透明シート5p,5qを、所定間隔を隔てて平行に配置し、撮像する。撮像時の各シート5p,5qは、基準点Op,Oqが位置合わせされ、かつ4本の基準線50p,51p,50q,51qがそれぞれ45°間隔になるように調整される。各カメラからの画像について、それぞれの基準線50p,51p,50q,51qに沿う方向毎に直線を抽出し、同じシートに対応する直線間の交点を求める。さらに、各交点を特徴点として、同じ特徴点を表す座標を画像間で対応づけ、特徴点間の相対位置関係から割り出した空間座標と各特徴点の画像における座標とを用いて、3次元計測に使用するパラメータを算出する。

Description

明 細 書
3次元計測のためのキャリブレーション方法およびその方法を用いた 3次 元計測システム
技術分野
[0001] この発明は、複数の撮像装置を用いた 3次元計測処理に先立ち、相対位置関係が 既知の特徴点を複数抽出することが可能な 2次元のキャリブレーションパターンを用 いて、前記 3次元計測のためのキャリブレーションを行う方法に関する。また、この発 明は、前記のキャリブレーション方法を適用した 3次元計測システムに関する。
背景技術
[0002] 複数の撮像装置を用いた 3次元計測を行うためには、各撮像装置からの距離が異 なる点を含む複数の特徴点を用いて、キャリブレーションを行う必要がある。このキヤ リブレーシヨン方法の代表的なものとして、立体状のキャリブレーションワークを用いる 方法がある。この方法では、位置決めされたキャリブレーションワークを各撮像装置に より撮像し、それぞれの撮像装置から得られた画像毎に前記特徴点を抽出し、これら の座標を画像間で対応づける。さら〖こ、画像上の 2次元座標と 3次元座標との関係を 示した方程式に、特徴点毎に既知の 3次元座標および各画像で対応づけされた 2次 元座標を代入し、最小自乗法により前記方程式中の未知の係数を算出する(日本国 特許公報第 3237414号参照)。
[0003] さらに他の方法として、平面状のキャリブレーションワークを使用するものがある。こ の方法では、所定のキャリブレーションパターンが形成された平面状ワークを 1つ用 いて、このワークの方向または撮像装置力もの距離を変更しながら複数回の撮像を 行い、毎時の撮像で得られた画像毎に特徴点を抽出する(下記の論文を参照)。 ん hengyou Zhang A Flexible New i,echnique forし amera Calibration 、 Microsoft Research Microsoft Corporation, [平成 17年 2月 24日検索]、インターネットく URL: http://research.Microsoft.com/~zhang/ calib/ >
[0004] 立体状のキャリブレーションワークを使用する場合、撮像装置の位置や方向によつ ては、キャリブレーションに必要な数の特徴点を撮像できない場合がある。他の特徴 点やその支持部材などによって隠されてしまう特徴点があるためである。 特許第 3237414号公報では、特徴点抽出のための棒材 (校正ポール)を任意位 置に設置可能なワークを使用しているので、上記の問題は解消できるものと解される 。しかし、このような構成のワークでは、校正ポールが破損するおそれがあり、取り扱 いが困難である。また、一般ユーザーがキャリブレーションを行う場合、校正ポールを どの位置に設置すれば良いかを容易に判断できず、キャリブレーション作業を円滑 に進められな 、可能性もある。
[0005] Zhangの論文に開示された方法では、平面状のワークを使用するので、ワークの取 り扱いは楽になる。また 1枚のワークを使用するので、他のワークにより特徴点が隠さ れてしまうおそれもない。
し力しながら、この方法では、ワークの向きまたは位置を複数回にわたって変更する 必要がある。し力も、ワークの向きや位置を変更する都度、撮像を行なわなければな らないため、作業が繁雑になる。
[0006] 一方、工場の生産ラインや検査ラインで利用される 3次元計測システムでは、計測 対象物や計測目的の変更に応じて撮像装置の設置場所や設置条件が変更される 可能性があるため、現場の作業者が適宜キャリブレーションを実施できるようにするの が望ましい。このため、専門知識のない作業者でも、簡単な手法で誤りなくキヤリブレ ーシヨンを行えるように考える必要がある力 従来の方法には上記したような問題点 があるため、そのような要望を満たすのは困難である。
この発明は、この点に着目し、キャリブレーションのための作業を簡単にして、一般 ユーザーでも精度の良いキャリブレーションを簡単に実行できるようにすることを目的 とする。
発明の開示
[0007] この発明に係る方法は、複数の撮像装置を用いた 3次元計測処理に先立ち、相対 位置関係が既知の特徴点を複数抽出することが可能な 2次元のキャリブレーションパ ターンを用いて、前記 3次元計測のためのキャリブレーションを行うものである。この 発明に係る第 1の方法では、 3種類以上のキャリブレーションパターンのうちの特定の 1つを透光性を問わない平面に設けるとともに、その他のすべてのキャリブレーション パターンを透光性を有する平面に設ける。そして、いずれの平面も各撮像装置の光 軸に交差し、かつ各撮像手段から見て前記透光性を問わない平面が最後方になる ようにして、各平面を前記各撮像装置から遠ざかる方向に沿って順に配置する。
[0008] 上記のように配置された各平面を、最前方の平面より手前、すなわち撮像装置の側 力 見ると、最前方の平面のキャリブレーションパターンは勿論のこと、後方の各平面 のキャリブレーションパターンも、最前方の平面を介して視認することが可能になる。 よって、平面毎に異なる態様のキャリブレーションパターンを用いたり、同じキヤリブレ ーシヨンパターンであっても、その方向を変更するなど、各キャリブレーションパターン の特徴点を平面毎に分離して抽出できるようにしておけば、各撮像手段を一度撮像 するだけで、キャリブレーションを行うのに必要な数の特徴点を得ることが可能になる
[0009] 第 1の方法では、つぎの 4つのステップによりキャリブレーションを実現する。第 1ス テツプでは、前記の平面の配置状態において各撮像装置を駆動する。この場合、各 撮像装置を同時に駆動することができる。ただし、キャリブレーションを行うという趣旨 力もして、撮像中に各平面を移動させるとは考えられないから、各撮像装置を順に駆 動してちょい。
[0010] 第 2ステップでは、前記第 1ステップで各撮像手段により得られた画像につき、それ ぞれ前記特徴点をキャリブレーションパターン毎に分離して抽出する。この第 2ステツ プでは、キャリブレーションパターンの態様に応じて種々の方法を実行し、キヤリブレ ーシヨンパターン毎に複数の特徴点を抽出することができる。具体的な態様について は、後で詳細に説明する。
[0011] 第 3ステップでは、第 2ステップで抽出された各特徴点を前記相対位置関係に基づ き画像間で対応づけする。すなわち、前記キャリブレーションパターンにおける相対 位置関係に基づき、実空間における同一の特徴点に該当する画像上の特徴点を抽 出し、これらの点の座標を対応づける、と考えることができる。たとえば、撮像装置毎 に得た画像から、それぞれあらカゝじめ定めた規準の特徴点(以下、「基準点」という。 ) を抽出し、これらの座標を対応づける。さらに、他の特徴点についても、基準点に対 する位置関係 (たとえば基準点に対する方向や配置の順序など)が同一のものどおし を対応づけることができる。
[0012] 第 4ステップでは、第 3ステップで対応づけがなされた各特徴点の位置情報を用い て 3次元計測用のパラメータを算出する。ここで特徴点の位置情報とは、前記第 3ス テツプにおいて対応づけられた各画像上の座標と、実空間における座標の双方を含 むと考えることができる。実空間の座標は、キャリブレーションパターンが設けられて いる平面における特徴点の配列関係や、その平面の最後方の平面に対する距離に 基づいて、求めることができる。
[0013] なお、上記の方法では、前記した Zhangの論文と同様の手法によりパラメータを算出 することができる。また 3枚以上の平面を使用する場合には、互いの面間の配置関係 がわ力もなくとも、すべてのパラメータを計算により求めることができる。また、各平面 の向きを統一しなくともよ 、。
さらに、最後方の平面にも、他の平面と同様に透光性を有するものとしてもよい。
[0014] 上記第 1の方法によれば、キャリブレーションパターンが設けられた複数の平面を 任意の順序で配置し、各撮像装置による撮像をそれぞれ一回実行するだけで、すべ ての平面のキャリブレーションパターンを含む画像を撮像し、ノ ラメータの算出に必 要な特徴点を抽出することができる。また、各平面のキャリブレーションパターンを最 前方の平面を介して視認することができるから、各キャリブレーションパターンが分離 可能な状態で設置されている力否かを容易に確認することができる。よって、キヤリブ レーシヨンのための作業が簡単になり、一般ユーザーでも精度の良いキヤリブレーシ ヨンを容易に行うことが可能になる。
[0015] この発明に係る第 2、第 3の方法は、 2つのキャリブレーションパターンを使用するも ので、キャリブレーションパターンの一方を透光性を有する平面に設けるとともに、他 方のキャリブレーションパターンを透光性を問わない平面に設ける。
第 2の方法では、各平面がそれぞれ各撮像手段の光軸に交差し、各撮像手段から 見て前記透光性を有する平面が透光性を問わな 、平面の前方に位置するようにして 、各平面をあらかじめ定めた所定距離をおいて各撮像装置力も遠ざ力る方向に沿つ て前後に配置する。そして、前記第 1の方法と同様の第 1〜第 4ステップを実行する。
[0016] キャリブレーションのための平面を 2つにする場合、各平面間の角度(具体的には 各平面の法線がなす角度)と、平面間の相対位置情報(一方の面の特定の点と他方 の面の任意の点との間の距離)が判明していれば、 3次元計測に必要なパラメータを 算出することが可能になる。第 2の方法は、上記 2種類の情報が既知であることを条 件として実行されるものである。
[0017] 第 3の方法は、上記 2種類の情報が既知でない環境下で実行されるもので、 2つの 平面がそれぞれ各撮像手段の光軸に交差し、各撮像手段から見て前記透光性を有 する平面が透光性を問わない平面の前方に位置し、かつ各平面が平行になるように して、各平面をあらかじめ定めた所定距離をおいて各撮像装置力も遠ざ力る方向に 沿って前後に配置する。そして、前記第 1の方法と同様の第 1〜第 4ステップを実行 する。
[0018] 第 2、第 3の方法では、各撮像装置から見て前方に位置する平面に透光性をもたせ て 、るので、前方の平面を介して後方の平面のキャリブレーションパターンを視認す ることができる。よって、これらの平面で異なるキャリブレーションパターンを使用したり 、キャリブレーションパターンの向きを変えるなど、各キャリブレーションを分離可能な 状態にすれば、 2つのキャリブレーションパターンを同時に撮像することが可能になる
[0019] 第 2、第 3の方法でも、各撮像装置による撮像をそれぞれ一回実行するだけで、す ベての平面のキャリブレーションパターンを含む画像を撮像し、パラメータの算出に 必要な特徴点を抽出することができる。よって、キャリブレーションのための作業を簡 単にすることが可能になり、一般ユーザーでも精度の良いキャリブレーションを容易 に実行することが可能になる。
[0020] つぎに、第 1〜第 3の各方法に共通する態様について説明する。
まず第 1の態様では、前記キャリブレーションパターンは、平行な直線群を 2種類以 上を含むとともに、これらの直線の方向が平面毎に異なるように設定される。また、第 2ステップでは、各平面につき、それぞれその平面に対応する直線を方向毎に抽出 する処理と、抽出された直線間の交点を前記特徴点として抽出する処理とを実行す る。
[0021] 上記態様に適したキャリブレーションパターンとして、 2方向に沿う直線を交差させ たパターン (たとえば格子状のパターン)を設定することができる。この場合、平面毎 にキャリブレーションパターンの形成方向を変えたり、同一のキャリブレーションが形 成された平面を所定角度ずつ回転させながら設置させるなどして、各直線群に係る 直線の方向を平面毎に変化させるようにすれば、前後の平面間のキャリブレーション ノターンが重なり合わない状態を設定することができる。
[0022] なお、直線を抽出するには、たとえば抽出対象の直線の方向に沿って画像の投影 処理 (具体的には、直線の方向に沿って濃度値の総和を求める。)を実行し、濃度が 最も低い位置 (ただし、画像が暗くなるほど濃度値が小さくなるものとする。)とする。 または、画像上のエッジ構成画素を抽出し、その抽出結果から、濃度勾配方向が同 じエッジ構成画素が連なる画像領域を、直線として抽出するようにしてもよ ヽ。
[0023] つぎに第 2の態様では、キャリブレーションパターンとして、平面毎に態様の異なる マークが複数配列されたパターンを使用する。また、第 2ステップでは、各平面に対 応するマークを分離して認識した上で、これらのマークの代表点を前記特徴点として 認識する。
[0024] 上記の態様では、各平面に配列するマークの形状、大きさなどを、平面毎に変更 することができる。なお、同じ平面においても、 1つの態様のみならず、複数の態様の マークを配置することができる。ただし、他の平面のマークと区別できることが前提と なる。
[0025] たとえば、平面毎に形状の異なるマークを使用する場合には、第 2ステップでは、パ ターンマッチング処理を用いて各マークを平面毎に抽出することができる。平面毎に マークの大きさが異なる場合には、各マークの面積を計測することにより、各平面に 対応するマークを個別に認識することができる。なお、代表点としては、マークの中心 点や重心を使用することができる。
[0026] つぎに第 3の態様では、平面毎に色彩または濃度が異なるキャリブレーションパタ ーンが設定される。また前記第 2ステップには、各平面に対応する色彩または濃度を 個別に抽出する処理が含まれる。たとえば、複数とおりの 2値ィ匕により、各色彩や濃 度を個別に抽出することが可能である。
[0027] また、この態様にぉ 、ては、それぞれ平面毎に異なる色彩を有し、かつ透光性を有 するキャリブレーションパターンを設けることができる。このようにすれば、平面間でキ ヤリブレーシヨンパターンに重なりが生じても、その重なり部分を特定の色彩により判 別することができるので、その重なり部分を各キャリブレーションパターンの共通パタ ーンとして処理することができる。
たとえば、 2つの平面の一方に赤色の透光性を有するキャリブレーションパターンを 設け、他方に青色の透光性を有するキャリブレーションパターンを設けた場合、両者 の重なり部分が紫色のパターンとして現れるようになる。よって、画像から赤、青、紫 の各パターンを個別に抽出した後、赤色パターン、青色パターンにそれぞれ紫色の パターンを組み合わせることによって、各平面のキャリブレーションパターンを抽出す ることが可能になる。
[0028] つぎに第 2、第 3の方法に力かる一態様として、前記 2つの平面の一方に、輪郭線 のみが示されたマークによるキャリブレーションパターンを形成し、他方には、内部が 塗りつぶしされたマークによるキャリブレーションパターンを形成することができる。さ らに、前者のマーク(輪郭線のみのマーク)を後者のマーク (塗りつぶしのマーク)より も大きぐかつ前者のマークの輪郭線の幅が後者のマークよりも小さくなるように設定 する。
[0029] このようにすれば、 2つのマークが前後する位置関係に置かれても、一方のマーク により他方が隠されてしまうことがなぐ双方のマークを分離して抽出することが可能 になる。たとえば、画像の膨張処理により、輪郭線のみのマークを消失させて、塗りつ ぶしのマークを抽出した後、膨張処理前の画像と膨張処理後の画像との差分演算を 実行することにより、輪郭線のみのマークを抽出することができる。
[0030] さらに、この発明に係る第 1、第 2のキャリブレーション方法 (上記の各種態様を含む 。)において、各平面に形成されるキャリブレーションパターンを、周期性を有するパ ターンであるが、特定位置のみ前記周期性が欠落したものを使用することができる。 周期性を欠落させた部分には、他とは異なるマークを配置したり、ノターンが存在し な 、空白領域を設定することができる。
[0031] 上記の態様によれば、周期性が欠落している部分について、重心などの代表点を 抽出し、これを前記基準点とすることができる。さらに、その他の周期性を有するバタ 一ンカも抽出した特徴点を、前記基準点との位置関係に基づいて特定することがで きる。これにより、撮像装置毎に得た画像間での特徴点の対応づけが可能になり、キ ヤリブレーシヨンのための演算を実行することができる。また、周期性が欠落している 部分を目印にして、各平面を位置合わせすることができるから、いずれかの平面の基 準点を原点とする空間座標系を設定して、各特徴点の 3次元座標を特定することが できる。
[0032] つぎに、この発明に力かる第 4のキャリブレーション方法では、キャリブレーションパ ターンが設けられた 2つの平面を、それぞれ前記各撮像装置の光軸に交差し、かつ 各平面が平行になるようにして、あらかじめ定めた所定距離をおいて各撮像装置力も 遠ざ力る方向に沿って順に配置する。さらに、前方の平面には偏光手段が設けられ る。
[0033] この方法における 2つの平面の配置状態は基本的には第 3の方法と同様である力 前方の平面に偏光手段を設けた点が異なる。たとえば、前方の平面を偏光性媒質に より構成することにより、後方の平面に作用する光の方向を一方向に限定することが できる。なお、以下では、前面の平面を透過する光を「偏光の方向に対応する光」と いい、前面の平面を透過しな ヽ光を「偏光の方向に対応しな 、光」と ヽぅ。
[0034] さらに、この第 4の方法では、以下のステップ A, B, C, D, Eを実行する。
ステップ Aでは、上記した平面の配置状態において、前方の平面に対し、前記偏光 手段の偏光の方向に対応する光および前記偏光の方向に対応しな 、光を順に照射 するとともに、光を照射する毎に前記各撮像装置を駆動する。すなわち、この方法で は、照明の方向を変更しながら、少なくとも 2回の撮像を行う必要がある。
[0035] ステップ Bでは、偏光の方向に対応しない光が照射されているときに各撮像装置に より得た画像につき、それぞれ前方の平面のキャリブレーションパターンに含まれる 特徴点を抽出する。ステップ Cでは、偏光の方向に対応する光が照射されているとき に各撮像装置により得た画像と前記ステップ Bでの抽出結果とを用いて、後方の平 面のキャリブレーションパターンに含まれる特徴点を抽出する。
ステップ Dでは、前記ステップ B, Cで抽出された特徴点を画像間で対応づける。ス テツプ Eでは、対応づけがなされた各特徴点の位置情報を用いて 3次元計測用のパ ラメータを算出する。
[0036] 前方の平面に偏光の方向に対応する光が照射された状態下では、前方の平面を 透過した光により後方の平面も照明される。したがって、この照明状態下で撮像を行 うと、前後の各平面に設けられたキャリブレーションパターンを共に含む画像を得るこ とができる。一方、偏光の方向に対応しない光が照射された状態下では、その照射 光は前方の平面で遮光されるから、その照明下で撮像された画像には、前方側のキ ヤリブレーシヨンパターンのみが現れる。後者の画像はステップ Bでの処理対象となり 、前者の画像はステップ Cでの処理対象となる。
[0037] 第 3の方法では、撮像回数は 2回になるが、特徴点を簡単に抽出することができる。
すなわち、ステップ Bで処理する画像には、前方の平面のキャリブレーションパターン のみが含まれているから、通常の特徴点の抽出処理を行うだけで良い。またステップ Cでは、偏光の方向に対応する光による照明下で得られた画像を処理するので、特 徴点の抽出処理を行った後、画像上の特徴点のうち、ステップ Bで抽出されたのと同 じものを除くことによって、後方の平面のキャリブレーションパターンに含まれる特徴 点を抽出することができる。
なお、上記第 3の方法に代えて、前方の平面を透光性を有する平面とし、各平面の 間に偏光板を設けて、上記のステップ A〜ステップ Eを実行することもできる。
[0038] この発明にかかる 3次元計測処理システムには、複数の撮像装置と、各撮像装置か ら得た画像を用いて 3次元計測処理を行う計測装置と、相対位置関係が既知の特徴 点を複数抽出することが可能な 2次元のキャリブレーションパターンが設けられた複 数の平板状のワークと、少なくとも 2枚のワークをそれぞれ異なる平面に支持する支 持具とが含まれる。複数のワークのうちの少なくとも 1つは、透光性を有する材料によ り形成されている。また、前記支持具は、支持対象の各ワークを、それぞれ各撮像装 置の光軸に交差し、かつあらかじめ定めた所定距離をおいて各撮像装置力も遠ざか る方向に沿って順に位置するように支持する。
[0039] 上記の構成では、各撮像装置から最も遠い位置に支持されるものを除く各ワークを 、それぞれ透光性を有する材料によるワークとすることにより、前出の第 1〜3のキヤリ ブレーシヨン方法を実行することができる。勿論、すべての支持位置に透光性を有す る材料〖こよるワークを設置することちでさる。
[0040] 前記第 1〜3のキャリブレーション方法を実行するために、前記計測装置には、各 撮像装置により支持具に支持されたワークが撮像されたとき、各撮像装置により得ら れた画像につき、それぞれ前記特徴点をキャリブレーションパターン毎に分離して抽 出する特徴点抽出手段;抽出された各特徴点を前記相対位置関係に基づき画像間 で対応づけする対応づけ手段;対応づけがなされた各特徴点の位置情報を用いて 3 次元計測用のパラメータを算出するパラメータ算出手段;前記パラメータ算出手段が 算出したパラメータを保存する記憶手段;の各手段が設けられる。特徴点抽出手段 は前記第 2ステップを、対応づけ手段は前記第 3ステップを、パラメータ算出手段は 前記第 4ステップを、それぞれ実行するためのもので、いずれも対応するステップを 実行するためのプログラムを組み込んだコンピュータにより構成することができる。ま た、記憶手段は、前記コンピュータのメモリに設定することができる。
[0041] さらに、前記計測装置には、前記第 1ステップに対応する手段、すなわち各撮像装 置を駆動する手段を設けることができる。ただし、この駆動手段は計測装置の外部に 設けることちでさる。
[0042] 上記の 3次元計測処理システムの好ま 、態様にぉ 、ては、前記支持具は、一対 のワークを前記所定距離をおいてそれぞれのワーク面を水平にした状態で支持する ように構成される。この場合、上方で支持されるワークを透光性を有する材料によるヮ ークとし、各撮像装置を支持具の上方に配備すれば、前記第 3のキャリブレーション 方法を実行することが可能になる。
[0043] 各ワークを水平状態で支持する支持具として、水平方向に沿うワーク支持面を有す るものを考えることができる。ただし、この場合には、少なくとも上方の支持面を透光 性を有する材料により構成する必要がある。また各ワークにある程度の厚みがあれば 、それぞれのワークを端縁で支持するような構成の支持具を用いることもできる。 なお、下方のワークは、支持具が設置されるのと同一平面上に設置し、このワーク をまたぐように支持具を設置して、上方のワークを支持するようにしてもょ 、。
[0044] より好ましい態様では、前記支持具は少なくとも上方のワークを支持するためのヮー ク支持面を有する。このワーク支持面は透光性を有する材料により形成される。また、 一対のワークの基準点となるべき位置には、それぞ; ^立置合わせ用のマークが形成 される。なお、この種のワークとして、前記した周期性を有するパターンである力 特 定の位置のみ前記周期性が欠落しているキャリブレーションパターンを有するワーク を採用することができる。
上記の態様によれば、各位置合わせ用マークを参照することにより、上下のワーク の基準点を簡単に位置合わせすることができる。よって、いずれかの基準点を原点と する空間座標系を設定し、その座標系の座標により双方のワークの位置を特定する ことが可能になる。なお、位置合わせマークは、參印ゃ X印など基準点を特定しやす いものにするのが望ましい。または、 2本の直線の交点を位置合わせマークとして機 會させることちでさる。
[0045] 一対のワークを水平状態で支持する支持具の他の好ましい態様では、前記一対の ワークのうちの少なくとも上方のワークを透光性を有する材料により形成されたものに して、各ワークを支持具本体に一体に設ける。この構成によれば、一対のワークは固 定配備されるので、ユーザーによるワークの位置決め作業は不要となり、一般ユーザ 一でも簡単にキャリブレーション作業を実行することが可能になる。
図面の簡単な説明
[0046] [図 1]3次元計測システムの構成を示すブロック図である。
[図 2]キャリブレーションのための撮像方法の具体例を示す説明図である。
[図 3]各シートのキャリブレーションパターンを示す説明図である。
[図 4]キャリブレーション処理の流れを示すフローチャートである。
[図 5]図 2の方法により生成された処理対象画像を示す説明図である。
[図 6]特徴点を抽出するための手法を示す説明図である。
[図 7]直線の抽出処理を説明する説明図である。
[図 8]第 1シートの直線抽出処理力 特徴点の抽出処理までの具体例を示す説明図 である。
[図 9]第 2シートの直線を抽出するための方法を示す説明図である。
[図 10]シート上の特徴点を特定するための方法を示す説明図である。
[図 11]シート上のキャリブレーションパターンの他の例を示す説明図である。 [図 12]図 11のシートを用いてキャリブレーションを行う場合の処理の流れを示すフロ 一チャートである。
発明を実施するための最良の形態
[0047] 図 1は、この発明を適用した 3次元計測システムの構成例を示す。
この 3次元計測システムは、 2台のカメラ 1A, 1Bと、計測装置 2と、画像表示用のモ ユタ 3とを含む。計測装置 2には、各カメラ 1A, 1Bに対応する画像入力部 20A, 20B 、カメラ駆動部 21、演算処理部 22、出力部 29などが設けられる。なお、この 3次元計 測システムでは、水平面に設置された計測対象物を撮像することを前提としており、 各カメラ 1A, 1Bは、図 2に示すように、それぞれ光軸を下方に向けて配備される。
[0048] 前記カメラ駆動部 21は、各カメラ 1A, 1Bを同時に駆動し、計測対象物を撮像させ る。なお、計測時のカメラ 1A, 1Bの駆動は、外部信号の入力(たとえば計測対象物 の検知用のセンサ力もの信号)に応じて行われる力 後記するキャリブレーション処 理では、図示しない操作部による撮像操作に応じてカメラ 1A, 1Bを駆動する。各力 メラ 1A, 1Bにより生成された画像信号は、それぞれの画像入力部 20A, 20Bに入力 され、ディジタル変換される。これにより、カメラ毎に処理用のディジタル画像 (以下、「 処理対象画像」という。)が生成される。
[0049] 演算処理部 22は、コンピュータにより構成されるもので、前記カメラ毎の処理対象 画像を用いて 3次元計測処理を実行する。出力部 29は、この 3次元計測結果を、 PL Cなどの外部機器に出力するための出力用インターフェースである。
[0050] 前記演算処理部 22には、前記処理対象画像を格納するための画像メモリ 23のほ 力 画像処理部 24、パラメータ算出部 25、計測処理部 26、表示制御部 27、パラメ一 タ記憶部 28などが含められる。なお、画像メモリ 23およびパラメータ記憶部 28以外 の各部は、専用のプログラムにより前記コンピュータに設定された機能である。また、 画像メモリ 23やパラメータ記憶部 28は、前記コンピュータのメモリ (RAMなど)に設 定される。
[0051] 画像処理部 24は、前記画像メモリ 23に格納された 2つの処理対象画像に、エッジ 抽出処理などを施して、計測対象物の構成点 (たとえば輪郭の構成点)を抽出する。 さらに、画像処理部 24は、パターンマッチング処理などを用いて、各処理対象画像 間の同一構成点を対応づける処理を実行する。この対応づけ結果は計測処理部 26 に渡される。計測処理部 26は、構成点毎に、それぞれ各処理対象画像におけるそ の構成点の座標を所定の演算式に代入し、各構成点の 3次元座標 (X, Υ, Z)を算 出する。
[0052] パラメータ記憶部 28には、前記演算式に含まれる各種係数 (後記する式(1) (2)の 行列 ] [Q]に含まれるもの。)が保存される。これらの係数の値は、各カメラにより構 成されるステレオ座標系と実際の位置を表す空間座標系との関係(各座標間の原点 間の距離、空間座標系に対するステレオ座標系の回転ずれ量など)に応じて変動す る(以下、これらの係数を「パラメータ」という。 ) oこのパラメータは、前記 3次元計測に 先立ち、画像処理部 24およびパラメータ算出部 25の処理により算出され、前記パラ メータ記憶部 28に格納される。
[0053] 表示制御部 27は、前記モニタ 3の表示動作を制御するためのもので、各画像入力 部 20A, 20Bが生成した処理対象画像のほか、画像処理部 24や計測処理部 26〖こ よる処理結果 (処理対象画像から生成された変換画像、 3次元計測の結果など)を表 示させることができる。
[0054] 上記の 3次元計測処理システムでは、つぎの図 2に示すような方法によるキヤリブレ ーシヨンを行って、前記パラメータを算出するようにして!/、る。
この方法では、キャリブレーションワークとして、所定のキャリブレーションパターンが 印刷された透明シート 5 (以下、単に「シート 5」という。)を使用する。具体的には、 2枚 の透明支持板(図示せず。)を所定長さの連結棒 4を介して連結し、各支持板の上面 にそれぞれ前記シート 5を設置する。これにより、各シート 5, 5は、所定の距離を隔て 、かつ各シート面を水平にして、上下に並べて配備される。
[0055] 図 3は、前記シート 5の具体例を示す。
この実施例のシート 5には、直交する 2方向につき、それぞれその方向に沿う複数 の直線を等間隔に配置した構成のキャリブレーションパターン (いわゆる格子状のパ ターン)が印刷されている。一方のシート 5 (以下、「第 1シート 5p」という。)には、その 縦方向および横方向に沿う直線による格子状パターンが形成され、他方のシート 5 ( 以下、「第 2シート 5q」という。)には、第 1シート 5pと同形状の格子状パターンが 45度 回転した状態で形成されて!ヽる。
[0056] さらに、これらのシート 5p, 5qでは、平行配備された一群の直線のうちの中央の直 線 50p, 51p, 50q, 51q (いずれもシートの中心点を通過するように設定されている。 )の幅を、その他の直線よりも太く形成している(以下、これら幅の太い直線 50p, 51p , 50q, 51qを「基準線」と!/、う。)。これらの基準線の交点、 Op, Oqは、シート 5p, 5qの 位置合わせや、キャリブレーションパターン中の各特徴点を特定する際の基準点とし て機能する(以下、交点 Op, Oqを「基準点 Op, Oq」という。 )0
なお、以下の図では、画像中に現れる基準線や基準点にも、実際のシート 5p, 5q を示した図 3と同様の符号(50p, 51p, 50q, 51qおよび Op, Oq)を用!/、ることにす る。
[0057] 上記のシート 5p, 5qでは、各直線の交点を特徴点として機能させるようにしている。
キャリブレーション処理では、前記図 2に示した方法で各シート 5p, 5qを撮像し、得ら れた画像力 シート毎にキャリブレーションに必要な特徴点を複数抽出するようにし ている。
図 4は、このキャリブレーション処理における一連の処理の流れを示す。以下、この 図に示すステップ 1〜8の処理について、順を追って説明する。
[0058] (1)ステップ 1 :撮像処理
前記した 2枚のシート 5p, 5qは、それぞれ基準点が位置合わせされ、かつ 4本の基 準線 50p, 51p, 50q, 51qがそれぞれ 45° 間隔で配置されるようにして、上下に並 ベて設置される。ステップ 1では、この状態下で各カメラ 1A, 1Bを同時に駆動し、キ ヤリブレーシヨン用の処理対象画像を生成する。
[0059] 各シート 5p, 5qの背景は透明であるので、上記した設置状態によれば、上方のシ ート 5pを介して下方のシート 5qのキャリブレーションパターンを視認することができる 。よって、いずれのカメラ 1A, 1Bでも、図 5に示すように、上下の格子パターンを合成 したような処理対象画像を生成することができる。
[0060] (2)特徴点の抽出方法
ここで、以下のステップを説明する前に、図 6を用いて、特徴点を抽出する方法を簡 単に説明する。 この実施例では、画像上の直線を方向毎に分離して抽出した後、第 1シートに対応 する直線(図中の 0° の直線と 90° の直線)と、第 2シートに対応する直線(図中の 4 5° の直線と 135° の直線)とをそれぞれ組み合わせ、これらの組み合わせ毎に、直 線の交点を求めるようにしている。以下のステップ 2〜5は、上記の処理を具体化した ものであって、 2枚の処理対象画像毎に実行される。
[0061] なお、上記した図 6や以下の図 7, 8, 9では、紙面の左から右に向力う方向を 0° と して、 4方向の直線を、 0。 , 45。 , 90。 , 135。 の方向に ί¾つて示すととちに、それ ぞれ「0° の直線」「45° の直線」「90° の直線」「135° の直線」と表現する。ただし 、これらの表現は便宜上のものであり、画像に現れる直線の方向は微妙に変動する。 シート 5p, 5qに対するカメラ 1A, 1Bの位置関係や光軸の方向による影響を受けるた めである。
[0062] (3)ステップ 2, 3 :第 1シートの直線抽出処理および特徴点の抽出処理
このステップ 2では、処理対象画像から第 1シートに対応する 0° の直線および 90 ° の直線をそれぞれ個別に抽出する。
図 7は、 0° の直線を抽出する方法の具体例を示す。なお、以下では、前記 0° の 方向を X軸、これに直交する方向(90° の方向)^ y軸とする。
[0063] この例では、処理対象画像の所定位置に、複数の直線にまたがる長さを有する小 領域 10を設定し、この小領域 10内の画像を X軸方向に沿って投影する。具体的には 、前記小領域内の y座標が等しい画素を 1グループとして、グループ毎濃度の総和を 求め、その算出値を y座標に対応づけたヒストグラムを作成する。
[0064] 図 7中、(A)は処理対象画像の全体像であり、(B)は前記小領域 10内の画像を拡 大したものである。さらに (C)は、前記小領域 10の投影処理により得られたヒストグラ ムを拡大図(B)に y座標を合わせて示したものである。
上記の拡大図(B)に示すように、 0° の直線に対応する y座標では、その座標にか 力るライン上のほぼ全ての画素が直線の構成画素となる。したがって、画像が暗くな るほど濃度値が小さくなるように設定されている場合には、投影処理を行うと、(C)に 示すように、 0° の直線に対応する位置における投影値は、その他の位置の投影値 よりも小さくなる。よって、前記ヒストグラム中の各極小値(+マークで示す。)に対応す る y座標を、 0° の直線が通過する位置として特定することができる。
[0065] また、 0° の方向に沿う基準線 51pは、他の直線より幅が太くなるため、ヒストグラム 上にも、他の直線よりも幅の広い変化として反映される(図中の点線円 Rで囲んだ部 分が基準線 5 lpに対応する変化である。 )0すなわち、極小値を中心とする変化の幅 を相互に比較することにより、基準線の通過位置を示す y座標を特定することが可能 になる。
[0066] 図 8は、ステップ 2およびステップ 3において行われる処理の詳細を示す。
ステップ 2では、まず 0° の直線を抽出するために、前記した投影処理用の小領域 10を X軸に沿って複数個設定し、これらの小領域毎に投影処理を行って、直線の通 過点(図中 +マークにより示す。 )を抽出する(図 8の(1) )。
[0067] つぎに、各小領域 10間において、同一直線上に位置する複数の点を対応づける。
具体的には、いずれか一領域の 1点に着目し、その他の領域について、それぞれ前 記着目点に対する y座標の差が所定範囲内にある点(一領域につき一点)を抽出し、 着目点に対応づける。この処理を数サイクル繰り返すことにより、直線毎に、その直線 上に位置する複数の点を特定し、これらの点の座標を用いて直線の式を特定する。 上記のように、複数の小領域 10を設定して、これらの領域毎に直線の通過点を求 め、これらの通過点の座標から直線の式を設定するので、画像上の直線の方向が 0 ° 方向からずれた場合にも、その方向を精度良く抽出することができる。
[0068] 図 8の(2)は、上記の方法による直線の抽出結果を示したもので、直線の式が設定 された範囲を塗りつぶしにより示すとともに、各式により特定された直線を他の直線よ りも幅を太くして表している。
[0069] さらにステップ 2では、 90° の直線を抽出するために、前記小領域 10を X軸方向に 長いものに変更し、この小領域 10を y軸方向に沿って複数個設定する。そして、各小 領域 10にっき、それぞれその領域内の画像を y軸方向に沿って投影し、直線の通過 点を抽出する(図 8の(3) )。
[0070] この後、 0° の直線について実行したのと同様の方法により、直線毎に、その直線 上に位置する複数の点を特定し、これらの点の座標を用いて直線の式を特定する。 図 8 (4)は、この一連の手順により抽出された直線を、前記図 8 (3)と同様の方法によ り示したものである。
[0071] このようにして、 0° および 90° の直線に対応する直線の式がそれぞれ複数特定さ れると、ステップ 3に進み、これらの直線の式を用いて各直線の交点の座標を算出す る。これにより、図 8 (5)に示すように、複数の特徴点(図中の參印)が抽出される。
[0072] なお、直線を抽出する際の投影処理では、前記したように、ヒストグラム上の変化の 幅に基づいて、基準線 50p, 50qを特定することができる。ステップ 3には、これらの 基準線 50p、 5 lpの式力 基準点 Opの座標を特定する処理も含まれている(図 8 (5) では、この基準点 Opを〇印で示している。 ) o
[0073] 上記のようにして、処理対象画像毎に、第 1シート 5pの特徴点が複数個抽出される 。抽出された特徴点の座標は、図示しない RAMに保存され、つぎの第 2シートに対 する処理に移行する。
[0074] (4)ステップ 4, 5 :第 2シートの直線抽出処理および特徴点の抽出処理
ステップ 4では、ステップ 2と同様の投影処理により、 2方向に沿う直線を抽出する。 ただし、第 2シート 5qの直線は、 45° または 135° の方向を向いているので、その方 向に沿って投影処理を行う必要がある。
[0075] 図 9は、 45° の直線および 135° の直線を抽出する方法を示す。この場合、抽出 対象の直線の方向を投影方向として、その投影方向に直交する方向に長 ヽ小領域 1 0が設定される。また、前記図 8の(1) (3)と同様に、投影方向に沿って複数の小領域 10が並べられる。
[0076] 小領域 10毎に画像を投影する処理により、各小領域において、複数の直線の通過 点が抽出されると、以下、第 1シート 5pに対する方法と同様にして、各直線の式を特 定する。この後はステップ 5に進み、各直線の式から交点の座標を算出し、それぞれ の座標を特徴点の座標として RAMに保存する。また、このステップ 5には、前記投影 処理結果から特定した基準線 50q, 51qの式を用いて、前記基準点 Oqの座標を特 定する処理が含まれて!/ヽる。
[0077] (5)ステップ 6:画像間における特徴点の対応づけ処理
上記ステップ 2〜5により、カメラ 1A, 1Bから得られた 2枚の処理対象画像について 、それぞれシート 5p, 5q毎に、複数個の特徴点が抽出されると、ステップ 6では、画 像間において、同一の特徴点どおしを対応づける処理を実行する。この対応づけ処 理は、前記基準点 Op, Oqに対する相対位置関係を用いて行われる。
[0078] 図 10は、前記第 1シート 5pの一部領域 52を拡大して、この領域 52内の各特徴点( 前記基準点 Opを X印、他の特徴点を參印にしている。)の配列状態を表したもので ある。
前記したように、第 1シート 5p上の各直線は、等間隔をおいて配備されているから、 これらの交点である特徴点も、直線間と同じ間隔で並んでいると考えることができる。 したがって、各特徴点に対し、基準点 Opから見て水平方向(X軸方向)に i番目、垂 直方向(Y軸方向)に j番目の点 Uijとしてラベル付けを行うことができる (i, jは、それ ぞれ X軸方向、 y軸方向に沿って変化するもので、正の整数または負の整数となる。 また基準点 Opは、 U00のラベルを設定することができる。 )0
他方の第 2シート 5qについても、同様に、各特徴点を基準点 Oqとの位置関係に基 づいて、ラベル付けすることができる。
[0079] 処理対象画像にお!、ても、各特徴点の配列方向や間隔は、撮像条件によって若 干変動すると考えられるが、基準点 Op, Oqに対する方向や配列の順序については 、上記図 10と同様の関係が成立すると考えることができる。
ステップ 6では、上記の考察に基づき、処理対象画像中のシート 5p, 5q毎の特徴 点を、それぞれ前記ステップ 3, 5で特定された基準点 Op, Oqを基準に、前記引数 i , jを用いてラベル付けする。そして、各処理対象画像から i, jの値が一致する特徴点 をそれぞれ抽出し、これらの座標を対応づける。
[0080] (6)ステップ 7:各特徴点の 3次元座標の特定処理
ステップ 7では、ノ メータの算出に先立ち、各特徴点の実際の空間における座標 (X, Υ, Z)を特定する。この処理でも、前記基準点 Op, Oqを基準にした配列順序を 用いることができる。なお、以下では、前出の図 2に示したように、第 1シート 5pが上方 に、第 2シート 5qが下方に設置されていることを前提に説明する。
[0081] ステップ 7では、各シート 5p, 5qが基準点 Op, Oqで位置合わせされていることを利 用して、下方の第 2シート 5qの基準点 Oqを原点 (0, 0, 0)とする空間座標系を設定 する。ここでシート 5p, 5q間の距離を dzとすると、他方の基準点 Opの座標は(0, 0, dz)となる。
[0082] さらに、各シート 5p, 5qにおける特徴点間の距離を Dとし、第 1シート 5pの特徴点 U ijの座標を (Xpij, Ypij, Zpij)とおき、第 2シート 5qの特徴点の座標を (Xqij, Yqij, Zqij )とおくと、これらの座標は、下記のように表される。
[0083] [数 1]
(Xp i;, Yp i;, Z p i j) = ( i *D, j *D, d z )
(xq i i, Yq i i, z q i = ( i * ¥D, j * ¥D, d z )
[0084] 以下、これらの式により特定される空間座標をパラメータの算出に使用する。
[0085] (7)ステップ 8:パラメータの算出
ステップ 8では、特徴点毎に、それぞれステップ 7で特定された 3次元座標と、ステツ プ 6で対応づけられた各処理対象画像上の座標とを用いて、各種パラメータを算出 する。
ここで、各特徴点について、それぞれ 3次元座標を (X, Υ, Z)とし (Xは Xpijまたは X qij; Yは Ypijまたは Yqij;Zは Zpijまたは Zqijである。 )、カメラ 1 A側の画像における座 標を (xA, yA)とし、カメラ IB側の画像における座標を (xB, yBとする。)とすると、こ れらの座標の間には、つぎの(1) (2)式の関係が成立する。よって、 ST8では、各特 徴点毎に、それぞれ上記の 3種類の座標を(1) (2)式に代入し、最小自乗法を用い て行列 [P] [Q]を算出する。なお行列 [P] [Q]の構成式は(3) (4)式のとおりである。
[0086] [数 2]
1 CD
Figure imgf000021_0002
[数 3]
Figure imgf000021_0001
[数 4] a o o l o a 2 0 a 3 0
P a 0 1 ct 1 1 2 1 ct 3 1 ( 3 )
ct 0 2 ct 1 2 ct 2 2 1
[数 5]
Figure imgf000022_0001
[0087] (8)ステップ 9 :パラメータの保存
上記のようにして、行列 ] [Q]を構成する各パラメータが算出されると、ステップ 9 では、これらのパラメータを前記パラメータ記憶部 28に格納する。これにより、一連の キャリブレーション処理が終了し、 3次元計測処理を実行することが可能になる。
[0088] 以上、説明したキャリブレーションによれば、 2枚のシート 5p, 5qを基準点 Op, Oq を位置合わせした状態で上下に配置し、各カメラ 1A, 1Bによる撮像を 1回実行する だけで、 3次元計測に必要なパラメータを算出することができる。よって、専門知識の ない一般ユーザーでも、簡単にキャリブレーションを実行することが可能になる。 なお、前記した支持板に、各シート 5p, 5qの基準線 50p, 51p, 50q, 51qと同様の 直線など、位置合わせ用のマーカーを付すようにすれば、シート 5p, 5qを正確かつ 簡単に位置合わせすることができる。
[0089] また、上記の実施例では、各方向毎の直線を投影処理により抽出したが、これに代 えて、処理対象画像に対してエッジ抽出処理を実行し、各エッジ構成画素の濃度勾 配方向を用いた直線抽出処理を実行することもできる。この処理の詳細については、 日本国公開特許公報 2002— 230562号を参照された 、。
[0090] また、前記シート 5p, 5qを使用する方法に代えて、一対の板状ワークにそれぞれ前 記した 2種類の格子状パターンを印刷し、これらの板状ワークを所定長さの連結棒を 介して連結した構成の治具を使用してもよい。この場合、あらカゝじめ、基準点 Op, Oq を位置合わせしておくことができるから、ユーザーは、カメラ 1A, 1Bの下方に治具を 設置して撮像を行うだけで良くなり、きわめて簡単にキャリブレーションを実行すること ができる。
[0091] ただし、上記の実施例では、ノ メータの算出処理の説明を簡単にするために、基 準点 Op, Oqを位置合わせしただけであり、基準点 Op, Oqを位置合わせしなくとも、 ノ ラメータを算出することは可能である。
[0092] つぎに、上記の実施例では、キャリブレーションパターンとして格子状のパターンを 使用したが、これに限らず、他のパターンを使用することもできる。
図 11は、前記シート 5p, 5qに、格子状パターン以外のパターンを形成した例を示 す。この例の第 1シート 5pには、黒く塗りつぶしされた円が、縦横各方向にそれぞれ 等間隔に配列されている。他方の第 2シート 5qには、前記第 1シート 5pよりも面積が 大きぐ輪郭線のみが示された円が、縦横各方向に等間隔に配列されている。
[0093] ただし、いずれのシート 5p, 5qとも、中心位置に置かれるはずの 1個分の円を欠落 させている(図では、欠落部分を一点鎖線の枠で囲んで示している。 ) oまた、第 1シ ート 5pの黒塗りの円の面積は、第 2シート 5qの円の輪郭線の幅よりも大きくなるように 設定される。
[0094] 上記のキャリブレーションパターンの構成によれば、各シート 5p, 5qを上下に配置 しても、面積の小さな第 1シート 5p上の円が第 2シート 5q上の円により隠されてしまう ことがなぐ双方の円を分離して抽出することが可能になる。また、この実施例では、 各円の重心を特徴点として機能させることができる。また、中央の円が欠落している 部分についても、他の円の配列状態力 仮想の円を設定して重心を求めることがで きる。よって、この仮想の円の重心を基準点として機能させることができる。
[0095] 図 12は、前記図 11のシート 5p, 5qを用いてキャリブレーションを行う場合の処理の 流れを示す。
最初のステップ Aでは、前記シート 5p, 5qを、前記中央の円の欠落部分が位置合 わせされた状態で設置し、各カメラ 1A, 1Bにより撮像する。この後は、カメラ 1A, 1B 毎に得られた処理対象画像にっ 、て、それぞれステップ B〜Fの処理を実行する。
[0096] ステップ Bでは、前記処理対象画像を膨張処理する。具体的には、各画素の明るさ を、それぞれその画素の周囲近傍領域中の最大の明るさに変換する。このような処 理を行うことにより、輪郭線のみが暗い第 2シート 5qの円を消失させることができる。 一方、第 1シート 5pの黒塗りの円は、面積は若干小さくなるものの、処理後も残存さ せることができる。 [0097] つぎのステップ Cでは、前記膨張処理後の画像を収縮処理する。具体的には、上 記とは逆に、各画素の明るさを、それぞれその画素の周囲近傍領域中の最小の明る さに変換する。この処理により、第 1シート 5pの円の大きさを回復させることができる。
[0098] ステップ Dでは、上記ステップ B, Cを経た画像を 2値化し、第 1シート 5pの円を抽出 する。そして、各円の重心の座標を求め、これらを特徴点の座標として RAMに保存 する。さらに、抽出された各円の配列状態から、中央の円の欠落部分を抽出し、その 部分に仮想の円を設定してその重心を求める。この重心の座標は、第 1シート 5pの 基準点 Opの座標として RAMに保存される。
[0099] つぎに、ステップ Eでは、ステップ Aで生成された処理対象画像とステップ Bの膨張 処理後の画像とを対象として、これらの画像の差分演算処理を実行する。この差分 処理画像によれば、第 1シート 5pの円を消失させ、第 2シート 5qの円を残存させるこ とがでさる。
[0100] ステップ Fでは、上記の差分処理画像を 2値化処理して、第 2シート 5qの円を抽出 する。そして、各円の重心の座標を求め、これらを特徴点の座標として RAMに保存 する。
さらに、抽出された各円の配列状態から、中央の円の欠落部分を抽出し、その部分 に仮想の円を設定してその重心を求める。この重心の座標は、第 2シート 5qの基準 点 Oqの座標として、 RAMに保存される。
[0101] このようにして、各シート 5p、 5qの特徴点および基準点 Op, Oqが抽出されると、以 下、ステップ G, H, I, Jを順に実行する。なお、これらのステップは、それぞれ前記図 4のステップ 6, 7, 8, 9に対応するものであり、ここでは詳細な説明を省略する。 上記した一連の処理により、 3次元計測に必要なパラメータが算出され、ノ メータ 記憶部 28に格納される。
[0102] なお、上記図 11の手順では、膨張'収縮処理や差分処理により、各シート毎の円を 分離して抽出するようにしたが、円の抽出方法はこれに限定されるものではない。た とえば、処理対象画像からエッジ構成画素を抽出し、抽出された各画素において、そ れぞれその濃度勾配方向に沿って一方の円の半径に対応する長さの線分を設定す ることにより、その線分の円に対応する中心点を抽出することができる。この方法の詳 細にっ 、ては、日本国再公表公報 WO99Z52072号を参照された!、。
さらに、上記した 2つの実施例では、いずれも、周期性を有するキャリブレーション パターンが形成されたシートを使用している力 必ずしも周期性を持たせる必要はな ぐ相対位置関係が既知の特徴点を複数抽出することが可能なキャリブレーションパ ターンであればよい。

Claims

請求の範囲
[1] 複数の撮像装置を用いた 3次元計測処理に先立ち、相対位置関係が既知の特徴 点を複数抽出することが可能な 2次元のキャリブレーションパターンを用いて、前記 3 次元計測のためのキャリブレーションを行う方法であって、
3種類以上のキャリブレーションパターンのうちの特定の 1つを透光性を問わない平 面に設けるとともに、その他のすべてのキャリブレーションパターンを透光性を有する 平面に設け、
いずれの平面も各撮像装置の光軸に交差し、かつ各撮像手段から見て前記透光 性を問わない平面が最後方になるようにして、各平面を前記各撮像装置から遠ざか る方向に沿って順に配置し、
前記の配置状態において前記各撮像装置を駆動する第 1ステップ;前記第 1ステツ プで各撮像装置により得られた画像につき、それぞれ前記特徴点をキヤリブレーショ ンパターン毎に分離して抽出する第 2ステップ;第 2ステップで抽出された各特徴点を 前記相対位置関係に基づき画像間で対応づけする第 3ステップ;第 3ステップの対応 づけがなされた各特徴点の位置情報を用いて 3次元計測用のパラメータを算出する 第 4ステップ;の各ステップを実行することを特徴とする 3次元計測のためのキヤリブレ ーシヨン方法。
[2] 複数の撮像装置を用いた 3次元計測処理に先立ち、相対位置関係が既知の特徴 点を複数抽出することが可能な 2次元のキャリブレーションパターンを用いて、前記 3 次元計測のためのキャリブレーションを行う方法であって、
2つのキャリブレーションパターンの一方を透光性を有する平面に設けるとともに、 他方のキャリブレーションパターンを透光性を問わない平面に設け、
各平面がそれぞれ各撮像装置の光軸に交差し、各撮像手段から見て前記透光性 を有する平面が透光性を問わな 、平面の前方に位置するようにして、各平面をあら 力じめ定めた所定距離をお 、て各撮像装置から遠ざかる方向に沿って前後に配置 し、
前記の配置状態において前記各撮像装置を駆動する第 1ステップ;前記第 1ステツ プで撮像装置毎に得られた画像につき、それぞれ前記特徴点をキャリブレーション パターン毎に分離して抽出する第 2ステップ;抽出された各特徴点を前記相対位置 関係に基づき画像間で対応づけする第 3ステップ;第 3ステップの対応づけがなされ た各特徴点の位置情報を用いて 3次元計測用のパラメータを算出する第 4ステップ; の各ステップを実行することを特徴とする 3次元計測のためのキャリブレーション方法
[3] 複数の撮像装置を用いた 3次元計測処理に先立ち、相対位置関係が既知の特徴 点を複数抽出することが可能な 2次元のキャリブレーションパターンを用いて、前記 3 次元計測のためのキャリブレーションを行う方法であって、
2つのキャリブレーションパターンの一方を透光性を有する平面に設けるとともに、 他方のキャリブレーションパターンを透光性を問わない平面に設け、
各平面がそれぞれ各撮像装置の光軸に交差し、各撮像手段から見て前記透光性 を有する平面が透光性を問わない平面の前方に位置し、かつ各平面が平行になるよ うにして、各平面をあらかじめ定めた所定距離をおいて各撮像装置力も遠ざ力る方 向に沿って前後に配置し、
前記の配置状態において前記各撮像装置を駆動する第 1ステップ;前記第 1ステツ プで撮像装置毎に得られた画像につき、それぞれ前記特徴点をキャリブレーション パターン毎に分離して抽出する第 2ステップ;抽出された各特徴点を前記相対位置 関係に基づき画像間で対応づけする第 3ステップ;第 3ステップの対応づけがなされ た各特徴点の位置情報を用いて 3次元計測用のパラメータを算出する第 4ステップ; の各ステップを実行することを特徴とする 3次元計測のためのキャリブレーション方法
[4] 請求項 1〜3の 、ずれかに記載された方法にお!、て、
前記キャリブレーションパターンは、平行な直線群を 2種類以上含むとともに、これ らの直線の方向が平面毎に異なるように設定されており、
前記第 2ステップでは、各平面につき、それぞれその平面に対応する直線を方向 毎に抽出する処理と、抽出された直線間の交点を前記特徴点として抽出する処理と を実行する 3次元計測のためのキャリブレーション方法。
[5] 請求項 1〜3の 、ずれかに記載された方法にお!、て、 前記キャリブレーションパターンは、平面毎に態様の異なるマークが複数配列され たパターンであり、
前記第 2ステップでは、各平面に対応するマークを分離して認識した上で、これらの マークの代表点をそれぞれ前記特徴点として抽出する 3次元計測のためのキヤリブレ ーシヨン方法。
[6] 請求項 1〜3の 、ずれかに記載された方法にお!、て、
前記キャリブレーションパターンは、平面毎に色彩または濃度が異なるパターンで あり、前記第 2ステップには、各平面に対応する色彩または濃度を個別に抽出する処 理が含まれる 3次元計測のためのキャリブレーション方法。
[7] 請求項 2または 3に記載された方法にぉ 、て、
前記 2つの平面の一方には、輪郭線のみが示されたマークによるキャリブレーション パターンが形成されるとともに、他方には内部が塗りつぶしされたマークによるキヤリ ブレーシヨンパターンが形成され、前者のマークは後者のマークよりも大きぐかつ前 者のマークの輪郭線の幅は後者のマークよりも小さくなるように設定されて 、る 3次元 計測のためのキャリブレーション方法。
[8] 請求項 1〜7の 、ずれかに記載された方法にお!、て、
各平面に形成されるキャリブレーションパターンは、周期性を有するパターンである 力 特定の位置のみ前記周期性が欠落している 3次元計測のためのキヤリブレーショ ン方法。
[9] 複数の撮像装置を用いた 3次元計測処理に先立ち、相対位置関係が既知の特徴 点を複数含む 2次元のキャリブレーションパターンを用いて、前記 3次元計測のため のキャリブレーションを行う方法であって、
前記キャリブレーションパターンが設けられた 2つの平面を、それぞれ前記各撮像 装置の光軸に交差し、かつ各平面が平行になるようにして、あら力じめ定めた所定距 離をおいて各撮像装置力も遠ざ力る方向に沿って順に配置するとともに、各撮像装 置から見て前方の平面に偏光手段を設け、
前記の配置状態において、前記前方の平面に対し、前記偏光手段の偏光の方向 に対応する光および前記偏光の方向に対応しない光を順に照射するとともに、光を 照射する毎に前記各撮像装置を駆動するステップ A;前記偏光の方向に対応しな!ヽ 光が照射されているときに各撮像装置により得た画像につき、それぞれ前方の平面 のキャリブレーションパターンに含まれる特徴点を抽出するステップ B;前記偏光の方 向に対応する光が照射されているときに各撮像装置により得た画像と前記ステップ B での抽出結果とを用いて、後方の平面のキャリブレーションパターンに含まれる特徴 点を抽出するステップ C、前記ステップ B, Cで抽出された特徴点をそれぞれ画像間 で対応づけるステップ D、前記対応づけがなされた各特徴点の位置情報を用いて 3 次元計測用のパラメータを算出するステップ E、の各ステップを実行することを特徴と する 3次元計測のためのキャリブレーション方法。
[10] 複数の撮像装置と、各撮像装置力 得た画像を用いて 3次元計測処理を行う計測 装置と、相対位置関係が既知の特徴点を複数抽出することが可能な 2次元のキヤリ ブレーシヨンパターンが設けられた複数の平板状のワークと、少なくとも 2枚のワーク をそれぞれ異なる平面に支持する支持具とを含む 3次元計測処理システムであって 前記複数のワークのうちの少なくとも 1つは、透光性を有する材料により形成されて おり、
前記支持具は、支持対象の各ワークを、それぞれ各撮像装置の光軸に交差し、か つあらかじめ定めた所定距離をおいて各撮像装置力も遠ざ力る方向に沿って順に位 置するように支持し、
前記計測装置には、各撮像装置により支持具に支持されたワークが撮像されたとき 、各撮像装置により得られた画像につき、それぞれ前記特徴点をキャリブレーション パターン毎に分離して抽出する特徴点抽出手段;抽出された各特徴点を前記相対 位置関係に基づき画像間で対応づけする対応づけ手段;対応づけがなされた各特 徴点の位置情報を用いて 3次元計測用のパラメータを算出するパラメータ算出手段; 前記パラメータ算出手段が算出したパラメータを保存する記憶手段;の各手段が設 けられて 、る 3次元計測処理システム。
[11] 前記前記支持具は、一対のワークを前記所定距離をお 、てそれぞれのワーク面を 水平にした状態で支持するように構成される請求項 10に記載された 3次元計測処理 システム。
[12] 前記支持具は、少なくとも上方のワークを支持するためのワーク支持面を有し、この ワーク支持面が透光性を有する材料により形成されており、
前記一対のワークの基準点となるべき位置には、それぞ; ί! ^立置合わせ用のマーク が形成される請求項 11に記載された 3次元計測処理システム。
[13] 前記一対のワークは、少なくとも上方のワークを透光性を有する材料により形成され たものにして、支持具本体に一体に設けられる請求項 11に記載された 3次元計測処 理システム。
PCT/JP2006/304861 2005-03-14 2006-03-13 3次元計測のためのキャリブレーション方法およびその方法を用いた3次元計測システム WO2006098258A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2005071475A JP4604774B2 (ja) 2005-03-14 2005-03-14 3次元計測のためのキャリブレーション方法
JP2005-071475 2005-03-14

Publications (1)

Publication Number Publication Date
WO2006098258A1 true WO2006098258A1 (ja) 2006-09-21

Family

ID=36991600

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/304861 WO2006098258A1 (ja) 2005-03-14 2006-03-13 3次元計測のためのキャリブレーション方法およびその方法を用いた3次元計測システム

Country Status (2)

Country Link
JP (1) JP4604774B2 (ja)
WO (1) WO2006098258A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117754A (ja) * 2008-11-11 2010-05-27 Seiko Epson Corp ワーク姿勢認識方法およびワーク姿勢認識装置
JP2020148700A (ja) * 2019-03-15 2020-09-17 オムロン株式会社 距離画像センサ、および角度情報取得方法

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4530019B2 (ja) 2007-09-28 2010-08-25 オムロン株式会社 撮像装置の調整方法
JP5310130B2 (ja) 2009-03-11 2013-10-09 オムロン株式会社 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
JP5245937B2 (ja) 2009-03-12 2013-07-24 オムロン株式会社 3次元計測処理のパラメータの導出方法および3次元視覚センサ
JP5245938B2 (ja) 2009-03-12 2013-07-24 オムロン株式会社 3次元認識結果の表示方法および3次元視覚センサ
JP5714232B2 (ja) 2009-03-12 2015-05-07 オムロン株式会社 キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP5316118B2 (ja) 2009-03-12 2013-10-16 オムロン株式会社 3次元視覚センサ
JP5282614B2 (ja) 2009-03-13 2013-09-04 オムロン株式会社 視覚認識処理用のモデルデータの登録方法および視覚センサ
JP5578844B2 (ja) * 2009-12-21 2014-08-27 キヤノン株式会社 情報処理装置、情報処理方法及びプログラム
JP2011253376A (ja) 2010-06-02 2011-12-15 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
DE202011005083U1 (de) * 2011-04-09 2011-06-09 Maier, Florian, 82205 Vorrichtung zum Kalibrieren von Mehrkamera-Aufnahmevorrichtungen
US9217636B2 (en) 2012-06-11 2015-12-22 Canon Kabushiki Kaisha Information processing apparatus, information processing method, and a computer-readable storage medium
JP6055228B2 (ja) * 2012-08-07 2016-12-27 中央発條株式会社 形状計測装置
JP2014092461A (ja) * 2012-11-02 2014-05-19 Sony Corp 画像処理装置および方法、画像処理システム、並びにプログラム
JP2014092460A (ja) 2012-11-02 2014-05-19 Sony Corp 画像処理装置および方法、画像処理システム、並びにプログラム
JP6720052B2 (ja) * 2016-11-02 2020-07-08 三菱重工業株式会社 検査システム、及び画像処理装置、並びに検査システムの画像処理方法
JP6803745B2 (ja) * 2016-12-28 2020-12-23 日立Geニュークリア・エナジー株式会社 検査装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0843026A (ja) * 1994-07-29 1996-02-16 Mazda Motor Corp キャリブレーション装置及びホログラム
JP2003078811A (ja) * 2001-09-04 2003-03-14 Nippon Hoso Kyokai <Nhk> マーカ座標対応付け方法とカメラパラメータ取得方法とカメラパラメータ取得システムとキャリブレーションパターン
JP2004213332A (ja) * 2002-12-27 2004-07-29 Olympus Corp キャリブレーション装置、キャリブレーション方法、キャリブレーション用プログラム、及び、キャリブレーション治具
JP2004271292A (ja) * 2003-03-07 2004-09-30 Meidensha Corp 校正器及びステレオカメラ位置姿勢校正装置
JP2005241323A (ja) * 2004-02-25 2005-09-08 Advanced Telecommunication Research Institute International 撮像システム及び校正方法
JP2006030157A (ja) * 2004-06-18 2006-02-02 Japan Aerospace Exploration Agency カメラ校正のための透過型校正器具とその校正法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0843026A (ja) * 1994-07-29 1996-02-16 Mazda Motor Corp キャリブレーション装置及びホログラム
JP2003078811A (ja) * 2001-09-04 2003-03-14 Nippon Hoso Kyokai <Nhk> マーカ座標対応付け方法とカメラパラメータ取得方法とカメラパラメータ取得システムとキャリブレーションパターン
JP2004213332A (ja) * 2002-12-27 2004-07-29 Olympus Corp キャリブレーション装置、キャリブレーション方法、キャリブレーション用プログラム、及び、キャリブレーション治具
JP2004271292A (ja) * 2003-03-07 2004-09-30 Meidensha Corp 校正器及びステレオカメラ位置姿勢校正装置
JP2005241323A (ja) * 2004-02-25 2005-09-08 Advanced Telecommunication Research Institute International 撮像システム及び校正方法
JP2006030157A (ja) * 2004-06-18 2006-02-02 Japan Aerospace Exploration Agency カメラ校正のための透過型校正器具とその校正法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010117754A (ja) * 2008-11-11 2010-05-27 Seiko Epson Corp ワーク姿勢認識方法およびワーク姿勢認識装置
JP2020148700A (ja) * 2019-03-15 2020-09-17 オムロン株式会社 距離画像センサ、および角度情報取得方法
WO2020189071A1 (ja) * 2019-03-15 2020-09-24 オムロン株式会社 距離画像センサ、および角度情報取得方法

Also Published As

Publication number Publication date
JP2006250889A (ja) 2006-09-21
JP4604774B2 (ja) 2011-01-05

Similar Documents

Publication Publication Date Title
WO2006098258A1 (ja) 3次元計測のためのキャリブレーション方法およびその方法を用いた3次元計測システム
JP4492654B2 (ja) 3次元計測方法および3次元計測装置
US9734609B2 (en) Transprojection of geometry data
JP4811272B2 (ja) 3次元計測を行う画像処理装置および画像処理方法
JP4885584B2 (ja) レンジファインダ校正方法及び装置
CN102376089A (zh) 一种标靶校正方法及系统
JP2010237193A (ja) キャリブレーション装置および3次元計測のためのパラメータの精度の確認支援方法
JP2001124522A (ja) 画像処理を用いたひび割れ評価装置
CN106625713A (zh) 提高涂胶工业机器人涂胶精度的方法
JP2006349586A (ja) 3次元計測方法および3次元計測装置
JP5477658B2 (ja) キャリブレーション用校正治具、校正治具を備えた3次元計測システム
JP2014055864A (ja) 画像測定装置、その制御方法及び画像測定装置用のプログラム
CN111623942B (zh) 一种单向振动台试验结构模型位移测量方法
JP2005017286A (ja) カメラキャリブレーション方法およびカメラキャリブレーション装置
JP2007147522A (ja) 写真計測方法及び写真計測プログラム
CN112135120A (zh) 基于抬头显示系统的虚像信息测量方法及系统
JP2007303828A (ja) 断面データ取得方法、システム、及び断面検査方法
CN112415010A (zh) 一种成像检测方法及系统
CN108507484A (zh) 成捆圆钢多目视觉识别系统及计数方法
JP6425406B2 (ja) 情報処理装置、情報処理方法、プログラム
JP2003065737A (ja) 表面形状測定装置及びその方法、並びに表面状態図化装置
JP3696335B2 (ja) 複数枚の画像の各計測点の対応づけ方法
JP2007033040A (ja) 光切断法による3次元形状計測装置における光学ヘッド部のキャリブレーション方法及び装置
CN210923027U (zh) 标准校正板及校正系统
JP2006105755A (ja) 三次元形状計測システム及び計測方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application
NENP Non-entry into the national phase

Ref country code: DE

NENP Non-entry into the national phase

Ref country code: RU

122 Ep: pct application non-entry in european phase

Ref document number: 06715584

Country of ref document: EP

Kind code of ref document: A1