WO2021199744A1 - 計測装置、計測方法及びプログラム - Google Patents

計測装置、計測方法及びプログラム Download PDF

Info

Publication number
WO2021199744A1
WO2021199744A1 PCT/JP2021/005742 JP2021005742W WO2021199744A1 WO 2021199744 A1 WO2021199744 A1 WO 2021199744A1 JP 2021005742 W JP2021005742 W JP 2021005742W WO 2021199744 A1 WO2021199744 A1 WO 2021199744A1
Authority
WO
WIPO (PCT)
Prior art keywords
measurement
unit
light
distance
measuring
Prior art date
Application number
PCT/JP2021/005742
Other languages
English (en)
French (fr)
Inventor
洋介 村木
Original Assignee
株式会社Xtia
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社Xtia filed Critical 株式会社Xtia
Priority to EP21778884.3A priority Critical patent/EP4130652A4/en
Priority to JP2022511640A priority patent/JPWO2021199744A1/ja
Priority to US17/913,568 priority patent/US20230107896A1/en
Priority to CN202180024721.4A priority patent/CN115335657A/zh
Publication of WO2021199744A1 publication Critical patent/WO2021199744A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/22Measuring arrangements characterised by the use of optical techniques for measuring depth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes

Definitions

  • the present invention relates to a measuring device, a measuring method and a program.
  • An optical measuring device is used to measure the surface shape of the object to be measured in a non-contact manner.
  • Patent Document 1 in order to measure a complicated surface shape in a non-contact manner, a triangular surveying method is used to move a laser light source in a direction perpendicular to the surface shape to measure the distance to each measurement point.
  • a technique for obtaining three-dimensional coordinate data of a surface shape is disclosed.
  • a measuring device includes a guide light source unit, an imaging unit, and a measuring unit.
  • the guide light source unit is configured to output guide light and continuously irradiate the measurement surfaces of a plurality of measurement reference points with the guide light.
  • the measurement reference point is one end of the distance between the two points to the measurement surface.
  • the imaging unit is configured to image a spot of guide light on the measurement surface of the first measurement reference point.
  • the measurement unit is configured to calculate the inclination of the measurement surface based on the shape of the captured spot, and based on this, calculate the depth of the second measurement reference point, which is the next round of the first measurement reference point. Will be done.
  • FIG. This is an example of the shape SP of the spot of the guide light.
  • FIGS. 4A to 4C are a plan view, a front view, and a side view, respectively.
  • 5A to 5C are a plan view, a front view, and a side view, respectively, which are aspects of an object to be measured having an inclination ⁇ x around the X-axis and an inclination ⁇ y around the Y-axis.
  • FIG. 1 shows the hardware composition of the measuring apparatus 1.
  • This is an example of the shape SP of the spot of the captured guide light.
  • This is an example of reference data relating to the spot shape SP.
  • This is a method of calculating the inclination of the measurement surface 7 based on the inverse transformation formula of the projective transformation.
  • It is an activity diagram of the method of calculating the inclination of the measurement surface 7 which concerns on embodiment.
  • It is an overall block diagram of the measuring apparatus 1 which concerns on 2nd Embodiment.
  • the program for realizing the software appearing in the present embodiment may be provided as a non-transitory recording medium (Non-Transity Computer-Readable Medium) that can be read by a computer, or may be downloaded from an external server. It may be provided as possible, or it may be provided so that the program is started by an external computer and the function is realized by the client terminal (so-called cloud computing).
  • Non-Transity Computer-Readable Medium Non-Transity Computer-Readable Medium
  • the "part" may include, for example, a combination of hardware resources implemented by a circuit in a broad sense and information processing of software that can be concretely realized by these hardware resources. ..
  • various information is handled in this embodiment, and these information include physical values of signal values such as voltage and current, and high and low signal values as a binary bit set composed of 0 or 1.
  • signal values such as voltage and current, and high and low signal values as a binary bit set composed of 0 or 1.
  • it is represented by quantum superposition (so-called qubit), and communication / calculation can be executed on a circuit in a broad sense.
  • a circuit in a broad sense is a circuit realized by at least appropriately combining a circuit (Circuit), circuits (Circuitry), a processor (Processor), a memory (Memory), and the like. That is, an integrated circuit for a specific application (Application Specific Integrated Circuit: ASIC), a programmable logic device (for example, a simple programmable logic device (Simple Programmable Logical Device: SPLD), a composite programmable logic device (Complex Program) It includes a programmable gate array (Field Programmable Gate Array: FPGA) and the like.
  • FIG. 1 is an overall configuration diagram of the measuring device 1.
  • the measuring device 1 includes a measuring unit 2, an information processing device 3, and a display device 8.
  • the measuring device 1 three-dimensionally measures the measuring surface 7 of the object to be measured in a non-contact manner.
  • the information processing device 3 is electrically connected to the measurement unit 2 so that the detection signal of the photodetector 24 can be input.
  • Each component will be described in more detail below.
  • the measurement unit 2 includes a guide light source unit 21, a measurement light source unit 22, an imaging unit 23, a light detection unit 24, and a beam splitter 25.
  • the measurement unit 2 is provided on an XY stage (not shown), a hand of a orthogonal coordinate type robot (not shown), or the like, and three-dimensionally measures an object to be measured in a non-contact manner.
  • the guide light source unit 21 outputs the guide light.
  • FIG. 2 is an example of the shape SP of the spot of the guide light.
  • the guide light source unit 21 continuously emits guide light having such a shape to the measurement surface 7 of a plurality of measurement reference points MB (MB1, MB2, ..., MBn-2, MBn-1, MBn). It is configured to irradiate.
  • FIG. 3 shows the measurement reference point MB and the measurement surface 7 of the object to be measured.
  • the measurement reference point MB is one end of the distance between the two points up to the measurement surface 7.
  • the measurement reference point MB is a point that serves as a reference for three-dimensionally measuring the object to be measured.
  • the measurement reference point MB is a coordinate point in the absolute coordinate system.
  • the guide light source unit 21 irradiates the measurement surface 7 of the object to be measured, which is located perpendicular to each measurement reference point MB, with the guide light.
  • the coordinate points in the height direction of the measurement reference point MB are the same and are set at positions that do not interfere with the object to be measured.
  • the arrangement of the measurement reference points MB may be on a straight line or in a grid pattern.
  • the guide light is visible light and is applied to the measurement surface 7 in a predetermined spot shape.
  • the spot shape may be circular or rectangular.
  • the guide light may be visible light, infrared light, or ultraviolet light. It suffices if the imaging unit 23, which will be described later, can detect the guide light.
  • the wavelength of the guide light can be 600 nm to 1200 nm.
  • the wavelength of the guide light is, for example, 600, 620, 640, 660, 680, 700, 720, 740, 760, 780, 800, 820, 840, 860, 880, 900, 920, 940, 960, It is 980, 1000, 1020, 1040, 1060, 1080, 1100, 1120, 1140, 1160, 1180, 1200 nm, and may be within the range between any two of the numerical values exemplified here.
  • the measurement light source unit 22 is configured to output the measurement light and irradiate the measurement surface 7 of the plurality of measurement reference points MB with the measurement light.
  • the measurement light may be visible light, infrared light, or ultraviolet light.
  • the measurement light is, for example, laser light, and more preferably, the measurement light source unit 22 is an optical comb light source.
  • the imaging unit 23 is configured to image a spot of guide light on the measurement surface 7 of the first measurement reference point MB1. That is, the imaging unit 23 detects the reflected component of the guide light reflected by the measurement surface 7 and images the spot. Therefore, the image pickup unit 23 may be, for example, an optical image sensor, and may be a CCD (Charge Couple Devices) image sensor or a CMOS (Completion Metal Oxide Semiconductor) image sensor. An imaging unit 23 having a sensor corresponding to the wavelength of the guide light is selected.
  • CCD Charge Couple Devices
  • CMOS Completion Metal Oxide Semiconductor
  • the light detection unit 24 includes a reference light detection unit 241 and a measurement light detection unit 242.
  • the reference light detection unit 241 detects a part of the measurement light reflected by the beam splitter 25, which will be described later, and extracts reference data.
  • the measurement light detection unit 242 is configured to detect a scattered light reflection component of the measurement light on the measurement surface 7.
  • the photodetector 24 is a measuring device that detects electromagnetic energy such as light and converts it into electricity.
  • the photodetector 24 is configured to be convertible into electrical data.
  • the beam splitter 25 is arranged in the measuring unit 2.
  • the beam splitter 25 reflects a part of the measurement light emitted from the measurement light source unit 22 toward the reference light detection unit 241.
  • the beam splitter 25 transmits the remaining light as measurement light, and reflects the measurement light that has entered from the reflection path toward the measurement light detection unit 242.
  • the measurement surface 7 is the surface of the object to be measured that is irradiated with the measurement light and the guide light.
  • the measuring device 1 three-dimensionally measures the distance from the measuring reference point MB to the measuring surface 7.
  • FIG. 4 is an aspect of an object to be measured having an inclination ⁇ y around the Y axis
  • FIGS. 4A to 4C are a plan view, a front view, and a side view, respectively.
  • 5A and 5C are aspects of an object to be measured having an inclination ⁇ x around the X-axis and an inclination ⁇ y around the Y-axis
  • FIGS. 5A to 5C are a plan view, a front view, and a side view, respectively.
  • Both figures show a state in which the measuring device 1 is measuring the first distance L from the measurement start point MS to the measuring surface 7.
  • the measuring device 1 calculates the inclination of the measuring surface 7 based on the method described later.
  • the inclination is not limited to the X-axis or the Y-axis, and both axes may be inclined at the same time. By calculating the inclination of the measurement surface 7, a highly accurate distance can be measured three-dimensionally.
  • FIG. 6 is a block diagram showing a hardware configuration of the measuring device 1.
  • the information processing device 3 is a component of the measuring device 1.
  • FIG. 7 is a block diagram showing a hardware configuration of the information processing device 3.
  • FIG. 8 is a functional block diagram showing a function carried out by the control unit 33 in the information processing device 3.
  • the information processing device 3 includes a communication unit 31, a storage unit 32, and a control unit 33 (acquisition unit 331, measurement unit 332, imaging control unit 333, mode switching unit 334, result storage unit 335, display control unit 336). These components are electrically connected to each other inside the information processing apparatus 3 via the communication bus 30. Hereinafter, each component will be further described.
  • the communication unit 31 performs wireless LAN network communication, mobile communication such as LTE / 3G, Bluetooth (registered trademark) communication, and the like as necessary. May be included. That is, it is more preferable to carry out as a set of these plurality of communication means.
  • the guide light source unit 21, the measurement light source unit 22, the imaging unit 23, and the light detection unit 24 are configured to be communicable according to a predetermined communication standard.
  • the communication unit 31 is configured to receive the data detected by the optical detection unit 24. Further, the communication unit 31 is configured so that the guide light source unit 21 and the measurement light source unit 22 can transmit data for outputting light. With such a configuration, the measuring device 1 can control the distance from the measuring reference point MB to the measuring surface 7 in three dimensions.
  • the storage unit 32 stores various information defined by the above description. This is, for example, as a storage device such as a solid state drive (SSD), or a random access memory (Random Access Memory:) that stores temporarily necessary information (arguments, arrays, etc.) related to program operations. It can be implemented as a memory such as RAM). Moreover, these combinations may be used.
  • the storage unit 32 stores the data detected by the imaging unit 23 and the light detection unit 24. Further, the storage unit 32 stores the acquisition program, the measurement program, the result storage program, and the display control program. In addition to this, the storage unit 32 stores various programs related to the information processing device 3 executed by the control unit 33.
  • Control unit 33 The control unit 33 processes and controls the entire operation related to the information processing device 3.
  • the control unit 33 is, for example, a central processing unit (CPU) (not shown).
  • the control unit 33 realizes various functions related to the information processing device 3 by reading a predetermined program stored in the storage unit 32. Specifically, the acquisition function, the measurement function, the result storage function, and the display control function are applicable. That is, the information processing by the software (stored in the storage unit 32) is specifically realized by the hardware (control unit 33), so that the acquisition unit 331, the measurement unit 332, the image pickup control unit 333, and the mode switching unit are realized. It can be executed as 334, result storage unit 335, and display control unit 336. Although it is described as a single control unit 33 in FIG.
  • control unit 33 it is not actually limited to this, and it may be implemented so as to have a plurality of control units 33 for each function. Moreover, it may be a combination thereof.
  • the acquisition unit 331, the measurement unit 332, the image pickup control unit 333, the mode switching unit 334, the result storage unit 335, and the display control unit 336 will be described in more detail.
  • the acquisition unit 331 In the acquisition unit 331, information processing by software (stored in the storage unit 32) is specifically realized by hardware (control unit 33).
  • the acquisition unit 331 is configured to acquire the electrical data detected by the imaging unit 23 and the light detection unit 24 via the communication unit 31.
  • the measurement unit 332 calculates the inclination of the measurement surface 7 based on the shape SP of the spot of the guide light imaged by the image pickup unit 23.
  • the shape SP of the spot is square, but it may be circular or rectangular, and is not particularly limited as long as it has a certain area.
  • FIG. 9 is an example of the shape SP of the spot of the captured guide light. Since the shape of the object to be measured is complicated and has irregularities and steps, the shape SP of the spot of the guide light varies as shown in FIG.
  • the spot shape SP shown in FIG. 9 is a shape imaged on a measurement surface 7 tilted 30 ° around the X-axis and 30 ° around the Y-axis.
  • the spot shape SP1 is a shape imaged on a smooth measurement surface 7.
  • the spot shape SP2 is a shape when the distance from the imaging unit 23 to the measurement surface 7 is large.
  • the spot shape SP3 is a shape when the measurement surface 7 has a convex portion.
  • the spot shape SP4 is a shape when the measurement surface 7 has a recess.
  • the spot shape SP5 and the spot shape SP6 are shapes when the measurement surface 7 has a discontinuous surface.
  • the measurement unit 332 can calculate the inclination of the measurement surface 7 in the X direction and the Y direction in the three-dimensional space based on the shape SP of such a complicated spot.
  • the storage unit 32 of the measuring device 1 stores reference data related to the shape SP of the spot of the guide light.
  • the reference data is data in which the gradient with respect to the plane perpendicular to the irradiation direction of the guide light and the shape SP of the spot in each gradient are associated with each other.
  • FIG. 10 is an example of reference data relating to the spot shape SP.
  • the reference data is a black-and-white image in which the spot shape SP is rotated around the X-axis and the Y-axis in advance.
  • the measurement unit 332 preprocesses the shape SP of the captured spot, binarizes it with a predetermined threshold value, converts it into a black-and-white image, performs pattern matching with each image of the reference data, and obtains the reference data having the highest degree of matching. Based on this, the inclination of the measurement surface 7 is calculated.
  • reference data of only the fourth quadrant of the plane coordinates is shown, but reference data of the first quadrant, the second quadrant, and the third quadrant may be prepared. Further, the reference data may be prepared by finely chopping the rotation angles around the X-axis and the Y-axis. Further, in performing this processing, if pattern matching is performed by appropriately changing the size of the shape SP of the imaged spot, a more accurate result can be obtained.
  • the reference data related to the spot shape SP of the guide light may be a trained model in which the correlation between the gradient and the spot shape SP at each gradient is learned.
  • the trained model is created by associating each gradient created by rotating the spot shape SP around the X-axis and the Y-axis with reference data related to the spot shape SP.
  • the trained model is stored in the storage unit 32 in advance. As shown in FIG. 10, a trained model can be created by rotating many guide light spot shape SPs around the X-axis and the Y-axis in various ways.
  • the measurement unit 332 is configured to calculate the inclination of the measurement surface 7 based on the trained model. Therefore, when the shape SP of the spot of the guide light imaged by the imaging unit 23 is input to the trained model, the measuring unit 332 identifies the reference data having the strongest correlation and calculates the inclination of the measuring surface 7. By creating a trained model using a large amount of reference data, the measurement unit 332 can accurately calculate the inclination of the measurement surface 7.
  • the measuring unit 332 may calculate the inclination of the measuring surface 7 by using the geometric transformation.
  • a projective transformation which is one of the geometric transformations, is used.
  • Arbitrary coordinates (x, y) are moved to (x', y') by the projective transformation of Equation 1.
  • a, b, c, d, e, f, g, and h are parameters.
  • FIG. 11 is a method of calculating the inclination of the measurement surface 7 based on the inverse transformation formula of the projective transformation. As shown in FIG. 11, the vertices A', B', C', and D'of the imaged spot shape SP8 are inversely transformed with slopes ⁇ x and ⁇ y.
  • the slopes ⁇ x and ⁇ y are changed until the lengths of the sides of AB, BC, CD and DA obtained from the vertices A, B, C and D of the inversely transformed spot shape SP7 are equal. Continue repeating the inverse transformation. When the lengths of the sides are substantially the same, the inverse transformation is stopped and ⁇ x and ⁇ y are the slopes of the measurement surface 7.
  • the measurement unit 332 is configured to calculate the depth of the second measurement reference point MB2, which corresponds to the next round of the first measurement reference point MB1, based on the calculated inclination of the measurement surface 7. Based on this depth, the measurement unit 332 determines whether or not the measurement light source unit 22 is within the working distance at the next measurement reference point MB. When within the working distance, the measurement light source unit 22 does not move in the height direction. When it is outside the working distance, the measurement light source unit 22 moves to the measurement start point MS so as to be inside the working distance. If the shape of the object to be measured is complicated and the distance from the measurement reference point MB to the measurement surface 7 deviates from the focal length, highly accurate measurement cannot be performed.
  • the depth of the measurement surface 7 is calculated based on the inclination of the measurement surface 7, and the measurement light source unit 22 is moved to the measurement start point MS so as to be within the working distance to perform highly accurate measurement. Can be done. Since the measurement start point MS is located within the working distance, it is located both above and below in relation to the measurement reference point MB. In FIGS. 3 to 5, the tip of the measurement unit 2 is set to be the measurement reference point MB and the measurement start point MS. As long as the measurement light source unit 22 is within the working distance, there is no problem.
  • the measurement unit 332 continuously measures the first distance L, which is the distance from the measurement start point MS to the reflection point of the measurement light on the measurement surface 7, based on the scattered light reflection component of the measurement light reflected by the measurement surface 7. do.
  • the measurement start point MS is located within the working distance.
  • the first distance L is a distance physically measured by the measuring device 1.
  • the measurement unit 332 calculates the measurement distance by adding the first distance L and the second distance M, which is the distance from the measurement reference point MB to the measurement start point MS.
  • the second distance M is a distance obtained by moving the measurement light source unit 22 so as to be within the working distance in advance, is a distance from the measurement reference point MB to the measurement start point MS, and is a value calculated by the measurement unit 332. be.
  • the second distance M varies depending on the depth of the measurement surface 7.
  • the measuring device 1 is configured to measure the shape of the measuring surface 7 in this way.
  • the distance physically measured by the measuring device 1 is the distance from the measuring light source unit 22 to the measuring surface 7, but may be the distance from the tip of the measuring unit 2.
  • the measured distance may be converted based on the design data of the measuring device 1, and the reference position for measurement is not specified.
  • the measurement unit 332 causes the measurement light source unit 22 to output light, and measures the round-trip time ⁇ of the light from the reference signal data detected by the reference light detection unit 241 and the measurement signal data detected by the measurement light detection unit 242.
  • the first distance L to the measurement surface 7 of the object to be measured is obtained as in Equation 2.
  • n is the average refractive index of the optical path
  • c is the speed of light in vacuum.
  • the distance can be measured by interference measurement by the optical comb.
  • the distance is measured by providing a bandpass filter (not shown) in the measurement unit 2, cutting out a high frequency component, and obtaining the electrical phase difference of the mode interval frequency.
  • the image pickup control unit 333 sets the position of the image pickup unit 23 or its focal position so that the depth from the measurement reference point MB calculated in the previous measurement to the measurement surface 7 falls within the depth of field of the image pickup unit 23. It is configured to adjust. At the measurement reference point MB, the image pickup control unit 333 adjusts the position of the image pickup unit 23 so that the spot shape SP of the guide light is always in focus. In the adjustment, the position of the imaging unit 23 or the focal position thereof may be directly adjusted, or the position of the measuring unit 2 having the imaging unit 23 may be adjusted. The adjustment method is not limited.
  • the image pickup control unit 333 is configured to move the measurement light source unit 22 from the measurement reference point MB to the measurement start point MS based on the adjusted position of the image pickup unit 23 or its focal position. That is, when the measurement light source unit 22 is out of the working distance, the image pickup control unit 333 moves the measurement light source unit 22 in the height direction to the measurement start point MS so as to focus on the measurement surface 7. If it is already within the working distance, the measurement light source unit 22 does not move. In this way, stable measurement is possible by moving the measurement light source unit 22 so as to be within the working distance at the measurement reference point MB. Since the inclination of the measurement surface 7 is calculated each time the measurement is performed, the depth from the next measurement reference point MB to the measurement surface 7 can be calculated.
  • the image pickup control unit 333 adjusts the position of the image pickup unit 23 so that the shape SP of the spot of the guide light is in focus, and further, the measurement light source unit 22 so that the measurement light source unit 22 is within the working distance. To move. Upon movement, only the measurement light source unit 22 may be directly moved, or the measurement unit 2 having the measurement light source unit 22 may be moved. The method of movement is not limited.
  • the mode switching unit 334 is configured to switch between the guide light mode and the measurement light mode.
  • the guide light mode is a mode in which the guide light source unit 21 outputs the guide light
  • the measurement light mode is a mode in which the measurement light source unit 22 outputs the measurement light.
  • the image pickup control unit 333 reads these data from the storage unit 32, and based on these data, moves the measurement light source unit 22 so that the measurement light source unit 22 enters the working distance. Then, the accurate distance from the measurement start point MS is measured.
  • result storage unit 335) In the result storage unit 335, information processing by software (stored in the storage unit 32) is specifically realized by hardware (control unit 33).
  • the result storage unit 335 measures the coordinate points of each measurement reference point MB, the inclination of the measurement surface 7 at each measurement reference point MB calculated in the guide light mode, the depth from each measurement reference point MB to the measurement surface 7, and the like.
  • the data related to the above is stored in the storage unit 32.
  • Display control unit 336 In the display control unit 336, information processing by software (stored in the storage unit 32) is specifically realized by hardware (control unit 33).
  • the display control unit 336 measures the coordinate points of each measurement reference point MB, the inclination of the measurement surface 7 at each measurement reference point MB, the depth from each measurement reference point MB to the measurement surface 7, etc. during or after the measurement.
  • the data related to the above is displayed on the display device 8. Since these data display the measurement status at the production site in real time, it is possible to quickly grasp and identify the problem of the measurement surface 7 of the object to be measured. As a result, it is useful for quick measures.
  • the measurement method includes a guide light output step, an imaging step, a tilt measurement step, an imaging control step, a measurement light control step, a measurement light output step, a measurement light detection step, and a distance measurement step.
  • the guide light output step the guide light is output. This is continuously irradiated to the measurement surfaces 7 of the plurality of measurement reference points MB.
  • the measurement reference point MB is one end of the distance between the two points up to the measurement surface 7.
  • the imaging step the spot of the guide light on the measurement surface 7 of the first measurement reference point MB1 is imaged.
  • the inclination measurement step the inclination of the measurement surface 7 is calculated based on the shape SP of the captured spot. Based on this, the depth of the second measurement reference point MB2, which corresponds to the next round of the first measurement reference point MB1, is calculated.
  • the imaging control step the position of the imaging unit 23 or the focal position thereof is adjusted so that the depth is within the depth of field of the imaging unit 23.
  • the measurement light control step the measurement light source unit 22 is moved from the measurement reference point MB to the measurement start point MS based on the position of the imaging unit 23 or the focal position thereof.
  • the measurement light output step the measurement light is output. This is irradiated to the measurement surface 7.
  • the scattered light reflection component of the measurement light on the measurement surface 7 is detected.
  • the first distance L which is the distance from the measurement start point MS to the reflection point of the measurement light on the measurement surface 7, is continuously measured based on the scattered light reflection component, and the first distance L is measured.
  • the measurement distance is calculated by adding the second distance M, which is the distance from the reference point MB to the measurement start point MS. As a result, the shape of the measuring surface 7 is measured. Specifically, this measurement method will be described in two parts.
  • FIG. 12 is an activity diagram of a method for calculating the inclination of the measurement surface 7 according to the embodiment. Hereinafter, description will be given with reference to this figure.
  • the user switches to the guide light mode with the mode switching unit 334.
  • the guide light source unit 21 outputs the guide light.
  • the measurement unit 332 confirms whether or not it is the last measurement reference point MB.
  • the guide light source unit 21 irradiates the measurement surface 7 with the guide light. In the last case, activity A14 is executed.
  • the measurement unit 332 confirms whether or not it is the first measurement reference point MB.
  • the imaging control unit 333 reads the depth from the measurement reference point MB to the measurement surface 7 from the storage unit 32.
  • the image pickup control unit 333 adjusts the image pickup unit 23 so as to be within the depth of field based on the depth read from the storage unit 32.
  • the imaging unit 23 moves within the depth of field.
  • the imaging unit 23 images the shape SP of the spot of the guide light.
  • the acquisition unit 331 acquires the image data of the shape SP of the spot of the guide light.
  • the measurement unit 332 calculates the inclination of the measurement surface 7 based on the image data of the shape SP of the spot of the guide light.
  • the measurement unit 332 calculates the depth to the measurement surface 7 at the next measurement reference point MB based on the inclination of the measurement surface 7.
  • the result storage unit 335 stores the inclination of the measurement surface 7 and the depth to the measurement surface 7 at the next measurement reference point MB in the storage unit 32.
  • the guide light source unit 21 stops the output of the guide light and ends the process.
  • FIG. 13 is an activity diagram of a method for measuring the distance to the measurement surface 7 according to the embodiment.
  • the user switches to the measurement light mode with the mode switching unit 334.
  • the measurement unit 332 confirms whether or not it is the last measurement reference point MB.
  • the image pickup control unit 333 confirms whether or not it is the first measurement reference point MB.
  • the image pickup control unit 333 reads the depth of the measurement reference point MB from the storage unit 32.
  • the image pickup control unit 333 calculates the measurement start point MS based on the depth of the measurement reference point MB so that the measurement light source unit 22 enters the working distance.
  • the measurement light source unit 22 moves to the measurement start point MS.
  • the measurement light source unit 22 outputs the measurement light.
  • the reference light detection unit 241 detects the reference light.
  • the measurement light detection unit 242 detects the measurement light.
  • the acquisition unit 331 acquires the reference signal data and the measurement signal data.
  • the measurement unit 332 measures the first distance L from the measurement start point MS to the measurement surface 7 based on the reference signal data and the measurement signal data.
  • the measurement unit 332 adds the first distance L and the second distance M from the measurement reference point MB to the measurement start point MS, and measures the distance from the measurement reference point MB to the measurement surface 7.
  • the result storage unit 335 stores the distance from the measurement reference point MB to the measurement surface 7 in the storage unit 32.
  • the measurement light source unit 22 stops the output of the measurement light.
  • FIG. 14 is an overall configuration diagram of the measuring device 1 according to the second embodiment.
  • FIG. 15 is a block diagram showing a hardware configuration of the measuring device 1 according to the second embodiment.
  • the measuring device 1 includes a measuring unit 2, an information processing device 3, and a display device 8 as in the first embodiment.
  • the measuring device 1 three-dimensionally measures the measuring surface 7 of the object to be measured in a non-contact manner.
  • the information processing device 3 is electrically connected to the measurement unit 2 so that the detection signals of the photodetector 24 and the illuminometer 27 can be input.
  • the components added to the measurement unit 2 and the information processing device 3 described in the first embodiment will be described in more detail.
  • the measurement unit 2 includes a guide light source unit 21, a measurement light source unit 22, an imaging unit 23, a light detection unit 24, a beam splitter 25, a second beam splitter 26, and an illuminance meter 27.
  • the measurement unit 2 is provided on an XY stage (not shown), a hand of a orthogonal coordinate type robot (not shown), or the like, and three-dimensionally measures an object to be measured in a non-contact manner.
  • the second beam splitter 26 and the illuminometer 27 added to the second embodiment will be described.
  • the second beam splitter 26 is arranged in the measuring unit 2.
  • the second beam splitter 26 transmits the measurement light emitted from the measurement light source unit 22 toward the measurement surface 7, and a part of the scattered light reflected by the measurement surface 7 entering from the reflection path is described later at a predetermined division ratio. It is reflected toward the ilometer 27 and the remaining scattered light is transmitted toward the beam splitter 25.
  • the illuminometer 27 also called a photometer, is a photometer measuring device for measuring illuminance and irradiance, and measures the intensity of light such as scattered light, absorption, and fluorescence.
  • the illuminometer 27 is attached to the measuring unit 2 and measures the intensity of a part of the scattered light reflected by the measuring surface 7.
  • FIG. 16 is a functional block diagram showing a function played by the control unit 33 in the information processing device 3 according to the second embodiment.
  • the information processing device 3 includes a communication unit 31, a storage unit 32, a control unit 33 (acquisition unit 331, measurement unit 332, imaging control unit 333, mode switching unit 334, result storage unit 335, display control unit 336, and brightness setting. It has a unit 337), and these components are electrically connected to each other via a communication bus 30 inside the information processing device 3.
  • the luminous intensity setting unit 337 added to the components of the first embodiment will be further described.
  • the luminous intensity setting unit 337 may set the luminous intensity of the measurement light output from the measurement light source unit 22 based on the inclination of the measurement surface 7.
  • the inclination of the measurement surface 7 is the inclination ⁇ x around the X axis and the inclination ⁇ y around the Y axis measured by the measurement unit 332 as described above.
  • the luminous intensity setting unit 337 is based on the calculation results of both inclinations such as the average value of the inclinations of each axis, ⁇ x and ⁇ y, the minimum value of the two angles, and the maximum value of the two angles. Set the luminous intensity of the measurement light.
  • the luminous intensity setting unit 337 sets the luminous intensity of the measurement light to be small.
  • the values of the calculation results of both inclinations are small, the brightness of the scattered light reflected by the measurement surface 7 is small, so that the luminous intensity setting unit 337 sets the luminous intensity of the measurement light to be large.
  • FIG. 17 is a schematic view showing an example of a two-dimensional look-up table TL used for setting the luminous intensity of the measurement light according to the second embodiment.
  • the luminous intensity setting unit 337 may set the luminous intensity of the measured light using the two-dimensional look-up table TL. That is, the horizontal axis of the two-dimensional look-up table TL is the slope ⁇ x around the X axis, the vertical axis is the slope ⁇ y around the Y axis, and the luminous intensity value of the measurement light is set in each array.
  • the value is a ratio of the measurement light having the inclination ⁇ x around the X-axis and the inclination ⁇ y around the Y-axis of the measurement surface 7 to the amount of light of 10 ° or less.
  • the luminosity setting unit 337 has a two-dimensional look from the inclination ⁇ x around the X-axis and the inclination ⁇ y around the Y-axis on the horizontal axis.
  • the array of the uptable TL is specified, and the luminosity of the measurement light is set using the value read from the storage unit 32.
  • the set values of the inclinations of the vertical axis and the horizontal axis of the lookup table TL and the values of each array are determined by the measurement conditions such as the wavelength of the measurement light, the material of the measurement surface 7, and the state of the surface treatment.
  • the luminous intensity setting unit 337 may set the luminous intensity of the measurement light output from the measurement light source unit 22 based on the scattered light reflected by the measurement surface 7.
  • the luminous intensity setting unit 337 sets the luminous intensity of the measurement light output from the measurement light source unit 22 based on the intensity of the scattered light.
  • the illuminometer 27 for measuring the intensity of scattered light is attached to the measuring unit 2.
  • the second beam splitter 26 arranged in the measuring unit 2 reflects a part of the scattered light reflected by the measuring surface 7 toward the illuminometer 27. With such a configuration, the illuminometer 27 measures the intensity of the scattered light reflected by the measurement surface 7.
  • the luminous intensity setting unit 337 sets the luminous intensity of the measured light output from the measurement light source unit 22 to be large.
  • the luminous intensity setting unit 337 sets the luminous intensity of the measurement light output from the measurement light source unit 22 to be small.
  • the measuring device 1 may measure the intensity of the scattered light based on the electric signal converted from the measuring light detection unit 242. Further, the intensity of the scattered light may be measured based on the spot of the guide light on the measurement surface 7 imaged by the imaging unit 23. For example, specifically, the intensity of scattered light is measured by performing image processing on a luminance image of the captured spot.
  • the luminous intensity setting unit 337 measures the luminous intensity of the measured light output from the measuring light source unit 22 based on the intensity of the scattered light reflected by the measuring surface 7, so that stable measurement can always be performed and an appropriate amount of light is obtained.
  • the measurement light can be output from the measurement light source unit 22.
  • a mechanism that sets the amount of measured light based on the intensity of scattered light realizes stability and energy saving in three-dimensional measurement.
  • the image pickup control unit 333 adjusts the image pickup unit 23 so as to enter the depth of field at the next measurement reference point MB during measurement, and also starts measuring the measurement light source unit 22 so as to be within the working distance. You may move it to a point. After the movement, the measuring unit 332 measures the distance to the measuring surface 7.
  • the shape SP of the spot of the guide light is not limited to the square of the embodiment. The spot shape SP may be circular or another rectangle.
  • the distance measurement is not limited to the above-mentioned method, and an optical modulation method, a matching method, an optical comb interference measurement method, or the like may be appropriately adopted.
  • the measurement light may have a function of a guide light. That is, the measuring device 1 may calculate the inclination and depth of the measuring surface 7 using the light output from one light source, and further measure the distance to the measuring surface 7.
  • a program may be provided that causes a computer to execute the above-mentioned measurement method.
  • the measuring device further includes a measurement light source unit and a measurement light detection unit, and the measurement light source unit is configured to output measurement light and irradiate the measurement surface with the measurement light.
  • the measurement unit is configured to detect the scattered light reflection component of the measurement light on the measurement surface, and the measurement unit is based on the scattered light reflection component from the measurement start point to the reflection point of the measurement light on the measurement surface.
  • the first distance which is the distance to, is continuously measured, and the first distance and the second distance, which is the distance from the measurement reference point to the measurement start point, are added to calculate the measurement distance.
  • a device configured to measure the shape of the measurement surface.
  • the measuring device further includes an imaging control unit, and the imaging control unit adjusts the position of the imaging unit or its focal position so that the depth is within the depth of field of the imaging unit. What is composed.
  • the imaging control unit is configured to move the measurement light source unit from the measurement reference point to the measurement start point based on the position of the imaging unit or the focal position thereof.
  • the measuring device further includes a mode switching unit, and the mode switching unit is configured to switch between a guide light mode and a measurement light mode.
  • the guide light mode the guide light source unit is the guide. It is a mode for outputting light
  • the measurement light mode is a mode in which the measurement light source unit outputs the measurement light.
  • the measuring device further includes a storage unit, which stores reference data, wherein the reference data includes a gradient with respect to a plane perpendicular to the irradiation direction of the guide light, and the gradient at each gradient. Data associated with the shape of the spot, the measuring unit is configured to calculate the inclination of the measuring surface based on the reference data.
  • the reference data is a trained model in which the correlation between the gradient and the shape of the spot in each gradient is learned, and the measuring unit is based on the trained model and the measuring surface. A thing that is configured to calculate the slope of.
  • the measuring light source unit is an optical comb light source.
  • the shape of the spot is rectangular.
  • the measuring device further includes a luminous intensity setting unit, which measures the luminous intensity of the measured light output from the measuring light source unit based on the inclination of the measuring surface or the scattered light reflected by the measuring surface. Things to set.
  • the measurement method includes a guide light output step, an imaging step, a tilt measurement step, an imaging control step, a measurement light control step, a measurement light output step, a measurement light detection step, and a distance measurement step.
  • guide light output step guide light is output and continuously irradiated to the measurement surfaces of a plurality of measurement reference points, where the measurement reference points are between two points up to the measurement surface.
  • the imaging step a spot of the guide light on the measurement surface of the first measurement reference point is imaged, and in the tilt measurement step, the measurement surface is based on the shape of the imaged spot.
  • the inclination is calculated, and based on this, the depth of the second measurement reference point, which is the next round of the first measurement reference point, is calculated.
  • the depth is the depth of view of the imaging unit.
  • the position of the imaging unit or its focal position is adjusted so as to be inside, and in the measurement light control step, the measurement light source unit is started to measure from the measurement reference point based on the position of the imaging unit or its focal position.
  • the measurement light output step the measurement light is output and irradiated to the measurement surface
  • the measurement light detection step the scattered light reflection component of the measurement light on the measurement surface is detected.
  • the first distance which is the distance from the measurement start point to the reflection point of the measurement light on the measurement surface
  • the second distance which is the distance from the measurement reference point to the measurement start point
  • Measuring device 2 Measuring unit 21: Guide light source unit 22: Measuring light source unit 23: Imaging unit 24: Light detection unit 241: Reference light detection unit 242: Measurement light detection unit 25: Beam splitter 26: Second beam splitter 27 : Illuminance meter 3: Information processing device 30: Communication bus 31: Communication unit 32: Storage unit 33: Control unit 331: Acquisition unit 332: Measurement unit 333: Imaging control unit 334: Mode switching unit 335: Result storage unit 336: Display Control unit 337: Luminous intensity setting unit 7: Measurement surface 8: Display device L: First distance M: Second distance MB: Measurement reference point MB1: First measurement reference point MB2: Second measurement reference point MB3: Third measurement reference Point MBn-2: N-2nd measurement reference point MBn-1: n-1th measurement reference point MBn: nth measurement reference point MS: Measurement start point SP: Spot shape SP1: Spot shape SP2: Spot shape SP3: Spot shape SP4: Spot shape

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本発明の一態様によれば、計測装置が提供される。この計測装置は、ガイド光源部と、撮像部と、計測部とを備える。ガイド光源部は、ガイド光を出力し、これを複数の計測基準点の計測面に対して連続的に照射するように構成される。計測基準点は、計測面までの2点間の距離の一端である。撮像部は、第1計測基準点の計測面におけるガイド光のスポットを撮像するように構成される。計測部は、撮像されたスポットの形状に基づいて計測面の傾きを算出し、これに基づいて第1計測基準点の次の回次にあたる第2計測基準点の深さを算出するように構成される。

Description

計測装置、計測方法及びプログラム
 本発明は、計測装置、計測方法及びプログラムに関する。
 被計測物の表面形状を非接触で計測するために、光計測装置が用いられている。
 特許文献1には、複雑な表面形状を非接触で計測するために、三角測量方式が用いて、表面形状に対して垂直方向にレーザー光源を移動させて各測定点までの距離を測定し、表面形状の三次元座標データを求める技術が開示されている。
特開平05-231832号公報
 ところが、特許文献1に開示されている計測装置では、被計測物に表面形状に凹凸や、不連続面がある場合、表面形状の正確な傾斜角を求めるのは困難である。そのため十分な計測をすることができない。
 本発明の一態様によれば、計測装置が提供される。この計測装置は、ガイド光源部と、撮像部と、計測部とを備える。ガイド光源部は、ガイド光を出力し、これを複数の計測基準点の計測面に対して連続的に照射するように構成される。計測基準点は、計測面までの2点間の距離の一端である。撮像部は、第1計測基準点の計測面におけるガイド光のスポットを撮像するように構成される。計測部は、撮像されたスポットの形状に基づいて計測面の傾きを算出し、これに基づいて第1計測基準点の次の回次にあたる第2計測基準点の深さを算出するように構成される。
 このような計測装置によれば、複雑の形状を有する被計測物を精度良く計測することができる。
計測装置1の全体構成図である。 ガイド光のスポットの形状SPの一例である。 被計測物の計測基準点MBと計測面7である。 Y軸周りに傾きθyを有する被計測物の態様であり、図4A~図4Cは、それぞれ平面図、正面図及び側面図である。 X軸周りに傾きθx、Y軸周りに傾きθyを有する被計測物の態様であり、図5A~図5Cは、それぞれ平面図、正面図及び側面図である。 計測装置1のハードウェア構成を示すブロック図である。 情報処理装置3のハードウェア構成を示すブロック図である。 情報処理装置3における制御部33が担う機能を示す機能ブロック図である。 撮像したガイド光のスポットの形状SPの一例である。 スポットの形状SPに係る参照データでの一例である。 射影変換の逆変換式に基づいて計測面7の傾きを算出する方法である。 実施形態に係る計測面7の傾きを算出する方法のアクティビティ図である。 実施形態に係る計測面7までの距離の計測方法のアクティビティ図である。 第2実施形態に係る計測装置1の全体構成図である。 第2実施形態に係る計測装置1のハードウェア構成を示すブロック図である。 第2実施形態に係る情報処理装置3における制御部33が担う機能を示す機能ブロック図である。 第2実施形態に係る計測光の光度設定に用いられる二次元のルックアップテーブルTLの一例を示す概略図である。
 以下、図面を用いて本発明の実施形態について説明する。以下に示す実施形態中で示した各種特徴事項は、互いに組み合わせ可能である。
 ところで、本実施形態に登場するソフトウェアを実現するためのプログラムは、コンピュータが読み取り可能な非一時的な記録媒体(Non-Transitory Computer-Readable Medium)として提供されてもよいし、外部のサーバからダウンロード可能に提供されてもよいし、外部のコンピュータで当該プログラムを起動させてクライアント端末でその機能を実現(いわゆるクラウドコンピューティング)するように提供されてもよい。
 また、本実施形態において「部」とは、例えば、広義の回路によって実施されるハードウェア資源と、これらのハードウェア資源によって具体的に実現されうるソフトウェアの情報処理とを合わせたものも含みうる。また、本実施形態においては様々な情報を取り扱うが、これら情報は、電圧・電流といった信号値の物理的な値、0又は1で構成される2進数のビット集合体としての信号値の高低、又は量子的な重ね合わせ(いわゆる量子ビット)によって表され、広義の回路上で通信・演算が実行されうる。
 また、広義の回路とは、回路(Circuit)、回路類(Circuitry)、プロセッサ(Processor)、及びメモリ(Memory)等を少なくとも適当に組み合わせることによって実現される回路である。すなわち、特定用途向け集積回路(Application Specific Integrated Circuit:ASIC)、プログラマブル論理デバイス(例えば、単純プログラマブル論理デバイス(Simple Programmable Logic Device:SPLD)、複合プログラマブル論理デバイス(Complex Programmable Logic Device:CPLD)、及びフィールドプログラマブルゲートアレイ(Field Programmable Gate Array:FPGA))等を含むものである。
1.第1実施形態の全体構成
 第1章では、第1実施形態の全体構成について順に説明する。
1.1 計測装置1
 本節では、第1実施形態に係る計測装置について説明する。図1は、計測装置1の全体構成図である。図1に示されるように、計測装置1は、計測ユニット2と、情報処理装置3と、表示装置8とを備える。計測装置1は、被計測物の計測面7を非接触で三次元計測する。情報処理装置3は、光検出部24の検出信号を入力可能に計測ユニット2に電気的に接続されている。以下各構成要素についてさらに詳述する。
1.2 計測ユニット2
 計測ユニット2は、ガイド光源部21と、計測光源部22と、撮像部23と、光検出部24と、ビームスプリッタ25と、を有する。計測ユニット2は、XYステージ(不図示)、直行座標型ロボットのハンド(不図示)等に備え付けられ、被計測物を非接触で三次元計測する。
(ガイド光源部21)
 ガイド光源部21は、ガイド光を出力する。図2は、ガイド光のスポットの形状SPの一例である。ガイド光源部21は、このような形状を有するガイド光を複数の計測基準点MB(MB1、MB2、・・・、MBn-2、MBn-1、MBn)の計測面7に対して連続的に照射するように構成される。図3は、被計測物の計測基準点MBと計測面7である。計測基準点MBは、計測面7までの2点間の距離の一端である。計測基準点MBは、被計測物を三次元的に計測する基準となる点である。そのため計測基準点MBは、絶対座標系の座標点である。ガイド光源部21は、ガイド光を各計測基準点MBの垂直に位置する被計測物の計測面7に照射する。計測基準点MBの高さ方向の座標点は、同一であり、被計測物とは干渉しない位置に設定される。計測基準点MBの配列は、直線上にあっても格子点状にあってもよい。ガイド光は、可視光であり、所定のスポット形状で計測面7に対して照射される。スポット形状は、円形状であってもよいし、矩形であってもよい。
 ガイド光は、可視光、赤外光、又は紫外光であればよい。後述する撮像部23が、ガイド光を検知できればよい。例えば、ガイド光の波長は、600nm~1200nmとすることができる。ガイド光の波長は、具体的には例えば、600,620,640,660,680,700,720,740,760,780,800,820,840,860,880,900,920,940,960,980,1000,1020,1040,1060,1080,1100,1120,1140,1160,1180,1200nmであり、ここで例示した数値の何れか2つの間の範囲内であってもよい。
(計測光源部22)
 計測光源部22は、計測光を出力し、これを複数の計測基準点MBの計測面7に照射するように構成される。計測光は、可視光、赤外光、又は紫外光であればよい。ここで計測光は、例えば、レーザー光であり、さらに好ましくは、計測光源部22は、光コム光源である。
(撮像部23)
 撮像部23は、第1計測基準点MB1の計測面7におけるガイド光のスポットを撮像するように構成される。即ち、撮像部23は、計測面7で反射されたガイド光の反射成分を検出し、そのスポットを撮像する。そのため撮像部23は、例えば、光撮像素子であり、CCD(Charge Couple Devices)イメージセンサーでもCMOS(Completely Metal Oxide Semiconductor)イメージセンサーであってもよい。ガイド光の波長に対応したセンサーを有する撮像部23が選択される。
(光検出部24)
 光検出部24は、参照光検出部241と、計測光検出部242とを有する。参照光検出部241は、後述するビームスプリッタ25で反射した計測光の一部を検出して、参照データを抽出する。計測光検出部242は、計測光の、計測面7における散乱光反射成分を検出するように構成される。光検出部24は、光などの電磁気的エネルギーを検出し、電気に変換する計測用デバイスである。ここでは、光検出部24は、電気的データに変換可能に構成される。
(ビームスプリッタ25)
 ビームスプリッタ25は、計測ユニット2内に配置される。ビームスプリッタ25は、計測光源部22から照射した計測光の一部を参照光検出部241に向けて反射させる。ビームスプリッタ25は、残りの光を計測光として透過させ、反射経路から進入した計測光を計測光検出部242に向けて反射させる。
1.3 計測面7
 計測面7は、計測光及びガイド光が照射される被計測物の表面である。計測装置1は、計測基準点MBから計測面7までの距離を三次元計測する。図4は、Y軸周りに傾きθyを有する被計測物の態様であり、図4A~図4Cは、それぞれ平面図、正面図及び側面図である。図5は、X軸周りに傾きθx、Y軸周りに傾きθyを有する被計測物の態様であり、図5A~図5Cは、それぞれ平面図、正面図及び側面図である。両図は、ともに計測装置1が、計測開始点MSから計測面7までの第1距離Lを計測している状態を表している。計測装置1は、後述する手法に基づいて計測面7の傾きを算出する。傾きは、X軸又はY軸に限定されず、両軸同時に傾いてもよい。計測面7の傾きを算出することで精度の高い距離を三次元計測することができる。
1.4 情報処理装置3
 図6は、計測装置1のハードウェア構成を示すブロック図である。情報処理装置3は、計測装置1の構成要素である。図7は、情報処理装置3のハードウェア構成を示すブロック図である。図8は、情報処理装置3における制御部33が担う機能を示す機能ブロック図である。情報処理装置3は、通信部31と、記憶部32と、制御部33(取得部331、計測部332、撮像制御部333、モード切替部334、結果保存部335、表示制御部336)とを有し、これらの構成要素が情報処理装置3の内部において通信バス30を介して電気的に接続されている。以下、各構成要素についてさらに説明する。
(通信部31)
 通信部31は、USB、IEEE1394、Thunderbolt、有線LANネットワーク通信等といった有線型の通信手段が好ましいものの、無線LANネットワーク通信、LTE/3G等のモバイル通信、Bluetooth(登録商標)通信等を必要に応じて含めてもよい。即ち、これら複数の通信手段の集合として実施することがより好ましい。特に、ガイド光源部21と、計測光源部22と、撮像部23と、光検出部24とは、所定の通信規格において通信可能に構成されることが好ましい。
 通信部31は、光検出部24が検出したデータを受信するように構成される。また、通信部31は、ガイド光源部21及び計測光源部22が光を出力するためのデータを送信可能に構成される。このような構成により、計測装置1が、計測基準点MBから計測面7までの距離を三次元計測する制御が可能となる。
(記憶部32)
 記憶部32は、前述の記載により定義される様々な情報を記憶する。これは、例えばソリッドステートドライブ(Solid State Drive:SSD)等のストレージデバイスとして、あるいは、プログラムの演算に係る一時的に必要な情報(引数、配列等)を記憶するランダムアクセスメモリ(Random Access Memory:RAM)等のメモリとして実施されうる。また、これらの組合せであってもよい。特に、記憶部32は、撮像部23及び光検出部24が検出したデータを記憶する。また、記憶部32は、取得プログラム、計測プログラム、結果保存プログラム、及び表示制御プログラムを記憶する。また、記憶部32は、これ以外にも制御部33によって実行される情報処理装置3に係る種々のプログラム等を記憶している。
(制御部33)
 制御部33は、情報処理装置3に関連する全体動作の処理・制御を行う。制御部33は、例えば不図示の中央処理装置(Central Processing Unit:CPU)である。制御部33は、記憶部32に記憶された所定のプログラムを読み出すことによって、情報処理装置3に係る種々の機能を実現する。具体的には取得機能、計測機能、結果保存機能、及び表示制御機能が該当する。即ち、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されることで、取得部331、計測部332、撮像制御部333、モード切替部334、結果保存部335、及び表示制御部336として実行されうる。なお、図6においては、単一の制御部33として表記されているが、実際はこれに限るものではなく、機能ごとに複数の制御部33を有するように実施してもよい。またそれらの組合せであってもよい。以下、取得部331、計測部332、撮像制御部333、モード切替部334、結果保存部335、及び表示制御部336についてさらに詳述する。
(取得部331)
 取得部331は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。取得部331は、撮像部23及び光検出部24が検出した電気的データを、通信部31を介して取得するように構成されている。
(計測部332)
 計測部332は、撮像部23が撮像したガイド光のスポットの形状SPに基づいて計測面7の傾きを算出する。図2では、スポットの形状SPは正方形であるが、円形でも矩形でもよく、一定の面積があれば特に限定されない。図9は、撮像したガイド光のスポットの形状SPの一例である。被計測物の形状は複雑で、凹凸や段差もあるため、図9に示したように、ガイド光のスポットの形状SPは様々である。図9に示されているスポットの形状SPは、X軸周りに30°、Y軸周りに30°傾いた計測面7で撮像した形状である。スポットの形状SP1は、平滑な計測面7で撮像した形状である。スポットの形状SP2は、撮像部23から計測面7までの距離が離れた場合の形状である。スポットの形状SP3は、計測面7に凸部がある場合の形状である。スポットの形状SP4は、計測面7に凹部がある場合の形状である。スポットの形状SP5及びスポットの形状SP6は、計測面7に不連続面がある場合の形状である。計測部332は、このような複雑なスポットの形状SPを基づいて、三次元空間での計測面7のX方向及びY方向の傾きを算出することができる。
 計測装置1の記憶部32は、ガイド光のスポットの形状SPに係る参照データを記憶している。ここで参照データとは、ガイド光の照射方向に垂直な面に対する勾配と、各勾配におけるスポットの形状SPとを紐付けたデータである。図10は、スポットの形状SPに係る参照データでの一例である。参照データは、スポットの形状SPを予め、X軸周り及びY軸周りに回転させた白黒画像である。計測部332は、撮像したスポットの形状SPを前処理し、所定の閾値で二値化し、白黒画像化して、これを参照データの各画像とパターンマッチングを行い、最も照合度が高い参照データに基づいて、計測面7の傾きを算出する。図10では、平面座標の第4象限のみの参照データが示されているが、第1象限、第2象限及び第3象限の参照データを用意してもよい。また、X軸周り及びY軸周りの回転角度を細かく刻んで、参照データを用意してもよい。また、本処理を行うにあたり、撮像したスポットの形状SPの大きさを適宜変えて、パターンマッチングを行うと、さらに精度の高い結果が得られる。
 ガイド光のスポットの形状SPに係る参照データは、勾配と、各勾配におけるスポットの形状SPとの相関を学習させた学習済みモデルであってもよい。学習済みモデルは、スポットの形状SPをX軸周り及びY軸周りに回転させて作成した各勾配とスポットの形状SPに係る参照データとを紐付けて、作成される。学習済みモデルは、予め記憶部32に記憶される。図10に示されているように多くのガイド光のスポットの形状SPを、X軸周り及びY軸周りに種々回転させることで、学習済みモデルを作成することができる。
 計測部332は、学習済みモデルに基づいて、計測面7の傾きを算出するように構成される。そのため、撮像部23が撮像したガイド光のスポットの形状SPを、学習済みモデルに入力すると、計測部332は、最も相関関係の強い参照データを特定し、計測面7の傾きを算出する。多くの参照データを用いて学習済みモデルを作成することで、計測部332は、計測面7の傾きを精確に算出することができる。
 また、計測部332は、幾何学的変換を用いて、計測面7の傾きを算出してもよい。例えば、幾何学的変換の1つである射影変換が用いられる。任意の座標(x,y)が数1の射影変換によって(x’,y’)に移る。ここで、a,b,c,d,e,f,g,hは、パラメータである。
Figure JPOXMLDOC01-appb-M000001
 数1の逆変換式を用いて、座標(x’,y’)をX軸周り及びY軸周りに所定の角度で回転させ、座標(x,y)が得られる。これを、撮像したスポットの形状SPが、正方形のスポットの形状SPになるまで繰り返す。図11は、射影変換の逆変換式に基づいて計測面7の傾きを算出する方法である。図11に示されるように、撮像したスポットの形状SP8の各頂点A’、B’、C’、D’を傾きθx、θyで逆変換行う。換言すると、逆変換したスポットの形状SP7の各頂点A,B,C,Dから得られるAB、BC、CD、DA各辺の長さが等しくなるまで、傾きθx、θyを変化させて、この逆変換を繰り返し続ける。各辺の長さが略同一になったとき、逆変換を停止し、θx、θyを計測面7の傾きとする。
 計測部332は、算出された計測面7の傾きに基づいて第1計測基準点MB1の次の回次にあたる第2計測基準点MB2の深さを算出するように構成される。この深さに基づいて、計測部332は、次の計測基準点MBで、計測光源部22がワーキングディスタンス内に入るかどうかを判断する。ワーキングディスタンス内である場合、計測光源部22は、高さ方向へは移動しない。ワーキングディスタンス外である場合、ワーキングディスタンス内に入るように、計測光源部22は、計測開始点MSに移動する。被計測物の形状が複雑で、計測基準点MBから計測面7までの距離が焦点距離を外れた場合、精度の高い計測ができない。そのため、計測面7の傾きに基づいて計測面7の深さを算出し、ワーキングディスタンス内に入るように、計測光源部22を計測開始点MSまで移動させることで、精度の高い計測をすることができる。計測開始点MSは、ワーキングディスタンス内の位置であるため、計測基準点MBとの関係では上下両方に位置する。なお、図3~図5では、計測ユニット2の先端が、計測基準点MB及び計測開始点MSになるようにしている。計測光源部22が、ワーキングディスタンス内に入る限り、支障はない。
 計測部332は、計測面7が反射した計測光の散乱光反射成分に基づいて、計測開始点MSから計測面7における計測光の反射点までの距離である第1距離Lを連続的に計測する。計測開始点MSは、ワーキングディスタンス内の位置にある。第1距離Lは、計測装置1が物理的に計測した距離である。計測部332は、この第1距離Lと、計測基準点MBから計測開始点MSまでの距離である第2距離Mとを加算して計測距離を算出する。第2距離Mは、予め、ワーキングディスタンス内に入るように計測光源部22を移動させた距離であり、計測基準点MBから計測開始点MSまでの距離であり、計測部332が算出した値である。第2距離Mは、計測面7の深さによって変動する。計測装置1は、このように計測面7の形状を計測するように構成される。なお、計測装置1が物理的に計測する距離は、計測光源部22から計測面7までの距離であるが、計測ユニット2の先端からの距離であってもよい。計測した距離を計測装置1の設計データを基に変換すればよく、計測の基準位置は特定しない。
 非接触で距離を計測する方法は、数多くある。ここでは、光パルス法の原理を用いて計測方法を説明する。計測部332は、計測光源部22に光を出力させ、参照光検出部241が検出した参照信号データ及び計測光検出部242が検出した計測信号データから、光の往復時間τを測定する。被計測物の計測面7までの第1距離Lは、数2のように求まる。
Figure JPOXMLDOC01-appb-M000002

 ただし、nは光路の平均屈折率、cは真空中の光速である。
 計測光源部22が光コム光源である場合、光コムによる干渉計測で距離を計測することができる。計測ユニット2にバンドパスフィルタ(不図示)を設け、高周波成分を切り出し、モード間隔周波数の電気的位相差を求めることで、距離が計測される。
(撮像制御部333)
 撮像制御部333は、前回の計測で算出された計測基準点MBから計測面7までの深さが撮像部23の被写界深度内に入るように、撮像部23の位置又はその焦点位置を調節するように構成される。計測基準点MBにおいて、常にガイド光のスポットの形状SPの焦点が合うように、撮像制御部333が撮像部23の位置を調節する。調節にあたり、撮像部23の位置又はその焦点位置を直接調節してもよいし、撮像部23を有する計測ユニット2の位置を調節してもよい。調節方法は限定されない。
 撮像制御部333は、調節された撮像部23の位置又はその焦点位置に基づいて、計測光源部22を計測基準点MBから計測開始点MSまで移動させるように構成される。即ち、計測光源部22がワーキングディスタンスから外れている場合、撮像制御部333は、計測面7に焦点が合うように、計測光源部22を計測開始点MSまで高さ方向に移動させる。既にワーキングディスタンス内である場合は、計測光源部22は移動しない。このように、計測基準点MBで、ワーキングディスタンス内に入るように計測光源部22を移動させることで安定した計測が可能となる。計測する毎に、計測面7の傾きを算出するため、次の計測基準点MBから計測面7までの深さを算出することができる。その深さより、撮像制御部333は、ガイド光のスポットの形状SPの焦点が合うように撮像部23の位置を調整し、さらに、計測光源部22がワーキングディスタンス内に入るように計測光源部22を移動させる。移動にあたり、計測光源部22のみを直接移動させてもよいし、計測光源部22を有する計測ユニット2を移動させてもよい。移動方法は限定されない。
(モード切替部334)
 モード切替部334は、ガイド光モードと計測光モードとを切り替えるように構成される。ここで、ガイド光モードとは、ガイド光源部21がガイド光を出力するモードであり、計測光モードとは、計測光源部22が計測光を出力するモードである。計測装置1が被計測物の計測面7を三次元的に計測する方法の一例として、最初にガイド光モードで、各計測基準点MBでの計測面7の傾き、及び各計測基準点MBから計測面7までの深さを算出し、次に計測光モードに切り替えて、各計測基準点MBから計測面7までの計測距離を算出する方法がある。本方法では、予め、ガイド光モードにおいて、各計測基準点MBの傾き、及び各計測基準点MBから計測面7までの深さを記憶部32に記憶させる。次に、計測光モードで、撮像制御部333が、これらのデータを記憶部32から読込み、これらのデータに基づいて、計測光源部22がワーキングディスタンス内に入るように、計測光源部22を移動させて、計測開始点MSから精確な距離を計測する。
(結果保存部335)
 結果保存部335は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。結果保存部335は、各計測基準点MBの座標点、ガイド光モードで算出した、各計測基準点MBにおける計測面7の傾き、各計測基準点MBから計測面7までの深さ等の計測に係るデータを記憶部32に記憶させる。
(表示制御部336)
 表示制御部336は、ソフトウェア(記憶部32に記憶されている)による情報処理がハードウェア(制御部33)によって具体的に実現されているものである。表示制御部336は、計測中又は計測終了後に、各計測基準点MBの座標点、各計測基準点MBにおける計測面7の傾き、各計測基準点MBから計測面7までの深さ等の計測に係るデータを表示装置8に表示させる。これらのデータは、生産現場での計測状況をリアルタイムで表示しているため、被計測物の計測面7の問題点を迅速に把握、特定することができる。その結果、素早い対策等に役立てられる。
2.計測方法
 第2節では、第1節で説明した計測装置1を用いた計測方法について説明する。計測方法は、ガイド光出力ステップと、撮像ステップと、傾き計測ステップと、撮像制御ステップと、計測光制御ステップと、計測光出力ステップと、計測光検出ステップと、距離計測ステップとを備える。ガイド光出力ステップでは、ガイド光を出力する。これを複数の計測基準点MBの計測面7に対して連続的に照射する。ここで計測基準点MBは、計測面7までの2点間の距離の一端である。撮像ステップでは、第1計測基準点MB1の計測面7におけるガイド光のスポットを撮像する。傾き計測ステップでは、撮像されたスポットの形状SPに基づいて計測面7の傾きを算出する。これに基づいて第1計測基準点MB1の次の回次にあたる第2計測基準点MB2の深さを算出する。撮像制御ステップでは、深さが撮像部23の被写界深度内に入るように、撮像部23の位置又はその焦点位置を調節する。計測光制御ステップでは、撮像部23の位置又はその焦点位置に基づいて、計測光源部22を計測基準点MBから計測開始点MSまで移動させる。計測光出力ステップでは、計測光を出力する。これを計測面7に照射する。計測光検出ステップでは、計測光の、計測面7における散乱光反射成分を検出する。距離計測ステップでは、散乱光反射成分に基づいて、計測開始点MSから計測面7における計測光の反射点までの距離である第1距離Lを連続的に計測し、第1距離Lと、計測基準点MBから計測開始点MSまでの距離である第2距離Mとを加算して計測距離を算出する。これにより計測面7の形状を計測する。具体的に、この計測方法を2つに分けて説明する。
2.1 計測基準点MBにおける計測面7の傾きの算出方法
 本節では、計測面7の傾きを算出する方法の一例を説明する。図12は、実施形態に係る計測面7の傾きを算出する方法のアクティビティ図である。以下、本図に沿って説明する。
(アクティビティA01)
 ユーザーは、モード切替部334でガイド光モードに切替える。
(アクティビティA02)
 ガイド光源部21は、ガイド光を出力する。
(アクティビティA03)
 計測部332は、最後の計測基準点MBかどうか確認する。
(アクティビティA04)
 最後の計測基準点MBでない場合、ガイド光源部21はガイド光を計測面7に照射する。最後の場合はアクティビティA14を実行する。
(アクティビティA05)
 計測部332は、最初の計測基準点MBかどうか確認する。
(アクティビティA06)
 最初の計測基準点MBでない場合、撮像制御部333は、計測基準点MBから計測面7までの深さを記憶部32から読み込む。
(アクティビティA07)
 撮像制御部333は、記憶部32から読み込んだ深さに基づいて、撮像部23を被写界深度内に入るように調整する。
(アクティビティA08)
 撮像部23は、被写界深度内に移動する。
(アクティビティA09)
 撮像部23は、ガイド光のスポットの形状SPを撮像する。
(アクティビティA10)
 取得部331は、ガイド光のスポットの形状SPの画像データを取得する。
(アクティビティA11)
 計測部332は、ガイド光のスポットの形状SPの画像データに基づいて、計測面7の傾きを算出する。
(アクティビティA12)
 計測部332は、計測面7の傾きに基づいて、次の計測基準点MBにおける計測面7までの深さを算出する。
(アクティビティA13)
 結果保存部335は、計測面7の傾きと次の計測基準点MBにおける計測面7までの深さを記憶部32に記憶させる。
(アクティビティA14)
 ガイド光源部21は、ガイド光の出力を停止し、処理を終了する。
2.2 計測基準点MBにおける計測面7までの距離の計測方法
 本節では、被計測物の計測面7までの距離を三次元計測する方法の一例について説明する。図13は、実施形態に係る計測面7までの距離の計測方法のアクティビティ図である。
(アクティビティA21)
 ユーザーは、モード切替部334で計測光モードに切替える。
(アクティビティA22)
 計測部332は、最後の計測基準点MBかどうかを確認する。
(アクティビティA23)
 最後の計測基準点MBでない場合、計測光源部22は、次の計測基準点MBに移動する。最後の場合は終了する。
(アクティビティA24)
 撮像制御部333は、最初の計測基準点MBかどうか確認する。
(アクティビティA25)
 最初の計測基準点MBでない場合、撮像制御部333は、記憶部32から計測基準点MBの深さを読み込む。
(アクティビティA26)
 撮像制御部333は、計測基準点MBの深さに基づいて、計測光源部22がワーキングディスタンスに入るように、計測開始点MSを算出する。
(アクティビティA27)
 計測光源部22は、計測開始点MSに移動する。
(アクティビティA28)
 計測光源部22は、計測光を出力する。
(アクティビティA29)
 参照光検出部241は、参照光を検出する。計測光検出部242は、計測光を検出する。
(アクティビティA30)
 取得部331は、参照信号データ及び計測信号データを取得する。
(アクティビティA31)
 計測部332は、参照信号データ及び計測信号データに基づき、計測開始点MSから計測面7までの第1距離Lを計測する。
(アクティビティA32)
 計測部332は、第1距離Lと計測基準点MBから計測開始点MSまでの第2距離Mとを加算し、計測基準点MBから計測面7までの距離を計測する。
(アクティビティA33)
 結果保存部335は、計測基準点MBから計測面7までの距離を記憶部32に記憶させる。
(アクティビティA34)
 計測光源部22は、計測光の出力を停止する。
3.第2実施形態の全体構成
 第3章では、第2実施形態の全体構成について順に説明する。前記の第1実施形態と重複する部分の説明は適宜省略する。
3.1 計測装置1
 本節では、第2実施形態に係る計測装置について説明する。図14は、第2実施形態に係る計測装置1の全体構成図である。図15は、第2実施形態に係る計測装置1のハードウェア構成を示すブロック図である。図14に示されるように、計測装置1は、第1実施形態と同様、計測ユニット2と、情報処理装置3と、表示装置8とを備える。計測装置1は、被計測物の計測面7を非接触で三次元計測する。情報処理装置3は、光検出部24及び照度計27の検出信号を入力可能に計測ユニット2に電気的に接続されている。以下、第1実施形態で説明された計測ユニット2及び情報処理装置3に追加された構成要素についてさらに詳述する。
3.2 計測ユニット2
 第2実施形態では、計測ユニット2は、ガイド光源部21と、計測光源部22と、撮像部23と、光検出部24と、ビームスプリッタ25と、第2ビームスプリッタ26と、照度計27とを有する。計測ユニット2は、XYステージ(不図示)、直行座標型ロボットのハンド(不図示)等に備え付けられ、被計測物を非接触で三次元計測する。これらの構成要素のうち、第2実施形態に加えられた第2ビームスプリッタ26と照度計27について説明する。
(第2ビームスプリッタ26)
 第2ビームスプリッタ26は、計測ユニット2内に配置される。第2ビームスプリッタ26は、計測光源部22から照射した計測光を計測面7に向けて透過させ、反射経路から進入した計測面7で反射した散乱光の一部を所定の分割比で後述する照度計27に向けて反射させ、残りの散乱光をビームスプリッタ25に向けて透過させる。
(照度計27)
 照度計27は、光度計ともよばれ、照度や放射照度を測定する光度測定機器であり、散乱光、吸光、蛍光等の光の強さを測定する。ここでは、照度計27は、計測ユニット2に取り付けられ、計測面7で反射した散乱光の一部の強さを測定する。
3.3 情報処理装置3
 情報処理装置3は、計測装置1の構成要素である。図16は、第2実施形態に係る情報処理装置3における制御部33が担う機能を示す機能ブロック図である。情報処理装置3は、通信部31と、記憶部32と、制御部33(取得部331、計測部332、撮像制御部333、モード切替部334、結果保存部335、表示制御部336及び光度設定部337)とを有し、これらの構成要素が情報処理装置3の内部において通信バス30を介して電気的に接続されている。以下、第1実施形態の構成要素に追加された光度設定部337についてさらに説明する。
(光度設定部337)
 光度設定部337は、計測面7の傾きに基づいて、計測光源部22から出力される計測光の光度を設定してもよい。計測面7の傾きは、前述したように計測部332が計測した計測面7のX軸周りの傾きθx、及びY軸周りの傾きθyの傾きである。具体的には、各軸の傾きであるθx及びθyの平均値、2つの角度のうち最小値、2つの角度のうち最大値等の両傾きの算出結果に基づいて、光度設定部337は、計測光の光度を設定する。これらの両傾きの算出結果の値が小さいときは、計測面7で反射した散乱光の輝度が大きいため、光度設定部337は、計測光の光度を小さく設定する。また、逆にこれらの両傾きの算出結果の値が大きいときは、計測面7で反射した散乱光の輝度が小さいため、光度設定部337は、計測光の光度を大きく設定する。
 図17は、第2実施形態に係る計測光の光度設定に用いられる二次元のルックアップテーブルTLの一例を示す概略図である。図17に示したように、光度設定部337は、二次元のルックアップテーブルTLを用いて、計測光の光度を設定してもよい。即ち、二次元のルックアップテーブルTLの横軸をX軸周りの傾きθxとし、縦軸をY軸周りの傾きθyとし、各配列には、計測光の光度の値が設定される。ここで値は、計測面7のX軸周りの傾きθx及びY軸周りの傾きθyが10°以下の計測光の光量に対する比率である。このような二次元のルックアップテーブルTLを記憶部32に記憶させておくことで、光度設定部337は、X軸周りの傾きθx及び横軸をY軸周りの傾きθyから、二次元のルックアップテーブルTLの配列を特定し、記憶部32から読み込まれた値を用いて、計測光の光度を設定する。なお、ルックアップテーブルTLの縦軸、横軸の各傾きの設定値及び各配列の値は、計測光の波長、計測面7の材質、表面処理の状態等の計測条件によって決定される。
 光度設定部337は、計測面7で反射した散乱光に基づいて、計測光源部22から出力される計測光の光度を設定してもよい。ここでは、散乱光の強さに基づいて、光度設定部337が計測光源部22から出力される計測光の光度を設定する例を取り上げて説明する。図15に表されたように、散乱光の強さを測定する照度計27は計測ユニット2に取り付けられる。計測ユニット2内に配置された第2ビームスプリッタ26が、計測面7で反射した散乱光の一部を照度計27に向けて反射させる。このような構成により、照度計27は、計測面7で反射した散乱光の強さを測定する。具体的には、照度計27が測定した散乱光の強さが小さいとき、光度設定部337は、計測光源部22から出力される計測光の光度を大きく設定する。また、逆に照度計27が測定した散乱光の強さが大きいとき、光度設定部337は、計測光源部22から出力される計測光の光度を小さく設定する。
 なお、照度計27の代わりに、計測光検出部242から変換された電気信号に基づいて、計測装置1は、散乱光の強さを測定してもよい。さらに、撮像部23が撮像した計測面7におけるガイド光のスポットに基づいて散乱光の強さを測定してもよい。例えば、具体的には、撮像されたスポットの輝度画像を画像処理することで散乱光の強さを測定する。
 このように、光度設定部337が計測面7で反射した散乱光の強さに基づいて計測光源部22から出力される計測光の光度することで、常に安定した計測ができ、かつ適切な光量で計測光源部22から計測光を出力させることができる。散乱光の強さに基づいて計測光の光量を設定する機構によって、三次元計測の安定性と省エネが実現される。
4.その他
 下記のような態様によって前述の実施形態を実施してもよい。
(1)撮像制御部333が、計測中に次の計測基準点MBで被写界深度に入るように撮像部23を調整し、併せてワーキングディスタンス内に入るように計測光源部22を計測開始点に移動させてもよい。移動後に、計測部332が計測面7までの距離を計測する。
(2)ガイド光のスポットの形状SPは、実施形態の正方形に限定されない。スポットの形状SPは、円形でも他の矩形でもよい。
(3)距離の計測は、前述の方法に限定されず、光変調法、合致法、光コム干渉計測法等を適宜採用してもよい。
(4)計測光がガイド光の機能を有してもよい。即ち、計測装置1は、1つの光源から出力される光を用いて、計測面7の傾き、深さを算出し、さらに計測面7までの距離を計測してもよい。
(5)プログラムであって、コンピュータに前述の計測方法を実行させるものが提供されてもよい。
 さらに、次に記載の各態様で提供されてもよい。
 前記計測装置において、計測光源部と、計測光検出部とをさらに備え、前記計測光源部は、計測光を出力し、これを前記計測面に照射するように構成され、前記計測光検出部は、前記計測光の、前記計測面における散乱光反射成分を検出するように構成され、前記計測部は、前記散乱光反射成分に基づいて、計測開始点から前記計測面における前記計測光の反射点までの距離である第1距離を連続的に計測し、前記第1距離と、前記計測基準点から前記計測開始点までの距離である第2距離とを加算して計測距離を算出し、これにより前記計測面の形状を計測するように構成される、もの。
 前記計測装置において、撮像制御部をさらに備え、前記撮像制御部は、前記深さが前記撮像部の被写界深度内に入るように、前記撮像部の位置又はその焦点位置を調節するように構成される、もの。
 前記計測装置において、前記撮像制御部は、前記撮像部の位置又はその焦点位置に基づいて、前記計測光源部を前記計測基準点から計測開始点まで移動させるように構成される、もの。
 前記計測装置において、モード切替部をさらに備え、前記モード切替部は、ガイド光モードと計測光モードとを切り替えるように構成され、ここで、前記ガイド光モードとは、前記ガイド光源部が前記ガイド光を出力するモードであり、前記計測光モードとは、前記計測光源部が前記計測光を出力するモードである、もの。
 前記計測装置において、記憶部をさらに備え、前記記憶部は、参照データを記憶しており、ここで前記参照データとは、前記ガイド光の照射方向に垂直な面に対する勾配と、各勾配における前記スポットの形状とを紐付けたデータで、前記計測部は、前記参照データに基づいて、前記計測面の傾きを算出するように構成される、もの。
 前記計測装置において、前記参照データは、前記勾配と、各勾配における前記スポットの形状との相関を学習させた学習済みモデルであり、前記計測部は、前記学習済みモデルに基づいて、前記計測面の傾きを算出するように構成される、もの。
 前記計測装置において、前記計測光源部は、光コム光源である、もの。
 前記計測装置において、前記スポットの形状は、矩形である、もの。
 前記計測装置において、光度設定部をさらに備え、前記光度設定部は、前記計測面の傾き又は前記計測面で反射した散乱光に基づいて、前記計測光源部から出力される前記計測光の光度を設定する、もの。
 計測方法であって、ガイド光出力ステップと、撮像ステップと、傾き計測ステップと、撮像制御ステップと、計測光制御ステップと、計測光出力ステップと、計測光検出ステップと、距離計測ステップとを備え、前記ガイド光出力ステップでは、ガイド光を出力し、これを複数の計測基準点の計測面に対して連続的に照射し、ここで前記計測基準点は、前記計測面までの2点間の距離の一端であり、前記撮像ステップでは、第1計測基準点の前記計測面における前記ガイド光のスポットを撮像し、前記傾き計測ステップでは、撮像された前記スポットの形状に基づいて前記計測面の傾きを算出し、これに基づいて前記第1計測基準点の次の回次にあたる第2計測基準点の深さを算出し、前記撮像制御ステップでは、前記深さが撮像部の被写界深度内に入るように、前記撮像部の位置又はその焦点位置を調節し、前記計測光制御ステップでは、前記撮像部の位置又はその焦点位置に基づいて、計測光源部を前記計測基準点から計測開始点まで移動させ、前記計測光出力ステップでは、計測光を出力し、これを前記計測面に照射し、前記計測光検出ステップでは、前記計測光の、前記計測面における散乱光反射成分を検出し、前記距離計測ステップでは、前記散乱光反射成分に基づいて、前記計測開始点から前記計測面における前記計測光の反射点までの距離である第1距離を連続的に計測し、前記第1距離と、前記計測基準点から前記計測開始点までの距離である第2距離とを加算して計測距離を算出し、これにより前記計測面の形状を計測する、方法。
 プログラムであって、コンピュータに前記計測方法を実行させる、もの。
 もちろん、この限りではない。
 最後に、本発明に係る種々の実施形態を説明したが、これらは、例として提示したものであり、発明の範囲を限定することは意図していない。当該新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。当該実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれるものである。
1   :計測装置
2   :計測ユニット
21  :ガイド光源部
22  :計測光源部
23  :撮像部
24  :光検出部
241 :参照光検出部
242 :計測光検出部
25  :ビームスプリッタ
26  :第2ビームスプリッタ
27  :照度計
3   :情報処理装置
30  :通信バス
31  :通信部
32  :記憶部
33  :制御部
331 :取得部
332 :計測部
333 :撮像制御部
334 :モード切替部
335 :結果保存部
336 :表示制御部
337 :光度設定部
7   :計測面
8   :表示装置
L   :第1距離
M   :第2距離
MB  :計測基準点
MB1 :第1計測基準点
MB2 :第2計測基準点
MB3 :第3計測基準点
MBn-2 :第n-2計測基準点
MBn-1 :第n-1計測基準点
MBn :第n計測基準点
MS  :計測開始点
SP  :スポットの形状
SP1 :スポットの形状
SP2 :スポットの形状
SP3 :スポットの形状
SP4 :スポットの形状
SP5 :スポットの形状
SP6 :スポットの形状
SP7 :スポットの形状
SP8 :スポットの形状
TL  :ルックアップテーブル
θx  :傾き
θy  :傾き

Claims (12)

  1. 計測装置であって、
     ガイド光源部と、撮像部と、計測部とを備え、
     前記ガイド光源部は、ガイド光を出力し、これを複数の計測基準点の計測面に対して連続的に照射するように構成され、ここで前記計測基準点は、前記計測面までの2点間の距離の一端であり、
     前記撮像部は、第1計測基準点の前記計測面における前記ガイド光のスポットを撮像するように構成され、
     前記計測部は、撮像された前記スポットの形状に基づいて前記計測面の傾きを算出し、これに基づいて前記第1計測基準点の次の回次にあたる第2計測基準点の深さを算出するように構成される、
    もの。
  2. 請求項1に記載の計測装置において、
     計測光源部と、計測光検出部とをさらに備え、
     前記計測光源部は、計測光を出力し、これを前記計測面に照射するように構成され、
     前記計測光検出部は、前記計測光の、前記計測面における散乱光反射成分を検出するように構成され、
     前記計測部は、
      前記散乱光反射成分に基づいて、計測開始点から前記計測面における前記計測光の反射点までの距離である第1距離を連続的に計測し、
      前記第1距離と、前記計測基準点から前記計測開始点までの距離である第2距離とを加算して計測距離を算出し、これにより前記計測面の形状を計測するように構成される、
    もの。
  3. 請求項2に記載の計測装置において、
     撮像制御部をさらに備え、
     前記撮像制御部は、前記深さが前記撮像部の被写界深度内に入るように、前記撮像部の位置又はその焦点位置を調節するように構成される、
    もの。
  4. 請求項3に記載の計測装置において、
     前記撮像制御部は、前記撮像部の位置又はその焦点位置に基づいて、前記計測光源部を前記計測基準点から計測開始点まで移動させるように構成される、
    もの。
  5. 請求項2~請求項4の何れか1つに記載の計測装置において、
     モード切替部をさらに備え、
     前記モード切替部は、ガイド光モードと計測光モードとを切り替えるように構成され、ここで、前記ガイド光モードとは、前記ガイド光源部が前記ガイド光を出力するモードであり、前記計測光モードとは、前記計測光源部が前記計測光を出力するモードである、
    もの。
  6. 請求項2~請求項5の何れか1つに記載の計測装置において、
     記憶部をさらに備え、
     前記記憶部は、参照データを記憶しており、ここで前記参照データとは、前記ガイド光の照射方向に垂直な面に対する勾配と、各勾配における前記スポットの形状とを紐付けたデータで、
     前記計測部は、前記参照データに基づいて、前記計測面の傾きを算出するように構成される、
    もの。
  7. 請求項6に記載の計測装置において、
     前記参照データは、前記勾配と、各勾配における前記スポットの形状との相関を学習させた学習済みモデルであり、
     前記計測部は、前記学習済みモデルに基づいて、前記計測面の傾きを算出するように構成される、
    もの。
  8. 請求項2~請求項7の何れか1つに記載の計測装置において、
     前記計測光源部は、光コム光源である、
    もの。
  9. 請求項1~請求項8の何れか1つに記載の計測装置において、
     前記スポットの形状は、矩形である、
    もの。
  10. 請求項2~請求項8の何れか1つに記載の計測装置において、
     光度設定部をさらに備え、
     前記光度設定部は、前記計測面の傾き又は前記計測面で反射した散乱光に基づいて、前記計測光源部から出力される前記計測光の光度を設定する、
    もの。
  11. 計測方法であって、
     ガイド光出力ステップと、撮像ステップと、傾き計測ステップと、撮像制御ステップと、計測光制御ステップと、計測光出力ステップと、計測光検出ステップと、距離計測ステップとを備え、
     前記ガイド光出力ステップでは、ガイド光を出力し、これを複数の計測基準点の計測面に対して連続的に照射し、ここで前記計測基準点は、前記計測面までの2点間の距離の一端であり、
     前記撮像ステップでは、第1計測基準点の前記計測面における前記ガイド光のスポットを撮像し、
     前記傾き計測ステップでは、撮像された前記スポットの形状に基づいて前記計測面の傾きを算出し、これに基づいて前記第1計測基準点の次の回次にあたる第2計測基準点の深さを算出し、
     前記撮像制御ステップでは、前記深さが撮像部の被写界深度内に入るように、前記撮像部の位置又はその焦点位置を調節し、
     前記計測光制御ステップでは、前記撮像部の位置又はその焦点位置に基づいて、計測光源部を前記計測基準点から計測開始点まで移動させ、
     前記計測光出力ステップでは、計測光を出力し、これを前記計測面に照射し、
     前記計測光検出ステップでは、前記計測光の、前記計測面における散乱光反射成分を検出し、
     前記距離計測ステップでは、
      前記散乱光反射成分に基づいて、前記計測開始点から前記計測面における前記計測光の反射点までの距離である第1距離を連続的に計測し、
      前記第1距離と、前記計測基準点から前記計測開始点までの距離である第2距離とを加算して計測距離を算出し、これにより前記計測面の形状を計測する、
    方法。
  12. プログラムであって、
     コンピュータに請求項11に記載の計測方法を実行させる、
    もの。
PCT/JP2021/005742 2020-04-03 2021-02-16 計測装置、計測方法及びプログラム WO2021199744A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP21778884.3A EP4130652A4 (en) 2020-04-03 2021-02-16 MEASURING DEVICE, MEASURING METHOD AND PROGRAM
JP2022511640A JPWO2021199744A1 (ja) 2020-04-03 2021-02-16
US17/913,568 US20230107896A1 (en) 2020-04-03 2021-02-16 Measurement device, measurement method, and program
CN202180024721.4A CN115335657A (zh) 2020-04-03 2021-02-16 测量装置、测量方法以及程序

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020067655 2020-04-03
JP2020-067655 2020-04-03

Publications (1)

Publication Number Publication Date
WO2021199744A1 true WO2021199744A1 (ja) 2021-10-07

Family

ID=77930258

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/005742 WO2021199744A1 (ja) 2020-04-03 2021-02-16 計測装置、計測方法及びプログラム

Country Status (5)

Country Link
US (1) US20230107896A1 (ja)
EP (1) EP4130652A4 (ja)
JP (1) JPWO2021199744A1 (ja)
CN (1) CN115335657A (ja)
WO (1) WO2021199744A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05231832A (ja) 1992-02-24 1993-09-07 I N R Kenkyusho:Kk 三次元形状測定方法及び装置
JP2008523353A (ja) * 2004-03-08 2008-07-03 エレクトロニック・スクリプティング・プロダクツ・インコーポレイテッド 長寸の物体の方向パラメータを決定するための装置及び方法
WO2009098803A1 (ja) * 2008-02-08 2009-08-13 Dainippon Screen Mfg.Co., Ltd. 画像情報生成装置及び画像情報生成方法
JP2014126381A (ja) * 2012-12-25 2014-07-07 Nikon Corp 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及び形状測定プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003202213A (ja) * 2001-10-29 2003-07-18 Mitsutoyo Corp 姿勢検出センサ、加速度センサ及びそれを用いた移動経路計測装置
US7312879B2 (en) * 2005-08-23 2007-12-25 University Of Washington Distance determination in a scanned beam image capture device
US11880178B1 (en) * 2010-11-16 2024-01-23 Ectoscan Systems, Llc Surface data, acquisition, storage, and assessment system
JP2019523393A (ja) * 2016-05-23 2019-08-22 コンティンユーズ バイオメトリクス リミテッドContinUse Biometrics Ltd. 物体の深さ特性評価に使用するシステム及び方法
JP7157547B2 (ja) * 2018-04-20 2022-10-20 株式会社キーエンス 形状測定装置、形状測定方法及び形状測定プログラム
JP7102302B2 (ja) * 2018-09-10 2022-07-19 京セラ株式会社 電磁波検出装置の調整方法
KR20220144801A (ko) * 2020-01-14 2022-10-27 피엑스이 컴퓨테이셔널 이미징 엘티디 물체의 측정 및 광학 이미징을 위한 시스템 및 방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05231832A (ja) 1992-02-24 1993-09-07 I N R Kenkyusho:Kk 三次元形状測定方法及び装置
JP2008523353A (ja) * 2004-03-08 2008-07-03 エレクトロニック・スクリプティング・プロダクツ・インコーポレイテッド 長寸の物体の方向パラメータを決定するための装置及び方法
WO2009098803A1 (ja) * 2008-02-08 2009-08-13 Dainippon Screen Mfg.Co., Ltd. 画像情報生成装置及び画像情報生成方法
JP2014126381A (ja) * 2012-12-25 2014-07-07 Nikon Corp 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及び形状測定プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4130652A4

Also Published As

Publication number Publication date
CN115335657A (zh) 2022-11-11
EP4130652A1 (en) 2023-02-08
EP4130652A4 (en) 2023-10-04
US20230107896A1 (en) 2023-04-06
JPWO2021199744A1 (ja) 2021-10-07

Similar Documents

Publication Publication Date Title
US11962748B2 (en) Three dimensional depth mapping using dynamic structured light
US7701592B2 (en) Method and apparatus for combining a targetless optical measurement function and optical projection of information
JP7237024B2 (ja) 少なくとも1つの物体の位置を決定するための検出器
US9549168B2 (en) Hand held portable three dimensional scanner
US9170097B2 (en) Hybrid system
JP2002139304A (ja) 距離測定装置、及び距離測定方法
US11102459B2 (en) 3D machine-vision system
JP4383840B2 (ja) 3次元形状計測装置
JPWO2017038659A1 (ja) 運動検出装置及びそれを用いた三次元形状測定装置
JP4133753B2 (ja) 迂曲面の光波干渉測定方法および迂曲面測定用の干渉計装置
WO2021199744A1 (ja) 計測装置、計測方法及びプログラム
JP2015021891A (ja) 画像測定装置およびプログラム
WO2019230320A1 (ja) 視覚センサシステム、制御方法およびプログラム
JP2015010845A (ja) 情報処理装置、計測システム、制御システム、光量決定方法、プログラム及び記憶媒体
JP6820516B2 (ja) 表面形状測定方法
JP2021051090A (ja) 表面形状測定方法
US20220326379A1 (en) System and method for orthogonal laser metrology
JPH06221811A (ja) 光の二次元測定方法および表面粗さ測定方法と測定装置
JP3938341B2 (ja) 形状測定装置
Golnabi Design and operation of a laser scanning system
JPH0886616A (ja) 3次元画像計測方法及び装置
JPH0560518A (ja) 三次元座標計測装置
CN118258325A (en) Multispectral line structured light cooperative measurement method and device
JP2021060214A (ja) 測定装置、及び測定方法
KR20230144231A (ko) 라인빔을 이용한 형상 프로파일 측정장치

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21778884

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2022511640

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: 2021778884

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2021778884

Country of ref document: EP

Effective date: 20221103

NENP Non-entry into the national phase

Ref country code: DE