WO2023218899A1 - 計測システムおよび計測方法 - Google Patents

計測システムおよび計測方法 Download PDF

Info

Publication number
WO2023218899A1
WO2023218899A1 PCT/JP2023/015843 JP2023015843W WO2023218899A1 WO 2023218899 A1 WO2023218899 A1 WO 2023218899A1 JP 2023015843 W JP2023015843 W JP 2023015843W WO 2023218899 A1 WO2023218899 A1 WO 2023218899A1
Authority
WO
WIPO (PCT)
Prior art keywords
processing circuit
measurement
roughness parameter
evaluation
irradiation light
Prior art date
Application number
PCT/JP2023/015843
Other languages
English (en)
French (fr)
Inventor
享 橋谷
安寿 稲田
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2023218899A1 publication Critical patent/WO2023218899A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication

Definitions

  • the present disclosure relates to a measurement system and a measurement method.
  • a contact method that uses a probe
  • a non-contact method that uses irradiation light.
  • the contact method if the object is large, the measurement time becomes long.
  • the non-contact method if the non-contact method is used, the measurement time can be shortened even when the object is large. If measurement accuracy can be improved using a non-contact method, the uneven shape of an object can be measured more accurately in a shorter time.
  • the present disclosure provides a measurement system and a measurement method that can more accurately measure the uneven shape of an object.
  • a measurement system includes a light source that emits irradiation light for irradiating a plurality of measurement points included in at least one evaluation area on a surface of a target object, and a light source that emits irradiation light for irradiating a plurality of measurement points included in at least one evaluation area on a surface of a target object;
  • a photodetector that receives light and outputs a detection signal, and a processing circuit that calculates and outputs a roughness parameter regarding the uneven shape of the evaluation area based on the detection signal, and the processing circuit is configured to detect the irradiation light.
  • the roughness parameter is corrected according to an incident angle at which the light enters the evaluation area, a measured distance in the evaluation area, or a received light intensity obtained by irradiating the evaluation area with the irradiation light.
  • the general or specific aspects of the present disclosure may be implemented in a system, apparatus, method, integrated circuit, computer program or recording medium such as a computer readable recording disk, and the system, apparatus, method, integrated circuit, It may be realized by any combination of a computer program and a recording medium.
  • the computer-readable recording medium may include, for example, a non-volatile recording medium such as a CD-ROM (Compact Disc-Read Only Memory).
  • a device may be composed of one or more devices. When the device is composed of two or more devices, the two or more devices may be placed within one device, or may be separately placed within two or more separate devices.
  • “device” may refer not only to a device, but also to a system of devices.
  • FIG. 1 is a diagram schematically showing how a roughness parameter regarding the uneven shape of an object is measured.
  • FIG. 2A is a diagram schematically showing the distribution of a plurality of measurement points in the first evaluation region.
  • FIG. 2B is a diagram schematically showing the distribution of a plurality of measurement points in the second evaluation area.
  • FIG. 3 is a block diagram schematically showing the configuration of a measurement system according to exemplary embodiment 1 of the present disclosure.
  • FIG. 4A is a diagram schematically showing the relationship among the reference plane, arithmetic mean height, and root-square height in an evaluation region having an uneven shape.
  • FIG. 4B is a diagram schematically showing an example of a reference surface in an uneven shape having low-period undulations.
  • FIG. 4A is a diagram schematically showing the relationship among the reference plane, arithmetic mean height, and root-square height in an evaluation region having an uneven shape.
  • FIG. 4B is a diagram schematically showing an example of a reference surface in
  • FIG. 4C is a diagram schematically showing another example of a reference surface in an uneven shape having low-period undulations.
  • FIG. 5A is a graph showing the relationship between the incident angle of light and the roughness parameter.
  • FIG. 5B is a diagram illustrating an example of correction data stored in the storage device.
  • FIG. 5C is a diagram showing another example of correction data stored in the storage device.
  • FIG. 6 is a flowchart schematically showing an example of the correction data generation operation performed by the processing circuit in the first embodiment.
  • FIG. 7 is a flowchart schematically showing an example of a roughness parameter measurement operation performed by the processing circuit in the first embodiment.
  • FIG. 8 is a flowchart schematically showing an example of the correction data generation operation performed by the processing circuit in the second embodiment.
  • FIG. 9 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit in the second embodiment.
  • FIG. 10 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit in the third embodiment.
  • FIG. 11 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit in the fourth embodiment.
  • FIG. 12 is a flowchart schematically showing an example of the correction data generation operation performed by the processing circuit in the fifth embodiment.
  • FIG. 13 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit in the fifth embodiment.
  • FIG. 14 is a flowchart schematically showing an example of the correction data generation operation performed by the processing circuit in the sixth embodiment.
  • FIG. 15 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit in the sixth embodiment.
  • FIG. 16 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit in the seventh embodiment.
  • FIG. 17 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit in the eighth embodiment.
  • FIG. 18A is a flowchart schematically showing an example of the surface unevenness evaluation operation performed by the processing circuit in the ninth embodiment.
  • FIG. 18B is a block diagram schematically showing the flow of data input and generated in the surface unevenness evaluation operation.
  • FIG. 19A is a block diagram schematically showing a configuration example of an FMCW-LiDAR distance measuring device.
  • FIG. 19A is a block diagram schematically showing a configuration example of an FMCW-LiDAR distance measuring device.
  • FIG. 19B is a block diagram schematically showing a configuration example of the interference optical system shown in FIG. 19A.
  • FIG. 20 is a block diagram schematically showing a configuration example of an FMCW-LiDAR type measurement system including an integrated processing circuit.
  • FIG. 21 is a block diagram schematically showing a configuration example of a TOF distance measuring device.
  • FIG. 22 is a block diagram schematically showing a configuration example of a TOF measurement system including an integrated processing circuit.
  • all or part of a circuit, unit, device, member, or section, or all or part of a functional block in a block diagram may be, for example, a semiconductor device, a semiconductor integrated circuit (IC), or a large scale integration (LSI). ) may be implemented by one or more electronic circuits.
  • An LSI or IC may be integrated into one chip, or may be configured by combining a plurality of chips.
  • functional blocks other than the memory element may be integrated into one chip.
  • it is called LSI or IC, but the name changes depending on the degree of integration, and may be called system LSI, VLSI (very large scale integration), or ULSI (ultra large scale integration).
  • a field programmable gate array (FPGA), which is programmed after the LSI is manufactured, or a reconfigurable logic device that can reconfigure the connections inside the LSI or set up circuit sections inside the LSI can also be used for the same purpose.
  • FPGA field programmable gate array
  • the functions or operations of all or part of a circuit, unit, device, member, or section can be performed by software processing.
  • the software is recorded on one or more non-transitory storage media such as ROM, optical disk, hard disk drive, etc., and when the software is executed by a processor, the functions specified by the software are executed. It is executed by a processor and peripheral devices.
  • a system or apparatus may include one or more non-transitory storage media on which software is recorded, a processor, and required hardware devices, such as interfaces.
  • light includes not only visible light (wavelength of about 400 nm to about 700 nm) but also electromagnetic waves including ultraviolet light (wavelength of about 10 nm to about 400 nm) and infrared light (wavelength of about 700 nm to about 1 mm). means.
  • FIG. 1 is a diagram schematically showing how a roughness parameter regarding the uneven shape of an object is measured.
  • the X-axis, Y-axis, and Z-axis shown in FIG. 1 are orthogonal to each other.
  • FIG. 1 shows an object 10 having a surface 10s extending along the XY plane.
  • the object 10 is large, and its surface 10s is several meters square.
  • the surface 10s of the object 10 has an irregular uneven shape, and the irregularity of the unevenness is almost constant regardless of the position within the surface 10s.
  • FIG. 1 further shows a support 20 disposed on the surface 10s of the object 10 and an optical head 22 supported by the support 20.
  • the support 20 includes a tripod, an extendable rod attached to the top of the tripod, and a rotatable sphere attached to the top of the rod.
  • the support body 20 supports the optical head 22 with a spherical body.
  • the height of the optical head 22 can be adjusted in the vertical direction by the extendable rod.
  • the rotatable sphere allows the orientation of the optical head 22 to be adjusted in the panning and/or tilting directions.
  • the straight double-headed arrow shown in FIG. 1 represents the direction in which the height of the optical head 22 is adjusted, and the curved double-headed arrow shown in FIG. 1 represents the direction in which the orientation of the optical head 22 is adjusted.
  • the height of the optical head 22 from the surface 10s of the object 10 may be, for example, 50 cm or more and 3 m or less.
  • the height of the optical head 22 from the surface 10s of the object 10 is the center of the light exit surface from which the irradiation light is emitted from the optical head 22, when the surface 10s of the object 10 is used as a height reference. It is the height of
  • the optical head 22 includes an optical deflector therein, and can scan the irradiated light using the optical deflector. With the optical head 22 directed toward a part of the surface 10s of the object 10, irradiation light is emitted from a distance measuring device (not shown) through the optical head 22 while being two-dimensionally scanned by an internal optical deflector. be done.
  • the ranging area 12 shown in FIG. 1 is an area of the surface 10s of the object 10 that can be irradiated with such irradiation light.
  • a rectangular area indicated by a broken line in FIG. 1 represents the distance measurement area 12.
  • the distance measuring device measures distances at a plurality of measurement points included in the distance measurement area 12 and generates distance information for each of the plurality of measurement points.
  • the circles shown in FIG. 1 represent measurement points.
  • the distance information of each measurement point may be, for example, information indicating the distance from the center of the light exit surface of the optical head 22 to each measurement point.
  • the density of the number of measurement points may be, for example, 10 3 pieces/m 2 or more and 10 7 pieces/m 2 or less.
  • the first evaluation area 14a is an area that is irradiated with irradiation light that is incident in a substantially vertical direction.
  • the second evaluation area 14b is an area that is irradiated with obliquely incident illumination light.
  • the incident angle ⁇ is the angle between the optical axis of the irradiated light and the normal to the surface 10s of the object 10.
  • FIGS. 2A and 2B are diagrams schematically showing the distribution of a plurality of measurement points in the first evaluation area 14a and the second evaluation area 14b, respectively. To make the explanation easier to understand, it is assumed that the uneven shapes in the evaluation regions 14a and 14b are the same.
  • the white arrows shown in FIGS. 2A and 2B schematically represent how the irradiation light enters.
  • the circles shown in FIGS. 2A and 2B represent measurement points.
  • the plurality of measurement points are distributed almost uniformly in the first evaluation region 14a regardless of the presence or absence of unevenness. Therefore, the height of the unevenness in the first evaluation area 14a can be accurately known from the distance information of each of the plurality of distance measurement points, and it is possible to accurately measure the roughness parameter in the first evaluation area 14a. be.
  • the roughness parameter shows a larger value as the unevenness becomes rougher.
  • the plurality of measurement points are distributed in the non-shadow part of the second evaluation area 14b, and are not distributed in the shadow part.
  • the height of the unevenness in the second evaluation region 14b cannot be accurately known from the distance information of each of the plurality of measurement points. Therefore, originally, the roughness parameter in the second evaluation area 14b should be approximately equal to the roughness parameter in the first evaluation area 14a, but the roughness parameter in the second evaluation area 14b is the same as the roughness parameter in the first evaluation area 14a. becomes smaller than As described above, there is a possibility that the roughness parameter cannot be accurately measured depending on the incident angle of the irradiation light.
  • the roughness parameter depends not only on the incident angle of the irradiation light but also on, for example, the measurement distance in the evaluation regions 14a, 14b and the received light intensity obtained by irradiating the evaluation region 14 with the irradiation light.
  • the longer the measurement distance the more the measurement error of the roughness parameter increases.
  • the lower the received light intensity the more the measurement error of the roughness parameter increases.
  • the present inventor discovered the above problem and came up with a measurement system and measurement method according to an embodiment of the present disclosure that solves the problem.
  • the measurement system and measurement method according to the present embodiment by correcting the roughness parameter in the evaluation region according to the incident angle of the irradiation light, it becomes possible to measure the uneven shape of the object more accurately.
  • the roughness parameters of the evaluation area can be corrected according to the measurement distance in the evaluation area or the received light intensity obtained by irradiating the evaluation area with the irradiation light. It becomes possible to measure the uneven shape more accurately. Furthermore, by evaluating the uneven shape in the evaluation region using the trained model, it becomes possible to measure the uneven shape of the object more accurately.
  • the measurement system includes a light source that emits irradiation light for irradiating a plurality of measurement points included in at least one evaluation area on the surface of a target object, and a light source that emits light reflected from the plurality of measurement points. and a processing circuit that calculates and outputs a roughness parameter related to the uneven shape of the evaluation area based on the detection signal.
  • the processing circuit corrects the roughness parameter according to an incident angle at which the irradiation light enters the evaluation region, a measured distance in the evaluation region, or a received light intensity obtained by irradiating the evaluation region with the irradiation light. do.
  • the measurement system according to the second item is the measurement system according to the first item, wherein the roughness parameter is an arithmetic mean height in a two-dimensional area, a root-square height, a developed interface area ratio, a skewness, and a kurtosis. , and root mean square slope, or one selected from the group consisting of arithmetic mean height, root mean square height, skewness, kurtosis, and root mean square slope in a one-dimensional area.
  • This measurement system can measure roughness parameters in a two-dimensional region or a one-dimensional region.
  • the measurement system according to the third item is the measurement system according to the first or second item, wherein the at least one evaluation area includes a plurality of evaluation areas.
  • the processing circuit corrects the roughness parameter in each evaluation area according to an incident angle at which the irradiation light enters each evaluation area.
  • This measurement system can measure roughness parameters in each of a plurality of evaluation regions.
  • the measurement system according to the fourth item is the measurement system according to any one of the first to third items, further comprising a light deflector that changes the direction of the irradiation light.
  • the processing circuit controls the operation of the optical deflector.
  • the irradiation light can be emitted while scanning.
  • the measurement system according to a fifth item is the measurement system according to any one of the first to fourth items, in which the processing circuit measures the distance of the surface of the object before emitting the irradiation light.
  • the angle of incidence of the irradiation light is calculated based on the angle of incidence of the irradiation light.
  • This measurement system can calculate the incident angle of the irradiation light when the angle between the surface of the object and the reference plane is unknown.
  • the processing circuit acquires correction data from a storage device, and the correction data includes an incident angle and a correction parameter.
  • a correction parameter is determined based on the incident angle of the irradiation light and the correction data, and the roughness parameter is corrected based on the correction parameter.
  • the roughness parameter can be corrected based on the correction data.
  • the measurement system according to the seventh item is the measurement system according to the sixth item, in which the correction data is stored in the storage device for each attribute of the object.
  • the processing circuit acquires the correction data from the storage device based on attributes of the object to be measured.
  • the roughness parameter can be corrected according to the attributes of the target object.
  • the measurement system according to the eighth item is the measurement system according to the seventh item, in which the attributes of the object are selected from the material, size, proportion of the material, method of polishing the surface, and product number of the object. At least one of the
  • the roughness parameter can be corrected according to at least one of the above attributes.
  • the measurement system according to a ninth item is the measurement system according to any one of the first to eighth items, in which, when the incident angle is larger than a reference angle for correction, the larger the incident angle is, When the correction amount of the roughness parameter is increased and the incident angle is smaller than a reference angle for correction, the smaller the incidence angle is, the larger the correction amount of the roughness parameter is.
  • the roughness parameter can be corrected according to the difference between the incident angle of the irradiation light and the reference angle for correction.
  • the measurement system according to a tenth item is the measurement system according to any one of the first to ninth items, in which the processing circuit calculates the roughness parameter before correction in addition to the roughness parameter after correction. Output.
  • the roughness parameter after correction and the roughness parameters after correction and before correction can be displayed on the display device.
  • the measurement system according to the eleventh item is the measurement system according to any one of the first to tenth items, wherein the processing circuit includes a first processing circuit and a second processing circuit.
  • the first processing circuit generates distance information for each of the plurality of measurement points based on the detection signal.
  • the second processing circuit calculates a roughness parameter regarding the uneven shape of the evaluation area based on the distance information, and corrects the roughness parameter according to an incident angle at which the irradiation light enters the evaluation area.
  • a processing circuit that generates distance information for each of a plurality of measurement points and a processing circuit that calculates and corrects roughness parameters are independent of each other.
  • the measurement method includes a light source that emits irradiation light for irradiating a plurality of measurement points included in an evaluation area on the surface of the object, and a light source that receives reflected light from the plurality of measurement points.
  • This is a measurement method that is executed by a computer in a measurement system that includes a photodetector that outputs a detection signal.
  • the measurement method includes calculating and outputting a roughness parameter regarding the uneven shape of the evaluation area based on the detection signal, and correcting the roughness parameter according to an incident angle at which the irradiation light enters the evaluation area. and include.
  • the measurement system includes a light source that emits irradiation light for irradiating a plurality of measurement points included in an evaluation area on the surface of a target object, and a light source that receives reflected light from the plurality of measurement points. It includes a photodetector that outputs a detection signal, and a processing circuit that calculates and outputs the degree of surface unevenness regarding the uneven shape of the evaluation area based on the detection signal. The processing circuit generates a trained model using the incident angle at which the irradiation light enters the reference area, the detection signal, and the degree of surface unevenness regarding the corresponding uneven shape of the reference area as training data, and generates the trained model. The degree of surface unevenness in the evaluation area is evaluated using the following method.
  • the measurement system according to the fourteenth item is the measurement system according to the thirteenth item, wherein the reference area is one of a plurality of mutually different areas within the surface of the object, or at a plurality of incident angles. This is one of a plurality of corresponding virtual areas.
  • the measurement system according to the fifteenth item is the measurement system according to the thirteenth or fourteenth item, in which the evaluation area is a two-dimensional area or a one-dimensional area.
  • the measurement system according to a sixteenth item is the measurement system according to any one of the first to fifteenth items, wherein the processing circuit detects the incidence of the irradiation light entering the evaluation region based on the detection signal.
  • the corner, the measured distance in the evaluation area, or the received light intensity obtained by irradiating the evaluation area with the irradiation light is set.
  • the measurement system includes a light source that emits irradiation light for irradiating a plurality of measurement points included in at least one evaluation area on the surface of a target object, and a light source that emits light reflected from the plurality of measurement points. and a processing circuit that calculates and outputs a roughness parameter related to the uneven shape of the evaluation area based on the detection signal.
  • the processing circuit calculates a reference value used for evaluating the calculated roughness parameter based on an incident angle at which the irradiation light enters the evaluation region, a measured distance in the evaluation region, or irradiation of the evaluation region with the irradiation light. A comparison result between the calculated roughness parameter and the corrected reference value is output.
  • FIG. 3 is a block diagram schematically showing the configuration of a measurement system according to exemplary embodiment 1 of the present disclosure.
  • the measurement system 100 shown in FIG. Equipped with Thin line arrows shown in FIG. 3 represent input and output of signals.
  • the thick curve shown in FIG. 3 represents the optical fiber that connects the distance measuring device 30 and the optical head 22.
  • FIG. 3 shows a system that measures roughness parameters in the evaluation region 14 within the surface 10s of the object 10 using the irradiation light emitted from the optical head 22, as in FIG. The situation is shown.
  • the evaluation area 14 is the central area of the distance measurement area 12 and is included in the distance measurement area 12.
  • the evaluation area 14 is extracted from the ranging area 12.
  • the distance measurement area 12 does not need to be the central area of the distance measurement area 12, and may be any area within the distance measurement area 12.
  • the evaluation area 14 is extracted from the distance measurement area 12.
  • it is possible to adjust the width of the ranging area 12 it is possible to narrow the ranging area 12 like the evaluation area 14 and make the ranging area 12 match the evaluation area 14. good.
  • the processing circuit 60 calculates the roughness parameter in the evaluation region 14 based on the distance measurement result using the irradiation light from the distance measurement device 30.
  • the processing circuit 60 further corrects the roughness parameter according to the incident angle at which the irradiation light enters the evaluation region 14 based on the correction data stored in the storage device 40 . As a result, it becomes possible to measure the uneven shape of the object 10 more accurately.
  • the angle of incidence at which the irradiation light enters the evaluation region 14 differs depending on the position within the evaluation region 14 at which the irradiation light enters. Therefore, in this specification, a typical incident angle at which the irradiation light enters the evaluation region 14 is treated as an angle at which the irradiation light enters the evaluation region 14.
  • the typical incident angle may be, for example, an incident angle at which the irradiation light enters the center of the evaluation area 14.
  • the representative incident angle may be the maximum or minimum angle among the incident angles at which the irradiation light can enter the evaluation region 14.
  • the object 10 to be measured is large.
  • the surface 10s of the object 10 may have a size including, for example, a square with one side of 1 m.
  • the surface 10s of the object 10 may have, for example, an irregular uneven shape.
  • the dimensions of the protrusions or depressions in the surface 10s in the X direction and/or the Y direction may be, for example, 1 mm or more and 150 mm or less, and the dimensions in the Z direction may be, for example, 0.1 mm or more and 75 mm or less.
  • the object 10 may be, for example, a structure at a construction site or a large product manufactured at a factory.
  • the structure may be formed from concrete members, metal members, or wood, for example.
  • Factory products can be, for example, automobiles, household appliances, or mechanical parts.
  • the large-sized object 10 is taken as an example of the measurement target, but depending on the application, a non-large-sized object may be used as the measurement target.
  • the structures of the support body 20 and the optical head 22 are as described above.
  • the support 20 includes an adjustment device for adjusting the height and/or orientation of the optical head 22.
  • the distance measuring device 30 includes a light source, a photodetector, a light deflector, and a processing circuit for distance measurement. These components are not visible on the outside.
  • the optical deflector is housed inside the optical head 22.
  • the optical head 22 faces the distance measurement area 12.
  • the light source emits irradiation light for irradiating a plurality of measurement points included in the distance measurement area 12. Since the evaluation area 14 is a part of the ranging area 12, it can also be said that the light source emits irradiation light for irradiating a plurality of measurement points included in the evaluation area 14.
  • the irradiation light emitted from the light source passes through the optical fiber and then enters the optical deflector.
  • the optical deflector changes the direction of the illumination light emitted from the light source.
  • the irradiation light is emitted from the optical head 22 while being scanned.
  • the irradiation light can be, for example, laser light or LED light.
  • the wavelength of the irradiation light can be determined, for example, by the above-mentioned dimensions of the convex portions or concave portions of the surface 10s of the object 10.
  • the wavelength of the irradiation light may be, for example, the wavelength of visible light, ultraviolet light, or infrared light.
  • the photodetector receives reflected light from a plurality of measurement points and outputs a detection signal.
  • the processing circuit for distance measurement controls the operations of the light source, the photodetector, and the optical deflector 33, and generates and outputs distance information for each of the plurality of measurement points based on the detection signal.
  • the distance information may be, for example, information indicating the distance from the center of the light exit surface of the optical head 22 to each measurement point.
  • the distance measuring device 30 measures the distances of a plurality of measurement points individually using the irradiation light emitted while being scanned from the optical head 22, and generates and outputs distance information for each of the plurality of measurement points. do.
  • the distance measuring device 30 measures the distances of a plurality of measurement points at once using the irradiation light emitted without being scanned from the optical head 22, and each of the plurality of measurement points distance information may be generated and output. In that case, the distance measuring device 30 does not need to include an optical deflector.
  • the range finder 30 may be, for example, a FMCW-LiDAR (Frequency Modulated Continuous Wave-Light Detection And Ranging) range finder or a TOF (Time Of Flight) range finder. Details of the configuration of the distance measuring device 30 and the distance measuring method will be described later.
  • FMCW-LiDAR Frequency Modulated Continuous Wave-Light Detection And Ranging
  • TOF Time Of Flight
  • the storage device 40 stores correction data for correcting the roughness parameter according to the incident angle at which the irradiation light enters the evaluation region 14 . Details of the correction data will be described later.
  • the storage device 40 may be, for example, a hard disk drive (HDD) with a magnetic disk or a solid state drive (SSD) with flash memory.
  • the display device 50 displays an input user interface (UI) 50a and a display UI 50b.
  • the input UI 50a is used by the user to input information.
  • Information entered by the user into the input UI 50a is received by the processing circuit 60. Details of the input information will be described later.
  • the display UI 50b is used to display information generated by the processing circuit 60.
  • the input UI 50a and the display UI 50b are displayed as a graphical user interface (GUI). It can also be said that the information shown on the input UI 50a and the display UI 50b is displayed on the display device 50.
  • the input UI 50a and the display UI 50b may be realized by a device capable of both input and output, such as a touch screen. In that case, a touch screen may function as the display device 50.
  • the input UI 50a is a device independent of the display device 50.
  • the processing circuit 60 controls the operations of the adjustment device for the support 20, the distance measuring device 30, the storage device 40, and the display device 50.
  • the processing circuit 60 calculates the roughness parameter in the evaluation area 14 based on the distance information output from the distance measuring device 30.
  • the processing circuit 60 further acquires correction data from the storage device 40 or an external storage device such as a server, and adjusts the roughness parameter according to the incident angle at which the irradiation light enters the evaluation region 14 based on the correction data. Correct. When acquiring correction data from an external storage device, it is not necessary to provide the storage device 40.
  • the processing circuit 60 further outputs the corrected roughness parameter.
  • the processing circuit 60 causes the output corrected roughness parameter to be displayed on the display UI 50b.
  • measurement system 100 includes a processing device that includes processing circuitry 60 and memory 62 .
  • Processing circuit 60 and memory 62 may be integrated on one circuit board or may be provided on separate circuit boards.
  • the processing circuit 60 may be distributed over multiple circuits.
  • Processing circuitry 60, memory 62, or processing equipment may be located at a remote location separate from other components via a wired or wireless communication network.
  • the distance measurement processing circuit included in the distance measurement device 30 and the processing circuit 60 are independent from each other, but these processing circuits can be integrated and treated as one processing circuit. Good too.
  • the distance measuring processing circuit included in the distance measuring device 30 is also referred to as a "first processing circuit”
  • the processing circuit 60 is also referred to as a "second processing circuit”.
  • An integrated processing circuit can be said to include a first processing circuit and a second processing circuit.
  • the width of the evaluation area can be determined, for example, according to the dimensions of the convex portions or concave portions on the surface 10s of the object 10 in the X direction, Y direction, and Z direction.
  • the evaluation area is a two-dimensional or one-dimensional area.
  • the evaluation area is a two-dimensional area>
  • the evaluation area may be, for example, a rectangular, circular, or elliptical two-dimensional area. Such an evaluation region is effective for the surface 10s of the object 10 having a two-dimensionally distributed uneven shape.
  • the roughness parameter is the arithmetic mean height Sa.
  • the arithmetic mean height Sa is calculated by the following formula (1).
  • "A" in equation (1) represents the area of the evaluation region.
  • the height of the unevenness can be known from the distance information of each of the plurality of measurement points.
  • the root-square height Sq is calculated by the following equation (2).
  • the root-square height Sq corresponds to the standard deviation of the height difference in the evaluation area, and represents the variation in the height difference.
  • the root-square height Sq and the arithmetic mean height Sa satisfy the relationship Sq ⁇ Sa. The greater the variation in the height difference, the greater the deviation of Sq/Sa from 1.
  • roughness parameters include the developed interface area ratio Sdr, which is an index of surface area, the skewness Ssk, which indicates the symmetry of the height distribution of the unevenness, the kurtosis Sku, which indicates the sharpness of the height distribution of the unevenness, and the roughness of the unevenness.
  • Sdr developed interface area ratio
  • Skk skewness
  • Sku kurtosis Sku
  • Sdq root mean square slope
  • the roughness parameters include, for example, the arithmetic mean height Sa, root-square height Sq, developed interface area ratio Sdr, skewness Ssk, kurtosis Sku, and root-mean-square slope Sdq in a two-dimensional area. may be one selected from the group.
  • the broken line shown in FIG. 4A represents the reference plane, and the solid line represents the arithmetic mean height Sa and the root-square height Sq.
  • FIGS. 4B and 4C are diagrams schematically showing examples of reference surfaces in an uneven shape having low-period undulations.
  • the reference plane is a plane obtained by averaging the heights of the unevenness in the evaluation region. If the reference surface is a flat surface, roughness parameters including waviness are calculated.
  • the example shown in FIG. 4B the reference plane is a plane obtained by averaging the heights of the unevenness in the evaluation region. If the reference surface is a flat surface, roughness parameters including waviness are calculated.
  • the reference plane divides the evaluation area into multiple areas, averages the height of the unevenness in each area, and connects the averaged heights in the multiple areas. It is a curved surface obtained by If the reference surface is a curved surface, a roughness parameter with waviness removed is calculated.
  • the evaluation area may be, for example, a one-dimensional area.
  • Such an evaluation region is effective for the surface 10s of the object 10 having a one-dimensionally distributed uneven shape.
  • the one-dimensional region may be parallel to the one-dimensional direction in which the unevenness is distributed, or may intersect the direction at an acute angle. The angle may be, for example, 30° or less. Note that such an evaluation region may be applied to the surface 10s of the object 10 having a two-dimensionally distributed uneven shape.
  • the roughness parameter may be, for example, one selected from the group consisting of arithmetic mean height Ra, root-square height Rq, skewness Rsk, kurtosis Rku, and root-mean-square slope Rdq in a one-dimensional area.
  • FIG. 5A is a graph showing the relationship between the incident angle of light and the roughness parameter.
  • the evaluation area is a two-dimensional area
  • the roughness parameter is the arithmetic mean height Sa.
  • the roughness parameter is corrected as follows depending on the incident angle of the irradiation light.
  • distances are measured at multiple measurement points included on the surface 10s of the object 10 using irradiation light incident at various angles ⁇ , and based on the distance measurement results, various incident angles are measured.
  • the arithmetic mean height Sa0( ⁇ ) at the angle ⁇ is calculated.
  • the calculated arithmetic mean height Sa( ⁇ ) is corrected by the following equation (3).
  • S'a( ⁇ ) represents the arithmetic mean height after correction.
  • represents a reference angle for correction.
  • is a variable value
  • is a fixed value.
  • the angle of incidence at which the arithmetic mean height is most accurately calculated may be ⁇ 0°. Therefore, the reference angle for correction may be ⁇ 0°.
  • 5B and 5C are diagrams showing examples of correction data stored in the storage device 40.
  • the correction data is a table showing the correspondence between the incident angle and the arithmetic mean height Sa.
  • the correction data is a table showing the correspondence between incident angles and correction coefficients.
  • the correction data defines the correspondence between the angle of incidence and the correction parameter.
  • the correction parameter may be, for example, a roughness parameter as shown in FIG. 5B, or a correction coefficient as shown in FIG. 5C.
  • the angle of incidence is larger than the reference angle for correction, the larger the angle of incidence, the larger the amount of correction of the roughness parameter.
  • the angle of incidence is smaller than the reference angle for correction, the smaller the angle of incidence, the larger the amount of correction of the roughness parameter.
  • FIG. 6 is a flowchart schematically showing an example of the correction data generation operation performed by the processing circuit 60 in the first embodiment.
  • the processing circuit 60 executes the operations of steps S101 to S108 shown in FIG.
  • the user inputs multiple angles of incidence for correction data via the input UI 50a shown in FIG.
  • the processing circuit 60 acquires information on a plurality of incident angles from the input UI 50a.
  • the plurality of incident angles can be set, for example, by changing the first angle to the second angle in constant angle increments.
  • the first angle may be 0°, for example.
  • the second angle may be, for example, an incident angle of irradiation light that can irradiate the peripheral region of the surface 10s of the object 10.
  • the fixed angular increments may be angular increments such as 5° or 10°, for example.
  • the user may further input the scan range of the irradiation light.
  • the processing circuit 60 acquires scan range information from the input UI 50a.
  • the processing circuit 60 causes the adjustment device of the support 20 to change the height and/or orientation of the optical head 22 so that the following irradiation lights emitted from the optical head 22 are selected from the plurality of incident angles.
  • the incident light is made to be incident on the surface 10s of the object 10 at one incident angle.
  • the processing circuit 60 causes the distance measuring device 30 to individually measure distances at a plurality of measurement points included in the distance measurement area 12 using irradiation light emitted from the optical head 22 while being scanned. Alternatively, when the irradiation light has a wide irradiation range, the processing circuit 60 allows the distance measuring device 30 to measure distances at a plurality of measurement points at once using the irradiation light emitted from the optical head 22 without being scanned. good.
  • the processing circuit 60 calculates a point cloud, which is the coordinates of a plurality of measurement points, from the incident angle at which the irradiation light enters the measurement point and the distance of the measurement point, and stores data indicating the point cloud, that is, point cloud data, in the storage device 40. to be memorized.
  • the processing circuit 60 extracts the evaluation area 14 from the ranging area 12 based on the point cloud data.
  • the evaluation area 14 may be, for example, the central area of the ranging area 12.
  • the evaluation area 14 may be extracted from any area of the ranging area 12.
  • the width of the evaluation region 14 can be determined, for example, according to the dimensions of the convex portions or concave portions on the surface 10s in the X direction, Y direction, and Z direction.
  • step S105 if the ranging area 12 is narrow and matches the evaluation area 14, the processing circuit 60 can omit the operation of step S105.
  • Step S106> The processing circuit 60 calculates roughness parameters in the evaluation area 14.
  • Step S107> The processing circuit 60 determines whether all the plurality of incident angles have been examined. If the determination is Yes, the processing circuit 60 executes the operation of step S108. If the determination is No, the processing circuit 60 executes the operations of steps S102 to S106 again.
  • step S102 the processing circuit 60 causes the adjustment device of the support body 20 to change the height and/or orientation of the optical head 22 so that the above-mentioned irradiation light emitted from the optical head 22 has a plurality of incident angles. Of these, the light is made to be incident on the surface 10s of the object 10 at an incident angle that has not yet been investigated. In this way, the processing circuit 60 repeatedly executes the operations of steps S102 to S106.
  • Step S108> The processing circuit 60 generates correction data and stores the correction data in the storage device 40.
  • FIG. 7 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit 60 in the first embodiment.
  • the processing circuit 60 executes the operations of steps S201 to S208 shown in FIG.
  • Step S201> The user inputs the angle of incidence for measurement via the input UI 50a shown in FIG.
  • the processing circuit 60 acquires information on the angle of incidence from the input UI 50a.
  • Steps S202 to S206 are the same as the operations in steps S102 to S106 shown in FIG. 6, respectively.
  • step S202 the processing circuit 60 causes the adjustment device of the support body 20 to change the height and/or orientation of the optical head 22 so that the above-mentioned irradiation light emitted from the optical head 22 is adjusted to the above-mentioned inputted state.
  • the light is made to be incident on the surface 10s of the object 10 at an incident angle.
  • the processing circuit 60 acquires correction data from the storage device 40, and corrects the roughness parameter based on the correction data in accordance with the incident angle at which the irradiation light enters the evaluation region 14. Specifically, the processing circuit 60 determines the correction parameters described with reference to FIGS. 5B and 5C based on the incident angle at which the irradiation light enters the evaluation region 14 and the correction data, Correct the roughness parameters based on.
  • the processing circuit 60 increases the correction amount of the roughness parameter as the angle of incidence becomes larger.
  • the processing circuit 60 increases the amount of correction of the roughness parameter as the angle of incidence becomes smaller.
  • Step S208> The processing circuit 60 outputs the corrected roughness parameter.
  • the processing circuit 60 displays the corrected roughness parameter on the display UI 50b.
  • the processing circuit 60 outputs the roughness parameter before correction in addition to the roughness parameter after correction.
  • the processing circuit 60 displays both of the output signals on the display UI 50b.
  • the output timing and display timing of the roughness parameters after correction and before correction may be simultaneous or may be different.
  • the output and display of the roughness parameters after correction and before correction may be switched.
  • the processing circuit 60 causes the display UI 50b to display a message informing the user that an abnormality has occurred in the evaluation area 14.
  • the processing circuit 60 determines whether the corrected roughness parameter exceeds the roughness parameter reference value and displays the determination result. It may be displayed on the UI 50b. Alternatively, if it is desirable that the surface 10s of the object 10 be flat, the processing circuit 60 determines whether the corrected roughness parameter is less than or equal to the reference value of the roughness parameter, and makes the determination. The results may be displayed on the display UI 50b. The determination result may be displayed on the display UI 50b. The determination result may be displayed as "OK” if the determination is Yes, and "No Good” if the determination is No, for example.
  • the measurement system 100 and measurement method that can more accurately measure the uneven shape in the evaluation region 14.
  • the support body 20 cannot be brought close to the evaluation area 14, and it may not be easy to irradiate the evaluation area 14 with irradiation light incident in a substantially perpendicular direction.
  • the measurement system 100 and measurement method according to the first embodiment are effective in such cases.
  • Embodiment 2 Next, with reference to FIGS. 8 and 9, a measurement method according to Embodiment 2 of the present disclosure will be described in which the roughness parameter is corrected based on correction data according to the attributes of the target object 10.
  • the attribute of the object 10 may be, for example, at least one selected from the material of the object 10, the size, the proportion of the material, the method of polishing the surface 10s, and the product number.
  • FIG. 8 is a flowchart schematically showing an example of the correction data generation operation performed by the processing circuit 60 in the second embodiment.
  • the processing circuit 60 executes the operations of steps S101 to S107, S109, and S110 shown in FIG. Steps S101 to S107 shown in FIG. 8 are the same as steps S101 to S107 shown in FIG. 6, respectively.
  • the processing circuit 60 executes the operation of step S109 after step S107.
  • Step S109> The user inputs the attributes of the object via the input UI 50a.
  • the processing circuit 60 acquires information on the attributes of the target object 10 from the input UI 50a.
  • the processing circuit 60 generates correction data, associates the correction data with the attributes of the object, and stores the correction data in the storage device 40.
  • processing circuit 60 may perform the operation of step S109 not after step S107 but before or after step S101.
  • the processing circuit 60 it is possible to generate correction data according to the attributes of the object.
  • the above operation is repeated for a plurality of objects having mutually different attributes.
  • the correction data is stored in the storage device 40 for each attribute of the object.
  • FIG. 9 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit 60 in the second embodiment.
  • the processing circuit 60 executes the operations of steps S201 to S209 shown in FIG.
  • the operations in steps S201 to S208 shown in FIG. 9 are the same as the operations in steps S201 to S208 shown in FIG. 7, respectively.
  • the processing circuit 60 executes the operation of step S209 before step S201.
  • Step S209 The user inputs the attributes of the object 10 to be measured via the input UI 50a.
  • the processing circuit 60 acquires information on the attributes of the target object 10 from the input UI 50a.
  • processing circuit 60 may execute step S209 after any of steps S201 to S206 as long as it is not before step S201 but before step S207.
  • step S207 the processing circuit 60 acquires the correction data associated with the attribute of the target object 10 from among the stored correction data from the storage device 40, and based on the correction data, the irradiation light is adjusted to the evaluation area.
  • the roughness parameter is corrected according to the angle of incidence of the light incident on the surface of the surface.
  • a measurement system 100 and a measurement method capable of correcting roughness parameters based on correction data according to the attributes of the target object 10 are provided. can be realized.
  • Embodiment 3 Next, with reference to FIG. 10, a measurement method according to Embodiment 3 of the present disclosure for calculating the incident angle of irradiation light when the angle between the surface 10s of the object 10 and the reference plane is unknown will be described.
  • the reference plane may be, for example, a horizontal plane or a plane perpendicular to the horizontal plane.
  • the incident angle of the irradiation light is the angle between the optical axis of the irradiation light and the normal to the surface 10s of the object 10. If the angle between the surface 10s of the object 10 and the reference plane is known, the angle of incidence of the irradiation light can be calculated.
  • the correction data generation operation in the third embodiment is as described in the first embodiment.
  • FIG. 10 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit 60 in the third embodiment.
  • the processing circuit 60 executes the operations of steps S203 to S208, S210, and S211 shown in FIG.
  • the operations in steps S203 to S208 shown in FIG. 10 are the same as the operations in steps S203 to S208 shown in FIG. 7, respectively.
  • the processing circuit 60 executes operations in steps S210 and S211 before step S203.
  • Step S210> As an initial measurement, the processing circuit 60 causes the distance measuring device 30 to measure distances at a plurality of measurement points while the optical head 22 is oriented in a certain direction.
  • the operation in step S210 is the same as the operation in step S103 shown in FIG. From the distance measurement result, the angle between the surface 10s of the object 10 and the reference plane can be determined.
  • Step S211> The processing circuit 60 calculates the incident angle of the irradiation light based on the distance measurement result in step S210.
  • Embodiment 3 in addition to the effects of Embodiment 1, it is possible to realize a measurement system 100 and a measurement method that calculate an incident angle for measurement before emitting irradiation light. As a result, it is possible to save the user the trouble of inputting the incident angle for measurement, and to suppress erroneous input by the user.
  • Embodiment 4 Next, with reference to FIG. 11, a measurement method according to Embodiment 3 of the present disclosure that can extract a plurality of evaluation areas from the distance measurement area 12 and measure the roughness parameter in each evaluation area will be described.
  • the plurality of evaluation areas may be, for example, areas obtained by dividing the ranging area 12 into a matrix of M rows and N columns.
  • M and N are natural numbers, and the product of M and N is 2 or more.
  • the correction data generation operation in the fourth embodiment is the same as that described in the first embodiment.
  • FIG. 11 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit 60 in the fourth embodiment.
  • the processing circuit 60 executes the operations of steps S201 to S204 and S212 to S215 shown in FIG.
  • the operations in steps S201 to S204 shown in FIG. 11 are the same as the operations in steps S201 to S204 shown in FIG. 7, respectively.
  • the processing circuit 60 executes the operation of step S212 after step S204.
  • the processing circuit 60 extracts a plurality of evaluation areas 14 from the ranging area 12 .
  • Step S213 The processing circuit 60 calculates roughness parameters in each evaluation area 14.
  • the processing circuit 60 acquires correction data from the storage device 40 and corrects the roughness parameter in each evaluation area 14 according to the incident angle at which light enters each evaluation area 14 based on the correction data.
  • the reference angle for correction may be an incident angle at which light enters one of the plurality of evaluation regions 14, or may be a separately set angle.
  • Step S215 The processing circuit 60 outputs the roughness parameters in each evaluation area 14 after correction.
  • the processing circuit 60 displays the output roughness parameters in each evaluation area 14 after correction on the display UI 50b.
  • the processing circuit 60 outputs the roughness parameters in each evaluation area 14 before correction in addition to the roughness parameters in each evaluation area 14 after correction.
  • the processing circuit 60 displays both of the output signals on the display UI 50b.
  • the output timing and display timing of the roughness parameters in each evaluation area 14 after correction and before correction may be the same or different.
  • the output and display of the roughness parameters in each evaluation area 14 after correction and before correction may be switched.
  • the fourth embodiment in addition to the same effects as the first embodiment, it is possible to extract a plurality of evaluation regions from the distance measurement region 12 and measure the roughness parameter in each evaluation region.
  • a measurement system 100 and a measurement method can be realized.
  • the roughness parameters in the plurality of evaluation regions can be measured more accurately.
  • the roughness parameter calculated from the measurement results is the sum of the actual roughness parameter and noise due to measurement error. For example, if the square root height of the uneven shape of the object 10 is S qobj and the square root height of the uneven shape due to measurement error is S error, then the square root height S qmeasure calculated from the measurement result is calculated using the following formula. It is expressed by (4).
  • the larger the measurement error the greater the roughness parameter calculated from the measurement result. If the measurement distance is long, the measurement error becomes large, so as the measurement distance increases, the roughness parameter calculated from the measurement results increases.
  • FIG. 12 is a flowchart schematically showing an example of the correction data generation operation performed by the processing circuit 60 in the fifth embodiment.
  • the processing circuit 60 executes the operations of steps S103 to S106, S108, and S111 to S113 shown in FIG. Steps S103 to S106 and S108 shown in FIG. 12 are the same as steps S103 to S106 and S108 shown in FIG. 6, respectively.
  • the processing circuit 60 executes steps S111 and S112 before step S103, and executes the operation of step S113 after step S106.
  • the user inputs a plurality of measured distances for correction data via the input UI 50a shown in FIG.
  • the processing circuit 60 acquires information on a plurality of measured distances from the input UI 50a.
  • the plurality of measured distances can be set, for example, by changing the first measured distance to the second measured distance in constant distance increments.
  • the first measurement distance may be, for example, 0.5 m.
  • the second measurement distance may be, for example, a measurement distance of irradiation light that can irradiate the peripheral area of the surface 10s of the object 10.
  • the fixed measurement distance increment may be, for example, a measurement distance increment of 0.5 m or 1 m.
  • the user may further input the scan range of the irradiation light.
  • the processing circuit 60 acquires scan range information from the input UI 50a.
  • the processing circuit 60 causes the adjustment device of the support body 20 to change the height and/or orientation of the optical head 22 so that the distance between the optical head 22 and the surface 10s of the object 10 is determined from the plurality of measured distances described above. Make sure that one measurement distance is selected.
  • the distance between the optical head 22 and the surface 10s of the object 10 depends on the height and/or orientation of the optical head 22.
  • the processing circuit 60 may cause the adjustment device of the support 20 to change only one or both of the height and orientation of the optical head 22.
  • Step S113> The processing circuit 60 determines whether all of the plurality of measured distances have been investigated. If the determination is Yes, the processing circuit 60 executes the operation of step S108. If the determination is No, the processing circuit 60 executes the operations of steps S112 and S103 to S106 again in this order. In step S112, the processing circuit 60 causes the adjustment device of the support body 20 to change the height and/or orientation of the optical head 22 so that the distance between the optical head 22 and the surface 10s of the object 10 is determined as yet. Make sure that the measurement distance is as low as possible. In this way, the processing circuit 60 repeatedly executes the operations of steps S112 to S106.
  • the above operation of the processing circuit 60 makes it possible to generate correction data according to the measured distance.
  • the correction data may be, for example, data indicating the correspondence between the measured distance and the measurement error. If the roughness parameter when there is no measurement error is known, the correspondence between the measurement distance and the measurement error can be found from the roughness parameter calculated from the measurement result and equation (4).
  • FIG. 13 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit 60 in the fifth embodiment.
  • the processing circuit 60 executes the operations of steps S203 to S206, S208, and S219 to S221 shown in FIG.
  • the operations in steps S203 to S206 and S208 shown in FIG. 13 are the same as the operations in steps S203 to S206 and S208 shown in FIG. 7, respectively.
  • the processing circuit 60 executes the operations in steps S219 and S220 before step S203, and executes the operation in step S221 after step S206.
  • Step S219> The user inputs the measurement distance for measurement via the input UI 50a shown in FIG.
  • the processing circuit 60 acquires information on the measured distance from the input UI 50a.
  • Step S220 The operation in step S220 is the same as the operation in step S112 shown in FIG.
  • the processing circuit 60 acquires correction data from the storage device 40 and corrects the roughness parameter according to the measured distance in the evaluation region 14 based on the correction data.
  • the correction may be performed using equation (4), for example.
  • the measurement distance in the evaluation area 14 may be, for example, the distance from the center of the light exit surface of the optical head 22 to the center of the evaluation area 14.
  • the measured distance in the evaluation area 14 may be, for example, the maximum or minimum measured distance from the center of the light exit surface of the optical head 22 to the evaluation area.
  • the measurement distance at which the roughness parameter is calculated most accurately is the reference distance for correction. In terms of the longer the measurement distance, the larger the measurement error, the roughness parameter is calculated most accurately when the measurement distance is approximately zero. However, depending on the settings of the lens in the distance measuring device 30, the roughness parameter may be calculated most accurately when the measured distance is non-zero.
  • the processing circuit 60 increases the correction amount of the roughness parameter as the measured distance increases.
  • the processing circuit 60 increases the correction amount of the roughness parameter as the measured distance becomes smaller.
  • the degree of surface unevenness in the evaluation region 14 can be evaluated more accurately.
  • FIG. 14 is a flowchart schematically showing an example of the correction data generation operation performed by the processing circuit 60 in the sixth embodiment.
  • the processing circuit 60 executes the operations of steps S103 to S106, S108, and S114 to S116 shown in FIG. Steps S103 to S106 and S108 shown in FIG. 12 are the same as steps S103 to S106 and S108 shown in FIG. 6, respectively.
  • the processing circuit 60 executes steps S114 and S115 before step S103, and executes step S116 after step S106.
  • Step S114> The user inputs a plurality of received light intensities for correction data via the input UI 50a shown in FIG.
  • the processing circuit 60 acquires information on a plurality of received light intensities from the input UI 50a.
  • the plurality of received light intensities can be set, for example, by changing the first received light intensity to the second received light intensity in constant steps of the received light intensity.
  • the processing circuit 60 causes the adjustment device of the support body 20 to change the height and/or orientation of the optical head 22 so that the light emitted from the optical head 22 and scattered and/or reflected by the surface 10s of the object 10 is processed.
  • the received light intensity is set to one light received intensity selected from the above plurality of received light intensities.
  • the received light intensity of the light scattered and/or reflected by the surface 10s of the object 10 may depend on the height and/or orientation of the optical head 22, for example. Depending on the positional relationship between the optical head 22 and the surface 10s of the object 10, the reflectance and/or diffusivity of the surface 10s of the object 10 with respect to the irradiation light may vary.
  • the processing circuit 60 may cause the adjustment device of the support body 20 to change only one of the height and the orientation of the optical head 22, or may change both of them.
  • the object 10 itself may be changed in order to vary the reflectance and/or diffusivity to change the received light intensity.
  • the user may change the object 10.
  • Step S116> The processing circuit 60 determines whether all the plurality of received light intensities have been examined. If the determination is Yes, the processing circuit 60 executes the operation of step S108. If the determination is No, the processing circuit 60 executes the operations of steps S115 and S103 to S106 again in this order. In step S115, the processing circuit 60 causes the adjustment device of the support 20 to change the height and/or orientation of the optical head 22 so that the light emitted from the optical head 22 is scattered and/or reflected by the object 10. The received light intensity is made to be a received light intensity that has not yet been investigated among a plurality of received light intensities. In this way, the processing circuit 60 repeatedly executes the operations of steps S115 to S106.
  • the above operation of the processing circuit 60 makes it possible to generate correction data according to the received light intensity.
  • the correction data may be, for example, data indicating the correspondence between the received light intensity and the measurement error. If the roughness parameter when there is no measurement error is known, the correspondence between the received light intensity and the measurement error can be found from the roughness parameter calculated from the measurement result and equation (4).
  • FIG. 15 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit 60 in the sixth embodiment.
  • the processing circuit 60 executes the operations of steps S203 to S206, S208, S222, and S223 shown in FIG.
  • the operations in steps S203 to S206 and S208 shown in FIG. 15 are the same as the operations in steps S203 to S206 and S208 shown in FIG. 7, respectively.
  • the processing circuit 60 executes the operation of step S222 before step S203, and executes the operation of step S223 after step S206.
  • Step S222> The user inputs the received light intensity for measurement via the input UI 50a shown in FIG.
  • the processing circuit 60 acquires information on the received light intensity from the input UI 50a.
  • the processing circuit 60 acquires correction data from the storage device 40, and based on the correction data, corrects the roughness parameter according to the received light intensity obtained by irradiating the evaluation region 14 with irradiation light.
  • the correction may be performed using equation (4), for example.
  • the received light intensity obtained by irradiating the evaluation region 14 with the irradiation light may be, for example, the average value of the plurality of received light intensities obtained by irradiating each of the plurality of measurement points included in the evaluation region 14 with the irradiation light.
  • the received light intensity obtained by irradiating the evaluation region 14 with the irradiation light may be, for example, the maximum or minimum received light intensity among the plurality of received light intensities.
  • the received light intensity at which the roughness parameter is calculated most accurately is used as the reference intensity for correction.
  • the roughness parameter is calculated most accurately when the received light intensity is high enough within a range that does not saturate.
  • the roughness parameter may be calculated most accurately when the received light intensity is a certain finite value, even if it is not sufficiently high.
  • the processing circuit 60 increases the correction amount of the roughness parameter as the received light intensity increases.
  • the processing circuit 60 increases the correction amount of the roughness parameter as the light intensity becomes smaller.
  • the degree of surface unevenness in the evaluation area 14 is evaluated more accurately by correcting the roughness parameter according to the received light intensity obtained by irradiating the evaluation area 14 with irradiation light. can do.
  • the processing circuit 60 In the roughness parameter measurement operation in the first embodiment, the processing circuit 60, as shown in FIG. The roughness parameters are corrected, and in step S208, the corrected roughness parameters are compared with the reference value. Unlike the first embodiment, the processing circuit 60 may correct the reference value instead of the calculated roughness parameter. Even in this case, comparisons can be made according to changes in roughness parameters depending on the angle of incidence.
  • FIG. 16 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit 60 in the seventh embodiment.
  • the processing circuit 60 executes the operations of steps S201 to S206, S224, and S225 shown in FIG.
  • the operations in steps S201 to S206 shown in FIG. 16 are the same as the operations in steps S201 to S206 shown in FIG. 7, respectively.
  • the processing circuit 60 executes operations in steps S224 and S225 after step S206.
  • the processing circuit 60 acquires the correction data from the storage device 40 and, based on the correction data, calculates a reference value used for evaluating the calculated roughness parameter according to the incident angle at which the irradiation light enters the evaluation region 14. to correct.
  • the reference value is as described in the first embodiment.
  • the correction method is as described with reference to FIGS. 5A to 5C.
  • Step S225> The processing circuit 60 outputs a comparison result between the calculated roughness parameter and the corrected reference value.
  • the processing circuit 60 displays the output comparison result on the display UI 50b.
  • the processing circuit 60 corrects the reference value according to the incident angle at which the irradiation light enters the evaluation area 14, but the invention is not limited to this example.
  • the processing circuit 60 may correct the reference value according to the measured distance in the evaluation area 14 or the received light intensity obtained by irradiating the evaluation area 14 with irradiation light.
  • the degree of surface unevenness in the evaluation region 14 can be evaluated more accurately by leaving the calculated roughness parameter unchanged and correcting the reference value.
  • step S210 the processing circuit 60 causes the distance measuring device 30 to measure distances at a plurality of measurement points as an initial measurement.
  • the processing circuit 60 may omit the initial measurement and execute the operation of step S203 first.
  • FIG. 17 is a flowchart schematically showing an example of the roughness parameter measurement operation performed by the processing circuit 60 in the eighth embodiment.
  • the processing circuit 60 executes the operations of steps S203 to S208 and S226 shown in FIG.
  • the operations in steps S203 to S208 shown in FIG. 17 are the same as the operations in steps S203 to S208 shown in FIG. 10, respectively.
  • the processing circuit 60 executes the operation of step S226 after step S203.
  • Step S226 The processing circuit 60 sets the incident angle at which the irradiation light enters the evaluation region 14 based on the measurement result in step S203.
  • the processing circuit 60 sets the incident angle at which the irradiation light enters the evaluation area 14 based on the measurement result, and corrects the roughness parameter according to the incident angle, but is not limited to this example. .
  • the processing circuit 60 may set a measured distance in the evaluation region 14 based on the measurement result, and correct the roughness parameter according to the measured distance.
  • the processing circuit 60 may set the received light intensity obtained by irradiating the evaluation region 14 with irradiation light based on the measurement results, and correct the roughness parameter according to the received light intensity.
  • the initial measurement can be omitted and the number of measurements can be reduced, so the degree of surface unevenness in the evaluation region 14 can be evaluated in a shorter time. .
  • the operations of the processing circuit 60 in the first to eighth embodiments described above may be combined arbitrarily as long as there is no contradiction.
  • the operation of correcting the roughness parameter based on correction data according to the attributes of the target object 10 in the second embodiment may be applied to the third to eighth embodiments.
  • the operation of calculating the incident angle of irradiation light in the third embodiment may be applied to the second, fourth, and seventh embodiments.
  • the operation of extracting a plurality of evaluation areas from the ranging area 12 and measuring the roughness parameter in each evaluation area in the fourth embodiment may be applied to the second, third, and fifth to eighth embodiments.
  • Embodiment 9 a measurement method according to Embodiment 9 of the present disclosure will be described in which the degree of surface unevenness of the object 10 is evaluated using a trained model.
  • "evaluating the degree of surface unevenness” refers not only to calculating the roughness parameter and evaluating the surface unevenness shape, but also to directly evaluating the surface unevenness shape without calculating the roughness parameter. It also means to do.
  • An example of directly evaluating the uneven shape of the surface is to examine the uneven shape of the surface itself as shown in FIG. 2A.
  • FIG. 18A is a flowchart schematically showing an example of the surface roughness evaluation operation performed by the processing circuit 60 in the ninth embodiment.
  • FIG. 18B is a block diagram schematically showing the flow of data input and generated in the surface unevenness evaluation operation.
  • the processing circuit 60 executes the operations of steps S201 to S205 and S216 to S218 shown in FIG. 18A.
  • the operations in steps S201 to S205 shown in FIG. 18A are the same as the operations in steps S201 to S205 shown in FIG. 7, respectively.
  • the processing circuit 60 executes the operation in step S216 before step S201, and executes the operations in steps S217 and S218 after step S205.
  • the processing circuit 60 is trained using information on the incident angle of the irradiation light in the reference area, point cloud data, and evaluation data indicating the degree of surface unevenness regarding the uneven shape of the corresponding reference area as training data. , generate a supervised trained model. Since the point cloud data is obtained from the detection signal of the photodetector, the above point cloud data may also be referred to as the detection signal.
  • the reference area may be, for example, one of a plurality of different areas within the surface 10s of the object 10.
  • the plurality of regions may be, for example, regions obtained by dividing one region within the surface 10s of the object 10 two-dimensionally or one-dimensionally, or may be discrete regions within the surface 10s of the object 10. It may be a distributed area.
  • the reference area may be one of a plurality of virtual areas each corresponding to a plurality of incident angles, for example.
  • the plurality of virtual regions may each have an uneven shape assuming a plurality of regions within the surface 10s of the object 10, for example.
  • a learned model is generated by acquiring information on the incident angle of irradiation light in the plurality of regions or the plurality of virtual regions, point cloud data, and evaluation data.
  • a trained model may be generated using a known machine learning algorithm such as a neural network.
  • Step S217> the processing circuit 60 uses the trained model generated in step S216 to evaluate the degree of surface unevenness in the evaluation region 14 from the point cloud data and information on the incident angle.
  • Step S218> The processing circuit 60 outputs evaluation data indicating the degree of surface unevenness in the evaluation region 14, as shown in FIG. 18B.
  • the degree of surface unevenness in the evaluation region 14 can be evaluated more accurately using the learned model.
  • FIG. 19A is a block diagram schematically showing a configuration example of an FMCW-LiDAR distance measuring device 30.
  • the distance measuring device 30 shown in FIG. 19A includes a light source 31, an interference optical system 32, a light deflector 33, a photodetector 34, a first processing circuit 35, and a memory (not shown).
  • FIG. 19B is a block diagram schematically showing a configuration example of the interference optical system 32 shown in FIG. 19A.
  • the thick arrows shown in FIGS. 19A and 19B represent the flow of light.
  • the light source 31 emits laser light 30L0.
  • the light source 31 can change the frequency of the laser beam 30L0.
  • the frequency can be changed over time in a constant time period, for example in a triangular wave shape or a sawtooth shape.
  • the time period may be, for example, 1 ⁇ sec or more and 10 msec or less.
  • the time period may vary.
  • the frequency change width may be, for example, 100 MHz or more and 1 THz or less.
  • the wavelength of the laser beam 30L0 may be included in the visible light wavelength range, or may be included in the infrared or ultraviolet wavelength range.
  • the light source 31 may include, for example, a distributed feedback (DFB) laser diode or an external cavity (EC) laser diode.
  • DFB distributed feedback
  • EC external cavity
  • the interference optical system 32 includes a splitter 32a, a mirror 32b, and a collimator 32c.
  • the splitter 32a branches the laser beam 30L0 emitted from the light source 31 into a part of the reference beam 30L1 and a remaining part of the laser beam 30L2.
  • the intensity of the reference beam 30L1 with respect to the intensity of the laser beam 30L0 may be, for example, 1% or more and 20% or less. Since the laser light 30L0 includes the reference light 30L1 and the irradiation light 30L2, it can be said that the light source 31 emits the irradiation light 30L2 for irradiating a plurality of measurement points included in the evaluation area 14.
  • the mirror 32b reflects the reference light 30L1 and returns the reference light 30L1 to the splitter 32a.
  • the collimator 32c collimates and emits the irradiated light 30L2.
  • "collimating” means not only making the irradiated light 30L2 completely parallel light but also reducing the spread of the irradiated light 30L2.
  • Reflected light 30L3 from a plurality of measurement points included in the evaluation area 14 enters the splitter 32a via the optical deflector 33 and the collimator 32c.
  • the splitter 32a emits interference light 30L4 obtained by interfering the reference light 30L1 and the reflected light 30L3.
  • the optical deflector 33 changes the direction of the irradiated light 30L2.
  • the angle of incidence at which the irradiated light 30L2 enters the surface 10s of the object 10 depends on the direction of the irradiated light 30L2.
  • the optical deflector 33 can be, for example, one selected from the group consisting of a galvano scanner, a polygon mirror, a MEMS scanner, a phase modulation scanner, a refractive index modulation scanner, and a wavelength modulation scanner.
  • the photodetector 34 detects the interference light 30L4 and outputs a detection signal corresponding to the intensity of the interference light 30L4. Since the interference light 30L4 includes the reference light 30L1 and the reflected light 30L3, it can be said that the photodetector 34 receives the reflected light 30L3. Photodetector 34 includes at least one photodetection element.
  • the configuration of the distance measuring device 30 can be simplified and stable distance measurement can be achieved.
  • the first processing circuit 35 controls the operations of the light source 31, the optical deflector 33, and the photodetector 34, and processes the detection signal output from the photodetector 34.
  • the first processing circuit 35 causes the light source 31 to emit irradiation light 30L2 for irradiating a plurality of measurement points included in the evaluation area 14, and causes the photodetector 34 to emit reflected light 30L3 from the plurality of measurement points. and outputs a detection signal.
  • the first processing circuit 35 generates and outputs distance information for each of the plurality of measurement points included in the evaluation area 14 based on the detection signal.
  • the first processing circuit 35 generates information on the beat frequency of the interference light 30L4 by Fourier transforming the time waveform of the detection signal, and generates and outputs distance information based on the information on the beat frequency.
  • a computer program executed by the processing circuit 60 is stored in a memory (not shown). The memory is similar to the memory 62 shown in FIG.
  • FIG. 20 is a block diagram schematically showing a configuration example of an FMCW-LiDAR measurement system 100 including an integrated processing circuit.
  • the integrated processing circuit 60A shown in FIG. 20 includes the first processing circuit 35 shown in FIG. 19A and the second processing circuit 60 shown in FIG. 3.
  • the computer program executed by the processing circuit 60A is stored in the memory 62A shown in FIG.
  • the memory 62A is similar to the memory 62 shown in FIG.
  • FIG. 21 is a block diagram schematically showing a configuration example of a TOF distance measuring device 30.
  • the distance measuring device 30 shown in FIG. 21 includes a light source 31, a light deflector 33, a photodetector 34, a first processing circuit 35, and a memory (not shown).
  • the light source 31 emits irradiation light 30L2 for irradiating a plurality of measurement points included in the evaluation area 14 via the optical deflector 33.
  • the irradiation light 30L2 may be a laser beam or an LED light.
  • Light source 31 may include, for example, a laser diode or an LED.
  • the optical deflector 33 is as described with reference to FIG. 19A. If the irradiation light 30L2 has a sufficiently wide irradiation range and can range a plurality of measurement points included in the evaluation area 14 at once, the distance measurement device 30 does not need to include the optical deflector 33.
  • the photodetector 34 includes at least one photodetection element and receives the reflected light 30L3.
  • the time from when the irradiation light 30L2 is emitted until it returns as the reflected light 30L3 reflects the distance information of the measurement point.
  • the photodetector 34 detects the reflected light 30L3 during a first period in which the irradiation light 30L2, which is pulsed light, is emitted, and outputs a first detection signal corresponding to the intensity of the reflected light 30L3.
  • the photodetector 34 further detects the reflected light 30L3 in a second period having the same time width as the first period following the first period, and outputs a second detection signal corresponding to the intensity of the reflected light 30L3. .
  • the intensity of the second detection signal relative to the sum of the intensities of the first and second detection signals reflects the distance information of the measurement point.
  • the photodetector 34 is an image sensor including a plurality of two-dimensionally arranged photodetection elements
  • the plurality of photodetection elements correspond to the plurality of measurement points, respectively.
  • the detection signal output from each photodetection element includes distance information of the corresponding measurement point.
  • the photodetector 34 may include a single photodetection element.
  • the first processing circuit 35 controls the operations of the light source 31 and the photodetector 34, and processes the detection signal output from the photodetector 34.
  • the first processing circuit 35 causes the light source 31 to emit irradiation light 30L2 for irradiating the evaluation area, and causes the photodetector 34 to receive reflected light 30L3 from the evaluation area and detect the reflected light 30L3 for a certain period of time. to output the detection signal.
  • the first processing circuit 35 generates and outputs distance information for each of the plurality of measurement points included in the evaluation area based on the detection signal.
  • FIG. 22 is a block diagram schematically showing a configuration example of a TOF measurement system 100 including an integrated processing circuit.
  • the integrated processing circuit 60A shown in FIG. 22 includes the first processing circuit 35 shown in FIG. 21 and the second processing circuit 60 shown in FIG. 3.
  • the computer program executed by the processing circuit 60A is stored in the memory 62A shown in FIG. 22.
  • the memory 62A is similar to the memory 62 shown in FIG.
  • the technology of the present disclosure can be used, for example, to measure roughness parameters of large objects.
  • large objects include structures at construction sites and large products such as automobiles manufactured in factories.
  • Object 10 Object 10s Surface 12 Distance measurement area 14 Evaluation area 14a First evaluation area 14b Second evaluation area 20 Support 22 Optical head 30 Distance measuring device 30L0 Laser light 30L1 Reference light 30L2 Irradiation light 30L3 Reflected light 30L4 Interference light 31 Light source 32 Interference optical system 32a Brancher 32b Mirror 32c Collimator 33 Optical deflector 34 Photodetector 35 First processing circuit 40 Storage device 50 Display device 50a Input UI 50b Display UI 60 Processing circuit, second processing circuit 60A Integrated processing circuit 62, 62A Memory 100 Measurement system

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

計測システムは、対象物の表面内の少なくとも1つの評価領域に含まれる複数の計測点を照射するための照射光を出射する光源と、前記複数の計測点からの反射光を受けて検出信号を出力する光検出器と、前記検出信号に基づいて前記評価領域の凹凸形状に関する粗さパラメータを算出および出力する処理回路と、を備え、前記処理回路は、前記照射光が前記評価領域に入射する入射角、前記評価領域における計測距離、または前記評価領域を前記照射光で照射して得られる受光強度に応じて前記粗さパラメータを補正する。

Description

計測システムおよび計測方法
 本開示は、計測システムおよび計測方法に関する。
 対象物の凹凸形状を正確に計測することが求められている。対象物の例としては、建設現場における構造物、および工場において製造される自動車のような大型製品が挙げられる。
 対象物の凹凸形状の計測には、探針を用いる接触方式と、照射光を用いる非接触方式とがある。接触方式では、対象物が大型である場合、計測時間が長くなる。これに対して、非接触方式であれば、対象物が大型である場合でも、計測時間を短縮できる。非接触方式において計測精度を向上できれば、対象物の凹凸形状を短時間でより正確に計測することができる。
特開2018-72042号公報
 本開示は、対象物の凹凸形状をより正確に計測することが可能な計測システムおよび計測方法を提供する。
 本開示の一態様に係る計測システムは、対象物の表面内の少なくとも1つの評価領域に含まれる複数の計測点を照射するための照射光を出射する光源と、前記複数の計測点からの反射光を受けて検出信号を出力する光検出器と、前記検出信号に基づいて前記評価領域の凹凸形状に関する粗さパラメータを算出および出力する処理回路と、を備え、前記処理回路は、前記照射光が前記評価領域に入射する入射角、前記評価領域における計測距離、または前記評価領域を前記照射光で照射して得られる受光強度に応じて前記粗さパラメータを補正する。
 本開示の包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能な記録ディスク等の記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意の組み合わせで実現されてもよい。コンピュータ読み取り可能な記録媒体は、例えばCD-ROM(Compact Disc‐Read Only Memory)等の不揮発性の記録媒体を含み得る。装置は、1つ以上の装置で構成されてもよい。装置が2つ以上の装置で構成される場合、当該2つ以上の装置は、1つの機器内に配置されてもよく、分離した2つ以上の機器内に分かれて配置されてもよい。本明細書および特許請求の範囲では、「装置」とは、1つの装置を意味し得るだけでなく、複数の装置からなるシステムも意味し得る。
 本開示の技術によれば、対象物の凹凸形状をより正確に計測することが可能な計測システムおよび計測方法を実現できる。
図1は、対象物の凹凸形状に関する粗さパラメータを計測する様子を模式的に示す図である。 図2Aは、第1評価領域における複数の計測点の分布を模式的に示す図である。 図2Bは、第2評価領域における複数の計測点の分布を模式的に示す図である。 図3は、本開示の例示的な実施形態1による計測システムの構成を模式的に示すブロック図である。 図4Aは、凹凸形状を有する評価領域における基準面、算術平均高さ、および二乗平方根高さの関係を模式的に示す図である。 図4Bは、低周期のうねりを有する凹凸形状における基準面の例を模式的に示す図である。 図4Cは、低周期のうねりを有する凹凸形状における基準面の他の例を模式的に示す図である。 図5Aは、光の入射角と、粗さパラメータとの関係を示すグラフである。 図5Bは、記憶装置に記憶される補正データの例を示す図である。 図5Cは、記憶装置に記憶される補正データの他の例を示す図である。 図6は、実施形態1において処理回路が実行する補正データの生成動作の例を概略的に示すフローチャートである。 図7は、実施形態1において処理回路が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。 図8は、実施形態2において処理回路が実行する補正データの生成動作の例を概略的に示すフローチャートである。 図9は、実施形態2において処理回路が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。 図10は、実施形態3において処理回路が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。 図11は、実施形態4において処理回路が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。 図12は、実施形態5において処理回路が実行する補正データの生成動作の例を概略的に示すフローチャートである。 図13は、実施形態5において処理回路が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。 図14は、実施形態6において処理回路が実行する補正データの生成動作の例を概略的に示すフローチャートである。 図15は、実施形態6において処理回路が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。 図16は、実施形態7において処理回路が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。 図17は、実施形態8において処理回路が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。 図18Aは、実施形態9において処理回路が実行する表面凹凸度の評価動作の例を概略的に示すフローチャートである。 図18Bは、表面凹凸度の評価動作において入力および生成されるデータの流れを模式的に示すブロック図である。 図19Aは、FMCW-LiDAR方式の測距装置の構成例を模式的に示すブロック図である。 図19Bは、図19Aに示す干渉光学系の構成例を模式的に示すブロック図である。 図20は、統合された処理回路を備えるFMCW-LiDAR方式の計測システムの構成例を模式的に示すブロック図である。 図21は、TOF方式の測距装置の構成例を模式的に示すブロック図である。 図22は、統合された処理回路を備えるTOF方式の計測システムの構成例を模式的に示すブロック図である。
 本開示において、回路、ユニット、装置、部材または部の全部または一部、またはブロック図における機能ブロックの全部または一部は、例えば、半導体装置、半導体集積回路(IC)、またはLSI(large scale integration)を含む1つまたは複数の電子回路によって実行され得る。LSIまたはICは、1つのチップに集積されてもよいし、複数のチップを組み合わせて構成されてもよい。例えば、記憶素子以外の機能ブロックは、1つのチップに集積されてもよい。ここでは、LSIまたはICと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(very large scale integration)、もしくはULSI(ultra large scale integration)と呼ばれるものであってもよい。LSIの製造後にプログラムされる、Field Programmable Gate Array(FPGA)、またはLSI内部の接合関係の再構成またはLSI内部の回路区画のセットアップができるreconfigurable logic deviceも同じ目的で使うことができる。
 さらに、回路、ユニット、装置、部材または部の全部または一部の機能または操作は、ソフトウェア処理によって実行することが可能である。この場合、ソフトウェアは1つまたは複数のROM、光学ディスク、ハードディスクドライブなどの非一時的記録媒体に記録され、ソフトウェアが処理装置(processor)によって実行されたときに、そのソフトウェアで特定された機能が処理装置(processor)および周辺装置によって実行される。システムまたは装置は、ソフトウェアが記録されている1つまたは複数の非一時的記録媒体、処理装置(processor)、および必要とされるハードウェアデバイス、例えばインターフェースを備えていてもよい。
 本開示において、「光」とは、可視光(波長が約400nm~約700nm)だけでなく、紫外線(波長が約10nm~約400nm)および赤外線(波長が約700nm~約1mm)を含む電磁波を意味する。
 以下、本開示の例示的な実施形態を説明する。なお、以下で説明する実施形態は、いずれも包括的又は具体的な例を示すものである。以下の実施形態で示される数値、形状、構成要素、構成要素の配置位置及び接続形態、ステップ、ステップの順序などは、一例であり、本開示を限定する主旨ではない。また、以下の実施形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、各図は模式図であり、必ずしも厳密に図示されたものではない。さらに、各図において、実質的に同一の構成要素に対しては同一の符号を付しており、重複する説明は省略又は簡略化される場合がある。
 本開示の実施の形態を説明する前に、図1から図2Bを参照して、本開示の基礎となった知見を説明する。図1は、対象物の凹凸形状に関する粗さパラメータを計測する様子を模式的に示す図である。図1に示すX軸、Y軸、およびZ軸は互いに直交している。
 図1には、XY平面に沿って広がる表面10sを有する対象物10が示されている。対象物10は大型であり、その表面10sは数メートル四方の広さを有する。対象物10の表面10sは不規則な凹凸形状を有し、凹凸の不規則性は表面10s内の位置によらずほぼ一定である。
 図1には、さらに、対象物10の表面10s上に配置された支持体20、および支持体20によって支持された光学ヘッド22が示されている。支持体20は、三脚と、当該三脚の上部に取り付けられた伸縮可能なロッドと、および当該ロッドの上部に取り付けられた回転可能な球体とを備える。支持体20は、球体によって光学ヘッド22を支持する。伸縮可能なロッドにより、光学ヘッド22の高さは上下方向に調整可能である。回転可能な球体により、光学ヘッド22の向きはパン方向および/またはチルト方向に調整可能である。図1に示す直線の両矢印は光学ヘッド22の高さの調整方向を表し、図1に示す曲線の両矢印は光学ヘッド22の向きの調整方向を表す。対象物10の表面10sからの光学ヘッド22の高さは、例えば50cm以上3m以下であり得る。ここで、対象物10の表面10sからの光学ヘッド22の高さとは、対象物10の表面10sを高さの基準とした場合の、光学ヘッド22から照射光が出射される光出射面の中心の高さである。
 光学ヘッド22は、内部に光偏向器を備えており、当該光偏向器によって照射光をスキャンすることが可能である。光学ヘッド22を対象物10の表面10sの一部に向けた状態で、不図示の測距装置から、光学ヘッド22を介して照射光が内部の光偏向器によって2次元的にスキャンされながら出射される。図1に示す測距領域12は、対象物10の表面10sのうち、そのような照射光によって照射可能な領域である。図1に示す破線の矩形領域は測距領域12を表す。測距装置は、測距領域12に含まれる複数の計測点を測距して複数の計測点の各々の距離情報を生成する。図1に示す丸印は計測点を表す。各計測点の距離情報は、例えば、光学ヘッド22の光出射面の中心から各計測点までの距離を示す情報であり得る。計測点の数の密度は、例えば、10個/m以上10個/m以下であり得る。
 図1に示す例において、測距領域12から、以下の第1評価領域14aおよび第2評価領域14bが抽出される。第1評価領域14aは、ほぼ垂直方向に入射する照射光で照射される領域である。当該照射光の入射角はほぼθ=0°である。第2評価領域14bは、斜め方向に入射する照射光で照射される領域である。当該照射光の入射角はほぼθ=45°である。入射角θは、照射光の光軸と、対象物10の表面10sの法線とがなす角度である。以下に、第1評価領域14aおよび第2評価領域14bにおける粗さパラメータを計測する場合に生じる課題を説明する。
 図2Aおよび図2Bは、それぞれ、第1評価領域14aおよび第2評価領域14bにおける複数の計測点の分布を模式的に示す図である。説明をわかりやすくするために、評価領域14a、14bにおける凹凸形状は同じであるとする。図2Aおよび図2Bに示す白抜きの矢印は、照射光が入射する様子を模式的に表す。図2Aおよび図2Bに示す丸印は計測点を表す。
 図2Aに示す例において、複数の計測点は、凹凸の有無に関係なく第1評価領域14aにおいてほぼ均一に分布する。したがって、第1評価領域14aにおける凹凸の高さは、複数の測距点の各々の距離情報から正確に知ることができ、第1評価領域14aにおける粗さパラメータを正確に計測することが可能である。粗さパラメータは、凹凸が粗いほど大きい値を示す。
 これに対して、図2Bに示す例において、複数の計測点は、第2評価領域14bのうち、影にならない部分に分布し、影になる部分には分布しない。このことが原因で、第2評価領域14bにおける凹凸の高さは、複数の計測点の各々の距離情報から正確に知ることができない。したがって、本来、第2評価領域14bにおける粗さパラメータは第1評価領域14aにおける粗さパラメータにほぼ等しくなるはずが、第2評価領域14bにおける粗さパラメータは、第1評価領域14aにおける粗さパラメータよりも小さくなる。このように、照射光の入射角によっては粗さパラメータを正確に計測できない可能性がある。
 さらに、粗さパラメータは、照射光の入射角だけでなく、例えば、評価領域14a、14bにおける計測距離、および評価領域14を照射光で照射して得られる受光強度にも依存する。当該計測距離が長いほど、粗さパラメータの計測誤差は増加する。当該受光強度が低いほど、粗さパラメータの計測誤差は増加する。
 本発明者は、上記の課題を見出し、当該課題を解決する本開示の実施形態による計測システムおよび計測方法に想到した。本実施形態による計測システムおよび計測方法では、評価領域における粗さパラメータを照射光の入射角に応じて補正することにより、対象物の凹凸形状をより正確に計測することが可能になる。さらに、照射光の入射角以外にも、評価領域における計測距離、または評価領域を照射光で照射して得られる受光強度に応じて、評価領域における粗さパラメータを補正することにより、対象物の凹凸形状をより正確に計測することが可能になる。さらに、学習済みモデルを用いて評価領域における凹凸形状を評価することにより、対象物の凹凸形状をより正確に計測することが可能になる。
 以下に、本開示の実施形態による計測システムおよび計測方法を説明する。
 第1の項目に係る計測システムは、対象物の表面内の少なくとも1つの評価領域に含まれる複数の計測点を照射するための照射光を出射する光源と、前記複数の計測点からの反射光を受けて検出信号を出力する光検出器と、前記検出信号に基づいて前記評価領域の凹凸形状に関する粗さパラメータを算出および出力する処理回路と、を備える。前記処理回路は、前記照射光が前記評価領域に入射する入射角、前記評価領域における計測距離、または前記評価領域を前記照射光で照射して得られる受光強度に応じて前記粗さパラメータを補正する。
 この計測システムでは、対象物の凹凸形状をより正確に計測することができる。
 第2の項目に係る計測システムは、第1の項目に係る計測システムにおいて、前記粗さパラメータが、2次元的な領域における算術平均高さ、二乗平方根高さ、展開界面面積率、スキューネス、クルトシス、および二乗平均平方根傾斜、または、1次元的な領域における算術平均高さ、二乗平方根高さ、スキューネス、クルトシス、および二乗平均平方根傾斜からなる群から選択される1つである。
 この計測システムでは、2次元的な領域または1次元的な領域における粗さパラメータを計測することができる。
 第3の項目に係る計測システムは、第1または第2の項目に係る計測システムにおいて、前記少なくとも1つの評価領域は複数の評価領域を含む。前記処理回路は、前記照射光が各評価領域に入射する入射角に応じて各評価領域における前記粗さパラメータを補正する。
 この計測システムでは、複数の評価領域の各々における粗さパラメータを計測することができる。
 第4の項目に係る計測システムは、第1から第3の項目のいずれかに係る計測システムにおいて、前記照射光の方向を変化させる光偏向器をさらに備える。前記処理回路は、前記光偏向器の動作を制御する。
 この計測システムでは、照射光をスキャンさせながら出射することができる。
 第5の項目に係る計測システムは、第1から第4の項目のいずれかに係る計測システムにおいて、前記処理回路が、前記照射光の出射前に、前記対象物の前記表面を測距した結果に基づいて前記照射光の前記入射角を算出する。
 この計測システムでは、対象物の表面と基準面とがなす角度が未知である場合に、照射光の入射角を算出することができる。
 第6の項目に係る計測システムは、第1から第5の項目のいずれかに係る計測システムにおいて、前記処理回路が、記憶装置から補正データを取得し、前記補正データは、入射角と補正パラメータとの対応関係を規定し、前記照射光の前記入射角と前記補正データとに基づいて補正パラメータを決定し、前記補正パラメータに基づいて前記粗さパラメータを補正する。
 この計測システムでは、補正データに基づいて粗さパラメータを補正することができる。
 第7の項目に係る計測システムは、第6の項目に係る計測システムにおいて、前記補正データが、対象物の属性ごとに前記記憶装置に記憶されている。前記処理回路は、計測される前記対象物の属性に基づいて前記記憶装置から前記補正データを取得する。
 この計測システムでは、対象物の属性に応じて粗さパラメータを補正することができる。
 第8の項目に係る計測システムは、第7の項目に係る計測システムにおいて、前記対象物の属性が、前記対象物の材料、サイズ、材料の割合、前記表面の研磨方法、および製品番号から選択される少なくとも1つである。
 この計測システムでは、上記の属性の少なくとも1つに応じて粗さパラメータを補正することができる。
 第9の項目に係る計測システムは、第1から第8の項目のいずれかに係る計測システムにおいて、前記処理回路が、前記入射角が補正の基準角より大きい場合、前記入射角が大きいほど、前記粗さパラメータの補正量を大きくし、前記入射角が補正の基準角より小さい場合、前記入射角が小さいほど、前記粗さパラメータの補正量を大きくする。
 この計測システムでは、照射光の入射角と補正の基準角との差に応じて粗さパラメータの補正することができる。
 第10の項目に係る計測システムは、第1から第9の項目のいずれかに係る計測システムにおいて、前記処理回路が、補正後の前記粗さパラメータに加えて、補正前の前記粗さパラメータを出力する。
 この計測システムでは、補正後の粗さパラメータと、補正後および補正前の粗さパラメータを表示装置に表示することできる。
 第11の項目に係る計測システムは、第1から第10の項目のいずれかに係る計測システムにおいて、前記処理回路が、第1処理回路および第2処理回路を含む。前記第1処理回路は、前記検出信号に基づいて前記複数の計測点の各々の距離情報を生成する。前記第2処理回路は、前記距離情報に基づいて前記評価領域の凹凸形状に関する粗さパラメータを算出し、前記照射光が前記評価領域に入射する入射角に応じて前記粗さパラメータを補正する。
 この計測システムでは、複数の計測点の各々の距離情報を生成する処理回路、および粗さパラメータを算出し、補正する処理回路が互いに独立している。
 第12の項目に係る計測方法は、対象物の表面内の評価領域に含まれる複数の計測点を照射するための照射光を出射する光源と、前記複数の計測点からの反射光を受けて検出信号を出力する光検出器とを備える計測システムにおいてコンピュータによって実行される計測方法である。前記計測方法は、前記検出信号に基づいて前記評価領域の凹凸形状に関する粗さパラメータを算出および出力することと、前記照射光が前記評価領域に入射する入射角に応じて前記粗さパラメータを補正することと、を含む。
 この計測方法により、対象物の凹凸形状をより正確に計測することができる。
 第13の項目に係る計測システムは、対象物の表面内の評価領域に含まれる複数の計測点を照射するための照射光を出射する光源と、前記複数の計測点からの反射光を受けて検出信号を出力する光検出器と、前記検出信号に基づいて前記評価領域の凹凸形状に関する表面凹凸度を算出および出力する処理回路と、を備える。前記処理回路は、前記照射光が基準領域に入射する入射角、前記検出信号、および対応する前記基準領域の凹凸形状に関する表面凹凸度を教師データとして学習済みモデルを生成し、前記学習済みモデルを用いて、前記評価領域における表面凹凸度を評価する。
 この計測システムでは、対象物の凹凸形状をより正確に計測することができる。
 第14の項目に係る計測システムは、第13の項目に係る計測システムにおいて、前記基準領域は、前記対象物の前記表面内の互い異なる複数の領域のうちの1つ、または複数の入射角にそれぞれ対応する複数の仮想的な領域の1つである。
 この計測システムでは、基準領域を適切に設定した上で、学習済みモデルを生成することができる。
 第15の項目に係る計測システムは、第13または第14の項目に係る計測システムにおいて、前記評価領域が2次元的な領域または1次元的な領域である。
 この計測システムでは、2次元的な領域または1次元的な領域における表面凹凸度を評価することができる。
 第16の項目に係る計測システムは、第1から第15の項目のいずれかに係る計測システムにおいて、前記処理回路が、前記検出信号に基づいて、前記照射光が前記評価領域に入射する前記入射角、前記評価領域における前記計測距離、または前記評価領域を前記照射光で照射して得られる前記受光強度を設定する。
 この計測システムでは、入射角、計測距離、または受光強度を算出するための初期測定を行う必要がないので、対象物の凹凸形状をより短時間で計測することができる。
 第17の項目に係る計測システムは、対象物の表面内の少なくとも1つの評価領域に含まれる複数の計測点を照射するための照射光を出射する光源と、前記複数の計測点からの反射光を受けて検出信号を出力する光検出器と、前記検出信号に基づいて前記評価領域の凹凸形状に関する粗さパラメータを算出および出力する処理回路と、を備える。前記処理回路は、算出した前記粗さパラメータの評価に用いられる基準値を、前記照射光が前記評価領域に入射する入射角、前記評価領域における計測距離、または前記評価領域を前記照射光で照射して得られる受光強度に応じて補正し、算出した前記粗さパラメータと、補正した前記基準値との比較結果を出力する。
 この計測システムでは、対象物の凹凸形状をより正確に計測することができる。
 (実施形態1)
 [計測システム]
 以下に、図3を参照して、本開示の実施形態1による計測システムの構成例を説明する。図3は、本開示の例示的な実施形態1による計測システムの構成を模式的に示すブロック図である。図3に示す計測システム100は、支持体20と、支持体20によって支持される光学ヘッド22と、測距装置30と、記憶装置40と、表示装置50と、処理回路60と、メモリ62とを備える。図3に示す細い線の矢印は、信号の入出力を表す。図3に示す太い曲線は、測距装置30および光学ヘッド22を繋ぐ光ファイバを表す。
 図3には、計測システム100に加えて、図1と同様に、光学ヘッド22から出射される照射光を利用して、対象物10の表面10s内の評価領域14における粗さパラメータを計測する様子が示されている。図3に示す例において、評価領域14は測距領域12の中央領域であり、測距領域12に含まれている。評価領域14は測距領域12から抽出される。測距領域12は、測距領域12の中央領域である必要はなく、測距領域12内の任意の領域であり得る。
 光学ヘッド22から出射される照射光によって照射可能な測距領域12の広さを調整することが容易ではない場合、測距領域12から評価領域14が抽出される。これに対して、測距領域12の広さを調整することが可能である場合、測距領域12を評価領域14のように狭くして、測距領域12を評価領域14に一致させてもよい。
 後で詳しく説明するが、計測システム100において、処理回路60は、測距装置30の照射光を用いた測距結果に基づいて、評価領域14における粗さパラメータを算出する。処理回路60は、さらに、記憶装置40に記憶された補正データに基づいて、照射光が評価領域14に入射する入射角に応じて粗さパラメータを補正する。その結果、対象物10の凹凸形状をより正確に計測することが可能になる。
 照射光が評価領域14に入射する入射角は、厳密には、照射光が評価領域14内のどの位置に入射するかによって異なる。そこで、本明細書では、照射光が評価領域14に入射する代表的な入射角を、照射光が評価領域14に入射する角度として扱う。当該代表的な入射角は、例えば、照射光が評価領域14の中心に入射する入射角であり得る。あるいは、当該代表的な入射角は、照射光が評価領域14に入射することが可能な入射角のうち、最大または最小の角度であり得る。
 以下に、対象物10の詳細を説明し、さらに計測システム100の各構成要素の詳細を説明する。
 <対象物10>
 計測対象の対象物10は大型である。対象物10の表面10sは、例えば一辺が1mの正方形を含む広さを有し得る。対象物10の表面10sは、例えば不規則な凹凸形状を有し得る。表面10sにおける凸部または凹部のX方向および/またはY方向における寸法は、例えば、1mm以上150mm以下であり、Z方向における寸法は、例えば0.1mm以上75mm以下であり得る。
 対象物10は、例えば、建設現場における構造物、および工場において製造される大型製品であり得る。構造物は、例えば、コンクリート部材、金属部材、または木材から形成され得る。工場製品は、例えば自動車、家電製品、または機械部品であり得る。
 なお、本明細書では、計測対象として大型の対象物10を例に挙げているが、用途によっては、大型ではない対象物を計測対象としてもよい。
 <支持体20および光学ヘッド22>
 支持体20および光学ヘッド22の構成については前述した通りである。支持体20は、光学ヘッド22の高さおよび/または向きを調整する調整装置を備える。
 <測距装置30>
 測距装置30は、光源と、光検出器と、光偏向器と、測距用の処理回路とを備える。これらの構成要素は外観には表れない。光偏向器は光学ヘッド22の内部に収容されている。光学ヘッド22は測距領域12を向いている。光源は、測距領域12に含まれる複数の計測点を照射するための照射光を出射する。評価領域14は測距領域12の一部であるので、光源は、評価領域14に含まれる複数の計測点を照射するための照射光を出射すると言うこともできる。光源から出射された照射光は、光ファイバを通過した後、光偏向器に入射する。光偏向器は、光源から出射された照射光の方向を変化させる。その結果、照射光が、光学ヘッド22からスキャンされながら出射される。照射光は、例えばレーザ光またはLED光であり得る。照射光の波長は、例えば、対象物10の表面10sの凸部または凹部の上記の寸法によって決定され得る。照射光の波長は、例えば可視光の波長であってもよいし、紫外線または赤外線の波長であってもよい。光検出器は、複数の計測点からの反射光を受けて検出信号を出力する。測距用の処理回路は、光源、光検出器、および光偏向器33の動作を制御し、検出信号に基づいて複数の計測点の各々の距離情報を生成して出力する。距離情報は、前述したように、例えば、光学ヘッド22の光出射面の中心から各計測点までの距離を示す情報であり得る。
 上記のように、測距装置30は、光学ヘッド22からスキャンされながら出射された照射光によって複数の計測点を個々に測距して、複数の計測点の各々の距離情報を生成して出力する。あるいは、照射光が広い照射範囲を有する場合、測距装置30は、光学ヘッド22からスキャンされずに出射された照射光によって複数の計測点を一度に測距して、複数の計測点の各々の距離情報を生成して出力してもよい。その場合、測距装置30は光偏向器を備える必要はない。
 測距装置30は、例えば、FMCW-LiDAR(Frequency Modulated Continuous Wave-Light Detection And Ranging)方式の測距装置、またはTOF(Time Of Flight)方式の測距装置であり得る。測距装置30の構成および測距方法の詳細については後述する。
 <記憶装置40>
 記憶装置40は、照射光が評価領域14に入射する入射角に応じて粗さパラメータを補正するための補正データを記憶する。補正データの詳細については後述する。記憶装置40は、例えば磁気ディスクを備えたハードディスクドライブ(HDD)またはフラッシュメモリを備えたソリッドステートドライブ(SSD)であり得る。
 <表示装置50>
 表示装置50は、入力ユーザインターフェース(UI)50aおよび表示UI50bを表示する。入力UI50aは、ユーザが情報を入力するために用いられる。ユーザが入力UI50aに入力した情報は、処理回路60によって受け取られる。入力情報の詳細については後述する。表示UI50bは、処理回路60によって生成された情報を表示するために用いられる。
 入力UI50aおよび表示UI50bは、グラフィカルユーザインターフェース(GUI)として表示される。入力UI50aおよび表示UI50bに示される情報は、表示装置50に表示されると言うこともできる。入力UI50aおよび表示UI50bは、タッチスクリーンのように入力および出力の両方が可能なデバイスによって実現されていてもよい。その場合、タッチスクリーンが表示装置50として機能してもよい。入力UI50aとしてキーボードおよび/またはマウスを用いる場合、入力UI50aは表示装置50とは独立した装置である。
 <処理回路60>
 処理回路60は、支持体20の調整装置、測距装置30、記憶装置40、および表示装置50の動作を制御する。処理回路60は、測距装置30から出力された距離情報に基づいて、評価領域14における粗さパラメータを算出する。処理回路60は、さらに、記憶装置40またはサーバのような外部の記憶装置から補正データを取得し、当該補正データに基づいて、照射光が評価領域14に入射する入射角に応じて粗さパラメータを補正する。外部の記憶装置から補正データを取得する場合、記憶装置40を設ける必要はない。処理回路60は、さらに、補正後の粗さパラメータを出力する。処理回路60は、出力した補正後の粗さパラメータを表示UI50bに表示させる。
 処理回路60が実行する補正データの生成動作および粗さパラメータの計測動作の詳細については後述する。処理回路60によって実行されるコンピュータプログラムは、ROMまたはRAM(Random Access Memory)などのメモリ62に格納されている。このように、計測システム100は、処理回路60およびメモリ62を含む処理装置を備える。処理回路60およびメモリ62は、1つの回路基板に集積されていてもよいし、別々の回路基板に設けられていてもよい。処理回路60は、複数の回路に分散していてもよい。処理回路60、メモリ62、または処理装置は、有線または無線の通信ネットワークを介して、他の構成要素から離れた遠隔地に設置されていてもよい。
 なお、図3に示す例において、測距装置30に含まれる測距用の処理回路、および処理回路60は互いに独立しているが、これらの処理回路を統合して1つの処理回路として扱ってもよい。本明細書において、測距装置30に含まれる測距用の処理回路を「第1処理回路」とも称し、処理回路60を「第2処理回路」とも称する。統合された処理回路は、第1処理回路および第2処理回路を含むと言うことができる。
 [粗さパラメータの例]
 次に、評価領域における粗さパラメータの例を説明する。評価領域の広さは、例えば、対象物10の表面10sにおける凸部または凹部のX方向、Y方向、およびZ方向における寸法に応じて決定され得る。評価領域は2次元的または1次元的な領域である。
 <評価領域が2次元的な領域である場合>
 評価領域は、例えば矩形、円形、または楕円の2次元的な領域であり得る。そのような評価領域は、2次元的に分布する凹凸形状を有する対象物10の表面10sに有効である。
 粗さパラメータの例として、算術平均高さSaが挙げられる。算術平均高さSaは、以下の式(1)によって算出される。
 Z(x、y)は、評価領域内の位置X=xおよびY=yにおける、基準面Z=0からの凹凸の高さの高低差を表す。基準面Z=0は、評価領域内の凹凸の高さの平均面である。式(1)における「A」は、評価領域の面積を表す。算術平均高さSaは、基準面Z=0からの凹凸の高さの高低差の絶対値を評価領域において平均化した値である。凹凸の高さは、複数の計測点の各々の距離情報から知ることができる。
 粗さパラメータの他の例として、二乗平方根高さSqは、以下の式(2)によって算出される。
 二乗平方根高さSqは、基準面Z=0からの凹凸の高さの高低差の二乗を評価領域において平均化した値の平方根によって得られる。二乗平方根高さSqは、評価領域における当該高低差の標準偏差に相当し、当該高低差のばらつきを表す。二乗平方根高さSqおよび算術平均高さSaはSq≧Saの関係を満たす。当該高低差のばらつきが大きいほど、Sq/Saが1から大きくずれる。
 粗さパラメータのさらに他の例として、表面積の指標である展開界面面積率Sdr、凹凸の高さ分布の対称性を示すスキューネスSsk、凹凸の高さ分布のとがり具合を示すクルトシスSku、および凹凸の険しさを示す二乗平均平方根傾斜Sdqが挙げられる。
 上記のように、粗さパラメータは、例えば、2次元的な領域における算術平均高さSa、二乗平方根高さSq、展開界面面積率Sdr、スキューネスSsk、クルトシスSku、および二乗平均平方根傾斜Sdqからなる群から選択される1つであり得る。
 次に、図4Aから図4Cを参照して、凹凸形状を有する評価領域における算術平均高さSaおよび二乗平方根高さSqの例ならびに基準面の例を説明する。図4Aは、凹凸形状を有する評価領域における基準面Z=0、算術平均高さSa、および二乗平方根高さSqの関係を模式的に示す図である。図4Aに示す破線は基準面を表し、実線は算術平均高さSaおよび二乗平方根高さSqを表す。図4Aに示す例においてSq/Sa>1であり、基準Z=0からの凹凸の高さの高低差にある程度のばらつきがある。
 図4Aに示すように、凹凸形状がうねりを有しない場合、基準面Z=0は平面である。これに対して、凹凸形状が低周期のうねりを有する場合、基準面を以下のように規定してもよい。図4Bおよび図4Cは、低周期のうねりを有する凹凸形状における基準面の例を模式的に示す図である。図4Bに示す例において、基準面は、評価領域における凹凸の高さを平均化することによって得られる平面である。基準面が平面である場合、うねりを含めた粗さパラメータが算出される。これに対して、図4Cに示す例において、基準面は、評価領域を複数の領域に分割し、各領域における凹凸の高さを平均化し、複数の領域における平均化された高さを繋げることによって得られる曲面である。基準面が曲面である場合、うねりを除去した粗さパラメータが算出される。
 <評価領域が1次元的な領域である場合>
 評価領域は、例えば1次元的な領域であり得る。そのような評価領域は、1次元的に分布する凹凸形状を有する対象物10の表面10sに有効である。1次元的な領域は、凹凸が分布する1次元的な方向に対して平行であってもよいし、当該方向に対して鋭角の角度で交差していていもよい。当該角度は、例えば30°以下であり得る。なお、そのような評価領域を、2次元的に分布する凹凸形状を有する対象物10の表面10sに適用してもよい。
 粗さパラメータは、例えば、1次元的な領域における算術平均高さRa、二乗平方根高さRq、スキューネスRsk、クルトシスRku、および二乗平均平方根傾斜Rdqからなる群から選択される1つであり得る。
 [補正方法および補正データ]
 次に、図5Aを参照して、照射光の入射角と粗さパラメータとの関係を説明する。図5Aは、光の入射角と、粗さパラメータとの関係を示すグラフである。図5Aに示す例において、評価領域は2次元的な領域であり、粗さパラメータは算術平均高さSaである。入射角はθ=0°、30°、および60°である。
 図5Aに示すように、算術平均高さSaは、照射光の入射角が増加するにつれて減少する。これは、図2Bを参照して説明したように、斜め入射の場合、複数の計測点が影になる部分には分布せず、基準面Z=0からの凹凸の高さの高低差が小さくなるからである。算術平均高さSa以外の粗さパラメータも、同様の理由から、照射光の入射角が増加するにつれて減少する。
 実施形態1において、粗さパラメータは、照射光の入射角に応じて以下のように補正される。粗さパラメータの計測を開始する前に、様々な角度θで入射する照射光によって対象物10の表面10sに含まれる複数の計測点を測距し、その測距結果に基づいて、様々な入射角θでの算術平均高さSa0(θ)が算出される。次に、粗さパラメータの計測を開始し、入射角θ=αの光を利用して、評価領域における算術平均高さSa(α)が算出される。算出された算術平均高さSa(α)は、以下の式(3)によって補正される。
 ここで、S’a(α)は、補正後の算術平均高さを表す。βは補正の基準角を表す。αは変動値であり、βは固定値である。図5Aに示す例において、算術平均高さが最も正確に算出される入射角はθ=0°であるので、補正の基準角をβ=0°とすることができる。対象物10の表面10sがうねりを有する場合、算術平均高さが最も正確に算出される入射角はθ≠0°であり得る。したがって、補正の基準角はβ≠0°であってもよい。
 式(3)では、算出された算術平均高さSa(α)に、補正係数Sa0(β)/Sa0(α)を乗算することにより、補正後の算術平均高さS’a(α)が得られる。式(3)におけるSa0(α)は、図5Aに示すような実測値であってもよいし、実測値からフィッティングした関数であってもよい。
 図5Bおよび図5Cは、記憶装置40に記憶される補正データの例を示す図である。図5Bに示す例において、補正データは、入射角と、算術平均高さSaとの対応関係を示すテーブルである。図5Cに示す例において、補正データは、入射角と、補正係数との対応関係を示すテーブルである。入射角はθ=0°、30°、および60°であるが、入射角およびその数は図5Bおよび図5Cに示す例に限定されない。
 上記のように、補正データは、入射角と、補正パラメータとの対応関係を規定する。補正パラメータは、例えば、図5Bに示すように粗さパラメータであってもよいし、図5Cに示すように補正係数であってもよい。入射角が補正の基準角よりも大きい場合、入射角が大きくなるほど、粗さパラメータの補正量は大きくなる。入射角が補正の基準角よりも小さい場合、入射角が小さくなるほど、粗さパラメータの補正量は大きくなる。
 [補正データの生成動作]
 次に、図6を参照して、実施形態1において処理回路60が実行する補正データの生成動作の例を説明する。図6は、実施形態1において処理回路60が実行する補正データの生成動作の例を概略的に示すフローチャートである。処理回路60は、図6に示すステップS101~S108の動作を実行する。
 <ステップS101>
 ユーザは、図3に示す入力UI50aを介して、補正データ用の複数の入射角を入力する。処理回路60は、入力UI50aから複数の入射角の情報を取得する。複数の入射角は、例えば、第1角度から第2角度までを一定の角度刻みで変化させて設定され得る。第1角度は、例えば0°であり得る。第2角度は、例えば、対象物10の表面10sの周縁領域を照射することが可能な照射光の入射角であり得る。一定の角度刻みは、例えば5°または10°のような角度刻みであり得る。
 ユーザは、さらに、照射光のスキャン範囲を入力してもよい。処理回路60は、入力UI50aからスキャン範囲の情報を取得する。
 <ステップS102>
 処理回路60は、支持体20の調整装置に、光学ヘッド22の高さおよび/または向きを変化させて、光学ヘッド22から出射された以下の照射光が、上記の複数の入射角から選択される1つの入射角で対象物10の表面10sに入射するようにする。
 <ステップS103>
 処理回路60は、測距装置30に、光学ヘッド22からスキャンされながら出射される照射光により、測距領域12に含まれる複数の計測点を個々に測距させる。あるいは、照射光が広い照射範囲を有する場合、処理回路60は、測距装置30に、光学ヘッド22からスキャンされずに出射される照射光により、複数の計測点を一度に測距してもよい。
 <ステップS104>
 処理回路60は、照射光が計測点に入射する入射角および計測点の距離から、複数の計測点の座標であるポイントクラウドを算出し、ポイントクラウドを示すデータ、すなわちポイントクラウドデータを記憶装置40に記憶させる。
 <ステップS105>
 処理回路60は、ポイントクラウドデータに基づいて、測距領域12から評価領域14を抽出する。評価領域14は、例えば、測距領域12の中央領域であり得る。評価領域14を測距領域12のどの領域から抽出してもよい。評価領域14の広さは、前述したように、例えば、表面10sにおける凸部または凹部のX方向、Y方向、およびZ方向における寸法に応じて決定され得る。
 なお、測距領域12が狭く、評価領域14に一致する場合、処理回路60は、ステップS105の動作を省略できる。
 <ステップS106>
 処理回路60は、評価領域14における粗さパラメータを算出する。
 <ステップS107>
 処理回路60は、複数の入射角をすべて調べたか否かを判定する。判定がYesの場合、処理回路60は、ステップS108の動作を実行する。判定がNoの場合、処理回路60は、ステップS102~S106の動作を再び実行する。ステップS102において、処理回路60は、支持体20の調整装置に、光学ヘッド22の高さおよび/または向きを変化させて、光学ヘッド22から出射された前述の照射光が、複数の入射角のうち、まだ調べていない入射角で対象物10の表面10sに入射するようにする。このようにして、処理回路60は、ステップS102~S106の動作を繰り返し実行する。
 <ステップS108>
 処理回路60は、補正データを生成し、補正データを記憶装置40に記憶させる。
 [粗さパラメータの計測動作]
 次に、図7を参照して、実施形態1において処理回路60が実行する粗さパラメータの計測動作の例を説明する。図7は、実施形態1において処理回路60が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。処理回路60は、図7に示すステップS201~S208の動作を実行する。
 <ステップS201>
 ユーザは、図3に示す入力UI50aを介して、計測用の入射角を入力する。処理回路60は、入力UI50aから入射角の情報を取得する。
 <ステップS202~S206>
 ステップS202~S206の動作は、それぞれ、図6に示すステップS102~106の動作と同じである。
 ステップS202において、処理回路60は、支持体20の調整装置に、光学ヘッド22の高さおよび/または向きを変化させて、光学ヘッド22から出射された前述の照射光が、上記の入力された入射角で対象物10の表面10sに入射するようにする。
 <ステップS207>
 処理回路60は、記憶装置40から補正データを取得し、当該補正データに基づいて、照射光が評価領域14に入射する入射角に応じて粗さパラメータを補正する。具体的には、処理回路60は、照射光が評価領域14に入射する入射角と、補正データとに基づいて、図5Bおよび図5Cを参照して説明した補正パラメータを決定し、当該補正パラメータに基づいて粗さパラメータを補正する。処理回路60は、照射光が評価領域14に入射する入射角が、補正の基準角よりも大きい場合、当該入射角が大きいほど、粗さパラメータの補正量を大きくする。処理回路60は、照射光が評価領域14に入射する入射角が、補正の基準角よりも小さい場合、当該入射角が小さいほど、粗さパラメータの補正量を大きくする。
 <ステップS208>
 処理回路60は、補正後の粗さパラメータを出力する。処理回路60は、補正後の粗さパラメータを表示UI50bに表示させる。
 あるいは、処理回路60は、補正後の粗さパラメータに加えて、補正前の粗さパラメータを出力する。処理回路60は出力した両者を表示UI50bに表示させる。補正後および補正前の粗さパラメータの出力タイミングおよび表示タイミングは同時であってもよいし、異なっていてもよい。補正後および補正前の粗さパラメータの出力および表示を切り替えてもよい。
 補正後の粗さパラメータと、予測される粗さパラメータの基準値との相対誤差が許容範囲内であれば、評価領域14に異常が生じていないことがわかる。許容範囲は、例えば5%以下であり得る。これに対して、両者の相対誤差が許容範囲を超えていれば、評価領域14に異常が生じていることがわかる。評価領域14に異常が生じている場合、処理回路60は、評価領域14に異常が生じていることをユーザに知らせるメッセージを表示UI50bに表示させる。
 あるいは、対象物10の表面10sが粗い方が望ましい場合には、処理回路60は、補正後の粗さパラメータが粗さパラメータの基準値を超えているか否かを判定し、その判定結果を表示UI50bに表示させてもよい。あるいは、対象物10の表面10sが平坦である方が望ましい場合には、処理回路60は、補正後の粗さパラメータが粗さパラメータの基準値を以下であるか否かを判定し、その判定結果を表示UI50bに表示させてもよい。判定結果を表示UI50bに表示させてもよい。判定結果は、例えば、判定がYesの場合には「OK」、判定がNoの場合には「No Good」のように表示され得る。
 以上のことから、実施形態1によれば、評価領域14における凹凸形状をより正確に計測することが可能な計測システム100および計測方法を実現できる。大型の対象物10では、支持体20を評価領域14に近づけられず、ほぼ垂直方向に入射する照射光で評価領域14を照射することが容易ではない場合がある。実施形態1による計測システム100および計測方法は、そのよう場合に有効である。
 (実施形態2)
 次に、図8および図9を参照して、対象物10の属性に応じた補正データに基づいて粗さパラメータを補正する本開示の実施形態2による計測方法を説明する。対象物10の属性は、例えば、対象物10の材料、サイズ、材料の割合、表面10sの研磨方法、および製品番号から選択される少なくとも1つであり得る。
 図8は、実施形態2において処理回路60が実行する補正データの生成動作の例を概略的に示すフローチャートである。処理回路60は、図8に示すステップS101~S107、S109、およびS110の動作を実行する。図8に示すステップS101~S107は、それぞれ、図6に示すステップS101~S107と同じである。処理回路60は、ステップS107の次にステップS109の動作を実行する。
 <ステップS109>
 ユーザは、対象物の属性を、入力UI50aを介して入力する。処理回路60は、入力UI50aから対象物10の属性の情報を取得する。
 <ステップS110>
 処理回路60は、補正データを生成し、補正データを対象物の属性に紐づけて記憶装置40に記憶させる。
 なお、処理回路60は、ステップS107の次ではなくステップS101の前または次にステップS109の動作を実行してもよい。
 処理回路60の上記の動作により、対象物の属性に応じた補正データを生成することができる。互いに異なる属性を有する複数の対象物について上記の動作が繰り返される。その結果、補正データは、対象物の属性ごとに記憶装置40に記憶される。
 次に、図9を参照して、実施形態2において処理回路60が実行する粗さパラメータの計測動作の例を説明する。図9は、実施形態2において処理回路60が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。処理回路60は、図9に示すステップS201~S209の動作を実行する。図9に示すステップS201~S208の動作は、それぞれ、図7に示すステップS201~S208の動作と同じである。処理回路60は、ステップS201の前にステップS209の動作を実行する。
 <ステップS209>
 ユーザは、計測される対象物10の属性を、入力UI50aを介して入力する。処理回路60は、入力UI50aから対象物10の属性の情報を取得する。
 なお、処理回路60は、ステップS201の前ではなく、ステップS207の前であればステップS201~S206のいずれかの次にステップS209を実行してもよい。
 処理回路60は、ステップS207において、記憶装置40から、記憶された補正データのうち、対象物10の属性に紐づけられた補正データを取得し、当該補正データに基づいて、照射光が評価領域14に入射する入射角に応じて粗さパラメータを補正する。
 以上のことから、実施形態2によれば、実施形態1の効果に加えて、対象物10の属性に応じた補正データに基づいて粗さパラメータを補正することが可能な計測システム100および計測方法を実現できる。
 (実施形態3)
 次に、図10を参照して、対象物10の表面10sと基準面とがなす角度が未知である場合に、照射光の入射角を算出する本開示の実施形態3による計測方法を説明する。当該基準面は、例えば水平面であってもよいし、水平面に対して垂直な面であってもよい。照射光の入射角は、照射光の光軸と、対象物10の表面10sの法線とがなす角度である。対象物10の表面10sと基準面とがなす角度がわかれば、照射光の入射角を算出することができる。実施形態3における補正データの生成動作については、実施形態1において説明した通りである。
 図10は、実施形態3において処理回路60が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。処理回路60は、図10に示すステップS203~S208、S210、およびS211の動作を実行する。図10に示すステップS203~S208の動作は、それぞれ、図7に示すステップS203~S208の動作と同じである。処理回路60は、ステップS203の前にステップS210およびS211の動作を実行する。
 <ステップS210>
 処理回路60は、初期測定として、光学ヘッド22の向きをある方向に向けた状態で、測距装置30に複数の計測点を測距させる。ステップS210の動作は、図6に示すステップS103の動作と同じである。測距結果から、対象物10の表面10sと基準面とがなす角度がわかる。
 <ステップS211>
 処理回路60は、ステップS210における測距結果に基づいて照射光の入射角を算出する。
 以上のことから、実施形態3によれば、実施形態1の効果に加えて、照射光の出射前に計測用の入射角を算出する計測システム100および計測方法を実現できる。その結果、ユーザが計測用の入射角を入力する手間を省き、かつユーザの誤入力を抑制することができる。
 (実施形態4)
 次に、図11を参照して、測距領域12から複数の評価領域を抽出し、各評価領域における粗さパラメータを計測することが可能な本開示の実施形態3による計測方法を説明する。複数の評価領域は、例えば、測距領域12をM行N列のマトリクス状に分割した領域であり得る。MおよびNは自然数であり、MおよびNの積は2以上である。実施形態4における補正データの生成動作については、実施形態1において説明した通りである。
 図11は、実施形態4において処理回路60が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。処理回路60は、図11に示すステップS201~S204およびS212~S215の動作を実行する。図11に示すステップS201~S204の動作は、それぞれ、図7に示すステップS201~S204の動作と同じである。処理回路60は、ステップS204の次にステップS212の動作を実行する。
 <ステップS212>
 処理回路60は、測距領域12から複数の評価領域14を抽出する。
 <ステップS213>
 処理回路60は、各評価領域14における粗さパラメータを算出する。
 <ステップS214>
 処理回路60は、記憶装置40から補正データを取得し、補正データに基づいて、光が各評価領域14に入射する入射角に応じて各評価領域14における粗さパラメータを補正する。補正の基準角は、複数の評価領域14の1つの評価領域に光が入射する入射角であってもよいし、別途設定された角度であってもよい。
 <ステップS215>
 処理回路60は、補正後の各評価領域14における粗さパラメータを出力する。処理回路60は、出力した補正後の各評価領域14における粗さパラメータを表示UI50bに表示させる。
 あるいは、処理回路60は、補正後の各評価領域14における粗さパラメータに加えて、補正前の各評価領域14における粗さパラメータを出力する。処理回路60は出力した両者を表示UI50bに表示させる。補正後および補正前の各評価領域14における粗さパラメータの出力タイミングおよび表示タイミングは同時であってもよいし、異なっていてもよい。補正後および補正前の各評価領域14における粗さパラメータの出力および表示を切り替えてもよい。
 以上のことから、実施形態4によれば、実施形態1と同様の効果に加えて、測距領域12から複数の評価領域を抽出し、各評価領域における粗さパラメータを計測することが可能な計測システム100および計測方法を実現できる。その結果、複数の評価領域における照射光の入射角が互いに異なっていても、複数の評価領域における粗さパラメータをより正確に計測することができる。さらに、複数の評価領域における粗さパラメータを比較することが容易になる。
 (実施形態5)
 計測結果から算出される粗さパラメータは、実際の粗さパラメータと、計測誤差によるノイズとの合計になる。例えば、対象物10の凹凸形状の二乗平方根高さをSqobj、計測誤差による凹凸形状の二乗平方根高さをSqerrorとすると、計測結果から算出される二乗平方根高さSqmeasureは、以下の式(4)によって表される。
 式(4)によれば、計測誤差が大きいほど、計測結果から算出される粗さパラメータは増加する。計測距離が長いと計測誤差が大きくなるので、計測距離の増加に伴って、計測結果から算出される粗さパラメータは増加する。
 計測距離と計測誤差との対応関係がわかれば、式(4)に基づいて、計測結果から算出される粗さパラメータを計測距離に応じて補正することにより、粗さパラメータを正確に測定することができる。
 次に、図12および図13を参照して、計測距離に基づいて粗さパラメータを補正する本開示の実施形態5による計測方法を説明する。図12は、実施形態5において処理回路60が実行する補正データの生成動作の例を概略的に示すフローチャートである。処理回路60は、図12に示すステップS103~S106、S108、およびS111~S113の動作を実行する。図12に示すステップS103~S106およびS108は、それぞれ、図6に示すステップS103~S106およびS108と同じである。処理回路60は、ステップS103の前にステップS111およびS112を実行し、ステップS106の次にステップS113の動作を実行する。
 <ステップS111>
 ユーザは、図3に示す入力UI50aを介して、補正データ用の複数の計測距離を入力する。処理回路60は、入力UI50aから複数の計測距離の情報を取得する。複数の計測距離は、例えば、第1計測距離から第2計測距離までを一定の距離刻みで変化させて設定され得る。第1計測距離は、例えば0.5mであり得る。第2計測距離は、例えば、対象物10の表面10sの周縁領域を照射することが可能な照射光の計測距離であり得る。一定の計測距離刻みは、例えば0.5mまたは1mのような計測距離刻みであり得る。
 ユーザは、さらに、照射光のスキャン範囲を入力してもよい。処理回路60は、入力UI50aからスキャン範囲の情報を取得する。
 <ステップS112>
 処理回路60は、支持体20の調整装置に、光学ヘッド22の高さおよび/または向きを変化させて、光学ヘッド22と対象物10の表面10sとの距離が、上記の複数の計測距離から選択される1つの計測距離になるようにする。
 光学ヘッド22と対象物10の表面10sとの距離は、光学ヘッド22の高さおよび/または向きに依存する。当該距離を変化させるために、処理回路60は、支持体20の調整装置に、光学ヘッド22の高さおよび向きの一方だけを変化させてもよいし、その両方を変化させてもよい。
 <ステップS113>
 処理回路60は、複数の計測距離をすべて調べたか否かを判定する。判定がYesの場合、処理回路60は、ステップS108の動作を実行する。判定がNoの場合、処理回路60は、ステップS112およびS103~S106の動作をこの順で再び実行する。ステップS112において、処理回路60は、支持体20の調整装置に、光学ヘッド22の高さおよび/または向きを変化させて、光学ヘッド22と対象物10の表面10sとの距離が、まだ調べていない計測距離になるようにする。このようにして、処理回路60は、ステップS112~S106の動作を繰り返し実行する。
 処理回路60の上記の動作により、計測距離に応じた補正データを生成することができる。当該補正データは、例えば、計測距離と計測誤差との対応関係を示すデータであり得る。計測誤差がない場合の粗さパラメータが既知であれば、計測結果から算出される粗さパラメータおよび式(4)から、計測距離と計測誤差との対応関係がわかる。
 次に、図13を参照して、実施形態5において処理回路60が実行する粗さパラメータの計測動作の例を説明する。図13は、実施形態5において処理回路60が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。処理回路60は、図13に示すステップS203~S206、S208、およびS219~S221の動作を実行する。図13に示すステップS203~S206およびS208の動作は、それぞれ、図7に示すステップS203~S206およびS208の動作と同じである。処理回路60は、ステップS203の前にステップS219およびS220の動作を実行し、ステップS206の次にステップS221の動作を実行する。
 <ステップS219>
 ユーザは、図3に示す入力UI50aを介して、計測用の計測距離を入力する。処理回路60は、入力UI50aから計測距離の情報を取得する。
 <ステップS220>
 ステップS220の動作は、図12に示すステップS112の動作と同じである。
 <ステップS221>
 処理回路60は、記憶装置40から補正データを取得し、当該補正データに基づいて、評価領域14における計測距離に応じて粗さパラメータを補正する。当該補正は、例えば式(4)を用いて行われ得る。
 評価領域14における計測距離は、例えば、光学ヘッド22の光出射面の中心から評価領域14の中心までの距離であり得る。あるいは、評価領域14における計測距離は、例えば、光学ヘッド22の光出射面の中心から評価領域までの最大または最小の計測距離であってもよい。
 粗さパラメータが最も正確に算出される計測距離を補正の基準距離とする。計測距離が長いほど計測誤差が大きくなる点で言えば、計測距離がほぼゼロである場合、粗さパラメータが最も正確に算出される。ただし、測距装置30内のレンズの設定によっては、計測距離がノンゼロである場合に、粗さパラメータが最も正確に算出されることもあり得る。
 処理回路60は、評価領域14における計測距離が、補正の基準距離よりも大きい場合、計測距離が大きいほど、粗さパラメータの補正量を大きくする。処理回路60は、評価領域14における計測距離が、補正の基準距離よりも小さい場合、計測距離が小さいほど、粗さパラメータの補正量を大きくする。
 以上のことから、実施形態5によれば、評価領域14における計測距離に応じて粗さパラメータを補正することにより、評価領域14における表面凹凸度をより正確に評価することができる。
 (実施形態6)
 前述したように、式(4)によれば、計測誤差が大きいほど、計測結果から算出される粗さパラメータは増加する。受光強度が低下すると計測誤差が大きくなるので、受光強度の低下に伴って、計測結果から算出される粗さパラメータは増加する。
 受光強度と計測誤差との対応関係がわかれば、式(4)に基づいて、計測結果から算出される粗さパラメータを受光強度に応じて補正することにより、粗さパラメータを正確に測定することができる。
 次に、図14および図15を参照して、受光強度に基づいて粗さパラメータを補正する本開示の実施形態2による計測方法を説明する。図14は、実施形態6において処理回路60が実行する補正データの生成動作の例を概略的に示すフローチャートである。処理回路60は、図14に示すステップS103~S106、S108、およびS114~S116の動作を実行する。図12に示すステップS103~S106およびS108は、それぞれ、図6に示すステップS103~S106およびS108と同じである。処理回路60は、ステップS103の前にステップS114およびS115を実行し、ステップS106の次にステップS116の動作を実行する。
 <ステップS114>
 ユーザは、図3に示す入力UI50aを介して、補正データ用の複数の受光強度を入力する。処理回路60は、入力UI50aから複数の受光光強度の情報を取得する。複数の受光強度は、例えば、第1受光強度から第2受光強度までを一定の受光強度刻みで変化させて設定され得る。
 <ステップS115>
 処理回路60は、支持体20の調整装置に、光学ヘッド22の高さおよび/または向きを変化させて、光学ヘッド22から出射され、対象物10の表面10sで散乱および/または反射された光の受光強度が、上記の複数の受光強度から選択される1つの受光強度になるようにする。
 対象物10の表面10sで散乱および/または反射された光の受光強度は、例えば、光学ヘッド22の高さおよび/または向きに依存し得る。光学ヘッド22および対象物10の表面10sの位置関係に応じて、照射光に対する対象物10の表面10sの反射率および/または拡散率は異なり得る。当該受光強度を変化させるために、処理回路60は、支持体20の調整装置に、光学ヘッド22の高さおよび向きの一方だけを変化させてもよいし、その両方を変化させてもよい。
 あるいは、反射率および/または拡散率を異ならせて受光強度を変えるために、対象物10自体を変更してもよい。その場合は、ユーザが対象物10を変更し得る。
 <ステップS116>
 処理回路60は、複数の受光強度をすべて調べたか否かを判定する。判定がYesの場合、処理回路60は、ステップS108の動作を実行する。判定がNoの場合、処理回路60は、ステップS115およびS103~S106の動作をこの順で再び実行する。ステップS115において、処理回路60は、支持体20の調整装置に、光学ヘッド22の高さおよび/または向きを変化させて、光学ヘッド22から出射され、対象物10で散乱および/または反射された光の受光強度が、複数の受光強度のうち、まだ調べていない受光強度になるようにする。このようにして、処理回路60は、ステップS115~S106の動作を繰り返し実行する。
 処理回路60の上記の動作により、受光強度に応じた補正データを生成することができる。当該補正データは、例えば、受光強度と計測誤差との対応関係を示すデータであり得る。計測誤差がない場合の粗さパラメータが既知であれば、計測結果から算出される粗さパラメータおよび式(4)から、受光強度と計測誤差との対応関係がわかる。
 次に、図15を参照して、実施形態6において処理回路60が実行する粗さパラメータの計測動作の例を説明する。図15は、実施形態6において処理回路60が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。処理回路60は、図15に示すステップS203~S206、S208、S222、およびS223の動作を実行する。図15に示すステップS203~S206およびS208の動作は、それぞれ、図7に示すステップS203~S206およびS208の動作と同じである。処理回路60は、ステップS203の前にステップS222の動作を実行し、ステップS206の次にステップS223の動作を実行する。
 <ステップS222>
 ユーザは、図3に示す入力UI50aを介して、計測用の受光強度を入力する。処理回路60は、入力UI50aから受光強度の情報を取得する。
 <ステップS223>
 処理回路60は、記憶装置40から補正データを取得し、当該補正データに基づいて、評価領域14を照射光で照射して得られる受光強度に応じて粗さパラメータを補正する。当該補正は、例えば式(4)を用いて行われ得る。
 評価領域14を照射光で照射して得られる受光強度は、例えば、評価領域14に含まれる複数の計測点の各々を照射光で照射して得られる複数の受光強度の平均値であり得る。あるいは、評価領域14を照射光で照射して得られる受光強度は、例えば、当該複数の受光強度のうち、最大または最小の受光強度であってもよい。
 粗さパラメータが最も正確に算出される受光強度を補正の基準強度とする。受光強度が低いほど計測誤差が大きくなる点で言えば、受光強度が飽和しない範囲で十分高い場合、粗さパラメータが最も正確に算出される。ただし、測距装置30内の光検出器の設定によっては、受光強度が十分高くなくても、ある有限の値である場合に、粗さパラメータが最も正確に算出されることもあり得る。
 処理回路60は、評価領域14における受光強度が、補正の基準強度よりも大きい場合、当該受光強度が大きいほど、粗さパラメータの補正量を大きくする。処理回路60は、評価領域14における受光強度が、補正の基準光強度よりも小さい場合、当該光強度が小さいほど、粗さパラメータの補正量を大きくする。
 以上のことから、実施形態6によれば、評価領域14を照射光で照射して得られる受光強度に応じて粗さパラメータを補正することにより、評価領域14における表面凹凸度をより正確に評価することができる。
 (実施形態7)
 実施形態1における粗さパラメータの計測動作において、処理回路60は、図7に示すように、ステップS207において、算出された粗さパラメータを、照射光が評価領域14に入射する入射角に応じて補正し、ステップS208において、補正後の粗さパラメータと基準値とを比較する。実施形態1とは異なり、処理回路60は、算出された粗さパラメータではなく基準値を補正してもよい。この場合でも、入射角による粗さパラメータの変化に応じた比較が可能である。
 次に、図16を参照して、実施形態7において処理回路60が実行する粗さパラメータの計測動作の例を説明する。実施形態7において補正データの生成動作については、実施形態1において説明した通りである。
 図16は、実施形態7において処理回路60が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。処理回路60は、図16に示すステップS201~S206、S224、およびS225の動作を実行する。図16に示すステップS201~S206の動作は、それぞれ、図7に示すステップS201~S206の動作と同じである。処理回路60は、ステップS206の次にステップS224およびS225の動作を実行する。
 <ステップS224>
 処理回路60は、記憶装置40から補正データを取得し、当該補正データに基づいて、算出した粗さパラメータの評価に用いられる基準値を、照射光が評価領域14に入射する入射角に応じて補正する。当該基準値については、実施形態1において説明した通りである。補正方法については、図5Aから図5Cを参照して説明した通りである。
 <ステップS225>
 処理回路60は、算出した粗さパラメータと、補正後の基準値との比較結果を出力する。処理回路60は、出力した比較結果を表示UI50bに表示させる。
 上記の例において、処理回路60は、照射光が評価領域14に入射する入射角に応じて基準値を補正するが、この例に限定されない。処理回路60は、評価領域14における計測距離、または評価領域14を照射光で照射して得られる受光強度に応じて基準値を補正してもよい。
 以上のことから、実施形態7によれば、算出された粗さパラメータをそのままにし、基準値を補正することにより、評価領域14における表面凹凸度をより正確に評価することができる。
 (実施形態8)
 実施形態3における粗さパラメータの計測動作において、処理回路60は、図10に示すように、ステップS210において、初期測定として、測距装置30に複数の計測点を測距させる。処理回路60は、初期測定を省略して、ステップS203の動作を最初に実行してもよい。
 次に、図17を参照して、実施形態8において処理回路60が実行する粗さパラメータの計測動作の例を説明する。実施形態8における補正データの生成動作については、実施形態1において説明した通りである。
 図17は、実施形態8において処理回路60が実行する粗さパラメータの計測動作の例を概略的に示すフローチャートである。処理回路60は、図17に示すステップS203~S208およびS226の動作を実行する。図17に示すステップS203~S208の動作は、それぞれ、図10に示すステップS203~S208動作と同じである。処理回路60は、ステップS203の次にステップS226の動作を実行する。
 <ステップS226>
 処理回路60は、ステップS203における計測結果に基づいて、照射光が評価領域14に入射する入射角を設定する。
 上記の例において、処理回路60は、計測結果に基づいて、照射光が評価領域14に入射する入射角を設定し、当該入射角に応じて粗さパラメータを補正するが、この例に限定されない。処理回路60は、計測結果に基づいて、評価領域14における計測距離を設定し、当該計測距離に応じて粗さパラメータを補正してもよい。あるいは、処理回路60は、計測結果に基づいて、評価領域14を照射光で照射して得られる受光強度を設定し、当該受光強度に応じて粗さパラメータを補正してもよい。
 以上のことから、実施形態8によれば、実施形態3と比較して、初期測定を省略して測定回数を低減できるので、評価領域14における表面凹凸度をより短時間で評価することができる。
 上記の実施形態1から8における処理回路60の動作は、矛盾がない限り任意に組み合わせてもよい。例えば、実施形態2において対象物10の属性に応じた補正データに基づいて粗さパラメータを補正する動作を、実施形態3から8に適用してもよい。あるいは、実施形態3において照射光の入射角を算出する動作を、実施形態2、4、および7に適用してもよい。あるいは、実施形態4において測距領域12から複数の評価領域を抽出し、各評価領域における粗さパラメータを計測する動作を、実施形態2、3、および5から8に適用してもよい。
 (実施形態9)
 次に、図18Aおよび図18Bを参照して、学習済みモデルを用いて対象物10の表面凹凸度を評価する本開示の実施形態9による計測方法を説明する。本明細書において、「表面凹凸度を評価する」とは、粗さパラメータを算出して表面の凹凸形状を評価することだけでなく、粗さパラメータを算出せずに表面の凹凸形状を直接評価することも意味する。表面の凹凸形状を直接評価する例としては、図2Aに示すような表面の凹凸形状そのものを調べることが挙げられる。
 図18Aは、実施形態9において処理回路60が実行する表面凹凸度の評価動作の例を概略的に示すフローチャートである。図18Bは、表面凹凸度の評価動作において入力および生成されるデータの流れを模式的に示すブロック図である。処理回路60は、図18Aに示すステップS201~S205およびS216~S218の動作を実行する。図18Aに示すステップS201~S205の動作は、それぞれ、図7に示すステップS201~S205の動作と同じである。処理回路60は、ステップS201の前にステップS216の動作を実行し、ステップS205の次にステップS217およびS218の動作を実行する。
 <ステップS216>
 処理回路60は、図18Bに示すように、基準領域における照射光の入射角の情報、ポイントクラウドデータ、および対応する基準領域の凹凸形状に関する表面凹凸度を示す評価データを教師データとして学習される、教師あり学習済みモデルを生成する。ポイントクラウドデータは光検出器の検出信号から得られるので、上記のポイントクラウドデータを検出信号と言い換えてもよい。
 基準領域は、例えば、対象物10の表面10s内の互いに異なる複数の領域の1つであり得る。当該複数の領域は、例えば、対象物10の表面10s内のある1つの領域を2次元的または1次元的に分割した領域であってもよいし、対象物10の表面10s内の離散的に分布する領域であってもよい。あるいは、基準領域は、例えば、複数の入射角にそれぞれ対応する複数の仮想的な領域の1つであり得る。当該複数の仮想的な領域は、例えば、対象物10の表面10s内の複数の領域を想定した凹凸形状をそれぞれ有し得る。
 上記の複数の領域または上記の複数の仮想的な領域における照射光の入射角の情報、ポイントクラウドデータ、および評価データを取得して学習済みモデルが生成される。学習済みモデルは、ニューラルネットワークのような公知の機械学習アルゴリズムを利用して生成され得る。
 <ステップS217>
 処理回路60は、図18Bに示すように、ステップS216において生成した学習済みモデルを用いて、評価領域14におけるポイントクラウドデータおよび入射角の情報から、14における表面凹凸度を評価する。
 <ステップS218>
 処理回路60は、図18Bに示すように、評価領域14における表面凹凸度を示す評価データを出力する。
 以上のことから、実施形態9によれば、学習済みモデルを用いて、評価領域14における表面凹凸度をより正確に評価することができる。
 (測距装置30の構成例)
 [FMCW-LiDAR方式]
 次に、図19Aおよび図19Bを参照して、FMCW-LiDAR方式の測距装置30の構成例を説明する。図19Aは、FMCW-LiDAR方式の測距装置30の構成例を模式的に示すブロック図である。図19Aに示す測距装置30は、光源31と、干渉光学系32と、光偏向器33と、光検出器34と、第1処理回路35と、不図示のメモリとを備える。図19Bは、図19Aに示す干渉光学系32の構成例を模式的に示すブロック図である。図19Aおよび図19Bに示す太線の矢印は光の流れを表す。
 以下に、測距装置30の構成要素および干渉光学系32の構成要素を説明する。
 光源31は、レーザ光30L0を出射する。光源31は、レーザ光30L0の周波数を変化させることが可能である。周波数は、例えば三角波状またはのこぎり状に一定の時間周期で時間変化され得る。当該時間周期は、例えば1μ秒以上10m秒以下であり得る。当該時間周期は変動してもよい。周波数の変化幅は、例えば100MHz以上1THz以下であり得る。レーザ光30L0の波長は、可視光の波長域に含まれていてもよいし、赤外線または紫外線の波長域に含まれていてもよい。
 光源31は、例えば、分布帰還型(DFB)レーザダイオード、または外部共振器型(EC)レーザダイオードを備え得る。これらのレーザダイオードは、安価かつ小型であり、単一モード発振が可能であり、印加する電流量に応じてレーザ光30L0の周波数を変調させることができる。
 干渉光学系32は、図19Bに示すように、分岐器32aと、ミラー32bと、コリメータ32cとを備える。分岐器32aは、光源31から出射されるレーザ光30L0を、その一部である参照光30L1と、残りの部分である照射光30L2とに分岐する。レーザ光30L0の強度に対する参照光30L1の強度は、例えば1%以上20%以下であり得る。レーザ光30L0は参照光30L1および照射光30L2を含むので、光源31は、評価領域14に含まれる複数の計測点を照射するための照射光30L2を出射すると言うことができる。ミラー32bは、参照光30L1を反射して参照光30L1を分岐器32aに戻す。コリメータ32cは、照射光30L2をコリメートして出射する。本明細書において、「コリメートする」とは、照射光30L2を完全に平行光にすることだけではなく、照射光30L2の広がりを低減することも意味する。評価領域14に含まれる複数の計測点からの反射光30L3は、光偏向器33およびコリメータ32cを介して分岐器32aに入射する。分岐器32aは、参照光30L1および反射光30L3を干渉させた干渉光30L4を出射する。
 光偏向器33は、照射光30L2の方向を変化させる。照射光30L2が対象物10の表面10sに入射する入射角は、照射光30L2の方向に依存する。光偏向器33は、例えば、ガルバノスキャナ、ポリゴンミラー、MEMSスキャナ、位相変調式スキャナ、屈折率変調スキャナ、および波長変調スキャナからなる群から選択される1つであり得る。
 光検出器34は、干渉光30L4を検出して、干渉光30L4の強度に対応する検出信号を出力する。干渉光30L4は参照光30L1および反射光30L3を含むので、光検出器34は反射光30L3を受けると言うことができる。光検出器34は、少なくとも1つの光検出素子を備える。
 測距装置30において、照射光30L2が干渉光学系32から対象物10の表面10sに至るまでの経路と、反射光30L3が対象物10の表面10sから干渉光学系32に至るまでの経路とは互いに重なる。このような同軸光学系を採用することにより、測距装置30の構成を単純化でき、安定した測距を実現できる。
 第1処理回路35は、光源31、光偏向器33、および光検出器34の動作を制御し、光検出器34から出力される検出信号を処理する。第1処理回路35は、光源31に、評価領域14に含まれる複数の計測点を照射するための照射光30L2を出射させ、光検出器34に、当該複数の計測点からの反射光30L3を受けて検出信号を出力させる。第1処理回路35は、当該検出信号に基づいて、評価領域14に含まれる複数の計測点の各々の距離情報を生成して出力する。具体的には、第1処理回路35は、検出信号の時間波形をフーリエ変換して干渉光30L4のビート周波数の情報を生成し、当該ビート周波数の情報に基づいて距離情報を生成して出力する。処理回路60によって実行されるコンピュータプログラムは、不図示のメモリに格納されている。メモリについては、図3に示すメモリ62と同様である。
 図19Aに示す第1処理回路35および図3に示す第2処理回路60は統合されてもよい。次に、図20を参照して、これらの処理回路が統合された構成例を説明する。図20は、統合された処理回路を備えるFMCW-LiDAR方式の計測システム100の構成例を模式的に示すブロック図である。簡単のために、図3に示す支持体20は省略されている。図20に示す統合された処理回路60Aは、図19Aに示す第1処理回路35および図3に示す第2処理回路60を含む。処理回路60Aによって実行されるコンピュータプログラムは、図20に示すメモリ62Aに格納されている。メモリ62Aについては、図3に示すメモリ62と同様である。
 [TOF方式]
 次に、図21を参照して、TOF方式の測距装置30の構成例を説明する。図21は、TOF方式の測距装置30の構成例を模式的に示すブロック図である。図21に示す測距装置30は、光源31と、光偏向器33と、光検出器34と、第1処理回路35と、不図示のメモリとを備える。
 光源31は、光偏向器33を介して、評価領域14に含まれる複数の計測点を照射するための照射光30L2を出射する。照射光30L2は、レーザ光であってもよいし、LED光であってもよい。光源31は、例えば、レーザダイオードまたはLEDを備え得る。
 光偏向器33については、図19Aを参照して説明した通りである。照射光30L2が十分に広い照射範囲を有し、評価領域14に含まれる複数の計測点を一度に測距できる場合、測距装置30は光偏向器33を備える必要はない。
 光検出器34は少なくとも1つの光検出素子を備え、反射光30L3を受ける。直接TOF方式において、照射光30L2が出射されてから反射光30L3として戻ってくるまでの時間は、計測点の距離情報を反映する。間接TOF方式において、光検出器34は、パルス光である照射光30L2が出射される第1期間において反射光30L3を検出して、反射光30L3の強度に対応する第1検出信号を出力する。光検出器34は、さらに、第1期間に続き、第1期間と同じ時間幅を有する第2期間において反射光30L3を検出して、反射光30L3の強度に対応する第2検出信号を出力する。第1および第2検出信号の強度の合計に対する第2検出信号の強度は、計測点の距離情報を反映する。
 光検出器34が2次元的に配列された複数の光検出素子を備えるイメージセンサである場合、複数の光検出素子は複数の計測点にそれぞれ対応する。各光検出素子から出力される検出信号は、対応する計測点の距離情報を含む。この場合、広い照射範囲を有する照射光30L2で複数の計測点を照射することにより、当該複数の計測点からの反射光30L3を一度に検出することができる。照射光30L2をスキャンしながら複数の計測点を個々に照射するのであれば、光検出器34は単一の光検出素子を備えていてもよい。
 第1処理回路35は、光源31および光検出器34の動作を制御し、光検出器34から出力される検出信号を処理する。第1処理回路35は、光源31に、評価領域を照射するための照射光30L2を出射させ、光検出器34に、評価領域からの反射光30L3を受け、反射光30L3を一定期間だけ検出させて、検出信号を出力させる。第1処理回路35は、当該検出信号に基づいて、評価領域に含まれる複数の計測点の各々の距離情報を生成して出力する。
 図21に示す第1処理回路35および図3に示す第2処理回路60は統合されてもよい。次に、図22を参照して、これらの処理回路が統合された構成例を説明する。図22は、統合された処理回路を備えるTOF方式の計測システム100の構成例を模式的に示すブロック図である。ただし、簡単のために、図3に示す支持体20は省略されている。図22に示す統合された処理回路60Aは、図21に示す第1処理回路35および図3に示す第2処理回路60を含む。処理回路60Aによって実行されるコンピュータプログラムは、図22に示すメモリ62Aに格納されている。メモリ62Aについては、図3に示すメモリ62と同様である。
 本開示の技術は、例えば、大型の対象物の粗さパラメータを計測する用途に用いられ得る。大型の対象物の例としては、建設現場における構造物、および工場において製造される自動車のような大型製品が挙げられる。
  10    対象物
  10s   表面
  12    測距領域
  14    評価領域
  14a   第1評価領域
  14b   第2評価領域
  20    支持体
  22    光学ヘッド
  30    測距装置
  30L0  レーザ光
  30L1  参照光
  30L2  照射光
  30L3  反射光
  30L4  干渉光
  31    光源
  32    干渉光学系
  32a   分岐器
  32b   ミラー
  32c   コリメータ
  33    光偏向器
  34    光検出器
  35    第1処理回路
  40    記憶装置
  50    表示装置
  50a   入力UI
  50b   表示UI
  60    処理回路、第2処理回路
  60A   統合された処理回路
  62、62A   メモリ
  100   計測システム

Claims (17)

  1.  対象物の表面内の少なくとも1つの評価領域に含まれる複数の計測点を照射するための照射光を出射する光源と、
     前記複数の計測点からの反射光を受けて検出信号を出力する光検出器と、
     前記検出信号に基づいて前記評価領域の凹凸形状に関する粗さパラメータを算出および出力する処理回路と、を備え、
     前記処理回路は、前記照射光が前記評価領域に入射する入射角、前記評価領域における計測距離、または前記評価領域を前記照射光で照射して得られる受光強度に応じて前記粗さパラメータを補正する、
     計測システム。
  2.  前記粗さパラメータは、2次元的な領域における算術平均高さ、二乗平方根高さ、展開界面面積率、スキューネス、クルトシス、および二乗平均平方根傾斜、または、1次元的な領域における算術平均高さ、二乗平方根高さ、スキューネス、クルトシス、および二乗平均平方根傾斜からなる群から選択される1つである、
     請求項1に記載の計測システム。
  3.  前記少なくとも1つの評価領域は複数の評価領域を含み、
     前記処理回路は、前記照射光が各評価領域に入射する入射角に応じて各評価領域における前記粗さパラメータを補正する、
     請求項1または2に記載の計測システム。
  4.  前記照射光の方向を変化させる光偏向器をさらに備え、
     前記処理回路は、前記光偏向器の動作を制御する、
     請求項1または2に記載の計測システム。
  5.  前記処理回路は、前記照射光の出射前に、前記対象物の前記表面を測距した結果に基づいて前記照射光の前記入射角を算出する、
     請求項1または2に記載の計測システム。
  6.  前記処理回路は、
      記憶装置から補正データを取得し、前記補正データは、入射角と補正パラメータとの対応関係を規定し、
      前記照射光の前記入射角と前記補正データとに基づいて補正パラメータを決定し、
      前記補正パラメータに基づいて前記粗さパラメータを補正する、
     請求項1または2に記載の計測システム。
  7.  前記補正データは、対象物の属性ごとに前記記憶装置に記憶されており、
     前記処理回路は、計測される前記対象物の属性に基づいて前記記憶装置から前記補正データを取得する、
     請求項6に記載の計測システム。
  8.  前記対象物の属性は、前記対象物の材料、サイズ、材料の割合、前記表面の研磨方法、および製品番号から選択される少なくとも1つである、
     請求項7に記載の計測システム。
  9.  前記処理回路は、
      前記入射角が補正の基準角より大きい場合、前記入射角が大きいほど、前記粗さパラメータの補正量を大きくし、
      前記入射角が補正の基準角より小さい場合、前記入射角が小さいほど、前記粗さパラメータの補正量を大きくする、
     請求項1または2に記載の計測システム。
  10.  前記処理回路は、補正後の前記粗さパラメータに加えて、補正前の前記粗さパラメータを出力する、
     請求項1または2に記載の計測システム。
  11.  前記処理回路は、第1処理回路および第2処理回路を含み、
     前記第1処理回路は、前記検出信号に基づいて前記複数の計測点の各々の距離情報を生成し、
     前記第2処理回路は、
      前記距離情報に基づいて前記評価領域の凹凸形状に関する粗さパラメータを算出し、
      前記照射光が前記評価領域に入射する入射角に応じて前記粗さパラメータを補正する、
     請求項1または2に記載の計測システム。
  12.  対象物の表面内の評価領域に含まれる複数の計測点を照射するための照射光を出射する光源と、前記複数の計測点からの反射光を受けて検出信号を出力する光検出器とを備える計測システムにおいてコンピュータによって実行される計測方法であって、
      前記検出信号に基づいて前記評価領域の凹凸形状に関する粗さパラメータを算出および出力することと、
      前記照射光が前記評価領域に入射する入射角に応じて前記粗さパラメータを補正することと、を含む、
     計測方法。
  13.  対象物の表面内の評価領域に含まれる複数の計測点を照射するための照射光を出射する光源と、
     前記複数の計測点からの反射光を受けて検出信号を出力する光検出器と、
     前記検出信号に基づいて前記評価領域の凹凸形状に関する表面凹凸度を算出および出力する処理回路と、を備え、
     前記処理回路は、
      前記照射光が基準領域に入射する入射角、前記検出信号、および対応する前記基準領域の凹凸形状に関する表面凹凸度を教師データとして学習済みモデルを生成し、
      前記学習済みモデルを用いて、前記評価領域における表面凹凸度を評価する、
     計測システム。
  14.  前記基準領域は、前記対象物の前記表面内の互い異なる複数の領域のうちの1つ、または複数の入射角にそれぞれ対応する複数の仮想的な領域の1つである、
     請求項13に記載の計測システム。
  15.  前記評価領域は2次元的な領域または1次元的な領域である、
     請求項13または14に記載の計測システム。
  16.  前記処理回路は、前記検出信号に基づいて、前記照射光が前記評価領域に入射する前記入射角、前記評価領域における前記計測距離、または前記評価領域を前記照射光で照射して得られる前記受光強度を設定する、
     請求項1に記載の計測システム。
  17.  対象物の表面内の少なくとも1つの評価領域に含まれる複数の計測点を照射するための照射光を出射する光源と、
     前記複数の計測点からの反射光を受けて検出信号を出力する光検出器と、
     前記検出信号に基づいて前記評価領域の凹凸形状に関する粗さパラメータを算出および出力する処理回路と、を備え、
     前記処理回路は、算出した前記粗さパラメータの評価に用いられる基準値を、前記照射光が前記評価領域に入射する入射角、前記評価領域における計測距離、または前記評価領域を前記照射光で照射して得られる受光強度に応じて補正し、
     算出した前記粗さパラメータと、補正した前記基準値との比較結果を出力する、
     計測システム。
PCT/JP2023/015843 2022-05-13 2023-04-21 計測システムおよび計測方法 WO2023218899A1 (ja)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2022079310 2022-05-13
JP2022-079310 2022-05-13
JP2023-035884 2023-03-08
JP2023035884 2023-03-08

Publications (1)

Publication Number Publication Date
WO2023218899A1 true WO2023218899A1 (ja) 2023-11-16

Family

ID=88730282

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/015843 WO2023218899A1 (ja) 2022-05-13 2023-04-21 計測システムおよび計測方法

Country Status (1)

Country Link
WO (1) WO2023218899A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004125632A (ja) * 2002-10-03 2004-04-22 Toyo Seiki Seisakusho:Kk レーザ反射光による表面粗さ測定方法及びその装置
JP2012078144A (ja) * 2010-09-30 2012-04-19 Kaneka Corp 透明体シート状物の表面欠陥検査装置
JP2016024060A (ja) * 2014-07-22 2016-02-08 キヤノン株式会社 計測条件の決定方法および計測装置
WO2020202496A1 (ja) * 2019-04-03 2020-10-08 日本電気株式会社 表面異常検知装置、及びシステム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004125632A (ja) * 2002-10-03 2004-04-22 Toyo Seiki Seisakusho:Kk レーザ反射光による表面粗さ測定方法及びその装置
JP2012078144A (ja) * 2010-09-30 2012-04-19 Kaneka Corp 透明体シート状物の表面欠陥検査装置
JP2016024060A (ja) * 2014-07-22 2016-02-08 キヤノン株式会社 計測条件の決定方法および計測装置
WO2020202496A1 (ja) * 2019-04-03 2020-10-08 日本電気株式会社 表面異常検知装置、及びシステム

Similar Documents

Publication Publication Date Title
US8451878B2 (en) Surface profile inspection device
KR102138622B1 (ko) 기판 검사 장치 및 기판 검사 방법
US20170205224A1 (en) Method for manufacturing component and manufacturing apparatus using such method, and volume measuring method
JP2015087197A (ja) 膜厚測定装置及び膜厚測定方法
CN110726382B (zh) 用于借助电磁射束检测物体表面的设备和方法
WO2023218899A1 (ja) 計測システムおよび計測方法
JP2017067704A (ja) 3次元形状データ作成方法及びそれを用いた部品検査方法、並びに3次元形状データ作成装置及び部品検査プログラム
JP7041828B2 (ja) 光学式三次元形状測定装置の空間測定誤差検査器、空間測定誤差検出方法、及び、補正方法、光学式三次元形状測定装置、光学式三次元形状測定装置の空間測定誤差校正方法、並びに、光学式三次元形状測定装置のプロービング性能検査用平面標準器
US7633617B2 (en) Defective particle measuring apparatus and defective particle measuring method
US7630516B2 (en) Method and device for characterizing surfaces
Alsultanny Laser beam analysis using image processing
JP2010066273A (ja) 表面特性測定方法および装置
US11175225B2 (en) Composition measurement system
US20200033247A1 (en) Optical analysis device, optical analysis method, and recording medium
JP2021110601A (ja) 光学スキャナ装置の校正方法、光学スキャナ装置及び光学式三次元形状測定装置
CN108931501B (zh) 反射率检测方法和反射率检测装置
CN109643444B (zh) 打光校正方法及装置
US10365324B2 (en) Analysis system and analysis method
CN115825983A (zh) 基于在线标定的现场非视域成像方法、装置、设备和介质
TWI801500B (zh) 濃度測定方法及濃度測定裝置
CN110412614A (zh) 气溶胶测量方法及装置
CN113927156A (zh) 激光加工温度控制装置、方法以及存储介质
JP6252178B2 (ja) 形状測定装置、姿勢制御装置、構造物製造システム、及び、形状測定方法
WO2020100626A1 (ja) 光干渉断層撮像装置、撮像方法、及び、撮像プログラムを格納する非一時的なコンピュータ可読媒体
JP2020076695A (ja) プロファイル測定装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23803381

Country of ref document: EP

Kind code of ref document: A1