WO2013054814A1 - 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム - Google Patents

形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム Download PDF

Info

Publication number
WO2013054814A1
WO2013054814A1 PCT/JP2012/076219 JP2012076219W WO2013054814A1 WO 2013054814 A1 WO2013054814 A1 WO 2013054814A1 JP 2012076219 W JP2012076219 W JP 2012076219W WO 2013054814 A1 WO2013054814 A1 WO 2013054814A1
Authority
WO
WIPO (PCT)
Prior art keywords
light
measurement
unit
shape
reference light
Prior art date
Application number
PCT/JP2012/076219
Other languages
English (en)
French (fr)
Inventor
青木 洋
Original Assignee
株式会社ニコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ニコン filed Critical 株式会社ニコン
Priority to JP2013538555A priority Critical patent/JP5994787B2/ja
Priority to CN201280049826.6A priority patent/CN103857981B/zh
Priority to EP12840154.4A priority patent/EP2770295B1/en
Publication of WO2013054814A1 publication Critical patent/WO2013054814A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern

Definitions

  • the present invention relates to a shape measuring device, a structure manufacturing system, a shape measuring method, a structure manufacturing method, and a shape measuring program.
  • a pattern projection type shape measuring apparatus using a phase shift method is known (for example, see Patent Document 1).
  • a grating pattern having a sinusoidal intensity distribution is projected onto a measurement object, and the measurement object is repeatedly imaged while changing the phase of the grating pattern at a constant pitch.
  • the shape measuring device By applying a plurality of captured images (luminance change data) obtained in this manner to a predetermined arithmetic expression, the phase distribution (phase image) of the lattice pattern deformed according to the surface shape of the measurement object is obtained, and the phase image Is unwrapped (phase connection) and then converted into a height distribution (height image) of the measurement object.
  • the shape measuring device generates the three-dimensional shape data of the measurement object from the plurality of captured images.
  • the shape measuring apparatus as described above, there may be a portion where the three-dimensional shape data of the measurement object cannot be generated depending on the imaging condition of the captured image (luminance change data). In this case, there is a problem that the shape measurement is performed again by changing the imaging condition.
  • the present invention has been made to solve the above problems, and its purpose is to provide a shape measuring device, a structure manufacturing system, a shape measuring method, a structure manufacturing method, and a shape measuring program capable of efficiently measuring a shape. There is to do.
  • An embodiment of the present invention includes an imaging unit that images a measurement target; An irradiation unit that irradiates measurement light so that a predetermined light amount distribution is formed on the measurement target from a projection direction different from the direction in which the imaging unit is imaging, A reference light generation unit that generates reference light applied to the measurement object; A shape measurement unit comprising: a detection unit configured to detect a target range of the shape measurement of the measurement target based on a captured image captured by the imaging unit when the reference light is projected onto the measurement target.
  • an embodiment of the present invention includes a design apparatus that creates design information related to the shape of a structure; A molding apparatus for producing the structure based on the design information; The above-described shape measuring device that measures the shape of the manufactured structure based on a captured image; An inspection device for comparing the shape information obtained by the measurement with the design information; Is a structure manufacturing system including
  • the amount of light periodically varies with the position on the measurement target from an imaging unit that generates a captured image obtained by imaging the measurement target, and a direction different from the direction in which the imaging unit captures an image.
  • a shape measuring device including an irradiating unit that irradiates measurement light so that a light amount distribution that changes with time is formed on the measurement target.
  • creating design information related to the shape of a structure Producing the structure based on the design information; Measuring the shape of the manufactured structure based on a captured image generated using the above-described shape measurement method; It is a structure manufacturing method including comparing the shape information obtained by the measurement with the design information.
  • the amount of light periodically varies with the position on the measurement target from an imaging unit that generates a captured image obtained by imaging the measurement target, and a direction different from the direction in which the imaging unit captures an image.
  • a computer of a shape measuring apparatus comprising an irradiating unit for irradiating measurement light so that a light amount distribution that changes in a manner is formed on the measurement target; A period during which the captured image is generated based on a plurality of captured images generated by the imaging unit each time the measurement target is irradiated from the direction with each light amount among different light amounts in the light amount distribution.
  • the shape measuring apparatus can efficiently measure the shape.
  • FIG. 1 is a block diagram showing a configuration of a shape measuring apparatus 10 according to the first embodiment of the present invention.
  • the shape measuring apparatus 10 includes an operation input unit 11, a display unit 12, an imaging unit 13, an image generation unit 13a, an irradiation unit 14, a storage unit 15, a determination unit 17, and a point group calculation unit 18 (points).
  • a computer terminal that includes a group data calculation unit), a reference light generation unit 19, a setting unit 21, and a score calculation unit 22, and measures the three-dimensional shape of the measurement target M by the phase shift method.
  • the shape measuring apparatus 10 changes the initial phase of light in which bright and dark patterns are arranged in stripes (hereinafter referred to as pattern light) on the basis of the N bucket method, and each initial phase pattern.
  • An image of light formed on the measurement target M is captured, and based on the signal intensity of the same pixel in each image (for example, a brightness value typified by a luminance value or a MAX (R, G, B) value). Then, the shape of the measuring object M is measured.
  • the operation input unit 11 receives an operation input from the user.
  • the operation input unit 11 includes operation members such as a power button for switching on and off of the main power source and a release button for receiving an instruction to start an imaging process.
  • the operation input part 11 can also receive the instruction
  • the operation input unit 11 accepts operation inputs corresponding to the half-pressed state and the fully-pressed state, for example, by setting the release button to the half-pressed state and the fully-pressed state.
  • the fully pressed state of the release button is a state in which the release button is pushed down to a predetermined position
  • the half-pressed state of the release button is a state in which the release button is pushed down to a position just before the fully pressed state. It is.
  • the imaging unit 13 captures an image of the measurement target M.
  • the captured data is output as RAW data.
  • the data output from the imaging unit 13 is subjected to an imaging process in which the image generation unit 13 a generates a captured image of the image of the measurement target M captured by the imaging unit 13 and stores the generated captured image in the storage unit 15. .
  • the imaging unit 13 operates in conjunction with the irradiation unit 14 and performs an imaging process in accordance with the timing at which the illumination light is projected onto the measurement target M by the irradiation unit 14.
  • the imaging unit 13 generates a plurality of captured images obtained by capturing, for each initial phase, an image in which a plurality of pattern lights having different initial phases based on the N bucket method are formed on the measurement target M by the irradiation unit 14. To do.
  • the imaging unit 13 performs an imaging process in accordance with the timing at which the reference light irradiated onto the measurement target M from the projection direction by the irradiation unit 14 is projected onto the measurement target M.
  • the irradiation unit 14 includes a light projecting unit 14a and a measurement light generating unit 14b.
  • the measurement light generation unit 14b controls the light source control unit 5 that modulates the light intensity of the light source provided in the light projecting unit 14a described later.
  • the irradiation unit 14 has a direction different from the direction in which the imaging unit 13 is imaging so that the captured image generated by the image generation unit 13a is captured as an image in which pattern light is formed on the measurement target M.
  • the measurement object M is irradiated with the measurement light from the projection direction of FIG. Specifically, the illumination unit 14 irradiates the measurement light so that a predetermined light amount distribution is formed on the measurement target M.
  • the predetermined light amount distribution formed on the measurement target M is a distribution in which the light amount periodically changes with the position on the measurement target M.
  • the light amount is sine according to the change in the position on the measurement target M.
  • the distribution changes in a wave shape.
  • the irradiation unit 14 sequentially captures images formed by the imaging unit 13 having a plurality of pattern lights having a spatial frequency with a constant period and different initial phases by 90 degrees based on the N bucket method. Irradiate the pattern light so that it is possible.
  • the light projecting unit 14 a of the present embodiment irradiates the reference light generated by the reference light generating unit 19. The measurement light, reference light, and pattern light will be described later.
  • the storage unit 15 stores in advance a threshold value for detecting, as a target range, a range including pixels whose signal intensity difference (for example, luminance difference) is equal to or greater than the threshold value among the pixels of the captured image. Yes. Further, the storage unit 15 stores a captured image generated by the imaging unit 13, point cloud data calculated by the point cloud calculation unit 18 (point cloud data calculation unit), and the like.
  • the point cloud calculation unit 18 (point cloud data calculation unit) is based on the captured image of the image of the measurement target M that is captured as if a plurality of pattern lights having different initial phases were formed by the imaging unit 13.
  • the point cloud data having the coordinate values of the respective positions of the measuring object M is calculated.
  • the point group calculation unit 18 performs point group calculation processing such as phase calculation and phase connection based on a plurality of captured images of the measurement target M imaged by the imaging unit 13 to calculate point group data,
  • the data is stored in the storage unit 15.
  • the reference light generation unit 19 generates reference light that is irradiated onto the measurement object M from the projection direction.
  • the reference light generation unit 19 generates reference light having the same light amount as the different light amount in a predetermined light amount distribution formed on the measurement target M by the illumination light irradiated from the irradiation unit 14 by the measurement light generation unit 14b. To do. Further, the reference light is irradiated onto the measurement object M from a predetermined projection direction.
  • the predetermined projection direction is, for example, a direction different from the direction in which the imaging unit 13 is imaging.
  • the reference light generation unit 19 uses the first of the different light amounts in a predetermined light amount distribution formed on the measurement target M so as to be captured as an image in which the pattern light is formed on the measurement target M.
  • the reference light having the same light amount as the light amount and the same light amount as the second light amount different from the first light amount is generated.
  • the reference light having the same light amount as the first light amount for example, the reference light generating unit 19 generates the reference light having the maximum light amount in a predetermined light amount distribution formed on the measurement target M by the illumination light.
  • the reference light generating unit 19 generates the reference light having the minimum light amount in a predetermined light amount distribution formed on the measurement target M by the illumination light. . Further, the reference light generation unit 19 controls the irradiation unit 14 so that the reference light is emitted by the light projecting unit 14a. That is, the light projecting unit 14a emits measurement light and reference light, respectively.
  • the first light amount and the second light amount described above use the maximum and minimum light amounts in the range of light amounts in the predetermined light amount distribution formed on the measurement target M, but they are not the maximum and minimum values.
  • appropriate different light amount values in the light amount range in the predetermined light amount distribution may be used.
  • the first light amount and the second light amount may be different from the light amount in the predetermined light amount distribution.
  • the detection unit 20 Based on the captured image captured by the imaging unit 13 when the reference light is projected onto the measurement target M, the detection unit 20 irradiates illumination light from the irradiation unit 14 and uses the captured image acquired by the imaging unit 13.
  • the target range of the shape measurement of the measurement target M that can be obtained is detected.
  • the detection unit 20 uses a captured image captured by the imaging unit 13 when the reference light is projected onto the measurement target M when detecting the target range of the shape measurement.
  • the detection unit 20 acquires the signal intensity of each region from a plurality of captured images generated by the imaging unit 13 every time the reference light is illuminated on the measurement target M with different light amounts generated by the reference light generation unit 24.
  • the shape measurement target range of the measurement target M is detected based on the magnitude relationship between the signal intensities compared for each corresponding region between the plurality of captured images.
  • the shape measurement target range of the measurement target M that can be obtained from the captured image acquired by the imaging unit 13 by irradiating the measurement light (pattern light) by the irradiation unit 14 is the material and brightness of the surface of the measurement target M. , Affected and affected by reflectivity.
  • it is desirable that the captured image acquired by the imaging unit 13 by irradiating the measurement light (pattern light) by the irradiation unit 14 is captured in a bright portion where the measurement light strikes and dark in a portion where the measurement light does not strike.
  • the surface of the measuring object M is made of a material that hardly reflects light
  • the shape of the measurement object M cannot be measured, it is not included in this target range.
  • the reflectance is very high, while only the regular reflection light may be generated from the measurement object M.
  • an image having sufficient contrast may not be obtained by the irradiating unit 14, so that such a target range cannot be measured.
  • illumination light is irradiated, a portion that is not exposed to illumination light, that is, a portion that becomes a shadow, is not included in the target range because the shape of the measurement target M cannot be measured.
  • the detection unit 20 also detects the signal intensity (for example, signal intensity) of a predetermined pixel from a plurality of captured images generated by the imaging unit 13 every time the reference light is illuminated on the measurement target M with different light amounts generated by the reference light generation unit 19. , Brightness values, etc.) and acquired by the imaging unit by irradiating illumination light based on the difference in signal intensity (for example, brightness difference, etc.) compared for each corresponding pixel between multiple captured images A target range in which shape measurement can be performed with desired accuracy is detected from the captured image.
  • signal intensity for example, signal intensity
  • the detection unit 20 determines a range in which each pixel of the captured image includes a pixel whose signal intensity difference (for example, a luminance difference) is equal to or greater than a threshold value stored in the storage unit 15. Detect as.
  • the detection unit 20 measures the reference light having the same light amount as the first light amount among the different light amounts generated by the reference light generation unit 19 so as to be captured as an image in which the pattern light is formed on the measurement target M.
  • Reference light having the same light amount as the second light amount different from the first light amount among the different light amounts generated by the reference light generation unit 19 and the first picked-up image picked up by M is measured on the measurement target M.
  • the target range is detected based on the second captured image that is irradiated and imaged.
  • the detection unit 20 also has a first light amount corresponding to the maximum light amount among the light amounts set in the illumination light, and a second light amount corresponding to the minimum light amount among the light amounts set in the illumination light.
  • the target range is detected based on the amount of light.
  • the detection unit 20 detects the target range with reference light that is irradiated so as to coincide with the irradiation range of the illumination light.
  • the setting unit 21 sets a threshold value based on a command from the operation input unit 11 and causes the storage unit 15 to store the set threshold value.
  • the score calculation unit 22 calculates a score based on the number of pixels included in the target range detected by the detection unit 20. In addition, the score calculation unit 22 calculates a score based on the area of a region set across a plurality of pixels included in the target range detected by the detection unit 20. For example, the score calculation unit 22 calculates the ratio of the number of pixels included in the target range detected by the detection unit 20 with respect to the number of pixels of the captured image captured by the imaging unit 13 as a score. In addition, the score calculation unit 22 generates information that prompts the user to change the imaging condition based on the calculated score.
  • the score calculation unit 22 causes the display unit 12 to display information indicating that the target range detected by the detection unit 20 is narrow under the imaging condition.
  • the user can change the shooting conditions by changing the position and direction of the shape measuring apparatus 10 and obtain point cloud data indicating the three-dimensional shape of the measuring object M by a wider target range. it can.
  • the information indicating that the target range detected by the detection unit 20 is narrow may be, for example, display by characters or display by a graphic such as an arrow.
  • the shape measuring work can be performed efficiently.
  • the display unit 12 is a display that displays various types of information.
  • the display unit 12 displays the target range detected by the detection unit 20 on the captured image acquired by the imaging unit 13. Further, the display unit 12 displays, for example, point cloud data indicating the three-dimensional shape of the measurement target M calculated by the point cloud calculation unit 18.
  • the display unit 12 displays the score calculated by the score calculation unit 22.
  • the display unit 12 displays information generated by the score calculation unit 22 that prompts the user to change the imaging condition.
  • FIG. 2 is a configuration diagram illustrating a configuration of the light projecting unit 14a.
  • the light projecting unit 14 a emits light so that the light from the light source 1 has a linear intensity distribution having a longitudinal direction in a direction orthogonal to the light irradiation direction. It has a collimate lens 2 and a cylindrical lens 3 for converting the intensity distribution.
  • a scanning mirror 4 MEMS that scans the measurement target M with light from the light source 1 in a direction perpendicular to the longitudinal direction of the light beam in the linear light intensity distribution. (Micro Electro Mechanical Systems) mirror).
  • the light source 1 is provided with a light source control unit 5 for controlling the light intensity emitted from the light source 1, and the laser light is sequentially controlled by the scanning mirror while the light source control unit 5 modulates the intensity of the laser light.
  • the image acquired by the imaging unit 13 is the same as when the pattern light is formed on the measurement target M.
  • the intensity distribution of the laser light emitted from the light source 1 is shaped so as to have a linear light intensity distribution in one direction perpendicular to the optical axis direction.
  • the optical axis direction and the linear Striped pattern light having a periodic intensity change in a direction perpendicular to both the longitudinal directions of the light intensity distribution is formed.
  • the pattern light is superimposed by scanning the scanning mirror a plurality of times, and a light amount distribution in which the light amount periodically changes with the position on the measurement target M is formed on the measurement target M. That is, by performing scanning of the scanning mirror a plurality of times, the intensity of the pattern light is integrated and a predetermined light amount distribution is formed on the measurement target M.
  • the intensity of the laser beam may be changed in a sine wave shape by changing the deflection direction of the laser beam with a scanning mirror while modulating the intensity of the laser beam, and the pattern light may be formed.
  • the intensity is changed in a sine wave shape
  • a light amount distribution in which the light amount changes in a sine wave shape with the position on the measurement target M is formed by repeating scanning of the scanning mirror a plurality of times. That is, when measuring the shape of the measuring object M, the measurement light generation unit 14b emits line light as the measurement light from the light projecting unit 14a, and the light source control unit 5 modulates the intensity of the measurement light and changes the deflection direction by the scanning mirror. By being changed, pattern light is formed on the measurement target M.
  • the formed pattern light is superimposed to form a predetermined light quantity distribution.
  • the initial phase of the pattern light pattern is changed by changing the timing of the intensity modulation of the laser light by the light source control unit 5 with respect to the deflection direction of the scanning mirror, so that a plurality of initial phases are obtained.
  • the pattern light is generated. Specifically, when the pattern light has a sinusoidal intensity distribution, the intensity of the sine that changes in a sinusoidal shape by changing the intensity modulation timing of the laser light by the light source control unit 5 with respect to the deflection direction of the scanning mirror.
  • the initial phase of the wave is shifted to generate a plurality of initial phase pattern lights.
  • the light amount distribution formed on the measurement target M is exemplified as a distribution in which the light amount changes in a sine wave shape, but may not be in a sine wave shape.
  • a periodic light amount change distribution such as a triangular wave shape or a rectangular wave shape
  • a random light amount change distribution may be used.
  • an intensity distribution pattern such as a triangular wave shape or a rectangular wave shape may be used in accordance with the light amount distribution formed on the measurement target M even if the intensity distribution is not sine wave shape.
  • It may be light or pattern light with a random intensity distribution. As long as the light amount distribution formed on the measurement target M becomes a predetermined light amount distribution, pattern light of any intensity distribution may be formed on the measurement target M to superimpose the light.
  • the intensity distribution of the pattern light formed on the measurement object M may be different for each scanning by the scanning mirror.
  • pattern light can be projected by applying a liquid crystal projector or the like. When a liquid crystal projector is used, pattern light (that is, measurement light) can be collectively formed without performing light scanning like a scanning mirror.
  • FIG. 3 is a diagram illustrating an example of the measurement object M in which the irradiation unit 14 forms the pattern light by shifting the initial phase by 90 degrees.
  • the pattern light A having a pattern with an initial phase of 0 degree
  • the pattern light B having the initial phase shifted by 90 degrees from the pattern of the pattern light A
  • the initial phase being shifted by 180 degrees from the pattern of the pattern light A
  • the pattern light C of the pattern and the pattern light D of which the initial phase is shifted by 270 degrees from the pattern of the pattern light A are shown.
  • the pattern light E having a pattern with an initial phase of 0 degrees
  • the pattern light F having a pattern shifted by 90 degrees from the pattern of the pattern light E
  • the initial phase from the pattern of the pattern light E being 180 degrees.
  • a pattern light G having a pattern shifted by degrees and a pattern light H having an initial phase shifted by 270 degrees from the pattern of the pattern light E are shown.
  • the imaging order does not necessarily have to be the order of pattern light A, pattern light B, pattern light C, pattern light D, and pattern light E.
  • image pickup processing is performed while sequentially shifting the initial phase like pattern light A, pattern light B, pattern light C, pattern light D, and pattern light E.
  • the imaging unit 13 has other initial phases between a plurality of imaging timings when the pattern light having the same initial phase (for example, the pattern light A and the pattern light E) captures an image formed on the measurement target M.
  • the pattern light (for example, the pattern light B, the pattern light C, and the pattern light D) captures an image formed on the measurement target M.
  • FIG. 4 is a diagram illustrating an example of the shape of the measurement target M.
  • the measuring object M of the present embodiment has a side shape and a front shape shown in FIG.
  • This measuring object M has a shape shown in FIG.
  • the shape measuring apparatus 10 of this embodiment measures the shape of the measuring object M having the shape shown in FIG.
  • FIG. 5 shows an image when the pattern light shown in FIG. 3 is formed on the measurement object M of the present embodiment shown in FIG. That is, the irradiation unit 14 is projected onto the measurement target M from a projection direction that is different from the direction in which the imaging unit 13 captures an image so that the pattern light is formed on the measurement target M as described above.
  • the predetermined light amount distribution formed on the measurement target M is a distribution in which the light amount periodically changes with the position on the measurement target M.
  • the change in the position on the measurement target M Accordingly, the distribution is such that the amount of light irradiated varies in a sine wave form.
  • the illumination unit 14 irradiates the measurement light so that light having different light intensities is illuminated according to the position on the measurement target M.
  • FIG. 5A shows a state in which the measurement light M is irradiated with the pattern light A or the pattern light E.
  • FIG. 5B shows a state in which the measurement light M is irradiated with the pattern light B or the pattern light F.
  • FIG. 5C shows a state in which the pattern light C or the pattern light G is irradiated on the measurement object M
  • FIG. 5D shows the pattern light D or the pattern light H in the measurement object M.
  • the state of being irradiated is shown.
  • the shape measuring apparatus 10 of the present embodiment images the measurement object M irradiated with each pattern light shown in FIGS. 5 (a) to 5 (d). In this way, the measurement light is illuminated so as to be captured as an image in which pattern light is formed on the measurement object M.
  • FIG. 6 is a diagram showing a point cloud data calculation result.
  • the point cloud calculation unit 18 captures an image of the measurement target M irradiated with each pattern light illustrated in FIGS. Based on the above, point cloud data is calculated as shown in FIG. As described above, the point cloud calculation unit 18 calculates the point cloud data and causes the display unit 12 to display an image based on the calculated point cloud data.
  • measurement light pattern light
  • FIG. 6 measurement light (pattern light) is irradiated in the direction from the left front side of the paper to the back right side of the paper, that is, in the direction of the arrow shown in FIG. 6.
  • the hatched range indicates a range in which the point cloud calculation unit 18 cannot calculate the point cloud data. That is, the range other than the hatched range in FIG. 6 is the target range of the shape measurement of the measurement target M that can be obtained from the captured image acquired by the imaging unit 13 when the irradiation unit 14 irradiates the measurement light.
  • FIG. 7 is a diagram illustrating a captured image obtained by capturing the measurement target M irradiated with the reference light.
  • the reference light generation unit 19 in the light amount distribution formed on the measurement target 4 by the measurement light that is illuminated so that the reference light is captured as an image in which the pattern light is formed on the measurement target M.
  • the reference light is generated so as to have the same light amount as the first light amount among the different light amounts.
  • the reference light generator 19 refers to the reference light so that the reference light has the same light intensity as the second light intensity different from the first light quantity in the light quantity distribution formed on the measurement object 4 by the measurement light. Produce light.
  • the light projecting unit 14a causes the reference light generating unit 19 to irradiate the measurement target M with the reference light having the same light amount as the second light amount (see FIG. 7A). In addition, the light projecting unit 14a causes the reference light generating unit 19 to irradiate the measurement target M with the reference light having the same light amount as the first light amount (see FIG. 7B).
  • FIG. 8 is a diagram illustrating a detection result of the detection unit 20.
  • the detection unit 20 measures the first captured image obtained by irradiating the measurement target M with the reference light having the same light amount as the first light amount, and the reference light having the same light amount as the second light amount.
  • the target range is detected based on the second captured image that is irradiated and imaged on the target M.
  • the detection unit 20 detects a range that is not hatched in FIG. 8 as a target range for shape measurement of the measurement target M that can be obtained from the captured image. Comparing FIG. 8 with FIG. 6 described above, it can be seen that the detection result shown in FIG. 8 matches the point cloud data calculation result shown in FIG. 6, that is, the shape measurement result.
  • the shape measuring apparatus 10 can detect the shape measurement target range of the measurement target M that can calculate the point cloud data before calculating the point cloud data.
  • the shape measuring apparatus 10 in order to calculate the point cloud data, for example, in the 4-bucket method, four types of pattern light of pattern light A, pattern light B, pattern light C, and pattern light D are measured. A captured image corresponding to each captured pattern light formed on the object M is required.
  • the shape measuring apparatus 10 according to the present embodiment can detect the shape measurement target range of the measurement target M capable of calculating the point cloud data before calculating the point cloud data, so that it is efficient. The shape can be measured.
  • FIG. 9 is a flowchart for explaining an operation example in which the shape measuring apparatus 10 performs the region determination process and the shape measurement process.
  • the operation input unit 11 receives an operation input from the user. For example, the operation input unit 11 receives an operation input in which the release button is pressed halfway or fully pressed (step S10). When the operation input unit 11 receives an operation input in which the release button is half-pressed, the operation input unit 11 advances the process to step S20 to perform an area determination process (step S10—YES).
  • step S40 the detection unit 20 performs region determination processing. The area determination process will be described later.
  • step S30 determines whether or not the operation input in which the release button is half pressed is continued. If it is determined that the operation input with the release button being pressed halfway is continued, the operation input unit 11 returns the process to step S20 and continues the area determination process (step S30-YES). That is, the operation input unit 11 causes the reference light generation unit 19 to repeatedly irradiate the reference light while the command signal instructing to irradiate the reference light is continuously input by the user. Each time the captured image illuminated with the reference light is input, the region determination process is continued in order to detect the target range. On the other hand, if the operation input unit 11 determines that the operation input in which the release button is half-pressed does not continue, the process proceeds to step S40 (NO in step S30).
  • step S50 determines that there is no operation input in which the release button is fully pressed.
  • step S50 The shape measurement process performed in step S50 will be described later.
  • FIG. 10 is a flowchart for explaining an operation example in which the shape measuring apparatus 10 performs the region determination process.
  • the shape measuring apparatus 10 performs region determination processing in step S20.
  • the reference light generation unit 19 generates reference light so as to have the same light amount as the first light amount, and irradiates the measurement target M with the generated reference light by the light projecting unit 14a.
  • the imaging unit 13 captures the measurement target M irradiated with the reference light, generates a first captured image, and stores the generated first captured image in the storage unit 15 (step S210).
  • the first light amount is, for example, a light amount in a sine wave shape with a position on the measurement target M formed on the measurement target M by irradiating the measurement light by the irradiation unit 14 in the shape measurement process described later. Is the maximum light quantity in the light quantity distribution in which.
  • the captured image (first captured image) of the measurement target M irradiated with such reference light is a whitish image (white image) as shown in FIG. 7B.
  • the reference light generation unit 19 generates reference light so as to have the same light amount as the second light amount, and irradiates the measurement target M with the generated reference light by the light projecting unit 14a.
  • the imaging unit 13 captures the measurement object M irradiated with the reference light, generates a second captured image, and stores the generated second captured image in the storage unit 15 (step S220).
  • the second light quantity is, for example, a light quantity in a sine wave shape with a position on the measurement target M formed on the measurement target M by irradiating the measurement light by the irradiation unit 14 in the shape measurement process described later. Is the minimum light quantity in the light quantity distribution in which.
  • the captured image (second captured image) of the measurement target M irradiated with such reference light is a dark image (black image) as shown in FIG.
  • the detection unit 20 reads the first captured image (that is, the white image) and the second captured image (that is, the black image) that are stored in the storage unit 15, and each pixel from the read captured image.
  • the signal intensity for example, luminance value
  • the difference for example, luminance difference
  • the detection unit 20 reads the threshold value stored in advance in the storage unit 15 from the operation unit 11 through the setting unit 21 from the storage unit 15.
  • the detection unit 20 creates a determination image based on the result of comparing the read threshold value and the difference in signal intensity calculated in step S230 for each pixel (step S240).
  • the determination image is the image shown in FIG. 8 described above.
  • the detection unit 20 determines that the target range is in the shape measurement range.
  • the detection unit 20 determines that the target range is not within which the shape can be measured.
  • the detection unit 20 creates a determination image by, for example, applying hatching to a range determined not to be a target range where the shape can be measured (see FIG. 8).
  • the detection unit 20 displays the determination image created in step S240 on the display unit 12 and ends the process (step S250).
  • the shape measuring apparatus 10 displays on the display unit 12 the determination image in which the target range in which the shape can be measured and the target range in which the shape cannot be measured are determined.
  • FIG. 11 is a flowchart for explaining an operation example in which the shape measuring apparatus 10 performs the shape measuring process.
  • the imaging unit 13 starts imaging processing of the measurement target M, and the irradiation unit 14 starts projection processing of measurement light (pattern light) onto the measurement target M (step S510).
  • the irradiation unit 14 performs measurement light projection processing so as to form a light amount distribution on the measurement target M in which the light amount changes sinusoidally with the position on the measurement target M.
  • the imaging unit 13 causes the storage unit 15 to store, for example, five captured images captured at the time of pattern light formation with an initial phase of 0 degrees, 90 degrees, 180 degrees, 270 degrees, and 360 degrees (step S520).
  • the point cloud calculation unit 18 calculates point cloud data based on the captured image stored in the storage unit 15 and stores it in the storage unit 15 (step S530). Then, the display unit 12 displays the calculated point cloud data and ends the process (step S540).
  • the shape measuring apparatus 10 of the present embodiment includes the imaging unit 13 that generates a captured image obtained by capturing the measurement target M.
  • the shape measuring apparatus 10 has a direction different from the direction in which the imaging unit 13 is capturing so that the captured image generated by the imaging unit 13 is captured as an image in which pattern light is formed on the measurement target M.
  • An irradiation unit 14 that irradiates measurement light (pattern light) so as to form a predetermined light amount distribution on the measurement target M from the projection direction is provided.
  • the predetermined light amount distribution formed on the measurement target M is a distribution in which the light amount periodically changes with the position on the measurement target M, for example.
  • the irradiation unit 14 irradiates the measurement light so that light with different light intensity (that is, pattern light) is illuminated according to the position on the measurement target M.
  • the shape measuring apparatus 10 includes a reference light generation unit 19 that generates reference light irradiated onto the measurement target M from the projection direction, and a plurality of images captured by the imaging unit 13 when the reference light is projected onto the measurement target M. Based on the captured image, the detection unit 20 detects the target range of the shape measurement of the measurement target M that can be obtained from the captured image acquired by the imaging unit 13 by irradiating the measurement light (pattern light) with the irradiation unit 14. It has.
  • the shape measuring apparatus 10 has a range in which the imaging condition changes variously depending on the measurement object M and the measurement environment, and the three-dimensional data (point cloud data) of the measurement object M cannot be generated. Even in some cases, it is possible to determine a range in which three-dimensional data (point cloud data) cannot be generated in advance before performing the shape measurement process. That is, since the shape measuring apparatus 10 of the present embodiment can perform the region determination process prior to the shape measuring process, the shape measuring operation can be performed efficiently.
  • the reference light generation unit 19 of the shape measuring apparatus 10 of the present embodiment has the same light amount as a different light amount in a predetermined light amount distribution formed on the measurement target M by irradiation of the measurement light (pattern light) in the shape measurement process.
  • the light projecting unit 14a is controlled so as to generate the reference light.
  • the shape measuring apparatus 10 of this embodiment can arrange
  • the shape measuring apparatus 10 of the present embodiment includes a display unit 12 that displays the target range detected by the detection unit 20 on the captured image acquired by the imaging unit 13.
  • the shape measuring apparatus 10 of this embodiment can perform the shape measurement work efficiently because the user can immediately confirm the image as a result of the region determination process.
  • the detection unit 20 of the shape measurement apparatus 10 includes a plurality of imagings generated by the imaging unit 13 each time the reference light is illuminated on the measurement target M with different light amounts set by the reference light generation unit 19.
  • the signal intensity of each pixel is acquired from the image, and the target range is detected based on the difference in signal intensity compared for each pixel between the plurality of captured images.
  • the shape measuring apparatus 10 of the present embodiment only has to calculate the difference in signal intensity, and can detect the target range without performing a complicated calculation, thereby reducing the time and power required for the calculation. be able to.
  • an average value of signal intensities in the same region of the plurality of captured images may be compared.
  • the shape measuring apparatus 10 of the present embodiment includes a storage unit 15 in which a threshold value is stored, and the detection unit 20 has a signal intensity difference or signal intensity of each pixel of the captured image as a threshold value. A range including the above pixels is detected as a target range.
  • the shape measuring apparatus 10 of the present embodiment only has to calculate the difference in signal intensity compared to the predetermined threshold value, and can detect the target range without performing complicated calculations. The required time and power can be reduced.
  • the shape measuring apparatus 10 of the present embodiment includes a setting unit 21 that sets a threshold value.
  • the shape measuring apparatus 10 of this embodiment can set the threshold value by reducing the difference in the detection result of the target range caused by the difference in the measurement target M, the measurement environment, and the like. That is, the shape measuring apparatus 10 can increase the degree of coincidence between the range in which the three-dimensional data can be generated by the shape measurement process and the range in which the three-dimensional data can be generated by the region determination process.
  • the shape measurement work can be performed.
  • the shape measuring apparatus 10 of the present embodiment includes a score calculation unit 22 that calculates a score based on the number of pixels included in the target range detected by the detection unit 20.
  • the shape measuring apparatus 10 of this embodiment can quantify the quality of the determination result in the range in which the three-dimensional data can be generated by the region determination process, and can efficiently perform the shape measurement work. it can.
  • the score calculation unit 22 of the shape measuring apparatus 10 generates information that prompts the user to change the imaging condition based on the calculated score.
  • the imaging conditions here can be exemplified as follows.
  • the measurement target is a mirror surface, a glossy surface, or a glossy surface
  • the first light amount for example, the maximum light amount in the light amount distribution
  • predetermined light amount distribution formed on the measurement target M by the measurement light and the first time are illuminated.
  • the range in which the three-dimensional data can be generated can be expanded by changing the posture of the shape measuring apparatus 10.
  • the range can be expanded by changing the exposure time and the intensity of the pattern light image.
  • the detection unit 20 of the shape measuring apparatus 10 of the present embodiment irradiates the measurement target M with reference light having the same light amount as the first light amount among different light amounts in a predetermined light amount distribution formed on the measurement target M.
  • the target range is detected.
  • the detection unit 20 of the shape measuring apparatus 10 according to the present embodiment has the first light amount corresponding to the maximum light amount in a predetermined term amount distribution formed on the measurement object by the measurement light, and the second light amount is The target range is detected based on the reference light corresponding to the minimum light amount.
  • the shape measuring apparatus 10 according to the present embodiment can increase the difference in signal intensity between the pixels of the two captured images, and can easily set the threshold value for the region determination process. The shape measurement work can be performed.
  • the detection unit 20 of the shape measuring apparatus 10 detects the target range by the reference light irradiated so as to coincide with the irradiation range of the measurement light (pattern light formation region).
  • the shape measuring apparatus 10 of this embodiment can arrange
  • the reference light generation unit 19 of the shape measuring apparatus 10 controls the light projecting unit 14a so that the light projecting unit 14a of the irradiation unit 14 emits the reference light.
  • the shape measuring apparatus 10 since the shape measuring apparatus 10 of this embodiment does not need to be separately provided with the irradiation part for irradiating reference light, the shape measuring apparatus 10 can be reduced in size and weight.
  • the reference light generation unit 19 and the measurement light generation unit 14b are described as separate units. However, both units may actually be achieved by the same control circuit.
  • the shape measuring apparatus 10 calculates the shape of the measurement target M based on the captured image of the measurement target M that is captured so that a plurality of pattern lights having different initial phases are formed from the imaging unit 13. And a point cloud calculation unit 18 (point cloud data calculation unit) that calculates point cloud data having coordinate values of each position of the measurement object M.
  • a point cloud calculation unit 18 point cloud data calculation unit
  • the shape measuring apparatus 10 is configured so that the reference light is input until a command signal instructing the point cloud calculation unit 18 (point cloud data calculation unit) to calculate the point cloud data is input by the user.
  • the generation unit 19 repeatedly emits reference light, and the detection unit 20 detects the target range every time a captured image illuminated with the reference light is input.
  • the shape measuring apparatus 10 of this embodiment can repeatedly perform area
  • the detection unit 20 of the shape measuring apparatus 10 of the present embodiment may detect the target range based on the contrast of the captured image that is captured by irradiating the measurement target M with the reference light.
  • the contrast of the captured image is a difference in signal intensity between neighboring pixels among the pixels included in the captured image.
  • the shape measurement apparatus 10 according to the present embodiment may detect the target range by detecting the contrast of one captured image.
  • the detection unit 20 of the shape measuring apparatus 10 may detect the target range with reference light that is irradiated to an irradiation range narrower than the irradiation range of the measurement light (pattern light formation range). .
  • the shape measuring apparatus 10 of this embodiment has few pixel used as the object of area
  • the detection unit 20 of the shape measuring apparatus 10 of the present embodiment uses a first light amount (for example, a predetermined light amount formed on the measurement target M by the measurement light). Based on the difference in signal intensity of the corresponding pixel between the captured images obtained by projecting the reference light of the maximum light amount in the distribution) and the second light amount (for example, the minimum light amount in the predetermined light amount distribution) onto the measurement object M.
  • the target range of the shape measurement of the measurement target M is determined, but it is not necessary to use two types of light amounts for the reference light. For example, three or more kinds of light amounts may be used for the reference light, or one kind of light amount may be used.
  • the target range of the shape measurement of the measurement target M Determine.
  • the light amount of the reference light may be, for example, the maximum light amount or the minimum light amount in a predetermined light amount distribution formed on the measurement target M by the measurement light.
  • the shape measurement target range of the measurement target M is determined based on the magnitude relationship of the signal intensity of the predetermined pixel in the image of the projection image obtained by projecting the reference light.
  • the magnitude relationship is, for example, comparing the signal intensity of a predetermined pixel in the image of the projection image obtained by projecting the reference light with the threshold value read from the storage unit 15. Based on this comparison, the target range of the shape measurement of the measuring object M is determined.
  • the threshold value stored in the storage unit 15 is, for example, a signal intensity at which the imaging unit 13 is saturated (with respect to the maximum light amount that can be detected).
  • the target range of the shape measurement of the measurement target M is similarly determined.
  • the threshold value stored in the storage unit 15 is, for example, the signal intensity with respect to the minimum light amount that can be detected by the imaging unit 13.
  • the threshold value described above may be set arbitrarily, may be set to an appropriate value at the time of shipment of the shape measuring apparatus 10, or may be set by the user inputting an arbitrary value. . In this way, by using one type of reference light, the region determination process can be performed in a shorter time than using a plurality of different types of light, so that the shape measurement operation can be performed efficiently. .
  • FIG. 12 is a diagram showing a configuration of a shape measuring apparatus 10 as an example according to the second embodiment of the present invention.
  • the shape measuring apparatus 10 includes a second display unit 23 that displays the target range in a display state corresponding to the accuracy.
  • the detection unit 20 detects the accuracy indicating the accuracy of the shape measurement result for each pixel of the captured image based on the difference in signal intensity, and performs control so as to be classified as the target range for each measurement condition.
  • the detection unit 20 causes the second display unit 23 to display for each measurement condition by changing the brightness and hue in accordance with the accuracy indicating the accuracy of the shape measurement result based on the difference in signal intensity.
  • the accuracy indicating the accuracy of the shape measurement result is a value associated with the accuracy so that the greater the difference in signal strength, the greater the accuracy, and the smaller the signal strength difference, the smaller the accuracy.
  • the information such as the image indicating the target range displayed on the second display unit 23 is not a binary value such as the presence / absence of hatching as described in the first embodiment described above, but a variety of information such as brightness and hue.
  • the value is displayed on the second display unit 23 according to the value. Therefore, the information on the determination result of the target range is increased, and the imaging state can be accurately transmitted to the user. That is, according to the shape measuring apparatus 10 of the present embodiment, the shape measuring operation can be performed efficiently.
  • the detection unit 20 of the shape measuring apparatus 10 of the present embodiment may detect the target range based on the contrast of the captured image that is captured by irradiating the measurement target M with the reference light.
  • the contrast of the captured image is a difference in signal intensity between neighboring pixels among the pixels included in the captured image.
  • the shape measurement apparatus 10 according to the present embodiment may detect the target range by detecting the contrast of one captured image.
  • the detection unit 20 of the shape measuring apparatus 10 of the present embodiment may detect the target range with reference light that is applied to an irradiation range that is narrower than the irradiation range of the measurement light (pattern light).
  • pattern light the irradiation range of the measurement light
  • the shape measuring apparatus 10 of this embodiment has few pixel used as the object of area
  • the reference light generation unit 19 included in the shape measuring apparatus 10 of the present embodiment is configured such that the same light amount distribution as the predetermined light amount distribution formed on the measurement target M by the measurement light (pattern light) is formed on the measurement target M. A reference beam is generated.
  • the measurement object M may be irradiated with the light having the same intensity distribution as the pattern light formed on the measurement object M by the measurement light as the reference light, or the light with a different intensity distribution may be used as the reference light.
  • the detection unit 20 acquires a captured image when the reference light is projected, and detects a target range from the captured image.
  • the reference light generator 19 is formed with the pattern light shown in FIGS. 5A to 5D instead of the reference light shown in FIGS. 7A and 7B described in the first embodiment.
  • the reference light projected so as to be captured as an image is generated.
  • the shape measuring apparatus 10 of the present embodiment increases the degree of coincidence between the range in which 3D data can be generated by the shape measurement process and the range in which 3D data can be generated by the region determination process. Therefore, the shape measurement work can be performed efficiently.
  • the reference light generation unit 19 of the present embodiment includes the irradiation unit 14 and the imaging unit so that the imaging unit 13 captures a plurality of images in which pattern light of a plurality of patterns having different initial phases is formed on the measurement target M. 13 may be controlled.
  • the detection unit 20 uses a plurality of signal intensities of each pixel of a plurality of captured images captured so that pattern light of each initial phase pattern is formed on the measurement target M by the imaging unit 13.
  • the target range may be detected based on an integrated amount integrated for each corresponding pixel between the captured images.
  • the shape measuring apparatus 10 of this embodiment can detect a target range with an integrated value with a small amount of calculation compared with the calculation required when generating three-dimensional data by shape measurement processing.
  • the shape measuring apparatus 10 of the present embodiment can increase the degree of coincidence between the range in which 3D data can be generated by the shape measurement process and the range in which 3D data can be generated by the region determination process. It is possible to perform the shape measurement work efficiently. Moreover, since the shape measuring apparatus 10 of this embodiment can detect an object range, without performing complicated calculation, it can reduce time and electric power required for calculation.
  • the detection unit 20 of the shape measuring apparatus 10 of the present embodiment may detect the target range based on the contrast of the captured image that is captured by irradiating the measurement target M with the reference light.
  • the contrast of the captured image is a difference in signal intensity between neighboring pixels among the pixels included in the captured image.
  • the shape measurement apparatus 10 of the present embodiment may detect the target range by detecting the contrast of one captured image.
  • the detection unit 20 of the shape measuring apparatus 10 of the present embodiment may detect the target range with reference light that is applied to an irradiation range that is narrower than the irradiation range of the measurement light (pattern light).
  • pattern light the irradiation range of the measurement light
  • the shape measuring apparatus 10 of this embodiment has few pixel used as the object of area
  • FIG. 13 is a diagram showing a configuration of a shape measuring apparatus 10 as an example according to the fourth embodiment of the present invention.
  • the shape measuring apparatus 10 of the present embodiment includes a reference light irradiation unit 24 that irradiates the measurement target M with the reference light under the control of the reference light generation unit 19. Thereby, the shape measuring apparatus 10 of this embodiment can irradiate reference light with the irradiation part only for reference light suitable for irradiation of reference light.
  • the shape measuring apparatus 10 uses the reference light that can increase the degree of coincidence between the range in which 3D data can be generated by the shape measurement process and the range in which 3D data can be generated by the region determination process. Can be irradiated. Therefore, according to the shape measuring apparatus 10 of the present embodiment, the shape measuring operation can be performed efficiently.
  • FIG. 14 is a diagram showing a configuration of a shape measuring apparatus 10 as an example according to the fifth embodiment of the present invention.
  • the shape measuring apparatus 10 of this embodiment includes a detection sensor 25 that detects the posture of the irradiation unit 14.
  • the detection sensor 25 is an angular velocity sensor, for example, and detects a change in the posture (position) of the shape measuring apparatus 10.
  • the reference light generation unit 19 repeatedly irradiates the reference light every time the output signal of the detection sensor 25 detected by the detection unit 20 changes.
  • the detection unit 20 detects the target range by the area determination process every time a captured image illuminated with the reference light is input.
  • the shape measuring apparatus 10 of this embodiment is used when, for example, the user moves the posture (position) of the shape measuring apparatus 10 in order to obtain a preferable region determination result by changing the imaging condition.
  • the area determination process can be performed without the user's operation. Therefore, according to the shape measuring apparatus 10 of the present embodiment, the shape measuring operation can be performed efficiently.
  • FIG. 15 is a diagram illustrating a configuration of the structure manufacturing system 100 according to the present embodiment.
  • the structure manufacturing system 100 of this embodiment includes the shape measuring device 10, the design device 60, the molding device 30, the control device (inspection device) 40, and the repair device 50 as described in the above embodiment.
  • the control device 40 includes a coordinate storage unit 41 and an inspection unit 42.
  • the design device 60 creates design information related to the shape of the structure, and transmits the created design information to the molding device 30.
  • the design device 60 stores the produced design information in the coordinate storage unit 41 of the control device 40.
  • the design information includes information indicating the coordinates of each position of the structure.
  • the molding apparatus 30 produces the above structure based on the design information input from the design apparatus 60.
  • the molding of the molding apparatus 30 includes, for example, casting, forging, cutting, and the like.
  • the shape measuring device 10 measures the coordinates of the manufactured structure (measurement object) and transmits information (shape information) indicating the measured coordinates to the control device 40.
  • the structure said here becomes a measuring object of the shape measuring apparatus 10.
  • the coordinate storage unit 41 of the control device 40 stores design information.
  • the inspection unit 42 of the control device 40 reads design information from the coordinate storage unit 41.
  • the inspection unit 42 compares the information (shape information) indicating the coordinates received from the shape measuring apparatus 10 with the design information read from the coordinate storage unit 41.
  • the inspection unit 42 determines whether or not the structure has been molded according to the design information based on the comparison result. In other words, the inspection unit 42 determines whether or not the manufactured structure is a non-defective product.
  • the inspection unit 42 determines whether the structure can be repaired when the structure is not molded according to the design information.
  • the inspection unit 42 calculates a defective portion and a repair amount based on the comparison result, and transmits information indicating the defective portion and information indicating the repair amount to the repair device 50.
  • the repair device 50 processes the defective portion of the structure based on the information indicating the defective portion received from the control device 40 and the information indicating the repair amount.
  • FIG. 16 is a flowchart showing the structure manufacturing method of the present embodiment.
  • each process of the structure manufacturing method illustrated in FIG. 16 is executed by each unit of the structure manufacturing system 100.
  • the design device 60 creates design information related to the shape of the structure (step S31).
  • molding apparatus 30 produces the said structure based on design information (step S32).
  • the shape measuring apparatus 10 measures the shape of the manufactured structure (step S33).
  • the inspection unit 42 of the control device 40 compares the shape information obtained by the shape measuring device 10 with the design information described above to inspect whether or not the structure has been manufactured according to the design information (step). S34).
  • the inspection unit 42 of the control device 40 determines whether or not the manufactured structure is a good product (step S35).
  • step S35 determines that the manufactured structure is a non-defective product
  • the structure manufacturing system 100 ends the process.
  • the inspection unit 42 determines that the manufactured structure is not a good product (step S35: NO)
  • the inspection unit 42 determines whether the manufactured structure can be repaired (step S36).
  • step S36 when the inspection unit 42 determines that the manufactured structure can be repaired (step S36: YES), the repair device 50 performs the reworking of the structure (step S37). Return to processing.
  • step S36: NO the structure manufacturing system 100 ends the process.
  • the structure manufacturing system 100 of the present embodiment can determine whether or not the manufactured structure is a non-defective product because the shape measuring apparatus 10 in the above embodiment can accurately measure the coordinates of the structure. Can do. Moreover, the structure manufacturing system 100 can perform reworking and repair of the structure when the structure is not a good product.
  • the repair process which the repair apparatus 50 in this embodiment performs may be replaced with the process in which the shaping
  • molding apparatus 30 re-executes a shaping
  • the molding apparatus 30 cuts a portion that is originally to be cut and is not cut in the structure. Thereby, the structure manufacturing system 100 can produce a structure correctly.
  • control unit CONT The shape measuring device 10, the control device 40, the molding device 30, the repair device 50, or the design device 60 (hereinafter collectively referred to as a control unit CONT) or the control unit CONT in each of the above embodiments.
  • Each unit provided may be realized by dedicated hardware, or may be realized by a memory and a microprocessor.
  • the control unit CONT or each unit included in the control unit CONT may be realized by dedicated hardware, and the control unit CONT or each unit included in the control unit CONT includes a memory and a CPU (The control unit CONT or a program for realizing the function of each unit included in the control unit CONT may be loaded into a memory and executed to implement the function.
  • control unit CONT or a program for realizing the functions of each unit included in the control unit CONT is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into a computer system and executed. By doing so, you may perform the process by the control part CONT or each part with which this control part CONT is provided.
  • the “computer system” includes an OS and hardware such as peripheral devices.
  • the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.
  • the “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM or a CD-ROM, and a hard disk incorporated in a computer system.
  • the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line.
  • a volatile memory in a computer system serving as a server or a client in that case, and a program that holds a program for a certain period of time are also included.
  • the program may be a program for realizing a part of the functions described above, and may be a program capable of realizing the functions described above in combination with a program already recorded in a computer system.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

 効率よく形状測定する。 測定対象を撮像する撮像部と、撮像部が撮像している方向と異なる方向の投影方向から、測定対象上に所定の光量分布が形成されるように測定光を照射する照射部と、測定対象に照射される参照光を生成する参照光生成部と、参照光が測定対象に投影された際に撮像部によって撮像された撮像画像に基づいて、測定対象の形状測定の対象範囲を検出する検出部とを備える。

Description

形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム
 本発明は、形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラムに関する。
 測定対象の面形状(三次元形状)を非接触で測定する手法として、例えば位相シフト法によるパターン投影型の形状測定装置が知られている(例えば、特許文献1参照)。この形状測定装置では、正弦波状の強度分布を持つ格子パターンを測定対象物上に投影し、その格子パターンの位相を一定ピッチで変化させながら測定対象物を繰り返し撮像する。これによって得られた複数の撮像画像(輝度変化データ)を所定の演算式に当てはめることで、測定対象物の面形状に応じて変形した格子パターンの位相分布(位相画像)を求め、その位相画像をアンラップ(位相接続)してから、測定対象物の高さ分布(高さ画像)に換算する。このようにして、形状測定装置は、撮像した複数の撮像画像から測定対象物の三次元形状データを生成する。
特開2009-180689号公報
 しかしながら、上述のような形状測定装置は、撮像画像(輝度変化データ)の撮像条件によっては、測定対象物の三次元形状データを生成することができない部分が生じることがある。この場合、撮像条件を変えて形状測定をやり直すことになるという問題があった。
 本発明は、上記問題を解決すべくなされたもので、その目的は、効率よく形状測定することができる形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラムを提供することにある。
 本発明の一実施形態は、測定対象を撮像する撮像部と、
 前記撮像部が撮像している方向と異なる方向の投影方向から、前記測定対象上に所定の光量分布が形成されるように測定光を照射する照射部と、
 前記測定対象に照射される参照光を生成する参照光生成部と、
 前記参照光が前記測定対象に投影された際に前記撮像部によって撮像された撮像画像に基づいて、前記測定対象の形状測定の対象範囲を検出する検出部と
 を備えることを特徴とする形状測定装置である。
 また、本発明の一実施形態は、構造物の形状に関する設計情報を作製する設計装置と、
 前記設計情報に基づいて前記構造物を作製する成形装置と、
 作製された前記構造物の形状を、撮像画像に基づいて測定する上述の形状測定装置と、
 前記測定によって得られた形状情報と、前記設計情報とを比較する検査装置と、
 を含む構造物製造システムである。
 また、本発明の一実施形態は、測定対象を撮像した撮像画像を生成する撮像部と、前記撮像部が撮像している方向と異なる方向から、前記測定対象上の位置に伴って光量が周期的に変化する光量分布が前記測定対象上に形成されるように測定光を照射する照射部とを備える形状測定装置が、前記光量分布における相異なる光量のうち、各々の光量で前記測定対象に前記方向から照射されるごとに前記撮像部により生成された複数の撮像画像に基づいて、当該撮像画像が生成される期間に前記測定対象の三次元形状を示す点群データを生成した場合に、前記点群データを生成することができる範囲を検出する検出ステップ
 を有することを特徴とする形状測定方法である。
 また、本発明の一実施形態は、構造物の形状に関する設計情報を作製することと、
 前記設計情報に基づいて前記構造物を作製することと、
 作製された前記構造物の形状を、上述の形状測定方法を用いて生成した撮像画像に基づいて測定することと、
 前記測定によって得られた形状情報と、前記設計情報とを比較すること
 を含む構造物製造方法である。
 また、本発明の一実施形態は、測定対象を撮像した撮像画像を生成する撮像部と、前記撮像部が撮像している方向と異なる方向から、前記測定対象上の位置に伴って光量が周期的に変化する光量分布が前記測定対象上に形成されるように測定光を照射する照射部とを備える形状測定装置のコンピュータに、
 前記光量分布における相異なる光量のうち、各々の光量で前記測定対象に前記方向から照射されるごとに、前記撮像部により生成された複数の撮像画像に基づいて、当該撮像画像が生成される期間に前記測定対象の三次元形状を示す点群データを生成した場合に、前記点群データを生成することができる範囲を検出する検出ステップ
 を実行させる形状測定プログラムである。
 本発明によれば、形状測定装置は、効率よく形状測定することができる。
本発明の第1の実施形態による形状測定装置の構成例を示すブロック図である。 本実施形態における照射部の構成の一例を示す構成図である。 本実施形態における照射部が初期位相を90度ずつシフトさせてパターン光を形成した測定対象の一例を示す模式図である。 本実施形態における測定対象の形状の一例を示す構成図である。 本実施形態におけるパターン光が形成された状態の測定対象の一例を示す模式図である。 本実施形態における点群データ算出結果の一例を示す模式図である。 本実施形態における参照光が照射された測定対象を撮像した撮像画像の一例を示す図である。 本実施形態における検出部の検出結果の一例を示す模式図である。 本実施形態における形状測定装置の動作の一例を示すフローチャートである。 本実施形態における形状測定装置による領域判定処理の動作の一例を示すフローチャートである。 本実施形態における形状測定装置による形状測定処理の動作の一例を示すフローチャートである。 本発明の第2の実施形態による形状測定装置の構成例を示すブロック図である。 本発明の第4の実施形態による形状測定装置の構成例を示すブロック図である。 本発明の第5の実施形態による形状測定装置の構成例を示すブロック図である。 本発明の第6の実施形態による形状測定装置の構成例を示すブロック図である。 本実施形態における構造物製造方法の一例を示すフローチャートである。
 [第1の実施形態]
 以下、本発明の一実施形態について、図面を参照して説明する。
 図1は、本発明の第1の実施形態による形状測定装置10の構成を示すブロック図である。形状測定装置10は、操作入力部11と、表示部12と、撮像部13と、画像生成部13aと、照射部14と、記憶部15と、判定部17と、点群算出部18(点群データ算出部)と、参照光生成部19と、設定部21と、スコア算出部22とを備え、位相シフト法により測定対象Mの三次元形状を測定するコンピュータ端末である。本実施形態では、形状測定装置10は、Nバケット法に基づいて、明暗のパターンが縞状に並んだ光(以下、パターン光と称する)の初期位相を変化させて、それぞれの初期位相のパターン光が測定対象Mに形成された像を撮像し、それぞれの像における同一画素の信号強度(例えば、輝度値やMAX(R,G,B)値などに代表される明度値など)に基づいて、測定対象Mの形状測定を行う。
 操作入力部11は、ユーザからの操作入力を受け付ける。例えば、操作入力部11は、主電源のオンとオフとを切替えるための電源釦、及び撮像処理開始の指示を受け付けるレリーズ釦等の操作部材を備えている。または、操作入力部11はタッチパネルにより、後述するしきい値を設定する指示等を受け付けることもできる。また、操作入力部11は、例えば、レリーズ釦を半押し状態と全押し状態とにすることよって、半押し状態と全押し状態とに対応する操作入力を受け付ける。ここで、レリーズ釦の全押し状態とは、レリーズ釦が所定の位置まで押し込まれた状態であり、レリーズ釦の半押し状態とは、レリーズ釦が全押し状態の位置の手前まで押し込まれた状態である。
 撮像部13は、測定対象Mの像を撮像する。撮像したデータをRAWデータとして、出力する。撮像部13から出力されたデータは、画像生成部13aで、撮像部13で撮像された測定対象Mの像の撮像画像を生成し、生成した撮像画像を記憶部15に記憶させる撮像処理を行う。また、撮像部13は、照射部14と連動して動作し、照射部14によって測定対象Mに照明光が投影されるタイミングに合わせて撮像処理を行う。本実施形態では、撮像部13は、照射部14によってNバケット法に基づく初期位相の異なる複数のパターン光が測定対象Mに形成された像を、初期位相毎に撮像した複数の撮像画像を生成する。また、撮像部13は、照射部14によって投影方向から測定対象Mに照射される参照光が測定対象Mに投影されるタイミングに合わせて撮像処理を行う。
 照射部14は、投光部14aと測定光生成部14bからなる。測定対象Mの形状測定の際、測定光生成部14bは、後述する投光部14aに設けられた光源の光強度を変調する光源制御部5を制御する。これにより、照射部14は、画像生成部13aによって生成された撮像画像が、測定対象Mにパターン光が形成された画像として撮像されるように、撮像部13が撮像している方向と異なる方向の投影方向から、つまり、撮像部13の光軸とは異なる方向から測定対象Mに測定光を照射する。具体的には、照明部14は、測定対象M上に所定の光量分布が形成されるように測定光を照射する。測定対象M上に形成される所定の光量分布は、測定対象M上の位置に伴って光量が周期的に変化する分布であり、例えば、測定対象M上の位置の変化に応じて光量が正弦波状に変化する分布である。また、照射部14は、一定の周期の空間周波数を持ち、Nバケット法に基づいて初期位相が90度ずつ異なる複数のパターン光が測定対象Mに形成された像を、撮像部13によって順次撮像できるように、パターン光を照射する。また、本実施形態の投光部14aは、参照光生成部19によって生成された参照光を照射する。測定光、参照光及びパターン光については後述する。
 記憶部15には、撮像画像の各画素のうちの、信号強度の差(例えば、輝度差など)がしきい値以上の画素を含む範囲を対象範囲として検出するしきい値が予め記憶されている。また、記憶部15には、撮像部13により生成された撮像画像や、点群算出部18(点群データ算出部)によって算出された点群データ等が記憶される。
 点群算出部18(点群データ算出部)は、撮像部13により初期位相が異なる複数のパターン光が形成されたように撮像された測定対象Mの像の撮像画像を基に、測定対象Mの形状を算出し、測定対象Mの各位置の座標値を有する点群データを算出する。また、点群算出部18は、撮像部13で撮像された測定対象Mの複数の撮像画像に基づいて、位相算出、位相接続等の点群算出処理を行い、点群データを算出して、記憶部15に記憶させる。
 参照光生成部19は、投影方向から測定対象Mに照射される参照光を生成する。また、参照光生成部19は、測定光生成部14bによって照射部14から照射された照明光により測定対象M上に形成される所定の光量分布において、相異なる光量と同じ光量の参照光を生成する。また、参照光は、所定の投影方向から測定対象Mに照射されることを特徴とする。ここで、所定の投影方向は、例えば、撮像部13が撮像している方向と異なる方向である。本実施形態において、参照光生成部19は、測定対象Mにパターン光が形成された画像として撮像されるように測定対象M上に形成される所定の光量分布における相異なる光量のうち第1の光量と同じ光量、及び第1の光量とは異なる第2の光量と同じ光量の参照光を生成する。ここで、第1の光量と同じ光量の参照光としては、例えば、照明光により測定対象M上に形成される所定の光量分布のうち、最大光量の参照光が参照光生成部19によって生成される。また、第2の光量と同じ光量の参照光としては、例えば、照明光により測定対象M上に形成される所定の光量分布のうち、最小光量の参照光が参照光生成部19によって生成される。また、参照光生成部19は、投光部14aにより参照光を照射するように、照射部14を制御する。つまり、投光部14aは、測定光と参照光とをそれぞれ照射する。
なお、上述の第1の光量と第2の光量はそれぞれ、測定対象M上に形成される所定の光量分布における光量の範囲のうち最大、最小となる光量を用いたが、最大、最小でなくてもよく、第1の光量と第2の光量は、当該所定の光量分布における光量の範囲のうちの適当な異なる光量の値を用いてもよい。また、第1の光量と第2の光量は、当該所定の光量分布における光量とは異なる光量であってもよい。
 検出部20は、参照光が測定対象Mに投影された際に撮像部13によって撮像された撮像画像に基づいて、照射部14により照明光を照射して撮像部13で取得された撮像画像から求めることができる測定対象Mの形状測定の対象範囲を検出する。また、検出部20は、形状測定の対象範囲を検出する際に、参照光が測定対象Mに投影された際に撮像部13によって撮像された撮像画像を用いる。また、検出部20は参照光生成部24が生成する相異なる光量により参照光が測定対象Mに照明されるごとに撮像部13によって生成された複数の撮像画像から各領域の信号強度を取得し、かつ複数の撮像画像間において対応する領域ごとに比較された信号強度の大小関係に基づいて、測定対象Mの形状測定の対象範囲を検出する。例えば、照射部14により測定光(パターン光)を照射して撮像部13で取得された撮像画像から求めることができる測定対象Mの形状測定の対象範囲は、測定対象Mの表面の材質や明度、反射率などによって影響を受けて変化する。照射部14により測定光(パターン光)を照射して撮像部13で取得された撮像画像は、例えば、測定光が当たる部分は明るく、測定光が当たらない部分は暗く撮像されることが望ましい。ここで、例えば、測定対象Mの表面が光をほとんど反射しない材質である場合、測定対象Mのうちの、測定光が当たる部分の明るさと、測定光が当たらない部分の明るさとに、ほとんど差が生じなくなる。このような場合には、測定対象Mの形状測定をすることができないため、この対象範囲には含まれない。他にも、反射率が非常に高く、一方、測定対象Mからは正反射光しか発生しない場合がある。この場合も、照射部14により十分なコントラストを有する像が得られない場合があるので、このような対象範囲には測定することができない範囲となってしまう。
 また、例えば、照明光を照射した場合に、照明光が当たらない部分、つまり影になる部分は、測定対象Mの形状測定をすることができないため、この対象範囲には含まれない。
 また、検出部20は、参照光生成部19が生成する相異なる光量により参照光が測定対象Mに照明されるごとに撮像部13によって生成された複数の撮像画像から所定画素の信号強度(例えば、輝度値など)を取得し、かつ複数の撮像画像間において対応する画素ごとに比較された信号強度の差(例えば、輝度差など)に基づいて、照明光を照射して撮像部で取得される撮像画像から所望の精度で形状測定ができる対象範囲を検出する。また、検出部20は、撮像画像の各画素のうちの、信号強度の差(例えば、輝度差など)が、記憶部15に記憶されているしきい値以上の画素を含む範囲を、対象範囲として検出する。また、検出部20は、測定対象Mにパターン光が形成された画像として撮像されるように参照光生成部19が生成する相異なる光量のうち第1の光量と同じ光量の参照光が測定対象Mに照射されて撮像された第1の撮像画像と、参照光生成部19が生成する相異なる光量のうち第1の光量とは異なる第2の光量と同じ光量の参照光が測定対象Mに照射されて撮像された第2の撮像画像とに基づいて、対象範囲を検出する。また、検出部20は、第1の光量は、照明光に設定される光量のうち最大光量に対応し、第2の光量は、照明光に設定される光量のうち最小光量に対応する参照光の光量に基づいて、対象範囲を検出する。また、検出部20は、照明光の照射範囲と一致するように照射される参照光によって、対象範囲を検出する。
 設定部21は、操作入力部11からの指令に基づいたしきい値を設定して、設定したしきい値を記憶部15に記憶させる。
 スコア算出部22は、検出部20によって検出された対象範囲に含まれる画素数に基づいたスコアを算出する。また、スコア算出部22は、検出部20によって検出された対象範囲に含まれる複数の画素に跨って設定された領域の面積に基づいたスコアを算出する。例えば、スコア算出部22は、撮像部13によって撮像された撮像画像の画素数に対する、検出部20によって検出された対象範囲に含まれる画素数の割合をスコアとして算出する。また、スコア算出部22は、算出したスコアに基づいて、使用者に対して撮像条件を変えるように促す情報を生成する。例えば、スコア算出部22は、算出したスコアが所定値以下の場合には、その撮像条件においては検出部20によって検出された対象範囲が狭いことを示す情報を表示部12に表示させる。これにより、使用者は、形状測定装置10の位置や方向を変更するなどによって撮影条件を変更して、より広い範囲の対象範囲によって測定対象Mの三次元形状を示す点群データを得ることができる。ここで、検出部20によって検出された対象範囲が狭いことを示す情報は、例えば文字による表示でもよい、矢印などの図形による表示であってもよい。このように、本実施形態の形状測定装置10によれば、効率的に形状測定作業を行うことができる。
 表示部12は、各種情報を表示するディスプレイである。本実施形態においては、表示部12は、検出部20で検出された対象範囲を、撮像部13で取得された撮像画像上に表示する。また、表示部12は、例えば点群算出部18により算出された測定対象Mの三次元形状を示す点群データ等を表示する。また、表示部12は、スコア算出部22によって算出されたスコアを表示する。また、表示部12は、スコア算出部22によって生成された、使用者に対して撮像条件を変えるように促す情報を表示する。
 次に、投光部14aの詳細な構成について図2を参照して説明する。
 図2は、投光部14aの構成を示す構成図である。
 例えば、投光部14aは、図2に示すように、光源1と、光源1からの光を光の照射方向に対して直交する方向に長手方向を有するライン状の強度分布となるように光強度分布を変換するコリーメートレンズ2及びシリンドリカルレンズ3を有する。また、ライン状の光強度分布となった光束を、ライン状の光強度分布を光束の長手方向に対して、垂直方向に光源1の光を測定対象Mに対して走査する走査ミラー4(MEMS(Micro Electro Mechanical Systems)ミラー)を備えている。
 また、光源1には、光源1から発する光強度を制御するための、光源制御部5が設けられており、光源制御部5によってレーザ光の強度を変調しながら、走査ミラーで逐次、レーザ光の偏向方向を変えることで、撮像部13で取得される画像は、測定対象Mにパターン光が形成されたときと同じ像が得られる。
 言い換えると、光源1から照射されるレーザ光を光軸方向と垂直方向のある一方向にライン状の光強度分布を有するように強度分布を整形させ、光軸方向及びライン状の光強度分布の長手方向の両方に垂直な方向に、ライン状の強度分布を有する光線(以下、ライン光と称する)の強度を変化させながら走査ミラーで偏向方向を変化させることで、光軸方向及びライン状の光強度分布の長手方向の両方に垂直な方向に周期的な強度変化をもつ縞状のパターン光を形成する。そして、走査ミラーの走査を複数回行うことでパターン光が重畳し、測定対象M上の位置に伴って周期的に光量が変化する光量分布が測定対象M上に形成される。つまり、走査ミラーの走査を複数回行うことで、パターン光の強度が積算されて測定対象M上に所定の光量分布が形成される。
 ここで、例えば、レーザ光の強度を変調させながら走査ミラーでレーザ光の偏向方向を変化させることで、正弦波状に強度変化させてパターン光を形成しても良い。正弦波状に強度変化させる場合、走査ミラーの走査を複数回繰り返すことで、測定対象M上の位置に伴って正弦波状に光量が変化する光量分布が形成される。
 つまり、測定対象Mの形状測定の際、測定光生成部14bにより投光部14aから測定光としてライン光が照射され、光源制御部5により測定光の強度が変調されつつ走査ミラーで偏向方向が変化させられることにより、測定対象M上にパターン光が形成される。そして、測定対象M上の所定領域において、走査ミラーによる走査を複数回繰り返すことにより、形成されたパターン光が重畳して所定の光量分布が形成される。
 また、パターン光に対して、例えば、走査ミラーの偏向方向に対して光源制御部5によるレーザ光の強度変調のタイミングを変化させることでパターン光のパターンの初期位相を変化させて複数の初期位相のパターン光を生成する。具体的には、パターン光が正弦波状の強度分布の場合、走査ミラーの偏向方向に対して光源制御部5によるレーザ光の強度変調のタイミングを変化させることで正弦波状に変化する強度の当該正弦波の初期位相をシフトさせて、複数の初期位相のパターン光を生成する。
 なお、ここでは測定対象M上に形成される光量分布は、正弦波状に光量が変化する分布として例示したが、正弦波状でなくても良い。例えば、三角波状や矩形波状などの周期的な光量変化の分布の他、ランダムな光量変化の分布であっても良い。
 また、ここではパターン光の強度分布が正弦波状である例を示したが、正弦波状でなくても、測定対象M上に形成する光量分布に合わせて三角波状や矩形波状などの強度分布のパターン光でも良いし、ランダムな強度分布のパターン光でも良い。
 なお、測定対象M上に形成される光量分布が所定の光量分布となれば、どのような強度分布のパターン光を測定対象M上に形成して光を重畳するようにしてもよく、例えば、走査ミラーによる走査毎に測定対象M上に形成されるパターン光の強度分布が異なっていてもよい。
 なお、ここでは走査ミラーを用いてライン光を走査することでパターン光を形成する例を示したが、液晶プロジェクタ等を適用してパターン光を投影することもできる。液晶プロジェクタを使用する場合、走査ミラーのような光の走査は行わずに一括でパターン光(つまり、測定光)を形成することができる。
 図3は、照射部14が初期位相を90度ずつシフトさせてパターン光を形成した測定対象Mの例を示す図である。ここでは、初期位相が0度であるパターンのパターン光Aと、パターン光Aのパターンから初期位相を90度シフトさせたパターンのパターン光Bと、パターン光Aのパターンから初期位相を180度シフトさせたパターンのパターン光Cと、パターン光Aのパターンから初期位相を270度シフトさせたパターンのパターン光Dとが示されている。また、ここでは、初期位相が0度であるパターンのパターン光Eと、パターン光Eのパターンから初期位相を90度シフトさせたパターンのパターン光Fと、パターン光Eのパターンから初期位相を180度シフトさせたパターンのパターン光Gと、パターン光Eのパターンから初期位相を270度シフトさせたパターン光Hとが示されている。例えば5バケット法の場合にはパターン光Aからパターン光Eまでの5枚の撮像画像が生成され、7バケット法の場合にはパターン光Aからパターン光Gまでの7枚の撮像画像が生成される。ここで、撮像順は必ずしもパターン光A、パターン光B、パターン光C、パターン光D、パターン光Eのような順でなくともよく、例えばパターン光A、パターン光E、パターン光B、パターン光C、パターン光Dの順に撮像することもできるが、本実施形態では、パターン光A、パターン光B、パターン光C、パターン光D、パターン光Eのように初期位相を順にシフトさせながら撮像処理を行うとする。すなわち、撮像部13は、初期位相が同一であるパターン光(例えば、パターン光A、パターン光E)が測定対象Mに形成された像を撮像する複数の撮像タイミング間に、他の初期位相のパターン光(例えば、パターン光B、パターン光C、パターン光D)が測定対象Mに形成された像を撮像することになる。
 次に、図4から図6を参照して、点群データの算出の一例を説明する。
 図4は、測定対象Mの形状の一例を示す図である。
 本実施形態の測定対象Mは、図4(a)に示す側面形状及び正面形状を有している。この測定対象Mは、図4(b)に示す形状を有している。本実施形態の形状測定装置10は、この図4に示す形状を有する測定対象Mの形状を測定する。
 図5は、図4に示した本実施形態の測定対象Mに、図3に示したパターン光が形成された場合の画像を示している。つまり、照射部14は、上述のように測定対象Mにパターン光が形成された画像として撮像されるように、撮像部13が撮像している方向と異なる方向の投影方向から測定対象M上に所定の光量分布が形成されるように光を測定光として照射する。具体的には、測定対象M上に形成される所定の光量分布は、測定対象M上の位置に伴って光量が周期的に変化する分布であり、例えば、測定対象M上の位置の変化に応じて照射された光量が正弦波状に変化する分布である。言い換えると、照明部14は、測定対象M上の位置に応じて相異なる光強度の光が照明されるように測定光を照射する。ここで、図5(a)は、パターン光Aまたはパターン光Eが測定対象Mに照射されている状態を示している。また、図5(b)は、パターン光Bまたはパターン光Fが測定対象Mに照射されている状態を示している。同様に、図5(c)は、パターン光Cまたはパターン光Gが測定対象Mに照射されている状態を示しており、図5(d)は、パターン光Dまたはパターン光Hが測定対象Mに照射されている状態を示している。本実施形態の形状測定装置10は、図5(a)~(d)に示す各パターン光が照射された測定対象Mを撮像する。
 このようにして、測定光は、測定対象Mにパターン光が形成された画像として撮像されるように照明される。
 図6は、点群データ算出結果を示す図である。
 本実施形態の形状測定装置10は、点群算出部18(点群データ算出部)が、図5(a)~(d)に示す各パターン光が照射された測定対象Mを撮像した撮像画像に基づいて、図6に示すように点群データを算出する。
 このように、点群算出部18は、点群データを算出して、算出した点群データに基づいた画像を表示部12に表示させる。ここで、図6において、測定光(パターン光)は紙面左側手前から紙面右側奥の方向、つまり、図6に示す矢印の方向に照射されている。この方向から測定光(パターン光)を照射することによって、測定対象Mによって測定光がさえぎられている部分は陰になっており、点群算出部18が点群データを算出することができない領域になる。また、図6において、ハッチングされた範囲は、点群算出部18が点群データを算出することができない範囲を示している。つまり、図6におけるハッチングされた範囲以外の範囲が、照射部14により測定光を照射して撮像部13で取得された撮像画像から求めることができる測定対象Mの形状測定の対象範囲である。
 次に、図7および図8を参照して、参照光生成部19と検出部20との構成を説明する。
 図7は、参照光が照射された測定対象Mを撮像した撮像画像を示す図である。
 上述したように、参照光生成部19は、参照光が、測定対象Mにパターン光が形成された画像として撮像されるように照明される測定光により測定対象4上に形成される光量分布における相異なる光量のうち、第1の光量と同じ光量になるように参照光を生成する。また、参照光生成部19は、参照光が、測定光により測定対象4上に形成される光量分布において、当該第1の光量とは異なる第2の光強度と同じ光強度になるように参照光を生成する。
 投光部14aは、参照光生成部19によって、第2の光量と同じ光量の参照光を測定対象Mに照射する(図7(a)を参照)。また、投光部14aは、参照光生成部19によって、第1の光量と同じ光量の参照光を測定対象Mに照射する(図7(b)を参照)。
 図8は、検出部20の検出結果を示す図である。
 上述したように、検出部20は、第1の光量と同じ光量の参照光が測定対象Mに照射されて撮像された第1の撮像画像と、第2の光量と同じ光量の参照光が測定対象Mに照射されて撮像された第2の撮像画像とに基づいて、対象範囲を検出する。例えば、検出部20は、図8においてハッチングされていない範囲を、撮像画像から求めることができる測定対象Mの形状測定の対象範囲として検出する。
 図8と、上述した図6とを比較すれば、この図8に示す検出結果は、図6に示す点群データ算出結果、つまり形状測定結果と一致していることがわかる。つまり、本実施形態の形状測定装置10は、点群データを算出する前に、点群データを算出することが可能な測定対象Mの形状測定の対象範囲を検出することができる。上述した図5に示したように、点群データを算出するためには、例えば4バケット法においては、パターン光A、パターン光B、パターン光C、パターン光Dの4種類のパターン光を測定対象Mに形成して、撮像した各パターン光に対応した撮像画像が必要になる。一方、本実施形態の形状測定装置10は、点群データを算出する前に、点群データを算出することが可能な測定対象Mの形状測定の対象範囲を検出することができるため、効率的に形状測定を行うことができる。
 次に、図9から図11を参照して、本実施形態による形状測定装置10の動作例を説明する。
 図9は、形状測定装置10が領域判定処理及び形状測定処理を行う動作例を説明するフローチャートである。
 操作入力部11にユーザから操作入力を受け付ける。例えば、操作入力部11は、レリーズ釦が半押し状態又は全押し状態にされた操作入力を受け付ける(ステップS10)。操作入力部11は、レリーズ釦が半押し状態にされた操作入力を受け付けると、領域判定処理を行わせるため、処理をステップS20に進める(ステップS10-YES)。一方、操作入力部11は、レリーズ釦が半押し状態にされた操作入力がないと判定した場合は、処理をステップS40に進める(ステップS10-NO)。
 検出部20は、ステップS20において、領域判定処理を行う。領域判定処理については、後述する。
 次に、操作入力部11は、レリーズ釦が半押し状態にされた操作入力が継続しているか否かを判定する(ステップS30)。レリーズ釦が半押し状態にされた操作入力が継続していると判定した場合には、操作入力部11は、処理をステップS20に戻して、領域判定処理を継続させる(ステップS30-YES)。つまり、操作入力部11は、参照光を照射することを指令する指令信号が使用者により入力され続けている間は、参照光生成部19に、繰り返し参照光を照射させ、検出部20に、参照光が照明された撮像画像が入力される毎に、対象範囲を検出させるため、領域判定処理を継続させる。一方、操作入力部11は、レリーズ釦が半押し状態にされた操作入力が継続していないと判定した場合には、処理をステップS40に進める(ステップS30-NO)。
 次に、操作入力部11は、レリーズ釦が全押し状態にされた操作入力を受け付けると、形状測定処理を行わせるため、処理をステップS50に進める(ステップS50-YES)。一方、操作入力部11は、レリーズ釦が全押し状態にされた操作入力がないと判定した場合は、処理を終了する(ステップS40-NO)。
 ステップS50において行われる、形状測定処理については後述する。検出部20は、ステップS50が終了した場合には、処理を終了する。
 次に、図10を参照して、本実施形態による形状測定装置10の動作例を説明する。
 図10は、形状測定装置10が領域判定処理を行う動作例を説明するフローチャートである。
 上述したように、形状測定装置10は、ステップS20において領域判定処理を行う。
 まず、参照光生成部19は、第1の光量と同じ光量になるように参照光を生成し、生成した参照光を投光部14aによって測定対象Mに照射する。次に、撮像部13は、参照光が照射された測定対象Mを撮像して第1の撮像画像を生成し、生成した第1の撮像画像を記憶部15に記憶させる(ステップS210)。ここで、第1の光量は、例えば、後述の形状測定処理で照射部14によって測定光を照射することにより測定対象M上に形成された、測定対象M上の位置に伴って正弦波状に光量が変化する光量分布における最大光量である。このような参照光が照射された測定対象Mの撮像画像(第1の撮像画像)は、図7(b)に示すように白っぽい画像(白画像)となる。
 次に、参照光生成部19は、第2の光量と同じ光量になるように参照光を生成し、生成した参照光を投光部14aによって測定対象Mに照射する。次に、撮像部13は、参照光が照射された測定対象Mを撮像して第2の撮像画像を生成し、生成した第2の撮像画像を記憶部15に記憶させる(ステップS220)。ここで、第2の光量は、例えば、後述の形状測定処理で照射部14によって測定光を照射することにより測定対象M上に形成された、測定対象M上の位置に伴って正弦波状に光量が変化する光量分布における最小光量である。このような参照光が照射された測定対象Mの撮像画像(第2の撮像画像)は、図7(a)に示すように黒っぽい画像(黒画像)となる。
 次に、検出部20は、記憶部15に記憶されている第1の撮像画像(すなわち、白画像)と第2の撮像画像(すなわち、黒画像)とを読み出し、読み出した撮像画像から各画素の信号強度(例えば、輝度値)を取得し、かつ複数の撮像画像間において画素ごとに、各画素間の信号強度の差分(例えば、輝度差)を算出する(ステップS230)。
 次に、検出部20は、操作入力部11から設定部21を介して、記憶部15に予め記憶されているしきい値を記憶部15から読み出す。そして検出部20は、読み出したしきい値とステップS230において算出した信号強度の差とを画素ごとに比較した結果に基づいて、判定画像を作成する(ステップS240)。ここで、判定画像は、上述した図8に示す画像である。本実施形態において、検出部20は、例えば、算出した信号強度の差が、読み出したしきい値以上であれば、形状測定することができる対象範囲であると判定する。一方、検出部20は、例えば、算出した信号強度の差が、読み出したしきい値未満であれば、形状測定することができる対象範囲でないと判定する。検出部20は、形状測定することができる対象範囲でないと判定した範囲に、例えばハッチングを施して判定画像を作成する(図8を参照)。
 次に、検出部20は、ステップS240において作成した判定画像を表示部12に表示させて処理を終了する(ステップS250)。
 このようにして、形状測定装置10は、形状測定することができる対象範囲と、形状測定することができない対象範囲とを判定した判定画像を表示部12に表示する。
 次に、図11を参照して形状測定装置10が形状測定処理を行う動作例を説明する。
 図11は、形状測定装置10が形状測定処理を行う動作例を説明するフローチャートである。
 撮像部13が測定対象Mの撮像処理を開始し、合わせて照射部14が測定対象Mへの測定光(パターン光)の投影処理を開始する(ステップS510)。ここで、照射部14は、測定対象M上の位置に伴って正弦波状に光量が変化する光量分布を測定対象M上に形成するように測定光の投影処理を行う。また、撮像部13は、例えば初期位相が0度、90度、180度、270度、360度のパターン光形成時に撮像した5枚の撮像画像を、記憶部15に記憶させる(ステップS520)。
 次に、点群算出部18は、記憶部15に記憶されている撮像画像に基づいて点群データを算出し、記憶部15に記憶させる(ステップS530)。そして、表示部12は、算出された点群データを表示して処理を終了する(ステップS540)。
 以上説明したように、本実施形態の形状測定装置10は、測定対象Mを撮像した撮像画像を生成する撮像部13を備えている。また、形状測定装置10は、撮像部13によって生成された撮像画像が、測定対象Mにパターン光が形成された画像として撮像されるように、撮像部13が撮像している方向と異なる方向の投影方向から、測定対象M上に所定の光量分布が形成されるように測定光(パターン光)を照射する照射部14を備えている。ここで、測定対象M上に形成される所定の光量分布は、例えば、測定対象M上の位置に伴って光量が周期的に変化する分布である。言い換えると、照射部14は、測定対象M上の位置に応じて相異なる光強度の光(すなわち、パターン光)が照明されるように測定光を照射する。また、形状測定装置10は、投影方向から測定対象Mに照射される参照光を生成する参照光生成部19と、参照光が測定対象Mに投影された際に撮像部13によって撮像された複数の撮像画像に基づいて、照射部14により測定光(パターン光)を照射して撮像部13で取得された撮像画像から求めることができる測定対象Mの形状測定の対象範囲を検出する検出部20を備えている。これにより、本実施形態の形状測定装置10は、撮像条件が測定対象Mや測定環境によって様々に変化して、測定対象M物の三次元データ(点群データ)を生成することができない範囲がある場合であっても、形状測定処理を行う前に予め三次元データ(点群データ)を生成することができない範囲を判定することができる。つまり、本実施形態の形状測定装置10は、形状測定処理に先立って領域判定処理を行うことができるため、効率的に形状測定作業を行うことができる。
 また、本実施形態の形状測定装置10の参照光生成部19は、形状測定処理で測定光(パターン光)の照射によって測定対象M上に形成された所定の光量分布における相異なる光量と同じ光量の参照光を生成するように投光部14aを制御する。これにより、本実施形態の形状測定装置10は、形状測定処理と領域判定処理との撮像条件を揃えることができるため、形状測定処理による三次元データを生成することができる範囲と、領域判定処理による三次元データを生成することができる範囲との一致度を高めることができ、効率的に形状測定作業を行うことができる。
 また、本実施形態の形状測定装置10は、検出部20で検出された対象範囲を、撮像部13で取得された撮像画像上に表示する表示部12を備えている。これにより、本実施形態の形状測定装置10は、使用者が領域判定処理の結果画像をすぐに確認することができるため、効率的に形状測定作業を行うことができる。
 また、本実施形態の形状測定装置10の検出部20は、参照光生成部19が設定する相異なる光量により参照光が測定対象Mに照明されるごとに撮像部13によって生成された複数の撮像画像から各画素の信号強度を取得し、かつ複数の撮像画像間において画素ごとに比較された信号強度の差に基づいて、対象範囲を検出する。これにより、本実施形態の形状測定装置10は、信号強度の差を演算すればよく、複雑な演算を行うことなく対象範囲を検出することができるため、演算に必要な時間と電力を低減することができる。
 なお、複数の撮像画像からの各画素の信号強度について比較するほかにも、複数の撮像画像の同一領域の信号強度の平均値を比較することでも良い。
 また、本実施形態の形状測定装置10は、しきい値が記憶されている記憶部15を備え、検出部20が撮像画像の各画素のうちの、信号強度の差あるいは信号強度がしきい値以上の画素を含む範囲を、対象範囲として検出する。これにより、本実施形態の形状測定装置10は、所定のしきい値と比較した信号強度の差を演算すればよく、複雑な演算を行うことなく対象範囲を検出することができるため、演算に必要な時間と電力を低減することができる。
 また、本実施形態の形状測定装置10は、しきい値を設定する設定部21を備えている。これにより本実施形態の形状測定装置10は、測定対象Mや測定環境などの違いにより生じる対象範囲の検出結果の差を少なくしてしきい値を設定することができる。つまり、形状測定装置10は、形状測定処理による三次元データを生成することができる範囲と、領域判定処理による三次元データを生成することができる範囲との一致度を高めることができ、効率的に形状測定作業を行うことができる。
 また、本実施形態の形状測定装置10は、検出部20によって検出された対象範囲に含まれる画素数に基づいたスコアを算出するスコア算出部22を備えている。これにより、本実施形態の形状測定装置10は、領域判定処理による三次元データを生成することができる範囲の判定結果の良否を数値化することができ、効率的に形状測定作業を行うことができる。
 また、本実施形態の形状測定装置10のスコア算出部22は、算出したスコアに基づいて、使用者に対して撮像条件を変えるように促す情報を生成する。
 ここでいう撮像条件とは次のようなものが、例示できる。シャッター速度(露出時間)、測定対象Mに対する本形状測定装置の姿勢、撮像部の結像光学系のFナンバー、照射部14によるパターン光の像の強度などである。例えば、測定対象が鏡面や光沢面、艶面である場合、測定光により測定対象M上に形成される所定の光量分布における第1の光量(例えば、光量分布における最大光量)の照明時と第2の光量(例えば、光量分布における最小光量)の照明時とで、信号強度の差が生じにくくなる。このような場合は、形状測定装置10の姿勢を変えることで、三次元データを生成することができる範囲を拡大することが可能になる。また、同様に露出時間やパターン光の像の強度を変えることでも、範囲を拡大することができる。これにより、本実施形態の形状測定装置10は、判定結果の画像や数値によらずに、領域判定処理による三次元データを生成することができる範囲の判定結果の良否を使用者に通知することができる。したがって、本実施形態の形状測定装置10によれば、効率的に形状測定作業を行うことができる。
 また、本実施形態の形状測定装置10の検出部20は、測定対象M上に形成される所定の光量分布における相異なる光量のうち第1の光量と同じ光量の参照光が測定対象Mに照射されて撮像された第1の撮像画像と、相異なる光量のうち第1の光量とは異なる第2の光量と同じ光量の参照光が測定対象Mに照射されて撮像された第2の撮像画像とに基づいて、対象範囲を検出する。これにより、本実施形態の形状測定装置10は、2枚の撮像画像によって対象範囲を検出することができるため、3枚以上の撮像画像によって対象範囲を検出する場合に比べ、撮像に要する時間を低減することができるため、効率的に形状測定作業を行うことができる。
 また、本実施形態の形状測定装置10の検出部20は、第1の光量は、測定光によって測定対象上に形成される所定の項量分布における最大光量に対応し、第2の光量は、最小光量に対応する参照光に基づいて、対象範囲を検出する。これにより、本実施形態の形状測定装置10は、2枚の撮像画像の各画素間の信号強度の差を大きくすることができ、領域判定処理のしきい値を設定し易くできるため、効率的に形状測定作業を行うことができる。
 また、本実施形態の形状測定装置10の検出部20は、測定光の照射範囲(パターン光の形成領域)と一致するように照射される参照光によって、対象範囲を検出する。これにより、本実施形態の形状測定装置10は、形状測定処理と領域判定処理との撮像条件を揃えることができるため、形状測定処理による三次元データを生成することができる範囲と、領域判定処理による三次元データを生成することができる範囲との一致度を高めることができ、効率的に形状測定作業を行うことができる。
 また、本実施形態の形状測定装置10の参照光生成部19は、照射部14の投光部14aにより参照光を照射するように、投光部14aを制御する。これにより、本実施形態の形状測定装置10は、参照光を照射するための照射部を別途備える必要がないため、形状測定装置10を小型化及び軽量化することができる。
 なお、本実施形態の形状測定装置では、参照光生成部19と測定光生成部14bとを別手段で記載しているが、実際は同一制御回路にて、両手段を達成しても良い。
 また、本実施形態の形状測定装置10は、撮像部13から初期位相が異なる複数のパターン光が形成されたように撮像された測定対象Mの撮像画像を基に、測定対象Mの形状を算出し、測定対象Mの各位置の座標値を有する点群データを算出する点群算出部18(点群データ算出部)を有している。これにより、本実施形態の形状測定装置10は、領域判定処理と形状測定処理とを1台の形状測定装置10によって行うことができるため、効率的に形状測定作業を行うことができる。
 また、本実施形態の形状測定装置10は、点群算出部18(点群データ算出部)で点群データを算出することを指令する指令信号が使用者により入力される前までは、参照光生成部19では、繰り返し参照光を照射し、検出部20は、参照光が照明された撮像画像が入力される毎に、対象範囲を検出する。これにより、本実施形態の形状測定装置10は、使用者の操作により領域判定処理を繰り返し行うことができるため、好ましい撮像条件が得られるまで、領域判定処理の結果を確認しながら、撮像条件を変更することができる。したがって、本実施形態の形状測定装置10によれば、効率的に形状測定作業を行うことができる。
 なお、本実施形態の形状測定装置10の検出部20は、参照光が測定対象Mに照射されて撮像された撮像画像のコントラストに基づいて、対象範囲を検出してもよい。ここで、撮像画像のコントラストとは、撮像画像が有する各画素のうち、近傍の画素間の信号強度の差である。本実施形態の形状測定装置10は、例えば、測定対象Mが平面に近い場合には、1枚の撮像画像のコントラストを検出して、対象範囲を検出してもよい。これにより、本実施形態の形状測定装置10は、1枚の撮像画像によって対象範囲を検出することができるため、2枚以上の撮像画像によって対象範囲を検出する場合に比べ、撮像に要する時間を低減することができるため、効率的に形状測定作業を行うことができる。
 なお、本実施形態の形状測定装置10の検出部20は、測定光の照射範囲(パターン光の形成範囲)に比べて狭い照射範囲に照射される参照光によって、対象範囲を検出してもよい。これにより、本実施形態の形状測定装置10は、領域判定処理の対象になる画素数が少ないため、領域判定処理に要する時間を低減することができる。したがって、本実施形態の形状測定装置10によれば、効率的に形状測定作業を行うことができる。
 なお、上述の図10のステップS230~S250のように、本実施形態の形状測定装置10の検出部20は、第1の光量(例えば、測定光により測定対象M上に形成された所定の光量分布における最大光量)と第2の光量(例えば、所定の光量分布における最小光量)の参照光を測定対象Mに投影して得られた撮像画像間において対応する所定画素の信号強度の差に基づいて、測定対象Mの形状測定の対象範囲を判定するが、参照光に2種類の光量を使用しなくてもよい。例えば、参照光に3種類以上の光量を使用しても良いし、1種類の光量を使用しても良い。
 参照光に1種類の光量を使用する場合、例えば、1種類の光量の参照光を測定対象Mに投影して撮像部13により撮像された画像に基づいて、測定対象Mの形状測定の対象範囲を判定する。この場合、参照光の光量は例えば、測定光により測定対象M上に形成された所定の光量分布における最大光量でも良いし、最小光量でも良い。
 参照光の光量を最大光量にする場合、参照光を投影した投影像の画像における所定画素の信号強度の大小関係に基づいて測定対象Mの形状測定の対象範囲を判定する。大小関係とは、例えば、参照光を投影した投影像の画像における所定画素の信号強度と記憶部15から読み出したしきい値とを比較することである。この比較に基づいて測定対象Mの形状測定の対象範囲を判定する。このとき、記憶部15に記憶されるしきい値は、例えば、撮像部13が飽和する(検出できる最大の光量に対する)信号強度である。一方、参照光の光量を最小光量にする場合も同様に測定対象Mの形状測定の対象範囲を判定する。このとき、記憶部15に記憶されるしきい値は、例えば、撮像部13が検出できる最小光量に対する信号強度である。
 なお、上述のしきい値は任意に設定してもよく、形状測定装置10の出荷時に適当な値に設定してもよいし、ユーザーが任意の値を入力して設定するようにしてもよい。このように1種類の光量の参照光を使用することにより、相異なる複数種類の光量を使用するより短時間で領域判定処理を行うことができるため、効率的に形状測定作業を行うことができる。
[第2の実施形態]
 次に、図12を参照して、本発明の第2の実施形態を説明する。なお、第1の実施形態において説明した構成及び動作と同一の構成及び動作は、説明を省略する。
 図12は、本発明の第2の実施形態に係る一例としての形状測定装置10の構成を示す図である。
 本実施形態の形状測定装置10は、対象範囲を、確度に対応する表示状態によって表示する第2表示部23を備えている。
 検出部20は、信号強度の差に基づいて、形状測定結果の確からしさを示す確度を撮像画像の画素ごとに検出し、対象範囲として、測定条件毎に分別するように制御する。例えば、検出部20は、信号強度の差に基づいて、形状測定結果の確からしさを示す確度に対応させて、明度や色相を変えることによって第2表示部23に測定条件毎に表示させる。ここで、形状測定結果の確からしさを示す確度は、信号強度の差が大きいほど確度が大きく、信号強度の差が小さいほど確度が小さくなるように対応付けられた値である。これにより、第2表示部23に表示される対象範囲を示す画像などの情報は、上述した第1の実施形態で説明したようにハッチングの有無などの2値ではなく、明度や色相などの多値によって第2表示部23に表示される。したがって、対象範囲の判定結果の情報が多くなり、使用者に撮像状況を正確に伝達することができる。つまり、本実施形態の形状測定装置10によれば、効率的に形状測定作業を行うことができる。
 なお、本実施形態の形状測定装置10の検出部20は、参照光が測定対象Mに照射されて撮像された撮像画像のコントラストに基づいて、対象範囲を検出してもよい。ここで、撮像画像のコントラストとは、撮像画像が有する各画素のうち、近傍の画素間の信号強度の差である。本実施形態の形状測定装置10は、例えば、測定対象Mが平面に近い場合には、1枚の撮像画像のコントラストを検出して、対象範囲を検出してもよい。これにより、本実施形態の形状測定装置10は、1枚の撮像画像によって対象範囲を検出することができるため、2枚以上の撮像画像によって対象範囲を検出する場合に比べ、撮像に要する時間を低減することができるため、効率的に形状測定作業を行うことができる。
 なお、本実施形態の形状測定装置10の検出部20は、測定光(パターン光)の照射範囲に比べて狭い照射範囲に照射される参照光によって、対象範囲を検出してもよい。これにより、本実施形態の形状測定装置10は、領域判定処理の対象になる画素数が少ないため、領域判定処理に要する時間を低減することができる。したがって、本実施形態の形状測定装置10によれば、効率的に形状測定作業を行うことができる。
[第3の実施形態]
 次に、本発明の第3の実施形態を説明する。なお、第1の実施形態及び第2の実施形態において説明した構成及び動作と同一の構成及び動作は、説明を省略する。
 本実施形態の形状測定装置10が備える参照光生成部19は、測定光(パターン光)により測定対象M上に形成される所定の光量分布と同じ光量分布が測定対象M上に形成されるように参照光を生成する。このとき、測定光により測定対象M上に形成されるパターン光と同様の強度分布の光を参照光として測定対象Mに照射しても良いし、異なる強度分布の光を参照光としても良い。一方、検出部20は、参照光が投射されたときの撮像画像を取得して、撮像画像によって、対象範囲を検出する。例えば、参照光生成部19は、第1の実施形態において説明した図7(a)、(b)に示す参照光に代えて、図5(a)~(d)に示すパターン光が形成された画像として撮像されるように投影された参照光を生成する。これにより、本実施形態の形状測定装置10は、形状測定処理による三次元データを生成することができる範囲と、領域判定処理による三次元データを生成することができる範囲との一致度を高めることができ、効率的に形状測定作業を行うことができる。
 なお、本実施形態の参照光生成部19は、測定対象Mに初期位相の異なる複数のパターンのパターン光が形成された複数の画像として撮像部13により撮像されるように照射部14と撮像部13を制御してもよい。また、本実施形態の検出部20は、撮像部13で測定対象M上に各初期位相のパターンのパターン光が形成されたように撮像された複数の撮像画像の各画素の信号強度を、複数の撮像画像間の対応する画素ごとに積算した積算量に基づいて、対象範囲を検出してもよい。
 これにより、本実施形態の形状測定装置10は、形状測定処理によって三次元データを生成するさいに必要となる演算にくらべて演算量の少ない積算値によって対象範囲を検出することができる。つまり、本実施形態の形状測定装置10は、形状測定処理による三次元データを生成することができる範囲と、領域判定処理による三次元データを生成することができる範囲との一致度を高めることができ、効率的に形状測定作業を行うことができる。また、本実施形態の形状測定装置10は、複雑な演算を行うことなく対象範囲を検出することができるため、演算に必要な時間と電力を低減することができる。
 なお、本実施形態の形状測定装置10の検出部20は、参照光が測定対象Mに照射されて撮像された撮像画像のコントラストに基づいて、対象範囲を検出してもよい。ここで、撮像画像のコントラストとは、撮像画像が有する各画素のうち、近傍の画素間の信号強度の差である。本実施形態の形状測定装置10は、例えば、測定対象Mが平面に近い場合には、1枚の撮像画像のコントラストを検出して、対象範囲を検出してもよい。これにより、本実施形態の形状測定装置10は、1枚の撮像画像によって対象範囲を検出することができるため、2枚以上の撮像画像によって対象範囲を検出する場合に比べ、撮像に要する時間を低減することができるため、効率的に形状測定作業を行うことができる。
 なお、本実施形態の形状測定装置10の検出部20は、測定光(パターン光)の照射範囲に比べて狭い照射範囲に照射される参照光によって、対象範囲を検出してもよい。これにより、本実施形態の形状測定装置10は、領域判定処理の対象になる画素数が少ないため、領域判定処理に要する時間を低減することができる。したがって、本実施形態の形状測定装置10によれば、効率的に形状測定作業を行うことができる。
[第4の実施形態]
 次に、図13を参照して、本発明の第4の実施形態を説明する。なお、第1の実施形態から第3の実施形態において説明した構成及び動作と同一の構成及び動作は、説明を省略する。
 図13は、本発明の第4の実施形態に係る一例としての形状測定装置10の構成を示す図である。
 本実施形態の形状測定装置10は、参照光生成部19の制御により参照光を測定対象Mに照射する参照光照射部24を備えている。これにより、本実施形態の形状測定装置10は、参照光の照射に適した参照光専用の照射部によって参照光を照射することができる。つまり、形状測定装置10は、形状測定処理による三次元データを生成することができる範囲と、領域判定処理による三次元データを生成することができる範囲との一致度を高めることができる参照光を照射することができる。したがって、本実施形態の形状測定装置10によれば、効率的に形状測定作業を行うことができる。
[第5の実施形態]
 次に、図14を参照して、本発明の第5の実施形態を説明する。なお、第1の実施形態から第4の実施形態において説明した構成及び動作と同一の構成及び動作は、説明を省略する。
 図14は、本発明の第5の実施形態に係る一例としての形状測定装置10の構成を示す図である。
 本実施形態の形状測定装置10は、照射部14の姿勢を検出する検出センサー25を備えている。
 検出センサー25は、例えば角速度センサーであり、形状測定装置10の姿勢(位置)の変化を検出する。
 参照光生成部19は、検出部20によって検出された検出センサー25の出力信号が変わる毎に、繰り返して参照光を照射する。
 検出部20は、参照光が照明された撮像画像が入力される毎に、領域判定処理によって対象範囲を検出する。
 これにより、本実施形態の形状測定装置10は、例えば、使用者が撮像条件を変化させて好ましい領域判定結果を得るために、形状測定装置10の姿勢(位置)を移動させた場合に、使用者が操作することなく領域判定処理を行うことができる。したがって、本実施形態の形状測定装置10によれば、効率的に形状測定作業を行うことができる。
[第6の実施形態]
 次に、本実施形態の形状測定装置10を用いた構造物製造システム、及び構造物製造方法について説明する。
 図15は、本実施形態の構造物製造システム100の構成を示す図である。本実施形態の構造物製造システム100は、上記の実施形態において説明したような形状測定装置10と、設計装置60と、成形装置30と、制御装置(検査装置)40と、リペア装置50とを備える。制御装置40は、座標記憶部41及び検査部42を備える。
 設計装置60は、構造物の形状に関する設計情報を作製し、作製した設計情報を成形装置30に送信する。また、設計装置60は、作製した設計情報を制御装置40の座標記憶部41に記憶させる。設計情報は、構造物の各位置の座標を示す情報を含む。
 成形装置30は、設計装置60から入力された設計情報に基づいて、上記の構造物を作製する。成形装置30の成形は、例えば鋳造、鍛造、切削等が含まれる。形状測定装置10は、作製された構造物(測定対象物)の座標を測定し、測定した座標を示す情報(形状情報)を制御装置40へ送信する。なお、ここで言う構造物は、形状測定装置10の測定対象となる。
 制御装置40の座標記憶部41は、設計情報を記憶する。制御装置40の検査部42は、座標記憶部41から設計情報を読み出す。検査部42は、形状測定装置10から受信した座標を示す情報(形状情報)と、座標記憶部41から読み出した設計情報とを比較する。検査部42は、比較結果に基づき、構造物が設計情報通りに成形されたか否かを判定する。換言すれば、検査部42は、作製された構造物が良品であるか否かを判定する。検査部42は、構造物が設計情報通りに成形されていない場合に、構造物が修復可能であるか否か判定する。検査部42は、構造物が修復できる場合、比較結果に基づいて不良部位と修復量を算出し、リペア装置50に不良部位を示す情報と修復量を示す情報とを送信する。
 リペア装置50は、制御装置40から受信した不良部位を示す情報と修復量を示す情報とに基づき、構造物の不良部位を加工する。
 図16は、本実施形態の構造物製造方法を示すフローチャートである。本実施形態において、図16に示す構造物製造方法の各処理は、構造物製造システム100の各部によって実行される。
 構造物製造システム100は、まず、設計装置60が構造物の形状に関する設計情報を作製する(ステップS31)。次に、成形装置30は、設計情報に基づいて上記構造物を作製する(ステップS32)。次に、形状測定装置10は、作製された上記構造物の形状を測定する(ステップS33)。次に、制御装置40の検査部42は、形状測定装置10で得られた形状情報と上記の設計情報とを比較することにより、構造物が設計情報通りに作製されたか否か検査する(ステップS34)。
 次に、制御装置40の検査部42は、作製された構造物が良品であるか否かを判定する(ステップS35)。構造物製造システム100は、作製された構造物が良品であると検査部42が判定した場合(ステップS35:YES)、その処理を終了する。また、検査部42は、作製された構造物が良品でないと判定した場合(ステップS35:NO)、作製された構造物が修復できるか否か判定する(ステップS36)。
 構造物製造システム100は、作製された構造物が修復できると検査部42が判定した場合(ステップS36:YES)、リペア装置50が構造物の再加工を実施し(ステップS37)、ステップS33の処理に戻る。構造物製造システム100は、作製された構造物が修復できないと検査部42が判定した場合(ステップS36:NO)、その処理を終了する。
 本実施形態の構造物製造システム100は、上記の実施形態における形状測定装置10が構造物の座標を正確に測定することができるので、作製された構造物が良品であるか否か判定することができる。また、構造物製造システム100は、構造物が良品でない場合、構造物の再加工を実施し、修復することができる。
 なお、本実施形態におけるリペア装置50が実行するリペア工程は、成形装置30が成形工程を再実行する工程に置き換えられてもよい。その際には、制御装置40の検査部42が修復できると判定した場合、成形装置30は、成形工程(鍛造、切削等)を再実行する。具体的には、例えば、成形装置30は、構造物において本来切削されるべき箇所であって切削されていない箇所を切削する。これにより、構造物製造システム100は、構造物を正確に作製することができる。
 以上、本発明の実施形態を図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、本発明の趣旨を逸脱しない範囲で適宜変更を加えることができる。
 なお、上記の各実施形態における形状測定装置10、制御装置40、成形装置30、リペア装置50又は設計装置60(以下、これらを総称して制御部CONTと記載する)、又はこの制御部CONTが備える各部は、専用のハードウェアにより実現されるものであってもよく、また、メモリおよびマイクロプロセッサにより実現させるものであってもよい。
 なお、この制御部CONT又はこの制御部CONTが備える各部は、専用のハードウェアにより実現されるものであってもよく、また、この制御部CONT又はこの制御部CONTが備える各部はメモリおよびCPU(中央演算装置)により構成され、制御部CONT、又はこの制御部CONTが備える各部の機能を実現するためのプログラムをメモリにロードして実行することによりその機能を実現させるものであってもよい。
 また、制御部CONT、又はこの制御部CONTが備える各部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、制御部CONT、又はこの制御部CONTが備える各部による処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。
 また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
 また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD-ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
 1…光源、2、3…レンズ、4…走査ミラー、10…形状測定装置、12…表示部、13…撮像部、14…照射部、15…記憶部、17…判定部、18…点群算出部(点群データ算出部)、19…参照光生成部、20…検出部、21…設定部、22…スコア算出部、23…第2表示部、24…参照光照射部、25…検出センサー、30…成形装置、40…制御装置(検査装置)、42…検査部、60…設計装置

Claims (33)

  1.  測定対象を撮像する撮像部と、
     前記撮像部が撮像している方向と異なる方向の投影方向から、前記測定対象上に所定の光量分布が形成されるように測定光を照射する照射部と、
     前記測定対象に照射される参照光を生成する参照光生成部と、
     前記参照光が前記測定対象に投影された際に前記撮像部によって撮像された撮像画像に基づいて、前記測定対象の形状測定の対象範囲を検出する検出部と
     を備えることを特徴とする形状測定装置。
  2.  前記所定の光量分布は、前記測定対象上の位置に伴って光量が周期的に変化する分布であることを特徴とする請求項1に記載の形状測定装置。
  3.  前記参照光は、前記投影方向から前記測定対象に照射される
     ことを特徴とする請求項1または請求項2に記載の形状測定装置。
  4.  前記検出部は、前記形状測定の対象範囲を検出する際に、前記参照光が前記測定対象に投影された際に前記撮像部によって撮像された撮像画像を用いる
     ことを特徴とする請求項3に記載の形状測定装置。
  5.  前記参照光生成部は、前記光量分布における光量と同じ光量の参照光を生成することを特徴とする請求項1から請求項4に記載の形状測定装置。
  6.  前記参照光の光量は、前記光量分布における最大光量もしくは最小光量と同じ光量であることを特徴とする請求項5に記載の形状測定装置。
  7.  前記検出部は、前記参照光が前記測定対象に照明されて前記撮像部によって生成された前記撮像画像における所定画素の信号強度の大小関係に基づいて前記対象範囲を検出することを特徴とする請求項1から請求項5のいずれか一項に記載の形状測定装置。
  8.  前記参照光生成部は、前記光量分布における相異なる光量と同じ光量の参照光を前記測定対象に照射するように参照光を生成することを特徴とする請求項1から請求項5のいずれか一項に記載の形状測定装置。
  9.  前記検出部で検出された前記対象範囲を、前記撮像部で取得された前記撮像画像上に表示する表示部を備える
     ことを特徴とする請求項1から請求項8のいずれか一項に記載の形状測定装置。
  10.  前記検出部は、
     前記参照光生成部が設定する相異なる光量のうち、各々の光量で前記参照光が測定対象に照明されるごとに前記撮像部によって生成された複数の前記撮像画像から所定画素の信号強度を取得し、かつ複数の前記撮像画像間において対応する画素ごとに比較された信号強度の大小関係に基づいて、前記対象範囲を検出する
     ことを特徴とする請求項1から請求項9のいずれか一項に記載の形状測定装置。
  11.  前記検出部は、
     前記信号強度に基づいて、形状測定結果の確からしさを示す確度を前記撮像画像の画素ごとに検出し、前記対象範囲として、測定条件毎に分別するように制御する
     ことを特徴とする請求項7または請求項10に記載の形状測定装置。
  12.  前記対象範囲を、前記確度に対応する表示状態によって表示する第2表示部を備える
     ことを特徴とする請求項11に記載の形状測定装置。
  13.  しきい値が記憶されている記憶部を備え、
     前記検出部は、
     前記撮像画像の所定画素のうちの、前記信号強度が前記しきい値以上の画素を含む範囲を、前記対象範囲として検出する
     ことを特徴とする請求項7または請求項10~請求項12のいずれか一項に記載の形状測定装置。
  14.  前記しきい値を設定する設定部を備える
     ことを特徴とする請求項13に記載の形状測定装置。
  15.  前記検出部によって検出された前記対象範囲に含まれる画素数または複数の画素に跨って設定された領域の面積に基づいたスコアを算出するスコア算出部を備える
     ことを特徴とする請求項1から請求項14のいずれか一項に記載の形状測定装置。
  16.  前記スコア算出部は、
     算出した前記スコアに基づいて、使用者に対して撮像条件を変えるように促す情報を生成する
     ことを特徴とする請求項15に記載の形状測定装置。
  17.  前記検出部は、
    前記光量分布における相異なる光量のうち第1の光量と同じ光量の前記参照光が前記測定対象に照射されて撮像された第1の撮像画像と、
     前記光量分布における相異なる光量のうち前記第1の光量とは異なる第2の光量と同じ光量の前記参照光が前記測定対象に照射されて撮像された第2の撮像画像とに基づいて、前記対象範囲を検出する
     ことを特徴とする請求項1から請求項16のいずれか一項に記載の形状測定装置。
  18.  前記検出部は、
     前記第1の光量は、前記光量分布における相異なる光量のうち最大光量に対応し、前記第2の光量は、前記光量分布における相異なる光量のうち最小光量に対応することを特徴とする請求項17に記載の形状測定装置。
  19.  前記参照光生成部は、前記測定光によって前記測定対象上に形成される前記光量分布と同じ光量分布が前記測定対象上に形成されるように前記参照光が照射されるよう前記照射部を制御し、前記検出部は、
     前記参照光が投射されたときの撮像画像を取得して、前記撮像画像によって、前記対象範囲を検出する
     ことを特徴とする請求項1から請求項18のいずれか一項に記載の形状測定装置。
  20.  前記参照光生成部は、前記測定対象に所定の強度分布のパターン光を形成させて、かつ該パターン光のパターンの初期位相を変化させるように前記照射部を制御し、
     前記検出部は、前記測定対象に初期位相の異なる複数のパターン光がそれぞれ形成されて前記撮像部で撮像された複数の撮像画像における所定画素の信号強度を、複数の前記撮像画像間の対応する画素ごとに積算した積算量に基づいて前記対象範囲を検出する
     ことを特徴とする請求項19に記載の形状測定装置。
  21.  前記検出部は、
     前記参照光が前記測定対象に照射されて撮像された前記撮像画像のコントラストに基づいて、前記対象範囲を検出する
     ことを特徴とする請求項1から請求項20のいずれか一項に記載の形状測定装置。
  22.  前記検出部は、
     前記測定光の照射範囲と一致するように照射される参照光によって、前記対象範囲を検出する
     ことを特徴とする請求項1から請求項21のいずれか一項に記載の形状測定装置。
  23.  前記検出部は、
     前記測定光の照射範囲に比べて狭い照射範囲に照射される参照光によって、前記対象範囲を検出する
     ことを特徴とする請求項1から請求項21のいずれか一項に記載の形状測定装置。
  24.  前記参照光生成部は、前記照射部により
     前記参照光を照射するように、前記照射部を制御する
     ことを特徴とする請求項1から請求項23のいずれか一項に記載の形状測定装置。
  25.  前記参照光を照射する参照光照射部を備え、
    前記参照光生成部の制御により前記参照光照射部から前記参照光が前記測定対象に照射される
     ことを特徴とする請求項1から請求項24のいずれか一項に記載の形状測定装置。
  26.  更に、前記撮像部から初期位相が異なる複数のパターンが形成されたように撮像された前記測定対象の撮像画像を基に、前記測定対象の形状を算出し、測定対象の各位置の座標値を有する点群データを算出する点群データ算出部を有する
     ことを特徴とする請求項1から請求項25のいずれか一項に記載の形状測定装置。
  27.  前記点群データ算出部で点群データを算出することを指令する指令信号が使用者により入力される前までは、
     前記参照光生成部では、繰り返し参照光を照射し、
     前記検出部は、前記参照光が照明された撮像画像が入力される毎に、前記対象範囲を検出する
     ことを特徴とする請求項26に記載の形状測定装置。
  28.  前記参照光を照射することを指令する指令信号が使用者により入力され続けている間は、
     前記参照光生成部では、繰り返し参照光を照射し、
    前記検出部は、前記参照光が照明された撮像画像が入力される毎に、前記対象範囲を検出する
     ことを特徴とする請求項1から請求項27のいずれか一項に記載の形状測定装置。
  29.  更に、前記照射部の姿勢を検出する検出センサーを備え、
     前記検出センサーから出力信号が変わる毎に、
     前記参照光生成部では、繰り返し参照光を照射し、
     前記検出部は、前記参照光が照明された撮像画像が入力される毎に、前記対象範囲を検出する
     ことを特徴とする請求項1から請求項28のいずれか一項に記載の形状測定装置。
  30.  構造物の形状に関する設計情報を作製する設計装置と、
     前記設計情報に基づいて前記構造物を作製する成形装置と、
     作製された前記構造物の形状を、撮像画像に基づいて測定する請求項1から請求項29のいずれか一項に記載の形状測定装置と、
     前記測定によって得られた形状情報と、前記設計情報とを比較する検査装置と、
     を含む構造物製造システム
  31.  測定対象を撮像した撮像画像を生成する撮像部と、前記撮像部が撮像している方向と異なる方向から、前記測定対象上の位置に伴って光量が周期的に変化する光量分布が前記測定対象上に形成されるように測定光を照射する照射部とを備える形状測定装置が、
     前記光量分布における相異なる光量のうち、各々の光量で前記測定対象に前記方向から照射されるごとに前記撮像部により生成された複数の撮像画像に基づいて、当該撮像画像が生成される期間に前記測定対象の三次元形状を示す点群データを生成した場合に、前記点群データを生成することができる範囲を検出する検出ステップ
     を有することを特徴とする形状測定方法。
  32.  構造物の形状に関する設計情報を作製することと、
     前記設計情報に基づいて前記構造物を作製することと、
     作製された前記構造物の形状を、請求項29に記載の形状測定方法を用いて生成した撮像画像に基づいて測定することと、
     前記測定によって得られた形状情報と、前記設計情報とを比較すること
     を含む構造物製造方法。
  33.  測定対象を撮像した撮像画像を生成する撮像部と、前記撮像部が撮像している方向と異なる方向から、前記測定対象上の位置に伴って光量が周期的に変化する光量分布が前記測定対象上に形成されるように測定光を照射する照射部とを備える形状測定装置のコンピュータに、
     前記光量分布における相異なる光量のうち、各々の光量で前記測定対象に前記方向から照射されるごとに、前記撮像部により生成された複数の撮像画像に基づいて、当該撮像画像が生成される期間に前記測定対象の三次元形状を示す点群データを生成した場合に、前記点群データを生成することができる範囲を検出する検出ステップ
     を実行させる形状測定プログラム。
PCT/JP2012/076219 2011-10-11 2012-10-10 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム WO2013054814A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013538555A JP5994787B2 (ja) 2011-10-11 2012-10-10 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム
CN201280049826.6A CN103857981B (zh) 2011-10-11 2012-10-10 形状测定装置、构造物制造系统、形状测定方法、构造物制造方法
EP12840154.4A EP2770295B1 (en) 2011-10-11 2012-10-10 Shape-measuring device, system for manufacturing structures, shape-measuring method, method for manufacturing structures, shape-measuring program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011223956 2011-10-11
JP2011-223956 2011-10-11

Publications (1)

Publication Number Publication Date
WO2013054814A1 true WO2013054814A1 (ja) 2013-04-18

Family

ID=48081869

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/076219 WO2013054814A1 (ja) 2011-10-11 2012-10-10 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム

Country Status (6)

Country Link
US (1) US9891043B2 (ja)
EP (1) EP2770295B1 (ja)
JP (1) JP5994787B2 (ja)
CN (1) CN103857981B (ja)
TW (1) TW201337212A (ja)
WO (1) WO2013054814A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015528137A (ja) * 2013-06-28 2015-09-24 インテル コーポレイション Mems走査ミラーでの光パターン生成
US9467680B2 (en) 2013-12-12 2016-10-11 Intel Corporation Calibration of a three-dimensional acquisition system
US10609359B2 (en) 2016-06-22 2020-03-31 Intel Corporation Depth image provision apparatus and method
US10659764B2 (en) 2016-06-20 2020-05-19 Intel Corporation Depth image provision apparatus and method
CN112384751A (zh) * 2018-07-10 2021-02-19 希罗纳牙科系统有限公司 光学测量方法及光学测量装置

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9146096B2 (en) * 2012-03-06 2015-09-29 Nikon Corporation Form measuring apparatus, structure manufacturing system, scanning apparatus, method for measuring form, method for manufacturing structure, and non-transitory computer readable medium storing program for measuring form
JP6126640B2 (ja) * 2015-05-11 2017-05-10 Ckd株式会社 三次元計測装置及び三次元計測方法
JP6630137B2 (ja) * 2015-11-30 2020-01-15 理想科学工業株式会社 画像読取り装置
JP6027220B1 (ja) * 2015-12-22 2016-11-16 Ckd株式会社 三次元計測装置
EP3438546B1 (en) * 2016-03-29 2019-11-20 Panasonic Intellectual Property Management Co., Ltd. Heating cooking device
JP6353573B1 (ja) * 2017-03-02 2018-07-04 Ckd株式会社 三次元計測装置
JP7210872B2 (ja) 2017-07-19 2023-01-24 富士フイルムビジネスイノベーション株式会社 画像処理装置及び画像処理プログラム
JP7193308B2 (ja) * 2018-11-09 2022-12-20 株式会社キーエンス プロファイル測定装置

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05322559A (ja) * 1992-05-26 1993-12-07 Matsushita Electric Works Ltd 光学式変位センサ
JP2004170509A (ja) * 2002-11-18 2004-06-17 Keyence Corp 測定反復モードを有する共焦点顕微鏡システム
JP2006064453A (ja) * 2004-08-25 2006-03-09 Fuji Xerox Co Ltd 3次元形状入力装置および方法
JP2007003285A (ja) * 2005-06-22 2007-01-11 Konica Minolta Sensing Inc 3次元測定システム
JP2007304062A (ja) * 2006-05-15 2007-11-22 Nikon Corp 表面検査装置
JP2007333462A (ja) * 2006-06-13 2007-12-27 Yokohama Rubber Co Ltd:The タイヤ型部材検査方法、タイヤ型部材検査装置、および型部材作製工程精度検査方法
JP2009008502A (ja) * 2007-06-27 2009-01-15 Omron Corp 表面状態検査のための情報登録方法および表面状態検査装置
JP2009180689A (ja) 2008-02-01 2009-08-13 Nikon Corp 三次元形状測定装置
JP2010048604A (ja) * 2008-08-20 2010-03-04 Dainippon Screen Mfg Co Ltd 膜厚測定装置および膜厚測定方法
JP2011133306A (ja) * 2009-12-24 2011-07-07 Yamaha Motor Co Ltd 検査装置および検査方法

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6186606A (ja) * 1984-10-05 1986-05-02 Hitachi Ltd 非接触形状測定方法
JP3578258B2 (ja) * 1998-08-10 2004-10-20 東京エレクトロン株式会社 熱処理装置
US6556307B1 (en) * 1998-09-11 2003-04-29 Minolta Co., Ltd. Method and apparatus for inputting three-dimensional data
DE112004001034T5 (de) * 2003-06-11 2006-10-19 Solvision, Longueuil 3D- und 2D-Meßsystem und -verfahren mit erhöhter Sensitivität und erhöhtem Dynamikbereich
US7788510B2 (en) 2004-11-29 2010-08-31 Marvell World Trade Ltd. Low voltage logic operation using higher voltage supply levels
US7898651B2 (en) * 2005-10-24 2011-03-01 General Electric Company Methods and apparatus for inspecting an object
US7830528B2 (en) * 2005-12-14 2010-11-09 Koh Young Technology, Inc. 3D image measuring apparatus and method thereof
WO2009024758A1 (en) * 2007-08-17 2009-02-26 Renishaw Plc Non-contact probe
JP2009058459A (ja) * 2007-09-03 2009-03-19 Nikon Corp 形状測定装置
WO2010006081A1 (en) 2008-07-08 2010-01-14 Chiaro Technologies, Inc. Multiple channel locating

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05322559A (ja) * 1992-05-26 1993-12-07 Matsushita Electric Works Ltd 光学式変位センサ
JP2004170509A (ja) * 2002-11-18 2004-06-17 Keyence Corp 測定反復モードを有する共焦点顕微鏡システム
JP2006064453A (ja) * 2004-08-25 2006-03-09 Fuji Xerox Co Ltd 3次元形状入力装置および方法
JP2007003285A (ja) * 2005-06-22 2007-01-11 Konica Minolta Sensing Inc 3次元測定システム
JP2007304062A (ja) * 2006-05-15 2007-11-22 Nikon Corp 表面検査装置
JP2007333462A (ja) * 2006-06-13 2007-12-27 Yokohama Rubber Co Ltd:The タイヤ型部材検査方法、タイヤ型部材検査装置、および型部材作製工程精度検査方法
JP2009008502A (ja) * 2007-06-27 2009-01-15 Omron Corp 表面状態検査のための情報登録方法および表面状態検査装置
JP2009180689A (ja) 2008-02-01 2009-08-13 Nikon Corp 三次元形状測定装置
JP2010048604A (ja) * 2008-08-20 2010-03-04 Dainippon Screen Mfg Co Ltd 膜厚測定装置および膜厚測定方法
JP2011133306A (ja) * 2009-12-24 2011-07-07 Yamaha Motor Co Ltd 検査装置および検査方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2770295A4

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015528137A (ja) * 2013-06-28 2015-09-24 インテル コーポレイション Mems走査ミラーでの光パターン生成
US9690092B2 (en) 2013-06-28 2017-06-27 Intel Corporation MEMS scanning mirror light pattern generation
US9467680B2 (en) 2013-12-12 2016-10-11 Intel Corporation Calibration of a three-dimensional acquisition system
US9819929B2 (en) 2013-12-12 2017-11-14 Intel Corporation Calibration of a three-dimensional acquisition system
US10027950B2 (en) 2013-12-12 2018-07-17 Intel Corporation Calibration of a three-dimensional acquisition system
US10659764B2 (en) 2016-06-20 2020-05-19 Intel Corporation Depth image provision apparatus and method
US10609359B2 (en) 2016-06-22 2020-03-31 Intel Corporation Depth image provision apparatus and method
CN112384751A (zh) * 2018-07-10 2021-02-19 希罗纳牙科系统有限公司 光学测量方法及光学测量装置
CN112384751B (zh) * 2018-07-10 2023-03-07 希罗纳牙科系统有限公司 光学测量方法及光学测量装置

Also Published As

Publication number Publication date
JP5994787B2 (ja) 2016-09-21
EP2770295B1 (en) 2019-11-27
EP2770295A4 (en) 2015-07-29
CN103857981B (zh) 2017-05-10
TW201337212A (zh) 2013-09-16
EP2770295A1 (en) 2014-08-27
JPWO2013054814A1 (ja) 2015-03-30
US20130141734A1 (en) 2013-06-06
US9891043B2 (en) 2018-02-13
CN103857981A (zh) 2014-06-11

Similar Documents

Publication Publication Date Title
JP5994787B2 (ja) 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム
JP6184289B2 (ja) 三次元画像処理装置、三次元画像処理方法、三次元画像処理プログラム及びコンピュータで読み取り可能な記録媒体並びに記録した機器
JP6548422B2 (ja) 情報処理装置、情報処理方法、プログラム
US10869020B2 (en) Method for capturing images of a preferably structured surface of an object and device for image capture
JPWO2013133286A1 (ja) 形状測定装置、構造物製造システム、走査装置、形状測定方法、構造物製造方法、及び形状測定プログラム
US10430940B2 (en) Inspection system and inspection method
JP2017110991A (ja) 計測システム、計測方法、ロボット制御方法、ロボット、ロボットシステムおよびピッキング装置
JP2017075887A (ja) 振動検出装置、検査装置、振動検出方法、及び振動検出プログラム
JP5971050B2 (ja) 形状計測装置及び形状計測方法
JP4998077B2 (ja) 3次元形状測定装置および3次元形状測定方法
CN108240800B (zh) 表面形貌的量测方法
JP2019159872A (ja) 演算装置、演算装置の制御方法、および、コンピュータープログラム
JP2014035198A (ja) 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及び形状測定プログラム
JP2007155601A (ja) 三次元形状の測定方法およびその装置
WO2013035847A1 (ja) 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、形状測定プログラム、コンピュータ読み取り可能な記録媒体
JP2016008837A (ja) 形状測定方法、形状測定装置、構造物製造システム、構造物製造方法、及び形状測定プログラム
JP2009210509A (ja) 3次元形状測定装置および3次元形状測定コンピュータプログラム
JP2015206749A (ja) 三次元データの連結方法、形状測定方法、三次元データの連結装置、形状測定装置、構造物製造方法、構造物製造システム、及び形状測定プログラム
JP2015108602A (ja) 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及び形状測定プログラム
JP2009216650A (ja) 三次元形状測定装置
JP2010210410A (ja) 三次元形状測定装置
JP2016142727A (ja) 縞パタン画像取得装置、縞パタン画像取得方法、三次元位置特定装置、三次元位置特定方法、およびプログラム
WO2022209151A1 (ja) 三次元計測装置
WO2023167162A1 (ja) ドットパターン生成方法及び3次元計測装置
WO2016113861A1 (ja) 三次元形状測定装置、三次元形状測定方法、構造物製造システム、構造物製造方法、及び測定プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12840154

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2013538555

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2012840154

Country of ref document: EP