WO2021085419A1 - 三次元計測装置 - Google Patents

三次元計測装置 Download PDF

Info

Publication number
WO2021085419A1
WO2021085419A1 PCT/JP2020/040263 JP2020040263W WO2021085419A1 WO 2021085419 A1 WO2021085419 A1 WO 2021085419A1 JP 2020040263 W JP2020040263 W JP 2020040263W WO 2021085419 A1 WO2021085419 A1 WO 2021085419A1
Authority
WO
WIPO (PCT)
Prior art keywords
event data
unit
output
captured image
luminance change
Prior art date
Application number
PCT/JP2020/040263
Other languages
English (en)
French (fr)
Inventor
勇介 三谷
Original Assignee
株式会社デンソーウェーブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デンソーウェーブ filed Critical 株式会社デンソーウェーブ
Priority to CN202080064477.XA priority Critical patent/CN114424020A/zh
Priority to US17/764,505 priority patent/US20220349707A1/en
Priority to EP20882065.4A priority patent/EP4053499A4/en
Publication of WO2021085419A1 publication Critical patent/WO2021085419A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • G01B11/2527Projection by scanning of the object with phase change by in-plane movement of the patern
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object

Definitions

  • the present invention relates to a three-dimensional measuring device that optically measures a three-dimensional shape of an object to be measured or information indicating the shape, and more particularly to a three-dimensional measuring device equipped with an event camera.
  • a device using a phase shift method is known as a three-dimensional measuring device that optically measures a three-dimensional shape of an object to be measured or information indicating the shape.
  • This phase shift method is a method of optically three-dimensionally measuring the shape of a measurement object on which this striped pattern image is projected by projecting a plurality of striped pattern images (optical images) that are out of phase.
  • the three-dimensional measuring device disclosed in Patent Document 1 below is known.
  • This three-dimensional measuring device assigns fringes of each phase to light of different wavelengths, projects a fringe pattern image obtained by synthesizing the fringes on the measurement object, and colors the measurement object on which the fringe pattern image is projected. Take a picture with a camera. Then, by extracting each color component from the captured image and calculating the phase in one shooting, the time required for measuring the three-dimensional shape is shortened.
  • an event camera disclosed in Patent Document 2 is known.
  • This event camera is a brightness value difference output camera developed by taking inspiration from the retinal structure of living organisms, so that it senses the change in brightness for each pixel and outputs its coordinates, time, and polarity of the change in brightness. It is configured.
  • the event camera is characterized in that it does not output pixel information that does not change in brightness, that is, redundant data (event data), unlike a conventional camera. Therefore, by reducing the amount of data communication and reducing the weight of image processing, it is possible to generate an image of a measurement object at a higher speed.
  • the brightness value cannot be directly measured even if the presence or absence of the brightness change in pixel units can be grasped from the captured image. .. Therefore, there is a problem that the three-dimensional measurement method such as the phase shift method using the luminance value cannot measure the three-dimensional shape of the object to be measured.
  • the present invention has been made to solve the above-mentioned problems, and an object of the present invention is to provide a device for measuring a three-dimensional shape of a measurement object or information indicating the shape by using event data. To do.
  • the three-dimensional measuring device described in the first exemplary embodiment is A projection unit (20) that projects a predetermined striped pattern onto the object to be measured (R), and An imaging unit (30) that images the measurement object on which the predetermined striped pattern is projected, and A measuring unit (40) that measures the three-dimensional shape of the object to be measured by a phase shift method using the luminance information obtained from the captured image of the imaging unit.
  • the image pickup unit includes an image pickup element that outputs event data including two-dimensional point data in which the position of the pixel is specified corresponding to a pixel whose brightness has changed when light is received, and outputs from the image pickup element.
  • the captured image is generated from the event data to be generated, and the captured image is generated.
  • the image sensor is configured to output event data of a positive luminance change in the case of a brightening luminance change and output event data of a negative luminance change in the case of a darkening luminance change.
  • the measuring unit is characterized in that the brightness information is obtained based on the time difference between the output of the event data of the positive luminance change and the output of the event data of the negative luminance change in pixel units in the captured image.
  • the three-dimensional measuring device described in the second exemplary embodiment is A projection unit (20) that projects a predetermined striped pattern onto the object to be measured (R), and An imaging unit (30) that images the measurement object on which the predetermined striped pattern is projected, and A measuring unit (40) that measures the three-dimensional shape of the object to be measured by a phase shift method using the luminance information obtained from the captured image of the imaging unit.
  • the image pickup unit includes an image pickup element that outputs event data including two-dimensional point data in which the position of the pixel is specified corresponding to a pixel whose brightness has changed when light is received, and outputs from the image pickup element. The captured image is generated from the event data to be generated, and the captured image is generated.
  • the projection unit projects the predetermined striped pattern by utilizing short pulse light emission that is emitted a plurality of times within a unit time.
  • the measuring unit is characterized in that the luminance information is obtained based on the number of outputs of the event data per unit time in the captured image in pixel units.
  • the three-dimensional measuring device described in the third exemplary embodiment is A projection unit (20) that projects a pattern for the optical cutting method onto the object to be measured (R), An imaging unit (30) that captures an image of the measurement object on which the predetermined pattern is projected, and A measuring unit (40) that measures the three-dimensional shape of the measurement object imaged by the imaging unit, and a measuring unit (40). It is a three-dimensional measuring device (10) provided with The pattern for the optical cutting method is projected so that the brightness changes at a constant rate in the first direction and does not change in the second direction orthogonal to the first direction.
  • the image pickup unit includes an image pickup element that outputs event data including two-dimensional point data in which the position of the pixel is specified corresponding to a pixel whose brightness has changed when light is received, and outputs from the image pickup element.
  • the captured image is generated from the event data to be generated, and the captured image is generated.
  • the measuring unit is characterized in that the three-dimensional shape of the measurement object is measured by an optical cutting method based on the position of the event data output at the same time in the captured image obtained by capturing the measurement object. ..
  • the reference numerals in the parentheses indicate the correspondence with the specific means described in the embodiments described later.
  • the image pickup unit that captures an image of a measurement object on which a predetermined striped pattern is projected from the projection unit corresponds to pixels whose brightness changes when light is received.
  • An image pickup element that outputs event data including two-dimensional point data in which the position of the pixel is specified is provided, and an image pickup image is generated from the event data output from the image pickup element.
  • This image sensor is configured to output event data of a positive luminance change in the case of a brightening luminance change and output event data of a negative luminance change in the case of a darkening luminance change. Then, the measuring unit obtains the brightness information based on the time difference between the output of the event data of the positive luminance change and the output of the event data of the negative luminance change in pixel units in the captured image.
  • the projection unit When projecting a predetermined striped pattern for the phase shift method, the projection unit repeats, for example, an R color emission state, a G color emission state, and a B color emission state in a predetermined cycle on a pixel-by-pixel basis.
  • the light emission time of is adjusted individually.
  • the imaging unit for each pixel unit in the captured image, when a brightness change that becomes brighter by receiving light occurs, event data of a plus brightness change is output, and the brightness change that becomes darker when the light disappears. Is generated and event data of negative brightness change is output.
  • the event data of the plus luminance change is output at the timing of the start of the R color emission, and the event of the minus luminance change at the timing of the end of the R color emission.
  • the data is output, and the event data of the positive luminance change is output at the timing of the start of G color emission.
  • the R color becomes brighter as the time from the start timing of the R color emission to the end timing of the R color emission increases, the R color becomes brighter according to the time from the start timing of the R color emission to the end timing of the R color emission. Brightness information (brightness value) can be obtained.
  • the above-mentioned luminance information can be obtained based on the time difference between the output of the event data of the positive luminance change and the output of the event data of the negative luminance change in pixel units in the captured image, and the obtained luminance information is used.
  • the three-dimensional shape of the object to be measured can be measured by the phase shift method. That is, the three-dimensional shape of the object to be measured can be measured by using the event data.
  • the image pickup unit that images the measurement object on which a predetermined striped pattern is projected from the projection unit is a pixel whose brightness changes when the light is received.
  • An image pickup element that outputs event data including two-dimensional point data in which the position of the pixel is specified is provided, and an image pickup image is generated from the event data output from the image pickup element.
  • the projection unit projects the predetermined striped pattern using the short pulse light emission that is emitted a plurality of times within a unit time, and the measurement unit projects the event data per unit time in the captured image in pixel units. Obtain brightness information based on the number of outputs.
  • the above-mentioned R color emission state, G color emission state, and B color emission state can be realized by short pulse emission, respectively, for the purpose of reducing power consumption.
  • the output of the event data of the positive luminance change and the output of the event data of the negative luminance change are output in response to one short pulse emission, so that the short pulse emission per unit time is emitted.
  • the luminance information (luminance value) of the emission color can be obtained based on the number of times, that is, the number of times the event data is output per unit time.
  • the three-dimensional shape of the object to be measured can be measured by the phase shift method using the luminance information obtained based on the number of outputs of the event data per unit time. That is, the three-dimensional shape of the object to be measured can be measured by using the event data.
  • the image pickup unit that images the measurement object on which the pattern for the light cutting method is projected from the projection unit is a pixel whose brightness changes when the light is received.
  • An image pickup device that outputs event data including two-dimensional point data in which the position of the pixel is specified is provided, and an image pickup image is generated from the event data output from the image pickup device.
  • the pattern for the light cutting method is projected from the projection unit so that the brightness changes at a constant rate in the first direction and the brightness does not change in the second direction orthogonal to the first direction. Then, the measuring unit measures the three-dimensional shape of the measurement object based on the position of the event data output in the same time zone in the captured image obtained by capturing the measurement object.
  • the R color emission ends from the timing of the R color emission start timing. The longer the time until the timing of, the brighter the R color.
  • event data of positive brightness change is output at the timing of starting R color emission within the unit time secured for each light emitting state, and at the timing of ending R color emission. Event data of negative brightness change is output.
  • the brightness of the R color changes at a constant rate from the left side to the right side in the left-right direction (first direction), and the brightness of the R color does not change in the vertical direction (second direction).
  • the event data group of the negative brightness change output in the same time zone becomes a line in the vertical direction, and the left side within the above unit time.
  • the image is taken so as to move to the right from. Since the event data group that moves in a line shape in this way can be used as a line-shaped laser beam used in the optical cutting method, it is output in the same time zone within the unit time secured for each light emitting state.
  • the three-dimensional shape of the object to be measured can be measured by the optical cutting method based on the position of the event data to be measured. That is, the three-dimensional shape of the object to be measured can be measured by using the event data.
  • the measuring unit determines whether or not the relative distance change of the measurement object with respect to the imaging unit is equal to or greater than a predetermined distance based on the difference between the previous measurement result and the past measurement result. Functions as. Then, when the measuring unit determines that the relative distance change is less than the predetermined distance, the projecting unit projects a predetermined striped pattern using short pulse light emission, and the measuring unit measures the pixels in the captured image. Luminance information is obtained based on the number of output times of event data per unit time. On the other hand, when the measurement unit determines that the relative distance change is equal to or greater than the predetermined distance, the projection unit projects a predetermined striped pattern using single-pulse light emission, and the measurement unit captures an image. The brightness information is obtained based on the time difference between the output of the event data of the positive luminance change and the output of the event data of the negative luminance change in pixel units.
  • the luminance information is obtained based on the number of outputs of the event data per unit time according to the relative distance change of the object to be measured with respect to the imaging unit, and the event data of the positive luminance change in the captured image in pixel units. It is possible to switch between a configuration in which brightness information is obtained based on a time difference between the output and the output of event data of a negative brightness change.
  • the measuring unit determines whether or not the relative distance change of the measurement object with respect to the imaging unit is greater than or equal to a predetermined distance based on the difference between the previous measurement result and the past measurement result. Functions as. Then, when the measuring unit determines that the relative distance change is equal to or greater than the predetermined distance, the projection unit projects a pattern for the optical cutting method, and the measuring unit projects the same in the captured image obtained by capturing the measurement object. The three-dimensional shape of the measurement object is measured by the optical cutting method based on the position of the event data output in the time zone.
  • the projecting unit projects a predetermined striped pattern for the phase shift method, and the measuring unit measures the pixels in the captured image.
  • the three-dimensional shape of the object to be measured is measured by the phase shift method using the luminance information obtained based on the time difference between the output of the event data of the positive luminance change and the output of the event data of the negative luminance change in the unit.
  • the three-dimensional shape of the measurement object is measured by the optical cutting method based on the position of the event data output in the same time zone in the captured image according to the relative distance change of the measurement object with respect to the imaging unit.
  • three-dimensional of the object to be measured by the phase shift method using the brightness information obtained based on the time difference between the output of the event data of the positive brightness change and the output of the event data of the negative brightness change in pixel units in the captured image. It is possible to switch between the configuration for measuring the shape and the configuration for measuring the shape.
  • FIG. 2A is an explanatory diagram illustrating an R color emission state, a G color emission state, and a B color emission state at a certain pixel level when projecting a predetermined striped pattern
  • FIG. 2B is an explanatory diagram. It is explanatory drawing explaining the R color light emitting state, the G color light emitting state, and the B color light emitting state at the pixel level different from FIG. 2 (A).
  • FIG. 5A is an explanatory diagram for explaining a captured image generated by using event data output in a state where only the pattern for the optical cutting method of FIG. 4 is projected
  • FIG. 5A is an explanatory diagram for the optical cutting method.
  • the state 10 ⁇ s after the start of pattern projection is shown
  • FIG. 5 (B) shows the state after 50 ⁇ s
  • FIG. 6 is an explanatory diagram illustrating an captured image generated by using event data output in a state where the pattern for the optical cutting method of FIG. 4 is projected onto a circular object to be measured. ) Shows the state 10 ⁇ s after the start of projection of the pattern for the optical cutting method, FIG. 6 (B) shows the state after 50 ⁇ s, and FIG. 6 (C) shows the state after 100 ⁇ s. ..
  • the three-dimensional measuring device 10 is a device that optically measures the three-dimensional shape of the measurement object R.
  • the three-dimensional measuring device 10 has a projection unit 20 that projects a predetermined striped pattern (optical pattern) for the phase shift method onto the measurement object R, and a predetermined striped pattern.
  • An imaging unit 30 that captures a projected measurement object to obtain an optical image (captured image) and a measurement unit 40 that measures or restores the three-dimensional shape of the measurement object from the captured image are provided as separate bodies. It is configured as follows.
  • the three-dimensional measuring device 10 configured in this way measures, for example, the three-dimensional shape of a measurement object R such as a work that moves relative to the hand at high speed when assembled to the hand of the robot. ..
  • the projection unit 20 is a so-called DLP (Digital Light Processing) projector, and projects the above-mentioned predetermined striped pattern by reflecting the light from the light source by the DMD (Digital Mirror Device) element.
  • the DMD element is an array of fine mirrors corresponding to each pixel of the image projected on the screen, and the light emitted to the screen by changing the angle of each mirror is turned on / off in microsecond units. It is configured to turn off. Therefore, by changing the gradation of the reflected light according to the ratio of the time when each mirror is turned on and the time when each mirror is turned off, it is possible to display the gradation based on the image data of the projected image. ..
  • the light incident on the DMD element is prepared in R color (red), G color (green), and B color (blue), and the R color emission state and the G color that emit light when the R color is reflected by the mirror.
  • the G-color emission state in which is reflected by the mirror and the B-color emission state in which B color is reflected by the mirror are repeated in a predetermined period for a short period of time, and each emission time is individual. By adjusting to, a color image can be projected. In such a configuration, the longer the emission time of the single pulse emission that is emitted once within the unit time secured for each emission state, the brighter the emission color.
  • the predetermined striped pattern (optical pattern) for the phase shift method described above a sine wave pattern specified from the luminance value I (x, y, n) of the following equation (1) is adopted. To. That is, when the number of phase shifts is N, the brightness values I (x, y, n) of N phase-shifted grid images (striped images) are represented by the equation (1).
  • I (x, y, n) a (x, y) cos ⁇ (x, y) + 2 ⁇ n / N ⁇ + b (x, y) ⁇ ⁇ ⁇ (1)
  • the point (x, y) is one point in the lattice image
  • a (x, y) indicates the luminance amplitude
  • b (x, y) indicates the background luminance
  • ⁇ (x, y) is
  • N 0, and the distance z to the point (x, y) according to ⁇ (x, y) obtained from the luminance values I (x, y, n) of N lattice images.
  • the luminance value I (x, y, 0) in the state, the luminance value I (x, y, 1) in the G color emission state, and the luminance value I (x, y, 2) in the B color emission state are set. Obtained from the captured image. Therefore, the predetermined striped pattern (optical pattern) for the phase shift method in the present embodiment is composed of only the sine wave pattern composed of only the R color, the sine wave pattern composed of only the G color, and the B color. It is configured so that the phase is shifted by 2 ⁇ / 3 from the sine wave pattern to be formed.
  • the image pickup unit 30 is an image pickup device equipped with an image pickup element 30 that functions as a so-called event-based camera, a circuit that drives the image pickup element 30, a data output circuit, a threshold value setting circuit, and the like (none of which are shown). Is. Therefore, the image sensor 30 receives event data (specifically, event data including two-dimensional point data in which the position of each pixel is specified corresponding to each pixel whose brightness changes when light is received by the event camera. Is provided with an image pickup device 30 that outputs (two-dimensional point data, time, polarity of change in brightness), and is configured to be able to generate an image pickup image from event data output from the image pickup device.
  • event data specifically, event data including two-dimensional point data in which the position of each pixel is specified corresponding to each pixel whose brightness changes when light is received by the event camera.
  • the image pickup apparatus 30 forming this event camera is known, for example, by US Patent Application Publication No. 2016/0227135. For this reason, the imaging unit 30 outputs event data of a positive luminance change when a luminance change that becomes brighter by receiving light occurs for each pixel unit in the captured image, and the luminance change that becomes darker when the light disappears. Is generated and event data of negative brightness change is output.
  • the image data or event data (two-dimensional point data, time, polarity of change in brightness) is output to the measuring unit 40.
  • the measurement unit 40 obtains a three-dimensional shape of the measurement object R based on an image captured by the imaging unit 30 of the measurement object R in a state where the predetermined striped pattern is projected from the projection unit 20. , It is measured based on the phase shift method. Specifically, the measuring unit 40 has a luminance value I (x, y, 0), a luminance value I (x, y, 1), and a luminance value I (x, y) at a point (x, y) in the captured image. By obtaining y, 2), ⁇ (x, y) is obtained, and the distance z to the point (x, y) is measured according to the thus obtained ⁇ (x, y).
  • the measurement unit 40 is typically configured as a microcomputer provided with a CPU 40A and various memories 40B.
  • the CPU 40A sequentially executes each procedure of the program for three-dimensional measurement stored in the memory 40B in advance, and obtains information indicating the three-dimensional shape of the measurement object R based on the three-dimensional measurement.
  • the measuring unit 40 that is, the CPU 40A needs to cooperate with the projection unit 20 and the imaging unit 30 in order to execute the three-dimensional measurement, and the program for this cooperative control is the spear memory 40B. It is saved in advance in another area.
  • the CPU 40A controls the drive control and the projection timing of the projection unit 30, and also drives the image pickup unit and reads out the event data output from the image pickup unit 30, that is, the image sensor 31. It can be responsible for timing control (see the dotted arrow in FIG. 1). Therefore, the measuring unit 40 functions as a measuring means for three-dimensional measurement and a control means for performing the above-mentioned various controls.
  • the control function (control means, control unit) of the three-dimensional measuring device 10 is configured to be shared by the computer configuration of the measuring unit 40.
  • this control function control means, control unit
  • this control function may be provided in a control-dedicated unit provided separately from the measurement unit 40.
  • the three-dimensional measurement process performed by the measuring unit 40 when measuring the three-dimensional shape of the object R to be measured by using the phase shift method will be described in detail below.
  • an event camera is adopted as the main part of the image pickup unit 30 for accurately imaging the measurement object R that moves relative to the high speed.
  • the event data corresponding to the pixel whose brightness has changed is output, and the event data does not include the brightness value. Therefore, the brightness value required for the phase shift method (I (x, y, 0) ), I (x, y, 1), I (x, y, 2)) cannot be obtained directly.
  • the output of the event data of the positive luminance change (the luminance polarity changes to positive) and the output of the event data of the negative luminance change (the luminance polarity changes to negative) in the captured image in pixel units.
  • the brightness value (luminance information) is obtained as information indicating the three-dimensional shape of the measurement object R based on the time difference.
  • the event data of the positive luminance change is output at the timing of the start of the R color emission (see t11 of FIG. 2A), and the event data of the negative luminance change is output at the timing of the end of the R color emission. (See t12 in FIG. 2 (A)).
  • the event data of the positive luminance change is output at the timing of the start of the G color emission (see t13 of FIG. 2 (A)), and the event data of the negative luminance change is output at the timing of the end of the G color emission (FIG. 2 (FIG. 2). See t14 of A)).
  • the event data of the positive luminance change is output at the timing of the start of the B color emission (see t15 of FIG. 2 (A)), and the event data of the negative luminance change is output at the timing of the end of the B color emission (FIG. 2 (FIG. 2). See t16 in A)).
  • event data of a positive luminance change is output at the timing of starting R color emission, as illustrated in FIG. 2 (B) (FIG. 2 (B).
  • Event data of negative luminance change is output at the timing of the end of R color emission (see t22 of FIG. 2B).
  • the event data of the positive luminance change is output at the timing of the start of the G color emission (see t23 of FIG. 2B), and the event data of the negative luminance change is output at the timing of the end of the G color emission (FIG. 2 (FIG. 2).
  • the event data of the positive luminance change is output at the timing of the start of the B color emission (see t25 in FIG. 2B), and the event data of the negative luminance change is output at the timing of the end of the B color emission (FIG. 2 (FIG. 2).
  • B) see t26).
  • the R color becomes brighter as the time from the start timing of the R color emission to the end timing of the R color emission increases, the R color becomes brighter according to the time from the start timing of the R color emission to the end timing of the R color emission.
  • the brightness value of can be obtained.
  • the brightness value of G color can be obtained according to the time from the start timing of G color emission to the end timing of G color emission, and the time from the start timing of B color emission to the end timing of B color emission can be obtained.
  • the brightness value of the B color can be obtained accordingly.
  • the measurement unit 40 can obtain the brightness value (luminance information) based on the time difference between the output of the event data of the positive luminance change and the output of the event data of the negative luminance change in pixel units in the captured image.
  • This luminance value (luminance information) is information indicating the three-dimensional shape of the measurement object R.
  • the measuring unit 40 emits R color based on t12-t11, which is the time difference between the output of the event data of the positive luminance change and the output of the event data of the negative luminance change with respect to the R color emission state.
  • the brightness value I (x, y, 0) in the state can be obtained.
  • the measurement unit 40 determines the brightness as information indicating the three-dimensional shape of the measurement target based on the time difference between the output of the event data of the positive brightness change and the output of the event data of the negative brightness change in pixel units in the captured image. Information can be requested.
  • the three-dimensional shape of the object to be measured can be measured by the phase shift method using each luminance value obtained in this way. That is, the three-dimensional shape of the object to be measured can be measured by using the event data.
  • the event data of the plus brightness change that repeatedly occurs within the unit time.
  • the luminance value may be obtained based on the sum of the time differences between the output and the output of the event data of the negative luminance change.
  • the measurement object (for example,) in which the brightness difference from the background, which is not good at the normal phase shift method that does not use event data, becomes large.
  • a black object on a white desk surface can be measured accurately.
  • the three-dimensional measuring device according to the second embodiment will be described with reference to the drawings.
  • the point where the projection unit 20 projects the predetermined striped pattern by using the short pulse emission having a short pulse width (time width), which is emitted a plurality of times within a unit time is a point. It is mainly different from the first embodiment. Therefore, the same components as those of the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
  • the above-mentioned R color emission state, G color emission state, and B color emission state are realized by short pulse emission, respectively.
  • the emission color becomes brighter as the number of times of short pulse emission per unit time (T / 3) secured for each emission state increases.
  • the output of the event data of the positive luminance change and the output of the event data of the negative luminance change are output in response to one short pulse emission.
  • the brightness value of the emission color can be obtained based on the number of times of light emission of short pulse light emission per unit time, that is, the number of times of output of the event data per unit time.
  • the brightness value I (x, y, 0) in the R color light emitting state is based on the number of times the event data is output per unit time (the number of outputs between t31 and t32) relating to the R color light emitting state. Can be sought.
  • the brightness value I (x, y, 1) in the G color emission state is obtained based on the output number of event data per unit time (the number of outputs between t33 and t34) regarding the G color emission state. be able to.
  • the brightness value I (x, y, 2) in the B color emission state can be obtained based on the output number of event data per unit time (the number of outputs between t35 and t36) regarding the B color emission state. it can. That is, the measurement unit 40 can obtain the luminance information as the information indicating the three-dimensional shape of the measurement target object based on the number of times the event data is output per unit time in the captured image in pixel units.
  • the three-dimensional shape of the object to be measured can be measured by the phase shift method using each luminance value obtained in this way. That is, even if the projection unit 20 is configured to project the predetermined striped pattern by using the short pulse light emission, the three-dimensional shape of the object to be measured can be measured by using the event data.
  • a configuration in which luminance information is obtained based on the number of outputs of event data per unit time according to a change in the relative distance of the measurement object R with respect to the imaging unit 30 (characteristic configuration of the second embodiment) and an captured image. It is possible to switch between the configuration in which the luminance information is obtained based on the time difference between the output of the event data of the positive luminance change and the output of the event data of the negative luminance change in pixel units (the characteristic configuration of the first embodiment). ..
  • the projection unit 20 uses a state in which a predetermined striped pattern is projected using short pulse light emission that is emitted a plurality of times within a unit time, and a single pulse light emission that is emitted once within a unit time. It is possible to switch between the state of projecting a predetermined striped pattern and the state of projecting. Further, in the measuring unit 40, the relative distance change of the measurement object R with respect to the imaging unit 30 is equal to or greater than the first predetermined distance based on the difference between the previous measurement result and the past measurement result (for example, the measurement result two times before). It functions as a determination unit for determining whether or not.
  • the projection unit 20 projects a predetermined striped pattern using short pulse light emission, and the measurement unit 40 Obtains luminance information based on the number of output times per unit time of event data in pixel units in a captured image.
  • the measuring unit 40 determines that the relative distance change is equal to or greater than the first predetermined distance
  • the projection unit 20 projects a predetermined striped pattern using single-pulse light emission and measures the data.
  • the unit 40 obtains the luminance information based on the time difference between the output of the event data of the positive luminance change and the output of the event data of the negative luminance change in pixel units in the captured image. This luminance information is information indicating the three-dimensional shape of the measurement object R.
  • the brightness is based on the number of outputs of the event data per unit time.
  • the output of the event data of the plus brightness change and the minus brightness By obtaining the luminance information based on the time difference from the output of the event data of the change, it is possible to obtain the luminance information more quickly than in the case of obtaining the luminance information based on the number of times the event data is output as described above. it can.
  • the third embodiment is mainly different from the first embodiment in that the three-dimensional shape of the object to be measured is measured by using the optical cutting method. Therefore, the same components as those of the first embodiment are designated by the same reference numerals, and the description thereof will be omitted.
  • the projection unit 20 is configured to project a pattern for the optical cutting method onto the object R to be measured.
  • the pattern for the light cutting method in the present embodiment changes in any of R color, G color, and B color so that the brightness increases at a constant rate from the left side to the right side in the first direction, and the first pattern is used. It is projected so that its brightness does not change in the second direction orthogonal to the direction.
  • the measurement unit 40 is configured to measure the three-dimensional shape of the measurement object based on the optical cutting method based on the position of the event data output in the same time zone in the captured image.
  • the R color emission state, the G color emission state, and the B color emission state are repeated in a predetermined cycle in the projection unit 20, for example, when the R color is emitted, the R color emission is emitted from the timing of the start of the R color emission. The longer the time until the end timing, the brighter the R color.
  • the image pickup element 31 of the image pickup unit 30 that receives light according to the projection state outputs event data of a plus brightness change at the timing of starting R color emission within a unit time secured for each light emission state, and outputs R color. Event data of negative brightness change is output at the timing of the end of light emission.
  • the brightness of the R color changes at a constant rate from the left side to the right side in the left-right direction (first direction), and the R color changes in the vertical direction (second direction). It is assumed that the image pickup unit 30 captures only the pattern for the light cutting method projected so that the brightness of the light is not changed (captured image).
  • the event data group of the negative luminance change output in the same time zone becomes a line in the vertical direction within the above unit time, and from the left side to the right side within the above unit time. It is imaged as if it were moving.
  • the pattern is as shown in FIG. 5 (A).
  • the event data group S is imaged so as to form a line in the vertical direction near the left end of the image.
  • the line-shaped event data group S is imaged so as to move to the right side, and after 100 ⁇ s, as shown in FIG. 5 (C), the line is imaged.
  • the event data group S in the shape is imaged so as to move further to the right.
  • the event data group imaged so as to move in a line shape in this way can be used as a line-shaped laser beam used in the optical cutting method.
  • the event data group S is imaged so as to form a line in the vertical direction.
  • the arrangement of the event data group S changes according to the shape of the measurement target object R. Is imaged in.
  • the measurement object R is imaged so that the arrangement of the event data group S changes according to the shape.
  • the three-dimensional shape of the object to be measured can be measured by the measuring unit 40 by the optical cutting method based on the position of the event data output in the same time zone. .. That is, the three-dimensional shape of the object to be measured can be measured by using the event data.
  • the pattern for the optical cutting method is limited to being projected so that the brightness of the R color increases at a constant rate from the left side to the right side in the left-right direction and the brightness of the R color does not change in the up-down direction.
  • the brightness of G color (B color) changes from the left side to the right side at a constant rate in the left-right direction and is projected so that the brightness of G color (B color) does not change in the vertical direction.
  • the brightness of the R color (G color, B color) changes at a constant rate from the left side to the right side in the left-right direction, and the R color (G color, B color) increases in the vertical direction.
  • a configuration in which the three-dimensional shape of the measurement object is measured by using the optical cutting method according to a change in the relative distance of the measurement object R with respect to the imaging unit 30 (characteristic configuration of the third embodiment) and a phase.
  • the configuration for measuring the three-dimensional shape of the object to be measured by using the shift method (the characteristic configuration of the first embodiment) may be switched.
  • the projection unit 20 is configured to be able to switch between a state of projecting a pattern for the light cutting method and a state of projecting a predetermined striped pattern for the phase shift method.
  • the relative distance change of the measurement object R with respect to the imaging unit 30 is equal to or greater than the second predetermined distance based on the difference between the previous measurement result and the past measurement result (for example, the measurement result two times before). It functions as a determination unit for determining whether or not. Then, when the measuring unit 40 determines that the relative distance change is equal to or greater than the second predetermined distance, the projection unit 20 projects a pattern for the optical cutting method, and the measuring unit 40 projects the measurement object R.
  • the three-dimensional shape of the object to be measured is measured by the optical cutting method based on the position of the event data output in the same time zone in the captured image.
  • the measuring unit 40 determines that the relative distance change is less than the second predetermined distance
  • the projection unit 20 projects a predetermined striped pattern using single-pulse light emission and measures the data.
  • the unit 40 is a three-dimensional measurement object by the phase shift method based on the brightness information obtained based on the time difference between the output of the event data of the positive luminance change and the output of the event data of the negative luminance change in pixel units in the captured image. Measure the shape.
  • the three-dimensional shape of the measurement object R having a relatively large relative distance change that is, the measurement object R having a relatively large movement
  • it is based on the position of the event data output in the same time zone.
  • the output of the event data of the plus brightness change and the minus brightness By measuring the three-dimensional shape of the object R to be measured by the phase shift method using the luminance information obtained based on the time difference from the output of the change event data, compared to the case where the optical cutting method is used, It is possible to measure a three-dimensional shape with high accuracy.
  • the present invention is not limited to each of the above embodiments, and may be embodied as follows, for example.
  • the three-dimensional measuring device 10 is not limited to measuring the three-dimensional shape of a measurement object that moves relative to each other by moving in a state of being assembled to the hand of the robot, and is used, for example, in a fixed state.
  • the three-dimensional shape of the object to be measured moving on the transport line may be measured.
  • the projection unit 20, the imaging unit 30, and the measuring unit 40 are separated from each other, and the measuring unit 40 can perform wireless communication or wired communication with the projection unit 20 and the imaging unit 30. It may be configured as a terminal.
  • the present invention may be applied to a three-dimensional measuring device that measures a three-dimensional shape of a measurement object by using a dot pattern projection method.
  • a dot pattern projection method by adding the luminance information in the same manner as the optical cutting method described in the third embodiment, the number that can be identified depends on the resolution of the luminance information, but each dot is individually identified. be able to.
  • the amount of data transfer can be reduced as compared with the optical cutting method, so that the function can be speeded up.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

イベントデータに基づき、計測対象物の三次元形状又はその形状を示す情報を計測する三次元計測装置(10)が提供される。この装置(10)では、投影部(20)から所定の縞状パターンが光学的に投影される。この投影状態において、計測対象物(R)が撮像部(30)により光学的に撮像され、イベントデータに基づく撮像画像が取得される。即ち、撮像部(30)には、縞状パターンを受光した際に輝度変化のあった画素に対応して当該画素の位置が特定される二次元点データを含めたイベントデータが撮像素子から出力され、このイベントデータに基づき計測対象物(R)の撮像画像が得られる。撮像素子は、明るくなる輝度変化の場合にプラス輝度変化のイベントデータを出力し、暗くなる輝度変化の場合にマイナス輝度変化のイベントデータを出力するように構成される。さらに、計測部40は、撮像画像における画素単位でのプラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差に基づいて輝度情報を求める。

Description

三次元計測装置
 本発明は、計測対象物の三次元形状又はその形状を示す情報を光学的に計測する三次元計測装置に係り、特に、イベントカメラを搭載した3次元計測装置に関する。
 従来、計測対象物の三次元形状又はその形状を示す情報を光学的に計測する三次元計測装置として、例えば、位相シフト法を利用した装置が知られている。
 この位相シフト法は、位相をずらした複数枚の縞状パターン画像(光学像)を投影することで、この縞状パターン画像を投影した計測対象物の形状等を光学的に三次元計測する手法である。このように位相シフト法を利用して三次元計測を行う技術として、下記特許文献1に開示されている三次元計測装置が知られている。この三次元計測装置は、各位相の縞を異なる波長の光に割り当て、これを合成した縞状パターン画像を計測対象物に投影し、この縞状パターン画像を投影している計測対象物をカラーカメラで撮影する。そして、撮影した画像から各色成分を抽出して1回の撮影で位相算出を行うことで、三次元形状の計測に要する時間の短縮を図っている。
特許第3723057号公報 米国特許出願公開第2016/0227135号
 ところで、より高速に計測対象物の画像を生成する技術として、上記特許文献2に開示されるイベントカメラが知られている。
 このイベントカメラは、生物の網膜構造にヒントを得て開発された輝度値差分出力カメラであり、画素ごとに輝度の変化を感知してその座標、時間、そして輝度変化の極性を出力するように構成されている。このような構成により、イベントカメラは、従来のカメラのように輝度変化のない画素情報、つまり冗長なデータ(イベントデータ)は出力しないといった特徴がある。このため、データ通信量の軽減や画像処理の軽量化等が実現されることで、より高速に計測対象物の画像を生成することができる。
 しかしながら、イベントカメラから出力されるイベントデータを用いて生成された計測対象物の撮像画像では、その撮像画像から画素単位での輝度変化の有無を把握できても輝度値を直接計測することができない。このため、輝度値を利用する位相シフト法などの三次元計測方法では、計測対象物の三次元形状の計測を実施できないという問題がある。
 本発明は、上述した課題を解決するためになされたものであり、その目的とするところは、イベントデータを利用して計測対象物の三次元形状又はその形状を示す情報を計測する装置を提供することにある。
 上記目的を達成するため、第1の例示的実施例に記載の三次元計測装置は、
 計測対象物(R)に対して所定の縞状パターンを投影する投影部(20)と、
 前記所定の縞状パターンが投影された前記計測対象物を撮像する撮像部(30)と、
 前記撮像部の撮像画像から求められる輝度情報を利用して位相シフト法により前記計測対象物の三次元形状を計測する計測部(40)と、
 を備える三次元計測装置(10)であって、
 前記撮像部は、受光した際に輝度変化のあった画素に対応して当該画素の位置が特定される二次元点データを含めたイベントデータを出力する撮像素子を備えて、前記撮像素子から出力されるイベントデータから前記撮像画像を生成し、
 前記撮像素子は、明るくなる輝度変化の場合にプラス輝度変化のイベントデータを出力し、暗くなる輝度変化の場合にマイナス輝度変化のイベントデータを出力するように構成され、
 前記計測部は、前記撮像画像における画素単位での前記プラス輝度変化のイベントデータの出力と前記マイナス輝度変化のイベントデータの出力との時間差に基づいて前記輝度情報を求めることを特徴とする。
 また第2の例示的実施例に記載の三次元計測装置は、
 計測対象物(R)に対して所定の縞状パターンを投影する投影部(20)と、
 前記所定の縞状パターンが投影された前記計測対象物を撮像する撮像部(30)と、
 前記撮像部の撮像画像から求められる輝度情報を利用して位相シフト法により前記計測対象物の三次元形状を計測する計測部(40)と、
 を備える三次元計測装置(10)であって、
 前記撮像部は、受光した際に輝度変化のあった画素に対応して当該画素の位置が特定される二次元点データを含めたイベントデータを出力する撮像素子を備えて、前記撮像素子から出力されるイベントデータから前記撮像画像を生成し、
 前記投影部は、単位時間内に複数回発光される短パルス発光を利用して前記所定の縞状パターンを投影し、
 前記計測部は、前記撮像画像における画素単位での前記イベントデータの前記単位時間当たりの出力回数に基づいて前記輝度情報を求めることを特徴とする。
 さらに、第3の例示的実施例に記載の三次元計測装置は、
 計測対象物(R)に対して光切断法用のパターンを投影する投影部(20)と、
 前記所定のパターンが投影された前記計測対象物を撮像する撮像部(30)と、
 前記撮像部により撮像される前記計測対象物の三次元形状を計測する計測部(40)と、
 を備える三次元計測装置(10)であって、
 前記光切断法用のパターンは、第1の方向において輝度が一定の割合で変化し前記第1の方向に直交する第2の方向において輝度が変化しないように投影され、
 前記撮像部は、受光した際に輝度変化のあった画素に対応して当該画素の位置が特定される二次元点データを含めたイベントデータを出力する撮像素子を備えて、前記撮像素子から出力されるイベントデータから前記撮像画像を生成し、
 前記計測部は、前記計測対象物を撮像した撮像画像において同時間帯に出力される前記イベントデータの位置に基づいて当該計測対象物の三次元形状を光切断法により計測することを特徴とする。
 なお、上記各括弧内の符号は、後述する実施形態に記載の具体的手段との対応関係を示すものである。
 第1の例示的実施例に記載の三次元計測装置では、投影部から所定の縞状パターンが投影された計測対象物を撮像する撮像部は、受光した際に輝度変化のあった画素に対応して当該画素の位置が特定される二次元点データを含めたイベントデータを出力する撮像素子を備えて、撮像素子から出力されるイベントデータから撮像画像を生成する。この撮像素子は、明るくなる輝度変化の場合にプラス輝度変化のイベントデータを出力し、暗くなる輝度変化の場合にマイナス輝度変化のイベントデータを出力するように構成される。そして、計測部は、撮像画像における画素単位でのプラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差に基づいて輝度情報を求める。
 投影部では、位相シフト法用の所定の縞状パターンを投影する際に、画素単位で、例えば、R色発光状態、G色発光状態、B色発光状態が所定の周期で繰り返されて、それぞれの発光時間が個別に調整される。その一方で、撮像部では、撮像画像での各画素単位に関して、光を受光することで明るくなる輝度変化が生じるとプラス輝度変化のイベントデータが出力され、その光が消えることで暗くなる輝度変化が生じてマイナス輝度変化のイベントデータが出力される。そうすると、ある画素レベルでは、例えば、R色発光状態からG色発光状態までに、R色発光開始のタイミングでプラス輝度変化のイベントデータが出力され、R色発光終了のタイミングでマイナス輝度変化のイベントデータが出力され、G色発光開始のタイミングでプラス輝度変化のイベントデータが出力される。ここで、R色発光開始のタイミングからR色発光終了のタイミングまでの時間が長くなるほどR色が明るくなるため、R色発光開始のタイミングからR色発光終了のタイミングまでの時間に応じてR色の輝度情報(輝度値)を求めることができる。このため、撮像画像における画素単位でのプラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差に基づいて上記輝度情報を求めることができ、この求めた輝度情報を利用して位相シフト法により計測対象物の三次元形状を計測することができる。すなわち、イベントデータを利用して計測対象物の三次元形状を計測することができる。
 第2の例示的実施例に記載の三次元計測装置明では、投影部から所定の縞状パターンが投影された計測対象物を撮像する撮像部は、受光した際に輝度変化のあった画素に対応して当該画素の位置が特定される二次元点データを含めたイベントデータを出力する撮像素子を備えて、撮像素子から出力されるイベントデータから撮像画像を生成する。そして、投影部は、単位時間内に複数回発光される短パルス発光を利用して上記所定の縞状パターンを投影し、計測部は、撮像画像における画素単位でのイベントデータの単位時間当たりの出力回数に基づいて輝度情報を求める。
 投影部では、消費電力軽減等を目的として、上述したR色発光状態、G色発光状態、B色発光状態をそれぞれ短パルス発光によって実現することができる。このような場合には、発光状態ごとに確保される単位時間当たりの短パルス発光の発光回数が多くなるほどその発光色が明るくなる。そうすると、撮像素子の画素単位において、1回の短パルス発光に応じてプラス輝度変化のイベントデータとマイナス輝度変化のイベントデータの出力とが出力されることから、単位時間当たりの短パルス発光の発光回数、すなわち、イベントデータの単位時間当たりの出力回数に基づいて、その発光色の輝度情報(輝度値)を求めることができる。このため、イベントデータの単位時間当たりの出力回数に基づいて求めた輝度情報を利用して位相シフト法により計測対象物の三次元形状を計測することができる。すなわち、イベントデータを利用して計測対象物の三次元形状を計測することができる。
 第2の例示的実施例に記載の三次元計測装置では、投影部から光切断法用のパターンが投影された計測対象物を撮像する撮像部は、受光した際に輝度変化のあった画素に対応して当該画素の位置が特定される二次元点データを含めたイベントデータを出力する撮像素子を備えて、撮像素子から出力されるイベントデータから撮像画像を生成する。上記光切断法用のパターンは、第1の方向において輝度が一定の割合で変化し第1の方向に直交する第2の方向において輝度が変化しないように投影部から投影される。そして、計測部は、計測対象物を撮像した撮像画像において同時間帯に出力されるイベントデータの位置に基づいて当該計測対象物の三次元形状を計測する。
 投影部において、R色発光状態、G色発光状態、B色発光状態が所定の周期で繰り返されている状態で、例えば、R色を発光する際、R色発光開始のタイミングからR色発光終了のタイミングまでの時間が長くなるほどR色が明るくなる。この投影状態に応じて光を受光する撮像素子では、発光状態ごとに確保される単位時間内において、R色発光開始のタイミングでプラス輝度変化のイベントデータが出力され、R色発光終了のタイミングでマイナス輝度変化のイベントデータが出力される。このため、例えば、左右方向(第1の方向)においてR色の輝度が左側から右側にかけて一定の割合で増加するように変化し上下方向(第2の方向)においてR色の輝度が変化しないように投影された光切断法用のパターンのみを撮像部にて撮像する場合、同時間帯に出力されるマイナス輝度変化のイベントデータ群が上下方向にライン状となって、上記単位時間内で左側から右側に移動するように撮像される。このようにライン状で移動するイベントデータ群は、光切断法にて用いられるライン状のレーザ光として利用することができるので、発光状態ごとに確保される単位時間内において、同時間帯に出力されるイベントデータの位置に基づいて計測対象物の三次元形状を光切断法により計測することができる。すなわち、イベントデータを利用して計測対象物の三次元形状を計測することができる。
 より具体的には、計測部は、前回の計測結果とより過去の計測結果との差に基づいて撮像部に対する計測対象物の相対距離変化が所定距離以上であるか否かについて判定する判定部として機能する。そして、計測部により上記相対距離変化が上記所定距離未満であると判定されると、投影部は、短パルス発光を利用して所定の縞状パターンを投影し、計測部は、撮像画像における画素単位でのイベントデータの単位時間当たりの出力回数に基づいて輝度情報を求める。その一方で、計測部により上記相対距離変化が上記所定距離以上であると判定されると、投影部は、単パルス発光を利用して所定の縞状パターンを投影し、計測部は、撮像画像における画素単位でのプラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差に基づいて輝度情報を求める。
 これにより、撮像部に対する計測対象物の相対距離変化に応じて、イベントデータの単位時間当たりの出力回数に基づいて輝度情報を求める構成と、撮像画像における画素単位でのプラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差に基づいて輝度情報を求める構成とを切り替えることができる。
 さらに別の例では、計測部は、前回の計測結果とより過去の計測結果との差に基づいて撮像部に対する計測対象物の相対距離変化が所定距離以上であるか否かについて判定する判定部として機能する。そして、計測部により上記相対距離変化が上記所定距離以上であると判定されると、投影部は、光切断法用のパターンを投影し、計測部は、計測対象物を撮像した撮像画像において同時間帯に出力されるイベントデータの位置に基づいて当該計測対象物の三次元形状を光切断法により計測する。その一方で、計測部により上記相対距離変化が上記所定距離未満であると判定されると、投影部は、位相シフト法用の所定の縞状パターンを投影し、計測部は、撮像画像における画素単位でのプラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差に基づいて求められる輝度情報を利用して位相シフト法により計測対象物の三次元形状を計測する。
 これにより、撮像部に対する計測対象物の相対距離変化に応じて、撮像画像において同時間帯に出力されるイベントデータの位置に基づいて当該計測対象物の三次元形状を光切断法により計測する構成と、撮像画像における画素単位でのプラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差に基づいて求められる輝度情報を利用して位相シフト法により計測対象物の三次元形状を計測する構成とを切り替えることができる。
第1実施形態に係る三次元計測装置の概略構成を示すブロック図である。 図2(A)は、所定の縞状パターンを投影する際のある画素レベルでのR色発光状態、G色発光状態、B色発光状態を説明する説明図であり、図2(B)は、図2(A)と異なる画素レベルでのR色発光状態、G色発光状態、B色発光状態を説明する説明図である。 第2実施形態に係る、短パルス発光を利用して所定の縞状パターンを投影する際のR色発光状態、G色発光状態、B色発光状態を説明する説明図である。 第3実施形態に係る、光切断法用のパターンを例示する説明図である。 図4の光切断法用のパターンのみが投影された状態で出力されるイベントデータを利用して生成される撮像画像を説明する説明図であり、図5(A)は、光切断法用のパターンの投影を開始してから10μs後の状態を示し、図5(B)は、50μs後の状態を示し、図5(C)は、100μs後の状態を示す。 円形状の計測対象物に対して図4の光切断法用のパターンが投影された状態で出力されるイベントデータを利用して生成される撮像画像を説明する説明図であり、図6(A)は、光切断法用のパターンの投影を開始してから10μs後の状態を示し、図6(B)は、50μs後の状態を示し、図6(C)は、100μs後の状態を示す。
[第1実施形態]
 以下、本発明に係る、計測対象物の三次元形状又はその形状を示す情報を計測する三次元計測装置を具現化した第1実施形態について、図面を参照して説明する。
 本実施形態に係る三次元計測装置10は、計測対象物Rの三次元形状を光学的に計測する装置である。この三次元計測装置10は、図1に示すように、計測対象物Rに対して位相シフト法用の所定の縞状パターン(光学パターン)を投影する投影部20と、所定の縞状パターンが投影された計測対象物を撮像して光学画像(撮像画像)を得る撮像部30と、この撮像画像から計測対象物の三次元形状を計測する又は復元する計測部40と、それぞれ別体として備えるように構成されている。このように構成される三次元計測装置10は、例えば、ロボットのハンドに組み付けられることで、ハンドに対して高速に相対移動することになるワーク等の計測対象物Rの三次元形状を計測する。
 投影部20は、いわゆるDLP(Digital Light Processing)プロジェクタであって、光源からの光をDMD(Digital Mirror Device)素子にて反射することで上記所定の縞状パターンを投影する。DMD素子は、スクリーンに投影された画像の各画素に相当する微細なミラーをアレイ状に配置したものであり、各ミラーの角度を変化させてスクリーンへ出射する光を、マイクロ秒単位でオン/オフするように構成されている。このため、各ミラーをオンにしている時間とオフにしている時間の比率によって、反射される光の階調を変化させることにより、投影する画像の画像データに基づいた階調表示が可能になる。特に、DMD素子に入射する光は、R色(赤色)、G色(緑色)、B色(青色)が用意され、R色がミラーにて反射することで発光するR色発光状態とG色がミラーにて反射することで発光するG色発光状態とB色がミラーにて反射することで発光するB色発光状態とが短時間の所定の周期で繰り返されて、それぞれの発光時間が個別に調整されることで、カラー画像が投影可能となる。このような構成では、発光状態ごとに確保される単位時間内に1回発光される単パルス発光の発光時間が長くなるほどその発光色が明るくなる。
 本実施形態では、上述した位相シフト法用の所定の縞状パターン(光学パターン)として、下記の式(1)の輝度値I(x,y,n)から特定されるサイン波パターンが採用される。すなわち、位相シフト回数をNとしたとき、N枚の位相シフトされた格子画像(縞画像)の輝度値I(x,y,n)が式(1)によって表される。
   I(x,y,n)=a(x,y)cos{θ(x,y)+2πn/N}+b(x,y)    ・・・(1)
 ここで、点(x,y)は、格子画像内の1点で、a(x,y)は、輝度振幅、b(x,y)は、背景輝度を示し、θ(x,y)は、n=0の格子の位相を示し、N個の格子画像の輝度値I(x,y,n)から求めたθ(x,y)に応じて点(x,y)までの距離zを測定する。
 具体的には、本実施形態では、上述したR色発光状態、G色発光状態、B色発光状態による1周期分で3つの格子画像を得ることを前提に、N=3として、R色発光状態での輝度値I(x,y,0)とG色発光状態での輝度値I(x,y,1)とB色発光状態での輝度値I(x,y,2)とを、撮像画像から求める。このため、本実施形態における位相シフト法用の所定の縞状パターン(光学パターン)は、R色のみで構成されるサイン波パターンとG色のみで構成されるサイン波パターンとB色のみで構成されるサイン波パターンとを位相が2π/3ずれるようにして構成される。
 撮像部30は、いわゆるイベントカメラ(Event-Based Camera)として機能する撮像素子30及びその撮像素子30を駆動する回路、データ出力回路、閾値設定回路など(何れも図示せず)を搭載した撮像装置である。このため、撮像部30は、そのイベントカメラによって、受光した際に輝度変化のあった画素それぞれに対応して当該各画素の位置が特定される二次元点データを含めたイベントデータ(具体的には、二次元点データ、時間、輝度変化の極性)を出力する撮像素子30を備えて、当該撮像素子から出力されるイベントデータから撮像画像を生成可能に構成されている。このイベントカメラを成す撮像装置30は、例えば、米国特許出願公開第2016/0227135号等により知られている。
 このため、撮像部30では、撮像画像での各画素単位に関して、光を受光することで明るくなる輝度変化が生じるとプラス輝度変化のイベントデータが出力され、その光が消えることで暗くなる輝度変化が生じてマイナス輝度変化のイベントデータが出力される。一定期間内に出力される複数のイベントデータの二次元点データをそれぞれ点として所定の平面にプロットすることで計測対象物を撮像した画像データが生成可能となり、撮像部30は、このように生成された画像データ又はイベントデータ(二次元点データ,時間,輝度変化の極性)を計測部40に出力するように構成されている。
 計測部40は、投影部20から上述した所定の縞状パターンが投影されている状態の計測対象物Rを撮像部30により撮像した撮像画像に基づいて、その計測対象物Rの三次元形状を、位相シフト法に基づき計測するものである。具体的には、計測部40は、上記撮像画像における点(x,y)での輝度値I(x,y,0)、輝度値I(x,y,1)、輝度値I(x,y,2)を得ることでθ(x,y)を求め、このように求めたθ(x,y)に応じて点(x,y)までの距離zを測定する。
 なお、計測部40は典型的には、CPU40A及び各種のメモリ40Bを備えたマイクロコンピュータとして構成される。このCPU40Aは、メモリ40Bに予め保管された三次元計測のためのプログラムの各手順を順次実行し、かかる3次元計測に基づき計測対象物Rの3次元形状を示す情報が得らえる。
 一方で、この計測部40、即ちCPU40Aは、かかる3次元計測を実行するために、投影部20及び撮像部30とも協働する必要があり、この協働制御のためのプログラムがはやりメモリ40Bの別領域に予め保存されている。したがって、CPU40Aはその制御プログラムを実行することで、投影部30の駆動制御及び投光タイミングの制御、並びに、撮像部の駆動制御及び撮像部30、即ち撮像素子31から出力されるイベントデータの読出しタイミングの制御など担うことができる(図1の点線矢印参照)。
 このため、計測部40は、三次元計測の計測手段及び上記各種の制御を行う制御手段として機能する。
 このように、本実施形態では、三次元計測装置10の制御機能(制御手段、制御ユニット)は、計測部40のコンピュータ構成が兼用で担う構成になっている。勿論、この制御機能(制御手段、制御ユニット)は、計測部40とは別体で設けた制御専用ユニットに持たせてもよい。
 ここで、位相シフト法を利用して計測対象物Rの三次元形状を計測する際に、計測部40にて実施される三次元計測処理について以下詳述する。
 本実施形態では、高速に相対移動する計測対象物Rを精度良く撮像するための撮像部30の主要部として、イベントカメラを採用している。このような構成では、輝度変化があった画素に対応するイベントデータが出力され、そのイベントデータには輝度値が含まれないため、位相シフト法に必要な輝度値(I(x,y,0)、I(x,y,1)、I(x,y,2))を直接取得できない。
 そこで、本実施形態では、撮像画像における画素単位でのプラス輝度変化(輝度極性がプラスへ変化する)イベントデータの出力とマイナス輝度変化(輝度極性がマイナスへ変化する)のイベントデータの出力との時間差に基づいて輝度値(輝度情報)を、計測対象物Rの三次元形状を示す情報として求める。
 より詳細に説明するため、例えば、ある画素レベルにおいて、図2(A)に例示するように、R色発光状態、G色発光状態、B色発光状態が所定の周期Tで繰り返されている場合を想定する。なお、図2(A)及び図2(B)では、プラス輝度変化のイベントデータの出力を上向きの矢印にて図示し、マイナス輝度変化のイベントデータの出力を下向きの矢印にて図示している。
 このような発光状態では、R色発光開始のタイミングでプラス輝度変化のイベントデータが出力され(図2(A)のt11参照)、R色発光終了のタイミングでマイナス輝度変化のイベントデータが出力される(図2(A)のt12参照)。その後、G色発光開始のタイミングでプラス輝度変化のイベントデータが出力され(図2(A)のt13参照)、G色発光終了のタイミングでマイナス輝度変化のイベントデータが出力される(図2(A)のt14参照)。その後、B色発光開始のタイミングでプラス輝度変化のイベントデータが出力され(図2(A)のt15参照)、B色発光終了のタイミングでマイナス輝度変化のイベントデータが出力される(図2(A)のt16参照)。
 また、例えば、図2(A)での画素と異なる画素レベルでは、図2(B)に例示するように、R色発光開始のタイミングでプラス輝度変化のイベントデータが出力され(図2(B)のt21参照)、R色発光終了のタイミングでマイナス輝度変化のイベントデータが出力される(図2(B)のt22参照)。その後、G色発光開始のタイミングでプラス輝度変化のイベントデータが出力され(図2(B)のt23参照)、G色発光終了のタイミングでマイナス輝度変化のイベントデータが出力される(図2(B)のt24参照)。その後、B色発光開始のタイミングでプラス輝度変化のイベントデータが出力され(図2(B)のt25参照)、B色発光終了のタイミングでマイナス輝度変化のイベントデータが出力される(図2(B)のt26参照)。
 ここで、R色発光開始のタイミングからR色発光終了のタイミングまでの時間が長くなるほどR色が明るくなるため、R色発光開始のタイミングからR色発光終了のタイミングまでの時間に応じてR色の輝度値を求めることができる。同様に、G色発光開始のタイミングからG色発光終了のタイミングまでの時間に応じてG色の輝度値を求めることができ、B色発光開始のタイミングからB色発光終了のタイミングまでの時間に応じてB色の輝度値を求めることができる。
 このため、計測部40は、撮像画像における画素単位でのプラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差に基づいて輝度値(輝度情報)を求めることができる。この輝度値(輝度情報)は、計測対象物Rの三次元形状を示す情報である。
 図2(A)の例では、計測部40は、R色発光状態に関してプラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差であるt12-t11に基づいてR色発光状態での輝度値I(x,y,0)を求めることができる。同様にして、時間差t14-t13及び時間差t16-t15に基づいて、G色発光状態での輝度値I(x,y,1)及びB色発光状態での輝度値I(x,y,2)を求めることができる。
 すなわち、計測部40は、撮像画像における画素単位でのプラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差に基づいて、計測対象物の三次元形状を示す情報として輝度情報を求めることができる。
 このようにして求めた各輝度値を利用して位相シフト法により計測対象物の三次元形状を計測することができる。すなわち、イベントデータを利用して計測対象物の三次元形状を計測することができる。なお、後述するように単位時間内に複数回発光される短パルス発光を利用して上記所定の縞状パターンが投影される場合には、当該単位時間内において繰り返し生じるプラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差の総和に基づいて輝度値を求めてもよい。
 特に、三次元計測に利用するイベントデータは、輝度変化に応じて出力されるものなので、イベントデータを利用しない通常の位相シフト法で苦手とする背景との輝度差が大きくなる計測対象物(例えば、白色机面上の黒色物体)の計測であっても、正確に計測することができる。
 また、カラーカメラを用いたRGB位相シフト法で苦手とする計測対象物と背景とのカラー帯域の重なりによる混色が生じる場合であっても、正確に計測することができる。
 
[第2実施形態]
 次に、本第2実施形態に係る三次元計測装置について、図面を参照して説明する。
 本第2実施形態では、投影部20が単位時間内に複数回発光される、1つのパルス幅(時間幅)が短い短パルス発光を利用して上記所定の縞状パターンを投影する点が、上記第1実施形態と主に異なる。したがって、第1実施形態と実質的に同一の構成部分には、同一符号を付し、その説明を省略する。
 本実施形態では、投影部20での消費電力軽減等を目的として、上述したR色発光状態、G色発光状態、B色発光状態をそれぞれ短パルス発光によって実現する。このような構成では、発光状態ごとに確保される単位時間(T/3)当たりの短パルス発光の発光回数が多くなるほどその発光色が明るくなる。
 そうすると、撮像素子31の画素単位において、図3に示すように、1回の短パルス発光に応じてプラス輝度変化のイベントデータとマイナス輝度変化のイベントデータの出力とが出力されることから、上記単位時間当たりの短パルス発光の発光回数、すなわち、イベントデータの上記単位時間当たりの出力回数に基づいて、その発光色の輝度値を求めることができる。
 図3の例では、R色発光状態に関する上記単位時間当たりのイベントデータの出力回数(t31~t32間での出力回数)に基づいてR色発光状態での輝度値I(x,y,0)を求めることができる。同様にして、G色発光状態に関する上記単位時間当たりのイベントデータの出力回数(t33~t34間での出力回数)に基づいてG色発光状態での輝度値I(x,y,1)を求めることができる。また、B色発光状態に関する上記単位時間当たりのイベントデータの出力回数(t35~t36間での出力回数)に基づいてB色発光状態での輝度値I(x,y,2)を求めることができる。
 すなわち、計測部40は、撮像画像における画素単位でのイベントデータの単位時間当たりの出力回数に基づいて輝度情報を、計測対象物の三次元形状を示す情報として求めることができる。
 このようにして求めた各輝度値を利用して位相シフト法により計測対象物の三次元形状を計測することができる。すなわち、投影部20が短パルス発光を利用して上記所定の縞状パターンを投影する構成であっても、イベントデータを利用して計測対象物の三次元形状を計測することができる。
 なお、撮像部30に対する計測対象物Rの相対距離変化に応じて、イベントデータの単位時間当たりの出力回数に基づいて輝度情報を求める構成(本第2実施形態の特徴的構成)と、撮像画像における画素単位でのプラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差に基づいて輝度情報を求める構成(上記第1実施形態の特徴的構成)とを切り替えてもよい。
 具体的には、投影部20は、単位時間内に複数回発光される短パルス発光を利用して所定の縞状パターンを投影する状態と単位時間内に1回発光される単パルス発光を利用して所定の縞状パターンを投影する状態とを切り替え可能に構成される。また、計測部40は、前回の計測結果とより過去の計測結果(例えば、前々回の計測結果)との差に基づいて撮像部30に対する計測対象物Rの相対距離変化が第1の所定距離以上であるか否かについて判定する判定部として機能する。そして、計測部40により上記相対距離変化が上記第1の所定距離未満であると判定されると、投影部20は、短パルス発光を利用して所定の縞状パターンを投影し、計測部40は、撮像画像における画素単位でのイベントデータの単位時間当たりの出力回数に基づいて輝度情報を求める。その一方で、計測部40により上記相対距離変化が上記第1の所定距離以上であると判定されると、投影部20は、単パルス発光を利用して所定の縞状パターンを投影し、計測部40は、撮像画像における画素単位でのプラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差に基づいて輝度情報を求める。この輝度情報は、計測対象物Rの三次元形状を示す情報である。
 これにより、相対距離変化が比較的小さな計測対象物R、すなわち、動きが比較的小さな計測対象物Rの三次元形状を計測する場合には、イベントデータの単位時間当たりの出力回数に基づいて輝度情報を求めることで、計測対象物Rの色や周辺光の影響等に対するロバスト性を高めることができる。これに対して、相対距離変化が比較的大きな計測対象物R、すなわち、動きが比較的大きな計測対象物Rの三次元形状を計測する場合には、プラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差に基づいて輝度情報を求めることで、上述のようにイベントデータの出力回数に基づいて輝度情報を求める場合と比較して、より迅速に輝度情報を求めることができる。
 
[第3実施形態]
 次に、本第3実施形態に係る三次元計測装置について、図面を参照して説明する。
 本第3実施形態では、光切断法を利用して計測対象物の三次元形状を計測する点が、上記第1実施形態と主に異なる。したがって、第1実施形態と実質的に同一の構成部分には、同一符号を付し、その説明を省略する。
 本実施形態では、光切断法を利用して計測対象物の三次元形状を計測するため、投影部20は、計測対象物Rに対して光切断法用のパターンを投影するように構成されている。本実施形態における光切断法用のパターンは、R色、G色、B色のいずれかにおいて、第1の方向においてその輝度が左側から右側にかけて一定の割合で増加するように変化し第1の方向に直交する第2の方向においてその輝度が変化しないように投影される。
 また、計測部40は、撮像画像において同時間帯に出力されるイベントデータの位置に基づいて計測対象物の三次元形状を光切断法に基づいて計測するように構成されている。
 以下、上述のように投影される光切断法用のパターンを利用した光切断法について説明する。
 投影部20において、R色発光状態、G色発光状態、B色発光状態が所定の周期で繰り返されている状態で、例えば、R色を発光する際、R色発光開始のタイミングからR色発光終了のタイミングまでの時間が長くなるほどR色が明るくなる。この投影状態に応じて光を受光する撮像部30の撮像素子31では、発光状態ごとに確保される単位時間内において、R色発光開始のタイミングでプラス輝度変化のイベントデータが出力され、R色発光終了のタイミングでマイナス輝度変化のイベントデータが出力される。
 ここで、図4に例示するように、左右方向(第1の方向)においてR色の輝度が左側から右側にかけて一定の割合で増加するように変化し上下方向(第2の方向)においてR色の輝度が変化しないように投影された光切断法用のパターンのみを撮像部30にて撮像する場合(撮像画像)を想定する。
 このような場合、撮像部30では、上記単位時間内にて、同時間帯に出力されるマイナス輝度変化のイベントデータ群が上下方向にライン状となって、上記単位時間内で左側から右側に移動するように動画的に撮像される。上記パターンの左端に近づくほど暗くなるためにR色発光終了のタイミングが左端に近づくほど早くなり、上記パターンの右端に近づくほど明るくなるためにR色発光終了のタイミングが右端に近づくほど遅くなり、上下方向ではR色発光終了のタイミングがほぼ同じになるからである。
 具体的には、例えば、投影部20により上記光切断法用のパターンの投影を開始してから10μs後に撮像部30にて撮像された状態では、図5(A)に示すように、上記パターンの左端近傍にてイベントデータ群Sが上下方向にライン状となるように撮像される。その後、例えば、50μs後では、図5(B)に示すように、ライン状のイベントデータ群Sが右側に移動するように撮像され、100μs後では、図5(C)に示すように、ライン状のイベントデータ群Sがさらに右側に移動するように撮像される。
 このようにライン状で移動するように撮像されるイベントデータ群は、光切断法にて用いられるライン状のレーザ光として利用することができる。具体的には、例えば、円形状の計測対象物Rに対して投影部20から上記光切断法用のパターンの投影を開始してから10μs後であって、図6(A)に示すようにイベントデータ群Sが計測対象物Rに到達していない状態では、イベントデータ群Sが上下方向にライン状となるように撮像される。その後、例えば、50μs後に、図6(B)に示すように、イベントデータ群Sが計測対象物Rに到達すると、その計測対象物Rに形状に応じてイベントデータ群Sの並びが変化するように撮像される。その後も、図6(C)に示すように、その計測対象物Rに形状に応じてイベントデータ群Sの並びが変化するように撮像される。
 このため、発光状態ごとに確保される単位時間内において、同時間帯に出力されるイベントデータの位置に基づいて計測対象物の三次元形状が計測部40によって光切断法により計測することができる。すなわち、イベントデータを利用して計測対象物の三次元形状を計測することができる。
 なお、光切断法用のパターンは、左右方向においてR色の輝度が左側から右側にかけて一定の割合で増加するように変化し上下方向においてR色の輝度が変化しないように投影されることに限らず、例えば、左右方向においてG色(B色)の輝度が左側から右側にかけて一定の割合で増加するように変化し上下方向においてG色(B色)の輝度が変化しないように投影されてもよい。また、光切断法用のパターンは、左右方向においてR色(G色,B色)の輝度が左側から右側にかけて一定の割合で増加するように変化し上下方向においてR色(G色,B色)の輝度が変化しないように投影されることに限らず、R色、G色、B色のいずれかにおいて、第1の方向においてその輝度が一定の割合で変化し第1の方向に直交する第2の方向においてその輝度が変化しないように投影されればよい。
 なお、撮像部30に対する計測対象物Rの相対距離変化に応じて、光切断法を利用して計測対象物の三次元形状を計測する構成(本第3実施形態の特徴的構成)と、位相シフト法を利用して計測対象物の三次元形状を計測する構成(上記第1実施形態の特徴的構成)とを切り替えてもよい。
 具体的には、投影部20は、光切断法用のパターンを投影する状態と位相シフト法用の所定の縞状パターンを投影する状態とを切り替え可能に構成される。また、計測部40は、前回の計測結果とより過去の計測結果(例えば、前々回の計測結果)との差に基づいて撮像部30に対する計測対象物Rの相対距離変化が第2の所定距離以上であるか否かについて判定する判定部として機能する。そして、計測部40により上記相対距離変化が上記第2の所定距離以上であると判定されると、投影部20は、光切断法用のパターンを投影し、計測部40は、計測対象物Rを撮像した撮像画像において同時間帯に出力されるイベントデータの位置に基づいて当該計測対象物の三次元形状を光切断法により計測する。その一方で、計測部40により上記相対距離変化が上記第2の所定距離未満であると判定されると、投影部20は、単パルス発光を利用して所定の縞状パターンを投影し、計測部40は、撮像画像における画素単位でのプラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差に基づいて求められる輝度情報に基づき位相シフト法により計測対象物の三次元形状を計測する。
 これにより、相対距離変化が比較的大きな計測対象物R、すなわち、動きが比較的大きな計測対象物Rの三次元形状を計測する場合には、同時間帯に出力されるイベントデータの位置に基づいて当該計測対象物Rの三次元形状を光切断法により計測することで、位相シフト法を利用する場合と比較して、より迅速に三次元形状を計測することができる。これに対して、相対距離変化が比較的小さな計測対象物R、すなわち、動きが比較的小さな計測対象物Rの三次元形状を計測する場合には、プラス輝度変化のイベントデータの出力とマイナス輝度変化のイベントデータの出力との時間差に基づいて求められる輝度情報を利用して計測対象物Rの三次元形状を位相シフト法により計測することで、光切断法を利用する場合と比較して、高精度に三次元形状を計測することができる。
 なお、本発明は上記各実施形態に限定されるものではなく、例えば、以下のように具体化してもよい。
(1)三次元計測装置10は、ロボットのハンドに組み付けられた状態で移動して、相対移動する計測対象物の三次元形状を計測することに限らず、例えば、固定状態で使用されて、搬送ライン上を移動する計測対象物の三次元形状を計測してもよい。
(2)三次元計測装置10は、投影部20及び撮像部30と計測部40とが別体となって、計測部40が投影部20及び撮像部30と無線通信又は有線通信可能な情報処理端末として構成されてもよい。
(3)本発明は、dotパターン投影法を利用して計測対象物の三次元形状を計測する三次元計測装置に適用されてもよい。この三次元計測装置では、上記第3実施形態にて述べた光切断法と同様に輝度情報を付与することにより、識別できる数は輝度情報の分解能に依存するものの、ドットそれぞれを個別に識別することができる。このdotパターン投影法では、光切断法と比較した場合に、データ転送量を低減させることが可能となるため、機能の高速化を行うことができる。
 10…三次元計測装置
 20…投影部
 30…撮像部
 31…イベントデータを出力する撮像素子(イベントカメラとして機能)
 40…計測部(計測手段及び制御手段として機能する)
 R…計測対象物

Claims (5)

  1.  計測対象物に対して光学的に所定の縞状パターンを投影する投影部と、
     前記所定の縞状パターンが投影された前記計測対象物を光学的に撮像して撮像画像を得る撮像部と、
     前記撮像部で取得された光学的な前記撮像画像から求められる輝度情報に基づき位相シフト法により前記計測対象物の三次元形状を計測する計測部と、
     を備える三次元計測装置であって、
     前記撮像部は、受光した際に輝度変化のあった画素に対応して当該画素の位置が特定される二次元点データを含めたイベントデータを出力する撮像素子を備え、前記撮像素子から出力されるイベントデータから前記撮像画像を生成するように構成され、
     前記撮像素子は、明るくなる輝度変化の場合にプラス輝度変化のイベントデータを出力し、暗くなる輝度変化の場合にマイナス輝度変化のイベントデータを出力するように構成され、
     前記計測部は、前記撮像画像における画素単位での前記プラス輝度変化のイベントデータの出力と前記マイナス輝度変化のイベントデータの出力との時間差に基づいて、前記計測対象物の三次元形状を示す情報として前記輝度情報を求めるように構成されていることを特徴とする三次元計測装置。
     
  2.  計測対象物に対して光学的に所定の縞状パターンを投影する投影部と、
     前記所定の縞状パターンが投影された前記計測対象物を光学的に撮像して撮像画像を得る撮像部と、
     前記撮像部で取得された光学的な前記撮像画像から求められる輝度情報に基づき位相シフト法により前記計測対象物の三次元形状を計測する計測部と、
     を備える三次元計測装置であって、
     前記撮像部は、受光した際に輝度変化のあった画素に対応して当該画素の位置が特定される二次元点データを含めたイベントデータを出力する撮像素子を備え、前記撮像素子から出力されるイベントデータから前記撮像画像を生成するように構成され、
     前記投影部は、単位時間内に複数回発光される短パルス発光を利用して前記所定の縞状パターンを投影するように構成され、
     前記計測部は、前記撮像画像における画素単位での前記イベントデータの前記単位時間当たりの出力回数に基づいて前記輝度情報を、前記計測対象物の三次元形状を示す情報として求めるように構成されていることを特徴とする三次元計測装置。
     
  3.  計測対象物に対して光切断法用のパターンを光学的に投影する投影部と、
     前記所定のパターンが投影された前記計測対象物を光学的に撮像して撮像画像を得る撮像部と、
     前記撮像部で取得された光学的な前記撮像画像に基づいて、前記計測対象物の三次元形状を計測する計測部と、
     を備える三次元計測装置であって、
     前記投影部は、前記光切断法用のパターンを、第1の方向において輝度が一定の割合で変化し前記第1の方向に直交する第2の方向において輝度が変化しないように投影するように構成され、
     前記撮像部は、受光した際に輝度変化のあった画素に対応して当該画素の位置が特定される二次元点データを含めたイベントデータを出力する撮像素子を備え、前記撮像素子から出力されるイベントデータから前記撮像画像を生成するように構成され、
     前記計測部は、前記撮像画像において同時間帯に出力される前記イベントデータの位置に基づいて当該計測対象物の三次元形状を前記光切断法に基づいて計測するように構成されていることを特徴とする三次元計測装置。
     
  4.  前記投影部は、前記単位時間内に複数回発光される短パルス発光を利用して前記所定の縞状パターンを投影する状態と前記単位時間内に1回発光される単パルス発光を利用して前記所定の縞状パターンを投影する状態とを切り替え可能に構成され、
     前記撮像素子は、明るくなる輝度変化の場合にプラス輝度変化のイベントデータを出力し、暗くなる輝度変化の場合にマイナス輝度変化のイベントデータを出力するように構成され、
     前記計測部による前回の計測結果とより過去の計測結果との差に基づいて前記撮像部に対する前記計測対象物の相対距離変化が所定距離以上であるか否かについて判定する判定部を備え、
     前記判定部により前記相対距離変化が前記所定距離未満であると判定されると、
     前記投影部は、前記短パルス発光をもとで前記所定の縞状パターンを投影し、
     前記計測部は、前記撮像画像における画素単位での前記イベントデータの前記単位時間当たりの出力回数に基づいて前記輝度情報を求め、
     前記判定部により前記相対距離変化が前記所定距離以上であると判定されると、
     前記投影部は、前記単パルス発光をもとで前記所定の縞状パターンを投影し、
     前記計測部は、前記撮像画像における画素単位での前記プラス輝度変化のイベントデータの出力と前記マイナス輝度変化のイベントデータの出力との時間差に基づいて前記輝度情報を求めることを特徴とする請求項2に記載の三次元計測装置。
     
  5.  前記投影部は、前記光切断法用のパターンを投影する状態と位相シフト法用の所定の縞状パターンを投影する状態とを切り替え可能に構成され、
     前記撮像素子は、明るくなる輝度変化の場合にプラス輝度変化のイベントデータを出力し、暗くなる輝度変化の場合にマイナス輝度変化のイベントデータを出力するように構成され、
     前記計測部による前回の計測結果とより過去の計測結果との差に基づいて前記撮像部に対する前記計測対象物の相対距離変化が所定距離以上であるか否かについて判定する判定部を備え、
     前記判定部により前記相対距離変化が前記所定距離以上であると判定されると、
     前記投影部は、前記光切断法用のパターンを投影し、
     前記計測部は、前記計測対象物を撮像した撮像画像において同時間帯に出力される前記イベントデータの位置に基づいて当該計測対象物の三次元形状を光切断法により計測し、
     前記判定部により前記相対距離変化が前記所定距離未満であると判定されると、
     前記投影部は、前記位相シフト法用の所定の縞状パターンを投影し、
     前記計測部は、前記撮像画像における画素単位での前記プラス輝度変化のイベントデータの出力と前記マイナス輝度変化のイベントデータの出力との時間差に基づいて求められる輝度情報に基づいて位相シフト法により前記計測対象物の三次元形状を計測することを特徴とする請求項3に記載の三次元計測装置。
PCT/JP2020/040263 2019-10-28 2020-10-27 三次元計測装置 WO2021085419A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202080064477.XA CN114424020A (zh) 2019-10-28 2020-10-27 三维测量装置
US17/764,505 US20220349707A1 (en) 2019-10-28 2020-10-27 Three-dimensional measurement device
EP20882065.4A EP4053499A4 (en) 2019-10-28 2020-10-27 DEVICE FOR THREE-DIMENSIONAL MEASURING

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019195349A JP7371443B2 (ja) 2019-10-28 2019-10-28 三次元計測装置
JP2019-195349 2019-10-28

Publications (1)

Publication Number Publication Date
WO2021085419A1 true WO2021085419A1 (ja) 2021-05-06

Family

ID=75637844

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/040263 WO2021085419A1 (ja) 2019-10-28 2020-10-27 三次元計測装置

Country Status (5)

Country Link
US (1) US20220349707A1 (ja)
EP (1) EP4053499A4 (ja)
JP (1) JP7371443B2 (ja)
CN (1) CN114424020A (ja)
WO (1) WO2021085419A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022209151A1 (ja) * 2021-03-30 2022-10-06 株式会社デンソーウェーブ 三次元計測装置

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019130381A1 (ja) * 2017-12-25 2019-07-04 株式会社ニコン 加工システム、測定プローブ、形状測定装置、及びプログラム
EP4019891A1 (en) * 2020-12-22 2022-06-29 Faro Technologies, Inc. Three-dimensional scanner with event camera
WO2023089788A1 (ja) * 2021-11-19 2023-05-25 ファナック株式会社 三次元計測装置
JP2023133723A (ja) * 2022-03-14 2023-09-27 株式会社デンソーウェーブ 三次元計測装置
WO2024014561A1 (ja) * 2022-07-15 2024-01-18 国立大学法人奈良先端科学技術大学院大学 波長時間変調のイベント計測による分光計測装置及び分光計測方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2887009A1 (en) * 2013-12-23 2015-06-24 Universität Zürich Method for reconstructing a surface using spatially structured light and a dynamic vision sensor
US20160227135A1 (en) 2013-09-16 2016-08-04 Chronocam Dynamic, single photodiode pixel circuit and operating method thereof
WO2018195669A1 (en) * 2017-04-28 2018-11-01 The Governing Council Of The University Of Toronto Method and system for pixel-wise imaging
CN109458928A (zh) * 2018-10-29 2019-03-12 西安知微传感技术有限公司 基于扫描振镜和事件相机激光线扫描3d检测方法及系统
JP2020020640A (ja) * 2018-07-31 2020-02-06 株式会社デンソーアイティーラボラトリ 3次元形状計測システム、3次元形状計測方法、及び3次元形状計測プログラム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4670341B2 (ja) * 2004-12-22 2011-04-13 パナソニック電工株式会社 3次元形状計測方法並びに3次元形状計測装置、3次元形状計測用プログラム
JP4801457B2 (ja) * 2006-02-02 2011-10-26 株式会社リコー 表面欠陥検査装置、表面欠陥検査方法及び表面欠陥検査プログラム
TW200803482A (en) * 2006-06-01 2008-01-01 Micro Nits Co Ltd Image processing method of indicator input system
DE102011086318A1 (de) * 2011-11-14 2013-05-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Positionsbestimmung eines Objekts mittels Erfassung eines Positionsmusters durch optischen Sensor
JP6062523B1 (ja) * 2015-11-27 2017-01-18 Ckd株式会社 三次元計測装置
US10659764B2 (en) * 2016-06-20 2020-05-19 Intel Corporation Depth image provision apparatus and method
JP6353573B1 (ja) * 2017-03-02 2018-07-04 Ckd株式会社 三次元計測装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160227135A1 (en) 2013-09-16 2016-08-04 Chronocam Dynamic, single photodiode pixel circuit and operating method thereof
EP2887009A1 (en) * 2013-12-23 2015-06-24 Universität Zürich Method for reconstructing a surface using spatially structured light and a dynamic vision sensor
WO2018195669A1 (en) * 2017-04-28 2018-11-01 The Governing Council Of The University Of Toronto Method and system for pixel-wise imaging
JP2020020640A (ja) * 2018-07-31 2020-02-06 株式会社デンソーアイティーラボラトリ 3次元形状計測システム、3次元形状計測方法、及び3次元形状計測プログラム
CN109458928A (zh) * 2018-10-29 2019-03-12 西安知微传感技术有限公司 基于扫描振镜和事件相机激光线扫描3d检测方法及系统

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
BARDOW PATRICK; DAVISON ANDREW J; LEUTENEGGER STEFAN: "Simultaneous optical flow and intensity estimation from an event camera", 2016 IEEE CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION, 12 December 2016 (2016-12-12), pages 884 - 892, XP033021219 *
HANME KIM; HANDA ANKUR; BENOSMAN RYAD; IENG SIO-HOI; DAVISON ANDREW: "Simultaneous mosaicing and tracking with an event camera", THE PROCEEDINGS OF THE BRITISH MACHINE VISION CONFERANCE 2014, 2014, pages 3.2, XP055355156 *
See also references of EP4053499A4

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022209151A1 (ja) * 2021-03-30 2022-10-06 株式会社デンソーウェーブ 三次元計測装置
JP7401024B2 (ja) 2021-03-30 2023-12-19 株式会社デンソーウェーブ 三次元計測装置

Also Published As

Publication number Publication date
JP7371443B2 (ja) 2023-10-31
EP4053499A1 (en) 2022-09-07
JP2021067644A (ja) 2021-04-30
CN114424020A (zh) 2022-04-29
EP4053499A4 (en) 2023-12-06
US20220349707A1 (en) 2022-11-03

Similar Documents

Publication Publication Date Title
WO2021085419A1 (ja) 三次元計測装置
US10412352B2 (en) Projector apparatus with distance image acquisition device and projection mapping method
US10508902B2 (en) Three-dimensional measurement device
KR101605386B1 (ko) 측정 물체 표면 위에서 3d 좌표들을 결정하기 위한 광학 측정 방법 및 측정 시스템
US8199335B2 (en) Three-dimensional shape measuring apparatus, three-dimensional shape measuring method, three-dimensional shape measuring program, and recording medium
US10262431B2 (en) Three-dimensional measurement device
JP6601790B2 (ja) リアルタイム計測投影装置及び三次元投影計測装置
US10914574B2 (en) Three-dimensional measurement device
JP2014240830A (ja) 測定装置およびその制御方法
WO2016131036A1 (en) Imaging system with synchronized dynamic control of directable beam light source and reconfigurably masked photo-sensor
US20230199324A1 (en) Projection unit and photographing apparatus comprising same projection unit, processor, and imaging device
US9894339B2 (en) Image processing apparatus, image processing method and program
JPH1194520A (ja) 実時間レンジファインダ
JP2003050112A (ja) 三次元形状入力装置及び投影装置
JP2019159872A (ja) 演算装置、演算装置の制御方法、および、コンピュータープログラム
JP6713622B2 (ja) 3次元計測装置、3次元計測システム、3次元計測方法及びプログラム
JP2015102532A (ja) 三次元形状測定装置
JP2003057021A (ja) 三次元形状入力装置及び投影装置
WO2023176127A1 (ja) 三次元計測装置
JP7401024B2 (ja) 三次元計測装置
JP6432968B2 (ja) 物体形状推定装置及びプログラム
WO2023084790A1 (ja) 3次元計測システム、並びにその制御方法及び制御プログラム
JP7176969B2 (ja) 検査装置
WO2022158213A1 (ja) ブレ評価装置、ブレ評価方法、撮影手段の製造方法、およびプログラム
WO2023139988A1 (ja) 測定システム、情報処理装置、測定方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20882065

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020882065

Country of ref document: EP

Effective date: 20220530