WO2023105664A1 - ワーク計測装置およびワーク計測方法 - Google Patents

ワーク計測装置およびワーク計測方法 Download PDF

Info

Publication number
WO2023105664A1
WO2023105664A1 PCT/JP2021/045061 JP2021045061W WO2023105664A1 WO 2023105664 A1 WO2023105664 A1 WO 2023105664A1 JP 2021045061 W JP2021045061 W JP 2021045061W WO 2023105664 A1 WO2023105664 A1 WO 2023105664A1
Authority
WO
WIPO (PCT)
Prior art keywords
workpiece
dimensional data
work
data
light
Prior art date
Application number
PCT/JP2021/045061
Other languages
English (en)
French (fr)
Inventor
政二 高橋
Original Assignee
ヤマハ発動機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ヤマハ発動機株式会社 filed Critical ヤマハ発動機株式会社
Priority to KR1020247011180A priority Critical patent/KR20240058907A/ko
Priority to JP2023565762A priority patent/JPWO2023105664A1/ja
Priority to PCT/JP2021/045061 priority patent/WO2023105664A1/ja
Publication of WO2023105664A1 publication Critical patent/WO2023105664A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0608Height gauges
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/40Image enhancement or restoration using histogram techniques

Definitions

  • the present invention relates to a work measuring device and a measuring method for acquiring two-dimensional data and three-dimensional data of a work to be measured.
  • the light section method is known as a non-contact method for measuring the height of a workpiece.
  • a workpiece irradiated with line light is scanned and imaged, and the height of the workpiece is obtained from the captured image based on the principle of triangulation.
  • Patent Literature 1 discloses a three-dimensional shape measuring apparatus for a workpiece using a light section method.
  • luminance values of pixels of a point of interest in an image obtained by scanning are arranged in chronological order, and a change in luminance of the point of interest is obtained.
  • Patent Document 2 discloses a device that generates a three-dimensional model of a workpiece from the three-dimensional shape of the workpiece and a two-dimensional texture image.
  • a first light source and a first light receiving unit for three-dimensional measurement in order to simultaneously acquire three-dimensional data and two-dimensional data of a workpiece, a first light source and a first light receiving unit for three-dimensional measurement, and the first light source for two-dimensional measurement and a second light source and a second light receiving section having different wavelengths.
  • Patent Document 1 when using a measuring device that obtains only three-dimensional data of a work, as in Patent Document 1, a separate measurement process for the work is required in order to acquire two-dimensional data of the work.
  • the measuring apparatus of Patent Document 2 a light source and a camera are required for three-dimensional measurement and two-dimensional measurement of the workpiece, respectively, which complicates the apparatus.
  • An object of the present invention is to provide a work measuring device and a method that can measure two-dimensional data and three-dimensional data of a work with good workability and without complicating the device.
  • a work measuring apparatus includes a first light source that irradiates a work to be measured with line light, a second light source that irradiates the work with normal illumination light, the line light and the an imaging unit capable of acquiring an image of the workpiece and its surroundings illuminated by normal illumination light; a moving mechanism for relatively moving the workpiece in a predetermined feed direction; the imaging unit, the first light source, and the second light source and a control unit that controls the operation of the movement mechanism, and a measurement unit that obtains two-dimensional data and three-dimensional data about the workpiece based on the image acquired by the imaging unit, wherein the control unit controls the movement While the work is moved by a mechanism and the first light source and the second light source are turned on at the same time, the imaging unit is caused to perform an imaging operation of the work in a predetermined camera scale unit, and the measurement unit is configured to: extracting image data corresponding to the position of interest of the workpiece from each of the images sequentially captured in units of the camera scale, and
  • a workpiece measuring method is a workpiece measuring method for acquiring two-dimensional data and three-dimensional data of a workpiece to be measured, wherein the workpiece is moved while simultaneously emitting line light and normal illumination light. While irradiating the work, an image of the work is obtained in units of a predetermined camera scale, and image data corresponding to a position of interest of the work is extracted from each of the images sequentially captured in units of the camera scale. Then, the extracted image data are arranged in chronological order to generate a brightness distribution map of the target position, and based on the brightness distribution map, two-dimensional data and three-dimensional data of the target position are derived.
  • FIG. 1 is a schematic diagram simply showing the hardware configuration of a workpiece measuring apparatus according to an embodiment of the present invention.
  • FIG. 2 is a block diagram showing the electrical configuration of the workpiece measuring device.
  • FIGS. 3A to 3C are schematic diagrams showing a technique for measuring the height of a work by the light section method.
  • FIG. 4A is a diagram showing an imaging situation with respect to a target position of a work.
  • FIG. 4B is a diagram showing an imaging situation with respect to the position of interest of the work.
  • FIG. 4C is a diagram showing an imaging situation with respect to the position of interest of the work.
  • FIG. 4D is a diagram showing an imaging situation with respect to the position of interest of the work.
  • FIG. 4A is a diagram showing an imaging situation with respect to a target position of a work.
  • FIG. 4B is a diagram showing an imaging situation with respect to the position of interest of the work.
  • FIG. 4C is a diagram showing an imaging situation with respect to the position of
  • FIG. 5A is a diagram showing an example of the luminance distribution map of the attention position
  • FIG. 5B is a graph showing luminance values along line VB-VB in FIG. 5A
  • 6A to 6E are diagrams for explaining the process of deriving two-dimensional data and three-dimensional data of a workpiece from the brightness distribution map.
  • FIG. 7 is a flow chart showing processing for deriving two-dimensional data and three-dimensional data of a work using the work measuring device of this embodiment.
  • FIGS. 8A to 8D are diagrams for explaining the process of deriving two-dimensional data and three-dimensional data of a workpiece from a brightness distribution map according to the modification.
  • the workpiece measuring device can be widely applied to two-dimensional and three-dimensional measurements of workpieces to be measured, such as various industrial products, semi-finished products, machine parts, electronic parts, foods, and agricultural products.
  • the workpiece measuring apparatus of the present invention is suitable for two-dimensional or three-dimensional measurement of parts mounted on a board as workpieces.
  • FIG. 1 is a schematic diagram simply showing the hardware configuration of a workpiece measuring device 1 according to this embodiment.
  • the work measuring device 1 includes a first light source 2 , a second light source 3 , a camera device 4 (imaging section), a moving motor 5 (moving mechanism), and a control section 6 .
  • the work measuring device 1 is a device that derives two-dimensional data (brightness measurement data) and three-dimensional data (height measurement data) of the work W on the base 51 .
  • two-dimensional data two-dimensional data
  • three-dimensional data height measurement data
  • the surface of the base 51 serves as a reference height plane for height measurement.
  • the base 51 is a board on which the component is mounted.
  • the first light source 2 is a light source that generates slit-shaped light, and irradiates the workpiece W to be measured with the line light SL.
  • a light source device that includes a laser light source and an optical component that converts the laser light emitted from the laser light source into a fan-shaped slit light can be applied.
  • the first light source 2 is arranged to irradiate the work W with the line light SL from vertically above.
  • the second light source 3 irradiates the workpiece W with normal illumination light TL.
  • the normal illumination light TL is shown in the form of diffused light that spreads in a conical shape for the sake of simplification of illustration. It is directional illumination light.
  • a light source device can be applied in which substrates on which a large number of LEDs are mounted in a matrix are arranged in a ring with different directivity directions.
  • the workpiece W can be irradiated with omnidirectional illumination light, there is no particular limitation on the arrangement form of the second light source 3 .
  • the camera device 4 acquires an image of the workpiece W irradiated with the line light SL and the normal illumination light TL and its surroundings.
  • the camera device 4 has an imaging optical axis AX inclined with respect to the vertical direction of the base 51 . That is, the camera device 4 has an imaging optical axis AX inclined with respect to the projection axis of the line light SL.
  • These axis arrangements are arrangements for measuring the three-dimensional shape of the work W by the light section method. It should be noted that a configuration may be adopted in which the imaging optical axis AX is arranged in the vertical direction and the projection axis of the line light SL is inclined with respect to the imaging optical axis AX.
  • the moving motor 5 is a driving source of a moving mechanism that relatively moves the workpiece W in a predetermined workpiece feeding direction F.
  • modes of relative movement of the workpiece W there is a mode in which the measurement system of the first light source 2, the second light source 3 and the camera device 4 are fixed and the workpiece W and the base 51 are moved in the workpiece feed direction F, and scanning movement of the measurement system in the work feeding direction F with respect to the work W and the base 51 which have been placed.
  • the moving motor 5 serves as a driving source such as a conveyor for moving the workpiece W and the base 51 in the former case, and serves as a driving source for moving the measurement system along a guide rail or the like in the latter case.
  • the control unit 6 is composed of a microcomputer, a personal computer, or the like, and controls the operations of the first light source 2, the second light source 3, the camera device 4, and the movement motor 5. Specifically, the control unit 6 controls the irradiation operation of the line light SL by the first light source 2, the irradiation operation of the normal illumination light TL by the second light source 3, the imaging operation of the work W by the camera device 4, and the movement motor 5. It controls the feeding operation of the work W, that is, the scanning operation.
  • FIG. 2 is a block diagram showing the electrical configuration of the workpiece measuring device 1.
  • the camera device 4 includes an imaging device 41 , an image memory 42 , a measurement section 43 , a setting storage section 44 and an I/F section 45 .
  • the imaging device 41 is a sensor in which pixels made of photoelectric conversion elements are arranged in a matrix.
  • CMOS sensor capable of specifying an ROI (Region Of Interest) that defines a readout range of pixels.
  • the image memory 42 temporarily stores the image data acquired by the imaging device 41 .
  • the measurement unit 43 obtains two-dimensional data and three-dimensional data of the work W based on the image of the work W acquired by the imaging operation, that is, the image data stored in the image memory 42 .
  • the setting storage unit 44 stores various setting data, parameters, and the like related to the measurement operation of the measurement unit 43 .
  • the setting storage unit 44 may store setting values relating to reference positions for partitioning 2D regions and 3D regions in a luminance distribution map M, which will be described later.
  • the I/F section 45 is an interface circuit for performing data communication with the control section 6 .
  • the measurement unit 43 functionally includes an image arrangement unit 431, a height calculation unit 432, a brightness calculation unit 433 and an ROI setting unit 434.
  • the image arrangement unit 431 extracts image data corresponding to the position of interest of the workpiece W from each of the images sequentially captured by the imaging device 41 in units of a predetermined camera scale. Further, the image arrangement unit 431 arranges the extracted image data in chronological order to generate a brightness distribution map M (FIG. 5) for the target position.
  • the height calculation unit 432 executes a process of obtaining the height of each target position of the work W based on the brightness distribution map M by the light section method.
  • the brightness calculation unit 433 executes processing for determining the brightness of each target position based on the brightness distribution map M.
  • FIG. The ROI setting unit 434 designates the ROI of the imaging device 41 . As the range of the ROI in the work feeding direction F, that is, the range in the profile direction, is widened, the height range of the work W to be measured is expanded, and three-dimensional measurement of a higher work W becomes possible.
  • the control unit 6 moves the work W in the work feeding direction F by means of a moving mechanism having a moving motor 5 , while the first light source 2 and the second light source 3 are turned on at the same time.
  • the imaging operation of the workpiece W is performed at the rate. That is, the control unit 6 causes the camera device 4 to perform an imaging operation for each pitch proportional to the size of the pixel array of the imaging device 41, in other words, for each camera scale.
  • the control unit 6 operates to functionally include a camera control unit 61, a light source control unit 62, a motor control unit 63, a data storage unit 64, and an I/F unit 65 by executing a predetermined program. .
  • the camera control unit 61 controls the camera device 4 to image the relatively moving work W in units of a predetermined camera scale. A large number of frame images of the workpiece W are acquired by this imaging and stored in the image memory 42 .
  • the camera scale unit is set so that the relative movement distance of the workpiece W and the size of the pixel array of the imaging element 41 are in a proportional relationship.
  • the light source control unit 62 turns on the first light source 2 and the second light source 3 at the same time when the camera device 4 captures an image of the work W. Thereby, both the line light SL and the normal illumination light TL, which are reflected from the workpiece W, can be incident on the camera device 4 at the same time.
  • the motor control unit 63 controls the moving motor 5 to relatively move the work W and the base 51 in the work feeding direction F at a predetermined moving speed when the camera device 4 captures an image of the work W.
  • the data storage unit 64 stores two-dimensional data and three-dimensional data of the work W transmitted from the measurement unit 43 of the camera device 4 .
  • the I/F section 65 is an interface circuit for performing data communication with the camera device 4 .
  • FIGS. 3A to 3C Three-dimensional measurement (height measurement) by the light section method, which can be performed by the work measuring apparatus 1, will be described.
  • FIG. 3A an example in which a rectangular parallelepiped workpiece W is mounted on a base 51 as the object to be measured is shown here.
  • the camera device 4 and the first light source 2 that emits the line light SL are used for the height measurement.
  • the camera device 4 is arranged so that the imaging optical axis AX is in the vertical direction, and the projection optical axis of the line light SL is at a predetermined crossing angle with respect to the imaging optical axis AX.
  • An example in which the first light source 2 is arranged to have ⁇ is shown.
  • FIG. 3(B) shows a frame image F01 acquired by the camera device 4 at a certain scanning position where the work W is irradiated with the line light SL.
  • the reflected light RL1 from the base 51 around the work W that is, from the reference height
  • the reflected light RL2 from the upper surface of the work W are captured by the camera device. 4 is imaged. Since the line light SL is oblique light and the workpiece W has a height, the reflected lights RL1 and RL2 are observed at different X-coordinate positions on the frame image F01. Specifically, the reflected light RL1 appears at the coordinate x11, and the reflected light RL2 appears at the coordinate x12 located upstream in the work feeding direction F from the coordinate x11.
  • Three-dimensional data of the work W can be obtained by integrating a plurality of height data acquired by the scanning operation as described above.
  • the height data acquired in each of the frame images F01, F02, and F03 is based on the result of irradiation of the reflected lights RL1 and RL2 at different X-coordinate positions. Therefore, when integrating the data, for example, the height data of the coordinate x12 obtained in the area of the work W in the frame image F01 and the height data of the coordinate x12 obtained in the area of the base 51 at the subsequent scanning position are combined.
  • FIGS. 4A to 4D are diagrams showing imaging conditions with respect to the target position N of the work W.
  • a rectangular parallelepiped work W having a height h is moved relative to the imaging element 41 of the camera device 4 in the work feed direction F, and the work W is imaged in units of a predetermined camera scale. is performed.
  • the workpiece W is simultaneously irradiated with the line light SL emitted by the first light source 2 and the normal illumination light TL (not shown) emitted by the second light source 3 . Therefore, the line reflected light RL, which is the reflected light of the line light SL irradiated to the workpiece W, and the normal reflected light RT, which is the reflected light of the normal illumination light TL, enter the imaging device 41 at the same time.
  • a target position N for obtaining two-dimensional data and three-dimensional data is indicated.
  • the size of the target position N in the work feeding direction F corresponds to the distance that the work W moves between the imaging pitches of one frame image and the next frame image.
  • the pixel rows L1 to L10 attached to the imaging element 41 are pixel rows having the number of pixels corresponding to the imaging pitch.
  • the target position N is sequentially imaged in each of the pixel columns L1 to L10 in the ten frame images F1 to F10 that are continuously imaged while being moved in the work feeding direction F.
  • the target position N has not yet reached the irradiation position of the line light SL.
  • the image data F3-L3 acquired by the pixel row L3 in which the position of interest N is imaged in the frame image F3 is usually image data consisting of only the reflected light RT. The same applies to the frame images F1 and F2 that are captured prior to the frame image F3.
  • the target position N is imaged by the pixel row L4 adjacent to the downstream side of the pixel row L3 in the work feeding direction F.
  • the normal reflected light RT from the work W is incident on the pixel row L4.
  • the position of interest N is captured by the pixel row L5.
  • the normal reflected light RT from the workpiece W is incident on the pixel row L5
  • the line reflected light RL2 from the height h area of the workpiece W is incident on the pixel row L5. Therefore, the image data F5-L5 acquired by the pixel row L5 in which the position of interest N is imaged in the frame image F5 is image data in which the line reflected light RL2 is superimposed on the normal reflected light RT.
  • the image data F6-L6 acquired by the pixel row L6 in which the position of interest N is imaged in the frame image F6 is exclusively the image data of the normal reflected light RT.
  • 4A to 4D depict the line light SL as simple linear light, the actual line light SL has a Gaussian light intensity distribution in the work feeding direction F.
  • FIG. Therefore, the image data F6-L6 may become image data in which part of the line reflected light RL2 is superimposed on the normal reflected light RT.
  • Frame images F7 to F10 that are captured after frame image F6 are normally images in which only reflected light RT is incident.
  • the frame images F1 to F10 including the image data F3-L3 to F6-L6 of FIGS. 4A to 4D are temporarily stored in the image memory 42 (FIG. 2).
  • the image arrangement unit 431 of the measurement unit 43 extracts image data corresponding to the target position N from the frame images F1 to F10 stored in the image memory . Furthermore, the image arrangement unit 431 arranges the extracted image data in chronological order to generate a luminance distribution map of the attention position N.
  • FIG. A similar process is repeated with another portion of the work W set to the attention position N.
  • FIG. 5(A) is a diagram showing an example of the luminance distribution map M of the target position N.
  • the x direction in the figure is the direction in which the image data are arranged in chronological order, and is the profile direction in which the height data of the workpiece W is expressed.
  • the y-direction is the width direction of the work W orthogonal to the work feeding direction F and the extending direction of the line light SL.
  • FIG. 5B is a graph showing luminance values along line VB-VB in FIG. 5A.
  • the luminance distribution map M illustrated in FIG. 5A is created by arranging image data F1-L1 to F10-L10 acquired for the position of interest N in each of the frame images F1 to F10 in the x direction.
  • the luminance distribution map M indicates luminance changes at one target position N in the frame images F1 to F10.
  • luminance data D2 corresponding to the normal reflected light RT is measured.
  • the luminance data D12 of the line reflected light RL2 stands out and exhibits a high luminance value.
  • the reason why the luminance data D12 has the shape of a triangular wave instead of a square wave is that the line light SL has a Gaussian light intensity distribution as described above.
  • the height calculation unit 432 of the measurement unit 43 calculates the height data of the target position N, that is, three-dimensional data
  • the brightness calculation unit 433 calculates the brightness data of the target position N, that is, two-dimensional data.
  • Derive the data. 6A to 6E are diagrams for explaining the process of deriving two-dimensional data and three-dimensional data of a workpiece from the brightness distribution map M. FIG.
  • the image arrangement unit 431 sets a 2D area M1 for acquiring two-dimensional data and a 3D area M2 for acquiring three-dimensional data on the luminance distribution map M, as shown in FIG. 6A. .
  • the 3D area M2 is set as an area where the height information of the workpiece W based on the line light SL appears in the brightness distribution map M, and the 2D area M1 is set as another area.
  • the height information appears in the image data F4-L4 to F10-L10 area, so this area is set as the 3D area M2.
  • the 2D area M1 is the area of the image data F1-L1 to F3-L3.
  • the range of the 3D region M2 can be adjusted by the range of ROI of the imaging element 41 specified by the ROI setting unit 434.
  • the imaging device 41 has a large number of pixels arranged in a matrix, and the two-dimensional arrangement range of these pixel groups becomes an image area in which an image can be acquired.
  • the ROI setting unit 434 performs ROI designation for designating a portion of the entire image area acquired by the imaging element 41 to be used. By specifying a wide ROI in the work feeding direction F, the measurable height range of the work W can be expanded.
  • the ROI setting unit 434 designates an ROI having an appropriate range according to the type of work W.
  • the setting values of the 2D area M1 and the 3D area M2 based on the ROI designation are stored in the setting storage unit 44.
  • the brightness calculator 433 extracts a predetermined number of brightness data on the data acquisition line G1 arbitrarily set in the 2D region M1.
  • the data acquisition line G1 may be a single line or a plurality of lines.
  • FIG. 6C is a graph showing luminance data extracted at an arbitrary pitch along the data acquisition line G1.
  • the normal reflected light RT is the reflected light of the omnidirectional normal illumination light TL, but the luminance data on the data acquisition line G1 has some variation in luminance value.
  • the brightness calculator 433 derives one brightness data by performing a process of obtaining, for example, an average value, a maximum value, or a median value of the extracted brightness data group. This luminance data becomes the two-dimensional data of the attention position N.
  • the height calculation unit 432 calculates a predetermined number of luminance data on the data acquisition line G2 that crosses the luminance data D12 corresponding to the highest position of the work W in the x direction in the 3D region M2. to extract FIG. 6E is a graph showing luminance data extracted at an arbitrary pitch along the data acquisition line G2.
  • a peak value TD of the luminance data D12 raised by the luminance component of the normal reflected light RT appears in the waveform of this luminance data.
  • the peak value TD becomes luminance data that accurately represents the height h of the workpiece W.
  • the height calculator 432 obtains the peak value TD by, for example, centroid calculation or phase calculation, and uses it as the height position of the luminance data D12.
  • the height calculator 432 obtains three-dimensional data by obtaining the height of the target position N by the light section method.
  • FIG. 7 is a flow chart showing derivation processing of two-dimensional data and three-dimensional data of the work W using the work measuring device 1 of this embodiment.
  • the ROI setting unit 434 designates the ROI of the imaging device 41 (step S1).
  • this ROI specification leads to the setting of the 2D area M1 and the 3D area M2 described above.
  • the settings of the ranges of the 2D area M1 and the 3D area M2 may be stored in advance in the setting storage unit 44, and the settings may be read out in step S1.
  • the workpiece W is scanned (step S2).
  • the light source control section 62 of the control section 6 turns on the first light source 2 and the second light source 3 at the same time to irradiate the workpiece W with the line light SL and the normal illumination light TL.
  • the motor control unit 63 operates the moving motor 5 to move the work W in the work feeding direction F at a predetermined speed.
  • the camera control unit 61 controls the camera device 4 to continuously capture frame images of the workpiece W in units of a predetermined camera scale.
  • the acquired frame image data is temporarily stored in the image memory 42 (step S3).
  • the measurement unit 43 reads the image data from the image memory 42 and executes processing for deriving the measurement data of the workpiece W.
  • the measurement unit 43 sets a target position N on the work W (step S4).
  • the target positions N are set by subdividing the surface of the workpiece W into n positions.
  • This image data is, for example, image data F3-L3 to F6-L6 shown in FIGS. 4A to 4D.
  • the image arranging unit 431 arranges the extracted image data in chronological order to generate a brightness distribution map M of the attention position N (step S6).
  • a specific example of the brightness distribution map M is shown in FIG. 5(A).
  • the height calculator 432 reads luminance data from the 3D area M2 of the luminance distribution map M (step S7).
  • the 3D area M2 is as illustrated in the brightness distribution map M of FIG. 6A, and reading the brightness data corresponds to extracting the brightness data along the data acquisition line G2 of FIG. 6D.
  • the height calculator 432 obtains the peak value TD of the waveform of the extracted luminance data, thereby obtaining the center position of the line light SL (line reflected light RL). Processing is executed (step S8). Thereby, the position of the height h of the workpiece W is specified.
  • the luminance calculation unit 433 reads luminance data from the 2D area M1 of the luminance distribution map M (step S10).
  • the 3D area M2 is as illustrated in the luminance distribution map M in FIG. 6A, and reading the luminance data corresponds to extracting the luminance data along the data acquisition line G1 in FIG. 6B.
  • the luminance calculation unit 433 derives two-dimensional data corresponding to the luminance of the target position N by calculating the average value of the extracted luminance data (step S11).
  • the three-dimensional data and two-dimensional data derived in steps S9 and S11 are transferred to the control section 6 and stored in the data storage section 64 (step S12).
  • the work measuring apparatus 1 of the present embodiment by capturing the line reflected light RL obtained by irradiating the work W with the line light SL of the first light source 2, the three-dimensional measurement of the work W is performed by the light section method. Data can be requested.
  • two-dimensional data of the work W can be obtained by capturing an image of the normal reflected light RT of the work W irradiated with the normal illumination light TL of the second light source 3 .
  • the control unit 6 causes the camera device 4 to perform an imaging operation while moving the workpiece W and lighting the first light source 2 and the second light source 3 at the same time. Therefore, the camera device 4 can acquire a frame image from which both two-dimensional and three-dimensional measurement data can be extracted.
  • the brightness distribution map M of the target position N created from the acquired frame image group is brightness information based on the line reflected light RL and the normal reflected light RT, and is two-dimensional and three-dimensional information about the target position N. It becomes luminance distribution information including. Therefore, two-dimensional data and three-dimensional data of the target position N can be derived from the brightness distribution map M.
  • FIG. As described above, according to the work measuring device 1 according to the present embodiment, two-dimensional data and three-dimensional data of the work W can be obtained by one scanning operation of the work W using one camera device 4 . Therefore, the workpiece W can be measured with good workability and without complicating the apparatus.
  • FIGS. 8A to 8D are diagrams for explaining the process of deriving two-dimensional data and three-dimensional data of the work W from the brightness distribution map MA according to the modification.
  • the measurement unit 43 calculates the luminance average value of the luminance distribution map MA to obtain two-dimensional data. indicate.
  • the range in the profile direction (x direction) of the 3D area in the luminance distribution map MA according to the modification is set wider than the range of the 3D area in FIG. 6(A).
  • the range of the 3D area can be expanded by specifying a wide ROI in the work feeding direction F by the ROI setting unit 434 . If the 3D area is extended, the height measurement range of the work W will be increased. Therefore, it is possible to measure the luminance data D12A appearing at a position considerably separated from the height-based luminance data D11 on the luminance distribution map MA. That is, it is possible to measure the height of a taller work W.
  • the camera device 4 In the case of the luminance distribution map MA in which the height range of the 3D area is sufficiently large, for example, when the range in the profile direction of the 3D area is set to about 2 to 5 times that of the 2D area, the camera device 4 The component of the line light SL (line reflected light RL) in the captured image is relatively small. Therefore, the brightness average value of the brightness distribution map MA approximates the brightness data corresponding to the two-dimensional data.
  • the measurement unit 43 extracts luminance data at an arbitrary pitch along the data acquisition line G3 that crosses the luminance data D12 in the x direction.
  • FIG. 8C is a graph showing the x-direction distribution of the extracted luminance data.
  • the luminance calculator 433 calculates the luminance average value of a plurality of luminance data extracted along the data acquisition line G3. This luminance average value is treated as two-dimensional data approximately derived for the target position N of the work W.
  • the height calculator 432 also uses a plurality of brightness data extracted along the data acquisition line G3 to create a graph showing brightness data as shown in FIG. 8(D).
  • the height calculator 432 obtains the peak value TD of the luminance data D12 in the same manner as in the above-described embodiment, and obtains the three-dimensional data by obtaining the height of the target position N by the light section method.
  • two-dimensional data and three-dimensional data can be derived by extracting luminance data along one data acquisition line G3, so that the measurement work can be simplified.
  • a work measuring apparatus includes a first light source that irradiates a work to be measured with line light, a second light source that irradiates the work with normal illumination light, the line light and the an imaging unit capable of acquiring an image of the workpiece and its surroundings illuminated by normal illumination light; a moving mechanism for relatively moving the workpiece in a predetermined feed direction; the imaging unit, the first light source, and the second light source and a control unit that controls the operation of the movement mechanism, and a measurement unit that obtains two-dimensional data and three-dimensional data about the workpiece based on the image acquired by the imaging unit, wherein the control unit controls the movement While the work is moved by a mechanism and the first light source and the second light source are turned on at the same time, the imaging unit is caused to perform an imaging operation of the work in a predetermined camera scale unit, and the measurement unit is configured to: extracting image data corresponding to the position of interest of the workpiece from each of the images sequentially
  • a work measurement method is a work measurement method for acquiring two-dimensional data and three-dimensional data of a work to be measured, wherein the work is relatively moved while a line light and a normal illumination light are emitted.
  • an image of the work is obtained in units of a predetermined camera scale, and image data corresponding to a target position of the work is extracted from each of the images sequentially captured in units of the camera scale.
  • the extracted image data are arranged in chronological order to generate a brightness distribution map of the target position, and two-dimensional data and three-dimensional data of the target position are derived based on the brightness distribution map.
  • the three-dimensional data of the workpiece can be obtained by the light section method by causing the imaging unit to capture the reflected light of the workpiece irradiated with the line light of the first light source.
  • the two-dimensional data of the work can be obtained by causing the imaging unit to image the reflected light of the work irradiated with the normal illumination light of the second light source.
  • the normal illumination light is omnidirectional illumination light that can irradiate the workpiece from all directions.
  • the control unit causes the imaging unit to perform an imaging operation while the first light source and the second light source are turned on at the same time. Therefore, the imaging unit can acquire an image from which two-dimensional and three-dimensional measurement data can be extracted for each imaging along the camera scale unit.
  • the measurement unit extracts image data corresponding to the position of interest of the work from each of the images sequentially captured while moving the work.
  • a brightness distribution map of the target position is generated.
  • This luminance distribution map is luminance information based on the reflected light of the line light and the normal illumination light, and is luminance distribution information including two-dimensional and three-dimensional information about a given position of interest. Therefore, two-dimensional data and three-dimensional data of the attention position can be derived from the brightness distribution map.
  • the workpiece measuring device or the measuring method according to the present invention it is possible to obtain two-dimensional data and three-dimensional data of the workpiece by one scanning operation of the workpiece using one imaging unit. be. Therefore, the workpiece can be measured with good workability and without complicating the apparatus.
  • the measuring unit sets the area where the height information based on the line light appears in the brightness distribution map as the 3D area from which the three-dimensional data is acquired, and the other area as the two-dimensional data. It is desirable to set the 2D area to be acquired.
  • a 2D area is set outside the area where the height information appears in the luminance distribution map, so that two-dimensional data and three-dimensional data can be reliably distinguished and acquired.
  • the measuring unit obtains the three-dimensional data by obtaining the height of the target position by a light section method based on the information of the 3D area, and obtains the target position based on the luminance data of the 2D area. It is desirable to obtain said two-dimensional data of position.
  • this workpiece measuring device it is possible to obtain the three-dimensional shape of the target position based on the light section method, and to determine the color, pattern, etc. of the target position based on the luminance data.
  • the measurement unit calculates the brightness average value of the brightness distribution map, and calculates the brightness average value of the brightness distribution map. It is desirable to obtain dimensional data.
  • the line light component in the captured image is relatively small. Therefore, the brightness average value of the brightness distribution map approximates the brightness data corresponding to the two-dimensional data. According to the workpiece measuring device described above, derivation of two-dimensional data can be simplified.
  • the imaging unit includes an imaging device in which pixels are arranged in a matrix, and the measuring unit is capable of specifying an ROI that specifies a portion of the entire image area acquired by the imaging device to be used. , and the 3D region can be set based on the ROI designation range.
  • this workpiece measurement device by appropriately adjusting the ROI designation range according to the assumed height of the workpiece, it is possible to accurately acquire the three-dimensional data of the workpiece.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

ワーク計測装置は、ワークにライン光を照射する第1光源、ワークに通常照明光を照射する第2光源、ワークの撮像部、ワークを移動させる移動機構、制御部、前記撮像部が取得した画像に基づきワークの二次元データおよび三次元データを求める計測部、を備える。前記制御部は、前記移動機構により前記ワークを移動させつつ、前記第1光源および前記第2光源を同時に点灯させた状態で、前記撮像部にワークの撮像動作を行わせる。前記計測部は、順次撮像された画像の各々から、前記ワークの注目位置に対応する画像データを抽出するとともに、抽出された画像データを時系列順に並べて当該注目位置の輝度分布マップを生成し、このマップに基づき前記注目位置の二次元データおよび三次元データを導出する。

Description

ワーク計測装置およびワーク計測方法
 本発明は、計測対象のワークの二次元データおよび三次元データを取得するワーク計測装置および計測方法に関する。
 ワークの高さ計測を非接触で行う方法として、光切断法が知られている。光切断法では、ライン光が照射されたワークをスキャン撮像し、その撮像画像から三角測量の原理にてワークの高さを求める。特許文献1には、光切断法を用いたワークの三次元形状計測装置が開示されている。特許文献1の計測装置では、スキャンで得られた画像の注目点のピクセルの輝度値を時系列順に並べ、前記注目点の輝度変化を求めている。
 特許文献2には、ワークの三次元形状と二次元テクスチャ画像とから、ワークの三次元モデルを生成する装置が開示されている。特許文献2の計測装置では、ワークの三次元データおよび二次元データを同時取得するために、三次元計測用の第1光源および第1受光部と、二次元計測用であって前記第1光源とは波長の異なる第2光源および第2受光部とを備えている。
 しかし、特許文献1のように、ワークの三次元データだけを求める計測装置を用いた場合、ワークの二次元データの取得のためには、当該ワークに対する別途の計測工程が必要となる。一方、特許文献2の計測装置によれば、ワークの三次元計測用および二次元計測用として、それぞれ光源およびカメラが必要となり、装置が複雑化する。
特開2015-105883号公報 特開2006-162386号公報
 本発明の目的は、ワークの二次元データおよび三次元データを、作業性良く且つ装置を複雑化させることなく計測できるワーク計測装置および計測方法を提供することにある。
 本発明の一局面に係るワーク計測装置は、計測対象のワークに対してライン光を照射する第1光源と、前記ワークに対して通常照明光を照射する第2光源と、前記ライン光および前記通常照明光が照射された前記ワークおよびその周辺の画像を取得可能な撮像部と、前記ワークを所定の送り方向に相対移動させる移動機構と、前記撮像部、前記第1光源、前記第2光源および前記移動機構の動作を制御する制御部と、前記撮像部が取得した画像に基づき、前記ワークについての二次元データおよび三次元データを求める計測部と、を備え、前記制御部は、前記移動機構により前記ワークを移動させつつ、前記第1光源および前記第2光源を同時に点灯させた状態で、前記撮像部に所定のカメラスケール単位で前記ワークの撮像動作を行わせ、前記計測部は、前記カメラスケール単位で順次撮像された画像の各々から、前記ワークの注目位置に対応する画像データを抽出するとともに、抽出された画像データを時系列順に並べて当該注目位置の輝度分布マップを生成し、前記輝度分布マップに基づき、前記注目位置の二次元データおよび三次元データを導出する。
 本発明の他の局面に係るワーク計測方法は、計測対象のワークの二次元データおよび三次元データを取得するワーク計測方法であって、前記ワークを移動させつつ、ライン光および通常照明光を同時に前記ワークに照射した状態で、所定のカメラスケール単位で前記ワークの画像を取得し、前記カメラスケール単位で順次撮像された画像の各々から、前記ワークの注目位置に対応する画像データを抽出するとともに、抽出された画像データを時系列順に並べて当該注目位置の輝度分布マップを生成し、前記輝度分布マップに基づき、前記注目位置の二次元データおよび三次元データを導出する。
図1は、本発明の実施形態に係るワーク計測装置のハード構成を簡略的に示す模式図である。 図2は、前記ワーク計測装置の電気的構成を示すブロック図である。 図3(A)~(C)は、光切断法によるワークの高さ計測の手法を示す模式図である。 図4Aは、ワークの注目位置に対する撮像状況を示す図である。 図4Bは、ワークの注目位置に対する撮像状況を示す図である。 図4Cは、ワークの注目位置に対する撮像状況を示す図である。 図4Dは、ワークの注目位置に対する撮像状況を示す図である。 図5(A)は、前記注目位置の輝度分布マップの一例を示す図、図5(B)は、図5(A)のVB-VB線に沿う輝度値を示すグラフである。 図6(A)~(E)は、前記輝度分布マップからワークの二次元データおよび三次元データを導出する過程を説明するための図である。 図7は、本実施形態のワーク計測装置を用いたワークの二次元データおよび三次元データの導出処理を示すフローチャートである。 図8(A)~(D)は、変形例に係る輝度分布マップからワークの二次元データおよび三次元データを導出する過程を説明するための図である。
 以下、本発明の実施形態を、図面に基づいて詳細に説明する。本発明に係るワーク計測装置は、各種の工業製品、半製品、機械部品、電子部品、食品、農産物などの、計測対象のワークの二次元計測および三次元計測に広く適用することができる。例えば、基板に実装された部品をワークとして二次元・三次元計測を行う場合に、本発明のワーク計測装置は好適である。
 [装置構成]
 図1は、本実施形態に係るワーク計測装置1のハード構成を簡略的に示す模式図である。ワーク計測装置1は、第1光源2、第2光源3、カメラ装置4(撮像部)、移動モータ5(移動機構)および制御部6を備えている。ワーク計測装置1は、基台51上のワークWの二次元データ(輝度計測データ)および三次元データ(高さ計測データ)を導出する装置である。ここでは、ワークWとしてマウスが基台51上に載置されている例を示している。基台51の表面は、高さ計測の際の基準高さ面となる。ワークWが実装基板上の部品である場合、基台51は当該部品が実装された基板となる。
 第1光源2は、スリット状の光を発生する光源であって、計測対象のワークWに対してライン光SLを照射する。例えば第1光源2としては、レーザ光源と、当該レーザ光源が発するレーザ光を扇型に広がるスリット光に変換する光学部品とを含む光源装置を適用することができる。本実施形態では第1光源2は、ワークWの鉛直上方からライン光SLを照射するよう配置されている例を示している。
 第2光源3は、ワークWに対して通常照明光TLを照射する。図1では、図示簡略化のため通常照明光TLを円錐型に拡がる拡散光の態様で示しているが、実際の通常照明光TLは、ワークWに対して全方位から光線を照射可能な無指向性の照明光である。第2光源3は、例えば多数のLEDがマトリクス搭載された基板を、指向方向を異ならせて環状に配列してなる光源装置を適用することができる。ワークWに対して無指向性の照明光を照射可能である限りにおいて、第2光源3の配置形態には特に制限はない。
 カメラ装置4は、ライン光SLおよび通常照明光TLが照射されたワークWおよびその周辺の画像を取得する。カメラ装置4は、基台51の鉛直方向に対して傾いた撮像光軸AXを有している。すなわちカメラ装置4は、ライン光SLの投影軸に対して傾いた撮像光軸AXを具備している。これらの軸配置は、光切断法によりワークWの三次元形状を計測するための配置である。なお、撮像光軸AXを鉛直方向に配置し、ライン光SLの投影軸を撮像光軸AXに対して傾けて配置する構成としても良い。
 移動モータ5は、ワークWを所定のワーク送り方向Fに相対移動させる移動機構の駆動源である。ワークWの相対移動の態様としては、第1光源2、第2光源3およびカメラ装置4の測定系を固定配置として、ワークWおよび基台51をワーク送り方向Fに移動させる態様と、静置されたワークWおよび基台51に対して前記測定系をワーク送り方向Fにスキャン移動させる態様とを例示することができる。移動モータ5は、前者の場合にはワークWおよび基台51を移動させるコンベア等の駆動源、後者の場合には前記測定系をガイドレール等に沿って移動させる駆動源となる。
 制御部6は、マイクロコンピュータやパーソナルコンピュータ等からなり、第1光源2、第2光源3、カメラ装置4および移動モータ5の動作を制御する。具体的には制御部6は、第1光源2によるライン光SLの照射動作、第2光源3による通常照明光TLの照射動作、カメラ装置4によるワークWの撮像動作、並びに、移動モータ5によるワークWの送り動作、つまりスキャン動作などを制御する。
 [ワーク計測装置の電気的構成]
 図2は、ワーク計測装置1の電気的構成を示すブロック図である。カメラ装置4は、撮像素子41、画像メモリ42、計測部43、設定記憶部44およびI/F部45を備えている。撮像素子41は、光電変換素子からなる画素がマトリクス配置されたセンサである。撮像素子41としては、画素の読み出し範囲を定めるROI(Region Of Interest)の指定が可能なCMOSセンサを用いることが望ましい。
 画像メモリ42は、撮像素子41が取得した画像データを一時的に格納する。計測部43は、撮像動作により取得されたワークWの画像、つまり画像メモリ42に格納された画像データに基づき、当該ワークWの二次元データおよび三次元データを求める。本実施形態では、計測部43がカメラ装置4に装備されている例を示すが、計測部43は制御部6若しくは他の外部装置に装備されていても良い。設定記憶部44は、計測部43の計測動作に関連する各種設定データやパラメータ等を記憶する。後述する輝度分布マップMにおける2D領域および3D領域を区画する基準位置に関する設定値を、設定記憶部44に格納させても良い。I/F部45は、制御部6とデータ通信を行わせるためのインターフェース回路である。
 計測部43は、機能的に画像配列部431、高さ算出部432、輝度算出部433およびROI設定部434を含む。画像配列部431は、撮像素子41により所定のカメラスケール単位で順次撮像された画像の各々から、ワークWの注目位置に対応する画像データを抽出する。さらに、画像配列部431は、抽出された画像データを時系列順に並べて、当該注目位置についての輝度分布マップM(図5)を生成する。
 高さ算出部432は、ワークWの三次元データの導出のため、輝度分布マップMに基づき、ワークWの各注目位置の高さを光切断法により求める処理を実行する。輝度算出部433は、ワークWの二次元データの導出のため、輝度分布マップMに基づき、各注目位置の輝度を求める処理を実行する。ROI設定部434は、撮像素子41のROIを指定する。ROIのワーク送り方向Fのレンジ、つまりプロファイル方向のレンジを広くするほど、計測対象のワークWの高さレンジが拡張され、より高いワークWの三次元計測が可能となる。
 制御部6は、移動モータ5を備えた移動機構によりワークWをワーク送り方向Fへ移動させつつ、第1光源2および第2光源3を同時に点灯させた状態で、カメラ装置4に所定のフレームレートでワークWの撮像動作を行わせる。すなわち、撮像素子41の画素列のサイズに比例したピッチ毎、換言するとカメラスケール単位で、制御部6はカメラ装置4に撮像動作を行わせる。制御部6は、所定のプログラムが実行されることにより、機能的にカメラ制御部61、光源制御部62、モータ制御部63、データ記憶部64およびI/F部65を具備するように動作する。
 カメラ制御部61は、カメラ装置4を制御して、相対移動するワークWを所定のカメラスケール単位で撮像させる。この撮像により、ワークWの多数枚のフレーム画像が取得され、画像メモリ42に格納される。前記カメラスケール単位は、ワークWの相対移動距離と、撮像素子41の画素列上のサイズとが比例関係となるように設定される。
 光源制御部62は、カメラ装置4によるワークWの撮像時に、第1光源2および第2光源3を同時に点灯させる。これにより、ライン光SLおよび通常照明光TLの双方の、ワークWからの反射光を同時にカメラ装置4に入射させることができる。モータ制御部63は、カメラ装置4によるワークWの撮像時に、移動モータ5を制御して、ワークWおよび基台51をワーク送り方向Fへ所定の移動速度で相対移動させる。データ記憶部64は、カメラ装置4の計測部43から送信される、ワークWの二次元データおよび三次元データを記憶する。I/F部65は、カメラ装置4とデータ通信を行わせるためのインターフェース回路である。
 [光切断法による高さ計測]
 図3(A)~(C)を参照して、ワーク計測装置1において実行可能な、光切断法による三次元計測(高さ計測)について説明を加えておく。図3(A)に示す通り、ここでは測定対象として、直方体のワークWが基台51に搭載されている例を示している。高さ計測には、上述のカメラ装置4と、ライン光SLを発する第1光源2とが用いられる。図1とは異なり図3(A)では、撮像光軸AXが鉛直方向となるようにカメラ装置4が配置され、ライン光SLの投影光軸が当該撮像光軸AXに対して所定の交差角θを持つように第1光源2が配置されている例を示す。
 図3(B)は、ワークWにライン光SLが照射される、あるスキャン位置でカメラ装置4が取得するフレーム画像F01を示している。ライン光SLがワークWを含む領域に照射されると、ワークWの周囲の基台51からの、つまり基準高さからの反射光RL1と、ワークWの上面からの反射光RL2とがカメラ装置4にて撮像される。ライン光SLが斜光であってワークWが高さを持つので、フレーム画像F01上において、反射光RL1、RL2はX座標の互いに異なる位置に観測される。具体的には、反射光RL1は座標x11に、反射光RL2は座標x11よりもワーク送り方向Fの上流側に位置する座標x12に表れる。
 図3(A)の点P0にライン光SLが照射された場合を、計算上の高さ=0の地点と扱う。そうすると、図3(C)に示すように、交差角θを用いた三角測量の原理より、座標x11の高さはh1、座標x12の高さはh2という高さデータを得ることができる。以降、後続のフレーム画像F02、F03が順次撮像され、ワークWの異なる位置の画像が取得される。これにより、フレーム画像F02では座標x21、x22の高さデータが、フレーム画像F03では座標x31、x32の高さデータが取得される。言うまでもなく、実際のカメラスケール単位は、図例よりも遙かに狭ピッチである。
 以上のようなスキャン動作により取得された複数の高さデータを統合することで、ワークWの三次元データを求めることができる。なお、各フレーム画像F01、F02、F03で取得される高さデータは、反射光RL1、RL2が異なるX座標位置に照射された結果に基づく。このため、データ統合に際しては、例えばフレーム画像F01においてワークWの領域で得られた座標x12の高さデータと、その後のスキャン位置で基台51の領域で得られた座標x12の高さデータとを整合させる高さテーブルが作成しても良い。
 [二次元データおよび三次元データの同時取得]
 続いて、ワーク計測装置1における二次元データおよび三次元データの同時取得について説明する。図4A~図4Dは、ワークWの注目位置Nに対する撮像状況を示す図である。図4A~図4Dでは、高さhを有する直方体状のワークWを、カメラ装置4の撮像素子41に対してワーク送り方向Fに相対移動させながら、所定のカメラスケール単位で当該ワークWの撮像が行われる状態を示している。
 ワークWに対しては、第1光源2が発するライン光SLと、第2光源3が発する図略の通常照明光TLとが同時に照射されている。このため、撮像素子41にはワークWに照射されたライン光SLの反射光であるライン反射光RLと、通常照明光TLの反射光である通常反射光RTとが同時に入射する。なお、ライン反射光RLとしては、h=0の位置からのライン反射光RL1と、高さhからのライン反射光RL2とが示されている。
 ワークWには、二次元データおよび三次元データを求めるべき注目位置Nを示している。注目位置Nのワーク送り方向Fのサイズは、一つのフレーム画像および次のフレーム画像の撮像ピッチ間に当該ワークWが移動する距離に相当する。撮像素子41に付されている画素列L1~L10は、前記撮像ピッチに対応する画素数を備えた画素列である。注目位置Nは、ワーク送り方向Fに移動されながら、連続的に撮像される10枚のフレーム画像F1~F10において、画素列L1~L10の各々に順次撮像されることになる。このうち、図4A~図4Dでは、3番目~6番目のフレーム画像F3~F6の撮像状況を示している。なお、h=0のライン反射光RL1は、画素列L4に入射する設定である。
 図4Aのフレーム画像F3では、注目位置Nは未だライン光SLの照射位置には到達していない。このため、フレーム画像F3において注目位置Nが撮像される画素列L3で取得される画像データF3-L3は、通常反射光RTのみからなる画像データとなる。フレーム画像F3よりも先に撮像されるフレーム画像F1,F2も同様である。
 図4Bのフレーム画像F4では、注目位置Nは画素列L3のワーク送り方向Fの下流側に隣接する画素列L4で撮像される。フレーム画像F4においても、ワークWからの通常反射光RTが画素列L4に入射する。また、注目位置Nとワーク送り方向Fの同位置にあるh=0の領域からのライン反射光RL1も、画素列L4に入射する。このため、フレーム画像F4において注目位置Nが撮像される画素列L4で取得される画像データF4-L4は、通常反射光RTにライン反射光RL1が重畳された画像データとなる。
 図4Cのフレーム画像F5では、注目位置Nは画素列L5で撮像される。フレーム画像F5においても、ワークWからの通常反射光RTが画素列L5に入射し、さらに、ワークWの高さhの領域からのライン反射光RL2が画素列L5に入射する。従って、フレーム画像F5において注目位置Nが撮像される画素列L5で取得される画像データF5-L5は、通常反射光RTにライン反射光RL2が重畳された画像データとなる。
 一方、図4Dのフレーム画像F6が撮像されるタイミングでは、注目位置Nはライン光SLの照射位置を通過している。このため、フレーム画像F6において注目位置Nが撮像される画素列L6で取得される画像データF6-L6は、専ら通常反射光RTの画像データとなる。なお、図4A~図4Dではライン光SLが単純な線状光として描かれているが、実際のライン光SLはワーク送り方向Fにガウス分布状の光強度分布を持つ。このため、画像データF6-L6が、通常反射光RTにライン反射光RL2の一部が重畳された画像データとなる場合もある。フレーム画像F6よりも後に撮像されるフレーム画像F7~F10は、通常反射光RTだけが入射する画像となる。
 以上の通り、図4A~図4Dの画像データF3-L3~F6-L6を含む、フレーム画像F1~F10は、画像メモリ42(図2)に一時的に記憶される。計測部43の画像配列部431は、画像メモリ42に格納されたフレーム画像F1~F10の中から、注目位置Nに対応する画像データを抽出する。さらに、画像配列部431は、抽出された画像データを時系列順に並べて当該注目位置Nの輝度分布マップを生成する。同様の処理を、ワークWの他の部位を注目位置Nとして繰り返す。
 図5(A)は、注目位置Nの輝度分布マップMの一例を示す図である。図中のx方向は、画像データを時系列順に配列する方向であって、ワークWの高さデータが表出するプロファイル方向である。y方向は、ワーク送り方向Fと直交するワークWの幅方向であって、ライン光SLの延在方向である。図5(B)は、図5(A)のVB-VB線に沿う輝度値を示すグラフである。
 図5(A)に例示する輝度分布マップMは、フレーム画像F1~F10の各々において、注目位置Nについて取得された画像データF1-L1~F10-L10をx方向に並べて作成されている。つまり、輝度分布マップMは、フレーム画像F1~F10におけるある一つの注目位置Nの輝度変化を示している。
 図4Bに示したように、画像データF4-L4には、h=0の領域からのライン反射光RL1が含まれている。従って、輝度分布マップMのF4-L4の領域には、ライン反射光RL1に対応する輝度データD11が計測されている。また、図4Cに示したように、画像データF5-L5には、ワークWの高さhの領域からのライン反射光RL2が含まれている。従って、輝度分布マップMのF5-L5の領域には、ライン反射光RL2に対応する輝度データD12が計測されている。一方、通常反射光RTは、全ての画像データF1-L1~F10-L10に含まれている。このため、図5(B)に示すように、輝度分布マップMの全領域において、通常反射光RTに対応する輝度データD2が計測されている。VB-VB線上では、ライン反射光RL2の輝度データD12が突出して高い輝度値を示している。輝度データD12が方形波ではなく三角波の形状となるのは、既述の通りライン光SLがガウス分布の光強度分布を有するからである。
 上述の輝度分布マップMに基づき、計測部43の高さ算出部432は、注目位置Nの高さデータ、つまり三次元データを、輝度算出部433は、注目位置Nの輝度データ、つまり二次元データを導出する。図6(A)~(E)は、輝度分布マップMからワークの二次元データおよび三次元データを導出する過程を説明するための図である。
 データ導出に際して画像配列部431は、輝度分布マップM上に、図6(A)に示すように、二次元データを取得する2D領域M1と、三次元データを取得する3D領域M2とを設定する。3D領域M2は、輝度分布マップMにおいてライン光SLに基づくワークWの高さ情報が現れる領域に設定され、2D領域M1は、その他の領域に設定される。図5(A)に例示する輝度分布マップMでは、高さ情報が現れるのは、画像データF4-L4~F10-L10の領域であるので、当該領域が3D領域M2に設定される。この場合、2D領域M1は、画像データF1-L1~F3-L3の領域となる。
 3D領域M2の範囲は、ROI設定部434による撮像素子41のROIの指定範囲により調整することができる。撮像素子41は、マトリクス配列された多数の画素を有し、これら画素群の二次元配列範囲が画像を取得可能な画像エリアとなる。ROI設定部434は、撮像素子41が取得する全画像エリアのうち使用する一部を指定するROI指定を行う。ワーク送り方向Fのレンジの広いROI指定を行えば、計測可能なワークWの高さレンジを拡張できる。ROI設定部434は、ワークWの種別に応じて、適宜な範囲を有するROI指定を行う。ROI指定に基づく2D領域M1および3D領域M2の設定値は、設定記憶部44に格納される。
 図6(B)に示すように、輝度算出部433は、2D領域M1に任意に設定したデータ取得ラインG1上において、所定数の輝度データを抽出する。データ取得ラインG1は、1ラインのみでも良いし、複数ラインでも良い。図6(C)は、データ取得ラインG1に沿って任意のピッチで抽出された輝度データを示すグラフである。通常反射光RTは、無指向性の通常照明光TLの反射光であるが、データ取得ラインG1上の輝度データには、ある程度の輝度値のバラツキが生じる。輝度算出部433は、抽出した輝度データ群の例えば平均値、最大値、あるいは中央値を求める処理を行って一つの輝度データを導出する。この輝度データが、注目位置Nの二次元データとなる。
 高さ算出部432は、図6(D)に示すように、3D領域M2において、ワークWの最高位置を相当する輝度データD12をx方向に横切るデータ取得ラインG2上において、所定数の輝度データを抽出する。図6(E)は、データ取得ラインG2に沿って任意のピッチで抽出された輝度データを示すグラフである。この輝度データの波形には、通常反射光RTの輝度成分で嵩上げされた輝度データD12のピーク値TDが現れる。ピーク値TDは、ワークWの高さhを正確に表す輝度データとなる。高さ算出部432は、例えば重心計算や位相計算によりピーク値TDを求め、輝度データD12の高さ位置とする。同様に、輝度データD11についてもピーク値を求め、h=0の高さ基準位置とする。このようにして得た輝度データD11、D12の各ピーク値に基づき、高さ算出部432は光切断法により注目位置Nの高さを求めることで、三次元データを取得する。
 [データ導出処理のフロー]
 図7は、本実施形態のワーク計測装置1を用いたワークWの二次元データおよび三次元データの導出処理を示すフローチャートである。ワークWの計測の開始に際し、ROI設定部434が撮像素子41のROI指定を行う(ステップS1)。ワークWの高さが予め想定されている場合、このROI指定は上述の2D領域M1および3D領域M2の設定に繋がる。予め、設定記憶部44に2D領域M1および3D領域M2の範囲の設定を記憶させておき、ステップS1で前記設定を読み出すようにしても良い。
 次に、ワークWのスキャンが実行される(ステップS2)。スキャンに際し、制御部6の光源制御部62は、第1光源2および第2光源3を同時に点灯させて、ライン光SLおよび通常照明光TLをワークWに照射させる。モータ制御部63は、移動モータ5を動作させて、ワークWを所定速度でワーク送り方向Fへ移動させる。カメラ制御部61は、カメラ装置4を制御して、所定のカメラスケール単位でワークWのフレーム画像を連続的に撮像させる。取得されたフレーム画像データは、画像メモリ42に一時的に格納される(ステップS3)。
 その後、計測部43が画像メモリ42から画像データを読み出して、ワークWの計測データを導出する処理を実行する。先ず、計測部43は、ワークWに対して、注目位置Nを設定する(ステップS4)。注目位置Nは、ワークWの表面を細分化してn個設定される。次いで、画像配列部431が、カウンタをN=1に設定して、画像メモリ42内のフレーム画像の各々から、1番目の注目位置Nの画像データを抽出する(ステップS5)。この画像データは、例えば図4A~図4Dに示した、画像データF3-L3~F6-L6である。さらに、画像配列部431は、抽出された画像データを時系列順に並べて、当該注目位置Nの輝度分布マップMを生成する(ステップS6)。輝度分布マップMの具体例は、図5(A)に示されている。
 続いて、高さ算出部432が、輝度分布マップMの3D領域M2から輝度データを読み取る(ステップS7)。3D領域M2は、図6(A)の輝度分布マップMに例示する通りであり、輝度データの読取は、図6(D)のデータ取得ラインG2に沿った輝度データの抽出に相当する。次に、高さ算出部432は、図6(E)に例示したように、抽出した輝度データの波形のピーク値TDを求めることで、ライン光SL(ライン反射光RL)の中心位置を求める処理を実行する(ステップS8)。これにより、ワークWの高さhの位置が特定される。そして、高さ算出部432は、h=0となる高さ基準位置を参照して、光切断法により注目位置Nの高さに相当する三次元データを導出する(ステップS9)。
 次に、輝度算出部433が、輝度分布マップMの2D領域M1から輝度データを読み取る(ステップS10)。3D領域M2は、図6(A)の輝度分布マップMに例示する通りであり、輝度データの読取は、図6(B)のデータ取得ラインG1に沿った輝度データの抽出に相当する。続いて輝度算出部433は、抽出した輝度データの平均値を求める等して、注目位置Nの輝度に相当する二次元データを導出する(ステップS11)。ステップS9およびステップS11で各々導出された三次元データおよび二次元データは、制御部6に転送され、データ記憶部64に格納される(ステップS12)。
 続いて、計測部43は、注目位置Nの処理個数を示すカウンタが、ステップS4で設定したn個に到達しているか否か、つまりN=nを満足するか否かを判定する(ステップS13)。N=nではない場合(ステップS13でNO)、計測部43は、N=N+1としてカウンタをインクリメントし(ステップS14)、ステップS5に戻って次の注目位置Nに対して同様の処理を実行する。一方、N=nである場合(ステップS13でYES)、計測部43は処理を終える。
 以上の通り、本実施形態のワーク計測装置1によれば、第1光源2のライン光SLをワークWに照射したライン反射光RLを撮像することで、光切断法により当該ワークWの三次元データを求めることができる。また、第2光源3の通常照明光TLをワークWに照射した通常反射光RTを撮像することで、当該ワークWの二次元データを求めることができる。制御部6は、ワークWを移動させつつ第1光源2および第2光源3を同時に点灯させた状態で、カメラ装置4に撮像動作を実行させる。このため、カメラ装置4は、二次元および三次元の計測データの双方を抽出可能なフレーム画像を取得できる。
 取得されたフレーム画像群から作成される注目位置Nの輝度分布マップMは、ライン反射光RLおよび通常反射光RTに基づく輝度情報であって、当該注目位置Nについての二次元および三次元情報を含む輝度分布情報となる。従って、輝度分布マップMから、注目位置Nの二次元データおよび三次元データを導出することができる。このように、本実施形態に係るワーク計測装置1によれば、ワークWの二次元データおよび三次元データを、一つのカメラ装置4を用いた一回のワークWのスキャン動作で取得できる。従って、作業性良く且つ装置を複雑化させることなくワークWを計測できる。
 [変形例]
 図8(A)~(D)は、変形例に係る輝度分布マップMAからワークWの二次元データおよび三次元データを導出する過程を説明するための図である。変形例では、計測部43は、輝度分布マップMAにおいて3D領域が所定の領域幅よりも広い領域に設定されている場合、輝度分布マップMAの輝度平均値を算出して二次元データを求める例を示す。
 図8(A)に示すように、変形例に係る輝度分布マップMAにおいて3D領域のプロファイル方向(x方向)の範囲は、図6(A)の3D領域の範囲が広く設定されている。3D領域の範囲は、ROI設定部434がワーク送り方向Fに広いROI指定を行うことで拡張することができる。3D領域を拡張すると、ワークWの高さ計測のレンジが大きくなる。従って、高さ基準の輝度データD11に対し、輝度分布マップMA上で相当離間した位置に現れる輝度データD12Aを計測できる。つまり、より背の高いワークWの高さ計測を行うことが可能となる。
 3D領域の高さレンジが十分に大きく取られている輝度分布マップMAの場合、例えば3D領域のプロファイル方向の範囲が2D領域の2倍~5倍程度に設定されている場合、カメラ装置4により撮像される画像におけるライン光SL(ライン反射光RL)の成分は相対的に小さくなる。従って、輝度分布マップMAの輝度平均値は、二次元データに対応する輝度データに近似する。
 上記の知見に基づき変形例では、図8(B)に示すように、計測部43は輝度データD12をx方向に横切るデータ取得ラインG3に沿って、任意のピッチで輝度データを抽出する。図8(C)は、抽出された輝度データのx方向の分布を示すグラフである。輝度算出部433は、データ取得ラインG3に沿って抽出された複数の輝度データの輝度平均値を算出する。この輝度平均値を、ワークWの注目位置Nについて近似的に導出された二次元データと扱う。
 高さ算出部432は、同じくデータ取得ラインG3に沿って抽出された複数の輝度データを用い、図8(D)に示すような輝度データを示すグラフを作成する。そして高さ算出部432は、上述の実施形態と同様にして輝度データD12のピーク値TDを求めるとともに、光切断法により注目位置Nの高さを求めることで、三次元データを取得する。このような変形例によれば、一つのデータ取得ラインG3に沿った輝度データ抽出により二次元データおよび三次元データを導出できるので、計測作業を簡素化することができる。
 [上記実施形態に含まれる発明]
 本発明の一局面に係るワーク計測装置は、計測対象のワークに対してライン光を照射する第1光源と、前記ワークに対して通常照明光を照射する第2光源と、前記ライン光および前記通常照明光が照射された前記ワークおよびその周辺の画像を取得可能な撮像部と、前記ワークを所定の送り方向に相対移動させる移動機構と、前記撮像部、前記第1光源、前記第2光源および前記移動機構の動作を制御する制御部と、前記撮像部が取得した画像に基づき、前記ワークについての二次元データおよび三次元データを求める計測部と、を備え、前記制御部は、前記移動機構により前記ワークを移動させつつ、前記第1光源および前記第2光源を同時に点灯させた状態で、前記撮像部に所定のカメラスケール単位で前記ワークの撮像動作を行わせ、前記計測部は、前記カメラスケール単位で順次撮像された画像の各々から、前記ワークの注目位置に対応する画像データを抽出するとともに、抽出された画像データを時系列順に並べて当該注目位置の輝度分布マップを生成し、前記輝度分布マップに基づき、前記注目位置の二次元データおよび三次元データを導出する。
 本発明の他の局面に係るワーク計測方法は、計測対象のワークの二次元データおよび三次元データを取得するワーク計測方法であって、前記ワークを相対移動させつつ、ライン光および通常照明光を同時に前記ワークに照射した状態で、所定のカメラスケール単位で前記ワークの画像を取得し、前記カメラスケール単位で順次撮像された画像の各々から、前記ワークの注目位置に対応する画像データを抽出するとともに、抽出された画像データを時系列順に並べて当該注目位置の輝度分布マップを生成し、前記輝度分布マップに基づき、前記注目位置の二次元データおよび三次元データを導出する。
 上記のワーク計測装置または計測方法によれば、第1光源のライン光をワークに照射した反射光を撮像部に撮像させることで、光切断法により当該ワークの三次元データを求めることができる。また、第2光源の通常照明光をワークに照射した反射光を撮像部に撮像させることで、当該ワークの二次元データを求めることができる。なお、通常照明光は、ワークに対して全方位から光線を照射可能な無指向性の照明光である。そして、制御部が第1光源および第2光源を同時に点灯させた状態で、撮像部に撮像動作を実行させる。このため、前記撮像部は、二次元および三次元の計測データを抽出可能な画像を、カメラスケール単位に沿った撮像毎に取得できる。
 さらに計測部は、ワークを移動させながら順次撮像された画像の各々から、前記ワークの注目位置に対応する画像データを抽出する。抽出された画像データを時系列順に並べることで、当該注目位置の輝度分布マップが生成される。この輝度分布マップは、前記ライン光および通常照明光の反射光に基づく輝度情報であって、ある一つの注目位置についての二次元および三次元情報を含む輝度分布情報となる。従って、前記輝度分布マップから、前記注目位置の二次元データおよび三次元データを導出することができる。このように、本発明に係るワーク計測装置または計測方法によれば、ワークの二次元データおよび三次元データを、一つの撮像部を用いた一回のワークのスキャン動作で取得することが可能である。従って、作業性良く且つ装置を複雑化させることなくワークを計測できる。
 上記のワーク計測装置において、前記計測部は、前記輝度分布マップにおいて、前記ライン光に基づく高さ情報が現れる領域を前記三次元データの取得する3D領域とし、他の領域を前記二次元データの取得する2D領域と設定することが望ましい。
 このワーク計測装置によれば、輝度分布マップにおいて高さ情報が現れる領域外に2D領域が設定されるので、二次元データおよび三次元データを確実に峻別して取得させることができる。
 上記のワーク計測装置において、前記計測部は、前記3D領域の情報に基づき光切断法により前記注目位置の高さを求めて前記三次元データを取得し、前記2D領域の輝度データに基づき前記注目位置の前記二次元データを取得することが望ましい。
 このワーク計測装置によれば、光切断法に基づき注目位置の三次元形状を求め、輝度データに基づき注目位置の色彩、模様などを求めることが可能となる。
 上記のワーク計測装置において、前記計測部は、前記輝度分布マップにおいて前記3D領域が所定の領域幅よりも広い領域に設定されている場合、当該輝度分布マップの輝度平均値を算出して前記二次元データを求めることが望ましい。
 輝度分布マップにおいて3D領域の高さレンジが十分に大きく取られている場合、撮像される画像におけるライン光の成分は相対的に小さくなる。従って、輝度分布マップの輝度平均値は、二次元データに対応する輝度データに近似する。上記のワーク計測装置によれば、二次元データの導出を簡素化することができる。
 上記のワーク計測装置において、前記撮像部は、画素がマトリクス配列された撮像素子を備え、前記計測部は、前記撮像素子が取得する全画像エリアのうち使用する一部を指定するROI指定が可能であり、前記3D領域は、ROI指定の範囲に基づき設定することができる。
 このワーク計測装置によれば、ワークの想定高さなどに応じて、ROI指定の範囲を適宜調製することで、的確にワークの三次元データを取得することができる。
 1 ワーク計測装置
 2 第1光源
 3 第2光源
 4 カメラ装置(撮像部)
 41 撮像素子
 43 計測部
 431 画像配列部
 432 高さ算出部
 433 輝度算出部
 434 ROI設定部
 5 移動モータ(移動機構)
 6 制御部6
 F ワーク送り方向
 SL ライン光
 TL 通常照明光
 RL ライン反射光
 RT 通常反射光
 W ワーク
 N 注目位置
 M 輝度分布マップ

Claims (6)

  1.  計測対象のワークに対してライン光を照射する第1光源と、
     前記ワークに対して通常照明光を照射する第2光源と、
     前記ライン光および前記通常照明光が照射された前記ワークおよびその周辺の画像を取得可能な撮像部と、
     前記ワークを所定の送り方向に相対移動させる移動機構と、
     前記撮像部、前記第1光源、前記第2光源および前記移動機構の動作を制御する制御部と、
     前記撮像部が取得した画像に基づき、前記ワークについての二次元データおよび三次元データを求める計測部と、を備え、
     前記制御部は、前記移動機構により前記ワークを移動させつつ、前記第1光源および前記第2光源を同時に点灯させた状態で、前記撮像部に所定のカメラスケール単位で前記ワークの撮像動作を行わせ、
     前記計測部は、
    前記カメラスケール単位で順次撮像された画像の各々から、前記ワークの注目位置に対応する画像データを抽出するとともに、抽出された画像データを時系列順に並べて当該注目位置の輝度分布マップを生成し、
      前記輝度分布マップに基づき、前記注目位置の二次元データおよび三次元データを導出する、ワーク計測装置。
  2.  請求項1に記載のワーク計測装置において、
     前記計測部は、前記輝度分布マップにおいて、前記ライン光に基づく高さ情報が現れる領域を前記三次元データの取得する3D領域とし、他の領域を前記二次元データの取得する2D領域と設定する、ワーク計測装置。
  3.  請求項2に記載のワーク計測装置において、
     前記計測部は、前記3D領域の情報に基づき光切断法により前記注目位置の高さを求めて前記三次元データを取得し、前記2D領域の輝度データに基づき前記注目位置の前記二次元データを取得する、ワーク計測装置。
  4.  請求項2又は3に記載のワーク計測装置において、
     前記計測部は、前記輝度分布マップにおいて前記3D領域が所定の領域幅よりも広い領域に設定されている場合、当該輝度分布マップの輝度平均値を算出して前記二次元データを求める、ワーク計測装置。
  5.  請求項2~4のいずれか1項に記載のワーク計測装置において、
     前記撮像部は、画素がマトリクス配列された撮像素子を備え、
     前記計測部は、前記撮像素子が取得する全画像エリアのうち使用する一部を指定するROI指定が可能であり、
     前記3D領域は、ROI指定の範囲に基づき設定される、ワーク計測装置。
  6.  計測対象のワークの二次元データおよび三次元データを取得するワーク計測方法であって、
     前記ワークを相対移動させつつ、ライン光および通常照明光を同時に前記ワークに照射した状態で、所定のカメラスケール単位で前記ワークの画像を取得し、
     前記カメラスケール単位で順次撮像された画像の各々から、前記ワークの注目位置に対応する画像データを抽出するとともに、抽出された画像データを時系列順に並べて当該注目位置の輝度分布マップを生成し、
     前記輝度分布マップに基づき、前記注目位置の二次元データおよび三次元データを導出する、ワーク計測方法。
PCT/JP2021/045061 2021-12-08 2021-12-08 ワーク計測装置およびワーク計測方法 WO2023105664A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
KR1020247011180A KR20240058907A (ko) 2021-12-08 2021-12-08 워크 계측 장치 및 워크 계측 방법
JP2023565762A JPWO2023105664A1 (ja) 2021-12-08 2021-12-08
PCT/JP2021/045061 WO2023105664A1 (ja) 2021-12-08 2021-12-08 ワーク計測装置およびワーク計測方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/045061 WO2023105664A1 (ja) 2021-12-08 2021-12-08 ワーク計測装置およびワーク計測方法

Publications (1)

Publication Number Publication Date
WO2023105664A1 true WO2023105664A1 (ja) 2023-06-15

Family

ID=86729893

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/045061 WO2023105664A1 (ja) 2021-12-08 2021-12-08 ワーク計測装置およびワーク計測方法

Country Status (3)

Country Link
JP (1) JPWO2023105664A1 (ja)
KR (1) KR20240058907A (ja)
WO (1) WO2023105664A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009068986A (ja) * 2007-09-13 2009-04-02 Nikon Corp 形状測定装置
JP2013242257A (ja) * 2012-05-22 2013-12-05 Ricoh Elemex Corp 検査方法及び外観検査装置
JP2015105883A (ja) * 2013-11-29 2015-06-08 株式会社アバールデータ 計測装置
US20190026877A1 (en) * 2016-03-22 2019-01-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device and method of combining measurement signals from illumination signals

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006162386A (ja) 2004-12-06 2006-06-22 Canon Inc 3次元モデル生成装置、3次元モデル生成システム及び3次元モデル生成プログラム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009068986A (ja) * 2007-09-13 2009-04-02 Nikon Corp 形状測定装置
JP2013242257A (ja) * 2012-05-22 2013-12-05 Ricoh Elemex Corp 検査方法及び外観検査装置
JP2015105883A (ja) * 2013-11-29 2015-06-08 株式会社アバールデータ 計測装置
US20190026877A1 (en) * 2016-03-22 2019-01-24 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Device and method of combining measurement signals from illumination signals

Also Published As

Publication number Publication date
KR20240058907A (ko) 2024-05-07
JPWO2023105664A1 (ja) 2023-06-15

Similar Documents

Publication Publication Date Title
KR100406843B1 (ko) 색정보를 이용한 실시간 3차원 표면형상 측정방법 및 장치
US20120307260A1 (en) Hybrid system
JP7064404B2 (ja) 光学式変位計
US20150324991A1 (en) Method for capturing images of a preferably structured surface of an object and device for image capture
JP6275622B2 (ja) 走行面上の複数の製品の位置と三次元的な形状を非接触で検出する方法およびスキャナ
JP2012215394A (ja) 三次元計測装置および三次元計測方法
JP2002131016A (ja) 距離測定装置、及び距離測定方法
JP7449486B2 (ja) 三次元形状測定用校正装置
JP5438475B2 (ja) 隙間段差計測装置、隙間段差計測方法、及びそのプログラム
CN110672037A (zh) 基于相移法的线性光源光栅投影三维测量系统及方法
WO2020065850A1 (ja) 3次元測定装置
JP2013178174A (ja) 複数の格子を用いた三次元形状計測装置
JP5956296B2 (ja) 形状計測装置及び形状計測方法
CN112097684B (zh) 一种基于多姿态带结构光的视觉测量系统及测量方法
KR20180053119A (ko) 3차원 형상 측정 장치 및 측정 방법
WO2023105664A1 (ja) ワーク計測装置およびワーク計測方法
JP2012237613A (ja) 形状計測装置及び形状計測方法
JP2014238299A (ja) 被検物の計測装置、算出装置、計測方法および物品の製造方法
KR20170068071A (ko) 형상측정장치와 이를 이용한 형상측정방법
JP6820516B2 (ja) 表面形状測定方法
KR101327433B1 (ko) 역구배를 가지는 대상물체의 입체형상 측정 장치
CN118265888A (en) Workpiece measuring device and workpiece measuring method
CN115082538A (zh) 基于线结构光投影的多目视觉平衡环零件表面三维重建系统及方法
JP2009192483A (ja) 三次元形状計測方法および三次元形状計測装置
JP2019045346A (ja) 検査装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21967163

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2023565762

Country of ref document: JP

ENP Entry into the national phase

Ref document number: 20247011180

Country of ref document: KR

Kind code of ref document: A