KR20240060825A - Three-dimensional measurement calculation device, three-dimensional measurement program, recording medium, three-dimensional measurement device, and three-dimensional measurement calculation method - Google Patents

Three-dimensional measurement calculation device, three-dimensional measurement program, recording medium, three-dimensional measurement device, and three-dimensional measurement calculation method Download PDF

Info

Publication number
KR20240060825A
KR20240060825A KR1020247012830A KR20247012830A KR20240060825A KR 20240060825 A KR20240060825 A KR 20240060825A KR 1020247012830 A KR1020247012830 A KR 1020247012830A KR 20247012830 A KR20247012830 A KR 20247012830A KR 20240060825 A KR20240060825 A KR 20240060825A
Authority
KR
South Korea
Prior art keywords
shape
dimensional
component
measurement
area
Prior art date
Application number
KR1020247012830A
Other languages
Korean (ko)
Inventor
나오키 히다
Original Assignee
야마하하쓰도키 가부시키가이샤
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 야마하하쓰도키 가부시키가이샤 filed Critical 야마하하쓰도키 가부시키가이샤
Publication of KR20240060825A publication Critical patent/KR20240060825A/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/30Circuit design
    • G06F30/39Circuit design at the physical level
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)

Abstract

기판(B) 중 부품(E)이 실장되는 부품 실장 범위(Ref) 및 상기 부품 실장 범위(Ref)에 실장되는 부품(E)의 외형을 나타내는 부품 모델(83)(기준 모델)이 취득된다. 그리고, 삼차원 계측 장치(1)에서 부품(E)에 패턴광(L(S))이 투영되는 투영 방향(D)을 나타내는 투영 방향 정보(84)(조사 방향 정보)와, 부품 모델(83)에 의거해서, 그림자 영역(As) 및 2차 반사 영역(Ar)(조사 불량 영역)이 산출된다. 이렇게 해서, 계측 대상물(J)에 조사된 패턴광(L(S))을 촬상함으로써 취득된 패턴 화상(I(S))에 의거해서 계측 대상물(J)의 삼차원 형상을 계측함에 있어서, 패턴광(L)의 조사 불량이 발생하는 그림자 영역(As) 및 2차 반사 영역(Ar)을 취득하는 것이 가능하게 되어 있다.A component mounting range (Ref) in which the component (E) is mounted on the board (B) and a component model (83) (reference model) representing the external appearance of the component (E) mounted in the component mounting range (Ref) are acquired. In addition, projection direction information 84 (irradiation direction information) indicating the projection direction D in which the pattern light L(S) is projected onto the part E in the three-dimensional measurement device 1, and the part model 83 Based on this, the shadow area As and the secondary reflection area Ar (poorly irradiated area) are calculated. In this way, in measuring the three-dimensional shape of the measurement object J based on the pattern image I(S) acquired by imaging the pattern light L(S) irradiated on the measurement object J, the pattern light It is possible to acquire the shadow area (As) and the secondary reflection area (Ar) where irradiation defects (L) occur.

Description

삼차원 계측용 연산 장치, 삼차원 계측용 프로그램, 기록 매체, 삼차원 계측 장치 및 삼차원 계측용 연산 방법Three-dimensional measurement calculation device, three-dimensional measurement program, recording medium, three-dimensional measurement device, and three-dimensional measurement calculation method

이 발명은 계측 대상물에 조사된 소정 패턴의 광을 촬상함으로써 취득된 패턴 화상에 의거해서 계측 대상물의 삼차원 형상을 계측하는 기술에 관한 것이다.This invention relates to a technique for measuring the three-dimensional shape of a measurement object based on a pattern image obtained by imaging a predetermined pattern of light irradiated on the measurement object.

특허문헌 1, 특허문헌 2에서는, 소위 위상 시프트법에 의해 계측 대상물의 삼차원 형상을 계측하는 삼차원 계측 기술이 기재되어 있다. 이러한 삼차원 계측 기술에서는, 프로젝터로부터 계측 대상물에 조사된 소정 패턴의 광을 카메라에 의해 촬상함으로써 취득한 화상에 의거해서, 계측 대상물의 삼차원 형상이 계측된다.Patent Document 1 and Patent Document 2 describe a three-dimensional measurement technology that measures the three-dimensional shape of a measurement object using the so-called phase shift method. In this three-dimensional measurement technology, the three-dimensional shape of the measurement object is measured based on an image acquired by using a camera to capture a predetermined pattern of light irradiated from a projector to the measurement object.

또한, 특허문헌 2에서는, 계측 대상물을 구성하는 물체 중에 키가 큰 물체가 존재하는 경우에 발생하는 2차 반사의 영향을 억제해서 삼차원 형상을 계측하는 기술이 제안되어 있다. 즉, 프로젝터로부터 사출되어 키가 큰 물체의 측면에서 반사된 광이, 다른 물체에 의해 더 반사되는 등의 2차 반사가 발생하면, 삼차원 형상을 정확하게 계측하는 것이 어려워진다. 그래서, 특허문헌 2에서는, 2차 반사의 발생 원인이 되는 키가 큰 물체(원인 물체)에 프로젝터로부터의 광이 입사하지 않도록, 프로젝터로부터 광을 조사하는 범위가 제한된다.Additionally, Patent Document 2 proposes a technique for measuring a three-dimensional shape by suppressing the influence of secondary reflection that occurs when a tall object is present among the objects constituting the measurement object. In other words, if secondary reflection occurs, such as when light emitted from a projector and reflected from the side of a tall object is further reflected by another object, it becomes difficult to accurately measure the three-dimensional shape. Therefore, in Patent Document 2, the range in which light is irradiated from the projector is limited so that the light from the projector does not enter a tall object (causing object) that causes secondary reflection.

일본 특허 공개 제2012-112952호 공보Japanese Patent Publication No. 2012-112952 일본 특허 공개 제2016-130663호 공보Japanese Patent Publication No. 2016-130663

단, 특허문헌 2와 같이 프로젝터로부터 광을 조사하는 범위를 제한하기 위해서는, 삼차원 계측 장치에 구비되는 프로젝터 등의 하드웨어를 제어할 필요가 있기 때문에, 제어가 복잡해지기 쉽다. 또한, 삼차원 형상의 계측에 영향을 주는 광의 조사 불량으로서는, 상기 2차 반사 외에, 소위 오클루전을 들 수 있다. 이 오클루전이란, 계측 대상물을 구성하는 물체에 가려짐으로써 프로젝터로부터의 광이 도달하지 않는 그림자가 발생하는 현상이다. 특허문헌 2는 이와 같은 오클루전에 대해서는 대응할 수 없다.However, in order to limit the range of light irradiated from the projector as shown in Patent Document 2, it is necessary to control hardware such as the projector provided in the three-dimensional measurement device, so control is likely to become complicated. In addition to the above-mentioned secondary reflection, so-called occlusion can be cited as a light irradiation defect that affects the measurement of a three-dimensional shape. This occlusion is a phenomenon in which a shadow is generated where light from the projector does not reach by being obscured by an object constituting the measurement object. Patent Document 2 cannot respond to such occlusion.

이것에 대하여, 계측 대상물에 있어서 광의 조사 불량이 발생하는 조사 불량 영역을 알 수 있으면, 삼차원 계측 장치에서 취득된 패턴 화상에 의거해서 삼차원 형상을 산출하는 연산에 있어서, 상기 조사 불량 영역을 참조할 수 있다. 그 결과, 광의 조사 불량의 영향을 억제하면서 삼차원 형상을 산출하는 연산을 실행할 수 있다.In contrast, if the poor irradiation area in the measurement object where poor irradiation of light occurs can be known, the poor irradiation area can be referred to in calculating the three-dimensional shape based on the pattern image acquired by the three-dimensional measurement device. there is. As a result, calculations for calculating a three-dimensional shape can be performed while suppressing the influence of poor irradiation of light.

이 발명은 상기 과제를 감안하여 이루어진 것으로, 계측 대상물에 조사된 소정 패턴의 광을 촬상함으로써 취득된 패턴 화상에 의거해서 계측 대상물의 삼차원 형상을 계측함에 있어서, 광의 조사 불량이 발생하는 조사 불량 영역을 취득 가능하게 하는 것을 목적으로 한다.This invention was made in consideration of the above problem, and in measuring the three-dimensional shape of a measurement object based on a pattern image acquired by imaging a predetermined pattern of light irradiated to the measurement object, an area of poor irradiation where light irradiation defects occurs is determined. The purpose is to make acquisition possible.

본 발명에 의한 삼차원 계측용 연산 장치는 기판 및 상기 기판에 실장된 부품을 갖는 계측 대상물을 지지하는 대상물 지지부와, 대상물 지지부에 지지된 계측 대상물에 소정 패턴의 광을 조사하는 패턴 조사부와, 패턴 조사부로부터 계측 대상물에 조사된 광을 촬상함으로써 이차원의 패턴 화상을 취득하는 촬상부를 구비한 삼차원 계측 장치에 의해 취득된 패턴 화상에 의거해서 계측 대상물의 삼차원 형상을 계측하기 위한 연산을 실행하는 삼차원 계측용 연산 장치로서, 기판 중 부품이 실장되는 부품 실장 범위 및 부품 실장 범위에 실장되는 부품의 외형을 나타내는 기준 모델을 취득하는 기준 모델 취득부와, 촬상부로부터 부품에 조사된 광이 부품에 의해 가려짐으로써 기판에 있어서 부품의 그림자가 발생하는 그림자 영역 및 촬상부로부터 조사되어 부품에서 반사된 광이 기판에 입사하는 2차 반사 영역 중 적어도 일방의 조사 불량 영역을, 삼차원 계측 장치에서 부품에 광이 조사되는 방향을 나타내는 조사 방향 정보와, 기준 모델에 의거해서 산출하는 영역 산출부를 구비한다.The computing device for three-dimensional measurement according to the present invention includes an object support unit that supports a measurement object having a substrate and components mounted on the substrate, a pattern irradiation unit that irradiates light of a predetermined pattern to the measurement object supported on the object support, and a pattern irradiation unit. A three-dimensional measurement calculation that performs calculations for measuring the three-dimensional shape of a measurement object based on a pattern image acquired by a three-dimensional measurement device provided with an imaging unit that acquires a two-dimensional pattern image by imaging light irradiated to the measurement object from The device includes a reference model acquisition unit that acquires a reference model representing the component mounting range in which the component is mounted on a board and the external appearance of the component being mounted in the component mounting range, and the light emitted from the imaging unit to the component is obscured by the component. At least one of the shadow areas on the substrate where the shadow of the component occurs and the secondary reflection area where the light irradiated from the imaging unit and reflected from the component enters the substrate is an illumination area where light is irradiated to the component from a three-dimensional measuring device. It is provided with irradiation direction information indicating the direction and an area calculation unit that calculates the area based on a reference model.

본 발명에 의한 삼차원 계측용 프로그램은 상기 삼차원 계측용 연산 장치로서 컴퓨터를 기능시킨다.The program for three-dimensional measurement according to the present invention causes the computer to function as the arithmetic device for three-dimensional measurement.

본 발명에 의한 기록 매체는 상기 삼차원 계측용 프로그램을 컴퓨터에 의해 판독 가능하게 기록한다.The recording medium according to the present invention records the three-dimensional measurement program in a manner that is readable by a computer.

본 발명에 의한 삼차원 계측 장치는 기판 및 상기 기판에 실장된 부품을 갖는 계측 대상물을 지지하는 대상물 지지부와, 대상물 지지부에 지지된 계측 대상물에 소정 패턴의 광을 조사하는 패턴 조사부와, 패턴 조사부로부터 계측 대상물에 조사된 광을 촬상함으로써 이차원의 패턴 화상을 취득하는 촬상부와, 패턴 화상에 의거해서 계측 대상물의 삼차원 형상을 계측하기 위한 연산을 실행하는 상기 삼차원 계측용 연산 장치를 구비한다.The three-dimensional measurement device according to the present invention includes an object support unit that supports a measurement object having a substrate and components mounted on the substrate, a pattern irradiation unit that irradiates light of a predetermined pattern to the measurement object supported on the object support unit, and measurement from the pattern irradiation unit. It is provided with an imaging unit that acquires a two-dimensional pattern image by imaging light irradiated to the object, and the three-dimensional measurement arithmetic device that performs calculations for measuring the three-dimensional shape of the measurement object based on the pattern image.

본 발명에 의한 삼차원 계측용 연산 방법은 기판 및 상기 기판에 실장된 부품을 갖는 계측 대상물을 지지하는 대상물 지지부와, 대상물 지지부에 지지된 계측 대상물에 소정 패턴의 광을 조사하는 패턴 조사부와, 패턴 조사부로부터 계측 대상물에 조사된 광을 촬상함으로써 이차원의 패턴 화상을 취득하는 촬상부를 구비한 삼차원 계측 장치에 의해 취득된 패턴 화상에 의거해서 계측 대상물의 삼차원 형상을 계측하기 위한 연산을 실행하는 삼차원 계측용 연산 방법으로서, 기판 중 부품이 실장되는 부품 실장 범위 및 부품 실장 범위에 실장되는 부품의 외형을 나타내는 기준 모델을 취득하는 공정과, 촬상부로부터 부품에 조사된 광이 부품에 의해 가려짐으로써 기판에 있어서 부품의 그림자가 발생하는 그림자 영역 및 촬상부로부터 조사되어 부품에서 반사된 광이 기판에 입사하는 2차 반사 영역 중 적어도 일방의 조사 불량 영역을, 삼차원 계측 장치에서 부품에 광이 조사되는 방향을 나타내는 조사 방향 정보와, 기준 모델에 의거해서 산출하는 공정을 구비한다.The calculation method for three-dimensional measurement according to the present invention includes an object support unit that supports a measurement object having a substrate and components mounted on the substrate, a pattern irradiation unit that irradiates light of a predetermined pattern to the measurement object supported on the object support, and a pattern irradiation unit. A three-dimensional measurement calculation that performs calculations for measuring the three-dimensional shape of a measurement object based on a pattern image acquired by a three-dimensional measurement device provided with an imaging unit that acquires a two-dimensional pattern image by imaging light irradiated to the measurement object from As a method, the process includes obtaining a reference model representing the component mounting range in which the component is mounted on the board and the external shape of the component mounted in the component mounting range, and the light emitted from the imaging unit to the component is obscured by the component, thereby At least one poorly irradiated area among the shadow area where the shadow of the part occurs and the secondary reflection area where the light irradiated from the imaging unit and reflected from the part enters the substrate is a three-dimensional measurement device that indicates the direction in which light is irradiated to the part. Survey direction information and a calculation process based on a standard model are provided.

이와 같이 구성된 본 발명(삼차원 계측용 연산 장치, 삼차원 계측용 프로그램, 기록 매체, 삼차원 계측 장치 및 삼차원 계측용 연산 방법)에서는, 기판 중 부품이 실장되는 부품 실장 범위 및 부품 실장 범위에 실장되는 부품의 외형을 나타내는 기준 모델이 취득된다. 그리고, 삼차원 계측 장치에서 부품에 광이 조사되는 방향을 나타내는 조사 방향 정보와, 기준 모델에 의거해서, 조사 불량 영역이 산출된다. 이렇게 해서, 계측 대상물에 조사된 소정 패턴의 광을 촬상함으로써 취득된 패턴 화상에 의거해서 계측 대상물의 삼차원 형상을 계측함에 있어서, 광의 조사 불량이 발생하는 조사 불량 영역을 취득하는 것이 가능하게 되어 있다.In the present invention (a calculation device for three-dimensional measurement, a program for three-dimensional measurement, a recording medium, a three-dimensional measurement device, and a calculation method for three-dimensional measurement) configured as described above, the component mounting range in which the component is mounted on the board and the component mounting range in the component mounting range are provided. A reference model representing the appearance is obtained. Then, the illumination defect area is calculated based on the reference model and irradiation direction information indicating the direction in which light is irradiated to the part in the three-dimensional measuring device. In this way, when measuring the three-dimensional shape of the measurement object based on a pattern image acquired by imaging a predetermined pattern of light irradiated to the measurement object, it is possible to acquire an irradiation defective area where light irradiation defects occur.

여기서, 조사 불량 영역은 촬상부로부터 부품에 조사된 광이 부품에 의해 가려짐으로써 기판에 있어서 부품의 그림자가 발생하는 그림자 영역 및 촬상부로부터 조사되어 부품에서 반사된 광이 기판에 입사하는 2차 반사 영역 중 적어도 일방이다.Here, the poorly irradiated area is a shadow area where the light irradiated from the imaging unit to the component is obscured by the component, causing a shadow of the component on the substrate, and the secondary area where the light irradiated from the imaging unit and reflected from the component is incident on the substrate. It is at least one side of the reflection area.

또한, 기준 모델 취득부는 부품 실장 범위에 실장된 부품과 부품 실장 범위의 위치 관계의 적부(適否)를 검사하기 위한 기준을 나타내는 검사 데이터 및 기판의 구성을 나타내는 CAD(Computer-Aided Design) 데이터 중 적어도 일방의 데이터로부터, 기준 모델을 제작하도록, 삼차원 계측용 연산 장치를 구성해도 좋다. 이러한 구성에서는, 기판의 검사 데이터 혹은 CAD 데이터와 같은 기존의 데이터를 활용해서 기준 모델을 제작하고, 이 기준 모델에 의거해서 조사 불량 영역을 산출할 수 있다. 또한, 검사 데이터가 나타내는 정보는 상기 기준에 한정되지 않고, 부품 자체의 적부를 검사하기 위한 기준이나, 부품과 기판의 접합의 적부를 검사하기 위한 기준도 포함할 수 있다.In addition, the reference model acquisition unit includes at least one of inspection data representing a standard for inspecting the adequacy of the positional relationship between the components mounted in the component mounting range and CAD (Computer-Aided Design) data representing the configuration of the board. A calculation device for three-dimensional measurement may be configured to produce a reference model from one piece of data. In this configuration, a reference model can be created using existing data such as board inspection data or CAD data, and the irradiation defective area can be calculated based on this reference model. Additionally, the information represented by the inspection data is not limited to the above standards, and may also include standards for inspecting the adequacy of the component itself and standards for inspecting the adequacy of the joint between the component and the board.

또한, 영역 산출부는 삼차원 계측 장치에 반입되어 대상물 지지부에 지지된 기판의 위치를 인식한 결과에 더 의거해서 조사 불량 영역을 산출하도록, 삼차원 계측용 연산 장치를 구성해도 좋다. 이러한 구성에서는, 삼차원 계측 장치에 반입된 기판의 실제 위치에 따라서, 조사 불량 영역을 적확하게 산출할 수 있다.Additionally, the three-dimensional measurement calculation device may be configured so that the area calculation unit calculates the irradiation defective area further based on the results of recognizing the position of the substrate carried in the three-dimensional measurement device and supported on the object support portion. In this configuration, the irradiation defective area can be accurately calculated according to the actual position of the substrate loaded into the three-dimensional measuring device.

또한, 대상물 지지부에 지지된 기판의 위치는 기판에 부착된 피듀셜 마크를 촬상부에 의해 촬상한 결과에 의거해서 인식되도록, 삼차원 계측용 연산 장치를 구성해도 좋다. 이러한 구성에서는, 삼차원 계측 장치에 반입된 기판의 위치에 따라서, 조사 불량 영역을 적확하게 산출할 수 있다.Additionally, the arithmetic device for three-dimensional measurement may be configured so that the position of the substrate supported on the object support portion is recognized based on the results of imaging the fiducial mark attached to the substrate by the imaging unit. In this configuration, the irradiation defective area can be accurately calculated according to the position of the substrate loaded into the three-dimensional measuring device.

또한, 영역 산출부는 부품 실장 범위에 실장된 부품의 위치를 검출한 결과에 더 의거해서 조사 불량 영역을 산출하도록, 삼차원 계측용 연산 장치를 구성해도 좋다. 이러한 구성에서는, 부품 실장 범위에 실장된 부품의 실제 위치에 따라서, 조사 불량 영역을 적확하게 산출할 수 있다.Additionally, the area calculation unit may configure a three-dimensional measurement calculation device so that the area calculation unit calculates the irradiation defective area further based on the results of detecting the positions of the components mounted in the component mounting range. In this configuration, the irradiation defective area can be accurately calculated according to the actual position of the component mounted in the component mounting range.

또한, 부품 실장 범위에 실장된 부품의 위치는 부품을 촬상한 결과에 의거해서 검출되도록, 삼차원 계측용 연산 장치를 구성해도 좋다. 이러한 구성에서는, 부품 실장 범위에 실장된 부품의 실제 위치에 따라서, 조사 불량 영역을 적확하게 산출할 수 있다.Additionally, the three-dimensional measurement calculation device may be configured so that the positions of components mounted in the component mounting range are detected based on the results of imaging the components. In this configuration, the irradiation defective area can be accurately calculated according to the actual position of the component mounted in the component mounting range.

또한, 패턴 조사부는 서로 상이한 방향으로부터 부품에 광을 조사하는 복수의 프로젝터를 갖고, 조사 방향 정보는 프로젝터로부터 부품에 광이 조사되는 방향을 복수의 프로젝터의 각각에 대해서 나타내고, 영역 산출부는 복수의 프로젝터의 각각에 대해서 조사 불량 영역을 산출하도록, 삼차원 계측용 연산 장치를 구성해도 좋다. 이러한 구성에서는, 복수의 프로젝터의 각각으로부터 부품에 광을 조사했을 때에 발생하는 조사 불량 영역을 취득할 수 있다.In addition, the pattern irradiation unit has a plurality of projectors that irradiate light to the part from different directions, the irradiation direction information indicates the direction in which light is irradiated from the projector to the part for each of the plurality of projectors, and the area calculation unit has a plurality of projectors. A calculation device for three-dimensional measurement may be configured to calculate the irradiation defective area for each of . In this configuration, it is possible to acquire illumination defect areas that occur when light is irradiated to a component from each of a plurality of projectors.

또한, 프로젝터로부터 기판에 조사된 광을 촬상부에 의해 촬상함으로써 취득된 패턴 화상에 의거해서, 삼차원 형상에 관한 값인 형상 관련값을 화소별로 나타내는 단방향 형상 데이터를 산출하는 연산을, 복수의 프로젝터의 각각에 대해서 실행함으로써, 복수의 단방향 형상 데이터를 산출하는 형상 산출부를 더 구비하고, 형상 산출부는 복수의 단방향 형상 데이터 각각이 나타내는 형상 관련값의 평균을 화소별로 산출함으로써 복수의 단방향 형상 데이터를 통합하여, 계측 대상물의 삼차원 형상을 산출하는 제 1 통합 연산 처리를 실행하고, 제 1 통합 연산 처리에서는, 단방향 형상 데이터가 나타내는 형상 관련값 중, 조사 불량 영역에 포함되는 화소의 형상 관련값에 대해서는 1 미만이고 0 이상의 무게 계수를 곱하는 가중 평균에 의해, 계측 대상물의 삼차원 형상이 산출되도록, 삼차원 계측용 연산 장치를 구성해도 좋다.In addition, based on the pattern image acquired by imaging the light irradiated from the projector to the substrate by the imaging unit, a calculation for calculating unidirectional shape data representing a shape-related value, which is a value related to a three-dimensional shape, for each pixel is performed on each of the plurality of projectors. The shape calculation unit further includes a shape calculation unit that calculates a plurality of unidirectional shape data by executing for , and the shape calculation unit integrates the plurality of unidirectional shape data by calculating the average of the shape-related values represented by each of the plurality of unidirectional shape data for each pixel, A first integrated calculation process for calculating the three-dimensional shape of the measurement object is performed, and in the first integrated calculation process, among the shape-related values indicated by the unidirectional shape data, the shape-related value of the pixel included in the poor irradiation area is less than 1. The arithmetic device for three-dimensional measurement may be configured so that the three-dimensional shape of the measurement object is calculated by a weighted average multiplied by a weight coefficient of 0 or more.

이러한 구성에서는, 프로젝터로부터 기판에 조사된 광을 촬상부에 의해 촬상함으로써 취득된 패턴 화상에 의거해서, 삼차원 형상에 관한 값(형상 관련값)을 화소별로 나타내는 단방향 형상 데이터가 산출된다. 즉, 단방향 형상 데이터는 하나의 프로젝터로부터 부품에 조사한 광을 촬상한 패턴 화상에 의거해서 산출되는 삼차원 형상에 관한 데이터이다. 이 단방향 형상 데이터를 산출하는 연산은 복수의 프로젝터의 각각에 대해서 실행된다. 이것에 의해, 복수의 프로젝터의 각각으로부터 부품에 광을 조사한 경우의 단방향 형상 데이터가 취득된다. 이렇게 해서 취득되는 복수의 단방향 형상 데이터는 각각 상이한 방향으로부터 부품에 광을 조사하면서 취득되는 패턴 화상에 의거한다. 따라서, 하나의 단방향 형상 데이터에 있어서 조사 불량 영역에 해당하는 화소가, 다른 단방향 형상 데이터에 있어서는 양호하게 광이 조사된 영역에 해당할 수 있다. 따라서, 복수의 단방향 형상 데이터 각각이 나타내는 형상 관련값의 가중 평균을 화소별로 산출함으로써 복수의 단방향 형상 데이터를 통합하여, 계측 대상물의 삼차원 형상을 산출할 수 있다. 게다가, 제 1 통합 연산 처리에서는, 단방향 형상 데이터가 나타내는 형상 관련값 중, 조사 불량 영역에 포함되는 화소의 형상 관련값에 대해서는 1 미만이고 0 이상의 무게 계수를 곱하는 가중 평균에 의해, 계측 대상물의 삼차원 형상이 산출된다. 이것에 의해, 조사 불량 영역의 영향을 억제하면서, 계측 대상물의 삼차원 형상을 적절히 산출하는 것이 가능하게 되어 있다.In this configuration, unidirectional shape data indicating a value related to the three-dimensional shape (shape-related value) for each pixel is calculated based on a pattern image acquired by imaging the light irradiated from the projector to the substrate by an imaging unit. In other words, unidirectional shape data is data about a three-dimensional shape calculated based on a pattern image captured by light irradiated to a part from a single projector. The calculation for calculating this unidirectional shape data is performed for each of the plurality of projectors. In this way, unidirectional shape data when light is irradiated to the part from each of the plurality of projectors is acquired. The plurality of unidirectional shape data acquired in this way are based on pattern images acquired while irradiating light to the part from different directions. Therefore, a pixel corresponding to a poorly illuminated area in one unidirectional shape data may correspond to a well irradiated area in other unidirectional shape data. Therefore, by calculating the weighted average of the shape-related values represented by each of the plurality of unidirectional shape data for each pixel, the plurality of unidirectional shape data can be integrated to calculate the three-dimensional shape of the measurement object. Furthermore, in the first integrated calculation process, among the shape-related values indicated by the unidirectional shape data, the shape-related values of the pixels included in the poor irradiation area are calculated by a weighted average that is less than 1 and multiplied by a weight coefficient of 0 or more to obtain a three-dimensional image of the measurement object. The shape is calculated. This makes it possible to appropriately calculate the three-dimensional shape of the measurement object while suppressing the influence of the poorly irradiated area.

또한, 제 1 통합 연산 처리에서는, 조사 불량 영역에 포함되는 화소의 형상 관련값에 대해서는 0의 무게 계수를 곱하는 가중 평균에 의해, 계측 대상물의 삼차원 형상이 산출되도록, 삼차원 계측용 연산 장치를 구성해도 좋다. 이와 같이, 0의 무게 계수를 곱하는 조작은 즉 조사 불량 영역을 제외한 조작이다. 이것에 의해, 조사 불량 영역의 영향을 배제하면서, 계측 대상물의 삼차원 형상을 적절히 산출하는 것이 가능하게 되어 있다.In addition, in the first integrated calculation process, the three-dimensional measurement calculation device may be configured so that the three-dimensional shape of the measurement object is calculated by a weighted average that multiplies the shape-related values of the pixels included in the poor irradiation area by a weight coefficient of 0. good night. In this way, the operation of multiplying the weight coefficient of 0 is an operation of excluding the irradiation defective area. This makes it possible to appropriately calculate the three-dimensional shape of the measurement object while excluding the influence of poor irradiation areas.

또한, 형상 관련값의 구체적인 내용은 다양하게 상정된다. 예를 들면, 형상 관련값은 패턴 화상에 의거해서 산출되는 삼차원 형상의 산출값과, 상기 산출값의 신뢰도의 곱으로 주어져도 좋고, 형상 관련값은 패턴 화상에 의거해서 산출되는 삼차원 형상의 산출값이어도 좋다.Additionally, the specific contents of the shape-related values are assumed in various ways. For example, the shape-related value may be given as the product of the calculated value of the three-dimensional shape calculated based on the pattern image and the reliability of the calculated value, and the shape-related value may be the calculated value of the three-dimensional shape calculated based on the pattern image. It's okay to continue.

또한, 형상 산출부는 조사 불량 영역에 따른 가중을 행하지 않고 복수의 단방향 형상 데이터가 나타내는 형상 관련값의 대표값을 화소별로 산출함으로써 복수의 단방향 형상 데이터를 통합하여, 계측 대상물의 삼차원 형상을 산출하는 제 2 통합 연산 처리와, 제 1 통합 연산 처리의 양방을 동일한 계측 대상물에 대하여 실행하고, 제 1 통합 연산 처리 및 제 2 통합 연산 처리 각각에서 산출된 계측 대상물의 삼차원 형상의 차를 평가하는 평가 처리를, 삼차원 계측 장치에서 패턴 화상의 취득 대상이 된 소정 수의 계측 대상물에 실행함으로써, 제 1 통합 연산 처리의 요부(要否)를 판정하는 요부 판정을 실행하고, 요부 판정에 있어서 제 1 통합 연산 처리가 불필요하다고 판정된 후에는, 형상 산출부는 제 1 통합 연산 처리를 실행하지 않고 제 2 통합 연산 처리에 의해 계측 대상물의 삼차원 형상을 산출하도록, 삼차원 계측용 연산 장치를 구성해도 좋다. 이러한 구성에서는, 조사 불량 영역이 문제가 되지 않는 경우에는, 제 1 통합 연산 처리보다 간소한 제 2 통합 연산 처리에 의해 계측 대상물의 삼차원 형상을 적확하게 산출할 수 있다. 여기서, 조사 불량 영역에 따른 가중을 행하지 않는, 복수의 단방향 형상 데이터가 나타내는 형상 관련값의 대표값이란, 단순 평균에 의한 평균값 혹은 중앙값 등을 포함한다.In addition, the shape calculation unit integrates the plurality of unidirectional shape data by calculating a representative value of the shape-related value represented by the plurality of unidirectional shape data for each pixel without performing weighting according to the irradiation defect area, and calculates the three-dimensional shape of the measurement object. 2. An evaluation process that executes both the integrated calculation process and the first integrated calculation process on the same measurement object, and evaluates the difference in the three-dimensional shape of the measurement object calculated in each of the first integrated calculation process and the second integrated calculation process. , by executing on a predetermined number of measurement objects that are the target of pattern image acquisition in a three-dimensional measurement device, a necessity judgment is performed to determine the necessity of the first integrated calculation process, and the first integrated calculation process is performed in the necessity judgment. After it is determined that is unnecessary, the shape calculation unit may configure the three-dimensional measurement calculation device so that the three-dimensional shape of the measurement object is calculated by the second integration calculation process without performing the first integration calculation process. In this configuration, when poor irradiation areas are not a problem, the three-dimensional shape of the measurement object can be accurately calculated by the second integrated calculation process, which is simpler than the first integrated calculation process. Here, the representative value of the shape-related value represented by the plurality of unidirectional shape data, which is not weighted according to the poor irradiation area, includes the average value by simple average or the median value, etc.

또한, 소정 수를 설정하는 조작을 접수하는 설정 조작부를 더 구비하도록, 삼차원 계측용 연산 장치를 구성해도 좋다. 이러한 구성에서는, 유저는 제 1 통합 연산 처리 및 제 2 통합 연산 처리의 양방이 실행되는 기간을 적당히 조정할 수 있다.Additionally, the arithmetic device for three-dimensional measurement may be configured to further include a setting operation unit that accepts an operation for setting a predetermined number. In this configuration, the user can appropriately adjust the period during which both the first integrated calculation process and the second integrated calculation process are executed.

본 발명에 의하면, 계측 대상물에 조사된 소정 패턴의 광을 촬상함으로써 취득된 패턴 화상에 의거해서 계측 대상물의 삼차원 형상을 계측함에 있어서, 광의 조사 불량이 발생하는 조사 불량 영역을 취득하는 것이 가능하게 된다.According to the present invention, when measuring the three-dimensional shape of a measurement object based on a pattern image acquired by imaging a predetermined pattern of light irradiated to the measurement object, it becomes possible to acquire an irradiation defective area where light irradiation defects occur. .

도 1은 본 발명에 의한 삼차원 계측 장치를 모식적으로 예시하는 블록도이다.
도 2는 도 1의 삼차원 계측 장치가 구비하는 프로젝터와 촬상 시야의 관계를 모식적으로 나타내는 평면도이다.
도 3은 도 1의 삼차원 계측 장치가 구비하는 제어 장치의 상세를 나타내는 블록도이다.
도 4는 부품 모델 취득부에 의해 제작되는 부품 모델의 내용을 모식적으로 나타내는 도면이다.
도 5a는 부품 모델의 제작을 위해 사용되는 기판 구성 데이터의 일례를 표 형식으로 나타내는 도면이다.
도 5b는 부품 모델의 제작을 위해 사용되는 부품 데이터의 일례를 표 형식으로 나타내는 도면이다.
도 5c는 제작된 부품 모델의 일례를 모식적으로 나타내는 도면이다.
도 6은 영역 산출부에 의해 산출되는 조사 불량 영역의 내용을 모식적으로 나타내는 도면이다.
도 7은 조사 불량 영역을 산출하기 위한 연산의 일례를 나타내는 플로우차트이다.
도 8은 삼차원 계측의 제 1 예를 나타내는 플로우차트이다.
도 9는 도 8의 삼차원 계측에서 실행되는 전방향 형상 데이터 취득을 나타내는 플로우차트이다.
도 10은 도 8의 삼차원 계측에서 실행되는 제 1 데이터 통합 처리를 나타내는 플로우차트이다.
도 11은 도 10의 제 1 데이터 통합 처리에서 실행되는 연산을 모식적으로 나타내는 도면이다.
도 12는 도 7에 의해 산출된 조사 불량 영역을 보정하기 위한 연산의 일례를 나타내는 플로우차트이다.
도 13은 삼차원 계측의 제 2 예를 나타내는 플로우차트이다.
도 14는 도 13의 삼차원 계측에서 실행되는 제 2 데이터 통합 처리를 나타내는 플로우차트이다.
도 15는 도 13의 삼차원 계측에서 실행되는 연산의 내용을 모식적으로 나타내는 도면이다.
1 is a block diagram schematically illustrating a three-dimensional measuring device according to the present invention.
FIG. 2 is a plan view schematically showing the relationship between the projector included in the three-dimensional measurement device of FIG. 1 and the imaging field of view.
FIG. 3 is a block diagram showing details of a control device included in the three-dimensional measuring device of FIG. 1.
Figure 4 is a diagram schematically showing the contents of a part model produced by the part model acquisition unit.
FIG. 5A is a diagram showing an example of board configuration data used for manufacturing a component model in table format.
Figure 5b is a diagram showing an example of part data used to produce a part model in table format.
Figure 5c is a diagram schematically showing an example of a manufactured part model.
Figure 6 is a diagram schematically showing the contents of the illumination defect area calculated by the area calculation unit.
Fig. 7 is a flowchart showing an example of calculation for calculating the irradiation defective area.
Figure 8 is a flow chart showing a first example of three-dimensional measurement.
FIG. 9 is a flow chart showing omnidirectional shape data acquisition performed in the three-dimensional measurement of FIG. 8.
FIG. 10 is a flowchart showing a first data integration process performed in the three-dimensional measurement of FIG. 8.
FIG. 11 is a diagram schematically showing operations performed in the first data integration process of FIG. 10.
FIG. 12 is a flowchart showing an example of calculation for correcting the poorly irradiated area calculated in FIG. 7.
Fig. 13 is a flow chart showing a second example of three-dimensional measurement.
FIG. 14 is a flowchart showing a second data integration process performed in the three-dimensional measurement of FIG. 13.
FIG. 15 is a diagram schematically showing the contents of calculations performed in the three-dimensional measurement of FIG. 13.

도 1은 본 발명에 의한 삼차원 계측 장치를 모식적으로 예시하는 블록도이다. 동 도면 및 이하의 도면에서는, 수평 방향인 X 방향, X 방향에 직교하는 수평 방향인 Y 방향 및 연직 방향인 Z 방향을 적당히 나타낸다. 도 1의 삼차원 계측 장치(1)는 제어 장치(100)에 의해 반송 컨베이어(2), 계측 헤드(3) 및 구동 기구(4)를 제어함으로써, 계측 대상물(J)의 삼차원 형상(외관 형상)을 계측한다. 계측 대상물(J)은 기판(B)(프린트 기판) 및 상기 기판(B)에 실장된 부품(E)으로 구성된다. 이 계측 대상물(J)은 부품(E)을 기판(B)에 실장하는 표면 실장기에 의해 생산되어, 삼차원 계측 장치(1)에 반입된다.1 is a block diagram schematically illustrating a three-dimensional measuring device according to the present invention. In the same drawing and the following drawings, the horizontal X direction, the horizontal Y direction perpendicular to the X direction, and the vertical Z direction are shown as appropriate. The three-dimensional measurement device 1 in FIG. 1 controls the conveyor 2, the measurement head 3, and the drive mechanism 4 by the control device 100 to determine the three-dimensional shape (external shape) of the measurement object J. Measure. The measurement object J is composed of a substrate B (printed substrate) and components E mounted on the substrate B. This measurement object J is produced by a surface mounting machine that mounts the component E on the board B, and is loaded into the three-dimensional measurement device 1.

반송 컨베이어(2)는 계측 대상물(J)을 소정 반송 경로를 따라 반송한다. 구체적으로는, 반송 컨베이어(2)는 계측 전의 계측 대상물(J)을 삼차원 계측 장치(1) 내의 계측 위치에 반입하여, 기판(B)이 수평이 되도록 계측 대상물(J)을 계측 위치에 유지한다. 또한, 계측 위치에 있어서의 계측 대상물(J)의 삼차원 형상의 계측이 종료되면, 반송 컨베이어(2)는 계측 후의 계측 대상물(J)을 삼차원 계측 장치(1) 밖으로 반출한다.The transport conveyor 2 transports the measurement object J along a predetermined transport path. Specifically, the conveyor 2 transports the measurement object J before measurement to the measurement position in the three-dimensional measurement device 1 and holds the measurement object J at the measurement position so that the substrate B is horizontal. . Additionally, when the measurement of the three-dimensional shape of the measurement object J at the measurement position is completed, the conveyor 2 carries the measured measurement object J out of the three-dimensional measurement device 1.

계측 헤드(3)는 촬상 시야(V31) 내를 상방으로부터 촬상하는 촬상 카메라(31)를 갖고 있고, 계측 위치에 반입된 계측 대상물(J)을 촬상 시야(V31)로 들어가게 하여 촬상 카메라(31)에 의해 촬상한다. 촬상 카메라(31)는 계측 대상물(J)로부터의 반사광을 검출하는 개체 촬상 소자(311)를 갖고, 개체 촬상 소자(311)에 의해 계측 대상물(J)의 화상을 촬상한다.The measurement head 3 has an imaging camera 31 that captures images within the imaging field of view V31 from above, and causes the measurement object J brought into the measurement position to enter the imaging field of view V31. Taken by. The imaging camera 31 has an individual imaging element 311 that detects reflected light from the measurement object J, and captures an image of the measurement object J using the individual imaging element 311.

또한, 계측 헤드(3)는 광 강도 분포가 정현파 형상으로 변화하는 줄무늬 형상의 패턴광(L(S))을 촬상 시야(V31)에 투영하는 프로젝터(32)를 갖는다. 프로젝터(32)는 LED(Light Emitting Diode) 등의 광원과, 광원으로부터의 광을 촬상 시야(V31)를 향해서 반사하는 디지털 마이크로 미러 디바이스를 갖고 있다. 이러한 프로젝터(32)는 디지털 마이크로 미러 디바이스의 각 마이크로 미러의 각도를 조정함으로써, 서로 위상이 상이한 복수종의 패턴광(L(S))을 촬상 시야(V31)에 투영할 수 있다. 즉, 계측 헤드(3)는 프로젝터(32)로부터 투영하는 패턴광(L(S))의 위상을 변화시키면서 촬상 카메라(31)에 의해 촬상을 행함으로써, 위상 시프트법에 의해 촬상 시야(V31) 내의 계측 대상물(J)의 삼차원 형상을 계측할 수 있다.Additionally, the measurement head 3 has a projector 32 that projects striped pattern light L(S) whose light intensity distribution changes in a sinusoidal shape onto the imaging field of view V31. The projector 32 has a light source such as an LED (Light Emitting Diode) and a digital micromirror device that reflects light from the light source toward the imaging field of view V31. This projector 32 can project a plurality of types of patterned light L(S) with different phases onto the imaging field of view V31 by adjusting the angle of each micromirror of the digital micromirror device. That is, the measurement head 3 captures images with the imaging camera 31 while changing the phase of the pattern light L(S) projected from the projector 32, thereby changing the imaging field of view V31 by the phase shift method. The three-dimensional shape of the measurement object J inside can be measured.

도 2는 도 1의 삼차원 계측 장치가 구비하는 프로젝터와 촬상 시야의 관계를 모식적으로 나타내는 평면도이다. 도 2에 나타내는 바와 같이, 계측 헤드(3)는 복수(여기의 예에서는, 4개)의 프로젝터(32)를 갖고 있다(도 1에서는, 도시를 간편화하기 위해서 2개의 프로젝터(32)가 대표적으로 나타나 있다). 각 프로젝터(32)는 촬상 카메라(31)의 촬상 시야(V31)에 대하여 비스듬히 상방으로부터 패턴광(L(S))을 투영한다. 평면시에 있어서, 복수의 프로젝터(32)는 촬상 카메라(31)의 주위를 둘러싸도록 배치되어 있고, 연직 방향(Z)을 중심으로 해서 원주 형상으로 등 피치로 나열된다. 따라서, 복수의 프로젝터(32)는 서로 상이한 투영 방향(D)으로부터 촬상 시야(V31)에 패턴광(L(S))을 투영한다. 또한, 계측 헤드(3)가 구비하는 프로젝터(32)의 개수는 도 2의 예의 4개에 한정되지 않는다.FIG. 2 is a plan view schematically showing the relationship between the projector included in the three-dimensional measurement device of FIG. 1 and the imaging field of view. As shown in FIG. 2, the measurement head 3 has a plurality (four in this example) of projectors 32 (in FIG. 1, two projectors 32 are typically used to simplify the illustration). appears). Each projector 32 projects pattern light L(S) diagonally upward with respect to the imaging field of view V31 of the imaging camera 31. In plan view, the plurality of projectors 32 are arranged to surround the imaging camera 31 and are arranged at equal pitches in a columnar shape with the vertical direction Z as the center. Accordingly, the plurality of projectors 32 project the pattern light L(S) onto the imaging field of view V31 from different projection directions D. Additionally, the number of projectors 32 included in the measurement head 3 is not limited to four in the example of FIG. 2 .

또한, 계측 헤드(3)는 촬상 시야(V31)에 광을 조사하는 조명(33)(도 1)을 갖는다. 상기 프로젝터(32)는 삼차원 형상을 계측할 때에 패턴광(L(S))을 촬상 시야(V31)에 투영하는 것에 대하여, 조명(33)은 이차원 화상을 촬상 카메라(31)에 의해 촬상할 때에, 촬상 시야(V31)에 조명광을 조사한다.Additionally, the measurement head 3 has an illumination 33 (FIG. 1) that irradiates light into the imaging field of view V31. The projector 32 projects the pattern light L(S) onto the imaging field of view V31 when measuring a three-dimensional shape, while the illumination 33 projects a two-dimensional image with the imaging camera 31. , illumination light is irradiated into the imaging field of view (V31).

구동 기구(4)는 계측 헤드(3)를 지지하면서, 모터에 의해 X 방향, Y 방향 및 Z 방향으로 계측 헤드(3)를 구동시킨다. 이 구동 기구(4)의 구동에 의해, 계측 헤드(3)는 계측 대상물(J) 중 계측 대상 개소의 상방으로 이동하여, 계측 대상 개소를 촬상 시야(V31) 내에 포착할 수 있고, 촬상 시야(V31) 내의 계측 대상 개소의 삼차원 형상을 계측할 수 있다. 특히 삼차원 계측 장치(1)는 기판(B)으로부터의 부품(E)의 들뜸, 예를 들면 QFP(Quad Flat Package)와 같은 패키지의 단자의 기판(B)으로부터의 들뜸 등의 검사에 이바지하도록, 부품(E)을 촬상 시야(V31)로 들어가게 하면서, 부품(E) 및 그 주변(계측 대상 개소)의 삼차원 형상을 계측할 수 있다.The drive mechanism 4 supports the measurement head 3 and drives the measurement head 3 in the X, Y, and Z directions by a motor. By driving this drive mechanism 4, the measurement head 3 can move above the measurement target portion of the measurement object J, capturing the measurement target portion within the imaging field of view V31, and capturing the measurement target portion within the imaging field of view (V31). The three-dimensional shape of the measurement target location within V31) can be measured. In particular, the three-dimensional measuring device 1 contributes to the inspection of lifting of the component E from the substrate B, for example, lifting of the terminal of a package such as QFP (Quad Flat Package), etc. from the substrate B, While bringing the part E into the imaging field of view V31, the three-dimensional shape of the part E and its surroundings (measurement target location) can be measured.

제어 장치(100)는 CPU(Central Processing Unit) 및 메모리로 구성된 프로세서인 주제어부(110)를 갖고 있고, 주제어부(110)가 장치 각 부의 제어를 통괄함으로써, 삼차원 형상이 계측된다. 또한, 제어 장치(100)는 디스플레이, 키보드 및 마우스 등의 입출력 기기로 구성된 UI(User Interface)(200)를 갖고 있고, 유저는 UI(200)를 통해서 제어 장치(100)에 명령을 입력하거나, 제어 장치(100)에 의한 계측 결과를 확인하거나 할 수 있다. 또한, 제어 장치(100)는 투영 제어부(120), 촬상 제어부(130) 및 구동 제어부(140)를 갖는다. 투영 제어부(120)는 프로젝터(32)에 의한 패턴광(L(S))의 투영을 제어한다. 촬상 제어부(130)는 촬상 카메라(31)에 의한 촬상 시야(V31)의 촬상이나, 조명(33)으로부터 촬상 시야(V31)로의 광의 조사를 제어한다. 구동 제어부(140)는 구동 기구(4)에 의한 계측 헤드(3)의 구동을 제어한다.The control device 100 has a main control unit 110, which is a processor composed of a CPU (Central Processing Unit) and memory, and the main control unit 110 integrates control of each part of the device to measure a three-dimensional shape. In addition, the control device 100 has a UI (User Interface) 200 consisting of input and output devices such as a display, keyboard, and mouse, and the user inputs commands to the control device 100 through the UI 200, or The measurement results by the control device 100 can be confirmed. Additionally, the control device 100 has a projection control unit 120, an imaging control unit 130, and a drive control unit 140. The projection control unit 120 controls projection of the pattern light L(S) by the projector 32. The imaging control unit 130 controls imaging of the imaging field of view V31 by the imaging camera 31 and irradiation of light from the illumination 33 to the imaging field of view V31. The drive control unit 140 controls the driving of the measurement head 3 by the drive mechanism 4.

반송 컨베이어(2)가 계측 위치에 계측 대상물(J)을 반입하면, 주제어부(110)는 구동 제어부(140)에 의해 구동 기구(4)를 제어하여, 계측 대상물(J)의 계측 대상 개소의 상방으로 계측 헤드(3)를 이동시킨다. 이것에 의해, 촬상 카메라(31)의 촬상 시야(V31) 내로 계측 대상 개소가 들어간다. 계속해서, 주제어부(110)는 프로젝터(32)로부터 촬상 시야(V31)로 패턴광(L(S))을 투영하면서 촬상 시야(V31)에 투영된 패턴광(L(S))을 촬상 카메라(31)에 의해 촬상한다(패턴 촬상 동작). 구체적으로는, 제어 장치(100)는 기억부(150)를 갖고 있고, 기억부(150)에 기억된 투영 패턴(T(S))을 판독한다. 그리고, 주제어부(110)는 기억부(150)로부터 판독한 투영 패턴(T(S))에 의거해서 투영 제어부(120)를 제어함으로써, 프로젝터(32)의 디지털 마이크로 미러 디바이스의 각 마이크로 미러의 각도를 투영 패턴(T(S))에 따라서 조정한다. 이렇게 해서, 촬상 시야(V31)에는 투영 패턴(T(S))을 갖는 패턴광(L(S))이 투영된다. 또한, 주제어부(110)는 촬상 제어부(130)를 제어함으로써, 촬상 시야(V31)에 투영된 패턴광(L(S))을 촬상 카메라(31)에 의해 촬상하여 패턴 화상(I(S))을 취득한다. 이 패턴 화상(I)은 기억부(150)에 기억된다. 또한, 기억부(150)에는, 서로 90도씩 위상이 상이한 4종류의 투영 패턴(T(S))이 기억되어 있고, 패턴 촬상 동작은 투영 패턴(T(S))을 바꾸면서 4회 실행된다(S=1, 2, 3, 4). 그 결과, 각각 90도씩 위상이 상이한 패턴광(L(S))을 촬상한 4종류의 패턴 화상(I(S))이 취득된다. 주제어부(110)는 이렇게 해서 취득된 4종류의 패턴 화상(I(S))으로부터, 위상 시프트법에 의해, 촬상 시야(V31)의 높이를 촬상 카메라(31)의 화소별로 구한다. 또한, 투영 패턴(T(S))의 배리에이션은 여기의 예에 한정되지 않고, 예를 들면 45도씩 위상이 상이한 8종류의 투영 패턴(T(S))을 이용해도 좋고, 120도씩 위상이 상이한 3종류의 투영 패턴(T(S))을 이용해도 좋다.When the conveyor 2 brings the measurement object J to the measurement position, the main control unit 110 controls the drive mechanism 4 by the drive control unit 140 to change the measurement target location of the measurement object J. Move the measurement head (3) upward. As a result, the measurement target point enters the imaging field of view V31 of the imaging camera 31. Subsequently, the main control unit 110 projects the pattern light L(S) from the projector 32 to the imaging field of view V31 and sends the pattern light L(S) projected to the imaging field of view V31 to the imaging camera. Image is captured by (31) (pattern imaging operation). Specifically, the control device 100 has a storage unit 150 and reads the projection pattern T(S) stored in the storage unit 150. Then, the main control unit 110 controls the projection control unit 120 based on the projection pattern T(S) read from the storage unit 150, thereby controlling each micro mirror of the digital micro mirror device of the projector 32. The angle is adjusted according to the projection pattern (T(S)). In this way, the pattern light L(S) having the projection pattern T(S) is projected onto the imaging field of view V31. In addition, the main control unit 110 controls the imaging control unit 130 to capture the pattern light L(S) projected on the imaging field of view V31 by the imaging camera 31 to produce a pattern image I(S). ) to acquire. This pattern image (I) is stored in the storage unit 150. Additionally, four types of projection patterns (T(S)) each having a phase difference of 90 degrees are stored in the storage unit 150, and the pattern imaging operation is performed four times while changing the projection pattern (T(S)) ( S=1, 2, 3, 4). As a result, four types of pattern images I(S) are acquired, each of which is obtained by capturing pattern light L(S) with a different phase of 90 degrees. The main control unit 110 determines the height of the imaging field of view V31 for each pixel of the imaging camera 31 using the phase shift method from the four types of pattern images I(S) acquired in this way. In addition, the variation of the projection pattern T(S) is not limited to the example here, and for example, eight types of projection patterns T(S) each having a phase difference of 45 degrees may be used, and eight types of projection patterns T(S) each having a phase difference of 120 degrees may be used. Three types of projection patterns (T(S)) may be used.

도 3은 도 1의 삼차원 계측 장치가 구비하는 제어 장치의 상세를 나타내는 블록도이다. 제어 장치(100)는 외부의 서버 컴퓨터(91)로부터 다운로드한 삼차원 계측 프로그램(92)을 기억부(150)에 저장한다. 또한, 삼차원 계측 프로그램(92)의 제공 양태는 외부로부터의 다운로드에 한정되지 않고, 삼차원 계측 프로그램(92)은 DVD(Digital Versatile Disc)나 USB(Universal Serial Bus)에 기록된 상태로 제공되어도 좋다. 주제어부(110)가 삼차원 계측 프로그램(92)을 실행함으로써, 부품 모델 취득부(111), 영역 산출부(112), 패턴 화상 취득부(113) 및 형상 산출부(114)가 주제어부(110)에 구성된다. 이들 기능부(111, 112, 113, 114)는 패턴광(L(S))을 계측 대상물(J)에 투영했을 때에, 기판(B) 상의 부품(E)에 기인해서 발생하는 조사 불량 영역에 대응하는 기능을 한다. 이들 상세는 다음과 같다.FIG. 3 is a block diagram showing details of a control device included in the three-dimensional measuring device of FIG. 1. The control device 100 stores the three-dimensional measurement program 92 downloaded from the external server computer 91 in the memory unit 150. Additionally, the mode of providing the three-dimensional measurement program 92 is not limited to downloading from the outside, and the three-dimensional measurement program 92 may be provided as recorded on a DVD (Digital Versatile Disc) or USB (Universal Serial Bus). When the main control unit 110 executes the three-dimensional measurement program 92, the part model acquisition unit 111, area calculation unit 112, pattern image acquisition unit 113, and shape calculation unit 114 are connected to the main control unit 110. ) is composed of These functional portions 111, 112, 113, and 114 are used to illuminate defective areas caused by components E on the substrate B when the pattern light L(S) is projected onto the measurement object J. It has a corresponding function. These details are as follows.

도 4는 부품 모델 취득부에 의해 제작되는 부품 모델의 내용을 모식적으로 나타내는 도면이고, 도 5a는 부품 모델의 제작을 위해 사용되는 기판 구성 데이터의 일례를 표 형식으로 나타내는 도면이고, 도 5b는 부품 모델의 제작을 위해 사용되는 부품 데이터의 일례를 표 형식으로 나타내는 도면이고, 도 5c는 제작된 부품 모델의 일례를 모식적으로 나타내는 도면이다. 부품 모델 취득부(111)는 기판(B)의 구성을 나타내는 기판 구성 데이터(81)와, 상기 기판(B)에 실장 예정인 부품(E)의 외형을 나타내는 부품 데이터(82)를 이용해서, 기판(B)에 실장된 부품(E)의 삼차원에 있어서의 존재 범위를 나타내는 부품 모델(83)을 제작한다. 또한, 기판 구성 데이터(81) 및 부품 데이터(82)는 미리 기억부(150)에 저장되어 있다.Figure 4 is a diagram schematically showing the contents of a part model produced by the part model acquisition unit, Figure 5a is a diagram showing an example of board configuration data used for manufacturing the part model in a table format, and Figure 5b is a diagram showing an example of board configuration data used for manufacturing the part model. This is a diagram showing an example of part data used to manufacture a part model in table format, and FIG. 5C is a diagram schematically showing an example of the manufactured part model. The component model acquisition unit 111 uses the substrate configuration data 81 representing the configuration of the substrate B and the component data 82 representing the external shape of the component E scheduled to be mounted on the substrate B, A component model 83 representing the three-dimensional existence range of the component E mounted in (B) is produced. Additionally, the board configuration data 81 and the parts data 82 are stored in the storage unit 150 in advance.

기판 구성 데이터(81)(도 5a)는 기판(B)에 형성된 부품 실장 범위(Ref(R))와, 상기 부품 실장 범위(Ref(R))에 실장해야 할 부품(E)의 종류를 각 부품 실장 범위(Ref(1), Ref(2), Ref(3), …)에 대해서 나타낸다(R=1, 2, 3, …). 기판 구성 데이터(81)에 있어서, 부품 실장 범위(Ref(R))는 X 방향에 있어서의 부품 실장 범위(Ref(R))의 위치(X 좌표)와, Y 방향에 있어서의 부품 실장 범위(Ref(R))의 위치(Y 좌표)에 의해 특정된다. 또한, 부품 실장 범위(Ref(R))는 예를 들면 기판(B)에 형성된 랜드 등에 의해 규정되고, 확장을 가진 범위이다. 이것에 대하여, 부품 실장 범위(Ref(R))의 위치(x,y)는 평면시에 있어서의 부품 실장 범위(Ref(R))의 중심에 상당한다. 기판 구성 데이터(81)가 나타내는 부품 실장 범위(Ref(R))는 부품(E)이 실장되어야 할 이상적인 범위이며, 표면 실장기에 의해 부품(E)이 실제로 실장된 범위는 아니다. 기판 구성 데이터(81)로서는, 기판(B)의 구성을 나타내는 CAD 데이터나, 표면 실장기에 있어서 부품 실장 범위(Ref(R))에 실장된 부품(E)과 부품 실장 범위(Ref(R))의 위치 관계의 적부를 검사하기 위한 기준을 나타내는 검사 데이터 등을 이용할 수 있다.The board configuration data 81 (FIG. 5A) represents the component mounting range (Ref(R)) formed on the board (B) and the type of component (E) to be mounted in the component mounting range (Ref(R)). Indicates the component mounting range (Ref(1), Ref(2), Ref(3), …) (R=1, 2, 3, …). In the board configuration data 81, the component mounting range Ref(R) is the position (X coordinate) of the component mounting range Ref(R) in the X direction, and the component mounting range in the Y direction ( It is specified by the position (Y coordinate) of Ref(R)). Additionally, the component mounting range Ref(R) is defined by, for example, lands formed on the substrate B, and is an extended range. In contrast, the position (x,y) of the component mounting range Ref(R) corresponds to the center of the component mounting range Ref(R) in plan view. The component mounting range (Ref(R)) indicated by the board configuration data 81 is an ideal range in which the component E should be mounted, and is not the range in which the component E is actually mounted by the surface mounting machine. The board configuration data 81 includes CAD data showing the configuration of the board B, the component E mounted in the component mounting range Ref(R) in the surface mount machine, and the component mounting range Ref(R). Inspection data representing standards for inspecting the propriety of the positional relationship can be used.

도 5b에 나타내는 바와 같이, 부품 데이터(82)는 부품(E)의 구성을 부품(E)의 종류별로 나타낸다. 구체적으로는, 부품 데이터(82)는 직사각형을 갖는 부품(E)의 길이(El), 폭(Ew) 및 높이(Eh)와 같은 부품(E)의 외형이나, 광(패턴광(L(S)))을 반사하는 성질의 유무(반사의 유무)를 각종 부품(Ea, Eb, Ec, …)에 대해서 나타낸다.As shown in FIG. 5B, part data 82 represents the configuration of the part E by type of the part E. Specifically, the part data 82 includes the external shape of the part E, such as the length El, width Ew, and height Eh of the part E having a rectangular shape, or the light (pattern light L(S) )))) indicates the presence or absence of reflecting properties (presence or absence of reflection) for various parts (Ea, Eb, Ec, …).

부품 모델 취득부(111)는 기판(B)의 부품 실장 범위(Ref(R))에 실장해야 할 부품(E)의 종류를 기판 구성 데이터(81)에 의해 확인하고, 해당 종류의 부품(E)의 구성을 부품 데이터(82)에 의해 확인한 결과에 의거해서 부품 모델(83)을 제작한다. 이 부품 모델(83)은 부품 실장 범위(Ref(R))의 위치(x,y)와, 상기 부품 실장 범위(Ref(R))에 실장되는 부품(E)의 외형(부품의 X 사이즈(E_x), Y 사이즈(E_y) 및 Z 사이즈(E_z))을 나타낸다. 환언하면, 부품 모델(83)은 부품 실장 범위(Ref(R))에 실장된 부품(E)이 기판(B)으로부터 Z 방향(높이 방향)으로 돌출되는 범위를 나타낸다. 또한, 부품 모델(83)은 부품 실장 범위(Ref(R))에 실장되는 부품(E)이 광(패턴광(L(S)))을 반사하는 성질을 갖는지의 여부를 나타낸다. 이 부품 모델(83)은 기판(B)에 형성된 복수의 부품 실장 범위(Ref(R)) 각각에 대해서 제작된다.The component model acquisition unit 111 confirms the type of component (E) to be mounted in the component mounting range (Ref(R)) of the substrate (B) using the substrate configuration data 81, and determines the type of component (E) of the corresponding type (E). ) The part model 83 is produced based on the results of confirming the configuration of the part data 82. This component model 83 includes the position (x, y) of the component mounting range (Ref(R)) and the external shape (X size of the component ( E_x), Y size (E_y) and Z size (E_z)). In other words, the component model 83 represents the range where the component E mounted in the component mounting range Ref(R) protrudes from the board B in the Z direction (height direction). Additionally, the component model 83 indicates whether the component E mounted in the component mounting range Ref(R) has the property of reflecting light (patterned light L(S)). This component model 83 is produced for each of the plurality of component mounting ranges Ref(R) formed on the substrate B.

참고로, 부품 모델(83)을 제작하기 위해서 사용하는 구체적인 데이터나, 각 데이터를 이용해서 부품 모델(83)을 제작하는 구체적인 방법은 여기의 예에 한정되지 않는다. 예를 들면, 유저의 UI(200)로의 조작에 의해 부품 모델(83)이 입력되는 경우에는, 부품 모델 취득부(111)는 기판 구성 데이터(81) 및 부품 데이터(82)에 의거해서 부품 모델(83)을 제작할 필요는 없고, 유저에 의해 입력된 부품 모델(83)을 취득하면 된다.For reference, the specific data used to produce the part model 83 and the specific method of producing the part model 83 using each data are not limited to this example. For example, when the part model 83 is input by the user's operation on the UI 200, the part model acquisition unit 111 creates the part model based on the board configuration data 81 and the part data 82. There is no need to produce (83), just acquire the part model (83) input by the user.

도 6은 영역 산출부에 의해 산출되는 조사 불량 영역의 내용을 모식적으로 나타내는 도면이다. 도 6에 나타나는 부품(E)은 패턴광(L(S))을 반사하는 성질을 갖는다. 도 6에 있어서, 부품 실장 범위(Ref(R))에 실장되는 부품(E)은 X 방향으로 폭(E_x)을, Y 방향으로 길이(E_y)를, Z 방향으로 높이(E_z)를 갖는다. 그리고, 프로젝터(32)로부터 사출된 패턴광(L(S))이 투영 방향(D)으로부터 부품(E)에 투영된다.Figure 6 is a diagram schematically showing the contents of the illumination defect area calculated by the area calculation unit. The component E shown in FIG. 6 has the property of reflecting patterned light L(S). In Fig. 6, the component E mounted in the component mounting range Ref(R) has a width E_x in the X direction, a length E_y in the Y direction, and a height E_z in the Z direction. Then, the pattern light L(S) emitted from the projector 32 is projected onto the component E from the projection direction D.

그 결과, 평면시에 있어서, 투영 방향(D)의 부품(E)보다 하류측에서는, 그림자 영역(As)(조사 불량 영역)이 발생한다. 이 그림자 영역(As)은 프로젝터(32)로부터 부품(E)에 투영된 패턴광(L(S))이 부품(E)에 의해 가려짐으로써 기판(B)에 있어서 부품(E)의 그림자가 발생하는 영역이다. 또한, 평면시에 있어서, 투영 방향(D)의 부품(E)보다 상류측에서는, 2차 반사 영역(Ar)(조사 불량 영역)이 발생한다. 이 2차 반사 영역(Ar)은 프로젝터(32)로부터 부품(E)에 투영되어 부품(E)의 측면에서 반사된 광이 기판(B)에 입사하는 영역이다. 여기의 예에서는, 그림자 영역(As) 및 2차 반사 영역(Ar)의 Y 방향으로의 길이는 부품(E)의 Y 방향으로의 길이(E_y)에 상당한다. 또한, 그림자 영역(As) 및 2차 반사 영역(Ar)의 X 방향으로의 폭은 부품(E)의 높이(E_z)에, 투영 앙각(θs)의 탄젠트(tanθs)를 곱한 폭에 상당한다. 또한, 패턴광(L(S))을 반사하지 않는 부품(E)에 대해서는, 2차 반사 영역(Ar)은 발생하지 않는다.As a result, in plan view, a shadow area As (poorly irradiated area) is generated on the downstream side of the component E in the projection direction D. This shadow area As is such that the pattern light L(S) projected onto the component E from the projector 32 is obscured by the component E, thereby forming a shadow of the component E on the substrate B. This is the area where it occurs. Additionally, in plan view, a secondary reflection area Ar (poorly irradiated area) occurs on the upstream side of the component E in the projection direction D. This secondary reflection area Ar is an area where light projected from the projector 32 onto the component E and reflected from the side of the component E is incident on the substrate B. In this example, the length of the shadow area As and the secondary reflection area Ar in the Y direction corresponds to the length E_y of the part E in the Y direction. Additionally, the width of the shadow area As and the secondary reflection area Ar in the Additionally, for the component E that does not reflect the pattern light L(S), the secondary reflection area Ar does not occur.

이와 같은 조사 불량 영역(그림자 영역(As)·2차 반사 영역(Ar))은 복수의 프로젝터(32)의 각각에 대해서 산출된다. 계속해서는, 이 점에 대해서 도 7을 이용해서 설명한다. 도 7은 조사 불량 영역을 산출하기 위한 연산의 일례를 나타내는 플로우차트이다. 도 7의 플로우차트는 주제어부(110)의 연산에 의해 실행된다.Such illumination defective areas (shadow area As and secondary reflection area Ar) are calculated for each of the plurality of projectors 32. Next, this point will be explained using FIG. 7. Figure 7 is a flowchart showing an example of calculation for calculating the irradiation defective area. The flow chart in FIG. 7 is executed by calculations of the main control unit 110.

스텝 S101에서는 프로젝터(32)를 식별하는 카운트값 P(=1, 2, 3, 4)가 제로로 리셋되고, 스텝 S102에서는 카운트값 P가 인크리먼트된다. 또한, 스텝 S103에서는, 부품 실장 범위(Ref)를 식별하는 카운트값 R(=1, 2, 3, …)이 제로로 리셋되고, 스텝 S104에서는 카운트값 R이 인크리먼트된다.In step S101, the count value P (=1, 2, 3, 4) identifying the projector 32 is reset to zero, and in step S102, the count value P is incremented. Additionally, in step S103, the count value R (=1, 2, 3,...) that identifies the component mounting range Ref is reset to zero, and in step S104, the count value R is incremented.

스텝 S105에서는, 부품 모델 취득부(111)가 R번째의 부품 실장 범위(Ref(R))에 실장되는 부품(E)의 부품 모델(83)을 제작한다. 스텝 S106에서는, R번째의 부품 실장 범위(Ref)에 대하여, P번째의 프로젝터(32)가 패턴광(L(S))을 투영하는 투영 방향(D)이 영역 산출부(112)에 의해 확인된다. 구체적으로는, 프로젝터(32)에 의한 패턴광(L(S))의 투영 방향(D)을, 복수의 프로젝터(32)의 각각에 대해서 나타내는 투영 방향 정보(84)가 기억부(150)에 미리 저장되어 있고, 영역 산출부(112)는 투영 방향 정보(84)를 참조해서 투영 방향(D)을 확인한다.In step S105, the component model acquisition unit 111 produces a component model 83 of the component E to be mounted in the R-th component mounting range Ref(R). In step S106, the projection direction D in which the P-th projector 32 projects the pattern light L(S) with respect to the R-th component mounting range Ref is confirmed by the area calculation unit 112. do. Specifically, projection direction information 84 indicating the projection direction D of the pattern light L(S) by the projector 32 for each of the plurality of projectors 32 is stored in the storage unit 150. It is stored in advance, and the area calculation unit 112 checks the projection direction D by referring to the projection direction information 84.

스텝 S107에서는, R번째의 부품 실장 범위(Ref)에 대해서 제작된 부품 모델(83)이 나타내는 부품(E)에 대하여, P번째의 프로젝터(32)에 의해 투영 방향(D)으로부터 패턴광(L(S))을 투영한 경우에 발생하는 그림자 영역(As)(반사 불량 영역)이 영역 산출부(112)에 의해 산출된다. 또한, R번째의 부품 실장 범위(Ref)에 대해서 제작된 부품 모델(83)이 나타내는 부품(E)이 패턴광(L(S))을 반사하는 경우에는, 상기 부품(E)에 대하여, P번째의 프로젝터(32)에 의해 투영 방향(D)으로부터 패턴광(L(S))을 투영한 경우에 발생하는 2차 반사 영역(Ar)(반사 불량 영역)이 영역 산출부(112)에 의해 산출된다.In step S107, the patterned light (L The shadow area As (poor reflection area) generated when (S)) is projected is calculated by the area calculation unit 112. In addition, when the component E represented by the component model 83 manufactured for the R-th component mounting range Ref reflects the pattern light L(S), for the component E, P The secondary reflection area Ar (poor reflection area) generated when the pattern light L(S) is projected from the projection direction D by the th projector 32 is calculated by the area calculation unit 112. It is calculated.

스텝 S108에서는, 부품 실장 범위(Ref)의 카운트값 R이 기판(B)에 형성된 부품 실장 범위(Ref)의 개수 Rmax에 도달했는지, 즉 기판(B)에 형성된 모든 부품 실장 범위(Ref)에 대해서 스텝 S105∼S107을 실행 완료했는지가 확인된다. 스텝 S105∼S107을 미실행한 부품 실장 범위(Ref)가 존재하는 경우(스텝 S108에서 「NO」의 경우)에는, 스텝 S104로 되돌아간다. 이렇게 해서, 모든 부품 실장 범위(Ref)에 대해서 스텝 S105∼S107이 실행될 때까지(스텝 S108에서 「YES」), 스텝 S104∼S107이 반복된다. 이것에 의해, P번째의 프로젝터(32)로부터 패턴광(L(S))을 투영한 경우에 발생하는 조사 불량 영역(그림자 영역(As)·2차 반사 영역(Ar))이 모든 부품 실장 범위(Ref)의 부품(E)에 대해서 산출된다.In step S108, it is determined whether the count value R of the component mounting range Ref has reached the number Rmax of the component mounting range Ref formed on the board B, that is, for all component mounting ranges Ref formed on the board B. It is confirmed whether steps S105 to S107 have been completed. If there is a component mounting range Ref in which steps S105 to S107 have not been performed (in the case of “NO” in step S108), the process returns to step S104. In this way, steps S104 to S107 are repeated until steps S105 to S107 are executed for all component mounting ranges Ref (“YES” in step S108). As a result, the poor irradiation area (shadow area (As) and secondary reflection area (Ar)) that occurs when the pattern light (L(S)) is projected from the P-th projector 32 is within the entire component mounting range. Calculated for part (E) of (Ref).

스텝 S109에서는, 프로젝터(32)의 카운트값 P가 프로젝터(32)의 개수 Pmax(=4)에 도달했는지, 즉 모든 프로젝터(32)에 대해서 스텝 S103∼S108을 실행 완료했는지가 확인된다. 스텝 S103∼S108을 미실행한 프로젝터(32)가 존재하는 경우(스텝 S109에서 「NO」의 경우)에는, 스텝 S102로 되돌아간다. 이렇게 해서, 모든 프로젝터(32)에 대해서 스텝 S103∼S108이 실행될 때까지(스텝 S109에서 「YES」), 스텝 S102∼S108이 반복된다. 이것에 의해, 프로젝터(32)로부터 패턴광(L(S))을 투영한 경우에, 각 부품 실장 범위(Ref)의 부품(E)에 기인해서 발생하는 조사 불량 영역(그림자 영역(As)·2차 반사 영역(Ar))을 모든 프로젝터(32)에 대해서 나타내는 조사 불량 영역 정보(85)가 산출되어, 기억부(150)에 저장된다.In step S109, it is checked whether the count value P of the projectors 32 has reached the number Pmax (=4) of the projectors 32, that is, whether steps S103 to S108 have been completed for all projectors 32. If there is a projector 32 that has not performed steps S103 to S108 (in the case of “NO” in step S109), the process returns to step S102. In this way, steps S102 to S108 are repeated until steps S103 to S108 are executed for all projectors 32 (“YES” in step S109). As a result, when the pattern light L(S) is projected from the projector 32, the illumination defect area (shadow area As, Poor irradiation area information 85 indicating the secondary reflection area Ar for all projectors 32 is calculated and stored in the storage unit 150.

이렇게 해서 취득된 조사 불량 영역 정보(85)를 이용해서, 계측 대상물(J)의 삼차원 계측이 실행된다(도 8). 도 8은 삼차원 계측의 제 1 예를 나타내는 플로우차트이고, 도 9는 도 8의 삼차원 계측에서 실행되는 전방향 형상 데이터 취득을 나타내는 플로우차트이고, 도 10은 도 8의 삼차원 계측에서 실행되는 제 1 데이터 통합 처리를 나타내는 플로우차트이고, 도 11은 도 10의 제 1 데이터 통합 처리에서 실행되는 연산을 모식적으로 나타내는 도면이다. 도 8, 도 9 및 도 10의 플로우차트는 주제어부(110)의 제어에 따라서 실행된다.Using the irradiation defective area information 85 acquired in this way, three-dimensional measurement of the measurement object J is performed (FIG. 8). FIG. 8 is a flowchart showing a first example of three-dimensional measurement, FIG. 9 is a flowchart showing omnidirectional shape data acquisition performed in the three-dimensional measurement of FIG. 8, and FIG. 10 is a first example performed in the three-dimensional measurement of FIG. 8. It is a flowchart showing the data integration process, and FIG. 11 is a diagram schematically showing the calculation performed in the first data integration process of FIG. 10. The flow charts of FIGS. 8, 9, and 10 are executed under the control of the main control unit 110.

도 8의 삼차원 계측에서는, 스텝 S201에 있어서 전방향 형상 데이터 취득이 실행된다. 도 9에 나타내는 바와 같이, 전방향 형상 데이터 취득에서는, 삼차원 계측 장치(1)에 반입된 기판(B)에 부착된 피듀셜 마크의 인식이 실행된다(스텝 S301). 구체적으로는, 촬상 카메라(31)가 촬상 시야(V31) 내의 피듀셜 마크에 상방으로부터 대향한 상태로, 조명(33)으로부터 피듀셜 마크에 조명광을 조사하면서, 촬상 카메라(31)가 피듀셜 마크를 촬상하여 마크 화상을 취득한다. 마크 화상은 촬상 제어부(130)로부터 주제어부(110)로 보내지고, 주제어부(110)는 마크 화상에 나타나는 피듀셜 마크의 위치로부터, 반송 컨베이어(2)에 유지되는 기판(B)의 위치를 검출한다.In the three-dimensional measurement of Fig. 8, omnidirectional shape data is acquired in step S201. As shown in Fig. 9, in omnidirectional shape data acquisition, recognition of the fiducial mark attached to the substrate B carried into the three-dimensional measurement device 1 is performed (step S301). Specifically, the imaging camera 31 is facing the fiducial mark within the imaging field of view V31 from above while irradiating illumination light from the illumination 33 to the fiducial mark. A mark image is acquired by imaging. The mark image is sent from the imaging control unit 130 to the main control unit 110, and the main control unit 110 determines the position of the substrate B held on the conveyor 2 from the position of the fiducial mark appearing in the mark image. detect.

스텝 S302에서는 프로젝터(32)의 카운트값 P가 제로로 리셋되고, 스텝 S303에서는 카운트값 P가 인크리먼트된다. 또한, 스텝 S304에서는 부품 실장 범위(Ref)의 카운트값 R이 제로로 리셋되고, 스텝 S305에서는 카운트값 R이 인크리먼트된다.In step S302, the count value P of the projector 32 is reset to zero, and in step S303, the count value P is incremented. Additionally, in step S304, the count value R of the component mounting range Ref is reset to zero, and in step S305, the count value R is incremented.

스텝 S306을 개시함에 있어서는, R번째의 부품 실장 범위(Ref)가 촬상 시야(V31)로 들어가도록, 주제어부(110)는 구동 기구(4)에 의해 기판(B)의 위치를 조정한다. 특히 주제어부(110)는 스텝 S301에서 검출된 기판(B)의 위치에 의거해서, 촬상 시야(V31)로의 기판(B)의 위치 조정을 실행한다. 그리고, 스텝 S306에서는, 패턴 화상 취득부(113)가 투영 제어부(120) 및 촬상 제어부(130)를 제어함으로써, P번째의 프로젝터(32)로부터 R번째의 부품 실장 범위(Ref)의 부품(E)에 패턴광(L(S))을 투영하면서, 촬상 카메라(31)에 의해 패턴광(L(S))을 촬상한다. 이것에 의해, 상술한 바와 같이, 서로 상이한 위상에 대응하는 4종류의 패턴 화상(I(S))이 취득되어(S=1, 2, 3, 4), 기억부(150)에 저장된다.At the start of step S306, the main control unit 110 adjusts the position of the substrate B by the drive mechanism 4 so that the R-th component mounting range Ref enters the imaging field of view V31. In particular, the main control unit 110 adjusts the position of the substrate B in the imaging field of view V31 based on the position of the substrate B detected in step S301. Then, in step S306, the pattern image acquisition unit 113 controls the projection control unit 120 and the imaging control unit 130 to select a component E in the R-th component mounting range Ref from the P-th projector 32. ), the pattern light L(S) is imaged by the imaging camera 31 while projecting the pattern light L(S) onto the surface. As a result, as described above, four types of pattern images (I(S)) corresponding to different phases are acquired (S=1, 2, 3, 4) and stored in the storage unit 150.

스텝 S307에서는, 위상 시프트법에 의해, 형상 산출부(114)가 4종류의 패턴 화상(I(S))에 의거해서, 단방향 형상 데이터(86)를 산출한다. 이 단방향 형상 데이터(86)는 부품 실장 범위(Ref)에 실장된 부품(E)의 삼차원 형상에 관한 형상 관련값(Q)을 화소(PX)(도 11)별로 나타내는 데이터이다. 여기서, 화소(PX)는 예를 들면 개체 촬상 소자(311)의 화소에 상당하고, 촬상 카메라(31)가 Z 방향으로부터 기판(B)에 대향하면서 촬상하기 때문에, 개체 촬상 소자(311)의 복수의 화소는 기판(B)에 있어서의 서로 상이한 위치(X 좌표, Y 좌표)에 대응한다. 이 형상 관련값(Q)은 4종류의 패턴 화상(I(S))으로부터 위상 시프트법에 의해 높이(Z 좌표)로서 산출되는 계측값(Qm)과, 상기 계측값(Qm)의 신뢰도(Qr)로 구성된다. 특히, 여기의 예에서는, 형상 관련값(Q)은 계측값(Qm)과 신뢰도(Qr)의 곱으로 주어진다.In step S307, the shape calculation unit 114 calculates unidirectional shape data 86 based on the four types of pattern images I(S) using the phase shift method. This unidirectional shape data 86 is data representing the shape-related value Q regarding the three-dimensional shape of the component E mounted in the component mounting range Ref for each pixel PX (FIG. 11). Here, the pixel PX corresponds to, for example, a pixel of the individual imaging device 311, and since the imaging camera 31 captures an image while facing the substrate B from the Z direction, a plurality of the individual imaging devices 311 The pixels correspond to different positions (X coordinate, Y coordinate) on the substrate B. This shape-related value (Q) is a measured value (Qm) calculated as a height (Z coordinate) from four types of pattern images (I(S)) by a phase shift method, and the reliability (Qr) of the measured value (Qm). ) is composed of. In particular, in the example here, the shape-related value (Q) is given as the product of the measured value (Qm) and the reliability (Qr).

참고로, 위상 시프트법에서는, 4종류의 패턴 화상(I(S))(S=1, 2, 3, 4)의 화소(PX)가 나타내는 휘도의 차에 의거해서, 각 화소(PX)에 있어서의 신뢰도(Qr)를 산출할 수 있다. 구체적으로는, 위상을 π/2씩 시프트시키면서 4종류의 패턴 화상(I(S))을 촬상한 경우의 각 휘도값을 d0, d1, d2 및 d3이라고 하면, 위상 시프트각 α는 다음 식For reference, in the phase shift method, based on the difference in luminance shown by the pixels PX of four types of pattern images (I(S)) (S=1, 2, 3, 4), each pixel (PX) The reliability (Qr) can be calculated. Specifically, if the respective luminance values when four types of pattern images (I(S)) are imaged while shifting the phase by π/2 are d0, d1, d2, and d3, the phase shift angle α is expressed by the following equation

α=atan[(d2-d0)/(d3-d1)]α=atan[(d2-d0)/(d3-d1)]

로부터 산출되고, 신뢰도(Qr)는 다음 식Calculated from, the reliability (Qr) is calculated from the following equation

Qr=[(d2-d0)2+(d3-d1)2]1/2 Qr=[(d2-d0) 2 +(d3-d1) 2 ] 1/2

로부터 산출된다.It is calculated from

또한, 형상 관련값(Q)을 구할 때의 화소(PX)는 개체 촬상 소자(311)의 화소에 상당할 필요는 없다. 예를 들면, 개체 촬상 소자(311)에 의해 촬상한 화상의 해상도를 변환하는 화상 처리를 행한 경우에는, 변환 후의 해상도에 대응하는 화소(PX)에서, 형상 관련값(Q)을 구해도 상관없다.Additionally, the pixel PX when calculating the shape-related value Q does not need to correspond to the pixel of the individual imaging device 311. For example, when image processing is performed to convert the resolution of an image captured by the object imaging device 311, the shape-related value Q may be obtained from the pixel PX corresponding to the resolution after conversion.

스텝 S308에서는, 부품 실장 범위(Ref)의 카운트값 R이 기판(B)에 형성된 부품 실장 범위(Ref)의 개수 Rmax에 도달했는지, 즉 기판(B)에 형성된 모든 부품 실장 범위(Ref)에 대해서 패턴 화상(I(S))의 취득(스텝 S306) 및 단방향 형상 데이터(86)의 산출(스텝 S307)을 실행 완료했는지가 확인된다. 스텝 S306∼S307을 미실행한 부품 실장 범위(Ref)가 존재하는 경우(스텝 S308에서 「NO」의 경우)에는, 스텝 S305로 되돌아간다. 이렇게 해서, 모든 부품 실장 범위(Ref)에 대해서 패턴 화상(I(S))의 취득(스텝 S306) 및 단방향 형상 데이터(86)의 산출(스텝 S307)이 실행될 때까지(스텝 S308에서 「YES」), 스텝 S306∼S307이 반복된다. 이것에 의해, P번째의 프로젝터(32)로부터 패턴광(L(S))을 투영한 경우의 단방향 형상 데이터(86)가 모든 부품 실장 범위(Ref)의 부품(E)에 대해서 산출된다.In step S308, whether the count value R of the component mounting range Ref has reached the number Rmax of the component mounting range Ref formed on the board B, that is, for all component mounting ranges Ref formed on the board B It is confirmed whether acquisition of the pattern image I(S) (step S306) and calculation of the unidirectional shape data 86 (step S307) have been completed. If there is a component mounting range Ref in which steps S306 to S307 have not been performed (in the case of “NO” in step S308), the process returns to step S305. In this way, until the pattern image I(S) is acquired (step S306) and the unidirectional shape data 86 is calculated (step S307) for all component mounting ranges Ref (step S308, “YES”) ), steps S306 to S307 are repeated. As a result, unidirectional shape data 86 when the pattern light L(S) is projected from the P-th projector 32 is calculated for the components E in all component mounting ranges Ref.

스텝 S309에서는, 프로젝터(32)의 카운트값 P가 프로젝터(32)의 개수 Pmax(=4)에 도달했는지, 즉 모든 프로젝터(32)에 대해서 스텝 S304∼S308을 실행 완료했는지가 확인된다. 스텝 S304∼S308을 미실행한 프로젝터(32)가 존재하는 경우(스텝 S309에서 「NO」의 경우)에는, 스텝 S303으로 되돌아간다. 이렇게 해서, 모든 프로젝터(32)에 대해서 스텝 S304∼S308이 실행될 때까지(스텝 S309에서 「YES」), 스텝 S304∼S308이 반복된다. 이것에 의해, 프로젝터(32)로부터 패턴광(L(S))을 투영한 경우의 각 부품 실장 범위(Ref)의 부품(E)에 대해서 산출되는 단방향 형상 데이터(86)가 모든 프로젝터(32)에 대해서 취득되어, 기억부(150)에 저장된다.In step S309, it is checked whether the count value P of the projectors 32 has reached the number Pmax (=4) of the projectors 32, that is, whether steps S304 to S308 have been completed for all projectors 32. If there is a projector 32 that has not performed steps S304 to S308 (in the case of “NO” in step S309), the process returns to step S303. In this way, steps S304 to S308 are repeated until steps S304 to S308 are executed for all projectors 32 (“YES” in step S309). As a result, when the pattern light L(S) is projected from the projector 32, the unidirectional shape data 86 calculated for the component E in each component mounting range Ref is distributed to all projectors 32. is acquired and stored in the storage unit 150.

이렇게 해서 도 9의 삼차원 계측의 전방향 형상 데이터 취득(도 8의 스텝 S201)이 완료되면, 제 1 데이터 통합 처리(스텝 S202)가 실행된다. 도 10에 나타내는 제 1 데이터 통합 처리에서는, 부품 실장 범위(Ref)를 식별하는 카운트값 R(=1, 2, 3, …)이 제로로 리셋되고(스텝 S401), 카운트값 R이 인크리먼트된다(스텝 S402). 이것에 의해, R번째의 부품 실장 범위(Ref)에 실장된 부품(E)에 대하여, 4개의 프로젝터(32)의 각각으로부터 투영 패턴(T(S))을 투영함으로써 취득한 4개의 단방향 형상 데이터(86)가 지정된다. 환언하면, R번째에 부품 실장 범위(Ref)의 부품(E)에 관해서, 4개의 프로젝터(32)에 대응하는 4개의 단방향 형상 데이터(86)가 지정된다.In this way, when the omnidirectional shape data acquisition of the three-dimensional measurement in FIG. 9 (step S201 in FIG. 8) is completed, the first data integration process (step S202) is executed. In the first data integration process shown in FIG. 10, the count value R (=1, 2, 3, ...) identifying the component mounting range Ref is reset to zero (step S401), and the count value R is incremented. (Step S402). As a result, four unidirectional shape data ( 86) is specified. In other words, with respect to the component E in the R-th component mounting range Ref, four pieces of unidirectional shape data 86 corresponding to the four projectors 32 are specified.

계속해서, 화소(PX)를 식별하는 카운트값 N(N=1, 2, 3, …)이 제로로 리셋되고(스텝 S403), 카운트값 N이 인크리먼트된다(스텝 S404). 또한, 스텝 S405에서는 프로젝터(32)를 식별하는 카운트값 P(=1, 2, 3, 4)가 제로로 리셋되고, 스텝 S406에서는 카운트값 P가 인크리먼트된다. 이것에 의해, P번째의 프로젝터(32)에 대응하는 단방향 형상 데이터(86)의 N번째의 화소(PX)가 지정된다.Subsequently, the count value N (N=1, 2, 3,...) that identifies the pixel PX is reset to zero (step S403), and the count value N is incremented (step S404). Additionally, in step S405, the count value P (=1, 2, 3, 4) that identifies the projector 32 is reset to zero, and in step S406, the count value P is incremented. By this, the N-th pixel (PX) of the unidirectional shape data 86 corresponding to the P-th projector 32 is designated.

그리고, 형상 산출부(114)는 이렇게 해서 지정된 N번째의 화소(PX)가 그림자 영역(As) 혹은 2차 반사 영역(Ar)에 속하는지의 여부를 기억부(150)의 조사 불량 영역 정보(85)에 의거해서 판단하면서(스텝 S407), N번째의 화소(PX)의 형상 관련값(Q)(=계측값(Qm)×신뢰도(Qr))에 곱하는 무게 계수 W(P)를 결정한다(스텝 S408, S409). 즉, N번째의 화소(PX)가 그림자 영역(As) 혹은 2차 반사 영역(Ar)에 속한다고 조사 불량 영역 정보(85)에 의해 판단되면(스텝 S407에서 「YES」), N번째의 화소(PX)의 형상 관련값(Q)에 대한 무게 계수 W(P)가 「0」으로 결정되어, 상기 형상 관련값(Q)이 제외된다(스텝 S408). 한편, N번째의 화소(PX)가 그림자 영역(As) 및 2차 반사 영역(Ar) 중 어느 것에도 속하지 않는다고 조사 불량 영역 정보(85)에 의해 판단되면(스텝 S407에서 「NO」), N번째의 화소(PX)의 형상 관련값(Q)에 대한 무게 계수 W(P)가 1로 결정된다(스텝 S410).Then, the shape calculation unit 114 determines whether the N-th pixel PX designated in this way belongs to the shadow area As or the secondary reflection area Ar by using the poor-irradiation area information of the storage unit 150 ( 85), determining the weight coefficient W(P) multiplied by the shape-related value Q (=measured value Qm×reliability Qr) of the N-th pixel PX (step S407). (Steps S408, S409). That is, if it is determined by the poor irradiation area information 85 that the N-th pixel (PX) belongs to the shadow area (As) or the secondary reflection area (Ar) (“YES” in step S407), the N-th pixel The weight coefficient W(P) for the shape-related value Q of (PX) is determined to be "0", and the shape-related value Q is excluded (step S408). On the other hand, if it is determined by the poor irradiation area information 85 that the N-th pixel (PX) does not belong to either the shadow area (As) or the secondary reflection area (Ar) (“NO” in step S407), N The weight coefficient W(P) for the shape-related value Q of the th pixel PX is determined to be 1 (step S410).

N번째의 화소(PX)의 형상 관련값(Q)에 대한 스텝 S407∼S409의 연산은 프로젝터(32)의 카운트값 P를 인크리먼트하면서(스텝 S406), 상기 카운트값 P가 Pmax(=4)가 될 때까지(스텝 S410에서 「YES」) 반복된다. 이것에 의해, P=1, 2, 3, 4의 각각에 대응하는 N번째의 화소(PX)의 형상 관련값(Q)에 대한 무게 계수 W(P)가 결정된다. 도 11의 예에서는, P=2의 프로젝터(32)에 대응하는 N번째의 화소(PX)가 그림자 영역(As) 혹은 2차 반사 영역(Ar)에 속한다고 판단되어, 상기 화소(PX)의 형상 관련값(Q)에 대한 무게 계수 W(2)가 「0」으로 결정되어 있다. 한편, P=1, 3, 4 각각의 프로젝터(32)에 대응하는 N번째의 화소(PX)는 그림자 영역(As) 및 2차 반사 영역(Ar) 중 어느 것에도 속하지 않는다고 판단되어, 이들 화소(PX)의 형상 관련값(Q)에 대한 무게 계수 W(1), W(3), W(4)가 「1」로 결정되어 있다.The calculation in steps S407 to S409 for the shape-related value (Q) of the N-th pixel (PX) increments the count value P of the projector 32 (step S406), and the count value P is changed to Pmax (=4). ) (“YES” in step S410). By this, the weight coefficient W(P) with respect to the shape-related value Q of the Nth pixel PX corresponding to each of P=1, 2, 3, and 4 is determined. In the example of FIG. 11, it is determined that the Nth pixel (PX) corresponding to the projector 32 with P = 2 belongs to the shadow area (As) or the secondary reflection area (Ar), and the pixel (PX) The weight coefficient W(2) for the shape-related value (Q) is determined to be “0”. On the other hand, it is determined that the Nth pixel (PX) corresponding to the projector 32 with P = 1, 3, and 4 does not belong to any of the shadow area (As) and the secondary reflection area (Ar), and these pixels The weight coefficients W(1), W(3), and W(4) for the shape-related value (Q) of (PX) are determined to be “1.”

스텝 S411에서는, 형상 산출부(114)는 P=1, 2, 3, 4의 각 프로젝터(32)에 대응하는 N번째의 화소(PX)의 형상 관련값(Q)에 대하여, 스텝 S407∼S409에서 결정된 무게 계수 W(P)를 이용한 가중 평균을 구하는 연산을 실행함으로써, 이들 형상 관련값(Q)을 통합한 통합값(H)을 구한다. 통합값(H)을 구하기 위한 가중 평균의 식은 도 11의 「변환식」의 난에 나타내는 바와 같다. 그 결과, 도 11의 예에서는, N번째의 화소(PX)의 통합값(H)은 159가 된다.In step S411, the shape calculation unit 114 calculates the shape-related value Q of the N-th pixel PX corresponding to each projector 32 with P=1, 2, 3, and 4, and performs step S407 to S409. By executing an operation to obtain a weighted average using the weight coefficient W (P) determined in , an integrated value (H) that integrates these shape-related values (Q) is obtained. The weighted average equation for calculating the integrated value (H) is as shown in the “Conversion Formula” column of FIG. 11. As a result, in the example of FIG. 11, the integrated value (H) of the Nth pixel (PX) becomes 159.

스텝 S405∼S411의 연산은 카운트값 N이 단방향 형상 데이터(86)를 구성하는 화소(PX)의 개수 Nmax에 도달할 때까지(스텝 S412에서 「YES」), 카운트값 N을 인크리먼트하면서(스텝 S404) 반복된다. 이렇게 해서, 서로 상이한 프로젝터(32)에 대응하는 4개의 형상 관련값(Q)을 통합한 통합값(H)을 화소(PX)별로 나타내는 통합 형상 데이터(87)가 산출되어, 기억부(150)에 저장된다. 이러한 통합 형상 데이터(87)는 R번째의 부품 실장 범위(Ref)에 실장된 부품(E)에 대해서 취득된, 4개의 프로젝터(32)에 대응하는 4개의 단방향 형상 데이터(86)를 통합한 데이터에 상당하고, 상기 E의 삼차원 형상을 나타낸다.The calculations in steps S405 to S411 increment the count value N until the count value N reaches the number Nmax of the pixels (PX) constituting the unidirectional shape data 86 (“YES” in step S412) ( Step S404) is repeated. In this way, integrated shape data 87 representing for each pixel PX an integrated value H that integrates four shape-related values Q corresponding to different projectors 32 is calculated, and stored in the storage unit 150. It is saved in This integrated shape data 87 is data that integrates the four unidirectional shape data 86 corresponding to the four projectors 32 acquired for the component E mounted in the R-th component mounting range Ref. It corresponds to and represents the three-dimensional shape of E above.

스텝 S403∼S412의 연산은 카운트값 R이 부품 실장 범위(Ref)의 개수 Rmax에 도달할 때까지(스텝 S413에서 「YES」), 카운트값 R을 인크리먼트하면서(스텝 S402) 반복된다. 이렇게 해서, 모든 부품 실장 범위(Ref)의 부품(E)에 대해서, 통합 형상 데이터(87)가 산출된다.The calculations in steps S403 to S412 are repeated while incrementing the count value R (step S402) until the count value R reaches the number Rmax of the component mounting range Ref (“YES” in step S413). In this way, integrated shape data 87 is calculated for the components E in all component mounting ranges Ref.

이상에 설명하는 실시형태에서는, 기판(B) 중 부품(E)이 실장되는 부품 실장 범위(Ref) 및 상기 부품 실장 범위(Ref)에 실장되는 부품(E)의 외형을 나타내는 부품 모델(83)(기준 모델)이 취득된다(스텝 S105). 그리고, 삼차원 계측 장치(1)에서 부품(E)에 패턴광(L(S))이 투영되는 투영 방향(D)을 나타내는 투영 방향 정보(84)(조사 방향 정보)와, 부품 모델(83)에 의거해서, 그림자 영역(As) 및 2차 반사 영역(Ar)(조사 불량 영역)이 산출된다(스텝 S107). 이렇게 해서, 계측 대상물(J)에 조사된 패턴광(L(S))을 촬상함으로써 취득된 패턴 화상(I(S))에 의거해서 계측 대상물(J)의 삼차원 형상을 계측함에 있어서, 패턴광(L)의 조사 불량이 발생하는 그림자 영역(As) 및 2차 반사 영역(Ar)을 취득하는 것이 가능하게 되어 있다.In the embodiment described above, a component mounting range (Ref) in which the component (E) is mounted on the board (B) and a component model (83) representing the external shape of the component (E) mounted in the component mounting range (Ref). (reference model) is acquired (step S105). In addition, projection direction information 84 (irradiation direction information) indicating the projection direction D in which the pattern light L(S) is projected onto the part E in the three-dimensional measurement device 1, and the part model 83 Based on this, the shadow area As and the secondary reflection area Ar (poorly irradiated area) are calculated (step S107). In this way, in measuring the three-dimensional shape of the measurement object J based on the pattern image I(S) acquired by imaging the pattern light L(S) irradiated on the measurement object J, the pattern light It is possible to acquire the shadow area (As) and the secondary reflection area (Ar) where the illumination defect of (L) occurs.

또한, 부품 모델 취득부(111)(기준 모델 취득부)는 부품 실장 범위(Ref)에 실장된 부품(E)과 부품 실장 범위(Ref)의 위치 관계의 적부를 검사하기 위한 기준을 나타내는 검사 데이터 및 기판의 구성을 나타내는 CAD 데이터 중 적어도 일방의 데이터로부터, 부품 모델(83)을 제작한다(스텝 S105). 이러한 구성에서는, 기판(B)의 검사 데이터 혹은 CAD 데이터와 같은 기존의 데이터를 활용해서 부품 모델(83)을 제작하고, 이 부품 모델(83)에 의거해서 그림자 영역(As) 및 2차 반사 영역(Ar)을 산출할 수 있다.In addition, the component model acquisition unit 111 (reference model acquisition unit) provides inspection data representing a standard for inspecting the adequacy of the positional relationship between the component E mounted in the component mounting range Ref and the component mounting range Ref. and CAD data representing the structure of the substrate, a component model 83 is produced from at least one of the data (step S105). In this configuration, a part model 83 is created using existing data such as inspection data or CAD data of the substrate B, and the shadow area As and secondary reflection area are created based on this part model 83. (Ar) can be calculated.

또한, 서로 상이한 투영 방향(D)으로부터 부품(E)에 패턴광(L(S))을 조사하는 복수의 프로젝터(32)(패턴 조사부)가 설치되어 있고, 투영 방향 정보(84)는 프로젝터(32)로부터 부품(E)에 광이 조사되는 투영 방향(D)을 복수의 프로젝터(32)의 각각에 대해서 나타낸다. 이러한 구성에서는, 패턴광(L(S))을 투영하는 프로젝터(32)가 복수의 프로젝터(32) 사이에서 바뀌면, 그림자 영역(As)이나 2차 반사 영역(Ar)도 변동한다. 이것에 대하여, 영역 산출부(112)는 복수의 프로젝터(32)의 각각에 대해서, 그림자 영역(As) 및 2차 반사 영역(Ar)을 산출한다(스텝 S102, S107). 이것에 의해, 복수의 프로젝터(32)의 각각으로부터 부품(E)에 광을 투영했을 때에 발생하는 그림자 영역(As) 및 2차 반사 영역(Ar)을 취득할 수 있다.In addition, a plurality of projectors 32 (pattern irradiation units) are installed to irradiate pattern light L(S) to the component E from different projection directions D, and the projection direction information 84 is provided by the projector ( 32), the projection direction D in which light is irradiated to the component E is shown for each of the plurality of projectors 32. In this configuration, when the projector 32 projecting the pattern light L(S) changes between the plurality of projectors 32, the shadow area As and the secondary reflection area Ar also change. In response to this, the area calculation unit 112 calculates the shadow area As and the secondary reflection area Ar for each of the plurality of projectors 32 (steps S102 and S107). As a result, the shadow area As and the secondary reflection area Ar that are generated when light is projected onto the component E from each of the plurality of projectors 32 can be acquired.

또한, 프로젝터(32)로부터 기판(B)에 조사된 패턴광(L(S))을 촬상 카메라(31)(촬상부)에 의해 촬상함으로써 취득된 패턴 화상(I(S))에 의거해서, 삼차원 형상에 관한 값인 형상 관련값(Q)을 화소(PX)별로 나타내는 단방향 형상 데이터(86)를 산출하는 연산(스텝 S307)이 형상 산출부(114)에 의해 실행된다. 이 연산(스텝 S307)은 복수의 프로젝터(32)의 각각에 대해서 실행되어(스텝 S303), 서로 상이한 프로젝터(32)에 대응하는 복수의 단방향 형상 데이터(86)가 산출된다. 또한, 형상 산출부(114)는 복수의 단방향 형상 데이터(86) 각각이 나타내는 형상 관련값(Q)의 가중 평균을 화소(PX)별로 산출함으로써 복수의 단방향 형상 데이터(86)를 통합하여, 계측 대상물(J)의 삼차원 형상을 산출하는 제 1 통합 연산 처리(도 10)를 실행한다. 이 제 1 통합 연산 처리에서는, 단방향 형상 데이터(86)가 나타내는 형상 관련값(Q) 중, 그림자 영역(As) 혹은 2차 반사 영역(Ar)에 포함되는 화소(PX)의 형상 관련값(Q)에 대해서는 1 미만이고 0 이상의 무게 계수 W(P)를 곱하는 가중 평균에 의해(스텝 S411), 계측 대상물(J)의 삼차원 형상이 산출된다.Furthermore, based on the pattern image I(S) acquired by imaging the pattern light L(S) irradiated from the projector 32 to the substrate B by the imaging camera 31 (imaging unit), The shape calculation unit 114 performs an operation (step S307) to calculate unidirectional shape data 86 representing the shape-related value Q, which is a value related to the three-dimensional shape, for each pixel PX. This calculation (step S307) is performed for each of the plurality of projectors 32 (step S303), and a plurality of unidirectional shape data 86 corresponding to the different projectors 32 are calculated. In addition, the shape calculation unit 114 integrates the plurality of unidirectional shape data 86 by calculating the weighted average of the shape-related value Q represented by each of the plurality of unidirectional shape data 86 for each pixel PX, and performs measurement. A first integrated operation process (FIG. 10) that calculates the three-dimensional shape of the object J is executed. In this first integrated calculation process, among the shape-related values (Q) indicated by the unidirectional shape data 86, the shape-related value (Q) of the pixel (PX) included in the shadow area (As) or the secondary reflection area (Ar) ), the three-dimensional shape of the measurement object J is calculated by a weighted average of multiplying the weight coefficient W(P) of less than 1 and greater than or equal to 0 (step S411).

이러한 구성에서는, 프로젝터(32)로부터 기판(B)에 조사된 패턴광(L(S))을 촬상 카메라(31)에 의해 촬상함으로써 취득된 패턴 화상(I(S))에 의거해서, 삼차원 형상에 관한 형상 관련값(Q)을 화소(PX)별로 나타내는 단방향 형상 데이터(86)가 산출된다(스텝 S307). 즉, 단방향 형상 데이터(86)는 하나의 프로젝터(32)로부터 부품(E)에 조사한 패턴광(L(S))을 촬상한 패턴 화상(I(S))에 의거해서 산출되는 삼차원 형상에 관한 데이터이다. 이 단방향 형상 데이터(86)를 산출하는 연산(스텝 S307)은 복수의 프로젝터(32)의 각각에 대해서 실행된다(스텝 S303). 이것에 의해, 복수의 프로젝터(32)의 각각으로부터 부품(E)에 패턴광(L(S))을 조사한 경우의 단방향 형상 데이터(86)가 취득된다. 이렇게 해서 취득되는 복수의 단방향 형상 데이터(86)는 각각 상이한 투영 방향(D)으로부터 부품(E)에 패턴광(L(S))을 조사하면서 취득되는 패턴 화상(I(S))에 의거한다. 따라서, 하나의 단방향 형상 데이터(86)에 있어서 그림자 영역(As) 혹은 2차 반사 영역(Ar)에 해당하는 화소(PX)가, 다른 단방향 형상 데이터(86)에 있어서는 양호하게 광이 조사된 영역에 해당할 수 있다. 따라서, 복수의 단방향 형상 데이터(86) 각각이 나타내는 형상 관련값(Q)의 평균을 화소(PX)별로 산출함으로써 복수의 단방향 형상 데이터(86)를 통합하여, 계측 대상물(J)의 삼차원 형상을 산출할 수 있다(도 10). 게다가, 도 10의 제 1 통합 연산 처리에서는, 단방향 형상 데이터(86)가 나타내는 형상 관련값(Q) 중, 그림자 영역(As) 혹은 2차 반사 영역(Ar)에 포함되는 화소(PX)의 형상 관련값(Q)에 대해서는 1 미만이고 0 이상의 무게 계수 W(P)를 곱하는 가중 평균에 의해(스텝 S407∼S410), 계측 대상물(J)의 삼차원 형상이 산출된다. 이것에 의해, 그림자 영역(As) 혹은 2차 반사 영역(Ar)의 영향을 억제하면서, 계측 대상물(J)의 삼차원 형상을 적절히 산출하는 것이 가능하게 되어 있다.In this configuration, based on the pattern image I(S) acquired by imaging the pattern light L(S) irradiated from the projector 32 to the substrate B by the imaging camera 31, a three-dimensional shape is formed. Unidirectional shape data 86 representing the shape-related value Q for each pixel PX is calculated (step S307). In other words, the unidirectional shape data 86 relates to a three-dimensional shape calculated based on the pattern image I(S) obtained by imaging the pattern light L(S) irradiated to the component E from one projector 32. It's data. The calculation for calculating this unidirectional shape data 86 (step S307) is performed for each of the plurality of projectors 32 (step S303). As a result, unidirectional shape data 86 when the pattern light L(S) is irradiated to the component E from each of the plurality of projectors 32 is acquired. The plurality of unidirectional shape data 86 acquired in this way are based on the pattern image I(S) acquired while irradiating the pattern light L(S) to the part E from different projection directions D, respectively. . Therefore, the pixel PX corresponding to the shadow area As or the secondary reflection area Ar in one unidirectional shape data 86 is a well-illuminated area in the other unidirectional shape data 86. It may apply to Therefore, by calculating the average of the shape-related values Q represented by each of the plurality of unidirectional shape data 86 for each pixel PX, the plurality of unidirectional shape data 86 are integrated, and the three-dimensional shape of the measurement object J is determined. It can be calculated (Figure 10). In addition, in the first integrated operation process in FIG. 10, the shape of the pixel PX included in the shadow area As or the secondary reflection area Ar among the shape-related values Q indicated by the unidirectional shape data 86. The three-dimensional shape of the measurement object J is calculated by a weighted average of multiplying the relevant value Q by a weight coefficient W(P) less than 1 and greater than or equal to 0 (steps S407 to S410). This makes it possible to appropriately calculate the three-dimensional shape of the measurement object J while suppressing the influence of the shadow area As or the secondary reflection area Ar.

특히, 도 10의 제 1 통합 연산 처리에서는, 그림자 영역(As) 혹은 2차 반사 영역(Ar)에 포함되는 화소(PX)의 형상 관련값(Q)에 대해서는 0의 무게 계수 W(P)를 곱하는 가중 평균에 의해, 계측 대상물(J)의 삼차원 형상이 산출된다(스텝 S407∼S410). 이와 같이, 0의 무게 계수 W(P)를 곱하는 조작은 즉 그림자 영역(As) 및 2차 반사 영역(Ar)을 제외한 조작이다. 이것에 의해, 그림자 영역(As) 및 2차 반사 영역(Ar)의 영향을 배제하면서, 계측 대상물(J)의 삼차원 형상을 적절히 산출하는 것이 가능하게 되어 있다.In particular, in the first integrated operation process of FIG. 10, a weight coefficient W (P) of 0 is applied to the shape-related value (Q) of the pixel (PX) included in the shadow area (As) or the secondary reflection area (Ar). By multiplying the weighted average, the three-dimensional shape of the measurement object J is calculated (steps S407 to S410). In this way, the operation of multiplying the weight coefficient W(P) of 0 is an operation excluding the shadow area (As) and the secondary reflection area (Ar). This makes it possible to appropriately calculate the three-dimensional shape of the measurement object J while excluding the influence of the shadow area As and the secondary reflection area Ar.

도 12는 도 7에 의해 산출된 조사 불량 영역을 보정하기 위한 연산의 일례를 나타내는 플로우차트이다. 도 12의 플로우차트는 도 9의 전방향 형상 데이터의 취득과 병행하여, 주제어부(110)의 연산에 의해 실행된다. 스텝 S501에서는 프로젝터(32)의 카운트값 P가 제로로 리셋되고, 스텝 S502에서는 카운트값 P가 인크리먼트된다. 또한, 스텝 S503에서는 부품 실장 범위(Ref)의 카운트값 R이 제로로 리셋되고, 스텝 S504에서는 카운트값 R이 인크리먼트된다. 이것에 의해, P번째의 프로젝터(32)에 대응하여, R번째의 부품 실장 범위(Ref)의 부품(E)에 대해서 산출된 그림자 영역(As) 및 2차 반사 영역(Ar)이 지정된다.FIG. 12 is a flowchart showing an example of calculation for correcting the poorly irradiated area calculated in FIG. 7. The flow chart in FIG. 12 is executed by calculations of the main control unit 110 in parallel with the acquisition of the omnidirectional shape data in FIG. 9. In step S501, the count value P of the projector 32 is reset to zero, and in step S502, the count value P is incremented. Additionally, in step S503, the count value R of the component mounting range Ref is reset to zero, and in step S504, the count value R is incremented. As a result, the shadow area As and the secondary reflection area Ar calculated for the component E in the R-th component mounting range Ref are specified, corresponding to the P-th projector 32.

스텝 S505에서는, 스텝 S502, S504에 의해 지정된 그림자 영역(As) 및 2차 반사 영역(Ar)이, 도 9의 전방향 형상 데이터 취득의 스텝 S301에서 검출된 기판(B)의 위치에 의거해서 보정된다. 즉, 스텝 S301에서 검출된 기판(B)의 위치가, 이들 그림자 영역(As) 및 2차 반사 영역(Ar)의 산출에 있어서 전제로 한 기판(B)의 이상 위치에 대하여, 위치 어긋남량 Δa만큼 어긋나 있는 경우가 상정된다. 이와 같은 경우에는, 기판(B)의 위치 어긋남량 Δa에 따라서 그림자 영역(As) 및 2차 반사 영역(Ar)을 보정함으로써, 삼차원 계측 장치(1)에 반입된 기판(B)의 실제 위치에 따라서, 그림자 영역(As) 및 2차 반사 영역(Ar)을 적확하게 산출할 수 있다.In step S505, the shadow area As and the secondary reflection area Ar specified in steps S502 and S504 are corrected based on the position of the substrate B detected in step S301 of omnidirectional shape data acquisition in FIG. 9. do. That is, the position of the substrate B detected in step S301 is a positional deviation amount Δa with respect to the abnormal position of the substrate B assumed in calculating the shadow area As and the secondary reflection area Ar. It is assumed that there is a discrepancy of that amount. In this case, by correcting the shadow area As and the secondary reflection area Ar according to the positional deviation amount Δa of the substrate B, the actual position of the substrate B carried into the three-dimensional measuring device 1 is determined. Therefore, the shadow area (As) and secondary reflection area (Ar) can be accurately calculated.

스텝 S506에서는, 스텝 S502, S504에 의해 지정된 그림자 영역(As) 및 2차 반사 영역(Ar)이, R번째의 부품 실장 범위(Ref)에 실제로 실장된 부품(E)의 위치에 의거해서 보정된다. 이것의 상세는 다음과 같다.In step S506, the shadow area As and the secondary reflection area Ar specified in steps S502 and S504 are corrected based on the position of the component E actually mounted in the R-th component mounting range Ref. . The details of this are as follows.

도 12의 조사 불량 영역 보정을 이용하는 제어에서는, 도 9의 전방향 형상 데이터 취득의 스텝 S306에 있어서, 패턴 화상(I(S)) 외에 부품(E)의 이차원 화상이 취득된다. 구체적으로는, 조명(33)이 촬상 시야(V31) 내의 부품(E)에 조명광을 조사하면서, 촬상 카메라(31)가 상방으로부터 부품(E)을 촬상함으로써, 부품(E)의 이차원 화상이 취득된다. 또한 스텝 S306에서는, 삼차원 계측 장치(1)에 반입된 기판(B)의 부품 실장 범위(Ref)에 실제로 실장된 부품(E)과, 상기 부품 실장 범위(Ref)의 위치 관계를 나타내는 부품 위치가 부품(E)의 이차원 화상에 의거해서 산출되어, 기억부(150)에 저장된다.In control using poor irradiation area correction in FIG. 12, in step S306 of omnidirectional shape data acquisition in FIG. 9, a two-dimensional image of the part E is acquired in addition to the pattern image I(S). Specifically, while the illumination 33 radiates illumination light to the component E within the imaging field of view V31, the imaging camera 31 captures the component E from above, thereby obtaining a two-dimensional image of the component E. do. Additionally, in step S306, a component position indicating the positional relationship between the component E actually mounted in the component mounting range Ref of the board B carried into the three-dimensional measurement device 1 and the component mounting range Ref is determined. It is calculated based on the two-dimensional image of the part E and stored in the storage unit 150.

이것에 대하여, 스텝 S306에서 산출된 부품 위치가 나타내는 부품 실장 범위(Ref)와 부품(E)의 위치 관계가, 그림자 영역(As) 및 2차 반사 영역(Ar)의 산출에 있어서 전제로 한 이상 위치 관계에 대하여, 위치 어긋남량 Δb만큼 어긋나 있는 경우가 상정된다. 이와 같은 경우에는, 부품 실장 범위(Ref)에 대한 부품(E)의 위치 어긋남량 Δb에 따라서 그림자 영역(As) 및 2차 반사 영역(Ar)을 보정함으로써, 삼차원 계측 장치(1)에 반입된 기판(B)의 부품 실장 범위(Ref)에 실장된 부품(E)의 실제 위치에 따라서, 그림자 영역(As) 및 2차 반사 영역(Ar)을 적확하게 산출할 수 있다.In contrast, the positional relationship between the component mounting range (Ref) and the component (E) indicated by the component position calculated in step S306 is assumed in the calculation of the shadow area (As) and the secondary reflection area (Ar). Regarding the positional relationship, it is assumed that there is a shift by the positional shift amount Δb. In such a case, the shadow area As and the secondary reflection area Ar are corrected according to the positional deviation Δb of the component E with respect to the component mounting range Ref, so that the Depending on the actual position of the component (E) mounted in the component mounting range (Ref) of the board (B), the shadow area (As) and secondary reflection area (Ar) can be accurately calculated.

스텝 S507에서는, 부품 실장 범위(Ref)의 카운트값 R이 기판(B)에 형성된 부품 실장 범위(Ref)의 개수 Rmax에 도달했는지, 즉 기판(B)에 형성된 모든 부품 실장 범위(Ref)에 대해서 스텝 S505∼S506의 보정을 실행 완료했는지가 확인된다. 스텝 S505∼S506의 보정을 미실행한 부품 실장 범위(Ref)가 존재하는 경우(스텝 S507에서 「NO」의 경우)에는, 스텝 S504로 되돌아간다. 이렇게 해서, 모든 부품 실장 범위(Ref)에 대해서 스텝 S505∼S506의 보정이 실행될 때까지(스텝 S507에서 「YES」), 스텝 S505∼S506이 반복된다. 이것에 의해, P번째의 프로젝터(32)로부터 패턴광(L(S))을 투영한 경우에 발생하는 각 부품 실장 범위(Ref)에 대한 조사 불량 영역(그림자 영역(As)·2차 반사 영역(Ar))이 보정된다.In step S507, it is determined whether the count value R of the component mounting range Ref has reached the number Rmax of the component mounting range Ref formed on the board B, that is, for all the component mounting ranges Ref formed on the board B. It is confirmed whether the correction in steps S505 to S506 has been completed. If there is a component mounting range Ref for which the correction in steps S505 to S506 has not been performed (in the case of “NO” in step S507), the process returns to step S504. In this way, steps S505 to S506 are repeated until the correction in steps S505 to S506 is performed for all component mounting ranges Ref (“YES” in step S507). As a result, the illumination defect area (shadow area As and secondary reflection area) for each component mounting range Ref that occurs when the pattern light L(S) is projected from the P-th projector 32. (Ar)) is corrected.

스텝 S508에서는, 프로젝터(32)의 카운트값 P가 프로젝터(32)의 개수 Pmax(=4)에 도달했는지, 즉 모든 프로젝터(32)에 대해서 스텝 S503∼S507을 실행 완료했는지가 확인된다. 스텝 S503∼S507을 미실행한 프로젝터(32)가 존재하는 경우(스텝 S508에서 「NO」의 경우)에는, 스텝 S502로 되돌아간다. 이렇게 해서, 모든 프로젝터(32)에 대해서 스텝 S503∼S507이 실행될 때까지(스텝 S508에서 「YES」), 스텝 S503∼S507이 반복된다. 이것에 의해, 각 프로젝터(32)로부터 패턴광(L(S))을 투영한 경우에, 각 부품 실장 범위(Ref)의 부품(E)에 기인해서 발생하는 조사 불량 영역(그림자 영역(As)·2차 반사 영역(Ar))이 보정된다.In step S508, it is checked whether the count value P of the projectors 32 has reached the number Pmax (=4) of the projectors 32, that is, whether steps S503 to S507 have been completed for all projectors 32. If there is a projector 32 that has not performed steps S503 to S507 (in the case of “NO” in step S508), the process returns to step S502. In this way, steps S503 to S507 are repeated until steps S503 to S507 are executed for all projectors 32 (“YES” in step S508). As a result, when the pattern light L(S) is projected from each projector 32, the illumination defect area (shadow area As) generated due to the component E in each component mounting range Ref ·Secondary reflection area (Ar) is corrected.

그리고, 도 10의 제 1 데이터 통합 처리에서는, 이렇게 해서 보정된 그림자 영역(As) 및 2차 반사 영역(Ar)에 의거해서, 스텝 S407∼S411이 실행된다. 이것에 의해, 삼차원 계측 장치(1)에 실제로 반입된 계측 대상물(J)(기판(B) 및 부품(E))에 대하여 적확하게 설정된 그림자 영역(As) 및 2차 반사 영역(Ar)에 의거해서, 통합 형상 데이터(87)를 산출할 수 있다.Then, in the first data integration process in Fig. 10, steps S407 to S411 are executed based on the shadow area As and the secondary reflection area Ar corrected in this way. Accordingly, based on the accurately set shadow area As and secondary reflection area Ar for the measurement object J (substrate B and component E) actually brought into the three-dimensional measurement device 1. Thus, integrated shape data 87 can be calculated.

도 12의 예에서는, 영역 산출부(112)는 삼차원 계측 장치(1)에 반입되어 반송 컨베이어(2)(대상물 지지부)에 지지된 기판(B)의 위치를 스텝 S301에서 인식한 결과에 더 의거해서 그림자 영역(As) 및 2차 반사 영역(Ar)을 산출한다(스텝 S505). 이러한 구성에서는, 삼차원 계측 장치(1)에 반입된 기판(B)의 실제 위치에 따라서, 그림자 영역(As) 및 2차 반사 영역(Ar)을 적확하게 산출할 수 있다.In the example of FIG. 12 , the area calculation unit 112 further relies on the results of recognizing the position of the substrate B brought into the three-dimensional measurement device 1 and supported on the conveyor 2 (object support portion) in step S301. Thus, the shadow area (As) and the secondary reflection area (Ar) are calculated (step S505). In this configuration, the shadow area As and the secondary reflection area Ar can be accurately calculated according to the actual position of the substrate B loaded into the three-dimensional measurement device 1.

특히, 반송 컨베이어(2)에 지지된 기판(B)의 위치는 기판(B)에 부착된 피듀셜 마크를 촬상 카메라(31)에 의해 촬상한 결과에 의거해서 인식된다(스텝 S301). 이러한 구성에서는, 삼차원 계측 장치(1)에 반입된 기판(B)의 위치에 따라서, 그림자 영역(As) 및 2차 반사 영역(Ar)을 적확하게 산출할 수 있다.In particular, the position of the substrate B supported on the conveyor 2 is recognized based on the results of imaging the fiducial mark attached to the substrate B with the imaging camera 31 (step S301). In this configuration, the shadow area As and the secondary reflection area Ar can be accurately calculated according to the position of the substrate B loaded into the three-dimensional measurement device 1.

또한, 영역 산출부(112)는 부품 실장 범위(Ref)에 실장된 부품(E)의 위치를 스텝 S306에서 검출한 결과에 더 의거해서 그림자 영역(As) 및 2차 반사 영역(Ar)을 산출한다(스텝 S506). 이러한 구성에서는, 부품 실장 범위(Ref)에 실장된 부품(E)의 실제 위치에 따라서, 그림자 영역(As) 및 2차 반사 영역(Ar)을 적확하게 산출할 수 있다.In addition, the area calculation unit 112 calculates the shadow area As and the secondary reflection area Ar based on the result of detecting the position of the component E mounted in the component mounting range Ref in step S306. Do it (step S506). In this configuration, the shadow area As and the secondary reflection area Ar can be accurately calculated according to the actual position of the component E mounted in the component mounting range Ref.

또한, 부품 실장 범위(Ref)에 실장된 부품(E)의 위치는 부품(E)을 촬상한 이차원 화상에 의거해서 검출된다(스텝 S306). 이러한 구성에서는, 부품 실장 범위(Ref)에 실장된 부품(E)의 실제 위치에 따라서, 그림자 영역(As) 및 2차 반사 영역(Ar)을 적확하게 산출할 수 있다.Additionally, the position of the component E mounted in the component mounting range Ref is detected based on a two-dimensional image captured of the component E (step S306). In this configuration, the shadow area As and the secondary reflection area Ar can be accurately calculated according to the actual position of the component E mounted in the component mounting range Ref.

도 13은 삼차원 계측의 제 2 예를 나타내는 플로우차트이고, 도 14는 도 13의 삼차원 계측에서 실행되는 제 2 데이터 통합 처리를 나타내는 플로우차트이고, 도 15는 도 13의 삼차원 계측에서 실행되는 연산의 내용을 모식적으로 나타내는 도면이다. 여기서는, 삼차원 계측 장치(1)에 복수의 기판(B)을 순서대로 반입하고, 각 기판(B)에 대하여 삼차원 계측을 실행하는 장면을 상정한다.FIG. 13 is a flowchart showing a second example of three-dimensional measurement, FIG. 14 is a flowchart showing a second data integration process executed in the three-dimensional measurement of FIG. 13, and FIG. 15 is a flowchart of an operation performed in the three-dimensional measurement of FIG. 13. It is a drawing that schematically represents the contents. Here, a scene is assumed in which a plurality of substrates B are sequentially loaded into the three-dimensional measurement device 1 and three-dimensional measurement is performed on each substrate B.

도 13에 나타내는 바와 같이, 삼차원 계측의 제 2 예에 있어서도, 제 1 예와 마찬가지로 전방향 형상 데이터 취득(스텝 S601)과, 제 1 데이터 통합 처리(스텝 S602)가 실행된다. 또한, 제 2 예에서는, 스텝 S603에 있어서 제 2 데이터 통합 처리(도 14)가 실행된다. 또한, 제 1 데이터 통합 처리와 제 2 데이터 통합 처리의 실행 순서는 도 13의 예에 한정되지 않고, 도 13의 예의 반대여도 좋다.As shown in Fig. 13, in the second example of three-dimensional measurement, omnidirectional shape data acquisition (step S601) and first data integration processing (step S602) are performed similarly to the first example. Additionally, in the second example, the second data integration process (FIG. 14) is executed in step S603. Additionally, the execution order of the first data integration process and the second data integration process is not limited to the example in FIG. 13 and may be the reverse of the example in FIG. 13.

도 14에 나타내는 바와 같이, 제 2 데이터 통합 처리가 제 1 데이터 통합 처리와 상이한 것은 제 1 데이터 통합 처리의 스텝 S405∼S411 대신에, 스텝 S414의 단순 평균(전체 무게 계수가 1인 평균)의 산출을 실행하는 점이다. 즉, 제 2 데이터 통합 처리의 스텝 S414에서는, 4개의 프로젝터(32) 각각에 대해서 구해진 N번째의 화소(PX)의 형상 관련값(Q)의 단순 평균이 산출된다. 이렇게 해서, 가중 평균이 아니라, 단순 평균에 의해 통합값(H)이 산출되어 통합 형상 데이터(87)가 취득된다.As shown in FIG. 14, the second data integration process differs from the first data integration process in that instead of steps S405 to S411 of the first data integration process, the simple average (average with an overall weight coefficient of 1) is calculated in step S414. The point is to run . That is, in step S414 of the second data integration process, the simple average of the shape-related value Q of the Nth pixel PX obtained for each of the four projectors 32 is calculated. In this way, the integrated value H is calculated by a simple average rather than a weighted average, and the integrated shape data 87 is acquired.

이렇게 해서 1매의 기판(B)에 대하여 삼차원 계측이 완료되면(스텝 S601∼S603), 소정 매수(1 이상의 매수)의 기판(B)에 대해서 스텝 S601∼S603을 실행 완료했는지가 판단된다(스텝 S604). 실행 완료가 아닌 경우(스텝 S604에서 「NO」의 경우)에는, 스텝 S605에서 계측을 종료할지가 판단된다. 계측을 종료하는 경우(스텝 S605에서 「YES」의 경우)에는 도 13의 삼차원 계측이 종료되는 한편, 계측을 종료하지 않는 경우(스텝 S605에서 「NO」의 경우)에는 스텝 S601로 되돌아간다.In this way, when the three-dimensional measurement is completed for one board B (steps S601 to S603), it is determined whether steps S601 to S603 have been completed for a predetermined number of boards B (one or more sheets) (steps S601 to S603). S604). If the execution is not complete (“NO” in step S604), it is determined in step S605 whether to end the measurement. When measurement is terminated (in the case of “YES” in step S605), the three-dimensional measurement in Fig. 13 is terminated, while when the measurement is not terminated (in the case of “NO” in step S605), the process returns to step S601.

스텝 S604에 있어서, 소정 매수의 기판(B)에 대해서 스텝 S601∼S603을 실행 완료했다고 판단되면(YES), 스텝 S602의 제 1 데이터 통합 처리에서 취득된 통합 형상 데이터(87)(삼차원 형상)와, 스텝 S603의 제 2 데이터 통합 처리에서 취득된 통합 형상 데이터(87)(삼차원 형상)의 차분이 산출된다. 예를 들면, 동일한 기판(B)의 동일한 부품 실장 범위(Ref)에 대해서, 제 1 데이터 통합 처리에서 취득된 통합 형상 데이터(87)(삼차원 형상)와, 제 2 데이터 통합 처리에서 취득된 통합 형상 데이터(87)(삼차원 형상)의 차의 제곱의 평균값(즉, 평균 제곱 오차)이 산출된다. 또한, 1매의 기판(B)이 복수의 부품 실장 범위(Ref)를 갖는 경우에는, 각 부품 실장 범위(Ref)에 대해서 평균 제곱 오차를 산출해도 좋고, 대표적인 하나의 부품 실장 범위(Ref)에 대해서 평균 제곱 오차를 산출해도 좋다. 또한, 평균 제곱 오차는 소정 매수의 기판(B)의 각각에 대해서 산출된다. 이렇게 해서 산출된 각 평균 제곱 오차의 평균값, 중앙값 혹은 최대값이 차분으로서 산출된다. 또한, 차분의 구체적인 산출 방법은 여기의 예에 한정되지 않고, 2개의 데이터의 차를 평가할 수 있는 임의의 산출 방법을 채용할 수 있다.In step S604, if it is determined that steps S601 to S603 have been completed for a predetermined number of substrates B (YES), the integrated shape data 87 (three-dimensional shape) acquired in the first data integration process in step S602 and , the difference between the integrated shape data 87 (three-dimensional shape) acquired in the second data integration process in step S603 is calculated. For example, for the same component mounting range (Ref) on the same board (B), the integrated shape data 87 (three-dimensional shape) acquired in the first data integration process and the integrated shape acquired in the second data integration process The average value (i.e., mean square error) of the squares of the differences of the data 87 (three-dimensional shape) is calculated. In addition, when one board B has a plurality of component mounting ranges (Ref), the mean square error may be calculated for each component mounting range (Ref), and the mean square error may be calculated for one representative component mounting range (Ref). You may calculate the mean square error. Additionally, the mean square error is calculated for each of the predetermined number of substrates B. The average value, median value, or maximum value of each mean square error calculated in this way is calculated as the difference. Additionally, the specific calculation method for the difference is not limited to this example, and any calculation method that can evaluate the difference between two data can be adopted.

스텝 S607에서는, 상기 차분에 의거해서 제 1 데이터 통합 처리의 요부가 판정된다. 구체적으로는, 차분이 소정 임계값 이상인 경우에는 제 1 데이터 통합 처리가 필요하다고 판정되고(YES), 차분이 상기 임계값 미만인 경우에는 제 1 데이터 통합 처리가 불필요하다고 판정된다. 예를 들면, 도 15의 「조사 불량 영향 있음」의 열의 각 파형(삼차원 형상)에 나타내는 바와 같이, 조사 불량의 영향이 있는 경우에는, 제 2 데이터 통합 처리에서 구한 삼차원 형상에 발생하는 피크 노이즈가, 제 1 데이터 통합 처리에서 구한 삼차원 형상에서는 나타나 있지 않다. 이것은 제 1 데이터 통합 처리가 조사 불량의 영향을 제거하기 위해서 필요한 것을 나타낸다. 한편, 도 15의 「조사 불량 영향 없음」의 열의 각 파형(삼차원 형상)에 나타내는 바와 같이, 조사 불량의 영향이 없는 경우에는, 제 1 데이터 통합 처리에서 구한 삼차원 형상과 제 2 데이터 통합 처리에서 구한 삼차원 형상 사이에 큰 차가 없다. 이것은 제 1 데이터 통합 처리가 불필요한 것을 나타낸다.In step S607, the necessity of the first data integration process is determined based on the difference. Specifically, when the difference is more than a predetermined threshold, it is determined that the first data integration process is necessary (YES), and when the difference is less than the threshold, it is determined that the first data integration process is unnecessary. For example, as shown in each waveform (three-dimensional shape) of the column “Influenced by irradiation defects” in Figure 15, when there is an influence of irradiation defects, the peak noise generated in the three-dimensional shape obtained in the second data integration process is , does not appear in the three-dimensional shape obtained in the first data integration process. This indicates that a first data integration process is necessary to eliminate the influence of survey defects. On the other hand, as shown in each waveform (three-dimensional shape) in the “No effect of irradiation defect” column in FIG. 15, when there is no influence of irradiation defect, the three-dimensional shape obtained in the first data integration process and the three-dimensional shape obtained in the second data integration process There is no significant difference between three-dimensional shapes. This indicates that the first data integration process is unnecessary.

제 1 데이터 통합 처리가 필요하다고 판단되면(스텝 S607에서 「YES」), 삼차원 계측 장치(1)에 1매의 기판(B)이 반입될 때마다, 전방향 형상 데이터 취득(스텝 S608), 제 1 데이터 통합 처리(스텝 S609) 및 계측 종료의 판단(스텝 S610)이 실행된다. 이렇게 해서, 제 2 데이터 통합 처리가 아니라, 제 1 데이터 통합 처리에 의해 통합 형상 데이터(87)가 산출된다(스텝 S609). 한편, 제 1 데이터 통합 처리가 불필요하다고 판단되면(스텝 S607에서 「NO」), 삼차원 계측 장치(1)에 1매의 기판(B)이 반입될 때마다, 전방향 형상 데이터 취득(스텝 S611), 제 2 데이터 통합 처리(스텝 S612) 및 계측 종료의 판단(스텝 S613)이 실행된다. 이렇게 해서, 제 1 데이터 통합 처리가 아니라, 제 2 데이터 통합 처리에 의해 통합 형상 데이터(87)가 산출된다(스텝 S612).If it is determined that the first data integration process is necessary (“YES” in step S607), each time one substrate B is loaded into the three-dimensional measurement device 1, omnidirectional shape data is acquired (step S608), 1 Data integration processing (step S609) and determination of completion of measurement (step S610) are performed. In this way, the integrated shape data 87 is calculated by the first data integration process rather than the second data integration process (step S609). On the other hand, if it is determined that the first data integration process is unnecessary (“NO” in step S607), omnidirectional shape data is acquired each time one substrate B is loaded into the three-dimensional measurement device 1 (step S611). , second data integration processing (step S612) and determination of completion of measurement (step S613) are performed. In this way, the integrated shape data 87 is calculated by the second data integration process rather than the first data integration process (step S612).

도 13의 예에서는, 형상 산출부(114)는 제 1 데이터 통합 처리(스텝 S602)와, 제 2 데이터 통합 처리(스텝 S603)의 양방을 동일한 계측 대상물(J)에 대하여 실행한다. 이 제 2 데이터 통합 처리에서는, 형상 산출부(114)는 그림자 영역(As) 및 2차 반사 영역(Ar)에 따른 가중을 행하지 않고 복수의 단방향 형상 데이터(86)가 나타내는 형상 관련값(Q)의 평균(단순 평균)을 화소(PX)별로 산출함으로써 복수의 단방향 형상 데이터(86)를 통합하여, 계측 대상물(J)의 삼차원 형상(통합 형상 데이터(87))을 산출한다. 또한, 형상 산출부(114)는 제 1 데이터 통합 처리(스텝 S602) 및 제 2 데이터 통합 처리(스텝 S603) 각각에서 산출된 계측 대상물(J)의 통합 형상 데이터(87)(삼차원 형상)의 차를 평가하는 평가 처리(스텝 S606)를, 삼차원 계측 장치(1)에서 패턴 화상(I(S))의 취득 대상이 된 소정 매수의 계측 대상물(J)에 실행한다. 이 평가 처리에 의거해서, 제 1 데이터 통합 처리의 요부가 판정하는 요부 판정이 실행된다(스텝 S607). 그리고, 스텝 S607의 요부 판정에 있어서, 제 1 데이터 통합 처리가 불필요하다고 판정된 후에는, 형상 산출부(114)는 제 1 데이터 통합 처리를 실행하지 않고 제 2 데이터 통합 처리에 의해 계측 대상물(J)의 통합 형상 데이터(87)(삼차원 형상)를 산출한다(스텝 S611∼S613). 이러한 구성에서는, 그림자 영역(As) 및 2차 반사 영역(Ar)이 문제가 되지 않는 경우에는, 제 1 데이터 통합 처리보다 간소한 제 2 데이터 통합 처리에 의해 계측 대상물(J)의 통합 형상 데이터(87)를 적확하게 산출할 수 있다.In the example of FIG. 13 , the shape calculation unit 114 executes both the first data integration process (step S602) and the second data integration process (step S603) on the same measurement object J. In this second data integration process, the shape calculation unit 114 calculates the shape-related value (Q) indicated by the plurality of unidirectional shape data 86 without performing weighting according to the shadow area (As) and the secondary reflection area (Ar). By calculating the average (simple average) for each pixel PX, the plurality of unidirectional shape data 86 are integrated, and the three-dimensional shape (integrated shape data 87) of the measurement object J is calculated. In addition, the shape calculation unit 114 calculates the difference between the integrated shape data 87 (three-dimensional shape) of the measurement object J calculated in each of the first data integration process (step S602) and the second data integration process (step S603). An evaluation process (step S606) for evaluating is performed on a predetermined number of measurement objects J, which are the objects of acquisition of the pattern image I(S), in the three-dimensional measurement device 1. Based on this evaluation process, a determination of whether the first data integration process is necessary or not is performed (step S607). Then, in the necessity judgment of step S607, after it is determined that the first data integration process is unnecessary, the shape calculation unit 114 does not perform the first data integration process, but measures the measurement object (J) through the second data integration process. ) of the integrated shape data 87 (three-dimensional shape) is calculated (steps S611 to S613). In this configuration, when the shadow area As and the secondary reflection area Ar are not a problem, the integrated shape data of the measurement object J is obtained by the second data integration process, which is simpler than the first data integration process. 87) can be calculated accurately.

또한, 이 예에 있어서, 스텝 S604에서 판단되는 「소정 매수」를 유저에 의해 설정할 수 있도록 구성해도 좋다. 이 경우, 유저는 UI(200)에 소정 매수를 설정하는 조작을 실행하고, UI(200)는 유저에 의해 입력된 소정 매수를 접수하여, 도 13의 삼차원 계측에서 사용하도록 설정한다. 이러한 구성에서는, 유저는 제 1 데이터 통합 처리(스텝 S602) 및 제 2 데이터 통합 처리(스텝 S603)의 양방이 실행되는 기간(스텝 S601∼S604)을 적당히 조정할 수 있다.Additionally, in this example, the "predetermined number of sheets" determined in step S604 may be configured so that the user can set it. In this case, the user performs an operation to set a predetermined number of sheets in the UI 200, and the UI 200 accepts the predetermined number of sheets input by the user and sets it to be used in the three-dimensional measurement in FIG. 13. In this configuration, the user can appropriately adjust the period (steps S601 to S604) during which both the first data integration process (step S602) and the second data integration process (step S603) are executed.

이와 같이 상기 실시형태에서는, 삼차원 계측 장치(1)가 본 발명의 「삼차원 계측 장치」의 일례에 상당하고, 제어 장치(100)가 본 발명의 「삼차원 계측용 연산 장치」의 일례에 상당하고, 부품 모델 취득부(111)가 본 발명의 「기준 모델 취득부」의 일례에 상당하고, 영역 산출부(112)가 본 발명의 「영역 산출부」의 일례에 상당하고, 형상 산출부(114)가 본 발명의 「형상 산출부」의 일례에 상당하고, 반송 컨베이어(2)가 본 발명의 「대상물 지지부」의 일례에 상당하고, 촬상 카메라(31)가 본 발명의 「촬상부」의 일례에 상당하고, 프로젝터(32)가 본 발명의 「프로젝터」의 일례에 상당하고, 복수의 프로젝터(32)가 본 발명의 「패턴 조사부」의 일례에 상당하고, 부품 모델(83)이 본 발명의 「기준 모델」의 일례에 상당하고, 투영 방향 정보(84)가 본 발명의 「조사 방향 정보」의 일례에 상당하고, 단방향 형상 데이터(86)가 본 발명의 「단방향 형상 데이터」의 일례에 상당하고, 서버 컴퓨터(91)가 본 발명의 「기록 매체」의 일례에 상당하고, 삼차원 계측 프로그램(92)이 본 발명의 「삼차원 계측용 프로그램」의 일례에 상당하고, UI(200)가 본 발명의 「설정 조작부」의 일례에 상당하고, 2차 반사 영역(Ar)이 본 발명의 「2차 반사 영역」 및 「조사 불량 영역」의 일례에 상당하고, 그림자 영역(As)이 본 발명의 「그림자 영역」 및 「조사 불량 영역」의 일례에 상당하고, 기판(B)이 본 발명의 「기판」의 일례에 상당하고, 부품(E)이 본 발명의 「부품」의 일례에 상당하고, 패턴 화상(I(S))이 본 발명의 「패턴 화상」의 일례에 상당하고, 계측 대상물(J)이 본 발명의 「계측 대상물」의 일례에 상당하고, 패턴광(L(S))이 본 발명의 「광」의 일례에 상당하고, 화소(PX)가 본 발명의 「화소」의 일례에 상당하고, 형상 관련값(Q)이 본 발명의 「형상 관련값」의 일례에 상당하고, 계측값(Qm)이 본 발명의 「산출값」의 일례에 상당하고, 신뢰도(Qr)가 본 발명의 「신뢰도」의 일례에 상당하고, 부품 실장 범위(Ref)가 본 발명의 「부품 실장 범위」의 일례에 상당하고, 스텝 S606이 본 발명의 「평가 처리」의 일례에 상당하고, 스텝 S607이 본 발명의 「요부 판정」의 일례에 상당하고, 도 10의 제 1 데이터 통합 처리가 본 발명의 「제 1 통합 연산 처리」의 일례에 상당하고, 도 14의 제 2 데이터 통합 처리가 본 발명의 「제 2 통합 연산 처리」의 일례에 상당한다.In this way, in the above embodiment, the three-dimensional measurement device 1 corresponds to an example of the “three-dimensional measurement device” of the present invention, and the control device 100 corresponds to an example of the “three-dimensional measurement arithmetic device” of the present invention, The part model acquisition unit 111 corresponds to an example of the “reference model acquisition unit” of the present invention, the area calculation unit 112 corresponds to an example of the “area calculation unit” of the present invention, and the shape calculation unit 114 corresponds to an example of the “shape calculation unit” of the present invention, the conveyor 2 corresponds to an example of the “object support unit” of the present invention, and the imaging camera 31 corresponds to an example of the “image capturing unit” of the present invention. Correspondingly, the projector 32 corresponds to an example of the “projector” of the present invention, the plurality of projectors 32 corresponds to an example of the “pattern irradiation unit” of the present invention, and the part model 83 corresponds to an example of the “pattern irradiation unit” of the present invention. Corresponds to an example of a “reference model”, projection direction information 84 corresponds to an example of “irradiation direction information” of the present invention, and unidirectional shape data 86 corresponds to an example of “unidirectional shape data” of the present invention. , the server computer 91 corresponds to an example of the “recording medium” of the present invention, the three-dimensional measurement program 92 corresponds to an example of the “three-dimensional measurement program” of the present invention, and the UI 200 corresponds to an example of the “three-dimensional measurement program” of the present invention. It corresponds to an example of the “setting operation section”, the secondary reflection area (Ar) corresponds to an example of the “secondary reflection area” and the “poor irradiation area” of the present invention, and the shadow area (As) corresponds to an example of the “shadow area” of the present invention. corresponds to an example of a “region” and a “poor irradiation area”, the substrate B corresponds to an example of a “substrate” of the present invention, the component E corresponds to an example of a “part” of the present invention, and the pattern image (I(S)) corresponds to an example of the “pattern image” of the present invention, the measurement object J corresponds to an example of the “measurement object” of the present invention, and the pattern light L(S) corresponds to an example of the “measurement object” of the present invention. corresponds to an example of "light", the pixel PX corresponds to an example of the "pixel" of the present invention, the shape-related value (Q) corresponds to an example of the "shape-related value" of the present invention, and the measured value (Qm) corresponds to an example of the “calculated value” of the present invention, reliability (Qr) corresponds to an example of the “reliability” of the present invention, and the component mounting range (Ref) corresponds to an example of the “component mounting range” of the present invention. Corresponding to an example, step S606 corresponds to an example of the “evaluation process” of the present invention, step S607 corresponds to an example of the “decision of suitability” of the present invention, and the first data integration process in FIG. 10 corresponds to the “evaluation process” of the present invention. It corresponds to an example of the “first integrated arithmetic process”, and the second data integration process in FIG. 14 corresponds to an example of the “second integrated arithmetic process” of the present invention.

또한, 본 발명은 상기 실시형태에 한정되는 것은 아니고, 그 취지를 일탈하지 않는 한에 있어서 상술한 것에 대하여 다양한 변경을 더하는 것이 가능하다. 예를 들면 조사 불량 영역으로서 2차 반사 영역(Ar) 및 그림자 영역(As)의 양방을 산출할 필요는 없다. 예를 들면, 2차 반사 영역(Ar) 및 그림자 영역(As) 중 일방의 영향이 크고 타방의 영향이 얼마 되지 않는 경우에는, 도 7의 스텝 S107에 있어서, 상기 일방만을 조사 불량 영역으로서 산출해도 좋다.Additionally, the present invention is not limited to the above-described embodiments, and various changes can be made to the above-described embodiments without departing from the spirit thereof. For example, it is not necessary to calculate both the secondary reflection area (Ar) and the shadow area (As) as the poorly irradiated area. For example, if the influence of one of the secondary reflection area Ar and the shadow area As is large and the influence of the other is small, even if only one of the secondary reflection areas Ar and the shadow area As is calculated as the poor irradiation area in step S107 of FIG. good night.

또한, 도 12의 조사 불량 영역 보정에 있어서, 기판(B)의 위치에 의거한 보정(스텝 S505) 및 부품(E)의 위치에 의거한 보정(스텝 S506) 중 어느 일방만을 실행하고 타방을 실행하지 않아도 좋다.In addition, in the correction of the irradiation defective area in FIG. 12, only one of correction based on the position of the substrate B (step S505) and correction based on the position of the component E (step S506) is performed and the other is performed. It's okay if you don't do it.

또한, 형상 관련값(Q)의 구체적인 내용을 적당히 변경해도 좋다. 예를 들면, 신뢰도(Qr)를 산출하지 않고, 계측값(Qm)을 그대로 형상 관련값(Q)으로서 산출해도 좋다.Additionally, the specific content of the shape-related value (Q) may be changed as appropriate. For example, the measured value Qm may be calculated as the shape-related value Q without calculating the reliability Qr.

또한, 스텝 S408에 있어서, 불량 조사 영역에 대응해서 곱하는 무게 계수 W(P)는 0일 필요는 없고, 0 이상이고 1 미만의 값이면 된다.Additionally, in step S408, the weight coefficient W(P) multiplied corresponding to the defective irradiation area does not need to be 0, but can be a value of 0 or more and less than 1.

또한, 삼차원 계측 프로그램(92)의 실행에 의해 주제어부(110)에 구성되는 각 기능부(111, 112, 113, 114)를, 삼차원 계측 장치(1)가 구비하는 제어 장치(100)에 반드시 구성할 필요가 있는 것은 아니다. 따라서, 삼차원 계측 장치(1)와는 별도로 설치된 컴퓨터가 구비하는 프로세서에 각 기능부(111, 112, 113, 114)를 구성해도 좋다.In addition, by executing the three-dimensional measurement program 92, each of the functional units 111, 112, 113, and 114 comprised in the main control unit 110 must be connected to the control device 100 provided in the three-dimensional measurement device 1. There is no need to configure it. Accordingly, each of the functional units 111, 112, 113, and 114 may be configured in a processor provided in a computer installed separately from the three-dimensional measurement device 1.

또한, 도 1의 제 2 데이터 통합 처리에서는, 스텝 S414에 있어서, 단순 평균에 의한 평균값(대표값)을 산출하는 대신에, 중앙값(대표값)을 산출해도 좋다.Additionally, in the second data integration process in FIG. 1, in step S414, instead of calculating the average value (representative value) by simple average, the median value (representative value) may be calculated.

1: 삼차원 계측 장치
100: 제어 장치(삼차원 계측용 연산 장치)
111: 부품 모델 취득부(기준 모델 취득부)
112: 영역 산출부(영역 산출부)
114: 형상 산출부
2: 반송 컨베이어(대상물 지지부)
31: 촬상 카메라(촬상부)
32: 프로젝터(패턴 조사부)
83: 부품 모델(기준 모델)
84: 투영 방향 정보(조사 방향 정보)
86: 단방향 형상 데이터
91: 서버 컴퓨터(기록 매체)
92: 삼차원 계측 프로그램
200: UI(설정 조작부)
Ar: 2차 반사 영역(조사 불량 영역)
As: 그림자 영역(조사 불량 영역)
B: 기판
E: 부품
I(S): 패턴 화상
J: 계측 대상물
L(S): 패턴광(광)
PX: 화소
Q: 형상 관련값
Qm: 계측값(산출값)
Qr: 신뢰도
Ref: 부품 실장 범위
1: Three-dimensional measurement device
100: Control device (operation device for three-dimensional measurement)
111: Part model acquisition unit (standard model acquisition unit)
112: Area calculation unit (area calculation unit)
114: Shape calculation unit
2: Transfer conveyor (object support)
31: Imaging camera (imaging unit)
32: Projector (pattern investigation department)
83: Part model (base model)
84: Projection direction information (irradiation direction information)
86: One-way shape data
91: Server computer (recording media)
92: Three-dimensional measurement program
200: UI (Settings Control Panel)
Ar: Secondary reflection area (poorly irradiated area)
As: Shadow area (poorly irradiated area)
B: substrate
E: Parts
I(S): Pattern image
J: Measurement object
L(S): pattern light (light)
PX: pixel
Q: Shape-related values
Qm: measured value (calculated value)
Qr: Reliability
Ref: Component mounting range

Claims (17)

기판 및 상기 기판에 실장된 부품을 갖는 계측 대상물을 지지하는 대상물 지지부와, 상기 대상물 지지부에 지지된 상기 계측 대상물에 소정 패턴의 광을 조사하는 패턴 조사부와, 상기 패턴 조사부로부터 상기 계측 대상물에 조사된 광을 촬상함으로써 이차원의 패턴 화상을 취득하는 촬상부를 구비한 삼차원 계측 장치에 의해 취득된 상기 패턴 화상에 의거해서 상기 계측 대상물의 삼차원 형상을 계측하기 위한 연산을 실행하는 삼차원 계측용 연산 장치로서,
상기 기판 중 상기 부품이 실장되는 부품 실장 범위 및 상기 부품 실장 범위에 실장되는 상기 부품의 외형을 나타내는 기준 모델을 취득하는 기준 모델 취득부와,
상기 촬상부로부터 상기 부품에 조사된 광이 상기 부품에 의해 가려짐으로써 상기 기판에 있어서 상기 부품의 그림자가 발생하는 그림자 영역 및 상기 촬상부로부터 조사되어 상기 부품에서 반사된 광이 상기 기판에 입사하는 2차 반사 영역 중 적어도 일방의 조사 불량 영역을, 상기 삼차원 계측 장치에서 상기 부품에 광이 조사되는 방향을 나타내는 조사 방향 정보와 상기 기준 모델에 의거해서 산출하는 영역 산출부를 구비한 삼차원 계측용 연산 장치.
an object support unit that supports a measurement object having a substrate and components mounted on the substrate, a pattern irradiation unit that irradiates light of a predetermined pattern to the measurement object supported on the object support unit, and irradiation of light from the pattern irradiation unit to the measurement object. A calculation device for three-dimensional measurement that performs calculations for measuring the three-dimensional shape of the measurement object based on the pattern image acquired by a three-dimensional measurement device having an imaging unit that acquires a two-dimensional pattern image by imaging light, comprising:
a reference model acquisition unit that acquires a reference model representing a component mounting range in which the component is mounted on the board and an external appearance of the component mounted in the component mounting range;
A shadow area where the light irradiated from the imaging unit to the component is obscured by the component, thereby creating a shadow of the component on the substrate, and a shadow area where the light irradiated from the imaging unit and reflected from the component is incident on the substrate. A calculation device for three-dimensional measurement including an area calculation unit that calculates at least one poor irradiation area among secondary reflection areas based on the reference model and irradiation direction information indicating a direction in which light is irradiated from the three-dimensional measurement device to the component. .
제 1 항에 있어서,
상기 기준 모델 취득부는 상기 부품 실장 범위에 실장된 상기 부품과 상기 부품 실장 범위의 위치 관계의 적부를 검사하기 위한 기준을 나타내는 검사 데이터 및 상기 기판의 구성을 나타내는 CAD(Computer-Aided Design) 데이터 중 적어도 일방의 데이터로부터, 상기 기준 모델을 제작하는 삼차원 계측용 연산 장치.
According to claim 1,
The reference model acquisition unit includes at least one of inspection data representing a standard for inspecting the appropriateness of the positional relationship between the component mounted in the component mounting range and CAD (Computer-Aided Design) data representing the configuration of the board. A three-dimensional measurement computing device that produces the reference model from one piece of data.
제 1 항 또는 제 2 항에 있어서,
상기 영역 산출부는 상기 삼차원 계측 장치에 반입되어 상기 대상물 지지부에 지지된 상기 기판의 위치를 인식한 결과에 더 의거해서 상기 조사 불량 영역을 산출하는 삼차원 계측용 연산 장치.
The method of claim 1 or 2,
The area calculation unit calculates the irradiation defective area based on a result of recognizing the position of the substrate carried into the three-dimensional measurement device and supported on the object support unit.
제 3 항에 있어서,
상기 대상물 지지부에 지지된 상기 기판의 위치는 상기 기판에 부착된 피듀셜 마크를 상기 촬상부에 의해 촬상한 결과에 의거해서 인식되는 삼차원 계측용 연산 장치.
According to claim 3,
The position of the substrate supported on the object support portion is recognized based on a result of imaging a fiducial mark attached to the substrate by the imaging unit.
제 1 항 내지 제 4 항 중 어느 한 항에 있어서,
상기 영역 산출부는 상기 부품 실장 범위에 실장된 상기 부품의 위치를 검출한 결과에 더 의거해서 상기 조사 불량 영역을 산출하는 삼차원 계측용 연산 장치.
The method according to any one of claims 1 to 4,
The area calculation unit calculates the irradiation defective area based on a result of detecting the position of the component mounted in the component mounting range.
제 5 항에 있어서,
상기 부품 실장 범위에 실장된 상기 부품의 위치는 상기 부품을 촬상한 결과에 의거해서 검출되는 삼차원 계측용 연산 장치.
According to claim 5,
A three-dimensional measurement computing device in which the position of the component mounted in the component mounting range is detected based on a result of imaging the component.
제 1 항 내지 제 6 항 중 어느 한 항에 있어서,
상기 패턴 조사부는 서로 상이한 방향으로부터 상기 부품에 광을 조사하는 복수의 프로젝터를 갖고,
상기 조사 방향 정보는 상기 프로젝터로부터 상기 부품에 광이 조사되는 방향을, 상기 복수의 프로젝터의 각각에 대해서 나타내고,
상기 영역 산출부는 상기 복수의 프로젝터의 각각에 대해서, 상기 조사 불량 영역을 산출하는 삼차원 계측용 연산 장치.
The method according to any one of claims 1 to 6,
The pattern irradiation unit has a plurality of projectors that irradiate light to the component from different directions,
The irradiation direction information indicates a direction in which light is irradiated from the projector to the component, for each of the plurality of projectors,
The area calculation unit calculates the illumination defective area for each of the plurality of projectors.
제 7 항에 있어서,
상기 프로젝터로부터 상기 기판에 조사된 광을 상기 촬상부에 의해 촬상함으로써 취득된 상기 패턴 화상에 의거해서, 삼차원 형상에 관한 값인 형상 관련값을 화소별로 나타내는 단방향 형상 데이터를 산출하는 연산을, 상기 복수의 프로젝터의 각각에 대해서 실행함으로써, 복수의 단방향 형상 데이터를 산출하는 형상 산출부를 더 구비하고,
상기 형상 산출부는 상기 복수의 단방향 형상 데이터 각각이 나타내는 상기 형상 관련값의 평균을 상기 화소별로 산출함으로써 상기 복수의 단방향 형상 데이터를 통합하여, 상기 계측 대상물의 삼차원 형상을 산출하는 제 1 통합 연산 처리를 실행하고,
상기 제 1 통합 연산 처리에서는, 상기 단방향 형상 데이터가 나타내는 상기 형상 관련값 중, 상기 조사 불량 영역에 포함되는 상기 화소의 상기 형상 관련값에 대해서는 1 미만이고 0 이상의 무게 계수를 곱하는 가중 평균에 의해, 상기 계측 대상물의 삼차원 형상이 산출되는 삼차원 계측용 연산 장치.
According to claim 7,
A calculation for calculating unidirectional shape data representing a shape-related value, which is a value related to a three-dimensional shape, for each pixel, based on the pattern image acquired by imaging the light irradiated from the projector to the substrate by the imaging unit, It further includes a shape calculation unit that calculates a plurality of unidirectional shape data by executing it for each of the projectors,
The shape calculation unit integrates the plurality of unidirectional shape data by calculating an average of the shape-related values represented by each of the plurality of unidirectional shape data for each pixel, and performs a first integrated operation process to calculate a three-dimensional shape of the measurement object. run,
In the first integrated operation processing, among the shape-related values indicated by the unidirectional shape data, the shape-related values of the pixels included in the poorly irradiated area are multiplied by a weight coefficient that is less than 1 and greater than or equal to 0, by weighted average, A three-dimensional measurement computing device that calculates the three-dimensional shape of the measurement object.
제 8 항에 있어서,
상기 제 1 통합 연산 처리에서는, 상기 조사 불량 영역에 포함되는 상기 화소의 상기 형상 관련값에 대해서는 0의 무게 계수를 곱하는 가중 평균에 의해, 상기 계측 대상물의 삼차원 형상이 산출되는 삼차원 계측용 연산 장치.
According to claim 8,
In the first integrated calculation process, the three-dimensional shape of the measurement object is calculated by a weighted average in which the shape-related values of the pixels included in the illumination defect area are multiplied by a weight coefficient of 0.
제 8 항 또는 제 9 항에 있어서,
상기 형상 관련값은 상기 패턴 화상에 의거해서 산출되는 삼차원 형상의 산출값과, 상기 산출값의 신뢰도의 곱으로 주어지는 삼차원 계측용 연산 장치.
According to claim 8 or 9,
An arithmetic device for three-dimensional measurement in which the shape-related value is given as a product of a calculated value of a three-dimensional shape calculated based on the pattern image and a reliability of the calculated value.
제 8 항 또는 제 9 항에 있어서,
상기 형상 관련값은 상기 패턴 화상에 의거해서 산출되는 삼차원 형상의 산출값인 삼차원 계측용 연산 장치.
According to claim 8 or 9,
The shape-related value is a calculation device for three-dimensional measurement that is a calculated value of a three-dimensional shape calculated based on the pattern image.
제 8 항 내지 제 11 항 중 어느 한 항에 있어서,
상기 형상 산출부는 상기 조사 불량 영역에 따른 가중을 행하지 않고 상기 복수의 단방향 형상 데이터가 나타내는 상기 형상 관련값의 대표값을 상기 화소별로 산출함으로써 상기 복수의 단방향 형상 데이터를 통합하여, 상기 계측 대상물의 삼차원 형상을 산출하는 제 2 통합 연산 처리와, 상기 제 1 통합 연산 처리의 양방을 동일한 상기 계측 대상물에 대하여 실행하고, 상기 제 1 통합 연산 처리 및 제 2 통합 연산 처리 각각에서 산출된 상기 계측 대상물의 삼차원 형상의 차를 평가하는 평가 처리를, 상기 삼차원 계측 장치에서 상기 패턴 화상의 취득 대상이 된 소정 수의 계측 대상물에 실행함으로써, 상기 제 1 통합 연산 처리의 요부를 판정하는 요부 판정을 실행하고,
상기 요부 판정에 있어서 상기 제 1 통합 연산 처리가 불필요하다고 판정된 후에는, 상기 형상 산출부는 상기 제 1 통합 연산 처리를 실행하지 않고 상기 제 2 통합 연산 처리에 의해 상기 계측 대상물의 삼차원 형상을 산출하는 삼차원 계측용 연산 장치.
The method according to any one of claims 8 to 11,
The shape calculation unit integrates the plurality of unidirectional shape data by calculating a representative value of the shape-related value represented by the plurality of unidirectional shape data for each pixel without performing weighting according to the irradiation defect area, and thereby integrates the plurality of unidirectional shape data into three dimensions of the measurement object. Both a second integrated calculation process for calculating a shape and the first integrated calculation process are performed on the same measurement object, and the three dimensions of the measurement object calculated in each of the first integrated calculation process and the second integrated calculation process are performed. Executing an evaluation process for evaluating differences in shape on a predetermined number of measurement objects that are targets of acquisition of the pattern image by the three-dimensional measurement device, thereby performing a desirability judgment to determine the desirability of the first integrated calculation process,
After the first integrated calculation process is determined to be unnecessary in the necessity determination, the shape calculation unit calculates a three-dimensional shape of the measurement object by the second integrated calculation process without performing the first integrated calculation process. Computation device for three-dimensional measurement.
제 12 항에 있어서,
상기 소정 수를 설정하는 조작을 접수하는 설정 조작부를 더 구비하는 삼차원 계측용 연산 장치.
According to claim 12,
An arithmetic device for three-dimensional measurement, further comprising a setting operation unit that accepts an operation for setting the predetermined number.
제 1 항 내지 제 13 항 중 어느 한 항에 기재된 삼차원 계측용 연산 장치로서 컴퓨터를 기능시키는 삼차원 계측용 프로그램.A three-dimensional measurement program that causes a computer to function as the three-dimensional measurement computing device according to any one of claims 1 to 13. 제 14 항에 기재된 삼차원 계측용 프로그램을 컴퓨터에 의해 판독 가능하게 기록하는 기록 매체.A recording medium that records the three-dimensional measurement program according to claim 14 in a computer-readable manner. 기판 및 상기 기판에 실장된 부품을 갖는 계측 대상물을 지지하는 대상물 지지부와,
상기 대상물 지지부에 지지된 상기 계측 대상물에 소정 패턴의 광을 조사하는 패턴 조사부와,
상기 패턴 조사부로부터 상기 계측 대상물에 조사된 광을 촬상함으로써 이차원의 패턴 화상을 취득하는 촬상부와,
상기 패턴 화상에 의거해서 상기 계측 대상물의 삼차원 형상을 계측하기 위한 연산을 실행하는 제 1 항 내지 제 13 항 중 어느 한 항에 기재된 삼차원 계측용 연산 장치를 구비한 삼차원 계측 장치.
an object support portion that supports a measurement object having a substrate and components mounted on the substrate;
a pattern irradiation unit that irradiates light of a predetermined pattern to the measurement object supported on the object support unit;
an imaging unit that acquires a two-dimensional pattern image by imaging light irradiated from the pattern irradiation unit to the measurement object;
A three-dimensional measurement device comprising the arithmetic device for three-dimensional measurement according to any one of claims 1 to 13, which performs calculations for measuring the three-dimensional shape of the measurement object based on the pattern image.
기판 및 상기 기판에 실장된 부품을 갖는 계측 대상물을 지지하는 대상물 지지부와, 상기 대상물 지지부에 지지된 상기 계측 대상물에 소정 패턴의 광을 조사하는 패턴 조사부와, 상기 패턴 조사부로부터 상기 계측 대상물에 조사된 광을 촬상함으로써 이차원의 패턴 화상을 취득하는 촬상부를 구비한 삼차원 계측 장치에 의해 취득된 상기 패턴 화상에 의거해서 상기 계측 대상물의 삼차원 형상을 계측하기 위한 연산을 실행하는 삼차원 계측용 연산 방법으로서,
상기 기판 중 상기 부품이 실장되는 부품 실장 범위 및 상기 부품 실장 범위에 실장되는 상기 부품의 외형을 나타내는 기준 모델을 취득하는 공정과,
상기 촬상부로부터 상기 부품에 조사된 광이 상기 부품에 의해 가려짐으로써 상기 기판에 있어서 상기 부품의 그림자가 발생하는 그림자 영역 및 상기 촬상부로부터 조사되어 상기 부품에서 반사된 광이 상기 기판에 입사하는 2차 반사 영역 중 적어도 일방의 조사 불량 영역을, 상기 삼차원 계측 장치에서 상기 부품에 광이 조사되는 방향을 나타내는 조사 방향 정보와 상기 기준 모델에 의거해서 산출하는 공정을 구비한 삼차원 계측용 연산 방법.
an object support unit that supports a measurement object having a substrate and components mounted on the substrate, a pattern irradiation unit that irradiates light of a predetermined pattern to the measurement object supported on the object support unit, and irradiation of light from the pattern irradiation unit to the measurement object. A calculation method for three-dimensional measurement that performs calculations for measuring the three-dimensional shape of the measurement object based on the pattern image acquired by a three-dimensional measurement device having an imaging unit that acquires a two-dimensional pattern image by imaging light, comprising:
A process of acquiring a reference model representing a component mounting range in which the component is mounted on the board and an external appearance of the component mounted in the component mounting range;
A shadow area where the light irradiated from the imaging unit to the component is obscured by the component, thereby creating a shadow of the component on the substrate, and a shadow area where the light irradiated from the imaging unit and reflected from the component is incident on the substrate. A calculation method for three-dimensional measurement comprising a step of calculating at least one illumination defective area of a secondary reflection area based on the reference model and irradiation direction information indicating the direction in which light is irradiated from the three-dimensional measurement device to the component.
KR1020247012830A 2022-03-09 2022-03-09 Three-dimensional measurement calculation device, three-dimensional measurement program, recording medium, three-dimensional measurement device, and three-dimensional measurement calculation method KR20240060825A (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2022/010277 WO2023170814A1 (en) 2022-03-09 2022-03-09 Operation device for three-dimensional measurement, three-dimensional measurement program, recording medium, three-dimensional measurement device, and operation method for three-dimensional measurement

Publications (1)

Publication Number Publication Date
KR20240060825A true KR20240060825A (en) 2024-05-08

Family

ID=87936295

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020247012830A KR20240060825A (en) 2022-03-09 2022-03-09 Three-dimensional measurement calculation device, three-dimensional measurement program, recording medium, three-dimensional measurement device, and three-dimensional measurement calculation method

Country Status (2)

Country Link
KR (1) KR20240060825A (en)
WO (1) WO2023170814A1 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012112952A (en) 2010-11-19 2012-06-14 Koh Young Technology Inc Method and apparatus of profiling surface
JP2016130663A (en) 2015-01-13 2016-07-21 オムロン株式会社 Inspection device and control method of inspection device

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6351201B2 (en) * 2012-12-06 2018-07-04 キヤノン株式会社 Distance measuring device and method
CN106030240B (en) * 2014-01-08 2019-04-30 雅马哈发动机株式会社 Appearance inspection device and appearance inspection method
JP2016099257A (en) * 2014-11-21 2016-05-30 キヤノン株式会社 Information processing device and information processing method
CN112639395B (en) * 2018-09-27 2023-05-23 雅马哈发动机株式会社 Three-dimensional measuring device
JP7427652B2 (en) * 2019-03-08 2024-02-05 ヤマハ発動機株式会社 A system and component mounting system consisting of a mounting data creation support device, a mounting data creation support method, a visual inspection machine, and a control device.

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012112952A (en) 2010-11-19 2012-06-14 Koh Young Technology Inc Method and apparatus of profiling surface
JP2016130663A (en) 2015-01-13 2016-07-21 オムロン株式会社 Inspection device and control method of inspection device

Also Published As

Publication number Publication date
WO2023170814A1 (en) 2023-09-14

Similar Documents

Publication Publication Date Title
US10563977B2 (en) Three-dimensional measuring device
US9441957B2 (en) Three-dimensional shape measuring apparatus
CN105783784B (en) Inspection apparatus and control method of inspection apparatus
KR101121691B1 (en) Three-dimensional measurement device
TWI635252B (en) Methods and system for inspecting a 3d object using 2d image processing
US20130342677A1 (en) Vision testing device using multigrid pattern
JP6322335B2 (en) Appearance inspection device
JP5515432B2 (en) 3D shape measuring device
US9423242B2 (en) Board-warping measuring apparatus and board-warping measuring method thereof
JP5612969B2 (en) Appearance inspection apparatus and appearance inspection method
US10803623B2 (en) Image processing apparatus
JP5566707B2 (en) Appearance inspection apparatus and appearance inspection method
JP6097389B2 (en) Inspection apparatus and inspection method
JP2012237613A (en) Shape measuring device and shape measuring method
JP2023176008A (en) Image analyzer, analyzer, shape measuring device, image analysis method, measurement condition determination method, shape measuring method, and program
JP2006317408A (en) Warpage checker
KR20240060825A (en) Three-dimensional measurement calculation device, three-dimensional measurement program, recording medium, three-dimensional measurement device, and three-dimensional measurement calculation method
JP5136108B2 (en) 3D shape measuring method and 3D shape measuring apparatus
CN113767263B (en) Three-dimensional measurement device and three-dimensional measurement method
TWI818349B (en) Workpiece height measuring device and mounting substrate inspection device using the same
JP7156795B2 (en) Inspection device adjustment method and inspection device
JP2013115380A (en) Component mounting device and component mounting method
US20230105983A1 (en) System and Method for Inspection of Multiple Features of Patterned Objects in the Manufacture of Electrical Circuits
KR20230056283A (en) Appartus, method and module for instpecting duly reach of materials in a tray
JP2021173600A (en) Electronic component evaluation method, electronic component evaluation device and electronic component evaluation program