JP2017015545A - Measuring device and article manufacturing method - Google Patents

Measuring device and article manufacturing method Download PDF

Info

Publication number
JP2017015545A
JP2017015545A JP2015132149A JP2015132149A JP2017015545A JP 2017015545 A JP2017015545 A JP 2017015545A JP 2015132149 A JP2015132149 A JP 2015132149A JP 2015132149 A JP2015132149 A JP 2015132149A JP 2017015545 A JP2017015545 A JP 2017015545A
Authority
JP
Japan
Prior art keywords
information
light pattern
measurement
spatial frequency
measuring device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015132149A
Other languages
Japanese (ja)
Other versions
JP6525770B2 (en
Inventor
沙織 長谷川
Saori Hasegawa
沙織 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2015132149A priority Critical patent/JP6525770B2/en
Publication of JP2017015545A publication Critical patent/JP2017015545A/en
Application granted granted Critical
Publication of JP6525770B2 publication Critical patent/JP6525770B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a measuring device that is advantageous in terms of a measuring time.SOLUTION: A measuring device comprises: a projection part 1 that projects a light pattern on an object; an imaging part 2 that photographs the object to which the light pattern is projected and outputs image data; and a processing part 3 that obtains a measured value of the distance to the object on the basis of the image data. The processing part specifies the spatial frequency of the light pattern on the basis of first information for predicting reliability of the measured value and second information indicating the relationship between the first information and the reliability.SELECTED DRAWING: Figure 1

Description

本発明は、計測装置、および物品製造方法に関する。   The present invention relates to a measuring device and an article manufacturing method.

計測対象物に光パターンを投影して該対象物を撮像する計測ヘッドを有し、当該撮像により得られた画像データから対象物の形状を計測する、三角測量の原理を利用した計測装置が知られている(特許文献1)。当該計測装置の処理部は、当該画像データに基づいて、対象物までの距離または対象物の形状の情報を得る。このような計測には、空間符号化法が用いられうる。ここで、空間符号化法は、光パターンとして明部(明ストライプ)と暗部(暗ストライプ)とが交互に配置されてなるものを投影して空間を2進符号化する。空間符号化法では、画像データにおける明部と暗部との境界を特定する必要がある。   A measuring device using a triangulation principle is known that has a measuring head that projects a light pattern onto a measurement object and images the object, and measures the shape of the object from image data obtained by the imaging. (Patent Document 1). The processing unit of the measurement device obtains information on the distance to the object or the shape of the object based on the image data. A spatial encoding method can be used for such measurement. Here, the space encoding method projects a light pattern in which bright portions (bright stripes) and dark portions (dark stripes) are alternately arranged, and binary encodes the space. In the spatial coding method, it is necessary to specify a boundary between a bright part and a dark part in image data.

ところが、計測装置と対象物との間の距離または対象物の反射率等の要因により、画像データにおける明部と暗部とのコントラストが変動する。コントラストが適当でない場合、明部と暗部との境界を求めるのが困難となる。そこで、特許文献1の計測装置は、空間周波数が互いに異なる複数の光パターンのうち画像データの信頼度(例えばコントラスト)が閾値以上となる光パターンを特定して用いるようにしている。   However, the contrast between the bright part and the dark part in the image data varies due to factors such as the distance between the measuring device and the object or the reflectance of the object. When the contrast is not appropriate, it is difficult to obtain the boundary between the bright part and the dark part. In view of this, the measurement apparatus disclosed in Patent Document 1 specifies and uses an optical pattern in which the reliability (for example, contrast) of image data is equal to or greater than a threshold among a plurality of optical patterns having different spatial frequencies.

特開2012−103239号公報JP 2012-103239 A

しかしながら、特許文献1の計測装置は、各光パターンに関して画像データの信頼度を得て信頼度が閾値以上である光パターンを特定しているため、計測に要する時間または計測のスループットの点で不利となる。また、対象物によっては、必要な計測精度の観点から、所定値以上の空間周波数を有する光パターンは必要でない場合もある。   However, since the measurement apparatus of Patent Document 1 obtains the reliability of image data for each light pattern and identifies the light pattern whose reliability is equal to or greater than a threshold value, it is disadvantageous in terms of measurement time or measurement throughput. It becomes. In addition, depending on the object, an optical pattern having a spatial frequency greater than or equal to a predetermined value may not be necessary from the viewpoint of necessary measurement accuracy.

本発明は、計測時間の点で有利な計測装置を提供することを例示的目的とする。   An object of the present invention is to provide a measurement device that is advantageous in terms of measurement time.

本発明の一つの側面は、光パターンを対象物に投影する投影部と、
前記光パターンを投影された前記対象物を撮像して画像データを出力する撮像部と、
前記画像データに基づいて前記対象物の距離の計測値を得る処理部と、
を有する計測装置であって、
前記処理部は、
前記計測値の信頼度を予測するための第1情報と該信頼度との関係を示す第2情報に基づいて、前記光パターンの空間周波数を特定する、
ことを特徴とする計測装置である。
One aspect of the present invention is a projection unit that projects a light pattern onto an object;
An imaging unit that images the object projected with the light pattern and outputs image data;
A processing unit for obtaining a measurement value of the distance of the object based on the image data;
A measuring device having
The processor is
Identifying the spatial frequency of the light pattern based on the first information for predicting the reliability of the measurement value and the second information indicating the relationship between the reliability,
It is the measuring device characterized by this.

本発明によれば、例えば、計測時間の点で有利な計測装置を提供することができる。   According to the present invention, for example, it is possible to provide a measurement device that is advantageous in terms of measurement time.

計測装置の構成を例示する図The figure which illustrates the configuration of the measuring device グレイコードにしたがった光パターンを例示する図Diagram illustrating light pattern according to gray code 計測部と対象物との位置関係を例示する図The figure which illustrates the positional relationship between a measurement part and a subject 計測部と対象物との距離とコントラストとの関係を例示する図The figure which illustrates the relationship between the distance of a measurement part and a target object, and contrast 光パターンとそれに対応する光強度分布とを例示する図The figure which illustrates a light pattern and light intensity distribution corresponding to it パレットに搭載された対象物と計測部との距離を例示する図A diagram illustrating the distance between the object mounted on the pallet and the measurement unit 計測装置による処理の流れの例を示す図(実施形態1)FIG. 4 is a diagram illustrating an example of a flow of processing by a measurement device (first embodiment) 計測装置による処理の流れの別の例を示す図(実施形態2)A figure showing another example of a flow of processing by a measuring device (second embodiment) 計測装置による処理の流れの別の例を示す図(実施形態5)FIG. 10 is a diagram illustrating another example of the flow of processing by the measuring device (fifth embodiment). 計測装置による処理の流れの別の例を示す図(実施形態5)FIG. 10 is a diagram illustrating another example of the flow of processing by the measuring device (fifth embodiment). 予備計測における処理の流れを例示する図(実施形態5)FIG. 10 is a diagram illustrating a flow of processing in preliminary measurement (fifth embodiment).

以下、添付図面を参照して本発明の実施形態を説明する。なお、実施形態を説明するための全図を通して、原則として(断りのない限り)、同一の部材等には同一の符号を付し、その繰り返しの説明は省略する。   Embodiments of the present invention will be described below with reference to the accompanying drawings. Note that, throughout the drawings for explaining the embodiments, in principle (unless otherwise noted), the same members and the like are denoted by the same reference numerals, and repeated description thereof is omitted.

〔実施形態1〕
まず、図1は、計測装置の構成を例示する図である。本実施形態の計測装置は、ヘッド10(計測部)と処理部3とで構成されている。ヘッド10は、以下の2つの光学部を含んでいる。1つは、光パターン(光強度分布)16を対象物11に投影する投影部1で、もう1つは、光パターン16が投影された対象物11を撮像して画僧データを出力する撮像部2である。図1において、y軸は、ライン状の光パターン16のラインと平行な軸であり、z軸は、投影部の光軸と平行な軸であり、x軸は、y軸とz軸とに直交する軸である。xz平面は、投影光学系4の物体側主点と撮像光学系7の像側主点と物点とを含む平面である。投影部1は、光源17と、照度分布均一化部18(インテグレータ)と、光パターン形成部6と、投影光学系4とを含む。光源17には、LED等の発光素子を用いることができる。インテグレータ18には、ロッドインテグレータやハエの目レンズ等を用いることができる。光パターン形成部6は、液晶素子やDMD(デジタルミラーデバイス)等で構成され、投影すべき光パターンを形成することできる。投影部1は、光源から出射されインテグレータにより均一化された光で照明された光パターン形成部6を投影光学系4により測距空間(計測空間)に投影する。本実施形態では、y方向に延びたライン状の光パターン16を対象物11に投影する。光パターン16は、直線上の点状パターンまたは円形状パターンの配列であってもよい。撮像部2は、撮像素子8と、対象物からの光を撮像素子に導く撮像光学系7とを含む。撮像素子8は、CMOSまたはCCDデバイス等を含む光電変換素子としうる。撮像部2は、対象物からの光を、撮像光学系7を介して撮像素子8で受光して対象物の画像(データ)を取得する。
Embodiment 1
First, FIG. 1 is a diagram illustrating the configuration of a measurement device. The measurement apparatus of the present embodiment includes a head 10 (measurement unit) and a processing unit 3. The head 10 includes the following two optical units. One is a projection unit 1 that projects a light pattern (light intensity distribution) 16 onto the object 11, and the other is an image that captures the object 11 on which the light pattern 16 is projected and outputs image data. Part 2. In FIG. 1, the y axis is an axis parallel to the line of the line-shaped light pattern 16, the z axis is an axis parallel to the optical axis of the projection unit, and the x axis is the y axis and the z axis. It is an orthogonal axis. The xz plane is a plane including the object side principal point of the projection optical system 4, the image side principal point and the object point of the imaging optical system 7. The projection unit 1 includes a light source 17, an illuminance distribution uniformizing unit 18 (integrator), a light pattern forming unit 6, and a projection optical system 4. As the light source 17, a light emitting element such as an LED can be used. The integrator 18 may be a rod integrator or a fly-eye lens. The light pattern forming unit 6 is composed of a liquid crystal element, DMD (digital mirror device), or the like, and can form a light pattern to be projected. The projection unit 1 projects a light pattern forming unit 6 emitted from a light source and illuminated with light made uniform by an integrator onto a distance measurement space (measurement space) by the projection optical system 4. In the present embodiment, a linear light pattern 16 extending in the y direction is projected onto the object 11. The light pattern 16 may be an array of point-like patterns or circular patterns on a straight line. The imaging unit 2 includes an imaging element 8 and an imaging optical system 7 that guides light from the object to the imaging element. The image sensor 8 can be a photoelectric conversion element including a CMOS or CCD device. The imaging unit 2 receives light from the object by the imaging element 8 via the imaging optical system 7 and acquires an image (data) of the object.

次に、本実施形態の計測装置で用いる空間符号化法について説明する。空間符号化法で用いる光パターン16は、光の照射のパターンである。空間符号化法として、グレイコード法が知られている。グレイコード法は、空間周波数(周期)の互いに異なる複数の光パターンを順番に対象物に投影する。図2は、グレイコードにしたがった光パターンを例示する図である。図2の(a)から(c)の光パターンを順番に投影し、それぞれの撮像を行う。そして、2値化を行う。具体的には、各画素は、その値が閾値以上であれば、1とする。また、閾値未満であれば、0とする。各光パターンでのバイナリ値を順に並べてグレイコードとする。グレイコードは、図2の空間コード1(0から7)に変換し、光パターン形成部6の画素と撮像素子8の画素とを対応付ける。一方、図2の(a)および(b)の光パターンを順番に投影した場合、図2の空間コード2(0から3)となり、(a)から(c)の光パターンを投影した場合の半分の分解能となる。以上のように、投影する光パターンの最高空間周波数によって、光パターンのラインとは直交する方向において計測値が得られる分解能が変化する。   Next, a spatial encoding method used in the measurement apparatus of this embodiment will be described. The light pattern 16 used in the spatial coding method is a light irradiation pattern. As a spatial encoding method, the Gray code method is known. In the Gray code method, a plurality of light patterns having different spatial frequencies (periods) are sequentially projected onto an object. FIG. 2 is a diagram illustrating a light pattern according to the gray code. The light patterns (a) to (c) in FIG. 2 are projected in order, and each image is taken. Then, binarization is performed. Specifically, each pixel is set to 1 if its value is equal to or greater than a threshold value. If it is less than the threshold, it is set to 0. The binary values in each light pattern are arranged in order to obtain a gray code. The gray code is converted into the spatial code 1 (0 to 7) in FIG. 2, and the pixel of the light pattern forming unit 6 and the pixel of the image sensor 8 are associated with each other. On the other hand, when the light patterns of (a) and (b) in FIG. 2 are projected in order, the spatial code 2 (0 to 3) in FIG. 2 is obtained, and the light patterns of (a) to (c) are projected Half the resolution. As described above, the resolution at which the measurement value can be obtained varies in the direction orthogonal to the line of the light pattern depending on the highest spatial frequency of the projected light pattern.

投影部1は、空間符号化法で用いる複数種類の光パターン16を投影し、撮像部2は、各パターンを撮像し、処理部3は、撮像により得られた画像データを処理する。投影部1と撮像部2との間の相対的な位置・姿勢の関係は既知であることから、三角測量の原理に基づき、対象物11の表面上の各点の距離(位置)が得られ、もって、対象物11の形状が得られる。   The projection unit 1 projects a plurality of types of light patterns 16 used in the spatial encoding method, the imaging unit 2 images each pattern, and the processing unit 3 processes image data obtained by the imaging. Since the relative position / posture relationship between the projection unit 1 and the imaging unit 2 is known, the distance (position) of each point on the surface of the object 11 is obtained based on the principle of triangulation. Thus, the shape of the object 11 is obtained.

計測部と対象物との距離が許容範囲内にないために光パターンのぼけが生じている場合、明部と暗部との境界を求める精度が不利となりうる。図3は、計測部と対象物との位置関係を例示する図である。対象物102・対象物103とヘッド101との間のZ方向の距離は、それぞれD102・D103である。また、ヘッド101からZ方向に距離D1・D2となる位置(領域)をそれぞれ破線D1a・D2aで示す。ヘッド101に対して、明部と暗部との境界を得る精度が許容範囲となる距離が存在する。ここでは、図5の(a)の光パターンを投影した場合、当該距離は、D1からD2の間であるものとする。つまり、対象物102は、当該距離D1aとD2aとの間にある。光パターンのぼけ量に係るコントラストCは、式(1)で表される。ここで、図4は、計測部と対象物との距離とコントラストとの関係を例示する図である。
C=(Imax−Imin)/(Imax+Imin)・・・(1)
When the light pattern is blurred because the distance between the measurement unit and the object is not within the allowable range, the accuracy of obtaining the boundary between the bright part and the dark part may be disadvantageous. FIG. 3 is a diagram illustrating the positional relationship between the measurement unit and the object. The distances in the Z direction between the object 102 / object 103 and the head 101 are D102 / D103, respectively. Further, positions (areas) that are distances D1 and D2 in the Z direction from the head 101 are indicated by broken lines D1a and D2a, respectively. There is a distance with respect to the head 101 where the accuracy of obtaining the boundary between the bright part and the dark part is within an allowable range. Here, when the light pattern of FIG. 5A is projected, the distance is between D1 and D2. That is, the object 102 is between the distances D1a and D2a. The contrast C related to the blur amount of the light pattern is expressed by Expression (1). Here, FIG. 4 is a diagram illustrating the relationship between the distance between the measurement unit and the object and the contrast.
C = (Imax−Imin) / (Imax + Imin) (1)

図5は、光パターンとそれに対応する光強度分布とを例示する図である。同図の(a)の光パターンを対象物102(位置D102)に投影した場合の画像データを同図の(c)に示す。a102は、x方向に沿った画素値分布を示し、Imax・Iminは、それぞれ最大値・最小値を示す。同図の(a)の光パターンを対象物103(位置D103)に投影した場合の画像データを同図の(c)のa103に示す。図4の(a)において、横軸はヘッド101から対象物への距離、縦軸はコントラストを示す。caは、当該距離とコントラストとの関係を示す曲線である。図3に示す距離D102、D103でのコントラスト値は、それぞれ図4の(a)においてc102a、c103aである。ここで、明部と暗部との境界を得るのに必要なコントラストの閾値をS1で示している。   FIG. 5 is a diagram illustrating a light pattern and a corresponding light intensity distribution. Image data when the light pattern of (a) in the figure is projected onto the object 102 (position D102) is shown in (c) of the figure. a102 indicates a pixel value distribution along the x direction, and Imax and Imin indicate a maximum value and a minimum value, respectively. Image data when the light pattern of (a) in the figure is projected onto the object 103 (position D103) is shown as a103 in (c) of the figure. In FIG. 4A, the horizontal axis represents the distance from the head 101 to the object, and the vertical axis represents the contrast. ca is a curve indicating the relationship between the distance and the contrast. Contrast values at distances D102 and D103 shown in FIG. 3 are c102a and c103a in FIG. 4A, respectively. Here, a contrast threshold value necessary to obtain a boundary between the bright part and the dark part is indicated by S1.

対象物102は、c102a≧S1であるから、図5の(a)の光パターンで計測できる。一方、対象物103は、c103a<S1であるから、当該光パターンでは計測できない。このようにコントラスト(値)は、計測値の信頼度を表す指標として用いうる。   Since the object 102 satisfies c102a ≧ S1, it can be measured with the light pattern shown in FIG. On the other hand, the object 103 cannot be measured with the light pattern because c103a <S1. Thus, the contrast (value) can be used as an index representing the reliability of the measurement value.

そこで、図5の(a)の光パターンより空間周波数の低い同図の(b)の光パターンを対象物102、103に投影した場合の画像データを同図のb102、b103にそれぞれ示す。図4の(b)に示すcbは、ヘッド101からの距離とコントラストとの関係を示す曲線である。図3に示す距離D102、D103でのコントラスト値は、それぞれ図4の(b)においてc102b、c103bである。対象物102、103は、c102b≧S1、c103b≧S1であるから、図5の(b)の光パターンでともに計測できる。   Accordingly, image data when the light pattern of FIG. 5B having a lower spatial frequency than the light pattern of FIG. 5A is projected onto the objects 102 and 103 are shown in b102 and b103 of FIG. Cb shown in FIG. 4B is a curve showing the relationship between the distance from the head 101 and the contrast. Contrast values at distances D102 and D103 shown in FIG. 3 are c102b and c103b in FIG. 4B, respectively. Since the objects 102 and 103 satisfy c102b ≧ S1 and c103b ≧ S1, both can be measured with the light pattern of FIG. 5B.

計測装置の光学系の設計値から、図4に例示したような距離とコントラストとの関係は既知である。そのため、光パターンの空間周波数毎に、コントラストが許容条件を満たす(典型的には閾値以上となる)距離を予め求めてテーブルにし、当該テーブルを処理部3に記憶しておくことができる。または、対象物の存在する距離の範囲を分割して得られる複数の領域のそれぞれに関して、使用する(コントラストが閾値以上となる)光パターン(の空間周波数)を特定するようなテーブルも生成しうる。したがって、ヘッドからの距離(の範囲)の情報は、各光パターンでの計測値の信頼度(例えばコントラスト)を予測するための情報(第1情報)となりうる。また、当該テーブルの情報は、当該第1情報と当該信頼度との関係を示す情報(第2情報)となりうる。当該テーブルを用いた計測の例を、図6および図7を参照して説明する。図6は、パレットに搭載された対象物と計測部との距離を例示する図である。ヘッド101からパレットp1の上面までの距離をD104、重ねられた対象物の領域w1までの距離をD105、パレットp1の底面までの距離をD106とする。図4の(b)に示すD3ならびに、図4の(a)に示すD1およびD2は、D3<D104<D105<D1<D106<D2との関係を満たす。   From the design value of the optical system of the measuring device, the relationship between the distance and the contrast as illustrated in FIG. 4 is known. For this reason, for each spatial frequency of the light pattern, the distance that satisfies the acceptable condition (typically equal to or greater than the threshold value) can be obtained in advance and stored in the processing unit 3. Alternatively, a table that specifies the light pattern (the spatial frequency) to be used (contrast is equal to or higher than the threshold) can be generated for each of a plurality of regions obtained by dividing the range of the distance where the object exists. . Therefore, information on the distance (range) from the head can be information (first information) for predicting the reliability (for example, contrast) of the measurement value in each light pattern. The information in the table can be information (second information) indicating the relationship between the first information and the reliability. An example of measurement using the table will be described with reference to FIGS. FIG. 6 is a diagram illustrating the distance between the object mounted on the pallet and the measurement unit. The distance from the head 101 to the top surface of the pallet p1 is D104, the distance to the region w1 of the stacked object is D105, and the distance to the bottom surface of the pallet p1 is D106. D3 shown in FIG. 4B and D1 and D2 shown in FIG. 4A satisfy the relationship D3 <D104 <D105 <D1 <D106 <D2.

ここで、図7は、計測装置による処理の流れの例を示す図である。図7において、ステップs101で、処理部3は、例えば、ユーザ・インタフェースを提示し、それに対するユーザの操作を介して、対象物の存在する距離の範囲に係る情報(第1情報)を入力する。当該範囲は、例えば、対象物が存在する範囲D105からD106、またはパレットp1の範囲D104からD106としうる。ここでは、範囲D105からD106の情報を入力するものとする。   Here, FIG. 7 is a diagram illustrating an example of a flow of processing by the measurement device. In FIG. 7, in step s101, the processing unit 3 presents a user interface, for example, and inputs information (first information) related to the range of the distance where the object exists through a user operation on the user interface. . The range may be, for example, a range D105 to D106 where the object exists, or a range D104 to D106 of the pallet p1. Here, it is assumed that information in the range D105 to D106 is input.

ステップs102では、計測に用いる光パターンを特定する。処理部3は、上述のテーブル(第2情報)を参照して、光パターンの最高空間周波数を特定する。範囲D105からD106に関しては、光パターンの最高空間周波数は、図5の(b)のものである。ステップs103では、該当する光パターンを投影して撮像する。ステップs104では、ステップs103で得られた画像データに基づき、対象物表面の各点(各部)に関して距離の計測値を得、もって対象物の形状(位置・姿勢)を得る。ステップs105では、ステップs104で得られた情報に基づいて、不図示のロボットで把持可能な物体があるか判断する。把持可能な物体がない場合、ステップs107で終了を終了する。把持可能な物体が存在する場合、ステップs106で、当該物体を把持して所定の処理(例えば搬送)を行う。その後、ステップs103から処理を繰り返す。   In step s102, the light pattern used for measurement is specified. The processing unit 3 specifies the highest spatial frequency of the light pattern with reference to the table (second information) described above. For the ranges D105 to D106, the highest spatial frequency of the light pattern is that of FIG. In step s103, the corresponding light pattern is projected and imaged. In step s104, a distance measurement value is obtained for each point (each part) on the surface of the object based on the image data obtained in step s103, thereby obtaining the shape (position / posture) of the object. In step s105, it is determined based on the information obtained in step s104 whether there is an object that can be gripped by a robot (not shown). If there is no object that can be gripped, the process ends in step s107. If there is a grippable object, in step s106, the object is gripped and a predetermined process (for example, conveyance) is performed. Thereafter, the processing is repeated from step s103.

以上説明したように、本実施形態によれば、入力された距離の範囲に基づいて、計測に用いる光パターン(の最高空間周波数)を特定することにより、計測時間の点で有利な計測装置を提供することができる。   As described above, according to the present embodiment, by specifying the light pattern (the highest spatial frequency) used for measurement based on the input distance range, a measurement device advantageous in terms of measurement time can be obtained. Can be provided.

〔実施形態2〕
本実施形態では、実施形態1の構成に加えて、対象物の計測結果に基づいて光パターンの空間周波数を変更するようにしている。図8は、計測装置による処理の流れの別の例を示す図である。図8の各ステップのうち図7のステップとは異なるのはステップs102´のみである。最初のステップs102´の処理は、図7のステップs102のそれと同様である。ステップs106で対象物を把持して所定の処理を行った後、ステップs102´に戻る。2度目以後のステップs102´では、ステップs104での計測結果に基づいて、ステップs106で処理した物体がなくなった(搬送された)後の対象物の距離範囲を得る。そして、当該範囲に基づいて、上記のテーブル(実施形態1参照)を参照して、光パターンの最高空間周波数を特定する。計測開始の当初は図6のw1まで対象物が積み重ねられていたが、ステップs102´からs106までの処理を繰り返した後に、w2まで対象物が積み重ねられた状態になった場合を説明する。ここで、対象物の量が減ることによって、対象物の存在する範囲がw2までとなり、距離の範囲がD1からD106までとなる。よって、D1<D106<D2であって、D1からD2までは図5の(a)の光パターンでコントラストが閾値以上となるから、計測に用いる光パターンの最高空間周波数を図5の(a)に示すものに変更する。
[Embodiment 2]
In the present embodiment, in addition to the configuration of the first embodiment, the spatial frequency of the light pattern is changed based on the measurement result of the object. FIG. 8 is a diagram illustrating another example of the flow of processing by the measurement device. Of the steps in FIG. 8, only the step s102 ′ is different from the step in FIG. The process of the first step s102 ′ is the same as that of step s102 of FIG. In step s106, the object is gripped and a predetermined process is performed, and then the process returns to step s102 ′. In step s102 ′ after the second time, based on the measurement result in step s104, the distance range of the target object after the object processed in step s106 disappears (conveyed) is obtained. And based on the said range, with reference to said table (refer Embodiment 1), the highest spatial frequency of a light pattern is specified. Although the object has been stacked up to w1 in FIG. 6 at the beginning of measurement, a case will be described in which the object is stacked up to w2 after the processing from steps s102 ′ to s106 is repeated. Here, as the amount of the object decreases, the range in which the object exists is up to w2, and the distance range is from D1 to D106. Therefore, since D1 <D106 <D2 and the contrast from the D1 to D2 is equal to or higher than the threshold value in the light pattern of FIG. 5A, the highest spatial frequency of the light pattern used for measurement is shown in FIG. Change to the one shown in.

以上説明したように、本実施形態によれば、入力された距離の範囲および対象物の計測結果(第1情報の別の例)に基づいて、計測に用いる光パターン(の最高空間周波数)を特定することにより、計測時間の点で有利な計測装置を提供することができる。   As described above, according to the present embodiment, based on the input distance range and the measurement result of the object (another example of the first information), the light pattern (the highest spatial frequency) used for measurement is determined. By specifying, a measuring device that is advantageous in terms of measuring time can be provided.

〔実施形態3〕
本実施形態は、対象物の反射率に関する情報(第1情報の別の例)に基づいて光パターンの空間周波数を特定する。当該反射率は、対象物の色や材質、表面状態によって決まる。ここで、図7を参照して、実施形態1との相違点を説明する。本実施形態では、ステップs101において、距離の範囲の入力に替わり、対象物の反射率に関する情報を、例えば、ユーザ・インタフェースを介して入力する。ステップs102では、当該反射率に関する情報に基づいて、光パターン(の最高空間周波数)を特定する。そのためには、例えば、当該反射率に関する情報と信頼度が閾値以上となる最高空間周波数との関係をテーブル(第2情報)にし、当該テーブルを処理部3に記憶させておく。
[Embodiment 3]
In the present embodiment, the spatial frequency of the light pattern is specified based on information on the reflectance of the object (another example of the first information). The reflectance is determined by the color and material of the object and the surface state. Here, differences from the first embodiment will be described with reference to FIG. In the present embodiment, in step s101, instead of inputting the distance range, information related to the reflectance of the object is input via a user interface, for example. In step s102, the light pattern (its highest spatial frequency) is specified based on the information on the reflectance. For this purpose, for example, the relationship between the information on the reflectance and the highest spatial frequency at which the reliability is equal to or higher than the threshold value is made into a table (second information), and the table is stored in the processing unit 3.

以上説明したように、本実施形態によれば、入力された反射率に関する情報に基づいて、計測に用いる光パターン(の最高空間周波数)を特定することにより、計測時間の点で有利な計測装置を提供することができる。   As described above, according to the present embodiment, the measurement apparatus that is advantageous in terms of measurement time by specifying the light pattern (the highest spatial frequency) used for measurement based on the input information about the reflectance. Can be provided.

〔実施形態4〕
本実施形態では、距離の範囲の情報と対象物の反射率に関する情報とを第1情報とし、当該第1情報に基づいて光パターンの空間周波数を特定する。ここで、図7および図8を参照して、実施形態1ないし3との相違点を説明する。本実施形態では、ステップs101において、距離の範囲の情報と対象物の反射率に関する情報とを、例えば、ユーザ・インタフェースを介して入力する。ステップs102では、入力されたそれらの情報に基づいて、計測に用いる光パターン(の最高空間周波数)を特定する。そのためには、例えば、距離の範囲に関する情報と対象物の反射率に関する情報と信頼度が閾値以上となる最高空間周波数との関係をテーブル(第2情報)にし、当該テーブルを処理部3に記憶させておく。
[Embodiment 4]
In the present embodiment, the information on the distance range and the information on the reflectance of the object are set as the first information, and the spatial frequency of the light pattern is specified based on the first information. Here, differences from the first to third embodiments will be described with reference to FIGS. 7 and 8. In the present embodiment, in step s101, information on the distance range and information on the reflectance of the object are input via, for example, a user interface. In step s102, the light pattern (the highest spatial frequency) used for measurement is specified based on the input information. For this purpose, for example, a table (second information) is used as a table (second information) for the relationship between the distance range information, the information about the reflectance of the object, and the highest spatial frequency at which the reliability is equal to or greater than the threshold, and the table is stored in the processing unit 3 Let me.

以上説明したように、本実施形態によれば、入力された距離の範囲の情報と対象物の反射率に関する情報とに基づいて、計測に用いる光パターン(の最高空間周波数)を特定することにより、計測時間の点で有利な計測装置を提供することができる。   As described above, according to the present embodiment, by specifying the light pattern (the highest spatial frequency) used for measurement based on the input distance range information and the information on the reflectance of the object. It is possible to provide a measurement device that is advantageous in terms of measurement time.

〔実施形態5〕
本実施形態では、ユーザ・インタフェースを介した情報の入力に替わり、使用する光パターン(の最高空間周波数)を特定するための予備検出を行う。図9は、計測装置による処理の流れの別の例を示す図である。図9において、ステップs201では、予備検出を行う。当該予備検出は、図11を参照して説明する。ここで、図11は、予備検出における処理の流れを例示する図である。同図において、ステップs301では、最も高い空間周波数を有する光パターンを対象物に投影して撮像する。本実施形態では、図5の(a)の光パターンを投影する。ステップs302では、ステップs301での撮像により得られた画像のコントラストCを取得する。ステップs303では、ステップs302で得られたコントラストCが閾値以上か判断する。コントラスト値が閾値以上であれば、ステップs905において処理を終了する。その後は、図9におけるステップs202へ処理を進めることができる。
[Embodiment 5]
In this embodiment, instead of inputting information via the user interface, preliminary detection is performed to specify the light pattern to be used (its highest spatial frequency). FIG. 9 is a diagram illustrating another example of the flow of processing by the measurement device. In FIG. 9, preliminary detection is performed in step s201. The preliminary detection will be described with reference to FIG. Here, FIG. 11 is a diagram illustrating a flow of processing in the preliminary detection. In the figure, in step s301, a light pattern having the highest spatial frequency is projected onto an object and imaged. In the present embodiment, the light pattern shown in FIG. 5A is projected. In step s302, the contrast C of the image obtained by the imaging in step s301 is acquired. In step s303, it is determined whether the contrast C obtained in step s302 is greater than or equal to a threshold value. If the contrast value is greater than or equal to the threshold value, the process ends in step s905. Thereafter, the process can proceed to step s202 in FIG.

一方、ステップs303において、コントラスト値が閾値未満であると判断された場合、ステップs304に処理を進め、s303でコントラスト値が閾値未満と判断された光パターンの空間周波数より低い空間周波数を有する光パターンを投影して撮像する。ここで、例えば、図5の(a)の光パターンに関してコントラスト値が閾値未満であると判断された場合、図5の(b)の光パターンを投影する。そして、得られたコントラスト値が閾値以上となるまで、ステップs302ないしs304の処理を繰り返して行う。   On the other hand, if it is determined in step s303 that the contrast value is less than the threshold value, the process proceeds to step s304, and the light pattern having a spatial frequency lower than the spatial frequency of the light pattern in which the contrast value is determined to be less than the threshold value in s303. Is projected and imaged. Here, for example, when it is determined that the contrast value for the light pattern in FIG. 5A is less than the threshold value, the light pattern in FIG. 5B is projected. Then, the processes in steps s302 to s304 are repeated until the obtained contrast value is equal to or greater than the threshold value.

また、図10は、計測装置による処理の流れの別の例を示す図である。図10の各ステップのうち図9のステップとは異なるのはステップs202´のみである。最初のステップs202´の処理は、図9のステップs202のそれと同様である。ステップs106で対象物を把持して所定の処理を行った後、ステップs202´に戻る。2度目以後のステップs202´では、ステップs104での計測結果に基づいて、ステップs106で処理した物体がなくなった(搬送された)後の対象物の距離範囲(第1情報)を得る。そして、当該範囲に基づいて、上記のテーブル(実施形態1参照)を参照して、光パターンの最高空間周波数を特定する。   FIG. 10 is a diagram showing another example of the flow of processing by the measuring device. Of the steps in FIG. 10, only the step s202 ′ is different from the step in FIG. The process of the first step s202 ′ is the same as that of step s202 of FIG. In step s106, the object is gripped and a predetermined process is performed, and then the process returns to step s202 ′. In step s202 ′ after the second time, based on the measurement result in step s104, the distance range (first information) of the object after the object processed in step s106 disappears (conveyed) is obtained. And based on the said range, with reference to said table (refer Embodiment 1), the highest spatial frequency of a light pattern is specified.

以上説明したように、本実施形態によれば、予備検出(の結果)に基づいて、計測に用いる光パターン(の最高空間周波数)を特定することにより、計測時間の点で有利な計測装置を提供することができる。   As described above, according to the present embodiment, by specifying the light pattern (the highest spatial frequency) used for measurement based on (results of) preliminary detection, a measurement apparatus advantageous in terms of measurement time can be obtained. Can be provided.

〔変形例〕
信頼度(の指標)は、コントラストには限定されず、画像データのコントラスト、勾配またはレンジ(極大値と極小値との差、等)のうちの少なくともいずれかを含みうる。また、画像データのS/N比に係る他の指標であってもよい。計測値の信頼度を予測するための情報と使用する光パターン(の最高空間周波数)との関係を示すテーブル(第2情報)は、関係式(数式)であってもよい。また、第2情報は、テーブルおよび式の双方で構成されていてもよい。ユーザ・インタフェースを介して入力する情報は、光パターンの空間周波数に相当するものであってもよい。また、計測装置は、対象物の存在する距離の範囲または対象物の反射率のうちの少なくともいずれかを検出する検出部を備え、当該検出部により予備検出(ステップs201)が行われてもよい。
[Modification]
The reliability (index) is not limited to contrast, and may include at least one of contrast, gradient, and range (difference between local maximum and local minimum, etc.) of image data. Further, it may be another index related to the S / N ratio of image data. The table (second information) indicating the relationship between the information for predicting the reliability of the measured value and the light pattern to be used (its highest spatial frequency) may be a relational expression (formula). The second information may be configured by both a table and an expression. Information input via the user interface may correspond to the spatial frequency of the light pattern. Further, the measuring device may include a detection unit that detects at least one of a distance range where the object exists and a reflectance of the object, and preliminary detection (step s201) may be performed by the detection unit. .

予備検出は、各光パターンに関して画像データの信頼度を得て信頼度が閾値以上である光パターンを特定する特許文献1の計測装置における方式を利用しても行いうる。例えば、図6に示したような、パレットに搭載された複数の対象物を順次計測して搬出する場合、まず、パレットに搭載されたすべての対象物が搬出されるまで、特許文献1の方法により光パターンを特定しながら、複数の対象物を順次計測して搬出する。そして、当該一連の計測により得られた信頼度と計測結果とに基づいて、対象物の存在する距離の範囲に関する情報(第1情報)と信頼度との関係を示す情報(第2情報)を生成する。その後、同様の対象物の計測は、当該第2情報に基づいて行いうる。この場合、第1情報は、必ずしも必要ではない。しかし、対象物までの距離の初期値を、上述のようなユーザ・インタフェースまたは検出部を介して、第1情報として取得し利用し得る。また、計測結果に基づいて得られる(見積もられる)対象物までの距離の情報を第1情報として取得し利用しうる。   Preliminary detection can also be performed using the method in the measurement apparatus of Patent Document 1 that obtains the reliability of image data for each light pattern and identifies the light pattern having a reliability equal to or higher than a threshold. For example, when a plurality of objects mounted on a pallet are sequentially measured and carried out as shown in FIG. 6, first, the method of Patent Document 1 is carried out until all the objects mounted on the pallet are carried out. A plurality of objects are sequentially measured and carried out while specifying the light pattern by. And based on the reliability and measurement results obtained by the series of measurements, information (second information) indicating the relationship between the information about the range of the distance where the object exists (first information) and the reliability is obtained. Generate. Thereafter, the measurement of the same object can be performed based on the second information. In this case, the first information is not always necessary. However, the initial value of the distance to the object can be acquired and used as the first information via the user interface or the detection unit as described above. In addition, information on the distance to the target obtained (estimated) based on the measurement result can be acquired and used as the first information.

また、光パターン(の空間周波数)の特定を行う処理部3は、通信デバイスによりヘッド10と通信可能であればよく、その設置場所は問わない。また、上記のテーブルまたは関係式を記憶するのは、処理部3とは別の情報処理装置であってもよい。さらに、対象物を把持して行う所定の処理は、搬送には限定されず、例えば、加工、切断、組立(組付)、検査、および選別のうちの少なくともいずれか一つを含みうる。   In addition, the processing unit 3 that identifies the light pattern (spatial frequency) may be any place as long as it can communicate with the head 10 by a communication device, and the installation location is not limited. Further, the information processing apparatus different from the processing unit 3 may store the table or the relational expression. Furthermore, the predetermined process performed by grasping the object is not limited to the conveyance, and may include, for example, at least one of processing, cutting, assembly (assembly), inspection, and selection.

〔物品製造方法に係る実施形態〕
以上に説明した実施形態に係る計測(検査)装置は、物品製造方法に使用しうる。当該物品製造方法は、当該計測(検査)装置を用いて物体の計測(検査)を行う工程と、当該工程で計測(検査)を行われた物体を処理する工程と、を含みうる。当該処理は、例えば、加工、切断、搬送、組立(組付)、検査、および選別のうちの少なくともいずれか一つを含みうる。本実施形態の物品製造方法は、従来の方法に比べて、物品の性能・品質・生産性・生産コストのうちの少なくとも1つにおいて有利である。
[Embodiment related to article manufacturing method]
The measurement (inspection) apparatus according to the embodiment described above can be used in an article manufacturing method. The article manufacturing method may include a step of measuring (inspecting) an object using the measurement (inspection) apparatus, and a step of processing the object that has been measured (inspected) in the step. The process can include, for example, at least one of processing, cutting, conveyance, assembly (assembly), inspection, and selection. The article manufacturing method of the present embodiment is advantageous in at least one of the performance, quality, productivity, and production cost of the article as compared with the conventional method.

以上、本発明の好ましい実施形態について説明したが、本発明はこれらの実施形態に限定されないことはいうまでもなく、その要旨の範囲内で種々の変形および変更が可能である。   As mentioned above, although preferred embodiment of this invention was described, it cannot be overemphasized that this invention is not limited to these embodiment, A various deformation | transformation and change are possible within the range of the summary.

1 投影部
2 撮像部
3 処理部
DESCRIPTION OF SYMBOLS 1 Projection part 2 Imaging part 3 Processing part

Claims (14)

光パターンを対象物に投影する投影部と、
前記光パターンを投影された前記対象物を撮像して画像データを出力する撮像部と、
前記画像データに基づいて前記対象物の距離の計測値を得る処理部と、
を有する計測装置であって、
前記処理部は、
前記計測値の信頼度を予測するための第1情報と該信頼度との関係を示す第2情報に基づいて、前記光パターンの空間周波数を特定する、
ことを特徴とする計測装置。
A projection unit for projecting a light pattern onto an object;
An imaging unit that images the object projected with the light pattern and outputs image data;
A processing unit for obtaining a measurement value of the distance of the object based on the image data;
A measuring device having
The processor is
Identifying the spatial frequency of the light pattern based on the first information for predicting the reliability of the measurement value and the second information indicating the relationship between the reliability,
A measuring device characterized by that.
前記処理部は、さらに前記第1情報に基づいて前記空間周波数を特定することを特徴とする請求項1に記載の計測装置。   The measurement apparatus according to claim 1, wherein the processing unit further specifies the spatial frequency based on the first information. 前記処理部は、前記信頼度が許容条件を満たすように、前記空間周波数を特定することを特徴とする請求項1または請求項2に記載の計測装置。   The measuring apparatus according to claim 1, wherein the processing unit specifies the spatial frequency so that the reliability satisfies an allowable condition. 前記処理部は、前記第1情報に関して得られた前記画像データに基づいて前記信頼度を得て前記第2情報を生成することを特徴とする請求項1ないし請求項3のうちいずれか1項に記載の計測装置。   The said process part produces | generates the said 2nd information by obtaining the said reliability based on the said image data obtained regarding the said 1st information, The any one of Claim 1 thru | or 3 characterized by the above-mentioned. The measuring device described in 1. 前記処理部は、前記第1情報として、前記対象物の存在する距離の範囲または前記対象物の反射率のうちの少なくともいずれかを取得することを特徴とする請求項1ないし請求項4のうちいずれか1項に記載の計測装置。   The processing unit obtains, as the first information, at least one of a distance range where the object exists and a reflectance of the object. The measuring apparatus of any one of Claims. 前記第1情報を入力するためのユーザ・インタフェースを有し、
前記処理部は、前記ユーザ・インタフェースを介して前記第1情報を取得する、
ことを特徴とする請求項1ないし請求項5のうちいずれか1項に記載の計測装置。
A user interface for inputting the first information;
The processing unit obtains the first information via the user interface;
The measuring apparatus according to claim 1, wherein the measuring apparatus is one of the following.
前記少なくともいずれかを検出する検出部を有し、
前記処理部は、前記検出部を介して前記第1情報を取得する、
ことを特徴とする請求項5に記載の計測装置。
A detection unit for detecting at least one of the above,
The processing unit acquires the first information through the detection unit.
The measuring apparatus according to claim 5.
前記処理部は、さらに前記計測値に基づいて前記空間周波数を特定することを特徴とする請求項1ないし請求項7のうちいずれか1項に記載の計測装置。   The measurement apparatus according to claim 1, wherein the processing unit further specifies the spatial frequency based on the measurement value. 前記信頼度は、前記画像データのコントラスト、勾配、またはレンジのうちの少なくともいずれかを含むことを特徴とする請求項1ないし請求項8のうちいずれか1項に記載の計測装置。   The measurement apparatus according to claim 1, wherein the reliability includes at least one of a contrast, a gradient, and a range of the image data. 前記第2情報は、前記光パターンの各空間周波数に関して前記関係を示すテーブルまたは式のうちの少なくともいずれかを含むことを特徴とする請求項1ないし請求項9のうちいずれか1項に記載の計測装置。   10. The device according to claim 1, wherein the second information includes at least one of a table or an expression indicating the relationship with respect to each spatial frequency of the light pattern. Measuring device. 前記処理部は、前記対象物の存在する距離の範囲を分割して得られる複数の領域のそれぞれに関して前記空間周波数を特定することを特徴とする請求項1ないし請求項10のうちいずれか1項に記載の計測装置。   The said processing part specifies the said spatial frequency regarding each of several area | region obtained by dividing | segmenting the range of the distance in which the said object exists, The any one of Claim 1 thru | or 10 characterized by the above-mentioned. The measuring device described in 1. 前記投影部は、前記光パターンを第1方向から前記対象物に投影し、
撮像部は、前記光パターンを投影された前記対象物を第2方向から撮像する、
ことを特徴とする請求項1ないし請求項11のうちいずれか1項に記載の計測装置。
The projection unit projects the light pattern onto the object from a first direction,
The imaging unit images the object on which the light pattern is projected from a second direction.
The measuring device according to claim 1, wherein the measuring device is any one of claims 1 to 11.
請求項1ないし請求項12のうちいずれか1項に記載の計測装置を用いて対象物の計測を行う工程と、
前記工程で前記計測を行われた前記対象物の処理を行う工程と、
を含むことを特徴とする物品製造方法。
A step of measuring an object using the measuring device according to any one of claims 1 to 12,
A step of processing the object subjected to the measurement in the step;
An article manufacturing method comprising:
光パターンを対象物に投影し、
前記光パターンを投影された前記対象物を撮像して画像データを得、
前記画像データに基づいて前記対象物の距離の計測値を得る計測方法であって、
前記計測値の信頼度を予測するための第1情報と該信頼度との関係を示す第2情報に基づいて、前記光パターンの空間周波数を特定する、
ことを特徴とする計測方法。
Project a light pattern onto the object,
Image data obtained by imaging the object projected with the light pattern,
A measurement method for obtaining a measurement value of the distance of the object based on the image data,
Identifying the spatial frequency of the light pattern based on the first information for predicting the reliability of the measurement value and the second information indicating the relationship between the reliability,
A measuring method characterized by this.
JP2015132149A 2015-06-30 2015-06-30 Measuring device and article manufacturing method Expired - Fee Related JP6525770B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015132149A JP6525770B2 (en) 2015-06-30 2015-06-30 Measuring device and article manufacturing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015132149A JP6525770B2 (en) 2015-06-30 2015-06-30 Measuring device and article manufacturing method

Publications (2)

Publication Number Publication Date
JP2017015545A true JP2017015545A (en) 2017-01-19
JP6525770B2 JP6525770B2 (en) 2019-06-05

Family

ID=57830508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015132149A Expired - Fee Related JP6525770B2 (en) 2015-06-30 2015-06-30 Measuring device and article manufacturing method

Country Status (1)

Country Link
JP (1) JP6525770B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7319913B2 (en) 2018-12-31 2023-08-02 株式会社ミツトヨ METHOD FOR MEASURING Z-HEIGHT VALUE OF WORKPIECE SURFACE USING MACHINE VISION INSPECTION SYSTEM

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001004337A (en) * 1999-06-25 2001-01-12 Fuji Photo Film Co Ltd Specimen inspecting device equipped with carrier stripe generating means
JP2007511758A (en) * 2003-11-14 2007-05-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus and method for determining the focus of an imaging system
JP2008241483A (en) * 2007-03-27 2008-10-09 Matsushita Electric Works Ltd Three-dimensional measurement method and three-dimensional shape measuring apparatus using the same
WO2012057284A1 (en) * 2010-10-27 2012-05-03 株式会社ニコン Three-dimensional shape measurement device, three-dimensional shape measurement method, manufacturing method of structure, and structure manufacturing system
JP2012521005A (en) * 2009-03-19 2012-09-10 ゼネラル・エレクトリック・カンパニイ Optical gauge and three-dimensional surface profile measuring method
JP2015501933A (en) * 2011-11-23 2015-01-19 ザ・トラスティーズ・オブ・コロンビア・ユニバーシティ・イン・ザ・シティ・オブ・ニューヨーク System, method and medium for shape measurement

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001004337A (en) * 1999-06-25 2001-01-12 Fuji Photo Film Co Ltd Specimen inspecting device equipped with carrier stripe generating means
JP2007511758A (en) * 2003-11-14 2007-05-10 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Apparatus and method for determining the focus of an imaging system
JP2008241483A (en) * 2007-03-27 2008-10-09 Matsushita Electric Works Ltd Three-dimensional measurement method and three-dimensional shape measuring apparatus using the same
JP2012521005A (en) * 2009-03-19 2012-09-10 ゼネラル・エレクトリック・カンパニイ Optical gauge and three-dimensional surface profile measuring method
WO2012057284A1 (en) * 2010-10-27 2012-05-03 株式会社ニコン Three-dimensional shape measurement device, three-dimensional shape measurement method, manufacturing method of structure, and structure manufacturing system
JP2015501933A (en) * 2011-11-23 2015-01-19 ザ・トラスティーズ・オブ・コロンビア・ユニバーシティ・イン・ザ・シティ・オブ・ニューヨーク System, method and medium for shape measurement

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7319913B2 (en) 2018-12-31 2023-08-02 株式会社ミツトヨ METHOD FOR MEASURING Z-HEIGHT VALUE OF WORKPIECE SURFACE USING MACHINE VISION INSPECTION SYSTEM

Also Published As

Publication number Publication date
JP6525770B2 (en) 2019-06-05

Similar Documents

Publication Publication Date Title
US9857166B2 (en) Information processing apparatus and method for measuring a target object
KR101257188B1 (en) Three-dimensional shape measuring device, three-dimensional shape measuring method, and computer readable recording medium for three-dimessional shape measuring program
US9536295B2 (en) Three-dimensional image processing apparatus, three-dimensional image processing method, three-dimensional image processing program, computer-readable recording medium, and recording device
JP6548422B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM
JP6465682B2 (en) Information processing apparatus, information processing method, and program
JP6478725B2 (en) Measuring device and robot
US20160267668A1 (en) Measurement apparatus
JP2016053558A (en) Inspection method
JP2016200503A (en) Measuring device for measuring shape of measurement object
JP6648869B2 (en) Shape inspection device and shape inspection method
KR20120089541A (en) Method and system for wafer registration
JP2019158351A (en) Object recognition method, height measurement method, and three-dimensional measurement method
JP2014215163A (en) Inspection apparatus
US20160253815A1 (en) Measurement apparatus
US10016862B2 (en) Measurement apparatus, calculation method, system, and method of manufacturing article
JP6525770B2 (en) Measuring device and article manufacturing method
JP2017198470A (en) Measurement device, measurement method, system, and goods manufacturing method
KR20190032486A (en) Measuring apparatus, exposure apparatus, and manufacturing method of article
JP2016017839A (en) Defect inspection device and defect inspection method
JP6566903B2 (en) Surface defect detection method and surface defect detection apparatus
JP2019045346A (en) Inspection device
JP7272419B2 (en) image capture device
JP2011252835A (en) Three dimensional shape measuring device
JP6780533B2 (en) Shape measurement system and shape measurement method
JP5418763B2 (en) Method and apparatus for visual inspection of long objects

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180601

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190402

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190507

R151 Written notification of patent or utility model registration

Ref document number: 6525770

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees