JP6773531B2 - Information processing equipment and programs - Google Patents

Information processing equipment and programs Download PDF

Info

Publication number
JP6773531B2
JP6773531B2 JP2016224773A JP2016224773A JP6773531B2 JP 6773531 B2 JP6773531 B2 JP 6773531B2 JP 2016224773 A JP2016224773 A JP 2016224773A JP 2016224773 A JP2016224773 A JP 2016224773A JP 6773531 B2 JP6773531 B2 JP 6773531B2
Authority
JP
Japan
Prior art keywords
measurement
image
measurement object
calibration
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016224773A
Other languages
Japanese (ja)
Other versions
JP2018081042A (en
Inventor
佐藤 正明
正明 佐藤
宮倉 常太
常太 宮倉
正意 山縣
正意 山縣
賢太郎 根本
賢太郎 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitutoyo Corp
Original Assignee
Mitutoyo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitutoyo Corp filed Critical Mitutoyo Corp
Priority to JP2016224773A priority Critical patent/JP6773531B2/en
Publication of JP2018081042A publication Critical patent/JP2018081042A/en
Application granted granted Critical
Publication of JP6773531B2 publication Critical patent/JP6773531B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、情報処理装置及びプログラムに関する。 The present invention relates to an information processing device and a program.

従来、測定対象物にレーザ光を照射し、測定対象物の表面から反射した光を検出することにより、測定対象物の各部の位置座標等を取得する非接触型の測定技術が知られている(特許文献1)。 Conventionally, a non-contact type measurement technique is known in which a measurement object is irradiated with a laser beam and the light reflected from the surface of the measurement object is detected to acquire the position coordinates of each part of the measurement object. (Patent Document 1).

特許第5869281号公報Japanese Patent No. 5869281

このような技術は光切断法として知られている。光切断法においては、レーザ光等の測定光が照射された測定対象物を撮像した画像を解析して測定光の位置を特定し、三角測量の原理を用いて測定対象物の形状を測定する。ここで、測定対象物を撮像する撮像装置の光軸に対して測定対象物の表面が垂直ではない場合、垂直である場合と比べて、その領域は狭く撮像される。 Such a technique is known as an optical cutting method. In the optical cutting method, the position of the measurement light is specified by analyzing the image of the measurement target irradiated with the measurement light such as laser light, and the shape of the measurement target is measured using the principle of triangulation. .. Here, when the surface of the measurement object is not perpendicular to the optical axis of the image pickup device that images the measurement object, the region is narrower than when it is vertical.

解析対象の領域が狭くなると、一般に画像解析の精度が低下する。すなわち、上記のような技術においては、測定対象物の傾斜角が大きい箇所において系統誤差を持つことになる。このように、光切断法においては測定対象物の測定精度の向上や測定結果の補正等、改善の余地があると考えられる。 When the area to be analyzed becomes narrower, the accuracy of image analysis generally decreases. That is, in the above technique, there is a systematic error at a place where the inclination angle of the object to be measured is large. As described above, it is considered that there is room for improvement in the optical cutting method, such as improvement of measurement accuracy of the object to be measured and correction of measurement results.

本発明はこれらの点に鑑みてなされたものであり、光切断法において測定対象物の傾斜に由来する系統誤差を推定する技術を提供することを目的とする。 The present invention has been made in view of these points, and an object of the present invention is to provide a technique for estimating a systematic error due to an inclination of an object to be measured in an optical cutting method.

本発明の第1の態様は、情報処理装置である。この装置は、測定光が照射された校正用測定対象物を撮像して得られた校正用測定画像を取得する画像取得部と、前記校正用測定画像を解析して前記校正用測定対象物の立体形状を特定する形状特定部と、前記形状特定部が特定した前記校正用測定対象物の立体形状と、前記校正用測定対象物の実形状との誤差である系統誤差を算出する誤差算出部と、前記校正用測定画像において前記測定光が撮像されている領域の画素値のプロファイルの非対称性を示す指標値を算出する指標算出部と、前記校正用測定画像において前記非対称性を示す指標値を算出した位置における前記系統誤差を、前記指標値を変数とする奇数次の多項式で近似した場合における当該多項式の係数を算出する係数算出部と、を備える。 The first aspect of the present invention is an information processing device. This device has an image acquisition unit that acquires a calibration measurement image obtained by imaging a calibration measurement object irradiated with measurement light, and an image acquisition unit that analyzes the calibration measurement image and analyzes the calibration measurement object. An error calculation unit that calculates a systematic error that is an error between the shape specifying unit that specifies the three-dimensional shape, the three-dimensional shape of the calibration measurement object specified by the shape specifying unit, and the actual shape of the calibration measurement object. An index calculation unit that calculates an index value indicating the asymmetry of the profile of the pixel value in the region where the measurement light is captured in the calibration measurement image, and an index value indicating the asymmetry in the calibration measurement image. It is provided with a coefficient calculation unit for calculating the coefficient of the polymorphism when the systematic error at the position where the above is calculated is approximated by an odd-order polymorphism having the index value as a variable.

前記画像取得部は、前記測定光が照射された測定対象物を撮像して得られた未知測定画像をさらに取得してもよく、前記形状特定部は、前記未知測定画像を解析して前記測定対象物の立体形状を特定してもよく、前記指標算出部は、前記未知測定画像において前記測定光が撮像されている領域の画素値のプロファイルの非対称性を示す指標値を算出してもよく、前記情報処理装置はさらに、前記係数算出部が算出した係数で定められる前記多項式を用いて近似した前記系統誤差に基づいて、前記形状特定部が特定した前記測定対象物の立体形状を修正する修正部を備えてもよい。 The image acquisition unit may further acquire an unknown measurement image obtained by imaging a measurement object irradiated with the measurement light, and the shape specifying unit analyzes the unknown measurement image to perform the measurement. The three-dimensional shape of the object may be specified, and the index calculation unit may calculate an index value indicating the asymmetry of the profile of the pixel value in the region where the measurement light is captured in the unknown measurement image. The information processing apparatus further corrects the three-dimensional shape of the measurement object specified by the shape specifying unit based on the systematic error approximated using the polynomial defined by the coefficient calculated by the coefficient calculating unit. A correction unit may be provided.

前記修正部は、前記係数算出部が算出した係数で定められる前記多項式を用いて近似した前記系統誤差が所定の閾値よりも大きい場合、前記測定対象物の立体形状を特定するためのデータから除外してもよい。 When the systematic error approximated by using the polynomial defined by the coefficient calculated by the coefficient calculation unit is larger than a predetermined threshold value, the correction unit is excluded from the data for specifying the three-dimensional shape of the measurement object. You may.

前記係数算出部は、aを前記指標値、cを多項式の係数、Mを0以上の自然数としたとき、前記系統誤差δを、
で表される式を用いて近似してもよい。
The coefficient calculation unit, wherein the a index value, the polynomial coefficients a c i, when a natural number of 0 or more M, the systematic error [delta],
It may be approximated by using the formula represented by.

本発明の第2の態様は、プログラムである。このプログラムはコンピュータに、測定光が照射された校正用測定対象物を撮像して得られた校正用測定画像を取得する機能と、前記校正用測定画像を解析して前記校正用測定対象物の立体形状を特定する機能と、特定した前記校正用測定対象物の立体形状と、前記校正用測定対象物の実形状との誤差である系統誤差を算出する機能と、前記校正用測定画像において前記測定光が撮像されている領域の画素値のプロファイルの非対称性を示す指標値を算出する機能と、前記校正用測定画像において前記非対称性を示す指標値を算出した位置における前記系統誤差を、前記指標値に関する奇数次の多項式で近似した場合における当該多項式の係数を算出する機能と、を実現させる。 A second aspect of the present invention is a program. This program has a function of acquiring a calibration measurement image obtained by imaging a calibration measurement object irradiated with measurement light and analyzing the calibration measurement image to obtain the calibration measurement object. The function of specifying the three-dimensional shape, the function of calculating the systematic error which is the error between the specified three-dimensional shape of the measurement object for calibration and the actual shape of the measurement object for calibration, and the above-mentioned in the measurement image for calibration. The function of calculating the index value indicating the asymmetry of the profile of the pixel value in the region where the measurement light is imaged, and the systematic error at the position where the index value indicating the asymmetry is calculated in the calibration measurement image are described. The function of calculating the coefficient of the polynomial when approximated by an odd-order polynomial with respect to the index value is realized.

このプログラムは、計測装置や情報処理装置等のハードウェア資源の基本的な制御を行うために機器に組み込まれるファームウェアの一部として提供されてもよい。このファームウェアは、例えば、機器内のROM(Read Only Memory)やフラッシュメモリなどの半導体メモリに格納される。このファームウェアを提供するため、あるいはファームウェアの一部をアップデートするために、このプログラムを記録したコンピュータ読み取り可能な記録媒体が提供されてもよく、また、このプログラムが通信回線で伝送されてもよい。 This program may be provided as part of the firmware built into the device to perform basic control of hardware resources such as measuring devices and information processing devices. This firmware is stored in a semiconductor memory such as a ROM (Read Only Memory) or a flash memory in the device, for example. In order to provide this firmware or to update a part of the firmware, a computer-readable recording medium on which the program is recorded may be provided, or the program may be transmitted over a communication line.

なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、コンピュータプログラム、データ構造、記録媒体などの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above components and the conversion of the expression of the present invention between methods, devices, systems, computer programs, data structures, recording media and the like are also effective as aspects of the present invention.

本発明によれば、光切断法において測定対象物Wの傾斜に由来する系統誤差を推定する技術を提供することができる。 According to the present invention, it is possible to provide a technique for estimating a systematic error due to the inclination of the measurement object W in the optical cutting method.

実施の形態に係る計測システムの全体構成を模式的に示す図である。It is a figure which shows typically the whole structure of the measurement system which concerns on embodiment. 実施の形態に係る情報処理装置が実行する解析処理の一例を説明するための図である。It is a figure for demonstrating an example of the analysis processing executed by the information processing apparatus which concerns on embodiment. 実施の形態に係る情報処理装置の機能構成を模式的に示す図である。It is a figure which shows typically the functional structure of the information processing apparatus which concerns on embodiment. 校正用測定画像とその画像における画素値のプロファイルの一例を示す図である。It is a figure which shows an example of the measurement image for calibration and the profile of the pixel value in the image. 実施の形態に係る修正部による系統誤差の低減効果の一例を示す図である。It is a figure which shows an example of the effect of reducing the systematic error by the correction part which concerns on embodiment. 実施の形態に係る情報処理装置が実行する係数決定処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the coefficient determination process executed by the information processing apparatus which concerns on embodiment. 実施の形態に係る情報処理装置が実行する形状修正処理の流れを説明するためのフローチャートである。It is a flowchart for demonstrating the flow of the shape correction processing executed by the information processing apparatus which concerns on embodiment.

<実施の形態の概要>
以下図1を参照して、実施の形態の概要を述べる。
図1は、実施の形態に係る計測システムMSの全体構成を模式的に示す図である。計測システムMSは、計測装置1、情報処理装置2及び表示装置3を含む。
<Outline of the embodiment>
An outline of the embodiment will be described below with reference to FIG.
FIG. 1 is a diagram schematically showing an overall configuration of a measurement system MS according to an embodiment. The measurement system MS includes a measurement device 1, an information processing device 2, and a display device 3.

計測装置1は、光学式プローブ11と台12とを備える。光学式プローブ11は、測定対象物Wの表面を走査し、測定対象物Wの表面の位置座標を測定する。このため計測装置1は、光源111と撮像部112とを含む。台12は、計測対象とする測定対象物Wを載置して固定するための台である。光学式プローブ11は台12に対して平行な方向(図1中矢印Aで示す方向)に移動自在である。なお、図示はしないが、計測装置1はアーム式三次元測定機であってもよい。この場合、光学式プローブ11は、台12に対して平行な方向以外の方向に移動することもできる。 The measuring device 1 includes an optical probe 11 and a base 12. The optical probe 11 scans the surface of the measurement object W and measures the position coordinates of the surface of the measurement object W. Therefore, the measuring device 1 includes a light source 111 and an imaging unit 112. The table 12 is a table on which the measurement object W to be measured is placed and fixed. The optical probe 11 is movable in a direction parallel to the base 12 (direction indicated by an arrow A in FIG. 1). Although not shown, the measuring device 1 may be an arm-type coordinate measuring machine. In this case, the optical probe 11 can also move in a direction other than the direction parallel to the table 12.

光源111は、測定光(例えばラインレーザ)を照射することができる。また撮像部112は、例えばCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等の既知の固体撮像素子である。撮像部112は、測定対象物Wを被写体に含む画像(以下「測定画像」と記載する。)を撮像する。 The light source 111 can irradiate the measurement light (for example, a line laser). The image pickup unit 112 is a known solid-state image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor. The imaging unit 112 captures an image (hereinafter, referred to as “measurement image”) including the measurement object W as a subject.

光学式プローブ11は、光源111が測定光を台12に向けて照射している状態で、移動しながら撮像部112に測定対象物Wを撮像させる。これにより、撮像部112は、測定対象物Wの表面の各部に測定光が照射されている状態の測定対象物Wを被写体に含む測定画像を撮像することができる。 The optical probe 11 causes the imaging unit 112 to image the measurement object W while moving while the light source 111 irradiates the measurement light toward the table 12. As a result, the imaging unit 112 can capture a measurement image including the measurement object W in a state where each portion of the surface of the measurement object W is irradiated with the measurement light.

情報処理装置2は、例えばデスクトップPC(Personal Computer)やノートPC、ワークステーション等の計算機である。情報処理装置2は計測装置1と有線又は無線で接続されており、形状計測のための測定光が照射された測定対象物Wを撮像して得られた測定画像を計測装置1から取得する。表示装置3は情報処理装置2のモニタであり、情報処理装置2が取得した測定画像や、解析結果を示す画像等を表示することができる。 The information processing device 2 is, for example, a computer such as a desktop PC (Personal Computer), a notebook PC, or a workstation. The information processing device 2 is connected to the measuring device 1 by wire or wirelessly, and acquires a measurement image obtained by imaging the measurement object W irradiated with the measurement light for shape measurement from the measuring device 1. The display device 3 is a monitor of the information processing device 2, and can display a measurement image acquired by the information processing device 2, an image showing an analysis result, and the like.

図1において、実線で示す拡大領域C1は、計測装置1において測定対象物W及び撮像部112を含むワーク領域C2の拡大図である。拡大領域C1において、破線で示す実光路L1は、測定対象物Wが存在する場合における測定光の光路である。一方一点鎖線で示す仮想光路L2は、測定対象物Wが存在しない場合における測定光の光路である。 In FIG. 1, the enlarged area C1 shown by the solid line is an enlarged view of the work area C2 including the measurement object W and the imaging unit 112 in the measuring device 1. In the enlarged region C1, the actual optical path L1 shown by the broken line is the optical path of the measurement light when the measurement object W is present. On the other hand, the virtual optical path L2 indicated by the alternate long and short dash line is the optical path of the measurement light when the measurement object W does not exist.

既知の技術であるため詳細な説明は省略するが、拡大領域C1に示すように、測定光の光路は測定対象物Wが存在する場合と存在しない場合とで異なる。結果として、測定対象物Wが存在する場合と存在しない場合とでは、測定光が撮像部112の画像素子上において結像する位置が異なる。すなわち、測定対象物Wの高さHの情報は、撮像部112が撮像した測定画像における測定光の位置のずれDに変換される。したがって、情報処理装置2は計測装置1が撮像した測定画像を解析することにより、測定対象物Wの立体形状を計測することができる。 Since it is a known technique, detailed description thereof will be omitted, but as shown in the enlarged region C1, the optical path of the measurement light differs depending on whether the measurement object W is present or not. As a result, the position where the measurement light is imaged on the image element of the image pickup unit 112 differs depending on whether the measurement object W is present or not. That is, the information on the height H of the measurement object W is converted into the deviation D of the position of the measurement light in the measurement image captured by the imaging unit 112. Therefore, the information processing device 2 can measure the three-dimensional shape of the measurement object W by analyzing the measurement image captured by the measurement device 1.

図2(a)―(b)は、実施の形態に係る情報処理装置2が実行する解析処理の一例を説明するための図である。より具体的には、図2(a)は計測装置1における撮像部112が撮像した測定画像の一例を示す図である。また図2(b)は、撮像部112が測定撮像した画像における測定光のプロファイルを示す図である。 2 (a)-(b) are diagrams for explaining an example of analysis processing executed by the information processing apparatus 2 according to the embodiment. More specifically, FIG. 2A is a diagram showing an example of a measurement image captured by the imaging unit 112 in the measuring device 1. Further, FIG. 2B is a diagram showing a profile of the measurement light in the image measured and captured by the imaging unit 112.

図2(a)には、光源111が測定光としてラインレーザを照射した場合の測定画像を示している。ラインレーザは直線形状の光であるため、測定対象物Wが存在しない場合には測定光は測定画像において直線形状となる。しかしながら、台12上に測定対象物Wが載置されている場合、測定対象物Wの高さに応じて測定画像における測定光の撮像位置が変化する。図2(a)に示す例では、曲面の外形を持つ測定対象物Wを計測しているため、測定光Iの一部が曲線となって撮像されている。 FIG. 2A shows a measurement image when the light source 111 irradiates a line laser as measurement light. Since the line laser is a linear light, the measurement light has a linear shape in the measurement image when the measurement object W does not exist. However, when the measurement object W is placed on the table 12, the imaging position of the measurement light in the measurement image changes according to the height of the measurement object W. In the example shown in FIG. 2A, since the measurement object W having the outer shape of the curved surface is measured, a part of the measurement light I is imaged as a curved line.

情報処理装置2は、測定画像における測定光Iの位置が、測定対象物Wが存在しない場合における撮像位置からどの程度ずれているかを計測することにより、その位置における測定対象物Wの高さを測定することができる。しかしながら、光源111が照射する光は幅を持つため、何らかの基準に基づいて測定画像における「測定光Iの位置」を特定する。具体的には、情報処理装置2は、測定画像において測定光Iが撮像されている領域の画素値のプロファイルを取得してそのピーク位置を解析することにより、測定画像における測定光Iの位置を測定する。 The information processing device 2 measures the height of the measurement object W at that position by measuring how much the position of the measurement light I in the measurement image deviates from the imaging position when the measurement object W does not exist. Can be measured. However, since the light emitted by the light source 111 has a width, the "position of the measurement light I" in the measurement image is specified based on some reference. Specifically, the information processing apparatus 2 obtains a profile of the pixel value of the region in which the measurement light I is imaged in the measurement image and analyzes the peak position thereof to obtain the position of the measurement light I in the measurement image. Measure.

図2(b)は、測定画像において測定光Iが撮像されている領域の短手方向を横軸、測定光Iの相対強度を縦軸とするプロファイルを示す図である。より具体的には、図2(b)は、図2(a)において領域C3に含まれる測定光Iの、線分L3上の画素値を正規化した場合におけるプロファイルを示す図である。図2(b)に示すように、測定光Iのプロファイルは、ピークから離れるほど減衰する正規分布のような形状となっている。 FIG. 2B is a diagram showing a profile in which the lateral axis is the lateral axis of the region in which the measurement light I is imaged and the relative intensity of the measurement light I is the vertical axis in the measurement image. More specifically, FIG. 2B is a diagram showing a profile of the measurement light I included in the region C3 in FIG. 2A when the pixel value on the line segment L3 is normalized. As shown in FIG. 2B, the profile of the measurement light I has a shape like a normal distribution that attenuates as the distance from the peak increases.

そこで情報処理装置2は、測定画像の各場所において図2(b)に示すような画素値のプロファイルを作成し、プロファイルのピーク位置を求める。情報処理装置2は求めたピーク位置を、その場所における測定光Iの位置とする。これにより、情報処理装置2は測定画像から測定光Iの位置を特定することができるため、測定対象物Wの立体形状を測定することができる。なお、図2(b)は、プロファイルの重心位置をピーク位置とする場合の例を示している。 Therefore, the information processing apparatus 2 creates a profile of pixel values as shown in FIG. 2B at each location of the measurement image, and obtains the peak position of the profile. The information processing device 2 sets the obtained peak position as the position of the measurement light I at that location. As a result, the information processing device 2 can specify the position of the measurement light I from the measurement image, so that the three-dimensional shape of the measurement object W can be measured. Note that FIG. 2B shows an example in which the center of gravity position of the profile is set as the peak position.

ところで、測定画像を撮像するカメラの光軸に対して測定対象物Wの表面が垂直でない場合、つまり、測定対象物Wが傾斜している場合、その領域におけるプロファイルの形状の対称性が崩れる。このプロファイルの歪みは、プロファイルのピーク位置の特定精度を下げる原因となる。また、測定対象物Wが傾斜している場合、その領域は狭く撮像される。この結果、プロファイルが全体として短くなる場合がある。これは情報処理装置2が画像解析の際に使用できるデータ量が減少することにつながり、プロファイルのピーク位置の特定精度が低くなりうる。つまり、測定対象物Wの傾斜は系統誤差の要因となる。 By the way, when the surface of the measurement object W is not perpendicular to the optical axis of the camera that captures the measurement image, that is, when the measurement object W is inclined, the symmetry of the profile shape in the region is broken. This distortion of the profile causes a decrease in the accuracy of identifying the peak position of the profile. Further, when the measurement object W is inclined, the region is narrowly imaged. As a result, the profile may be shortened as a whole. This leads to a decrease in the amount of data that can be used by the information processing apparatus 2 during image analysis, and the accuracy of identifying the peak position of the profile may be lowered. That is, the inclination of the measurement object W causes a systematic error.

実施の形態に係る情報処理装置2は、まず、形状の正解データが既知である校正用の測定対象物Wの形状を測定する。情報処理装置2は、測定して得られた校正用の測定対象物Wの形状と、正解データとの誤差を系統誤差として算出する。 The information processing apparatus 2 according to the embodiment first measures the shape of the measurement object W for calibration for which the correct shape data is known. The information processing device 2 calculates an error between the shape of the measurement object W for calibration obtained by measurement and the correct answer data as a systematic error.

続いて情報処理装置2は、測定画像の各領域において、測定光Iのプロファイルの歪み、すなわちプロファイルの対称性からのずれを定量化する。詳細は後述するが、この定量化はいずれの手法でもよく、例えば情報処理装置2は既知の歪度を用いてプロファイルの歪みを定量化する。 Subsequently, the information processing apparatus 2 quantifies the distortion of the profile of the measurement light I, that is, the deviation from the symmetry of the profile in each region of the measurement image. Although the details will be described later, this quantification may be performed by any method. For example, the information processing apparatus 2 quantifies the distortion of the profile using a known skewness.

情報処理装置2は、測定画像におけるプロファイルの歪みをaとし、歪みaを算出した領域における系統誤差δとした場合に、系統誤差δを歪みaの関数f(a)で近似する。より具体的には、情報処理装置2は、系統誤差δを、奇数次のaの多項式で近似するための多項式の係数を求め記憶する。 When the distortion of the profile in the measured image is a and the strain a is the systematic error δ in the calculated region, the information processing apparatus 2 approximates the systematic error δ by the function f (a) of the distortion a. More specifically, the information processing apparatus 2 obtains and stores the coefficient of the polynomial for approximating the systematic error δ with the polynomial of odd-order a.

情報処理装置2は、形状が未知である測定対象物Wの測定画像を取得した場合、その測定画像の各領域における歪みaを算出し、多項式を用いて系統誤差δを推定する。これにより、情報処理装置2は、測定画像から特定した測定対象物Wの形状を、推定した系統誤差δを用いて修正することができる。
以下、実施の形態に係る情報処理装置2についてより詳細に説明する。
When the information processing apparatus 2 acquires a measurement image of the measurement object W whose shape is unknown, it calculates the strain a in each region of the measurement image and estimates the systematic error δ using a polynomial. As a result, the information processing apparatus 2 can correct the shape of the measurement object W specified from the measurement image by using the estimated systematic error δ.
Hereinafter, the information processing apparatus 2 according to the embodiment will be described in more detail.

<情報処理装置2の機能構成>
図3は、実施の形態に係る情報処理装置2の機能構成を模式的に示す図である。情報処理装置2は、入力インタフェース21、記憶部22、及び制御部23を備える。
入力インタフェース21は、情報処理装置2が計測装置1等の外部の装置からデータを取得するためのインタフェースである。入力インタフェース21は、例えばUSB(Universal Serial Bus)インタフェース、各種記録メディアのリーダ、又はWi-Fi(登録商標)等の通信モジュールによって実現される。
<Functional configuration of information processing device 2>
FIG. 3 is a diagram schematically showing a functional configuration of the information processing device 2 according to the embodiment. The information processing device 2 includes an input interface 21, a storage unit 22, and a control unit 23.
The input interface 21 is an interface for the information processing device 2 to acquire data from an external device such as the measuring device 1. The input interface 21 is realized by, for example, a USB (Universal Serial Bus) interface, a reader of various recording media, or a communication module such as Wi-Fi (registered trademark).

記憶部22は、基本プログラム等を格納するROMや、情報処理装置2の作業領域となるRAM(Random Access Memory)、及び画像データやアプリケーションプログラムを格納するHDD(Hard Disc Drive)やSSD(Solid State Drive)等の大容量記憶装置である。 The storage unit 22 includes a ROM for storing basic programs and the like, a RAM (Random Access Memory) for a work area of the information processing device 2, and an HDD (Hard Disc Drive) or SSD (Solid State) for storing image data and application programs. It is a large-capacity storage device such as Drive).

制御部23は、情報処理装置2のCPU(Central Processing Unit)やGPU(Graphics Processing Unit)等のプロセッサであり、記憶部22に記憶されたプログラムを実行することによって画像取得部231、形状特定部232、誤差算出部233、指標算出部234、係数算出部235、及び修正部236として機能する。
以下、実施の形態に係る情報処理装置2による「系統誤差δの推定」と、「測定データの修正」とについて順に説明する。
The control unit 23 is a processor such as a CPU (Central Processing Unit) or a GPU (Graphics Processing Unit) of the information processing device 2, and by executing a program stored in the storage unit 22, the image acquisition unit 231 and the shape specifying unit It functions as 232, an error calculation unit 233, an index calculation unit 234, a coefficient calculation unit 235, and a correction unit 236.
Hereinafter, “estimation of systematic error δ” and “correction of measurement data” by the information processing apparatus 2 according to the embodiment will be described in order.

[系統誤差δの推定]
画像取得部231は、形状計測のための測定光が照射された校正用の測定対象物Wを撮像して得られた校正用測定画像を、入力インタフェース21を介して計測装置1から取得する。形状特定部232は、画像取得部231が取得した校正用測定画像を解析して、校正用の測定対象物Wの立体形状を特定する。画像取得部231による立体形状の特定は、既知の光切断法を用いて実現できる。
[Estimation of systematic error δ]
The image acquisition unit 231 acquires the calibration measurement image obtained by imaging the calibration measurement object W irradiated with the measurement light for shape measurement from the measurement device 1 via the input interface 21. The shape specifying unit 232 analyzes the calibration measurement image acquired by the image acquisition unit 231 to specify the three-dimensional shape of the measurement object W for calibration. The identification of the three-dimensional shape by the image acquisition unit 231 can be realized by using a known optical cutting method.

校正用の測定対象物Wは、その立体形状が事前情報として記憶部22に格納されている。誤差算出部233は、記憶部22を参照して、校正用の測定対象物Wの実形状を取得する。続いて誤差算出部233は、形状特定部232が特定した校正用の測定対象物Wの立体形状と、校正用の測定対象物Wの実形状との誤差である系統誤差δを算出する。指標算出部234は、校正用測定画像において測定光が撮像されている領域の画素値のプロファイルの非対称性(すなわち、プロファイルの歪み)を示す指標値aを算出する。 The three-dimensional shape of the measurement object W for calibration is stored in the storage unit 22 as prior information. The error calculation unit 233 acquires the actual shape of the measurement object W for calibration with reference to the storage unit 22. Subsequently, the error calculation unit 233 calculates a systematic error δ which is an error between the three-dimensional shape of the measurement object W for calibration specified by the shape identification unit 232 and the actual shape of the measurement object W for calibration. The index calculation unit 234 calculates an index value a indicating the profile asymmetry (that is, profile distortion) of the pixel value in the region where the measurement light is captured in the calibration measurement image.

図4は、校正用測定画像とその画像における画素値のプロファイルの一例を示す図である。図4において、画像MIは、校正用の測定対象物Wとしての校正球を測定した場合における、形状特定部232が算出した系統誤差δを示す画像である。画像MIにおいて画素値の大きな領域(すなわち白色に近い領域)は、系統誤差δが小さい領域であることを示している。反対に、画素値の小さな領域(すなわち黒色に近い領域)は、系統誤差δが大きい領域であることを示している。 FIG. 4 is a diagram showing an example of a calibration measurement image and a profile of pixel values in the image. In FIG. 4, the image MI is an image showing the systematic error δ calculated by the shape specifying unit 232 when the calibration sphere as the measurement object W for calibration is measured. In the image MI, a region having a large pixel value (that is, a region close to white) indicates a region in which the systematic error δ is small. On the contrary, the region where the pixel value is small (that is, the region close to black) indicates that the region where the systematic error δ is large.

画像MIは、校正球の端部における系統誤差δが、中央部での系統誤差δよりも大きくなる傾向があることを示している。図4において、符号P1で示す画素値のプロファイルP1は、画像MIの端部の領域R1におけるプロファイルを模式的に示している。また、符号P2で示す画素値のプロファイルP2は、画像MIの中央部の領域R2におけるプロファイルを模式的に示している。 The image MI shows that the systematic error δ at the end of the calibration sphere tends to be larger than the systematic error δ at the center. In FIG. 4, the pixel value profile P1 represented by the reference numeral P1 schematically shows the profile in the region R1 at the end of the image MI. Further, the pixel value profile P2 indicated by the reference numeral P2 schematically shows the profile in the region R2 in the central portion of the image MI.

図4に示すように、画像MIの中央部に存在する領域R2のプロファイルP2は、ラプラス分布のような対称性を持つプロファイルである。一方、画像MIの端部に存在する領域R1のプロファイルP1は、図中左側に尾を引く非対称なプロファイルとなっている。 As shown in FIG. 4, the profile P2 of the region R2 existing in the central portion of the image MI is a profile having symmetry such as the Laplace distribution. On the other hand, the profile P1 of the region R1 existing at the end of the image MI has an asymmetric profile with a tail on the left side in the figure.

本願の発明者は、測定画像の画素値のプロファイルが対称である領域は系統誤差δが小さく、プロファイルが非対称である領域は系統誤差δが大きいという関係に着目した。すなわち、本願の発明者は、測定画像の画素値のプロファイルの対称性を定量化すれば、その値で系統誤差δを推定することができる可能性について認識するに至った。 The inventor of the present application has focused on the relationship that the systematic error δ is small in the region where the profile of the pixel value of the measured image is symmetric, and the systematic error δ is large in the region where the profile is asymmetrical. That is, the inventor of the present application has come to recognize the possibility that if the symmetry of the profile of the pixel value of the measured image is quantified, the systematic error δ can be estimated from that value.

指標算出部234は、測定画像の画素値のプロファイル形状に関する対称性を数値化できれば、どのような手法を用いてもよい。一例として、指標算出部234は、既知の「歪度」を用いてプロファイル形状の対称性を数値化してもよい。歪度sは、以下の式(1)で与えられる。 The index calculation unit 234 may use any method as long as the symmetry of the pixel value of the measured image with respect to the profile shape can be quantified. As an example, the index calculation unit 234 may quantify the symmetry of the profile shape using a known “skewness”. The skewness s is given by the following equation (1).

ここで、xは、プロファイルの横軸における座標であり、I(x)はx座標における画素値である。歪度sは、プロファイルが対称であれば0となり、プロファイルP1のように左側に尾を引く場合は負の値、右側に尾を引く場合は正の値となる。指標算出部234は、式(1)を用いて算出したプロファイルの歪度sを、プロファイル形状の対称性を示す指標値aとして出力してもよい。 Here, x is a coordinate on the horizontal axis of the profile, and I (x) is a pixel value on the x coordinate. The skewness s is 0 if the profile is symmetric, and is a negative value when the tail is trailed to the left as in the profile P1, and a positive value when the tail is trailed to the right. The index calculation unit 234 may output the skewness s of the profile calculated using the equation (1) as an index value a indicating the symmetry of the profile shape.

係数算出部235は、校正用測定画像において非対称性を示す指標値aを算出した位置における系統誤差δを、指標値aを変数とする奇数次の多項式で近似した場合における当該多項式の係数を算出する。ここで「指標値aの奇数次の多項式」とは、変数aの最高次数が奇数であることを意味する。最高次数を奇数とする理由は、推定対象とする系統誤差δが正負の値を取り得ることから、多項式関数の値域を系統誤差δの取り得る値を含むようにするためである。 The coefficient calculation unit 235 calculates the coefficient of the polynomial when the systematic error δ at the position where the index value a indicating asymmetry is calculated in the calibration measurement image is approximated by an odd-order polynomial with the index value a as a variable. To do. Here, the "odd-order polynomial of the index value a" means that the highest degree of the variable a is odd. The reason why the highest degree is an odd number is that the systematic error δ to be estimated can take positive and negative values, so that the range of the polynomial function includes the possible values of the systematic error δ.

以下具体例として、係数算出部235が指標値aに関する3次の多項式を用いて系統誤差δを推定する場合についての多項式の係数の導出方法を説明する。 Hereinafter, as a specific example, a method for deriving the coefficient of the polynomial in the case where the coefficient calculation unit 235 estimates the systematic error δ using a cubic polynomial with respect to the index value a will be described.

指標算出部234が、校正用測定画像のある領域iにおけるプロファイルについて算出した指標値をaとする。ここで、iは自然数であり、1からNまでの値を取り得る。なおNは、指標算出部234が校正用測定画像に設定する領域の数を表す。校正用測定画像における領域iは、iの値が異なれば異なる領域である。 Let the index value calculated by the index calculation unit 234 for the profile in the region i of the calibration measurement image be ai . Here, i is a natural number and can take a value from 1 to N. Note that N represents the number of regions set in the calibration measurement image by the index calculation unit 234. The area i in the calibration measurement image is a different area if the value of i is different.

係数算出部235が指標値aに関する3次の多項式を用いて系統誤差δを推定することは、系統誤差δを以下の式(2)でモデル化することを意味する。
δ=ca+c+c (2)
ここでc、c、cはモデルパラメータであり、未知である。
When the coefficient calculation unit 235 estimates the systematic error δ using a cubic polynomial with respect to the index value a, it means that the systematic error δ is modeled by the following equation (2).
δ = c 1 a + c 2 a 2 + c 3 a 3 (2)
Here, c 1 , c 2 , and c 3 are model parameters and are unknown.

式(2)において、領域iにおける系統誤差をδとすると、以下の式を得る。
δ=c+c +c
δ=c+c +c
・・・
δ=c+c +c
In equation (2), assuming that the systematic error in region i is δ i , the following equation is obtained.
δ 1 = c 1 a 1 + c 2 a 1 2 + c 3 a 1 3
δ 2 = c 1 a 2 + c 2 a 2 2 + c 3 a 2 3
・ ・ ・
δ N = c 1 a N + c 2 a N 2 + c 3 a N 3

行列を用いて書き直すと、以下の式(3)を得る。
Rewriting using a matrix gives the following equation (3).

式(3)において、左辺は校正用画像の各部における系統誤差δを並べたベクトルであるため既知である。また右辺第1項は、校正用画像の各部におけるプロファイルの歪みを示す指標値aに関する情報を要素とする行列であるため既知である。右辺第2項は、指標値aで系統誤差δを説明するためのモデルパラメータであり、未知である。 In equation (3), the left side is known because it is a vector in which the systematic errors δ in each part of the calibration image are arranged. The first term on the right side is known because it is a matrix whose elements are information on the index value a indicating the distortion of the profile in each part of the calibration image. The second term on the right side is a model parameter for explaining the systematic error δ with the index value a, and is unknown.

式(2)の左辺をベクトルd、右辺第1項を行列A、右辺第2項をベクトルcとしたとき、誤差ベクトルeを以下の式(4)で定義する。
e=d−Ac (4)
When the left side of the equation (2) is the vector d, the first term on the right side is the matrix A, and the second term on the right side is the vector c, the error vector e is defined by the following equation (4).
e = d-Ac (4)

Nがモデルパラメータの数、すなわち多項式の次数より大きい場合、誤差ベクトルeの2ノルムの二乗であるee(Tはベクトル又は行列の転置を意味する。)を最小にするという意味において最適なベクトルcは、最小二乗解coptとして既知である。具体的には、最小二乗解coptは以下の式(5)で得られる。
opt=(AA)−1d (5)
ここで「−1」は、逆行列を意味する。
N is the number of model parameters, that is, when polynomial order greater than, e T e is the 2-norm of the square of the error vector e (T is. Meaning the transpose of a vector or matrix) optimal in the sense of minimizing The vector c is known as the least squared solution matrix . Specifically, the least squares solution opt can be obtained by the following equation (5).
c opt = (A T A) -1 A T d (5)
Here, "-1" means an inverse matrix.

係数算出部235は、誤差算出部233が算出した系統誤差δと指標算出部234が算出した指標値aとを用いることにより、式(5)に基づいて最小二乗誤差解coptを算出する。最小二乗解coptの各要素が、式(2)における多項式の係数c、c、cに対応する。 The coefficient calculation unit 235 calculates the least squares error solution cap based on the equation (5) by using the systematic error δ calculated by the error calculation unit 233 and the index value a calculated by the index calculation unit 234. Each element of the least squares solution copt corresponds to the coefficients c 1 , c 2 , and c 3 of the polynomial in equation (2).

なお、式(2)における多項式の次数は任意である。一般に、係数算出部235は、以下の式(6)を用いて系統誤差δを近似することができる。
ここでMは0以上の自然数である。このように、係数算出部235は、指標値aを変数として系統誤差δを推定するための多項式の係数を得ることができる。
The degree of the polynomial in Eq. (2) is arbitrary. In general, the coefficient calculation unit 235 can approximate the systematic error δ by using the following equation (6).
Here, M is a natural number of 0 or more. In this way, the coefficient calculation unit 235 can obtain the coefficient of the polynomial for estimating the systematic error δ with the index value a as a variable.

[測定データの修正]
続いて、系統誤差δの推定値を用いることによる、形状特定部232が特定した測定対象物Wの形状の修正処理について説明する。
[Correction of measurement data]
Subsequently, a process of correcting the shape of the measurement object W specified by the shape specifying unit 232 by using the estimated value of the systematic error δ will be described.

上述したように、系統誤差δは形状が既知である校正球の実形状と、形状特定部232が校正用測定画像を解析することで特定した形状との誤差である。したがって、系統誤差δが分かれば、形状が未知である測定対象物Wの測定画像を形状特定部232が解析して特定した形状を、実形状に修正できる。 As described above, the systematic error δ is an error between the actual shape of the calibration sphere whose shape is known and the shape specified by the shape specifying unit 232 by analyzing the calibration measurement image. Therefore, if the systematic error δ is known, the shape specified by the shape specifying unit 232 by analyzing the measurement image of the measurement object W whose shape is unknown can be corrected to the actual shape.

画像取得部231は、測定光が照射された未知の測定対象物Wを撮像して得られた未知測定画像を取得する。形状特定部232は、未知測定画像を解析して測定対象物の立体形状を特定する。指標算出部234は、未知測定画像の各領域において、測定光の画素値のプロファイルの非対称性を示す指標値aを算出する。 The image acquisition unit 231 acquires an unknown measurement image obtained by imaging the unknown measurement object W irradiated with the measurement light. The shape specifying unit 232 analyzes the unknown measurement image and identifies the three-dimensional shape of the measurement object. The index calculation unit 234 calculates an index value a indicating the asymmetry of the profile of the pixel value of the measurement light in each region of the unknown measurement image.

修正部236は、係数算出部235が算出した係数で定められる多項式を用いて近似した系統誤差δに基づいて、形状特定部232が特定した測定対象物Wの立体形状を修正する。これにより、修正部236は、系統誤差δの影響が低減された測定対象物Wの立体形状を取得することができる。なお、修正部236が修正した測定対象物Wの立体形状や、形状特定部232が特定した測定対象物Wの立体形状は表示装置3に出力され、表示される。 The correction unit 236 corrects the three-dimensional shape of the measurement object W specified by the shape identification unit 232 based on the systematic error δ approximated by using the polynomial defined by the coefficient calculated by the coefficient calculation unit 235. As a result, the correction unit 236 can acquire the three-dimensional shape of the measurement object W in which the influence of the systematic error δ is reduced. The three-dimensional shape of the measurement object W modified by the correction unit 236 and the three-dimensional shape of the measurement object W specified by the shape identification unit 232 are output to the display device 3 and displayed.

ここで修正部236は、係数算出部235が算出した係数で定められる式(6)の多項式を用いて近似した系統誤差δの推定値が所定の閾値よりも大きい場合、測定対象物Wの立体形状を特定するためのデータから除外してもよい。系統誤差δの推定値が大きい場合、何らかの原因で測定対象物Wの測定に失敗したか、系統誤差δの推定に失敗した可能性があるからである。 Here, when the estimated value of the systematic error δ approximated by using the polynomial of the equation (6) defined by the coefficient calculated by the coefficient calculation unit 235 is larger than the predetermined threshold value, the correction unit 236 is a solid of the measurement object W. It may be excluded from the data for specifying the shape. This is because if the estimated value of the systematic error δ is large, the measurement of the measurement object W may have failed for some reason, or the estimation of the systematic error δ may have failed.

したがって、「所定の閾値」とは、測定対象物Wの形状特定に利用するか否かを判定するために修正部236が参照する採用有無判定基準閾値である。採用有無判定基準閾値は記憶部22に格納されている。採用有無判定基準閾値の具体的な値は測定光の波長や想定される測定対象物Wの大きさや材質等を考慮して実験により定めればよい。 Therefore, the “predetermined threshold value” is the adoption / non-adoption determination reference threshold value referred to by the correction unit 236 for determining whether or not to use it for specifying the shape of the measurement object W. The adoption / non-adoption determination reference threshold value is stored in the storage unit 22. The specific value of the adoption / non-adoption determination reference threshold value may be determined by an experiment in consideration of the wavelength of the measurement light, the size and material of the assumed measurement object W, and the like.

図5(a)−(b)は、実施の形態に係る修正部236による系統誤差δの低減効果の一例を示す図である。より具体的には、図5(a)−(b)は、計測装置1を用いて校正球を5回測定し、各測定画像から校正球の形状を特定しかつ系統誤差δを低減した各結果を示す図である。 5 (a)-(b) is a diagram showing an example of the effect of reducing the systematic error δ by the correction unit 236 according to the embodiment. More specifically, in FIGS. 5 (a)-(b), the calibration sphere was measured five times using the measuring device 1, the shape of the calibration sphere was specified from each measurement image, and the systematic error δ was reduced. It is a figure which shows the result.

図5(a)は、情報処理装置2が算出した校正球の半径と、校正球の実際の半径との誤差を示す図である。図5(a)において白色のグラフは修正部236による系統誤差δの補正をしない場合の誤差を示す。横縞のグラフは、1次の多項式(式(6)においてM=0の場合の式)でモデル化した系統誤差δを用いて修正部236が補正した場合の誤差を示す。黒色のグラフは3次の多項式(式(6)においてM=1、かつc=0の場合の式)でモデル化した系統誤差δを用いて修正部236が補正した場合の誤差を示す。図5(a)に示すように、修正部236が系統誤差δの補正をすることにより、校正球の半径の誤差を低減できることが分かる。 FIG. 5A is a diagram showing an error between the radius of the calibration sphere calculated by the information processing apparatus 2 and the actual radius of the calibration sphere. In FIG. 5A, the white graph shows the error when the systematic error δ is not corrected by the correction unit 236. The horizontal stripe graph shows the error when the correction unit 236 corrects it using the systematic error δ modeled by the first-order polynomial (the equation when M = 0 in equation (6)). The black graph shows the error when the correction unit 236 corrects using the systematic error δ modeled by the cubic polynomial (the equation when M = 1 and c 2 = 0 in equation (6)). As shown in FIG. 5A, it can be seen that the error in the radius of the calibration sphere can be reduced by correcting the systematic error δ by the correction unit 236.

図5(b)は、情報処理装置2が算出した校正球の表面を表す点群データのばらつきを示す図である。図5(b)において、白色のグラフは修正部236による系統誤差δの補正をしない場合の点群の標準偏差σを示す。横縞のグラフは、1次の多項式(式(6)においてM=0の場合の式)でモデル化した系統誤差δを用いて修正部236が補正した場合の点群の標準偏差σを示す。黒色のグラフは3次の多項式(式(6)においてM=1、かつc=0の場合の式)でモデル化した系統誤差δを用いて修正部236が補正した場合の点群データの標準偏差σを示す。図5(b)に示すように、修正部236が系統誤差δの補正をすることにより、校正球の表面を表す点群データのばらつきを低減できることが分かる。 FIG. 5B is a diagram showing variations in point cloud data representing the surface of the calibration sphere calculated by the information processing apparatus 2. In FIG. 5B, the white graph shows the standard deviation σ of the point group when the systematic error δ is not corrected by the correction unit 236. The horizontal stripe graph shows the standard deviation σ of the point cloud when the correction unit 236 corrects it using the systematic error δ modeled by the first-order polynomial (the equation when M = 0 in equation (6)). The black graph shows the point group data when the correction unit 236 corrects it using the systematic error δ modeled by the cubic polynomial (the equation when M = 1 and c 2 = 0 in equation (6)). Shows the standard deviation σ. As shown in FIG. 5B, it can be seen that the correction unit 236 corrects the systematic error δ to reduce the variation in the point cloud data representing the surface of the calibration sphere.

<情報処理装置2の処理フロー>
図6は、実施の形態に係る情報処理装置2が実行する係数決定処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば情報処理装置2の電源が投入されたときに開始する。
<Processing flow of information processing device 2>
FIG. 6 is a flowchart for explaining the flow of the coefficient determination process executed by the information processing apparatus 2 according to the embodiment. The process in this flowchart starts, for example, when the power of the information processing apparatus 2 is turned on.

画像取得部231は、形状計測のための測定光Iが照射された校正用の測定対象物Wを撮像して得られた校正用測定画像を取得する(S2)。形状特定部232は、画像取得部231が取得した校正用測定画像を解析して校正用の測定対象物Wの立体形状を特定する(S4)。 The image acquisition unit 231 acquires a calibration measurement image obtained by imaging the calibration measurement object W irradiated with the measurement light I for shape measurement (S2). The shape specifying unit 232 analyzes the calibration measurement image acquired by the image acquisition unit 231 to specify the three-dimensional shape of the measurement object W for calibration (S4).

誤差算出部233は、形状特定部232が特定した校正用の測定対象物Wの立体形状と、校正用の測定対象物Wの実形状との誤差である系統誤差δを算出する(S6)。指標算出部234は、画像取得部231が取得した校正用測定画像において測定光が撮像されている領域の画素値のプロファイルの非対称性(すなわちプロファイルの歪み)を示す指標値aを算出する(S8)。 The error calculation unit 233 calculates a systematic error δ, which is an error between the three-dimensional shape of the measurement object W for calibration specified by the shape identification unit 232 and the actual shape of the measurement object W for calibration (S6). The index calculation unit 234 calculates an index value a indicating the profile asymmetry (that is, profile distortion) of the pixel value in the region where the measurement light is captured in the calibration measurement image acquired by the image acquisition unit 231 (S8). ).

係数算出部235は、δ=f(a)となる指標値aについての多項式fの係数を算出する(S10)。係数算出部235は、算出した多項式fの係数を記憶部22に記録する(S12)。係数算出部235が、多項式fの係数を記憶部22に記録すると、本フローチャートにおける処理は終了する。 The coefficient calculation unit 235 calculates the coefficient of the polynomial f with respect to the index value a such that δ = f (a) (S10). The coefficient calculation unit 235 records the calculated coefficient of the polynomial f in the storage unit 22 (S12). When the coefficient calculation unit 235 records the coefficient of the polynomial f in the storage unit 22, the process in this flowchart ends.

図7は、実施の形態に係る情報処理装置が実行する形状修正処理の流れを説明するためのフローチャートである。本フローチャートにおける処理は、例えば多項式fの係数が記憶部22に格納されたときに開始する。 FIG. 7 is a flowchart for explaining the flow of the shape correction process executed by the information processing apparatus according to the embodiment. The process in this flowchart starts, for example, when the coefficient of the polynomial f is stored in the storage unit 22.

画像取得部231は、形状計測のための測定光Iが照射された未知の測定対象物Wを撮像して得られた未知測定画像を取得する(S14)。形状特定部232は、未知測定画像を解析して測定対象物の立体形状を特定する(S16)。指標算出部234は、未知測定画像の各領域において、測定光の画素値のプロファイルの非対称性(すなわち歪み)を示す指標値aを算出する(S18)。 The image acquisition unit 231 acquires an unknown measurement image obtained by imaging an unknown measurement object W irradiated with the measurement light I for shape measurement (S14). The shape specifying unit 232 analyzes the unknown measurement image and identifies the three-dimensional shape of the measurement target (S16). The index calculation unit 234 calculates an index value a indicating the asymmetry (that is, distortion) of the profile of the pixel value of the measurement light in each region of the unknown measurement image (S18).

修正部236は、係数算出部235が算出した係数を記憶部22から読み出し、式(6)を用いて系統誤差δの推定値を算出する(S20)。修正部236は、系統誤差δの推定値を用いて、形状特定部232が特定した測定対象物Wの立体形状を修正する(S22)。修正部236が測定対象物Wの立体形状を推定すると、本フローチャートにおける処理は終了する。 The correction unit 236 reads the coefficient calculated by the coefficient calculation unit 235 from the storage unit 22, and calculates an estimated value of the systematic error δ using the equation (6) (S20). The correction unit 236 corrects the three-dimensional shape of the measurement object W specified by the shape identification unit 232 by using the estimated value of the systematic error δ (S22). When the correction unit 236 estimates the three-dimensional shape of the measurement object W, the process in this flowchart ends.

以上説明したように、実施の形態に係る情報処理装置2によれば、光切断法において測定対象物の傾斜に由来する系統誤差を推定することができる。 As described above, according to the information processing apparatus 2 according to the embodiment, it is possible to estimate the systematic error due to the inclination of the object to be measured in the optical cutting method.

特に、情報処理装置2は、校正用の測定対象物Wを用いることによって、測定画像から系統誤差δを推定するための関数を精度よく導出することができる。結果として、情報処理装置2は、計測によって得られた測定対象物Wの立体形状に含まれる系統誤差δの影響を低減することができる。 In particular, the information processing apparatus 2 can accurately derive a function for estimating the systematic error δ from the measured image by using the measurement object W for calibration. As a result, the information processing apparatus 2 can reduce the influence of the systematic error δ included in the three-dimensional shape of the measurement object W obtained by the measurement.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更又は改良を加えることが可能であることが当業者に明らかである。そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。 Although the present invention has been described above using the embodiments, the technical scope of the present invention is not limited to the scope described in the above embodiments. It will be apparent to those skilled in the art that various changes or improvements can be made to the above embodiments. It is clear from the description of the claims that such modified or modified forms may also be included in the technical scope of the present invention.

<変形例>
上記では、計測装置1と情報処理装置2とが異なる装置である場合について説明した。しかしながら、計測装置1と情報処理装置2とは同じ装置であってもよい。これは例えば計測装置1が情報処理装置2と同等の計算リソースを備えさせることで実現できる。
<Modification example>
In the above, the case where the measuring device 1 and the information processing device 2 are different devices has been described. However, the measuring device 1 and the information processing device 2 may be the same device. This can be realized, for example, by equipping the measuring device 1 with the same computing resources as the information processing device 2.

1・・・計測装置
2・・・情報処理装置
3・・・表示装置
11・・・光学式プローブ
111・・・光源
112・・・撮像部
12・・・台
21・・・入力インタフェース
22・・・記憶部
23・・・制御部
231・・・画像取得部
232・・・形状特定部
233・・・誤差算出部
234・・・指標算出部
235・・・係数算出部
236・・・修正部
3・・・表示装置
MS・・・計測システム

1 ... Measuring device 2 ... Information processing device 3 ... Display device 11 ... Optical probe 111 ... Light source 112 ... Imaging unit 12 ... Stand 21 ... Input interface 22 ... .. Storage unit 23 ... Control unit 231 ... Image acquisition unit 232 ... Shape identification unit 233 ... Error calculation unit 234 ... Index calculation unit 235 ... Coefficient calculation unit 236 ... Correction Part 3 ... Display device MS ... Measurement system

Claims (5)

測定光が照射された校正用測定対象物を撮像して得られた校正用測定画像を取得する画像取得部と、
前記校正用測定画像を解析して前記校正用測定対象物の立体形状を特定する形状特定部と、
前記形状特定部が特定した前記校正用測定対象物の立体形状と、前記校正用測定対象物の実形状との誤差である系統誤差を算出する誤差算出部と、
前記校正用測定画像において前記測定光が撮像されている領域の画素値のプロファイルの非対称性を示す指標値を算出する指標算出部と、
前記校正用測定画像において前記非対称性を示す指標値を算出した位置における前記系統誤差を、前記指標値を変数とする奇数次の多項式で近似した場合における当該多項式の係数を算出する係数算出部と、
を備える情報処理装置。
An image acquisition unit that acquires a calibration measurement image obtained by imaging a calibration measurement object irradiated with measurement light,
A shape specifying unit that analyzes the calibration measurement image to specify the three-dimensional shape of the calibration measurement object,
An error calculation unit that calculates a systematic error that is an error between the three-dimensional shape of the calibration measurement object specified by the shape identification unit and the actual shape of the calibration measurement object.
An index calculation unit that calculates an index value indicating asymmetry of the profile of the pixel value in the region where the measurement light is captured in the calibration measurement image, and an index calculation unit.
With a coefficient calculation unit that calculates the coefficient of the polynomial when the systematic error at the position where the index value indicating the asymmetry is calculated in the calibration measurement image is approximated by an odd-order polynomial using the index value as a variable. ,
Information processing device equipped with.
前記画像取得部は、前記測定光が照射された測定対象物を撮像して得られた未知測定画像をさらに取得し、
前記形状特定部は、前記未知測定画像を解析して前記測定対象物の立体形状を特定し、
前記指標算出部は、前記未知測定画像において前記測定光が撮像されている領域の画素値のプロファイルの非対称性を示す指標値を算出し、
前記情報処理装置はさらに、
前記係数算出部が算出した係数で定められる前記多項式を用いて近似した前記系統誤差に基づいて、前記形状特定部が特定した前記測定対象物の立体形状を修正する修正部を備える、
請求項1に記載の情報処理装置。
The image acquisition unit further acquires an unknown measurement image obtained by imaging the measurement object irradiated with the measurement light.
The shape specifying unit analyzes the unknown measurement image to identify the three-dimensional shape of the measurement object, and then
The index calculation unit calculates an index value indicating the asymmetry of the profile of the pixel value in the region where the measurement light is captured in the unknown measurement image.
The information processing device further
A correction unit for correcting the three-dimensional shape of the measurement object specified by the shape identification unit is provided based on the systematic error approximated by using the polynomial defined by the coefficient calculated by the coefficient calculation unit.
The information processing device according to claim 1.
前記修正部は、前記係数算出部が算出した係数で定められる前記多項式を用いて近似した前記系統誤差が所定の閾値よりも大きい場合、前記測定対象物の立体形状を特定するためのデータから除外する、
請求項2に記載の情報処理装置。
When the systematic error approximated by using the polynomial defined by the coefficient calculated by the coefficient calculation unit is larger than a predetermined threshold value, the correction unit is excluded from the data for specifying the three-dimensional shape of the measurement object. To do,
The information processing device according to claim 2.
前記係数算出部は、aを前記指標値、cを多項式の係数、Mを0以上の自然数としたとき、前記系統誤差δを、
で表される式を用いて近似する、
請求項1から3のいずれか一項に記載の情報処理装置。
The coefficient calculation unit, wherein the a index value, the polynomial coefficients a c i, when a natural number of 0 or more M, the systematic error [delta],
Approximate using the formula represented by,
The information processing device according to any one of claims 1 to 3.
コンピュータに、
測定光が照射された校正用測定対象物を撮像して得られた校正用測定画像を取得する機能と、
前記校正用測定画像を解析して前記校正用測定対象物の立体形状を特定する機能と、
特定した前記校正用測定対象物の立体形状と、前記校正用測定対象物の実形状との誤差である系統誤差を算出する機能と、
前記校正用測定画像において前記測定光が撮像されている領域の画素値のプロファイルの非対称性を示す指標値を算出する機能と、
前記校正用測定画像において前記非対称性を示す指標値を算出した位置における前記系統誤差を、前記指標値に関する奇数次の多項式で近似した場合における当該多項式の係数を算出する機能と、
を実現させるプログラム。

On the computer
A function to acquire a calibration measurement image obtained by imaging a calibration measurement object irradiated with measurement light, and
A function of analyzing the calibration measurement image to identify the three-dimensional shape of the calibration measurement object, and
A function for calculating a systematic error, which is an error between the specified three-dimensional shape of the calibration measurement object and the actual shape of the calibration measurement object,
A function of calculating an index value indicating the asymmetry of the profile of the pixel value in the region where the measurement light is captured in the calibration measurement image, and
A function of calculating the coefficient of the polynomial when the systematic error at the position where the index value indicating the asymmetry is calculated in the calibration measurement image is approximated by an odd-order polynomial with respect to the index value.
A program that realizes.

JP2016224773A 2016-11-18 2016-11-18 Information processing equipment and programs Active JP6773531B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016224773A JP6773531B2 (en) 2016-11-18 2016-11-18 Information processing equipment and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016224773A JP6773531B2 (en) 2016-11-18 2016-11-18 Information processing equipment and programs

Publications (2)

Publication Number Publication Date
JP2018081042A JP2018081042A (en) 2018-05-24
JP6773531B2 true JP6773531B2 (en) 2020-10-21

Family

ID=62197657

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016224773A Active JP6773531B2 (en) 2016-11-18 2016-11-18 Information processing equipment and programs

Country Status (1)

Country Link
JP (1) JP6773531B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020116841A (en) * 2019-01-24 2020-08-06 株式会社リコー Modeling apparatus, system, method, and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3633863B2 (en) * 2000-11-21 2005-03-30 株式会社ミツトヨ Autonomous determination method of systematic error of surface profile measurement system using calibration object
US7315383B1 (en) * 2004-07-09 2008-01-01 Mohsen Abdollahi Scanning 3D measurement technique using structured lighting and high-speed CMOS imager
JP6418884B2 (en) * 2014-10-10 2018-11-07 キヤノン株式会社 Three-dimensional measuring apparatus, three-dimensional measuring method and program
JP2016099329A (en) * 2014-11-26 2016-05-30 キヤノン株式会社 Measurement instrument and method of manufacturing article

Also Published As

Publication number Publication date
JP2018081042A (en) 2018-05-24

Similar Documents

Publication Publication Date Title
US10203402B2 (en) Method of error correction for 3D imaging device
US9621793B2 (en) Information processing apparatus, method therefor, and measurement apparatus
US10288418B2 (en) Information processing apparatus, information processing method, and storage medium
US11195296B2 (en) Information processing apparatus, method of processing distance information, and recording medium recording distance information processing program
US9111177B2 (en) Position/orientation measurement apparatus, processing method therefor, and non-transitory computer-readable storage medium
US20160155235A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable medium
US20170129101A1 (en) Robot control apparatus and robot control method
US20160156899A1 (en) Three-dimensional measurement apparatus and control method for the same
US20120236317A1 (en) Three-dimensional distance measurement apparatus, three-dimensional distance measurement method, and non-transitory computer-readable storage medium
US20150269735A1 (en) Information processing apparatus, information processing method, position and orientation estimation apparatus, and robot system
US9659379B2 (en) Information processing system and information processing method
CN109693387A (en) 3D modeling method based on point cloud data
CN104634242A (en) Point adding system and method of probe
US9560250B2 (en) Information processing apparatus, measurement system, control system, light amount determination method and storage medium
US9714829B2 (en) Information processing apparatus, assembly apparatus, information processing method, and storage medium that generate a measurement pattern having different amounts of irradiation light depending on imaging regions
JP6773531B2 (en) Information processing equipment and programs
WO2007125981A1 (en) Boundary position decision device, boundary position decision method, program for functioning computer as the device, and recording medium
JP6840589B2 (en) Information processing equipment and programs
JP5481397B2 (en) 3D coordinate measuring device
JP5136108B2 (en) 3D shape measuring method and 3D shape measuring apparatus
US10627519B2 (en) Information processing device and information processing method
US10657665B2 (en) Apparatus and method for generating three-dimensional information
JP2020098533A (en) Abrasion measuring apparatus and abrasion measuring method
JP6205848B2 (en) Solar cell inspection equipment
WO2021191975A1 (en) Body weight estimation device, body weight estimation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191010

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200824

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200915

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201001

R150 Certificate of patent or registration of utility model

Ref document number: 6773531

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250