JP2021085772A - Image measuring device - Google Patents

Image measuring device Download PDF

Info

Publication number
JP2021085772A
JP2021085772A JP2019215173A JP2019215173A JP2021085772A JP 2021085772 A JP2021085772 A JP 2021085772A JP 2019215173 A JP2019215173 A JP 2019215173A JP 2019215173 A JP2019215173 A JP 2019215173A JP 2021085772 A JP2021085772 A JP 2021085772A
Authority
JP
Japan
Prior art keywords
work
image
measurement point
unit
measurement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019215173A
Other languages
Japanese (ja)
Other versions
JP7280810B2 (en
Inventor
正 橋本
Tadashi Hashimoto
正 橋本
崇志 成瀬
Takashi Naruse
崇志 成瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keyence Corp
Original Assignee
Keyence Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keyence Corp filed Critical Keyence Corp
Priority to JP2019215173A priority Critical patent/JP7280810B2/en
Publication of JP2021085772A publication Critical patent/JP2021085772A/en
Application granted granted Critical
Publication of JP7280810B2 publication Critical patent/JP7280810B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To allow a measurement point to be determined automatically, rapidly, and with a high reproductivity by simple operations.SOLUTION: An image measuring device includes: an acquisition unit 33e for acquiring the position of a measurement point specified on a workpiece image displayed in a display unit and illuminance information of peripheral pixels including the measurement point; a position/illuminance information storage unit 35b for storing the position of the measurement point and the illuminance information; and a processing unit 33f for acquiring an illuminance distribution of the workpiece image generated in an operation and determining a measurement point on a newly generated workpiece image on the basis of the position of the measurement point and the illuminance information.SELECTED DRAWING: Figure 3

Description

本発明は、ワークを撮像した画像を用いて2次元寸法を測定可能な画像測定装置に関する。 The present invention relates to an image measuring device capable of measuring two-dimensional dimensions using an image obtained by capturing an image of a work.

従来、ワークの寸法を測定する装置として、載置台に載置されたワークを照明装置によって照明し、照明した状態のワークを撮像装置で撮像し、得られたワーク画像を用いて各部の寸法を測定可能な画像測定装置が知られている(例えば特許文献1参照)。 Conventionally, as a device for measuring the dimensions of a work, the work placed on a mounting table is illuminated by an illuminating device, the work in the illuminated state is imaged by an imaging device, and the dimensions of each part are measured using the obtained work image. A measurable image measuring device is known (see, for example, Patent Document 1).

特許文献1の画像測定装置では、ワークを撮像して得られたワーク画像中における各画素の輝度値を取得し、輝度の変化が大きい点を、ワークの輪郭を示す測定点として抽出することができるようになっている。このような画像測定装置を用いれば、ユーザが例えば2つの測定点を選択することで、これら測定点間の寸法を簡単に取得することができる。 In the image measuring apparatus of Patent Document 1, it is possible to acquire the brightness value of each pixel in the work image obtained by imaging the work, and extract the point where the change in brightness is large as the measurement point indicating the outline of the work. You can do it. By using such an image measuring device, the user can easily acquire the dimensions between these measuring points by, for example, selecting two measuring points.

特開2010−169584号公報JP-A-2010-169584

しかしながら、上方から照明した状態のワークを撮像装置で撮像した場合、取得されたワーク画像中にワークの影が映り込んでいる場合があり、このような場合では、映り込んだ影の影響によってワーク画像中の輪郭付近の輝度の変化が小さくなってしまい、測定点としてうまく抽出されないことがある。また、ワークは、その輪郭が丸みを帯びているケースが多く、このようなワークを撮像した場合にもワーク画像中の輪郭付近の輝度の変化が小さくなってしまい、測定点としてうまく抽出されないことがある。 However, when the work in the state of being illuminated from above is imaged by the imaging device, the shadow of the work may be reflected in the acquired work image. In such a case, the work is affected by the reflected shadow. The change in brightness near the contour in the image becomes small, and it may not be extracted well as a measurement point. In addition, the contour of the work is often rounded, and even when such a work is imaged, the change in brightness near the contour in the work image becomes small, and it cannot be extracted well as a measurement point. There is.

測定点を抽出できない場合には、ユーザがワーク画像中に逐一、手動で測定点を指定することで、ワークの測定を行うことが強いられていた。この測定点の指定作業はユーザが目視で行うことになるため、同種のワークを複数個連続測定するような場合には、ユーザにとって煩雑である上に再現性が低いという問題があった。 When the measurement points could not be extracted, the user was forced to manually specify the measurement points in the work image one by one to measure the work. Since the user visually performs the work of designating the measurement points, there is a problem that it is complicated for the user and the reproducibility is low when a plurality of works of the same type are continuously measured.

本発明は、かかる点に鑑みてなされたものであり、その目的とするところは、簡単な操作でありながら、従来技術では測定点として抽出されなかった部分を、測定点として自動的に高速で、しかも再現性高く決定できるようにすることにある。 The present invention has been made in view of the above points, and an object of the present invention is to automatically and at high speed as a measurement point a portion that has not been extracted as a measurement point by the prior art, although it is a simple operation. Moreover, it is to make it possible to make a decision with high reproducibility.

上記目的を達成するために、第1の発明は、ワークを撮像することによって取得されたワーク画像中の測定点を基準に前記ワークの2次元寸法を測定する画像測定装置において、前記ワークが載置される載置台と、前記載置台に載置された前記ワークに対して上方から光を照射するための照明部と、前記照明部により前記ワークに照射されて該ワーク表面で反射した光を受光してワーク画像を生成するための撮像部と、前記撮像部で生成された前記ワーク画像を表示するための表示部と、前記画像測定装置の設定を行う設定時に前記表示部に表示された前記ワーク画像上の任意の位置を前記測定点として指定操作するための操作部と、前記操作部によって指定された前記測定点の位置と、該測定点を含む周辺画素の輝度情報とを取得する取得部と、前記取得部で取得された前記測定点の位置と前記輝度情報とを記憶する記憶部と、前記設定時のワークとは別のワークの2次元寸法を測定する前記画像測定装置の運用時に、前記撮像部で新たに生成されたワーク画像の輝度分布を取得して、前記記憶部に記憶された前記測定点の位置と前記輝度情報とに基づいて、前記新たに生成されたワーク画像上に測定点を決定する処理を実行する処理部とを備えている。 In order to achieve the above object, the first invention mounts the work in an image measuring device that measures a two-dimensional dimension of the work with reference to a measurement point in the work image acquired by imaging the work. A mounting table to be placed, an illuminating unit for irradiating the work mounted on the above-mentioned pedestal with light from above, and light emitted from the work by the illuminating unit and reflected on the surface of the work. An imaging unit for receiving light and generating a work image, a display unit for displaying the work image generated by the imaging unit, and a display unit displayed on the display unit at the time of setting the image measuring device. Acquires an operation unit for designating and operating an arbitrary position on the work image as the measurement point, the position of the measurement point designated by the operation unit, and brightness information of peripheral pixels including the measurement point. An image measuring device that measures a two-dimensional dimension of a work different from the work at the time of setting, the acquisition unit, the storage unit that stores the position of the measurement point acquired by the acquisition unit, and the brightness information. At the time of operation, the brightness distribution of the work image newly generated by the imaging unit is acquired, and the newly generated work is based on the position of the measurement point stored in the storage unit and the brightness information. It is provided with a processing unit that executes a process of determining a measurement point on the image.

この構成によれば、画像測定装置の設定時に生成されたワーク画像中の輪郭付近の輝度の変化が小さくて、輝度の変化に基づく情報だけで測定点をうまく抽出できない場合に、当該ワーク画像を表示部に表示させることで、ユーザが操作部を使用してワーク画像上の任意の位置を測定点として指定することができる。ユーザは実物のワークの形状を把握しているので、表示部に表示されたワーク画像中の輪郭付近の輝度変化が小さくても、測定したい箇所を概ね正確に指定することができる。ユーザにより指定された点が、ユーザが所望する測定点となり、その測定点の位置と、測定点を含む周辺画素の輝度情報とが記憶部に記憶される。 According to this configuration, when the change in the brightness near the contour in the work image generated at the time of setting the image measuring device is small and the measurement point cannot be successfully extracted only by the information based on the change in the brightness, the work image is selected. By displaying the image on the display unit, the user can specify an arbitrary position on the work image as a measurement point by using the operation unit. Since the user knows the shape of the actual work, even if the change in brightness near the contour in the work image displayed on the display unit is small, the point to be measured can be specified almost accurately. The point specified by the user becomes the measurement point desired by the user, and the position of the measurement point and the luminance information of the peripheral pixels including the measurement point are stored in the storage unit.

画像測定装置の運用時、即ち、設定時のワークとは異なる別のワークの2次元寸法を測定する時には、処理部が、撮像部で新たに生成されたワーク画像の輝度分布を取得し、記憶部に記憶されている測定点の位置と輝度情報とを読み込み、これら情報に基づいて新たに生成されたワーク画像上に測定点を決定する。 When operating the image measuring device, that is, when measuring the two-dimensional dimension of another work different from the work at the time of setting, the processing unit acquires and stores the brightness distribution of the work image newly generated by the imaging unit. The position of the measurement point and the brightness information stored in the unit are read, and the measurement point is determined on the newly generated work image based on the information.

すなわち、ある位置の測定点を含む周辺画素の輝度情報は、その位置が定まっていれば、同種のワークの間ではそれほど大きな変化はなく、概ね同じになるので、測定点の位置とその周辺画素の輝度情報とに基づくことで、新たなワーク画像上においても設定時に指定した測定点と同様な位置の測定点を、高い確度をもって見つけ出すことが可能になる。この処理は画像測定装置内で自動的に実行されるので、ユーザの作業が煩雑になることはなく、しかも高速に実行される。 That is, if the position is fixed, the brightness information of the peripheral pixels including the measurement point at a certain position does not change so much between the same type of workpieces and is almost the same. Therefore, the position of the measurement point and the peripheral pixels thereof Based on the brightness information of, it is possible to find a measurement point at a position similar to the measurement point specified at the time of setting on a new work image with high accuracy. Since this process is automatically executed in the image measuring device, the user's work is not complicated and is executed at high speed.

第2の発明は、前記取得部は、前記操作部によって指定された前記測定点を通る線分を定め、当該線分上に位置する画素の輝度情報を取得することを特徴とする。 The second invention is characterized in that the acquisition unit determines a line segment passing through the measurement point designated by the operation unit and acquires the luminance information of the pixel located on the line segment.

この構成によれば、測定点を通るように定められた線分上の画素の輝度情報を取得することで、測定点を含む周辺画素の輝度情報を確実に取得することができる。 According to this configuration, by acquiring the luminance information of the pixels on the line segment defined so as to pass through the measurement point, it is possible to surely acquire the luminance information of the peripheral pixels including the measurement point.

第3の発明は、前記取得部は、前記線分上に位置する画素の輝度プロファイルを生成するように構成されていることを特徴とする。 A third aspect of the invention is characterized in that the acquisition unit is configured to generate a luminance profile of pixels located on the line segment.

この構成によれば、測定点を通るように定められた線分上の画素の輝度変化を詳細に取得することができる。このとき、線分は1次元に並ぶ画素で構成される線分であってもよいし、2次元に並ぶ画素で構成される、即ちある程度の幅を持った線分であってもよい。 According to this configuration, it is possible to acquire in detail the change in the brightness of the pixels on the line segment defined so as to pass through the measurement point. At this time, the line segment may be a line segment composed of pixels arranged in one dimension, or may be a line segment composed of pixels arranged in two dimensions, that is, a line segment having a certain width.

第4の発明は、前記操作部は、複数の前記測定点を指定操作可能に構成され、前記取得部は、前記操作部により指定された前記測定点を結ぶ測定ラインを描いた時、前記測定点毎に、前記測定ラインに交差するように延びる前記線分を定め、各線分上に位置する画素の輝度プロファイルを生成して複数の輝度プロファイルを取得するように構成されていることを特徴とする。 In the fourth invention, the operation unit is configured to be able to specify and operate a plurality of the measurement points, and when the acquisition unit draws a measurement line connecting the measurement points designated by the operation unit, the measurement is performed. Each point is characterized in that the line segment extending so as to intersect the measurement line is defined, the brightness profile of the pixel located on each line segment is generated, and a plurality of brightness profiles are acquired. To do.

この構成によれば、複数の測定点が指定されることで、これら測定点を結ぶ測定ラインを描くことが可能になる。測定点毎に、測定ラインに交差するように延びる線分を定めると、複数の線分が得られることになり、これら線分上に位置する画素の輝度プロファイルを生成することで、複数の輝度プロファイルが取得されるので、測定点の周辺画素の輝度情報を十分に得ることができる。 According to this configuration, by designating a plurality of measurement points, it is possible to draw a measurement line connecting these measurement points. If a line segment extending so as to intersect the measurement line is determined for each measurement point, a plurality of line segments can be obtained, and by generating a brightness profile of pixels located on these line segments, a plurality of brightness can be obtained. Since the profile is acquired, it is possible to sufficiently obtain the luminance information of the peripheral pixels of the measurement point.

第5の発明は、前記取得部は、複数の前記輝度プロファイルを平均化した輝度プロファイルからなるマスタープロファイルを周辺画素の輝度情報とすることを特徴とする。 A fifth aspect of the present invention is characterized in that the acquisition unit uses a master profile including a brightness profile obtained by averaging a plurality of the brightness profiles as brightness information of peripheral pixels.

この構成によれば、測定ラインを含む領域の広い範囲の輝度プロファイルを取得することができる。 According to this configuration, it is possible to acquire a wide range of luminance profiles in the area including the measurement line.

第6の発明は、前記取得部は、複数の前記輝度プロファイルを微分した後、平均化したエッジプロファイルからなるマスタープロファイルを周辺画素の輝度情報とすることを特徴とする。 A sixth aspect of the present invention is characterized in that the acquisition unit uses a master profile composed of an averaged edge profile as brightness information of peripheral pixels after differentiating a plurality of the brightness profiles.

この構成によれば、輝度プロファイルを微分して絶対値を取得することで、ワークのエッジプロファイルを取得することができる。 According to this configuration, the edge profile of the work can be obtained by differentiating the brightness profile and obtaining the absolute value.

第7の発明は、前記処理部は、前記設定時に生成されたワーク画像と、前記新たに生成されたワーク画像とのマッチングにより、前記新たに生成されたワーク画像中にシークラインを設定し、該シークライン上の輝度プロファイルと、前記マスタープロファイルとの正規化相関により前記測定点を決定するように構成されていることを特徴とする。 In the seventh invention, the processing unit sets a seek line in the newly generated work image by matching the work image generated at the time of the setting with the newly generated work image. It is characterized in that the measurement point is determined by a normalized correlation between the luminance profile on the seek line and the master profile.

この構成よれば、新たに生成されたワーク画像中に設定したシークライン上の輝度プロファイルと、設定時に取得したマスタープロファイルとの正規化相関により、新たに生成されたワーク画像中に測定点を検出することができるので、測定点の位置が正確になる。 According to this configuration, the measurement point is detected in the newly generated work image by the normalization correlation between the brightness profile on the seek line set in the newly generated work image and the master profile acquired at the time of setting. Therefore, the position of the measurement point becomes accurate.

第8の発明は、前記処理部は、前記新たに生成されたワーク画像中に複数の前記測定点が検出された場合、検出された複数の前記測定点を最小二乗法で近似して測定点を決定するように構成されていることを特徴とする。 In the eighth aspect of the present invention, when a plurality of the measurement points are detected in the newly generated work image, the processing unit approximates the detected measurement points by the method of least squares to measure the measurement points. It is characterized in that it is configured to determine.

この構成よれば、処理部が複数の測定点を検出した場合に、その検出した測定点とは別に新たな測定点を複数決定することができる。 According to this configuration, when the processing unit detects a plurality of measurement points, a plurality of new measurement points can be determined separately from the detected measurement points.

第9の発明は、前記処理部は、前記新たに生成されたワーク画像中に検出された前記測定点と、最小二乗法で近似して決定された前記新たな測定点とを結ぶ測定ラインを生成するように構成されていることを特徴とする。 In the ninth aspect of the present invention, the processing unit establishes a measurement line connecting the measurement points detected in the newly generated work image and the new measurement points determined by approximation by the least squares method. It is characterized in that it is configured to generate.

この構成よれば、運用時に新たに生成されたワーク画像中に測定ラインを表示させることができ、この測定ラインがワークの輪郭となる。 According to this configuration, the measurement line can be displayed in the work image newly generated at the time of operation, and this measurement line becomes the outline of the work.

本発明によれば、画像測定装置の設定時に表示部に表示されたワーク画像上の任意の位置を測定点として指定することで、指定された測定点の位置と、該測定点を含む周辺画素の輝度情報とを取得することができる。運用時には、新たに生成されたワーク画像の輝度分布を取得して、設定時に取得した測定点の位置と輝度情報とに基づいて新たに生成されたワーク画像上に測定点を決定することができるので、ユーザにとって簡単な操作でありながら、測定点を自動的に高速で、しかも再現性高く決定できる。 According to the present invention, by designating an arbitrary position on the work image displayed on the display unit as a measurement point when the image measuring device is set, the position of the designated measurement point and the peripheral pixels including the measurement point are specified. Brightness information and can be obtained. At the time of operation, the brightness distribution of the newly generated work image can be acquired, and the measurement points can be determined on the newly generated work image based on the position and the brightness information of the measurement points acquired at the time of setting. Therefore, the measurement point can be automatically determined at high speed and with high reproducibility while being a simple operation for the user.

本発明の実施形態に係る画像測定装置の全体構成を示す図である。It is a figure which shows the whole structure of the image measuring apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る画像測定装置の構成を示す模式図である。It is a schematic diagram which shows the structure of the image measuring apparatus which concerns on embodiment of this invention. 本発明の実施形態に係る画像測定装置のブロック図である。It is a block diagram of the image measuring apparatus which concerns on embodiment of this invention. ワークの平面図である。It is a top view of the work. 図4AにおけるA−A線断面図である。FIG. 4A is a cross-sectional view taken along the line AA in FIG. 4A. ワークを撮像した画像の例を示す図である。It is a figure which shows the example of the image which imaged the work. 画像測定装置の設定モードから運用モードまでの処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process from the setting mode to the operation mode of an image measuring apparatus. マスター画像上の任意の領域を測定点抽出領域として指定操作した場合を示す図である。It is a figure which shows the case where an arbitrary area on a master image is designated operation as a measurement point extraction area. マスター画像上の測定点抽出領域の輝度変化を取得する場合を示す図である。It is a figure which shows the case which acquires the brightness change of the measurement point extraction area on a master image. 抽出された測定点をマスター画像に重畳表示した場合を示す図である。It is a figure which shows the case where the extracted measurement point is superimposed and displayed on the master image. 複数の測定を結ぶ測定ラインを生成してマスター画像に重畳表示した場合を示す図である。It is a figure which shows the case where the measurement line connecting a plurality of measurements is generated and superposed on the master image. ユーザがマスター画像上の任意の位置を測定点として指定操作した場合を示す図である。It is a figure which shows the case where the user has designated operation by designating an arbitrary position on a master image as a measurement point. ユーザが測定点を含む周辺領域を指定操作した場合を示す図である。It is a figure which shows the case which the user specified and operated the peripheral area including a measurement point. ユーザが指定した複数の測定点を結ぶ測定ラインを生成してマスター画像に重畳表示した場合を示す図である。It is a figure which shows the case where the measurement line connecting a plurality of measurement points specified by a user is generated and superposed on the master image. 設定されたシークラインを示す図である。It is a figure which shows the set seek line. 2本の測定ラインが指定された場合を示す図である。It is a figure which shows the case where two measurement lines are designated. マスターエッジプロファイルの生成処理の一例を示すフローチャートである。It is a flowchart which shows an example of the generation process of a master edge profile. マスターエッジプロファイルの生成処理を模式的に示す図である。It is a figure which shows typically the generation process of a master edge profile. 運用モード時の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the processing in operation mode. 入力画像の一例を示す図である。It is a figure which shows an example of an input image. 入力画像において測定点抽出領域が検出される様子を示す図である。It is a figure which shows how the measurement point extraction area is detected in the input image. 複数の測定点および複数の測定点を結ぶ測定ラインが検出された場合を示す図である。It is a figure which shows the case where the measurement line connecting a plurality of measurement points and a plurality of measurement points is detected. シークラインが検出された場合を示す図である。It is a figure which shows the case where the seek line is detected. シークラインの輝度プロファイルと、マスタープロファイルの正規化相関により測定点を決定する方法を説明する図である。It is a figure explaining the method of determining a measurement point by a normalization correlation of a seek line luminance profile and a master profile. 測定点が正規化相関により検出された場合を示す図である。It is a figure which shows the case where the measurement point is detected by the normalization correlation. 複数の測定点を最小二乗法によって近似して測定ラインが検出された場合を示す図である。It is a figure which shows the case where the measurement line is detected by approximating a plurality of measurement points by the least squares method. 新たな測定点及び測定ラインを決定し、2次元寸法の測定を実行した様子を示す模式図である。It is a schematic diagram which shows the state which determined the new measurement point and the measurement line, and performed the measurement of the two-dimensional dimension. マスタープロファイルの有効性判定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the validity determination process of a master profile.

以下、本発明の実施形態を図面に基づいて詳細に説明する。尚、以下の好ましい実施形態の説明は、本質的に例示に過ぎず、本発明、その適用物或いはその用途を制限することを意図するものではない。 Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. It should be noted that the following description of the preferred embodiment is essentially merely an example and is not intended to limit the present invention, its application or its use.

図1は、本発明の実施形態に係る画像測定装置1の全体構成を示す図であり、図2は、画像測定装置1の構成を示す模式図である。図1に示すように、画像測定装置1は本体部分2と制御ユニット3とを有しており、本体部分2にて取得されたワークWの画像データを制御ユニット3にて演算処理してワークWの各部の寸法を測定する。例えば、画像測定装置1は、ワークWを撮像することによって取得されたワーク画像中の測定点を基準にワークWの2次元寸法を測定することができる。 FIG. 1 is a diagram showing the overall configuration of the image measuring device 1 according to the embodiment of the present invention, and FIG. 2 is a schematic diagram showing the configuration of the image measuring device 1. As shown in FIG. 1, the image measuring device 1 has a main body portion 2 and a control unit 3, and the image data of the work W acquired by the main body portion 2 is calculated and processed by the control unit 3 to work. Measure the dimensions of each part of W. For example, the image measuring device 1 can measure the two-dimensional dimensions of the work W with reference to the measurement points in the work image acquired by imaging the work W.

(本体部分2の構成)
図1に示すように、本体部分2は、ベース部20と、ベース部20に対して昇降可能に設けられたステージ21と備えている。ステージ21の中央部近傍には、光を透過する部材で構成された載置台21aが設けられており、この載置台21aにワークWを載置することが可能になっている。ステージ21は、昇降(Z方向)だけでなく、水平方向(本体部分2の幅方向であるX方向、本体部分2の奥行き方向であるY方向)にも移動可能に構成されている。ステージ21は、電動アクチュエータ等によって動かすことができるようになっているが、ユーザが手動で動かすことができるようになっていてもよい。
(Structure of main body part 2)
As shown in FIG. 1, the main body portion 2 includes a base portion 20 and a stage 21 provided so as to be able to move up and down with respect to the base portion 20. A mounting table 21a made of a member that transmits light is provided in the vicinity of the central portion of the stage 21, and the work W can be mounted on the mounting table 21a. The stage 21 is configured to be movable not only in the ascending / descending direction (Z direction) but also in the horizontal direction (X direction which is the width direction of the main body portion 2 and Y direction which is the depth direction of the main body portion 2). Although the stage 21 can be moved by an electric actuator or the like, the stage 21 may be manually moved by the user.

本体部分2の前側には、操作部の一例としての操作パネル2aが設けられている。操作パネル2aは、各種スイッチやボタン等を有しており、画像測定装置1の操作や各種設定をユーザが行うためのものである。 An operation panel 2a as an example of the operation unit is provided on the front side of the main body portion 2. The operation panel 2a has various switches, buttons, and the like, and is for the user to operate the image measuring device 1 and perform various settings.

本体部分2は、ベース部20の後側から上方へ延びる支持アーム22と、支持アーム22の上側に支持された撮像実行部23及び表示部28とを備えている。撮像実行部23の高さ(Z方向の位置)は、電動アクチュエータ等によって変更することができるとともに、ユーザがダイヤル等を操作して変更することもできるようになっている。撮像実行部23には、撮像部24及び受光レンズユニット25等が設けられている。ワークWを載置台21aの上に載置し、操作パネル2aにて所望の操作の指定を受け付けることにより、ワークWの上方に配置されている撮像部24によりワークWが撮像され、それによって取得されたワーク画像や、ワークWの2次元寸法の測定結果等を表示部28に表示する。 The main body portion 2 includes a support arm 22 extending upward from the rear side of the base portion 20, and an imaging execution unit 23 and a display unit 28 supported on the upper side of the support arm 22. The height (position in the Z direction) of the imaging execution unit 23 can be changed by an electric actuator or the like, and can also be changed by the user by operating a dial or the like. The image pickup execution unit 23 is provided with an image pickup unit 24, a light receiving lens unit 25, and the like. By placing the work W on the mounting table 21a and accepting the designation of the desired operation on the operation panel 2a, the work W is imaged by the imaging unit 24 arranged above the work W, and the work W is acquired thereby. The work image, the measurement result of the two-dimensional dimensions of the work W, and the like are displayed on the display unit 28.

図2にも示すように、本体部分2には、ワークWを撮像する際に載置台21aに載置されたワークWに対して上方から光を照射するための落射照明部26が設けられている。落射照明部26は、受光レンズユニット25に取り付けられており、例えばリング状に構成することができる。落射照明部26によりワークWに照射された光は、ワークWの表面で反射して、受光レンズユニット25へ戻ってくる。これにより、ワークWの形状、ワークWの表面の凹凸やパターン等を撮像することができる。 As shown in FIG. 2, the main body portion 2 is provided with an epi-illumination unit 26 for irradiating the work W mounted on the mounting table 21a with light from above when the work W is imaged. There is. The epi-illumination unit 26 is attached to the light receiving lens unit 25, and can be configured in a ring shape, for example. The light emitted to the work W by the epi-illumination unit 26 is reflected by the surface of the work W and returns to the light receiving lens unit 25. This makes it possible to image the shape of the work W, the unevenness and pattern of the surface of the work W, and the like.

また、ステージ21の下方には、ワークWを下方から照明する透過照明部27が設置されている。透過照明部27は、少なくとも光源27a、反射機構27b及びレンズ27cで構成されており、光源27aから照射された光を反射機構27bにてステージ21側へ反射させ、レンズ27cにてステージ21に対して略直交する方向の平行光へと変換する。これにより、ワークWが存在しない位置の光のみ載置台21aを透過させて撮像部24により撮像することができる。 Further, below the stage 21, a transmission illumination unit 27 that illuminates the work W from below is installed. The transmission illumination unit 27 is composed of at least a light source 27a, a reflection mechanism 27b, and a lens 27c. The light emitted from the light source 27a is reflected by the reflection mechanism 27b toward the stage 21 side, and the lens 27c reflects the light with respect to the stage 21. Converts to parallel light in directions that are substantially orthogonal to each other. As a result, only the light at the position where the work W does not exist can be transmitted through the mounting table 21a and imaged by the imaging unit 24.

受光レンズユニット25は、受光レンズ25a、ビームスプリッタ25b、高倍側結像レンズ部25c及び低倍側結像レンズ部25dを備えている。高倍側結像レンズ部25cは、結像するための高倍側スリット25e及び高倍側結像レンズ25fで構成され、低倍側結像レンズ部25dは、結像するための低倍側スリット25g及び低倍側結像レンズ25hで構成されている。ビームスプリッタ25bは、受光レンズ25aからの光を二方向に分岐するプリズムである。例えばキューブ型、プレート型のビームスプリッタを使用することができる。キューブ型ビームスプリッタは、プレート型と比較して、ビームスプリッタを通過した光が屈折することがないので光軸がずれず、分岐角度のアライメント調整が容易なため好ましい。 The light receiving lens unit 25 includes a light receiving lens 25a, a beam splitter 25b, a high magnification side imaging lens unit 25c, and a low magnification side imaging lens unit 25d. The high-magnification side imaging lens unit 25c is composed of a high-magnification side slit 25e for imaging and a high-magnification side imaging lens 25f, and the low-magnification side imaging lens unit 25d includes a low-magnification side slit 25g for imaging. It is composed of a low magnification side imaging lens 25h. The beam splitter 25b is a prism that splits the light from the light receiving lens 25a in two directions. For example, a cube type or plate type beam splitter can be used. Compared to the plate type, the cube type beam splitter is preferable because the light passing through the beam splitter is not refracted, so that the optical axis does not shift and the alignment adjustment of the branch angle is easy.

図2では、落射照明部26により照射されてワークWで反射した光及び透過照明部27から照射されてステージ21の載置台21aを透過した光を、高倍側結像レンズ部25c及び低倍側結像レンズ部25dへ誘導する一例を示している。ビームスプリッタ25bにより分岐された二方向の光は、低倍側結像レンズ部25d及び高倍側結像レンズ部25cの双方へ誘導される。 In FIG. 2, the light emitted by the epi-illumination unit 26 and reflected by the work W and the light emitted from the transmission illumination unit 27 and transmitted through the mounting table 21a of the stage 21 are transferred to the high-magnification side imaging lens unit 25c and the low-magnification side. An example of guiding to the imaging lens unit 25d is shown. The bidirectional light branched by the beam splitter 25b is directed to both the low magnification side imaging lens unit 25d and the high magnification side imaging lens unit 25c.

撮像部24は、高倍側撮像部24aと、低倍側撮像部24bとを有している。高倍側撮像部24aは、高倍側結像レンズ部25cへ誘導された光をCCD、CMOS等の撮像素子24cで結像させ、高倍画像データとして制御ユニット3へ送信する。同様に低倍側撮像装置24bは、低倍側結像レンズ部25dへ誘導された光をCCD、CMOS等の撮像素子24dで結像させ、低倍画像データとして制御ユニット3へ送信する。つまり、撮像部24は、ワークWに照射されて該ワークW表面で反射した光を受光してワーク画像を生成する。 The image pickup unit 24 has a high magnification side image pickup unit 24a and a low magnification side image pickup unit 24b. The high-magnification side image pickup unit 24a forms an image of the light guided to the high-magnification side imaging lens unit 25c by an image pickup element 24c such as a CCD or CMOS, and transmits it to the control unit 3 as high-magnification image data. Similarly, the low-magnification side image pickup device 24b forms an image of the light guided to the low-magnification side imaging lens unit 25d by an image pickup element 24d such as a CCD or CMOS, and transmits it to the control unit 3 as low-magnification image data. That is, the imaging unit 24 generates a work image by receiving the light that is irradiated on the work W and reflected on the surface of the work W.

上述の受光レンズ25a及びビームスプリッタ25bによる二分岐光学系の構成により、光学系を機械的に切り替えることなく高倍画像データと低倍画像データとを同時に取得することができる。両画像データは電子的に切り替えて1つの画面上に表示することができ、また2つの画面上に別個に同時に表示することもできる。 With the configuration of the bifurcated optical system by the light receiving lens 25a and the beam splitter 25b described above, high magnification image data and low magnification image data can be acquired at the same time without mechanically switching the optical system. Both image data can be electronically switched and displayed on one screen, or can be displayed separately on two screens at the same time.

なお、ビームスプリッタ25bによる二分岐光学系の構成を省略して、高倍レンズと低倍レンズとを機械的に切り替えるようにして、高倍画像データと低倍画像データとを取得するようにしてもよい。 It should be noted that the configuration of the bifurcated optical system by the beam splitter 25b may be omitted, and the high-magnification image data and the low-magnification image data may be acquired by mechanically switching between the high-magnification lens and the low-magnification lens. ..

(制御ユニット3の構成)
図3は、本発明の実施形態に係る画像計測装置1の制御ユニット3の構成を示すブロック図である。制御ユニット3は、例えば操作部の一例であるキーボード40やマウス41等の操作デバイスを備えたパーソナルコンピュータ等で構成することができる。実施形態に係る画像計測装置1の制御ユニット3は、少なくともCPU(中央演算装置)33、RAM34、例えばハードディスクドライブやソリッドステートドライブ等からなる記憶装置35、通信装置37及び上述したハードウェアを接続する内部バス38で構成されている。内部バス38を介して、CPU33が操作パネル2a、キーボード40、マウス41、撮像部24、表示部28にも接続されており、操作パネル2a、キーボード40、マウス41の操作状態を取得することができるともに、撮像部24で取得された画像データを取得することができる。また、CPU33内で演算した結果や、撮像部24で取得された画像データ等を表示部28に表示させることができる。
(Configuration of control unit 3)
FIG. 3 is a block diagram showing a configuration of a control unit 3 of the image measuring device 1 according to the embodiment of the present invention. The control unit 3 can be composed of, for example, a personal computer provided with an operation device such as a keyboard 40 or a mouse 41, which is an example of an operation unit. The control unit 3 of the image measuring device 1 according to the embodiment connects at least a CPU (central processing unit) 33, a RAM 34, a storage device 35 including a hard disk drive, a solid state drive, or the like, a communication device 37, and the above-mentioned hardware. It is composed of an internal bus 38. The CPU 33 is also connected to the operation panel 2a, the keyboard 40, the mouse 41, the image pickup unit 24, and the display unit 28 via the internal bus 38, and the operation status of the operation panel 2a, the keyboard 40, and the mouse 41 can be acquired. At the same time, the image data acquired by the imaging unit 24 can be acquired. Further, the result of calculation in the CPU 33, the image data acquired by the imaging unit 24, and the like can be displayed on the display unit 28.

CPU33は、内部バス38を介して制御ユニット3を構成する各ハードウェアと接続されているので、上述したハードウェアの動作を制御するとともに、記憶装置35に記憶されているコンピュータプログラムに従って、種々のソフトウェア的機能を実行する。CPU33が実行可能な機能の詳細については後述するが、ワークWの輪郭を検出する測定点抽出部33a、ワークWの2次元寸法を測定する測定部33b、測定結果等の表示部28に表示させる表示制御部33c、姿勢/位置特定部33d、測定点の位置及び周辺画素の輝度情報を取得する取得部33e、測定点の位置及び周辺画素の輝度情報に基づいて測定点を決定する処理部33fをCPU33の演算処理によって構成することができる。これら各部は、ハードウェアとソフトウェアの組み合わせによって構成されていてもよいし、CPU33とは別の演算処理装置等によって構成されていてもよい。 Since the CPU 33 is connected to each hardware constituting the control unit 3 via the internal bus 38, it controls the operation of the hardware described above and variously according to the computer program stored in the storage device 35. Performs software functions. The details of the functions that can be executed by the CPU 33 will be described later, but the measurement point extraction unit 33a for detecting the contour of the work W, the measurement unit 33b for measuring the two-dimensional dimensions of the work W, and the display unit 28 for measuring the measurement results are displayed. Display control unit 33c, posture / position specifying unit 33d, acquisition unit 33e for acquiring measurement point position and brightness information of peripheral pixels, processing unit 33f for determining measurement points based on measurement point position and brightness information of peripheral pixels. Can be configured by arithmetic processing of the CPU 33. Each of these parts may be configured by a combination of hardware and software, or may be configured by an arithmetic processing device or the like different from the CPU 33.

RAM34は、例えばSRAM、SDRAM等の揮発性メモリで構成され、コンピュータプログラムの実行時にロードモジュールが展開され、コンピュータプログラムの実行時に発生する一時的なデータ等を記憶する。記憶装置35は、撮像部24で取得されたマスター画像データおよびワーク画像データを記憶する画像記憶部35a、後述する測定点の位置や周辺領域の輝度情報を記憶する位置/輝度情報記憶部35b、ユーザの測定したい測定点間の幾何寸法および許容公差の情報を記憶する測定設定記憶部35cによって構成できる。また記憶部35は図示しないがコンピュータプログラムが格納される他、測定結果、各種設定情報等も記憶することができるようになっている。 The RAM 34 is composed of, for example, a volatile memory such as SRAM or SRAM, and a load module is expanded when the computer program is executed to store temporary data or the like generated when the computer program is executed. The storage device 35 includes an image storage unit 35a that stores the master image data and the work image data acquired by the imaging unit 24, a position / brightness information storage unit 35b that stores the position of the measurement point and the brightness information of the peripheral area, which will be described later. It can be configured by a measurement setting storage unit 35c that stores information on geometric dimensions and allowable tolerances between measurement points that the user wants to measure. Although not shown, the storage unit 35 stores a computer program, and can also store measurement results, various setting information, and the like.

通信装置37は内部バス38に接続されており、通信線を介して撮像部24に接続され、高倍側撮像部24a、低倍側撮像部24bで撮像された画像データを受信する。また、インターネット、LAN、WAN等の外部のネットワークに接続されることにより、外部のコンピュータ等ともデータ送受信を行うことが可能となる。 The communication device 37 is connected to the internal bus 38, is connected to the image pickup unit 24 via a communication line, and receives image data captured by the high magnification side image pickup unit 24a and the low magnification side image pickup unit 24b. Further, by connecting to an external network such as the Internet, LAN, WAN, etc., it becomes possible to transmit / receive data to / from an external computer or the like.

(ワークWの説明)
ここで、図4A及び図4Bに基づいてワークWの一例を説明する。このワークWは、上方が開放した箱型であり、底板部W1と、底板部W1の周縁部から上方へ延びる側板部W2とを有している。このようなワークWにおいて2次元寸法を測定する箇所は複数想定される。例えば、図4Aに寸法線100で示す幅広部分の外寸、寸法線101で示すY方向の外寸、寸法線102で示す狭小部分の外寸、寸法線103で示す狭小部分の内寸等が想定される。
(Explanation of work W)
Here, an example of the work W will be described based on FIGS. 4A and 4B. This work W has a box shape with an open upper portion, and has a bottom plate portion W1 and a side plate portion W2 extending upward from the peripheral edge portion of the bottom plate portion W1. In such a work W, a plurality of locations for measuring two-dimensional dimensions are assumed. For example, FIG. 4A shows the outer dimensions of the wide portion indicated by the dimension line 100, the outer dimensions of the wide portion indicated by the dimension line 101, the outer dimensions of the narrow portion indicated by the dimension line 102, the inner dimensions of the narrow portion indicated by the dimension line 103, and the like. is assumed.

寸法線100、101、102で示す外寸については、ワークWを下方から照らす透過照明部27を用いて照明することで、比較的、容易に取得することができる。すなわち、透過照明部27によりワークWを下方から照明すると、ワークWが存在している部分で光が遮られ、それ以外の部分では光が載置台21aを透過して撮像部24に届くので、ワークWの輪郭部分(エッジ)において輝度の変化が急峻に起こることになる。よって、輝度の変化による輪郭を検出する精度が高く、図6Aにおいて後述する測定点抽出領域の指定によって測定点として精度高く検出できる。 The outer dimensions shown by the dimension lines 100, 101, and 102 can be obtained relatively easily by illuminating the work W with the transmission illuminating unit 27 that illuminates the work W from below. That is, when the work W is illuminated from below by the transmission illumination unit 27, the light is blocked at the portion where the work W exists, and the light passes through the mounting table 21a and reaches the image pickup unit 24 at the other portions. The change in brightness occurs sharply at the contour portion (edge) of the work W. Therefore, the accuracy of detecting the contour due to the change in brightness is high, and it can be detected with high accuracy as a measurement point by designating the measurement point extraction region described later in FIG. 6A.

一方、寸法線103で示す内寸については、透過照明部27が底板部W1で遮られて内側の輪郭を測定点として検出することが不可能であるため、落射照明部26を用いてワークWを上方から照明する必要がある。ところが、撮像部24で撮像したワーク画像において、側板部W2の内壁に底板部W1の内面が映り込む場合があり、このような場合では、映り込んだ底板部W1の影響によってワーク画像中の側板部W2の内壁輪郭付近の輝度の変化が小さくなってしまい、ワークWの内側の輪郭を測定点としてうまく抽出できないことがある。また、ワークWは、その輪郭が丸みを帯びているケースが多い。図4Aに示すようなワークWであっても、側板部W2と底板部W1との接続部分は湾曲面で構成されていたり、側板部W2の上端面が湾曲していることがあり、このようなワークWを撮像した場合にもワーク画像中の輪郭付近の輝度の変化が小さくなってしまい、ワークWの内側の輪郭を測定点としてうまく抽出できないことがある。また、ワークWが鋳物の場合、側板部W2には型の抜き勾配が微少に設定されていることがあり、この抜き勾配も内側の輪郭を測定点としてうまく抽出できない要因になることがある。さらに、機械加工されたワークWであれば、機械加工の跡がワーク画像に現れ、輝度の変化を小さくする要因になることがある。一例として、ワークWを撮像したワーク画像を図4Cに示す。図4Cにおいては、側板部W2の内壁に底板部W1が映り込んでいるため、側板部W2の内壁の輪郭付近の輝度変化が緩やかになっており、輪郭がぼやけている。このような場合には、後述する測定点抽出領域の指定によって測定点としてうまく検出することができない。 On the other hand, regarding the inner dimension shown by the dimension line 103, since the transmission illumination unit 27 is blocked by the bottom plate portion W1 and it is impossible to detect the inner contour as a measurement point, the work W is used by using the epi-illumination unit 26. Needs to be illuminated from above. However, in the work image captured by the imaging unit 24, the inner surface of the bottom plate portion W1 may be reflected on the inner wall of the side plate portion W2. In such a case, the side plate in the work image is affected by the reflected bottom plate portion W1. The change in brightness near the contour of the inner wall of the portion W2 becomes small, and the contour inside the work W may not be extracted well as a measurement point. Further, the work W often has a rounded outline. Even in the work W as shown in FIG. 4A, the connecting portion between the side plate portion W2 and the bottom plate portion W1 may be formed of a curved surface, or the upper end surface of the side plate portion W2 may be curved. Even when a large work W is imaged, the change in brightness near the contour in the work image becomes small, and the contour inside the work W may not be successfully extracted as a measurement point. Further, when the work W is a casting, the draft of the mold may be set to be very small on the side plate portion W2, and this draft may also be a factor that the inner contour cannot be extracted well as a measurement point. Further, in the case of the machined work W, traces of machining may appear in the work image, which may be a factor of reducing the change in brightness. As an example, a work image obtained by capturing the work W is shown in FIG. 4C. In FIG. 4C, since the bottom plate portion W1 is reflected on the inner wall of the side plate portion W2, the change in brightness near the contour of the inner wall of the side plate portion W2 is gradual, and the contour is blurred. In such a case, it cannot be detected well as a measurement point by designating the measurement point extraction area described later.

測定点抽出領域の指定によって輪郭を測定点としてうまく抽出できない場合には、ユーザがワーク画像中に逐一、手動で測定点を指定することで、ワークWの測定を行うことが強いられることになるが、この測定点の指定作業はユーザが目視で行うことになるため、同種のワークWを複数個連続測定するような場合には、ユーザにとって煩雑である上に再現性が低い。このような問題は、上述したワークWに限られるものではなく、様々な形状のワークで起こり得る。 If the contour cannot be successfully extracted as a measurement point by specifying the measurement point extraction area, the user is forced to manually specify the measurement point in the work image one by one to measure the work W. However, since the user visually performs the work of designating the measurement points, it is complicated for the user and the reproducibility is low when a plurality of works W of the same type are continuously measured. Such a problem is not limited to the work W described above, and may occur in a work having various shapes.

本実施形態では、このような従来の問題を解決することができるものであり、以下、その具体的な構成及び処理について説明する。まず、図5に示すように、画像測定装置1は、大きく分けて、ユーザが測定前に画像測定装置1の各種設定を行う設定モードと、設定モード後にワークWの測定を実行する運用モードとの2つに切替可能に構成されている。例えば画像測定装置1の立ち上げ時に設定モードに自動的に移行するように構成してもよいし、ユーザによるモードの選択操作を受け付けた後、設定モードに移行するように構成することもできる。設定モードが終了すると自動的に運用モードに移行するように構成してもよいし、ユーザによるモードの選択操作を受け付けた後、運用モードに移行するように構成することもできる。 In this embodiment, such a conventional problem can be solved, and a specific configuration and processing thereof will be described below. First, as shown in FIG. 5, the image measuring device 1 is roughly divided into a setting mode in which the user sets various settings of the image measuring device 1 before measurement and an operation mode in which the work W is measured after the setting mode. It is configured to be switchable between the two. For example, it may be configured to automatically shift to the setting mode when the image measuring device 1 is started up, or it may be configured to shift to the setting mode after accepting a mode selection operation by the user. It may be configured to automatically shift to the operation mode when the setting mode ends, or it may be configured to shift to the operation mode after accepting a mode selection operation by the user.

(設定モード)
図5に示すフローチャートは、設定モードに移行した時に開始されるが、以下に述べる設定処理は、設定モードの一部の処理であり、他の処理を設定モード中に行うこともできる。設定モードは測定点抽出領域を設定する工程(ステップSA1〜SA3)と、測定点および周辺領域を指定する工程(ステップSB1〜SB3)の二つに大別される。まずは、測定点抽出領域を設定する工程(ステップSA1〜ST2)について説明する。
(Setting mode)
The flowchart shown in FIG. 5 is started when the mode shifts to the setting mode, but the setting processing described below is a part of the setting mode, and other processing can be performed during the setting mode. The setting mode is roughly divided into two steps: a step of setting the measurement point extraction region (steps SA1 to SA3) and a step of designating the measurement point and the peripheral region (steps SB1 to SB3). First, the steps (steps SA1 to ST2) for setting the measurement point extraction region will be described.

ステップST1では、マスター画像を取得する。すなわち、ユーザがマスターとなるワークWを載置台21aに載置した後、ワークWを撮像部24により撮像してワーク画像を取得する。マスターとなるワークWを撮像して取得された画像をマスター画像と呼ぶ。マスター画像は、複数あってもよく、例えば、透過照明部27によりワークWを下方から照明した状態で撮像したマスター画像と、落射照明部26によりワークWを上方から照明した状態で撮像したマスター画像とが含まれていてもよい。マスター画像は、図3に示す記憶装置35の画像記憶部35aに記憶することができる。 In step ST1, the master image is acquired. That is, after the work W to be the master is placed on the mounting table 21a by the user, the work W is imaged by the imaging unit 24 to acquire a work image. The image obtained by imaging the work W to be the master is called a master image. There may be a plurality of master images, for example, a master image captured with the work W illuminated from below by the transmission illumination unit 27 and a master image captured with the work W illuminated from above by the epi-illumination unit 26. And may be included. The master image can be stored in the image storage unit 35a of the storage device 35 shown in FIG.

図4Cは、表示部28に表示されるマスター画像200の一例を示している。図5に示すステップST2ではまず、マスター画像200においてユーザが測定したい点について、後述するステップSA1〜SA3で測定点として抽出できそうであるか否かをユーザが判断する。ユーザの判断に応じてステップSA1〜SA3の工程とステップSB1〜SB3の工程に分岐する。なおステップST2はステップSA3の後でもよく、この場合ユーザは、ステップSA1〜SA3を試した上で、ステップSB1〜SB3の工程に進むこととなる。ステップSA1では、図6Aに示すように、ユーザが、表示部28に表示されたマスター画像200上の任意の位置を測定点抽出領域(斜線にて示す領域)として指定操作する。この指定操作は、操作パネル2a、キーボード40、マウス41等により行うことが可能になっており、例えばマウス41のドラッグ操作によって指定することができる。具体的には、測定点抽出領域として指定したい部分の上部かつ左端から下部かつ右端までポインタPTを移動させることによってドラッグ操作を行うと、取得部33eがその領域の位置及び広さ(幅及び長さ)を取得し、その領域が測定点抽出領域であるとして設定する。図5に示すステップSA2ではステップSA1で指定した測定点抽出領域について、取得部33eが図6Bに示す矢印方向に輝度変化を取得する。この結果、輝度変化の急峻な画素が測定点として抽出される。 FIG. 4C shows an example of the master image 200 displayed on the display unit 28. In step ST2 shown in FIG. 5, the user first determines whether or not the points that the user wants to measure in the master image 200 are likely to be extracted as measurement points in steps SA1 to SA3 described later. The process is branched into steps SA1 to SA3 and steps SB1 to SB3 according to the user's judgment. Note that step ST2 may be performed after step SA3. In this case, the user will try steps SA1 to SA3 and then proceed to the steps SB1 to SB3. In step SA1, as shown in FIG. 6A, the user performs an operation of designating an arbitrary position on the master image 200 displayed on the display unit 28 as a measurement point extraction area (area indicated by diagonal lines). This designation operation can be performed by the operation panel 2a, the keyboard 40, the mouse 41, or the like, and can be specified by, for example, a drag operation of the mouse 41. Specifically, when the drag operation is performed by moving the pointer PT from the upper and left ends to the lower and right ends of the portion to be designated as the measurement point extraction region, the acquisition unit 33e moves the position and width (width and length) of the region. ) Is acquired and the area is set as the measurement point extraction area. In step SA2 shown in FIG. 5, the acquisition unit 33e acquires the brightness change in the direction of the arrow shown in FIG. 6B for the measurement point extraction region designated in step SA1. As a result, pixels with a steep change in brightness are extracted as measurement points.

抽出された測定点は図6Cに示すようにマスター画像200に重畳表示される。この時、図6Cに示すように、輪郭の鮮明な側板部W2の外壁は測定点PA1〜PA4として抽出されるが、側板部W2の内壁の輪郭は測定点として抽出されない。図5に示すステップSA3では、ステップSA2で測定点として抽出された点を最小二乗近似することで測定ラインを生成する。例えば図6Dに示すように、複数の測定点PA1を結ぶ測定ラインLA1が生成され、マスター画像200に重畳表示される。図5に示すステップSA4ではユーザが任意の測定点抽出領域を指定し終えるまでステップSA1〜SA3を繰り返す。 The extracted measurement points are superimposed and displayed on the master image 200 as shown in FIG. 6C. At this time, as shown in FIG. 6C, the outer wall of the side plate portion W2 having a clear outline is extracted as the measurement points PA1 to PA4, but the contour of the inner wall of the side plate portion W2 is not extracted as the measurement point. In step SA3 shown in FIG. 5, a measurement line is generated by performing a least squares approximation of the points extracted as measurement points in step SA2. For example, as shown in FIG. 6D, a measurement line LA1 connecting a plurality of measurement points PA1 is generated and superimposed and displayed on the master image 200. In step SA4 shown in FIG. 5, steps SA1 to SA3 are repeated until the user finishes designating an arbitrary measurement point extraction region.

ステップSA5では図6Dに示すように、ユーザが測定したい測定点および測定ライン間の幾何寸法を指定する。図6Dの例では、測定ラインLA1とLA3、LA2とLA4の距離および測定ラインLA1とLA2とのなす角度を指定している。この指定操作は操作パネル2a、キーボード40、マウス41等により行うことが可能である。また、指定した各々の幾何寸法について許容公差を指定することができる。図5に示すステップST3では、ステップSA1〜SA5までで指定された測定点抽出領域のマスター画像における相対位置(位置、幅及び長さ)とユーザが指定した幾何寸法及び許容公差などが測定設定記憶部33cに記憶される。後述のステップST6では、測定設定記憶部33cに記憶されたこれらの情報を基に指定された幾何寸法を自動で演算する。 In step SA5, as shown in FIG. 6D, the user specifies the geometric dimension between the measurement point and the measurement line that he / she wants to measure. In the example of FIG. 6D, the distance between the measurement lines LA1 and LA3, LA2 and LA4, and the angle between the measurement lines LA1 and LA2 are specified. This designated operation can be performed by the operation panel 2a, the keyboard 40, the mouse 41, or the like. In addition, a permissible tolerance can be specified for each of the specified geometric dimensions. In step ST3 shown in FIG. 5, the relative position (position, width and length) in the master image of the measurement point extraction region specified in steps SA1 to SA5 and the geometric dimension and allowable tolerance specified by the user are stored in the measurement setting. It is stored in the part 33c. In step ST6, which will be described later, the geometric dimension specified is automatically calculated based on the information stored in the measurement setting storage unit 33c.

続いて測定点を指定する工程(ステップSB1〜ST3)について説明する。先述したように、ステップSA1〜SA3の工程では、ユーザが測定したい輪郭部分が測定点として抽出されないことがある。このような箇所については、ステップSB1の工程で測定点としてユーザ手動で指定する。 Subsequently, the steps (steps SB1 to ST3) for designating the measurement points will be described. As described above, in the steps SA1 to SA3, the contour portion desired to be measured by the user may not be extracted as a measurement point. Such a location is manually designated as a measurement point by the user in the step SB1.

図5に示すステップSB1では、図7Aに示すように、ユーザが、表示部28に表示されたマスター画像上の任意の位置を測定点として指定操作する。この指定操作は、操作パネル2a、キーボード40、マウス41等により行うことが可能になっている。 In step SB1 shown in FIG. 5, as shown in FIG. 7A, the user performs a designated operation by designating an arbitrary position on the master image displayed on the display unit 28 as a measurement point. This designated operation can be performed by the operation panel 2a, the keyboard 40, the mouse 41, or the like.

例えばマウス41等で操作可能なポインタPTを、表示制御部33cが表示部28にマスター画像と重畳表示させ、そのポインタPTをユーザがマウス41等によって輪郭であると推定される部分に移動させた後、例えばマウス41のクリック操作を行うことで、測定点を指定することができる。測定点の指定操作は、これに限られるものではなく、操作パネル2aやキーボード40で行ってもよい。 For example, the display control unit 33c superimposes and displays the pointer PT that can be operated by the mouse 41 or the like on the display unit 28, and the user moves the pointer PT to a portion that is presumed to be a contour by the mouse 41 or the like. After that, the measurement point can be specified by, for example, clicking the mouse 41. The operation of designating the measurement point is not limited to this, and may be performed by the operation panel 2a or the keyboard 40.

ユーザは実物のワークの形状を把握しているので、表示部28に表示されたマスター画像200中の輪郭付近の輝度変化が小さくても、測定したい箇所を概ね正確に指定することができる。ユーザが指定する測定点は複数カ所に限られるものではなく1カ所であってもよい。また、ユーザが指定する測定点は複数又は1つであってもよい。 Since the user grasps the shape of the actual work, even if the change in brightness near the contour in the master image 200 displayed on the display unit 28 is small, the portion to be measured can be specified almost accurately. The measurement points specified by the user are not limited to a plurality of points, but may be one point. Further, the number of measurement points specified by the user may be a plurality or one.

このようにして指定された測定点の位置は、ワークWの外側の輪郭や外形状等の特徴的な部分を基準とし、その部分に対する相対的な位置として特定することができる。相対的な位置として特定された測定点の位置は、取得部33eが取得し、マスター画像と合わせて位置/輝度情報記憶部35bに記憶される。 The position of the measurement point designated in this way can be specified as a relative position with respect to a characteristic portion such as an outer contour or outer shape of the work W as a reference. The position of the measurement point specified as the relative position is acquired by the acquisition unit 33e and stored in the position / luminance information storage unit 35b together with the master image.

図5に示すステップSB1ではさらに、図7Bに示すようにユーザが測定点PB1を含む周辺領域B1と、測定点PB2を含む周辺領域B2とを個別に指定することもできる。周辺領域B1は、測定点PB1を含む周辺画素の輝度情報を取得する領域を設定するものである。周辺領域B1は、例えばマウス41のドラッグ操作によって指定することができる。具体的には、周辺領域B1として指定したい部分の上部かつ左端から下部かつ右端までドラッグ操作を行うと、取得部33eがその領域の位置及び広さ(幅及び長さ)を取得し、その領域が周辺領域B1であるとして設定する。取得された周辺領域B1の位置及び広さの情報は、マスター画像と合わせて位置/輝度情報記憶部35bに記憶される。周辺領域B1の指定方法は、ドラッグ操作以外にもキーボード40による操作であってもよいし、位置座標と幅及び長さの入力による指定方法であってもよい。また、形状は四角形に限られるものではなく、測定点が一点である場合には線分となってもよい。周辺領域B2は、測定点P2を含む周辺画素の輝度情報を取得する領域を定めるものであり、周辺領域B1と同様に指定することができる。 In step SB1 shown in FIG. 5, the user can also individually specify the peripheral region B1 including the measurement point PB1 and the peripheral region B2 including the measurement point PB2 as shown in FIG. 7B. The peripheral area B1 sets an area for acquiring the luminance information of the peripheral pixels including the measurement point PB1. The peripheral area B1 can be specified, for example, by dragging the mouse 41. Specifically, when the drag operation is performed from the upper and left ends to the lower and right ends of the portion to be designated as the peripheral region B1, the acquisition unit 33e acquires the position and width (width and length) of the region, and the region Is set as the peripheral area B1. The acquired position and width information of the peripheral area B1 is stored in the position / luminance information storage unit 35b together with the master image. The method of designating the peripheral area B1 may be an operation using the keyboard 40 in addition to the drag operation, or a method of designating the peripheral area B1 by inputting the position coordinates, width, and length. Further, the shape is not limited to a quadrangle, and may be a line segment when there is only one measurement point. The peripheral region B2 defines an region for acquiring the luminance information of the peripheral pixels including the measurement point P2, and can be designated in the same manner as the peripheral region B1.

周辺領域B1、B2は、ユーザが指定することなく、取得部33eが自動的に指定するようにしてもよい。例えば、測定点PB1が設定されると、その測定点PB1を含むように予め設定された所定範囲を周辺領域として設定することができる。ステップSB2では、図7Cに示すように、ユーザが指定した複数の測定点PB1を結ぶ測定ラインLB1と、複数の測定点PB2を結ぶ測定ラインLB2とを生成する。 Peripheral areas B1 and B2 may be automatically specified by the acquisition unit 33e without being specified by the user. For example, when the measurement point PB1 is set, a predetermined range preset to include the measurement point PB1 can be set as the peripheral region. In step SB2, as shown in FIG. 7C, a measurement line LB1 connecting a plurality of measurement points PB1 designated by the user and a measurement line LB2 connecting a plurality of measurement points PB2 are generated.

その後、図5に示すステップSB3に進む。ステップSB3では、マスタープロファイルを生成する。マスタープロファイルには、マスターエッジプロファイルと、マスター輝度プロファイルとがあり、いずれか一方のみ生成してもよいし、両方生成してもよい。 Then, the process proceeds to step SB3 shown in FIG. In step SB3, a master profile is generated. The master profile includes a master edge profile and a master luminance profile, and only one of them may be generated or both may be generated.

(マスターエッジプロファイルの生成処理)
まず、マスターエッジプロファイルの生成処理について図8に示すフローチャートに基づいて説明する。スタート後のステップSC1では、図7D及び図9に示すように、複数のシークラインSL1〜3を設定し、各シークラインSL1〜3の輝度プロファイルを取得する。なお、説明の便宜上、シークラインが3つ設定されている場合について説明するが、シークラインの数は限定されるものではない。
(Master edge profile generation process)
First, the master edge profile generation process will be described with reference to the flowchart shown in FIG. In step SC1 after the start, as shown in FIGS. 7D and 9, a plurality of seek lines SL1 to 3 are set, and the brightness profile of each seekline SL1 to 3 is acquired. For convenience of explanation, a case where three seek lines are set will be described, but the number of seek lines is not limited.

図9は、測定点PB1が指定されたワークWの側板部W2の一部を拡大して示している。この図には、複数の測定点PB1と、これら測定点PB1を結ぶ測定ラインLB1と、測定点PB1を含む周辺領域B1とが表示されている。ユーザはこのような画像を表示部28を介して見ることができるようになっている。 FIG. 9 shows an enlarged part of the side plate portion W2 of the work W to which the measurement point PB1 is designated. In this figure, a plurality of measurement points PB1, a measurement line LB1 connecting these measurement points PB1, and a peripheral region B1 including the measurement points PB1 are displayed. The user can view such an image through the display unit 28.

シークラインSL1〜3は次のようにして求めることができる。まず、取得部33eは、測定点PB1を通る線分を定める。具体的には、複数の測定点PB1を結ぶ測定ラインBL1を描いた時、測定点PB1毎に、測定ラインBL1に交差するように延びる線分を定め、各線分がシークラインSL1〜3となる。シークラインSL1〜3は、測定ラインBL1に対して直交する線分で構成することができる。シークラインは、周辺領域の形状に応じてその形状が決定されてもよい。 Seeklines SL1 to SL3 can be obtained as follows. First, the acquisition unit 33e determines a line segment passing through the measurement point PB1. Specifically, when a measurement line BL1 connecting a plurality of measurement points PB1 is drawn, a line segment extending so as to intersect the measurement line BL1 is defined for each measurement point PB1, and each line segment becomes a seek line SL1 to 3. .. The seek lines SL1 to SL3 can be composed of line segments orthogonal to the measurement line BL1. The shape of the seek line may be determined according to the shape of the peripheral region.

取得部33eは、シークラインSL1上に位置する画素の輝度プロファイルを生成する。すなわち、図9の左右方向中央部に示すように、シークラインSL1上に並ぶ画素(ピクセル)を横軸に取り、縦軸に輝度値を取ったグラフにより、シークラインSL1上に位置する画素の輝度プロファイルを生成することができる。この輝度プロファイルは、シークラインSL1上に位置する画素の輝度情報に相当する。同様にしてシークラインSL2上に位置する画素の輝度プロファイルと、シークラインSL3上に位置する画素の輝度プロファイルも生成する。このようにして測定点PB1毎に輝度プロファイルを生成することができるので、複数の輝度プロファイルを取得できる。測定点PB2についても同様である。 The acquisition unit 33e generates a luminance profile of the pixel located on the seek line SL1. That is, as shown in the central portion in the left-right direction of FIG. 9, the pixels (pixels) arranged on the seek line SL1 are taken on the horizontal axis, and the luminance value is taken on the vertical axis. A brightness profile can be generated. This luminance profile corresponds to the luminance information of the pixels located on the seek line SL1. Similarly, the brightness profile of the pixel located on the seek line SL2 and the brightness profile of the pixel located on the seek line SL3 are also generated. Since the luminance profile can be generated for each measurement point PB1 in this way, a plurality of luminance profiles can be acquired. The same applies to the measurement point PB2.

その後、図8のステップSC2に進み、各シークラインSL1〜3の輝度プロファイルを微分して絶対値を取得する。これにより、各シークラインSL1〜3のエッジプロファイルを取得することができる。 After that, the process proceeds to step SC2 of FIG. 8, and the luminance profiles of the seek lines SL1 to 3 are differentiated to obtain the absolute value. Thereby, the edge profile of each seek line SL1 to SL3 can be acquired.

次いで、ステップSC3に進み、全シークラインSL1〜3のエッジプロファイルを平均化してマスターエッジプロファイルを生成する。図7Dでは、単にマスタープロファイルと表現している。マスターエッジプロファイルを生成する際、1次元に並ぶ画素の輝度値のみで生成してもよいし、シークラインSL1〜3の長手方向と、長手方向に直交する方向の2次元に並ぶ画素の輝度値を用いて生成してもよい。 Then, the process proceeds to step SC3, and the edge profiles of all the seek lines SL1 to SL3 are averaged to generate a master edge profile. In FIG. 7D, it is simply expressed as a master profile. When generating the master edge profile, it may be generated only by the brightness values of the pixels arranged in one dimension, or the brightness values of the pixels arranged in two dimensions in the longitudinal direction of the seek lines SL1 to 3 and the direction orthogonal to the longitudinal direction. May be generated using.

(マスター輝度プロファイル)
上述したマスターエッジプロファイルの代わりに、またはマスターエッジプロファイルと共に、マスター輝度プロファイルを生成することもできる。マスター輝度プロファイル生成処理については図8のステップSC2で輝度プロファイルを微分する工程を経ずに、輝度プロファイルを平均化する処理を行う。
(Master brightness profile)
It is also possible to generate a master luminance profile instead of or in conjunction with the master edge profile described above. Regarding the master luminance profile generation process, the luminance profile is averaged without going through the step of differentiating the luminance profile in step SC2 of FIG.

マスター輝度プロファイルを生成する際も、1次元に並ぶ画素の輝度値のみで生成してもよいし、シークラインSL1〜3の長手方向と、長手方向に直交する方向の2次元に並ぶ画素の輝度値を用いて生成してもよい。以降マスター輝度プロファイルを単にマスタープロファイルと表現している。 When generating the master brightness profile, it may be generated only by the brightness values of the pixels arranged in one dimension, or the brightness of the pixels arranged in two dimensions in the longitudinal direction of the seek lines SL1 to 3 and in the direction orthogonal to the longitudinal direction. It may be generated using a value. Hereinafter, the master luminance profile is simply referred to as the master profile.

(記憶処理)
上述のようにして生成したマスターエッジプロファイル及びマスター輝度プロファイルは、図7Dに示すように、シークライン上における測定点PB2の相対位置と共に、当該測定点PB2を含む周辺画素の輝度情報として記憶装置35の位置/輝度情報記憶部35bに記憶される。測定点PB1の位置、その周辺画素の輝度情報も同様に記憶される。
(Memory processing)
As shown in FIG. 7D, the master edge profile and the master luminance profile generated as described above are stored as the luminance information of the peripheral pixels including the measurement point PB2 together with the relative position of the measurement point PB2 on the seek line. Is stored in the position / luminance information storage unit 35b. The position of the measurement point PB1 and the luminance information of the peripheral pixels thereof are also stored in the same manner.

続いて、図5におけるステップSB4に進む。ステップSB4では、ユーザがすべての測定点を指定し終えるまでステップSB1〜SB3を繰り返す。ステップSB5では、ステップSA5と同様に、ユーザが測定したい測定点および測定ライン間の幾何寸法を指定する。また、指定した幾何寸法の許容公差を入力してもよい。図7Eの例では、寸法線103で示すように、測定ラインLB1とLB2の距離が指定されている。図5に示すステップST2においては、ステップSB1〜SB5で生成されたマスタープロファイル、ユーザの指定した幾何寸法及び許容公差などが測定設定記憶部33cに記憶される。後述のステップST5では、測定設定記憶部33cに記憶されたこれらの情報を基に指定された幾何寸法を自動で演算する。 Subsequently, the process proceeds to step SB4 in FIG. In step SB4, steps SB1 to SB3 are repeated until the user has specified all the measurement points. In step SB5, similarly to step SA5, the geometrical dimension between the measurement point and the measurement line that the user wants to measure is specified. You may also enter the tolerance of the specified geometric dimensions. In the example of FIG. 7E, the distance between the measurement lines LB1 and LB2 is specified as shown by the dimension line 103. In step ST2 shown in FIG. 5, the master profile generated in steps SB1 to SB5, the geometric dimension specified by the user, the allowable tolerance, and the like are stored in the measurement setting storage unit 33c. In step ST5, which will be described later, the geometric dimension specified is automatically calculated based on the information stored in the measurement setting storage unit 33c.

(運用モード)
次に、画像計測装置1の運用モードについて説明する。図5に示すステップST3以降が運用モードである。運用モードは、測定点抽出領域の指定によって抽出された測定点に基づいて測定する工程(ステップSA6〜SA8、ST6)と、マスタープロファイルを用いて測定する工程(ステップSB6〜SB8、ST6)の二つに大別される。ステップST4〜ST5までは共通である。
(Operation mode)
Next, the operation mode of the image measuring device 1 will be described. The operation mode is from step ST3 shown in FIG. There are two operation modes: a step of measuring based on the measurement points extracted by designating the measurement point extraction area (steps SA6 to SA8, ST6) and a step of measuring using the master profile (steps SB6 to SB8, ST6). It is roughly divided into two. Steps ST4 to ST5 are common.

以下、具体的に、図10に示すフローチャートに基づいて運用モードの処理について説明する。このフローチャートは設定モードが完了した後に開始される。 Hereinafter, the operation mode processing will be specifically described based on the flowchart shown in FIG. This flowchart starts after the setup mode is complete.

運用モードにおいてユーザが行うことは、新たなワークWを載置台21aの設置し、操作パネル2a内の測定ボタンを押すだけである。すなわち、ユーザはステップSD1において測定ボタンを押すだけで、ステップSD2〜SD6はすべて自動で行われる。ステップSD2では、載置されたワークWを撮像しワーク画像を生成する(以降、ワーク画像を入力画像と呼ぶ)。このとき撮像するワークWは、上記マスターのワークWとは異なり、画像測定装置1の運用時に測定するワークWである。図11Aに入力画像300の一例を示す。このように、ワークWの向きは図6A等に示すマスター画像200におけるワークWの向きと異なっていることがある。ステップSD3では、図3に示す姿勢/位置特定部33dが、設定時に取得したマスター画像200中におけるワークWの位置及び姿勢を特定するとともに、入力画像300が入力されたとき、入力画像300中におけるワークWの位置及び姿勢を画像記憶部35aに記憶されているマスター画像から呼び出し、入力画像とマッチングすることで、入力画像の姿勢を特定する。ステップSD4では、図5におけるステップST3で測定設定情報記憶部35cおよび位置/輝度情報記憶部35bに記憶された情報に基づいて、ステップSE1〜SE3の工程とステップSF1〜SF4の工程のいずれで入力画像300において測定点を検出するべきであるかを自動で判断する。 All the user has to do in the operation mode is to install the new work W on the mounting table 21a and press the measurement button in the operation panel 2a. That is, the user simply presses the measurement button in step SD1, and steps SD2 to SD6 are all performed automatically. In step SD2, the mounted work W is imaged to generate a work image (hereinafter, the work image is referred to as an input image). The work W to be imaged at this time is different from the work W of the master, and is a work W to be measured during the operation of the image measuring device 1. FIG. 11A shows an example of the input image 300. As described above, the orientation of the work W may be different from the orientation of the work W in the master image 200 shown in FIG. 6A or the like. In step SD3, the posture / position specifying unit 33d shown in FIG. 3 specifies the position and posture of the work W in the master image 200 acquired at the time of setting, and when the input image 300 is input, in the input image 300. The position and posture of the work W are called from the master image stored in the image storage unit 35a, and the posture of the input image is specified by matching with the input image. In step SD4, input is performed in either the steps SE1 to SE3 or the steps SF1 to SF4 based on the information stored in the measurement setting information storage unit 35c and the position / brightness information storage unit 35b in step ST3 in FIG. It is automatically determined whether the measurement point should be detected in the image 300.

次にステップSE1〜SE3について説明する。ステップSE1では、図5におけるステップSA1で指定した測定点抽出領域に対応する領域を検出する。これはステップSD3で、設定モードにおいてマスター画像200上で設定された測定点抽出領域について、ワークWのどこに位置しているかを測定設定記憶部33cから読み込んでいるので、マスター画像200中におけるワークWと、入力画像300中におけるワークWとをマッチングさせると、マスター画像200上の測定点抽出領域の位置に対応させて、入力画像300上で測定点抽出領域を検出することができる。図11Bは入力画像において測定点抽出領域が検出される様子である。入力画像における測定点抽出領域とマスター画像200でユーザが指定した測定点抽出領域の位置及び広さ(幅及び長さ)は対応している。ステップSE2及びSE3おいては図11Cに示すように複数の測定点および複数の測定点を結ぶ測定ラインが検出される。 Next, steps SE1 to SE3 will be described. In step SE1, the region corresponding to the measurement point extraction region specified in step SA1 in FIG. 5 is detected. This is step SD3, since the location of the measurement point extraction area set on the master image 200 in the setting mode is read from the measurement setting storage unit 33c in the work W, the work W in the master image 200 is read. By matching the work W in the input image 300 with the work W, the measurement point extraction region can be detected on the input image 300 in correspondence with the position of the measurement point extraction region on the master image 200. FIG. 11B shows a measurement point extraction region detected in the input image. The position and width (width and length) of the measurement point extraction area specified by the user in the master image 200 correspond to the measurement point extraction area in the input image. In steps SE2 and SE3, as shown in FIG. 11C, a plurality of measurement points and a measurement line connecting the plurality of measurement points are detected.

続いて、ステップSF1〜SF4について説明する。ステップSF1では、図5におけるステップSB1で指定した測定点又は周辺領域に対応する領域を検出する。図10におけるステップSD3では設定モードにおいてマスター画像200上でユーザが指定した測定点がワークWのどこに位置しているかを位置/輝度情報記憶部35bから読み込んでいるので、マスター画像200中におけるワークWと、入力画像300中におけるワークWとマッチングさせると、マスター画像200上の周辺領域B1の位置に対応させて、図12Aに示すように入力画像300上で対応するシークラインを検出することができる。マスター画像200上のシークラインについても同様に、入力画像300上で検出できる。 Subsequently, steps SF1 to SF4 will be described. In step SF1, a region corresponding to the measurement point or the peripheral region specified in step SB1 in FIG. 5 is detected. In step SD3 in FIG. 10, since the position / luminance information storage unit 35b reads where the measurement point specified by the user on the master image 200 is located in the work W in the setting mode, the work W in the master image 200 is read. When matched with the work W in the input image 300, the corresponding seek line can be detected on the input image 300 as shown in FIG. 12A, corresponding to the position of the peripheral region B1 on the master image 200. .. Similarly, the seek line on the master image 200 can be detected on the input image 300.

入力画像300上では、マスター画像上で設定した周辺領域よりも幅を拡大させてシークラインを設定する。例えば、入力画像300上では、図7Dに示すマスター画像200上で設定されたシークラインSL1〜3の長さの2倍の長さのシークラインとすることができる。シークラインは、測定点を通る線分である。入力画像300上で設定するシークラインの長さは、マスター画像200上で設定されたシークラインSL1〜3の長さ以上に設定され、入力画像300上で設定するシークラインの長さを、シークラインSL1〜3の長さの1.5倍以上にすることができる。これにより、マスター画像200上の周辺領域よりも広い範囲で探索を実行することができる。 On the input image 300, the seek line is set by expanding the width from the peripheral area set on the master image. For example, on the input image 300, a seek line having twice the length of the seek lines SL1 to 3 set on the master image 200 shown in FIG. 7D can be used. A seek line is a line segment that passes through a measurement point. The length of the seek line set on the input image 300 is set to be equal to or longer than the length of the seek lines SL1 to 3 set on the master image 200, and the length of the seek line set on the input image 300 is set to the sea. It can be 1.5 times or more the length of Klein SL1 to 3. As a result, the search can be executed in a wider range than the peripheral area on the master image 200.

入力画像300上でシークラインを設定した後、図10のステップSF2に進む。ステップSF2では、取得部33eが、新たに生成された入力画像300の輝度分布を取得して、マスター画像200上でユーザが指定した測定点の位置と、測定点を含む周辺画素の輝度情報とに基づいて、新たに生成された入力画像300上に測定点を決定する処理を実行する。 After setting the seek line on the input image 300, the process proceeds to step SF2 in FIG. In step SF2, the acquisition unit 33e acquires the brightness distribution of the newly generated input image 300, and obtains the position of the measurement point specified by the user on the master image 200 and the brightness information of the peripheral pixels including the measurement point. Based on the above, a process of determining a measurement point is executed on the newly generated input image 300.

具体的には、まず、処理部33fが、入力画像300に設定されている各シークライン上の画素の輝度プロファイルを生成する。 Specifically, first, the processing unit 33f generates a luminance profile of a pixel on each seek line set in the input image 300.

その後、図12Bに示すように、各シークラインの輝度プロファイルと、マスタープロファイルの正規化相関により測定点を決定する。マスタープロファイルは、マスターエッジプロファイルと、マスター輝度プロファイルのいずれであってもよい。以下、この決定手法について具体例を示して説明する。例えばマスタープロファイルが図12Bの右図に示すような波形で表され、かつ、測定点PB1が定義されているとする。また、入力画像300に設定されているシークライン上で図12Bの中央に示すような波形からなる輝度プロファイルが生成されたとする。図12Bの下図に示すように、マスタープロファイルを、シークライン上の輝度プロファイル(運用時に生成されたプロファイル)上で、画素の並び方向にスライドさせながら、両プロファイルの相関を調べる。図12Bの下図では、運用時に生成されたシークライン上の輝度プロファイルと、マスタープロファイルとの相関が強い場合を示している。両プロファイルの相関が強い位置を探索し、相関が強い位置を特定する。 Then, as shown in FIG. 12B, the measurement point is determined by the brightness profile of each seek line and the normalization correlation of the master profile. The master profile may be either a master edge profile or a master brightness profile. Hereinafter, a specific example of this determination method will be described. For example, suppose that the master profile is represented by a waveform as shown in the right figure of FIG. 12B, and the measurement point PB1 is defined. Further, it is assumed that a luminance profile having a waveform as shown in the center of FIG. 12B is generated on the seek line set in the input image 300. As shown in the lower figure of FIG. 12B, the correlation between the two profiles is examined while sliding the master profile in the pixel arrangement direction on the luminance profile (profile generated during operation) on the seek line. The lower figure of FIG. 12B shows a case where the brightness profile on the seek line generated during operation has a strong correlation with the master profile. Search for a position where the correlation between the two profiles is strong, and identify a position where the correlation is strong.

すなわち、ある位置の測定点PB1を含む周辺画素の輝度情報は、その位置が定まっていれば、同種のワークWの間で殆ど同じになるので、測定点PB1の位置とその周辺画素の輝度情報とに基づくことで、新たなワーク画像上において設定時に指定した測定点PB1と同様な位置の測定点を、高い確度をもって見つけ出すことが可能になる。この処理は画像測定装置1内で自動的に実行されるので、ユーザの作業が煩雑になることはなく、しかも高速に実行される。 That is, the brightness information of the peripheral pixels including the measurement point PB1 at a certain position is almost the same between the same type of work W if the position is fixed. Therefore, the position of the measurement point PB1 and the brightness information of the peripheral pixels thereof. Based on the above, it is possible to find a measurement point at a position similar to the measurement point PB1 specified at the time of setting on the new work image with high accuracy. Since this process is automatically executed in the image measuring device 1, the user's work is not complicated and is executed at high speed.

図10におけるステップSF2では、図12Cに示すように、両プロファイルの相関が強い位置で、マスタープロファイル上における測定点PB1’の位置を、シークライン上の測定点として検出する。このとき、複数の測定点を検出した後、図12Dに示すようにこれら複数の検出された測定点を最小二乗法によって近似して測定ラインを検出する。近似された測定ラインを基に(図12Dに示す測定点PB1a)測定点を決定することができる。図12Dに示す測定点PB2aについても同様に決定することができる。 In step SF2 in FIG. 10, as shown in FIG. 12C, the position of the measurement point PB1'on the master profile is detected as a measurement point on the seek line at a position where the correlation between the two profiles is strong. At this time, after detecting a plurality of measurement points, the measurement lines are detected by approximating the plurality of detected measurement points by the least squares method as shown in FIG. 12D. The measurement point can be determined based on the approximated measurement line (measurement point PB1a shown in FIG. 12D). The measurement point PB2a shown in FIG. 12D can be determined in the same manner.

ステップSE1〜SE3およびSF1〜SF4が終了すると、図13に示すように図5におけるステップST1〜ST5までの工程で抽出・指定された測定点全てが入力画像300に重畳表示される。図10におけるステップSD5では、図5におけるステップSA5及びSB5で指定し、測定設定記憶部33cに記憶された幾何寸法が測定部33bによって測定され入力画像300に重畳表示される。 When steps SE1 to SE3 and SF1 to SF4 are completed, as shown in FIG. 13, all the measurement points extracted and designated in the steps ST1 to ST5 in FIG. 5 are superimposed and displayed on the input image 300. In step SD5 in FIG. 10, the geometric dimensions specified in steps SA5 and SB5 in FIG. 5 and stored in the measurement setting storage unit 33c are measured by the measurement unit 33b and superimposed and displayed on the input image 300.

ステップSD6では、全ワークWを測定したか否かを判定する。全ワークWの測定が完了していなければステップSD1に進み、ステップSD1〜SD5を繰り返し、全ワークWの測定が完了していれば、この処理を終了する。 In step SD6, it is determined whether or not all the work W has been measured. If the measurement of all the work W is not completed, the process proceeds to step SD1, the steps SD1 to SD5 are repeated, and if the measurement of all the work W is completed, this process is terminated.

(マスタープロファイルの有効性判定処理)
次に、図8に示すフローチャートで生成したマスターエッジプロファイル及びマスター輝度プロファイルの有効性を判定する処理について、図14に示すフローチャートに基づいて説明する。この処理は、処理部33fで実行することができる。図14に示すフローチャートは、ユーザの指示によって開始することもできるし、図8に示すフローチャートの処理が完了した後に自動的に開始することもできる。
(Master profile validity judgment processing)
Next, the process of determining the validity of the master edge profile and the master luminance profile generated by the flowchart shown in FIG. 8 will be described with reference to the flowchart shown in FIG. This process can be executed by the processing unit 33f. The flowchart shown in FIG. 14 can be started by a user's instruction, or can be automatically started after the processing of the flowchart shown in FIG. 8 is completed.

ステップSH1では、マスター画像200に対して測定ラインを指定し、各測定ラインを通る線分上に位置する画素の輝度プロファイルを複数取得し、これら輝度ファイルに基づいてマスタープロファイルを生成する。 In step SH1, a measurement line is specified for the master image 200, a plurality of luminance profiles of pixels located on a line segment passing through each measurement line are acquired, and a master profile is generated based on these luminance files.

その後、ステップSH2に進み、マスター画像200自身に対してマスタープロファイルを利用して測定点を検出する。次いで、ステップSH3に進み、検出された測定点と、マスタープロファイルとの差分を計算する。差分を計算した後、ステップSH4に進み、差分の大小に応じて表示部28に表示する。例えば、差分が所定の閾値よりも大きければ、マスタープロファイルの有効性が低いと判定することができ、一方、差分が所定の閾値以下であれば、マスタープロファイルの有効性が高いと判定することができる。 After that, the process proceeds to step SH2, and the measurement point is detected for the master image 200 itself by using the master profile. Then, the process proceeds to step SH3, and the difference between the detected measurement point and the master profile is calculated. After calculating the difference, the process proceeds to step SH4, and the difference is displayed on the display unit 28 according to the magnitude of the difference. For example, if the difference is larger than a predetermined threshold value, it can be determined that the effectiveness of the master profile is low, while if the difference is equal to or less than the predetermined threshold value, it can be determined that the effectiveness of the master profile is high. it can.

(変形例1)
マスター画像は1枚である必要はなく、複数枚生成してもよい。設定時に、例えば複数個のマスターとなるワークWを準備しておき、これらワークWを順次撮像することで複数枚のマスター画像を生成することができる。そして、複数枚のマスター画像を学習することで、測定点の検出精度を高めることができる。例えば、10個のマスターとなるワークWを順次撮像して10枚のマスター画像を生成すると、10個のマスタープロファイルを生成することができるので、10セットの測定点を決定できる。これら測定点のうち、乖離の大きいものを除外することで、検出精度を高めることができる。
(Modification example 1)
The master image does not have to be one, and a plurality of master images may be generated. At the time of setting, for example, a plurality of work Ws to be masters are prepared, and a plurality of master images can be generated by sequentially imaging these work Ws. Then, by learning a plurality of master images, the detection accuracy of the measurement points can be improved. For example, if 10 work Ws to be masters are sequentially imaged to generate 10 master images, 10 master profiles can be generated, so that 10 sets of measurement points can be determined. The detection accuracy can be improved by excluding those measurement points having a large dissociation.

(変形例2)
マスター画像を複数枚生成する方法としては、複数個のマスターとなるワークWを準備しなくてもよく、例えば、1個のマスターとなるワークWを準備し、撮像条件を変えて撮像することで複数枚のマスター画像を生成することができる。撮像条件を変えるとは、例えば照明の種別(落射照明、透過照明)を変えること、照明の明るさを変えること、露光時間を変えること、レンズ倍率を変えること、フォーカスを変えること等が含まれる。このようにして生成された複数枚のマスター画像を学習することで、検出精度を高めることができる。なお、変形例1と変形例2とを組み合わせてもよい。
(Modification 2)
As a method of generating a plurality of master images, it is not necessary to prepare a plurality of work Ws to be masters. For example, by preparing one work W to be a master and imaging by changing the imaging conditions. Multiple master images can be generated. Changing the imaging conditions includes, for example, changing the type of illumination (epi-illumination, transmitted illumination), changing the brightness of the illumination, changing the exposure time, changing the lens magnification, changing the focus, and the like. .. By learning the plurality of master images generated in this way, the detection accuracy can be improved. In addition, the modification 1 and the modification 2 may be combined.

また、入力画像についても、複数通りの撮像条件で撮像し、同条件下で撮像された画像同士を用いて測定点を生成することができる。このようにして生成した測定点のうち、最も乖離の小さいものを採用する。 Further, the input image can also be imaged under a plurality of imaging conditions, and measurement points can be generated by using the images captured under the same conditions. Among the measurement points generated in this way, the one with the smallest dissociation is adopted.

(変形例3)
運用モード時には複数のワークWを連続して測定することになるが、この中で、測定点の位置が不適切である場合が想定される。測定点の位置が不適切であった場合には、ユーザがマウス41等の操作部を操作し、測定点の位置を手動で修正可能にすることもできる。修正結果は、処理部33fが把握し、その修正内容をフィードバックし、その後のワークWの測定時に測定点の検出ルールを変更することができる。
(Modification example 3)
In the operation mode, a plurality of work Ws are measured continuously, and it is assumed that the position of the measurement point is inappropriate. If the position of the measurement point is inappropriate, the user can operate an operation unit such as the mouse 41 to manually correct the position of the measurement point. The processing unit 33f grasps the correction result, feeds back the correction content, and can change the detection rule of the measurement point at the time of the subsequent measurement of the work W.

(実施形態の作用効果)
以上説明したように、この実施形態によれば、画像測定装置1の設定時に表示部28に表示されたワーク画像上の任意の位置をユーザが測定点として指定することで、指定された測定点の位置と、該測定点を含む周辺画素の輝度情報とを取得することができる。その後、画像測定装置1の運用時には、新たにワークを撮像することによってワーク画像を生成し、生成された新たなワーク画像の輝度分布を取得して、設定時に取得した測定点の位置と輝度情報とに基づいてワーク画像上に測定点を決定することができる。これにより、ユーザにとって簡単な操作でありながら、測定点を自動的に高速で、しかも再現性高く決定できる。
(Action and effect of the embodiment)
As described above, according to this embodiment, the user specifies an arbitrary position on the work image displayed on the display unit 28 when the image measuring device 1 is set as the measurement point, so that the designated measurement point is specified. And the brightness information of the peripheral pixels including the measurement point can be acquired. After that, when the image measuring device 1 is in operation, a work image is generated by newly imaging the work, the brightness distribution of the generated new work image is acquired, and the position and brightness information of the measurement points acquired at the time of setting are acquired. The measurement point can be determined on the work image based on the above. As a result, the measurement point can be automatically determined at high speed and with high reproducibility while being a simple operation for the user.

上述の実施形態はあらゆる点で単なる例示に過ぎず、限定的に解釈してはならない。さらに、特許請求の範囲の均等範囲に属する変形や変更は、全て本発明の範囲内のものである。 The above embodiments are merely exemplary in all respects and should not be construed in a limited way. Furthermore, all modifications and modifications that fall within the equivalent scope of the claims are within the scope of the present invention.

以上説明したように、本発明に係る画像測定装置は、各種ワークを撮像したワーク画像から2次元寸法を測定する場合に使用することができる。 As described above, the image measuring device according to the present invention can be used when measuring two-dimensional dimensions from work images obtained by capturing images of various workpieces.

1 画像測定装置
2a 操作パネル(操作部)
21a 載置台
24 撮像部
26 落射照明部
28 表示部
33e 取得部
33f 処理部
35a 位置/輝度情報記憶部
35c 測定設定記憶部
40 キーボード(操作部)
41 マウス(操作部)
1 Image measuring device 2a Operation panel (operation unit)
21a Mounting stand 24 Imaging unit 26 Epi-illumination unit 28 Display unit 33e Acquisition unit 33f Processing unit 35a Position / brightness information storage unit 35c Measurement setting storage unit 40 Keyboard (operation unit)
41 Mouse (operation unit)

Claims (9)

ワークを撮像することによって取得されたワーク画像中の測定点を基準に前記ワークの2次元寸法を測定する画像測定装置において、
前記ワークが載置される載置台と、
前記載置台に載置された前記ワークに対して上方から光を照射するための照明部と、
前記照明部により前記ワークに照射されて該ワーク表面で反射した光を受光してワーク画像を生成するための撮像部と、
前記撮像部で生成された前記ワーク画像を表示するための表示部と、
前記画像測定装置の設定を行う設定時に前記表示部に表示された前記ワーク画像上の任意の位置を前記測定点として指定操作するための操作部と、
前記操作部によって指定された前記測定点の位置と、該測定点を含む周辺画素の輝度情報とを取得する取得部と、
前記取得部で取得された前記測定点の位置と前記輝度情報とを記憶する記憶部と、
前記設定時のワークとは別のワークの2次元寸法を測定する前記画像測定装置の運用時に、前記撮像部で新たに生成されたワーク画像の輝度分布を取得して、前記記憶部に記憶された前記測定点の位置と前記輝度情報とに基づいて、前記新たに生成されたワーク画像上に測定点を決定する処理を実行する処理部とを備えている画像測定装置。
In an image measuring device that measures the two-dimensional dimensions of the work based on the measurement points in the work image acquired by imaging the work.
A mounting table on which the work is placed and
An illuminating unit for irradiating the work placed on the above-mentioned pedestal with light from above,
An imaging unit for generating a work image by receiving light that is irradiated on the work by the illumination unit and reflected on the surface of the work.
A display unit for displaying the work image generated by the imaging unit, and a display unit.
An operation unit for designating and operating an arbitrary position on the work image displayed on the display unit as the measurement point at the time of setting the image measurement device.
An acquisition unit that acquires the position of the measurement point designated by the operation unit and the brightness information of peripheral pixels including the measurement point.
A storage unit that stores the position of the measurement point acquired by the acquisition unit and the luminance information, and a storage unit.
During the operation of the image measuring device that measures the two-dimensional dimensions of a work different from the work at the time of the setting, the brightness distribution of the work image newly generated by the imaging unit is acquired and stored in the storage unit. An image measuring device including a processing unit that executes a process of determining a measurement point on the newly generated work image based on the position of the measurement point and the brightness information.
請求項1に記載の画像測定装置において、
前記取得部は、前記操作部によって指定された前記測定点を通る線分を定め、当該線分上に位置する画素の輝度情報を取得するように構成されている画像測定装置。
In the image measuring apparatus according to claim 1,
The acquisition unit is an image measuring device configured to determine a line segment passing through the measurement point designated by the operation unit and acquire brightness information of pixels located on the line segment.
請求項2に記載の画像測定装置において、
前記取得部は、前記線分上に位置する画素の輝度プロファイルを生成するように構成されている画像測定装置。
In the image measuring apparatus according to claim 2,
The acquisition unit is an image measuring device configured to generate a luminance profile of pixels located on the line segment.
請求項3に記載の画像測定装置において、
前記操作部は、複数の前記測定点を指定操作可能に構成され、
前記取得部は、前記操作部により指定された前記測定点を結ぶ測定ラインを描いた時、前記測定点毎に、前記測定ラインに交差するように延びる前記線分を定め、各線分上に位置する画素の輝度プロファイルを生成して複数の輝度プロファイルを取得するように構成されている画像測定装置。
In the image measuring apparatus according to claim 3,
The operation unit is configured so that a plurality of the measurement points can be designated and operated.
When the acquisition unit draws a measurement line connecting the measurement points designated by the operation unit, the acquisition unit determines the line segment extending so as to intersect the measurement line for each measurement point, and positions the line segment on each line segment. An image measuring device configured to generate a brightness profile of a pixel to be used and acquire a plurality of brightness profiles.
請求項4に記載の画像測定装置において、
前記取得部は、複数の前記輝度プロファイルを平均化した輝度プロファイルからなるマスタープロファイルを周辺画素の輝度情報とする画像測定装置。
In the image measuring apparatus according to claim 4,
The acquisition unit is an image measuring device that uses a master profile including a brightness profile obtained by averaging a plurality of the brightness profiles as brightness information of peripheral pixels.
請求項4に記載の画像測定装置において、
前記取得部は、複数の前記輝度プロファイルを微分した後、平均化したエッジプロファイルからなるマスタープロファイルを周辺画素の輝度情報とする画像測定装置。
In the image measuring apparatus according to claim 4,
The acquisition unit is an image measuring device that uses a master profile composed of an averaged edge profile as brightness information of peripheral pixels after differentiating a plurality of the brightness profiles.
請求項5または6に記載の画像測定装置において、
前記処理部は、前記設定時に生成されたワーク画像と、前記新たに生成されたワーク画像とのマッチングにより、前記新たに生成されたワーク画像中にシークラインを設定し、該シークライン上の輝度プロファイルと、前記マスタープロファイルとの正規化相関により前記測定点を決定するように構成されている画像測定装置。
In the image measuring apparatus according to claim 5 or 6.
The processing unit sets a seek line in the newly generated work image by matching the work image generated at the time of the setting with the newly generated work image, and the brightness on the seek line. An image measuring device configured to determine the measurement point by a normalized correlation between the profile and the master profile.
請求項7に記載の画像測定装置において、
前記処理部は、前記新たに生成されたワーク画像中に複数の前記測定点が検出された場合、検出された複数の前記測定点を最小二乗法で近似して測定点を決定するように構成されている画像測定装置。
In the image measuring apparatus according to claim 7,
When a plurality of the measurement points are detected in the newly generated work image, the processing unit is configured to approximate the detected plurality of measurement points by the least squares method to determine the measurement points. Image measuring device that has been used.
請求項8に記載の画像測定装置において、
前記処理部は、前記新たに生成されたワーク画像中に検出された前記測定点と、最小二乗法で近似して決定された前記新たな測定点とを結ぶ測定ラインを生成するように構成されている画像測定装置。
In the image measuring apparatus according to claim 8,
The processing unit is configured to generate a measurement line connecting the measurement points detected in the newly generated work image and the new measurement points determined by approximation by the least squares method. Image measuring device.
JP2019215173A 2019-11-28 2019-11-28 Image measuring device Active JP7280810B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019215173A JP7280810B2 (en) 2019-11-28 2019-11-28 Image measuring device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019215173A JP7280810B2 (en) 2019-11-28 2019-11-28 Image measuring device

Publications (2)

Publication Number Publication Date
JP2021085772A true JP2021085772A (en) 2021-06-03
JP7280810B2 JP7280810B2 (en) 2023-05-24

Family

ID=76087347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019215173A Active JP7280810B2 (en) 2019-11-28 2019-11-28 Image measuring device

Country Status (1)

Country Link
JP (1) JP7280810B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001165635A (en) * 1999-12-09 2001-06-22 Sony Corp Inspection device
JP2001264059A (en) * 2000-03-22 2001-09-26 Taisei Corp Method of measuring displacement quantity of measured object
JP2010169584A (en) * 2009-01-23 2010-08-05 Keyence Corp Image measuring device and computer program
JP2016050794A (en) * 2014-08-29 2016-04-11 株式会社Screenホールディングス Edge position detecting device, and edge position detecting method
JP2017129492A (en) * 2016-01-21 2017-07-27 横浜ゴム株式会社 Device, system, and method for tire tread analysis

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001165635A (en) * 1999-12-09 2001-06-22 Sony Corp Inspection device
JP2001264059A (en) * 2000-03-22 2001-09-26 Taisei Corp Method of measuring displacement quantity of measured object
JP2010169584A (en) * 2009-01-23 2010-08-05 Keyence Corp Image measuring device and computer program
JP2016050794A (en) * 2014-08-29 2016-04-11 株式会社Screenホールディングス Edge position detecting device, and edge position detecting method
JP2017129492A (en) * 2016-01-21 2017-07-27 横浜ゴム株式会社 Device, system, and method for tire tread analysis

Also Published As

Publication number Publication date
JP7280810B2 (en) 2023-05-24

Similar Documents

Publication Publication Date Title
CN102628669B (en) Dimension measuring apparatus, dimension measurement method and the program for dimension measuring apparatus
JP6290720B2 (en) Inspection device, inspection method, and program
JP5972563B2 (en) Edge detection using structured illumination
US10360684B2 (en) Method and apparatus for edge determination of a measurement object in optical metrology
JP2018004497A (en) Image measurement device
JP5385703B2 (en) Inspection device, inspection method, and inspection program
JP7137345B2 (en) Shape measuring device, shape measuring method, shape measuring program, computer-readable recording medium, and recorded equipment
JP2015200578A (en) Optical interference measurement device
JP2018004496A (en) Image measurement device
JP6937482B2 (en) Surface shape measuring device and its stitching measuring method
JP2009300124A (en) Image measuring device, image measuring method, and computer program
US11448500B2 (en) Three-dimensional shape measuring apparatus and method thereof utilizing point cloud data and top view map imaging
CN110753952A (en) Automatic alignment of 3D models to test objects
JP2006284531A (en) Tool shape measuring instrument, and tool shape measuring method
JP6599697B2 (en) Image measuring apparatus and control program therefor
JP2015232481A (en) Inspection device, inspection method, and program
JP2012037257A (en) Measurement setting data creation device, measurement setting data creation method, and program for measurement setting data creation device
JP6599698B2 (en) Image measuring apparatus and control program therefor
JP2020076676A (en) Displacement measuring device
JP7280810B2 (en) Image measuring device
JP6979885B2 (en) 3D shape auto trace method and measuring machine
JP2017053671A (en) Shape measurement method
JP2007178309A (en) Noncontact displacement measuring device, its edge detection method and edge detection program
JP2018072270A (en) Image measurement device
JP2021051090A (en) Method for measuring surface shape

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220912

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230419

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230509

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230512

R150 Certificate of patent or registration of utility model

Ref document number: 7280810

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150