JP2020187016A - Positional deviation detection method - Google Patents

Positional deviation detection method Download PDF

Info

Publication number
JP2020187016A
JP2020187016A JP2019092033A JP2019092033A JP2020187016A JP 2020187016 A JP2020187016 A JP 2020187016A JP 2019092033 A JP2019092033 A JP 2019092033A JP 2019092033 A JP2019092033 A JP 2019092033A JP 2020187016 A JP2020187016 A JP 2020187016A
Authority
JP
Japan
Prior art keywords
work
data
background display
display unit
detection method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019092033A
Other languages
Japanese (ja)
Inventor
周三郎 北
Shuzaburo Kita
周三郎 北
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Priority to JP2019092033A priority Critical patent/JP2020187016A/en
Publication of JP2020187016A publication Critical patent/JP2020187016A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

To provide a positional deviation detection method with which it is possible to improve the accuracy of detecting the outline lines of a workpiece.SOLUTION: Provided is a positional deviation detection method for detecting the amount of positional deviation between the position of a workpiece that serves as a reference taught to a robot and the actual position of the workpiece, said method comprising: (a) step of acquiring, using imaging means, images of a background display part and the workpiece placed on the background display part; (b) step of acquiring the data of outline line data of the workpiece; (c) step of comparing the outline line data against outline line data that serves as a reference, and calculating the percentage of the outline lines acquired; (d) step of changing the color of the background display part stepwise; (e) step of repeating the steps (a) through (d) n times (n=integer 1 or greater); (f) step of extracting main data that the percentage of the outline lines acquired is highest; and (g) step of comparing the main data with a calibration image and calculating the positional deviation of the workpiece as a correction amount.SELECTED DRAWING: Figure 2

Description

本発明は位置ずれ検出方法に関するものである。 The present invention relates to a misalignment detection method.

撮像手段を用いてワークを撮像して得られた画像には、ワーク以外に、ワークを載置している背景の画像も含まれている。したがって、ワークと背景とを区別する処理が必要となる。特許文献1には、光学特性が互いに異なる複数の背景材料を用いて、検査対象に測定光を照射し、測定ステップ、背景判定ステップ及び良品判定ステップを繰り返す、異物検出方法が開示されている。 The image obtained by imaging the work using the imaging means includes an image of the background on which the work is placed in addition to the work. Therefore, a process for distinguishing the work from the background is required. Patent Document 1 discloses a foreign matter detection method in which a plurality of background materials having different optical characteristics are used to irradiate an inspection target with measurement light, and a measurement step, a background determination step, and a non-defective product determination step are repeated.

特開2016−090476号公報Japanese Unexamined Patent Publication No. 2016-090476

発明者は、光学特性が互いに異なる複数の背景材料を用いる方法を、撮像装置を用いた外形ラインの検出の精度向上に適用することは困難であるという問題を見出した。 The inventor has found that it is difficult to apply a method using a plurality of background materials having different optical characteristics to improve the accuracy of detecting an outer line using an imaging device.

本発明は、上記の問題を鑑みてなされたものであり、ワークの外形ラインの検出精度を向上可能な位置ずれ検出方法を提供するものである。 The present invention has been made in view of the above problems, and provides a misalignment detection method capable of improving the detection accuracy of the outer line of the work.

本発明に係る位置ずれ検出方法は、
ロボットに教示した基準となるワークの位置と、実際のワークの位置とのずれ量を検出する位置ずれ検出方法であって、
(a)撮像手段を用いて背景表示部及び前記背景表示部上に載置した前記ワークの画像を取得するステップと、
(b)前記ワークの外形ラインのデータを取得するステップと、
(c)前記外形ラインのデータと、基準となる外形ラインのデータとを対比させ、前記外形ラインを取得できた割合を算出するステップと、
(d)前記背景表示部の色を段階的に変化させるステップと、
(e)ステップ(a)〜(d)をn回(nは1以上の整数)繰り返すステップと、
(f)前記外形ラインを取得できた割合が最も高いメインデータを抽出するステップと、
(g)前記メインデータと、校正画像とを比較し、前記ワークの位置ずれを補正量として算出するステップと、を備える。
The misalignment detection method according to the present invention
It is a position deviation detection method that detects the amount of deviation between the reference work position taught to the robot and the actual work position.
(A) A step of acquiring an image of the background display unit and the work placed on the background display unit using an imaging means, and
(B) The step of acquiring the data of the outer line of the work and
(C) A step of comparing the data of the outer shape line with the data of the reference outer shape line and calculating the ratio of obtaining the outer shape line.
(D) A step of gradually changing the color of the background display unit and
(E) A step of repeating steps (a) to (d) n times (n is an integer of 1 or more) and
(F) A step of extracting the main data having the highest ratio of acquiring the outline, and
(G) A step of comparing the main data with a proof image and calculating the positional deviation of the work as a correction amount is provided.

本発明に係る位置ずれ検出方法では、
前記背景表示部の色を段階的に変化させるステップと、
前記外形ラインを取得できた割合が最も高いメインデータを抽出するステップと、
前記メインデータと、校正画像とを比較し、前記ワークの位置ずれを補正量として算出するステップと、を備える。
よって、ワークの外形ラインの検出精度を向上できる。
In the misalignment detection method according to the present invention,
The step of gradually changing the color of the background display unit and
The step of extracting the main data with the highest rate of acquisition of the outline, and
The main data is compared with the proof image, and the step of calculating the positional deviation of the work as a correction amount is provided.
Therefore, the detection accuracy of the outer line of the work can be improved.

本発明により、ワークの外形ラインの検出精度を向上できる。 According to the present invention, the detection accuracy of the outer line of the work can be improved.

実施の形態にかかる位置ずれ検出方法に用いる画像処理装置を示す模式図である。It is a schematic diagram which shows the image processing apparatus used for the misalignment detection method which concerns on embodiment. 実施の形態にかかる位置ずれ検出方法を示すフローチャートである。It is a flowchart which shows the position deviation detection method which concerns on embodiment. 実施の形態にかかる背景表示部上にワークを載置し、境界部の位置を示した平面図である。It is a top view which showed the position of the boundary part by placing the work on the background display part which concerns on embodiment. 実施の形態にかかるワークの外形ラインの一例を示した平面図である。It is a top view which showed an example of the outline line of the work which concerns on embodiment. 実施例にかかる位置ずれ検出方法を用いて、背景色を変化させた際のワークの外形ラインの検出精度(スコア)の変化を示すグラフである。It is a graph which shows the change of the detection accuracy (score) of the outer line of a workpiece when the background color is changed by using the misalignment detection method which concerns on Example. 実施例にかかる位置ずれ検出方法を用いて背景色を変化させた際の、ワークの外形ラインの検出精度(スコア)とx方向の補正量のばらつきの関係を示すグラフである。6 is a graph showing the relationship between the detection accuracy (score) of the outer line of the work and the variation in the correction amount in the x direction when the background color is changed by using the misalignment detection method according to the embodiment. 実施例にかかる位置ずれ検出方法を用いて背景色を変化させた際の、ワークの外形ラインの検出精度(スコア)とy方向の補正量のばらつきの関係を示すグラフである。6 is a graph showing the relationship between the detection accuracy (score) of the outer line of the work and the variation in the correction amount in the y direction when the background color is changed by using the misalignment detection method according to the embodiment.

以下、本発明の具体的な実施の形態について、図面を参照しながら詳細に説明する。 Hereinafter, specific embodiments of the present invention will be described in detail with reference to the drawings.

<実施の形態>
まず、図1を用いて、本実施の形態にかかる位置ずれ検出方法に用いる画像処理装置1について説明する。
図1は、実施の形態にかかる位置ずれ検出方法に用いる画像処理装置を示す模式図である。図1に示すように、画像処理装置1は、背景表示部10、撮像手段20、画像処理部30、ロボットアーム40を備える。例えば、撮像手段20、画像処理部30及びロボットアーム40がそれぞれ別体となった構成であってもよいし、一体となった構成であるロボットビジョン(マシンビジョン)を用いてもよい。
<Embodiment>
First, the image processing apparatus 1 used in the misalignment detection method according to the present embodiment will be described with reference to FIG.
FIG. 1 is a schematic view showing an image processing apparatus used in the misalignment detection method according to the embodiment. As shown in FIG. 1, the image processing device 1 includes a background display unit 10, an imaging means 20, an image processing unit 30, and a robot arm 40. For example, the image pickup means 20, the image processing unit 30, and the robot arm 40 may be separated from each other, or a robot vision (machine vision) which is an integrated structure may be used.

本実施の形態におけるワークWは、後述する撮像手段20によって撮像可能な対象である。例えば、鋳造アルミダイカストによって鋳込まれる、エンジンブロック、ハウジングケース、ボデー部品のサスタワー、サスペンションメンバー、リアサイドメンバー等である。ワークWは、背景表示部10に載置されている。換言すると、ワークW及び背景表示部10を平面視した際に、背景表示部10は、ワークWの背景に位置する。 The work W in the present embodiment is an object that can be imaged by the imaging means 20 described later. For example, engine blocks, housing cases, suspension towers of body parts, suspension members, rear side members, etc., which are cast by cast aluminum die casting. The work W is placed on the background display unit 10. In other words, when the work W and the background display unit 10 are viewed in a plan view, the background display unit 10 is located in the background of the work W.

背景表示部10は、表示する背景色を段階的に任意の色に変更可能な画面である。背景表示部10として、例えば液晶ディスプレイや、有機ELディスプレイを用いることができる。 The background display unit 10 is a screen in which the background color to be displayed can be gradually changed to an arbitrary color. As the background display unit 10, for example, a liquid crystal display or an organic EL display can be used.

撮像手段20は、ワークW及び背景表示部10の画像を取得する、画像センサ(カメラ)である。撮像手段20は、ワークW及び背景表示部10を一度に撮像できる位置に配置することが好ましい。特に、撮像手段20を、ワークW及び背景表示部10の上方に配置することが好ましい。撮像手段20は、ワークW及び背景表示部10の上方に固定された固定式のものを用いることができるが、これに限定されない。例えば、撮像手段20は、ロボットアーム40や別の機器に接続して用いられるような、可動式のものであってもよい。撮像手段20が備える撮像素子は、例えばCCD(Charge-Coupled Device)やCMOS(Complementary Metal-Oxide Semiconductor)センサ等を用いることができる。なお、撮像手段に加え、例えばレーザー光を組み合わせることにより、ワークの3次元の位置を検出することも可能である。 The image pickup means 20 is an image sensor (camera) that acquires images of the work W and the background display unit 10. It is preferable that the imaging means 20 is arranged at a position where the work W and the background display unit 10 can be imaged at one time. In particular, it is preferable that the imaging means 20 is arranged above the work W and the background display unit 10. As the imaging means 20, a fixed type fixed above the work W and the background display unit 10 can be used, but the imaging means 20 is not limited thereto. For example, the image pickup means 20 may be a movable one that is used by connecting to a robot arm 40 or another device. As the image pickup device included in the image pickup means 20, for example, a CCD (Charge-Coupled Device) sensor, a CMOS (Complementary Metal-Oxide Semiconductor) sensor, or the like can be used. It is also possible to detect the three-dimensional position of the work by combining, for example, a laser beam in addition to the imaging means.

画像処理部30は、画像処理装置1の動作制御を行うものであり、CPU(Central Processing Unit)を含むプロセッサや、メモリ、通信モジュール、カメラポート及びロボット教示操作盤を備える。ロボット教示操作盤は、取得する画像の領域を教示するための操作盤である。より具体的には、画像処理部30は、撮像手段20が取得した画像を処理し、当該処理結果に基づき、背景表示部10又はロボットアーム40を制御する。なお、カメラポートは複数備えていてもよい。画像処理装置1が備えるロボットアーム40とは別体のロボットを、通信モジュールを用いて制御する機能を有していてもよい。画像処理部30の動作に関する詳細は、図2及び図3を用いて後述する。 The image processing unit 30 controls the operation of the image processing device 1, and includes a processor including a CPU (Central Processing Unit), a memory, a communication module, a camera port, and a robot teaching operation panel. The robot teaching operation panel is an operation panel for teaching the area of the image to be acquired. More specifically, the image processing unit 30 processes the image acquired by the imaging means 20, and controls the background display unit 10 or the robot arm 40 based on the processing result. A plurality of camera ports may be provided. It may have a function of controlling a robot separate from the robot arm 40 included in the image processing device 1 by using a communication module. Details regarding the operation of the image processing unit 30 will be described later with reference to FIGS. 2 and 3.

ロボットアーム40は、画像処理部30の処理結果に基づき、ワークWを保持し、位置ずれの補正を行う。ロボットアーム40の種類は、ワークWの形状に応じて、例えば、垂直多関節ロボット、水平多関節ロボット(スカラロボット)、パラレルリンクロボット、直交ロボット等から適宜選択可能である。ワークWの保持方法としては、ワークWを保持できるものであればよい。より具体的には、例えば、ワークWを把持、挟持、磁石を用いる等、ワークWの種類に応じて、適宜変更可能である。 The robot arm 40 holds the work W and corrects the misalignment based on the processing result of the image processing unit 30. The type of the robot arm 40 can be appropriately selected from, for example, a vertical articulated robot, a horizontal articulated robot (SCARA robot), a parallel link robot, a orthogonal robot, and the like, depending on the shape of the work W. The work W may be held as long as it can hold the work W. More specifically, for example, the work W can be appropriately changed according to the type of the work W, such as gripping, holding, and using a magnet.

本実施の形態に係る位置ずれ検出方法では、上述の画像処理装置1を用いることができる。本実施の形態にかかる位置ずれ検出方法は、ロボットに教示した基準となるワークの位置と、実際のワークの位置とのずれ量を検出する位置ずれ検出方法である。
図2は、実施の形態にかかる位置ずれ検出方法を示すフローチャートである。本実施の形態にかかる位置ずれ検出方法は、図2に示すステップS1〜S14のうち、少なくとも以下の(a)〜(g)のステップを備える。
(a)撮像手段を用いて背景表示部及び背景表示部上に載置したワークの画像を取得するステップ(ステップS2)。
(b)ワークの外形ラインのデータを取得するステップ(ステップS5)。
(c)外形ラインのデータと、基準となる外形ラインのデータとを対比させ、外形ラインを取得できた割合を算出するステップ(ステップS6)。
(d)背景表示部の色を段階的に変化させるステップ(ステップS8)。
(e)ステップ(a)〜(d)をn回(nは1以上の整数)繰り返すステップ(ステップS7)。
(f)外形ラインを取得できた割合が最も高いメインデータを抽出するステップ(ステップS9)。
(g)メインデータと、校正画像とを比較し、ワークの位置ずれを補正量として算出するステップ(ステップS11)。
In the misalignment detection method according to the present embodiment, the above-mentioned image processing device 1 can be used. The misalignment detection method according to the present embodiment is a misalignment detection method for detecting the amount of misalignment between the reference work position taught to the robot and the actual work position.
FIG. 2 is a flowchart showing a misalignment detection method according to the embodiment. The misalignment detection method according to the present embodiment includes at least the following steps (a) to (g) among steps S1 to S14 shown in FIG.
(A) A step of acquiring an image of a background display unit and a work placed on the background display unit using an imaging means (step S2).
(B) A step (step S5) of acquiring data on the outline of the work.
(C) A step (step S6) of comparing the data of the outer line with the data of the reference outer line and calculating the ratio of the outer line being acquired.
(D) A step of gradually changing the color of the background display unit (step S8).
(E) A step (step S7) in which steps (a) to (d) are repeated n times (n is an integer of 1 or more).
(F) A step (step S9) of extracting the main data having the highest ratio of acquiring the outline.
(G) A step (step S11) of comparing the main data with the proof image and calculating the displacement of the work as a correction amount.

以下、図1及び図2と、図2のフローチャートのステップの一部を示す図3及び図4を参照し、本実施の形態に係る位置ずれ検出方法の一連の流れについて説明する。 Hereinafter, a series of flows of the misalignment detection method according to the present embodiment will be described with reference to FIGS. 1 and 2 and FIGS. 3 and 4 showing a part of the steps of the flowchart of FIG.

<ステップS1:ワークセット>
図3は、実施の形態にかかる背景表示部上にワークを載置し、境界部の位置を示した平面図である。
ステップS1では、図3に示すように、背景表示部10上にワークWを載置してセットする。
ワークWを背景表示部10上に載置する方法として、例えば、ロボットや機械を用いることができる。なお、作業者が載置してもよい。また、図3では一例として、平面視でワークWと同様の形状を有する背景表示部10を用いているが、これに限定されない。背景表示部10の形状は、平面視した際にワークWの外形より大きくなるような形状であればよい。より具体的には、背景表示部10の形状は、例えば、矩形状等のものを用いることもでき、所望の形状に適宜変更可能である。
<Step S1: Workset>
FIG. 3 is a plan view showing the position of the boundary portion by placing the work on the background display portion according to the embodiment.
In step S1, as shown in FIG. 3, the work W is placed and set on the background display unit 10.
As a method of placing the work W on the background display unit 10, for example, a robot or a machine can be used. An operator may place it. Further, in FIG. 3, as an example, the background display unit 10 having the same shape as the work W in a plan view is used, but the present invention is not limited to this. The shape of the background display unit 10 may be a shape that is larger than the outer shape of the work W when viewed in a plane. More specifically, the shape of the background display unit 10 may be, for example, a rectangular shape or the like, and can be appropriately changed to a desired shape.

図3に示すように、背景表示部10が表示する背景色10aは、少なくともワークWの背景の一部に表示される。より具体的には、撮像手段20が画像取得可能な範囲の背景表示部10に、背景色10a(ドットのハッチングで示す)を表示させることが好ましい。換言すれば、図3では、背景表示部10のうち、背景色10aが表示されている部分が、撮像手段20が画像取得可能な範囲である。なお、撮像手段20の画像取得可能な範囲に応じて、背景色10aを表示させる範囲は適宜変更することが可能である。また、背景色10aの表示範囲は、撮像手段20の画像取得可能な範囲に限られず、背景表示部10全体に表示させてもよい。なお、背景色10aは、ステップS2の開始までに表示されていればよく、ワークWを載置する時点で表示されていてもよいし、載置した後に表示してもよい。 As shown in FIG. 3, the background color 10a displayed by the background display unit 10 is displayed at least in a part of the background of the work W. More specifically, it is preferable to display the background color 10a (indicated by the hatching of dots) on the background display unit 10 in the range in which the image pickup means 20 can acquire an image. In other words, in FIG. 3, the portion of the background display unit 10 on which the background color 10a is displayed is the range in which the image pickup means 20 can acquire an image. The range for displaying the background color 10a can be appropriately changed according to the range in which the image can be acquired by the imaging means 20. Further, the display range of the background color 10a is not limited to the range in which the image can be acquired by the imaging means 20, and may be displayed on the entire background display unit 10. The background color 10a may be displayed by the start of step S2, may be displayed at the time when the work W is placed, or may be displayed after the work W is placed.

本実施の形態において、一連のフローの間表示されている背景色10aは、単色であることが好ましい。背景色10aとして、例えば、ワークWの色と補色関係となる色を用いることができる。また、ワークWの色が無彩色である場合は、無彩色とコントラストがつきやすい、白、黒及び青系統のいずれかの色を用いることができる。 In the present embodiment, the background color 10a displayed during the series of flows is preferably a single color. As the background color 10a, for example, a color having a complementary color relationship with the color of the work W can be used. When the color of the work W is achromatic, any one of white, black, and blue, which easily contrasts with the achromatic color, can be used.

<ステップS2:画像取得(a)>
ステップS2では、図1に示す撮像手段20を用いて、背景表示部10及び背景表示部10上に載置したワークWの画像を取得する。背景表示部10には、背景色10aが表示されているものとする。
本実施の形態では、撮像手段20はワークW及び背景表示部10の上方に配置されている。したがって、ワークW及び背景表示部10を平面視した、二次元画像を取得することができる。
<Step S2: Image acquisition (a)>
In step S2, the image capturing means 20 shown in FIG. 1 is used to acquire an image of the work W placed on the background display unit 10 and the background display unit 10. It is assumed that the background color 10a is displayed on the background display unit 10.
In the present embodiment, the imaging means 20 is arranged above the work W and the background display unit 10. Therefore, it is possible to acquire a two-dimensional image in which the work W and the background display unit 10 are viewed in a plan view.

以下、ステップS3〜ステップS14は、図1に示す画像処理部30が処理を行う。 Hereinafter, in steps S3 to S14, the image processing unit 30 shown in FIG. 1 performs processing.

<ステップS3:ワークと背景表示部との境界部のコントラストを算出>
ステップS3では、境界部のコントラストを算出する。
図3に示すように、境界部Bとは、撮像手段20が画像取得可能な範囲であって、平面視した際に、ワークWと背景表示部10が表示する背景色10aとの境界部分のことを指す。図3では、境界部Bを黒太線にて示す。境界部のコントラストの算出方法としは、輝度、彩度、濃度などの差を用いてもよく、一般的なコントラストの算出方法を用いることが可能である。
<Step S3: Calculate the contrast of the boundary between the work and the background display>
In step S3, the contrast of the boundary portion is calculated.
As shown in FIG. 3, the boundary portion B is a range in which the image pickup means 20 can acquire an image, and is a boundary portion between the work W and the background color 10a displayed by the background display unit 10 when viewed in a plan view. Point to that. In FIG. 3, the boundary portion B is shown by a thick black line. As a method for calculating the contrast of the boundary portion, a difference in brightness, saturation, density, or the like may be used, and a general method for calculating the contrast can be used.

<ステップS4:ワークの外形ラインの判断>
ステップS4では、取得した境界部Bのコントラストに基づき、ワークWの外形ラインELを判断可能か否かを判断する。
<Step S4: Judgment of the outer line of the work>
In step S4, it is determined whether or not the outer line EL of the work W can be determined based on the acquired contrast of the boundary portion B.

まず、本実施の形態における用語「外形ライン」について説明する。
図4は、実施の形態にかかるワークの外形ラインの一例を示した平面図である。図4では、ワークWの外形ラインELの一例を、黒太線にて示す。図4に示すように、境界部Bとして取得した部分のうち、少なくとも一部の指定した範囲のことを、「外形ラインEL」と呼ぶ。より具体的には、例えば、図3に示した境界部Bのうち、右上がり斜線、右下がり斜線及び半楕円状の円弧を、データを取得する対象の外形ラインELとして指定することができる。なお、データ取得対象の外形ラインELを、境界部Bと一致するように指定してもよい。
First, the term "outer shape line" in the present embodiment will be described.
FIG. 4 is a plan view showing an example of the outer line of the work according to the embodiment. In FIG. 4, an example of the outer line EL of the work W is shown by a thick black line. As shown in FIG. 4, of the portion acquired as the boundary portion B, at least a part of the designated range is referred to as "outer shape line EL". More specifically, for example, in the boundary portion B shown in FIG. 3, a right-up diagonal line, a right-down diagonal line, and a semi-elliptical arc can be designated as the outer line EL for which data is to be acquired. The outer line EL of the data acquisition target may be specified so as to coincide with the boundary portion B.

データ取得対象の外形ラインELとして指定した部分は、後のステップにおいて、ワークWの位置ずれ量の補正の指標として用いることができる。すなわち、ロボットに教示した外形ラインELの基準となる位置と、取得した外形ラインELの位置との間にずれがある場合、当該ずれ量に基づいて、ワークWの位置の補正を行うことができる。 The portion designated as the outer line EL of the data acquisition target can be used as an index for correcting the displacement amount of the work W in a later step. That is, if there is a deviation between the reference position of the outer shape line EL taught to the robot and the position of the acquired outer shape line EL, the position of the work W can be corrected based on the deviation amount. ..

次に、本ステップにて行うワークの外形ラインの判断可否について説明する。
ワークWの外形ラインを判断可能な場合とは(ステップS4:YES)、例えば、ステップS3で算出した境界部Bのコントラストが高い場合である。すなわち、ワークWの外形ラインELの色と、背景表示部10が表示する背景色10aの色とがより高コントラストとなっている場合である。
Next, it will be described whether or not the outer line of the work performed in this step can be determined.
The case where the outer line of the work W can be determined (step S4: YES) is, for example, the case where the contrast of the boundary portion B calculated in step S3 is high. That is, the color of the outer line EL of the work W and the color of the background color 10a displayed by the background display unit 10 have a higher contrast.

これに対し、ワークWの外形ラインを判断可能ではない場合とは(ステップS4:NO)、例えば、ステップS3で算出した境界部Bのコントラストが低い場合である。すなわち、ワークWの外形ラインELの色と、背景表示部10が表示する背景色10aの色とが近い色であり、低コントラストとなっている場合である。 On the other hand, the case where the outer line of the work W cannot be determined (step S4: NO) is, for example, the case where the contrast of the boundary portion B calculated in step S3 is low. That is, the color of the outer line EL of the work W and the color of the background color 10a displayed by the background display unit 10 are close to each other, and the contrast is low.

図2に示すように、画像処理部30が記憶する外形ラインELを判断可能であるとする閾値のデータと、取得した画像から算出した境界部Bのコントラストのデータとに基づいて、取得したデータが閾値以上である場合は(ステップS4:YES)、ステップS5へ進む。一方、取得したデータが閾値を下回る場合は(ステップS4:NO)、ステップS13へ進み、当該取得したデータは外形ラインのデータリストから外す。ステップS13へ進んだ場合は、ステップS2へ戻ってフローを再開してもよい。 As shown in FIG. 2, the acquired data is based on the threshold data that the external line EL stored in the image processing unit 30 can be determined and the contrast data of the boundary portion B calculated from the acquired image. If is equal to or greater than the threshold value (step S4: YES), the process proceeds to step S5. On the other hand, if the acquired data is below the threshold value (step S4: NO), the process proceeds to step S13, and the acquired data is removed from the data list of the outer line. If the process proceeds to step S13, the flow may be restarted by returning to step S2.

<ステップS5:外形ラインのデータを取得(b)>
ステップS5では、ステップS4において外形ラインELを判断可能と判断したデータを取得する。すなわち、外形ラインELを判断可能とされた境界部Bのデータから、外形ラインELとして指定した部分を、取得データとして取得する。
<Step S5: Acquire external line data (b)>
In step S5, the data determined in step S4 that the outer line EL can be determined is acquired. That is, the portion designated as the outer line EL is acquired as the acquisition data from the data of the boundary portion B for which the outer line EL can be determined.

<ステップS6:基準データに対する取得データの割合を算出(c)>
ステップS6では、外形ラインELの基準となる基準データと、ステップS5にて取得した外形ラインELの取得データと、を対比させ、外形ラインELを取得できた割合を数値として算出する。数値は例えば、パーセント(%)表記で算出することができる。外形ラインELの基準となる「基準データ」とは、ワークWの外形ラインの実測データのことを指す。
<Step S6: Calculate the ratio of acquired data to reference data (c)>
In step S6, the reference data that is the reference of the outer line EL and the acquired data of the outer line EL acquired in step S5 are compared, and the ratio of the outer line EL that can be acquired is calculated as a numerical value. Numerical values can be calculated, for example, in percentage (%) notation. The "reference data" that serves as the reference for the outer line EL refers to the actual measurement data of the outer line of the work W.

ここで、「外形ラインELを取得できた割合」の具体例について説明する。
例えば、外形ラインELを取得できた割合が100%の場合とは、基準データと取得データを対比させたとき、100%一致することを指す。すなわち、撮像手段20が撮像した画像から取得したデータより、ワークWの外形ラインELを完全に読み取ることができたことを意味する。この場合、外形ラインELの検出精度(スコア)は100である。
Here, a specific example of "the rate at which the outer line EL can be acquired" will be described.
For example, the case where the ratio of the external line EL that can be acquired is 100% means that when the reference data and the acquired data are compared, they match 100%. That is, it means that the outer line EL of the work W could be completely read from the data acquired from the image captured by the imaging means 20. In this case, the detection accuracy (score) of the outer line EL is 100.

例えば、外形ラインELを取得できた割合が80%の場合とは、基準データと取得データとを対比させたとき、80%一致することを指す。すなわち、撮像手段20が撮像した画像から取得したデータより、基準データに対してワークWの外形ラインELの80%を読み取ることはできたが、20%は読み取ることができなかったことを意味する。この場合、外形ラインELの検出精度(スコア)を80である。 For example, the case where the ratio of the external line EL that can be acquired is 80% means that when the reference data and the acquired data are compared, they match by 80%. That is, it means that 80% of the outer line EL of the work W could be read from the data acquired from the image captured by the imaging means 20 with respect to the reference data, but 20% could not be read. .. In this case, the detection accuracy (score) of the outer line EL is 80.

<ステップS7:n回繰り返し完了の判断(e)>
ステップS7では、ステップS2〜S6をn回繰り返したか否かを判断する。nは1以上の整数であり、任意の値に設定可能である。n回繰り返しが完了していない場合は(ステップS7:NO)、ステップS8に進む。n回繰り返しが完了した場合は(ステップS7:YES)、ステップS9に進む。
<Step S7: Judgment of completion of n repetitions (e)>
In step S7, it is determined whether or not steps S2 to S6 are repeated n times. n is an integer of 1 or more and can be set to any value. If the repetition is not completed n times (step S7: NO), the process proceeds to step S8. When the repetition is completed n times (step S7: YES), the process proceeds to step S9.

<ステップS8:背景色を変化させる(d)>
ステップS8では、背景表示部10の背景色10aを段階的に変化させる。段階的に変化させるとは、いわゆるグラデーションに変化させることである。より具体的には、ステップS2〜S8を繰り返す一連のフローごとに、色を段階的に変化させる。すなわち、1回目のフローからn回目のフローまでの各回の色を並べると、グラデーションになるように変化させる。グラデーションの変化の程度は任意に設定可能である。
<Step S8: Change the background color (d)>
In step S8, the background color 10a of the background display unit 10 is changed stepwise. To change in stages is to change to a so-called gradation. More specifically, the color is changed stepwise for each series of flows in which steps S2 to S8 are repeated. That is, when the colors of each time from the first flow to the nth flow are arranged, they are changed so as to form a gradation. The degree of change in gradation can be set arbitrarily.

<ステップS9:取得した外形ラインの割合が最も高いデータを抽出(f)>
ステップS9では、外形ラインELを取得できた割合が最も高いデータをメインデータとして抽出する。背景色10aをn回、段階的に変化させることによって、同じワークWについて、最大でn個のデータを取得することができる。n個のデータのうち、ワークWと背景色10aとの境界部Bにおいて、コントラストが最も大きいとき、ワークWの外形ラインELをより正確に読み取ることができる。すなわち、コントラストが最も大きく、外形ラインELを取得できた割合がより100%に近い値となった場合のデータをメインデータとして抽出し、ステップS10へ進む。
<Step S9: Extract the data having the highest ratio of acquired external lines (f)>
In step S9, the data having the highest ratio of acquiring the outer line EL is extracted as the main data. By changing the background color 10a n times in a stepwise manner, a maximum of n data can be acquired for the same work W. Of the n data, when the contrast is the largest at the boundary portion B between the work W and the background color 10a, the outer line EL of the work W can be read more accurately. That is, the data when the contrast is the largest and the ratio at which the outer line EL can be acquired becomes a value closer to 100% is extracted as the main data, and the process proceeds to step S10.

<ステップS10:メインデータが閾値以上か否かの判断>
ステップS10では、ステップS9において抽出したメインデータが、閾値以上か否かを判断する。ステップS9において外形ラインELを取得できた割合の値が、所定の値以上であったか否かを閾値として設定する。閾値は、任意の値(%)を設定することができ、当該値は適宜変更可能である。メインデータが閾値以上であった場合(ステップS10:YES)、ステップS11へ進む。メインデータが閾値未満であった場合(ステップS10:NO)、ステップS14へ進み、フローを停止する。なお、ステップS14へ進んだ場合は、ステップS2へ戻ってフローを再開してもよい。
<Step S10: Determining whether the main data is above the threshold value>
In step S10, it is determined whether or not the main data extracted in step S9 is equal to or greater than the threshold value. Whether or not the value of the ratio at which the outer line EL can be acquired in step S9 is equal to or greater than a predetermined value is set as a threshold value. Any value (%) can be set for the threshold value, and the value can be changed as appropriate. If the main data is equal to or greater than the threshold value (step S10: YES), the process proceeds to step S11. If the main data is less than the threshold value (step S10: NO), the process proceeds to step S14 and the flow is stopped. If the process proceeds to step S14, the flow may be restarted by returning to step S2.

<ステップS11:校正画像と照合し、補正量を算出(g)>
ステップS11では、メインデータと、校正用に準備した校正画像とを照合し、ワークWの位置ずれを補正量として算出する。ワークWを平面視した際のx軸方向、y軸方向及びr方向について、補正量を算出することができる。
<Step S11: Collate with the proof image and calculate the correction amount (g)>
In step S11, the main data is collated with the proofreading image prepared for proofreading, and the displacement of the work W is calculated as the correction amount. The correction amount can be calculated in the x-axis direction, the y-axis direction, and the r direction when the work W is viewed in a plan view.

<ステップS12:補正量をロボットに送信>
ステップS12では、ステップS11で算出した補正量をロボットに送信する。ワークWを置いた位置と、基準位置との間にずれがあった場合であっても、補正量を受信したロボットは、正確な位置で搬送チャック等を行うことができる。
<Step S12: Send the correction amount to the robot>
In step S12, the correction amount calculated in step S11 is transmitted to the robot. Even if there is a deviation between the position where the work W is placed and the reference position, the robot that has received the correction amount can perform the transfer chuck or the like at an accurate position.

以上が、本実施の形態にかかる位置ずれ検出方法の一連の流れである。
本実施の形態にかかる位置ずれ検出方法は、他に、以下の場合についても用いることができる。例えば、ビジョンやカメラを用いて、製品やワークの位置又は外形のシルエットなどを識別する場合にも、用いることができる。また、治具、中継台又は仮置き台などに置いた粗材、ワーク又は製品等を、ロボット又は機械を用いて搬送チャックを行う場合にも、用いることができる。さらに、異なる色のワークや製品が混在している場合について、当該ワークや製品をロボット又は機械を用いて搬送チャックを行う場合にも、用いることができる。また、ワークの塗装の前後や、焼き入れの前後等、色の変化前と変化後のワークの両方でロボット又は機械を用いて搬送チャックを行う場合においても用いることができる。
The above is a series of steps of the misalignment detection method according to the present embodiment.
The misalignment detection method according to the present embodiment can also be used in the following cases. For example, it can also be used when identifying the position of a product or work or the silhouette of the outer shape by using a vision or a camera. It can also be used when a rough material, a work, a product, or the like placed on a jig, a relay stand, a temporary stand, or the like is subjected to a transfer chuck by using a robot or a machine. Further, when workpieces and products of different colors are mixed, it can also be used when the workpieces and products are conveyed and chucked by using a robot or a machine. It can also be used when the transfer chuck is performed by using a robot or a machine before and after painting the work, before and after quenching, etc., both before and after the color change.

発明者は、光学特性が互いに異なる複数の背景材料を用いる方法を、撮像装置を用いた外形ラインの検出の精度向上に適用することは困難であるという問題を見出した。 The inventor has found that it is difficult to apply a method using a plurality of background materials having different optical characteristics to improve the accuracy of detecting an outer line using an imaging device.

本実施の形態では、ワークを載置した背景表示部の背景色を、一連のフローの繰り返し単位ごとに段階的に変化させている。ワークは、同素材を用いた場合であっても成形条件によっては色が異なる場合があるが、色が異なるワークについて位置ずれの検出を行う場合であっても、背景表示部の背景色を適宜段階的に変化させることができる。つまり、本実施の形態では、背景色を段階的に変化させた上で、ワークの外形ラインを取得できた割合が最も高いメインデータに基づいて、位置ずれの補正量を決定することができる。したがって、外形ラインの検出精度を向上できる。 In the present embodiment, the background color of the background display unit on which the work is placed is changed stepwise for each repeating unit of a series of flows. Even when the same material is used, the color of the work may differ depending on the molding conditions, but even when the position shift is detected for the work with different colors, the background color of the background display portion is appropriately used. It can be changed step by step. That is, in the present embodiment, the background color can be changed stepwise, and then the correction amount of the misalignment can be determined based on the main data having the highest ratio of acquiring the outline of the work. Therefore, the detection accuracy of the outer line can be improved.

以下、図5〜7を参照し、実施例に基づき本発明を具体的に説明するが、本発明はこれらの実施例のみに限定されるものではない。 Hereinafter, the present invention will be specifically described with reference to FIGS. 5 to 7, but the present invention is not limited to these examples.

本実施例では、ワークとしてアルミ製の粗材を用いて、位置ずれ検出を行った。ワークの色は、銀白色であった。
図5は、実施例にかかる位置ずれ検出方法を用いて、背景色を変化させた際のワークの外形ラインの検出精度(スコア)の変化を示すグラフである。ここで、「検出精度(スコア)」とは、実施の形態のステップS6において述べたように、外形ラインの基準となる基準データと、取得した外形ラインの取得データと、を対比させ、外形ラインを取得できた割合を数値(パーセント、%)として算出したものである。
In this embodiment, misalignment was detected using a rough aluminum material as the work. The color of the work was silvery white.
FIG. 5 is a graph showing a change in the detection accuracy (score) of the outer line of the work when the background color is changed by using the misalignment detection method according to the embodiment. Here, the “detection accuracy (score)” refers to the external line by comparing the reference data that is the reference of the external line with the acquired data of the acquired external line, as described in step S6 of the embodiment. Is calculated as a numerical value (percentage,%).

図5のグラフの横軸は背景色を示しており、縦軸は検出精度(スコア)を示している。各プロットが、繰り返し回数を示している。具体的には、例えば、一番左のプロットが1回目、2番目のプロットが2回目の繰り返しを行ったときの検出精度(スコア)を示している。 The horizontal axis of the graph of FIG. 5 indicates the background color, and the vertical axis indicates the detection accuracy (score). Each plot shows the number of iterations. Specifically, for example, the leftmost plot shows the detection accuracy (score) when the first plot is repeated and the second plot shows the second repetition.

本実施例では、図5に示すように、横軸の上向き黒矢印のタイミングで、背景色を白から黒へと変化させた。具体的には、本実施例では、白背景を用いた検出を64回繰り返した。白背景の、合計検出回数64回の検出精度(スコア)の平均は、94.0%であった。一方、黒背景に変更した後、黒背景を用いた検出を55回繰り返した。黒背景の、合計検出回数55回の検出精度(スコア)の平均は、99.2%であった。このように、背景色を白から黒へと変化させることによって、検出精度(スコア)を向上させることができた。本実施例において用いたワークは銀白色であるため、ワークに対して白背景を用いるよりも、黒背景を用いた方が高コントラストとなり、検出精度(スコア)を向上させることができたものと考えられる。 In this embodiment, as shown in FIG. 5, the background color is changed from white to black at the timing of the upward black arrow on the horizontal axis. Specifically, in this example, the detection using a white background was repeated 64 times. The average detection accuracy (score) of the total number of detections of 64 on a white background was 94.0%. On the other hand, after changing to a black background, detection using the black background was repeated 55 times. The average detection accuracy (score) of 55 detections on a black background was 99.2%. In this way, by changing the background color from white to black, the detection accuracy (score) could be improved. Since the work used in this example is silver-white, the contrast is higher when a black background is used than when a white background is used for the work, and the detection accuracy (score) can be improved. Conceivable.

図6は、実施例にかかる位置ずれ検出方法を用いて背景色を変化させた際の、ワークの外形ラインの検出精度(スコア)とx方向の補正量のばらつきの関係を示すグラフである。x方向の補正量とは、ステップS11にて算出した補正量のことを意味する。すなわち、ロボットに教示した基準となる位置データと、取得した位置データとの差の値のことである。各データは、シックス・シグマ(6σ)の範囲内におけるばらつきを示している。 FIG. 6 is a graph showing the relationship between the detection accuracy (score) of the outer line of the work and the variation in the correction amount in the x direction when the background color is changed by using the misalignment detection method according to the embodiment. The correction amount in the x direction means the correction amount calculated in step S11. That is, it is the value of the difference between the reference position data taught to the robot and the acquired position data. Each data shows variability within the range of Six Sigma (6σ).

図6に示すように、ワークの外形ラインの検出精度(スコア)が低い場合、特に79.2%の場合のx方向の補正量は1.09mmであった。一方で、外形ラインの検出精度が99.9%の場合のx方向の補正量は0.04mmであった。よって、ワークの外形ラインの検出精度(スコア)が高いほど、x方向の補正量のばらつきは小さいという結果を得ることができた。 As shown in FIG. 6, when the detection accuracy (score) of the outer line of the work is low, the correction amount in the x direction is 1.09 mm, especially when it is 79.2%. On the other hand, when the detection accuracy of the outer line was 99.9%, the correction amount in the x direction was 0.04 mm. Therefore, it was possible to obtain the result that the higher the detection accuracy (score) of the outer line of the work, the smaller the variation in the correction amount in the x direction.

図7は、実施例にかかる位置ずれ検出方法を用いて背景色を変化させた際の、ワークの外形ラインの検出精度(スコア)とy方向の補正量のばらつきの関係を示すグラフである。y方向の補正量とは、x方向の補正量の場合と同様に、ステップS11にて算出した補正量のことを意味する。すなわち、ロボットに教示した基準となる位置データと、取得した位置データとの差の値のことである。各データは、シックス・シグマ(6σ)の範囲内におけるばらつきを示している。 FIG. 7 is a graph showing the relationship between the detection accuracy (score) of the outer line of the work and the variation in the correction amount in the y direction when the background color is changed by using the misalignment detection method according to the embodiment. The correction amount in the y direction means the correction amount calculated in step S11, as in the case of the correction amount in the x direction. That is, it is the value of the difference between the reference position data taught to the robot and the acquired position data. Each data shows variability within the range of Six Sigma (6σ).

図7に示すように、ワークの外形ラインの検出精度(スコア)が低い場合、特に79.2%の場合のy方向の補正量は0.15mmであった。一方で、外形ラインの検出精度が99.9%の場合のx方向の補正量は0.02mmであった。よって、ワークの外形ラインの検出精度(スコア)が高いほど、y方向の補正量のばらつきは小さいという結果を得ることができた。 As shown in FIG. 7, when the detection accuracy (score) of the outer line of the work is low, the correction amount in the y direction is 0.15 mm, particularly when it is 79.2%. On the other hand, when the detection accuracy of the outer line was 99.9%, the correction amount in the x direction was 0.02 mm. Therefore, it was possible to obtain the result that the higher the detection accuracy (score) of the outer line of the work, the smaller the variation in the correction amount in the y direction.

以上の結果より、ワークの外形ラインの検出精度(スコア)が高いほど、x方向及びy方向の補正量のばらつきは小さい。すなわち、ワークの外形ラインの検出精度(スコア)と補正量のばらつきには相関関係があるものと考えられる。また、本実施例では、背景色をワークの銀白色に対して高コントラストとなる黒色に変化させることによって、ワークの外形ラインの検出精度(スコア)を向上させることができた。したがって、本実施例にかかる位置ずれ検出方法を用いることによって、ワークの外形ラインの検出精度を向上できた。 From the above results, the higher the detection accuracy (score) of the outer line of the work, the smaller the variation in the correction amount in the x-direction and the y-direction. That is, it is considered that there is a correlation between the detection accuracy (score) of the outer line of the work and the variation in the correction amount. Further, in this embodiment, the detection accuracy (score) of the outer line of the work can be improved by changing the background color to black, which has a high contrast with the silver white of the work. Therefore, by using the misalignment detection method according to this embodiment, the detection accuracy of the outer line of the work can be improved.

上述の通り、本実施例で用いたワークは銀白色であったが、同様の形状と寸法を備えるアルミ製の粗材であっても、銀白色とは異なる色を示す場合がある。例えば、鋳込みを行う温度によっては、同じアルミ製の粗材であっても、黒っぽい色を示すこともある。その場合は、適宜背景色を変更することによって、ワークの外形ラインの検出精度(スコア)を向上させることができる。より具体的には、黒っぽい色を示すアルミ製の粗材をワークとして用いる場合は、白又は白に近い色の背景色を用いると、ワークの外形ラインの検出精度(スコア)をより向上させることができるものと考えられる。 As described above, the work used in this embodiment was silver-white, but even a rough aluminum material having the same shape and dimensions may exhibit a color different from silver-white. For example, depending on the temperature at which casting is performed, even the same rough material made of aluminum may exhibit a blackish color. In that case, the detection accuracy (score) of the outer line of the work can be improved by appropriately changing the background color. More specifically, when a rough aluminum material showing a blackish color is used as the work, if a background color of white or a color close to white is used, the detection accuracy (score) of the outer line of the work can be further improved. It is thought that it can be done.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。 The present invention is not limited to the above embodiment, and can be appropriately modified without departing from the spirit.

1 画像処理装置
10 背景表示部
10a 背景色
20 撮像手段
30 画像処理部
40 ロボットアーム
B 境界部
EL 外形ライン
W ワーク
1 Image processing device 10 Background display unit 10a Background color 20 Imaging means 30 Image processing unit 40 Robot arm B Boundary part EL External line W Work

Claims (1)

ロボットに教示した基準となるワークの位置と、実際のワークの位置とのずれ量を検出する位置ずれ検出方法であって、
(a)撮像手段を用いて背景表示部及び前記背景表示部上に載置した前記ワークの画像を取得するステップと、
(b)前記ワークの外形ラインのデータを取得するステップと、
(c)前記外形ラインのデータと、基準となる外形ラインのデータとを対比させ、前記外形ラインを取得できた割合を算出するステップと、
(d)前記背景表示部の色を段階的に変化させるステップと、
(e)ステップ(a)〜(d)をn回(nは1以上の整数)繰り返すステップと、
(f)前記外形ラインを取得できた割合が最も高いメインデータを抽出するステップと、
(g)前記メインデータと、校正画像とを比較し、前記ワークの位置ずれを補正量として算出するステップと、を備える、
位置ずれ検出方法。
It is a position deviation detection method that detects the amount of deviation between the reference work position taught to the robot and the actual work position.
(A) A step of acquiring an image of the background display unit and the work placed on the background display unit using an imaging means, and
(B) The step of acquiring the data of the outer line of the work and
(C) A step of comparing the data of the outer shape line with the data of the reference outer shape line and calculating the ratio of obtaining the outer shape line.
(D) A step of gradually changing the color of the background display unit and
(E) A step of repeating steps (a) to (d) n times (n is an integer of 1 or more) and
(F) A step of extracting the main data having the highest ratio of acquiring the outline, and
(G) A step of comparing the main data with a proof image and calculating the positional deviation of the work as a correction amount is provided.
Misalignment detection method.
JP2019092033A 2019-05-15 2019-05-15 Positional deviation detection method Pending JP2020187016A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019092033A JP2020187016A (en) 2019-05-15 2019-05-15 Positional deviation detection method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019092033A JP2020187016A (en) 2019-05-15 2019-05-15 Positional deviation detection method

Publications (1)

Publication Number Publication Date
JP2020187016A true JP2020187016A (en) 2020-11-19

Family

ID=73222744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019092033A Pending JP2020187016A (en) 2019-05-15 2019-05-15 Positional deviation detection method

Country Status (1)

Country Link
JP (1) JP2020187016A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116379926A (en) * 2023-05-31 2023-07-04 中国铁建电气化局集团第五工程有限公司 Trackless measurement method and system for contact net of circular shield tunnel and electronic equipment

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116379926A (en) * 2023-05-31 2023-07-04 中国铁建电气化局集团第五工程有限公司 Trackless measurement method and system for contact net of circular shield tunnel and electronic equipment
CN116379926B (en) * 2023-05-31 2023-08-25 中国铁建电气化局集团第五工程有限公司 Trackless measurement method and system for contact net of circular shield tunnel and electronic equipment

Similar Documents

Publication Publication Date Title
JP6299111B2 (en) Laser processing equipment
TWI583941B (en) Grain defect detection method and device
TW502111B (en) Inspection method for foreign matters inside through hole
CN109916914B (en) Product defect detection method and device
JP2019002788A (en) Metal processing surface inspection method, and metal processing surface inspection device
JP2006303491A (en) Method of inspecting wafer
JP2005265661A (en) Image processing method and image processing device
JPWO2009031612A1 (en) Observation apparatus and observation method, and inspection apparatus and inspection method
JP2006276454A (en) Image correcting method and pattern defect inspecting method using same
TW200805198A (en) Measuring method and measuring device using color image
JP2020187016A (en) Positional deviation detection method
CN109425327B (en) Inspection system and method for correcting inspection image
WO2015198401A1 (en) Method for setting inspection condition for fastener element, and method for inspecting fastener element
JP2005106725A (en) Method and apparatus for visual inspection of object to be inspected
CN114354491A (en) DCB ceramic substrate defect detection method based on machine vision
CN113950386B (en) Welding condition setting auxiliary device
CN115661256A (en) Method for calculating deflection angle between camera and carrying platform, calibration plate and detection device
JP2020504320A (en) Method and system for detecting substrate placement accuracy
CN114909994A (en) Calibration method of image measuring instrument
JP4095640B2 (en) Inspection method and inspection apparatus for injection molded products.
KR102161160B1 (en) Method of inspecting a surface of a substrate and apparatus for performing the same
Korta et al. OpenCV based vision system for industrial robot-based assembly station: calibration and testing
JP2009250777A (en) Surface inspection device and surface inspection method
JP2006284543A (en) Method and device for inspecting mounted circuit board
JP2006201135A (en) Defect inspection device, defect inspection method, and defect inspection program