JP2019215240A - Teacher image generation method of appearance inspection device - Google Patents

Teacher image generation method of appearance inspection device Download PDF

Info

Publication number
JP2019215240A
JP2019215240A JP2018112374A JP2018112374A JP2019215240A JP 2019215240 A JP2019215240 A JP 2019215240A JP 2018112374 A JP2018112374 A JP 2018112374A JP 2018112374 A JP2018112374 A JP 2018112374A JP 2019215240 A JP2019215240 A JP 2019215240A
Authority
JP
Japan
Prior art keywords
image
teacher image
axis
teacher
generation method
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018112374A
Other languages
Japanese (ja)
Other versions
JP7186521B2 (en
Inventor
耕三 多田
Kozo Tada
耕三 多田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Citizen Watch Co Ltd
Citizen Fine Device Co Ltd
Original Assignee
Citizen Watch Co Ltd
Citizen Fine Device Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Citizen Watch Co Ltd, Citizen Fine Device Co Ltd filed Critical Citizen Watch Co Ltd
Priority to JP2018112374A priority Critical patent/JP7186521B2/en
Publication of JP2019215240A publication Critical patent/JP2019215240A/en
Application granted granted Critical
Publication of JP7186521B2 publication Critical patent/JP7186521B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

To provide a teacher image generation method of an appearance inspection device capable of easily generating a teacher image.SOLUTION: A teacher image generation method of an appearance inspection device virtually arranges an object 8 of an inspection target, a viewpoint 6 and a light source 7 in a virtual space 1 of a computer 20, constructs the surface of the object 8 as a three-dimensional model on the basis of data representing a three-dimensional shape of the object 8, calculating optical responses between the surface of the object 8 constructed as the three-dimensional model and light 9 emitted from the light source 7 to calculate the intensity and the color of light 11 entering the viewpoint 6 from the surface of the object 8, converts calculated data into an image by computer graphics, and outputs the image as a teacher image 5 showing how the object 8 in a prescribed virtual plane 12 is seen.SELECTED DRAWING: Figure 2

Description

本発明は、キズや凹凸やゆがみなどの面欠陥を検査する外観検査装置の教師画像生成方法に関する。   The present invention relates to a teacher image generation method for a visual inspection device that inspects a surface defect such as a scratch, unevenness, or distortion.

従来、キズや凹凸やゆがみなどの面欠陥を検査する外観検査方法として、検査対象である物体の検査したい面(検査面)をカメラで撮像して取得した平面画像に所定の画像処理を施した検査画像と、検査対象である物体の良品サンプルの欠陥のない面(基準面)をカメラで撮像して取得した平面画像に同じ画像処理を施した基準画像とを比較することで、欠陥の有無とその大きさや位置を推定し、検査対象物の良否を判定する方法がある。このような方法では、検査画像と基準画像とを比較し、輝度やコントラストや色の差が閾値を超えた領域に欠陥がある、と判定することが一般的である。   2. Description of the Related Art Conventionally, as an appearance inspection method for inspecting a surface defect such as a scratch, unevenness or distortion, a predetermined image processing is performed on a plane image obtained by imaging a surface (inspection surface) of an object to be inspected to be inspected (an inspection surface) with a camera. By comparing the inspection image with a reference image obtained by imaging a non-defective surface (reference surface) of a non-defective sample of an object to be inspected with a camera and performing the same image processing on the acquired flat image, the presence or absence of a defect is determined. There is a method of estimating the size and position of the inspection object and determining the quality of the inspection object. In such a method, it is common to compare an inspection image with a reference image and determine that there is a defect in an area where the difference in luminance, contrast, or color exceeds a threshold.

従来の外観検査方法では、物体の基準画像と検査画像を用意する必要があり、基準画像は、欠陥のない面を撮像したものが1枚あればよいが、検査画像は、検査対象の物体ごとに必要となる。   In the conventional visual inspection method, it is necessary to prepare a reference image and an inspection image of the object, and the reference image only needs to be one image of a surface having no defect. Is required.

ところで、撮像画像は、検査対象面と相互作用した光をカメラのセンサーが受け取ることで生成されることから、撮像の結果が、検査面の三次元形状に影響を受けることは明らかである。   By the way, since the captured image is generated by receiving the light interacting with the inspection target surface by the sensor of the camera, it is clear that the imaging result is affected by the three-dimensional shape of the inspection surface.

前述の検査面の三次元形状は、例えば、切削や旋削のいわゆる挽目や研削の粗さなどの微細な形状から、比較的大きなサイズのゆがみや変形などがある。   The above-described three-dimensional shape of the inspection surface includes, for example, distortion or deformation of a relatively large size from a minute shape such as so-called grinding or grinding roughness of cutting or turning.

検査面にある検出したい欠陥が、人間は簡単に識別できるものであっても、背景にある大域的な三次元形状によっては、画像処理的に精度良く自動で区別することは簡単ではない。特定の欠陥を検出できる画像処理的な方法は、適用できる形状の変動範囲が狭く、また、撮像条件も厳しくなるからである。   Even if the defect to be detected on the inspection surface can be easily identified by a human, it is not easy to automatically and accurately distinguish the defect based on the global three-dimensional shape in the background. This is because an image processing method capable of detecting a specific defect has a narrow range in which an applicable shape can be changed, and the imaging conditions become severe.

具体的な例としては、旋盤部品の旋削面に発生する工具や製品の接触によるキズが、バイトの送りでできる旋削痕と角度をなしている場合には、検出は比較的容易であるが、平行にできている場合には、旋削痕とキズの分離、識別は難しい。平行なキズを検出できるように作れば、キズでない挽目をキズと判定するリスクが高まるという問題が生ずる。   As a specific example, if the scratch due to the contact of the tool or product on the turning surface of the lathe part is at an angle with the turning trace made by feeding the bite, detection is relatively easy, If they are parallel, it is difficult to separate and distinguish the turning marks and scratches. If it is made so that parallel scratches can be detected, there arises a problem that the risk of determining non-scratched cuts as scratches increases.

そのような経時的な三次元形状の変動を欠陥と容易に切り分けできるまで抑え込むことは大変難しく、近年、進展が著しいディープラーニングなどの機械学習を応用し、環境変動に強い検査を実現させる取り組みが急速に拡大し、実用化が進んでいる。   It is very difficult to suppress such a three-dimensional shape change over time until it can be easily separated from defects.In recent years, efforts have been made to apply a machine learning method such as deep learning that is remarkably progressing to realize an inspection that is strong against environmental changes. It is expanding rapidly and practical use is progressing.

機械学習には、教師画像が必要である。発見された欠陥の種類(キズ、凹み、ゆがみなど)やサイズ(大きさ、深さ、位置など)でラベルをつけて分類した画像群と、欠陥がない場合の正常な画像群を収集し、それらを教師画像として機械学習に適用し、分類のネットワークモデルを生成する。   For machine learning, teacher images are required. Collect images that are labeled and classified according to the type of defects found (scratch, dent, distortion, etc.) and size (size, depth, location, etc.) and normal images without defects, These are applied to machine learning as teacher images to generate a classification network model.

生成されたネットワークモデルに新しい検査画像を与えれば、もっとも近い教師画像のラベルを出力する検査方法、つまり、欠陥の有無検出とラベル分類を実行できる検査方法となる。人間が目視で検査し分類した画像そのものをお手本として分類モデルを作るので、三次元形状の変動に起因する見え方変動に強く、教師画像の品質が適切であれば、生成されたモデルは精度良く作業することがわかっている。   If a new inspection image is given to the generated network model, an inspection method that outputs the label of the closest teacher image, that is, an inspection method that can detect the presence or absence of a defect and perform label classification is provided. Since the classification model is created using the image itself that has been visually inspected and classified by humans as a model, it is resistant to variations in the appearance caused by variations in the three-dimensional shape, and if the quality of the teacher image is appropriate, the generated model will be accurate. I know I will work.

そのように有効な手段であるが、機械学習で作るモデルの精度を確保するためには、大量の教師信号が必要である。一般的には最低でも数百枚〜数千枚、場合によっては数万枚〜数十万枚の画像が要求される。   Although such an effective means, a large amount of teacher signals is required to ensure the accuracy of a model created by machine learning. Generally, at least several hundreds to several thousand images, and in some cases, tens of thousands to hundreds of thousands of images are required.

欠陥の画像を大量に収集することは容易ではない。そもそも、製造現場は欠陥を作ることを目的としていない。また、収集段階では自動的に欠陥を見つける方法がなく、人間による目視検査での作業となり、見つけた欠陥を撮像し、その画像が肉眼での見え方と同じであるか確認する必要があるため、大変な手間がかかる。   It is not easy to collect a large number of images of defects. In the first place, manufacturing sites are not aimed at creating defects. Also, at the collection stage, there is no method to automatically find defects, it is a work of visual inspection by humans, and it is necessary to take an image of the found defect and confirm that the image is the same as the naked eye It takes a lot of trouble.

面欠陥検査などの外観検査への機械学習の応用は、有望であることは間違いないが、教師画像の収集に課題がある。   There is no doubt that the application of machine learning to visual inspection such as surface defect inspection is promising, but there is a problem in collecting teacher images.

本発明は、以上の問題点に鑑みて成されたものであり、教師画像を容易に生成することが可能な外観検査装置の教師画像生成方法を提供することを目的とする。   The present invention has been made in view of the above problems, and an object of the present invention is to provide a teacher image generating method of a visual inspection device capable of easily generating a teacher image.

コンピュータの仮想空間内に検査対象の物体と視点と光源とを仮想的に配置し、前記物体の三次元形状を表現するデータに基づいて前記物体の表面を三次元モデルとして構築し、当該三次元モデルとして構築された前記物体の表面と前記光源から発せられる光との光学的な応答を計算して前記物体の表面から前記視点に入る光の強さと色を算出し、当該算出されたデータをコンピュータ・グラフィックスにより画像に変換し、当該画像を所定の仮想平面における前記物体の見え方を示す教師画像として出力する、外観検査装置の教師画像生成方法とする。   The object to be inspected, the viewpoint and the light source are virtually arranged in the virtual space of the computer, and the surface of the object is constructed as a three-dimensional model based on data representing the three-dimensional shape of the object, and the three-dimensional model is constructed. The surface of the object constructed as a model and the optical response of light emitted from the light source are calculated to calculate the intensity and color of light entering the viewpoint from the surface of the object, and the calculated data is calculated. A teacher image generation method for a visual inspection device that converts the image into an image by computer graphics and outputs the image as a teacher image indicating how the object looks in a predetermined virtual plane.

前記三次元モデルに前記物体の面欠陥の形状を加え、当該面欠陥を含む画像を前記教師画像として出力する、外観検査装置の教師画像生成方法であってもよい。   A teacher image generation method for a visual inspection device, which may add a shape of a surface defect of the object to the three-dimensional model and output an image including the surface defect as the teacher image.

前記物体の位置又は姿勢を自動的に変化させ、変化毎に前記物体の見え方を前記教師画像として自動的に出力する、外観検査装置の教師画像生成方法であってもよい。   A teacher image generation method for a visual inspection device, which may automatically change the position or orientation of the object and automatically output the appearance of the object as the teacher image for each change.

前記教師画像と前記物体の実際の物体をカメラで撮像した画像とを比較し、その結果に基づいて前記教師画像の見え方を調整する、外観検査装置の教師画像生成方法であってもよい。   A teacher image generation method for a visual inspection device, wherein the teacher image is compared with an image of an actual object of the object captured by a camera, and the appearance of the teacher image is adjusted based on a result of the comparison.

本発明によれば、外観検査装置の教師画像を容易に生成することができる。   According to the present invention, a teacher image of a visual inspection device can be easily generated.

本発明に係る外観検査装置の教師画像生成方法を実施するためのコンピュータの構成を示したものである。1 shows a configuration of a computer for performing a teacher image generation method of a visual inspection device according to the present invention. 本発明に係る外観検査装置の教師画像生成方法を概念的に示したものである。1 conceptually illustrates a teacher image generation method of a visual inspection device according to the present invention. 教師画像を生成するためのデータを取得するデータ取得装置の具体例を示したものである。1 shows a specific example of a data acquisition device that acquires data for generating a teacher image. 物体位置姿勢制御手段の具体例を示す正面図である。It is a front view which shows the specific example of an object position and attitude | position control means. 物体位置姿勢制御手段の具体例を示す側面図である。It is a side view which shows the specific example of an object position-and-orientation control means. 物体位置姿勢制御手段の具体例の動作を説明するための側面図である。It is a side view for explaining operation of the example of an object position and posture control means.

図1は、本発明に係る外観検査装置の教師画像生成方法を実施するためのコンピュータの構成を示したものである。図2は、本発明に係る外観検査装置の教師画像生成方法を概念的に示したものである。コンピュータ20は、その内部に検査対象の物体8と視点6と光源7とが仮想的に配置された仮想空間1を形成するように動作するものであり、物体8の三次元形状を表現するデータ2から物体8の表面を三次元モデルとして構築するデータ処理手段3と、その物体8の表面と光源7から発せられる光9との光学的な応答10を計算し、物体8の表面から視点6に入る光11の強さと色を計算し、そのデータをCG(コンピュータ・グラフィックス)により画像に変換し、その画像を所定の仮想平面12における物体8の見え方を示す教師画像5として出力するデータ処理手段4とを備えている。   FIG. 1 shows a configuration of a computer for implementing a teacher image generating method of a visual inspection device according to the present invention. FIG. 2 conceptually shows a teacher image generating method of the visual inspection apparatus according to the present invention. The computer 20 operates so as to form a virtual space 1 in which the object 8 to be inspected, the viewpoint 6 and the light source 7 are virtually arranged, and the data representing the three-dimensional shape of the object 8 Data processing means 3 for constructing the surface of the object 8 as a three-dimensional model from 2 and an optical response 10 between the surface of the object 8 and light 9 emitted from the light source 7 are calculated, and the viewpoint 6 Calculate the intensity and color of the incoming light 11, convert the data into an image by CG (computer graphics), and output the image as a teacher image 5 showing how the object 8 appears on a predetermined virtual plane 12. Data processing means 4.

物体8の三次元形状を表現するデータ2は、三次元形状を表現できる形式であればよく、一般的にはSTL形式であるが、テキストデータでXYZ座標値を表記したファイルでも構わない。また、三次元CADの中間ファイル形式であるSTEP、IGESなども読み込み可能であるようにプログラムされていてもよい。   The data 2 representing the three-dimensional shape of the object 8 may be any format that can represent the three-dimensional shape, and is generally in the STL format, but may be a file in which XYZ coordinate values are described in text data. Further, the intermediate file format of the three-dimensional CAD, such as STEP and IGES, may be programmed to be readable.

教師画像5を生成するためのプロセスは、まず、ユーザーが仮想空間1内の適当なXYZ位置に光源7と視点6をそれぞれ配置することから始まり、次に、見え方を知りたい物体8の三次元データ2を座標の指定位置(例えばXYZの原点)に配置し、次に、三次元データ2をデータ処理手段3に与え、物体8の三次元モデルを構築し、その物体8の表面の位置を求め、そのデータをデータ処理手段4に渡す。   The process for generating the teacher image 5 begins with the user arranging the light source 7 and the viewpoint 6 at appropriate XYZ positions in the virtual space 1, and then the tertiary of the object 8 whose appearance is to be known. The original data 2 is arranged at a designated position of coordinates (for example, the origin of XYZ), and then the three-dimensional data 2 is given to the data processing means 3 to construct a three-dimensional model of the object 8 and the position of the surface of the object 8 And passes the data to the data processing means 4.

データ処理手段4は、データ処理手段3から受け取ったデータに基づき、最初に配置された光源7から物体8の面に届いた光線について、光学的な応答を計算し、応答光として反射光と拡散光の向きと強さと色を計算する。次に、視点6に入る応答光を求め、それが視点6が向く方向に垂直な仮想平面12と交わる点にCGにより所定の光の強さと色を与え、教師画像5として出力する。   The data processing means 4 calculates the optical response of the light beam that has arrived at the surface of the object 8 from the light source 7 arranged first based on the data received from the data processing means 3, and uses the reflected light and the diffused light as the response light. Calculate the direction, intensity and color of light. Next, a response light entering the viewpoint 6 is obtained, and a point where the response light intersects the virtual plane 12 perpendicular to the direction in which the viewpoint 6 is directed is given a predetermined light intensity and color by CG, and is output as the teacher image 5.

教師画像5の出力は、ユーザーがコンピュータ20を操作することにより、その操作毎に行われる、もしくは、コンピュータ20にインストールされている電子的プログラムにより、自動的に行われる。   The output of the teacher image 5 is performed every time the user operates the computer 20, or is automatically performed by an electronic program installed in the computer 20.

教師画像5は、物体8の面欠陥(キズ、凹み、ゆがみなど)を含む画像と面欠陥を含まない画像のうち何れか一方、又はその両方である。面欠陥は、実際に発生したことがある欠陥に限らず、発生することが予想される欠陥であってもよい。   The teacher image 5 is one or both of an image including a surface defect (scratch, dent, distortion, etc.) of the object 8 and an image not including the surface defect. The surface defect is not limited to a defect that has actually occurred, but may be a defect that is expected to occur.

教師画像5を、多層構造を有するニューラルネットワーク(ディープラーニング)に与えて学習させることにより、外観検査用のネットワークモデルを生成し、そのネットワークモデルに物体23の検査画像を与えることにより、物体23の外観について良否が自動的に判定される。   By giving the teacher image 5 to a neural network (deep learning) having a multilayer structure and learning it, a network model for appearance inspection is generated, and an inspection image of the object 23 is given to the network model. The quality of the appearance is automatically determined.

図3は、教師画像を生成するためのデータを取得するデータ取得装置の具体例を示したものである。この具体例において、データ取得装置は、物体8の三次元形状データに基づいて作製されている物体23の実際の三次元形状を測定する三次元形状測定機21と、物体23の表面を撮像する二次元カメラ22と、物体23の位置と姿勢を制御する位置姿勢制御手段24と、三次元形状測定機21から出力された物体23の三次元形状測定データ、二次元カメラ22から出力された物体23の撮像データ、ならびに位置姿勢制御手段24から出力された物体23の位置姿勢データを受け取るコンピュータ20とを備えている。   FIG. 3 shows a specific example of a data acquisition device for acquiring data for generating a teacher image. In this specific example, the data acquisition device captures an image of the surface of the object 23 and a three-dimensional shape measuring device 21 that measures the actual three-dimensional shape of the object 23 that is manufactured based on the three-dimensional shape data of the object 8. Two-dimensional camera 22, position and orientation control means 24 for controlling the position and orientation of object 23, three-dimensional shape measurement data of object 23 output from three-dimensional shape measuring device 21, object output from two-dimensional camera 22 And a computer 20 for receiving the image data of the object 23 and the position and orientation data of the object 23 output from the position and orientation control means 24.

図3における二次元カメラ22と物体23との位置関係は、図2における仮想空間1での視点6と物体8との位置関係と同じである。また、図3における物体23を照らす照明(不図示)と物体23との位置関係は、図2における仮想空間1での光源7と物体8との位置関係と同じである。   The positional relationship between the two-dimensional camera 22 and the object 23 in FIG. 3 is the same as the positional relationship between the viewpoint 6 and the object 8 in the virtual space 1 in FIG. The positional relationship between the illumination (not shown) illuminating the object 23 and the object 23 in FIG. 3 is the same as the positional relationship between the light source 7 and the object 8 in the virtual space 1 in FIG.

物体8の教師画像5は、すべて仮想空間内での計算で得られるが、その見え方品質は現実の物体23の現実の見え方に近くなければならない。図3の具体例では、物体23と照明(不図示)と二次元カメラ22との位置関係を図1における仮想空間1での位置関係と同じにそろえたことにより、物体23の位置姿勢データから生成される教師画像5と二次元カメラ22で撮像した物体23の画像との比較により互いの近似度(差異)を測ることができる。近似度を数値化し、差異が小さくなるように、物体8の表面の反射や拡散や色味などの光学的特性を調整することで、教師画像5を実際の見え方に近づけることができる。   The teacher image 5 of the object 8 is all obtained by calculation in the virtual space, and its appearance quality must be close to the actual appearance of the real object 23. In the specific example of FIG. 3, the positional relationship between the object 23, the illumination (not shown), and the two-dimensional camera 22 is made the same as the positional relationship in the virtual space 1 in FIG. By comparing the generated teacher image 5 and the image of the object 23 captured by the two-dimensional camera 22, the degree of similarity (difference) between them can be measured. By quantifying the degree of approximation and adjusting optical characteristics such as reflection, diffusion, and color of the surface of the object 8 so as to reduce the difference, the teacher image 5 can be made closer to the actual appearance.

図4は、物体位置姿勢制御手段の具体例を示す正面図である。図5は、物体位置姿勢制御手段の具体例を示す側面図である。図6は、物体位置姿勢制御手段の具体例の動作を説明するための側面図である。図4〜6は、互いに同じ具体例を示している。この具体例は、図3に示す物体位置姿勢制御手段24の具体例である。この具体例は、第一駆動リンク31a、第二駆動リンク31b、第三駆動リンク31c、及び第四駆動リンク31dから成る駆動リンク群と、第一従動リンク32a、第二従動リンク32b、第三従動リンク32c、及び第四従動リンク32dから成る従動リンク群と、YZθ軸第一駆動回転軸(兼X軸直動ガイド)33a、YZθ軸第二駆動回転軸(兼X軸直動ガイド)33b、YZθ軸第三駆動回転軸(兼X軸直動ガイド)33c、及びYZθ軸第四駆動回転軸(兼X軸直動ガイド)33dから成るYZθ軸駆動回転軸(兼X軸直動ガイド)群と、YZθ軸第一駆動モーター34a(不図示)、YZθ軸第二駆動モーター34b(不図示)、YZθ軸第三駆動モーター34c(不図示)、及びYZθ軸第四駆動モーター34dから成るYZθ軸駆動モーター群と、X軸ボールネジ35と、X軸スライダー36と、X軸駆動モーター37と、ワーク載せ台38と、で構成されるパラレルリンク機構を備えている。   FIG. 4 is a front view showing a specific example of the object position and orientation control means. FIG. 5 is a side view showing a specific example of the object position and orientation control means. FIG. 6 is a side view for explaining the operation of a specific example of the object position and orientation control means. 4 to 6 show the same specific examples. This specific example is a specific example of the object position / posture control means 24 shown in FIG. This specific example includes a drive link group including a first drive link 31a, a second drive link 31b, a third drive link 31c, and a fourth drive link 31d, a first driven link 32a, a second driven link 32b, and a third driven link 32b. A driven link group including a driven link 32c and a fourth driven link 32d, a YZθ-axis first drive rotary shaft (also X-axis linear guide) 33a, and a YZθ-axis second drive rotary shaft (also X-axis linear guide) 33b. YZθ-axis drive rotary shaft (also X-axis linear guide) 33c composed of YZθ-axis third drive rotary shaft (also X-axis linear guide) 33c and YZθ-axis fourth drive rotary shaft (also X-axis linear guide) A YZθ-axis first drive motor 34a (not shown), a YZθ-axis second drive motor 34b (not shown), a YZθ-axis third drive motor 34c (not shown), and a YZθ-axis fourth drive motor 34d axis And dynamic motor group, and X-axis ball screw 35, the X-axis slider 36, the X-axis driving motor 37, and a work stand 38, in the parallel link mechanism constituted.

第一駆動リンク31a、第二駆動リンク31b、第三駆動リンク31c、及び第四駆動リンク31dの各上端部は、それぞれ、第一従動リンク32a、第二従動リンク32b、第三従動リンク32c、及び第四従動リンク32dの各下端部に、θ方向へ回転可能に接続されている。   The upper ends of the first drive link 31a, the second drive link 31b, the third drive link 31c, and the fourth drive link 31d are respectively a first driven link 32a, a second driven link 32b, a third driven link 32c, And each lower end of the fourth driven link 32d is connected rotatably in the θ direction.

第一従動リンク32a、第二従動リンク32b、第三従動リンク32c、及び第四従動リンク32dの各上端部は、それぞれ、ワーク載せ台38の下部に、θ方向へ回転可能に接続されている。   Upper ends of the first driven link 32a, the second driven link 32b, the third driven link 32c, and the fourth driven link 32d are respectively connected to the lower part of the work placing table 38 so as to be rotatable in the θ direction. .

第一駆動リンク31a、第二駆動リンク31b、第三駆動リンク31c、及び第四駆動リンク31dの各下端部は、それぞれ、YZθ軸第一駆動回転軸(兼X軸直動ガイド)33a、YZθ軸第二駆動回転軸(兼X軸直動ガイド)33b、YZθ軸第三駆動回転軸(兼X軸直動ガイド)33c、及びYZθ軸第四駆動回転軸(兼X軸直動ガイド)33dに、θ方向へ回転可能に接続されている。   The lower ends of the first drive link 31a, the second drive link 31b, the third drive link 31c, and the fourth drive link 31d are respectively YZθ-axis first drive rotary shaft (also X-axis linear motion guide) 33a, YZθ. Shaft second drive rotation shaft (also X-axis linear motion guide) 33b, YZθ-axis third drive rotation shaft (also X-axis linear motion guide) 33c, and YZθ-axis fourth drive rotation shaft (also X-axis linear motion guide) 33d Are connected rotatably in the θ direction.

YZθ軸第一駆動回転軸(兼X軸直動ガイド)33a、YZθ軸第二駆動回転軸(兼X軸直動ガイド)33b、YZθ軸第三駆動回転軸(兼X軸直動ガイド)33c、及びYZθ軸第四駆動回転軸(兼X軸直動ガイド)33dの各一端部は、それぞれ、YZθ軸第一駆動モーター34a(不図示)、YZθ軸第二駆動モーター34b(不図示)、YZθ軸第三駆動モーター34c(不図示)、及びYZθ軸第四駆動モーター34dの各動力軸に、接続されている。   YZθ-axis first drive rotation axis (also X-axis linear guide) 33a, YZθ-axis second drive rotation axis (also X-axis linear guide) 33b, YZθ-axis third drive rotation axis (also X-axis linear guide) 33c , And one end of the YZθ-axis fourth drive rotary shaft (also X-axis linear guide) 33d are respectively a YZθ-axis first drive motor 34a (not shown), a YZθ-axis second drive motor 34b (not shown), The YZθ-axis third drive motor 34c (not shown) and the YZθ-axis fourth drive motor 34d are connected to respective power shafts.

X軸スライダー36は、X軸ボールネジ35に、X方向へ直動可能に保持されている。   The X-axis slider 36 is held by the X-axis ball screw 35 so as to be able to move directly in the X direction.

X軸ボールネジ35の一端部は、X軸駆動モーター37の動力軸に、接続されている。   One end of the X-axis ball screw 35 is connected to the power shaft of the X-axis drive motor 37.

以上のパラレルリンク機構において、YZθ軸駆動モーター群の各駆動モーターを選択的に動作させると、その動力により、YZθ軸駆動回転軸(兼X軸直動ガイド)群の各回転軸がθ方向へ選択的に回転し、その回転により、駆動リンク群の各駆動リンクが各回転軸を中心としてθ方向へ所定の角度で選択的に回転し、その回転に連動して従動リンク群の各従動リンクが所定の姿勢となることで、例えば、図6に示すように、ワーク載せ台38がY方向へ移動すると共にθ方向へ回転する。   In the parallel link mechanism described above, when each drive motor of the YZθ-axis drive motor group is selectively operated, each power causes the respective YZθ-axis drive rotation axis (also X-axis linear guide) group to rotate in the θ direction. Selectively rotate, and by the rotation, each drive link of the drive link group is selectively rotated at a predetermined angle in the θ direction about each rotation axis, and each driven link of the driven link group is linked to the rotation. Takes a predetermined posture, for example, as shown in FIG. 6, the work mounting table 38 moves in the Y direction and rotates in the θ direction.

また、X軸駆動モーター37を動作させると、その動力により、X軸ボールネジ35が回転し、その回転により、X軸スライダー36がX軸ボールネジ35の延在方向に沿ってX方向へ移動し、その移動による動力が駆動リンク群に直接的又は間接的に伝わることにより、駆動リンク群がYZθ軸駆動回転軸(兼X軸直動ガイド)群の延在方向に沿ってX方向へ移動し、その移動に伴い、ワーク載せ台38がX方向へ移動する。   Further, when the X-axis drive motor 37 is operated, the X-axis ball screw 35 is rotated by the power thereof, and the X-axis slider 36 moves in the X direction along the extending direction of the X-axis ball screw 35 by the rotation, When the power due to the movement is transmitted directly or indirectly to the drive link group, the drive link group moves in the X direction along the extending direction of the YZθ-axis drive rotation axis (also X-axis linear motion guide) group, Along with the movement, the work placing table 38 moves in the X direction.

ワーク載せ台38に物体23が載置されている場合には、ワーク載せ台38と共に物体23の位置や姿勢を変化させることができる。物体23の位置や姿勢を段階的又は連続的に変化させながら、三次元形状測定機21と二次元カメラ22とコンピュータ20とにより、その位置や姿勢における物体23の三次元形状データと二次元画像と位置姿勢データを互いに関連付けて取得すれば、教師画像5を生成するためのデータを効率良く収集することができる。この一連のプロセスは、位置姿勢制御手段24と三次元形状測定機21と二次元カメラ22とコンピュータ20とが互いに連動することにより、自動的に実行されるように構成されていてもよい。   When the object 23 is placed on the work table 38, the position and the posture of the object 23 can be changed together with the work table 38. While changing the position and orientation of the object 23 stepwise or continuously, the three-dimensional shape measuring device 21, the two-dimensional camera 22, and the computer 20 use the three-dimensional shape data and two-dimensional image of the object 23 at that position and orientation. And the position and orientation data are acquired in association with each other, data for generating the teacher image 5 can be efficiently collected. This series of processes may be configured to be automatically executed by the position and orientation control means 24, the three-dimensional shape measuring machine 21, the two-dimensional camera 22, and the computer 20 working together.

図4〜6に示した具体例は、物体23をXYZ方向とX軸回りに移動させるように構成されているが、物体23をYZ軸回りにも移動させるように構成されていてもよい。   The specific examples shown in FIGS. 4 to 6 are configured to move the object 23 in the XYZ directions and around the X axis, but may be configured to move the object 23 also around the YZ axes.

1 仮想空間
2 物体の三次元形状を表現するデータ
3 データ処理手段
4 データ処理手段
5 教師画像
6 視点
7 光源
8 物体
9 光
10 光学的な応答
11 光
12 仮想平面
20 コンピュータ
21 三次元形状測定機
22 二次元カメラ
23 物体
24 物体位置姿勢制御手段
31a 第一駆動リンク
31b 第二駆動リンク
31c 第三駆動リンク
31d 第四駆動リンク
32a 第一従動リンク
32b 第二従動リンク
32c 第三従動リンク
32d 第四従動リンク
33a YZθ軸第一駆動回転軸(兼X軸直動ガイド)
33b YZθ軸第二駆動回転軸(兼X軸直動ガイド)
33c YZθ軸第三駆動回転軸(兼X軸直動ガイド)
33d YZθ軸第四駆動回転軸(兼X軸直動ガイド)
34a YZθ軸第一駆動モーター(不図示)
34b YZθ軸第二駆動モーター(不図示)
34c YZθ軸第三駆動モーター(不図示)
34d YZθ軸第四駆動モーター
35 X軸ボールネジ
36 X軸スライダー
37 X軸駆動モーター
38 ワーク載せ台
Reference Signs List 1 virtual space 2 data representing 3D shape of object 3 data processing means 4 data processing means 5 teacher image 6 viewpoint 7 light source 8 object 9 light 10 optical response 11 light 12 virtual plane 20 computer 21 3D shape measuring machine 22 Two-dimensional camera 23 Object 24 Object position and orientation control means 31a First drive link 31b Second drive link 31c Third drive link 31d Fourth drive link 32a First driven link 32b Second driven link 32c Third driven link 32d Fourth Followed link 33a YZθ axis first drive rotation axis (also X axis linear motion guide)
33b YZθ axis second drive rotation axis (also X axis linear motion guide)
33c YZθ axis third drive rotation axis (also X axis linear motion guide)
33d YZθ axis fourth drive rotation axis (also X axis linear motion guide)
34a YZθ axis first drive motor (not shown)
34b YZθ axis second drive motor (not shown)
34c YZθ axis third drive motor (not shown)
34d YZθ-axis fourth drive motor 35 X-axis ball screw 36 X-axis slider 37 X-axis drive motor 38 Work platform

Claims (4)

コンピュータの仮想空間内に検査対象の物体と視点と光源とを仮想的に配置し、前記物体の三次元形状を表現するデータに基づいて前記物体の表面を三次元モデルとして構築し、当該三次元モデルとして構築された前記物体の表面と前記光源から発せられる光との光学的な応答を計算して前記物体の表面から前記視点に入る光の強さと色を算出し、当該算出されたデータをコンピュータ・グラフィックスにより画像に変換し、当該画像を所定の仮想平面における前記物体の見え方を示す教師画像として出力する、ことを特徴とする外観検査装置の教師画像生成方法。   The object to be inspected, the viewpoint and the light source are virtually arranged in the virtual space of the computer, and the surface of the object is constructed as a three-dimensional model based on data representing the three-dimensional shape of the object, and the three-dimensional model is constructed. The surface of the object constructed as a model and the optical response of light emitted from the light source are calculated to calculate the intensity and color of light entering the viewpoint from the surface of the object, and the calculated data is calculated. A teacher image generation method for a visual inspection apparatus, comprising: converting an image into an image by computer graphics; and outputting the image as a teacher image indicating how the object looks in a predetermined virtual plane. 前記三次元モデルに前記物体の面欠陥の形状を加え、当該面欠陥を含む画像を前記教師画像として出力する、ことを特徴とする請求項1に記載の外観検査装置の教師画像生成方法。   The teacher image generation method according to claim 1, wherein a shape of a surface defect of the object is added to the three-dimensional model, and an image including the surface defect is output as the teacher image. 前記物体の位置又は姿勢を自動的に変化させ、変化毎に前記物体の見え方を前記教師画像として自動的に出力する、ことを特徴とする請求項1又は2に記載の外観検査装置の教師画像生成方法。   The teacher of the visual inspection apparatus according to claim 1, wherein a position or a posture of the object is automatically changed, and the appearance of the object is automatically output as the teacher image for each change. Image generation method. 前記教師画像と前記物体の実際の物体をカメラで撮像した画像とを比較し、その結果に基づいて前記教師画像の見え方を調整する、ことを特徴とする請求項1〜3の何れか一つに記載の外観検査装置の教師画像生成方法。   4. The method according to claim 1, wherein the teacher image is compared with an image of an actual object captured by a camera, and the appearance of the teacher image is adjusted based on a result of the comparison. A teacher image generating method for the visual inspection device according to any one of the first to third aspects.
JP2018112374A 2018-06-12 2018-06-12 Teacher image generator for visual inspection equipment Active JP7186521B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018112374A JP7186521B2 (en) 2018-06-12 2018-06-12 Teacher image generator for visual inspection equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018112374A JP7186521B2 (en) 2018-06-12 2018-06-12 Teacher image generator for visual inspection equipment

Publications (2)

Publication Number Publication Date
JP2019215240A true JP2019215240A (en) 2019-12-19
JP7186521B2 JP7186521B2 (en) 2022-12-09

Family

ID=68919058

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018112374A Active JP7186521B2 (en) 2018-06-12 2018-06-12 Teacher image generator for visual inspection equipment

Country Status (1)

Country Link
JP (1) JP7186521B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022260028A1 (en) * 2021-06-11 2022-12-15 日立Astemo株式会社 Visual inspection device, visual inspection method, image generation device, and image generation method
WO2023228712A1 (en) * 2022-05-23 2023-11-30 ソニーグループ株式会社 Information processing device, information processing method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011214903A (en) * 2010-03-31 2011-10-27 Denso It Laboratory Inc Appearance inspection apparatus, and apparatus, method and program for generating appearance inspection discriminator
JP2013029350A (en) * 2011-07-27 2013-02-07 Hitachi Ltd Appearance inspection method and device for the same
JP2017120672A (en) * 2017-04-07 2017-07-06 キヤノン株式会社 Image processing device and image processing method
US20170200265A1 (en) * 2016-01-11 2017-07-13 Kla-Tencor Corporation Generating simulated output for a specimen
JP6330092B1 (en) * 2017-08-02 2018-05-23 株式会社ディジタルメディアプロフェッショナル Machine learning teacher data generation apparatus and generation method

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011214903A (en) * 2010-03-31 2011-10-27 Denso It Laboratory Inc Appearance inspection apparatus, and apparatus, method and program for generating appearance inspection discriminator
JP2013029350A (en) * 2011-07-27 2013-02-07 Hitachi Ltd Appearance inspection method and device for the same
US20170200265A1 (en) * 2016-01-11 2017-07-13 Kla-Tencor Corporation Generating simulated output for a specimen
JP2017120672A (en) * 2017-04-07 2017-07-06 キヤノン株式会社 Image processing device and image processing method
JP6330092B1 (en) * 2017-08-02 2018-05-23 株式会社ディジタルメディアプロフェッショナル Machine learning teacher data generation apparatus and generation method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022260028A1 (en) * 2021-06-11 2022-12-15 日立Astemo株式会社 Visual inspection device, visual inspection method, image generation device, and image generation method
WO2023228712A1 (en) * 2022-05-23 2023-11-30 ソニーグループ株式会社 Information processing device, information processing method, and program

Also Published As

Publication number Publication date
JP7186521B2 (en) 2022-12-09

Similar Documents

Publication Publication Date Title
CN104063873B (en) A kind of Model For The Bush-axle Type Parts surface defect online test method based on compressed sensing
JP7037876B2 (en) Use of 3D vision in automated industrial inspection
Lahajnar et al. Machine vision system for inspecting electric plates
CN109969736A (en) A kind of large size carrier strip deviation fault intelligent detecting method
US11158039B2 (en) Using 3D vision for automated industrial inspection
US20150362310A1 (en) Shape examination method and device therefor
EP3660493A2 (en) Fluorescent penetrant inspection system and method
CN106289325A (en) A kind of air-bubble level automatic checkout system
WO2020079694A1 (en) Optimizing defect detection in an automatic visual inspection process
JP2019215240A (en) Teacher image generation method of appearance inspection device
KR20230028385A (en) Thickness correction system and method for video extensometer
EP4202424A1 (en) Method and system for inspection of welds
JP2018522240A (en) Method for measuring artifacts
JP2013156173A (en) Inspection method for turbine blade and device therefor
CN104034259A (en) Method for correcting image measurement instrument
US11257205B2 (en) Image measuring method and apparatus
CN110657750B (en) Detection system and method for passivation of cutting edge of cutter
CN107084698B (en) Rail vehicle wheel detection system and detection method
Iacono et al. Computational imaging for drill bit wear estimation
Baleani In-line quality control for Zero Defect Manufacturing: design, development and uncertainty analysis of vision-based instruments for dimensional measurements at different scales
JP7440975B2 (en) Imaging device and identification method
Szeto et al. Nondestructive Test Using a 3D Computer Vision System for Damage Detection of Structures
RU2777718C1 (en) Method for non-destructive optical and visual testing of items by means of computer vision
Kos et al. Detection, localization and recognition of objects using LabVIEW
Liu et al. A Novel Apple Size and Surface Quality Detection and Grading System

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20180613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210302

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20211130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211206

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220131

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220613

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220808

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221114

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221129

R150 Certificate of patent or registration of utility model

Ref document number: 7186521

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150