JP2019215240A - Teacher image generation method of appearance inspection device - Google Patents
Teacher image generation method of appearance inspection device Download PDFInfo
- Publication number
- JP2019215240A JP2019215240A JP2018112374A JP2018112374A JP2019215240A JP 2019215240 A JP2019215240 A JP 2019215240A JP 2018112374 A JP2018112374 A JP 2018112374A JP 2018112374 A JP2018112374 A JP 2018112374A JP 2019215240 A JP2019215240 A JP 2019215240A
- Authority
- JP
- Japan
- Prior art keywords
- image
- teacher image
- axis
- teacher
- generation method
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000007689 inspection Methods 0.000 title abstract description 23
- 230000004044 response Effects 0.000 claims abstract description 9
- 230000003287 optical effect Effects 0.000 claims abstract description 7
- 230000007547 defect Effects 0.000 claims description 26
- 238000011179 visual inspection Methods 0.000 claims description 17
- 238000010801 machine learning Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 2
- 230000002950 deficient Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000002250 progressing effect Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000013145 classification model Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
Images
Abstract
Description
本発明は、キズや凹凸やゆがみなどの面欠陥を検査する外観検査装置の教師画像生成方法に関する。 The present invention relates to a teacher image generation method for a visual inspection device that inspects a surface defect such as a scratch, unevenness, or distortion.
従来、キズや凹凸やゆがみなどの面欠陥を検査する外観検査方法として、検査対象である物体の検査したい面(検査面)をカメラで撮像して取得した平面画像に所定の画像処理を施した検査画像と、検査対象である物体の良品サンプルの欠陥のない面(基準面)をカメラで撮像して取得した平面画像に同じ画像処理を施した基準画像とを比較することで、欠陥の有無とその大きさや位置を推定し、検査対象物の良否を判定する方法がある。このような方法では、検査画像と基準画像とを比較し、輝度やコントラストや色の差が閾値を超えた領域に欠陥がある、と判定することが一般的である。 2. Description of the Related Art Conventionally, as an appearance inspection method for inspecting a surface defect such as a scratch, unevenness or distortion, a predetermined image processing is performed on a plane image obtained by imaging a surface (inspection surface) of an object to be inspected to be inspected (an inspection surface) with a camera. By comparing the inspection image with a reference image obtained by imaging a non-defective surface (reference surface) of a non-defective sample of an object to be inspected with a camera and performing the same image processing on the acquired flat image, the presence or absence of a defect is determined. There is a method of estimating the size and position of the inspection object and determining the quality of the inspection object. In such a method, it is common to compare an inspection image with a reference image and determine that there is a defect in an area where the difference in luminance, contrast, or color exceeds a threshold.
従来の外観検査方法では、物体の基準画像と検査画像を用意する必要があり、基準画像は、欠陥のない面を撮像したものが1枚あればよいが、検査画像は、検査対象の物体ごとに必要となる。 In the conventional visual inspection method, it is necessary to prepare a reference image and an inspection image of the object, and the reference image only needs to be one image of a surface having no defect. Is required.
ところで、撮像画像は、検査対象面と相互作用した光をカメラのセンサーが受け取ることで生成されることから、撮像の結果が、検査面の三次元形状に影響を受けることは明らかである。 By the way, since the captured image is generated by receiving the light interacting with the inspection target surface by the sensor of the camera, it is clear that the imaging result is affected by the three-dimensional shape of the inspection surface.
前述の検査面の三次元形状は、例えば、切削や旋削のいわゆる挽目や研削の粗さなどの微細な形状から、比較的大きなサイズのゆがみや変形などがある。 The above-described three-dimensional shape of the inspection surface includes, for example, distortion or deformation of a relatively large size from a minute shape such as so-called grinding or grinding roughness of cutting or turning.
検査面にある検出したい欠陥が、人間は簡単に識別できるものであっても、背景にある大域的な三次元形状によっては、画像処理的に精度良く自動で区別することは簡単ではない。特定の欠陥を検出できる画像処理的な方法は、適用できる形状の変動範囲が狭く、また、撮像条件も厳しくなるからである。 Even if the defect to be detected on the inspection surface can be easily identified by a human, it is not easy to automatically and accurately distinguish the defect based on the global three-dimensional shape in the background. This is because an image processing method capable of detecting a specific defect has a narrow range in which an applicable shape can be changed, and the imaging conditions become severe.
具体的な例としては、旋盤部品の旋削面に発生する工具や製品の接触によるキズが、バイトの送りでできる旋削痕と角度をなしている場合には、検出は比較的容易であるが、平行にできている場合には、旋削痕とキズの分離、識別は難しい。平行なキズを検出できるように作れば、キズでない挽目をキズと判定するリスクが高まるという問題が生ずる。 As a specific example, if the scratch due to the contact of the tool or product on the turning surface of the lathe part is at an angle with the turning trace made by feeding the bite, detection is relatively easy, If they are parallel, it is difficult to separate and distinguish the turning marks and scratches. If it is made so that parallel scratches can be detected, there arises a problem that the risk of determining non-scratched cuts as scratches increases.
そのような経時的な三次元形状の変動を欠陥と容易に切り分けできるまで抑え込むことは大変難しく、近年、進展が著しいディープラーニングなどの機械学習を応用し、環境変動に強い検査を実現させる取り組みが急速に拡大し、実用化が進んでいる。 It is very difficult to suppress such a three-dimensional shape change over time until it can be easily separated from defects.In recent years, efforts have been made to apply a machine learning method such as deep learning that is remarkably progressing to realize an inspection that is strong against environmental changes. It is expanding rapidly and practical use is progressing.
機械学習には、教師画像が必要である。発見された欠陥の種類(キズ、凹み、ゆがみなど)やサイズ(大きさ、深さ、位置など)でラベルをつけて分類した画像群と、欠陥がない場合の正常な画像群を収集し、それらを教師画像として機械学習に適用し、分類のネットワークモデルを生成する。 For machine learning, teacher images are required. Collect images that are labeled and classified according to the type of defects found (scratch, dent, distortion, etc.) and size (size, depth, location, etc.) and normal images without defects, These are applied to machine learning as teacher images to generate a classification network model.
生成されたネットワークモデルに新しい検査画像を与えれば、もっとも近い教師画像のラベルを出力する検査方法、つまり、欠陥の有無検出とラベル分類を実行できる検査方法となる。人間が目視で検査し分類した画像そのものをお手本として分類モデルを作るので、三次元形状の変動に起因する見え方変動に強く、教師画像の品質が適切であれば、生成されたモデルは精度良く作業することがわかっている。 If a new inspection image is given to the generated network model, an inspection method that outputs the label of the closest teacher image, that is, an inspection method that can detect the presence or absence of a defect and perform label classification is provided. Since the classification model is created using the image itself that has been visually inspected and classified by humans as a model, it is resistant to variations in the appearance caused by variations in the three-dimensional shape, and if the quality of the teacher image is appropriate, the generated model will be accurate. I know I will work.
そのように有効な手段であるが、機械学習で作るモデルの精度を確保するためには、大量の教師信号が必要である。一般的には最低でも数百枚〜数千枚、場合によっては数万枚〜数十万枚の画像が要求される。 Although such an effective means, a large amount of teacher signals is required to ensure the accuracy of a model created by machine learning. Generally, at least several hundreds to several thousand images, and in some cases, tens of thousands to hundreds of thousands of images are required.
欠陥の画像を大量に収集することは容易ではない。そもそも、製造現場は欠陥を作ることを目的としていない。また、収集段階では自動的に欠陥を見つける方法がなく、人間による目視検査での作業となり、見つけた欠陥を撮像し、その画像が肉眼での見え方と同じであるか確認する必要があるため、大変な手間がかかる。 It is not easy to collect a large number of images of defects. In the first place, manufacturing sites are not aimed at creating defects. Also, at the collection stage, there is no method to automatically find defects, it is a work of visual inspection by humans, and it is necessary to take an image of the found defect and confirm that the image is the same as the naked eye It takes a lot of trouble.
面欠陥検査などの外観検査への機械学習の応用は、有望であることは間違いないが、教師画像の収集に課題がある。 There is no doubt that the application of machine learning to visual inspection such as surface defect inspection is promising, but there is a problem in collecting teacher images.
本発明は、以上の問題点に鑑みて成されたものであり、教師画像を容易に生成することが可能な外観検査装置の教師画像生成方法を提供することを目的とする。 The present invention has been made in view of the above problems, and an object of the present invention is to provide a teacher image generating method of a visual inspection device capable of easily generating a teacher image.
コンピュータの仮想空間内に検査対象の物体と視点と光源とを仮想的に配置し、前記物体の三次元形状を表現するデータに基づいて前記物体の表面を三次元モデルとして構築し、当該三次元モデルとして構築された前記物体の表面と前記光源から発せられる光との光学的な応答を計算して前記物体の表面から前記視点に入る光の強さと色を算出し、当該算出されたデータをコンピュータ・グラフィックスにより画像に変換し、当該画像を所定の仮想平面における前記物体の見え方を示す教師画像として出力する、外観検査装置の教師画像生成方法とする。 The object to be inspected, the viewpoint and the light source are virtually arranged in the virtual space of the computer, and the surface of the object is constructed as a three-dimensional model based on data representing the three-dimensional shape of the object, and the three-dimensional model is constructed. The surface of the object constructed as a model and the optical response of light emitted from the light source are calculated to calculate the intensity and color of light entering the viewpoint from the surface of the object, and the calculated data is calculated. A teacher image generation method for a visual inspection device that converts the image into an image by computer graphics and outputs the image as a teacher image indicating how the object looks in a predetermined virtual plane.
前記三次元モデルに前記物体の面欠陥の形状を加え、当該面欠陥を含む画像を前記教師画像として出力する、外観検査装置の教師画像生成方法であってもよい。 A teacher image generation method for a visual inspection device, which may add a shape of a surface defect of the object to the three-dimensional model and output an image including the surface defect as the teacher image.
前記物体の位置又は姿勢を自動的に変化させ、変化毎に前記物体の見え方を前記教師画像として自動的に出力する、外観検査装置の教師画像生成方法であってもよい。 A teacher image generation method for a visual inspection device, which may automatically change the position or orientation of the object and automatically output the appearance of the object as the teacher image for each change.
前記教師画像と前記物体の実際の物体をカメラで撮像した画像とを比較し、その結果に基づいて前記教師画像の見え方を調整する、外観検査装置の教師画像生成方法であってもよい。 A teacher image generation method for a visual inspection device, wherein the teacher image is compared with an image of an actual object of the object captured by a camera, and the appearance of the teacher image is adjusted based on a result of the comparison.
本発明によれば、外観検査装置の教師画像を容易に生成することができる。 According to the present invention, a teacher image of a visual inspection device can be easily generated.
図1は、本発明に係る外観検査装置の教師画像生成方法を実施するためのコンピュータの構成を示したものである。図2は、本発明に係る外観検査装置の教師画像生成方法を概念的に示したものである。コンピュータ20は、その内部に検査対象の物体8と視点6と光源7とが仮想的に配置された仮想空間1を形成するように動作するものであり、物体8の三次元形状を表現するデータ2から物体8の表面を三次元モデルとして構築するデータ処理手段3と、その物体8の表面と光源7から発せられる光9との光学的な応答10を計算し、物体8の表面から視点6に入る光11の強さと色を計算し、そのデータをCG(コンピュータ・グラフィックス)により画像に変換し、その画像を所定の仮想平面12における物体8の見え方を示す教師画像5として出力するデータ処理手段4とを備えている。 FIG. 1 shows a configuration of a computer for implementing a teacher image generating method of a visual inspection device according to the present invention. FIG. 2 conceptually shows a teacher image generating method of the visual inspection apparatus according to the present invention. The computer 20 operates so as to form a virtual space 1 in which the object 8 to be inspected, the viewpoint 6 and the light source 7 are virtually arranged, and the data representing the three-dimensional shape of the object 8 Data processing means 3 for constructing the surface of the object 8 as a three-dimensional model from 2 and an optical response 10 between the surface of the object 8 and light 9 emitted from the light source 7 are calculated, and the viewpoint 6 Calculate the intensity and color of the incoming light 11, convert the data into an image by CG (computer graphics), and output the image as a teacher image 5 showing how the object 8 appears on a predetermined virtual plane 12. Data processing means 4.
物体8の三次元形状を表現するデータ2は、三次元形状を表現できる形式であればよく、一般的にはSTL形式であるが、テキストデータでXYZ座標値を表記したファイルでも構わない。また、三次元CADの中間ファイル形式であるSTEP、IGESなども読み込み可能であるようにプログラムされていてもよい。 The data 2 representing the three-dimensional shape of the object 8 may be any format that can represent the three-dimensional shape, and is generally in the STL format, but may be a file in which XYZ coordinate values are described in text data. Further, the intermediate file format of the three-dimensional CAD, such as STEP and IGES, may be programmed to be readable.
教師画像5を生成するためのプロセスは、まず、ユーザーが仮想空間1内の適当なXYZ位置に光源7と視点6をそれぞれ配置することから始まり、次に、見え方を知りたい物体8の三次元データ2を座標の指定位置(例えばXYZの原点)に配置し、次に、三次元データ2をデータ処理手段3に与え、物体8の三次元モデルを構築し、その物体8の表面の位置を求め、そのデータをデータ処理手段4に渡す。 The process for generating the teacher image 5 begins with the user arranging the light source 7 and the viewpoint 6 at appropriate XYZ positions in the virtual space 1, and then the tertiary of the object 8 whose appearance is to be known. The original data 2 is arranged at a designated position of coordinates (for example, the origin of XYZ), and then the three-dimensional data 2 is given to the data processing means 3 to construct a three-dimensional model of the object 8 and the position of the surface of the object 8 And passes the data to the data processing means 4.
データ処理手段4は、データ処理手段3から受け取ったデータに基づき、最初に配置された光源7から物体8の面に届いた光線について、光学的な応答を計算し、応答光として反射光と拡散光の向きと強さと色を計算する。次に、視点6に入る応答光を求め、それが視点6が向く方向に垂直な仮想平面12と交わる点にCGにより所定の光の強さと色を与え、教師画像5として出力する。 The data processing means 4 calculates the optical response of the light beam that has arrived at the surface of the object 8 from the light source 7 arranged first based on the data received from the data processing means 3, and uses the reflected light and the diffused light as the response light. Calculate the direction, intensity and color of light. Next, a response light entering the viewpoint 6 is obtained, and a point where the response light intersects the virtual plane 12 perpendicular to the direction in which the viewpoint 6 is directed is given a predetermined light intensity and color by CG, and is output as the teacher image 5.
教師画像5の出力は、ユーザーがコンピュータ20を操作することにより、その操作毎に行われる、もしくは、コンピュータ20にインストールされている電子的プログラムにより、自動的に行われる。 The output of the teacher image 5 is performed every time the user operates the computer 20, or is automatically performed by an electronic program installed in the computer 20.
教師画像5は、物体8の面欠陥(キズ、凹み、ゆがみなど)を含む画像と面欠陥を含まない画像のうち何れか一方、又はその両方である。面欠陥は、実際に発生したことがある欠陥に限らず、発生することが予想される欠陥であってもよい。 The teacher image 5 is one or both of an image including a surface defect (scratch, dent, distortion, etc.) of the object 8 and an image not including the surface defect. The surface defect is not limited to a defect that has actually occurred, but may be a defect that is expected to occur.
教師画像5を、多層構造を有するニューラルネットワーク(ディープラーニング)に与えて学習させることにより、外観検査用のネットワークモデルを生成し、そのネットワークモデルに物体23の検査画像を与えることにより、物体23の外観について良否が自動的に判定される。 By giving the teacher image 5 to a neural network (deep learning) having a multilayer structure and learning it, a network model for appearance inspection is generated, and an inspection image of the object 23 is given to the network model. The quality of the appearance is automatically determined.
図3は、教師画像を生成するためのデータを取得するデータ取得装置の具体例を示したものである。この具体例において、データ取得装置は、物体8の三次元形状データに基づいて作製されている物体23の実際の三次元形状を測定する三次元形状測定機21と、物体23の表面を撮像する二次元カメラ22と、物体23の位置と姿勢を制御する位置姿勢制御手段24と、三次元形状測定機21から出力された物体23の三次元形状測定データ、二次元カメラ22から出力された物体23の撮像データ、ならびに位置姿勢制御手段24から出力された物体23の位置姿勢データを受け取るコンピュータ20とを備えている。
FIG. 3 shows a specific example of a data acquisition device for acquiring data for generating a teacher image. In this specific example, the data acquisition device captures an image of the surface of the object 23 and a three-dimensional
図3における二次元カメラ22と物体23との位置関係は、図2における仮想空間1での視点6と物体8との位置関係と同じである。また、図3における物体23を照らす照明(不図示)と物体23との位置関係は、図2における仮想空間1での光源7と物体8との位置関係と同じである。
The positional relationship between the two-
物体8の教師画像5は、すべて仮想空間内での計算で得られるが、その見え方品質は現実の物体23の現実の見え方に近くなければならない。図3の具体例では、物体23と照明(不図示)と二次元カメラ22との位置関係を図1における仮想空間1での位置関係と同じにそろえたことにより、物体23の位置姿勢データから生成される教師画像5と二次元カメラ22で撮像した物体23の画像との比較により互いの近似度(差異)を測ることができる。近似度を数値化し、差異が小さくなるように、物体8の表面の反射や拡散や色味などの光学的特性を調整することで、教師画像5を実際の見え方に近づけることができる。
The teacher image 5 of the object 8 is all obtained by calculation in the virtual space, and its appearance quality must be close to the actual appearance of the real object 23. In the specific example of FIG. 3, the positional relationship between the object 23, the illumination (not shown), and the two-
図4は、物体位置姿勢制御手段の具体例を示す正面図である。図5は、物体位置姿勢制御手段の具体例を示す側面図である。図6は、物体位置姿勢制御手段の具体例の動作を説明するための側面図である。図4〜6は、互いに同じ具体例を示している。この具体例は、図3に示す物体位置姿勢制御手段24の具体例である。この具体例は、第一駆動リンク31a、第二駆動リンク31b、第三駆動リンク31c、及び第四駆動リンク31dから成る駆動リンク群と、第一従動リンク32a、第二従動リンク32b、第三従動リンク32c、及び第四従動リンク32dから成る従動リンク群と、YZθ軸第一駆動回転軸(兼X軸直動ガイド)33a、YZθ軸第二駆動回転軸(兼X軸直動ガイド)33b、YZθ軸第三駆動回転軸(兼X軸直動ガイド)33c、及びYZθ軸第四駆動回転軸(兼X軸直動ガイド)33dから成るYZθ軸駆動回転軸(兼X軸直動ガイド)群と、YZθ軸第一駆動モーター34a(不図示)、YZθ軸第二駆動モーター34b(不図示)、YZθ軸第三駆動モーター34c(不図示)、及びYZθ軸第四駆動モーター34dから成るYZθ軸駆動モーター群と、X軸ボールネジ35と、X軸スライダー36と、X軸駆動モーター37と、ワーク載せ台38と、で構成されるパラレルリンク機構を備えている。
FIG. 4 is a front view showing a specific example of the object position and orientation control means. FIG. 5 is a side view showing a specific example of the object position and orientation control means. FIG. 6 is a side view for explaining the operation of a specific example of the object position and orientation control means. 4 to 6 show the same specific examples. This specific example is a specific example of the object position / posture control means 24 shown in FIG. This specific example includes a drive link group including a
第一駆動リンク31a、第二駆動リンク31b、第三駆動リンク31c、及び第四駆動リンク31dの各上端部は、それぞれ、第一従動リンク32a、第二従動リンク32b、第三従動リンク32c、及び第四従動リンク32dの各下端部に、θ方向へ回転可能に接続されている。
The upper ends of the
第一従動リンク32a、第二従動リンク32b、第三従動リンク32c、及び第四従動リンク32dの各上端部は、それぞれ、ワーク載せ台38の下部に、θ方向へ回転可能に接続されている。
Upper ends of the first driven
第一駆動リンク31a、第二駆動リンク31b、第三駆動リンク31c、及び第四駆動リンク31dの各下端部は、それぞれ、YZθ軸第一駆動回転軸(兼X軸直動ガイド)33a、YZθ軸第二駆動回転軸(兼X軸直動ガイド)33b、YZθ軸第三駆動回転軸(兼X軸直動ガイド)33c、及びYZθ軸第四駆動回転軸(兼X軸直動ガイド)33dに、θ方向へ回転可能に接続されている。
The lower ends of the
YZθ軸第一駆動回転軸(兼X軸直動ガイド)33a、YZθ軸第二駆動回転軸(兼X軸直動ガイド)33b、YZθ軸第三駆動回転軸(兼X軸直動ガイド)33c、及びYZθ軸第四駆動回転軸(兼X軸直動ガイド)33dの各一端部は、それぞれ、YZθ軸第一駆動モーター34a(不図示)、YZθ軸第二駆動モーター34b(不図示)、YZθ軸第三駆動モーター34c(不図示)、及びYZθ軸第四駆動モーター34dの各動力軸に、接続されている。
YZθ-axis first drive rotation axis (also X-axis linear guide) 33a, YZθ-axis second drive rotation axis (also X-axis linear guide) 33b, YZθ-axis third drive rotation axis (also X-axis linear guide) 33c , And one end of the YZθ-axis fourth drive rotary shaft (also X-axis linear guide) 33d are respectively a YZθ-axis first drive motor 34a (not shown), a YZθ-axis second drive motor 34b (not shown), The YZθ-axis third drive motor 34c (not shown) and the YZθ-axis
X軸スライダー36は、X軸ボールネジ35に、X方向へ直動可能に保持されている。 The X-axis slider 36 is held by the X-axis ball screw 35 so as to be able to move directly in the X direction.
X軸ボールネジ35の一端部は、X軸駆動モーター37の動力軸に、接続されている。
One end of the X-axis ball screw 35 is connected to the power shaft of the
以上のパラレルリンク機構において、YZθ軸駆動モーター群の各駆動モーターを選択的に動作させると、その動力により、YZθ軸駆動回転軸(兼X軸直動ガイド)群の各回転軸がθ方向へ選択的に回転し、その回転により、駆動リンク群の各駆動リンクが各回転軸を中心としてθ方向へ所定の角度で選択的に回転し、その回転に連動して従動リンク群の各従動リンクが所定の姿勢となることで、例えば、図6に示すように、ワーク載せ台38がY方向へ移動すると共にθ方向へ回転する。 In the parallel link mechanism described above, when each drive motor of the YZθ-axis drive motor group is selectively operated, each power causes the respective YZθ-axis drive rotation axis (also X-axis linear guide) group to rotate in the θ direction. Selectively rotate, and by the rotation, each drive link of the drive link group is selectively rotated at a predetermined angle in the θ direction about each rotation axis, and each driven link of the driven link group is linked to the rotation. Takes a predetermined posture, for example, as shown in FIG. 6, the work mounting table 38 moves in the Y direction and rotates in the θ direction.
また、X軸駆動モーター37を動作させると、その動力により、X軸ボールネジ35が回転し、その回転により、X軸スライダー36がX軸ボールネジ35の延在方向に沿ってX方向へ移動し、その移動による動力が駆動リンク群に直接的又は間接的に伝わることにより、駆動リンク群がYZθ軸駆動回転軸(兼X軸直動ガイド)群の延在方向に沿ってX方向へ移動し、その移動に伴い、ワーク載せ台38がX方向へ移動する。
Further, when the
ワーク載せ台38に物体23が載置されている場合には、ワーク載せ台38と共に物体23の位置や姿勢を変化させることができる。物体23の位置や姿勢を段階的又は連続的に変化させながら、三次元形状測定機21と二次元カメラ22とコンピュータ20とにより、その位置や姿勢における物体23の三次元形状データと二次元画像と位置姿勢データを互いに関連付けて取得すれば、教師画像5を生成するためのデータを効率良く収集することができる。この一連のプロセスは、位置姿勢制御手段24と三次元形状測定機21と二次元カメラ22とコンピュータ20とが互いに連動することにより、自動的に実行されるように構成されていてもよい。
When the object 23 is placed on the work table 38, the position and the posture of the object 23 can be changed together with the work table 38. While changing the position and orientation of the object 23 stepwise or continuously, the three-dimensional
図4〜6に示した具体例は、物体23をXYZ方向とX軸回りに移動させるように構成されているが、物体23をYZ軸回りにも移動させるように構成されていてもよい。 The specific examples shown in FIGS. 4 to 6 are configured to move the object 23 in the XYZ directions and around the X axis, but may be configured to move the object 23 also around the YZ axes.
1 仮想空間
2 物体の三次元形状を表現するデータ
3 データ処理手段
4 データ処理手段
5 教師画像
6 視点
7 光源
8 物体
9 光
10 光学的な応答
11 光
12 仮想平面
20 コンピュータ
21 三次元形状測定機
22 二次元カメラ
23 物体
24 物体位置姿勢制御手段
31a 第一駆動リンク
31b 第二駆動リンク
31c 第三駆動リンク
31d 第四駆動リンク
32a 第一従動リンク
32b 第二従動リンク
32c 第三従動リンク
32d 第四従動リンク
33a YZθ軸第一駆動回転軸(兼X軸直動ガイド)
33b YZθ軸第二駆動回転軸(兼X軸直動ガイド)
33c YZθ軸第三駆動回転軸(兼X軸直動ガイド)
33d YZθ軸第四駆動回転軸(兼X軸直動ガイド)
34a YZθ軸第一駆動モーター(不図示)
34b YZθ軸第二駆動モーター(不図示)
34c YZθ軸第三駆動モーター(不図示)
34d YZθ軸第四駆動モーター
35 X軸ボールネジ
36 X軸スライダー
37 X軸駆動モーター
38 ワーク載せ台
Reference Signs List 1 virtual space 2 data representing 3D shape of object 3 data processing means 4 data processing means 5 teacher image 6 viewpoint 7 light source 8 object 9 light 10 optical response 11 light 12 virtual plane 20
33b YZθ axis second drive rotation axis (also X axis linear motion guide)
33c YZθ axis third drive rotation axis (also X axis linear motion guide)
33d YZθ axis fourth drive rotation axis (also X axis linear motion guide)
34a YZθ axis first drive motor (not shown)
34b YZθ axis second drive motor (not shown)
34c YZθ axis third drive motor (not shown)
34d YZθ-axis
Claims (4)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112374A JP7186521B2 (en) | 2018-06-12 | 2018-06-12 | Teacher image generator for visual inspection equipment |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018112374A JP7186521B2 (en) | 2018-06-12 | 2018-06-12 | Teacher image generator for visual inspection equipment |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019215240A true JP2019215240A (en) | 2019-12-19 |
JP7186521B2 JP7186521B2 (en) | 2022-12-09 |
Family
ID=68919058
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018112374A Active JP7186521B2 (en) | 2018-06-12 | 2018-06-12 | Teacher image generator for visual inspection equipment |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7186521B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022260028A1 (en) * | 2021-06-11 | 2022-12-15 | 日立Astemo株式会社 | Visual inspection device, visual inspection method, image generation device, and image generation method |
WO2023228712A1 (en) * | 2022-05-23 | 2023-11-30 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011214903A (en) * | 2010-03-31 | 2011-10-27 | Denso It Laboratory Inc | Appearance inspection apparatus, and apparatus, method and program for generating appearance inspection discriminator |
JP2013029350A (en) * | 2011-07-27 | 2013-02-07 | Hitachi Ltd | Appearance inspection method and device for the same |
JP2017120672A (en) * | 2017-04-07 | 2017-07-06 | キヤノン株式会社 | Image processing device and image processing method |
US20170200265A1 (en) * | 2016-01-11 | 2017-07-13 | Kla-Tencor Corporation | Generating simulated output for a specimen |
JP6330092B1 (en) * | 2017-08-02 | 2018-05-23 | 株式会社ディジタルメディアプロフェッショナル | Machine learning teacher data generation apparatus and generation method |
-
2018
- 2018-06-12 JP JP2018112374A patent/JP7186521B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011214903A (en) * | 2010-03-31 | 2011-10-27 | Denso It Laboratory Inc | Appearance inspection apparatus, and apparatus, method and program for generating appearance inspection discriminator |
JP2013029350A (en) * | 2011-07-27 | 2013-02-07 | Hitachi Ltd | Appearance inspection method and device for the same |
US20170200265A1 (en) * | 2016-01-11 | 2017-07-13 | Kla-Tencor Corporation | Generating simulated output for a specimen |
JP2017120672A (en) * | 2017-04-07 | 2017-07-06 | キヤノン株式会社 | Image processing device and image processing method |
JP6330092B1 (en) * | 2017-08-02 | 2018-05-23 | 株式会社ディジタルメディアプロフェッショナル | Machine learning teacher data generation apparatus and generation method |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022260028A1 (en) * | 2021-06-11 | 2022-12-15 | 日立Astemo株式会社 | Visual inspection device, visual inspection method, image generation device, and image generation method |
WO2023228712A1 (en) * | 2022-05-23 | 2023-11-30 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Also Published As
Publication number | Publication date |
---|---|
JP7186521B2 (en) | 2022-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104063873B (en) | A kind of Model For The Bush-axle Type Parts surface defect online test method based on compressed sensing | |
JP7037876B2 (en) | Use of 3D vision in automated industrial inspection | |
Lahajnar et al. | Machine vision system for inspecting electric plates | |
CN109969736A (en) | A kind of large size carrier strip deviation fault intelligent detecting method | |
US11158039B2 (en) | Using 3D vision for automated industrial inspection | |
US20150362310A1 (en) | Shape examination method and device therefor | |
EP3660493A2 (en) | Fluorescent penetrant inspection system and method | |
CN106289325A (en) | A kind of air-bubble level automatic checkout system | |
WO2020079694A1 (en) | Optimizing defect detection in an automatic visual inspection process | |
JP2019215240A (en) | Teacher image generation method of appearance inspection device | |
KR20230028385A (en) | Thickness correction system and method for video extensometer | |
EP4202424A1 (en) | Method and system for inspection of welds | |
JP2018522240A (en) | Method for measuring artifacts | |
JP2013156173A (en) | Inspection method for turbine blade and device therefor | |
CN104034259A (en) | Method for correcting image measurement instrument | |
US11257205B2 (en) | Image measuring method and apparatus | |
CN110657750B (en) | Detection system and method for passivation of cutting edge of cutter | |
CN107084698B (en) | Rail vehicle wheel detection system and detection method | |
Iacono et al. | Computational imaging for drill bit wear estimation | |
Baleani | In-line quality control for Zero Defect Manufacturing: design, development and uncertainty analysis of vision-based instruments for dimensional measurements at different scales | |
JP7440975B2 (en) | Imaging device and identification method | |
Szeto et al. | Nondestructive Test Using a 3D Computer Vision System for Damage Detection of Structures | |
RU2777718C1 (en) | Method for non-destructive optical and visual testing of items by means of computer vision | |
Kos et al. | Detection, localization and recognition of objects using LabVIEW | |
Liu et al. | A Novel Apple Size and Surface Quality Detection and Grading System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20180613 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210302 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20211130 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211206 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220613 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220808 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20221114 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20221129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7186521 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |