JP6729081B2 - Image processing system, image processing method, and image processing program - Google Patents

Image processing system, image processing method, and image processing program Download PDF

Info

Publication number
JP6729081B2
JP6729081B2 JP2016130484A JP2016130484A JP6729081B2 JP 6729081 B2 JP6729081 B2 JP 6729081B2 JP 2016130484 A JP2016130484 A JP 2016130484A JP 2016130484 A JP2016130484 A JP 2016130484A JP 6729081 B2 JP6729081 B2 JP 6729081B2
Authority
JP
Japan
Prior art keywords
image
learning
model
model image
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2016130484A
Other languages
Japanese (ja)
Other versions
JP2018005500A (en
Inventor
豊 木内
豊 木内
博幸 枦山
博幸 枦山
佳英 山本
佳英 山本
洋史 山田
洋史 山田
智大 荒野
智大 荒野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp filed Critical Omron Corp
Priority to JP2016130484A priority Critical patent/JP6729081B2/en
Publication of JP2018005500A publication Critical patent/JP2018005500A/en
Application granted granted Critical
Publication of JP6729081B2 publication Critical patent/JP6729081B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本開示は、検査対象物の検査基準となるモデル画像を生成するための技術に関する。 The present disclosure relates to a technique for generating a model image that serves as an inspection reference for an inspection target.

FA(Factory Automation)分野において、ワークなどの検査対象物を自動で検査するための技術が普及している。ワークの検査は、検査対象のワークを撮影して得られた検査用画像を、検査基準となるモデル画像と比較することで実現される。 In the field of FA (Factory Automation), a technique for automatically inspecting an inspection object such as a work is prevalent. The inspection of the work is realized by comparing the inspection image obtained by photographing the inspection target work with the model image serving as the inspection reference.

モデル画像(テンプレート)を生成するための技術に関し、特開2010−276487号公報(特許文献1)は、「高いマッチング精度を安定して確保することが可能なテンプレートマッチング用テンプレート作成方法」を開示している。 Regarding a technique for generating a model image (template), Japanese Patent Laying-Open No. 2010-276487 (Patent Document 1) discloses “a template matching template creation method capable of stably ensuring high matching accuracy”. doing.

特開2010−276487号公報JP, 2010-276487, A

モデル画像は、検査対象物と同種類の物体を撮影して得られた画像から生成される。以下では、モデル画像の生成元となる画像を「学習画像」ともいう。特異な学習画像が学習対象に含まれると、検査基準として低品質なモデル画像が生成され、検査の精度が低下する。したがって、特異な学習画像を学習対象から省くために、モデル画像の生成に用いる学習画像を選択することが可能な技術が望まれている。 The model image is generated from an image obtained by photographing an object of the same type as the inspection object. Below, the image from which the model image is generated is also referred to as a “learning image”. When a peculiar learning image is included in the learning target, a low quality model image is generated as an inspection standard, and the accuracy of the inspection decreases. Therefore, there is a demand for a technique capable of selecting a learning image used for generating a model image in order to exclude a unique learning image from learning targets.

本開示は上述のような問題点を解決するためになされたものであって、ある局面における目的は、モデル画像の生成に用いる学習画像を選択することが可能な画像処理システムを提供することである。他の局面における目的は、モデル画像の生成に用いる学習画像を選択することが可能な画像処理方法を提供することである。さらに他の局面における目的は、モデル画像の生成に用いる学習画像を選択することが可能な画像処理プログラムを提供することである。 The present disclosure has been made to solve the above problems, and an object of an aspect is to provide an image processing system capable of selecting a learning image used for generating a model image. is there. An object in another aspect is to provide an image processing method capable of selecting a learning image used for generating a model image. An object in still another aspect is to provide an image processing program capable of selecting a learning image used for generating a model image.

ある局面に従うと、検査対象物を撮像して得られた画像に基づいて上記検査対象物を検査するための画像処理システムは、上記検査対象物と同種類の物体を表わす複数の学習画像と、上記検査対象物の検査基準として上記複数の学習画像から生成された第1モデル画像とを格納するための記憶部と、上記複数の学習画像の各々の選択を受け付ける選択項目を表示するための表示部とを備える。上記表示部は、上記選択項目ごとに、当該選択項目で選択可能な学習画像の識別情報と、当該学習画像の選択可否を支援するための支援情報とを並べて表示する。上記画像処理システムは、さらに、上記選択項目において選択された学習画像から上記画像との比較対象として第2モデル画像を生成し、上記第1モデル画像を上記第2モデル画像に更新するための更新部を備える。 According to a certain aspect, the image processing system for inspecting the inspection object based on the image obtained by imaging the inspection object, a plurality of learning images representing an object of the same type as the inspection object, A storage unit for storing a first model image generated from the plurality of learning images as an inspection reference of the inspection object, and a display for displaying a selection item for accepting selection of each of the plurality of learning images. And a section. The display unit displays, for each of the selection items, identification information of a learning image selectable by the selection item and support information for supporting whether or not the learning image can be selected. The image processing system further generates a second model image as a comparison target with the image from the learning image selected in the selection item, and updates the first model image to the second model image. Section.

好ましくは、上記表示部は、上記支援情報に対する所定のソートルールに従って、複数の上記支援情報の各々を、対応する上記選択項目および上記識別情報とともにソートした上で表示する。 Preferably, the display unit sorts each of the plurality of pieces of support information together with the corresponding selection item and the identification information according to a predetermined sorting rule for the support information and then displays the sorted pieces of support information.

好ましくは、上記表示部は、上記第1モデル画像と上記複数の学習画像の各々との第1類似度群、および上記第2モデル画像と上記複数の学習画像の各々との第2類似度群を、上記支援情報として表示する。 Preferably, the display unit has a first similarity group between the first model image and each of the plurality of learning images, and a second similarity group between the second model image and each of the plurality of learning images. Is displayed as the support information.

好ましくは、上記更新部は、上記選択項目に対する選択が更新される度に、当該選択項目において選択された学習画像から上記第2モデル画像を生成する。上記表示部は、上記第2モデル画像が生成される度に上記第2類似度群の表示を更新する。 Preferably, the updating unit generates the second model image from the learning image selected in the selection item each time the selection for the selection item is updated. The display unit updates the display of the second similarity group each time the second model image is generated.

好ましくは、上記表示部は、上記複数の学習画像の内から表示対象として選択された学習画像を上記支援情報として表示する。 Preferably, the display unit displays a learning image selected as a display target from the plurality of learning images as the support information.

好ましくは、上記表示部は、上記選択項目において選択されている学習画像を上記支援情報として表示する。 Preferably, the display unit displays the learning image selected in the selection item as the support information.

好ましくは、上記表示部は、上記第1モデル画像と、上記第2モデル画像とを並べて表示する。 Preferably, the display unit displays the first model image and the second model image side by side.

好ましくは、上記更新部は、上記第1モデル画像の更新指示を受け付けたことに基づいて、上記第1モデル画像を上記第2モデル画像に更新する。 Preferably, the updating unit updates the first model image to the second model image on the basis of receiving an instruction to update the first model image.

他の局面に従うと、検査対象物を撮像して得られた画像に基づいて上記検査対象物を検査するための画像処理方法は、上記検査対象物と同種類の物体を表わす複数の学習画像と、上記検査対象物の検査基準として上記複数の学習画像から生成された第1モデル画像とを準備するステップと、上記複数の学習画像の各々の選択を受け付ける選択項目を表示するとともに、当該選択項目ごとに、当該選択項目で選択可能な学習画像の識別情報と、当該学習画像の選択可否を支援するための支援情報とを並べて表示するステップと、上記選択項目において選択された学習画像から上記画像との比較対象として第2モデル画像を生成し、上記第1モデル画像を上記第2モデル画像に更新するステップとを備える。 According to another aspect, an image processing method for inspecting the inspection object based on an image obtained by imaging the inspection object includes a plurality of learning images representing an object of the same type as the inspection object. A step of preparing a first model image generated from the plurality of learning images as an inspection reference of the inspection object, and a selection item for accepting selection of each of the plurality of learning images is displayed and the selection item. For each, the step of displaying the identification information of the learning image selectable in the selection item and the support information for supporting the selection availability of the learning image side by side, the image from the learning image selected in the selection item And a step of generating a second model image as a comparison target with and updating the first model image to the second model image.

他の局面に従うと、検査対象物を撮像して得られた画像に基づいて上記検査対象物を検査するための画像処理プログラムは、コンピュータに、上記検査対象物と同種類の物体を表わす複数の学習画像と、上記検査対象物の検査基準として上記複数の学習画像から生成された第1モデル画像とを準備するステップと、上記複数の学習画像の各々の選択を受け付ける選択項目を表示するとともに、当該選択項目ごとに、当該選択項目で選択可能な学習画像の識別情報と、当該学習画像の選択可否を支援するための支援情報とを並べて表示するステップと、上記選択項目において選択された学習画像から上記画像との比較対象として第2モデル画像を生成し、上記第1モデル画像を上記第2モデル画像に更新するステップとを実行させる。 According to another aspect, the image processing program for inspecting the inspection object based on the image obtained by imaging the inspection object causes the computer to display a plurality of objects representing the same type of object as the inspection object. A step of preparing a learning image and a first model image generated from the plurality of learning images as an inspection reference of the inspection object, and displaying selection items for accepting selection of each of the plurality of learning images, For each of the selection items, a step of displaying the identification information of the learning image selectable in the selection item and the support information for supporting the selection of the learning image side by side, and the learning image selected in the selection item To generate a second model image as a comparison target with the image and update the first model image to the second model image.

ある局面において、モデル画像の生成に用いる学習画像を選択することができる。
本開示の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解される本発明に関する次の詳細な説明から明らかとなるであろう。
In an aspect, a learning image used for generating the model image can be selected.
The above as well as other objects, features, aspects and advantages of the present disclosure will become apparent from the following detailed description of the invention which is understood in conjunction with the accompanying drawings.

実施の形態に従う画像処理システムの基本構成を示す模式図である。It is a schematic diagram which shows the basic composition of the image processing system according to an embodiment. モデル画像の学習過程を時系列に示す図である。It is a figure which shows the learning process of a model image in time series. ユーザが学習画像を選択する過程を示す図である。It is a figure which shows the process in which a user selects a learning image. 表示部に表示されているモデル登録画面を示す図である。It is a figure which shows the model registration screen currently displayed on the display part. モデル登録画面の一例を示す図である。It is a figure which shows an example of a model registration screen. ワークの検査処理を概略的に示す概念図である。It is a conceptual diagram which shows the inspection process of a workpiece|work schematically. ワークのピン間の寸法検査の一例を示す図である。It is a figure which shows an example of the dimension inspection between the pins of a workpiece|work. ピンの長さに対する寸法検査を示す図である。It is a figure which shows the dimension inspection with respect to the length of a pin. ワークの外観検査の結果を示す図である。It is a figure which shows the result of the visual inspection of a workpiece|work. 実施の形態に従うコントローラの機能構成の一例を示す図である。It is a figure showing an example of functional composition of a controller according to an embodiment. 実施の形態に従う画像処理システムが実行する学習処理を表わすフローチャートである。7 is a flowchart showing a learning process executed by the image processing system according to the embodiment. 実施の形態に従う画像処理システムが実行する検査処理を表わすフローチャートである。7 is a flowchart showing an inspection process executed by the image processing system according to the embodiment. 実施の形態に従うコントローラのハードウェア構成を示す模式図である。It is a schematic diagram which shows the hardware constitutions of the controller according to an embodiment.

以下、図面を参照しつつ、本発明に従う各実施の形態について説明する。以下の説明では、同一の部品および構成要素には同一の符号を付してある。それらの名称および機能も同じである。したがって、これらについての詳細な説明は繰り返さない。 Each embodiment according to the present invention will be described below with reference to the drawings. In the following description, the same parts and components are designated by the same reference numerals. Their names and functions are also the same. Therefore, detailed description thereof will not be repeated.

<A.画像処理システム1>
図1を参照して、本実施の形態に従う画像処理システム1の基本構成について説明する。図1は、本実施の形態に従う画像処理システム1の基本構成を示す模式図である。
<A. Image processing system 1>
A basic configuration of image processing system 1 according to the present embodiment will be described with reference to FIG. FIG. 1 is a schematic diagram showing the basic configuration of an image processing system 1 according to the present embodiment.

図1に示されるように、画像処理システム1は、コントローラ100と、表示部120と、操作部122と、画像センサ134と、撮像部135とを含む。 As shown in FIG. 1, the image processing system 1 includes a controller 100, a display unit 120, an operation unit 122, an image sensor 134, and an imaging unit 135.

コントローラ100は、画像処理システム1全体を制御する。コントローラ100には、表示部120および操作部122が接続され得る。表示部120は、画像を表示可能な液晶パネルなどで構成される。操作部122は、典型的には、タッチパネル、キーボード、マウスなどで構成される。 The controller 100 controls the entire image processing system 1. A display unit 120 and an operation unit 122 can be connected to the controller 100. The display unit 120 is composed of a liquid crystal panel or the like capable of displaying an image. The operation unit 122 is typically composed of a touch panel, a keyboard, a mouse, and the like.

コントローラ100と画像センサ134とは、ネットワークを介して通信接続されている。コントローラ100と画像センサ134との間の通信は、無線通信で実現されてもよいし、有線通信で実現されてもよい。画像センサ134には、撮像部135が通信接続されている。画像センサ134と撮像部135との間の通信は、無線通信で実現されてもよいし、有線通信で実現されてもよい。 The controller 100 and the image sensor 134 are communicatively connected via a network. Communication between the controller 100 and the image sensor 134 may be realized by wireless communication or wire communication. The image sensor 135 is communicatively connected to the image sensor 134. The communication between the image sensor 134 and the imaging unit 135 may be realized by wireless communication or wire communication.

画像処理システム1では、コンベア123上を連続的に搬送されるワークWに対して所定の作業を行う。ワークWは、たとえば、複数のピンを有するコネクタである。図1には、ワークWを検査し、その検査結果に基づいて異常なワークWを排除する作業工程が示されている。 In the image processing system 1, a predetermined work is performed on the works W continuously conveyed on the conveyor 123. The work W is, for example, a connector having a plurality of pins. FIG. 1 shows a work process of inspecting the work W and eliminating the abnormal work W based on the inspection result.

検査対象のワークWは、コンベア123によりステージS上に搬送される。ワークWは、ステージS上に配置されると、撮像部135に撮像される。このとき、好ましくは、ワークWは、治具(図示しない)などによりステージS上において整列された上で撮像される。画像センサ134は、当該撮像により得られた画像に対して画像処理を行うことで、ワークWの外観や寸法などを検査する。一例として、画像センサ134は、ワークWの検査基準となるモデル画像と、検査対象のワークWを撮像して得られた検査用画像とを比較することでワークWを検査する。画像センサ134による検査結果は、コントローラ100に送られ、表示部120などに表示される。 The workpiece W to be inspected is conveyed onto the stage S by the conveyor 123. When the work W is placed on the stage S, the work W is imaged by the imaging unit 135. At this time, preferably, the work W is imaged after being aligned on the stage S by a jig (not shown) or the like. The image sensor 134 inspects the external appearance and dimensions of the work W by performing image processing on the image obtained by the imaging. As an example, the image sensor 134 inspects the work W by comparing a model image serving as an inspection reference of the work W with an inspection image obtained by imaging the work W to be inspected. The inspection result by the image sensor 134 is sent to the controller 100 and displayed on the display unit 120 or the like.

コントローラ100は、ワークWの検査完了後、ワークWを乗せた状態でステージSをコンベア127に隣接するように移動させる。その後、コントローラ100は、治具124を駆動し、ワークWをコンベア127に押し出す。これにより、ワークWは、コンベア127上を搬送される。 After the inspection of the work W is completed, the controller 100 moves the stage S so as to be adjacent to the conveyor 127 with the work W placed thereon. After that, the controller 100 drives the jig 124 and pushes the work W onto the conveyor 127. As a result, the work W is conveyed on the conveyor 127.

コントローラ100は、ワークWの検査結果に基づいて、排除機構125を駆動する。より具体的には、ワークWが異常であることを検査結果が示す場合、コントローラ100は、コンベア127からコンベア128にワークWを誘導するように排除機構125を駆動する。一方で、ワークWが正常であることを検査結果が示す場合、コントローラ100は、ワークWがコンベア128に排除されないように排除機構125を駆動する。これにより、正常なワークWはコンベア127上を搬送され、異常なワークWはコンベア128上を搬送される。 The controller 100 drives the exclusion mechanism 125 based on the inspection result of the work W. More specifically, when the inspection result indicates that the work W is abnormal, the controller 100 drives the exclusion mechanism 125 so as to guide the work W from the conveyor 127 to the conveyor 128. On the other hand, when the inspection result indicates that the work W is normal, the controller 100 drives the exclusion mechanism 125 so that the work W is not removed by the conveyor 128. As a result, the normal work W is carried on the conveyor 127, and the abnormal work W is carried on the conveyor 128.

なお、図1の例では、ワークWとしてコネクタが示されているが、ワークWは、コネクタに限定されない。ワークWは、製品または半製品であり、たとえば、ハウジングであってもよいし、食料品であってもよい。 Note that in the example of FIG. 1, a connector is shown as the work W, but the work W is not limited to the connector. The work W is a product or a semi-finished product, and may be, for example, a housing or a food product.

また、上述では、画像センサ134がワークWの検査を実施する例について説明を行ったが、ワークWの検査は、他の装置で実施されてもよい。たとえば、ワークWの検査は、コントローラ100で実施されてもよい。 Further, in the above, the example in which the image sensor 134 inspects the work W has been described, but the inspection of the work W may be performed by another device. For example, the inspection of the work W may be performed by the controller 100.

<B.画像処理システム1の主要処理>
画像処理システム1は、主要な処理として、学習処理と、検査処理とを実行する。学習処理は、検査処理に先立って予め実行される。
<B. Main processing of image processing system 1>
The image processing system 1 executes a learning process and an inspection process as main processes. The learning process is executed in advance before the inspection process.

学習処理において、画像処理システム1は、ワークの検査基準となるモデル画像を生成する。モデル画像は、検査対象物のワークと同種類のワークを予め撮影して得られた複数の学習画像から生成される。 In the learning process, the image processing system 1 generates a model image that serves as an inspection standard for the work. The model image is generated from a plurality of learning images obtained by previously photographing a work of the same type as the work of the inspection object.

検査処理において、画像処理システム1は、学習処理で生成されたモデル画像と、検査対象物のワークを撮影して得られた検査用画像とを比較し、モデル画像と検査用画像との類似度を算出する。当該類似度は、たとえば、検査用画像の画像情報(たとえば、画素値)とモデル画像の画像情報との相関値で表わされる。画像処理システム1は、当該類似度が予め定められた値よりも低い場合に、検査対象のワークに欠陥が有ると判断する。画像処理システム1は、当該類似度が予め定められた値以上である場合に、検査対象のワークに欠陥が無いと判断する。 In the inspection process, the image processing system 1 compares the model image generated in the learning process with the inspection image obtained by photographing the workpiece of the inspection target, and determines the degree of similarity between the model image and the inspection image. To calculate. The degree of similarity is represented by, for example, a correlation value between the image information (for example, pixel value) of the inspection image and the image information of the model image. The image processing system 1 determines that the workpiece to be inspected has a defect when the similarity is lower than a predetermined value. The image processing system 1 determines that the workpiece to be inspected has no defect when the similarity is equal to or more than a predetermined value.

以下では、学習処理と、検査処理とについて詳細に説明する。
<C.学習処理>
[C1.学習処理の流れ]
図2を参照して、画像処理システム1による学習処理の流れについて説明する。図2は、モデル画像の学習過程を時系列に示す図である。
The learning process and the inspection process will be described in detail below.
<C. Learning process>
[C1. Learning process flow]
The flow of learning processing by the image processing system 1 will be described with reference to FIG. FIG. 2 is a diagram showing the learning process of the model image in time series.

学習処理においては、モデル画像の生成元となる画像29が予め準備される。準備される画像29は、1枚であってもよいし、複数枚であってもよい。画像29は、検査対象物と同種類のワークWを撮像して得られたものである。画像29は、上述の撮像部135(図1参照)がワークWを撮像することにより生成される。画像29は、撮像部135から画像センサ134(図1参照)に出力される。 In the learning process, the image 29 that is the generation source of the model image is prepared in advance. The image 29 to be prepared may be a single image or a plurality of images. The image 29 is obtained by imaging the work W of the same type as the inspection object. The image 29 is generated by the above-described image capturing unit 135 (see FIG. 1) capturing the image of the work W. The image 29 is output from the imaging unit 135 to the image sensor 134 (see FIG. 1).

画像センサ134は、画像29からワークWのピン部分29A〜29Eを切り出す。ピン部分29A〜29Eは、ユーザによって指定されてもよいし、画像処理などによって自動的に検知されてもよい。一例として、画像センサ134は、画像29に微分フィルタを重畳することでエッジを検知する。画像センサ134は、検知されたエッジ部分から所定の矩形領域を検知し、縦横比(すなわち、アスペクト比)が所定範囲内の矩形領域をピン部分29A〜29Eとして検知する。なお、ピン部分のモデル画像が過去に生成さている場合には、画像センサ134は、当該モデル画像を用いた所定の画像処理(たとえば、テンプレートマッチングなど)でピン部分29A〜29Eを検知してもよい。 The image sensor 134 cuts out the pin portions 29A to 29E of the work W from the image 29. The pin portions 29A to 29E may be designated by the user or may be automatically detected by image processing or the like. As an example, the image sensor 134 detects an edge by superimposing a differential filter on the image 29. The image sensor 134 detects a predetermined rectangular area from the detected edge portion, and detects a rectangular area having an aspect ratio (that is, an aspect ratio) within a predetermined range as the pin portions 29A to 29E. When the model image of the pin portion has been generated in the past, the image sensor 134 detects the pin portions 29A to 29E by a predetermined image processing (for example, template matching) using the model image. Good.

図2には、画像29から切り出されたピン部分29A〜29Eが学習画像30として示されている。画像センサ134は、学習画像30からモデル画像31を生成する。一例として、画像センサ134は、学習画像30の平均画像をモデル画像31として生成する。より具体的には、画像センサ134は、各学習画像間の同一座標の画素値を平均する。これにより、モデル画像31が生成される。学習画像30の各々には、外乱の違いなど様々な環境変動が含まれているので、学習画像30が平均化されることで、ロバスト性の高いモデル画像31が生成される。 In FIG. 2, pin portions 29A to 29E cut out from the image 29 are shown as a learning image 30. The image sensor 134 generates the model image 31 from the learning image 30. As an example, the image sensor 134 generates the average image of the learning image 30 as the model image 31. More specifically, the image sensor 134 averages the pixel values of the same coordinates between the learning images. As a result, the model image 31 is generated. Since each of the learning images 30 includes various environmental changes such as a difference in disturbance, the learning images 30 are averaged to generate a model image 31 having high robustness.

なお、上述の例では、学習画像30を加算平均することによりモデル画像31を生成する例について説明を行ったが、モデル画像31は、他の方法で生成されてもよい。たとえば、各学習画像を重み付けした上で学習画像を平均化する加重平均や、信頼性の低い学習画像を除外した上で学習画像を平均化する調整平均などにより、モデル画像31が生成されてもよい。 In the above example, the example in which the model image 31 is generated by averaging the learning images 30 has been described, but the model image 31 may be generated by another method. For example, even if the model image 31 is generated by a weighted average of averaging the learning images after weighting the learning images or an adjusting average of averaging the learning images after excluding the learning images of low reliability, Good.

[C2.学習画像の選択]
学習対象のワークに欠陥が有る場合や、学習対象のワークの撮影環境が変動する場合には、意図する学習画像が得られないことがある。このような特異な学習画像が含まれている状態で学習処理が実行されると、検査基準として低品質なモデル画像が生成されてしまう。そこで、本実施の形態に従う画像処理システム1は、学習処理に用いる学習画像の選択を受け付け、選択された学習画像からモデル画像を生成する。これにより、特異な学習画像を除外することができ、検査基準として精度の高いモデル画像が生成される。
[C2. Select learning image]
If the work to be learned has a defect, or if the shooting environment of the work to be learned changes, the intended learning image may not be obtained. If the learning process is executed in a state in which such a peculiar learning image is included, a low-quality model image is generated as an inspection standard. Therefore, the image processing system 1 according to the present embodiment receives a selection of a learning image used for the learning process and generates a model image from the selected learning image. Thereby, a peculiar learning image can be excluded and a highly accurate model image is generated as an inspection standard.

図3は、ユーザが学習画像を選択する過程を示す図である。図3には、学習候補としての学習画像30A〜30Nと、学習画像30A〜30Nの各々の選択を受け付ける選択項目31A〜31Nが示されている。選択項目31A〜31Nは、たとえば、画像選択を受け付けるチェックボックスやボタンなどである。図3(A)の例においては、学習画像30A〜30Nの全てが選択されている。 FIG. 3 is a diagram showing a process in which a user selects a learning image. FIG. 3 shows learning images 30A to 30N as learning candidates and selection items 31A to 31N that accept selection of each of the learning images 30A to 30N. The selection items 31A to 31N are, for example, check boxes or buttons that accept image selection. In the example of FIG. 3A, all the learning images 30A to 30N are selected.

図3(A)に示されるように、画像処理システム1は、学習画像30A〜30Nからモデル画像32を生成する。その後、画像処理システム1は、学習画像30A〜30Nの各々についてモデル画像32との類似度を算出する。類似度は、たとえば、モデル画像の画像情報(たとえば、画素値)と、学習画像の画像情報(たとえば、画素値)との相関値で表わされる。当該相関値の算出方法として、たとえば、SSD(Sum of Squared Difference)、SAD(Sum of Absolute Difference)、NCC(Normalized Cross-Correlation)、またはZNCC(Zero-mean Normalized Cross-Correlation)などが採用される。 As shown in FIG. 3A, the image processing system 1 generates a model image 32 from the learning images 30A to 30N. After that, the image processing system 1 calculates the degree of similarity with the model image 32 for each of the learning images 30A to 30N. The degree of similarity is represented by, for example, a correlation value between the image information (for example, pixel value) of the model image and the image information (for example, pixel value) of the learning image. As a method of calculating the correlation value, for example, SSD (Sum of Squared Difference), SAD (Sum of Absolute Difference), NCC (Normalized Cross-Correlation), or ZNCC (Zero-mean Normalized Cross-Correlation) is adopted. ..

当該相関値は、モデル画像の生成元の学習画像の選択可否を支援するための情報(以下、「支援情報」ともいう。)として表示される。ユーザは、類似度が低い学習画像を確認することで、特異な学習画像を特定することができる。図3(A)の例では、欠陥を有する学習画像30Bの相関値が他の学習画像と比べて低いので、ユーザは、学習画像30Bを特異な学習画像として特定することができる。 The correlation value is displayed as information (hereinafter, also referred to as “support information”) for supporting whether or not the learning image from which the model image is generated can be selected. The user can identify a unique learning image by confirming the learning image having a low degree of similarity. In the example of FIG. 3A, the learning image 30B having a defect has a lower correlation value than the other learning images, and thus the user can identify the learning image 30B as a unique learning image.

ユーザは、相関値を確認した後に、学習画像30A〜30Nの内から学習対象を選択する。図3(B)の例では、ユーザは、選択項目31Bにおけるチェックを外すことで、学習画像30Bを学習対象から外す。選択項目31A〜31Nに対する選択が更新されると、画像処理システム1は、選択項目31A〜31Nにおいて選択された学習画像から新たなモデル画像33を生成する。その後、画像処理システム1は、学習画像30A〜30Nの各々についてモデル画像33との相関値を算出する。 After confirming the correlation value, the user selects a learning target from the learning images 30A to 30N. In the example of FIG. 3B, the user removes the check in the selection item 31B to remove the learning image 30B from the learning target. When the selection for the selection items 31A to 31N is updated, the image processing system 1 generates a new model image 33 from the learning image selected in the selection items 31A to 31N. Then, the image processing system 1 calculates the correlation value with the model image 33 for each of the learning images 30A to 30N.

以上のように、画像処理システム1は、学習画像の選択を受け付ける処理と、選択された学習画像からモデル画像を生成する処理と、生成されたモデル画像と各学習画像との相関値を支援情報として表示する処理とを繰り返す。これにより、ユーザは、モデル画像の良否を確認した上でモデル画像を登録することができる。 As described above, the image processing system 1 receives the selection of a learning image, the process of generating a model image from the selected learning image, and the correlation value between the generated model image and each learning image as support information. The process of displaying as is repeated. This allows the user to register the model image after confirming the quality of the model image.

[C3.モデル登録画面]
図4を参照して、モデル画像を登録するためのモデル登録画面50について説明する。図4は、表示部120に表示されているモデル登録画面50を示す図である。
[C3. Model registration screen]
A model registration screen 50 for registering a model image will be described with reference to FIG. FIG. 4 is a diagram showing the model registration screen 50 displayed on the display unit 120.

モデル登録画面50は、適切なモデル画像を登録するためのユーザーインターフェイスである。モデル登録画面50に対する選択操作や入力操作は、上述の操作部122(図1参照)によって実現される。 The model registration screen 50 is a user interface for registering an appropriate model image. The selection operation and the input operation on the model registration screen 50 are realized by the operation unit 122 (see FIG. 1) described above.

モデル登録画面50は、学習画像を読み込むための追加ボタン51を含む。追加ボタン51が押下されると、画像29から切り出されたワークWのピン部分29A〜29Eが学習候補としてリスト60に表示される。なお、当該ボタン操作に対して画像ファイルを指定するための画面が表示され、当該画面において指定された画像ファイルが学習候補としてリスト60に表示されてもよい。 The model registration screen 50 includes an add button 51 for reading a learning image. When the add button 51 is pressed, the pin portions 29A to 29E of the work W cut out from the image 29 are displayed in the list 60 as learning candidates. A screen for designating an image file for the button operation may be displayed, and the image file designated on the screen may be displayed in the list 60 as a learning candidate.

表示部120は、リスト60において、学習画像の各々の選択を受け付ける選択項目61Aを表示する。図4の例では、選択項目61Aとしてチェックボックスが表示されている。選択されたチェックボックスにはチェックが表示される。選択されていないチェックボックスにチェックが表示されない。モデル登録画面50の全選択ボタン52が押下された場合には、選択項目61Aが一括で選択される。モデル登録画面50の解除ボタン53が押下された場合には、選択項目61Aにおける選択が一括で解除される。リスト60のいずれかの行が選択された状態でモデル登録画面50の削除ボタン54が押下された場合には、当該選択された行に対応する学習画像がリスト60から削除される。 The display unit 120 displays a selection item 61A in the list 60 that accepts selection of each learning image. In the example of FIG. 4, a check box is displayed as the selection item 61A. A check is displayed in the selected check box. No check appears in the unselected check box. When the select all button 52 on the model registration screen 50 is pressed, the selection items 61A are collectively selected. When the cancel button 53 on the model registration screen 50 is pressed, the selections in the selection items 61A are collectively canceled. When the delete button 54 of the model registration screen 50 is pressed while any row of the list 60 is selected, the learning image corresponding to the selected row is deleted from the list 60.

表示部120は、さらに、選択項目61Aの各々で選択可能な学習画像の識別情報61B,61Cをリスト60に表示する。学習画像の識別情報としては、たとえば、各学習画像に付されたファイルID(Identification)、学習画像のファイル名、学習画像の格納先(たとえば、ファイルパス)、学習画像の登録日時などを含む。図4の例では、識別情報61Bとして学習画像のファイルIDが示されており、識別情報61Cとして学習画像の登録日時が示されている。選択項目61Aの各々と、識別情報61Bの各々と、識別情報61Cの各々とは、対応する学習画像ごとに並べて表示される。これにより、選択項目61Aと識別情報61B,61Cとの対応関係が明確になる。 The display unit 120 further displays the identification information 61B and 61C of the learning image that can be selected by each of the selection items 61A in the list 60. The identification information of the learning image includes, for example, a file ID (Identification) attached to each learning image, a file name of the learning image, a storage destination (for example, a file path) of the learning image, a registration date and time of the learning image, and the like. In the example of FIG. 4, the file ID of the learning image is shown as the identification information 61B, and the registration date and time of the learning image is shown as the identification information 61C. Each of the selection items 61A, each of the identification information 61B, and each of the identification information 61C are displayed side by side for each corresponding learning image. Thereby, the correspondence between the selection item 61A and the identification information 61B and 61C becomes clear.

表示部120は、さらに、学習画像の選択可否を支援するための支援情報61D〜61Fをリスト60に表示する。支援情報61Dの各々と、支援情報61Eの各々と、支援情報61Fの各々とは、対応する学習画像ごとに選択項目61Aに並べて表示される。これにより、選択項目61Aと支援情報61D〜61Fとの対応関係が明確になる。 The display unit 120 further displays, on the list 60, support information 61D to 61F for supporting whether or not a learning image can be selected. Each of the support information 61D, each of the support information 61E, and each of the support information 61F are displayed side by side in the selection item 61A for each corresponding learning image. Thereby, the correspondence between the selection item 61A and the support information 61D to 61F becomes clear.

支援情報61Dは、更新前のモデル画像と各学習画像との相関値(第1類似度群)を示す。支援情報61Eは、選択項目61Aで選択された学習画像から仮に生成されたモデル画像(第2モデル画像)と各学習画像との相関値(第2類似度群)を示す。支援情報61Fは、第1類似度群と第2類似度群との差を表わす。 The support information 61D indicates a correlation value (first similarity group) between the model image before update and each learning image. The support information 61E indicates a correlation value (second similarity group) between the model image (second model image) provisionally generated from the learning image selected by the selection item 61A and each learning image. The support information 61F represents the difference between the first similarity group and the second similarity group.

以下では、現在登録されている既存のモデル画像を「更新前のモデル画像」(第1モデル画像)ともいう。選択項目61Aで選択された学習画像から仮に生成されたモデル画像を「仮のモデル画像」ともいう。ユーザがモデル画像の本登録操作を行うことで最終的に選択項目61Aで選択された学習画像から生成されたモデル画像を「更新後のモデル画像」ともいう。 Hereinafter, the existing model image that is currently registered is also referred to as a “pre-update model image” (first model image). The model image provisionally generated from the learning image selected by the selection item 61A is also referred to as “provisional model image”. The model image finally generated from the learning image selected by the selection item 61A by the user performing the main registration operation of the model image is also referred to as “updated model image”.

好ましくは、画像処理システム1は、選択項目61Aに対する選択が更新される度に、当該選択項目61Aにおいて選択された学習画像から仮のモデル画像を生成する。画像処理システム1は、仮のモデル画像が生成される度に、仮のモデル画像に対する各学習画像の相関値(すなわち、支援情報61E)を更新する。より具体的には、画像処理システム1は、選択項目61Aに対する選択が更新されると、選択項目61Aにおいて選択された学習画像から仮のモデル画像を生成する。その後、画像処理システム1は、仮のモデル画像と各学習画像との相関値を算出し、当該相関値で支援情報61Eの表示欄を更新する。同時に、画像処理システム1は、仮のモデル画像を生成する前後での相関値の変化量を算出し、当該変化量で支援情報61Fを更新する。支援情報61E,61Fの表示が選択項目61Aに対する選択操作に連動することで、ユーザは、各学習画像の有効性を即時に判断することができる。 Preferably, the image processing system 1 generates a temporary model image from the learning image selected in the selection item 61A each time the selection for the selection item 61A is updated. The image processing system 1 updates the correlation value (that is, the support information 61E) of each learning image with respect to the temporary model image every time the temporary model image is generated. More specifically, when the selection for the selection item 61A is updated, the image processing system 1 generates a temporary model image from the learning image selected in the selection item 61A. After that, the image processing system 1 calculates the correlation value between the temporary model image and each learning image, and updates the display column of the support information 61E with the correlation value. At the same time, the image processing system 1 calculates the amount of change in the correlation value before and after the provisional model image is generated, and updates the support information 61F with the amount of change. Since the display of the support information 61E and 61F is linked to the selection operation for the selection item 61A, the user can immediately determine the validity of each learning image.

好ましくは、リスト60における各行の内、相関値が所定値よりも低い学習画像の行については、他の行とは異なる態様で表示される。一例として、相関値が所定値よりも低い学習画像の行においては、背景色が赤色や黄色などの注意喚起を促す色に変えられる。これにより、ユーザは、モデル画像との相関値が低い特異な学習画像を一見して発見することができる。 Preferably, among the rows in the list 60, the row of the learning image whose correlation value is lower than the predetermined value is displayed in a mode different from the other rows. As an example, in a row of a learning image whose correlation value is lower than a predetermined value, the background color is changed to a color that calls attention such as red or yellow. As a result, the user can discover at a glance a unique learning image having a low correlation value with the model image.

リスト60における各情報は、所定のソートルールに従って並び替えられる。一例として、項目欄62Bが押下されると、識別情報61Bに対する所定のソートルールに従って、リスト60内の各情報が行単位でソートされる。たとえば、項目欄62Bが押下されると、リスト60の各行は、学習画像に付されたIDの順にソートされる。項目欄62Bが押下される度に、降順のソートおよび昇順のソートが切り替えられる。 Each information in the list 60 is rearranged according to a predetermined sort rule. As an example, when the item column 62B is pressed, each information in the list 60 is sorted in a line unit according to a predetermined sorting rule for the identification information 61B. For example, when the item column 62B is pressed, each row of the list 60 is sorted in the order of the ID given to the learning image. Each time the item column 62B is pressed, the descending sort and the ascending sort are switched.

同様に、項目欄62Cが押下されると、識別情報61Cに対する所定のソートルールに従って、リスト60内の各情報が行単位でソートされる。たとえば、項目欄62Cが押下されると、リスト60の各行は、学習画像の登録日時の順にソートされる。項目欄62Cが押下される度に、降順のソートおよび昇順のソートが切り替えられる。 Similarly, when the item column 62C is pressed, each information in the list 60 is sorted in a row unit according to a predetermined sorting rule for the identification information 61C. For example, when the item column 62C is pressed, each row of the list 60 is sorted in the order of registration dates and times of learning images. Each time the item column 62C is pressed, the descending sort and the ascending sort are switched.

同様に、項目欄62Dが押下されると、支援情報61Dに対する所定のソートルールに従って、リスト60内の各情報が行単位でソートされる。すなわち、表示部120は、支援情報61Dに対する所定のソートルールに従って、支援情報61Dの各々を、対応する選択項目61Aおよび識別情報61B,61Cとともにソートした上で表示する。一例として、項目欄62Dが押下されると、リスト60の各行は、支援情報61Dに示される相関値の順にソートされる。項目欄62Dが押下される度に、降順のソートおよび昇順のソートが切り替えられる。支援情報61Dが相関値の順に表示されることで、ユーザは、相関値が低い特異な学習画像を容易に発見することができる。 Similarly, when the item column 62D is pressed, each information in the list 60 is sorted in a line unit according to a predetermined sorting rule for the support information 61D. That is, the display unit 120 sorts each of the support information 61D together with the corresponding selection item 61A and the identification information 61B and 61C according to a predetermined sorting rule for the support information 61D, and then displays the sorted information. As an example, when the item column 62D is pressed, each row of the list 60 is sorted in the order of the correlation values shown in the support information 61D. Each time the item column 62D is pressed, the descending sort and the ascending sort are switched. By displaying the support information 61D in the order of the correlation value, the user can easily find a unique learning image having a low correlation value.

同様に、項目欄62Eが押下されると、支援情報61Eに対する所定のソートルールに従って、リスト60内の各情報が行単位でソートされる。たとえば、項目欄62Eが押下されると、リスト60の各行は、支援情報61Eに示される相関値の順にソートされる。項目欄62Eが押下される度に、降順のソートおよび昇順のソートが切り替えられる。支援情報61Eが相関値の順に表示されることで、ユーザは、相関値が低い特異な学習画像を容易に発見することができる。 Similarly, when the item column 62E is pressed, each information in the list 60 is sorted in a row unit according to a predetermined sorting rule for the support information 61E. For example, when the item column 62E is pressed, each row of the list 60 is sorted in the order of the correlation values shown in the support information 61E. Each time the item column 62E is pressed, the descending sort and the ascending sort are switched. By displaying the support information 61E in the order of the correlation value, the user can easily find a unique learning image with a low correlation value.

同様に、項目欄62Fが押下されると、支援情報61Fに対する所定のソートルールに従って、リスト60内の各情報が行単位でソートされる。たとえば、項目欄62Fが押下されると、リスト60の各行は、支援情報61Eに示される相関値の変化量の順にソートされる。項目欄62Fが押下される度に、降順のソートおよび昇順のソートが切り替えられる。支援情報61Fが相関値の変化量の順に表示されることで、ユーザは、更新前後のモデル画像の良否を容易に把握することができる。 Similarly, when the item column 62F is pressed, each information in the list 60 is sorted in a line unit according to a predetermined sorting rule for the support information 61F. For example, when the item column 62F is pressed, each row of the list 60 is sorted in the order of the amount of change in the correlation value shown in the support information 61E. Each time the item column 62F is pressed, the descending sort and the ascending sort are switched. By displaying the support information 61F in the order of the amount of change in the correlation value, the user can easily understand the quality of the model image before and after the update.

表示部120は、さらに、学習画像の選択可否を支援するための支援情報として学習画像70を表示する。より具体的には、モデル登録画面50は、リスト60内において1つの学習画像を選択する操作を受け付ける。リスト60内のいずれかの行が選択されることで、表示対象の学習画像が選択される。図4の例では、リスト60の行68が選択されており、行68に対応する学習画像70が支援情報として表示されている。選択された学習画像が表示されることで、ユーザは、学習画像の良否を目視で確認することができる。好ましくは、リスト60において選択された行は、他の行とは異なる態様で表示される。 The display unit 120 further displays the learning image 70 as support information for supporting whether or not the learning image can be selected. More specifically, the model registration screen 50 receives an operation of selecting one learning image in the list 60. The learning image to be displayed is selected by selecting any row in the list 60. In the example of FIG. 4, the row 68 of the list 60 is selected, and the learning image 70 corresponding to the row 68 is displayed as support information. By displaying the selected learning image, the user can visually check the quality of the learning image. Preferably, the row selected in list 60 is displayed differently than the other rows.

表示部120は、さらに、更新前のモデル画像71と、仮のモデル画像72とを並べて表示する。これにより、ユーザは、更新前のモデル画像71と、仮のモデル画像72とを見比べることができる。好ましくは、選択項目61Aに対する選択が更新される度に、当該選択項目61Aで選択された学習画像から仮のモデル画像72が生成され、仮のモデル画像72が生成される度にモデル画像72の表示が更新される。このように、モデル画像72の表示が選択項目61Aに対する選択操作に連動することで、ユーザは、モデル画像72の良否を容易に把握することができる。 The display unit 120 further displays the pre-update model image 71 and the temporary model image 72 side by side. This allows the user to compare the model image 71 before the update with the temporary model image 72. Preferably, each time the selection for the selection item 61A is updated, a temporary model image 72 is generated from the learning image selected by the selection item 61A, and the model image 72 is generated each time the temporary model image 72 is generated. The display is updated. In this way, the display of the model image 72 is linked to the selection operation for the selection item 61A, so that the user can easily recognize the quality of the model image 72.

表示部120は、さらに、モデル画像の良否を判断するための支援情報としてリスト80を表示する。リスト80は、更新前のモデル画像に対する評価結果81Aと、仮のモデル画像に対する評価結果81Bと、更新前のモデル画像と仮のモデル画像との評価結果81Cとを含む。評価結果81Aは、たとえば、支援情報61Dに示される相関値の最大値と最小値と平均値とを含む。評価結果81Bは、たとえば、支援情報61Eに示される相関値の最大値と最小値と平均値とを含む。評価結果81Cは、たとえば、支援情報61Fに示される相関値の最大値と最小値と平均値とを含む。なお、評価結果81A〜81Cして表示される項目は、相関値の最大値、最小値、平均値に限定されない。たとえば、評価結果81A〜81Cとして、相関値の標準偏差やその他の指標が表示されてもよい。 The display unit 120 further displays the list 80 as support information for determining the quality of the model image. The list 80 includes an evaluation result 81A for the model image before updating, an evaluation result 81B for the temporary model image, and an evaluation result 81C for the model image before updating and the temporary model image. The evaluation result 81A includes, for example, the maximum value, the minimum value, and the average value of the correlation values shown in the support information 61D. The evaluation result 81B includes, for example, the maximum value, the minimum value, and the average value of the correlation values shown in the support information 61E. The evaluation result 81C includes, for example, the maximum value, the minimum value, and the average value of the correlation values shown in the support information 61F. The items displayed as the evaluation results 81A to 81C are not limited to the maximum value, the minimum value, and the average value of the correlation values. For example, as the evaluation results 81A to 81C, the standard deviation of the correlation value and other indexes may be displayed.

モデル登録画面50の登録ボタン91が押下されると、画像処理システム1は、モデル画像の本登録を実行する。すなわち、画像処理システム1は、仮に生成されているモデル画像を新たなモデル画像として本登録する。モデル登録画面50のOKボタン92が押下されると、画像処理システム1は、モデル画像の更新を反映した上でモデル登録画面50を閉じる。モデル登録画面50のキャンセルボタン93が押下されると、画像処理システム1は、モデル画像の更新を反映せずにモデル登録画面50を閉じる。 When the registration button 91 on the model registration screen 50 is pressed, the image processing system 1 executes the main registration of the model image. That is, the image processing system 1 main-registers the temporarily generated model image as a new model image. When the OK button 92 on the model registration screen 50 is pressed, the image processing system 1 reflects the update of the model image and then closes the model registration screen 50. When the cancel button 93 of the model registration screen 50 is pressed, the image processing system 1 closes the model registration screen 50 without reflecting the update of the model image.

[C4.モデル登録画面の変形例]
図5を参照して、上述のモデル登録画面50の変形例であるモデル登録画面50Aについて説明する。図5は、モデル登録画面50Aの一例を示す図である。
[C4. Modification of model registration screen]
A model registration screen 50A, which is a modification of the model registration screen 50 described above, will be described with reference to FIG. FIG. 5 is a diagram showing an example of the model registration screen 50A.

上述の図4に示されるモデル登録画面50は、リスト60において選択された1つの学習画像70を支援情報として表示していた。これに対して、図5に示されるモデル登録画面50Aは、選択項目61Aで選択されている学習画像の全てまたは一部を支援情報として表示する。これらの学習画像は、一覧95に表示される。選択された学習画像が一覧として表示されることでユーザは、学習画像の内容を即時に把握することができる。 The model registration screen 50 shown in FIG. 4 described above displays one learning image 70 selected in the list 60 as support information. On the other hand, the model registration screen 50A shown in FIG. 5 displays all or a part of the learning image selected in the selection item 61A as support information. These learning images are displayed in the list 95. By displaying the selected learning images as a list, the user can immediately understand the contents of the learning images.

図5の例では、選択項目61Aで選択された「No1」の学習画像70Aが一覧95に表示されている。選択項目61Aで選択された「No3」の学習画像70Bが一覧95に表示されている。選択項目61Aで選択された「No4」の学習画像70Cが一覧95に表示されている。選択項目61Aで選択された「No5」の学習画像70Dが一覧95に表示されている。選択項目61Aで選択された「No6」の学習画像70Eが一覧95に表示されている。選択項目61Aで選択された「No7」の学習画像70Fが一覧95に表示されている。選択項目61Aで選択された「No9」の学習画像70Gが一覧95に表示されている。選択項目61Aで選択された「No10」の学習画像70Hが一覧95に表示されている。 In the example of FIG. 5, the learning image 70A of “No1” selected by the selection item 61A is displayed in the list 95. The learning image 70B of "No3" selected by the selection item 61A is displayed in the list 95. The learning image 70C of "No4" selected by the selection item 61A is displayed in the list 95. The “No5” learning image 70D selected by the selection item 61A is displayed in the list 95. The learning image 70E of "No6" selected by the selection item 61A is displayed in the list 95. The learning image 70F of "No7" selected by the selection item 61A is displayed in the list 95. The “No9” learning image 70G selected in the selection item 61A is displayed in the list 95. The “No10” learning image 70H selected by the selection item 61A is displayed in the list 95.

好ましくは、選択項目61Aに対する学習画像の選択が更新される度に、一覧95に表示される学習画像が更新される。 Preferably, every time the selection of the learning image for the selection item 61A is updated, the learning image displayed in the list 95 is updated.

一覧95は、学習画像の表示サイズを指定するためのコンボボックス96を含む。コンボボックス96が選択されると、複数の表示サイズがリストで展開される。展開された表示サイズから特定の表示サイズが選択されると、表示部120は、選択された表示サイズに従って学習画像70A〜70Hの表示サイズを変更する。選択された学習画像が任意のサイズで表示されることで、ユーザは、学習画像の確認を効率化することができる。 The list 95 includes a combo box 96 for designating the display size of the learning image. When the combo box 96 is selected, a plurality of display sizes are expanded in the list. When a specific display size is selected from the expanded display sizes, the display unit 120 changes the display size of the learning images 70A to 70H according to the selected display size. By displaying the selected learning image in an arbitrary size, the user can efficiently confirm the learning image.

なお、上述では、選択項目61Aで選択された学習画像が一覧95に表示される例について説明を行ったが、リスト60に読み込まれた全ての学習画像が一覧95に表示されてもよい。 In the above description, the example in which the learning image selected by the selection item 61A is displayed in the list 95 has been described, but all the learning images read in the list 60 may be displayed in the list 95.

<D.検査処理>
[D1.検査処理の流れ]
図6を参照して、画像処理システム1による検査処理について説明する。図6は、ワークの検査処理を概略的に示す概念図である。
<D. Inspection processing>
[D1. Inspection process flow]
The inspection processing by the image processing system 1 will be described with reference to FIG. FIG. 6 is a conceptual diagram schematically showing a workpiece inspection process.

検査処理において、上述の撮像部135(図1参照)は、コンベア123(図1参照)を流れている検査対象のワークWを撮影する。その結果、検査用画像40が得られたとする。検査用画像40は、ワークWが撮像される度に画像センサ134(図1参照)に順次出力される。 In the inspection process, the imaging unit 135 (see FIG. 1) described above captures the workpiece W to be inspected flowing on the conveyor 123 (see FIG. 1). As a result, it is assumed that the inspection image 40 is obtained. The inspection image 40 is sequentially output to the image sensor 134 (see FIG. 1) every time the work W is imaged.

画像センサ134は、上述の学習処理で生成されたモデル画像34を用いて、検査用画像40から、ワークWのピン部分40A〜40Eを探索する。より具体的には、画像センサ134は、検査用画像40内におけるモデル画像34の走査と、モデル画像34の拡大または縮小とを繰り返しながら、検査用画像40内の各領域についてモデル画像34との相関値を算出する。画像センサ134は、相関値が所定値よりも高い領域をピン部分40A〜40Eとして検知する。画像センサ134は、ピン部分40A〜40Eの検知結果に基づいてワークWを検査する。 The image sensor 134 searches the inspection image 40 for the pin portions 40A to 40E of the work W using the model image 34 generated by the above-described learning process. More specifically, the image sensor 134 repeats scanning of the model image 34 in the inspection image 40 and enlargement or reduction of the model image 34, and repeats scanning of the model image 34 with the model image 34 for each region in the inspection image 40. Calculate the correlation value. The image sensor 134 detects a region having a correlation value higher than a predetermined value as the pin portions 40A to 40E. The image sensor 134 inspects the work W based on the detection result of the pin portions 40A to 40E.

[D2.ピン間の寸法検査]
ピン部分40A〜40Eの検知結果に基づいて、ワークWの様々な検査が実施される。一例として、コネクタのピン間の寸法が検査される。
[D2. Dimension inspection between pins]
Various inspections of the work W are performed based on the detection results of the pin portions 40A to 40E. As an example, the dimensions between the pins of the connector are inspected.

図7は、ワークWのピン間の寸法検査の一例を示す図である。図7に示されるように、画像センサ134は、検査用画像40内のピン部分40A〜40Eの位置情報から、ピン部分40A〜40E間の距離X1〜X4を算出する。距離X1は、ピン部分40Aの所定位置(たとえば、中心)とピン部分40Bの所定位置(たとえば、中心)との間の距離を表わす。距離X2は、ピン部分40Bの所定位置(たとえば、中心)とピン部分40Cの所定位置(たとえば、中心)と間の距離を表わす。距離X3は、ピン部分40Cの所定位置(たとえば、中心)とピン部分40Dの所定位置(たとえば、中心)との間の距離を表わす。距離X4は、ピン部分40Dの所定位置(たとえば、中心)とピン部分40Eの所定位置(たとえば、中心)との間の距離を表わす。 FIG. 7 is a diagram illustrating an example of a dimension inspection between pins of the work W. As shown in FIG. 7, the image sensor 134 calculates the distances X1 to X4 between the pin portions 40A to 40E from the position information of the pin portions 40A to 40E in the inspection image 40. Distance X1 represents a distance between a predetermined position (for example, the center) of pin portion 40A and a predetermined position (for example, the center) of pin portion 40B. Distance X2 represents a distance between a predetermined position (for example, the center) of pin portion 40B and a predetermined position (for example, the center) of pin portion 40C. Distance X3 represents a distance between a predetermined position (for example, the center) of pin portion 40C and a predetermined position (for example, the center) of pin portion 40D. Distance X4 represents a distance between a predetermined position (for example, the center) of pin portion 40D and a predetermined position (for example, the center) of pin portion 40E.

ある局面において、画像センサ134は、距離X1〜X4のそれぞれが予め定められた許容範囲に収まっている場合に、ワークWの寸法に欠陥が無いと判断する。一方で、画像センサ134は、距離X1〜X4のいずれかが予め定められた許容範囲に収まっていない場合に、ワークWの寸法に欠陥が有ると判断する。 In one aspect, the image sensor 134 determines that there is no defect in the dimension of the workpiece W when each of the distances X1 to X4 is within a predetermined allowable range. On the other hand, the image sensor 134 determines that the dimension of the work W is defective when any of the distances X1 to X4 is not within the predetermined allowable range.

他の局面において、画像センサ134は、距離X1〜X4のばらつき度合い(たとえば、分散)が予め定められた許容範囲に収まっている場合に、ワークWの寸法に欠陥が無いと判断する。一方で、画像センサ134は、距離X1〜X4のばらつき度合いが予め定められた許容範囲に収まっていない場合に、ワークWの寸法に欠陥が有ると判断する。 In another aspect, the image sensor 134 determines that there is no defect in the dimension of the work W when the variation degree (for example, dispersion) of the distances X1 to X4 is within a predetermined allowable range. On the other hand, the image sensor 134 determines that the dimension of the work W is defective when the variation degree of the distances X1 to X4 is not within the predetermined allowable range.

[D3.ピンの長さに対する寸法検査]
上述のピン間の寸法検査の他にも、様々な検査が実施される。一例として、コネクタの各ピンの長さが検査される。
[D3. Dimensional inspection for pin length]
In addition to the above-described dimensional inspection between pins, various inspections are performed. As an example, the length of each pin of the connector is inspected.

図8は、ピンの長さに対する寸法検査を示す図である。図8に示されるように、画像センサ134は、検査用画像40内のピン部分40A〜40Eの検知結果から、ワークWの各ピンの長さY1〜Y5を算出する。長さY1は、ピン部分40Aの長手方向の長さに相当する。長さY2は、ピン部分40Bの長手方向の長さに相当する。長さY3は、ピン部分40Cの長手方向の長さに相当する。長さY4は、ピン部分40Dの長手方向の長さに相当する。長さY5は、ピン部分40Eの長手方向の長さに相当する。なお、長さY1〜Y5は、ワークWのピン先のいずれかを基準位置として当該基準位置からピン先までの距離で表わされてもよい。 FIG. 8 is a diagram showing a dimensional inspection for the length of the pin. As shown in FIG. 8, the image sensor 134 calculates the lengths Y1 to Y5 of the pins of the work W from the detection results of the pin portions 40A to 40E in the inspection image 40. The length Y1 corresponds to the length of the pin portion 40A in the longitudinal direction. The length Y2 corresponds to the length of the pin portion 40B in the longitudinal direction. The length Y3 corresponds to the length of the pin portion 40C in the longitudinal direction. The length Y4 corresponds to the length of the pin portion 40D in the longitudinal direction. The length Y5 corresponds to the length of the pin portion 40E in the longitudinal direction. The lengths Y1 to Y5 may be represented by the distance from the reference position to the pin tip with any of the pin tips of the work W as the reference position.

ある局面において、画像センサ134は、長さY1〜Y5が全て予め定められた許容範囲に収まっている場合に、ワークWの寸法に欠陥が無いと判断する。一方で、画像センサ134は、長さY1〜Y5のいずれかが予め定められた許容範囲に収まっていない場合に、ワークWの寸法に欠陥が有ると判断する。 In one aspect, the image sensor 134 determines that there is no defect in the dimension of the work W when the lengths Y1 to Y5 are all within the predetermined allowable range. On the other hand, the image sensor 134 determines that the dimension of the work W is defective when any of the lengths Y1 to Y5 is not within the predetermined allowable range.

他の局面において、画像センサ134は、長さY1〜Y5のばらつき度合い(たとえば、分散)が予め定められた許容範囲に収まっている場合に、ワークWの寸法に欠陥が無いと判断する。一方で、画像センサ134は、長さY1〜Y5のばらつき度合いが予め定められた許容範囲に収まっていない場合に、ワークWの寸法に欠陥が有ると判断する。 In another aspect, the image sensor 134 determines that there is no defect in the dimension of the work W when the variation degree (for example, dispersion) of the lengths Y1 to Y5 falls within a predetermined allowable range. On the other hand, the image sensor 134 determines that the dimension of the workpiece W is defective when the variation degree of the lengths Y1 to Y5 is not within the predetermined allowable range.

[D4.ピンの外観検査]
上述の寸法検査の他にも、様々な検査が実施される。一例として、ワークWの外観が検査される。
[D4. Pin appearance inspection]
In addition to the above-described dimensional inspection, various inspections are performed. As an example, the appearance of the work W is inspected.

図9は、ワークWの外観検査の結果を示す図である。図9に示されるように、外観検査の結果は、たとえば、表示部120に表示される。画像センサ134は、モデル画像に対するピン部分40A〜40Eの各々の相関値に基づいて、ワークWに欠陥があるか否かを判断する。一例として、画像センサ134は、ピン部分40A〜40Eに対する各相関値が全て所定値以上である場合に、ワークWの外観に欠陥が無いと判断する。一方で、画像センサ134は、ピン部分40A〜40Eに対する相関値のいずれかが所定値よりも小さい場合に、ワークWの外観に欠陥が有ると判断する。図9の例では、ピン部分40Cに欠陥が有ると判断されている。 FIG. 9 is a diagram showing the results of the visual inspection of the work W. As shown in FIG. 9, the result of the visual inspection is displayed on the display unit 120, for example. The image sensor 134 determines whether or not the work W has a defect based on the correlation value of each of the pin portions 40A to 40E with respect to the model image. As an example, the image sensor 134 determines that there is no defect in the appearance of the work W when all the correlation values with respect to the pin portions 40A to 40E are equal to or more than a predetermined value. On the other hand, the image sensor 134 determines that the appearance of the work W is defective when any of the correlation values for the pin portions 40A to 40E is smaller than a predetermined value. In the example of FIG. 9, it is determined that the pin portion 40C has a defect.

なお、外観検査に用いる指標は、モデル画像に対するピン部分40A〜40Eの相関値に限定されない。たとえば、外観検査に用いられる指標として、検査画像内の特定領域の色合い、特定色の面積、特定部品の位置や大きさ(幅)、特定位置近傍との画素値の比較結果などが採用されてもよい。 The index used for the visual inspection is not limited to the correlation value of the pin portions 40A to 40E with respect to the model image. For example, as an index used for appearance inspection, the hue of a specific area in an inspection image, the area of a specific color, the position or size (width) of a specific part, the result of comparison of pixel values with the vicinity of a specific position, etc. Good.

好ましくは、欠陥があるピン部分40Cは、他のピン部分40A,40B,40D,40Eとは異なる態様で表示される。 Preferably, the defective pin portion 40C is displayed differently than the other pin portions 40A, 40B, 40D, 40E.

<E.機能構成>
図10を参照して、画像処理システム1を構成するコントローラ100の機能について説明する。図10は、コントローラ100の機能構成の一例を示す図である。
<E. Functional configuration>
The functions of the controller 100 that constitutes the image processing system 1 will be described with reference to FIG. 10. FIG. 10 is a diagram showing an example of the functional configuration of the controller 100.

図10に示されるように、コントローラ100は、選択受付部152と、生成部154と、算出部156と、表示制御部158と、更新部160とを含む。 As shown in FIG. 10, the controller 100 includes a selection receiving unit 152, a generation unit 154, a calculation unit 156, a display control unit 158, and an updating unit 160.

選択受付部152は、上述の操作部122(図1参照)から、モデル画像の生成に用いられる学習画像の選択操作を受け付ける。当該選択操作は、たとえば、上述のモデル登録画面50(図4参照)の選択項目61A(図4参照)において入力される。選択受付部152は、選択された学習画像を生成部154に出力する。 The selection receiving unit 152 receives a selection operation of a learning image used for generating a model image from the operation unit 122 (see FIG. 1) described above. The selection operation is input, for example, in the selection item 61A (see FIG. 4) of the model registration screen 50 (see FIG. 4) described above. The selection receiving unit 152 outputs the selected learning image to the generation unit 154.

生成部154は、学習画像30から選択された学習画像を特定し、当該学習画像から仮のモデル画像33を生成する。好ましくは、生成部154は、選択受付部152が学習画像の選択操作を受け付ける度に仮のモデル画像33を生成する。モデル画像の生成方法は上述の通りである。 The generation unit 154 specifies the learning image selected from the learning image 30 and generates the temporary model image 33 from the learning image. Preferably, the generation unit 154 generates the tentative model image 33 each time the selection reception unit 152 receives a learning image selection operation. The method of generating the model image is as described above.

算出部156は、現在登録されている更新前のモデル画像32と学習画像30の各々との第1相関値群(第1類似度群)を算出するとともに、仮のモデル画像33と学習画像30の各々との第2相関値群(第2類似度群)を算出する。好ましくは、第2相関値群は、仮のモデル画像33が生成される度に算出される。第1相関値群および第2相関値群は、表示制御部158に出力される。 The calculating unit 156 calculates a first correlation value group (first similarity group) between the currently registered model image 32 before update and each of the learning images 30, and also calculates the temporary model image 33 and the learning image 30. A second correlation value group (second similarity group) with each of the above is calculated. Preferably, the second correlation value group is calculated every time the temporary model image 33 is generated. The first correlation value group and the second correlation value group are output to the display control unit 158.

表示制御部158は、上述のモデル登録画面50の表示を制御する。一例として、表示制御部158は、算出部156によって出力された算出結果(すなわち、第1相関値群および第2相関値群)をモデル登録画面50に表示する。また、表示制御部158は、更新前のモデル画像32と仮のモデル画像33とを並べてモデル登録画面50に表示する。 The display control unit 158 controls the display of the model registration screen 50 described above. As an example, the display control unit 158 displays the calculation result (that is, the first correlation value group and the second correlation value group) output by the calculation unit 156 on the model registration screen 50. Further, the display control unit 158 displays the pre-update model image 32 and the temporary model image 33 side by side on the model registration screen 50.

更新部160は、仮のモデル画像33を本登録するための操作を受け付ける。更新部160は、更新前のモデル画像32を更新するための登録操作を受け付けたことに基づいて、更新前のモデル画像32をモデル画像33で更新する。これにより、モデル画像33が本登録される。 The updating unit 160 receives an operation for main registration of the temporary model image 33. The update unit 160 updates the pre-update model image 32 with the model image 33 based on receiving the registration operation for updating the pre-update model image 32. As a result, the model image 33 is main-registered.

なお、選択受付部152、生成部154、算出部156、表示制御部158、および更新部160の全部または一部は、必ずしもコントローラ100に実装される必要はない。たとえば、これらの機能は、上述の画像センサ134(図1参照)などに実装されてもよい。 Note that all or a part of the selection receiving unit 152, the generation unit 154, the calculation unit 156, the display control unit 158, and the update unit 160 do not necessarily have to be mounted on the controller 100. For example, these functions may be implemented in the above-described image sensor 134 (see FIG. 1) or the like.

<F.フローチャート>
図11および図12を参照して、画像処理システム1の制御構造について説明する。図11は、画像処理システム1が実行する学習処理を表わすフローチャートである。図12は、画像処理システム1が実行する検査処理を表わすフローチャートである。
<F. Flowchart>
The control structure of the image processing system 1 will be described with reference to FIGS. 11 and 12. FIG. 11 is a flowchart showing the learning process executed by the image processing system 1. FIG. 12 is a flowchart showing the inspection process executed by the image processing system 1.

以下では、学習処理の制御フローおよび検査処理の制御フローについて順に説明する。
[F1.学習処理の制御フロー]
まず、図11を参照して、画像処理システム1による学習処理の制御フローについて説明する。
Below, the control flow of the learning process and the control flow of the inspection process will be described in order.
[F1. Learning process control flow]
First, the control flow of the learning process by the image processing system 1 will be described with reference to FIG. 11.

図11に示される処理は、たとえば、コントローラ100(図1参照)に備えられる後述の制御装置101(図13参照)がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、画像センサ134またはその他のハードウェアによって実行されてもよい。 The process shown in FIG. 11 is realized, for example, by a control device 101 (see FIG. 13), which will be described later, included in the controller 100 (see FIG. 1) executing a program. In other aspects, some or all of the processing may be performed by image sensor 134 or other hardware.

ステップS10において、制御装置101は、上述のモデル登録画面50(図4参照)を開くための操作を受け付けたか否かを判断する。制御装置101は、モデル登録画面50を開くための操作を受け付けたと判断した場合(ステップS10においてYES)、制御をステップS12に切り替える。そうでない場合には(ステップS10においてNO)、制御装置101は、ステップS10の処理を再び実行する。 In step S10, the control device 101 determines whether or not the operation for opening the model registration screen 50 (see FIG. 4) described above has been accepted. When determining that the operation for opening the model registration screen 50 has been received (YES in step S10), the control device 101 switches control to step S12. Otherwise (NO in step S10), the control device 101 executes the process of step S10 again.

ステップS12において、制御装置101は、上述の表示部120(図1参照)にモデル登録画面50を表示する。 In step S12, the control device 101 displays the model registration screen 50 on the display unit 120 (see FIG. 1) described above.

ステップS20において、制御装置101は、上述の選択受付部152(図10参照)として、学習画像の選択操作を受け付けたか否かを判断する。学習画像の選択操作は、上述したように、モデル登録画面50の選択項目61A(図4参照)に対して行われる。制御装置101は、学習画像の選択操作を受け付けたと判断した場合(ステップS12においてYES)、制御をステップS22に切り替える。そうでない場合には(ステップS12においてNO)、制御装置101は、制御をステップS30に切り替える。 In step S20, the control device 101 determines whether or not the selection accepting unit 152 (see FIG. 10) has accepted a learning image selection operation. As described above, the learning image selecting operation is performed on the selection item 61A (see FIG. 4) on the model registration screen 50. When determining that the learning image selection operation has been accepted (YES in step S12), control device 101 switches control to step S22. Otherwise (NO in step S12), the control device 101 switches control to step S30.

ステップS22において、制御装置101は、上述の生成部154(図10参照)として、モデル登録画面50の選択項目61Aにおいて選択された学習画像から仮のモデル画像33を生成する。 In step S22, the control device 101, as the generation unit 154 (see FIG. 10) described above, generates the temporary model image 33 from the learning image selected in the selection item 61A of the model registration screen 50.

ステップS24において、制御装置101は、上述の算出部156(図10参照)として、現在登録されている更新前のモデル画像と学習画像の各々との相関値を算出する。また、制御装置101は、算出部156として、ステップS22で生成された仮のモデル画像と学習画像の各々との相関値を算出する。 In step S24, the control device 101, as the calculation unit 156 (see FIG. 10) described above, calculates the correlation value between each of the currently registered model image before update and the learning image. Further, the control device 101, as the calculation unit 156, calculates the correlation value between each of the temporary model image generated in step S22 and the learning image.

ステップS26において、制御装置101は、上述の表示制御部158(図10参照)として、モデル登録画面50の表示を更新する。一例として、制御装置101は、ステップS24での算出結果をモデル登録画面50に表示する。また、制御装置101は、現在登録されている更新前のモデル画像に並べて、ステップS22で生成された仮のモデル画像を表示する。 In step S26, the control device 101 updates the display of the model registration screen 50 as the display control unit 158 (see FIG. 10) described above. As an example, the control device 101 displays the calculation result in step S24 on the model registration screen 50. Further, the control device 101 displays the temporary model image generated in step S22 side by side with the currently registered model image before update.

ステップS30において、制御装置101は、モデル画像の本登録操作を受け付けたか否かを判断する。一例として、制御装置101は、モデル登録画面50の登録ボタン91(図4参照)が押下された場合に、モデル画像の本登録操作を受け付ける。制御装置101は、モデル画像の本登録操作を受け付けたと判断した場合(ステップS30においてYES)、制御をステップS32に切り替える。そうでない場合には(ステップS30においてNO)、制御装置101は、制御をステップS20に戻す。 In step S30, the control device 101 determines whether or not the main registration operation of the model image has been accepted. As an example, the control device 101 accepts the main registration operation of the model image when the registration button 91 (see FIG. 4) of the model registration screen 50 is pressed. When determining that the main registration operation of the model image has been received (YES in step S30), the control device 101 switches the control to step S32. Otherwise (NO in step S30), the control device 101 returns the control to step S20.

ステップS32において、制御装置101は、上述の更新部160(図10参照)として、現在登録されている更新前のモデル画像をステップS22で生成されたモデル画像に更新する。このとき、好ましくは、制御装置101は、ステップS22でモデル画像の生成に用いられた学習画像の識別情報を履歴情報に書き込む。生成元の学習画像の識別情報がモデル画像の更新の度に履歴情報に書き込まれることで、制御装置101は、現在のモデル画像を過去のモデル画像に戻すことが可能になる。 In step S32, the control device 101, as the updating unit 160 (see FIG. 10), updates the currently registered model image before update to the model image generated in step S22. At this time, preferably, the control device 101 writes the identification information of the learning image used to generate the model image in step S22 in the history information. The identification information of the learning image of the generation source is written in the history information every time the model image is updated, and thus the control device 101 can return the current model image to the past model image.

[F2.検査処理の制御フロー]
図12を参照して、画像処理システム1による検査処理の制御フローについて説明する 図12に示される処理は、たとえば、画像センサ134(図1参照)がプログラムを実行することにより実現される。他の局面において、処理の一部または全部が、コントローラ100またはその他のハードウェアによって実行されてもよい。以下では、ワークの一例として複数のピンを有するコネクタを例に挙げて検査フローの説明を行う。
[F2. Inspection processing control flow]
The control flow of the inspection process by the image processing system 1 will be described with reference to FIG. 12. The process shown in FIG. 12 is realized by the image sensor 134 (see FIG. 1) executing a program, for example. In another aspect, some or all of the processing may be executed by the controller 100 or other hardware. The inspection flow will be described below by taking a connector having a plurality of pins as an example of the work.

ステップS110において、画像センサ134は、ワーク検査の開始操作を受け付けたか否かを判断する。画像センサ134は、ワーク検査の開始操作を受け付けたと判断した場合(ステップS110においてYES)、制御をステップS112に切り替える。そうでない場合には(ステップS110においてNO)、画像センサ134は、制御装置101は、ステップS110の処理を再び実行する。 In step S110, the image sensor 134 determines whether a work inspection start operation is received. When the image sensor 134 determines that the work inspection start operation is received (YES in step S110), the control is switched to step S112. Otherwise (NO in step S110), the image sensor 134 causes the control device 101 to execute the process of step S110 again.

ステップS112において、画像センサ134は、検査対象のコネクタを撮像し、検査用画像を取得する。当該検査用画像は、上述の撮像部135(図1参照)によって生成される。 In step S112, the image sensor 134 images the connector to be inspected and acquires an image for inspection. The inspection image is generated by the image capturing unit 135 (see FIG. 1) described above.

ステップS114において、画像センサ134は、上述の学習処理で生成されたモデル画像を用いて、検査用画像からコネクタのピン部分を探索する。より具体的には、画像センサ134は、検査用画像内におけるモデル画像の走査と、モデル画像の拡大または縮小とを繰り返しながら、検査用画像内の各領域とモデル画像との相関値を算出する。画像センサ134は、相関値が所定値よりも高い領域を検査対象のピン部分として検知する。これにより、検査用画像内におけるピン部分の位置と、各位置におけるピン部分とモデル画像との相関値が検知結果として得られる。 In step S114, the image sensor 134 searches the inspection image for the pin portion of the connector using the model image generated by the learning process described above. More specifically, the image sensor 134 calculates the correlation value between each region in the inspection image and the model image while repeating scanning of the model image in the inspection image and enlargement or reduction of the model image. .. The image sensor 134 detects an area having a correlation value higher than a predetermined value as a pin portion to be inspected. As a result, the position of the pin portion in the inspection image and the correlation value between the pin portion and the model image at each position are obtained as the detection result.

ステップS116において、画像センサ134は、ステップS114での検知結果に基づいて、コネクタのピン間の寸法検査を実行する。当該寸法検査については図7で説明した通りである。 In step S116, the image sensor 134 executes the dimension inspection between the pins of the connector based on the detection result in step S114. The dimension inspection is as described in FIG. 7.

ステップS118において、画像センサ134は、ステップS114での検知結果に基づいて、コネクタのピンの長さに対する寸法検査を実行する。当該寸法検査については図8で説明した通りである。 In step S118, the image sensor 134 performs a dimensional inspection for the length of the pin of the connector based on the detection result of step S114. The dimension inspection is as described in FIG.

ステップS120において、画像センサ134は、ステップS114での検知結果に基づいて、コネクタの外観検査を実行する。当該寸法検査については図9で説明した通りである。 In step S120, the image sensor 134 performs a visual inspection of the connector based on the detection result of step S114. The dimension inspection is as described in FIG.

ステップS130において、画像センサ134は、ワーク検査を終了するか否かを判断する。一例として、画像センサ134は、ワーク検査の終了操作を受け付けた場合に、ワーク検査を終了すると判断する。画像センサ134は、ワーク検査を終了すると判断した場合には(ステップS130においてYES)、ワークの検査処理を終了する。そうでない場合には(ステップS130においてNO)、画像センサ134は、制御をステップS112に戻す。 In step S130, the image sensor 134 determines whether to finish the work inspection. As an example, the image sensor 134 determines to end the work inspection when the operation of ending the work inspection is received. When the image sensor 134 determines to end the work inspection (YES in step S130), the work inspection process ends. If not (NO in step S130), the image sensor 134 returns the control to step S112.

<G.コントローラ100のハードウェア構成>
図13を参照して、本実施の形態に従うコントローラ100のハードウェア構成について説明する。図13は、本実施の形態に従うコントローラ100のハードウェア構成を示す模式図である。
<G. Hardware configuration of controller 100>
With reference to FIG. 13, a hardware configuration of controller 100 according to the present embodiment will be described. FIG. 13 is a schematic diagram showing a hardware configuration of controller 100 according to the present embodiment.

コントローラ100は、一例として、汎用的なコンピュータアーキテクチャに準じて構成されるコンピュータからなる。コントローラ100は、制御装置101と、主メモリ102と、通信インターフェイス103と、センサインターフェイス104と、操作インターフェイス105と、表示インターフェイス106と、光学ドライブ107と、記憶装置110(記憶部)とを含む。これらのコンポーネントは、内部バス119を介して互いに通信可能に接続されている。 The controller 100 is, for example, a computer configured according to a general-purpose computer architecture. The controller 100 includes a control device 101, a main memory 102, a communication interface 103, a sensor interface 104, an operation interface 105, a display interface 106, an optical drive 107, and a storage device 110 (storage unit). These components are communicatively connected to each other via an internal bus 119.

制御装置101は、たとえば、少なくとも1つの集積回路によって構成される。集積回路は、たとえば、少なくとも1つのCPU(Central Processing Unit)、少なくとも1つのASIC(Application Specific Integrated Circuit)、少なくとも1つのFPGA(Field Programmable Gate Array)、またはそれらの組み合わせなどによって構成される。制御装置101は、記憶装置110に格納されている画像処理プログラム111を主メモリ102に展開して実行することで、上述の学習処理や検査処理などを実現する。主メモリ102は、揮発性メモリにより構成され、制御装置101によるプログラム実行に必要なワークメモリとして機能する。 The control device 101 is composed of, for example, at least one integrated circuit. The integrated circuit is configured by, for example, at least one CPU (Central Processing Unit), at least one ASIC (Application Specific Integrated Circuit), at least one FPGA (Field Programmable Gate Array), or a combination thereof. The control device 101 expands the image processing program 111 stored in the storage device 110 into the main memory 102 and executes the image processing program 111 to implement the above-described learning processing and inspection processing. The main memory 102 is composed of a volatile memory, and functions as a work memory required for the program execution by the control device 101.

通信インターフェイス103は、外部機器との間でネットワークを介してデータを遣り取りする。当該外部機器は、たとえば、上述の画像センサ134(図1参照)、サーバ、その他の通信機器などを含む。コントローラ100は、通信インターフェイス103を介して、本実施の形態に従う画像処理プログラム111をダウンロードできるように構成されてもよい。 The communication interface 103 exchanges data with an external device via a network. The external device includes, for example, the image sensor 134 (see FIG. 1) described above, a server, and other communication devices. Controller 100 may be configured to be able to download image processing program 111 according to the present embodiment via communication interface 103.

センサインターフェイス104は、上述の画像センサ134と接続される。画像センサ134には、上述の撮像部135が接続され、センサインターフェイス104は、撮像部135の撮像により得られる画像信号を取り込むとともに、画像センサ134を介して撮像部135に撮像タイミングなどの指令を送る。 The sensor interface 104 is connected to the image sensor 134 described above. The above-described image pickup unit 135 is connected to the image sensor 134, and the sensor interface 104 takes in an image signal obtained by the image pickup of the image pickup unit 135 and issues a command such as an image pickup timing to the image pickup unit 135 via the image sensor 134. send.

操作インターフェイス105は、操作部122に接続され、操作部122からのユーザ操作を示す信号を取り込む。操作部122は、典型的には、キーボード、マウス、タッチパネル、タッチパッドなどからなり、ユーザからの操作を受け付ける。 The operation interface 105 is connected to the operation unit 122 and captures a signal indicating a user operation from the operation unit 122. The operation unit 122 typically includes a keyboard, a mouse, a touch panel, a touch pad, and the like, and receives an operation from a user.

表示インターフェイス106は、表示部120と接続され、制御装置101などからの指令に従って、表示部120に対して、画像を表示するための画像信号を送出する。表示部120は、ディスプレイ、インジケータなどからなり、ユーザに対して各種情報を提示する。 The display interface 106 is connected to the display unit 120, and sends an image signal for displaying an image to the display unit 120 according to a command from the control device 101 or the like. The display unit 120 includes a display, an indicator and the like, and presents various kinds of information to the user.

光学ドライブ107は、光学ディスク107Aなどから、その中に格納されている各種プログラムを読み出して、記憶装置110にインストールする。記憶装置110は、たとえば、画像処理プログラム111などを格納する。 The optical drive 107 reads various programs stored therein from the optical disc 107A or the like and installs them in the storage device 110. The storage device 110 stores, for example, the image processing program 111 and the like.

図13には、光学ドライブ107を介して必要なプログラムをコントローラ100にインストールする構成例を示すが、これに限られることなく、ネットワーク上のサーバ装置などからダウンロードするようにしてもよい。あるいは、コントローラ100上のプログラムは、USB(Universal Serial Bus)メモリ、SD(Secure Digital)カード、CF(Compact Flash)などの記憶媒体に書き込まれているプログラムによって書き換えられるように構成されもよい。 FIG. 13 shows a configuration example in which a necessary program is installed in the controller 100 via the optical drive 107, but the present invention is not limited to this, and may be downloaded from a server device or the like on the network. Alternatively, the program on the controller 100 may be rewritten by a program written in a storage medium such as a USB (Universal Serial Bus) memory, an SD (Secure Digital) card, or a CF (Compact Flash).

記憶装置110(記憶部)は、たとえば、ハードディスクや外付けの記憶媒体である。一例として、記憶装置110は、モデル画像の生成に用いられる学習画像30と、学習画像30から生成された更新前のモデル画像32と、学習画像30の一部または全部から生成された仮のモデル画像33と、本実施の形態に従う各種の処理を実現するための画像処理プログラム111とを格納する。 The storage device 110 (storage unit) is, for example, a hard disk or an external storage medium. As an example, the storage device 110 stores the learning image 30 used to generate the model image, the pre-update model image 32 generated from the learning image 30, and the temporary model generated from a part or all of the learning image 30. An image 33 and an image processing program 111 for implementing various processes according to the present embodiment are stored.

画像処理プログラム111は、単体のプログラムとしてではなく、任意のプログラムの一部に組み込まれて提供されてもよい。この場合、任意のプログラムと協働して本実施の形態に従う処理が実現される。このような一部のモジュールを含まないプログラムであっても、本実施の形態に従うコントローラ100の趣旨を逸脱するものではない。さらに、本実施の形態に従う画像処理プログラム111によって提供される機能の一部または全部は、専用のハードウェアによって実現されてもよい。さらに、コントローラ100とサーバとが協働して、本実施の形態に従う処理を実現するようにしてもよい。さらに、少なくとも1つのサーバが本実施の形態に従う処理を実現する、所謂クラウドサービスの形態でコントローラ100が構成されてもよい。 The image processing program 111 may be provided as a part of an arbitrary program instead of as a standalone program. In this case, the process according to the present embodiment is realized in cooperation with any program. Even a program that does not include some of such modules does not depart from the spirit of the controller 100 according to the present embodiment. Furthermore, some or all of the functions provided by image processing program 111 according to the present embodiment may be realized by dedicated hardware. Furthermore, controller 100 and the server may cooperate to realize the process according to the present embodiment. Furthermore, the controller 100 may be configured in the form of a so-called cloud service in which at least one server realizes the processing according to the present embodiment.

<H.利点>
以上のようにして、本実施の形態に従う画像処理システム1は、各学習画像の選択を受け付ける選択項目を表示するとともに、当該選択項目ごとに、当該選択項目で選択可能な学習画像の識別情報と、当該学習画像の選択可否を支援するための支援情報とを並べて表示する。画像処理システム1は、選択項目において選択された学習画像から新たなモデル画像を生成する。
<H. Advantage>
As described above, the image processing system 1 according to the present embodiment displays the selection items for accepting the selection of each learning image, and, for each of the selection items, the identification information of the learning images selectable by the selection item. , And support information for supporting whether or not the learning image is selectable are displayed side by side. The image processing system 1 generates a new model image from the learning image selected in the selection item.

ユーザは、学習画像の選択可否を支援するための支援情報を確認することで、学習対象から特異な学習画像を省くことができる。これにより、精度の高いモデル画像が生成されるので、検査の精度が改善される。また、精度の高いモデル画像が生成されることで、検査用画像とモデル画像とのマッチング処理時に生じ得る位置ずれなどを抑制することができる。 The user can omit the unique learning image from the learning target by confirming the support information for supporting whether or not the learning image can be selected. As a result, a highly accurate model image is generated, so that the accuracy of inspection is improved. In addition, by generating a highly accurate model image, it is possible to suppress a positional shift that may occur during the matching process between the inspection image and the model image.

他の利点として、本実施の形態に従う画像処理システム1は、ロバスト性の高いモデル画像を生成できる。より具体的には、ロバスト性の高いモデル画像を生成するためには、撮影環境(たとえば、照明ムラなど)や製造環境(たとえば、加工法、金型、気温など)が異なる様々なワークの学習画像からモデル画像を作成する必要がある。このとき、本実施の形態に従う画像処理システム1においては、ユーザは、多種多様な学習画像からモデル画像の生成に有効な学習画像を選択することができる。これにより、よりロバスト性の高いモデル画像を生成することができる。 As another advantage, the image processing system 1 according to the present embodiment can generate a highly robust model image. More specifically, in order to generate a model image with high robustness, learning of various works with different shooting environments (for example, illumination unevenness) and manufacturing environments (for example, processing method, mold, temperature, etc.) You need to create a model image from the image. At this time, in image processing system 1 according to the present embodiment, the user can select a learning image effective for generating a model image from a wide variety of learning images. This makes it possible to generate a more robust model image.

さらに他の利点として、本実施の形態に従う画像処理システム1は、モデル画像の生成に用いられた学習画像の履歴(たとえば、撮像日時や登録日時など)を表示するため、ユーザは、当該履歴を参照して学習画像を取捨選択することができる。 As still another advantage, the image processing system 1 according to the present embodiment displays the history of learning images used for generating the model image (for example, the shooting date and time and the registration date and time), so that the user can store the history. The learning image can be selected by referring to it.

さらに他の利点として、ユーザは、生成されたモデル画像の有効性を確認できることができる。より具体的には、本実施の形態に従う画像処理システム1は、学習画像の選択によりモデル画像を生成する度に当該モデル画像の有効性を示す判断材料を表示する。当該判断材料として、たとえば、生成されたモデル画像に対する学習画像の相関値や、生成されたモデル画像自体が表示される。ユーザは、これらの判断材料を確認することで、モデル画像の有効性を確認することができる。 As another advantage, the user can confirm the validity of the generated model image. More specifically, the image processing system 1 according to the present embodiment displays the judgment information indicating the validity of the model image every time the model image is generated by selecting the learning image. As the determination factor, for example, the correlation value of the learning image with respect to the generated model image, or the generated model image itself is displayed. The user can confirm the validity of the model image by confirming these judgment factors.

今回開示された実施の形態は全ての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内での全ての変更が含まれることが意図される。 The embodiments disclosed this time are to be considered as illustrative in all points and not restrictive. The scope of the present invention is shown not by the above description but by the claims, and is intended to include meanings equivalent to the claims and all modifications within the scope.

1 画像処理システム、29 画像、29A〜29E,40A〜40E ピン部分、30,30A〜30N,70,70A〜70H 学習画像、31〜34,71,72 モデル画像、31A〜31N,61A 選択項目、40 検査用画像、50,50A モデル登録画面、51 追加ボタン、52 全選択ボタン、53 解除ボタン、54 削除ボタン、60,80 リスト、61B,61C 識別情報、61D〜61F 支援情報、62B〜62F 項目欄、68 行、81A〜81C 評価結果、91 登録ボタン、92 OKボタン、93 キャンセルボタン、95 一覧、96 コンボボックス、100 コントローラ、101 制御装置、102 主メモリ、103 通信インターフェイス、104 センサインターフェイス、105 操作インターフェイス、106 表示インターフェイス、107 光学ドライブ、107A 光学ディスク、110 記憶装置、111 画像処理プログラム、119 内部バス、120 表示部、122 操作部、123,127,128 コンベア、124 治具、125 排除機構、134 画像センサ、135 撮像部、152 選択受付部、154 生成部、156 算出部、158 表示制御部、160 更新部。 1 image processing system, 29 images, 29A to 29E, 40A to 40E pin portion, 30, 30A to 30N, 70, 70A to 70H learning image, 31 to 34, 71, 72 model image, 31A to 31N, 61A selection item, 40 inspection image, 50, 50A model registration screen, 51 add button, 52 all selection button, 53 release button, 54 delete button, 60, 80 list, 61B, 61C identification information, 61D-61F support information, 62B-62F items Column, 68 lines, 81A to 81C evaluation result, 91 registration button, 92 OK button, 93 cancel button, 95 list, 96 combo box, 100 controller, 101 control device, 102 main memory, 103 communication interface, 104 sensor interface, 105 Operation interface, 106 display interface, 107 optical drive, 107A optical disk, 110 storage device, 111 image processing program, 119 internal bus, 120 display unit, 122 operation unit, 123, 127, 128 conveyor, 124 jig, 125 exclusion mechanism , 134 image sensor, 135 image pickup unit, 152 selection acceptance unit, 154 generation unit, 156 calculation unit, 158 display control unit, 160 update unit.

Claims (10)

検査対象物を撮像して得られた画像に基づいて前記検査対象物を検査するための画像処理システムであって、
前記検査対象物と同種類の物体を表わす複数の学習画像と、前記検査対象物の検査基準として前記複数の学習画像から生成された第1モデル画像とを格納するための記憶部と、
前記複数の学習画像の各々の選択を受け付ける選択項目を表示するための表示部とを備え、前記表示部は、前記選択項目ごとに、当該選択項目で選択可能な学習画像の識別情報と、当該学習画像の選択可否を支援するための支援情報とを並べて表示し、さらに、
前記選択項目において選択された学習画像から前記画像との比較対象として第2モデル画像を生成し、前記第1モデル画像を前記第2モデル画像に更新するための更新部を備え
前記支援情報は、前記第1モデル画像と前記複数の学習画像の各々との第1類似度群、および前記第2モデル画像と前記複数の学習画像の各々との第2類似度群を含む、画像処理システム。
An image processing system for inspecting the inspection object based on an image obtained by imaging the inspection object,
A storage unit for storing a plurality of learning images representing an object of the same type as the inspection object, and a first model image generated from the plurality of learning images as an inspection reference of the inspection object;
A display unit for displaying a selection item for accepting selection of each of the plurality of learning images, the display unit, for each of the selection items, identification information of learning images selectable by the selection item, Display side by side with support information for supporting whether or not learning images can be selected,
An update unit is provided for generating a second model image as a comparison target with the image from the learning image selected in the selection item, and updating the first model image with the second model image ,
The support information includes a first similarity group between the first model image and each of the plurality of learning images, and a second similarity group between the second model image and each of the plurality of learning images, Image processing system.
前記表示部は、前記支援情報に対する所定のソートルールに従って、複数の前記支援情報の各々を、対応する前記選択項目および前記識別情報とともにソートした上で表示する、請求項1に記載の画像処理システム。 The image processing system according to claim 1, wherein the display unit sorts each of the plurality of pieces of support information together with the corresponding selection item and the identification information according to a predetermined sorting rule for the support information, and then displays the sorted information. .. 前記支援情報は、さらに、前記第1類似度群に含まれる各第1類似度と、前記第2類似度群に含まれる各第2類似度との間における各変化量を含む、請求項1または2に記載の画像処理システム。 The support information further includes a change amount between each first similarity included in the first similarity group and each second similarity included in the second similarity group. Or the image processing system according to 2. 前記更新部は、前記選択項目に対する選択が更新される度に、当該選択項目において選択された学習画像から前記第2モデル画像を生成し、
前記表示部は、前記第2モデル画像が生成される度に前記第2類似度群の表示を更新する、請求項1〜3のいずれか1項に記載の画像処理システム。
The update unit generates the second model image from the learning image selected in the selection item each time the selection for the selection item is updated,
The image processing system according to claim 1, wherein the display unit updates the display of the second similarity degree group each time the second model image is generated.
前記表示部は、前記複数の学習画像の内から表示対象として選択された学習画像を前記支援情報として表示する、請求項1〜4のいずれか1項に記載の画像処理システム。 The image processing system according to claim 1, wherein the display unit displays, as the support information, a learning image selected as a display target from the plurality of learning images. 前記表示部は、前記選択項目において選択されている学習画像を前記支援情報として表示する、請求項1〜4のいずれか1項に記載の画像処理システム。 The image processing system according to claim 1, wherein the display unit displays the learning image selected in the selection item as the support information. 前記表示部は、前記第1モデル画像と、前記第2モデル画像とを並べて表示する、請求項1〜6のいずれか1項に記載の画像処理システム。 The image processing system according to claim 1, wherein the display unit displays the first model image and the second model image side by side. 前記更新部は、前記第1モデル画像の更新指示を受け付けたことに基づいて、前記第1モデル画像を前記第2モデル画像に更新する、請求項1〜7のいずれか1項に記載の画像処理システム。 The image according to any one of claims 1 to 7, wherein the updating unit updates the first model image to the second model image based on receiving an update instruction of the first model image. Processing system. 検査対象物を撮像して得られた画像に基づいて前記検査対象物を検査するための画像処理方法であって、
前記検査対象物と同種類の物体を表わす複数の学習画像と、前記検査対象物の検査基準として前記複数の学習画像から生成された第1モデル画像とを準備するステップと、
前記複数の学習画像の各々の選択を受け付ける選択項目を表示するとともに、当該選択項目ごとに、当該選択項目で選択可能な学習画像の識別情報と、当該学習画像の選択可否を支援するための支援情報とを並べて表示するステップと、
前記選択項目において選択された学習画像から前記画像との比較対象として第2モデル画像を生成し、前記第1モデル画像を前記第2モデル画像に更新するステップとを備え、
前記支援情報は、前記第1モデル画像と前記複数の学習画像の各々との第1類似度群、および前記第2モデル画像と前記複数の学習画像の各々との第2類似度群を含む、画像処理方法。
An image processing method for inspecting the inspection object based on the image obtained by imaging the inspection object,
Preparing a plurality of learning images representing an object of the same type as the inspection object, and a first model image generated from the plurality of learning images as an inspection reference of the inspection object,
A selection item for accepting selection of each of the plurality of learning images is displayed, and for each selection item, identification information of a learning image selectable by the selection item and support for supporting whether or not the learning image is selectable The step of displaying the information side by side,
Generating a second model image as a comparison target with the image from the learning image selected in the selection item, and updating the first model image to the second model image,
The support information includes a first similarity group between the first model image and each of the plurality of learning images, and a second similarity group between the second model image and each of the plurality of learning images, Image processing method.
検査対象物を撮像して得られた画像に基づいて前記検査対象物を検査するための画像処理プログラムであって、
前記画像処理プログラムは、コンピュータに、
前記検査対象物と同種類の物体を表わす複数の学習画像と、前記検査対象物の検査基準として前記複数の学習画像から生成された第1モデル画像とを準備するステップと、
前記複数の学習画像の各々の選択を受け付ける選択項目を表示するとともに、当該選択項目ごとに、当該選択項目で選択可能な学習画像の識別情報と、当該学習画像の選択可否を支援するための支援情報とを並べて表示するステップと、
前記選択項目において選択された学習画像から前記画像との比較対象として第2モデル画像を生成し、前記第1モデル画像を前記第2モデル画像に更新するステップとを実行させ、
前記支援情報は、前記第1モデル画像と前記複数の学習画像の各々との第1類似度群、および前記第2モデル画像と前記複数の学習画像の各々との第2類似度群を含む、画像処理プログラム。
An image processing program for inspecting the inspection object based on an image obtained by imaging the inspection object,
The image processing program causes a computer to
Preparing a plurality of learning images representing an object of the same type as the inspection object, and a first model image generated from the plurality of learning images as an inspection reference of the inspection object,
A selection item for accepting selection of each of the plurality of learning images is displayed, and for each selection item, identification information of a learning image selectable by the selection item and support for supporting whether or not the learning image is selectable The step of displaying the information side by side,
Generating a second model image as a comparison target with the image from the learning image selected in the selection item, and updating the first model image to the second model image,
The support information includes a first similarity group between the first model image and each of the plurality of learning images, and a second similarity group between the second model image and each of the plurality of learning images, Image processing program.
JP2016130484A 2016-06-30 2016-06-30 Image processing system, image processing method, and image processing program Active JP6729081B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016130484A JP6729081B2 (en) 2016-06-30 2016-06-30 Image processing system, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016130484A JP6729081B2 (en) 2016-06-30 2016-06-30 Image processing system, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2018005500A JP2018005500A (en) 2018-01-11
JP6729081B2 true JP6729081B2 (en) 2020-07-22

Family

ID=60944946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016130484A Active JP6729081B2 (en) 2016-06-30 2016-06-30 Image processing system, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP6729081B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6708695B2 (en) * 2018-04-20 2020-06-10 ファナック株式会社 Inspection equipment
KR101975186B1 (en) * 2018-07-04 2019-05-07 광운대학교 산학협력단 Apparatus and method of data generation for object detection based on generative adversarial networks
TWI783200B (en) * 2019-12-30 2022-11-11 緯創資通股份有限公司 Method and device for determining whether object has defect

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5622398B2 (en) * 2010-01-05 2014-11-12 株式会社日立ハイテクノロジーズ Defect inspection method and apparatus using SEM
WO2012073421A1 (en) * 2010-11-29 2012-06-07 パナソニック株式会社 Image classification device, image classification method, program, recording media, integrated circuit, and model creation device
JP6115012B2 (en) * 2011-08-30 2017-04-19 富士通株式会社 Inspection device, inspection method, and inspection program
JP5447641B2 (en) * 2012-12-27 2014-03-19 オムロン株式会社 Model image acquisition support apparatus, model image acquisition support method, and model image acquisition support program
JP2015176272A (en) * 2014-03-14 2015-10-05 オムロン株式会社 Image processor, image processing method, and image processing program

Also Published As

Publication number Publication date
JP2018005500A (en) 2018-01-11

Similar Documents

Publication Publication Date Title
US10937138B2 (en) Crack information detection device, method of detecting crack information, and crack information detection program
US11449980B2 (en) System and method for combined automatic and manual inspection
JP6960980B2 (en) Image-based tray alignment and tube slot positioning in visual systems
US8831330B2 (en) Parameter determination assisting device and parameter determination assisting program
US6941009B2 (en) Method for evaluating pattern defects on a water surface
KR101117472B1 (en) Apparatus and Method for Visual Inspection
US20170098300A1 (en) Inspection Apparatus, Inspection Method, And Program
JP6729081B2 (en) Image processing system, image processing method, and image processing program
US20100246929A1 (en) Method and system for determining a defect during charged particle beam inspection of a sample
EP3109826A2 (en) Using 3d vision for automated industrial inspection
US11158039B2 (en) Using 3D vision for automated industrial inspection
CN103502801A (en) Defect classification method, and defect classification system
WO2020003888A1 (en) External-appearance inspection system, method for displaying external-appearance inspection result, and program for displaying external-appearance inspection result
JP2007114843A (en) Quality deciding device
WO2019117068A1 (en) Data generation device, data generation method, and data generation program
US11836911B2 (en) Image data management method, production apparatus, production system, image data management method for production system, and non-transitory computer-readable recording medium
WO2019131742A1 (en) Inspection processing device, inspection processing method, and program
JP2019106119A (en) Detection system, information processing apparatus, evaluation method, and program
US8111288B2 (en) Image processing controller and test support system
JP2010071951A (en) Visual inspection device and visual inspection method
JP2015087940A (en) Information processing device, information processing method and program
US20020051561A1 (en) Image processing apparatus, image processing method, and recording medium recording image processing program
JP2006292615A (en) Visual examination apparatus, visual inspection method, program for making computer function as visual inspection apparatus, and recording medium
JP2007103645A (en) Pattern inspection method
WO2020003887A1 (en) External-appearance inspection system, method for displaying external-appearance inspection result, and program for displaying external-appearance inspection result

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190405

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200311

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200317

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200512

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200602

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200615

R150 Certificate of patent or registration of utility model

Ref document number: 6729081

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250