JP2022134742A - Information processing device, information processing method, and program - Google Patents

Information processing device, information processing method, and program Download PDF

Info

Publication number
JP2022134742A
JP2022134742A JP2021034101A JP2021034101A JP2022134742A JP 2022134742 A JP2022134742 A JP 2022134742A JP 2021034101 A JP2021034101 A JP 2021034101A JP 2021034101 A JP2021034101 A JP 2021034101A JP 2022134742 A JP2022134742 A JP 2022134742A
Authority
JP
Japan
Prior art keywords
image
reference feature
learning
feature amount
inspection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021034101A
Other languages
Japanese (ja)
Inventor
泰之 池田
Yasuyuki Ikeda
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2021034101A priority Critical patent/JP2022134742A/en
Publication of JP2022134742A publication Critical patent/JP2022134742A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Abstract

To make it possible to efficiently confirm whether or not learning data to be a base of a sorter is appropriate.SOLUTION: An information processing device can access a storage part which stores a plurality of feature values in association with learning images and storing the plurality of feature values in association with inspection images. The information processing device includes: a display part; a reference feature determination part for determining one or more reference features; a reference feature value range determination part for determining a reference feature value range in a space defined by a reference feature value; an image extraction part for extracting learning images and/or inspection images in which the reference feature values are included in the reference feature value range, and a display control part for displaying extraction learning images and/or extraction inspection images extracted by the image extraction part in the display part.SELECTED DRAWING: Figure 10

Description

本発明は、情報処理装置、情報処理方法、及びプログラムに関する。 The present invention relates to an information processing device, an information processing method, and a program.

製造業等において、製品を撮像して得られる画像を分析することにより製品の検査を行う場合がある。このような検査では、まずニューラルネットワーク等により構成される分類器に対して、予め撮像により用意した学習画像を用いた機械学習を行わせることにより、学習画像の各特徴量に対する重み付けを最適化する。そして、機械学習済みの分類器に対して所望の検査画像を入力することにより、検査画像の品質等を示す属性を出力させる。 2. Description of the Related Art In the manufacturing industry and the like, products are sometimes inspected by analyzing images obtained by imaging the products. In such an inspection, first, a classifier composed of a neural network or the like is caused to perform machine learning using learning images prepared by imaging in advance, thereby optimizing the weighting for each feature amount of the learning images. . By inputting a desired inspection image to the machine-learned classifier, an attribute indicating the quality of the inspection image is output.

機械学習により生成された分類器は、様々な原因により誤判定をする場合がある。誤判定の原因としては、例えば、学習データが不適切な場合や、学習データは適切であるもののアルゴリズムが不適切である場合等がある。この点につき、例えば、特許文献1には、操作者が教師データの妥当性を確認して、教師データベースの調整及び分類器の再学習を可能とするために、教師画像の特徴量のプロットと、解析画像の特徴量のプロットとを入出力装置に表示する情報処理システムが記載されている。 A classifier generated by machine learning may make an erroneous decision due to various causes. Misjudgment may be caused by, for example, inappropriate learning data, or inappropriate algorithm although learning data is appropriate. Regarding this point, for example, in Patent Document 1, in order to enable the operator to check the validity of the teacher data, adjust the teacher database and re-learn the classifier, plot the feature amount of the teacher image and , and a plot of feature values of an analysis image are displayed on an input/output device.

特開2020-160543号公報JP 2020-160543 A

操作者は、例えば、分類器の精度が適切か否かを確認するために、分類器の出力結果を各検査画像について確認する場合がある。更に、分類器の精度が不適切であると判明した場合、学習データが適切であるか否かを確認する必要が生じるが、当該確認には各学習データを確認して学習画像に付与されたラベルが適切であるか等を確認する必要がある。これらの確認作業は、学習画像や検査画像の数が多ければ多いほど、その負担は大きなものとなり得る。 The operator may check the output result of the classifier for each inspection image, for example, in order to confirm whether the accuracy of the classifier is adequate. Furthermore, when the accuracy of the classifier is found to be inappropriate, it is necessary to check whether the learning data is appropriate. It is necessary to confirm whether the label is appropriate. The greater the number of learning images and inspection images, the greater the burden of these checking operations.

そこで、本発明は、一側面では、このような実情を鑑みてなされたものであり、その目的は、分類器の基となる学習データが適切であるか否かを効率的に確認することを可能とする技術を提供することである。 Therefore, in one aspect, the present invention has been made in view of such circumstances, and an object of the present invention is to efficiently confirm whether or not learning data that is the basis of a classifier is appropriate. It is to provide the technology that makes it possible.

本発明は、上述した課題を解決するために、以下の構成を採用する。 The present invention adopts the following configurations in order to solve the above-described problems.

すなわち、本開示の一側面に係る情報処理装置は、画像の属性を判定する分類器の学習に用いる学習画像に対応付けて該学習画像の複数の特徴のそれぞれを示す複数の特徴量を記憶し、且つ分類器による分類の対象となる検査画像に対応付けて該検査画像の複数の特徴のそれぞれを示す複数の特徴量を記憶する記憶部にアクセス可能な情報処理装置であって、表示部と、複数の特徴から基準となる特徴である少なくとも1つの基準特徴を決定する基準特徴決定部と、少なくとも1つの基準特徴を示す特徴量である少なくとも1つの基準特徴量によって規定される空間における範囲である基準特徴量範囲を決定する基準特徴量範囲決定部と、学習画像及び/又は検査画像のうち、少なくとも1つの基準特徴量が基準特徴量範囲に含まれる学習画像及び/又は検査画像を抽出する画像抽出部と、画像抽出部により抽出された学習画像及び/又は検査画像である抽出学習画像及び/又は抽出検査画像を表示部に表示させる表示制御部と、を備える。 In other words, an information processing apparatus according to one aspect of the present disclosure stores a plurality of feature amounts indicating each of the plurality of features of a learning image in association with a learning image used for learning a classifier that determines attributes of an image. and an information processing device capable of accessing a storage unit that stores a plurality of feature quantities representing respective features of the inspection image in association with an inspection image to be classified by the classifier, the information processing device comprising: a display unit; , a range in a space defined by a reference feature determination unit that determines at least one reference feature that is a reference feature from a plurality of features, and at least one reference feature that is a feature that indicates the at least one reference feature A reference feature value range determination unit that determines a certain reference feature value range, and extracts a learning image and/or an inspection image in which at least one reference feature value is included in the reference feature value range from among the learning images and/or inspection images. An image extraction unit, and a display control unit that causes a display unit to display the extracted learning image and/or the extracted inspection image, which are the learning image and/or the inspection image extracted by the image extraction unit.

上記構成では、分類器の学習に用いる学習画像の複数の特徴から少なくとも1つの基準特徴が決定され、当該少なくとも1つの基準特徴を示す特徴量である少なくとも1つの基準特徴量によって規定される空間における基準特徴量範囲が決定される。そして、学習画像及び/又は分類器による分類の対象となる検査画像のうち、基準特徴量が基準特徴量範囲に含まれる学習画像及び/又は検査画像が抽出された上で、抽出された学習画像及び/又は検査画像が表示部に表示される。このため、操作者は、分類器の基となる学習データが適切であるか否かを効率的に確認することが可能となる。 In the above configuration, at least one reference feature is determined from a plurality of features of a learning image used for learning a classifier, and at least one reference feature is a feature indicating the at least one reference feature. A reference feature range is determined. Then, out of the learning images and/or inspection images to be classified by the classifier, the learning images and/or inspection images whose reference feature amount is included in the reference feature amount range are extracted, and then the extracted learning image and/or the inspection image is displayed on the display. Therefore, the operator can efficiently confirm whether or not the learning data on which the classifier is based is appropriate.

上記一側面に係る情報処理装置において、基準特徴決定部は、操作者による選択に応じて、少なくとも1つの基準特徴を決定してもよい。当該態様によれば、操作者が基準特徴を選択することが可能となるため、操作者の利便性が向上する。 In the information processing device according to the above aspect, the reference feature determination unit may determine at least one reference feature according to selection by the operator. According to this aspect, since the operator can select the reference feature, convenience for the operator is improved.

上記一側面に係る情報処理装置において、基準特徴決定部は、所定の特徴選択アルゴリズムにより、少なくとも1つの基準特徴を決定してもよい。当該構成によれば、所定の特徴選択アルゴリズムにより基準特徴が決定されるため、操作者の利便性が向上する。 In the information processing device according to the above aspect, the reference feature determination unit may determine at least one reference feature using a predetermined feature selection algorithm. According to this configuration, since the reference feature is determined by a predetermined feature selection algorithm, convenience for the operator is improved.

上記一側面に係る情報処理装置において、基準特徴量範囲決定部は、学習画像及び/又は検査画像から基準となる学習画像又は検査画像である基準画像を決定し、基準画像からの少なくとも1つの基準特徴量によって規定される距離についての閾値を決定し、基準画像からの距離が閾値以下となる範囲を基準特徴量範囲として決定してもよい。当該構成によれば、学習画像及び/又は検査画像から基準画像が決定され、当該基準画像からの少なくとも1つの基準特徴量によって規定される距離が閾値以下となる範囲が基準特徴量範囲として決定されるため、基準画像に対して相対的に近い距離にある学習画像及び/又は検査画像を効率的に確認することが可能となる。 In the information processing device according to the above aspect, the reference feature amount range determination unit determines a reference image that is a reference learning image or an inspection image from the learning image and/or the inspection image, and selects at least one reference from the reference image. A threshold for the distance defined by the feature amount may be determined, and a range in which the distance from the reference image is equal to or less than the threshold may be determined as the reference feature amount range. According to this configuration, the reference image is determined from the learning image and/or the inspection image, and the range in which the distance defined by at least one reference feature amount from the reference image is equal to or less than the threshold is determined as the reference feature amount range. Therefore, it is possible to efficiently check the learning image and/or the inspection image that are relatively close to the reference image.

上記一側面に係る情報処理装置において、基準特徴量範囲決定部は、操作者による基準特徴量の領域を指定する操作を受け付け、指定された領域を基準特徴量範囲として決定してもよい。当該構成によれば、操作者は基準特徴量の領域を指定する操作を介して基準特徴量範囲を決定することができるため、操作者の利便性が向上する。 In the information processing apparatus according to the above aspect, the reference feature amount range determination unit may receive an operator's operation of specifying a reference feature amount area, and determine the specified area as the reference feature amount range. According to this configuration, the operator can determine the reference feature amount range through the operation of designating the area of the reference feature amount, thereby improving convenience for the operator.

上記一側面に係る情報処理装置において、表示制御部は、更に、抽出学習画像に付与された属性を示す情報及び/又は抽出検査画像についての分類器により判定された属性を示す情報を、表示部に表示させてもよい。当該構成によれば、操作者は、抽出学習画像に付与された属性を示す情報が適切であるか否か、又、抽出検査画像についての分類器により判定された属性が適切であるか否かを確認することが可能となる。 In the information processing device according to the aspect described above, the display control unit further displays information indicating the attribute assigned to the extracted learning image and/or information indicating the attribute determined by the classifier for the extracted inspection image to the display unit. may be displayed in According to this configuration, the operator can determine whether the information indicating the attribute given to the extracted learning image is appropriate, and whether the attribute determined by the classifier for the extracted test image is appropriate. can be confirmed.

上記一側面に係る情報処理装置において、表示制御部は、更に、記憶部において抽出学習画像に対応付けられた少なくとも1つの基準特徴量及び/又は記憶部において抽出検査画像に対応付けられた少なくとも1つの基準特徴量を、表示部に表示させてもよい。当該構成によれば、操作者は抽出学習画像に対応付けられた少なくとも1つの基準特徴量、及び/又は、抽出検査画像に対応付けられた少なくとも1つの基準特徴量を確認することが可能となる。 In the information processing apparatus according to the above aspect, the display control unit further includes at least one reference feature value associated with the extracted learning image in the storage unit and/or at least one reference feature value associated with the extracted inspection image in the storage unit. The two reference feature amounts may be displayed on the display unit. According to this configuration, the operator can confirm at least one reference feature associated with the extracted learning image and/or at least one reference feature associated with the extracted inspection image. .

上記一側面に係る情報処理装置において、表示制御部は、更に、少なくとも1つの基準特徴量によって規定される空間である基準特徴量空間における学習画像の代表点及び/又は検査画像の代表点を、表示部に表示させてもよい。当該構成によれば、操作者は、基準特徴量空間における学習画像及び/又は検査画像の基準特徴量によって規定される距離の関係を把握することが可能となる。 In the information processing device according to the above one aspect, the display control unit further sets the representative point of the learning image and/or the representative point of the inspection image in a reference feature amount space, which is a space defined by at least one reference feature amount, to It may be displayed on the display unit. According to this configuration, it is possible for the operator to grasp the relationship of the distance defined by the reference feature amount of the learning image and/or the inspection image in the reference feature amount space.

本発明によれば、分類器の基となる学習データが適切であるか否かを効率的に確認することを可能とする技術を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the technique which makes it possible to confirm efficiently whether the learning data used as the basis of a classifier is appropriate can be provided.

本実施形態に係る検査システム1の構成の一例を示す概略図である。It is a schematic diagram showing an example of composition of inspection system 1 concerning this embodiment. 本実施形態に係る情報処理装置20の構成の一例を示す概略図である。It is a schematic diagram showing an example of composition of information processor 20 concerning this embodiment. 本実施形態に係る学習データ23aのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of the learning data 23a based on this embodiment. 本実施形態に係る検査データ23bのデータ構造の一例を示す図である。It is a figure which shows an example of the data structure of test|inspection data 23b which concern on this embodiment. 本実施形態に係る検査システム1が実行する学習処理の動作フローの一例を示す図である。It is a figure which shows an example of the operation|movement flow of the learning process which the inspection system 1 which concerns on this embodiment performs. 本実施形態に係る検査システム1が実行する検査処理の動作フローの一例を示す図である。It is a figure which shows an example of the operation|movement flow of the test|inspection process which the test|inspection system 1 which concerns on this embodiment performs. 本実施形態に係る検査システム1が実行する画面表示処理の動作フローの一例を示す図である。It is a figure which shows an example of the operation|movement flow of the screen display process which the inspection system 1 which concerns on this embodiment performs. 本実施形態に係る情報処理装置20が表示する画面1000の一例を示す図である。FIG. 10 is a diagram showing an example of a screen 1000 displayed by the information processing device 20 according to the embodiment; 本実施形態に係る情報処理装置20が表示する画面2000の一例を示す図である。2 is a diagram showing an example of a screen 2000 displayed by an information processing apparatus 20 according to the embodiment; FIG. 本実施形態に係る情報処理装置20が表示する画面3000の一例を示す図である。3 is a diagram showing an example of a screen 3000 displayed by the information processing device 20 according to the embodiment; FIG.

添付図面を参照して、本発明の好適な実施形態について説明する。各図において、同一の符号を付したものは、同一又は同様の構成を有する。なお、本開示において、「A及び/又はB」とは、Aのみを含む場合、Bのみを含む場合、A及びBの両者を含む場合の、いずれの場合をも含み得る。 Preferred embodiments of the present invention will be described with reference to the accompanying drawings. In each figure, the same reference numerals have the same or similar configurations. In the present disclosure, "A and/or B" may include any of the cases where only A is included, only B is included, and both A and B are included.

図1は、本実施形態に係る検査システム1の構成の一例を示す概略図である。本実施形態に係る検査システム1は、対象物Wを撮像することにより生成される検査画像の属性を所定の分類器を用いて判定することにより、当該対象物Wを検査するためのシステムである。検査システム1は、例えば、撮像装置10と、情報処理装置20とを備える。 FIG. 1 is a schematic diagram showing an example of the configuration of an inspection system 1 according to this embodiment. The inspection system 1 according to the present embodiment is a system for inspecting an object W by determining attributes of an inspection image generated by imaging the object W using a predetermined classifier. . The inspection system 1 includes, for example, an imaging device 10 and an information processing device 20 .

撮像装置10は、CCD(Charge-Coupled Device)やCMOS(Complementary MOS)などのイメージセンサを備え、情報処理装置20からの制御信号に基づいてイメージセンサにより対象物Wを撮像し、撮像により得た画像を情報処理装置20に出力する。具体的には、後述する学習処理において、撮像装置10は、対象物Wを撮像することにより得られる学習画像を情報処理装置20に出力する。また、後述する検査処理において、撮像装置10は、対象物Wを撮像することにより得られる検査画像を情報処理装置20に出力する。 The imaging device 10 includes an image sensor such as a CCD (Charge-Coupled Device) or a CMOS (Complementary MOS). The image is output to the information processing device 20 . Specifically, in a learning process to be described later, the imaging device 10 outputs a learning image obtained by imaging the object W to the information processing device 20 . Further, in an inspection process to be described later, the imaging device 10 outputs an inspection image obtained by imaging the object W to the information processing device 20 .

対象物Wは、特に限定されず、最終製品であるか部品であるかを問わず、また、完成品であるか中間生産物であるかを問わない。対象物Wは、例えば、図1に示すように搬送装置100によって搬送されてもよい。搬送装置100は、例えばベルトコンベアとして構成され、情報処理装置20や他のコントローラ(不図示)から供給される制御信号に応じて、対象物Wを矢印Tに示す方向に搬送する。 The target object W is not particularly limited, regardless of whether it is a final product or a part, and whether it is a finished product or an intermediate product. The object W may be transported by a transport device 100 as shown in FIG. 1, for example. The conveying device 100 is configured, for example, as a belt conveyor, and conveys the object W in the direction indicated by the arrow T in accordance with control signals supplied from the information processing device 20 or another controller (not shown).

情報処理装置20は、例えば、1つ又は複数のコンピュータにより構成される。情報処理装置20は、対象物Wを撮像することにより得られる学習画像に基づく学習データを機械学習することにより生成された分類器を備える。情報処理装置20は、当該分類器を用いて、対象物Wを撮像することにより得られる検査画像の属性を判定することにより、対象物Wの検査を実行する。 The information processing device 20 is configured by, for example, one or more computers. The information processing device 20 includes a classifier generated by performing machine learning on learning data based on learning images obtained by imaging the object W. FIG. The information processing apparatus 20 inspects the object W by determining attributes of an inspection image obtained by imaging the object W using the classifier.

図2は、本実施形態に係る情報処理装置20の構成の一例を示す概略図である。情報処理装置20は、例えば、表示部21と、操作部22と、記憶部23と、処理部24とを備える。 FIG. 2 is a schematic diagram showing an example of the configuration of the information processing device 20 according to this embodiment. The information processing device 20 includes, for example, a display unit 21, an operation unit 22, a storage unit 23, and a processing unit 24.

表示部21は、映像や画像等の表示が可能であればどのようなデバイスでもよく、例えば、液晶ディスプレイや有機EL(Electro-Luminescence)ディスプレイ等である。表示部21は、処理部24から供給された映像データに応じた映像や、画像データに応じた画像等を表示する。 The display unit 21 may be any device as long as it can display video, images, and the like, such as a liquid crystal display and an organic EL (Electro-Luminescence) display. The display unit 21 displays an image corresponding to the image data supplied from the processing unit 24, an image corresponding to the image data, and the like.

操作部22は、情報処理装置20の操作が可能であればどのようなデバイスでもよく、例えば、タッチパネルやキーボタン等である。操作者は、操作部22を用いて、文字や数字、記号等を入力することができる。操作部22は、操作者により操作されると、その操作に対応する信号を発生する。そして、発生した信号は、操作者の指示として、処理部24に供給される。 The operation unit 22 may be any device as long as it can operate the information processing apparatus 20, such as a touch panel or key buttons. The operator can use the operation unit 22 to input characters, numbers, symbols, and the like. The operation unit 22 generates a signal corresponding to the operation when operated by the operator. The generated signal is supplied to the processing unit 24 as an operator's instruction.

記憶部23は、例えば、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置であり、処理部24で実行される各種のプログラム、学習データ23a、検査データ23b、及び分類器23c等を記憶する。各種プログラムは、例えばCD-ROM、DVD-ROM等のコンピュータ読み取り可能な可搬型記録媒体(コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、当該プログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体)から、公知のセットアッププログラム等を用いて記憶部23にインストールされてもよい。また、記憶部23は、所定の処理に係る一時的なデータを一時的に記憶してもよい。 The storage unit 23 is, for example, an auxiliary storage device such as a hard disk drive or solid state drive, and stores various programs executed by the processing unit 24, learning data 23a, inspection data 23b, classifier 23c, and the like. Various programs, for example, computer-readable portable recording media such as CD-ROMs and DVD-ROMs (computers, other devices, machines, etc. can read information such as programs recorded) , electrical, magnetic, optical, mechanical, or chemical storage medium) may be installed in the storage unit 23 using a known setup program or the like. In addition, the storage unit 23 may temporarily store temporary data related to predetermined processing.

図3は、本実施形態に係る学習データ23aのデータ構造の一例を示す図である。学習データは、例えば、学習画像の画像データと、学習画像の1つ又は複数の特徴量と、学習画像のラベルとを含む。 FIG. 3 is a diagram showing an example of the data structure of the learning data 23a according to this embodiment. The training data includes, for example, image data of training images, one or more feature amounts of the training images, and labels of the training images.

画像IDは、学習画像を識別するための識別情報(ID)である。学習画像の画像データは、例えば、撮像装置10による学習画像生成用の対象物Wを撮像することにより生成される画像データである。学習画像の画像データは、例えば、学習画像を構成する各画素に対応付けられた色相、彩度、及び明度等のパラメータを含んで構成されてよい。 The image ID is identification information (ID) for identifying a learning image. The image data of the learning image is, for example, image data generated by imaging the target object W for generating the learning image by the imaging device 10 . The image data of the learning image may include, for example, parameters such as hue, saturation, and brightness associated with each pixel forming the learning image.

特徴量は、画像が有する所定の特徴を定量的・定性的に示す情報である。特徴量は、例えば、後述する特徴量抽出部243によって学習画像から抽出された特徴量であってよい。図3に示す例では、一例として、第1特徴量から第4特徴量までの4つの特徴量が示されているが、学習データが有する特徴量(特徴)の種類は4つに限らず、1つ、2つ、3つ、又は5つ以上であってもよい。特徴量は、画像データに含まれる情報(各画素に対応付けられた色相、彩度、及び明度等のパラメータ等)であってもよい。 A feature amount is information that quantitatively and qualitatively indicates a predetermined feature of an image. The feature amount may be, for example, a feature amount extracted from the learning image by the feature amount extraction unit 243, which will be described later. In the example shown in FIG. 3, four feature amounts from the first feature amount to the fourth feature amount are shown as an example, but the types of feature amounts (features) possessed by the learning data are not limited to four. There may be one, two, three, five or more. The feature amount may be information included in the image data (parameters such as hue, saturation, and brightness associated with each pixel).

ラベルは、学習画像の属性を示す情報である。ラベルの数及び内容等は、操作者が任意に設定することが可能であるが、本実施形態では一例として、画像に含まれる対象物Wが良品であることを示す「良品」と、画像に含まれる対象物Wが不良品であることを示す「不良品」とが含まれてよい。ラベルは、例えば、操作者によって入力されたものであってよい。なお、分類器23cを生成するための機械学習を教師無し学習で実行する場合には、学習データ23aにはラベルは含まれなくてもよい。 A label is information indicating an attribute of a learning image. The number and content of labels can be arbitrarily set by the operator. A "defective product" indicating that the contained object W is defective may be included. The label may, for example, have been entered by an operator. Note that when machine learning for generating the classifier 23c is performed by unsupervised learning, the learning data 23a may not include labels.

図4は、本実施形態に係る検査データ23bのデータ構造の一例を示す図である。検査データは、例えば、検査画像の画像データと、検査画像の1つ又は複数の特徴量と、検査画像のラベルとを含む。 FIG. 4 is a diagram showing an example of the data structure of inspection data 23b according to this embodiment. The inspection data includes, for example, image data of an inspection image, one or more feature amounts of the inspection image, and labels of the inspection image.

画像IDは、検査画像を識別するための識別情報(ID)である。検査画像の画像データは、例えば、撮像装置10による検査対象の対象物Wを撮像することにより生成される画像データである。検査画像の画像データは、例えば、検査画像を構成する各画素に対応付けられた色相、彩度、及び明度等のパラメータを含んで構成されてよい。 The image ID is identification information (ID) for identifying an inspection image. The image data of the inspection image is, for example, image data generated by imaging the object W to be inspected by the imaging device 10 . The image data of the inspection image may include, for example, parameters such as hue, saturation, and brightness associated with each pixel forming the inspection image.

特徴量は、画像が有する所定の特徴を定量的・定性的に示す情報である。特徴量は、例えば、特徴量抽出部243によって検査画像から抽出された特徴量であってよい。図4に示す例では、一例として、第1特徴量から第4特徴量までの4つの特徴量が示されているが、検査データが有する特徴量(特徴)の種類は4つに限らず、学習データに準じて1つ、2つ、3つ、又は5つ以上であってもよい。特徴量は、画像データに含まれる情報(各画素に対応付けられた色相、彩度、及び明度等のパラメータ等)であってもよい。 A feature amount is information that quantitatively and qualitatively indicates a predetermined feature of an image. The feature amount may be, for example, a feature amount extracted from the inspection image by the feature amount extraction unit 243 . In the example shown in FIG. 4, four feature amounts from the first feature amount to the fourth feature amount are shown as an example, but the types of feature amounts (features) possessed by inspection data are not limited to four. It may be 1, 2, 3, or 5 or more depending on the learning data. The feature amount may be information included in the image data (parameters such as hue, saturation, and brightness associated with each pixel).

ラベルは、検査画像の属性を示す情報である。ラベルの数及び内容等は、学習画像のラベルに準じて操作者が任意に設定することが可能であるが、本実施形態では一例として、画像に含まれる対象物Wが良品であることを示す「良品」と、画像に含まれる対象物Wが不良品であることを示す「不良品」とが含まれてよい。ラベルは、例えば、検査画像を分類器23cに入力することにより出力されたものであってよい。なお、分類器23cを生成するための機械学習を教師無し学習で実行する場合には、検査データ23bには、ラベルは正誤判定の結果であってよい。 A label is information indicating an attribute of an inspection image. The number and content of labels can be arbitrarily set by the operator according to the labels of the learning images. A “non-defective product” and a “defective product” indicating that the object W included in the image is a defective product may be included. The label may be output by inputting the inspection image into the classifier 23c, for example. Note that when machine learning for generating the classifier 23c is performed by unsupervised learning, the label of the inspection data 23b may be the result of the correct/wrong judgment.

上述したとおり、記憶部23は、例えば、画像の属性を判定するための分類器23cを記憶する。分類器23cは、例えば、学習データ23aを用いた機械学習により生成され、画像の特徴量の入力に応じて当該画像の属性を出力する。例えば、分類器23cが入力層、出力層、及び少なくとも1つの中間層から成るニューラルネットワークとして構成される場合、記憶部23は、これら各層の間の重み付け係数を記憶する。分類器23cは、例えば、検査データ23bの入力に応じて、当該検査データ23bに係る検査画像の属性を出力する。分類器23cが出力する画像の属性は、任意に設定することが可能であるが、本実施形態では一例として、検査画像の属性として「良品」及び「不良品」が含まれる。ここで、属性「良品」は、画像に含まれる対象物Wが良品であることを示す属性であってよい。また、属性「不良品」は、画像に含まれる対象物Wが不良品であることを示す属性であってよい。 As described above, the storage unit 23 stores, for example, the classifier 23c for determining image attributes. The classifier 23c is generated, for example, by machine learning using the learning data 23a, and outputs the attribute of the image according to the input of the feature amount of the image. For example, if the classifier 23c is configured as a neural network consisting of an input layer, an output layer, and at least one intermediate layer, the storage unit 23 stores weighting coefficients between these layers. The classifier 23c outputs, for example, the attribute of the inspection image related to the inspection data 23b in accordance with the input of the inspection data 23b. The attributes of the image output by the classifier 23c can be arbitrarily set, but in this embodiment, as an example, the attributes of the inspection image include "non-defective product" and "defective product". Here, the attribute "non-defective item" may be an attribute indicating that the object W included in the image is a non-defective item. Also, the attribute “defective item” may be an attribute indicating that the object W included in the image is defective.

処理部24は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行う。処理部24は、情報処理装置20の各種処理が記憶部23に記憶されているプログラムや操作部22の操作等に基づいて適切な手順で実行されるように、表示部21等の動作を制御する。処理部24は、記憶部23に記憶されているプログラム(オペレーティングシステムプログラムやドライバプログラム、アプリケーションプログラム等)に基づいて処理を実行する。また、処理部24は、複数のプログラム(アプリケーションプログラム等)を並列に実行することができる。 The processing unit 24 includes a CPU (Central Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), etc., and controls each component in accordance with information processing. The processing unit 24 controls the operation of the display unit 21 and the like so that various processes of the information processing device 20 are executed in appropriate procedures based on the programs stored in the storage unit 23, the operation of the operation unit 22, and the like. do. The processing unit 24 executes processing based on programs (operating system programs, driver programs, application programs, etc.) stored in the storage unit 23 . Also, the processing unit 24 can execute a plurality of programs (application programs, etc.) in parallel.

処理部24は、撮像制御部241と、前処理部242と、特徴量抽出部243と、機械学習実行部244と、分類実行部245と、基準特徴決定部246と、基準特徴量範囲決定部247と、画像抽出部248と、表示制御部249とを備える。これらの各部は、処理部24が備えるプロセッサで実行されるプログラムにより実現される機能モジュールである。あるいは、これらの各部は、独立した集積回路、マイクロプロセッサ、又はファームウェアとして情報処理装置20に実装されてもよい。 The processing unit 24 includes an imaging control unit 241, a preprocessing unit 242, a feature amount extraction unit 243, a machine learning execution unit 244, a classification execution unit 245, a reference feature determination unit 246, and a reference feature amount range determination unit. 247 , an image extraction unit 248 , and a display control unit 249 . Each of these units is a functional module implemented by a program executed by a processor included in the processing unit 24 . Alternatively, each of these units may be implemented in the information processing device 20 as an independent integrated circuit, microprocessor, or firmware.

撮像制御部241は、制御信号を撮像装置10に送信して、撮像装置10の撮像に関する制御を行う。また、撮像制御部241は、撮像により生成された画像を撮像装置10から取得し、記憶部23に記憶させる。画像は、例えば、学習画像生成用の対象物Wを撮像することにより生成される学習画像や、検査対象の対象物Wを撮像することにより生成される検査画像等であってよい。 The imaging control unit 241 transmits a control signal to the imaging device 10 to control imaging by the imaging device 10 . The imaging control unit 241 also acquires an image generated by imaging from the imaging device 10 and stores it in the storage unit 23 . The image may be, for example, a learning image generated by imaging the object W for generating a learning image, an inspection image generated by imaging the object W to be inspected, or the like.

前処理部242は、学習データを用いた機械学習により分類器23cを生成する学習処理及び/又は生成された分類器23cを用いて検査データについての判定を実行する検査処理において、所定の前処理を実行する。例えば、前処理部242は、学習処理として教師有り学習が行われる場合、各学習画像にラベルを付与してもよい。ラベルの付与は、例えば、操作者による操作部22を介した操作に応じて実行してもよい。また、例えば、前処理部242は、学習処理として教師無し学習が実行される場合、良品画像等の所望の画像以外の画像をノイズとして除去してもよい。また、例えば、前処理部242は、学習処理において、学習データから不要なノイズを除去する処理や、学習データにおいて欠損した項目を埋める処理等を実行してもよい。前処理部242は、検査処理において、検査データから不要なノイズを除去する処理や、検査データにおいて欠損した項目を埋める処理等を実行してもよい。 The preprocessing unit 242 performs predetermined preprocessing in a learning process for generating the classifier 23c by machine learning using the learning data and/or an inspection process for performing determination on the inspection data using the generated classifier 23c. to run. For example, the preprocessing unit 242 may assign a label to each learning image when supervised learning is performed as the learning process. Labeling may be performed, for example, in response to an operator's operation via the operation unit 22 . Further, for example, when unsupervised learning is performed as the learning process, the preprocessing unit 242 may remove images other than desired images, such as non-defective images, as noise. Further, for example, in the learning process, the preprocessing unit 242 may perform a process of removing unnecessary noise from the learning data, a process of filling missing items in the learning data, and the like. In the inspection process, the preprocessing unit 242 may perform a process of removing unnecessary noise from the inspection data, a process of filling missing items in the inspection data, and the like.

特徴量抽出部243は、学習処理及び/又は検査処理において、各画像から所定の特徴量を抽出する。例えば、特徴量抽出部243は、学習処理において、学習画像から所定の特徴量を抽出する。学習画像から抽出された特徴量は、例えば、学習データの一部として記憶部23に記憶される。例えば、特徴量抽出部243は、検査処理において、検査画像から所定の特徴量を抽出する。検査画像から抽出された特徴量は、例えば、検査データの一部として記憶部23に記憶される。特徴量抽出部243が各画像から抽出する特徴量は、1つであってもよいし、2つ以上であってもよい。また、特徴量の種類は、特に限定されないが、例えば学習画像を構成する各画素に対応付けられた色相、彩度、及び明度等のパラメータの他、当該パラメータから得られる平均周波数、エントロピー、平均輝度等であってよい。或いは、特徴量は、例えば、対象物の色、対象物のエッジ情報、対象物の位置や、等を挙げることができる。エッジ情報には、エッジの位置、形状、長さ等が含まれてよい。対象物の位置は、対象物自体の位置の他、対象物の一部の位置も含まれる。 The feature amount extraction unit 243 extracts a predetermined feature amount from each image in learning processing and/or inspection processing. For example, the feature amount extraction unit 243 extracts a predetermined feature amount from the learning image in the learning process. The feature amount extracted from the learning image is stored in the storage unit 23 as part of the learning data, for example. For example, the feature amount extraction unit 243 extracts a predetermined feature amount from the inspection image in the inspection process. The feature amount extracted from the inspection image is stored in the storage unit 23 as part of the inspection data, for example. The feature amount extracted from each image by the feature amount extraction unit 243 may be one, or may be two or more. In addition, the type of the feature amount is not particularly limited, but for example, parameters such as hue, saturation, and brightness associated with each pixel constituting the learning image, and the average frequency, entropy, and average frequency obtained from the parameters It may be luminance or the like. Alternatively, the feature amount can be, for example, the color of the object, the edge information of the object, the position of the object, and the like. The edge information may include the position, shape, length, etc. of the edge. The position of the object includes not only the position of the object itself but also the position of part of the object.

特徴量抽出部243は、画像から直接的に生成される特徴量のみならず、他の少なくとも1つの特徴量(一次特徴量)に基づいて生成される特徴量(二次特徴量)を生成することにより、当該特徴量(二次特徴量)を抽出してもよい。換言すれば、特徴量抽出部243は、複数の一次特徴量から1つの二次特徴量を生成することにより、「特徴量圧縮」を行うことができる。 The feature quantity extraction unit 243 generates not only a feature quantity directly generated from an image, but also a feature quantity (secondary feature quantity) generated based on at least one other feature quantity (primary feature quantity). By doing so, the feature amount (secondary feature amount) may be extracted. In other words, the feature amount extraction unit 243 can perform "feature amount compression" by generating one secondary feature amount from a plurality of primary feature amounts.

機械学習実行部244は、記憶部23に記憶された学習データを用いた機械学習により、分類器23cを生成する。機械学習の方法は特に限定されないが、例えば、分類器23cが有するパラメータの初期値をランダムに決定しておき、分類器23cから出力される画像認識の誤差をフィードバックしながらパラメータを調整していく、いわゆるディープラーニングであってもよいし、周知の遺伝的アルゴリズム(GA)などの手法を採用してもよい。 The machine learning execution unit 244 generates the classifier 23 c by machine learning using the learning data stored in the storage unit 23 . The machine learning method is not particularly limited, but for example, the initial values of the parameters of the classifier 23c are randomly determined, and the parameters are adjusted while feeding back the image recognition errors output from the classifier 23c. , so-called deep learning, or a technique such as a well-known genetic algorithm (GA) may be employed.

分類実行部245は、検査画像に係る検査データを分類器23cに入力して当該検査画像の属性(「良品」及び「不良品」等)を出力させることにより、対象物Wについての検査を実行する。分類実行部245は、出力された検査画像の属性を、検査データに対応付けて記憶部23に記憶させてもよい。 The classification executing unit 245 inputs inspection data related to an inspection image to the classifier 23c and outputs the attributes of the inspection image (“non-defective product”, “defective product”, etc.), thereby executing an inspection of the object W. do. The classification execution unit 245 may store the attribute of the output inspection image in the storage unit 23 in association with the inspection data.

基準特徴決定部246は、学習画像及び/又は検査画像に対応付けられた複数の特徴から、少なくとも1つの基準特徴を決定する。例えば、基準特徴決定部246は、記憶部23において学習データとして学習画像に対応付けて記憶された複数の特徴量や、記憶部23において検査データとして検査画像に対応付けて記憶された複数の特徴量から、少なくとも1つの基準特徴を決定する。ここで、基準特徴は、例えば、後述する基準特徴量空間や基準特徴量範囲を規定するための特徴である。すなわち、基準特徴は、分類器23cの精度を検討する際に基準となる特徴であるとも言える。基準特徴の数は、特に限定されず、1つ、2つ、及び3つ以上であってもよい。具体的には、基準特徴決定部246は、記憶部23に記憶された学習データ及び/又は検査データのそれぞれに含まれる複数の特徴から、少なくとも1つの特徴を基準特徴として決定する。基準特徴決定部246は、例えば、操作者による所望の特徴の選択に基づいて、特徴を選択してもよい。或いは、基準特徴決定部246は、例えば、所定の特徴選択アルゴリズムを用いて、特徴を選択してもよい。所定の特徴選択アルゴリズムは、複数の特徴からモデルに適した特徴を選択する公知のアルゴリズムであれば特に限定されないが、例えば、フィルタ法、ラッパー法、及び組み込み法等のアルゴリズムを含んでもよい。フィルタ法は、単変量特徴量選択とも呼ばれ、個々の特徴量と目的との間の関係を統計的に検証し、最も優位であると考えられる特徴量を選択する方法である。ラッパー法は、反復特徴量選択とも呼ばれ、複数の特徴量を組み合わせて予測精度の検証を行い、最も精度が高くなるような組み合わせを探索する方法である。組み込み法は、モデルベース特徴量選択とも呼ばれ、機械学習の学習と特徴量選択を同時に行う方法であり、決定木などがその代表的なアルゴリズムである。 A reference feature determination unit 246 determines at least one reference feature from a plurality of features associated with the learning image and/or the inspection image. For example, the reference feature determining unit 246 stores a plurality of feature values stored as learning data in the storage unit 23 in association with the learning image, or a plurality of feature values stored in the storage unit 23 as inspection data in association with the inspection image. At least one reference feature is determined from the quantity. Here, the reference feature is, for example, a feature for defining a reference feature amount space or a reference feature amount range, which will be described later. That is, it can be said that the reference feature is a feature that serves as a reference when examining the accuracy of the classifier 23c. The number of reference features is not particularly limited, and may be one, two, or three or more. Specifically, the reference feature determination unit 246 determines at least one feature as a reference feature from a plurality of features included in each of the learning data and/or inspection data stored in the storage unit 23 . The reference feature determiner 246 may select features, for example, based on the operator's selection of desired features. Alternatively, the reference feature determiner 246 may select features using, for example, a predetermined feature selection algorithm. The predetermined feature selection algorithm is not particularly limited as long as it is a known algorithm that selects a feature suitable for a model from a plurality of features, but may include algorithms such as filter method, wrapper method, and embedding method, for example. The filtering method, also called univariate feature quantity selection, is a method of statistically verifying the relationship between individual feature quantities and objectives, and selecting the feature quantities considered to be the most dominant. The wrapper method, which is also called iterative feature quantity selection, is a method of combining a plurality of feature quantities, verifying prediction accuracy, and searching for a combination with the highest accuracy. The built-in method, also called model-based feature selection, is a method of performing machine learning and feature selection at the same time, and a representative algorithm is a decision tree.

基準特徴量範囲決定部247は、基準特徴量によって規定される空間における所定の範囲である基準特徴量範囲を決定する。ここで、基準特徴量範囲は、例えば、学習画像及び/又は検査画像を抽出するための範囲であってよい。 The reference feature amount range determining unit 247 determines a reference feature amount range, which is a predetermined range in the space defined by the reference feature amount. Here, the reference feature amount range may be, for example, a range for extracting a learning image and/or an inspection image.

基準特徴量範囲決定部247は、例えば、学習画像及び検査画像から基準となる基準画像を決定した上で、他の各画像と基準画像との基準特徴量によって規定される距離を算出し、当該距離に基づいて基準特徴量範囲を決定してもよい。具体的には、基準特徴量範囲決定部247は、基準画像からの基準特徴量によって規定される距離(基準特徴量距離)についての閾値を決定した上で、基準画像からの基準特徴量距離が当該閾値以下となる範囲を、基準特徴量範囲として決定してもよい。ここで、当該距離の算出方法は、任意に設定できるが、例えば、ユークリッド距離、マハラノビス距離、及びマンハッタン距離等を含んでもよい。また、閾値は、各学習画像及び各検査画像のうち、基準画像からの基準特徴量距離が予め定められた順位である画像についての当該基準特徴量距離であってもよい。この場合、基準特徴量範囲には、各学習画像及び各検査画像のうち、基準画像からの基準特徴量距離が予め定められた順位までの画像が含まれることとなる。或いは、閾値は、予め定められた値であってもよい。この場合、基準特徴量範囲には、各学習画像及び各検査画像のうち、基準画像からの基準特徴量距離が予め定められた値までの画像が含まれることとなる。なお、基準特徴量距離がユークリッド距離として規定される場合は、基準特徴量空間において基準特徴量範囲は円形として表され得る。また、基準特徴量距離がマハラノビス距離として規定される場合は、基準特徴量空間において基準特徴量範囲は楕円形として表され得る。また、基準特徴量距離がマンハッタン距離として規定される場合は、基準特徴量空間において基準特徴量範囲は矩形として表され得る。 For example, the reference feature amount range determination unit 247 determines a reference image that serves as a reference from the learning image and the inspection image, calculates the distance between each other image and the reference image defined by the reference feature amount, and The reference feature amount range may be determined based on the distance. Specifically, the reference feature amount range determining unit 247 determines a threshold value for a distance defined by the reference feature amount from the reference image (reference feature amount distance), and determines that the reference feature amount distance from the reference image is A range equal to or less than the threshold may be determined as the reference feature value range. Here, the method for calculating the distance can be arbitrarily set, but may include, for example, Euclidean distance, Mahalanobis distance, Manhattan distance, and the like. Further, the threshold value may be the reference feature amount distance for an image having a predetermined order of the reference feature amount distance from the reference image among the learning images and the inspection images. In this case, the reference feature amount range includes images up to a predetermined order of the reference feature amount distance from the reference image among the learning images and the inspection images. Alternatively, the threshold may be a predetermined value. In this case, the reference feature amount range includes images whose reference feature amount distance from the reference image is up to a predetermined value among the learning images and the inspection images. Note that when the reference feature amount distance is defined as the Euclidean distance, the reference feature amount range can be represented as a circle in the reference feature amount space. Also, when the reference feature amount distance is defined as the Mahalanobis distance, the reference feature amount range can be represented as an ellipse in the reference feature amount space. Also, when the reference feature amount distance is defined as the Manhattan distance, the reference feature amount range can be represented as a rectangle in the reference feature amount space.

或いは、基準特徴量範囲の決定においては、基準画像が決定される必要は必ずしもない。例えば、基準特徴量範囲決定部247は、基準特徴量によって規定される空間である基準特徴量空間における任意の領域を指定する操作を受け付け、当該領域に基づいて基準特徴量範囲を決定してもよい。具体的には、基準特徴量範囲決定部247は、操作者によるドラッグ等の操作により描画された基準特徴量空間内の任意の領域の指定を受け付けた上で、当該領域を基準特徴量範囲として決定さしてもよい。当該領域の形状は、円形に限らず、矩形や他の多角形、それら形状の略形状の他、フリーハンド等で描画された任意の不定形の形状を含んでもよい。 Alternatively, in determining the reference feature amount range, it is not always necessary to determine the reference image. For example, the reference feature amount range determination unit 247 may receive an operation to specify an arbitrary area in the reference feature amount space, which is a space defined by the reference feature amount, and determine the reference feature amount range based on the area. good. Specifically, the reference feature amount range determination unit 247 accepts designation of an arbitrary area within the reference feature amount space drawn by the operator's operation such as dragging, and then designates the area as the reference feature amount range. You may decide. The shape of the area is not limited to a circle, and may include rectangles, other polygons, approximate shapes thereof, and arbitrary irregular shapes drawn freehand or the like.

画像抽出部248は、学習画像及び/又は検査画像から所望の画像を抽出する。例えば、画像抽出部248は、学習画像及び/検査画像のうち、基準特徴量が基準特徴量範囲に含まれる画像を抽出する。具体的には、抽出の対象となる画像(学習画像及び/又は検査画像)毎に、記憶部23等に当該画像に対応付けて記憶された基準特徴量を特定し、特定された基準特徴量が基準特徴量範囲に含まれるか否かを判定する。特定された基準特徴量が基準特徴量範囲に含まれると判定された場合は、画像抽出部248は、当該画像を抽出する。特定された基準特徴量が基準特徴量範囲に含まれないと判定された場合は、画像抽出部248は、当該画像を抽出しない。 The image extractor 248 extracts desired images from the learning images and/or inspection images. For example, the image extraction unit 248 extracts an image whose reference feature amount is included in the reference feature amount range from the learning images and/or inspection images. Specifically, for each image (learning image and/or inspection image) to be extracted, a reference feature value stored in association with the image in the storage unit 23 or the like is specified, and the specified reference feature value is included in the reference feature value range. When it is determined that the specified reference feature amount is included in the reference feature amount range, the image extraction unit 248 extracts the image. When it is determined that the specified reference feature amount is not included in the reference feature amount range, the image extraction unit 248 does not extract the image.

表示制御部249は、各種の表示データに基づいて、表示部21に各種の画面や情報を表示させる。表示制御部249は、例えば、記憶部23に記憶された学習データ及び/又は検査データに含まれる各種の情報に基づいて表示データを生成し、当該表示データに基づいて学習データ及び/又は検査データに含まれる各種の情報を表示部21に表示させる。具体的には、表示制御部249は、学習画像及び/又は検査画像を表示部21に表示させる。表示の対象となる学習画像及び/又は検査画像は、例えば、画像抽出部248に抽出された学習画像及び/又は検査画像であってもよいが、操作者が任意に選択した学習画像及び/又は検査画像を表示部21に表示させてもよい。また、表示制御部249は、記憶部23等に記憶された各学習データ及び/又は各検査データの項目(特徴量やラベル等)を表示部21に表示させてもよい。また、表示制御部249は、記憶部23等において学習画像及び/又は検査画像それぞれに対応付けられた各特徴量のリストである特徴量リストを表示部21に表示させてもよい。また、表示制御部249は、所定の特徴量によって規定される空間(特徴量空間)における学習画像及び/又は検査画像の代表点を表示部21に表示させてもよい。 The display control unit 249 causes the display unit 21 to display various screens and information based on various display data. For example, the display control unit 249 generates display data based on various information included in the learning data and/or inspection data stored in the storage unit 23, and generates learning data and/or inspection data based on the display data. , is displayed on the display unit 21 . Specifically, the display control unit 249 causes the display unit 21 to display the learning image and/or the inspection image. The learning image and/or inspection image to be displayed may be, for example, the learning image and/or inspection image extracted by the image extracting unit 248, but may be a learning image and/or inspection image arbitrarily selected by the operator. The inspection image may be displayed on the display unit 21 . In addition, the display control unit 249 may cause the display unit 21 to display items (feature amounts, labels, etc.) of each learning data and/or each inspection data stored in the storage unit 23 or the like. Further, the display control unit 249 may cause the display unit 21 to display a feature amount list, which is a list of each feature amount associated with each of the learning images and/or inspection images in the storage unit 23 or the like. Further, the display control unit 249 may cause the display unit 21 to display representative points of the learning image and/or the inspection image in a space defined by a predetermined feature amount (feature amount space).

図5は、本実施形態に係る検査システム1が実行する学習処理の動作フローの一例を示す図である。 FIG. 5 is a diagram showing an example of an operation flow of learning processing executed by the inspection system 1 according to this embodiment.

(S101)まず、撮像装置10を用いて学習用の対象物Wを撮像することにより、学習画像を生成する。具体的には、例えば、撮像制御部241は、操作者が操作部22を操作することに応じて、撮像装置10を制御して学習用の対象物Wを撮像する。これにより、対象物Wが撮像された学習画像が生成される。生成する学習画像の数は、特に限定されず、1つ又は2つ以上であってよい。 (S101) First, a learning image is generated by capturing an image of the object W for learning using the imaging device 10 . Specifically, for example, the imaging control unit 241 controls the imaging device 10 to capture an image of the learning object W in response to the operator's operation of the operation unit 22 . As a result, a learning image in which the object W is captured is generated. The number of learning images to be generated is not particularly limited, and may be one or two or more.

なお、当該ステップS201においては、予め対象物Wを操作者により良品と不良品とに分けた上で、良品対象物W及び不良品対象物Wとを別々に撮像して学習画像を生成してもよい。この場合、例えば後述するステップS202等において、まとめて撮像された学習画像について、一括で「良品」又は「不良品」のラベルを付与することが可能となる。 In step S201, the operator divides the target object W into non-defective products and defective products in advance, and then images the non-defective target object W and the defective target object W separately to generate learning images. good too. In this case, for example, in step S202, which will be described later, it is possible to collectively assign a label of "non-defective product" or "defective product" to the collectively captured learning images.

(S102)次に、各学習画像にラベルを付与する。例えば、操作者は、操作部22を介した操作によって表示部21に各学習画像を表示させた上で、各学習画像に対して「良品」又は「不良品」のラベルを付与する操作を操作部22に対して行う。或いは、操作者は、対象物Wを目視することにより良品か不良品かを判断した上で、当該対象物Wに対応する各学習画像に対して「良品」又は「不良品」のラベルを付与する操作を操作部22に対して行ってもよい。当該操作に応じて、前処理部242は、付与されたラベルを学習画像に対応付けて記憶部23に記憶させる。これにより、付与されたラベルは、学習データの一部として記憶部23に記憶される。 (S102) Next, each learning image is labeled. For example, the operator causes the display unit 21 to display each learning image by operating the operation unit 22, and then performs an operation of assigning a “non-defective product” or “defective product” label to each learning image. This is done for the part 22 . Alternatively, the operator visually checks the object W to determine whether it is a non-defective product or a defective product, and then assigns a “non-defective product” or “defective product” label to each learning image corresponding to the target object W. You may perform operation to the operation part 22 to carry out. In response to the operation, the preprocessing unit 242 causes the storage unit 23 to store the assigned label in association with the learning image. As a result, the assigned label is stored in the storage unit 23 as part of the learning data.

(S103)次に、特徴量抽出部243は、各学習画像から特徴量を抽出した上で、当該特徴量を学習画像に対応付けて記憶部23に記憶させる。これにより、特徴量は、学習データの一部として記憶部23に記憶される。特徴量抽出部243が抽出する特徴量の数は、1つであってもよいし、2つ以上であってもよい。また、特徴量の種類は、特に限定されず、例えば学習画像を構成する各画素に対応付けられた色相、彩度、及び明度等のパラメータの他、当該パラメータから得られる平均周波数、エントロピー、平均輝度等であってよい。或いは、特徴量は、例えば、対象物の色、対象物のエッジ情報、対象物の位置等であってよい。エッジ情報には、エッジの位置、形状、長さ等が含まれてよい。対象物の位置は、対象物事態の位置の他、対象物の一部の位置も含まれる。 (S103) Next, after extracting a feature amount from each learning image, the feature amount extraction unit 243 stores the feature amount in the storage unit 23 in association with the learning image. Thereby, the feature amount is stored in the storage unit 23 as part of the learning data. The number of feature amounts extracted by the feature amount extraction unit 243 may be one, or may be two or more. In addition, the type of the feature amount is not particularly limited, for example, parameters such as hue, saturation, and brightness associated with each pixel constituting the learning image, and average frequency, entropy, and average frequency obtained from the parameters It may be luminance or the like. Alternatively, the feature amount may be, for example, the color of the object, the edge information of the object, the position of the object, or the like. The edge information may include the position, shape, length, etc. of the edge. The position of an object includes the position of a part of the object as well as the position of the object.

(S104)次に、機械学習実行部244は、記憶部23に記憶された学習データを用いた機械学習により、分類器23cを生成する。生成された分類器23cは、例えば、記憶部23に記憶される。機械学習の方法は特に限定されないが、例えばディープラーニング、遺伝的アルゴリズム(GA)等であってよい。以上で、学習処理が終了する。 (S104) Next, the machine learning execution unit 244 generates the classifier 23c by machine learning using the learning data stored in the storage unit 23. FIG. The generated classifier 23c is stored in the storage unit 23, for example. The machine learning method is not particularly limited, and may be, for example, deep learning, genetic algorithm (GA), or the like. With this, the learning process ends.

図6は、本実施形態に係る検査システム1が実行する検査処理の動作フローの一例を示す図である。 FIG. 6 is a diagram showing an example of an operation flow of inspection processing executed by the inspection system 1 according to this embodiment.

(S201)まず、撮像装置10を用いて検査対象の対象物Wを撮像することにより、検査画像を生成する。具体的には、例えば、撮像制御部241は、操作者が操作部22を操作することに応じて、撮像装置10を制御して検査対象の対象物Wを撮像する。これにより、対象物Wが撮像された検査画像が生成される。生成する検査画像の数は、特に限定されず、1つ又は2つ以上であってよい。 (S201) First, an inspection image is generated by capturing an image of the object W to be inspected using the imaging device 10 . Specifically, for example, the imaging control unit 241 controls the imaging device 10 and images the object W to be inspected in response to the operator's operation of the operation unit 22 . As a result, an inspection image in which the object W is imaged is generated. The number of inspection images to be generated is not particularly limited, and may be one or two or more.

(S202)次に、特徴量抽出部243は、各検査画像から特徴量を抽出した上で、当該特徴量を検査画像に対応付けて記憶部23に記憶させる。これにより、特徴量は、検査データの一部として記憶部23に記憶される。特徴量抽出部243が抽出する特徴量は、少なくとも、上述した学習処理において学習画像から抽出した特徴量を含んでもよい。すなわち、特徴量抽出部243が抽出する特徴量の数は、1つであってもよいし、2つ以上であってもよい。また、特徴量の種類は、特に限定されず、例えば検査画像を構成する各画素に対応付けられた色相、彩度、及び明度等のパラメータの他、当該パラメータから得られる平均周波数、エントロピー、平均輝度等であってよい。或いは、特徴量は、例えば、対象物の色、対象物のエッジ情報、対象物の位置等であってよい。エッジ情報には、エッジの位置、形状、長さ等が含まれてよい。対象物の位置は、対象物事態の位置の他、対象物の一部の位置も含まれる。 (S202) Next, the feature quantity extraction unit 243 extracts a feature quantity from each inspection image, and stores the feature quantity in the storage unit 23 in association with the inspection image. Thereby, the feature amount is stored in the storage unit 23 as part of the inspection data. The feature amount extracted by the feature amount extraction unit 243 may include at least the feature amount extracted from the learning image in the learning process described above. That is, the number of feature amounts extracted by the feature amount extraction unit 243 may be one, or may be two or more. In addition, the type of the feature amount is not particularly limited. It may be luminance or the like. Alternatively, the feature amount may be, for example, the color of the object, the edge information of the object, the position of the object, or the like. The edge information may include the position, shape, length, etc. of the edge. The position of an object includes the position of a part of the object as well as the position of the object.

(S203)分類実行部245は、検査画像に係る検査データを分類器23cに入力して当該検査画像の属性(「良品」及び「不良品」等)を出力させることにより、対象物Wについての検査を実行する。分類実行部245は、出力された検査画像の属性を、検査データに対応付けて記憶部23に記憶させる。以上で、検査処理が終了する。 (S203) The classification executing unit 245 inputs the inspection data related to the inspection image to the classifier 23c, and outputs the attributes of the inspection image (“non-defective product”, “defective product”, etc.). Run an inspection. The classification executing unit 245 stores the attribute of the output inspection image in the storage unit 23 in association with the inspection data. With this, the inspection process is completed.

図7は、本実施形態に係る検査システム1が実行する画面表示処理の動作フローの一例を示す図である。 FIG. 7 is a diagram showing an example of an operation flow of screen display processing executed by the inspection system 1 according to this embodiment.

(S301)まず、基準特徴決定部246は、第1特徴から第n特徴のうち、少なくとも1つの特徴を基準特徴として決定する。 (S301) First, the reference feature determination unit 246 determines at least one feature from among the first to n-th features as a reference feature.

基準特徴決定部246は、例えば、操作者による基準特徴の選択を受け付け、当該選択に応じて基準特徴を決定してもよい。基準特徴の選択は、例えば、図8に示す画面1000において行うことができる。画面1000は、例えば、表示制御部249によって、記憶部23に記憶された学習データ及び検査データに基づいて表示部21に表示される。画面1000は、例えば、学習画像及び/又は検査画像それぞれに対応付けられた各特徴量のリストである特徴量リスト1001を含んでよい。特徴量リスト1001には、学習画像及び検査画像について、画像ID、種別、ラベル、及び特徴量が示されている。特徴量の種類は、1つ又は複数であってよい。図8では、一例として、第1特徴量から第4特徴量までが示されている。特徴量リストにおける各画像の並び順は、特に限定されないが、図8では一例として、学習画像及び検査画像が画像IDの順に並んでいる。特徴量リストは、画像ID、種別、ラベル、及び特徴量等の各項目についてソート可能であってよく、表示制御部249は、任意の項目についてソートが選択されると、特徴量リストにおいて当該項目の順(昇順又は降順等)に各行を並べ替えてよい。 The reference feature determining unit 246 may, for example, accept selection of a reference feature by the operator and determine the reference feature according to the selection. The selection of reference features can be made, for example, in screen 1000 shown in FIG. The screen 1000 is displayed on the display unit 21 by the display control unit 249 based on the learning data and inspection data stored in the storage unit 23, for example. The screen 1000 may include, for example, a feature quantity list 1001 that is a list of each feature quantity associated with each of the learning images and/or inspection images. The feature amount list 1001 shows image IDs, types, labels, and feature amounts for learning images and inspection images. There may be one or more types of feature quantity. In FIG. 8, the first to fourth feature amounts are shown as an example. The order in which the images are arranged in the feature quantity list is not particularly limited, but in FIG. 8, as an example, the learning images and the inspection images are arranged in order of image ID. The feature quantity list may be sortable for each item such as image ID, type, label, and feature quantity. (ascending or descending order, etc.).

操作者は、例えば、特徴量リストに含まれる第1行目の「第1特徴量」などと表示されたセルを選択することにより、所望の基準特徴を選択することができる。当該選択に応じて、基準特徴決定部246は、選択されたセルに対応する特徴を基準特徴として決定する。特徴量リストにおいて、基準特徴が決定されると、表示制御部249は、当該基準特徴に対応する特徴量である基準特徴量によって特徴量リストをソートして表示してもよい。 The operator can select a desired reference feature, for example, by selecting a cell labeled "first feature" in the first row included in the feature list. According to the selection, the reference feature determining unit 246 determines the feature corresponding to the selected cell as the reference feature. When the reference feature is determined in the feature amount list, the display control unit 249 may sort and display the feature amount list according to the reference feature amount, which is the feature amount corresponding to the reference feature.

なお、ステップS301では、基準特徴決定部246は、例えば、フィルタ法、ラッパー法、及び組み込み法等の所定の特徴選択アルゴリズムを用いて特徴を選択することにより、特徴を決定してもよい。基準特徴決定部246は、例えば、特徴選択アルゴリズムによる基準特徴の決定を指示する操作を操作者が行ったことに応じて、特徴選択アルゴリズムを用いて特徴を選択し、基準特徴を決定してもよい。 Note that in step S301, the reference feature determination unit 246 may determine features by selecting features using a predetermined feature selection algorithm such as a filter method, a wrapper method, and an embedding method. For example, the reference feature determination unit 246 selects features using the feature selection algorithm and determines the reference features in response to the operator performing an operation to instruct the determination of the reference features by the feature selection algorithm. good.

(S302)次に、表示制御部249は、操作者による操作部22を介した操作に応じて、基準特徴量空間における学習画像及び/又は検査画像の代表点を表示部21に表示させる。ここで、基準特徴量空間は、上述したステップS301で決定された少なくとも1つの基準特徴量によって規定される空間である。表示制御部249は、例えば、図9に示す画面2000を表示部21に表示させる。画面2000は、基準特徴量空間のグラフ表示2001を含む。 (S302) Next, the display control unit 249 causes the display unit 21 to display the representative points of the learning image and/or the inspection image in the reference feature amount space according to the operator's operation via the operation unit 22 . Here, the reference feature amount space is a space defined by at least one reference feature amount determined in step S301 described above. The display control unit 249 causes the display unit 21 to display, for example, a screen 2000 shown in FIG. A screen 2000 includes a graphical representation 2001 of the reference feature space.

図9では、一例として、基準特徴決定部246により決定された基準特徴が第p特徴及び第q特徴である場合、すなわち基準特徴量が第p特徴量及び第q特徴量である場合における、基準特徴量空間のグラフ表示2001が示されている。図9に示す基準特徴量空間のグラフ表示2001において、横軸は第p特徴量を示しており、縦軸は第q特徴量を示している。 In FIG. 9, as an example, when the reference features determined by the reference feature determination unit 246 are the p-th feature and the q-th feature, that is, when the reference feature amounts are the p-th feature amount and the q-th feature amount, the reference A graphical representation 2001 of feature space is shown. In the graph representation 2001 of the reference feature amount space shown in FIG. 9, the horizontal axis indicates the p-th feature amount, and the vertical axis indicates the q-th feature amount.

図9に示すように、基準特徴量空間のグラフ表示2001は、各画像(学習画像及び/又は検査画像)の基準特徴量に対応する位置に配置されたプロット(代表点)を含んでもよい。図9においては、白い丸印は、良品のラベルが付された学習画像(良品学習画像)のプロットを示し、白い三角印は、不良品のラベルが付された学習画像(不良品学習画像)のプロットを示し、黒い丸印は、良品のラベルが付された検査画像(良品検査画像)のプロットを示し、黒い三角印は、不良品のラベルが付された検査画像(不良品学習画像)のプロットを示している。表示制御部249は、これらプロットの表示の有無や態様を、例えば、操作者による操作部22を介した操作等に応じて、任意に切り替え可能であってもよい。例えば、表示制御部249は、基準特徴量空間のグラフ表示2001において、操作部22に対する操作等に応じて、学習画像(の全部又は一部)のプロットのみを表示してもよい、検査画像(の全部又は一部)のプロットのみを表示してもよいし、学習画像(の全部又は一部)のプロット及び検査画像(の全部又は一部)のプロットの両方を表示してよい。また、表示制御部249は、各プロットに対応付けた態様で、各画像(学習画像又は検査画像)に対応付けられたラベルや各特徴量(基準特徴量以外の特徴量を含む)を表示してもよい。 As shown in FIG. 9, a graphical representation 2001 of the reference feature space may include plots (representative points) arranged at positions corresponding to reference features of each image (learning image and/or test image). In FIG. 9, white circles indicate plots of learning images labeled as good products (good product learning images), and white triangles indicate learning images labeled as defective products (defective product learning images). , black circles indicate plots of inspection images labeled as good (good inspection images), and black triangles indicate inspection images labeled as defective (defective learning images). plots are shown. The display control unit 249 may be able to arbitrarily switch the presence or absence of display of these plots and the manner thereof, for example, according to the operation of the operator via the operation unit 22 or the like. For example, in the graph display 2001 of the reference feature space, the display control unit 249 may display only the plot of (all or part of) the learning image in accordance with the operation of the operation unit 22, or the inspection image ( Only plots of (all or part of) may be displayed, or both plots of (all or part of) training images and plots of (all or part of) test images may be displayed. In addition, the display control unit 249 displays the label associated with each image (learning image or inspection image) and each feature amount (including feature amounts other than the reference feature amount) in a manner associated with each plot. may

(S303)次に、基準特徴量範囲決定部247は、基準特徴量によって規定される空間における所定の範囲である基準特徴量範囲を決定する。 (S303) Next, the reference feature amount range determination unit 247 determines a reference feature amount range, which is a predetermined range in the space defined by the reference feature amount.

基準特徴量範囲は、図8に示した特徴量リスト1001に対する操作に応じて決定されてもよい。例えば、基準特徴量範囲決定部247は、操作者が特徴量リスト1001において所望の学習画像又は検査画像を選択すると、当該選択された学習画像又は検査画像を基準画像として決定する。操作者は、例えば、特徴量リストに含まれるいずれかの行を選択することにより、当該行に対応する画像を基準画像として選択することができる。当該選択に応じて、基準特徴量範囲決定部247は、選択された行に対応する画像を基準画像として決定する。なお、特徴量リスト1001において、特定の画像に対応する行及び特定の特徴量に対応する列のセルを選択することにより、上述した基準特徴及び基準画像を同時に選択することが可能であってもよい。すなわち、例えば、図8に示す画像ID「L-0001」の学習画像についての第1特徴量「91」のセルが選択された場合は、基準特徴決定部246は、第1特徴(第1特徴量)を基準特徴(基準特徴量)として決定し、画像抽出部248は、画像ID「L-0001」の学習画像を基準画像として決定してもよい。 The reference feature amount range may be determined according to an operation on the feature amount list 1001 shown in FIG. For example, when the operator selects a desired learning image or inspection image in the feature amount list 1001, the reference feature amount range determination unit 247 determines the selected learning image or inspection image as the reference image. For example, by selecting any row included in the feature list, the operator can select the image corresponding to that row as the reference image. According to the selection, the reference feature amount range determination unit 247 determines the image corresponding to the selected row as the reference image. In the feature amount list 1001, even if it is possible to select the reference feature and the reference image at the same time by selecting the cell in the row corresponding to the specific image and the column corresponding to the specific feature amount. good. That is, for example, when the cell with the first feature amount “91” for the learning image with the image ID “L-0001” shown in FIG. amount) as the reference feature (reference feature amount), and the image extraction unit 248 may decide the learning image with the image ID “L-0001” as the reference image.

そして、基準特徴量範囲決定部247は、基準画像からの基準特徴量によって規定される距離(基準特徴量距離)についての閾値を決定した上で、基準画像からの基準特徴量距離が当該閾値以下となる範囲を、基準特徴量範囲として決定する。ここで、閾値は、各学習画像及び各検査画像のうち、基準画像からの基準特徴量距離が予め定められた順位である画像についての当該基準特徴量距離であってもよい。この場合、基準特徴量範囲には、各学習画像及び各検査画像のうち、基準画像からの基準特徴量距離が予め定められた順位までの画像が含まれることとなる。或いは、閾値は、予め定められた値であってもよい。この場合、基準特徴量範囲には、各学習画像及び各検査画像のうち、基準画像からの基準特徴量距離が予め定められた値までの画像が含まれることとなる。 Then, the reference feature amount range determining unit 247 determines a threshold for the distance defined by the reference feature amount from the reference image (reference feature amount distance), and then determines that the reference feature amount distance from the reference image is equal to or less than the threshold. is determined as the reference feature amount range. Here, the threshold value may be the reference feature amount distance for an image having a predetermined order of the reference feature amount distance from the reference image among the learning images and the inspection images. In this case, the reference feature amount range includes images up to a predetermined order of the reference feature amount distance from the reference image among the learning images and the inspection images. Alternatively, the threshold may be a predetermined value. In this case, the reference feature amount range includes images whose reference feature amount distance from the reference image is up to a predetermined value among the learning images and the inspection images.

基準特徴量範囲は、図9に示した基準特徴量空間のグラフ表示2001に対する操作に応じて決定されてもよい。例えば、基準特徴量範囲決定部247は、操作者が基準特徴量空間のグラフ表示2001において所望の学習画像又は検査画像を選択すると、当該選択された学習画像又は検査画像を基準画像として決定する。操作者は、基準特徴量空間のグラフ表示2001に示された任意のプロットを、基準画像として選択することができる。図9には、一例として、符号Aが付された略五角形のオブジェクトに囲まれた黒丸印のプロットに対応する画像(良品検査画像A)が、基準画像として選択されている場合が示されている。 The reference feature amount range may be determined according to an operation on the graph representation 2001 of the reference feature amount space shown in FIG. For example, when the operator selects a desired learning image or inspection image in the graph display 2001 of the reference feature space, the reference feature amount range determination unit 247 determines the selected learning image or inspection image as the reference image. The operator can select any plot shown in the graphical representation 2001 of the reference feature amount space as the reference image. FIG. 9 shows, as an example, a case where an image (non-defective product inspection image A) corresponding to a plot of black circles surrounded by approximately pentagonal objects labeled A is selected as a reference image. there is

そして、基準特徴量範囲決定部247は、基準画像からの基準特徴量によって規定される距離(基準特徴量距離)についての閾値を決定した上で、基準画像からの基準特徴量距離が当該閾値以下となる範囲を、基準特徴量範囲として決定する。閾値は、予め定められた値であってもよい。換言すれば、基準特徴量範囲には、各学習画像及び各検査画像のうち、基準画像からの基準特徴量距離が予め定められた値までの画像が含まれることとなる。例えば図9では、閾値は予め定められた値dである。すなわち、基準画像である良品検査画像Aのプロットを中心とする半径dの円Mが基準特徴量範囲となる。このように、当該特徴量空間における基準画像からの距離(基準特徴量距離)が所定閾値以内となる範囲が基準特徴量範囲となる。なお、閾値は、各学習画像及び各検査画像のうち、基準画像からの基準特徴量距離が予め定められた順位である画像についての当該基準特徴量距離であってもよい。なお、図9に示した基準特徴量範囲は、基準特徴量距離がユークリッド距離として規定される場合の一例である。基準特徴量距離がマハラノビス距離として規定される場合は、基準特徴量空間において基準特徴量範囲は楕円形として表され得る。また、基準特徴量距離がマンハッタン距離として規定される場合は、基準特徴量空間において基準特徴量範囲は矩形として表され得る。 Then, the reference feature amount range determining unit 247 determines a threshold for the distance defined by the reference feature amount from the reference image (reference feature amount distance), and then determines that the reference feature amount distance from the reference image is equal to or less than the threshold. is determined as the reference feature amount range. The threshold may be a predetermined value. In other words, the reference feature amount range includes images whose reference feature amount distance from the reference image is up to a predetermined value among the learning images and the inspection images. For example, in FIG. 9, the threshold is a predetermined value d. That is, the circle M with a radius d centered on the plot of the non-defective product inspection image A, which is the reference image, is the reference feature amount range. In this way, the range in which the distance from the reference image in the feature amount space (reference feature amount distance) is within a predetermined threshold is the reference feature amount range. Note that the threshold value may be the reference feature amount distance for an image having a predetermined order of the reference feature amount distance from the reference image among the learning images and the inspection images. Note that the reference feature amount range shown in FIG. 9 is an example when the reference feature amount distance is defined as the Euclidean distance. If the reference feature distance is defined as the Mahalanobis distance, the reference feature range can be represented as an ellipse in the reference feature space. Also, when the reference feature amount distance is defined as the Manhattan distance, the reference feature amount range can be represented as a rectangle in the reference feature amount space.

基準特徴量範囲の決定においては、基準特徴量空間のグラフ表示2001において、基準画像が決定される必要は必ずしもない。例えば、基準特徴量範囲決定部247は、基準特徴量空間における任意の領域を指定する操作を受け付け、当該領域に基づいて基準特徴量範囲を決定してもよい。具体的には、基準特徴量範囲決定部247は、操作者によるドラッグ等の操作により描画された基準特徴量空間内の任意の領域の指定を受け付ける。そして、基準特徴量範囲決定部247は、当該領域を基準特徴量範囲として決定されてもよい。当該領域の形状は、円形に限らず、矩形や他の多角形、それら形状の略形状の他、フリーハンド等で描画された任意の不定形の形状を含んでもよい。 In determining the reference feature amount range, it is not always necessary to determine the reference image in the graphical display 2001 of the reference feature amount space. For example, the reference feature amount range determination unit 247 may receive an operation to specify an arbitrary area in the reference feature amount space, and determine the reference feature amount range based on the area. Specifically, the reference feature amount range determination unit 247 accepts designation of an arbitrary area within the reference feature amount space drawn by an operation such as dragging by the operator. Then, the reference feature amount range determination unit 247 may determine the region as the reference feature amount range. The shape of the area is not limited to a circle, and may include rectangles, other polygons, approximate shapes thereof, and arbitrary irregular shapes drawn freehand or the like.

(S304)次に、画像抽出部248は、各学習画像及び/各検査画像のうち、基準特徴量が上述したステップS303により決定された基準特徴量範囲に含まれる画像を抽出する。具体的には、抽出の対象となる画像(学習画像及び/又は検査画像)毎に、記憶部23に当該画像に対応付けて記憶された基準特徴量を特定し、特定された基準特徴量が上述したステップS303により決定された基準特徴量範囲に含まれるか否かを判定する。特定された基準特徴量が基準特徴量範囲に含まれると判定された場合は、画像抽出部248は、当該画像を抽出する。特定された基準特徴量が基準特徴量範囲に含まれないと判定された場合は、画像抽出部248は、当該画像を抽出しない。 (S304) Next, the image extraction unit 248 extracts images whose reference feature amounts are included in the reference feature amount range determined in step S303 described above, from among the learning images and/or inspection images. Specifically, for each image (learning image and/or inspection image) to be extracted, a reference feature amount stored in association with the image in the storage unit 23 is specified, and the specified reference feature amount is It is determined whether or not it is included in the reference feature amount range determined in step S303 described above. When it is determined that the specified reference feature amount is included in the reference feature amount range, the image extraction unit 248 extracts the image. When it is determined that the specified reference feature amount is not included in the reference feature amount range, the image extraction unit 248 does not extract the image.

図9の基準特徴量空間のグラフ表示2001には、一例として、円Mの円周又は内部に、符号Bが付された略四角形のオブジェクトに囲まれた白丸印のプロットと、符号Cが付された略四角形のオブジェクトに囲まれた黒丸印のプロットと、符号Dが付された略四角形のオブジェクトに囲まれた黒三角印のプロットとが示されている。これは、円Mで表される基準特徴量範囲に対して、良品学習画像B、良品検査画像C、及び不良品検査画像Dがそれぞれ抽出されたことが示されている。換言すれば、良品学習画像B、良品検査画像C、及び不良品検査画像Dそれぞれの第p特徴量及び第q特徴量で表される位置座標と、基準画像である良品検査画像Aの第p特徴量及び第q特徴量で表される位置座標との距離は、d以内となる。 As an example, the graph display 2001 of the reference feature amount space in FIG. A plot of black circles surrounded by substantially rectangular objects marked with D and a plot of black triangles surrounded by substantially rectangular objects labeled D are shown. This indicates that the non-defective product learning image B, the non-defective product inspection image C, and the defective product inspection image D are extracted from the reference feature amount range represented by the circle M. In other words, the position coordinates represented by the p-th feature amount and the q-th feature amount of the non-defective product learning image B, the non-defective product inspection image C, and the defective product inspection image D, respectively, and the p-th feature value of the non-defective product inspection image A, which is the reference image. The distance to the position coordinates represented by the feature amount and the q-th feature amount is within d.

(S305)次に、表示制御部249は、画像抽出部248により抽出された画像(学習画像及び/又は検査画像)について、記憶部23から画像データを取得した上で、当該画像データに基づいて抽出された画像を表示部21に表示させる。図10は、画像抽出部248により抽出された画像が表示された画面3000の一例を示す。図10に示すように、画面3000には、基準特徴量空間のグラフ表示3001が含まれる。当該グラフ表示3001は、図9に示したグラフ表示2001と実質的に同一であってよい。また、図10に示すように、画面3000には、基準画像の表示領域3002と、基準画像以外の抽出された画像の表示領域3003とが含まれる。 (S305) Next, the display control unit 249 obtains image data from the storage unit 23 for the images (learning images and/or inspection images) extracted by the image extracting unit 248, and based on the image data, The extracted image is displayed on the display unit 21 . FIG. 10 shows an example of a screen 3000 on which an image extracted by the image extractor 248 is displayed. As shown in FIG. 10, a screen 3000 includes a graphical representation 3001 of the reference feature space. The graphical representation 3001 may be substantially identical to the graphical representation 2001 shown in FIG. Further, as shown in FIG. 10, the screen 3000 includes a reference image display area 3002 and an extracted image display area 3003 other than the reference image.

基準画像の表示領域3002には、例えば、基準画像である良品検査画像Aのイメージの他、種別、画像ID、画像に付されたラベル、基準特徴量(第p特徴量及び第q特徴量)が含まれる。なお、当該表示領域3002には、基準画像(良品検査画像A)の基準特徴量以外の特徴量が含まれてもよい。なお、上述したように、基準画像が決定されずに基準特徴量範囲が決定された場合は、画面3000には、基準画像の表示領域3002は含まれなくてもよい。 In the display area 3002 of the reference image, for example, in addition to the image of the non-defective product inspection image A that is the reference image, the type, image ID, label attached to the image, reference feature amount (p-th feature amount and q-th feature amount) is included. Note that the display area 3002 may include feature amounts other than the reference feature amount of the reference image (non-defective product inspection image A). As described above, when the reference feature amount range is determined without determining the reference image, the screen 3000 may not include the display area 3002 of the reference image.

基準画像の表示領域3003には、例えば、抽出された画像である良品学習画像B、良品検査画像C、及び不良品検査画像Dそれぞれのイメージの他、種別、画像ID、画像に付されたラベル或いは分類器23cにより判定されたラベル、基準特徴量(第p特徴量及び第q特徴量)が含まれる。なお、当該表示領域3003には、基準画像(良品検査画像A)の基準特徴量以外の特徴量が含まれてもよい。なお、上述したように、基準画像が決定されずに基準特徴量範囲が決定された場合は、画面3000には、基準画像の表示領域3002は含まれなくてもよい。 In the display area 3003 of the reference image, for example, in addition to each image of the good product learning image B, the good product inspection image C, and the defective product inspection image D, which are the extracted images, the type, the image ID, and the label attached to the image are displayed. Alternatively, the label determined by the classifier 23c and the reference feature amount (p-th feature amount and q-th feature amount) are included. Note that the display area 3003 may include feature amounts other than the reference feature amount of the reference image (non-defective product inspection image A). As described above, when the reference feature amount range is determined without determining the reference image, the screen 3000 may not include the display area 3002 of the reference image.

基準特徴量範囲決定部247は、基準特徴量空間のグラフ表示3001等に対する操作に応じて、基準画像や基準特徴量範囲等を更新してもよい。例えば、基準特徴量範囲決定部247は、グラフ表示3001におけるプロットの選択に応じて、選択されたプロットに対応する画像(学習画像又は検査画像)を新たな基準画像として決定することにより、基準画像を更新してもよい。また、例えば、基準特徴量範囲決定部247は、グラフ表示3001における基準特徴量範囲の領域を指定する操作に応じて、指定された領域を新たな基準特徴量範囲として決定することにより、基準特徴量範囲を更新してもよい。表示制御部249は、グラフ表示3001等に対する操作に応じて、基準画像や基準特徴量範囲等が更新された場合に、当該更新に応じて、画面3000に含まれる基準特徴量空間のグラフ表示3001や、画像の表示領域3002及び3003等の表示を更新してもよい。 The reference feature amount range determination unit 247 may update the reference image, the reference feature amount range, and the like in accordance with an operation on the graph display 3001 of the reference feature amount space. For example, the reference feature amount range determination unit 247 determines an image (learning image or inspection image) corresponding to the selected plot as a new reference image in response to selection of a plot in the graph display 3001, thereby obtaining a reference image. may be updated. Further, for example, the reference feature amount range determination unit 247 determines the designated area as a new reference feature amount range in response to an operation of designating the area of the reference feature amount range in the graph display 3001, thereby determining the reference feature amount range. Amount ranges may be updated. When the reference image, the reference feature amount range, and the like are updated in accordance with an operation on the graph display 3001 and the like, the display control unit 249 displays the graph display 3001 of the reference feature amount space included in the screen 3000 in accordance with the update. Alternatively, the display of the image display areas 3002 and 3003 may be updated.

以上のような本実施形態に係る検査システム1の構成により、操作者は、所望の画像(学習画像又は検査画像)のイメージ、特徴量、及びラベル等の情報を容易に確認することが可能となる。例えば、図10に示す例では、基準画像である良品検査画像Aのイメージに含まれる製品には欠損部分G1が生じている。そのため、良品検査画像Aは、本来であれば分類器23cにより「不良品」と判定されるべき画像である。そこで、基準特徴量空間のグラフ表示3001において円Mで表される基準特徴量範囲を確認すると、良品検査画像A(本来は「不良品」検査画像)からの基準特徴量によって規定される距離が近い学習画像として、良品学習画像B及び良品学習画像Dが抽出されていることが確認できる。ここで、良品学習画像B及び良品学習画像Dのイメージをそれぞれ確認すると、良品学習画像Bのイメージに含まれる製品には特段の問題は見られないものの、良品学習画像Dのイメージに含まれる製品には欠損部分G2が生じていることが分かる。そのため、良品学習画像Dは、本来は「不良品」のラベルが付与されるべきであったところ、これを誤って「良品」のラベルを付与してしまっていたことが判明する。そこで、操作者は、良品学習画像Dのラベルを「不良品」に変更することにより学習データを更新し、更新した新たな学習データに基づいて分類器23cを生成することが可能となる。このように、本実施形態に係る検査システム1では、分類器の基となる学習データが適切であるか否かを容易に確認することが可能となる。 With the configuration of the inspection system 1 according to the present embodiment as described above, the operator can easily confirm information such as the image, feature amount, and label of a desired image (learning image or inspection image). Become. For example, in the example shown in FIG. 10, the defective part G1 is generated in the product included in the non-defective product inspection image A, which is the reference image. Therefore, the non-defective product inspection image A is an image that should be determined as a "defective product" by the classifier 23c. Therefore, when confirming the reference feature amount range represented by the circle M in the graph display 3001 of the reference feature amount space, the distance defined by the reference feature amount from the non-defective product inspection image A (originally, the “defective product” inspection image) is It can be confirmed that the non-defective product learning image B and the non-defective product learning image D are extracted as similar learning images. Here, when the images of the non-defective product learning image B and the non-defective product learning image D are checked, although there is no particular problem in the product included in the image of the non-defective product learning image B, the product included in the image of the non-defective product learning image D It can be seen that there is a defective portion G2 in . Therefore, it is found that the non-defective product learning image D should have been given the label of "defective product", but was mistakenly labeled as "non-defective product". Therefore, the operator can update the learning data by changing the label of the non-defective product learning image D to "defective product" and generate the classifier 23c based on the updated new learning data. Thus, in the inspection system 1 according to this embodiment, it is possible to easily confirm whether or not the learning data that is the basis of the classifier is appropriate.

以上説明した実施形態は、あらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。つまり、本発明の実施にあたって、実施形態に応じた具体的構成が適宜採用されてもよい。なお、本実施形態において登場するデータを自然言語により説明しているが、より具体的には、コンピュータが認識可能な疑似言語、コマンド、パラメータ、マシン語等で指定される。 The embodiments described above are merely examples of the present invention in every respect. It goes without saying that various modifications and variations can be made without departing from the scope of the invention. That is, in implementing the present invention, a specific configuration according to the embodiment may be appropriately employed. Although the data appearing in this embodiment are explained in terms of natural language, more specifically, they are specified in computer-recognizable pseudo-language, commands, parameters, machine language, and the like.

1…検査システム、10…撮像装置10…情報処理装置、21…表示部、22…操作部、23…記憶部、23a…学習データ、23b…検査データ、23c…分類器、24…処理部、241…撮像制御部、242…前処理部、243…特徴量抽出部、244…機械学習実行部、245…分類実行部、246…基準特徴決定部、247…基準特徴量範囲決定部、248…画像抽出部、249…表示制御部、W…対象物、100…搬送装置 DESCRIPTION OF SYMBOLS 1... Inspection system 10... Imaging device 10... Information processing apparatus 21... Display part 22... Operation part 23... Storage part 23a... Learning data 23b... Inspection data 23c... Classifier 24... Processing part 241... Imaging control unit 242... Preprocessing unit 243... Feature amount extraction unit 244... Machine learning execution unit 245... Classification execution unit 246... Reference feature determination unit 247... Reference feature amount range determination unit 248... Image extraction unit 249 Display control unit W Target object 100 Conveying device

Claims (11)

画像の属性を判定する分類器の学習に用いる学習画像に対応付けて該学習画像の複数の特徴のそれぞれを示す複数の特徴量を記憶し、且つ前記分類器による分類の対象となる検査画像に対応付けて該検査画像の前記複数の特徴のそれぞれを示す複数の特徴量を記憶する記憶部にアクセス可能な情報処理装置であって、
表示部と、
前記複数の特徴から基準となる特徴である少なくとも1つの基準特徴を決定する基準特徴決定部と、
前記少なくとも1つの基準特徴を示す特徴量である少なくとも1つの基準特徴量によって規定される空間における範囲である基準特徴量範囲を決定する基準特徴量範囲決定部と、
前記学習画像及び/又は前記検査画像のうち、前記少なくとも1つの基準特徴量が前記基準特徴量範囲に含まれる学習画像及び/又は検査画像を抽出する画像抽出部と、
前記画像抽出部により抽出された学習画像及び/又は検査画像である抽出学習画像及び/又は抽出検査画像を前記表示部に表示させる表示制御部と、
を備える情報処理装置。
storing a plurality of feature quantities respectively representing a plurality of features of the learning image in association with a learning image used for learning a classifier for determining attributes of an image; An information processing device capable of accessing a storage unit that stores a plurality of feature amounts respectively representing the plurality of features of the inspection image in association with each other,
a display unit;
a reference feature determination unit that determines at least one reference feature that is a reference feature from the plurality of features;
a reference feature amount range determination unit that determines a reference feature amount range that is a range in a space defined by the at least one reference feature amount that is a feature amount that indicates the at least one reference feature;
an image extraction unit that extracts, from the learning images and/or the inspection images, a learning image and/or an inspection image in which the at least one reference feature amount is included in the reference feature amount range;
a display control unit that causes the display unit to display an extracted learning image and/or an extracted inspection image, which are learning images and/or inspection images extracted by the image extraction unit;
Information processing device.
前記基準特徴決定部は、操作者による選択に応じて、前記少なくとも1つの基準特徴を決定する、請求項1に記載の情報処理装置。 2. The information processing apparatus according to claim 1, wherein said reference feature determination unit determines said at least one reference feature according to selection by an operator. 前記基準特徴決定部は、所定の特徴選択アルゴリズムにより、前記少なくとも1つの基準特徴を決定する、請求項1又は2に記載の情報処理装置。 3. The information processing apparatus according to claim 1, wherein said reference feature determination unit determines said at least one reference feature by a predetermined feature selection algorithm. 前記基準特徴量範囲決定部は、
前記学習画像及び/又は前記検査画像から基準となる学習画像又は検査画像である基準画像を決定し、
前記基準画像からの前記少なくとも1つの基準特徴量によって規定される距離についての閾値を決定し、
前記基準画像からの前記距離が前記閾値以下となる範囲を前記基準特徴量範囲として決定する、請求項1から3のいずれか一項に記載の情報処理装置。
The reference feature value range determination unit,
determining a reference image that is a reference learning image or an inspection image from the learning image and/or the inspection image;
determining a threshold for the distance defined by the at least one reference feature from the reference image;
The information processing apparatus according to any one of claims 1 to 3, wherein the range in which the distance from the reference image is equal to or less than the threshold is determined as the reference feature amount range.
前記基準特徴量範囲決定部は、操作者による前記基準特徴量の領域を指定する操作を受け付け、指定された前記領域を前記基準特徴量範囲として決定する、請求項1から3のいずれか一項に記載の情報処理装置。 4. The reference feature value range determination unit according to any one of claims 1 to 3, wherein the reference feature value range determination unit receives an operation by an operator to specify the region of the reference feature value, and determines the specified region as the reference feature value range. The information processing device according to . 前記表示制御部は、更に、前記抽出学習画像に付与された属性を示す情報及び/又は前記抽出検査画像についての前記分類器により判定された属性を示す情報を、前記表示部に表示させる、請求項1から5のいずれか一項に記載の情報処理装置。 The display control unit further causes the display unit to display information indicating the attribute assigned to the extracted learning image and/or information indicating the attribute determined by the classifier for the extracted test image. Item 6. The information processing device according to any one of Items 1 to 5. 前記表示制御部は、更に、前記記憶部において前記抽出学習画像に対応付けられた前記少なくとも1つの基準特徴量及び/又は前記記憶部において前記抽出検査画像に対応付けられた前記少なくとも1つの基準特徴量を、前記表示部に表示させる、請求項1から6のいずれか一項に記載の情報処理装置。 The display control unit further includes the at least one reference feature associated with the extracted learning image in the storage unit and/or the at least one reference feature associated with the extracted inspection image in the storage unit. The information processing apparatus according to any one of claims 1 to 6, wherein the amount is displayed on the display unit. 前記表示制御部は、更に、前記少なくとも1つの基準特徴量によって規定される空間である基準特徴量空間における前記学習画像の代表点及び/又は前記検査画像の代表点を、前記表示部に表示させる、請求項1から7のいずれか一項に記載の情報処理装置。 The display control unit further causes the display unit to display a representative point of the learning image and/or a representative point of the inspection image in a reference feature amount space defined by the at least one reference feature amount. The information processing apparatus according to any one of claims 1 to 7. 前記表示制御部は、更に、前記学習画像に対応付けられた前記複数の特徴量のうち少なくともいずれかの特徴量及び/又は前記検査画像に対応付けられた前記複数の特徴量のうち少なくともいずれかの特徴量のリストを、前記表示部に表示させる、請求項1から8のいずれか一項に記載の情報処理装置。 The display control unit further controls at least one of the plurality of feature amounts associated with the learning image and/or at least one of the plurality of feature amounts associated with the inspection image. 9. The information processing apparatus according to any one of claims 1 to 8, wherein a list of feature amounts of is displayed on said display unit. 画像の属性を判定する分類器の学習に用いる学習画像に対応付けて該学習画像の複数の特徴のそれぞれを示す複数の特徴量を記憶し、且つ前記分類器による分類の対象となる検査画像に対応付けて該検査画像の前記複数の特徴のそれぞれを示す複数の特徴量を記憶する記憶部にアクセス可能なコンピュータが、
前記複数の特徴から基準となる特徴である少なくとも1つの基準特徴を決定することと、
前記少なくとも1つの基準特徴を示す特徴量である少なくとも1つの基準特徴量によって規定される空間における範囲である基準特徴量範囲を決定することと、
前記学習画像及び/又は前記検査画像のうち、前記少なくとも1つの基準特徴量が前記基準特徴量範囲に含まれる学習画像及び/又は検査画像を抽出することと、
抽出された学習画像及び/又は検査画像である抽出学習画像及び/又は抽出検査画像を表示部に表示させることと、
を実行する情報処理方法。
storing a plurality of feature quantities respectively representing a plurality of features of the learning image in association with a learning image used for learning a classifier for determining attributes of an image; A computer capable of accessing a storage unit that stores a plurality of feature amounts respectively representing the plurality of features of the inspection image in association with each other,
Determining at least one reference feature that is a reference feature from the plurality of features;
Determining a reference feature range that is a range in a space defined by the at least one reference feature that is a feature indicating the at least one reference feature;
extracting, from the learning images and/or inspection images, a learning image and/or inspection image in which the at least one reference feature amount is included in the reference feature amount range;
displaying an extracted learning image and/or an extracted inspection image, which are the extracted learning image and/or inspection image, on a display unit;
Information processing method that performs
画像の属性を判定する分類器の学習に用いる学習画像に対応付けて該学習画像の複数の特徴のそれぞれを示す複数の特徴量を記憶し、且つ前記分類器による分類の対象となる検査画像に対応付けて該検査画像の前記複数の特徴のそれぞれを示す複数の特徴量を記憶する記憶部にアクセス可能なコンピュータに、
前記複数の特徴から基準となる特徴である少なくとも1つの基準特徴を決定することと、
前記少なくとも1つの基準特徴を示す特徴量である少なくとも1つの基準特徴量によって規定される空間における範囲である基準特徴量範囲を決定することと、
前記学習画像及び/又は前記検査画像のうち、前記少なくとも1つの基準特徴量が前記基準特徴量範囲に含まれる学習画像及び/又は検査画像を抽出することと、
抽出された学習画像及び/又は検査画像である抽出学習画像及び/又は抽出検査画像を表示部に表示させることと、
を実行させるプログラム。
storing a plurality of feature quantities respectively representing a plurality of features of the learning image in association with a learning image used for learning a classifier for determining attributes of an image; a computer capable of accessing a storage unit that stores a plurality of feature amounts respectively representing the plurality of features of the inspection image in association with each other;
Determining at least one reference feature that is a reference feature from the plurality of features;
Determining a reference feature range that is a range in a space defined by the at least one reference feature that is a feature indicating the at least one reference feature;
extracting, from the learning images and/or inspection images, a learning image and/or inspection image in which the at least one reference feature amount is included in the reference feature amount range;
displaying an extracted learning image and/or an extracted inspection image, which are the extracted learning image and/or inspection image, on a display unit;
program to run.
JP2021034101A 2021-03-04 2021-03-04 Information processing device, information processing method, and program Pending JP2022134742A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021034101A JP2022134742A (en) 2021-03-04 2021-03-04 Information processing device, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021034101A JP2022134742A (en) 2021-03-04 2021-03-04 Information processing device, information processing method, and program

Publications (1)

Publication Number Publication Date
JP2022134742A true JP2022134742A (en) 2022-09-15

Family

ID=83231966

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021034101A Pending JP2022134742A (en) 2021-03-04 2021-03-04 Information processing device, information processing method, and program

Country Status (1)

Country Link
JP (1) JP2022134742A (en)

Similar Documents

Publication Publication Date Title
US10878283B2 (en) Data generation apparatus, data generation method, and data generation program
US10885618B2 (en) Inspection apparatus, data generation apparatus, data generation method, and data generation program
JP7015001B2 (en) Defect inspection equipment, defect inspection methods, and their programs
JP7004145B2 (en) Defect inspection equipment, defect inspection methods, and their programs
US10830755B2 (en) Board lumber grading using deep learning semantic segmentation techniques
US11176650B2 (en) Data generation apparatus, data generation method, and data generation program
JP6869490B2 (en) Defect inspection equipment, defect inspection methods, and their programs
CN109409398B (en) Image processing apparatus, image processing method, and storage medium
CN103714338B (en) Image processing apparatus and image processing method
US10824906B2 (en) Image processing device, non-transitory computer readable storage medium, and image processing system
JP2018005639A (en) Image classification device, image inspection device, and program
JP2019109563A (en) Data generation device, data generation method, and data generation program
CN111310826B (en) Method and device for detecting labeling abnormality of sample set and electronic equipment
JP2017054331A (en) Image sorting method, method for configuring sorter, and image sorting device
JP4442119B2 (en) Image recognition apparatus and image recognition method, and teaching apparatus and teaching method of image recognition apparatus
JP4442042B2 (en) Image processing program creation method and system
JP2019106119A (en) Detection system, information processing apparatus, evaluation method, and program
CN113222913A (en) Circuit board defect detection positioning method and device and storage medium
JP2010071951A (en) Visual inspection device and visual inspection method
US7039256B2 (en) Efficient verification of recognition results
CN113127349A (en) Software testing method and system
JP2022134742A (en) Information processing device, information processing method, and program
JP2007198968A (en) Image-classifying method and image-classifying apparatus
CN115661160B (en) Panel defect detection method, system, device and medium
WO2022019110A1 (en) Program, information processing device, information processing method, and model generation method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20240116