JP2023128941A - Image analysis system, image analysis method, and program - Google Patents

Image analysis system, image analysis method, and program Download PDF

Info

Publication number
JP2023128941A
JP2023128941A JP2022033635A JP2022033635A JP2023128941A JP 2023128941 A JP2023128941 A JP 2023128941A JP 2022033635 A JP2022033635 A JP 2022033635A JP 2022033635 A JP2022033635 A JP 2022033635A JP 2023128941 A JP2023128941 A JP 2023128941A
Authority
JP
Japan
Prior art keywords
learning
image
evaluation
sub
image analysis
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022033635A
Other languages
Japanese (ja)
Inventor
敦 宮本
Atsushi Miyamoto
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2022033635A priority Critical patent/JP2023128941A/en
Priority to PCT/JP2022/036388 priority patent/WO2023166773A1/en
Publication of JP2023128941A publication Critical patent/JP2023128941A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

To provide technology for effectively performing learning for image analysis that utilizes machine learning.SOLUTION: An image analysis system comprises at least one processor and a memory resource, the processor executing: a learning image acquisition step in which a learning image group {f_i} (i=1, ..., Nf, Nf: number of learning images) is acquired by imaging an evaluation target for learning; a training step in which an evaluation engine is trained using the learning image group {f_i}; an evaluation image acquisition step in which an evaluation image is acquired by imaging the evaluation target; and an evaluation step in which the evaluation image is input to the trained evaluation engine, and an estimated evaluation value is output. In the training step, a sub-learning image group {f'_j(k)} (j=1, ..., Nf'_k, Nf'_k: number of sub-learning images), {f'_j(k)} included in {f_i}, k: number of iterative learning instances) is determined by an image selection engine, the sub-learning image group being a partial collection of the learning image group {f_i} for each iterative learning instance, and the sub-learning image group {f'_j(k)} is used to perform a k-th instance of iterative learning of the evaluation engine.SELECTED DRAWING: Figure 2

Description

本発明は、画像分析システム、画像分析方法、及びプログラムに関する。 The present invention relates to an image analysis system, an image analysis method, and a program.

機械学習に基づく評価エンジンを活用した画像分析方法は多く提案されている。例えば、工業製品の製造において、検査画像に基づいて、形状不良、組立不良、異物の付着等の判定を行うことにより、物品の外観を評価する外観検査が行われている。 Many image analysis methods have been proposed that utilize evaluation engines based on machine learning. For example, in the manufacture of industrial products, visual inspection is performed to evaluate the external appearance of the product by determining defects in shape, assembly defects, adhesion of foreign matter, etc. based on inspection images.

特許文献1に開示された外観検査装置に関し、段落[0054]において、「外観検査装置20の形状計測部21により、ワーク200の溶接箇所201の外観を検査する(ステップS1)。」と記載され、段落[0059]において、「ステップS5を実行することで、取得された画像データにおいて、形状不良の有無や形状不良の種類が特定される。この結果に基づいて、学習データセットの見直しや再作成あるいは新規作成が行われ(ステップS6)、ステップS6で作成された学習データセットを用いて判定モデルの再学習が実行される(ステップS7)。」と記載され、段落[0061]において、「図5に示すルーティーンを必要に応じて、適切な回数や頻度で行うことにより、溶接箇所の形状の良否判定を行うための判定モデルの精度を向上して、溶接箇所の形状の良否判定に関する重要な形状不良の有無及び種類の判定精度を向上できる。」と記載されている。 Regarding the appearance inspection apparatus disclosed in Patent Document 1, in paragraph [0054], it is stated that "the appearance of the welding location 201 of the workpiece 200 is inspected by the shape measurement unit 21 of the appearance inspection apparatus 20 (step S1)". , in paragraph [0059], ``By executing step S5, the presence or absence of shape defects and the type of shape defects are identified in the acquired image data.Based on this result, the learning dataset may be reviewed or re-created. creation or new creation is performed (step S6), and retraining of the judgment model is performed using the learning data set created in step S6 (step S7)," and in paragraph [0061], " By performing the routine shown in Figure 5 at an appropriate number of times and frequency as necessary, the accuracy of the judgment model for determining the quality of the welded area can be improved, and the accuracy of the determination model for determining the quality of the welded area can be improved. It is possible to improve the accuracy of determining the presence and type of important shape defects.''

国際公開2020/129617号公報International Publication No. 2020/129617

機械学習を活用した画像分析において高い評価性能を得るには、大量の学習画像群を用いた学習が必要となる。学習画像数が少ない場合、過学習が発生し、汎化性能が低下する恐れがある。一方、学習画像数の増加は、学習時間の増加に直結する。 In order to obtain high evaluation performance in image analysis using machine learning, learning using a large number of training images is required. If the number of training images is small, overfitting may occur and generalization performance may deteriorate. On the other hand, an increase in the number of learning images is directly linked to an increase in learning time.

特許文献1に開示された技術では、学習用の画像データを予めワークの材質や形状に応じて分類し、データ拡張処理を行う等の事前準備が必要となり、効率的でない。 The technique disclosed in Patent Document 1 requires advance preparation such as classifying image data for learning in advance according to the material and shape of the workpiece and performing data expansion processing, which is not efficient.

本発明は、上記の点に鑑みてなされたものであって、機械学習を活用した画像分析において効率的に学習を行う技術の提供を目的とする。 The present invention has been made in view of the above points, and aims to provide a technique for efficiently performing learning in image analysis using machine learning.

本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下の通りである。 The present application includes a plurality of means for solving at least part of the above problems, examples of which are as follows.

上記課題を解決するため、本発明の画像分析システムは、少なくとも1つのプロセッサと、メモリリソースとを備える画像分析システムであって、前記プロセッサは、*学習用の評価対象物を撮像して学習画像群{f_i}(i=1,…,Nf, Nf:学習画像数)を取得する学習画像取得ステップ、*学習画像群{f_i}を用いて評価エンジンを学習する学習ステップ、*評価対象物を撮像して評価画像を取得する評価画像取得ステップ、*評価画像を学習済みの評価エンジンに入力して推定評価値を出力する評価ステップ、を実行し、前記学習ステップでは、反復学習毎に学習画像群{f_i}の部分集合であるサブ学習画像群{f'_j(k)}(j=1,…,Nf'_k, Nf'_k:サブ学習画像数, {f'_j(k)}⊂{f_i}, k:反復学習の回数)を画像選択エンジンにより決定し、サブ学習画像群{f'_j(k)}を用いて評価エンジンのk回目の反復学習を行うことを特徴とする。 In order to solve the above problems, an image analysis system of the present invention is an image analysis system comprising at least one processor and a memory resource, wherein the processor * images a learning evaluation object and generates a learning image; A training image acquisition step for acquiring a group {f_i} (i=1,...,Nf, Nf: number of training images), *a learning step for training an evaluation engine using the training image group {f_i}, *a learning step for acquiring an evaluation target An evaluation image acquisition step of capturing an evaluation image and an evaluation step of inputting the evaluation image into a trained evaluation engine and outputting an estimated evaluation value, and in the learning step, the learning image is acquired for each iterative learning. Sub training image group {f'_j(k)} which is a subset of group {f_i} (j=1,…,Nf'_k, Nf'_k: number of sub training images, {f'_j(k)}⊂ {f_i}, k: number of iterative learning) is determined by the image selection engine, and the evaluation engine performs the k-th iterative learning using the sub-learning image group {f'_j(k)}.

本発明によれば、機械学習を活用した画像分析において効率的に学習を行う技術を提供することができる。 According to the present invention, it is possible to provide a technique for efficiently performing learning in image analysis using machine learning.

上記した以外の課題、構成、及び効果は、以下の実施形態の説明により明らかにされる。 Problems, configurations, and effects other than those described above will be made clear by the description of the embodiments below.

機械学習に基づく画像分析システムにおける全体の処理シーケンスの一例を示す図であるFIG. 2 is a diagram illustrating an example of the entire processing sequence in an image analysis system based on machine learning. 評価エンジンの学習方法の一例を示す図であるIt is a diagram showing an example of a learning method of an evaluation engine. 評価エンジンの学習状態の一例を模式的に示す図である。FIG. 3 is a diagram schematically showing an example of a learning state of an evaluation engine. 選択条件入力画面の一例を示す図である。It is a figure which shows an example of a selection condition input screen. 画像分析システムのハードウェア構成の一例を示す図である。1 is a diagram illustrating an example of a hardware configuration of an image analysis system.

近年、Convolutional Neural Network(CNN)に代表される深層ネットワークモデルの提案により、機械学習の性能は飛躍的に向上した(例えば、文献「A. Krizhevsky, I. Sutskever, and G. E. Hinton,“Imagenet classification with deep convolutional neural networks,”Proc. of NIPS (2012)」)。機械学習に基づく評価エンジンを活用した画像処理方法は多く提案されており、例えば外観検査への活用例として、国際公開2020/129617号公報では、溶接箇所の形状不良を機械学習を用いて自動で検査する方法が開示されている。また外観検査に限らず、機械学習に基づく画像処理はセマンティックセグメンテーションや認識、画像分類、画像変換や画質改善等、多岐にわたる。 In recent years, the performance of machine learning has improved dramatically with the proposal of deep network models such as Convolutional Neural Networks (CNNs). deep convolutional neural networks,”Proc. of NIPS (2012)”). Many image processing methods have been proposed that utilize evaluation engines based on machine learning. For example, as an example of its use in visual inspection, International Publication No. 2020/129617 describes a method for automatically detecting shape defects in welded areas using machine learning. A method of testing is disclosed. Furthermore, image processing based on machine learning is not limited to visual inspection, and covers a wide range of areas, including semantic segmentation, recognition, image classification, image conversion, and image quality improvement.

評価エンジンの学習においては、学習用の評価対象物の画像(学習画像)を入力として、評価エンジンから出力される推定評価値と予め教示された正解評価値との差分が小さくなるように評価エンジンの内部パラメータ(ネットワークの重みやバイアス等)を更新する。外観検査を行う場合、評価値は評価対象物の欠陥有無や異常度等の検査結果であり、セグメンテーションを行う場合、評価値は領域のラベルであり、画像変換を行う場合、評価値は変換後の画像である。 In learning the evaluation engine, an image of the evaluation object for learning (learning image) is input, and the evaluation engine is trained so that the difference between the estimated evaluation value output from the evaluation engine and the correct evaluation value taught in advance is small. Update internal parameters (network weights, biases, etc.). When performing a visual inspection, the evaluation value is the inspection result such as the presence or absence of defects and the degree of abnormality of the evaluation target, when performing segmentation, the evaluation value is the label of the area, and when performing image conversion, the evaluation value is the inspection result after the conversion. This is an image of

内部パラメータを更新するタイミングとしては、全ての学習画像をまとめて学習するのではなく、学習画像をいくつかのミニバッチと呼ばれる集合に分割し、ミニバッチ毎に内部パラメータの更新を行うことが一般的である。これはミニバッチ学習と呼ばれ、全てのミニバッチが学習された時点で、全ての学習画像が学習に用いられたことになる。この全てのミニバッチの1回学習することを1エポックと呼び、エポックを何回も繰り返すことで、内部パラメータを最適化していく。エポック毎にミニバッチに含まれる学習画像をシャッフルすることもある。 Regarding the timing of updating internal parameters, it is common to divide the training images into several sets called mini-batches and update the internal parameters for each mini-batch, rather than learning all the training images at once. be. This is called mini-batch learning, and when all mini-batches have been learned, all training images have been used for learning. Learning all of these mini-batches once is called one epoch, and by repeating the epoch many times, the internal parameters are optimized. The training images included in the mini-batch may be shuffled every epoch.

機械学習を活用した画像処理において高い評価性能を得るには、大量の学習画像群を用いた内部パラメータの学習が必要となる。学習画像数が少ない場合、過学習が発生し、汎化性能が低下する恐れがある。一方、学習画像数の増加は、学習時間の増加に直結する。学習フェーズは評価フェーズ(推論処理)と比較して高い数値計算の精度が求められるため、処理コストは大きい。 In order to obtain high evaluation performance in image processing using machine learning, it is necessary to learn internal parameters using a large number of training images. If the number of training images is small, overfitting may occur and generalization performance may deteriorate. On the other hand, an increase in the number of learning images is directly linked to an increase in learning time. The learning phase requires higher precision in numerical calculations than the evaluation phase (inference processing), so the processing cost is higher.

これに対し、事前に学習画像群に含まれる不要あるいは冗長な画像を削除あるいは統合して学習画像数を削減する「データクレンジング」が知られている。しかしながら、評価対象物の構造や見た目は多様である。評価対象物に多くのパターンバリエーションが存在する場合、本質的に多くの学習画像が必要となり、データクレンジングによる学習画像の削減には限界がある。学習すべき画像をサンプリング等により除外すると評価性能を損なう危険がある。そのため、評価性能を低下させずに評価エンジンの内部パラメータを高速に学習する仕組みが望まれている。 On the other hand, "data cleansing" is known in which the number of training images is reduced by deleting or merging unnecessary or redundant images included in the training image group in advance. However, the structures and appearances of evaluation targets vary. If there are many pattern variations in the evaluation target object, a large number of learning images are essentially required, and there is a limit to the reduction of the number of learning images by data cleansing. If images to be learned are excluded by sampling or the like, there is a risk that evaluation performance will be impaired. Therefore, a mechanism is desired that can quickly learn internal parameters of an evaluation engine without reducing evaluation performance.

<画像分析システムにおける全体の処理シーケンス>
以下、図面に基づいて本発明の実施形態の例を説明する。なお、以下に説明する実施形態は特許請求の範囲に係る発明を限定するものではなく、また、実施形態の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。
<Overall processing sequence in image analysis system>
Hereinafter, examples of embodiments of the present invention will be described based on the drawings. The embodiments described below do not limit the claimed invention, and all of the elements and combinations thereof described in the embodiments are essential to the solution of the invention. Not necessarily.

図1は、機械学習に基づく画像分析システム1における全体の処理シーケンスの一例を示す図である。画像処理には、外観検査、セマンティックセグメンテーションや認識、画像分類、画像変換や画質改善等が含まれる。画像分析システム1により実行される処理シーケンスは大きく学習フェーズ110と評価フェーズ120に分かれる。 FIG. 1 is a diagram showing an example of the entire processing sequence in an image analysis system 1 based on machine learning. Image processing includes visual inspection, semantic segmentation and recognition, image classification, image conversion, and image quality improvement. The processing sequence executed by the image analysis system 1 is broadly divided into a learning phase 110 and an evaluation phase 120.

学習フェーズ110では、学習用に評価対象物Pを撮像して学習画像を取得する(ステップS0)。画像は、CCD(Charge Coupled Device)カメラ、光学顕微鏡、荷電粒子顕微鏡、超音波検査装置、X線検査装置、等の撮像装置で評価対象物Pの表面あるいは内部をデジタル映像として撮像することで取得する。なお、「取得」の他の例としては、ほかのシステムで撮像した画像を単に受信して、画像分析システムが有する記憶資源に格納するだけでもよい。 In the learning phase 110, the evaluation target object P is imaged for learning to obtain a learning image (step S0). The image is obtained by capturing the surface or inside of the evaluation object P as a digital image using an imaging device such as a CCD (Charge Coupled Device) camera, optical microscope, charged particle microscope, ultrasonic inspection device, or X-ray inspection device. do. Note that another example of "acquisition" may be to simply receive an image captured by another system and store it in the storage resource of the image analysis system.

次に、オプションとしてステップS0で撮像した全学習画像群Qに対し、事前に不要あるいは冗長な学習画像を削除あるいは統合して学習画像数を削減する「データクレンジング」を行ってもよい(ステップS1)。最終的に学習に用いる学習画像群を学習画像群{f_i}(R)(i=1,…,Nf, Nf:学習画像数)(「R」は参照符号)とする。 Next, as an option, "data cleansing" may be performed on all the training images Q taken in step S0 to reduce the number of training images by deleting or merging unnecessary or redundant training images in advance (step S1 ). The learning image group finally used for learning is defined as a learning image group {f_i}(R) (i=1,...,Nf, Nf: number of learning images) ("R" is a reference symbol).

この各学習画像f_iに対し、正解評価値g_iを付与する。外観検査であれば評価値は評価対象物Pの欠陥有無や異常度等の検査結果であり、セグメンテーションであれば評価値は領域のラベルであり、画像変換であれば評価値は変換後の画像である。これらの評価基準に対し、ユーザの目視判断や他の処理装置・手段で解析された数値等を基に正解評価値を付与する。 A correct evaluation value g_i is assigned to each learning image f_i. In the case of visual inspection, the evaluation value is the inspection result such as the presence or absence of defects in the evaluation target P and the degree of abnormality, in the case of segmentation, the evaluation value is the label of the area, and in the case of image conversion, the evaluation value is the image after conversion. It is. Correct evaluation values are assigned to these evaluation criteria based on the user's visual judgment or numerical values analyzed by other processing devices/means.

次に、学習画像{f_i}と正解評価値{g_i}を用いて評価エンジン111の学習を行う(ステップS2)。評価エンジン111とは学習画像f_i(評価フェーズ120では評価画像S)を入力として推定評価値g^_iを出力する推定器である。 Next, the evaluation engine 111 is trained using the learning image {f_i} and the correct evaluation value {g_i} (step S2). The evaluation engine 111 is an estimator that receives a learning image f_i (evaluation image S in the evaluation phase 120) and outputs an estimated evaluation value g^_i.

評価エンジン111には様々な機械学習型のエンジンを用いることができるが、例えばConvolutional Neural Network(CNN)に代表される深層ニューラルネットワークが挙げられる。学習フェーズ110では、学習画像f_iを入力した際、教示した正解評価値g_iに近い推定評価値g^_iが出力されるように評価エンジン111の内部パラメータ113を最適化する。ニューラルネットワークの場合、内部パラメータ113にはネットワーク構造、活性化関数、学習率や学習の終了条件等の「ハイパーパラメータ」や、ネットワークのノード間の重み(結合係数)やバイアス等の「モデルパラメータ」が含まれる。この内部パラメータ113の最適化は反復学習によって行われ、k回目の反復学習において使用するサブ学習画像群{f'_j(k)}を学習画像選択エンジン112により学習画像群{f_i}(R)の中から選択する。 Various machine learning engines can be used as the evaluation engine 111, and for example, a deep neural network such as a Convolutional Neural Network (CNN) can be used. In the learning phase 110, when the learning image f_i is input, the internal parameters 113 of the evaluation engine 111 are optimized so that an estimated evaluation value g^_i close to the taught correct evaluation value g_i is output. In the case of a neural network, the internal parameters 113 include "hyper parameters" such as the network structure, activation function, learning rate, and learning termination conditions, and "model parameters" such as weights (coupling coefficients) and bias between network nodes. is included. Optimization of this internal parameter 113 is performed by iterative learning, and the learning image selection engine 112 selects the sub-learning image group {f'_j(k)} used in the k-th iterative learning as the learning image group {f_i}(R). Choose from.

評価フェーズ120では実際の評価対象物Pを撮像して(ステップS0)、評価画像Sを取得する。学習フェーズ110で学習した内部パラメータ113を用いた評価エンジン111に評価画像Sを入力し、自動評価を行う(ステップS3)。必要に応じて、この評価結果をユーザが確認する(ステップS4)。 In the evaluation phase 120, an image of the actual evaluation target P is captured (step S0), and an evaluation image S is obtained. The evaluation image S is input to the evaluation engine 111 using the internal parameters 113 learned in the learning phase 110, and automatic evaluation is performed (step S3). The user confirms this evaluation result as necessary (step S4).

機械学習を活用した画像処理において高い評価性能を得るには、大量の学習画像群を用いた内部パラメータの学習が必要となる。学習画像数が少ない場合、過学習が発生し、汎化性能が低下する恐れがある。一方、学習画像数の増加は、学習時間の増加に直結する。学習フェーズは評価フェーズ(推論処理)と比較して高い数値計算の精度が求められるため、処理コストは大きい。 In order to obtain high evaluation performance in image processing using machine learning, it is necessary to learn internal parameters using a large number of training images. If the number of training images is small, overfitting may occur and generalization performance may deteriorate. On the other hand, an increase in the number of learning images is directly linked to an increase in learning time. The learning phase requires higher precision in numerical calculations than the evaluation phase (inference processing), so the processing cost is higher.

これに対し、事前に学習画像群に含まれる不要あるいは冗長な画像を削除あるいは統合して学習画像数を削減するデータクレンジングが知られており、本実施形態と併用してもよい(上述のステップS1)。しかしながら、評価対象物Pの構造や見た目は多様である。評価対象物Pに多くのパターンバリエーションが存在する場合、本質的に多くの学習画像が必要となり、データクレンジングによる学習画像の削減には限界がある。学習すべき学習画像をサンプリング等により除外すると評価性能を損なう危険がある。そのため、本実施形態では評価性能を低下させずに評価エンジン111の内部パラメータ113を高速に学習する仕組みを提供する。 On the other hand, data cleansing is known in which the number of training images is reduced by deleting or merging unnecessary or redundant images included in the training image group in advance, and it may be used in combination with this embodiment (the steps described above). S1). However, the structure and appearance of the evaluation object P are diverse. If there are many pattern variations in the evaluation target P, essentially many learning images are required, and there is a limit to the reduction of learning images by data cleansing. If training images to be learned are excluded by sampling or the like, there is a risk that evaluation performance will be impaired. Therefore, this embodiment provides a mechanism for learning the internal parameters 113 of the evaluation engine 111 at high speed without reducing evaluation performance.

<サブ学習画像群{f'_j(k)}に基づく高速学習>
図2は、評価エンジン111の学習方法の一例を示す図である。評価エンジン111の内部パラメータ113を高速に学習する方法について図2を用いて説明する。本実施形態は、学習用の評価対象物Pを撮像して学習画像群{f_i}(R)(i=1,…,Nf, Nf:学習画像数)を取得する学習画像取得ステップと、学習画像群{f_i}(R)を用いて評価エンジン111を学習する学習ステップ(図1におけるステップS2)と、評価対象物Pを撮像して評価画像Sを取得する評価画像取得ステップと、評価画像を学習済みの評価エンジン111に入力して評価結果を出力する評価ステップを含み、前記学習ステップでは、反復学習毎に学習画像群{f_i}(R)の部分集合であるサブ学習画像群{f’_j(k)}(T)(j=1,…,Nf'_k, Nf'_k:サブ学習画像数, {f'_j(k)}⊂{f_i}, k:反復学習の回数)(「T」は参照符号)を学習画像選択エンジン112により決定し、サブ学習画像群{f’_j(k)}(T)を用いて評価エンジン111のk回目の反復学習(ステップS22)を行うことを特徴とする。
<Fast learning based on sub-learning image group {f'_j(k)}>
FIG. 2 is a diagram illustrating an example of a learning method of the evaluation engine 111. A method for quickly learning the internal parameters 113 of the evaluation engine 111 will be explained using FIG. 2. This embodiment includes a learning image acquisition step of capturing an image of an evaluation object P for learning and acquiring a learning image group {f_i}(R) (i=1,...,Nf, Nf: number of learning images); a learning step (step S2 in FIG. 1) of learning the evaluation engine 111 using the image group {f_i}(R); an evaluation image acquisition step of capturing an evaluation object P to obtain an evaluation image S; is input into the trained evaluation engine 111 to output the evaluation result, and in the learning step, a sub-learning image group {f_i} (R), which is a subset of the learning image group {f_i}(R), is '_j(k)}(T)(j=1,...,Nf'_k, Nf'_k: Number of sub-learning images, {f'_j(k)}⊂{f_i}, k: Number of iterative learning)( "T" is a reference symbol) is determined by the learning image selection engine 112, and the evaluation engine 111 performs the k-th iterative learning (step S22) using the sub-learning image group {f'_j(k)} (T). It is characterized by

本特徴について補足する。前述の通り、評価対象物Pに多くのパターンバリエーションが存在する場合、データクレンジングにより事前に学習画像を除外することには限界がある。一方、評価エンジン111の反復学習において、内部パラメータ113の値は変化していくため、エポック毎に学習すべき学習画像の優先度は変化する点に着目した。 I would like to add some supplementary information about this feature. As described above, when there are many pattern variations in the evaluation target P, there is a limit to eliminating learning images in advance by data cleansing. On the other hand, we focused on the fact that in the iterative learning of the evaluation engine 111, the value of the internal parameter 113 changes, so the priority of the learning images to be learned changes every epoch.

そこで、本実施形態では各学習画像を事前に使用/除外の二択で分けるのではなく、学習画像を評価エンジン111の学習状態に応じて動的に使用/除外する(反復学習中に一時的に使用したり除外したりする)。これにより、学習ステップ(図1におけるステップS2)全体では多様な画像バリエーションを保持しつつ、学習時間の大幅な短縮を可能とする。 Therefore, in this embodiment, instead of dividing each learning image into two choices of use/exclusion in advance, the learning images are dynamically used/excluded according to the learning state of the evaluation engine 111 (temporarily used during iterative learning). (used or excluded). This makes it possible to significantly shorten the learning time while maintaining various image variations in the entire learning step (step S2 in FIG. 1).

具体的には、学習画像f_iに対して反復学習毎に選択確率P_k(f_i)(201)(「201」は参照符号)を算出し、この選択確率P_k(f_i)(201)に基づいてk回目の反復学習において学習画像f_iを用いるか否かを決定して、サブ学習画像群{f’_j(k)}(T)を求める。 Specifically, the selection probability P_k(f_i) (201) ("201" is a reference symbol) is calculated for the learning image f_i for each iterative learning, and k is calculated based on this selection probability P_k(f_i) (201). In the second iterative learning, it is determined whether to use the learning image f_i, and a sub-learning image group {f'_j(k)}(T) is obtained.

例えば、k-1回目の反復学習において、学習画像f_iの推定評価値g^_iが誤っていれば、次のk回目の反復学習において選択確率P_k(f_i)(201)は高く設定することが望ましい。一方、k回目の反復学習において、推定評価値g^_iが正しい値になれば、次のk+1回目の反復学習において選択確率P_(k+1)(f_i)(201)は低く設定することができる。しかし、k+1回目の反復学習において、推定評価値g^_iが再び誤れば、次のk+2回目の反復学習において選択確率P_(k+2)(f_i)(201)は大きく設定することが望ましい。 For example, if the estimated evaluation value g^_i of the learning image f_i is incorrect in the k-1st iterative learning, the selection probability P_k(f_i) (201) may be set higher in the next k-th iterative learning. desirable. On the other hand, if the estimated evaluation value g^_i becomes the correct value in the k-th iteration learning, the selection probability P_(k+1)(f_i) (201) is set low in the next k+1-th iteration learning. be able to. However, if the estimated evaluation value g^_i is wrong again in the k+1st iterative learning, the selection probability P_(k+2)(f_i) (201) is set larger in the next k+2nd iterative learning. This is desirable.

このように評価エンジン111の評価結果202に応じて、学習すべき学習画像の優先度は変化するため、この優先度を考慮したサブ学習画像群{f’_j(k)}(T)を求めることにより、各エポックにおいて学習画像数を削減することが可能となる。評価結果202の具体例として推定評価値の正否203が挙げられる。 In this way, the priority of the learning images to be learned changes according to the evaluation result 202 of the evaluation engine 111, so the sub-learning image group {f'_j(k)}(T) is calculated taking this priority into consideration. This makes it possible to reduce the number of learning images in each epoch. A specific example of the evaluation result 202 is whether the estimated evaluation value is correct or incorrect 203.

<選択確率P_k(f_i)の算出方法>
学習画像選択エンジン112について、k回目の反復学習における学習画像f_iのサブ学習画像群{f’_j(k)}(T)への選択確率P_k(f_i)(201)の算出方法について説明する。本実施形態は、学習ステップ(図1のステップS2)において、反復学習中の評価エンジン111に学習画像f_iを入力した際に出力される評価結果の正否の度合いを定量化した余裕度M(f_i)(204)(「204」は参照符号)を算出し、k回目の反復学習における学習画像f_iのサブ学習画像群{f’_j(k)}(T)への選択確率P_k(f_i)(201)は、余裕度M(f_i)(204)の関数であることを特徴とする。
<How to calculate selection probability P_k(f_i)>
Regarding the learning image selection engine 112, a method of calculating the selection probability P_k(f_i) (201) of the learning image f_i to the sub-learning image group {f'_j(k)}(T) in the k-th iterative learning will be described. In this embodiment, in the learning step (step S2 in FIG. 1), the margin M(f_i ) (204) ("204" is a reference symbol), and the selection probability P_k(f_i)( 201) is characterized by being a function of the margin M(f_i) (204).

本特徴について補足する。k回目の反復学習における学習画像f_iの選択確率P_k(f_i)(201)の算出方法はいくつか考えられる。その一つとして、推定評価値を正解か不正解かの二値で判断するのではなく、正否の度合いを定量化した余裕度M(f_i)(204)を算出し、この余裕度M(f_i)(204)に基づいて選択確率P_k(f_i)(201)を決定することができる。 I would like to add some supplementary information about this feature. There are several possible methods for calculating the selection probability P_k(f_i) (201) of the learning image f_i in the k-th iterative learning. One way to do this is to calculate a margin M(f_i) (204) that quantifies the degree of correctness or not, instead of judging the estimated evaluation value as a binary value of correct or incorrect. ) (204), the selection probability P_k(f_i) (201) can be determined.

余裕度M(f_i)(204)が高ければ、選択確率P_k(f_i)(201)を低く設定することができる。余裕度M(f_i)(204)の算出方法として、例えば学習画像f_iの推定評価値g^_iと正解評価値g_iとの差分を用いることができる。差分が非常に小さければ、推定評価値g^_iは余裕をもって正解していることになる。また、差分が大きければ評価結果は不正解になるが、差分が大きいほど、同じ不正解でも余裕度はより低くなる。このような方法により、余裕度M(f_i)(204)および選択確率P_k(f_i)(201)を連続的な値として算出することができる。 If the margin M(f_i) (204) is high, the selection probability P_k(f_i) (201) can be set low. As a method for calculating the margin M(f_i) (204), for example, the difference between the estimated evaluation value g^_i of the learning image f_i and the correct evaluation value g_i can be used. If the difference is very small, the estimated evaluation value g^_i is correct with a margin. Furthermore, if the difference is large, the evaluation result will be incorrect, but the larger the difference, the lower the margin for the same incorrect answer. By such a method, the margin M(f_i) (204) and the selection probability P_k(f_i) (201) can be calculated as continuous values.

また本実施形態は、学習ステップ(図1におけるステップS2)において、k回目の反復学習における学習画像f_iのサブ学習画像群{f’_j(k)}(T)への選択確率P_k(f_i)(201)は、学習画像f_iとその他の学習画像群{f_a}(a≠i)間の類似度の関数であることを特徴とする。 Further, in the present embodiment, in the learning step (step S2 in FIG. 1), the selection probability P_k(f_i) of the learning image f_i to the sub-learning image group {f'_j(k)}(T) in the k-th iterative learning is (201) is characterized in that it is a function of the degree of similarity between the learning image f_i and the other learning image group {f_a} (a≠i).

本特徴について補足する。本実施形態では学習画像f_iの選択確率P_k(f_i)(201)を反復学習ごとに更新することを特徴とする。選択確率P_k(f_i)(201)を算出する際の判断材料として、学習画像f_iとその他の学習画像との類似度を用いることができる。非常に類似した学習画像が存在したり、あるいは類似画像が多い場合、類似度は高くなり、選択確率P_k(f_i)(201)は低くなる。 I would like to add some supplementary information about this feature. The present embodiment is characterized in that the selection probability P_k(f_i) (201) of the learning image f_i is updated every iterative learning. The degree of similarity between the learning image f_i and other learning images can be used as a criterion when calculating the selection probability P_k(f_i) (201). If very similar learning images exist or there are many similar images, the degree of similarity will be high and the selection probability P_k(f_i) (201) will be low.

前述の通り、選択確率P_k(f_i)(201)を算出する際の判断材料としてk回目の反復学習における学習画像f_iの推定評価値g^_iに基づく推定評価値の正否203や余裕度M(f_i)(204)を用いることができるが、これらの値は学習状態に応じて変化するものである。これに対して学習画像間の類似度は反復学習中に値が変化するのものではないが、値が変化するものと合わせて総合的に選択確率P_k(f_i)(201)算出の判断材料とすることができる。すなわち、選択確率P_k(f_i)(201)は、これら複数の判断材料の関数として与えることができる(ステップS21)。 As mentioned above, as judgment materials when calculating the selection probability P_k(f_i) (201), the correctness 203 of the estimated evaluation value based on the estimated evaluation value g^_i of the learning image f_i in the k-th iterative learning and the margin M( f_i) (204) can be used, but these values change depending on the learning state. On the other hand, although the similarity between learning images does not change during repeated learning, it is used as a comprehensive judgment material for calculating the selection probability P_k(f_i) (201). can do. That is, the selection probability P_k(f_i) (201) can be given as a function of these multiple judgment materials (step S21).

図2について付言すると、画像分析システム1は、学習画像群{f_i}(R)を用いてステップS21からステップS23までの処理を反復することにより、評価エンジン111の内部パラメータ113を最適化する。ステップS21において、画像分析システム1は、選択確率P_k(f_i)(201)を決定する。具体的には、画像分析システム1は、k-1回目の評価結果202を用いて、学習画像群{f_i}(R)に含まれる学習画像f_iの各々について、k回目の選択確率P_k(f_i)(201)を算出する。その後、画像分析システム1は、学習画像選択エンジン112を用いて、学習画像群{f_i}(R)の中から選択確率P_k(f_i)(201)に基づいてサブ学習画像群{f’_j(k)}(T)を選択する。 Regarding FIG. 2, the image analysis system 1 optimizes the internal parameters 113 of the evaluation engine 111 by repeating the processes from step S21 to step S23 using the learning image group {f_i}(R). In step S21, the image analysis system 1 determines the selection probability P_k(f_i) (201). Specifically, the image analysis system 1 uses the k-1st evaluation result 202 to determine the kth selection probability P_k(f_i )(201) is calculated. Thereafter, the image analysis system 1 uses the learning image selection engine 112 to select the sub-learning image group {f'_j( k)} (T).

次に、ステップS22において、画像分析システム1は、評価エンジン111の学習を実行する。具体的には、画像分析システム1は、ステップS21で選択したサブ学習画像群{f’_j(k)}(T)に含まれる学習画像f_iの各々について、予め付与された正解評価値g_iに近い推定評価値g^_iが出力されるよう評価エンジン111の内部パラメータ113を更新する。 Next, in step S22, the image analysis system 1 executes learning of the evaluation engine 111. Specifically, the image analysis system 1 applies a pre-assigned correct evaluation value g_i to each of the learning images f_i included in the sub-learning image group {f'_j(k)}(T) selected in step S21. The internal parameters 113 of the evaluation engine 111 are updated so that a close estimated evaluation value g^_i is output.

次に、ステップS23において、画像分析システム1は、評価エンジン111を用いて学習画像毎の評価結果202を得る。具体的には、画像分析システム1は、学習画像群R{f_j(k)}に含まれる学習画像f_iの各々について、ステップS22で学習した内部パラメータ113を適用した評価エンジン111を用いて、推定評価値g^_iを算出する。画像分析システム1は、学習画像群{f_i}(R)に含まれる各学習画像f_iについて、評価結果202を得る。一例として、評価結果202は、推定評価値g^_iの正否203及び余裕度M(f_i)(204)である。 Next, in step S23, the image analysis system 1 uses the evaluation engine 111 to obtain evaluation results 202 for each learning image. Specifically, the image analysis system 1 estimates each learning image f_i included in the learning image group R{f_j(k)} using the evaluation engine 111 to which the internal parameters 113 learned in step S22 are applied. Calculate the evaluation value g^_i. The image analysis system 1 obtains evaluation results 202 for each learning image f_i included in the learning image group {f_i}(R). As an example, the evaluation result 202 is the correctness 203 of the estimated evaluation value g^_i and the margin M(f_i) (204).

以上、本実施形態では、サブ学習画像群{f’_j(k)}(T)を用いて内部パラメータ113が最適化されるため、効率的に評価エンジン111の学習を行うことができる。また、余裕度M(f_i)(204)や類似度を用いて選択されたサブ学習画像群{f’_j(k)}(T)を用いて評価エンジン111の学習を行うため、より効率的に内部パラメータ113を最適化することができる。 As described above, in this embodiment, since the internal parameters 113 are optimized using the sub-learning image group {f'_j(k)}(T), the evaluation engine 111 can be efficiently trained. In addition, since the evaluation engine 111 is trained using the sub-learning image group {f'_j(k)} (T) selected using the margin M(f_i) (204) and the similarity, it is more efficient. The internal parameters 113 can be optimized.

従って、本実施形態によれば、機械学習を活用した画像処理において、多様なパターンバリエーションを有する評価対象に対しても高速な学習が可能となる。 Therefore, according to this embodiment, in image processing using machine learning, high-speed learning is possible even for evaluation targets having various pattern variations.

<選択確率の概要>
図3は、評価エンジン111の学習状態の一例を模式的に示す図である。図3を用いて、選択確率P_k(f_i)(201)の算出の考え方を説明する。評価エンジン111の一例として評価対象物Pが良品か不良品かを検査する良品判定を考える。評価エンジン111の内部では、学習画像f_i(評価フェーズでは評価画像S)から一旦、評価に有効な複数の特徴量{Ca}(a=1,…,n, n:特徴量数)を求め、この特徴量を基に推定評価値を出力していると考える。
<Overview of selection probability>
FIG. 3 is a diagram schematically showing an example of the learning state of the evaluation engine 111. The concept of calculating the selection probability P_k(f_i) (201) will be explained using FIG. 3. As an example of the evaluation engine 111, consider a non-defective product determination in which an evaluation target object P is inspected to determine whether it is a non-defective product or a defective product. Inside the evaluation engine 111, a plurality of features {Ca} (a=1,...,n, n: number of features) that are effective for evaluation are once obtained from the learning image f_i (evaluation image S in the evaluation phase), and It is assumed that an estimated evaluation value is output based on this feature amount.

図3において、丸と三角のプロットはk回目の反復学習における学習画像の特徴量の分布を示しており、丸と三角のプロットはそれぞれ良品、不良品の学習画像の特徴量である。k回目の反復学習における良品クラスタ300の内部に存在するプロットは良品、外部に存在するプロットは不良品に判定される。 In FIG. 3, the plots of circles and triangles indicate the distribution of features of the learning images in the k-th iterative learning, and the plots of circles and triangles are the features of the learning images of non-defective and defective products, respectively. Plots existing inside the good product cluster 300 in the kth iteration of learning are determined to be good products, and plots existing outside the good product cluster 300 are determined to be defective products.

そのため、反復学習により良品クラスタ300がなるべく良品と不良品を分離するように、内部パラメータ113(特徴量の算出方法や良品クラスタの形)を反復学習により徐々に変化させる必要がある。k回目の反復学習における学習画像f_iのサブ学習画像群{f’_j(k)}(T)への選択確率P_k(f_i)(201)を考える。白色、灰色、黒色のプロットは、それぞれ選択確率が「高」、「中」、「低」であることを表す。説明を簡易化するため、図3では選択確率を三段階で表示しているが、実際の選択確率は連続的な値をとることができる。 Therefore, it is necessary to gradually change the internal parameters 113 (feature amount calculation method and shape of the good product cluster) through iterative learning so that the good product cluster 300 separates good products from defective products as much as possible through iterative learning. Consider the selection probability P_k(f_i) (201) of the learning image f_i to the sub-learning image group {f'_j(k)}(T) in the k-th iterative learning. White, gray, and black plots represent "high", "medium", and "low" selection probabilities, respectively. To simplify the explanation, the selection probability is shown in three stages in FIG. 3, but the actual selection probability can take continuous values.

良品クラスタ300の境界付近に存在する良品の学習画像301は特徴量や良品クラスタ300の微小な変化に対しても推定評価値の正否203が変化する可能性があるため、選択確率を高く設定することが望ましい。良品クラスタ300の中央に存在する5つの良品の学習画像302は推定評価値が正解であり、かつ良品クラスタ300の中央に存在しているため特徴量や良品クラスタ300の微小な変化に対しても推定評価値が不正解に転じる可能性が低い。すなわち余裕度M(f_i)(204)が高い学習画像であるため、選択確率を低く設定することが望ましい。 For learning images 301 of non-defective products that exist near the boundaries of non-defective product clusters 300, the selection probability is set high because the estimated evaluation value 203 may change even if there is a slight change in the feature value or the non-defective product cluster 300. This is desirable. The five learning images 302 of non-defective products located at the center of the non-defective product cluster 300 have correct estimated evaluation values, and because they are located at the center of the non-defective product cluster 300, the training images 302 of the five non-defective products located at the center of the non-defective product cluster 300 are not affected by minute changes in the feature values or the non-defective product cluster 300. There is a low possibility that the estimated evaluation value will turn out to be incorrect. In other words, since this is a learning image with a high degree of margin M(f_i) (204), it is desirable to set the selection probability low.

良品クラスタ300の境界と中央の間に存在する2つの良品の学習画像303は余裕度M(f_i)(204)が中くらいであるため、選択確率も中くらいに設定することが望ましい。 Since the learning images 303 of two good products existing between the boundary and the center of the good product cluster 300 have a medium margin M(f_i) (204), it is desirable to set the selection probability to a medium value as well.

不良品の学習画像に対しても良品と同様である。すなわち、不良品の学習画像304,305,306はいずれも不良品に判定されるため正解であるが、良品クラスタ300に近づく程、余裕度M(f_i)(204)が低いため選択確率を高く設定することが望ましい。 The same applies to learning images of defective products. In other words, the learning images 304, 305, and 306 of defective products are all determined to be defective products, so they are correct, but the closer they get to the good product cluster 300, the lower the margin M(f_i) (204) is, so the selection probability is increased. It is desirable to set this.

誤判定される学習画像(良品なのに不良品に誤判定される307、不良品なのに良品に誤判定される308)は判定結果を改善するため、選択確率を非常に高く設定することが望ましい。類似度の高い画像群(特徴空間においても近傍にプロットされる可能性が高い)(309や310)は選択確率を低く設定することが望ましい。類似度の高い画像群であっても、誤判定される学習画像311は選択確率を高く設定することが望ましい。 It is desirable to set the selection probability of erroneously determined learning images (307 where a good product is erroneously determined as a defective product, 308 where a defective product is erroneously determined as a non-defective product) to be very high in order to improve the determination results. It is desirable to set a low selection probability for a group of images (309 and 310) that have a high degree of similarity (and are likely to be plotted close to each other in the feature space). Even if the image group has a high degree of similarity, it is desirable to set a high selection probability for the learning images 311 that are erroneously determined.

このように、選択確率は推定評価値の正否203、余裕度M(f_i)(204)、画像間の類似度等を総合的に考慮して決定する必要がある。サブ学習画像群{f’_j(k)}(T)の決定により各反復学習における学習画像数が削減されるだけでなく、学習すべき学習画像を優先的に学習することで最適化が早くすすみ、少ない回数の反復学習で良好な評価性能が得られる可能性もある。 In this way, the selection probability needs to be determined by comprehensively considering the correctness 203 of the estimated evaluation value, the degree of margin M(f_i) (204), the degree of similarity between images, and the like. By determining the sub-learning image group {f'_j(k)}(T), the number of learning images in each iterative learning is not only reduced, but also the optimization is faster by preferentially learning the learning images that should be learned. There is a possibility that good evaluation performance can be obtained with a small number of iterative learnings.

<選択条件入力画面>
本実施形態は、学習ステップ(図1におけるステップS2)において、学習画像群{f_i}(R)の画像数Nfからサブ学習画像群{f’_j(k)}(T)の画像数Nf'_kへの削減率R_kの指定を受け付けるGUIを有し、削減率R_kは反復学習の回数kの関数であることを特徴とする。
<Selection condition input screen>
In this embodiment, in the learning step (step S2 in FIG. 1), the number of images Nf' of the sub-learning image group {f'_j(k)}(T) is changed from the number Nf of images of the learning image group {f_i}(R) to the number Nf' of images of the sub-learning image group {f'_j(k)}(T). It has a GUI that accepts the specification of the reduction rate R_k to _k, and is characterized in that the reduction rate R_k is a function of the number k of iterative learning.

本特徴について補足する。学習時間の制約条件等を加味して、k回目の反復学習における学習画像数の削減率R_kを指定することができる。削減率R_kは、例えば(Nf-Nf'_k)/Nf*100で定義することができ、この場合、値が大きい程、学習画像を削減して学習時間が短縮されることになる。また、削減率R_kは反復学習の回数kによって変化させることができる。 I would like to add some supplementary information about this feature. It is possible to specify the reduction rate R_k of the number of learning images in the k-th iterative learning by taking into account constraints on learning time and the like. The reduction rate R_k can be defined as (Nf-Nf'_k)/Nf*100, for example, and in this case, the larger the value, the more training images are reduced and the learning time is shortened. Further, the reduction rate R_k can be changed depending on the number k of iterative learning.

一般に反復学習の初期は内部パラメータが定まっておらず、広範なパラメータ探索が求められるため、削減率R_kは小さく設定することが望ましい。一方、反復学習の後期は内部パラメータが最適値に収束し始めるため、削減率R_kを大きく設定することができる。 Generally, at the beginning of iterative learning, the internal parameters are not determined and a wide range of parameter searches is required, so it is desirable to set the reduction rate R_k small. On the other hand, in the later stages of iterative learning, the internal parameters begin to converge to the optimal values, so the reduction rate R_k can be set large.

削減率R_kを例に説明したが、指定する値は削減率R_kでなく、サブ学習画像群{f’_j(k)}(T)の画像数Nf'_kでも、推定学習時間でもよい。推定学習時間が指定された場合は、反復学習の回数を基に推定学習時間内に学習が完了するように、サブ学習画像群{f’_j(k)}(T)の画像数Nf'_kを決定することになる。 Although the reduction rate R_k has been explained as an example, the value to be specified may be the number of images Nf'_k of the sub-learning image group {f'_j(k)}(T) or the estimated learning time instead of the reduction rate R_k. When the estimated learning time is specified, the number of images Nf'_k of the sub-learning image group {f'_j(k)}(T) is set so that learning is completed within the estimated learning time based on the number of iterative learning. will be decided.

図4は、選択条件入力画面400の一例を示す図である。選択条件入力画面400は、評価エンジン111の学習方法をユーザが指定するGUI(Graphical User Interface)である。チェックボックス401をチェックすることで削減率R_kの指定が有効になる。ラジオボタン402~404により削減率R_kの与え方を選択することができる。 FIG. 4 is a diagram showing an example of a selection condition input screen 400. The selection condition input screen 400 is a GUI (Graphical User Interface) in which the user specifies the learning method of the evaluation engine 111. By checking the check box 401, the specification of the reduction rate R_k becomes valid. It is possible to select how to give the reduction rate R_k using radio buttons 402 to 404.

ラジオボタン402を選択した場合、直線405で与えられるように削減率R_kは反復学習の回数kに寄らず、指定した一定の値406となる。ラジオボタン403を選択した場合、削減率R_kは折れ線407で指定され、図示した例ではボックス408で指定したエポック(反復学習回数)まで削減率R_kは増加し、それ以降はボックス409で指定した一定値となる。ラジオボタン404を選択した場合、削減率R_kはボックス411で指定した曲線410となる。これらは削減率R_kの指定方法の例であり、任意の形状を指定することができる。画像分析システム1がユーザから削減率R_kの設定方法の指定を受け付けることで、よりニーズに即した効率的な評価エンジン111の学習が可能となる。 When the radio button 402 is selected, the reduction rate R_k becomes a specified constant value 406 regardless of the number k of iterative learning, as given by a straight line 405. When radio button 403 is selected, the reduction rate R_k is specified by a line 407, and in the illustrated example, the reduction rate R_k increases until the epoch (number of iterative learning) specified in box 408, and thereafter remains constant as specified in box 409. value. When the radio button 404 is selected, the reduction rate R_k becomes the curve 410 specified in the box 411. These are examples of how to specify the reduction rate R_k, and any shape can be specified. When the image analysis system 1 accepts the designation of the method for setting the reduction rate R_k from the user, it becomes possible for the evaluation engine 111 to learn more efficiently in accordance with needs.

図4に示すGUIにより学習画像f_iの選択確率P_k(f_i)(201)の算出方法を指定することができる。前述の通り選択確率P_k(f_i)(201)は、推定評価値の正否203、余裕度M(f_i)(204)、学習画像間の類似度、等を判断材料として算出することができる。すなわち、これらの判断材料を引数とする関数で選択確率P_k(f_i)(201)を与えることができる。選択確率P_k(f_i)(201)の算出において考慮する引数をチェックボックス412~414で指定することができる。選択確率P_k(f_i)(201)の算出において各引数を考慮する割合(重み)をボックス415~417で指定することができる。 A method for calculating the selection probability P_k(f_i) (201) of the learning image f_i can be specified using the GUI shown in FIG. As mentioned above, the selection probability P_k(f_i) (201) can be calculated using the judgment materials such as the correctness 203 of the estimated evaluation value, the degree of margin M(f_i) (204), the degree of similarity between learning images, and the like. That is, the selection probability P_k(f_i) (201) can be given by a function using these judgment materials as arguments. Arguments to be considered in calculating the selection probability P_k(f_i) (201) can be specified using check boxes 412 to 414. The ratio (weight) of considering each argument in calculating the selection probability P_k(f_i) (201) can be specified in boxes 415 to 417.

図4の例では、ボックス415~417の値はそれぞれ0.2、0.6、0.2で指定されており、余裕度M(f_i)(204)を重視して選択確率P_k(f_i)(201)を決定することになる。また、学習画像f_iの選択に関してルールを設定することができ、選択確率P_k(f_i)(201)と合わせてサブ学習画像群{f’_j(k)}(T)を決定する。例えば、チェックボックス418をチェックすることで、前の反復学習において不正解になった学習画像は次の反復学習において必ず選択するというルールを有効にすることができる。 In the example of FIG. 4, the values in boxes 415 to 417 are specified as 0.2, 0.6, and 0.2, respectively, and the selection probability P_k(f_i) (201) is determined with emphasis on the margin M(f_i) (204). It turns out. Further, rules can be set regarding the selection of the learning image f_i, and together with the selection probability P_k(f_i) (201), the sub-learning image group {f'_j(k)}(T) is determined. For example, by checking the check box 418, it is possible to enable a rule that learning images that were incorrect in the previous iterative learning are always selected in the next iterative learning.

また、チェックボックス419をチェックすることで、しきい値以下の余裕度である学習サンプルは必ず選択するというルールを有効にすることができる。しきい値はボックス421で指定することができる。また、チェックボックス420をチェックすることで、しきい値以上の類似度である学習画像は必ず間引くというルールを有効にすることができる。しきい値はボックス422で指定することができる。ここで述べた引数やルールは例であり、その他の引数やルールを設定することも可能である。 Furthermore, by checking the check box 419, it is possible to enable a rule that learning samples with margins below the threshold value are always selected. A threshold can be specified in box 421. Furthermore, by checking the check box 420, it is possible to enable a rule that learning images having a degree of similarity equal to or higher than a threshold value are always thinned out. A threshold can be specified in box 422. The arguments and rules described here are examples, and it is also possible to set other arguments and rules.

このように、どのような学習画像を各反復学習において優先的に学習すべきかをユーザは様々な手段により指定することができる。評価対象物Pに対してユーザが保有するドメイン知識を組み込むことによって、より適切な学習が可能となる。 In this way, the user can specify by various means what kind of learning images should be learned preferentially in each iterative learning. By incorporating the domain knowledge held by the user into the evaluation object P, more appropriate learning becomes possible.

<ハードウェア構成>
図5は、画像分析システム1のハードウェア構成の一例を示す図である。画像分析システム1は、前述の撮像装置106と、計算機100とを有する。撮像装置106は先述の通りである。計算機100は、本実施形態における画像評価方法を処理する構成物であり、プロセッサ101と、記憶資源(メモリリソース)102と、GUI装置103と、入力装置104と、通信インターフェイス105と、を備える。
<Hardware configuration>
FIG. 5 is a diagram showing an example of the hardware configuration of the image analysis system 1. The image analysis system 1 includes the above-described imaging device 106 and a computer 100. The imaging device 106 is as described above. The computer 100 is a component that processes the image evaluation method in this embodiment, and includes a processor 101, a storage resource (memory resource) 102, a GUI device 103, an input device 104, and a communication interface 105.

プロセッサ101は、CPU(Central Processing Unit)、GPU(Graphic Processing Unit等の処理装置であるが、これに限定されるものではなく、上述の画像分析方法を実行できるものであればよい。また、少なくとも、一つのプロセッサ101は、シングルコアでもよいしマルチコアでもよい。あるいは、処理の一部又は全部を行うハードウェア記述言語によりその機能が実現されるゲートアレイの集合体である回路(例えばFPGA(Field-Programmable Gate Array)、CPLD(Complex Programmable Logic Device)、又はASIC(Application Specific Integrated Circuit)といった広義のプロセッサデバイスでもよい。 The processor 101 is a processing device such as a CPU (Central Processing Unit) or a GPU (Graphic Processing Unit), but is not limited thereto, and may be any device that can execute the above-described image analysis method. , one processor 101 may be single-core or multi-core.Alternatively, one processor 101 may be a single-core or multi-core circuit.Alternatively, one processor 101 may be a circuit that is a collection of gate arrays (for example, an FPGA (Field -Programmable Gate Array), CPLD (Complex Programmable Logic Device), or ASIC (Application Specific Integrated Circuit).

記憶資源102は、RAM(Random Access Memory)、ROM(Read Only Memory)、HDD(Hard Disk Drive)、不揮発メモリ(フラッシュメモリ等)等の記憶装置であり、プログラムやデータが一時的に読み出される記憶エリアとして機能する。記憶資源102は、上述の実施形態にて説明した画像分析方法をプロセッサ101に実行させるプログラム(画像分析プログラムと呼ぶ)を格納してもよい。 The storage resource 102 is a storage device such as RAM (Random Access Memory), ROM (Read Only Memory), HDD (Hard Disk Drive), non-volatile memory (flash memory, etc.), and is a storage from which programs and data are temporarily read. It functions as an area. The storage resource 102 may store a program (referred to as an image analysis program) that causes the processor 101 to execute the image analysis method described in the above embodiment.

GUI装置103は、GUIを表示する装置であって、例えばOLCD(Organic Liquid Crystal Display)等のディスプレイやプロジェクタであるが、GUIを表示ができる装置であればよく、本例に限定されない。入力装置104は、ユーザからの入力操作を受け付ける装置であって、例えばキーボード、マウス、タッチパネル等の入力装置である。入力装置104は、ユーザからの操作を受け付けられる構成物であれば特に限定されるものではなく、入力装置104とGUI装置103とは一体の装置であってもよい。 The GUI device 103 is a device that displays a GUI, and is, for example, a display such as an OLCD (Organic Liquid Crystal Display) or a projector, but it may be any device that can display a GUI, and is not limited to this example. The input device 104 is a device that accepts input operations from a user, and is, for example, an input device such as a keyboard, a mouse, or a touch panel. The input device 104 is not particularly limited as long as it is a component that can accept operations from the user, and the input device 104 and the GUI device 103 may be an integrated device.

通信インターフェイス105は、USB、Ethernet、Wi-Fi等であって、情報の入出力を仲介するインターフェイスである。なお、通信インターフェイス105は、撮像装置106から画像を直接受信できたり、又はユーザが当該画像を計算機100に送信できたりするインターフェイスであれば、ここに示す例に限定されない。なお、当該通信インターフェイス105に、当該画像を格納した可搬不揮発記憶媒体(たとえばフラッシュメモリ、DVD、CD-ROM、ブルーレイディスク等の)を接続し、計算機100に当該画像を格納することができる。 The communication interface 105 is a USB, Ethernet, Wi-Fi, etc. interface that mediates input and output of information. Note that the communication interface 105 is not limited to the example shown here, as long as it is an interface that can directly receive images from the imaging device 106 or allow the user to send the images to the computer 100. Note that a portable non-volatile storage medium (for example, a flash memory, DVD, CD-ROM, Blu-ray disc, etc.) storing the image can be connected to the communication interface 105 and the image can be stored in the computer 100.

以上、本実施形態によれば、機械学習を活用した画像処理において、多様なパターンバリエーションを有する評価対象に対しても高速な学習が可能となる。 As described above, according to the present embodiment, in image processing using machine learning, high-speed learning is possible even for evaluation targets having various pattern variations.

なお、前述の通り、これまで説明した実施形態は特許請求の範囲に係る発明を限定するものではなく、また、実施形態の中で説明されている諸要素及びその組み合わせの全てが発明の解決手段に必須であるとは限らない。 As mentioned above, the embodiments described so far do not limit the claimed invention, and all of the various elements and combinations thereof described in the embodiments are a means of solving the invention. is not necessarily required.

付言すれば、画像分析システム1を構成する計算機100は複数であってもよく、撮像装置106が複数であってもよい。また、先述の画像分析プログラムは、画像分析プログラムを格納する可搬不揮発記憶媒体を通信インターフェイス105に接続することで、計算機100に配布することができる。又は、画像分析プログラムは、プログラム配信サーバにより計算機100に配信することができる。この場合、プログラム配信サーバは、画像分析プログラムを格納した記憶資源102と、画像分析プログラムを配信する配信処理を行うプロセッサと、計算機100の通信インターフェイス装置と通信可能である通信インターフェイス装置と、を有する。なお、計算機100に配布又は配信された画像分析プログラムは、プロセッサ101により各種機能が実現される。 In addition, the image analysis system 1 may include a plurality of computers 100 and a plurality of imaging devices 106. Further, the image analysis program described above can be distributed to the computer 100 by connecting a portable non-volatile storage medium storing the image analysis program to the communication interface 105. Alternatively, the image analysis program can be distributed to the computer 100 by a program distribution server. In this case, the program distribution server includes a storage resource 102 that stores an image analysis program, a processor that performs distribution processing to distribute the image analysis program, and a communication interface device that can communicate with the communication interface device of the computer 100. . Note that various functions of the image analysis program distributed or distributed to the computer 100 are realized by the processor 101.

また、先述のように、画像分析システム1は、評価エンジン111の学習を行う学習フェーズ110と、学習フェーズ110で学習した評価エンジン111を用いて、評価画像Sの評価を行う評価フェーズ120とを実行する。学習フェーズ110を実行するプロセッサ101と、評価フェーズ120を実行するプロセッサ101は、同じであってもよいし、異なっていてもよい。学習フェーズ110を実行するプロセッサ101と、評価フェーズ120を実行するプロセッサ101とが異なる場合、学習フェーズ110を実行するプロセッサ101は、評価フェーズ120を実行するプロセッサ101に、評価エンジン111の内部パラメータ113を引き渡すことができる。 Furthermore, as described above, the image analysis system 1 performs a learning phase 110 in which the evaluation engine 111 is trained, and an evaluation phase 120 in which the evaluation image S is evaluated using the evaluation engine 111 learned in the learning phase 110. Execute. The processor 101 that executes the learning phase 110 and the processor 101 that executes the evaluation phase 120 may be the same or different. If the processor 101 that executes the learning phase 110 and the processor 101 that executes the evaluation phase 120 are different, the processor 101 that executes the learning phase 110 provides internal parameters 113 of the evaluation engine 111 to the processor 101 that executes the evaluation phase 120. can be handed over.

1:画像分析システム、100:計算機、101:プロセッサ、102:記憶資源、103:GUI装置、104:入力装置、105:通信インターフェイス、106:撮像装置、110:学習フェーズ、111:評価エンジン、112:学習画像選択エンジン、113:内部パラメータ、120:評価フェーズ、201:選択確率P_k(f_i)、202:評価結果、203:推定評価値の正否、204:余裕度M(f_i)、400:選択条件入力画面、401,412,413,414,419,420:チェックボックス、402,403,404:ラジオボタン、405:直線、406:値、407:折れ線、408,409,411,415,416,417,421,422:ボックス、410:曲線、P:評価対象物、Q:全学習画像群、R:学習画像群{f_i}、S:評価画像、T:サブ学習画像群{f’_j(k)} 1: Image analysis system, 100: Computer, 101: Processor, 102: Storage resource, 103: GUI device, 104: Input device, 105: Communication interface, 106: Imaging device, 110: Learning phase, 111: Evaluation engine, 112 : Learning image selection engine, 113: Internal parameters, 120: Evaluation phase, 201: Selection probability P_k(f_i), 202: Evaluation result, 203: Correctness of estimated evaluation value, 204: Margin M(f_i), 400: Selection Condition input screen, 401, 412, 413, 414, 419, 420: Check box, 402, 403, 404: Radio button, 405: Straight line, 406: Value, 407: Polyline, 408, 409, 411, 415, 416, 417, 421, 422: Box, 410: Curve, P: Evaluation object, Q: All learning image group, R: Learning image group {f_i}, S: Evaluation image, T: Sub-learning image group {f'_j( k)}

Claims (9)

少なくとも1つのプロセッサと、メモリリソースとを備える画像分析システムであって、
前記プロセッサは、
*学習用の評価対象物を撮像して学習画像群{f_i}(i=1,…,Nf, Nf:学習画像数)を取得する学習画像取得ステップ
*学習画像群{f_i}を用いて評価エンジンを学習する学習ステップ
*評価対象物を撮像して評価画像を取得する評価画像取得ステップ
*評価画像を学習済みの評価エンジンに入力して推定評価値を出力する評価ステップ
を実行し、
前記学習ステップでは、反復学習毎に学習画像群{f_i}の部分集合であるサブ学習画像群{f'_j(k)}(j=1,…,Nf'_k, Nf'_k:サブ学習画像数, {f'_j(k)}⊂{f_i}, k:反復学習の回数)を画像選択エンジンにより決定し、サブ学習画像群{f'_j(k)}を用いて評価エンジンのk回目の反復学習を行うことを特徴とする、画像分析システム。
An image analysis system comprising at least one processor and memory resources, the system comprising:
The processor includes:
*Learning image acquisition step of capturing an image of the evaluation object for learning and acquiring a learning image group {f_i} (i=1,...,Nf, Nf: number of learning images) *Evaluation using the learning image group {f_i} A learning step for learning the engine *Evaluation image acquisition step for capturing an evaluation object and acquiring an evaluation image *Evaluation step for inputting an evaluation image into a trained evaluation engine and outputting an estimated evaluation value;
In the learning step, a sub-learning image group {f'_j(k)} (j=1,...,Nf'_k, Nf'_k: sub-learning image number, {f'_j(k)}⊂{f_i}, k: number of iterative learning) is determined by the image selection engine, and the k-th iteration of the evaluation engine is determined using the sub-learning image group {f'_j(k)}. An image analysis system that performs iterative learning.
請求項1に記載の画像分析システムであって、
前記学習ステップにおいて、反復学習中の前記評価エンジンに学習画像f_iを入力した際に出力される前記推定評価値の正否の度合いを定量化した余裕度M(f_i)を算出し、
k回目の反復学習における学習画像f_iのサブ学習画像群{f'_j(k)}への選択確率P_k(f_i)は、余裕度M(f_i)の関数であることを特徴とする、画像分析システム。
The image analysis system according to claim 1,
In the learning step, calculate a margin M(f_i) that quantifies the degree of correctness of the estimated evaluation value output when the learning image f_i is input to the evaluation engine during iterative learning,
Image analysis characterized in that the selection probability P_k(f_i) of the learning image f_i to the sub-learning image group {f'_j(k)} in the k-th iterative learning is a function of the margin M(f_i). system.
請求項1に記載の画像分析システムであって、
前記学習ステップにおいて、k回目の反復学習における学習画像f_iのサブ学習画像群{f'_j(k)}への選択確率P_k(f_i)は、学習画像f_iとその他の学習画像群{f_a}(a≠i)間の類似度の関数であることを特徴とする、画像分析システム。
The image analysis system according to claim 1,
In the learning step, the selection probability P_k(f_i) of the learning image f_i to the sub-learning image group {f'_j(k)} in the k-th iterative learning is determined by the selection probability P_k(f_i) of the learning image f_i and the other learning image group {f_a}( An image analysis system characterized in that the function is a function of similarity between a≠i).
請求項1に記載の画像分析システムであって、
前記学習ステップにおいて、学習画像群{f_i}の画像数Nfからサブ学習画像群{f'_j(k)}の画像数Nf'_kへの削減率R_kの指定を受け付けるGUIを有し、
前記削減率R_kは反復学習の回数kの関数であることを特徴とする、画像分析システム。
The image analysis system according to claim 1,
In the learning step, the method includes a GUI that accepts the specification of a reduction rate R_k from the number of images Nf of the training image group {f_i} to the number of images Nf'_k of the sub-learning image group {f'_j(k)};
An image analysis system characterized in that the reduction rate R_k is a function of the number k of iterative learning.
画像分析システムによる画像分析方法であって、
学習用の評価対象物を撮像して学習画像群{f_i}(i=1,…,Nf, Nf:学習画像数)を取得する学習画像取得ステップと、
学習画像群{f_i}を用いて評価エンジンを学習する学習ステップと、
評価対象物を撮像して評価画像を取得する評価画像取得ステップと、
評価画像を学習済みの評価エンジンに入力して推定評価値を出力する評価ステップと、を含み、
前記学習ステップでは、反復学習毎に学習画像群{f_i}の部分集合であるサブ学習画像群{f'_j(k)}(j=1,…,Nf'_k, Nf'_k:サブ学習画像数, {f'_j(k)}⊂{f_i}, k:反復学習の回数)を画像選択エンジンにより決定し、サブ学習画像群{f'_j(k)}を用いて評価エンジンのk回目の反復学習を行うことを特徴とする、画像分析方法。
An image analysis method using an image analysis system, the method comprising:
a learning image acquisition step of capturing an evaluation object for learning and acquiring a learning image group {f_i} (i=1,...,Nf, Nf: number of learning images);
a learning step of learning the evaluation engine using the training image group {f_i};
an evaluation image acquisition step of capturing an evaluation image by imaging the evaluation target;
an evaluation step of inputting the evaluation image into a trained evaluation engine and outputting an estimated evaluation value;
In the learning step, a sub-learning image group {f'_j(k)} (j=1,...,Nf'_k, Nf'_k: sub-learning image number, {f'_j(k)}⊂{f_i}, k: number of iterative learning) is determined by the image selection engine, and the k-th iteration of the evaluation engine is determined using the sub-learning image group {f'_j(k)}. An image analysis method characterized by performing iterative learning.
請求項5に記載の画像分析方法であって、
前記学習ステップにおいて、反復学習中の前記評価エンジンに学習画像f_iを入力した際に出力される前記推定評価値の正否の度合いを定量化した余裕度M(f_i)を算出し、
k回目の反復学習における学習画像f_iのサブ学習画像群{f'_j(k)}への選択確率P_k(f_i)は、余裕度M(f_i)の関数であることを特徴とする、画像分析方法。
The image analysis method according to claim 5,
In the learning step, calculate a margin M(f_i) that quantifies the degree of correctness of the estimated evaluation value output when the learning image f_i is input to the evaluation engine during iterative learning,
Image analysis characterized in that the selection probability P_k(f_i) of the learning image f_i to the sub-learning image group {f'_j(k)} in the k-th iterative learning is a function of the margin M(f_i). Method.
請求項5に記載の画像分析方法であって、
前記学習ステップにおいて、k回目の反復学習における学習画像f_iのサブ学習画像群{f'_j(k)}への選択確率P_k(f_i)は、学習画像f_iとその他の学習画像群{f_a}(a≠i)間の類似度の関数であることを特徴とする、画像分析方法。
The image analysis method according to claim 5,
In the learning step, the selection probability P_k(f_i) of the learning image f_i to the sub-learning image group {f'_j(k)} in the k-th iterative learning is determined by the selection probability P_k(f_i) of the learning image f_i and the other learning image group {f_a}( An image analysis method characterized in that it is a function of similarity between a≠i).
請求項5に記載の画像分析方法であって、
前記学習ステップにおいて、学習画像群{f_i}の画像数Nfからサブ学習画像群{f'_j(k)}の画像数Nf'_kへの削減率R_kの指定をGUIを介して受け付け、
前記削減率R_kは反復学習の回数kの関数であることを特徴とする、画像分析方法。
The image analysis method according to claim 5,
In the learning step, a designation of a reduction rate R_k from the number of images Nf of the training image group {f_i} to the number of images Nf'_k of the sub-learning image group {f'_j(k)} is accepted via the GUI;
An image analysis method, wherein the reduction rate R_k is a function of the number k of iterative learning.
請求項5から8のいずれか一項に記載の画像分析方法をプロセッサに実行させる、プログラム。 A program that causes a processor to execute the image analysis method according to claim 5.
JP2022033635A 2022-03-04 2022-03-04 Image analysis system, image analysis method, and program Pending JP2023128941A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022033635A JP2023128941A (en) 2022-03-04 2022-03-04 Image analysis system, image analysis method, and program
PCT/JP2022/036388 WO2023166773A1 (en) 2022-03-04 2022-09-29 Image analysis system, image analysis method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022033635A JP2023128941A (en) 2022-03-04 2022-03-04 Image analysis system, image analysis method, and program

Publications (1)

Publication Number Publication Date
JP2023128941A true JP2023128941A (en) 2023-09-14

Family

ID=87883538

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022033635A Pending JP2023128941A (en) 2022-03-04 2022-03-04 Image analysis system, image analysis method, and program

Country Status (2)

Country Link
JP (1) JP2023128941A (en)
WO (1) WO2023166773A1 (en)

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016103094A (en) * 2014-11-27 2016-06-02 株式会社豊田自動織機 Image processing method, image processor, and image processing program
JP7468088B2 (en) * 2020-02-18 2024-04-16 東洋製罐グループホールディングス株式会社 Image processing system and image processing program

Also Published As

Publication number Publication date
WO2023166773A1 (en) 2023-09-07

Similar Documents

Publication Publication Date Title
JP6969637B2 (en) Causality analysis methods and electronic devices
CN107408209B (en) System and method for defect classification in semiconductor processing
US10679333B2 (en) Defect detection, classification, and process window control using scanning electron microscope metrology
US10824959B1 (en) Explainers for machine learning classifiers
US20230115700A1 (en) Automated generation of machine learning models
US20200050935A1 (en) Deep learning model execution using tagged data
US11694327B2 (en) Cross layer common-unique analysis for nuisance filtering
CN114981800A (en) Personalized automated machine learning
EP3997628A1 (en) Techniques for visualizing the operation of neural networks
CN112420125A (en) Molecular attribute prediction method and device, intelligent equipment and terminal
de la Rosa et al. Defect detection and classification on semiconductor wafers using two-stage geometric transformation-based data augmentation and SqueezeNet lightweight convolutional neural network
US11989656B2 (en) Search space exploration for deep learning
TW202147249A (en) Automatic selection of algorithmic modules for examination of a specimen
US11816185B1 (en) Multi-view image analysis using neural networks
JP2023128941A (en) Image analysis system, image analysis method, and program
CN110705889A (en) Enterprise screening method, device, equipment and storage medium
Upadhyay et al. Artificial intelligence application to D and D—20492
Kavitha et al. Explainable AI for Detecting Fissures on Concrete Surfaces Using Transfer Learning
WO2022202456A1 (en) Appearance inspection method and appearance inspection system
Jindal et al. Ensemble Based-Cross Project Defect Prediction
US20220342371A1 (en) Causal relational artificial intelligence and risk framework for manufacturing applications
JP2020123292A (en) Evaluation method of neural network, generation method of neural network, program, and evaluation system
KR20200063904A (en) Method and apparatus for measuring relevance between nodes of edge-labeled multigraph
Wang et al. Applying SDR with CNN to Identify Weld Defect: A New Processing Method
US20220019749A1 (en) Techniques for generating natural language descriptions of neural networks