JP2021002270A - Image recognition learning device, image recognition learning method, image recognition learning program and terminal device - Google Patents
Image recognition learning device, image recognition learning method, image recognition learning program and terminal device Download PDFInfo
- Publication number
- JP2021002270A JP2021002270A JP2019116379A JP2019116379A JP2021002270A JP 2021002270 A JP2021002270 A JP 2021002270A JP 2019116379 A JP2019116379 A JP 2019116379A JP 2019116379 A JP2019116379 A JP 2019116379A JP 2021002270 A JP2021002270 A JP 2021002270A
- Authority
- JP
- Japan
- Prior art keywords
- image
- difference
- classification
- unit
- label indicating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像認識学習装置、画像認識学習方法、画像認識学習プログラム及び端末装置に関する。 The present invention relates to an image recognition learning device, an image recognition learning method, an image recognition learning program, and a terminal device.
製品の外観検査の方法として、画像認識によって異常の有無を判定する方法が知られている(例えば、特許文献1ないし特許文献3参照)。 As a method of visual inspection of a product, a method of determining the presence or absence of an abnormality by image recognition is known (see, for example, Patent Documents 1 to 3).
特許文献1は、検査対象物の検査対象領域から特徴を抽出して学習を実行する。特許文献1では、部品や製品毎に試行錯誤を重ねて特徴を抽出する必要がある。特許文献2は、認識対象の教師データを用いて画像認識を行うが、本質的な特徴以外も同時に学習してしまう。これにより、非常に大量の教師データを必要とし、実用に耐え得るだけの教師データを用意することが難しいおそれがある。また、特許文献2は、特徴部分以外をマスクすることで本質的な特徴以外を除去する。ところが、本質的な特徴以外を判別するのに特徴量を用いなくてはならない。特許文献3は、所定比較領域を入力画像と基準画像で比較することで画素の濃度を調整する。これにより、大量の基準画像をあらかじめ記憶させる必要がある。
Patent Document 1 extracts features from an inspection target area of an inspection target and executes learning. In Patent Document 1, it is necessary to extract features by repeating trial and error for each part or product. In
多層ニューラルネットワークを用いたディープラーニングでは、一般的に非常に大量の教師データを必要とし、実用に耐え得るだけの教師データを用意することが難しいおそれがある。教師データの量が不十分であると、適切な認識率を得ることが難しくなる。このように、多層ニュートラルネットワークを用いたディープラーニングでは、認識率の向上に改善の余地がある。 Deep learning using a multi-layer neural network generally requires a very large amount of teacher data, and it may be difficult to prepare enough teacher data to withstand practical use. Insufficient amount of teacher data makes it difficult to obtain an appropriate recognition rate. As described above, in deep learning using a multi-layer neutral network, there is room for improvement in improving the recognition rate.
本発明は、上記に鑑みてなされたものであって、適切な認識率を有する多層ニュートラルネットワークを構築することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to construct a multi-layer neutral network having an appropriate recognition rate.
上述した課題を解決し、目的を達成するために、本発明に係る画像認識学習装置は、第1の分類を示すラベルを付与した画像と第2の分類を示すラベルを付与した画像とを取得する画像取得部と、前記第1の分類を示すラベルを付与した画像に基づく基準画像を生成する基準画像生成部と、前記第1の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第1の差分画像及び前記第2の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第2の差分画像を生成する差分画像生成部と、前記第1の差分画像と前記第2の差分画像とを用いて、前記第1の分類と前記第2の分類とを識別する多層ニューラルネットワークの重みづけを学習させた学習済みモデルを生成する学習部と、を備える。 In order to solve the above-mentioned problems and achieve the object, the image recognition learning device according to the present invention acquires an image with a label indicating the first classification and an image with a label indicating the second classification. The difference between the image acquisition unit, the reference image generation unit that generates a reference image based on the image with the label indicating the first classification, and the image with the label indicating the first classification and the reference image. A difference image generation unit that generates a second difference image calculated from the difference between the first difference image calculated from the above and the image with the label indicating the second classification and the reference image, and the first difference image. A learning unit that generates a trained model in which the weighting of the multi-layer neural network that distinguishes the first classification and the second classification is trained by using the difference image of the above and the second difference image. To be equipped.
本発明に係る画像認識学習方法は、第1の分類を示すラベルを付与した画像と第2の分類を示すラベルを付与した画像とを取得する画像取得ステップと、前記第1の分類を示すラベルを付与した画像に基づく基準画像を生成する基準画像生成ステップと、前記第1の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第1の差分画像及び前記第2の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第2の差分画像を生成する差分画像生成ステップと、前記第1の差分画像と前記第2の差分画像とを用いて、前記第1の分類と前記第2の分類とを識別する多層ニューラルネットワークの重みづけを学習させた学習済みモデルを生成する学習ステップと、を含む。 The image recognition learning method according to the present invention includes an image acquisition step of acquiring an image with a label indicating the first classification and an image with a label indicating the second classification, and a label indicating the first classification. The first difference image calculated from the difference between the reference image generation step of generating the reference image based on the image to which the first classification is given, the image to which the label indicating the first classification is given, and the reference image, and the second Using the difference image generation step of generating the second difference image calculated from the difference between the image with the label indicating the classification and the reference image, and the first difference image and the second difference image. , A learning step of generating a trained model trained in the weighting of a multi-layer neural network that distinguishes the first classification from the second classification.
本発明に係る画像認識学習プログラムは、第1の分類を示すラベルを付与した画像と第2の分類を示すラベルを付与した画像とを取得する画像取得ステップと、前記第1の分類を示すラベルを付与した画像に基づく基準画像を生成する基準画像生成ステップと、前記第1の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第1の差分画像及び前記第2の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第2の差分画像を生成する差分画像生成ステップと、前記第1の差分画像と前記第2の差分画像とを用いて、前記第1の分類と前記第2の分類とを識別する多層ニューラルネットワークの重みづけを学習させた学習済みモデルを生成する学習ステップと、を含む。 The image recognition learning program according to the present invention includes an image acquisition step of acquiring an image with a label indicating the first classification and an image with a label indicating the second classification, and a label indicating the first classification. The first difference image calculated from the difference between the reference image generation step of generating the reference image based on the image to which the first classification is given, the image to which the label indicating the first classification is given, and the reference image, and the second Using the difference image generation step of generating the second difference image calculated from the difference between the image with the label indicating the classification and the reference image, and the first difference image and the second difference image. , A learning step of generating a trained model trained in the weighting of a multi-layer neural network that distinguishes the first classification from the second classification.
本発明に係る端末装置は、特定の画像を取得する画像取得部と、第1の分類を示すラベルを付与した画像に基づく基準画像を取得する基準画像取得部と、前記特定の画像と前記基準画像との差分から算出される第3の差分画像を生成する差分画像生成部と、第1の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第1の差分画像と、第2の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第2の差分画像とを用いて、前記第1の分類と前記第2の分類とを識別する多層ニューラルネットワークの重みづけを学習させた学習済みモデルを取得する学習済みモデル取得部と、前記学習済みモデルに前記第3の差分画像を入力することで、前記画像取得部で取得した特定の画像を第1の分類と前記第2の分類とに識別するデータ推論部と、を備える。 The terminal device according to the present invention includes an image acquisition unit that acquires a specific image, a reference image acquisition unit that acquires a reference image based on an image with a label indicating the first classification, the specific image, and the reference. A difference image generation unit that generates a third difference image calculated from the difference between the images, and a first difference image calculated from the difference between the image with the label indicating the first classification and the reference image. , A multi-layer neural that discriminates between the first classification and the second classification by using a second difference image calculated from the difference between the image labeled indicating the second classification and the reference image. By inputting the third difference image into the trained model and the trained model acquisition unit that acquires the trained model in which the weighting of the network is trained, the specific image acquired by the image acquisition unit can be obtained. It is provided with a data inference unit that distinguishes between the first classification and the second classification.
本発明によれば、適切な認識率を有する多層ニュートラルネットワークを構築することができるという効果を奏する。 According to the present invention, there is an effect that a multi-layer neutral network having an appropriate recognition rate can be constructed.
以下に添付図面を参照して、本発明に係る画像認識学習装置、画像認識学習方法、画像認識学習プログラム及び端末装置の実施形態を詳細に説明する。なお、以下の実施形態により本発明が限定されるものではない。 Hereinafter, embodiments of the image recognition learning device, the image recognition learning method, the image recognition learning program, and the terminal device according to the present invention will be described in detail with reference to the accompanying drawings. The present invention is not limited to the following embodiments.
[第一実施形態]
図1は、第一実施形態に係る画像処理システムの構成例の一例を示す概略図である。画像処理システム1は、教師データを使用する教師あり学習のディープラーニングによって学習させた多層ニューラルネットワーク(以下、「DNN」という。)により画像認識を実行する。
[First Embodiment]
FIG. 1 is a schematic view showing an example of a configuration example of the image processing system according to the first embodiment. The image processing system 1 executes image recognition by a multi-layer neural network (hereinafter referred to as “DNN”) trained by deep learning of supervised learning using teacher data.
ディープラーニングは、DNNを使用した推論の精度が向上するように、DNNの重みの更新を繰り返し実行して、DNNの推論結果が良好になるようにDNNの重みを導出する機械学習の一手法である。 Deep learning is a machine learning method that repeatedly updates the DNN weights so that the accuracy of inference using DNN is improved, and derives the DNN weights so that the inference result of DNN is good. is there.
画像処理システム1は、例えば、製品の表面にある傷等の異常を検出する際に使用される。画像処理システム1は、記録部10と、基準画像生成部20と、学習部30と、推論部40と、表示部50とを含む。記録部10と基準画像生成部20と学習部30とを含む構成を、画像認識学習装置2という。記録部10と基準画像生成部20と推論部40とを含む構成を、画像認識装置3という。
The image processing system 1 is used, for example, when detecting an abnormality such as a scratch on the surface of a product. The image processing system 1 includes a
記録部10は、画像処理システム1で使用する教師データである画像セットを記録する。記録部10は、訓練用(training)画像セット、確認用(validation)画像セット、及びテスト用(test)画像セットが記録されている。訓練用画像セット、確認用画像セット、及びテスト用画像セットの各画像セットはディープラーニングで一般的に利用される画像セットの分類法である。訓練用画像セットは、学習に利用する。確認用画像セットは、汎化性能を評価し、その評価結果を受けて学習済みモデルの分類器のパラメータの再調整に利用する。汎化性能とは、学習時に与えられた訓練データだけに対してだけでなく、未知の新たなデータに対するクラスラベルや関数値も正しく予測できる能力のことである。テスト用画像セットは、DNNを使用した推論結果を評価する。各画像セットには、画像とその画像の分類タイプ(ラベル)との組み合わせが含まれる。記録部10は、例えば、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、または、ハードディスク、光ディスクなどの記憶装置である。なお、記録部10は教師データである画像セット以外にも、外部から画像を取得することも可能である。
The
図2を用いて、画像セットについて説明する。図2は、画像セットを説明する図である。画像セットには、本実施形態では、傷、汚れ、色むら、及び変形とこれらのいずれにも該当しない正常の5つの分類タイプへ画像を分類する。画像は、それぞれの分類タイプを示すラベルを画像に付与することで分類される。正常、傷、汚れ、色むら、及び変形の各分類タイプの画像数はそれぞれ、100、5、5、5、5とする。本実施形態では、正常、傷、汚れ、色むら、及び変形の各分類タイプの画像数はそれぞれ、100、5、5、5、5としているが、これに限定されない。正常、傷、汚れ、色むら、及び変形の各分類タイプの画像数は100より多くても少なくても良い。分類タイプが正常である画像を正常画像100(図4参照)、分類タイプが傷、汚れ、色むら、または変形である画像を異常画像110(図4参照)とする。言い換えると、第1の分類を示すラベルが付与された画像を、正常画像100とする。第2の分類を示すラベルが付与された画像を、異常画像110という。本実施形態では、分類タイプを5つとしているが、これに限定されない。分類タイプは、例えば、傷、汚れ、色むら、及び変形の4つをまとめて1つの分類タイプ(例えば、異常)としてもよい。分類タイプは、例えば、傷、汚れ、色むら、及び変形の少なくとも1つ以上であればよい。分類タイプは、6つ以上でもよい。
The image set will be described with reference to FIG. FIG. 2 is a diagram illustrating an image set. In the image set, in the present embodiment, images are classified into five normal classification types that do not correspond to scratches, stains, color unevenness, and deformations. Images are classified by giving the images labels indicating their respective classification types. The number of images of each classification type of normal, scratch, stain, color unevenness, and deformation is 100, 5, 5, 5, 5, respectively. In the present embodiment, the number of images of each classification type of normal, scratch, stain, color unevenness, and deformation is 100, 5, 5, 5, 5, respectively, but is not limited thereto. The number of images of each classification type of normal, scratch, stain, color unevenness, and deformation may be more than or less than 100. An image having a normal classification type is defined as a normal image 100 (see FIG. 4), and an image having a classification type of scratches, stains, color unevenness, or deformation is defined as an abnormal image 110 (see FIG. 4). In other words, the image to which the label indicating the first classification is given is defined as the
本実施形態では、訓練用画像セット、確認用画像セット、及びテスト用画像セットの各画像セットに属する各分類タイプの画像の数は同じである。訓練用画像セット、確認用画像セット、及びテスト用画像セットの各画像セットに属する各分類タイプの画像は全て異なる画像である。本実施形態では、訓練用画像セット、確認用画像セット、及びテスト用画像セットの各分類タイプの画像の数は同じであるとするが、各分類タイプの画像はそれぞれ1枚以上あれば、各画像セットの各分類タイプの画像の数は同じでなくてもよい。 In the present embodiment, the number of images of each classification type belonging to each image set of the training image set, the confirmation image set, and the test image set is the same. The images of each classification type belonging to each image set of the training image set, the confirmation image set, and the test image set are all different images. In the present embodiment, it is assumed that the number of images of each classification type of the training image set, the confirmation image set, and the test image set is the same, but if there is one or more images of each classification type, each is The number of images for each classification type in the image set does not have to be the same.
基準画像生成部20は、第1の分類を示すラベルを付与した画像としての正常画像100に基づく基準画像を生成する。基準画像生成部20は、記録部10に記録されている訓練用画像セットに含まれる全ての正常画像100の平均画像である基準画像を生成し、記録部10に基準画像を記録する。本実施形態では、基準画像生成部20は、訓練用画像セットに含まれる全ての正常画像100のRGB毎に画素単位で平均して、基準画像を生成する。または、基準画像生成部20は、輝度成分と色差成分に分離したYCbCr毎に画素単位の平均に基づいて基準画像を生成してもよい。または、基準画像の色成分が不要である場合、基準画像生成部20は、正常画像100をグレースケールに変換し、グレースケールに変換した後の画像から基準画像を生成してもよい。
The reference
本実施形態では、基準画像を訓練用画像セットから生成したが、確認用画像セットから生成してもよく、訓練用画像セットと確認用画像セットとの両方から生成してもよい。 In the present embodiment, the reference image is generated from the training image set, but it may be generated from the confirmation image set, or may be generated from both the training image set and the confirmation image set.
本実施形態では、基準画像を全ての正常画像100の平均画像としたが、1枚以上の正常画像100の平均画像であればよい。
In the present embodiment, the reference image is the average image of all the
基準画像生成部20は、学習部30と別であるものとして説明したが、学習部30に含まれていてもよい。
Although the reference
学習部30は、第1の差分画像と第2の差分画像とを用いて、第1の分類と第2の分類とを識別する多層ニューラルネットワークの重みづけを学習させた学習済みモデル(以下、「DNNモデル」という。)を生成する。学習部30は、訓練用画像セットと確認用画像セットとを用いて、DNNモデルを、5つの分類タイプに分類する分類器としてディープラーニングにより学習させる。学習部30は、学習されたDNNモデルを記録部10に保存する。学習部30は、学習の途中で得られる損失値と正解率とを表示部50へ出力する。
The
DNNモデルは、学習したDNNを再現するために必要なパラメータで構成され、少なくともDNNの構成と重みとを含むものとする。DNNモデルの構成は、入力層と出力層の間に隠れ層として、畳み込み層、プーリング層、及び全結合層を少なくともそれぞれ1層以上有する。DNNモデルの構成として、例えば、隠れ層として、畳み込み、プーリングを2回繰り返した後、全結合層3つが並ぶLeNETがある。 The DNN model is composed of parameters necessary for reproducing the learned DNN, and includes at least the structure and weight of the DNN. The configuration of the DNN model has at least one convolutional layer, a pooling layer, and a fully connected layer as hidden layers between the input layer and the output layer. As a configuration of the DNN model, for example, as a hidden layer, there is a LeNET in which three fully connected layers are lined up after convolution and pooling are repeated twice.
図3を用いて、学習部30について詳しく説明する。図3は、第一実施形態に係る学習部の構成例を示す概略図である。学習部30は、画像取得部31、異常画像生成部32、差分画像生成部33、変形画像生成部34、DNN学習部35、及び学習済みモデル保存部36を有する。
The
画像取得部31は、記録部10から画像セットを取得する。画像取得部31は、第1の分類を示すラベルを付与した画像としての正常画像100と、第2の分類を示すラベルを付与した画像としての異常画像110とを取得する。本実施形態では、画像取得部31は、記録部10から画像セットの正常画像100または異常画像110を取得する。画像取得部31は、取得した正常画像100または異常画像110を異常画像生成部32へ出力する。
The image acquisition unit 31 acquires an image set from the
図4を用いて、異常画像生成部32について説明する。図4は、第一実施形態に係る合成異常画像を説明する図である。異常画像生成部32は、第2の分類を示すラベルを付与した異常画像110から特定の対象が含まれるエリアを切り出して第1の分類を示すラベルを付与した正常画像100に重ねて合成した合成異常画像120を生成する。本実施形態では、特定の対象が含まれるエリアは、例えば、傷、汚れ、色むら、及び変形などが含まれる異常エリアA1とする。異常画像生成部32は、異常エリアA1を正常画像100に重ねて合成して合成異常画像120を生成する。異常画像生成部32は、生成した合成異常画像120を異常画像に含める。異常画像生成部32は、生成した合成異常画像120を差分画像生成部33へ出力する。
The abnormal
より詳しくは、異常画像生成部32は、既知である異常画像110上の異常エリアA1を切り出して、正常画像100上の同一位置及び異常エリアA1を合成する合成エリアA2内に位置を変えながら、言い換えると、移動させながら、異常エリアA1を合成して、合成異常画像120を生成する。異常画像生成部32は、既知である異常画像110上の異常エリアA1を回転させて合成エリアA2に合成して、合成異常画像120を生成してもよい。異常画像生成部32は、既知である異常画像110上の異常エリアA1を拡大または縮小させて合成エリアA2に合成して、合成異常画像120を生成してもよい。異常画像生成部32は、既知である異常画像110上の異常エリアA1の輝度レベルを高くまたは低くして合成エリアA2に合成して、合成異常画像120を生成してもよい。ここで、移動、回転、拡大、縮小、または輝度レベルの変更等の処理はそれぞれ個別に実行して合成異常画像120を生成してもよく、移動、回転、拡大、縮小、または輝度レベルの変更等の処理の複数を組み合わせて合成異常画像120を生成してもよい。
More specifically, the abnormal
異常エリアA1は、既知の異常画像110において、例えば、傷、汚れ、色むら、及び変形等の異常が写されたエリアである。異常エリアA1は、ユーザによって切り出すエリアが事前に指定されている。異常画像110に対して特徴抽出処理が可能である場合、特徴抽出処理によって異常エリアA1を切り出してもよい。
The abnormal area A1 is an area in which abnormalities such as scratches, stains, color unevenness, and deformation are captured in the known
合成エリアA2は、異常画像110の分類タイプ毎に個別に設定してもよい。より詳しくは、合成エリアA2は、例えば、傷、汚れ、色むら、及び変形等の異常の種類毎に、当該異常が発生し得るエリアを限定して設定してもよい。これらにより、不適切な合成異常画像120が生成されることが抑制される。
The composite area A2 may be set individually for each classification type of the
異常エリアA1を合成する対象となる正常画像100は1以上であれば多い方が好ましい。
It is preferable that the number of
合成異常画像120は、分類タイプが傷、汚れ、色むら、または変形である画像についてそれぞれ例えば、20ずつ生成される。本実施形態では、20ずつ生成されるとしたが、1以上であれば多い方が望ましい。ただし、合成異常画像120の画像数を多くする場合、正常画像100の画像数も合わせて増やす方が望ましい。
The composite abnormality image 120 is generated, for example, 20 for each image whose classification type is scratch, stain, color unevenness, or deformation. In this embodiment, it is assumed that 20 are generated at a time, but it is desirable that the number is 1 or more. However, when increasing the number of images of the composite abnormal image 120, it is desirable to increase the number of images of the
図3に戻って、差分画像生成部33は、第1の分類を示すラベルを付与した正常画像100と基準画像との差分から算出される第1の差分画像としての正常差分画像、及び、第2の分類を示すラベルを付与した異常画像110と基準画像との差分から算出される第2の差分画像としての異常差分画像を生成する。差分画像生成部33は、異常画像生成部32が生成した合成異常画像120を第2の分類を示すラベルを付与した異常画像110に含める。言い換えると、差分画像生成部33は、合成異常画像120と基準画像との差分画像を異常差分画像に含んで生成する。差分画像生成部33は、生成した正常差分画像と異常差分画像とを変形画像生成部34へ出力する。
Returning to FIG. 3, the difference
本実施形態では、差分画像生成部33は、RGB毎の画素単位の絶対差分に基づいて差分画像を生成する。または、差分画像生成部33は、YCbCr毎に画素単位の絶対差分に基づいて差分画像を生成してもよい。さらにまたは、差分画像の色成分が不要である場合、差分画像生成部33は、正常画像100と異常画像110と基準画像とをグレースケールに変換し、グレースケールに変換した後の画像について差分画像を生成してもよい。
In the present embodiment, the difference
変形画像生成部34は、訓練用画像セットについて、新たな正常差分画像としての正常変形画像と、新たな異常差分画像としての異常変形画像とを生成する。より詳しくは、変形画像生成部34は、第1の差分画像としての正常差分画像と第2の差分画像としての異常差分画像とを、それぞれ移動、回転、拡大、縮小、または輝度レベルの変更等させて変形させて、新たな正常差分画像と異常差分画像とを生成する。移動、回転、拡大、または縮小等の変形処理にはアフィン変換を利用する。移動、回転、拡大、縮小、または輝度レベルの変更はそれぞれ個別に変形処理してもよく、移動、回転、拡大、縮小、または輝度レベルの変更の複数を組み合わせて変形処理してもよい。このように、正常差分画像から大量の正常変形画像を生成し、異常差分画像から大量の異常変形画像を生成する。変形画像生成部34は、生成した正常変形画像と異常変形画像とをDNN学習部35へ出力する。
The deformed image generation unit 34 generates a normal deformed image as a new normal difference image and an abnormally deformed image as a new abnormal difference image for the training image set. More specifically, the modified image generation unit 34 moves, rotates, enlarges, reduces, changes the brightness level, etc. of the normal difference image as the first difference image and the abnormal difference image as the second difference image, respectively. It is transformed to generate a new normal difference image and an abnormal difference image. Affine transformation is used for deformation processing such as movement, rotation, enlargement, or reduction. The movement, rotation, enlargement, reduction, or change of the brightness level may be individually transformed, or a plurality of movement, rotation, enlargement, reduction, or change of the brightness level may be combined and transformed. In this way, a large amount of normal deformed images are generated from the normal difference images, and a large amount of abnormally deformed images are generated from the abnormal difference images. The deformed image generation unit 34 outputs the generated normal deformed image and the abnormally deformed image to the
DNN学習部35は、訓練用画像セットについて、変形画像生成部34が生成した正常変形画像を含む正常差分画像と、変形画像生成部34が生成した異常変形画像を含む異常差分画像とを用いて分類タイプを認識するモデルとしてDNNの重みを学習する。DNN学習部35における学習は、公知のディープラーニングにおける学習と同様の方法で実行すればよい。例えば、DNN学習部35は、分類タイプが「正常」である正常差分画像をDNNに入力してディープラーニング学習を実行する。そして、分類タイプが「異常」であると誤った推論結果が出力される場合に誤差逆伝搬法に基づいて、学習中の重みを更新する。また、DNN学習部35は、分類タイプが「異常」である異常差分画像をDNNに入力してディープラーニング学習を実行する。そして、分類タイプが「正常」であると誤った推論結果が出力される場合に誤差逆伝搬法に基づいて、学習中の重みを更新する。このようにエポックと呼ばれる処理を繰り返し行うことによって、学習の結果として学習済みの重みを求める。所望の損失値と正解率が得られるまでエポックを繰り返し実行する。DNN学習部35は、DNNの重みを含むDNNモデルを学習済みモデル保存部36へ出力する。
The
DNN学習部35は、確認用画像セットについて、正常差分画像と異常差分画像とについて分類タイプを推論する。DNN学習部35における推論は、公知のディープラーニングにおける推論と同様の方法で実行すればよい。例えば、DNN学習部35は、分類タイプが「正常」である正常差分画像をDNNに入力して学習済みのDNNの汎化性能を確認する。また、DNN学習部35は、分類タイプが「異常」である異常差分画像をDNNに入力して学習済みのDNNの汎化性能を確認する。このような処理をエポック毎に繰り返し行うことによって、DNN学習部35は、汎化性能を確認する。学習済みモデル保存部汎化性能が十分でない場合には、DNNモデルの見直しや訓練用画像セットの見直しが必要になる。
The
学習済みモデル保存部36は、DNN学習部35から出力されたDNNモデルを記録部10に記録する。
The learned
図5を用いて、推論部40について説明する。図5は、第一実施形態に係る推論部の構成例を示す概略図である。推論部40は、DNNを使用して画像認識を実行して推論する。より詳しくは、推論部40は、記録部10から学習されたDNNモデルを読み出してDNNを再現し、テスト用画像セットの分類タイプを分類し、推論結果を表示部50へ出力する。推論部40は、画像取得部42、差分画像生成部43、データ推論部44、及び学習済みモデル取得部46、を有する。
The
学習済みモデル取得部46は、記録部10に記録されているDNNモデルを取得する。学習済みモデル取得部46は、取得したDNNモデルをデータ推論部44へ出力する。
The trained
画像取得部42は、記録部10からテスト用画像セットの正常画像100と異常画像110とを評価画像として取得する。画像取得部42は、評価画像を差分画像生成部43へ出力する。
The
差分画像生成部43は、評価画像と基準画像との差分画像である評価差分画像を生成する。より詳しくは、差分画像生成部43は、評価画像のうちの正常画像100と基準画像との正常差分画像、及び、評価画像のうちの異常画像110と基準画像との異常差分画像を評価差分画像として生成する。差分画像生成部43は、生成した評価差分画像をデータ推論部44へ出力する。
The difference
データ推論部44は、評価差分画像について分類タイプを推論する。データ推論部44における推論は、公知のディープラーニングにおける推論と同様の方法で実行すればよい。データ推論部44は、正常差分画像と異常差分画像とを用いて、正常であるか異常であるかを認識するDNNで推論する。このような処理によって、データ推論部44は、DNNを使用した推論結果を評価する。データ推論部44は、推論結果を表示部50へ出力する。
The data inference unit 44 infers the classification type for the evaluation difference image. The inference in the data inference unit 44 may be executed in the same manner as the inference in known deep learning. The data inference unit 44 uses the normal difference image and the abnormal difference image to infer with a DNN that recognizes whether the image is normal or abnormal. By such processing, the data inference unit 44 evaluates the inference result using DNN. The data inference unit 44 outputs the inference result to the
表示部50は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)または有機EL(Organic Electro−Luminescence)ディスプレイを含むディスプレイである。表示部50は、学習部30の学習の途中経過及び推論部40の推論結果を表示する。
The
ここまでで、画像処理システム1の構成について説明したが、基準画像生成部20、学習部30、推論部40はROM、RAM、CPU、GPU等であり、またはこれらの組み合わせである。
Although the configuration of the image processing system 1 has been described so far, the reference
次に、図6を用いて、画像処理システムの画像認識方法及び作用について説明する。図6は、第一実施形態に係る画像処理システムにおける処理の流れを示すフローチャートである。画像認識学習装置2として使用する場合、ステップST1ないしステップST3及びステップST5の処理を実行すればよい。画像認識装置3として使用する場合、ステップST1ないしステップST2及びステップST4ないしステップST5の処理を実行すればよい。ステップST1ないしステップST3の処理は、DNNモデルを学習する際に少なくとも一度実行すればよい。
Next, the image recognition method and operation of the image processing system will be described with reference to FIG. FIG. 6 is a flowchart showing a processing flow in the image processing system according to the first embodiment. When used as the image
画像処理システム1は、記録部10によって、画像セットを記録する(ステップST1)。画像処理システム1は、ステップST2へ進む。 The image processing system 1 records an image set by the recording unit 10 (step ST1). The image processing system 1 proceeds to step ST2.
画像処理システム1は、基準画像生成部20によって、基準画像を生成する(ステップST2)。画像処理システム1は、ステップST3へ進む。 The image processing system 1 generates a reference image by the reference image generation unit 20 (step ST2). The image processing system 1 proceeds to step ST3.
画像処理システム1は、学習部30によって、DNNモデルを学習する (ステップST3)。ステップST3の処理の詳細は後述する。画像処理システム1は、ステップST4へ進む。 The image processing system 1 learns the DNN model by the learning unit 30 (step ST3). Details of the process in step ST3 will be described later. The image processing system 1 proceeds to step ST4.
画像処理システム1は、推論部40によって、DNNモデルによって正常であるか異常であるかを推論する(ステップST4)。ステップST4の処理の詳細は後述する。画像処理システム1は、ステップST5へ進む。 The image processing system 1 infers whether it is normal or abnormal by the DNN model by the inference unit 40 (step ST4). Details of the process in step ST4 will be described later. The image processing system 1 proceeds to step ST5.
画像処理システム1は、表示部50によって、推論結果を表示する(ステップST5)。画像処理システム1は、処理を終了する。 The image processing system 1 displays the inference result by the display unit 50 (step ST5). The image processing system 1 ends the processing.
図7を用いて、図6に示すフローチャートのステップST3の学習部30における処理について説明する。図7は、第一実施形態に係る学習部における処理の流れを示すフローチャートである。Eはエポック数のカウンタである。なお、エポック数とは、同一の訓練用画像セットまたは確認用画像セットを用いて、繰り返し学習する回数を意味する。本実施形態では、エポック数を10とする。エポック数の数だけステップST10からステップST22までの処理を繰り返す。Sは画像セットの種類を示すカウンタである。カウンタSが0の場合、訓練用画像セットを示し、カウンタSが1の場合、確認用画像セットを示す。画像セットの種類の数だけステップST11からステップST21までの処理を繰り返す。
The process in the
学習部30が処理を実行する前に、基準画像生成部20が基準画像を生成する。また、画像取得部31は、記録部10から各画像セットの正常画像100を取得する。
The reference
学習部30は、エポック数のカウンタEをクリアしてゼロにする(ステップST10)。学習部30は、ステップST11に進む。
The
学習部30は、画像セットのカウンタSをクリアしてゼロにする(ステップST11)。学習部30は、ステップST12に進む。
The
学習部30は、異常画像生成部32によって、異常エリアA1を各正常画像100に合成して各合成異常画像120を生成する(ステップST12)。学習部30は、ステップST13に進む。
The
学習部30は、差分画像生成部33によって、各正常画像100と基準画像の差分画像である正常差分画像をそれぞれ生成する(ステップST13)。学習部30は、ステップST14に進む。
The
学習部30は、差分画像生成部33によって、各異常画像110と基準画像の差分画像である異常差分画像をそれぞれ生成する(ステップST14)。学習部30は、ステップST15に進む。
The
学習部30は、差分画像生成部33によって、各合成異常画像120と基準画像の差分画像である異常差分画像をそれぞれ生成する(ステップST15)。学習部30は、ステップST16に進む。
The
学習部30は、変形画像生成部34によって、画像セットのカウンタSが示す画像セットが訓練用画像セットであるか検査する(ステップST16)。変形画像生成部34は、画像セットのカウンタSが0である場合、画像セットが訓練用画像セットであると判定する(ステップST16でYes)。変形画像生成部34は、画像セットのカウンタSが0ではない場合、画像セットが訓練用画像セットではないと判定する(ステップST16でNo)。
The
画像セットのカウンタSが示す画像セットが訓練用画像セットであると判定された場合(ステップST16のYES)、学習部30は、変形画像生成部34によって、各正常差分画像に移動、回転、拡大、縮小、または輝度レベルの変更等の変形処理を加えて、正常変形画像をそれぞれ生成する(ステップST17)。学習部30は、ステップST18に進む。
When it is determined that the image set indicated by the counter S of the image set is the training image set (YES in step ST16), the
学習部30は、変形画像生成部34によって、各異常差分画像に移動、回転、拡大、縮小、または輝度レベルの変更等の変形処理を加えて、異常変形画像をそれぞれ生成する(ステップST18)。学習部30は、ステップST19に進む。
The
学習部30は、DNN学習部35によって、各正常変形画像を含む正常差分画像と、各異常変形画像を含む異常差分画像とを用いて分類タイプを認識するモデルとしてDNNの重みを学習する(ステップST19)。学習部30は、ステップST21に進む。
The
画像セットのカウンタSが示す画像セットが訓練用画像セットではないと判定された他場合(ステップST16のNO)、DNN学習部35によって、正常差分画像と異常差分画像について分類タイプを推論する(ステップST20)。ここでは、DNN学習部35による推論結果を、推論部40は表示部50に送出し、表示部50は推論結果を表示する。ここで、推論結果には、推論精度(Accuracy)、適合率(Precision)、再現率(Recall)などがある。本装置のユーザは、汎化性能の確認を行い、汎化性能の進展が思わしくなければ、処理を中止し、学習済みモデルの分類器のパラメータを再調整し、図7を最初からやり直してもよい。学習部30は、ステップST21に進む。
In other cases where it is determined that the image set indicated by the counter S of the image set is not the training image set (NO in step ST16), the
学習部30は、画像セットのカウンタSが2未満である場合、画像セットのカウンタSを+1して(ステップST21)、ステップST11の処理を再度実行する。学習部30は、画像セットのカウンタSが2未満ではない場合、ステップST22に進む。
When the counter S of the image set is less than 2, the
学習部30は、エポック数のカウンタEが10未満である場合、エポック数のカウンタEを+1して(ステップST22)、ステップST10の処理を再度実行する。学習部30は、エポック数のカウンタEが10未満ではない場合、ステップST23に進む。
When the epoch number counter E is less than 10, the
学習部30は、学習済みモデル保存部36によって、DNNの重みを含むDNNモデルを記録部10に記録する(ステップST23)。学習部30は、処理を終了する。
The
図7では、各エポック毎に訓練用画像セットと確認用画像セットの合成異常画像、正常差分画像、異常差分画像、正常変形画像、異常変形画像を生成しているが、最初のエポックでこれらを保存しておき、2回目以降のエポックではこれらを読み出すだけにしてもよいし、事前に保存しておいて最初から読み出してもよい。 In FIG. 7, a composite abnormal image, a normal difference image, an abnormal difference image, a normal deformed image, and an abnormal deformed image of the training image set and the confirmation image set are generated for each epoch, but these are generated in the first epoch. They may be saved and then only read in the second and subsequent epochs, or they may be saved in advance and read from the beginning.
図8を用いて、図6に示すフローチャートのステップST4の推論部40における処理について説明する。図8は、第一実施形態に係る推論部における処理の流れを示すフローチャートである。
The process in the
推論部40は、学習済みモデル取得部46によって、記録部10に記録されているDNNモデルを読み出す(ステップST30)。推論部40は、ステップST31に進む。
The
推論部40は、画像取得部42によって、記録部10からテスト用画像セットの正常画像100と異常画像110とを評価画像として取得する(ステップST31)。推論部40は、ステップST32に進む。
The
推論部40は、差分画像生成部43によって、評価画像と基準画像との差分画像である評価差分画像を生成する(ステップST32)。推論部40は、ステップST33に進む。
The
推論部40は、データ推論部44によって、評価差分画像について分類タイプを推論する(ステップST33)。推論部40は、処理を終了する。
The
以上のように、画像認識学習装置2では、基準画像生成部20が、正常画像100から基準画像を生成する。学習部30の差分画像生成部33が、正常画像100と基準画像との正常差分画像、及び、異常画像110と基準画像との異常差分画像を生成する。DNN学習部35が、正常差分画像と異常差分画像とを用いて、正常画像100と異常画像110とを認識するようにDNNの重みを学習する。
As described above, in the image
画像認識装置3では、基準画像生成部20が、正常画像100から基準画像を生成する。推論部40の差分画像生成部43が、評価画像のうちの正常画像100と基準画像との正常差分画像、及び、評価画像のうちの異常画像110と基準画像との異常差分画像を評価差分画像として生成する。データ推論部44が、正常差分画像と異常差分画像とを用いて、正常であるか異常であるかを認識するDNNを使用して推論する。
In the image recognition device 3, the reference
上述したように、本実施形態では、正常画像100から基準画像を生成する。本実施形態では、正常画像100と基準画像との正常差分画像、及び、異常画像110と基準画像との異常差分画像を生成する。本実施形態は、正常差分画像と異常差分画像とを用いて、正常画像100と異常画像110とを認識するようにDNNの重みを学習することができる。本実施形態は、学習部30のDNN学習部35における学習時、正常差分画像と異常差分画像とを用いることにより、異常個所のみを学習させることができる。本実施形態は、適切な認識率を有するDNNを構築することができる。
As described above, in the present embodiment, the reference image is generated from the
本実施形態では、学習部30の異常画像生成部32が、既知である異常画像110上の異常エリアA1を正常画像100に合成して合成異常画像120を生成する。この際に、異常エリアA1を合成エリアA2内に位置を変えて合成異常画像120を生成する。異常エリアA1を拡大または縮小させて合成異常画像120を生成する。異常エリアA1を回転させて合成異常画像120を生成する。異常エリアA1の輝度レベルを高くまたは低くして合成異常画像120を生成する。本実施形態は、少ない既知の異常画像110から合成異常画像120を大量に生成することができる。本実施形態によれば、例えば、異常の発生率が低い工業製品について、本来得られにくい異常画像110から合成異常画像120を大量に生成することができる。このように、本実施形態によれば、少量の教師データから、適切な認識率を有するDNNを構築することができる。
In the present embodiment, the abnormal
本実施形態では、学習部30の異常画像生成部32が、異常画像110の分類タイプ毎に個別に合成エリアA2を設定することができる。本実施形態によれば、不適切な合成異常画像120が生成されることを抑制することができる。本実施形態は、不適切な教師データに基づく学習を抑制することができる。
In the present embodiment, the abnormal
本実施形態では、学習部30の変形画像生成部34が、正常差分画像に移動、回転、拡大、または縮小等の変形処理を加えて、正常変形画像を生成する。本実施形態では、変形画像生成部34が、異常差分画像に移動、回転、拡大、縮小、または輝度レベルの変更等の変形処理を加えて、異常変形画像を生成する。このようにして、本実施形態は、正常差分画像から正常変形画像を大量に生成し、異常差分画像から異常変形画像を大量に生成することができる。本実施形態によれば、ディープラーニングによる認識率の向上につなげることができる。
In the present embodiment, the deformed image generation unit 34 of the
また、本実施形態は、正常画像100から基準画像を生成する。本実施形態は、評価画像のうちの正常画像100と基準画像との正常差分画像、及び、評価画像のうちの異常画像110と基準画像との異常差分画像を評価差分画像として生成する。本実施形態は、推論部40のデータ推論部44による推論時、正常差分画像と異常差分画像とを用いて、正常であるか異常であるかを認識するDNNを使用して推論することができる。本実施形態によれば、適切な認識率で推論結果を得ることができる。
In addition, this embodiment generates a reference image from the
[第二実施形態]
図9を参照しながら、本実施形態に係る画像処理システム1Aについて説明する。図9は、第二実施形態に係る画像処理システムの構成例の一例を示す概略図である。画像処理システム1Aは、基本的な構成は第一実施形態の画像処理システム1と同様である。以下の説明においては、画像処理システム1と同様の構成要素には、同一の符号または対応する符号を付し、その詳細な説明は省略する。本実施形態は、画像処理システム1Aは、カメラ60Aを有する点が、第一実施形態と異なる。
[Second Embodiment]
The image processing system 1A according to the present embodiment will be described with reference to FIG. FIG. 9 is a schematic view showing an example of a configuration example of the image processing system according to the second embodiment. The basic configuration of the image processing system 1A is the same as that of the image processing system 1 of the first embodiment. In the following description, the same components as those of the image processing system 1 are designated by the same reference numerals or corresponding reference numerals, and detailed description thereof will be omitted. The present embodiment is different from the first embodiment in that the image processing system 1A has a camera 60A.
画像処理システム1Aは、製品を生産する工場の生産ライン等に配置される。画像処理システム1Aは、カメラ60A、記録部10A、基準画像生成部20A、学習部30、及び推論部40Aを有する。
The image processing system 1A is arranged on a production line or the like of a factory that produces products. The image processing system 1A includes a camera 60A, a
カメラ60Aは、例えば、検査対象である製品の外観の画像を撮影する。カメラ60Aは、工場の生産ライン等に配置される。カメラ60Aは、撮影した画像を記録部10A、基準画像生成部20A、及び推論部40Aへ出力する。
The camera 60A captures, for example, an image of the appearance of the product to be inspected. The camera 60A is arranged on a production line of a factory or the like. The camera 60A outputs the captured image to the
記録部10Aは、カメラ60Aから入力される画像を訓練用画像セット、及び確認用画像セットとして記録する。カメラ60Aから、正常、傷、汚れ、色むら、及び変形の各分類タイプの画像を取得し、訓練用画像セットと確認用画像セットにそれぞれ所定の画像枚数分記録する。
The
基準画像生成部20Aは、カメラ60Aから入力される正常画像100の平均画像である基準画像を生成し、記録部10Aに基準画像を記録する。ここでは、基準画像はカメラ60Aから入力される正常画像100から生成したが、訓練用画像セットに含まれる正常画像100から生成してもよい。
The reference image generation unit 20A generates a reference image which is an average image of the
推論部40Aは、カメラ60Aから入力される画像の分類タイプを分類する。より詳しくは、推論部40Aは、記録部10Aから学習されたDNNモデルを読み出してDNNを再現し、カメラ60Aから入力される画像の分類タイプが「正常」か「異常」かを推論する。推論部40Aによって「正常」との推論結果が得られた画像に写された製品は、正常品である。推論部40Aによって「異常」との推論結果が得られた画像に写された製品は、エラー品である。
The inference unit 40A classifies the classification type of the image input from the camera 60A. More specifically, the inference unit 40A reads the DNN model learned from the
上述したように、本実施形態は、カメラ60Aが撮影した画像に基づいて、適切な認識率を有するDNNを構築することができる。 As described above, in the present embodiment, a DNN having an appropriate recognition rate can be constructed based on the image taken by the camera 60A.
本実施形態は、カメラ60Aが撮影した画像について、DNNを使用して製品が正常であるか異常であるかを適切な認識率で推論することができる。ここでは、画像処理システム1Aに学習部30を含むとしたが、学習部30は含まなくてもよい。その場合、画像処理システム1Aは、USBやネットワーク等を経由して外部機器などに接続する接続部をを備え、記録部10Aは接続部を介して外部機器から学習されたDNNモデルを取得する。
In this embodiment, it is possible to infer at an appropriate recognition rate whether the product is normal or abnormal by using DNN for the image taken by the camera 60A. Here, the image processing system 1A includes the
[第三実施形態]
図10を参照しながら、本実施形態に係る画像処理システム1Bについて説明する。図10は、第三実施形態に係る画像処理システムの構成例の一例を示す概略図である。本実施形態は、カメラ60Bが工場の生産ライン等に配置され、推論部40Bが工場の生産ラインを監視する監視施設の端末(端末装置)90B等に配置され、学習部30Bがクラウドに配置される点で、第一実施形態と異なる。カメラ60Bと、記録部10B及び推論部40Bはデータを送受信可能に接続されている。基準画像生成部20Bと推論部40Bとは、データを送受信可能に接続されている。学習部30Bと推論部40Bとは、データを送受信可能に接続されている。
[Third Embodiment]
The
カメラ60Bは、撮影した画像を、記録部10B及び推論部40Bへ送信する。カメラ60Bは、正常、傷、汚れ、色むら、及び変形の各分類タイプの画像を取得する。
The camera 60B transmits the captured image to the
記録部10Bは、クラウド上に配置されている。記録部10Bは、カメラ60Bから送信された画像を訓練用画像セット、及び確認用画像セットとして記録する。
The
基準画像生成部20Bは、クラウド上に配置されている。基準画像生成部20Bは、カメラ60Bから送信された正常画像100の平均画像である基準画像を生成し、記録部10Bに基準画像を記録する。ここでは、基準画像はカメラ60Bから入力される正常画像100から生成したが、訓練用画像セットに含まれる正常画像100から生成してもよい。
The reference
推論部40Bは、工場の生産ラインを監視する監視施設に配置された端末90B上に配置されている。推論部40Bは、カメラ60Bから送信された画像の分類タイプを分類する。推論部40Bは、基準画像取得部41Bと、画像取得部42Bと、差分画像生成部43Bと、データ推論部44Bと、学習済みモデル取得部46Bとを有する。
The inference unit 40B is arranged on the terminal 90B arranged in the monitoring facility that monitors the production line of the factory. The inference unit 40B classifies the classification type of the image transmitted from the camera 60B. The inference unit 40B includes a reference image acquisition unit 41B, an
基準画像取得部41Bは、第1の分類を示すラベルを付与した画像としての正常画像100に基づく基準画像を取得する。
The reference image acquisition unit 41B acquires a reference image based on the
画像取得部42Bは、特定の画像を取得する。特定の画像とは、例えば、工場の生産ラインで生産された製品のうち、検査対象の製品が写された画像である。
The
差分画像生成部43Bは、画像取得部42Bが取得した特定の画像と、基準画像取得部41Bが取得した基準画像との差分から算出される第3の差分画像を生成する。
The difference
データ推論部44Bは、学習済みモデル取得部46Bが取得した学習済みモデルに、差分画像生成部43Bが生成した第3の差分画像を入力することで、画像取得部42Bで取得した特定の画像を第1の分類と第2の分類とに識別する。
The
学習済みモデル取得部46Bは、第1の分類を示すラベルを付与したとしての正常画像100と、基準画像取得部41Bが取得した基準画像との差分から算出される第1の差分画像としての正常差分画像と、第2の分類を示すラベルを付与した画像としての異常画像110と基準画像との差分から算出される第2の差分画像としての異常差分画像とを用いて、第1の分類と第2の分類とを識別する多層ニューラルネットワークの重みづけを学習させた学習済みモデルを学習部30Bから取得する。
The trained
上述したように、本実施形態は、工場の生産ライン等に配置された端末90Bでは、画像取得部42Bが、例えば、検査対象の製品が映された画像のような特定の画像を取得する。差分画像生成部43Bが、特定の画像と正常画像100に基づく基準画像との差分から算出される第3の差分画像を生成する。データ推論部44Bは、学習済みモデル取得部46Bがクラウド上の学習部30Bから取得した学習済みモデルに第3の差分画像を入力することで、特定の画像を第1の分類と前記第2の分類とに識別する。本実施形態によれば、工場の生産ライン等に配置されたカメラ60Bが撮影した特定の画像について、適切な認識率で推論結果を得ることができる。
As described above, in the present embodiment, in the terminal 90B arranged on the production line of the factory or the like, the
本実施形態は、カメラ60Bが撮影した画像について、端末90B上に配置された推論部40Bは、DNNを使用して製品が正常であるか異常であるかを適切な認識率で推論することができる。 In the present embodiment, for the image taken by the camera 60B, the inference unit 40B arranged on the terminal 90B can infer whether the product is normal or abnormal by using DNN with an appropriate recognition rate. it can.
さて、これまで本発明に係る画像処理システム1について説明したが、上述した実施形態以外にも種々の異なる形態にて実施されてよいものである。 Although the image processing system 1 according to the present invention has been described so far, it may be implemented in various different forms other than the above-described embodiment.
図示した画像処理システム1の各構成要素は、機能概念的なものであり、必ずしも物理的に図示の如く構成されていなくてもよい。すなわち、各装置の具体的形態は、図示のものに限られず、各装置の処理負担や使用状況等に応じて、その全部または一部を任意の単位で機能的または物理的に分散または統合してもよい。 Each component of the illustrated image processing system 1 is functionally conceptual and does not necessarily have to be physically configured as shown in the figure. That is, the specific form of each device is not limited to the one shown in the figure, and all or part of each device is functionally or physically dispersed or integrated in an arbitrary unit according to the processing load and usage status of each device. You may.
画像処理システム1の構成は、例えば、コンピュータ等のソフトウェアやファームウェアとして、ROMやRAM等のメモリにロードされたプログラム等をCPUやGPU等の装置によって実行されることによって実現される。上記実施形態では、これらのハードウェアまたはソフトウェアの連携によって実現される機能ブロックとして説明した。すなわち、これらの機能ブロックについては、ハードウェアのみ、ソフトウェアのみ、または、それらの組み合わせによって種々の形で実現できる。 The configuration of the image processing system 1 is realized, for example, by executing a program or the like loaded in a memory such as ROM or RAM as software or firmware of a computer or the like by a device such as a CPU or GPU. In the above embodiment, it has been described as a functional block realized by linking these hardware or software. That is, these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.
上記した構成要素には、当業者が容易に想定できるもの、実質的に同一のものを含む。さらに、上記した構成は適宜組み合わせが可能である。また、本発明の要旨を逸脱しない範囲において構成の種々の省略、置換または変更が可能である。 The above-mentioned components include those that can be easily assumed by those skilled in the art and those that are substantially the same. Further, the above configurations can be combined as appropriate. Further, various omissions, substitutions or changes of the configuration can be made without departing from the gist of the present invention.
基準画像及び差分画像の色成分が不要であるかを、DNNによる認識率に基づいて判定してもよい。まず、学習部30は、基準画像及び差分画像をグレースケールで生成して、DNNの重みを学習する。そして、推論部40は、DNNを使用した推論を行い、推論結果の認識率が閾値以上である場合、色成分が不要であり、基準画像及び差分画像をグレースケールで生成して、DNNの重みを学習すればよいと判定する。推論結果の認識率が閾値以上ではない場合、色成分が必要であり、基準画像及び差分画像をRGBまたはYCbCrで生成して、DNNの重みを学習すればよいと判定する。このようにすることにより、ユーザが色成分の要否を判断しなくてよいので、容易に適切な認識率を有するDNNを構築することができる。
Whether or not the color components of the reference image and the difference image are unnecessary may be determined based on the recognition rate by DNN. First, the
1 画像処理システム
2 画像認識学習装置
3 画像認識装置
10 記録部
20 基準画像生成部
30 学習部
31 画像取得部
32 異常画像生成部
33 差分画像生成部
34 変形画像生成部
35 DNN学習部
36 学習済みモデル保存部
40 推論部
41 学習済みモデル取得部
42 画像取得部
43 差分画像生成部
44 データ推論部
50 表示部
100 正常画像
110 異常画像
120 合成異常画像
A1 異常エリア
A2 合成エリア
1
Claims (6)
前記第1の分類を示すラベルを付与した画像に基づく基準画像を生成する基準画像生成部と、
前記第1の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第1の差分画像及び前記第2の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第2の差分画像を生成する差分画像生成部と、
前記第1の差分画像と前記第2の差分画像とを用いて、前記第1の分類と前記第2の分類とを識別する多層ニューラルネットワークの重みづけを学習させた学習済みモデルを生成する学習部と、
を備える画像認識学習装置。 An image acquisition unit that acquires an image with a label indicating the first classification and an image with a label indicating the second classification, and
A reference image generation unit that generates a reference image based on an image with a label indicating the first classification, and
Calculated from the difference between the first difference image calculated from the difference between the image with the label indicating the first classification and the reference image, and the image with the label indicating the second classification and the reference image. A difference image generation unit that generates a second difference image to be generated,
Learning to generate a trained model in which the weighting of the multi-layer neural network that distinguishes between the first classification and the second classification is trained using the first difference image and the second difference image. Department and
An image recognition learning device comprising.
を備え、
前記差分画像生成部は、前記合成異常画像を前記第2の分類を示すラベルを付与した画像に含めることを特徴とする請求項1に記載の画像認識学習装置。 An abnormal image generation unit that cuts out an area including a specific object from an image with a label indicating the second classification and superimposes it on an image with a label indicating the first classification to generate a composite abnormal image. ,
With
The image recognition learning device according to claim 1, wherein the difference image generation unit includes the composite abnormal image in an image with a label indicating the second classification.
前記第1の分類を示すラベルを付与した画像に基づく基準画像を生成する基準画像生成ステップと、
前記第1の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第1の差分画像及び前記第2の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第2の差分画像を生成する差分画像生成ステップと、
前記第1の差分画像と前記第2の差分画像とを用いて、前記第1の分類と前記第2の分類とを識別する多層ニューラルネットワークの重みづけを学習させた学習済みモデルを生成する学習ステップと、
を含む画像認識学習方法。 An image acquisition step of acquiring an image with a label indicating the first classification and an image with a label indicating the second classification, and
A reference image generation step of generating a reference image based on an image with a label indicating the first classification, and
Calculated from the difference between the first difference image calculated from the difference between the image with the label indicating the first classification and the reference image, and the image with the label indicating the second classification and the reference image. The difference image generation step of generating the second difference image to be performed, and
Learning to generate a trained model in which the weighting of the multi-layer neural network that distinguishes between the first classification and the second classification is trained using the first difference image and the second difference image. Steps and
Image recognition learning method including.
前記第1の分類を示すラベルを付与した画像に基づく基準画像を生成する基準画像生成ステップと、
前記第1の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第1の差分画像及び前記第2の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第2の差分画像を生成する差分画像生成ステップと、
前記第1の差分画像と前記第2の差分画像とを用いて、前記第1の分類と前記第2の分類とを識別する多層ニューラルネットワークの重みづけを学習させた学習済みモデルを生成する学習ステップと、
を画像認識学習装置として動作するコンピュータに実行させる画像認識学習プログラム。 An image acquisition step of acquiring an image with a label indicating the first classification and an image with a label indicating the second classification, and
A reference image generation step of generating a reference image based on an image with a label indicating the first classification, and
Calculated from the difference between the first difference image calculated from the difference between the image with the label indicating the first classification and the reference image, and the image with the label indicating the second classification and the reference image. The difference image generation step of generating the second difference image to be performed, and
Learning to generate a trained model in which the weighting of the multi-layer neural network that distinguishes between the first classification and the second classification is trained using the first difference image and the second difference image. Steps and
An image recognition learning program that causes a computer that operates as an image recognition learning device to execute.
第1の分類を示すラベルを付与した画像に基づく基準画像を取得する基準画像取得部と、
前記特定の画像と前記基準画像との差分から算出される第3の差分画像を生成する差分画像生成部と、
第1の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第1の差分画像と、第2の分類を示すラベルを付与した画像と前記基準画像との差分から算出される第2の差分画像とを用いて、前記第1の分類と前記第2の分類とを識別する多層ニューラルネットワークの重みづけを学習させた学習済みモデルを取得する学習済みモデル取得部と、
前記学習済みモデルに前記第3の差分画像を入力することで、前記画像取得部で取得した特定の画像を第1の分類と前記第2の分類とに識別するデータ推論部と、
を備える端末装置。 An image acquisition unit that acquires a specific image,
A reference image acquisition unit that acquires a reference image based on an image with a label indicating the first classification, and
A difference image generation unit that generates a third difference image calculated from the difference between the specific image and the reference image, and
Calculated from the difference between the first difference image calculated from the difference between the image with the label indicating the first classification and the reference image, and the image with the label indicating the second classification and the reference image. A trained model acquisition unit that acquires a trained model trained in the weighting of a multi-layer neural network that distinguishes between the first classification and the second classification by using the second difference image.
By inputting the third difference image into the trained model, a data inference unit that distinguishes a specific image acquired by the image acquisition unit into a first classification and a second classification,
A terminal device comprising.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019116379A JP2021002270A (en) | 2019-06-24 | 2019-06-24 | Image recognition learning device, image recognition learning method, image recognition learning program and terminal device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019116379A JP2021002270A (en) | 2019-06-24 | 2019-06-24 | Image recognition learning device, image recognition learning method, image recognition learning program and terminal device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2021002270A true JP2021002270A (en) | 2021-01-07 |
Family
ID=73993999
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019116379A Pending JP2021002270A (en) | 2019-06-24 | 2019-06-24 | Image recognition learning device, image recognition learning method, image recognition learning program and terminal device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2021002270A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2023282202A1 (en) * | 2021-07-05 | 2023-01-12 | 住友化学株式会社 | Singular-part-sensing system and singular-part-sensing method |
JP7557402B2 (en) | 2021-03-16 | 2024-09-27 | 日立造船株式会社 | Judgement system, image generation device, image generation method, and image generation program |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001022926A (en) * | 1999-07-06 | 2001-01-26 | Mitsubishi Electric Corp | Method and device for image recognition |
JP2005156334A (en) * | 2003-11-25 | 2005-06-16 | Nec Tohoku Sangyo System Kk | Pseudo defective image automatic creation device and imaging inspection device |
JP2006048370A (en) * | 2004-08-04 | 2006-02-16 | Kagawa Univ | Method for recognizing pattern, method for generating teaching data to be used for the method and pattern recognition apparatus |
JP2018169672A (en) * | 2017-03-29 | 2018-11-01 | 三菱電機インフォメーションシステムズ株式会社 | Method of creating teacher image, computer and program |
-
2019
- 2019-06-24 JP JP2019116379A patent/JP2021002270A/en active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2001022926A (en) * | 1999-07-06 | 2001-01-26 | Mitsubishi Electric Corp | Method and device for image recognition |
JP2005156334A (en) * | 2003-11-25 | 2005-06-16 | Nec Tohoku Sangyo System Kk | Pseudo defective image automatic creation device and imaging inspection device |
JP2006048370A (en) * | 2004-08-04 | 2006-02-16 | Kagawa Univ | Method for recognizing pattern, method for generating teaching data to be used for the method and pattern recognition apparatus |
JP2018169672A (en) * | 2017-03-29 | 2018-11-01 | 三菱電機インフォメーションシステムズ株式会社 | Method of creating teacher image, computer and program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7557402B2 (en) | 2021-03-16 | 2024-09-27 | 日立造船株式会社 | Judgement system, image generation device, image generation method, and image generation program |
WO2023282202A1 (en) * | 2021-07-05 | 2023-01-12 | 住友化学株式会社 | Singular-part-sensing system and singular-part-sensing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20220230750A1 (en) | Diagnosis assistance system and control method thereof | |
US11055571B2 (en) | Information processing device, recording medium recording information processing program, and information processing method | |
US11715190B2 (en) | Inspection system, image discrimination system, discrimination system, discriminator generation system, and learning data generation device | |
JP7059883B2 (en) | Learning device, image generator, learning method, and learning program | |
CN109685765B (en) | X-ray film pneumonia result prediction device based on convolutional neural network | |
CN112861635B (en) | Fire disaster and smoke real-time detection method based on deep learning | |
US11830187B2 (en) | Automatic condition diagnosis using a segmentation-guided framework | |
US20200386656A1 (en) | Method and system for unsupervised anomaly detection and accountability with majority voting for high-dimensional sensor data | |
US20230222645A1 (en) | Inspection apparatus, unit selection apparatus, inspection method, and computer-readable storage medium storing an inspection program | |
CN111209907A (en) | Artificial intelligent identification method for product characteristic image in complex light pollution environment | |
US11348349B2 (en) | Training data increment method, electronic apparatus and computer-readable medium | |
US20220384035A1 (en) | Automatic condition diagnosis using an attention-guided framework | |
JP2021174456A (en) | Abnormality determination method and abnormality determination device | |
CN117690128A (en) | Embryo cell multi-core target detection system, method and computer readable storage medium | |
JP2021002270A (en) | Image recognition learning device, image recognition learning method, image recognition learning program and terminal device | |
US20230134508A1 (en) | Electronic device and method with machine learning training | |
US20240119584A1 (en) | Detection method, electronic device and non-transitory computer-readable storage medium | |
JP7056259B2 (en) | Inspection system, identification system, and classifier evaluation device | |
CN113240655A (en) | Method, storage medium and device for automatically detecting type of fundus image | |
WO2020097461A1 (en) | Convolutional neural networks with reduced attention overlap | |
CN115994900A (en) | Unsupervised defect detection method and system based on transfer learning and storage medium | |
CN113011450A (en) | Training method, training device, recognition method and recognition system for glaucoma recognition | |
Pradhan et al. | Diabetic retinopathy detection on retinal fundus images using convolutional neural network | |
JP7059889B2 (en) | Learning device, image generator, learning method, and learning program | |
CN112016592A (en) | Domain adaptive semantic segmentation method and device based on cross domain category perception |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20221213 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230207 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20230509 |