JP2020046984A - Image generating method, image determining method, image generating apparatus, and image generating program - Google Patents

Image generating method, image determining method, image generating apparatus, and image generating program Download PDF

Info

Publication number
JP2020046984A
JP2020046984A JP2018175353A JP2018175353A JP2020046984A JP 2020046984 A JP2020046984 A JP 2020046984A JP 2018175353 A JP2018175353 A JP 2018175353A JP 2018175353 A JP2018175353 A JP 2018175353A JP 2020046984 A JP2020046984 A JP 2020046984A
Authority
JP
Japan
Prior art keywords
image
learning
generation
sample data
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018175353A
Other languages
Japanese (ja)
Inventor
修司 千田
Shuji Senda
修司 千田
達也 亀津
Tatsuya Kametsu
達也 亀津
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
YE Digital Co Ltd
Original Assignee
YE Digital Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by YE Digital Co Ltd filed Critical YE Digital Co Ltd
Priority to JP2018175353A priority Critical patent/JP2020046984A/en
Publication of JP2020046984A publication Critical patent/JP2020046984A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)

Abstract

To make classification of images using machine learning more accurate based on a small amount of collected images.SOLUTION: An image generating method according to an embodiment of the present invention includes a first learning process and a generating process. The first learning process carries out, by using collected images as sample data, first learning which machine-learns potential distribution of sample data indicative of classes into which the sample data are classified, thereby generating generated models obtained by modeling the distribution. The generating process uses the generated model to specify respective regions of the classes in a potential space where the distribution is supposed to exist, and generates an intermediate image which is an image at an intermediate point among classes based on the regions.SELECTED DRAWING: Figure 2

Description

開示の実施形態は、画像生成方法、画像判定方法、画像生成装置および画像生成プログラムに関する。   The embodiments of the present disclosure relate to an image generation method, an image determination method, an image generation device, and an image generation program.

従来、機械学習を利用して、画像解析を行う技術が知られている。たとえば、特許文献1に開示の技術は、分類結果が既知である複数の画像について算出した特徴ベクトルを用いて機械学習を実行し、機械学習で得られた結果に基づいて、分類結果が未知である画像の分類を行うものである。   2. Description of the Related Art Conventionally, a technique for performing image analysis using machine learning is known. For example, the technology disclosed in Patent Literature 1 executes machine learning using a feature vector calculated for a plurality of images whose classification results are known, and the classification result is unknown based on the result obtained by the machine learning. This classifies a certain image.

こうした技術を利用することにより、たとえば製造された製品の画像から、かかる製品が正常品であるか否か等を分類することができる。   By using such a technique, it is possible to classify, for example, whether or not the product is a normal product from an image of the manufactured product.

特開2015−011552号公報JP-A-2015-011552

しかしながら、上述した従来技術には、少量の収集画像に基づき、機械学習を利用した画像分類の高精度化を図るうえで、さらなる改善の余地がある。   However, the above-described conventional technology has room for further improvement in achieving high-precision image classification using machine learning based on a small amount of collected images.

具体的には、機械学習を利用した画像分類では、大量の学習用画像を学習することで高精度化を図ることが可能となるが、システムの運用前や運用の初期段階等では、そもそも大量の学習用画像を収集できない場合も多い。   Specifically, in image classification using machine learning, it is possible to achieve high accuracy by learning a large number of learning images, but before the system is operated or in the initial stage of operation, a large number of images are needed. In many cases, the learning images cannot be collected.

こうした場合には、実際にシステムを運用しながら画像を収集し、随時追加学習を行って、画像分類に用いる分類モデルを都度更新する方法が考えられる。ただし、かかる方法は、追加学習のたびに人手による確認作業等を要するため煩雑であるうえ、分類モデルの精度を向上させるのに長期を要するという問題がある。   In such a case, a method of collecting images while actually operating the system, performing additional learning as needed, and updating the classification model used for image classification every time can be considered. However, such a method is complicated because it requires a manual check operation or the like every time additional learning is performed, and also requires a long time to improve the accuracy of the classification model.

実施形態の一態様は、上記に鑑みてなされたものであって、少量の収集画像に基づき、機械学習を利用した画像分類の高精度化を図ることができる画像生成方法、画像判定方法、画像生成装置および画像生成プログラムを提供することを目的とする。   An aspect of the embodiment is made in view of the above, and is based on a small amount of collected images, and is capable of achieving high-precision image classification using machine learning, an image determination method, and an image determination method. It is an object to provide a generation device and an image generation program.

実施形態の一態様に係る画像生成方法は、第1学習工程と、生成工程とを含む。前記第1学習工程は、収集された収集画像をサンプルデータとし、該サンプルデータを分類するクラスを示す前記サンプルデータの潜在的な分布を機械学習する第1学習を実行することによって、前記分布をモデル化した生成モデルを生成する。前記生成工程は、前記生成モデルを用いて、前記分布が存在すると仮定される潜在空間における前記クラスそれぞれの領域を特定し、該領域に基づいて前記クラス間の中間点の画像である中間画像を生成する。   An image generation method according to one aspect of an embodiment includes a first learning step and a generation step. The first learning step uses the collected images as sample data, and executes a first learning that machine-learns a potential distribution of the sample data indicating a class for classifying the sample data. Generate a modeled generation model. The generation step uses the generation model to specify an area of each of the classes in a latent space where the distribution is assumed to exist, and generates an intermediate image that is an image of an intermediate point between the classes based on the area. Generate.

実施形態の一態様によれば、少量の収集画像に基づき、機械学習を利用した画像分類の高精度化を図ることができる。   According to an aspect of the embodiment, it is possible to improve the accuracy of image classification using machine learning based on a small amount of collected images.

図1Aは、比較例に係る画像判定方法の概要説明図である。FIG. 1A is a schematic explanatory diagram of an image determination method according to a comparative example. 図1Bは、実施形態に係る画像判定方法の概要説明図である。FIG. 1B is a schematic explanatory diagram of the image determination method according to the embodiment. 図2は、実施形態に係る画像判定装置のブロック図である。FIG. 2 is a block diagram of the image determination device according to the embodiment. 図3Aは、中間画像生成処理の説明図(その1)である。FIG. 3A is an explanatory diagram (part 1) of the intermediate image generation process. 図3Bは、中間画像生成処理の説明図(その2)である。FIG. 3B is an explanatory diagram (part 2) of the intermediate image generation process. 図3Cは、中間画像生成処理の説明図(その3)である。FIG. 3C is an explanatory diagram (part 3) of the intermediate image generation process. 図4は、判定処理の説明図である。FIG. 4 is an explanatory diagram of the determination processing. 図5は、実施形態に係る画像判定装置が実行する処理手順を示すフローチャートである。FIG. 5 is a flowchart illustrating a processing procedure executed by the image determination device according to the embodiment. 図6は、実施形態に係る画像判定装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。FIG. 6 is a hardware configuration diagram illustrating an example of a computer that implements the functions of the image determination device according to the embodiment.

以下、添付図面を参照して、本願の開示する画像生成方法、画像判定方法、画像生成装置および画像生成プログラムの実施形態を詳細に説明する。なお、以下に示す実施形態によりこの発明が限定されるものではない。   Hereinafter, embodiments of an image generation method, an image determination method, an image generation device, and an image generation program disclosed in the present application will be described in detail with reference to the accompanying drawings. The present invention is not limited by the embodiments described below.

まず、実施形態に係る画像判定方法の概要について、図1Aおよび図1Bを参照して説明する。図1Aは、比較例に係る画像判定方法の概要説明図である。また、図1Bは、実施形態に係る画像判定方法の概要説明図である。   First, an outline of an image determination method according to the embodiment will be described with reference to FIGS. 1A and 1B. FIG. 1A is a schematic explanatory diagram of an image determination method according to a comparative example. FIG. 1B is a schematic explanatory diagram of the image determination method according to the embodiment.

なお、以下では、製品として、焼き菓子であるワッフルが製造され、出荷前検査等において、かかるワッフルの良品または不良品を判定する場合を例に挙げて説明を行う。   In the following, a description will be given of an example in which a waffle that is a baked confectionery is manufactured as a product, and a non-defective or defective waffle is determined in a pre-shipment inspection or the like.

図1Aに示すように、比較例に係る画像判定方法では、まず予め収集された、良品および不良品を含むワッフルの「学習用画像」を学習用データセットとして機械学習を実行し(ステップS1’)、分類モデル12dを生成する。なお、機械学習のアルゴリズムとしては、たとえば深層学習等、公知のアルゴリズムが用いられる。   As illustrated in FIG. 1A, in the image determination method according to the comparative example, first, machine learning is performed using a “learning image” of a waffle including non-defective products and defective products collected in advance as a learning data set (step S1 ′). ), And generates a classification model 12d. As the algorithm of machine learning, a known algorithm such as deep learning is used.

そして、比較例に係る画像判定方法では、生成した分類モデル12dへ判定対象となる「判定対象画像」を入力し、これにより分類モデル12dが出力する出力値に基づいて「判定対象画像」を分類し(ステップS2’)、分類結果を得る。   In the image determination method according to the comparative example, the “determination target image” to be determined is input to the generated classification model 12d, and the “determination target image” is classified based on the output value output by the classification model 12d. (Step S2 '), and a classification result is obtained.

ただし、比較例に係る画像判定方法によれば、図中に示すように、学習用画像の「サンプル数が少量」であると、充分な学習が行えず、分類モデル12dによる分類結果の「精度が低」くなるという問題があった。   However, according to the image determination method according to the comparative example, as shown in the figure, if the number of samples of the learning image is “small”, sufficient learning cannot be performed, and “accuracy” of the classification result by the classification model 12d is not obtained. Was low. "

そこで、図1Bに示すように、実施形態に係る画像判定方法では、まず予め収集された「学習用画像」を用いた第1学習を実行し(ステップS1)、生成モデル12bを生成することとした。   Therefore, as shown in FIG. 1B, in the image determination method according to the embodiment, first, first learning using “learning images” collected in advance is performed (step S1) to generate the generation model 12b. did.

生成モデル12bは、いわゆる生成モデル(generative model)であって、サンプルデータを分類するクラスの境界を学習してモデル化した識別モデル(discriminative model)(分類モデルと言い換えても可)に対し、クラスが潜在的に存在すると仮定されるサンプルデータの分布を学習してモデル化したものである。   The generative model 12b is a so-called generative model, which is different from a discriminative model (classified model) that is modeled by learning the boundaries of classes for classifying sample data. Are modeled by learning the distribution of sample data that is assumed to potentially exist.

したがって、生成モデル12bを用いることにより、クラスの分類だけでなく、各クラスに対応する領域における任意の位置での擬似的なデータの生成が可能となる。   Therefore, by using the generation model 12b, not only class classification but also pseudo data generation at an arbitrary position in an area corresponding to each class becomes possible.

そして、実施形態に係る画像判定方法では、これを利用し、かかる生成モデル12bを用いてクラス間の任意の中間点の画像である「中間画像」を生成することとした(ステップS2)。これにより、収集画像に類似した画像を多量に自動生成することができるので、予め収集しておく収集画像の収集量を大幅に削減することが可能となる。   Then, in the image determination method according to the embodiment, by utilizing this, an "intermediate image" which is an image of an arbitrary intermediate point between classes is generated using the generation model 12b (step S2). This makes it possible to automatically generate a large number of images similar to the collected images, so that the amount of collected images to be collected in advance can be significantly reduced.

そのうえで、実施形態に係る画像判定方法では、生成した「中間画像」を「学習用画像」へ追加し(ステップS3)、かかる「学習用画像」を用いて第2学習を実行することによって(ステップS4)、分類モデル12dを生成することとした。   Then, in the image determination method according to the embodiment, the generated “intermediate image” is added to the “learning image” (step S3), and the second learning is performed using the “learning image” (step S3). S4) The classification model 12d is generated.

すなわち、実施形態に係る画像判定方法では、分類モデル12dを、「中間画像」が追加された「学習用画像」を用いた第2学習により充分に学習された、精度の高いモデルとして生成することができる。   That is, in the image determination method according to the embodiment, the classification model 12d is generated as a highly accurate model that has been sufficiently learned by the second learning using the “learning image” to which the “intermediate image” has been added. Can be.

そして、実施形態に係る画像判定方法では、かかる分類モデル12dへ「判定対象画像」を入力し、これにより分類モデル12dが出力する出力値に基づいて「判定対象画像」を分類して(ステップS5)、分類結果を得ることとなる。   Then, in the image determination method according to the embodiment, the “determination target image” is input to the classification model 12d, and the “determination target image” is classified based on the output value output by the classification model 12d (step S5). ), To obtain the classification result.

したがって、実施形態に係る画像判定方法によれば、少量の収集画像に基づき、機械学習を利用した画像分類の高精度化を図ることができる。   Therefore, according to the image determination method according to the embodiment, it is possible to improve the accuracy of image classification using machine learning based on a small amount of collected images.

以下、上述した画像判定方法を適用した画像判定装置10の構成について、さらに具体的に説明する。   Hereinafter, the configuration of the image determination device 10 to which the above-described image determination method is applied will be described more specifically.

図2は、実施形態に係る画像判定装置10のブロック図である。なお、図2では、本実施形態の特徴を説明するために必要な構成要素を機能ブロックで表しており、一般的な構成要素についての記載を省略している。   FIG. 2 is a block diagram of the image determination device 10 according to the embodiment. In FIG. 2, components necessary for explaining the features of the present embodiment are represented by functional blocks, and descriptions of general components are omitted.

換言すれば、図2に図示される各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。たとえば、各機能ブロックの分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的または物理的に分散・統合して構成することが可能である。   In other words, each component illustrated in FIG. 2 is a functional concept and does not necessarily need to be physically configured as illustrated. For example, the specific form of distribution / integration of each functional block is not limited to the illustrated one, and all or a part of the functional blocks may be functionally or physically distributed in arbitrary units according to various loads and usage conditions. -It is possible to integrate and configure.

なお、図2を用いた説明では、これまでに既に述べた構成要素については、説明を簡略化するか、省略する場合がある。   In the description using FIG. 2, the description of the components already described above may be simplified or omitted.

図2に示すように、画像判定装置10は、制御部11と、記憶部12とを備える。制御部11は、取得部11aと、第1学習部11bと、中間画像生成部11cと、第2学習部11dと、判定部11eとを備える。   As shown in FIG. 2, the image determination device 10 includes a control unit 11 and a storage unit 12. The control unit 11 includes an acquisition unit 11a, a first learning unit 11b, an intermediate image generation unit 11c, a second learning unit 11d, and a determination unit 11e.

記憶部12は、ハードディスクドライブや不揮発性メモリ、レジスタといった記憶デバイスであって、学習用データセット12aと、生成モデル12bと、中間画像12cと、分類モデル12dとを記憶する。   The storage unit 12 is a storage device such as a hard disk drive, a non-volatile memory, or a register, and stores a learning data set 12a, a generation model 12b, an intermediate image 12c, and a classification model 12d.

なお、図2に示すように、制御部11が、取得部11aと、第1学習部11bと、中間画像生成部11cとを少なくとも含み、記憶部12が、学習用データセット12aと、生成モデル12bとを少なくとも記憶することによって、中間画像12cを生成する画像生成装置50を構成することが可能である。   As shown in FIG. 2, the control unit 11 includes at least an acquisition unit 11a, a first learning unit 11b, and an intermediate image generation unit 11c, and the storage unit 12 stores a learning data set 12a, a generation model By storing at least 12b, the image generating apparatus 50 that generates the intermediate image 12c can be configured.

制御部11は、画像判定装置10の全体制御を行う。取得部11aは、予め収集された、良品または不良品を含むワッフルの学習用画像を取得し、学習用データセット12aへ格納する。   The control unit 11 performs overall control of the image determination device 10. The acquisition unit 11a acquires a learning image of a waffle containing a non-defective product or a defective product collected in advance, and stores the image in the learning data set 12a.

なお、取得部11aは、たとえば画像判定装置10に接続されたキーボードやマウス、タッチパネルといった操作部20からのユーザ操作を受け付け、かかるユーザ操作に基づいて学習用画像を取得することができる。   Note that the acquisition unit 11a can receive a user operation from the operation unit 20 such as a keyboard, a mouse, and a touch panel connected to the image determination device 10 and acquire a learning image based on the user operation.

第1学習部11bは、学習用データセット12aを取得し、これを用いた第1学習を実行して、生成モデル12bを生成する。なお、第1学習のアルゴリズムとしては、敵対的生成ネットワーク(GAN:Generative Adversarial Network)や、VAE(Variational Auto Encoder)等を用いることができる。   The first learning unit 11b acquires the learning data set 12a, performs first learning using the data set 12a, and generates the generation model 12b. As an algorithm of the first learning, a hostile generation network (GAN: Generative Adversarial Network), VAE (Variational Auto Encoder), or the like can be used.

したがって、生成モデル12bは、GANにおける生成ネットワーク(generator)、または、変分自己符号化器である。これらアルゴリズムについては公知であるので、ここでの詳しい説明は省略する。   Thus, the generator model 12b is a generator or variational self-encoder in the GAN. Since these algorithms are publicly known, detailed description thereof is omitted here.

また、第1学習部11bは、生成モデル12bの生成結果を、たとえば画像判定装置10に接続されたディスプレイやタッチパネルといった表示部30へ表示させる。   Further, the first learning unit 11b causes the display unit 30 such as a display or a touch panel connected to the image determination device 10 to display the generation result of the generation model 12b.

中間画像生成部11cは、生成モデル12bを用いて、学習用画像の各クラスを示す分布が存在すると仮定される潜在空間におけるクラスそれぞれの領域を特定し、かかる領域に基づいてクラス間の中間点の画像である中間画像12cを生成する。   The intermediate image generation unit 11c specifies, using the generation model 12b, an area of each class in a latent space where a distribution indicating each class of the learning image is assumed to exist, and determines an intermediate point between the classes based on the area. An intermediate image 12c is generated.

かかる中間画像生成処理について、図3A〜図3Cを用いて具体的に説明する。図3A〜図3Cは、中間画像生成処理の説明図(その1)〜(その3)である。   The intermediate image generation processing will be specifically described with reference to FIGS. 3A to 3C. 3A to 3C are explanatory diagrams (part 1) to (part 3) of the intermediate image generation process.

まず、第1学習部11bによって生成モデル12bが生成されるとともに、たとえばユーザの知見等により、学習用画像にクラスが設定される。ここで、学習用画像として、各クラスには複数のサンプルデータが存在するものとする。   First, the generation model 12b is generated by the first learning unit 11b, and a class is set in the learning image based on, for example, the knowledge of the user. Here, it is assumed that a plurality of sample data exist in each class as learning images.

そのうえで、図3Aに示すように、生成モデル12bが示す「潜在空間」において、「各サンプル位置」によって推定されるデータの分布があったものとする。かかる場合、中間画像生成部11cは、たとえば操作部20からのユーザ操作に基づいて、「クラスA」〜「クラスE」として設定されたクラスそれぞれの領域を特定する。   Then, as shown in FIG. 3A, it is assumed that there is a distribution of data estimated by “each sample position” in the “latent space” indicated by the generation model 12b. In such a case, the intermediate image generation unit 11c specifies an area of each of the classes set as “Class A” to “Class E” based on, for example, a user operation from the operation unit 20.

そして、中間画像生成部11cは、特定した各領域に基づき、中間画像12cを生成する。具体的には、中間画像生成部11cは、図3Aに示すように、各領域に存在するサンプルデータの「中心位置」を算出し、かかる中心位置同士を結ぶ直線上の任意の位置を中間点として中間画像12cを生成する。   Then, the intermediate image generation unit 11c generates an intermediate image 12c based on the specified regions. Specifically, as shown in FIG. 3A, the intermediate image generation unit 11c calculates the “center position” of the sample data existing in each area, and sets an arbitrary position on a straight line connecting the center positions to the intermediate point. To generate the intermediate image 12c.

たとえば図3Bに示すように、2点の「中心位置」があるものとする。中間画像生成部11cは、かかる2点を結ぶ直線上の任意の位置を中間点、言い換えれば「生成位置」として中間画像12cを生成する。   For example, as shown in FIG. 3B, it is assumed that there are two “center positions”. The intermediate image generation unit 11c generates an intermediate image 12c as an arbitrary position on a straight line connecting the two points as an intermediate point, in other words, a “generation position”.

たとえば中間画像生成部11cは、図3Bに示す「中心位置」間に対し、操作部20から中間画像12cの生成個数=3個を指定するユーザ操作を受け付けた場合、かかる個数に応じて上記直線を等分割した位置それぞれを、前述の「生成位置」として中間画像12cを生成する。   For example, when the intermediate image generation unit 11c receives a user operation for specifying the number of generated intermediate images 12c = 3 from the operation unit 20 between the “center positions” shown in FIG. The intermediate image 12c is generated by setting each position obtained by equally dividing the above as the above-mentioned “generation position”.

これにより、ユーザは、あるクラス間の中間画像12cを生成したい場合に、「生成位置」を細かく指定することなく、容易な操作で多量の中間画像12cを自動生成することが可能となる。   Thus, when the user wants to generate an intermediate image 12c between certain classes, it is possible to automatically generate a large number of intermediate images 12c by an easy operation without specifying the “generation position” in detail.

また、生成個数、すなわち潜在変数である「生成位置」を任意に変化させることで、図3Cに示すように、中間画像生成部11cは、上記直線上に存在すると仮定されるあらゆる中間画像12cを自動生成することができる。   Also, by arbitrarily changing the number of generations, that is, the “generation position” that is a latent variable, as shown in FIG. 3C, the intermediate image generation unit 11c can generate any intermediate image 12c assumed to exist on the straight line. Can be automatically generated.

したがって、ユーザが生成個数を指定するのではなく、「生成位置」を一方の「中心位置」から他方の「中心位置」へ上記直線上で変化させつつ中間画像12cを自動生成したうえで、ユーザの知見等により不要なものを間引くようにしてもよい。   Therefore, the user does not specify the number of generations, but automatically generates the intermediate image 12c while changing the “generation position” from one “center position” to the other “center position” on the straight line, Unnecessary items may be thinned out based on the knowledge of the above.

また、生成した中間画像12cを新たにクラス化し、その中心位置と既存のクラスの中心位置との結びつけにより、さらなる中間画像12cを生成してもよい。   Alternatively, the generated intermediate image 12c may be newly classified, and a further intermediate image 12c may be generated by associating the center position with the center position of an existing class.

これにより、予め多量の収集画像を収集することなく、収集画像に類似した中間画像12cを、容易にかつ多量に生成することが可能となる。したがって、少量の収集画像に基づいて、機械学習を利用した画像分類の高精度化を図ることができる。   Accordingly, it is possible to easily and easily generate a large number of intermediate images 12c similar to the collected images without previously collecting a large number of collected images. Therefore, it is possible to improve the accuracy of image classification using machine learning based on a small amount of collected images.

図2の説明に戻り、つづいて第2学習部11dについて説明する。第2学習部11dは、中間画像生成部11cによって生成された中間画像12cを追加した学習用データセット12aを用いた機械学習である第2学習を実行することによって、判定対象画像を分類する分類モデル12dを生成する。   Returning to the description of FIG. 2, the second learning unit 11d will be described. The second learning unit 11d performs a second learning which is a machine learning using the learning data set 12a to which the intermediate image 12c generated by the intermediate image generating unit 11c is added, thereby classifying the determination target image. Generate the model 12d.

なお、第2学習のアルゴリズムとしては、公知の機械学習のアルゴリズムを任意に用いることができる。   As the second learning algorithm, a known machine learning algorithm can be arbitrarily used.

判定部11eは、分類モデル12dへ判定対象画像を入力することによって得られる分類モデル12dの出力値に基づいて、判定対象画像が分類されるクラスを判定する。また、判定部11eは、判定結果をたとえば表示部30へ表示させる。   The determination unit 11e determines a class into which the determination target image is classified based on an output value of the classification model 12d obtained by inputting the determination target image to the classification model 12d. Further, the determination unit 11e causes the display unit 30 to display the determination result, for example.

ここで、判定処理の一例について、図4を用いて具体的に説明する。図4は、判定処理の説明図である。   Here, an example of the determination process will be specifically described with reference to FIG. FIG. 4 is an explanatory diagram of the determination processing.

実施形態に係るワッフルの製造ラインであれば、図4に示すように、判定部11eは、焼き上がったワッフルそれぞれの画像を切り出して、1つずつ判定対象画像として分類モデル12dへ入力する。   In the case of the waffle production line according to the embodiment, as illustrated in FIG. 4, the determination unit 11e cuts out each image of the baked waffle and inputs the images one by one to the classification model 12d as determination target images.

分類モデル12dは、かかる入力に応じ、たとえば判定対象画像が分類されるクラスの識別子であるクラスIDを出力する。判定部11eは、かかるクラスIDを受け取り、たとえば「強火NG」を示すクラスIDであれば、一例として「廃棄指示」を促す内容の判定結果を表示部30へ表示させる。   In response to the input, the classification model 12d outputs, for example, a class ID that is an identifier of a class into which the determination target image is classified. The determination unit 11e receives the class ID and, for example, if the class ID indicates “high-fire NG”, causes the display unit 30 to display the determination result of the content urging the “discard instruction” as an example.

また、判定部11eは、受け取ったクラスIDがたとえば「弱火NG」を示すクラスIDであれば、一例として「火力アップ指示」を促す内容の判定結果を表示部30へ表示させる。また、判定部11eは、受け取ったクラスIDがたとえば「良品」に該当するクラスIDであれば、一例として「出荷指示」を促す内容の判定結果を表示部30へ表示させる。   In addition, if the received class ID is, for example, a class ID indicating “low heat NG”, the determination unit 11e causes the display unit 30 to display a determination result of a content urging a “heat-up instruction” as an example. If the received class ID is, for example, a class ID corresponding to “non-defective product”, the determination unit 11e causes the display unit 30 to display a determination result of a content urging “shipping instruction” as an example.

次に、実施形態に係る画像判定装置10が実行する処理手順について、図5を用いて説明する。図5は、実施形態に係る画像判定装置10が実行する処理手順を示すフローチャートである。   Next, a processing procedure executed by the image determination device 10 according to the embodiment will be described with reference to FIG. FIG. 5 is a flowchart illustrating a processing procedure executed by the image determination device 10 according to the embodiment.

図5に示すように、取得部11aが、収集された学習用画像を学習用データセット12aとして準備する(ステップS101)。そして、第1学習部11bが、学習用データセット12aから第1学習により生成モデル12bを生成する(ステップS102)。   As shown in FIG. 5, the acquisition unit 11a prepares the collected learning images as a learning data set 12a (Step S101). Then, the first learning unit 11b generates the generation model 12b from the learning data set 12a by the first learning (Step S102).

そして、たとえばユーザの知見等により、学習用画像に分類クラスを設定する(ステップS103)。   Then, a classification class is set for the learning image based on, for example, the user's knowledge (step S103).

そして、中間画像生成部11cが、生成モデル12bを用いて、潜在空間における各クラスの領域を特定し、クラス間の中間画像12cを生成する(ステップS104)。生成された中間画像12cには、たとえばユーザの知見等により、分類クラスが設定される(ステップS105)。   Then, the intermediate image generation unit 11c specifies the area of each class in the latent space using the generation model 12b, and generates the intermediate image 12c between the classes (Step S104). A classification class is set in the generated intermediate image 12c based on, for example, the knowledge of the user (step S105).

そして、中間画像12cを学習用データセット12aへ追加し(ステップS106)、第2学習部11dが、中間画像12cを加えた学習用データセット12aから第2学習により分類モデル12dを生成する(ステップS107)。   Then, the intermediate image 12c is added to the learning data set 12a (step S106), and the second learning unit 11d generates a classification model 12d by the second learning from the learning data set 12a to which the intermediate image 12c is added (step S106). S107).

そして、図示は略しているが、判定部11eが、システムの運用中、分類モデル12dへ判定対象画像を適宜入力することによって得られる分類モデル12dの出力値に基づいて、判定対象画像が分類されるクラスを判定し、判定結果を報知することとなる。   Although not shown, the determination unit 11e classifies the determination target image based on an output value of the classification model 12d obtained by appropriately inputting the determination target image to the classification model 12d during operation of the system. Class is determined, and the determination result is notified.

なお、上述してきた実施形態に係る画像判定装置10は、たとえば図6に示すような構成のコンピュータ60によって実現される。図6は、実施形態に係る画像判定装置10の機能を実現するコンピュータの一例を示すハードウェア構成図である。コンピュータ60は、CPU(Central Processing Unit)61、RAM(Random Access Memory)62、ROM(Read Only Memory)63、HDD(Hard Disk Drive)64、通信インタフェース(I/F)65、入出力インタフェース(I/F)66、およびメディアインタフェース(I/F)67を備える。   Note that the image determination device 10 according to the above-described embodiment is realized by, for example, a computer 60 having a configuration as illustrated in FIG. FIG. 6 is a hardware configuration diagram illustrating an example of a computer that realizes the functions of the image determination device 10 according to the embodiment. The computer 60 includes a CPU (Central Processing Unit) 61, a RAM (Random Access Memory) 62, a ROM (Read Only Memory) 63, a HDD (Hard Disk Drive) 64, a communication interface (I / F) 65, and an input / output interface (I / F) 66 and a media interface (I / F) 67.

CPU61は、ROM63またはHDD64に格納されたプログラムに基づいて動作し、各部の制御を行う。ROM63は、コンピュータ60の起動時にCPU61によって実行されるブートプログラムや、コンピュータ60のハードウェアに依存するプログラム等を格納する。   The CPU 61 operates based on a program stored in the ROM 63 or the HDD 64 and controls each unit. The ROM 63 stores a boot program executed by the CPU 61 when the computer 60 is started, a program depending on hardware of the computer 60, and the like.

HDD64は、CPU61によって実行されるプログラムおよび当該プログラムによって使用されるデータ等を格納する。通信インタフェース65は、通信ネットワークを介して他の機器からデータを受信してCPU61へ送り、CPU61が生成したデータを、通信ネットワークを介して他の機器へ送信する。   The HDD 64 stores a program executed by the CPU 61, data used by the program, and the like. The communication interface 65 receives data from another device via the communication network, sends the data to the CPU 61, and transmits the data generated by the CPU 61 to the other device via the communication network.

CPU61は、入出力インタフェース66を介して、ディスプレイやプリンタ等の出力装置、および、キーボードやマウス等の入力装置を制御する。CPU61は、入出力インタフェース66を介して、入力装置からデータを取得する。また、CPU61は、生成したデータを、入出力インタフェース66を介して出力装置へ出力する。   The CPU 61 controls an output device such as a display and a printer and an input device such as a keyboard and a mouse via the input / output interface 66. The CPU 61 acquires data from an input device via the input / output interface 66. Further, the CPU 61 outputs the generated data to the output device via the input / output interface 66.

メディアインタフェース67は、記録媒体68に格納されたプログラムまたはデータを読み取り、RAM62を介してCPU61に提供する。CPU61は、当該プログラムを、メディアインタフェース67を介して記録媒体68からRAM62上にロードし、ロードしたプログラムを実行する。記録媒体68は、たとえばDVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto-Optical disk)等の光磁気記録媒体、テープ媒体、磁気記録媒体、または半導体メモリ等である。   The media interface 67 reads a program or data stored in the recording medium 68 and provides the program or data to the CPU 61 via the RAM 62. The CPU 61 loads the program from the recording medium 68 onto the RAM 62 via the media interface 67, and executes the loaded program. The recording medium 68 is, for example, an optical recording medium such as a DVD (Digital Versatile Disc), a PD (Phase Change Rewritable Disk), a magneto-optical recording medium such as an MO (Magneto-Optical disk), a tape medium, a magnetic recording medium, or a semiconductor memory. And so on.

たとえば、コンピュータ60が実施形態に係る画像判定装置10として機能する場合、コンピュータ60のCPU61は、RAM62上にロードされたプログラムを実行することにより、制御部11の各機能を実現する。また、HDD64には、記憶部12内のデータが記憶される。コンピュータ60のCPU61は、これらのプログラムを、記録媒体68から読み取って実行するが、他の例として、他の装置から、通信ネットワークを介してこれらのプログラムを取得してもよい。   For example, when the computer 60 functions as the image determination device 10 according to the embodiment, the CPU 61 of the computer 60 implements each function of the control unit 11 by executing a program loaded on the RAM 62. The data in the storage unit 12 is stored in the HDD 64. Although the CPU 61 of the computer 60 reads these programs from the recording medium 68 and executes them, as another example, these programs may be obtained from another device via a communication network.

上述してきたように、実施形態に係る画像生成装置50は、第1学習部11bと、中間画像生成部11c(「生成部」の一例に相当)とを備える。第1学習部11bは、収集された収集画像を学習用画像(「サンプルデータ」の一例に相当)とし、かかる学習用画像を分類するクラスを示す学習用画像の潜在的な分布を機械学習する第1学習を実行することによって、上記分布をモデル化した生成モデル12bを生成する。中間画像生成部11cは、生成モデル12bを用いて、上記分布が存在すると仮定される潜在空間におけるクラスそれぞれの領域を特定し、かかる領域に基づいてクラス間の中間点の画像である中間画像12cを生成する。   As described above, the image generation device 50 according to the embodiment includes the first learning unit 11b and the intermediate image generation unit 11c (corresponding to an example of the “generation unit”). The first learning unit 11b sets the collected image as a learning image (corresponding to an example of “sample data”), and machine-learns a potential distribution of the learning image indicating a class into which the learning image is classified. By executing the first learning, a generation model 12b that models the distribution is generated. The intermediate image generation unit 11c specifies, using the generation model 12b, an area of each class in the latent space where the distribution is assumed to exist, and based on the area, an intermediate image 12c that is an image of an intermediate point between the classes. Generate

したがって、実施形態に係る画像生成装置50によれば、少量の収集画像に基づき、機械学習を利用した画像分類の高精度化を図ることができる。   Therefore, according to the image generation device 50 according to the embodiment, it is possible to improve the accuracy of image classification using machine learning based on a small amount of collected images.

また、実施形態に係る画像判定装置10は、画像生成装置50に加えて、第2学習部11dと、判定部11eとを備える。第2学習部11dは、画像生成装置50によって生成された中間画像12cを追加した学習用データセット12aを用いた機械学習である第2学習を実行することによって、判定対象画像を分類する分類モデル12dを生成する。判定部11eは、分類モデル12dへ判定対象画像を入力することによって得られる分類モデル12dの出力値に基づいて、判定対象画像のクラスを判定する。   The image determination device 10 according to the embodiment includes a second learning unit 11d and a determination unit 11e in addition to the image generation device 50. The second learning unit 11d performs a second learning which is a machine learning using the learning data set 12a to which the intermediate image 12c generated by the image generating device 50 is added, thereby classifying the determination target image. Generate 12d. The determination unit 11e determines the class of the determination target image based on the output value of the classification model 12d obtained by inputting the determination target image to the classification model 12d.

したがって、実施形態に係る画像判定装置10によれば、少量の収集画像に基づき、機械学習を利用した画像分類を高精度に行うことができる。   Therefore, according to the image determination device 10 according to the embodiment, image classification using machine learning can be performed with high accuracy based on a small amount of collected images.

なお、上述した実施形態では、分類モデル12dを生成する前に、生成モデル12bによって中間画像12cを生成し、これを学習用データセット12aに加えて第2学習を実行することによって分類モデル12dを生成したが、先に分類モデル12dを生成してもよい。   In the above-described embodiment, before generating the classification model 12d, the intermediate model 12c is generated by the generation model 12b, and the generated intermediate image 12c is added to the learning data set 12a to perform the second learning. Although generated, the classification model 12d may be generated first.

すなわち、中間画像12cの追加前に、学習用データセット12aを用いて第2学習を実行することによって分類モデル12dを予め生成しておき、中間画像12cが生成されたならば、これを用いて第2学習の追加学習を実行することによって、分類モデル12dを更新するようにしてもよい。   That is, before adding the intermediate image 12c, the classification model 12d is generated in advance by performing the second learning using the learning data set 12a, and if the intermediate image 12c is generated, the classification model 12d is used. The classification model 12d may be updated by executing additional learning of the second learning.

また、システムの運用中に、追加学習する必要のある新たな収集画像が収集されたならば、これに基づいて生成モデル12bを更新し、新たな中間画像12cを生成するようにしてもよい。また、この場合、新たな収集画像および新たに生成された中間画像12cを用いて第2学習の追加学習を実行することによって、分類モデル12dを更新するとよい。   In addition, when a new collected image that needs to be additionally learned is collected during operation of the system, the generation model 12b may be updated based on the collected image, and a new intermediate image 12c may be generated. Further, in this case, the classification model 12d may be updated by performing additional learning of the second learning using the newly acquired image and the newly generated intermediate image 12c.

また、上述した実施形態では、画像生成装置50が画像判定装置10に含まれる場合を例に挙げたが、画像生成装置50と、画像判定装置10とは分離されていてもよい。   In the above-described embodiment, the case where the image generation device 50 is included in the image determination device 10 has been described as an example. However, the image generation device 50 and the image determination device 10 may be separated.

また、上述した実施形態では、機械学習のアルゴリズムとして主に深層学習のアルゴリズムを例に挙げたか、用いるアルゴリズムを限定するものではない。したがって、SVM(Support Vector Machine)のようなパターン識別器を用いたサポートベクタ回帰等の回帰分析手法により機械学習を実行し、たとえば分類モデル12dを生成してもよい。また、ここで、パターン識別器はSVMに限らず、たとえばアダブースト(AdaBoost)などであってもよい。また、ランダムフォレストなどを用いてもよい。   In the above-described embodiment, the algorithm of the deep learning is mainly described as an example of the algorithm of the machine learning, and the algorithm to be used is not limited. Therefore, machine learning may be performed by a regression analysis method such as support vector regression using a pattern classifier such as an SVM (Support Vector Machine) to generate, for example, the classification model 12d. Here, the pattern classifier is not limited to the SVM, and may be, for example, AdaBoost. Further, a random forest or the like may be used.

さらなる効果や変形例は、当業者によって容易に導き出すことができる。このため、本発明のより広範な態様は、以上のように表しかつ記述した特定の詳細および代表的な実施形態に限定されるものではない。したがって、添付の特許請求の範囲およびその均等物によって定義される総括的な発明の概念の精神または範囲から逸脱することなく、様々な変更が可能である。   Further effects and modifications can be easily derived by those skilled in the art. For this reason, the broader aspects of the present invention are not limited to the specific details and representative embodiments shown and described above. Accordingly, various modifications may be made without departing from the spirit or scope of the general inventive concept as defined by the appended claims and equivalents thereof.

10 画像判定装置
11 制御部
11a 取得部
11b 第1学習部
11c 中間画像生成部
11d 第2学習部
11e 判定部
12 記憶部
12a 学習用データセット
12b 生成モデル
12c 中間画像
12d 分類モデル
50 画像生成装置
Reference Signs List 10 image determination device 11 control unit 11a acquisition unit 11b first learning unit 11c intermediate image generation unit 11d second learning unit 11e determination unit 12 storage unit 12a learning data set 12b generation model 12c intermediate image 12d classification model 50 image generation device

Claims (7)

収集された収集画像をサンプルデータとし、該サンプルデータを分類するクラスを示す前記サンプルデータの潜在的な分布を機械学習する第1学習を実行することによって、前記分布をモデル化した生成モデルを生成する第1学習工程と、
前記生成モデルを用いて、前記分布が存在すると仮定される潜在空間における前記クラスそれぞれの領域を特定し、該領域に基づいて前記クラス間の中間点の画像である中間画像を生成する生成工程と
を含むことを特徴とする画像生成方法。
Generating a model that models the distribution by executing a first learning that machine-learns a potential distribution of the sample data indicating a class that classifies the sample data with the collected images as sample data. A first learning step to be performed;
A generation step of using the generation model to specify an area of each of the classes in a latent space where the distribution is assumed to exist, and generating an intermediate image that is an image of an intermediate point between the classes based on the area; An image generation method comprising:
前記生成工程は、
前記領域それぞれに存在する前記サンプルデータの中心位置を算出し、該中心位置同士を結ぶ直線上の任意の位置を前記中間点として前記中間画像を生成する
ことを特徴とする請求項1に記載の画像生成方法。
The generation step includes:
The center image of the sample data existing in each of the regions is calculated, and the intermediate image is generated using an arbitrary position on a straight line connecting the center positions as the intermediate point. Image generation method.
前記生成工程は、
前記中間画像を生成する任意の個数が指定された場合に、前記中心位置同士を結ぶ直線を前記個数に応じて等分割した位置それぞれを前記中間点として前記中間画像を生成する
ことを特徴とする請求項1または2に記載の画像生成方法。
The generation step includes:
When an arbitrary number for generating the intermediate image is designated, the intermediate image is generated with each position obtained by equally dividing a straight line connecting the center positions according to the number as the intermediate point. The image generation method according to claim 1.
前記第1学習工程は、
敵対的生成ネットワークにおける生成ネットワーク、または、変分自己符号化器として前記生成モデルを生成する
ことを特徴とする請求項1、2または3に記載の画像生成方法。
The first learning step includes:
The image generation method according to claim 1, wherein the generation model is generated as a generation network in a hostile generation network or as a variational self-encoder.
請求項1〜4のいずれか一つに記載の画像生成方法によって生成された前記中間画像を追加した前記サンプルデータを用いた機械学習である第2学習を実行することによって、判定対象画像を分類する分類モデルを生成する第2学習工程と、
前記分類モデルへ前記判定対象画像を入力することによって得られる該分類モデルの出力値に基づいて、前記判定対象画像の前記クラスを判定する判定工程と
を含むことを特徴とする画像判定方法。
A second learning which is a machine learning using the sample data to which the intermediate image generated by the image generation method according to claim 1 is added, thereby classifying the determination target image. A second learning step of generating a classification model to perform,
A determination step of determining the class of the determination target image based on an output value of the classification model obtained by inputting the determination target image to the classification model.
収集された収集画像をサンプルデータとし、該サンプルデータを分類するクラスを示す前記サンプルデータの潜在的な分布を機械学習する第1学習を実行することによって、前記分布をモデル化した生成モデルを生成する第1学習部と、
前記生成モデルを用いて、前記分布が存在すると仮定される潜在空間における前記クラスそれぞれの領域を特定し、該領域に基づいて前記クラス間の中間点の画像である中間画像を生成する生成部と
を備えることを特徴とする画像生成装置。
Generating a model that models the distribution by executing a first learning that machine-learns a potential distribution of the sample data indicating a class that classifies the sample data with the collected images as sample data. A first learning unit to
A generation unit that specifies an area of each class in the latent space where the distribution is assumed to exist by using the generation model, and generates an intermediate image that is an image of an intermediate point between the classes based on the area; An image generating apparatus comprising:
収集された収集画像をサンプルデータとし、該サンプルデータを分類するクラスを示す前記サンプルデータの潜在的な分布を機械学習する第1学習を実行することによって、前記分布をモデル化した生成モデルを生成する第1学習手順と、
前記生成モデルを用いて、前記分布が存在すると仮定される潜在空間における前記クラスそれぞれの領域を特定し、該領域に基づいて前記クラス間の中間点の画像である中間画像を生成する生成手順と
をコンピュータに実行させることを特徴とする画像生成プログラム。
Generating a model that models the distribution by executing a first learning that machine-learns a potential distribution of the sample data indicating a class that classifies the sample data with the collected images as sample data. A first learning procedure to be performed;
Using the generation model, specify an area of each of the classes in the latent space where the distribution is assumed to exist, and generate an intermediate image that is an image of an intermediate point between the classes based on the area. An image generation program for causing a computer to execute the following.
JP2018175353A 2018-09-19 2018-09-19 Image generating method, image determining method, image generating apparatus, and image generating program Pending JP2020046984A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018175353A JP2020046984A (en) 2018-09-19 2018-09-19 Image generating method, image determining method, image generating apparatus, and image generating program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018175353A JP2020046984A (en) 2018-09-19 2018-09-19 Image generating method, image determining method, image generating apparatus, and image generating program

Publications (1)

Publication Number Publication Date
JP2020046984A true JP2020046984A (en) 2020-03-26

Family

ID=69901532

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018175353A Pending JP2020046984A (en) 2018-09-19 2018-09-19 Image generating method, image determining method, image generating apparatus, and image generating program

Country Status (1)

Country Link
JP (1) JP2020046984A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021256702A1 (en) * 2020-06-18 2021-12-23 삼성전자 주식회사 Electronic device and control method thereof

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021256702A1 (en) * 2020-06-18 2021-12-23 삼성전자 주식회사 Electronic device and control method thereof

Similar Documents

Publication Publication Date Title
TWI460648B (en) Ranking visualization types based upon fitness for visualizing a data set
JP2020034998A (en) Expansion device, expansion method and expansion program
WO2017068675A1 (en) Program generation apparatus, program generation method, and generation program
US11892819B2 (en) Control device, control system, control method, and computer-readable storage medium
US11619926B2 (en) Information processing device, program, process treatment executing device, and information processing system
JP2020144493A (en) Learning model generation support device and learning model generation support method
JP6955811B1 (en) Test evaluation system, program and test evaluation method
WO2021054026A1 (en) Material property prediction system and material property prediction method
JPWO2018088277A1 (en) Prediction model generation system, method and program
JP2020046984A (en) Image generating method, image determining method, image generating apparatus, and image generating program
JP6622938B1 (en) Correlation extraction method and correlation extraction program
JP6956806B2 (en) Data processing equipment, data processing methods and programs
US20240220775A1 (en) Information processing system and information processing method
JP2020160854A (en) Code management system, and code management method
JPWO2019142728A1 (en) Controls, control methods and programs
Datseris et al. Framework for global stability analysis of dynamical systems
JP2019139386A (en) Image determination method, image determination device and image determination program
JP7403253B2 (en) Learning devices, learning methods and learning programs
KR102293346B1 (en) chemical catalysts simulating apparatus and method for simulating chemical catalysts
JP6331914B2 (en) Algorithm generating apparatus, algorithm generating method and algorithm generating computer program
JP2020155044A (en) Program compiling device, program compiling method, and program compiling program
JP7010403B1 (en) Information processing equipment and information processing method
US11921496B2 (en) Information processing apparatus, information processing method and computer readable medium
JP7542459B2 (en) Data analysis device, data analysis system and program
JP7339924B2 (en) System for estimating material property values