JP7096360B2 - Mini-batch learning device and its operation program and operation method - Google Patents

Mini-batch learning device and its operation program and operation method Download PDF

Info

Publication number
JP7096360B2
JP7096360B2 JP2020559790A JP2020559790A JP7096360B2 JP 7096360 B2 JP7096360 B2 JP 7096360B2 JP 2020559790 A JP2020559790 A JP 2020559790A JP 2020559790 A JP2020559790 A JP 2020559790A JP 7096360 B2 JP7096360 B2 JP 7096360B2
Authority
JP
Japan
Prior art keywords
mini
learning
batch data
batch
area ratio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020559790A
Other languages
Japanese (ja)
Other versions
JPWO2020121668A1 (en
Inventor
隆史 涌井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2020121668A1 publication Critical patent/JPWO2020121668A1/en
Application granted granted Critical
Publication of JP7096360B2 publication Critical patent/JP7096360B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/2163Partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/243Classification techniques relating to the number of classes
    • G06F18/2431Multiple classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Quality & Reliability (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Image Analysis (AREA)

Description

本開示の技術は、ミニバッチ学習装置とその作動プログラムおよび作動方法に関する。 The techniques of the present disclosure relate to a mini-batch learning device and its operating program and operating method.

画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションが知られている。セマンティックセグメンテーションは、U字型の畳み込みニューラルネットワーク(U-Net;U-Shaped Neural Network)等の機械学習モデル(以下、単にモデル)で実現される。 Semantic segmentation is known, in which a plurality of classes in an image are discriminated on a pixel-by-pixel basis. Semantic segmentation is realized by a machine learning model (hereinafter, simply a model) such as a U-shaped convolutional neural network (U-Net; U-Shaped Neural Network).

モデルの判別精度を高めるためには、モデルに学習データを与えて学習させ、モデルを更新していくことが必要である。学習データは、学習用入力画像と、学習用入力画像内のクラスが手動で指定されたアノテーション画像とで構成される。特開2017-107386号公報では、複数の学習用入力画像の中から、アノテーション画像の元となる1つの学習用入力画像を抽出している。 In order to improve the discrimination accuracy of the model, it is necessary to give the model learning data to learn and update the model. The learning data is composed of a learning input image and an annotation image in which a class in the learning input image is manually specified. In JP-A-2017-107386, one learning input image that is the source of the annotation image is extracted from a plurality of learning input images.

学習には、ミニバッチ学習という手法がある。ミニバッチ学習では、学習データとしてミニバッチデータをモデルに与える。ミニバッチデータは、学習用入力画像とアノテーション画像とを分割した複数の分割画像(例えば元の画像の1/100のサイズの枠で分割した1万枚の分割画像)のうちの一部(例えば100枚)で構成される。ミニバッチデータは複数組(例えば100組)生成され、各組が順次モデルに与えられる。 There is a method called mini-batch learning for learning. In mini-batch learning, mini-batch data is given to the model as training data. The mini-batch data is a part of a plurality of divided images (for example, 10,000 divided images divided by a frame having a size of 1/100 of the original image) obtained by dividing the training input image and the annotation image (for example). 100 sheets). Multiple sets (for example, 100 sets) of mini-batch data are generated, and each set is sequentially given to the model.

ここで、学習用入力画像およびアノテーション画像にクラスの偏りがある場合を考える。例えば、学習用入力画像は細胞培養の様子を位相差顕微鏡で映した画像であって、クラス1が分化細胞、クラス2が未分化細胞、クラス3が培地、クラス4が死細胞に分類される画像である。そして、学習用入力画像およびアノテーション画像全体における各クラスの面積割合が、分化細胞38%、未分化細胞2%、培地40%、死細胞20%で、未分化細胞の面積割合が比較的低い場合である。 Here, consider the case where there is a class bias in the learning input image and the annotation image. For example, the input image for learning is an image showing the state of cell culture with a phase-contrast microscope, and class 1 is classified as differentiated cells, class 2 is classified as undifferentiated cells, class 3 is classified as a medium, and class 4 is classified as dead cells. It is an image. When the area ratio of each class in the input image for learning and the annotation image is 38% of differentiated cells, 2% of undifferentiated cells, 40% of medium, and 20% of dead cells, and the area ratio of undifferentiated cells is relatively low. Is.

このように学習用入力画像およびアノテーション画像にクラスの偏りがあると、学習用入力画像およびアノテーション画像から構成されるミニバッチデータにも、クラスの偏りが生じる可能性が高くなる。ミニバッチデータにクラスの偏りが生じた場合は、面積割合が比較的低い稀少クラスが加味されずに学習が行われる。結果として、稀少クラスの判別精度が低いモデルができあがってしまう。 If the training input image and the annotation image are biased in class in this way, there is a high possibility that the mini-batch data composed of the training input image and the annotation image will also be biased in class. If there is a class bias in the mini-batch data, learning is performed without taking into account the rare classes with a relatively low area ratio. As a result, a model with low discrimination accuracy of the rare class is created.

特開2017-107386号公報では、前述のように、複数の学習用入力画像の中から、アノテーション画像の元となる1つの学習用入力画像を抽出している。しかしながら、この手法では、複数の学習用入力画像の全てにクラスの偏りがあった場合は、結局は稀少クラスの判別精度が低いモデルができあがってしまう。したがって、特開2017-107386号公報に記載の手法では、稀少クラスの判別精度が低いモデルができあがってしまう、という問題を解決することはできない。 In JP-A-2017-107386, as described above, one learning input image that is the source of the annotation image is extracted from the plurality of learning input images. However, with this method, if there is a class bias in all of the plurality of learning input images, a model with low discrimination accuracy of the rare class will be created in the end. Therefore, the method described in JP-A-2017-107386 cannot solve the problem that a model having a low discrimination accuracy of a rare class is created.

本開示の技術は、セマンティックセグメンテーションを実施するための機械学習モデルのクラスの判別精度の低下を抑制することが可能なミニバッチ学習装置とその作動プログラムおよび作動方法を提供することを目的とする。 It is an object of the present disclosure technique to provide a mini-batch learning device capable of suppressing a decrease in discrimination accuracy of a class of a machine learning model for performing semantic segmentation, and an operation program and operation method thereof.

上記目的を達成するために、本開示のミニバッチ学習装置は、画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに、ミニバッチデータを与えて学習させるミニバッチ学習装置であり、ミニバッチデータの元となる学習用入力画像およびアノテーション画像のうちの、アノテーション画像全体の面積に対する、複数のクラスの各々の第1面積割合を算出する算出部と、第1面積割合が第1設定値よりも低い稀少クラスを特定する特定部と、学習用入力画像およびアノテーション画像からミニバッチデータを生成する生成部であり、ミニバッチデータにおける稀少クラスの第2面積割合が、算出部において算出した第1面積割合よりも大きい第2設定値以上であるミニバッチデータを生成する生成部と、を備える。 In order to achieve the above object, the mini-batch learning device of the present disclosure provides mini-batch data to a machine learning model for performing semantic segmentation that discriminates a plurality of classes in an image on a pixel-by-pixel basis, and trains the mini-batch. A calculation unit that calculates the ratio of the first area of each of a plurality of classes to the area of the entire annotation image among the learning input image and the annotation image that are the learning devices and are the source of the mini-batch data, and the first area. A specific part that identifies a rare class whose ratio is lower than the first set value, and a generation part that generates mini-batch data from a learning input image and an annotation image, and the second area ratio of the rare class in the mini-batch data is A generation unit for generating mini-batch data having a second set value or more larger than the first area ratio calculated by the calculation unit is provided.

生成部に、第2面積割合が第2設定値以上であるミニバッチデータを生成する処理を行わせるか否かの選択指示を受け付ける受付部を備えることが好ましい。 It is preferable that the generation unit is provided with a reception unit that receives a selection instruction as to whether or not to perform a process of generating mini-batch data in which the second area ratio is equal to or greater than the second set value.

生成部は、一定の規則にしたがってミニバッチデータを複数生成し、かつ、一定の規則にしたがって生成した複数のミニバッチデータのうち、第2面積割合が第2設定値以上であるミニバッチデータを、学習に用いるために選択することが好ましい。 The generation unit generates a plurality of mini-batch data according to a certain rule, and among a plurality of mini-batch data generated according to a certain rule, the mini-batch data in which the second area ratio is equal to or more than the second set value is generated. , Preferably selected for use in learning.

生成部は、アノテーション画像内の稀少クラスの偏在領域と非偏在領域とを検出し、偏在領域のミニバッチデータの元となる画像の切り取り数を、非偏在領域の切り取り数よりも多くすることが好ましい。 The generator can detect rare class uneven distribution areas and non-uneven distribution areas in the annotation image, and increase the number of cuts of the image that is the source of the mini-batch data of the uneven distribution areas to be larger than the number of cuts of the non-uneven distribution areas. preferable.

本開示のミニバッチ学習装置の作動プログラムは、画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに、ミニバッチデータを与えて学習させるミニバッチ学習装置の作動プログラムであり、ミニバッチデータの元となる学習用入力画像およびアノテーション画像のうちの、アノテーション画像全体の面積に対する、複数のクラスの各々の第1面積割合を算出する算出部と、第1面積割合が第1設定値よりも低い稀少クラスを特定する特定部と、学習用入力画像およびアノテーション画像からミニバッチデータを生成する生成部であり、ミニバッチデータにおける稀少クラスの第2面積割合が、算出部において算出した第1面積割合よりも大きい第2設定値以上であるミニバッチデータを生成する生成部として、コンピュータを機能させる。 The operation program of the mini-batch learning device of the present disclosure is an operation program of a mini-batch learning device that gives mini-batch data to a machine learning model for performing semantic segmentation that discriminates a plurality of classes in an image on a pixel-by-pixel basis. The calculation unit that calculates the first area ratio of each of the plurality of classes to the area of the entire annotation image among the learning input image and the annotation image that are the sources of the mini-batch data, and the first area ratio are It is a specific part that specifies a rare class lower than the first set value, and a generation part that generates mini-batch data from the input image for learning and the annotation image, and the second area ratio of the rare class in the mini-batch data is the calculation part. The computer is made to function as a generation unit for generating mini-batch data having a second set value or more larger than the first area ratio calculated in.

本開示のミニバッチ学習装置の作動方法は、画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに、ミニバッチデータを与えて学習させるミニバッチ学習装置の作動方法であり、ミニバッチデータの元となる学習用入力画像およびアノテーション画像のうちの、アノテーション画像全体の面積に対する、複数のクラスの各々の第1面積割合を算出する算出ステップと、第1面積割合が第1設定値よりも低い稀少クラスを特定する特定ステップと、学習用入力画像およびアノテーション画像からミニバッチデータを生成する生成ステップであり、ミニバッチデータにおける稀少クラスの第2面積割合が、算出ステップにおいて算出した第1面積割合よりも大きい第2設定値以上であるミニバッチデータを生成する生成ステップと、を備える。 The method of operating the mini-batch learning device of the present disclosure is a method of operating a mini-batch learning device in which mini-batch data is given to a machine learning model for performing semantic segmentation in which a plurality of classes in an image are discriminated on a pixel-by-pixel basis. The calculation step for calculating the first area ratio of each of the plurality of classes to the area of the entire annotation image among the training input image and the annotation image which are the sources of the mini-batch data, and the first area ratio are It is a specific step to specify a rare class lower than the first set value, and a generation step to generate mini-batch data from a training input image and an annotation image, and the second area ratio of the rare class in the mini-batch data is a calculation step. A generation step for generating mini-batch data having a second set value or more larger than the first area ratio calculated in the above is provided.

本開示の技術によれば、セマンティックセグメンテーションを実施するための機械学習モデルのクラスの判別精度の低下を抑制することが可能なミニバッチ学習装置とその作動プログラムおよび作動方法を提供することができる。 According to the technique of the present disclosure, it is possible to provide a mini-batch learning device capable of suppressing a decrease in discrimination accuracy of a class of a machine learning model for performing semantic segmentation, and an operation program and operation method thereof.

ミニバッチ学習装置とその処理の概要を示す図である。It is a figure which shows the outline of the mini-batch learning apparatus and its processing. 運用装置とその処理の概要を示す図である。It is a figure which shows the outline of an operation apparatus and its processing. 画像を示す図であり、図3Aは学習用入力画像、図3Bはアノテーション画像をそれぞれ示す。It is a figure which shows the image, FIG. 3A shows an input image for learning, and FIG. 3B shows an annotation image. 学習用入力画像から分割学習用入力画像を生成する様子を示す図である。It is a figure which shows the state which generates the input image for division learning from the input image for learning. アノテーション画像から分割アノテーション画像を生成する様子を示す図である。It is a figure which shows the state which the division annotation image is generated from the annotation image. 複数の分割学習用入力画像の一部で、分割学習用入力画像群を構成することを示す図である。It is a figure which shows that a part of the input image for division learning constitutes the input image group for division learning. 複数の分割アノテーション画像の一部で、分割アノテーション画像群を構成することを示す図である。It is a figure which shows that the division annotation image group is formed by a part of a plurality of division annotation images. ミニバッチ学習装置を構成するコンピュータを示すブロック図である。It is a block diagram which shows the computer which comprises the mini-batch learning apparatus. ミニバッチ学習装置のCPUの処理部を示すブロック図である。It is a block diagram which shows the processing part of the CPU of the mini-batch learning apparatus. 算出部および特定部の処理の具体例を示す図である。It is a figure which shows the specific example of the processing of a calculation part and a specific part. 生成部の処理の具体例を示す図である。It is a figure which shows the specific example of the processing of a generation part. ミニバッチ学習装置の処理手順を示すフローチャートである。It is a flowchart which shows the processing procedure of a mini-batch learning apparatus. 生成部に、第2面積割合が第2設定値以上であるミニバッチデータを生成する処理を行わせるか否かを問う第2実施形態を示す図である。It is a figure which shows the 2nd Embodiment which asks whether or not the generation part may perform the process of generating the mini-batch data whose 2nd area ratio is equal to or more than the 2nd set value. 一定の規則にしたがって生成した複数のミニバッチデータのうち、第2面積割合が第2設定値以上であるミニバッチデータを、学習に用いるために選択する第3実施形態を示す図である。It is a figure which shows the 3rd Embodiment which selects the mini-batch data whose 2nd area ratio is not more than the 2nd set value among a plurality of mini-batch data generated according to a certain rule for learning. アノテーション画像内の稀少クラスの偏在領域のミニバッチデータの元となる画像の切り取り数を、非偏在領域の切り取り数よりも多くする第4実施形態を示す図である。It is a figure which shows the 4th Embodiment which makes the number of cuts of the image which is the source of the mini-batch data of a rare class uneven distribution area in an annotation image larger than the number of cuts of a non-unevenly distributed area.

[第1実施形態]
図1において、ミニバッチ学習装置2は、入力画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するためのモデル10の判別精度を高めるために、モデル10にミニバッチデータ11を用いたミニバッチ学習を行わせる。ミニバッチ学習装置2は、例えばデスクトップ型のパーソナルコンピュータである。また、モデル10は、例えばU-Netである。
[First Embodiment]
In FIG. 1, the mini-batch learning device 2 uses mini-batch data 11 for the model 10 in order to improve the discrimination accuracy of the model 10 for performing semantic segmentation for discriminating a plurality of classes in an input image on a pixel-by-pixel basis. Have them do the mini-batch learning that they had. The mini-batch learning device 2 is, for example, a desktop personal computer. The model 10 is, for example, U-Net.

クラスは、入力画像に映る物体の種類と言い換えてもよい。また、セマンティックセグメンテーションは、端的に言えば、入力画像に映る物体のクラスとその輪郭を判別するもので、その判別結果を、モデル10は出力画像として出力する。例えば入力画像にコップ、本、携帯電話の3つの物体が映っていた場合、出力画像は、理想的には、コップ、本、携帯電話が各々クラスとして判別され、かつこれら物体の輪郭を忠実に辿った輪郭線がそれぞれの物体に描かれたものとなる。 The class may be paraphrased as the type of the object reflected in the input image. In short, the semantic segmentation discriminates the class of the object reflected in the input image and its contour, and the model 10 outputs the discriminant result as an output image. For example, if the input image shows three objects, a cup, a book, and a mobile phone, the output image ideally distinguishes the cup, book, and mobile phone as classes, and faithfully outlines these objects. The contour line traced will be drawn on each object.

モデル10のクラスの判別精度は、モデル10に学習データを与えて学習させ、モデル10を更新することで高められる。学習データは、モデル10に入力する学習用入力画像と、学習用入力画像内のクラスが手動で指定されたアノテーション画像との組で構成される。アノテーション画像は、学習用入力画像に応じてモデル10から出力された学習用出力画像とのいわば答え合わせを行うための画像で、学習用出力画像と比較される。モデル10のクラスの判別精度が高いほど、アノテーション画像と学習用出力画像との差異は小さくなる。 The discrimination accuracy of the class of the model 10 is enhanced by giving the model 10 learning data to train the model 10 and updating the model 10. The learning data is composed of a set of a learning input image to be input to the model 10 and an annotation image in which the class in the learning input image is manually specified. The annotation image is an image for matching the answer with the learning output image output from the model 10 according to the learning input image, and is compared with the learning output image. The higher the discrimination accuracy of the class of the model 10, the smaller the difference between the annotation image and the learning output image.

ミニバッチ学習装置2では、前述のように、学習データとしてミニバッチデータ11を用いる。ミニバッチデータ11は、分割学習用入力画像群12と分割アノテーション画像群13とで構成される。 In the mini-batch learning device 2, as described above, the mini-batch data 11 is used as the learning data. The mini-batch data 11 is composed of a division learning input image group 12 and a division annotation image group 13.

ミニバッチ学習においては、分割学習用入力画像群12がモデル10に与えられる。これにより、モデル10から、分割学習用入力画像群12の分割学習用入力画像20S(図4参照)毎に学習用出力画像が出力される。こうしてモデル10から出力された学習用出力画像の集合である学習用出力画像群14と、分割アノテーション画像群13とが比較され、モデル10のクラスの判別精度が評価される。そして、このクラスの判別精度の評価結果に応じて、モデル10が更新される。ミニバッチ学習装置2は、これらの分割学習用入力画像群12のモデル10への入力と学習用出力画像群14のモデル10からの出力、モデル10のクラスの判別精度の評価、およびモデル10の更新を、ミニバッチデータ11を代えつつ行い、モデル10のクラスの判別精度が所望のレベルとなるまで繰り返す。 In the mini-batch learning, the input image group 12 for division learning is given to the model 10. As a result, the learning output image is output from the model 10 for each of the divided learning input images 20S (see FIG. 4) of the divided learning input image group 12. The learning output image group 14 which is a set of learning output images output from the model 10 in this way is compared with the divided annotation image group 13, and the discrimination accuracy of the class of the model 10 is evaluated. Then, the model 10 is updated according to the evaluation result of the discrimination accuracy of this class. The mini-batch learning device 2 inputs the input image group 12 for division learning to the model 10 and outputs the output image group 14 for learning from the model 10, evaluates the discrimination accuracy of the class of the model 10, and updates the model 10. Is performed while substituting the mini-batch data 11, and the process is repeated until the discrimination accuracy of the class of the model 10 reaches a desired level.

図2に示すように、上記のようにしてクラスの判別精度が所望のレベルまで引き上げられたモデル10は、学習済み機械学習モデル(以下、学習済みモデル)10Tとして運用装置15に組み込まれる。学習済みモデル10Tには、映った物体のクラスおよびその輪郭が未だ判別されていない入力画像16が与えられる。学習済みモデル10Tは、入力画像16に映る物体のクラスとその輪郭を判別し、その判別結果として出力画像17を出力する。運用装置15は、ミニバッチ学習装置2と同様、例えばデスクトップ型のパーソナルコンピュータであり、入力画像16と出力画像17とを、ディスプレイに並べて表示したりする。なお、運用装置15は、ミニバッチ学習装置2とは別の装置でもよいし、ミニバッチ学習装置2と同じ装置でもよい。また、運用装置15に学習済みモデル10Tを組み込んだ後も、学習済みモデル10Tにミニバッチデータ11を与えて学習させてもよい。 As shown in FIG. 2, the model 10 whose class discrimination accuracy has been raised to a desired level as described above is incorporated into the operation device 15 as a trained machine learning model (hereinafter referred to as a trained model) 10T. The trained model 10T is given an input image 16 in which the class of the reflected object and its contour have not yet been determined. The trained model 10T discriminates the class of the object reflected in the input image 16 and its contour, and outputs the output image 17 as the discriminating result. Similar to the mini-batch learning device 2, the operation device 15 is, for example, a desktop personal computer, and the input image 16 and the output image 17 are displayed side by side on the display. The operation device 15 may be a device different from the mini-batch learning device 2 or the same device as the mini-batch learning device 2. Further, even after the trained model 10T is incorporated in the operation device 15, the trained model 10T may be fed with the mini-batch data 11 for training.

図3Aに示すように、学習用入力画像20は、本例においては、細胞培養の様子を位相差顕微鏡で映した1枚の画像である。学習用入力画像20には、分化細胞、未分化細胞、培地、死細胞が物体として映っている。この場合のアノテーション画像21は、図3Bに示すように、クラス1の分化細胞、クラス2の未分化細胞、クラス3の培地、クラス4の死細胞が、各々手動で指定されたものとなる。なお、学習済みモデル10Tに与えられる入力画像16も、学習用入力画像20と同じく、細胞培養の様子を位相差顕微鏡で映した画像である。 As shown in FIG. 3A, the learning input image 20 is, in this example, a single image showing the state of cell culture with a phase-contrast microscope. Differentiated cells, undifferentiated cells, a medium, and dead cells are shown as objects in the learning input image 20. In the annotation image 21 in this case, as shown in FIG. 3B, the differentiated cells of class 1, the undifferentiated cells of class 2, the medium of class 3, and the dead cells of class 4 are each manually designated. The input image 16 given to the trained model 10T is also an image showing the state of cell culture with a phase-contrast microscope, like the training input image 20.

図4に示すように、分割学習用入力画像20Sは、学習用入力画像20内において、横方向にDXずつ、かつ縦方向にDYずつ順次移動される矩形状の枠25で囲われた領域を、その都度切り取ったものである。枠25の横方向の移動量DXは、例えば、枠25の横方向のサイズの1/2である。同様に、枠25の縦方向の移動量DYは、例えば、枠25の縦方向のサイズの1/2である。枠25は、例えば、学習用入力画像20の1/50のサイズである。この場合、分割学習用入力画像20Sは、20S_1~20S_10000の計1万枚ある。 As shown in FIG. 4, the divided learning input image 20S is a region surrounded by a rectangular frame 25 that is sequentially moved by DX in the horizontal direction and by DY in the vertical direction in the learning input image 20. , It is cut out each time. The lateral movement amount DX of the frame 25 is, for example, ½ of the lateral size of the frame 25. Similarly, the vertical movement amount DY of the frame 25 is, for example, ½ of the vertical size of the frame 25. The frame 25 is, for example, 1/50 of the size of the learning input image 20. In this case, there are a total of 10,000 input images 20S for division learning, 20S_1 to 20S_10000.

同様にして、図5に示すように、分割アノテーション画像21Sは、アノテーション画像21内において、横方向にDXずつ、かつ縦方向にDYずつ順次移動される矩形状の枠25で囲われた領域を、その都度切り取ったものである。分割アノテーション画像21Sは、21S_1~21S_10000の計1万枚ある。なお、以下では、ミニバッチ学習装置2内に学習用入力画像20およびアノテーション画像21が既に用意されており、かつ分割学習用入力画像20Sおよび分割アノテーション画像21Sも既に生成されているとして話を進める。 Similarly, as shown in FIG. 5, the divided annotation image 21S covers a region in the annotation image 21 surrounded by a rectangular frame 25 that is sequentially moved by DX in the horizontal direction and by DY in the vertical direction. , It is cut out each time. There are a total of 10,000 divided annotation images 21S, 21S_1 to 21S_10000. In the following, it is assumed that the learning input image 20 and the annotation image 21 are already prepared in the mini-batch learning device 2, and the division learning input image 20S and the division annotation image 21S are already generated.

図6に示すように、分割学習用入力画像群12は、図4で示したように生成された複数の分割学習用入力画像20Sのうちの一部(例えば1万枚の分割学習用入力画像20Sのうちの100枚)で構成される。同様に図7に示すように、分割アノテーション画像群13は、図5で示したように生成された複数の分割アノテーション画像21Sのうちの一部(例えば1万枚の分割アノテーション画像21Sのうちの100枚)で構成される。分割学習用入力画像群12を構成する分割学習用入力画像20Sと、分割アノテーション画像群13を構成する分割アノテーション画像21Sとは、枠25で切り取った領域が同じもの同士である。 As shown in FIG. 6, the divided learning input image group 12 is a part of the plurality of divided learning input images 20S generated as shown in FIG. 4 (for example, 10,000 divided learning input images). It is composed of 100 sheets out of 20S). Similarly, as shown in FIG. 7, the divided annotation image group 13 is a part of the plurality of divided annotation images 21S generated as shown in FIG. 5 (for example, among 10,000 divided annotation images 21S). 100 sheets). The divided learning input image 20S constituting the divided learning input image group 12 and the divided annotation image 21S constituting the divided annotation image group 13 have the same area cut out by the frame 25.

図8において、ミニバッチ学習装置2を構成するコンピュータは、ストレージデバイス30、メモリ31、CPU(Central Processing Unit)32、通信部33、ディスプレイ34、および入力デバイス35を備えている。これらはデータバス36を介して相互接続されている。 In FIG. 8, the computer constituting the mini-batch learning device 2 includes a storage device 30, a memory 31, a CPU (Central Processing Unit) 32, a communication unit 33, a display 34, and an input device 35. These are interconnected via the data bus 36.

ストレージデバイス30は、ミニバッチ学習装置2を構成するコンピュータに内蔵、またはケーブル、ネットワークを通じて接続されたハードディスクドライブである。もしくはストレージデバイス30は、ハードディスクドライブを複数台連装したディスクアレイである。ストレージデバイス30には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム、およびこれらのプログラムに付随する各種データ等が記憶されている。なお、ハードディスクドライブに代えてソリッドステートドライブを用いてもよい。 The storage device 30 is a hard disk drive built in the computer constituting the mini-batch learning device 2 or connected via a cable or a network. Alternatively, the storage device 30 is a disk array in which a plurality of hard disk drives are connected. The storage device 30 stores control programs such as an operating system, various application programs, and various data associated with these programs. A solid state drive may be used instead of the hard disk drive.

メモリ31は、CPU32が処理を実行するためのワークメモリである。CPU32は、ストレージデバイス30に記憶されたプログラムをメモリ31へロードして、プログラムにしたがった処理を実行することにより、コンピュータの各部を統括的に制御する。 The memory 31 is a work memory for the CPU 32 to execute a process. The CPU 32 comprehensively controls each part of the computer by loading the program stored in the storage device 30 into the memory 31 and executing the processing according to the program.

通信部33は、インターネットあるいは公衆通信網等のWAN(Wide Area Network)といったネットワークを介した各種情報の伝送制御を行うネットワークインターフェースである。ディスプレイ34は各種画面を表示する。各種画面にはGUI(Graphical User Interface)による操作機能が備えられる。ミニバッチ学習装置2を構成するコンピュータは、各種画面を通じて、入力デバイス35からの操作指示の入力を受け付ける。入力デバイス35は、キーボード、マウス、タッチパネル等である。 The communication unit 33 is a network interface that controls transmission of various information via a network such as a WAN (Wide Area Network) such as the Internet or a public communication network. The display 34 displays various screens. Various screens are equipped with operation functions by GUI (Graphical User Interface). The computer constituting the mini-batch learning device 2 receives input of an operation instruction from the input device 35 through various screens. The input device 35 is a keyboard, a mouse, a touch panel, or the like.

図9において、ストレージデバイス30には、学習用入力画像20、アノテーション画像21、分割学習用入力画像20S、分割アノテーション画像21S、およびモデル10が記憶されている。また、ストレージデバイス30には、アプリケーションプログラムとして作動プログラム40が記憶されている。作動プログラム40は、コンピュータをミニバッチ学習装置2として機能させるためのアプリケーションプログラムである。すなわち、作動プログラム40は、本開示の技術に係る「ミニバッチ学習装置の作動プログラム」の一例である。 In FIG. 9, the storage device 30 stores a learning input image 20, an annotation image 21, a division learning input image 20S, a division annotation image 21S, and a model 10. Further, the storage device 30 stores an operation program 40 as an application program. The operation program 40 is an application program for operating the computer as the mini-batch learning device 2. That is, the operation program 40 is an example of the "operation program of the mini-batch learning device" according to the technique of the present disclosure.

作動プログラム40が起動されると、ミニバッチ学習装置2を構成するコンピュータのCPU32は、メモリ31等と協働して、算出部50、特定部51、生成部52、学習部53、評価部54、および更新部55として機能する。 When the operation program 40 is started, the CPU 32 of the computer constituting the mini-batch learning device 2 cooperates with the memory 31 and the like, and the calculation unit 50, the specific unit 51, the generation unit 52, the learning unit 53, the evaluation unit 54, And functions as an update unit 55.

算出部50は、アノテーション画像21全体の面積に対する、複数のクラスの各々の第1面積割合を算出する。より詳しくは、算出部50は、ストレージデバイス30からアノテーション画像21を読み出す。そして、アノテーション画像21において手動で指定された領域の画素数を、クラス毎に加算する。次いで、加算した画素数をアノテーション画像21の全画素数で除算することで、第1面積割合を算出する。例えば、クラス1の分化細胞と指定された領域の、加算した画素数が10000で、全画素数が50000であった場合、クラス1の分化細胞の第1面積割合は、(10000/50000)×100=20%である。算出部50は、算出した第1面積割合を特定部51に出力する。 The calculation unit 50 calculates the first area ratio of each of the plurality of classes to the area of the entire annotation image 21. More specifically, the calculation unit 50 reads the annotation image 21 from the storage device 30. Then, the number of pixels in the area manually specified in the annotation image 21 is added for each class. Next, the first area ratio is calculated by dividing the added number of pixels by the total number of pixels of the annotation image 21. For example, when the total number of pixels of the region designated as the differentiated cell of class 1 is 10,000 and the total number of pixels is 50,000, the first area ratio of the differentiated cell of class 1 is (10000/50000) ×. 100 = 20%. The calculation unit 50 outputs the calculated first area ratio to the specific unit 51.

特定部51は、第1面積割合が第1設定値よりも低い稀少クラスを特定する。特定部51は、特定した稀少クラスを生成部52に出力する。 The specific unit 51 identifies a rare class in which the first area ratio is lower than the first set value. The specific unit 51 outputs the specified rare class to the generation unit 52.

生成部52は、図4および図5で示したように学習用入力画像20およびアノテーション画像21から生成された分割学習用入力画像20Sおよび分割アノテーション画像21Sから、図6および図7で示したようにその一部を選択することで、ミニバッチデータ11を生成する。生成部52は、ミニバッチデータ11を複数組(例えば100組)生成する。特定部51において稀少クラスが特定された場合、生成部52は、分割学習用入力画像20Sおよび分割アノテーション画像21Sの選択方法を工夫することで、第2面積割合が、第1面積割合よりも大きい第2設定値以上であるミニバッチデータ11を生成する。一方、特定部51において稀少クラスが特定されなかった場合、生成部52は、上記のような制約なくミニバッチデータ11を生成する。生成部52は、生成したミニバッチデータ11を、学習部53および評価部54に出力する。 As shown in FIGS. 6 and 7, the generation unit 52 has the divided learning input image 20S and the divided annotation image 21S generated from the learning input image 20 and the annotation image 21 as shown in FIGS. 4 and 5. By selecting a part of it, mini-batch data 11 is generated. The generation unit 52 generates a plurality of sets (for example, 100 sets) of mini-batch data 11. When the rare class is specified in the specific unit 51, the generation unit 52 devises a selection method of the input image 20S for division learning and the division annotation image 21S, so that the second area ratio is larger than the first area ratio. The mini-batch data 11 which is equal to or larger than the second set value is generated. On the other hand, when the rare class is not specified in the specific unit 51, the generation unit 52 generates the mini-batch data 11 without the above-mentioned restrictions. The generation unit 52 outputs the generated mini-batch data 11 to the learning unit 53 and the evaluation unit 54.

ここで、第2面積割合は、1組のミニバッチデータ11における稀少クラスの面積割合である。また、特定部51において稀少クラスが特定された場合の分割学習用入力画像20Sおよび分割アノテーション画像21Sの選択方法の工夫とは、例えば、稀少クラスの物体が比較的大きく映った分割学習用入力画像20Sおよび分割アノテーション画像21Sを優先的に選択する等である。ミニバッチデータ11の稀少クラスの第2面積割合を第2設定値以上とするための分割学習用入力画像20Sおよび分割アノテーション画像21Sの選択肢を増やす手法を実行してもよい。具体的には、稀少クラスの物体が比較的大きく映った分割学習用入力画像20Sおよび分割アノテーション画像21Sに、トリミング、左右反転、回転といった画像処理を施して別の画像に仕立て、ミニバッチデータ11の新たな選択肢とする。こうした手法は、データオーギュメンテーションと呼ばれる。 Here, the second area ratio is the area ratio of the rare class in one set of mini-batch data 11. Further, the device for selecting the divided learning input image 20S and the divided annotation image 21S when the rare class is specified in the specific unit 51 is, for example, an input image for divided learning in which an object of the rare class is relatively large. For example, 20S and the divided annotation image 21S are preferentially selected. A method of increasing the choices of the divided learning input image 20S and the divided annotation image 21S for setting the second area ratio of the rare class of the mini-batch data 11 to the second set value or more may be executed. Specifically, the input image 20S for division learning and the division annotation image 21S in which a rare class object appears relatively large are subjected to image processing such as trimming, left-right inversion, and rotation to be tailored to another image, and the mini-batch data 11 As a new option. Such a technique is called data augmentation.

学習部53は、生成部52からのミニバッチデータ11の分割学習用入力画像群12をモデル10に与えて学習させる。これによりモデル10から出力された学習用出力画像群14を、学習部53は評価部54に出力する。 The learning unit 53 gives the model 10 the input image group 12 for division learning of the mini-batch data 11 from the generation unit 52 and trains the model 10. As a result, the learning output image group 14 output from the model 10 is output to the evaluation unit 54 by the learning unit 53.

評価部54は、生成部52からのミニバッチデータ11の分割アノテーション画像群13と、学習部53からの学習用出力画像群14とを比較し、モデル10のクラスの判別精度を評価する。評価部54は、評価結果を更新部55に出力する。 The evaluation unit 54 compares the divided annotation image group 13 of the mini-batch data 11 from the generation unit 52 with the learning output image group 14 from the learning unit 53, and evaluates the discrimination accuracy of the class of the model 10. The evaluation unit 54 outputs the evaluation result to the update unit 55.

評価部54は、損失関数を用いて、モデル10のクラスの判別精度を評価する。損失関数は、分割アノテーション画像群13と学習用出力画像群14との差異の程度を表す関数である。損失関数の算出値が0に近いほど、モデル10のクラスの判別精度が高いことを示す。 The evaluation unit 54 evaluates the discrimination accuracy of the class of the model 10 by using the loss function. The loss function is a function indicating the degree of difference between the divided annotation image group 13 and the learning output image group 14. The closer the calculated value of the loss function is to 0, the higher the discrimination accuracy of the class of the model 10.

更新部55は、評価部54からの評価結果に応じて、モデル10を更新する。より具体的には、更新部55は、学習係数を伴う確率的勾配降下法等により、モデル10の各種パラメータの値を変化させる。学習係数は、モデル10の各種パラメータの値の変化幅を示す。すなわち、学習係数が比較的大きい値であるほど、各種パラメータの値の変化幅は大きくなり、モデル10の更新度合いも大きくなる。 The update unit 55 updates the model 10 according to the evaluation result from the evaluation unit 54. More specifically, the update unit 55 changes the values of various parameters of the model 10 by a stochastic gradient descent method or the like accompanied by a learning coefficient. The learning coefficient indicates the range of change in the values of various parameters of the model 10. That is, the larger the learning coefficient is, the larger the range of change in the values of various parameters is, and the greater the degree of update of the model 10.

図10および図11は、算出部50、特定部51、生成部52の各部の処理の具体例を示す。まず、図10において、算出部50は、表60に示すように、各クラスの第1面積割合を算出する。図10では、クラス1の分化細胞の第1面積割合を38%、クラス2の未分化細胞の第1面積割合を2%、クラス3の培地の第1面積割合を40%、クラス4の死細胞の第1面積割合を20%とそれぞれ算出した場合を例示している。 10 and 11 show specific examples of processing of each of the calculation unit 50, the specific unit 51, and the generation unit 52. First, in FIG. 10, the calculation unit 50 calculates the first area ratio of each class as shown in Table 60. In FIG. 10, the first area ratio of the differentiated cells of class 1 is 38%, the first area ratio of undifferentiated cells of class 2 is 2%, the first area ratio of the medium of class 3 is 40%, and the death of class 4. The case where the first area ratio of the cell is calculated as 20% is illustrated.

特定部51は、第1面積割合が第1設定値よりも低い稀少クラスを特定する。図10では、第1設定値が5%以下であるため、第1面積割合が2%と第1設定値よりも低い、クラス2の未分化細胞を稀少クラスとして特定した場合を例示している。なお、ここでは稀少クラスが1つだけ特定された場合を例示しているが、第1面積割合が第1設定値よりも低いクラスが複数あった場合は、当然ながら複数のクラスが稀少クラスとして特定される。 The specific unit 51 identifies a rare class in which the first area ratio is lower than the first set value. FIG. 10 illustrates a case where undifferentiated cells of class 2 having a first area ratio of 2%, which is lower than the first set value, are specified as a rare class because the first set value is 5% or less. .. In addition, although the case where only one rare class is specified is illustrated here, when there are a plurality of classes whose first area ratio is lower than the first set value, naturally, a plurality of classes are regarded as rare classes. Be identified.

続いて図11において、生成部52は、表61に示すように、稀少クラスの第2面積割合が、算出部50において算出した第1面積割合よりも大きい第2設定値以上であるミニバッチデータ11を生成する。図11では、第2設定値が25%以上であるため、各ミニバッチデータ11において、稀少クラスであるクラス2の未分化細胞の第2面積割合が25%とされている。また、稀少クラスであるクラス2の未分化細胞以外の他のクラスの第2面積割合も一律25%とされている。なお、図10で示した第1設定値、および図11で示した第2設定値は、あくまでも一例である。第2設定値は、少なくとも稀少クラスの第1面積割合よりも大きければよく、上記の例でいえば2%よりも大きければよい。また、稀少クラス以外の他のクラスの第2面積割合に関しては特に制約はないので、上記のように値を一律25%とする必要はない。 Subsequently, in FIG. 11, as shown in Table 61, the generation unit 52 has mini-batch data in which the second area ratio of the rare class is equal to or greater than the second set value that is larger than the first area ratio calculated by the calculation unit 50. 11 is generated. In FIG. 11, since the second set value is 25% or more, the second area ratio of the undifferentiated cells of class 2 which is a rare class is set to 25% in each mini-batch data 11. In addition, the second area ratio of other classes other than the rare class 2 undifferentiated cells is uniformly 25%. The first set value shown in FIG. 10 and the second set value shown in FIG. 11 are merely examples. The second set value may be at least larger than the first area ratio of the rare class, and may be larger than 2% in the above example. Further, since there is no particular restriction on the second area ratio of the classes other than the rare class, it is not necessary to set the value uniformly to 25% as described above.

次に、上記構成による作用について、図12に示すフローチャートを参照して説明する。まず、作動プログラム40が起動されて、図9で示したように、ミニバッチ学習装置2を構成するコンピュータのCPU32が、各処理部50~55として機能する。 Next, the operation of the above configuration will be described with reference to the flowchart shown in FIG. First, the operation program 40 is activated, and as shown in FIG. 9, the CPU 32 of the computer constituting the mini-batch learning device 2 functions as each processing unit 50 to 55.

図10の表60で示したように、算出部50により、各クラスの第1面積割合が算出される(ステップST100、算出ステップ)。続いて、これも図10で示したように、特定部51において、第1面積割合が第1設定値よりも低い稀少クラスが特定される(ステップST110、特定ステップ)。 As shown in Table 60 of FIG. 10, the calculation unit 50 calculates the first area ratio of each class (step ST100, calculation step). Subsequently, as also shown in FIG. 10, in the specific unit 51, a rare class having a first area ratio lower than the first set value is specified (step ST110, specific step).

特定部51において稀少クラスが特定された場合(ステップST120でYES)、図11の表61で示したように、生成部52により、稀少クラスの第2面積割合が第2設定値以上であるミニバッチデータ11が生成される(ステップST130、生成ステップ)。 When the rare class is specified in the specific unit 51 (YES in step ST120), as shown in Table 61 of FIG. 11, the mini in which the second area ratio of the rare class is equal to or larger than the second set value by the generation unit 52. Batch data 11 is generated (step ST130, generation step).

特定部51において稀少クラスが特定された場合とは、すなわち学習用入力画像20およびアノテーション画像21にクラスの偏りがあった場合である。学習用入力画像20およびアノテーション画像21にクラスの偏りがあると、何の制約もなくミニバッチデータ11を生成した場合は、ミニバッチデータ11にも、クラスの偏りが生じる可能性が高くなる。そうすると、結果として、稀少クラスの判別精度が低いモデル10ができあがってしまう。 The case where the rare class is specified in the specific unit 51 is the case where the learning input image 20 and the annotation image 21 have a bias in the class. If the learning input image 20 and the annotation image 21 have a class bias, if the mini-batch data 11 is generated without any restrictions, there is a high possibility that the mini-batch data 11 will also have a class bias. Then, as a result, the model 10 having low discrimination accuracy of the rare class is completed.

しかしながら、本実施形態では、上述のように、特定部51において稀少クラスが特定された場合、生成部52において、稀少クラスの第2面積割合が第2設定値以上であるミニバッチデータ11を生成している。こうすることで、学習用入力画像20およびアノテーション画像21にクラスの偏りがあった場合においても、ミニバッチデータ11にはクラスの偏りは生じない。したがって、稀少クラスの判別精度が低いモデル10ができあがってしまう、という事態が避けられ、モデル10のクラスの判別精度の低下を抑制することが可能となる。 However, in the present embodiment, as described above, when the rare class is specified in the specific unit 51, the generation unit 52 generates the mini-batch data 11 in which the second area ratio of the rare class is equal to or higher than the second set value. is doing. By doing so, even if the learning input image 20 and the annotation image 21 have a class bias, the mini-batch data 11 does not have a class bias. Therefore, it is possible to avoid a situation in which the model 10 having a low discrimination accuracy of the rare class is completed, and it is possible to suppress a decrease in the discrimination accuracy of the class of the model 10.

一方、特定部51において稀少クラスが特定されなかった場合は、生成部52において、特に制約なくミニバッチデータ11が生成される(ステップST140、生成ステップ)。 On the other hand, when the rare class is not specified in the specific unit 51, the mini-batch data 11 is generated in the generation unit 52 without any particular limitation (step ST140, generation step).

学習部53において、生成部52からのミニバッチデータ11の分割学習用入力画像群12がモデル10に与えられて学習が行われる(ステップST150)。そして、これによりモデル10から出力された学習用出力画像群14と、生成部52からのミニバッチデータ11の分割アノテーション画像群13とが、評価部54において比較され、モデル10のクラスの判別精度が評価される(ステップST160)。 In the learning unit 53, the input image group 12 for division learning of the mini-batch data 11 from the generation unit 52 is given to the model 10 and learning is performed (step ST150). Then, the learning output image group 14 output from the model 10 and the divided annotation image group 13 of the mini-batch data 11 from the generation unit 52 are compared in the evaluation unit 54, and the discrimination accuracy of the class of the model 10 is compared. Is evaluated (step ST160).

評価部54による評価結果に基づき、モデル10のクラスの判別精度が所望のレベルに達したと判定された場合(ST170でYES)、ミニバッチ学習が終了される。一方、モデル10のクラスの判別精度が所望のレベルに達していないと判定された場合(ステップST170でNO)は、更新部55によりモデル10が更新(ステップST180)される。そのうえで、ステップST150に処理が戻され、別の組のミニバッチデータ11がモデル10に与えられて以降のステップが繰り返される。 When it is determined that the discrimination accuracy of the class of the model 10 has reached a desired level based on the evaluation result by the evaluation unit 54 (YES in ST170), the mini-batch learning is terminated. On the other hand, when it is determined that the discrimination accuracy of the class of the model 10 has not reached a desired level (NO in step ST170), the model 10 is updated by the update unit 55 (step ST180). Then, the process is returned to step ST150, another set of mini-batch data 11 is given to the model 10, and the subsequent steps are repeated.

[第2実施形態]
図13に示す第2実施形態では、生成部52に、第2面積割合が第2設定値以上であるミニバッチデータ11を生成する処理を行わせるか否かを問う。
[Second Embodiment]
In the second embodiment shown in FIG. 13, the generation unit 52 is asked whether or not to perform a process of generating the mini-batch data 11 in which the second area ratio is equal to or larger than the second set value.

図13において、第2実施形態のミニバッチ学習装置のCPUは、第1実施形態の各処理部50~55に加えて、受付部65として機能する。受付部65は、特定部52において稀少クラスを特定した場合に、生成部52に、第2面積割合が第2設定値以上であるミニバッチデータ11を生成する処理を行わせるか否かの選択指示を受け付ける。 In FIG. 13, the CPU of the mini-batch learning device of the second embodiment functions as a reception unit 65 in addition to the processing units 50 to 55 of the first embodiment. When the rare class is specified in the specific unit 52, the reception unit 65 selects whether or not to have the generation unit 52 perform a process of generating the mini-batch data 11 in which the second area ratio is equal to or larger than the second set value. Accept instructions.

第2実施形態においては、特定部52において稀少クラスが特定された場合、ディスプレイ34に問い合わせ画面66が表示される。問い合わせ画面66には、稀少クラスが特定された旨と、第2面積割合が第2設定値以上であるミニバッチデータ11を生成してよいか否かを問う旨のメッセージ67、はいボタン68、いいえボタン69が表示される。受付部65は、はいボタン68といいえボタン69の選択指示を、第2面積割合が第2設定値以上であるミニバッチデータ11を生成する処理を行わせるか否かの選択指示として受け付ける。はいボタン68が選択された場合は、生成部52において、第2面積割合が第2設定値以上であるミニバッチデータ11を生成する処理が行われる。一方、いいえボタン69が選択された場合は、生成部52において、第2面積割合が第2設定値以上であるミニバッチデータ11を生成する処理は行われない。 In the second embodiment, when the rare class is specified in the specific unit 52, the inquiry screen 66 is displayed on the display 34. On the inquiry screen 66, a message 67 indicating that the rare class has been specified and whether or not to generate mini-batch data 11 having a second area ratio equal to or greater than the second set value 67, a yes button 68, No button 69 is displayed. The reception unit 65 receives the selection instruction of the yes button 68 and the no button 69 as a selection instruction as to whether or not to perform the process of generating the mini-batch data 11 in which the second area ratio is equal to or larger than the second set value. When the Yes button 68 is selected, the generation unit 52 performs a process of generating the mini-batch data 11 in which the second area ratio is equal to or larger than the second set value. On the other hand, when the No button 69 is selected, the generation unit 52 does not perform the process of generating the mini-batch data 11 in which the second area ratio is equal to or larger than the second set value.

アノテーション画像の生成に際しては、クラスの指定は手動であるため、クラスの指定を間違えたりすることがある。また、モデル10の開発当初はクラスとして指定していたが、開発が進むにつれてあまり重要視しなくなったクラスが出てくることもある。こうした場合は、特定部52において稀少クラスが特定されたが、第2面積割合が第2設定値以上であるミニバッチデータ11を生成しなくても構わない場合がある。 When generating the annotation image, the class is specified manually, so the class may be specified incorrectly. In addition, although the model 10 was designated as a class at the beginning of development, some classes may become less important as the development progresses. In such a case, although the rare class is specified in the specific unit 52, it may not be necessary to generate the mini-batch data 11 in which the second area ratio is equal to or larger than the second set value.

そこで、第2実施形態では、受付部65により、生成部52に、第2面積割合が第2設定値以上であるミニバッチデータ11を生成する処理を行わせるか否かの選択指示を受け付けている。したがって、特定部52において稀少クラスが特定されたが、第2面積割合が第2設定値以上であるミニバッチデータ11を生成しなくても構わない場合に対応することができる。 Therefore, in the second embodiment, the reception unit 65 receives an instruction to select whether or not to cause the generation unit 52 to perform a process of generating the mini-batch data 11 in which the second area ratio is equal to or larger than the second set value. There is. Therefore, although the rare class is specified in the specific unit 52, it is possible to deal with the case where it is not necessary to generate the mini-batch data 11 in which the second area ratio is equal to or larger than the second set value.

[第3実施形態]
図14に示す第3実施形態では、一定の規則にしたがってミニバッチデータ11を複数生成する。そして、一定の規則にしたがって生成した複数のミニバッチデータ11のうち、第2面積割合が第2設定値以上であるミニバッチデータ11を、学習に用いるために選択する。
[Third Embodiment]
In the third embodiment shown in FIG. 14, a plurality of mini-batch data 11 are generated according to a certain rule. Then, among the plurality of mini-batch data 11 generated according to a certain rule, the mini-batch data 11 whose second area ratio is equal to or higher than the second set value is selected for learning.

図14において、第3実施形態の生成部75は、図4および図5で示したように、枠25を一定の規則にしたがって移動(横方向にDXずつ、かつ縦方向のDYずつ順次移動)させ、分割学習用入力画像20Sおよび分割アノテーション画像21Sを生成する。また、生成部75は、分割学習用入力画像20Sおよび分割アノテーション画像21Sから、一定の規則にしたがって分割学習用入力画像群12および分割アノテーション画像群13を生成する。第1実施形態では、分割学習用入力画像20Sおよび分割アノテーション画像21Sの選択方法を工夫することで、第2面積割合が第2設定値以上であるミニバッチデータ11を生成しているが、第3実施形態では、そうした選択方法の工夫はせず、取り敢えずは一定の規則にしたがってミニバッチデータ11を生成する。 In FIG. 14, as shown in FIGS. 4 and 5, the generation unit 75 of the third embodiment moves the frame 25 according to a certain rule (moves sequentially by DX in the horizontal direction and by DY in the vertical direction). Then, the input image 20S for division learning and the division annotation image 21S are generated. Further, the generation unit 75 generates the division learning input image group 12 and the division annotation image group 13 from the division learning input image 20S and the division annotation image 21S according to a certain rule. In the first embodiment, by devising the selection method of the input image 20S for division learning and the division annotation image 21S, the mini-batch data 11 in which the second area ratio is equal to or more than the second set value is generated. In the third embodiment, the mini-batch data 11 is generated according to a certain rule for the time being without devising such a selection method.

生成部75は、こうして一定の規則にしたがって生成した複数のミニバッチデータ11のうち、第2面積割合が第2設定値以上であるミニバッチデータ11を、学習に用いるために選択する。 The generation unit 75 selects the mini-batch data 11 whose second area ratio is equal to or higher than the second set value among the plurality of mini-batch data 11 generated according to a certain rule in this way for learning.

表76は、生成部75が一定の規則にしたがって生成した複数のミニバッチデータ11の各クラスの第2面積割合を示す。ここでは、図10等と同じく、クラス2の未分化細胞が稀少クラスとして特定された場合を例示する。また、第2設定値も、第1実施形態と同じく25%以上である場合を例示する。この場合、稀少クラスであるクラス2の未分化細胞の第2面積割合が第2設定値以上であるのは、No.2のミニバッチデータ11である。このため、生成部75は、表77に示すように、No.2のミニバッチデータ11を、学習部53に与えるミニバッチデータ11として選択する。 Table 76 shows the second area ratio of each class of the plurality of mini-batch data 11 generated by the generation unit 75 according to a certain rule. Here, as in FIG. 10 and the like, a case where undifferentiated cells of class 2 are identified as a rare class is illustrated. Further, the case where the second set value is 25% or more as in the first embodiment is exemplified. In this case, it is No. 1 that the second area ratio of the undifferentiated cells of class 2 which is a rare class is equal to or more than the second set value. It is the mini-batch data 11 of 2. Therefore, as shown in Table 77, the generation unit 75 is No. The mini-batch data 11 of 2 is selected as the mini-batch data 11 to be given to the learning unit 53.

このように、第3実施形態では、生成部75が、一定の規則にしたがってミニバッチデータ11を複数生成し、かつ、一定の規則にしたがって生成した複数のミニバッチデータ11のうち、第2面積割合が第2設定値以上であるミニバッチデータ11を、学習に用いるために選択する。したがって、分割学習用入力画像20Sおよび分割アノテーション画像21Sの選択方法を工夫して、第2面積割合が第2設定値以上であるミニバッチデータ11を生成する手間が省ける。 As described above, in the third embodiment, the generation unit 75 generates a plurality of mini-batch data 11 according to a certain rule, and the second area of the plurality of mini-batch data 11 generated according to a certain rule. The mini-batch data 11 having a ratio equal to or higher than the second set value is selected for use in training. Therefore, it is possible to save the trouble of generating the mini-batch data 11 in which the second area ratio is equal to or larger than the second set value by devising the selection method of the input image 20S for division learning and the division annotation image 21S.

[第4実施形態]
図15に示す第4実施形態では、アノテーション画像21内の稀少クラスの偏在領域と非偏在領域とを検出する。そして、偏在領域のミニバッチデータ11の元となる画像の切り取り数を、非偏在領域の切り取り数よりも多くする。ここで、ミニバッチデータ11の元となる画像とは、分割アノテーション画像21Sのことである。
[Fourth Embodiment]
In the fourth embodiment shown in FIG. 15, a rare class uneven distribution region and a non-uneven distribution region in the annotation image 21 are detected. Then, the number of cuts of the image that is the source of the mini-batch data 11 in the unevenly distributed area is made larger than the number of cuts in the non-unevenly distributed area. Here, the image that is the source of the mini-batch data 11 is the divided annotation image 21S.

図15において、第4実施形態の生成部は、アノテーション画像21内の稀少クラスの偏在領域80と非偏在領域81とを検出する。偏在領域80の検出方法としては、まず、アノテーション画像21を複数の領域に分割し、各領域における稀少クラスの面積割合を算出する。続いて、算出した各領域の面積割合の平均AVEと標準偏差σとを求める。そして、稀少クラスの面積割合が、例えばAVE+3σを超える領域を、偏在領域80として検出する。 In FIG. 15, the generation unit of the fourth embodiment detects the rare class uneven distribution region 80 and the non-uneven distribution region 81 in the annotation image 21. As a method for detecting the uneven distribution region 80, first, the annotation image 21 is divided into a plurality of regions, and the area ratio of the rare class in each region is calculated. Subsequently, the average AVE and the standard deviation σ of the calculated area ratio of each region are obtained. Then, a region where the area ratio of the rare class exceeds, for example, AVE + 3σ is detected as the uneven distribution region 80.

生成部は、上記のようにして検出した偏在領域80の、分割アノテーション画像21Sの切り取り数を、非偏在領域81の切り取り数よりも多くする。図15では、図4および図5で示した枠25の移動量を、非偏在領域81の移動量DX_B、DY_Bよりも、偏在領域80の移動量DX_A、DY_Aを小さくすることで、偏在領域80の分割アノテーション画像21Sの切り取り数を、非偏在領域81の切り取り数よりも多くしている。 The generation unit increases the number of cuts of the divided annotation image 21S of the uneven distribution region 80 detected as described above to be larger than the number of cuts of the non-uneven distribution region 81. In FIG. 15, the movement amount of the frame 25 shown in FIGS. 4 and 5 is reduced by making the movement amounts DX_A and DY_A of the uneven distribution area 80 smaller than the movement amounts DX_B and DY_B of the non-uneven distribution region 81. The number of cuts of the divided annotation image 21S in the above is larger than the number of cuts of the non-unevenly distributed region 81.

このように、第4実施形態では、生成部が、アノテーション画像21内の稀少クラスの偏在領域80と非偏在領域81とを検出し、偏在領域80のミニバッチデータ11の元となる画像の切り取り数を、非偏在領域81の切り取り数よりも多くしている。したがって、第2面積割合が第2設定値以上であるミニバッチデータ11を簡単に生成することができる。 As described above, in the fourth embodiment, the generation unit detects the rare class uneven distribution region 80 and the non-uneven distribution region 81 in the annotation image 21, and cuts out the image that is the source of the mini-batch data 11 of the uneven distribution region 80. The number is larger than the number of cuts of the non-unevenly distributed region 81. Therefore, the mini-batch data 11 in which the second area ratio is equal to or larger than the second set value can be easily generated.

上記各実施形態では、入力画像16および学習用入力画像20として、細胞培養の様子を位相差顕微鏡で映した画像を例示し、クラスとして分化細胞、培地等を例示したが、これに限定されない。例えばMRI(Magnetic Resonance Imaging)画像を入力画像16および学習用入力画像20とし、肝臓、腎臓といった臓器をクラスとしてもよい。 In each of the above embodiments, the input image 16 and the learning input image 20 exemplify an image of the state of cell culture projected by a phase-contrast microscope, and the class includes differentiated cells, a medium, and the like, but the present invention is not limited thereto. For example, an MRI (Magnetic Resonance Imaging) image may be used as an input image 16 and a learning input image 20, and an organ such as a liver or a kidney may be used as a class.

モデル10はU-Netに限らず、他の畳み込みニューラルネットワーク、例えばSegNetでもよい。 The model 10 is not limited to U-Net, and may be another convolutional neural network, for example, SegNet.

ミニバッチ学習装置2を構成するコンピュータのハードウェア構成は種々の変形が可能である。例えば、ミニバッチ学習装置2を、処理能力および信頼性の向上を目的として、ハードウェアとして分離された複数台のコンピュータで構成することも可能である。具体的には、算出部50および特定部51の機能と、生成部52および学習部53の機能と、評価部54および更新部55の機能とを、3台のコンピュータに分散して担わせる。この場合は3台のコンピュータでミニバッチ学習装置2を構成する。 The hardware configuration of the computer constituting the mini-batch learning device 2 can be modified in various ways. For example, the mini-batch learning device 2 can be configured by a plurality of computers separated as hardware for the purpose of improving processing power and reliability. Specifically, the functions of the calculation unit 50 and the specific unit 51, the functions of the generation unit 52 and the learning unit 53, and the functions of the evaluation unit 54 and the update unit 55 are distributed to three computers. In this case, the mini-batch learning device 2 is configured by three computers.

このように、コンピュータのハードウェア構成は、処理能力、安全性、信頼性等の要求される性能に応じて適宜変更することができる。さらに、ハードウェアに限らず、作動プログラム40等のアプリケーションプログラムについても、安全性および信頼性の確保を目的として、二重化したり、あるいは、複数のストレージデバイスに分散して格納することももちろん可能である。 As described above, the hardware configuration of the computer can be appropriately changed according to the required performance such as processing power, safety, and reliability. Furthermore, not only hardware but also application programs such as the operation program 40 can be duplicated or distributed and stored in multiple storage devices for the purpose of ensuring safety and reliability. be.

上記各実施形態において、例えば、算出部50、特定部51、生成部52、75、学習部53、評価部54、更新部55、受付部65といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。各種のプロセッサには、上述したように、ソフトウェア(作動プログラム40)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU32に加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device :PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。 In each of the above embodiments, for example, a processing unit that executes various processes such as a calculation unit 50, a specific unit 51, a generation unit 52, 75, a learning unit 53, an evaluation unit 54, an update unit 55, and a reception unit 65. As the hardware structure of, various processors (Processors) shown below can be used. For various processors, as described above, in addition to the CPU 32, which is a general-purpose processor that executes software (operation program 40) and functions as various processing units, after manufacturing an FPGA (Field Programmable Gate Array) or the like. Dedicated processor with a circuit configuration designed specifically for executing specific processing such as Programmable Logic Device (PLD), which is a processor whose circuit configuration can be changed, and ASIC (Application Specific Integrated Circuit). Includes electrical circuits and the like.

1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、および/または、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。 One processing unit may be composed of one of these various processors, or may be a combination of two or more processors of the same type or different types (for example, a combination of a plurality of FPGAs and / or a CPU). It may be configured in combination with FPGA). Further, a plurality of processing units may be configured by one processor.

複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。 As an example of configuring a plurality of processing units with one processor, first, one processor is configured by a combination of one or more CPUs and software, as represented by a computer such as a client and a server. There is a form in which the processor functions as a plurality of processing units. Secondly, as typified by System On Chip (SoC), there is a form of using a processor that realizes the functions of the entire system including a plurality of processing units with one IC (Integrated Circuit) chip. be. As described above, the various processing units are configured by using one or more of the above-mentioned various processors as a hardware-like structure.

さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。 Further, as the hardware structure of these various processors, more specifically, an electric circuit (circuitry) in which circuit elements such as semiconductor elements are combined can be used.

以上の記載から、以下の付記項1に記載の発明を把握することができる。 From the above description, the invention described in the following Appendix 1 can be grasped.

[付記項1]
画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに、ミニバッチデータを与えて学習させるミニバッチ学習装置であり、
前記ミニバッチデータの元となる学習用入力画像およびアノテーション画像のうちの、前記アノテーション画像全体の面積に対する、前記複数のクラスの各々の第1面積割合を算出する算出プロセッサと、
前記第1面積割合が第1設定値よりも低い稀少クラスを特定する特定プロセッサと、
前記学習用入力画像および前記アノテーション画像から前記ミニバッチデータを生成する生成プロセッサであり、前記ミニバッチデータにおける前記稀少クラスの第2面積割合が、前記算出プロセッサにおいて算出した前記第1面積割合よりも大きい第2設定値以上である前記ミニバッチデータを生成する生成プロセッサと、
を備えるミニバッチ学習装置。
[Appendix 1]
It is a mini-batch learning device that gives mini-batch data to a machine learning model for performing semantic segmentation that discriminates multiple classes in an image on a pixel-by-pixel basis.
A calculation processor that calculates the first area ratio of each of the plurality of classes to the area of the entire annotation image among the training input image and the annotation image that are the sources of the mini-batch data.
A specific processor that identifies a rare class whose first area ratio is lower than the first set value, and
It is a generation processor that generates the mini-batch data from the input image for learning and the annotation image, and the second area ratio of the rare class in the mini-batch data is larger than the first area ratio calculated by the calculation processor. A generation processor that generates the mini-batch data that is greater than or equal to the large second set value, and
A mini-batch learning device equipped with.

本開示の技術は、上述の種々の実施形態と種々の変形例を適宜組み合わせることも可能である。また、上記各実施形態に限らず、要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本開示の技術は、プログラムに加えて、プログラムを非一時的に記憶する記憶媒体にもおよぶ。 The technique of the present disclosure can also appropriately combine the various embodiments described above with various modifications. Further, it is of course not limited to each of the above embodiments, and various configurations can be adopted as long as they do not deviate from the gist. Further, the technique of the present disclosure extends to a storage medium for storing the program non-temporarily in addition to the program.

以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。 The contents described above and the contents shown in the illustration are detailed explanations of the parts related to the technique of the present disclosure, and are merely an example of the technique of the present disclosure. For example, the description of the configuration, function, action, and effect described above is an example of the configuration, function, action, and effect of a portion of the art of the present disclosure. Therefore, unnecessary parts may be deleted, new elements may be added, or replacements may be made to the above-mentioned description contents and illustration contents within the range not deviating from the gist of the technique of the present disclosure. Needless to say. In addition, in order to avoid complications and facilitate understanding of the parts relating to the technique of the present disclosure, the contents described above and the contents shown above require special explanation in order to enable the implementation of the technique of the present disclosure. The explanation about the common technical knowledge that is not used is omitted.

本明細書において、「Aおよび/またはB」は、「AおよびBのうちの少なくとも1つ」と同義である。つまり、「Aおよび/またはB」は、Aだけであってもよいし、Bだけであってもよいし、AおよびBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「および/または」で結び付けて表現する場合も、「Aおよび/またはB」と同様の考え方が適用される。 As used herein, "A and / or B" is synonymous with "at least one of A and B." That is, "A and / or B" means that it may be A alone, B alone, or a combination of A and B. Further, in the present specification, when three or more matters are connected and expressed by "and / or", the same concept as "A and / or B" is applied.

本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。 All documents, patent applications and technical standards described herein are to the same extent as if it were specifically and individually stated that the individual documents, patent applications and technical standards are incorporated by reference. Incorporated by reference in the book.

Claims (6)

画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに、ミニバッチデータを与えて学習させるミニバッチ学習装置であり、
前記ミニバッチデータの元となる学習用入力画像およびアノテーション画像のうちの、前記アノテーション画像全体の面積に対する、前記複数のクラスの各々の第1面積割合を算出する算出部と、
前記第1面積割合が第1設定値よりも低い稀少クラスを特定する特定部と、
前記学習用入力画像および前記アノテーション画像から前記ミニバッチデータを生成する生成部であり、前記ミニバッチデータにおける前記稀少クラスの第2面積割合が、前記算出部において算出した前記第1面積割合よりも大きい第2設定値以上である前記ミニバッチデータを生成する生成部と、
を備えるミニバッチ学習装置。
It is a mini-batch learning device that gives mini-batch data to a machine learning model for performing semantic segmentation that discriminates multiple classes in an image on a pixel-by-pixel basis.
A calculation unit that calculates the first area ratio of each of the plurality of classes to the area of the entire annotation image among the learning input image and the annotation image that are the sources of the mini-batch data.
A specific part that identifies a rare class in which the first area ratio is lower than the first set value, and
It is a generation unit that generates the mini-batch data from the input image for learning and the annotation image, and the second area ratio of the rare class in the mini-batch data is larger than the first area ratio calculated by the calculation unit. A generator that generates the mini-batch data that is greater than or equal to the large second set value, and
A mini-batch learning device equipped with.
前記生成部に、前記第2面積割合が前記第2設定値以上である前記ミニバッチデータを生成する処理を行わせるか否かの選択指示を受け付ける受付部を備える請求項1に記載のミニバッチ学習装置。 The mini-batch learning according to claim 1, wherein the generation unit includes a reception unit that receives a selection instruction as to whether or not to perform a process of generating the mini-batch data in which the second area ratio is equal to or larger than the second set value. Device. 前記生成部は、一定の規則にしたがって前記ミニバッチデータを複数生成し、かつ、前記一定の規則にしたがって生成した複数の前記ミニバッチデータのうち、前記第2面積割合が前記第2設定値以上である前記ミニバッチデータを、前記学習に用いるために選択する請求項1または2に記載のミニバッチ学習装置。 The generation unit generates a plurality of the mini-batch data according to a certain rule, and the second area ratio is equal to or more than the second set value among the plurality of the mini-batch data generated according to the certain rule. The mini-batch learning device according to claim 1 or 2, wherein the mini-batch data is selected for use in the learning. 前記生成部は、前記アノテーション画像内の前記稀少クラスの偏在領域と非偏在領域とを検出し、前記偏在領域の前記ミニバッチデータの元となる画像の切り取り数を、前記非偏在領域の前記切り取り数よりも多くする請求項1~3のいずれか1項に記載のミニバッチ学習装置。 The generation unit detects an uneven distribution region and a non-uneven distribution region of the rare class in the annotation image, and cuts out the image that is the source of the mini-batch data in the uneven distribution region. The mini-batch learning device according to any one of claims 1 to 3, wherein the number is larger than the number. 画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに、ミニバッチデータを与えて学習させるミニバッチ学習装置の作動プログラムであり、
前記ミニバッチデータの元となる学習用入力画像およびアノテーション画像のうちの、前記アノテーション画像全体の面積に対する、前記複数のクラスの各々の第1面積割合を算出する算出部と、
前記第1面積割合が第1設定値よりも低い稀少クラスを特定する特定部と、
前記学習用入力画像および前記アノテーション画像から前記ミニバッチデータを生成する生成部であり、前記ミニバッチデータにおける前記稀少クラスの第2面積割合が、前記算出部において算出した前記第1面積割合よりも大きい第2設定値以上である前記ミニバッチデータを生成する生成部として、
コンピュータを機能させるミニバッチ学習装置の作動プログラム。
It is an operation program of a mini-batch learning device that gives learning by giving mini-batch data to a machine learning model for performing semantic segmentation that discriminates multiple classes in an image on a pixel-by-pixel basis.
A calculation unit that calculates the first area ratio of each of the plurality of classes to the area of the entire annotation image among the learning input image and the annotation image that are the sources of the mini-batch data.
A specific part that identifies a rare class in which the first area ratio is lower than the first set value, and
It is a generation unit that generates the mini-batch data from the input image for learning and the annotation image, and the second area ratio of the rare class in the mini-batch data is larger than the first area ratio calculated by the calculation unit. As a generator that generates the mini-batch data that is greater than or equal to the large second set value,
An operation program for a mini-batch learning device that makes a computer work.
画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するための機械学習モデルに、ミニバッチデータを与えて学習させるミニバッチ学習装置の作動方法であり、
前記ミニバッチデータの元となる学習用入力画像およびアノテーション画像のうちの、前記アノテーション画像全体の面積に対する、前記複数のクラスの各々の第1面積割合を算出する算出ステップと、
前記第1面積割合が第1設定値よりも低い稀少クラスを特定する特定ステップと、
前記学習用入力画像および前記アノテーション画像から前記ミニバッチデータを生成する生成ステップであり、前記ミニバッチデータにおける前記稀少クラスの第2面積割合が、前記算出ステップにおいて算出した前記第1面積割合よりも大きい第2設定値以上である前記ミニバッチデータを生成する生成ステップと、
を備えるミニバッチ学習装置の作動方法。
It is an operation method of a mini-batch learning device that gives learning by giving mini-batch data to a machine learning model for performing semantic segmentation that discriminates multiple classes in an image on a pixel-by-pixel basis.
A calculation step for calculating the first area ratio of each of the plurality of classes to the area of the entire annotation image among the training input image and the annotation image that are the sources of the mini-batch data.
A specific step for identifying a rare class in which the first area ratio is lower than the first set value, and
In the generation step of generating the mini-batch data from the learning input image and the annotation image, the second area ratio of the rare class in the mini-batch data is larger than the first area ratio calculated in the calculation step. A generation step for generating the mini-batch data that is greater than or equal to the large second set value, and
How to operate a mini-batch learning device equipped with.
JP2020559790A 2018-12-14 2019-10-29 Mini-batch learning device and its operation program and operation method Active JP7096360B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018234883 2018-12-14
JP2018234883 2018-12-14
PCT/JP2019/042385 WO2020121668A1 (en) 2018-12-14 2019-10-29 Mini-batch learning device, and operation program and operation method therefor

Publications (2)

Publication Number Publication Date
JPWO2020121668A1 JPWO2020121668A1 (en) 2021-09-27
JP7096360B2 true JP7096360B2 (en) 2022-07-05

Family

ID=71075774

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020559790A Active JP7096360B2 (en) 2018-12-14 2019-10-29 Mini-batch learning device and its operation program and operation method

Country Status (5)

Country Link
US (1) US20210304006A1 (en)
EP (1) EP3896648A4 (en)
JP (1) JP7096360B2 (en)
CN (1) CN113196335A (en)
WO (1) WO2020121668A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3896647A4 (en) * 2018-12-14 2022-01-26 FUJIFILM Corporation Mini-batch learning device, operating program for mini-batch learning device, operating method for mini-batch learning device, and image processing device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017162456A (en) 2016-03-11 2017-09-14 株式会社東芝 Training of restricted deconvolution network for semantic segmentation of road scene
WO2018081537A1 (en) 2016-10-31 2018-05-03 Konica Minolta Laboratory U.S.A., Inc. Method and system for image segmentation using controlled feedback

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2101505A3 (en) * 2008-03-11 2012-09-05 Sony Corporation Image processing device, method, and program
CN102521610B (en) * 2011-12-08 2013-11-13 北京新媒传信科技有限公司 Image filtering method and device
JP2014072620A (en) * 2012-09-28 2014-04-21 Nikon Corp Image processing program, image processing method, image processing apparatus, and imaging apparatus
EP3073443B1 (en) * 2015-03-23 2018-05-02 Université de Mons 3d saliency map
JP6509717B2 (en) 2015-12-09 2019-05-08 日本電信電話株式会社 Case selection apparatus, classification apparatus, method, and program
JP6862538B2 (en) * 2017-04-14 2021-04-21 株式会社日立ハイテク Imaging device and morphological feature data display method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017162456A (en) 2016-03-11 2017-09-14 株式会社東芝 Training of restricted deconvolution network for semantic segmentation of road scene
WO2018081537A1 (en) 2016-10-31 2018-05-03 Konica Minolta Laboratory U.S.A., Inc. Method and system for image segmentation using controlled feedback

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
平松侑樹, 外4名,"複数CNNの統合による細胞画像のセグメンテーション",第24回 画像センシングシンポジウム,日本,画像センシング技術研究会,2018年06月13日
相澤宏旭, 外1名,"航空機画像セグメンテーションへのEncoder-Decoder CNNの適用とその改良",映像情報メディア学会技術報告,日本,(一社)映像情報メディア学会,2016年08月24日,第40巻, 第28号,p.9-10
相澤宏旭, 外2名,"多重解像度性を取り入れたEncoder-Decoder CNNによるパーツセグメンテーション",第23回 画像センシングシンポジウム,日本,画像センシング技術研究会,2017年06月07日

Also Published As

Publication number Publication date
WO2020121668A1 (en) 2020-06-18
US20210304006A1 (en) 2021-09-30
CN113196335A (en) 2021-07-30
EP3896648A4 (en) 2022-01-26
JPWO2020121668A1 (en) 2021-09-27
EP3896648A1 (en) 2021-10-20

Similar Documents

Publication Publication Date Title
CN109670558B (en) Digital image completion using deep learning
US20220189149A1 (en) Information processing apparatus, method for operating information processing apparatus, and operating program of information processing apparatus
US11200643B2 (en) Image processing apparatus, image processing method and storage medium for enhancing resolution of image
US11354846B2 (en) Computing photorealistic versions of synthetic images
EP2846309A1 (en) Method and apparatus for segmenting object in image
CN104978750B (en) Method and apparatus for handling video file
US11900249B2 (en) Mini-batch learning apparatus, operation program of mini-batch learning apparatus, operation method of mini-batch learning apparatus, and image processing apparatus
JP7096362B2 (en) Mini-batch learning device and its operation program and operation method
US10216863B2 (en) Program generation method, program generation apparatus, and storage medium
WO2019209751A1 (en) Superpixel merging
JP7096360B2 (en) Mini-batch learning device and its operation program and operation method
JP2018032340A (en) Attribute estimation device, attribute estimation method and attribute estimation program
US20220012895A1 (en) Image processing apparatus, and operation method and operating program thereof, operating apparatus, and operation method and operating program thereof, and machine learning system
CN112150347B (en) Image modification patterns learned from a limited set of modified images
JP6723488B1 (en) Learning device and inference device
JP2020204863A (en) Learning device, method for actuating learning device, and actuation program of learning device
JP7348446B2 (en) Method and system for providing handwritten font generation service
CN113470124B (en) Training method and device for special effect model, and special effect generation method and device
JP7167355B2 (en) LEARNING APPARATUS, LEARNING APPARATUS OPERATING METHOD, LEARNING APPARATUS OPERATING PROGRAM
US12033084B2 (en) Computing photorealistic versions of synthetic images
US20230316731A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
JP7167315B2 (en) Image processing device, method for operating image processing device, and program for operating image processing device
US20240013407A1 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
CN109716304B (en) Method and system for testing mixed instruction architecture
US20200242394A1 (en) Display control method and display control apparatus

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210330

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220531

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220623

R150 Certificate of patent or registration of utility model

Ref document number: 7096360

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150