JP7167355B2 - LEARNING APPARATUS, LEARNING APPARATUS OPERATING METHOD, LEARNING APPARATUS OPERATING PROGRAM - Google Patents

LEARNING APPARATUS, LEARNING APPARATUS OPERATING METHOD, LEARNING APPARATUS OPERATING PROGRAM Download PDF

Info

Publication number
JP7167355B2
JP7167355B2 JP2021543948A JP2021543948A JP7167355B2 JP 7167355 B2 JP7167355 B2 JP 7167355B2 JP 2021543948 A JP2021543948 A JP 2021543948A JP 2021543948 A JP2021543948 A JP 2021543948A JP 7167355 B2 JP7167355 B2 JP 7167355B2
Authority
JP
Japan
Prior art keywords
learning
counting
amount
segmentation
stage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021543948A
Other languages
Japanese (ja)
Other versions
JPWO2021044666A1 (en
Inventor
隆史 涌井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2021044666A1 publication Critical patent/JPWO2021044666A1/ja
Application granted granted Critical
Publication of JP7167355B2 publication Critical patent/JP7167355B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本開示の技術は、学習装置、学習装置の作動方法、学習装置の作動プログラムに関する。 The technology of the present disclosure relates to a learning device, a learning device operating method, and a learning device operating program.

入力画像内の複数のクラスの判別を画素単位で行うセマンティックセグメンテーションが知られている。クラスは、入力画像に映る物体の種類である。セマンティックセグメンテーションを実施する機械学習モデル(以下、単にモデルという)としては、U字型の畳み込みニューラルネットワーク(U-Net;U-Shaped Neural Network)等がある。 Semantic segmentation is known that distinguishes between multiple classes in an input image on a pixel-by-pixel basis. A class is the type of object appearing in the input image. A machine learning model (hereinafter simply referred to as a model) that implements semantic segmentation includes a U-shaped convolutional neural network (U-Net).

特表2010-518486号公報には、培養中の複数の細胞を撮影した細胞画像を入力画像としてモデルに与え、細胞画像に映った細胞がクラスとして判別された出力画像をモデルから出力させることが記載されている。特表2010-518486号公報では、出力画像を解析して細胞の個数を計数している。 In Japanese Patent Publication No. 2010-518486, a cell image obtained by photographing a plurality of cells in culture is given to a model as an input image, and an output image in which the cells reflected in the cell image are classified as a class can be output from the model. Have been described. In JP 2010-518486 A, the output image is analyzed to count the number of cells.

特表2010-518486号公報では、モデルはクラスの判別を行うだけで、出力画像に基づく細胞の個数の計数は行わない。つまり、モデルによるクラスの判別と、細胞の個数の計数とは、切り離して行われる。このため、例えば出力画像では細胞が20個と目視で確認できたが、計数結果では細胞の個数が16個と少なく計数されている等、クラスの判別結果と個数の計数結果とに齟齬が生じることがあった。 In Japanese Patent Application Laid-Open No. 2010-518486, the model only performs class discrimination, and does not count the number of cells based on the output image. In other words, class discrimination by the model and counting of the number of cells are performed separately. For this reason, for example, although 20 cells could be visually confirmed in the output image, the number of cells was counted as 16 in the counting results, resulting in discrepancies between the class discrimination results and the number counting results. something happened.

そこで、クラスの判別と個数の計数を1つのモデルで実施することが考えられる。しかしながら、モデルの学習方法によっては、クラスの判別精度および個数の計数精度が比較的低くなるおそれがあった。 Therefore, it is conceivable to use a single model for class discrimination and counting. However, depending on the model learning method, there is a possibility that the class discrimination accuracy and the number counting accuracy will be relatively low.

本開示の技術は、入力画像内のクラスの判別精度、および入力画像に映る物体の個数の計数精度が比較的高い機械学習モデルを得ることが可能な学習装置、学習装置の作動方法、学習装置の作動プログラムを提供することを目的とする。 The technology of the present disclosure provides a learning device, an operation method of the learning device, and a learning device that can obtain a machine learning model with relatively high accuracy in class discrimination in an input image and in counting the number of objects appearing in the input image. The purpose is to provide an operating program for

上記目的を達成するために、本開示の学習装置は、入力画像に映る物体の種類であるクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するセグメンテーション部分と、セマンティックセグメンテーションによりクラスが判別された物体の個数の計数を実施する計数部分とを含む基礎機械学習モデルを取得する取得部と、学習用入力画像と、学習用入力画像に対してクラスが指定されたアノテーション画像との組である第1学習データを用いて、セグメンテーション部分を学習させる第1学習と、学習用入力画像と、学習用入力画像に映る物体の個数の計数結果との組である第2学習データを用いて、計数部分を学習させる第2学習とを行い、基礎機械学習モデルを学習済み機械学習モデルとする学習部と、学習部の動作を制御する制御部であり、前半の学習段階においては、第1学習の学習量を第2学習の学習量よりも多くし、後半の学習段階においては、第2学習の学習量を第1学習の学習量よりも多くする制御部と、を備える。 In order to achieve the above object, the learning device of the present disclosure includes a segmentation part that performs semantic segmentation in which a class, which is the type of object appearing in an input image, is determined on a pixel-by-pixel basis; A first acquisition unit that acquires a basic machine learning model including a counting part that counts the number of the first First learning for learning the segmentation part using the learning data, second learning data that is a set of the input image for learning, and the result of counting the number of objects appearing in the input image for learning, and the counting part using the second learning data A learning unit that performs second learning to learn and sets the basic machine learning model as a learned machine learning model, and a control unit that controls the operation of the learning unit. is larger than the learning amount of the second learning, and in the latter learning stage, the learning amount of the second learning is made larger than the learning amount of the first learning.

学習部は、第1損失関数を用いてセグメンテーション部分のクラスの判別精度を評価し、第2損失関数を用いて計数部分の物体の個数の計数精度を評価することが好ましい。 Preferably, the learning unit evaluates the class discrimination accuracy of the segmentation part using the first loss function, and evaluates the counting accuracy of the number of objects of the counting part using the second loss function.

制御部は、予め設定された変更スケジュールに応じて、第1学習の学習量および第2学習の学習量を変更することが好ましい。 Preferably, the control unit changes the learning amount of the first learning and the learning amount of the second learning according to a preset change schedule.

変更スケジュールは、第2学習の学習量を0として、学習部に第1学習だけを先に行わせ、セグメンテーション部分を学習済みセグメンテーション部分とさせた後、第1学習の学習量を0として、学習部に第2学習だけを行わせ、計数部分を学習済み計数部分とさせる、という、第1学習と第2学習を2段階に分けて行わせる内容であることが好ましい。 The change schedule sets the learning amount of the second learning to 0, causes the learning unit to perform only the first learning first, sets the segmentation part to the learned segmentation part, then sets the learning amount of the first learning to 0, and performs the learning It is preferable that the first learning and the second learning are performed in two stages, that is, the part is made to perform only the second learning and the counting part is set as the learned counting part.

変更スケジュールは、第1学習の学習量を徐々に少なくし、第2学習の学習量を徐々に多くする、という内容であることが好ましい。 The content of the change schedule is preferably such that the learning amount of the first learning is gradually decreased and the learning amount of the second learning is gradually increased.

変更スケジュールは、第1学習の学習量を徐々に少なくしていく過程で一時的に多くし、第2学習の学習量を徐々に多くしていく過程で、第1学習の学習量を一時的に多くするタイミングに合わせて少なくする、という内容であることが好ましい。 In the change schedule, the learning amount of the first learning is temporarily increased in the process of gradually decreasing the learning amount of the first learning, and the learning amount of the first learning is temporarily increased in the process of gradually increasing the learning amount of the second learning. It is preferable that the content is such that the amount is decreased according to the timing of increasing the amount.

学習部は、第1損失関数と第2損失関数との重み付き和によって、判別精度および計数精度を併せた全体の精度を評価し、制御部は、第1損失関数の第1重み係数、および第2損失関数の第2重み係数を変更することで、第1学習の学習量および第2学習の学習量を変更することが好ましい。 The learning unit evaluates the overall accuracy including the discrimination accuracy and the counting accuracy by the weighted sum of the first loss function and the second loss function, and the control unit evaluates the first weighting factor of the first loss function, and It is preferable to change the learning amount of the first learning and the learning amount of the second learning by changing the second weighting factor of the second loss function.

変更スケジュールのユーザによる指定を受け付ける受付部を備えることが好ましい。 It is preferable to have a reception unit that receives designation of the change schedule by the user.

第2損失関数は、学習用入力画像に映る物体の個数の計数部分による計数結果である学習用計数結果と、第2学習データに含まれる物体の個数の計数結果との差分の絶対値を、第2学習データに含まれる物体の個数の計数結果で除算した値に基づいて、計数精度を評価することが好ましい。 The second loss function is the absolute value of the difference between the learning counting result, which is the counting result of the counting part of the number of objects appearing in the learning input image, and the counting result of the number of objects included in the second learning data, It is preferable to evaluate counting accuracy based on a value obtained by dividing the number of objects included in the second learning data by the result.

入力画像は、培養中の複数の細胞を撮影した細胞画像であることが好ましい。 The input image is preferably a cell image obtained by photographing a plurality of cells in culture.

本開示の学習装置の作動方法は、入力画像に映る物体の種類であるクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するセグメンテーション部分と、セマンティックセグメンテーションによりクラスが判別された物体の個数の計数を実施する計数部分とを含む基礎機械学習モデルを取得する取得ステップと、学習用入力画像と、学習用入力画像に対してクラスが指定されたアノテーション画像との組である第1学習データを用いて、セグメンテーション部分を学習させる第1学習と、学習用入力画像と、学習用入力画像に映る物体の個数の計数結果との組である第2学習データを用いて、計数部分を学習させる第2学習とを行い、基礎機械学習モデルを学習済み機械学習モデルとする学習ステップと、前半の学習段階においては、第1学習の学習量を第2学習の学習量よりも多くし、後半の学習段階においては、第2学習の学習量を第1学習の学習量よりも多くする制御ステップと、を備える。 The operation method of the learning device of the present disclosure includes a segmentation part that performs semantic segmentation for classifying the class, which is the type of object appearing in the input image, on a pixel-by-pixel basis, and counting the number of objects whose class is determined by the semantic segmentation. using the first learning data, which is a set of an acquisition step of acquiring a basic machine learning model including a counting part to be performed, and an input image for learning and an annotation image in which a class is specified for the input image for learning , first learning for learning the segmentation part, and second learning for learning the counting part using second learning data that is a set of the input image for learning and the result of counting the number of objects appearing in the input image for learning. and in the learning step in which the basic machine learning model is a trained machine learning model, and in the first half of the learning stage, the learning amount of the first learning is made larger than the learning amount of the second learning, and in the latter half of the learning stage comprises a control step of making the learning amount of the second learning larger than the learning amount of the first learning.

本開示の学習装置の作動プログラムは、入力画像に映る物体の種類であるクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するセグメンテーション部分と、セマンティックセグメンテーションによりクラスが判別された物体の個数の計数を実施する計数部分とを含む基礎機械学習モデルを取得する取得部と、学習用入力画像と、学習用入力画像に対してクラスが指定されたアノテーション画像との組である第1学習データを用いて、セグメンテーション部分を学習させる第1学習と、学習用入力画像と、学習用入力画像に映る物体の個数の計数結果との組である第2学習データを用いて、計数部分を学習させる第2学習とを行い、基礎機械学習モデルを学習済み機械学習モデルとする学習部と、学習部の動作を制御する制御部であり、前半の学習段階においては、第1学習の学習量を第2学習の学習量よりも多くし、後半の学習段階においては、第2学習の学習量を第1学習の学習量よりも多くする制御部として、コンピュータを機能させる。 The operation program of the learning device of the present disclosure includes a segmentation part that performs semantic segmentation for classifying classes, which are the types of objects appearing in an input image, on a pixel-by-pixel basis, and counting the number of objects whose classes are determined by semantic segmentation. Using first learning data that is a set of an acquisition unit that acquires a basic machine learning model including a counting part to be performed, an input image for learning, and an annotation image in which a class is specified for the input image for learning , first learning for learning the segmentation part, and second learning for learning the counting part using second learning data that is a set of the input image for learning and the result of counting the number of objects appearing in the input image for learning. and a learning unit that uses the basic machine learning model as a learned machine learning model, and a control unit that controls the operation of the learning unit. The computer is made to function as a control unit that makes the learning amount larger than the learning amount, and makes the learning amount of the second learning larger than the learning amount of the first learning in the latter learning stage.

本開示の技術によれば、入力画像内のクラスの判別精度、および入力画像に映る物体の個数の計数精度が比較的高い機械学習モデルを得ることが可能な学習装置、学習装置の作動方法、学習装置の作動プログラムを提供することができる。 According to the technology of the present disclosure, a learning device capable of obtaining a machine learning model with relatively high class discrimination accuracy in an input image and a relatively high counting accuracy of the number of objects appearing in the input image, an operation method of the learning device, An operating program for the learning device can be provided.

機械学習システムを示す図である。1 illustrates a machine learning system; FIG. 機械学習システムにおける処理の概要を示す図である。It is a figure which shows the outline|summary of the process in a machine-learning system. 学習用入力画像およびアノテーション画像を示す図である。FIG. 10 is a diagram showing an input image for learning and an annotation image; アノテーション画像および計数結果を示す図である。It is a figure which shows an annotation image and a counting result. 学習装置を構成するコンピュータを示すブロック図である。1 is a block diagram showing a computer that constitutes a learning device; FIG. 学習装置のCPUの処理部を示すブロック図である。3 is a block diagram showing a processing section of a CPU of the learning device; FIG. モデル群を示す図である。It is a figure which shows a model group. 基礎モデルを示す図である。It is a figure which shows a basic model. 変更スケジュールを示す図である。It is a figure which shows a change schedule. 第1段階における学習部の処理の概要を示す図である。FIG. 4 is a diagram showing an outline of processing of a learning unit in a first stage; 第1段階における学習部の処理の詳細を示す図である。FIG. 10 is a diagram showing details of processing of the learning unit in the first stage; 第2段階における学習部の処理の概要を示す図である。FIG. 10 is a diagram showing an outline of processing of a learning unit in a second stage; 第2段階における学習部の処理の詳細を示す図である。FIG. 10 is a diagram showing details of processing of the learning unit in the second stage; 学習の様子を示す図であり、図14Aは、第1段階の第1学習の様子を、図14Bは、第2段階の第2学習の様子を、それぞれ示す。FIG. 14A shows the state of the first learning in the first stage, and FIG. 14B shows the state of the second learning in the second stage. 第2損失関数を示す図である。FIG. 10 is a diagram showing a second loss function; 運用装置のCPUの処理部を示すブロック図である。3 is a block diagram showing a processing unit of a CPU of the operation device; FIG. 評価結果表示画面を示す図である。It is a figure which shows an evaluation result display screen. 学習装置の処理手順を示すフローチャートである。4 is a flow chart showing a processing procedure of the learning device; 重み付き和を示す図である。FIG. 10 is a diagram showing weighted sums; 第2実施形態の変更スケジュールを示す図である。It is a figure which shows the change schedule of 2nd Embodiment. 図20で示した変更スケジュールをグラフで表した図であり、図21Aは第1重み係数を、図21Bは第2重み係数を、それぞれ示す。21A and 21B show the first weighting factor and the second weighting factor, respectively. 第2実施形態の学習部の処理の詳細を示す図である。It is a figure which shows the detail of the process of the learning part of 2nd Embodiment. 各学習段階における元のモデルと出力されるモデルとを示す表である。4 is a table showing an original model and an output model in each learning stage; 学習の様子を示す図であり、図24Aは、第1段階の第1学習の様子を、図24Bは、第2段階の第1学習と第2学習の様子を、それぞれ示す。FIG. 24A shows the state of the first learning in the first stage, and FIG. 24B shows the states of the first learning and the second learning in the second stage. 学習の様子を示す図であり、図25Aは、第3段階の第1学習と第2学習の様子を、図25Bは、第4段階の第1学習と第2学習の様子を、それぞれ示す。FIG. 25A shows the first learning and second learning in the third stage, and FIG. 25B shows the first learning and second learning in the fourth stage. 学習の様子を示す図であり、図26Aは、第5段階の第1学習と第2学習の様子を、図26Bは、第6段階の第2学習の様子を、それぞれ示す。FIG. 26A shows the state of the first learning and the second learning in the fifth stage, and FIG. 26B shows the state of the second learning in the sixth stage. 第2実施形態の学習装置の処理手順を示すフローチャートである。9 is a flow chart showing a processing procedure of the learning device of the second embodiment; 第2実施形態の変更スケジュールの別の例を示す図である。It is a figure which shows another example of the change schedule of 2nd Embodiment. 第2実施形態の変更スケジュールの別の例を示す図である。It is a figure which shows another example of the change schedule of 2nd Embodiment. 第3実施形態の変更スケジュールを示す図である。It is a figure which shows the change schedule of 3rd Embodiment. 図30で示した変更スケジュールをグラフで表した図であり、図31Aは第1重み係数を、図31Bは第2重み係数を、それぞれ示す。31A and 31B are graphs showing the change schedule shown in FIG. 30, wherein FIG. 31A shows the first weighting factor and FIG. 31B shows the second weighting factor; 第3実施形態の変更スケジュールの別の例を示す図である。It is a figure which shows another example of the change schedule of 3rd Embodiment. 図32で示した変更スケジュールをグラフで表した図であり、図33Aは第1重み係数を、図33Bは第2重み係数を、それぞれ示す。33A and 33B are graphs showing the change schedule shown in FIG. 32, wherein FIG. 33A shows the first weighting factor and FIG. 33B shows the second weighting factor; 変更スケジュール指定画面を示す図である。It is a figure which shows a change schedule specification screen. 別の例の変更スケジュールをグラフで表した図であり、図35Aは第1重み係数を、図35Bは第2重み係数を、それぞれ示す。35A and 35B show a first weighting factor and a second weighting factor, respectively. 別の例の変更スケジュールをグラフで表した図であり、図36Aは第1重み係数を、図36Bは第2重み係数を、それぞれ示す。FIG. 36B is a graphical representation of another example change schedule, FIG. 36A showing the first weighting factor and FIG. 36B the second weighting factor;

[第1実施形態]
図1において、機械学習システム2は、入力画像に映る物体の種類であるクラスの判別を画素単位で行うセマンティックセグメンテーションと、セマンティックセグメンテーションによりクラスが判別された物体の個数の計数とを実施するモデルを用いるシステムである。機械学習システム2は、学習装置10および運用装置11を備える。学習装置10および運用装置11は、例えばデスクトップ型のパーソナルコンピュータである。学習装置10および運用装置11は、ネットワーク12を介して相互に通信可能に接続されている。ネットワーク12は、例えば、LAN(Local Area Network)、もしくはインターネット、公衆通信網等のWAN(Wide Area Network)である。
[First embodiment]
In FIG. 1, the machine learning system 2 is a model that performs semantic segmentation in which a class, which is the type of object appearing in an input image, is determined on a pixel-by-pixel basis, and a model that counts the number of objects whose class is determined by the semantic segmentation. system used. A machine learning system 2 includes a learning device 10 and an operation device 11 . The learning device 10 and the operation device 11 are, for example, desktop personal computers. Learning device 10 and operation device 11 are connected via network 12 so as to be able to communicate with each other. The network 12 is, for example, a LAN (Local Area Network) or a WAN (Wide Area Network) such as the Internet or a public communication network.

図2において、学習装置10は、基礎モデル15に対して第1学習および第2学習を行い、基礎モデル15を学習済みモデル15Tとする。基礎モデル15は、セマンティックセグメンテーションを実施するセグメンテーション部分16と、物体の個数の計数を実施する計数部分17とを含む。第1学習においては、第1学習データ18を用いてセグメンテーション部分16を学習させ、セグメンテーション部分16を学習済みセグメンテーション部分16Tとする。第1学習データ18は、学習用入力画像19とアノテーション画像20との組である。第2学習においては、第2学習データ21を用いて計数部分17を学習させ、計数部分17を学習済み計数部分17Tとする。第2学習データ21は、学習用入力画像19と計数結果22との組である。 In FIG. 2, learning device 10 performs first learning and second learning on basic model 15, and sets basic model 15 as trained model 15T. The underlying model 15 includes a segmentation part 16 that performs semantic segmentation and a counting part 17 that performs counting of the number of objects. In the first learning, the segmentation portion 16 is learned using the first learning data 18, and the segmentation portion 16 is set as the learned segmentation portion 16T. The first learning data 18 is a set of a learning input image 19 and an annotation image 20 . In the second learning, the counting portion 17 is learned using the second learning data 21, and the counting portion 17 is set as the learned counting portion 17T. The second learning data 21 is a set of the learning input image 19 and the counting result 22 .

学習済みモデル15Tは、学習済みセグメンテーション部分16Tと学習済み計数部分17Tとを含む。学習装置10は、学習済みモデル15Tを運用装置11に送信する。運用装置11は、学習装置10からの学習済みモデル15Tを受信する。運用装置11は、映った物体のクラスおよび個数が未だ判別されていない入力画像25を学習済みモデル15Tに与える。学習済みモデル15Tは、入力画像25にセマンティックセグメンテーションおよび物体の個数の計数を実施して、入力画像25に映る物体のクラスおよび個数を判別し、その判別結果として出力画像26および計数結果27を出力する。なお、運用装置11に学習済みモデル15Tを組み込んだ後も、学習済みモデル15Tに各学習データ18、21を与えて学習させてもよい。 Trained model 15T includes trained segmentation portion 16T and trained counting portion 17T. The learning device 10 transmits the trained model 15T to the operation device 11 . The operation device 11 receives the trained model 15T from the learning device 10 . The operation device 11 provides the learned model 15T with the input image 25 in which the class and the number of the reflected objects have not yet been determined. The trained model 15T performs semantic segmentation on the input image 25 and counts the number of objects, determines the class and number of objects appearing in the input image 25, and outputs the output image 26 and the count result 27 as the determination result. do. Even after the trained model 15T is installed in the operation device 11, the learned data 18 and 21 may be given to the trained model 15T for learning.

図3に示すように、学習用入力画像19は、本例においては、培養中の複数の細胞を位相差顕微鏡等で撮影した細胞画像である。学習用入力画像19には、分化細胞DC、未分化細胞UDC、死細胞DDC、および培地PLが映っている。この場合のアノテーション画像20は、分化細胞DC、未分化細胞UDC、死細胞DDC、培地PLが、各々クラス1、クラス2、クラス3、クラス4として指定されたものとなる。各クラス1~4の指定は、例えば、ユーザが手動により行う。クラス4の培地PLは、他のクラス1~3を指定することで自ずと指定される。なお、学習済みモデル15Tに与えられる入力画像25も、学習用入力画像19と同じく、培養中の複数の細胞を位相差顕微鏡等で撮影した細胞画像である。 As shown in FIG. 3, the learning input image 19 is, in this example, a cell image obtained by photographing a plurality of cells in culture with a phase-contrast microscope or the like. Differentiated cell DC, undifferentiated cell UDC, dead cell DDC, and medium PL are shown in the learning input image 19 . In the annotation image 20 in this case, differentiated cell DC, undifferentiated cell UDC, dead cell DDC, and medium PL are designated as class 1, class 2, class 3, and class 4, respectively. The designation of each class 1 to 4 is manually performed by the user, for example. Medium PL of class 4 is automatically designated by designating other classes 1-3. Note that the input image 25 given to the trained model 15T is also a cell image obtained by photographing a plurality of cells in culture with a phase-contrast microscope or the like, like the learning input image 19 .

また、図4に示すように、第2学習データ21の計数結果22は、アノテーション画像20に基づいて、クラス1~3の分化細胞DC、未分化細胞UDC、死細胞DDCのそれぞれの個数を計数したものである。分化細胞DC、未分化細胞UDC、死細胞DDCのそれぞれの個数は、例えば、ユーザがアノテーション画像20を観察して計数する。なお、分化細胞DC、未分化細胞UDC、死細胞DDCは、本開示の技術に係る「物体」の一例である。 In addition, as shown in FIG. 4, the counting result 22 of the second learning data 21 counts the number of differentiated cell DC, undifferentiated cell UDC, and dead cell DDC of classes 1 to 3 based on the annotation image 20. It is what I did. For example, the user observes the annotation image 20 and counts the numbers of differentiated cell DCs, undifferentiated cell UDCs, and dead cell DDCs. Differentiated cell DC, undifferentiated cell UDC, and dead cell DDC are examples of the “object” according to the technology of the present disclosure.

図5において、学習装置10および運用装置11を構成するコンピュータは、基本的な構成は同じであり、ストレージデバイス30、メモリ31、CPU(Central Processing Unit)32、通信部33、ディスプレイ34、および入力デバイス35を備えている。これらはバスライン36を介して相互接続されている。 In FIG. 5, the computer constituting the learning device 10 and the operation device 11 have the same basic configuration, and include a storage device 30, a memory 31, a CPU (Central Processing Unit) 32, a communication unit 33, a display 34, and an input device. A device 35 is provided. These are interconnected via bus lines 36 .

ストレージデバイス30は、学習装置10等を構成するコンピュータに内蔵、またはケーブル、ネットワークを通じて接続されたハードディスクドライブである。もしくはストレージデバイス30は、ハードディスクドライブを複数台連装したディスクアレイである。ストレージデバイス30には、オペレーティングシステム等の制御プログラム、各種アプリケーションプログラム、およびこれらのプログラムに付随する各種データ等が記憶されている。なお、ハードディスクドライブに代えてソリッドステートドライブを用いてもよい。 The storage device 30 is a hard disk drive that is built into the computer that constitutes the learning device 10 or the like, or that is connected via a cable or network. Alternatively, the storage device 30 is a disk array in which a plurality of hard disk drives are connected. The storage device 30 stores a control program such as an operating system, various application programs, various data associated with these programs, and the like. A solid state drive may be used instead of the hard disk drive.

メモリ31は、CPU32が処理を実行するためのワークメモリである。CPU32は、ストレージデバイス30に記憶されたプログラムをメモリ31へロードして、プログラムにしたがった処理を実行することにより、コンピュータの各部を統括的に制御する。 The memory 31 is a work memory for the CPU 32 to execute processing. The CPU 32 loads a program stored in the storage device 30 into the memory 31 and executes processing according to the program, thereby comprehensively controlling each section of the computer.

通信部33は、ネットワーク12を介した各種情報の伝送制御を行うネットワークインターフェースである。ディスプレイ34は各種画面を表示する。学習装置10等を構成するコンピュータは、各種画面を通じて、入力デバイス35からの操作指示の入力を受け付ける。入力デバイス35は、キーボード、マウス、タッチパネル等である。なお、以下の説明では、学習装置10の各部に添え字の「A」を、運用装置11の各部に添え字の「B」を、それぞれ付して区別する。 The communication unit 33 is a network interface that controls transmission of various information via the network 12 . The display 34 displays various screens. The computer that constitutes the learning device 10 and the like accepts input of operation instructions from the input device 35 through various screens. The input device 35 is a keyboard, mouse, touch panel, or the like. In the following description, each part of the learning device 10 is given a suffix "A", and each part of the operation device 11 is given a suffix "B" to distinguish them.

図6において、学習装置10のストレージデバイス30Aには、作動プログラム40が記憶されている。作動プログラム40は、コンピュータを学習装置10として機能させるためのアプリケーションプログラムである。すなわち、作動プログラム40は、本開示の技術に係る「学習装置の作動プログラム」の一例である。ストレージデバイス30Aには、モデル群41、学習データ群42、および変更スケジュール43も記憶されている。 In FIG. 6, an operating program 40 is stored in the storage device 30A of the learning device 10. As shown in FIG. The operating program 40 is an application program that causes the computer to function as the learning device 10 . That is, the operating program 40 is an example of the "learning device operating program" according to the technology of the present disclosure. A model group 41, a learning data group 42, and a change schedule 43 are also stored in the storage device 30A.

作動プログラム40が起動されると、学習装置10を構成するコンピュータのCPU32Aは、メモリ31等と協働して、リードライト(以下、RW(Read Write)と略す)制御部50、学習部51、制御部52、および送信制御部53として機能する。 When the operation program 40 is started, the CPU 32A of the computer constituting the learning device 10 cooperates with the memory 31 and the like to perform read/write (hereinafter abbreviated as RW (Read Write)) control section 50, learning section 51, It functions as a control unit 52 and a transmission control unit 53 .

RW制御部50は、ストレージデバイス30Aへの各種データの記憶、およびストレージデバイス30A内の各種データの読み出しを制御する。RW制御部50は、本開示の技術に係る「取得部」の一例である。 The RW control unit 50 controls storage of various data in the storage device 30A and reading of various data in the storage device 30A. The RW control unit 50 is an example of an “acquisition unit” according to the technology of the present disclosure.

学習部51は、第1学習データ18を用いてセグメンテーション部分16を学習させ、セグメンテーション部分16を学習済みセグメンテーション部分16Tとする前述の第1学習を行う。また、学習部51は、第2学習データ21を用いて計数部分17を学習させ、計数部分17を学習済み計数部分17Tとする前述の第2学習を行う。 The learning unit 51 causes the segmentation part 16 to learn using the first learning data 18, and performs the above-described first learning with the segmentation part 16 as the learned segmentation part 16T. The learning unit 51 also makes the counting part 17 learn using the second learning data 21, and performs the above-described second learning with the counting part 17 as the learned counting part 17T.

制御部52は、学習部51の動作を制御する。送信制御部53は、学習済みモデル15Tを運用装置11に送信する制御を行う。 The control section 52 controls the operation of the learning section 51 . The transmission control unit 53 controls transmission of the trained model 15T to the operation device 11 .

図7に示すように、モデル群41には、前述の基礎モデル15および学習済みモデル15Tに加えて、中間モデル15Mが含まれる。中間モデル15Mは、第1学習を終えて、基礎モデル15のセグメンテーション部分16が学習済みセグメンテーション部分16Tとされたモデルである(図10参照)。なお、図示は省略したが、学習データ群42には、第1学習データ18および第2学習データ21が含まれる。 As shown in FIG. 7, the model group 41 includes an intermediate model 15M in addition to the basic model 15 and the trained model 15T described above. The intermediate model 15M is a model in which the segmentation portion 16 of the basic model 15 is the learned segmentation portion 16T after completing the first learning (see FIG. 10). Although not shown, the learning data group 42 includes the first learning data 18 and the second learning data 21 .

図8に示すように、基礎モデル15は、共有ディープニューラルネットワーク(以下、DNN(Deep Neural Network)と略す)60、セグメンテーション用出力層61、計数用DNN62、および計数用出力層63を有している。共有DNN60には、セグメンテーション用出力層61および計数用DNN62が接続されている。このため、共有DNN60の出力は、セグメンテーション用出力層61および計数用DNN62にそれぞれ入力される。また、計数用DNN62には、計数用出力層63が接続されている。このため、計数用DNN62の出力は、計数用出力層63に入力される。第1学習において、セグメンテーション用出力層61は学習用出力画像65(図11も参照)を出力する。第2学習において、計数用出力層63は学習用計数結果66(図13も参照)を出力する。 As shown in FIG. 8, the basic model 15 has a shared deep neural network (hereinafter abbreviated as DNN (Deep Neural Network)) 60, a segmentation output layer 61, a counting DNN 62, and a counting output layer 63. there is A segmentation output layer 61 and a counting DNN 62 are connected to the shared DNN 60 . Therefore, the output of the shared DNN 60 is input to the segmentation output layer 61 and the counting DNN 62 respectively. A counting output layer 63 is connected to the counting DNN 62 . Therefore, the output of the counting DNN 62 is input to the counting output layer 63 . In the first learning, the segmentation output layer 61 outputs a learning output image 65 (see also FIG. 11). In the second learning, the counting output layer 63 outputs learning counting results 66 (see also FIG. 13).

共有DNN60およびセグメンテーション用出力層61によって、セグメンテーション部分16が構成される。また、共有DNN60、計数用DNN62、および計数用出力層63によって、計数部分17が構成される。共有DNN60は、例えばU-Net、SegNet、ResNet(Residual Network)といった畳み込みニューラルネットワークである。対して、計数用DNN62は、全結合型のニューラルネットワークである。 The shared DNN 60 and the segmentation output layer 61 constitute the segmentation part 16 . The shared DNN 60 , the counting DNN 62 and the counting output layer 63 constitute the counting portion 17 . The shared DNN 60 is, for example, a convolutional neural network such as U-Net, SegNet, ResNet (Residual Network). In contrast, the counting DNN 62 is a fully-connected neural network.

図9に示すように、変更スケジュール43には、複数の学習段階における学習の内容が登録されている。図9では、学習段階が第1段階および第2段階の2段階に分かれている場合を例示している。そして、第1段階には、第2学習の学習量を0として、第1学習だけを行わせる、という内容が、第2段階には、第1学習の学習量を0として、第2学習だけを行わせる、という内容が、それぞれ登録された例を示している。なお、第1段階は、本開示の技術に係る「前半の学習段階」の一例である。また、第2段階は、本開示の技術に係る「後半の学習段階」の一例である。 As shown in FIG. 9, the change schedule 43 registers learning contents in a plurality of learning stages. FIG. 9 illustrates a case where the learning stage is divided into two stages, a first stage and a second stage. In the first stage, the learning amount of the second learning is set to 0 and only the first learning is performed. , each of which is registered as an example. Note that the first stage is an example of the “first half learning stage” according to the technology of the present disclosure. Also, the second stage is an example of the “second learning stage” according to the technology of the present disclosure.

制御部52は、図9で示した変更スケジュール43に応じて、第1学習の学習量および第2学習の学習量を変更する。すなわち、制御部52は、第1段階においては、第2学習の学習量を0として、学習部51に第1学習だけを行わせ、第2段階においては、第1学習の学習量を0として、学習部51に第2学習だけを行わせる。 The control unit 52 changes the learning amount of the first learning and the learning amount of the second learning according to the change schedule 43 shown in FIG. That is, in the first stage, the control unit 52 sets the learning amount of the second learning to 0, causes the learning unit 51 to perform only the first learning, and sets the learning amount of the first learning to 0 in the second stage. , causes the learning unit 51 to perform only the second learning.

以下に示す図10~図13は、図10および図11が第1段階の第1学習、図12および図13が第2段階の第2学習に関する内容である。 10 to 13 shown below, FIGS. 10 and 11 are related to the first learning of the first stage, and FIGS. 12 and 13 are related to the second learning of the second stage.

図10に示すように、第1段階の第1学習において、学習部51は、RW制御部50がストレージデバイス30Aから読み出した基礎モデル15および第1学習データ18を、RW制御部50から受け取る。第1学習データ18は、学習用入力画像19とアノテーション画像20との組である。学習部51は、制御部52の制御の下、第1学習データ18を用いて基礎モデル15のセグメンテーション部分16を学習させ、セグメンテーション部分16を学習済みセグメンテーション部分16Tとする。学習部51は、この学習済みセグメンテーション部分16Tを含む中間モデル15MをRW制御部50に出力する。RW制御部50は、中間モデル15Mをストレージデバイス30Aに記憶する。 As shown in FIG. 10 , in the first learning of the first stage, the learning unit 51 receives from the RW control unit 50 the basic model 15 and the first learning data 18 read by the RW control unit 50 from the storage device 30A. The first learning data 18 is a set of a learning input image 19 and an annotation image 20 . Under the control of the control unit 52, the learning unit 51 uses the first learning data 18 to learn the segmentation part 16 of the basic model 15, and sets the segmentation part 16 to the learned segmentation part 16T. The learning unit 51 outputs the intermediate model 15M including the learned segmentation part 16T to the RW control unit 50. FIG. The RW control unit 50 stores the intermediate model 15M in the storage device 30A.

図11に示すように、学習部51は、処理部70、評価部71、および更新部72を有する。 As shown in FIG. 11 , the learning section 51 has a processing section 70 , an evaluation section 71 and an update section 72 .

第1段階の第1学習において、処理部70は、学習用入力画像19を基礎モデル15のセグメンテーション部分16に与えて、セグメンテーション部分16から学習用出力画像65を出力させる。処理部70は、学習用出力画像65を評価部71に出力する。 In the first stage of the first learning, the processing unit 70 gives the learning input image 19 to the segmentation part 16 of the basic model 15 and causes the segmentation part 16 to output the learning output image 65 . The processing unit 70 outputs the learning output image 65 to the evaluation unit 71 .

評価部71は、アノテーション画像20と学習用出力画像65とを比較し、セグメンテーション部分16のクラスの判別精度を評価する。評価部71は、第1損失関数73を用いてセグメンテーション部分16のクラスの判別精度を評価する。第1損失関数73は、アノテーション画像20と学習用出力画像65とのクラスの指定の差異の程度を表す関数である。第1損失関数73の算出値が0に近いほど、セグメンテーション部分16のクラスの判別精度が高いことを示す。評価部71は、第1損失関数73によるセグメンテーション部分16のクラスの判別精度の評価結果を更新部72に出力する。 The evaluation unit 71 compares the annotation image 20 and the learning output image 65 to evaluate the class discrimination accuracy of the segmentation portion 16 . The evaluation unit 71 evaluates the class discrimination accuracy of the segmentation part 16 using the first loss function 73 . The first loss function 73 is a function representing the degree of difference in class designation between the annotation image 20 and the learning output image 65 . The closer the calculated value of the first loss function 73 to 0, the higher the class discrimination accuracy of the segmentation portion 16 . The evaluation unit 71 outputs an evaluation result of the class discrimination accuracy of the segmentation part 16 by the first loss function 73 to the updating unit 72 .

更新部72は、評価部71からの評価結果に応じて、セグメンテーション部分16を更新する。例えば、更新部72は、学習係数を伴う確率的勾配降下法等により、共有DNN60の畳み込み演算用のフィルタのパラメータの値等を変化させる。学習係数は、パラメータの値の変化幅を示す。すなわち、学習係数が比較的大きい値であるほど、パラメータの値等の変化幅は大きくなり、セグメンテーション部分16の更新度合いも大きくなる。 The update unit 72 updates the segmentation part 16 according to the evaluation result from the evaluation unit 71 . For example, the updating unit 72 changes the parameter values of the convolutional filter of the shared DNN 60 by stochastic gradient descent with learning coefficients or the like. The learning coefficient indicates the variation width of the parameter value. That is, the larger the learning coefficient is, the larger the range of change in parameter values and the like, and the greater the degree of update of the segmentation portion 16 .

学習部51は、これら処理部70による基礎モデル15への学習用入力画像19の入力と評価部71への学習用出力画像65の出力、評価部71によるセグメンテーション部分16のクラスの判別精度の評価、および更新部72によるセグメンテーション部分16の更新を、セグメンテーション部分16のクラスの判別精度が予め設定されたレベルとなるまで、繰り返し続ける。そして、学習部51は、セグメンテーション部分16のクラスの判別精度が予め設定されたレベルとなり、学習済みセグメンテーション部分16Tとなった基礎モデル15を、中間モデル15Mとして出力する。 The learning unit 51 inputs the learning input image 19 to the basic model 15 by the processing unit 70, outputs the learning output image 65 to the evaluation unit 71, and evaluates the class discrimination accuracy of the segmentation part 16 by the evaluation unit 71. , and updating of the segmentation portion 16 by the updating unit 72 are repeated until the class discrimination accuracy of the segmentation portion 16 reaches a preset level. Then, the learning unit 51 outputs the base model 15 in which the classification accuracy of the class of the segmentation part 16 is at a preset level and the learned segmentation part 16T is output as the intermediate model 15M.

図12に示すように、第2段階の第2学習において、学習部51は、RW制御部50がストレージデバイス30Aから読み出した中間モデル15Mおよび第2学習データ21を、RW制御部50から受け取る。第2学習データ21は、学習用入力画像19と計数結果22との組である。学習部51は、制御部52の制御の下、第2学習データ21を用いて中間モデル15Mの計数部分17を学習させ、計数部分17を学習済み計数部分17Tとする。学習部51は、この学習済み計数部分17Tと、第1学習の学習済みセグメンテーション部分16Tとを含む学習済みモデル15TをRW制御部50に出力する。RW制御部50は、学習済みモデル15Tをストレージデバイス30Aに記憶する。 As shown in FIG. 12 , in the second learning of the second stage, the learning unit 51 receives from the RW control unit 50 the intermediate model 15M and the second learning data 21 read by the RW control unit 50 from the storage device 30A. The second learning data 21 is a set of the learning input image 19 and the counting result 22 . Under the control of the control unit 52, the learning unit 51 uses the second learning data 21 to learn the counting part 17 of the intermediate model 15M, and sets the counting part 17 to the learned counting part 17T. The learning unit 51 outputs to the RW control unit 50 a learned model 15T including the learned counting portion 17T and the learned segmentation portion 16T of the first learning. The RW control unit 50 stores the trained model 15T in the storage device 30A.

図13に示すように、第2段階の第2学習において、処理部70は、学習用入力画像19を中間モデル15Mの計数部分17に与えて、計数部分17から学習用計数結果66を出力させる。処理部70は、学習用計数結果66を評価部71に出力する。 As shown in FIG. 13, in the second learning of the second stage, the processing unit 70 gives the learning input image 19 to the counting part 17 of the intermediate model 15M, and causes the counting part 17 to output the learning counting result 66. . The processing unit 70 outputs the learning counting result 66 to the evaluation unit 71 .

評価部71は、第2学習データ21の計数結果22と学習用計数結果66とを比較し、計数部分17の物体の個数の計数精度を評価する。評価部71は、第2損失関数74を用いて計数部分17の物体の個数の計数精度を評価する。第2損失関数74は、第2学習データ21の計数結果22と学習用計数結果66との個数の差異の程度を表す関数である。第1損失関数73と同様に、第2損失関数74の算出値が0に近いほど、計数部分17の物体の個数の計数精度が高いことを示す。評価部71は、第2損失関数74による計数部分17の物体の個数の計数精度の評価結果を更新部72に出力する。 The evaluation unit 71 compares the counting result 22 of the second learning data 21 and the learning counting result 66 to evaluate the counting accuracy of the number of objects in the counting part 17 . The evaluation unit 71 evaluates the counting accuracy of the number of objects of the counting part 17 using the second loss function 74 . The second loss function 74 is a function representing the degree of difference in the number of the counting results 22 of the second learning data 21 and the learning counting results 66 . As with the first loss function 73 , the closer the calculated value of the second loss function 74 to 0, the higher the accuracy of counting the number of objects in the counting portion 17 . The evaluation unit 71 outputs the evaluation result of the counting accuracy of the number of objects in the counting part 17 by the second loss function 74 to the updating unit 72 .

更新部72は、評価部71からの評価結果に応じて、計数部分17を更新する。更新部72は、セグメンテーション部分16の場合と同様に、学習係数を伴う確率的勾配降下法等により、共有DNN60の畳み込み演算用のフィルタのパラメータの値、および/または、計数用DNN62のパラメータの値等を変化させる。 The updating section 72 updates the counting portion 17 according to the evaluation result from the evaluating section 71 . As in the segmentation part 16, the updating unit 72 updates the parameter values of the filter for convolution operation of the shared DNN 60 and/or the parameter values of the counting DNN 62 by stochastic gradient descent with learning coefficients or the like. etc.

学習部51は、これら処理部70による中間モデル15Mへの学習用入力画像19の入力と評価部71への学習用計数結果66の出力、評価部71による計数部分17の物体の個数の計数精度の評価、および更新部72による計数部分17の更新を、計数部分17の物体の個数の計数精度が予め設定されたレベルとなるまで、繰り返し続ける。そして、学習部51は、計数部分17のクラスの判別精度が予め設定されたレベルとなり、学習済み計数部分17Tとなった中間モデル15Mを、学習済みモデル15Tとして出力する。 The learning unit 51 receives the input of the learning input image 19 to the intermediate model 15M by the processing unit 70, the output of the learning counting result 66 to the evaluation unit 71, and the counting accuracy of the number of objects in the counting part 17 by the evaluation unit 71. and updating of the counting portion 17 by the updating unit 72 are repeated until the counting accuracy of the number of objects in the counting portion 17 reaches a preset level. Then, the learning unit 51 outputs the intermediate model 15M in which the class discrimination accuracy of the counting portion 17 reaches a preset level and becomes the learned counting portion 17T as the learned model 15T.

このように、学習部51は、第1損失関数73を用いてセグメンテーション部分16のクラスの判別精度を評価し、第2損失関数74を用いて計数部分17の物体の個数の計数精度を評価する。また、学習部51は、第2学習の学習量を0として、学習部51に第1学習だけを先に行わせ、セグメンテーション部分16を学習済みセグメンテーション部分16Tとさせた後、第1学習の学習量を0として、学習部51に第2学習だけを行わせ、計数部分17を学習済み計数部分17Tとさせる。 Thus, the learning unit 51 uses the first loss function 73 to evaluate the class discrimination accuracy of the segmentation part 16, and uses the second loss function 74 to evaluate the counting accuracy of the number of objects in the counting part 17. . Further, the learning unit 51 sets the learning amount of the second learning to 0, causes the learning unit 51 to perform only the first learning first, sets the segmentation part 16 to the learned segmentation part 16T, and then performs the first learning. The quantity is set to 0, and the learning section 51 is made to perform only the second learning, and the counting portion 17 is set to the learned counting portion 17T.

図14は、第1段階の第1学習および第2段階の第2学習の様子を示す図である。第1段階の第1学習においては、図14Aに示すように、学習用入力画像19が基礎モデル15の共有DNN60に入力される。そして、セグメンテーション用出力層61から学習用出力画像65が出力される。学習用出力画像65は、アノテーション画像20とともに、第1損失関数73を用いたクラスの判別精度の評価に供される。 FIG. 14 is a diagram showing the state of the first learning of the first stage and the second learning of the second stage. In the first stage of the first learning, the learning input image 19 is input to the shared DNN 60 of the basic model 15, as shown in FIG. 14A. A learning output image 65 is output from the segmentation output layer 61 . The learning output image 65 is used together with the annotation image 20 for evaluation of class discrimination accuracy using the first loss function 73 .

第1段階の第1学習においては、計数用DNN62および計数用出力層63によって、学習用計数結果66も一応は出力される。ただし、図9で示したように、第1段階においては第2学習の学習量は0とされている。このため、第2学習データ21の計数結果22と学習用計数結果66に基づく、第2損失関数74を用いた物体の個数の計数精度の評価は行われない。 In the first stage of the first learning, the DNN 62 for counting and the output layer 63 for counting also output the learning counting result 66 for the time being. However, as shown in FIG. 9, the learning amount of the second learning is set to 0 in the first stage. Therefore, the counting accuracy of the number of objects using the second loss function 74 based on the counting result 22 of the second learning data 21 and the learning counting result 66 is not evaluated.

第2段階の第2学習においては、図14Bに示すように、学習用入力画像19が中間モデル15Mの共有DNN60に入力される。そして、計数用出力層63から学習用計数結果66が出力される。学習用計数結果66は、第2学習データ21の計数結果22とともに、第2損失関数74を用いた物体の個数の計数精度の評価に供される。 In the second stage of the second learning, as shown in FIG. 14B, the learning input image 19 is input to the shared DNN 60 of the intermediate model 15M. A learning counting result 66 is output from the counting output layer 63 . The learning counting result 66 is used together with the counting result 22 of the second learning data 21 to evaluate the counting accuracy of the number of objects using the second loss function 74 .

第2段階の第2学習においては、セグメンテーション用出力層61によって、学習用出力画像65も一応は出力される。ただし、図9で示したように、第2段階においては第1学習の学習量は0とされている。このため、アノテーション画像20と学習用出力画像65に基づく、第1損失関数73を用いた物体の個数の計数精度の評価は行われない。 In the second stage of the second learning, the segmentation output layer 61 also outputs the learning output image 65 for the time being. However, as shown in FIG. 9, the learning amount of the first learning is set to 0 in the second stage. Therefore, the accuracy of counting the number of objects using the first loss function 73 based on the annotation image 20 and the learning output image 65 is not evaluated.

学習部51は、例えばミニバッチデータを用いたミニバッチ学習を基礎モデル15および中間モデル15Mに行わせる。第1学習の場合のミニバッチデータは、学習用入力画像19とアノテーション画像20とを分割した複数の分割画像(例えば元の画像の1/100のサイズの枠で分割した1万枚の分割画像)のうちの一部(例えば100枚)で構成される。第2学習の場合のミニバッチデータは、学習用入力画像19を分割した複数の分割画像と、アノテーション画像20を学習用入力画像19と同じく分割した複数の分割画像の各々に映る物体の個数の計数結果22との組のうちの一部で構成される。学習部51は、こうしたミニバッチデータを複数組(例えば100組)作成し、各組を順次基礎モデル15および中間モデル15Mに与えて学習させる。 The learning unit 51 causes the basic model 15 and the intermediate model 15M to perform mini-batch learning using, for example, mini-batch data. The mini-batch data in the case of the first learning is a plurality of divided images obtained by dividing the learning input image 19 and the annotation image 20 (for example, 10,000 divided images divided by a frame of 1/100 size of the original image). ) (for example, 100 sheets). The mini-batch data in the case of the second learning includes a plurality of divided images obtained by dividing the learning input image 19, and the number of objects appearing in each of a plurality of divided images obtained by dividing the annotation image 20 in the same way as the learning input image 19. It is composed of a part of the set with the counting result 22 . The learning unit 51 creates a plurality of sets (for example, 100 sets) of such mini-batch data, and sequentially gives each set to the basic model 15 and the intermediate model 15M for learning.

図15に示すように、第2損失関数74は、学習用計数結果66と、第2学習データ21に含まれる計数結果22との差分の絶対値を、第2学習データ21に含まれる計数結果22で除算した値(以下、誤答率)に基づいて、計数精度を評価するものである。例えば学習用計数結果66の分化細胞DCの個数が100個で、第2学習データ21の計数結果22の分化細胞DCの個数が85個であった場合、差分の絶対値は15個であり、誤答率は、15/85≒0.18である。なお、差分の絶対値は、誤答数と言い換えることもできる。 As shown in FIG. 15, the second loss function 74 calculates the absolute value of the difference between the learning counting result 66 and the counting result 22 included in the second learning data 21 as the counting result included in the second learning data 21. The counting accuracy is evaluated based on the value obtained by dividing by 22 (hereinafter referred to as the wrong answer rate). For example, when the number of differentiated cell DCs in the learning counting result 66 is 100 and the number of differentiated cell DCs in the counting result 22 of the second learning data 21 is 85, the absolute value of the difference is 15, The error rate is 15/85≈0.18. The absolute value of the difference can also be called the number of incorrect answers.

図16において、運用装置11のストレージデバイス30Bには、作動プログラム80が記憶されている。作動プログラム80は、コンピュータを運用装置11として機能させるためのアプリケーションプログラムである。 In FIG. 16, the operating program 80 is stored in the storage device 30B of the operation device 11 . The operating program 80 is an application program for causing the computer to function as the operating device 11 .

ストレージデバイス30Bには、学習済みモデル15Tおよび入力画像25も記憶されている。入力画像25は、前述のように、これから学習済みモデル15Tに与えて、映った物体のクラスおよび個数を学習済みモデル15Tに判別させる画像である。 A trained model 15T and an input image 25 are also stored in the storage device 30B. The input image 25 is, as described above, an image to be given to the trained model 15T to allow the trained model 15T to discriminate the class and the number of the reflected objects.

作動プログラム80が起動されると、運用装置11を構成するコンピュータのCPU32Bは、メモリ31等と協働して、RW制御部85、処理部86、および表示制御部87として機能する。 When the operation program 80 is activated, the CPU 32B of the computer that constitutes the operation device 11 functions as a RW control section 85, a processing section 86, and a display control section 87 in cooperation with the memory 31 and the like.

RW制御部85は、学習装置10のRW制御部50と同様、ストレージデバイス30Bへの各種データの記憶、およびストレージデバイス30B内の各種データの読み出しを制御する。RW制御部85は、学習装置10から送信された学習済みモデル15Tをストレージデバイス30Bに記憶する。また、RW制御部85は、ストレージデバイス30Bから学習済みモデル15Tおよび入力画像25を読み出す。RW制御部85は、ストレージデバイス30Bから読み出した学習済みモデル15Tおよび入力画像25を、処理部86に出力する。また、RW制御部85は、入力画像25を表示制御部87に出力する。 The RW control unit 85, like the RW control unit 50 of the learning device 10, controls storage of various data in the storage device 30B and reading of various data in the storage device 30B. The RW control unit 85 stores the trained model 15T transmitted from the learning device 10 in the storage device 30B. The RW control unit 85 also reads out the trained model 15T and the input image 25 from the storage device 30B. The RW control unit 85 outputs the trained model 15T and the input image 25 read out from the storage device 30B to the processing unit 86 . The RW control section 85 also outputs the input image 25 to the display control section 87 .

処理部86は、学習済みモデル15Tに入力画像25を入力して、学習済みモデル15Tにセマンティックセグメンテーションを実施させ、出力画像26を出力させる。また、処理部86は、学習済みモデル15Tに物体の個数の計数を実施させ、計数結果27を出力させる。処理部86は、出力画像26および計数結果27を表示制御部87に出力する。 The processing unit 86 inputs the input image 25 to the trained model 15T, causes the trained model 15T to perform semantic segmentation, and outputs the output image 26 . In addition, the processing unit 86 causes the learned model 15T to count the number of objects, and outputs the counting result 27 . The processing section 86 outputs the output image 26 and the counting result 27 to the display control section 87 .

表示制御部87は、ディスプレイ34Bへの各種画面の表示を制御する。各種画面には、出力画像26および計数結果27を表示する画面である評価結果表示画面90(図17参照)等が含まれる。 The display control unit 87 controls display of various screens on the display 34B. The various screens include an evaluation result display screen 90 (see FIG. 17), which is a screen for displaying the output image 26 and the counting result 27, and the like.

図17に示すように、評価結果表示画面90には、入力画像25および出力画像26が並列表示される。出力画像26の下部には、クラス1~4の凡例91が表示される。さらに、凡例91の下部には、計数結果27が表示される。なお、OKボタン92が選択された場合、評価結果表示画面90の表示が消される。 As shown in FIG. 17, the input image 25 and the output image 26 are displayed side by side on the evaluation result display screen 90 . A legend 91 for classes 1 to 4 is displayed at the bottom of the output image 26 . Furthermore, the counting result 27 is displayed below the legend 91 . Note that when the OK button 92 is selected, the display of the evaluation result display screen 90 is erased.

次に、上記構成による作用について、図18のフローチャートを参照して説明する。まず、学習装置10において作動プログラム40が起動されると、図6で示したように、学習装置10のCPU32Aは、RW制御部50、学習部51、制御部52、および送信制御部53として機能される。 Next, the operation of the above configuration will be described with reference to the flow chart of FIG. First, when the operation program 40 is activated in the learning device 10, the CPU 32A of the learning device 10 functions as the RW control unit 50, the learning unit 51, the control unit 52, and the transmission control unit 53, as shown in FIG. be done.

まず、図10で示したように、RW制御部50により、ストレージデバイス30Aから基礎モデル15が読み出される(ステップST100)。また、RW制御部50により、ストレージデバイス30Aから第1学習データ18が読み出される(ステップST110)。基礎モデル15および第1学習データ18は、RW制御部50から学習部51に出力される。なお、ステップST100は、本開示の技術に係る「取得ステップ」の一例である。 First, as shown in FIG. 10, the RW control unit 50 reads the basic model 15 from the storage device 30A (step ST100). Also, the RW control unit 50 reads the first learning data 18 from the storage device 30A (step ST110). The basic model 15 and the first learning data 18 are output from the RW control section 50 to the learning section 51 . Note that step ST100 is an example of the “acquisition step” according to the technology of the present disclosure.

図10および図11で示したように、学習部51において、制御部52の制御の下、第1学習が行われる(ステップST120)。すなわち、学習部51において、第1学習データ18を用いて基礎モデル15のセグメンテーション部分16が学習される。これにより、セグメンテーション部分16が学習済みセグメンテーション部分16Tとされる。セグメンテーション部分16が学習済みセグメンテーション部分16Tとされた基礎モデル15は、中間モデル15Mとして学習部51からRW制御部50に出力される(ステップST130)。中間モデル15Mは、RW制御部50により、ストレージデバイス30Aに記憶される。なお、ステップST120は、本開示の技術に係る「学習ステップ」および「制御ステップ」の一例である。 As shown in FIGS. 10 and 11, learning section 51 performs first learning under the control of control section 52 (step ST120). That is, the learning unit 51 learns the segmentation part 16 of the basic model 15 using the first learning data 18 . As a result, the segmentation portion 16 becomes the learned segmentation portion 16T. The basic model 15 in which the segmentation portion 16 is the learned segmentation portion 16T is output from the learning section 51 to the RW control section 50 as the intermediate model 15M (step ST130). The intermediate model 15M is stored in the storage device 30A by the RW control unit 50. FIG. Note that step ST120 is an example of a "learning step" and a "control step" according to the technology of the present disclosure.

図12で示したように、RW制御部50により、ストレージデバイス30Aから中間モデル15Mが読み出される(ステップST140)。また、RW制御部50により、ストレージデバイス30Aから第2学習データ21が読み出される(ステップST150)。中間モデル15Mおよび第2学習データ21は、RW制御部50から学習部51に出力される。 As shown in FIG. 12, the intermediate model 15M is read from the storage device 30A by the RW control unit 50 (step ST140). Also, the RW control unit 50 reads the second learning data 21 from the storage device 30A (step ST150). The intermediate model 15</b>M and the second learning data 21 are output from the RW control section 50 to the learning section 51 .

図12および図13で示したように、学習部51において、制御部52の制御の下、第2学習が行われる(ステップST160)。すなわち、学習部51において、第2学習データ21を用いて中間モデル15Mの計数部分17が学習される。これにより、計数部分17が学習済み計数部分17Tとされる。計数部分17が学習済み計数部分17Tとされた中間モデル15Mは、学習済みモデル15Tとして学習部51からRW制御部50に出力される(ステップST170)。学習済みモデル15Tは、RW制御部50により、ストレージデバイス30Aに記憶される。なお、ステップST160は、ステップST120と同じく、本開示の技術に係る「学習ステップ」および「制御ステップ」の一例である。 As shown in FIGS. 12 and 13, learning section 51 performs the second learning under the control of control section 52 (step ST160). That is, the learning unit 51 learns the counting part 17 of the intermediate model 15M using the second learning data 21 . As a result, the counting portion 17 becomes the learned counting portion 17T. Intermediate model 15M in which counting portion 17 is set to learned counting portion 17T is output from learning section 51 to RW control section 50 as learned model 15T (step ST170). The trained model 15T is stored in the storage device 30A by the RW control unit 50. FIG. Note that step ST160, like step ST120, is an example of a "learning step" and a "control step" according to the technology of the present disclosure.

学習済みモデル15Tは、RW制御部50によりストレージデバイス30Aから読み出されて、RW制御部50から送信制御部53に出力される。学習済みモデル15Tは、送信制御部53により運用装置11に送信される(ステップST180)。 The learned model 15T is read from the storage device 30A by the RW control unit 50 and output from the RW control unit 50 to the transmission control unit 53. FIG. The trained model 15T is transmitted to the operation device 11 by the transmission control unit 53 (step ST180).

運用装置11では、図16で示したように、入力画像25が学習済みモデル15Tに与えられる。そして、入力画像25に映る物体のクラスを判別した出力画像26、および入力画像25に映る物体の個数を計数した計数結果27が、学習済みモデル15Tから出力される。出力画像26および計数結果27は、図17で示したように、評価結果表示画面90として運用装置11のディスプレイ34Bに表示され、ユーザの閲覧に供される。 In the operation device 11, as shown in FIG. 16, the input image 25 is given to the trained model 15T. Then, an output image 26 obtained by discriminating the classes of objects appearing in the input image 25 and a count result 27 obtained by counting the number of objects appearing in the input image 25 are output from the trained model 15T. The output image 26 and the counting result 27 are displayed on the display 34B of the operation device 11 as the evaluation result display screen 90 as shown in FIG. 17, and are available for viewing by the user.

以上説明したように、学習装置10は、取得部としてのRW制御部50と、学習部51と、制御部52とを備える。RW制御部50は、セグメンテーション部分16と計数部分17とを含む基礎モデル15を、ストレージデバイス30Aから読み出して取得する。学習部51は、学習用入力画像19とアノテーション画像20との組である第1学習データ18を用いてセグメンテーション部分16を学習させる第1学習と、学習用入力画像19と計数結果22との組である第2学習データ21を用いて計数部分17を学習させる第2学習とを行い、基礎モデル15を学習済みモデル15Tとする。制御部52は、前半の学習段階においては、第1学習の学習量を第2学習の学習量よりも多くし、後半の学習段階においては、第2学習の学習量を第1学習の学習量よりも多くする。 As described above, the learning device 10 includes the RW control unit 50 as an acquisition unit, the learning unit 51 and the control unit 52 . The RW control unit 50 reads and acquires the basic model 15 including the segmentation portion 16 and the counting portion 17 from the storage device 30A. The learning unit 51 performs first learning for learning the segmentation part 16 using first learning data 18, which is a set of the learning input image 19 and the annotation image 20, and a set of the learning input image 19 and the counting result 22. Second learning for learning the counting part 17 is performed using the second learning data 21, and the basic model 15 is set as a trained model 15T. The control unit 52 makes the learning amount of the first learning larger than the learning amount of the second learning in the first learning stage, and makes the learning amount of the second learning equal to the learning amount of the first learning in the latter learning stage. do more than

このように、前半の学習段階で第1学習を重点的に行ってクラスの判別精度を高めておくことで、後半の学習段階の第2学習を効率的に行うことができる。したがって、入力画像25内のクラスの判別精度、および入力画像25に映る物体の個数の計数精度が比較的高い学習済みモデル15Tを得ることが可能となる。 In this way, by focusing on the first learning in the first half of the learning stage and increasing the class discrimination accuracy, the second learning in the second half of the learning stage can be efficiently performed. Therefore, it is possible to obtain a trained model 15T with relatively high accuracy in class discrimination in the input image 25 and in counting the number of objects appearing in the input image 25 .

学習部51は、第1損失関数73を用いてセグメンテーション部分16のクラスの判別精度を評価し、第2損失関数74を用いて計数部分17の物体の個数の計数精度を評価する。したがって、クラスの判別精度および物体の個数の計数精度を適切に評価することができる。 The learning unit 51 uses the first loss function 73 to evaluate the class discrimination accuracy of the segmentation part 16 , and uses the second loss function 74 to evaluate the object count accuracy of the counting part 17 . Therefore, it is possible to appropriately evaluate the class discrimination accuracy and the counting accuracy of the number of objects.

制御部52は、予め設定された変更スケジュール43に応じて、第1学習の学習量および第2学習の学習量を変更する。変更スケジュール43は、第2学習の学習量を0として、学習部51に第1学習だけを先に行わせ、セグメンテーション部分16を学習済みセグメンテーション部分16Tとさせた後、第1学習の学習量を0として、学習部51に第2学習だけを行わせ、計数部分17を学習済み計数部分17Tとさせる、という、第1学習と第2学習を2段階に分けて行わせる内容である。このため、第1学習と第2学習を並行して行う場合と比べて、評価部71によるクラスの判別精度および物体の個数の計数精度の評価、更新部72によるセグメンテーション部分16および計数部分17の更新等を簡単に済ませることができる。したがって、第1学習と第2学習を並行して行う場合と比べて、簡単に学習済みモデル15Tを得ることができる。 The control unit 52 changes the learning amount of the first learning and the learning amount of the second learning according to the change schedule 43 set in advance. The change schedule 43 sets the learning amount of the second learning to 0, causes the learning unit 51 to perform only the first learning first, sets the segmentation part 16 to the learned segmentation part 16T, and then reduces the learning amount of the first learning to 0, the learning unit 51 is made to perform only the second learning, and the counting part 17 is set to the learned counting part 17T. For this reason, compared to the case where the first learning and the second learning are performed in parallel, the evaluation of the class discrimination accuracy and the counting accuracy of the number of objects by the evaluation unit 71, the segmentation part 16 and the counting part 17 by the update unit 72 Updates can be done easily. Therefore, the trained model 15T can be obtained more easily than when the first learning and the second learning are performed in parallel.

図15で示したように、第2損失関数74は、誤答率に基づいて、計数部分17の物体の個数の計数精度を評価するものである。これにより、以下に示す効果を奏する。 As shown in FIG. 15, the second loss function 74 evaluates the counting accuracy of the number of objects of the counting portion 17 based on the wrong answer rate. This provides the following effects.

学習用計数結果66と、第2学習データ21に含まれる計数結果22との差分の絶対値に基づいて、計数部分17の物体の個数の計数精度を評価する場合を考える。この場合、例えば、学習用計数結果66の分化細胞DCの個数が70個で、第2学習データ21の計数結果22の分化細胞DCの個数が100個であった場合と、学習用計数結果66の分化細胞DCの個数が7個で、第2学習データ21の計数結果22の分化細胞DCの個数が10個であった場合とでは、物体の個数の計数精度としては同じである。しかしながら、差分の絶対値は、前者の場合が30個、後者の場合が3個となり、差分の絶対値が大きい前者の場合のほうが、物体の個数の計数精度の評価が悪くなってしまう。 Consider a case where the counting accuracy of the number of objects in the counting portion 17 is evaluated based on the absolute value of the difference between the learning counting result 66 and the counting result 22 included in the second learning data 21 . In this case, for example, the number of differentiated cell DCs in the learning counting result 66 is 70 and the number of differentiated cell DCs in the counting result 22 of the second learning data 21 is 100, and the learning counting result 66 The number of differentiated cell DCs in 1 is 7, and the number of differentiated cell DCs in the count result 22 of the second learning data 21 is 10, the counting accuracy of the number of objects is the same. However, the absolute value of the difference is 30 in the former case and 3 in the latter case.

対して第2損失関数74によれば、学習用計数結果66の分化細胞DCの個数が70個で、第2学習データ21の計数結果22の分化細胞DCの個数が100個であった場合は、誤答率は(100-70)/100=0.3、学習用計数結果66の分化細胞DCの個数が7個で、第2学習データ21の計数結果22の分化細胞DCの個数が10個であった場合も、誤答率は(10-7)/10=0.3となり、同じになる。物体の個数の計数精度の評価も、前者と後者で同じになる。したがって、物体の個数の計数精度の評価の妥当性を確保することができる。 On the other hand, according to the second loss function 74, when the number of differentiated cell DCs in the learning counting result 66 is 70 and the number of differentiated cell DCs in the counting result 22 of the second learning data 21 is 100, , the wrong answer rate is (100-70)/100=0.3, the number of differentiated cell DCs in the learning counting result 66 is 7, and the number of differentiated cell DCs in the counting result 22 of the second learning data 21 is 10. In the case of 1, the wrong answer rate is (10-7)/10=0.3, which is the same. The evaluation of the counting accuracy of the number of objects is also the same between the former and the latter. Therefore, it is possible to ensure the validity of the evaluation of the counting accuracy of the number of objects.

ここで、細胞培養の分野は、iPS(Induced Pluripotent Stem)細胞等の出現により、最近脚光を浴びている。このため、細胞画像内の細胞のクラスの判別、および細胞画像に映る細胞の個数の計数をより正確に行う技術が要望されている。本開示の技術では、培養中の複数の細胞を撮影した細胞画像を入力画像25としている。したがって、本開示の技術は、最近の要望に応えることができる技術であるといえる。 Here, the field of cell culture has recently been in the limelight due to the emergence of iPS (Induced Pluripotent Stem) cells and the like. Therefore, there is a demand for a technique for more accurately determining the class of cells in a cell image and counting the number of cells in the cell image. In the technology of the present disclosure, the input image 25 is a cell image obtained by photographing a plurality of cells in culture. Therefore, it can be said that the technique of the present disclosure is a technique that can meet recent demands.

[第2実施形態]
図19~図29に示す第2実施形態では、第1学習の学習量を徐々に少なくし、第2学習の学習量を徐々に多くする、という内容の変更スケジュールにしたがって学習を行う。
[Second embodiment]
In the second embodiment shown in FIGS. 19 to 29, learning is performed according to a change schedule that gradually decreases the learning amount of the first learning and gradually increases the learning amount of the second learning.

図19において、第2実施形態では、重み付き和100によって、セグメンテーション部分16のクラスの判別精度および計数部分17の物体の個数の計数精度を併せた全体の精度を評価する。重み付き和100は、第1損失関数73に第1重み係数W1を乗算したものと、第2損失関数74に第2重み係数W2を乗算したものとの和である。第1重み係数W1と第2重み係数W2とは、加算した値が1となるよう定められている(W1+W2=1)。 In FIG. 19, in the second embodiment, a weighted sum 100 is used to evaluate the overall accuracy of the class discrimination accuracy of the segmentation portion 16 and the counting accuracy of the number of objects of the counting portion 17 together. Weighted sum 100 is the sum of first loss function 73 multiplied by a first weighting factor W1 and second loss function 74 multiplied by a second weighting factor W2. The first weighting factor W1 and the second weighting factor W2 are determined so that their sum is 1 (W1+W2=1).

図20において、第2実施形態の変更スケジュール105には、複数の学習段階における第1重み係数W1および第2重み係数W2が登録されている。図20では、学習段階が第1段階、第2段階、・・・、第5段階、第6段階の6つである場合を例示している。そして、第1段階における第1重み係数W1として1、第2重み係数W2として0が、第2段階における第1重み係数として0.8、第2重み係数W2として0.2が、・・・、第5段階における第1重み係数W1として0.2、第2重み係数W2として0.8が、第6段階における第1重み係数として0、第2重み係数W2として1が、それぞれ登録された例を示している。 In FIG. 20, the change schedule 105 of the second embodiment registers the first weighting factor W1 and the second weighting factor W2 in a plurality of learning stages. FIG. 20 exemplifies a case where there are six learning stages, ie, the first stage, the second stage, . . . , the fifth stage, and the sixth stage. Then, 1 as the first weighting factor W1 and 0 as the second weighting factor W2 in the first stage, 0.8 as the first weighting factor in the second stage, 0.2 as the second weighting factor W2, and so on. , 0.2 as the first weighting factor W1 and 0.8 as the second weighting factor W2 in the fifth stage, 0 as the first weighting factor in the sixth stage, and 1 as the second weighting factor W2. shows an example.

この場合、第1段階においては、第2重み係数W2が0であるため、重み付け和100は第1損失関数73だけとなる。したがって、第1段階においては、第1損失関数73によるセグメンテーション部分16のクラスの判別精度の評価だけが行われ、第2損失関数74による計数部分17の物体の個数の計数精度の評価は行われない。すなわち、第1段階においては、上記第1実施形態の第1段階と同じく、第1学習だけが行われる。対して、第6段階においては、第1段階とは逆に第1重み係数が0であるため、重み付け和100は第2損失関数74だけとなる。したがって、第6段階においては、第2損失関数74による計数部分17の物体の個数の計数精度の評価だけが行われ、第1損失関数73によるセグメンテーション部分16のクラスの判別精度の評価は行われない。すなわち、第6段階においては、上記第1実施形態の第2段階と同じく、第2学習だけが行われる。 In this case, since the second weighting factor W2 is 0 in the first stage, the weighted sum 100 is only the first loss function 73 . Therefore, in the first stage, only the class discrimination accuracy of the segmentation portion 16 is evaluated by the first loss function 73, and the counting accuracy of the number of objects of the counting portion 17 is not evaluated by the second loss function 74. do not have. That is, in the first stage, as in the first stage of the first embodiment, only the first learning is performed. On the other hand, in the sixth stage, contrary to the first stage, the first weighting factor is 0, so the weighted sum 100 is only the second loss function 74 . Therefore, in the sixth stage, only the counting accuracy of the number of objects in the counting portion 17 is evaluated by the second loss function 74, and the class discrimination accuracy of the segmentation portion 16 is not evaluated by the first loss function 73. do not have. That is, in the sixth stage, only the second learning is performed, as in the second stage of the first embodiment.

第2~第5段階においては、第1重み係数W1および第2重み係数W2ともに0以上の値である。このため、第2~第5段階においては、第1損失関数73によるセグメンテーション部分16のクラスの判別精度の評価と、第2損失関数74による計数部分17の物体の個数の計数精度の評価とが行われる。すなわち、第2~第5段階においては、第1学習と第2学習とが並行して行われる。 In the second to fifth stages, both the first weighting factor W1 and the second weighting factor W2 are 0 or more. Therefore, in the second to fifth stages, the evaluation of the class discrimination accuracy of the segmentation part 16 by the first loss function 73 and the evaluation of the counting accuracy of the number of objects of the counting part 17 by the second loss function 74 are performed. done. That is, in the second to fifth stages, the first learning and the second learning are performed in parallel.

また、第2~第5段階においては、図21のグラフにも示すように、段階を経るにつれて、第1重み係数W1が徐々に小さくなり(図21A)、第2重み係数W2が徐々に大きくなっている(図21B)。このため、段階を経るにつれて、学習のウェイトが第1学習から徐々に第2学習へと移り変わる。 In the second to fifth stages, as shown in the graph of FIG. 21, the first weighting factor W1 gradually decreases (FIG. 21A) and the second weighting factor W2 gradually increases. (Fig. 21B). Therefore, the weight of learning gradually shifts from the first learning to the second learning as the steps progress.

このように、第2実施形態では、第1損失関数73の第1重み係数W1、および第2損失関数74の第2重み係数W2を変更することで、第1学習の学習量および第2学習の学習量を変更する。なお、変更スケジュール105においては、第1~第3段階が、本開示の技術に係る「前半の学習段階」の一例であり、第4~第6段階が、本開示の技術に係る「後半の学習段階」の一例である。 Thus, in the second embodiment, by changing the first weighting factor W1 of the first loss function 73 and the second weighting factor W2 of the second loss function 74, the learning amount of the first learning and the second learning change the amount of learning In the change schedule 105, the first to third stages are examples of the "first half learning stage" according to the technology of the present disclosure, and the fourth to sixth stages are the "second half of the learning stage" according to the technology of the present disclosure. It is an example of "learning stage".

図22において、第2実施形態の学習部110は、上記第1実施形態の学習部51と同様に、処理部111、評価部112、および更新部113を有する。処理部111は、学習用入力画像19を基礎モデル15または中間モデル15M(図22では基礎モデル15のみ図示)のセグメンテーション部分16に与えて、セグメンテーション部分16から学習用出力画像65を出力させる。処理部111は、学習用出力画像65を評価部112に出力する。また、処理部111は、学習用入力画像19を基礎モデル15または中間モデル15Mの計数部分17に与えて、計数部分17から学習用計数結果66を出力させる。処理部111は、学習用計数結果66を評価部112に出力する。 In FIG. 22, the learning unit 110 of the second embodiment has a processing unit 111, an evaluation unit 112, and an updating unit 113, like the learning unit 51 of the first embodiment. The processing unit 111 gives the learning input image 19 to the segmentation part 16 of the basic model 15 or the intermediate model 15M (only the basic model 15 is shown in FIG. 22), and causes the segmentation part 16 to output the learning output image 65. The processing unit 111 outputs the learning output image 65 to the evaluation unit 112 . Further, the processing unit 111 gives the learning input image 19 to the counting part 17 of the basic model 15 or the intermediate model 15M, and causes the counting part 17 to output the learning counting result 66 . The processing unit 111 outputs the learning counting result 66 to the evaluation unit 112 .

評価部112は、アノテーション画像20と学習用出力画像65とを比較し、セグメンテーション部分16のクラスの判別精度を評価する。また、評価部112は、計数結果22と学習用計数結果66とを比較し、計数部分17の物体の個数の計数精度を評価する。評価部112は、重み付き和100を用いて、セグメンテーション部分16のクラスの判別精度および計数部分17の物体の個数の計数精度を併せた全体の精度を評価する。重み付き和100の算出値が0に近いほど、全体の精度が高いことを示す。評価部112は、重み付き和100による全体の精度の評価結果を更新部113に出力する。なお、評価部112は、第1段階においては、第1損失関数73を用いてセグメンテーション部分16のクラスの判別精度だけを評価し、第6段階においては、第2損失関数74を用いて計数部分17の物体の個数の計数精度だけを評価する。 The evaluation unit 112 compares the annotation image 20 and the learning output image 65 to evaluate the class discrimination accuracy of the segmentation portion 16 . The evaluation unit 112 also compares the counting result 22 and the learning counting result 66 to evaluate the accuracy of counting the number of objects in the counting portion 17 . The evaluation unit 112 uses the weighted sum 100 to evaluate the total accuracy of the class discrimination accuracy of the segmentation part 16 and the counting accuracy of the number of objects of the counting part 17 . The closer the calculated value of the weighted sum 100 to 0, the higher the overall accuracy. The evaluation unit 112 outputs the overall accuracy evaluation result based on the weighted sum 100 to the updating unit 113 . In the first stage, the evaluation unit 112 uses the first loss function 73 to evaluate only the class discrimination accuracy of the segmentation part 16, and in the sixth stage, the second loss function 74 is used to evaluate the counting part Only the counting accuracy of the number of 17 objects is evaluated.

更新部113は、評価部112からの評価結果に応じて、セグメンテーション部分16および計数部分17を更新する。上記第1実施形態の更新部72と同様に、更新部113は、学習係数を伴う確率的勾配降下法等により、共有DNN60の畳み込み演算用のフィルタのパラメータの値等を変化させる。また、更新部113は、計数用DNN62のパラメータの値等を変化させる。 The updating unit 113 updates the segmentation part 16 and the counting part 17 according to the evaluation result from the evaluating unit 112 . As with the updating unit 72 of the first embodiment, the updating unit 113 changes the parameter values of the convolutional filter of the shared DNN 60 by stochastic gradient descent with learning coefficients or the like. Further, the updating unit 113 changes parameter values and the like of the counting DNN 62 .

学習部110は、これら処理部111による基礎モデル15または中間モデル15Mへの学習用入力画像19の入力と評価部112への学習用出力画像65および/または学習用計数結果66の出力、評価部112によるセグメンテーション部分16のクラスの判別精度の評価および/または計数部分17の物体の個数の計数精度の評価、並びに更新部113によるセグメンテーション部分16および/または計数部分17の更新を、各学習段階において、セグメンテーション部分16のクラスの判別精度、計数部分17の物体の個数の計数精度、または全体の精度が予め設定されたレベルとなるまで、繰り返し続ける。そして、学習部110は、セグメンテーション部分16のクラスの判別精度、計数部分17の物体の個数の計数精度、または全体の精度が予め設定されたレベルとなった基礎モデル15または中間モデル15Mを、次回の学習段階の中間モデル15Mまたは学習済みモデル15Tとして出力する。 The learning unit 110 inputs the learning input image 19 to the basic model 15 or the intermediate model 15M by the processing unit 111 and outputs the learning output image 65 and/or the learning counting result 66 to the evaluation unit 112, and the evaluation unit Evaluation of the class discrimination accuracy of the segmentation part 16 by 112 and/or evaluation of the counting accuracy of the number of objects of the counting part 17, and updating of the segmentation part 16 and/or the counting part 17 by the updating part 113 are performed at each learning stage. , the class discrimination accuracy of the segmentation portion 16, the counting accuracy of the number of objects of the counting portion 17, or the overall accuracy reaches a preset level. Then, the learning unit 110 selects the basic model 15 or the intermediate model 15M whose class discrimination accuracy in the segmentation part 16, counting accuracy of the number of objects in the counting part 17, or overall accuracy has reached a preset level. is output as an intermediate model 15M or a trained model 15T at the learning stage.

図23の表115に示すように、学習部110は、まず、第1段階においては、基礎モデル15を学習させて第1中間モデル15M_1(図24B参照)とする。第2段階においては、第1中間モデル15M_1を学習させて第2中間モデル15M_2(図25A参照)とする。第3段階においては、第2中間モデル15M_2を学習させて第3中間モデル15M_3(図25B参照)とする。第4段階においては、第3中間モデル15M_3を学習させて第4中間モデル15M_4(図26A参照)とする。第5段階においては、第4中間モデル15M_4を学習させて第5中間モデル15M_5(図26B参照)とする。最後に、学習部110は、第6段階においては、第5中間モデル15M_5を学習させて学習済みモデル15Tとする。 As shown in Table 115 of FIG. 23, the learning unit 110 first learns the basic model 15 in the first stage to obtain a first intermediate model 15M_1 (see FIG. 24B). In the second stage, the first intermediate model 15M_1 is trained to obtain a second intermediate model 15M_2 (see FIG. 25A). In the third stage, the second intermediate model 15M_2 is learned to form a third intermediate model 15M_3 (see FIG. 25B). In the fourth stage, the third intermediate model 15M_3 is learned to be the fourth intermediate model 15M_4 (see FIG. 26A). In the fifth stage, the fourth intermediate model 15M_4 is learned to be the fifth intermediate model 15M_5 (see FIG. 26B). Finally, in the sixth stage, the learning unit 110 learns the fifth intermediate model 15M_5 to make it a trained model 15T.

図24は、第1段階の第1学習および第2段階の第1学習と第2学習の様子を示す図である。第1段階においては、図24Aに示すように、学習用入力画像19が基礎モデル15の共有DNN60に入力される。そして、セグメンテーション用出力層61から学習用出力画像65が出力される。学習用出力画像65は、アノテーション画像20とともに、第1損失関数73を用いたクラスの判別精度の評価に供される。第1段階においては、上記第1実施形態の第1段階と同じく、第2学習データ21の計数結果22と学習用計数結果66に基づく、第2損失関数74を用いた物体の個数の計数精度の評価は行われない。 FIG. 24 is a diagram showing the state of the first learning in the first stage and the first learning and the second learning in the second stage. In the first stage, as shown in FIG. 24A, training input images 19 are input to the shared DNN 60 of the basic model 15 . A learning output image 65 is output from the segmentation output layer 61 . The learning output image 65 is used together with the annotation image 20 for evaluation of class discrimination accuracy using the first loss function 73 . In the first stage, as in the first stage of the first embodiment, the counting accuracy of the number of objects using the second loss function 74 based on the counting result 22 of the second learning data 21 and the learning counting result 66 is not evaluated.

第2段階においては、図24Bに示すように、第1段階において出力された第1中間モデル15M_1の共有DNN60に、学習用入力画像19が入力される。そして、セグメンテーション用出力層61から学習用出力画像65が出力され、かつ計数用出力層63から学習用計数結果66が出力される。学習用出力画像65および学習用計数結果66は、アノテーション画像20および計数結果22とともに、重み付き和100(=0.8×第1損失関数+0.2×第2損失関数)を用いた全体の精度の評価に供される。 In the second stage, as shown in FIG. 24B, the learning input image 19 is input to the shared DNN 60 of the first intermediate model 15M_1 output in the first stage. A learning output image 65 is output from the segmentation output layer 61 , and a learning counting result 66 is output from the counting output layer 63 . The output image for learning 65 and the counting result for learning 66, together with the annotation image 20 and the counting result 22, are weighted sum 100 (=0.8×first loss function+0.2×second loss function). It is used for accuracy evaluation.

図25は、第3段階の第1学習と第2学習および第4段階の第1学習と第2学習の様子を示す図である。第3段階においては、図25Aに示すように、第2段階において出力された第2中間モデル15M_2の共有DNN60に、学習用入力画像19が入力される。そして、セグメンテーション用出力層61から学習用出力画像65が出力され、かつ計数用出力層63から学習用計数結果66が出力される。学習用出力画像65および学習用計数結果66は、アノテーション画像20および計数結果22とともに、重み付き和100(=0.6×第1損失関数+0.4×第2損失関数)を用いた全体の精度の評価に供される。 FIG. 25 is a diagram showing the first learning and second learning in the third stage and the first learning and second learning in the fourth stage. In the third stage, as shown in FIG. 25A, the learning input image 19 is input to the shared DNN 60 of the second intermediate model 15M_2 output in the second stage. A learning output image 65 is output from the segmentation output layer 61 , and a learning counting result 66 is output from the counting output layer 63 . The output image for learning 65 and the counting result for learning 66, together with the annotation image 20 and the counting result 22, are the weighted sum 100 (=0.6×first loss function+0.4×second loss function). It is used for accuracy evaluation.

第4段階においては、図25Bに示すように、第3段階において出力された第3中間モデル15M_3の共有DNN60に、学習用入力画像19が入力される。そして、セグメンテーション用出力層61から学習用出力画像65が出力され、かつ計数用出力層63から学習用計数結果66が出力される。学習用出力画像65および学習用計数結果66は、アノテーション画像20および計数結果22とともに、重み付き和100(=0.4×第1損失関数+0.6×第2損失関数)を用いた全体の精度の評価に供される。 In the fourth stage, as shown in FIG. 25B, the learning input image 19 is input to the shared DNN 60 of the third intermediate model 15M_3 output in the third stage. A learning output image 65 is output from the segmentation output layer 61 , and a learning counting result 66 is output from the counting output layer 63 . The output image for learning 65 and the counting result for learning 66, together with the annotation image 20 and the counting result 22, are the weighted sum 100 (=0.4×first loss function+0.6×second loss function). It is used for accuracy evaluation.

図26は、第5段階の第1学習と第2学習および第6段階の第2学習の様子を示す図である。第5段階においては、図26Aに示すように、第4段階において出力された第4中間モデル15M_4の共有DNN60に、学習用入力画像19が入力される。そして、セグメンテーション用出力層61から学習用出力画像65が出力され、かつ計数用出力層63から学習用計数結果66が出力される。学習用出力画像65および学習用計数結果66は、アノテーション画像20および計数結果22とともに、重み付き和100(=0.2×第1損失関数+0.8×第2損失関数)を用いた全体の精度の評価に供される。 FIG. 26 is a diagram showing the first learning and second learning in the fifth stage and the second learning in the sixth stage. In the fifth stage, as shown in FIG. 26A, the learning input image 19 is input to the shared DNN 60 of the fourth intermediate model 15M_4 output in the fourth stage. A learning output image 65 is output from the segmentation output layer 61 , and a learning counting result 66 is output from the counting output layer 63 . The output image for learning 65 and the counting result for learning 66, together with the annotation image 20 and the counting result 22, are the overall It is used for accuracy evaluation.

第6段階においては、図26Bに示すように、第5段階において出力された第5中間モデル15M_5の共有DNN60に、学習用入力画像19が入力される。そして、計数用出力層63から学習用計数結果66が出力される。学習用計数結果66は、計数結果22とともに、第2損失関数74を用いた物体の個数の計数精度の評価に供される。第6段階においては、上記第1実施形態の第2段階と同じく、アノテーション画像20と学習用出力画像65に基づく、第1損失関数73を用いたクラスの判別精度の評価は行われない。 In the sixth stage, as shown in FIG. 26B, the learning input image 19 is input to the shared DNN 60 of the fifth intermediate model 15M_5 output in the fifth stage. A learning counting result 66 is output from the counting output layer 63 . The learning counting result 66 is used together with the counting result 22 to evaluate the accuracy of counting the number of objects using the second loss function 74 . In the sixth stage, as in the second stage of the first embodiment, evaluation of class discrimination accuracy using the first loss function 73 based on the annotation image 20 and the learning output image 65 is not performed.

図27に示すように、第2実施形態では、まず、RW制御部50により、ストレージデバイス30Aから基礎モデル15が読み出される(ステップST200)。また、RW制御部50により、ストレージデバイス30Aから第1学習データ18が読み出される(ステップST210)。基礎モデル15および第1学習データ18は、RW制御部50から学習部110に出力される。なお、ステップST200は、本開示の技術に係る「取得ステップ」の一例である。 As shown in FIG. 27, in the second embodiment, first, the basic model 15 is read from the storage device 30A by the RW control unit 50 (step ST200). Also, the RW control unit 50 reads the first learning data 18 from the storage device 30A (step ST210). The basic model 15 and the first learning data 18 are output from the RW control section 50 to the learning section 110 . Note that step ST200 is an example of the “acquisition step” according to the technology of the present disclosure.

図20および図21で示した変更スケジュール105にしたがって、第1重み係数W1が1、第2重み係数W2が0とされる(ステップST220)。次いで、図24Aで示したように、学習部110において、制御部52の制御の下、第1学習が行われる(ステップST230)。これによりセグメンテーション部分16が学習される。セグメンテーション部分16が学習された基礎モデル15は、第1中間モデル15M_1として学習部51からRW制御部50に出力される(ステップST240でNO、ステップST250)。第1中間モデル15M_1は、RW制御部50により、ストレージデバイス30Aに記憶される。なお、ステップST230は、本開示の技術に係る「学習ステップ」および「制御ステップ」の一例である。 According to the change schedule 105 shown in FIGS. 20 and 21, the first weighting factor W1 is set to 1 and the second weighting factor W2 is set to 0 (step ST220). Next, as shown in FIG. 24A, learning section 110 performs first learning under the control of control section 52 (step ST230). The segmentation part 16 is thereby learned. The basic model 15 in which the segmentation portion 16 has been learned is output as the first intermediate model 15M_1 from the learning section 51 to the RW control section 50 (NO in step ST240, step ST250). The first intermediate model 15M_1 is stored in the storage device 30A by the RW control unit 50. FIG. Note that step ST230 is an example of a "learning step" and a "control step" according to the technology of the present disclosure.

RW制御部50により、ストレージデバイス30Aから第1中間モデル15M_1が読み出される(ステップST200)。また、RW制御部50により、ストレージデバイス30Aから第1学習データ18および第2学習データ21が読み出される(ステップST210)。第1中間モデル15M_1、第1学習データ18、および第2学習データ21は、RW制御部50から学習部110に出力される。 The RW control unit 50 reads the first intermediate model 15M_1 from the storage device 30A (step ST200). Also, the RW control unit 50 reads the first learning data 18 and the second learning data 21 from the storage device 30A (step ST210). The first intermediate model 15M_1, the first learning data 18, and the second learning data 21 are output from the RW control section 50 to the learning section 110. FIG.

変更スケジュール105にしたがって、第1重み係数W1が0.8、第2重み係数W2が0.2とされる(ステップST220)。次いで、図24Bで示したように、学習部110において、制御部52の制御の下、第1学習と第2学習が行われる(ステップST230)。これによりセグメンテーション部分16および計数部分17が学習される。セグメンテーション部分16および計数部分17が学習された第1中間モデル15M_1は、第2中間モデル15M_2として学習部51からRW制御部50に出力される(ステップST240でNO、ステップST250)。第2中間モデル15M_2は、RW制御部50により、ストレージデバイス30Aに記憶される。これらのステップST200~ステップST230、およびステップST250は、最終段階の第6段階になるまで繰り返し続けられる。 According to the change schedule 105, the first weighting factor W1 is set to 0.8 and the second weighting factor W2 is set to 0.2 (step ST220). Next, as shown in FIG. 24B, learning section 110 performs first learning and second learning under the control of control section 52 (step ST230). The segmentation part 16 and the counting part 17 are thereby learned. The first intermediate model 15M_1 for which the segmentation portion 16 and the counting portion 17 have been learned is output as the second intermediate model 15M_2 from the learning section 51 to the RW control section 50 (NO in step ST240, step ST250). The second intermediate model 15M_2 is stored in the storage device 30A by the RW control unit 50. FIG. Steps ST200 to ST230 and ST250 are repeated until the final stage, the sixth stage, is reached.

最終段階の第6段階の場合(ステップST240でYES)、セグメンテーション部分16および計数部分17が学習された第5中間モデル15M_5が、学習済みモデル15Tとして学習部51からRW制御部50に出力される(ステップST260)。学習済みモデル15Tは、RW制御部50により、ストレージデバイス30Aに記憶される。 In the case of the sixth step, which is the final step (YES in step ST240), the fifth intermediate model 15M_5 in which the segmentation portion 16 and the counting portion 17 have been trained is output from the learning section 51 to the RW control section 50 as the trained model 15T. (Step ST260). The trained model 15T is stored in the storage device 30A by the RW control unit 50. FIG.

学習済みモデル15Tは、RW制御部50によりストレージデバイス30Aから読み出されて、RW制御部50から送信制御部53に出力される。学習済みモデル15Tは、送信制御部53により運用装置11に送信される(ステップST270)。 The learned model 15T is read from the storage device 30A by the RW control unit 50 and output from the RW control unit 50 to the transmission control unit 53. FIG. The trained model 15T is transmitted to the operation device 11 by the transmission control unit 53 (step ST270).

このように、第2実施形態では、第1学習の学習量を徐々に少なくし、第2学習の学習量を徐々に多くする、という内容の変更スケジュール105にしたがって学習を行う。上記第1実施形態では、セグメンテーション部分16のクラスの判別精度を高める学習段階が第1段階以外はなく、かつ計数部分17の物体の個数の計数精度を高める学習段階が第2段階以外にない。対して第2実施形態では、セグメンテーション部分16のクラスの判別精度および計数部分17の物体の個数の計数精度を、複数段階にわたって高めることができる。 As described above, in the second embodiment, learning is performed according to the change schedule 105 in which the learning amount of the first learning is gradually decreased and the learning amount of the second learning is gradually increased. In the first embodiment, there is no learning stage other than the first stage for increasing the class discrimination accuracy of the segmentation part 16, and there is no learning stage other than the second stage for increasing the counting accuracy of the number of objects in the counting part 17. On the other hand, in the second embodiment, the class discrimination accuracy of the segmentation portion 16 and the counting accuracy of the number of objects of the counting portion 17 can be increased over a plurality of stages.

学習部110は、第1損失関数73と第2損失関数74との重み付き和100によって、セグメンテーション部分16のクラスの判別精度および計数部分17の物体の個数の計数精度を併せた全体の精度を評価する。したがって、クラスの判別精度および物体の個数の計数精度を適切に評価することができる。 The learning unit 110 uses the weighted sum 100 of the first loss function 73 and the second loss function 74 to obtain the total accuracy of the class discrimination accuracy of the segmentation part 16 and the counting accuracy of the number of objects of the counting part 17. evaluate. Therefore, it is possible to appropriately evaluate the class discrimination accuracy and the counting accuracy of the number of objects.

また、第2実施形態では、第1損失関数73の第1重み係数W1、および第2損失関数74の第2重み係数W2を変更することで、第1学習の学習量および第2学習の学習量を変更している。したがって、第1学習の学習量および第2学習の学習量を簡単に変更することができる。 Further, in the second embodiment, by changing the first weighting factor W1 of the first loss function 73 and the second weighting factor W2 of the second loss function 74, the learning amount of the first learning and the learning amount of the second learning changing the amount. Therefore, the learning amount of the first learning and the learning amount of the second learning can be easily changed.

なお、第1学習の学習量を徐々に少なくし、第2学習の学習量を徐々に多くする、という内容の変更スケジュールは、図20および図21に例示した変更スケジュール105に限らない。例えば図28に示す変更スケジュール117のように、第1重み係数W1および第2重み係数W2がともに同じ0.5で、第1学習の学習量と第2学習の学習量が同じ段階を中途に含んでいてもよい。また、図29に示す変更スケジュール119のように、第1段階の第1重み係数W1を1より小さい値とし、かつ最終段階(ここでは第9段階)の第2重み係数W2を1より小さい値としてもよい。要するに、前半の学習段階において、第1学習の学習量が第2学習の学習量よりも多く、後半の学習段階において、第2学習の学習量が第1学習の学習量よりも多ければよい。 Note that the change schedule of gradually decreasing the learning amount of the first learning and gradually increasing the learning amount of the second learning is not limited to the change schedule 105 illustrated in FIGS. 20 and 21 . For example, like the change schedule 117 shown in FIG. 28, both the first weighting factor W1 and the second weighting factor W2 are the same 0.5, and the learning amount of the first learning and the learning amount of the second learning are the same. may contain. Also, as in the change schedule 119 shown in FIG. 29, the first weighting factor W1 in the first stage is set to a value smaller than 1, and the second weighting factor W2 in the final stage (here, the ninth stage) is set to a value smaller than 1. may be In short, the learning amount of the first learning should be larger than the learning amount of the second learning in the first learning stage, and the learning amount of the second learning should be larger than the learning amount of the first learning in the latter learning stage.

[第3実施形態]
図30~図33に示す第3実施形態では、第1学習の学習量を徐々に少なくしていく過程で一時的に多くし、第2学習の学習量を徐々に多くしていく過程で、第1学習の学習量を一時的に多くするタイミングに合わせて少なくする、という内容の変更スケジュールにしたがって学習を行う。
[Third embodiment]
In the third embodiment shown in FIGS. 30 to 33, the learning amount of the first learning is temporarily increased in the process of gradually decreasing, and in the process of gradually increasing the learning amount of the second learning, Learning is performed in accordance with a change schedule that reduces the amount of learning in the first learning in accordance with the timing of temporarily increasing the amount of learning.

図30および図31に示す変更スケジュール125、および図32および図33に示す変更スケジュール127は、基本的には上記第2実施形態の図20および図21で示した変更スケジュール105と同じで、第1学習の学習量を徐々に少なくし、第2学習の学習量を徐々に多くする、という内容である。ただし、変更スケジュール125、127は、次の学習段階に移行する際に、図31Aおよび図33Aに示すように、一時的に第1重み係数W1を大きくして第1学習の学習量を多くし、これに伴い、図31Bおよび図33Bに示すように、一時的に第2重み係数W2を小さくして第2学習の学習量を少なくする、という内容である。 The change schedule 125 shown in FIGS. 30 and 31 and the change schedule 127 shown in FIGS. 32 and 33 are basically the same as the change schedule 105 shown in FIGS. The content is to gradually decrease the amount of learning in the first learning and gradually increase the amount of learning in the second learning. However, the change schedules 125 and 127 temporarily increase the first weighting factor W1 to increase the learning amount of the first learning as shown in FIGS. 31A and 33A when shifting to the next learning stage. , along with this, as shown in FIGS. 31B and 33B, the second weighting factor W2 is temporarily reduced to reduce the amount of learning in the second learning.

図30および図31に示す変更スケジュール125は、次の学習段階に移行する際の第1重み係数W1を、直前の学習段階の第1重み係数W1に引き上げ、かつ、次の学習段階に移行する際の第2重み係数W2を、直前の学習段階の第2重み係数W2に引き下げる、という内容である。図32および図33に示す変更スケジュール127は、次の学習段階に移行する際の第1重み係数W1を、一律最大値の1に引き上げ、かつ、次の学習段階に移行する際の第2重み係数W2を、一律最小値の0に引き下げる、という内容である。 The change schedule 125 shown in FIGS. 30 and 31 raises the first weighting factor W1 when shifting to the next learning stage to the first weighting factor W1 of the immediately preceding learning stage, and shifts to the next learning stage. The content is that the second weighting factor W2 at the time is reduced to the second weighting factor W2 at the immediately preceding learning stage. The change schedule 127 shown in FIGS. 32 and 33 uniformly raises the first weighting factor W1 when shifting to the next learning stage to the maximum value of 1, and increases the second weighting factor W1 when shifting to the next learning stage. The content is that the coefficient W2 is uniformly reduced to the minimum value of 0.

このように、第3実施形態では、第1学習の学習量を徐々に少なくしていく過程で一時的に多くし、第2学習の学習量を徐々に多くしていく過程で、第1学習の学習量を一時的に多くするタイミングに合わせて少なくする、という内容の変更スケジュール125、127にしたがって学習を行う。したがって、段階を経るにつれて実施の機会が減っていく第1学習を、適度なタイミングで復習することができる。よりクラスの判別精度および物体の個数の計数精度が高い学習済みモデル15Tを得ることができる。 Thus, in the third embodiment, the learning amount of the first learning is temporarily increased in the process of gradually decreasing the learning amount of the first learning, and the learning amount of the second learning is gradually increased in the process of the first learning. Learning is performed according to change schedules 125 and 127, which are to reduce the amount of learning of . Therefore, it is possible to review the first learning, which has fewer chances to be implemented as it progresses, at appropriate timings. A trained model 15T with higher class discrimination accuracy and higher object count accuracy can be obtained.

なお、第1学習の学習量を徐々に少なくしていく過程で一時的に多くし、第2学習の学習量を徐々に多くしていく過程で、第1学習の学習量を一時的に多くするタイミングに合わせて少なくする、という内容の変更スケジュールは、図30~図33で例示した変更スケジュール125、127に限らない。次の学習段階に移行する際に代えて、前半の学習段階と後半の学習段階の間に一度だけ、前回の学習段階よりも第1学習の学習量を多くし、第2学習の学習量を少なくしてもよい。また、次の学習段階に移行する際だけに限らず、1回の学習段階のうちのいくつかのタイミングで、第1学習の学習量を多くし、第2学習の学習量を少なくしてもよい。 In addition, the learning amount of the first learning is temporarily increased in the process of gradually decreasing the learning amount of the first learning, and the learning amount of the first learning is temporarily increased in the process of gradually increasing the learning amount of the second learning. The change schedules of content of reducing the amount according to the timing of the change are not limited to the change schedules 125 and 127 exemplified in FIGS. Instead of moving to the next learning stage, only once between the first learning stage and the second half learning stage, the amount of learning in the first learning is increased compared to the previous learning stage, and the amount of learning in the second learning is increased. It can be less. Also, not only when moving to the next learning stage, but at some timing in one learning stage, even if the learning amount of the first learning is increased and the learning amount of the second learning is decreased good.

[第4実施形態]
図34に示す第4実施形態では、変更スケジュールのユーザによる指定を受け付ける。
[Fourth embodiment]
In the fourth embodiment shown in FIG. 34, user designation of a change schedule is accepted.

図34において、変更スケジュール指定画面130は、学習装置10のディスプレイ34に表示される。変更スケジュール指定画面130は、変更スケジュール指定領域131を有している。変更スケジュール指定領域131には、入力ボックス132、133、チェックボックス134、および段階追加ボタン135が設けられている。入力ボックス132には、各学習段階における第1重み係数W1が入力される。入力ボックス133には、各学習段階における第2重み係数W2が入力される。チェックボックス134は、上記第3実施形態のように第1学習の学習量を一時的に多くしたい場合に選択される。段階追加ボタン135は、段階を追加する場合に選択される。 In FIG. 34 , a change schedule designation screen 130 is displayed on the display 34 of the study device 10 . The change schedule designation screen 130 has a change schedule designation area 131 . Input boxes 132 and 133 , a check box 134 , and a step addition button 135 are provided in the change schedule designation area 131 . The input box 132 receives the first weighting factor W1 in each learning stage. The input box 133 receives the second weighting factor W2 in each learning stage. The check box 134 is selected when it is desired to temporarily increase the learning amount of the first learning as in the third embodiment. The step addition button 135 is selected when adding a step.

ユーザは、入力ボックス132、133に第1重み係数W1および第2重み係数W2を入力し、必要に応じてチェックボックス134を選択した後、指定ボタン136を選択する。受付部138は、入力ボックス132、133の入力内容、およびチェックボックス134の選択内容を反映させた変更スケジュールの指定を受け付ける。受付部138は、指定を受け付けた変更スケジュールをRW制御部50に出力する。RW制御部50は、受付部138からの変更スケジュールをストレージデバイス30Aに記憶する。このストレージデバイス30Aに記憶された変更スケジュールにしたがって学習が行われる。なお、キャンセルボタン137が選択された場合、変更スケジュール指定画面130の表示が消される。 The user inputs the first weighting factor W1 and the second weighting factor W2 in the input boxes 132 and 133, selects the check box 134 as necessary, and then selects the designation button 136. FIG. Accepting unit 138 accepts designation of a change schedule that reflects the input contents of input boxes 132 and 133 and the selection contents of check box 134 . The accepting unit 138 outputs the change schedule for which the designation has been accepted to the RW control unit 50 . The RW control unit 50 stores the change schedule from the receiving unit 138 in the storage device 30A. Learning is performed according to the change schedule stored in this storage device 30A. Note that when the cancel button 137 is selected, the display of the change schedule designation screen 130 is erased.

このように、第4実施形態では、受付部138において、変更スケジュールのユーザによる指定を受け付ける。したがって、変更スケジュールをユーザがカスタマイズすることが可能となり、ユーザの好みに適合した学習を行わせることができる。 As described above, in the fourth embodiment, the reception unit 138 receives designation of a change schedule by the user. Therefore, it becomes possible for the user to customize the change schedule, and it is possible to perform learning suitable for the user's preference.

機械学習システム2を構成するコンピュータのハードウェア構成は種々の変形が可能である。例えば、学習装置10と運用装置11とを統合して、1台のコンピュータで構成してもよい。また、学習装置10および運用装置11のうちの少なくともいずれかを、処理能力および信頼性の向上を目的として、ハードウェアとして分離された複数台のコンピュータで構成することも可能である。例えば、学習装置10の学習部51の処理部70の機能と、評価部71および更新部72の機能とを、2台のコンピュータに分散して担わせる。この場合は2台のコンピュータで学習装置10を構成する。 Various modifications are possible for the hardware configuration of the computer that constitutes the machine learning system 2 . For example, the learning device 10 and the operation device 11 may be integrated into one computer. Also, at least one of the learning device 10 and the operation device 11 can be configured with a plurality of computers separated as hardware for the purpose of improving processing capability and reliability. For example, the function of the processing unit 70 of the learning unit 51 of the learning device 10 and the functions of the evaluation unit 71 and update unit 72 are distributed to two computers. In this case, the learning device 10 is composed of two computers.

このように、機械学習システム2のコンピュータのハードウェア構成は、処理能力、安全性、信頼性等の要求される性能に応じて適宜変更することができる。さらに、ハードウェアに限らず、作動プログラム40等のアプリケーションプログラムについても、安全性および信頼性の確保を目的として、二重化したり、あるいは、複数のストレージデバイスに分散して格納することももちろん可能である。 In this way, the hardware configuration of the computer of the machine learning system 2 can be appropriately changed according to required performance such as processing power, safety, and reliability. Furthermore, not only the hardware but also application programs such as the operation program 40 can of course be duplicated or distributed and stored in multiple storage devices for the purpose of ensuring safety and reliability. be.

上記各実施形態では、第1重み係数W1および第2重み係数W2を階段状に変更しているが、これに限定されない。例えば図35に示す変更スケジュール145のように、第1重み係数W1および第2重み係数W2を直線状に変更してもよい。あるいは図36に示す変更スケジュール147のように、第1重み係数W1および第2重み係数W2を曲線状に変更してもよい。 In each of the above embodiments, the first weighting factor W1 and the second weighting factor W2 are changed stepwise, but the present invention is not limited to this. For example, like a change schedule 145 shown in FIG. 35, the first weighting factor W1 and the second weighting factor W2 may be changed linearly. Alternatively, like a change schedule 147 shown in FIG. 36, the first weighting factor W1 and the second weighting factor W2 may be changed in a curved line.

なお、セグメンテーション用出力層61に計数用DNN62を接続し、セグメンテーション用出力層61からの学習用出力画像65を計数用DNN62に出力してもよい。また、共有DNN60からの出力データと、セグメンテーション用出力層61からの学習用出力画像65とを、両方とも計数用DNN62に出力してもよい。 Note that the DNN 62 for counting may be connected to the output layer 61 for segmentation, and the output image 65 for learning from the output layer 61 for segmentation may be output to the DNN 62 for counting. Also, both the output data from the shared DNN 60 and the learning output image 65 from the segmentation output layer 61 may be output to the counting DNN 62 .

上記各実施形態では、入力画像25として、培養中の複数の細胞を撮影した細胞画像を例示し、クラスとして細胞、培地等を例示したが、これに限定されない。例えば道路を撮影した衛星動画像を入力画像25とし、車をクラスとして、車の台数を計数してもよい。あるいは、街頭を撮影した動画像を入力画像25とし、人をクラスとして、人数を計数してもよい。 In each of the above-described embodiments, the input image 25 is a cell image obtained by photographing a plurality of cells in culture, and the classes are cells, medium, and the like, but the input image 25 is not limited to this. For example, a satellite moving image of a road may be used as the input image 25, and the number of cars may be counted using cars as classes. Alternatively, the number of people may be counted by using a moving image of the street taken as the input image 25 and taking people as a class.

上記各実施形態において、例えば、RW制御部50、85、学習部51、110(処理部70、111、評価部71、112、更新部72、113)、制御部52、送信制御部53、処理部86、表示制御部87、および受付部138といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。各種のプロセッサには、上述したように、ソフトウェア(作動プログラム40、80)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU32A、32Bに加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。 In each of the above embodiments, for example, RW control units 50 and 85, learning units 51 and 110 (processing units 70 and 111, evaluation units 71 and 112, update units 72 and 113), control unit 52, transmission control unit 53, processing As a hardware structure of a processing unit (processing unit) that executes various processes such as the unit 86, the display control unit 87, and the reception unit 138, the following various processors can be used. Various processors include, as described above, FPGAs (Field Programmable Gate Arrays) in addition to CPUs 32A and 32B, which are general-purpose processors that execute software (operation programs 40 and 80) and function as various processing units. Programmable Logic Device (PLD), which is a processor whose circuit configuration can be changed after manufacture, ASIC (Application Specific Integrated Circuit), etc. It has a circuit configuration specially designed to execute specific processing. A dedicated electrical circuit, such as a processor, is included.

1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、および/または、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。 One processing unit may be configured with one of these various processors, or a combination of two or more processors of the same or different type (for example, a combination of a plurality of FPGAs and/or a CPU and combination with FPGA). Also, a plurality of processing units may be configured by one processor.

複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip:SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。 As an example of configuring a plurality of processing units with a single processor, first, as represented by computers such as clients and servers, a single processor is configured by combining one or more CPUs and software. There is a form in which a processor functions as multiple processing units. Secondly, as typified by System On Chip (SoC), etc., there is a mode of using a processor that realizes the function of the entire system including multiple processing units with a single IC (Integrated Circuit) chip. be. In this way, the various processing units are configured using one or more of the above various processors as a hardware structure.

さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。 Further, as the hardware structure of these various processors, more specifically, an electric circuit in which circuit elements such as semiconductor elements are combined can be used.

以上の記載から、以下の付記項1に記載の発明を把握することができる。 From the above description, the invention described in the following supplementary item 1 can be grasped.

[付記項1]
入力画像に映る物体の種類であるクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するセグメンテーション部分と、前記セマンティックセグメンテーションにより前記クラスが判別された前記物体の個数の計数を実施する計数部分とを含む基礎機械学習モデルを取得する取得プロセッサと、
学習用入力画像と、前記学習用入力画像に対して前記クラスが指定されたアノテーション画像との組である第1学習データを用いて、前記セグメンテーション部分を学習させる第1学習と、前記学習用入力画像と、前記学習用入力画像に映る前記物体の個数の計数結果との組である第2学習データを用いて、前記計数部分を学習させる第2学習とを行い、前記基礎機械学習モデルを学習済み機械学習モデルとする学習プロセッサと、
前記学習プロセッサの動作を制御する制御プロセッサであり、前半の学習段階においては、前記第1学習の学習量を前記第2学習の学習量よりも多くし、後半の学習段階においては、前記第2学習の学習量を前記第1学習の学習量よりも多くする制御プロセッサと、
を備える学習装置。
[Appendix 1]
A segmentation part that performs semantic segmentation for determining a class, which is the type of an object appearing in an input image, on a pixel-by-pixel basis; and a counting part that performs counting of the number of objects whose class is determined by the semantic segmentation. an acquisition processor that acquires an underlying machine learning model;
first learning for learning the segmentation portion using first learning data that is a set of an input image for learning and an annotation image in which the class is specified for the input image for learning; and the input for learning. Using second learning data, which is a set of an image and a count result of the number of the objects appearing in the input image for learning, second learning is performed to learn the counting part, and the basic machine learning model is learned. a learning processor as a finished machine learning model;
A control processor for controlling the operation of the learning processor, wherein the learning amount of the first learning is larger than the learning amount of the second learning in the first half learning stage, and the second learning amount is increased in the latter half learning stage. a control processor that makes the learning amount of learning larger than the learning amount of the first learning;
A learning device with

本開示の技術は、上述の種々の実施形態と種々の変形例を適宜組み合わせることも可能である。また、上記各実施形態に限らず、要旨を逸脱しない限り種々の構成を採用し得ることはもちろんである。さらに、本開示の技術は、プログラムに加えて、プログラムを非一時的に記憶する記憶媒体にもおよぶ。 The technology of the present disclosure can also appropriately combine various embodiments and various modifications described above. Moreover, it is needless to say that various configurations can be employed without departing from the scope of the present invention without being limited to the above embodiments. Furthermore, the technology of the present disclosure extends to storage media that non-temporarily store programs in addition to programs.

以上に示した記載内容および図示内容は、本開示の技術に係る部分についての詳細な説明であり、本開示の技術の一例に過ぎない。例えば、上記の構成、機能、作用、および効果に関する説明は、本開示の技術に係る部分の構成、機能、作用、および効果の一例に関する説明である。よって、本開示の技術の主旨を逸脱しない範囲内において、以上に示した記載内容および図示内容に対して、不要な部分を削除したり、新たな要素を追加したり、置き換えたりしてもよいことはいうまでもない。また、錯綜を回避し、本開示の技術に係る部分の理解を容易にするために、以上に示した記載内容および図示内容では、本開示の技術の実施を可能にする上で特に説明を要しない技術常識等に関する説明は省略されている。 The above description and illustration are detailed descriptions of the parts related to the technology of the present disclosure, and are merely examples of the technology of the present disclosure. For example, the above descriptions of configurations, functions, actions, and effects are descriptions of examples of configurations, functions, actions, and effects of portions related to the technology of the present disclosure. Therefore, unnecessary parts may be deleted, new elements added, or replaced with respect to the above-described description and illustration without departing from the gist of the technology of the present disclosure. Needless to say. In addition, in order to avoid complication and facilitate understanding of the portion related to the technology of the present disclosure, the descriptions and illustrations shown above require no particular explanation in order to enable implementation of the technology of the present disclosure. Descriptions of common technical knowledge, etc., that are not used are omitted.

本明細書において、「Aおよび/またはB」は、「AおよびBのうちの少なくとも1つ」と同義である。つまり、「Aおよび/またはB」は、Aだけであってもよいし、Bだけであってもよいし、AおよびBの組み合わせであってもよい、という意味である。また、本明細書において、3つ以上の事柄を「および/または」で結び付けて表現する場合も、「Aおよび/またはB」と同様の考え方が適用される。 As used herein, "A and/or B" is synonymous with "at least one of A and B." That is, "A and/or B" means that only A, only B, or a combination of A and B may be used. In addition, in this specification, when three or more matters are expressed by connecting with "and/or", the same idea as "A and/or B" is applied.

本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。 All publications, patent applications and technical standards mentioned herein are expressly incorporated herein by reference to the same extent as if each individual publication, patent application and technical standard were specifically and individually noted to be incorporated by reference. incorporated by reference into the book.

Claims (12)

入力画像に映る物体の種類であるクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するセグメンテーション部分と、前記セマンティックセグメンテーションにより前記クラスが判別された前記物体の個数の計数を実施する計数部分とを含む基礎機械学習モデルを取得する取得部と、
学習用入力画像と、前記学習用入力画像に対して前記クラスが指定されたアノテーション画像との組である第1学習データを用いて、前記セグメンテーション部分を学習させる第1学習と、前記学習用入力画像と、前記学習用入力画像に映る前記物体の個数の計数結果との組である第2学習データを用いて、前記計数部分を学習させる第2学習とを行い、前記基礎機械学習モデルを学習済み機械学習モデルとする学習部と、
前記学習部の動作を制御する制御部であり、前半の学習段階においては、前記第1学習の学習量を前記第2学習の学習量よりも多くし、後半の学習段階においては、前記第2学習の学習量を前記第1学習の学習量よりも多くする制御部と、
を備える学習装置。
A segmentation part that performs semantic segmentation for determining a class, which is the type of an object appearing in an input image, on a pixel-by-pixel basis; and a counting part that performs counting of the number of objects whose class is determined by the semantic segmentation. an acquisition unit that acquires a basic machine learning model;
first learning for learning the segmentation portion using first learning data that is a set of an input image for learning and an annotation image in which the class is specified for the input image for learning; and the input for learning. Using second learning data, which is a set of an image and a count result of the number of the objects appearing in the input image for learning, second learning is performed to learn the counting part, and the basic machine learning model is learned. a learning unit as a finished machine learning model;
A control unit for controlling the operation of the learning unit, wherein the learning amount of the first learning is larger than the learning amount of the second learning in the first learning stage, and the learning amount of the second learning is increased in the latter learning stage. a control unit that makes the learning amount of learning larger than the learning amount of the first learning;
A learning device with
前記学習部は、第1損失関数を用いて前記セグメンテーション部分の前記クラスの判別精度を評価し、第2損失関数を用いて前記計数部分の前記物体の個数の計数精度を評価する請求項1に記載の学習装置。 2. The method according to claim 1, wherein the learning unit evaluates the class discrimination accuracy of the segmentation part using a first loss function, and evaluates the counting accuracy of the number of the objects of the counting part using a second loss function. A learning device as described. 前記制御部は、予め設定された変更スケジュールに応じて、前記第1学習の学習量および前記第2学習の学習量を変更する請求項2に記載の学習装置。 3. The learning device according to claim 2, wherein the control unit changes the learning amount of the first learning and the learning amount of the second learning according to a preset change schedule. 前記変更スケジュールは、前記第2学習の学習量を0として、前記学習部に前記第1学習だけを先に行わせ、前記セグメンテーション部分を学習済みセグメンテーション部分とさせた後、前記第1学習の学習量を0として、前記学習部に前記第2学習だけを行わせ、前記計数部分を学習済み計数部分とさせる、という、前記第1学習と前記第2学習を2段階に分けて行わせる内容である請求項3に記載の学習装置。 The change schedule sets the learning amount of the second learning to 0, causes the learning unit to perform only the first learning first, sets the segmentation part to a learned segmentation part, and then performs the learning of the first learning. The first learning and the second learning are divided into two steps, such that the learning unit is caused to perform only the second learning and the counting portion is set to the learned counting portion with the amount set to 0. 4. A learning device as claimed in claim 3. 前記変更スケジュールは、前記第1学習の学習量を徐々に少なくし、前記第2学習の学習量を徐々に多くする、という内容である請求項3に記載の学習装置。 4. The learning device according to claim 3, wherein the change schedule gradually decreases the learning amount of the first learning and gradually increases the learning amount of the second learning. 前記変更スケジュールは、前記第1学習の学習量を徐々に少なくしていく過程で一時的に多くし、前記第2学習の学習量を徐々に多くしていく過程で、前記第1学習の学習量を一時的に多くするタイミングに合わせて少なくする、という内容である請求項3に記載の学習装置。 In the change schedule, the learning amount of the first learning is temporarily increased in the process of gradually decreasing the learning amount of the second learning, and the learning amount of the first learning is increased in the process of gradually increasing the learning amount of the second learning. 4. The learning device according to claim 3, wherein the content is that the amount is decreased in accordance with the timing of increasing the amount temporarily. 前記学習部は、前記第1損失関数と前記第2損失関数との重み付き和によって、前記判別精度および前記計数精度を併せた全体の精度を評価し、
前記制御部は、前記第1損失関数の第1重み係数、および前記第2損失関数の第2重み係数を変更することで、前記第1学習の学習量および前記第2学習の学習量を変更する請求項5または請求項6に記載の学習装置。
The learning unit evaluates the overall accuracy including the discrimination accuracy and the counting accuracy by a weighted sum of the first loss function and the second loss function,
The control unit changes the learning amount of the first learning and the learning amount of the second learning by changing a first weighting factor of the first loss function and a second weighting factor of the second loss function. 7. The learning device according to claim 5 or 6.
前記変更スケジュールのユーザによる指定を受け付ける受付部を備える請求項3から請求項7のいずれか1項に記載の学習装置。 8. The learning device according to any one of claims 3 to 7, further comprising a reception unit that receives designation of the change schedule by a user. 前記第2損失関数は、前記学習用入力画像に映る前記物体の個数の前記計数部分による計数結果である学習用計数結果と、前記第2学習データに含まれる前記物体の個数の計数結果との差分の絶対値を、前記第2学習データに含まれる前記物体の個数の計数結果で除算した値に基づいて、前記計数精度を評価する請求項2から請求項8のいずれか1項に記載の学習装置。 The second loss function is a learning counting result, which is the result of counting the number of the objects appearing in the learning input image by the counting part, and a counting result of the number of the objects included in the second learning data. 9. The counting accuracy according to any one of claims 2 to 8, wherein the counting accuracy is evaluated based on a value obtained by dividing an absolute value of the difference by a counting result of the number of the objects included in the second learning data. learning device. 前記入力画像は、培養中の複数の細胞を撮影した細胞画像である請求項1から請求項9のいずれか1項に記載の学習装置。 10. The learning device according to any one of claims 1 to 9, wherein the input image is a cell image obtained by photographing a plurality of cells in culture. 入力画像に映る物体の種類であるクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するセグメンテーション部分と、前記セマンティックセグメンテーションにより前記クラスが判別された前記物体の個数の計数を実施する計数部分とを含む基礎機械学習モデルを取得する取得ステップと、
学習用入力画像と、前記学習用入力画像に対して前記クラスが指定されたアノテーション画像との組である第1学習データを用いて、前記セグメンテーション部分を学習させる第1学習と、前記学習用入力画像と、前記学習用入力画像に映る前記物体の個数の計数結果との組である第2学習データを用いて、前記計数部分を学習させる第2学習とを行い、前記基礎機械学習モデルを学習済み機械学習モデルとする学習ステップと、
前半の学習段階においては、前記第1学習の学習量を前記第2学習の学習量よりも多くし、後半の学習段階においては、前記第2学習の学習量を前記第1学習の学習量よりも多くする制御ステップと、
を備える学習装置の作動方法。
A segmentation part that performs semantic segmentation for determining a class, which is the type of an object appearing in an input image, on a pixel-by-pixel basis; and a counting part that performs counting of the number of objects whose class is determined by the semantic segmentation. an acquisition step of acquiring an underlying machine learning model;
first learning for learning the segmentation portion using first learning data that is a set of an input image for learning and an annotation image in which the class is specified for the input image for learning; and the input for learning. Using second learning data, which is a set of an image and a count result of the number of the objects appearing in the input image for learning, second learning is performed to learn the counting part, and the basic machine learning model is learned. a learning step as a completed machine learning model;
In the first learning stage, the learning amount of the first learning is made larger than the learning amount of the second learning, and in the latter learning stage, the learning amount of the second learning is made larger than the learning amount of the first learning. a control step that increases the
A method of operating a learning device comprising:
入力画像に映る物体の種類であるクラスの判別を画素単位で行うセマンティックセグメンテーションを実施するセグメンテーション部分と、前記セマンティックセグメンテーションにより前記クラスが判別された前記物体の個数の計数を実施する計数部分とを含む基礎機械学習モデルを取得する取得部と、
学習用入力画像と、前記学習用入力画像に対して前記クラスが指定されたアノテーション画像との組である第1学習データを用いて、前記セグメンテーション部分を学習させる第1学習と、前記学習用入力画像と、前記学習用入力画像に映る前記物体の個数の計数結果との組である第2学習データを用いて、前記計数部分を学習させる第2学習とを行い、前記基礎機械学習モデルを学習済み機械学習モデルとする学習部と、
前記学習部の動作を制御する制御部であり、前半の学習段階においては、前記第1学習の学習量を前記第2学習の学習量よりも多くし、後半の学習段階においては、前記第2学習の学習量を前記第1学習の学習量よりも多くする制御部として、
コンピュータを機能させる学習装置の作動プログラム。
A segmentation part that performs semantic segmentation for determining a class, which is the type of an object appearing in an input image, on a pixel-by-pixel basis; and a counting part that performs counting of the number of objects whose class is determined by the semantic segmentation. an acquisition unit that acquires a basic machine learning model;
first learning for learning the segmentation portion using first learning data that is a set of an input image for learning and an annotation image in which the class is specified for the input image for learning; and the input for learning. Using second learning data, which is a set of an image and a count result of the number of the objects appearing in the input image for learning, second learning is performed to learn the counting part, and the basic machine learning model is learned. a learning unit as a finished machine learning model;
A control unit for controlling the operation of the learning unit, wherein the learning amount of the first learning is larger than the learning amount of the second learning in the first learning stage, and the learning amount of the second learning is increased in the latter learning stage. As a control unit that makes the learning amount of learning larger than the learning amount of the first learning,
An operating program for a learning device that makes a computer work.
JP2021543948A 2019-09-03 2020-04-22 LEARNING APPARATUS, LEARNING APPARATUS OPERATING METHOD, LEARNING APPARATUS OPERATING PROGRAM Active JP7167355B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019160695 2019-09-03
JP2019160695 2019-09-03
PCT/JP2020/017404 WO2021044666A1 (en) 2019-09-03 2020-04-22 Learning device, learning device actuation method, and learning device actuation program

Publications (2)

Publication Number Publication Date
JPWO2021044666A1 JPWO2021044666A1 (en) 2021-03-11
JP7167355B2 true JP7167355B2 (en) 2022-11-08

Family

ID=74853143

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021543948A Active JP7167355B2 (en) 2019-09-03 2020-04-22 LEARNING APPARATUS, LEARNING APPARATUS OPERATING METHOD, LEARNING APPARATUS OPERATING PROGRAM

Country Status (2)

Country Link
JP (1) JP7167355B2 (en)
WO (1) WO2021044666A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019008753A1 (en) 2017-07-07 2019-01-10 暢 長坂 Image analysis device

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6798854B2 (en) * 2016-10-25 2020-12-09 株式会社パスコ Target number estimation device, target number estimation method and program
US10515296B2 (en) * 2017-11-14 2019-12-24 Adobe Inc. Font recognition by dynamically weighting multiple deep learning neural networks

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019008753A1 (en) 2017-07-07 2019-01-10 暢 長坂 Image analysis device

Also Published As

Publication number Publication date
WO2021044666A1 (en) 2021-03-11
JPWO2021044666A1 (en) 2021-03-11

Similar Documents

Publication Publication Date Title
EP4036211A1 (en) Information processing device, method for operating information processing device, and program for operating information processing device
King et al. Data mining in psychological treatment research: a primer on classification and regression trees.
WO2018003212A1 (en) Object detection device and object detection method
JP6435581B2 (en) Transfer learning device, transfer learning system, transfer learning method and program
US20180350069A1 (en) Neural network classification
JP6569047B1 (en) Learning method, computer program, classifier, and generator
US10713783B2 (en) Neural network classification
US11699106B2 (en) Categorical feature enhancement mechanism for gradient boosting decision tree
CN109325516A (en) A kind of integrated learning approach and device towards image classification
CN109948680A (en) The classification method and system of medical record data
CN106652008A (en) Method automatically forming grid and shader multi-layer detail
WO2021132099A1 (en) Learning support device, learning device, learning support method, and learning support program
WO2019176989A1 (en) Inspection system, discrimination system, and learning data generator
CN114556413A (en) Interactive training of machine learning models for tissue segmentation
JP7167355B2 (en) LEARNING APPARATUS, LEARNING APPARATUS OPERATING METHOD, LEARNING APPARATUS OPERATING PROGRAM
JP7096361B2 (en) Mini-batch learning device and its operation program, operation method, and image processing device
US20130013244A1 (en) Pattern based test prioritization using weight factors
JP7096362B2 (en) Mini-batch learning device and its operation program and operation method
CN111062914B (en) Method, apparatus, electronic device and computer readable medium for acquiring facial image
JP7138780B2 (en) Image processing device, its operation method and operation program, operation device, its operation method and operation program, and machine learning system
US20230135041A1 (en) Methods for predicting likelihood of successful experimental synthesis of computer-generated materials by combining network analysis and machine learning
WO2023174099A1 (en) Recommendation model training method, item recommendation method and system, and related device
JP2020204863A (en) Learning device, method for actuating learning device, and actuation program of learning device
WO2021044671A1 (en) Learning device, learning-device operating method, and learning-device operating program
JP2021018531A (en) Operating device of machine learning model, operation method and operation program therefor, learning device of machine learning model, operation method and operation program therefor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221004

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221026

R150 Certificate of patent or registration of utility model

Ref document number: 7167355

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150