JP7408325B2 - Information processing equipment, learning methods and programs - Google Patents

Information processing equipment, learning methods and programs Download PDF

Info

Publication number
JP7408325B2
JP7408325B2 JP2019167149A JP2019167149A JP7408325B2 JP 7408325 B2 JP7408325 B2 JP 7408325B2 JP 2019167149 A JP2019167149 A JP 2019167149A JP 2019167149 A JP2019167149 A JP 2019167149A JP 7408325 B2 JP7408325 B2 JP 7408325B2
Authority
JP
Japan
Prior art keywords
learning
state
classifier
information processing
setting
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019167149A
Other languages
Japanese (ja)
Other versions
JP2021043862A (en
Inventor
徹 菊地
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2019167149A priority Critical patent/JP7408325B2/en
Publication of JP2021043862A publication Critical patent/JP2021043862A/en
Application granted granted Critical
Publication of JP7408325B2 publication Critical patent/JP7408325B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本開示は、情報処理装置、学習方法およびプログラムに関する。 The present disclosure relates to an information processing device, a learning method, and a program.

コンピュータで医用画像を解析し、医師に読影の助けとなる情報を提示するコンピュータ支援診断(Computer Aided Diagnosis:CAD)システムが知られている。このようなCADシステムの中でも、医用画像から鑑別診断の候補となる診断名を分類し提示するCADシステムには、医用画像と正解の診断名が対となった医用データを教師データとして分類器を機械学習することにより実現されるものがある。この機械学習では、解こうとしている問題に対して、分類器を適切に学習させなければならない。 2. Description of the Related Art Computer Aided Diagnosis (CAD) systems are known in which a computer analyzes a medical image and presents information to a doctor to help with image interpretation. Among these CAD systems, a CAD system that classifies and presents diagnostic names that are candidates for differential diagnosis from medical images uses a classifier that uses medical data in which a medical image and a correct diagnosis name are paired as training data. There are things that can be achieved through machine learning. In machine learning, a classifier must be trained appropriately for the problem being solved.

特許文献1で開示された学習装置は、ラベルつきデータに対する誤差とラベルなしデータに対する誤差の学習への寄与割合を、学習の過程で変更させることで、適切な半教師あり学習を実施している。具体的には、過学習状態を判定した際に、教師なし誤差の混合割合を上げ、そうでなければ適切または学習不足と判定して教師なし誤差の割合を下げる。 The learning device disclosed in Patent Document 1 performs appropriate semi-supervised learning by changing the contribution ratio of errors to labeled data and errors to unlabeled data to learning during the learning process. . Specifically, when an overlearning state is determined, the mixing ratio of unsupervised errors is increased, and if not, it is determined that the learning is appropriate or insufficient, and the unsupervised error ratio is lowered.

特許文献2で開示された学習装置は、損失関数の勾配に学習率を乗じた値でニューラルネットワークのパラメータを更新する際に、評価データで精度を求め、精度が改善される場合はパラメータを記憶し、改善されない場合は学習率を低下させて学習を再開する。 The learning device disclosed in Patent Document 2 calculates accuracy using evaluation data when updating parameters of a neural network using a value obtained by multiplying the slope of a loss function by a learning rate, and stores the parameters if the accuracy is improved. However, if there is no improvement, the learning rate is lowered and learning is restarted.

特開2018-181071号公報JP2018-181071A 特開2018-160200号公報Unexamined Japanese Patent Publication No. 2018-160200

しかし、機械学習により解こうとしている問題に対して、分類器の能力が適切でないと、適切な学習を行うことができない。具体的には、解こうとしている問題の分布の複雑さに対して分類器が表現できる分布の複雑さが高い場合には過学習を生じ、低い場合には学習不足が生じる。 However, if the classifier's ability is not appropriate for the problem being solved by machine learning, appropriate learning cannot be performed. Specifically, if the complexity of the distribution that can be expressed by the classifier is high relative to the complexity of the distribution of the problem to be solved, overfitting will occur, and if it is low, underlearning will occur.

本発明は、解こうとしている問題に対して、適切なモデル構造を持つ分類器を構築することを目的とする。 The present invention aims to construct a classifier having an appropriate model structure for the problem to be solved.

本発明の第一態様は、
医用データの分類を行う分類器の学習の状態を判定する判定手段と、
前記判定手段により判定した前記状態に基づき、前記分類器の構造を設定する設定手段と、
前記設定手段により設定された前記分類器の構造に基づき、前記分類器の学習を行う学習手段と、
を備え
前記設定手段は、過学習の状態が継続した期間、または、学習不足の状態が継続した期間に基づき、前記構造の設定における変更度合いを設定する、
情報処理装置である。
本発明の第二態様は、
医用データの分類を行う分類器の学習の状態を判定する判定手段と、
前記判定手段により判定した前記状態に基づき、前記分類器の構造を設定する設定手段と、
前記設定手段により設定された前記分類器の構造に基づき、前記分類器の学習を行う学習手段と、
を備え、
前記設定手段は、過学習の状態から学習不足の状態に変化した場合、または、学習不足の状態から過学習の状態に変化した場合は、前記構造の設定における変更度合いを変更する、
情報処理装置である。
The first aspect of the present invention is
A determining means for determining the learning state of a classifier that classifies medical data;
Setting means for setting the structure of the classifier based on the state determined by the determining means;
learning means for learning the classifier based on the structure of the classifier set by the setting means;
Equipped with
The setting means sets a degree of change in the structure settings based on a period in which the over-learning state continues or a period in which the under-learning state continues.
It is an information processing device.
The second aspect of the present invention is
A determining means for determining the learning state of a classifier that classifies medical data;
Setting means for setting the structure of the classifier based on the state determined by the determining means;
learning means for learning the classifier based on the structure of the classifier set by the setting means;
Equipped with
The setting means changes the degree of change in the structure setting when a state of overfitting changes to a state of underlearning, or when a state of underlearning changes to a state of overfitting.
It is an information processing device.

本発明の第態様は、
コンピュータが行う、医用データの分類を行う分類器を学習する学習方法であって、
前記分類器の学習の状態を判定する判定ステップと、
前記判定ステップにおいて判定した前記状態に基づき、前記分類器の構造を設定する設定ステップと、
前記設定ステップにおいて設定された前記構造に基づき、教師データを用いて前記分類器の学習を行う学習ステップと、
を含み、
前記設定ステップでは、過学習の状態が継続した期間、または、学習不足の状態が継続した期間に基づき、前記構造の設定における変更度合いを設定する、
学習方法である。
本発明の第四態様は、
コンピュータが行う、医用データの分類を行う分類器を学習する学習方法であって、
前記分類器の学習の状態を判定する判定ステップと、
前記判定ステップにおいて判定した前記状態に基づき、前記分類器の構造を設定する設定ステップと、
前記設定ステップにおいて設定された前記構造に基づき、教師データを用いて前記分類器の学習を行う学習ステップと、
を含み、
前記設定ステップでは、過学習の状態から学習不足の状態に変化した場合、または、学習不足の状態から過学習の状態に変化した場合は、前記構造の設定における変更度合いを変更する、
学習方法である。
The third aspect of the present invention is
A learning method performed by a computer to learn a classifier for classifying medical data, the method comprising:
a determination step of determining the learning state of the classifier;
a setting step of setting a structure of the classifier based on the state determined in the determining step;
a learning step of learning the classifier using teacher data based on the structure set in the setting step;
including;
In the setting step, a degree of change in the structure settings is set based on a period during which the over-learning state continued or a period during which the under-learning state continued.
It is a learning method.
The fourth aspect of the present invention is
A learning method performed by a computer to learn a classifier for classifying medical data, the method comprising:
a determination step of determining the learning state of the classifier;
a setting step of setting a structure of the classifier based on the state determined in the determining step;
a learning step of learning the classifier using teacher data based on the structure set in the setting step;
including;
In the setting step, when the state of overfitting changes to the state of underlearning, or when the state of underlearning changes to the state of overfitting, the degree of change in the setting of the structure is changed,
It is a learning method.

本発明によれば、解こうとしている問題に対して、適切なモデル構造を持つ分類器を構築することが可能となる。 According to the present invention, it is possible to construct a classifier having an appropriate model structure for the problem to be solved.

実施形態1及び2の情報処理装置を含む情報処理システムのシステム構成図System configuration diagram of an information processing system including the information processing apparatuses of Embodiments 1 and 2 実施形態1及び2の情報処理装置のハードウェア構成図Hardware configuration diagram of information processing apparatuses of embodiments 1 and 2 実施形態1及び2の情報処理装置の機能ブロック図Functional block diagram of information processing apparatus of embodiments 1 and 2 実施形態1及び2の医用画像DBの構成を示す概念図Conceptual diagram showing the configuration of the medical image DB of embodiments 1 and 2 実施形態1及び2の分類器のモデル構造を示す概念図Conceptual diagram showing the model structure of the classifier of Embodiments 1 and 2 実施形態1の分類器の学習処理のフロー図Flow diagram of the learning process of the classifier in Embodiment 1 実施形態1及び2の学習状態判定の概念図Conceptual diagram of learning state determination in Embodiments 1 and 2 実施形態2の分類器の学習処理のフロー図Flowchart of learning process of classifier in Embodiment 2

以下、添付の図面を参照して、本発明をその好適な実施形態に基づいて詳細に説明する。尚、特に断らない限り、他の実施形態等で説明した項目については、同一の番号を付し、その説明を省略する。また、以下の実施形態において示す構成は一例に過ぎず、本発明
は図示された構成に限定されるものではない。
Hereinafter, the present invention will be described in detail based on preferred embodiments thereof with reference to the accompanying drawings. Incidentally, unless otherwise specified, items explained in other embodiments etc. are given the same numbers and their explanations are omitted. Furthermore, the configurations shown in the following embodiments are merely examples, and the present invention is not limited to the illustrated configurations.

<実施形態1>
実施形態1では、胸部X線CT(Computed Tomography)画像上の肺結節影に対する診断名の分類を行うCADシステムの分類器の機械学習を行う情報処理装置について説明する。本実施形態の情報処理装置は、分類器の学習の際に、分類器の学習の状態を判定し、判定した学習の状態に基づいて、分類器のモデル構造を設定する。
<Embodiment 1>
In the first embodiment, an information processing apparatus that performs machine learning of a classifier of a CAD system that classifies diagnostic names for pulmonary nodule shadows on chest X-ray CT (Computed Tomography) images will be described. The information processing device of this embodiment determines the learning state of the classifier when learning the classifier, and sets the model structure of the classifier based on the determined learning state.

(システム構成)
図1は、本実施形態の情報処理装置101を含む情報処理システム1のシステム構成図である。図1において、情報処理システム1は、医用画像データベース(以降、医用画像DBと呼ぶ)102、情報処理装置101、LAN(Local Area Network)103から構成される。
(System configuration)
FIG. 1 is a system configuration diagram of an information processing system 1 including an information processing apparatus 101 of this embodiment. In FIG. 1, an information processing system 1 includes a medical image database (hereinafter referred to as medical image DB) 102, an information processing device 101, and a LAN (Local Area Network) 103.

医用画像DB 102は、CT装置など医用画像の撮像装置で撮影された医用画像と、その医用画像の診断名とを含む医用データを記憶する。また、医用データを、LAN 103を介して検索、取得するための既知のデータベース機能を提供する。医用画像DB 102に記憶される医用データの構成については図4を用いて説明する。 The medical image DB 102 stores medical data including medical images captured by a medical image capturing device such as a CT device and a diagnosis name of the medical images. It also provides known database functionality for searching and retrieving medical data via the LAN 103. The structure of medical data stored in the medical image DB 102 will be explained using FIG. 4.

(医用データの構成)
図4は、医用画像DB 102に記憶される医用データの構成を示す概念図である。
(Composition of medical data)
FIG. 4 is a conceptual diagram showing the structure of medical data stored in the medical image DB 102.

図4において、医用画像DB 102に記憶される医用データは、学習用データセット410と検証用データセット420から構成される。学習用データセット410は分類器301の学習に用いる教師データのデータセットであり、検証用データセット420は分類器301の学習状態の検証に用いるデータセットである。学習用データセット410は複数の学習用医用データ411-i(i=1,...,Nt)から成り、検証用データセット420は複数の検証用医用データ421-i(i=1,...,Nv)から成る。学習用医用データ411-i(i=1,...,Nt)と検証用医用データ421-i(i=1,...,Nv)は同様の構成を持ち、患者情報401、診断名402、画像403から構成される。ここで、患者情報401は、患者ID、患者氏名など、患者に関する情報を含む。診断名402は、画像403に関する診断名であり、本実施形態では「原発」、「転移」、「良性」のいずれかである。画像403は、CT画像から抽出した、肺結節を含む三次元の部分領域画像である。尚、診断名402は、「悪性」、「良性」であっても、原発、転移、良性を更に細分化した診断名でもよい。また、画像403は、CT画像と肺結節を含む三次元の部分領域を示す座標情報との組み合わせでもよい。また、学習用データセット410と検証用データセット420は、単一のデータセットから動的に生成してもよい。 In FIG. 4, medical data stored in the medical image DB 102 includes a learning data set 410 and a verification data set 420. The training data set 410 is a data set of teacher data used for learning the classifier 301, and the verification data set 420 is a data set used to verify the learning state of the classifier 301. The learning dataset 410 consists of a plurality of learning medical data 411-i (i=1,...,Nt), and the verification dataset 420 consists of a plurality of validation medical data 421-i (i=1,..., Nt). .., Nv). The learning medical data 411-i (i=1,...,Nt) and the verification medical data 421-i (i=1,...,Nv) have similar configurations, including patient information 401 and diagnosis name. 402 and an image 403. Here, the patient information 401 includes information regarding the patient, such as a patient ID and patient name. The diagnosis name 402 is a diagnosis name related to the image 403, and in this embodiment is one of "primary", "metastasis", and "benign". Image 403 is a three-dimensional partial region image containing a pulmonary nodule extracted from a CT image. The diagnosis name 402 may be "malignant" or "benign," or may be a diagnosis name further subdivided into primary, metastasis, and benign. Further, the image 403 may be a combination of a CT image and coordinate information indicating a three-dimensional partial region including a pulmonary nodule. Further, the training data set 410 and the verification data set 420 may be dynamically generated from a single data set.

(ハードウェア構成)
図2は、本実施形態の情報処理装置101のハードウェア構成図である。情報処理装置101は、LAN103、ディスプレイ207、キーボード209、およびマウス210に接続される。
(Hardware configuration)
FIG. 2 is a hardware configuration diagram of the information processing apparatus 101 of this embodiment. Information processing device 101 is connected to LAN 103, display 207, keyboard 209, and mouse 210.

図2において、記憶媒体201は、OS(Operating System)や本実施形態に係る各種処理を行うための処理プログラム、各種情報を記憶するHDD(Hard Disk Drive)等の記憶媒体である。ROM(Read Only Memory)202はBIOS(Basic Input Output System)等、ハードウェアを初期化しOSを起動するためのプログラムを記憶する。CPU(Central Processing Unit)203はBIOSやOS、処理プログラム
を実行する際の演算処理を行う。RAM(Random Access Memory)204は、CPU203がプログラムを実行する際の情報を一時記憶する。LANインタフェース205は、IEEE(Institute of Electrical and Electronics Engineers)802.3ab等の規格に対応し、LAN 103を介して通信を行うためのインタフェースである。ディスプレイインタフェース206は、ディスプレイ207に表示する画面情報を信号に変換し出力するインタフェースである。入力インタフェース208はキーボード209及びマウス210からの信号を受信するためのインタフェースである。内部バス211は、各ブロックが通信を行うための通信路である。
In FIG. 2, a storage medium 201 is a storage medium such as an OS (Operating System), a processing program for performing various processes related to this embodiment, and a HDD (Hard Disk Drive) that stores various information. A ROM (Read Only Memory) 202 stores a program such as a BIOS (Basic Input Output System) for initializing hardware and starting an OS. A CPU (Central Processing Unit) 203 performs arithmetic processing when executing the BIOS, OS, and processing programs. A RAM (Random Access Memory) 204 temporarily stores information when the CPU 203 executes a program. The LAN interface 205 is an interface for communicating via the LAN 103, which complies with standards such as IEEE (Institute of Electrical and Electronics Engineers) 802.3ab. The display interface 206 is an interface that converts screen information displayed on the display 207 into a signal and outputs the signal. Input interface 208 is an interface for receiving signals from keyboard 209 and mouse 210. The internal bus 211 is a communication path for each block to communicate.

ディスプレイ207は、液晶ディスプレイなどの表示装置である。キーボード209はキー入力を行うための入力装置であり、マウス210は画面上の座標位置を指定及びボタン操作の入力するための入力装置である。 The display 207 is a display device such as a liquid crystal display. The keyboard 209 is an input device for performing key input, and the mouse 210 is an input device for specifying coordinate positions on the screen and inputting button operations.

(機能構成)
図3は、本実施形態の情報処理装置101の機能ブロック図である。CPU203がプログラムを実行することにより、情報処理装置101は、図3に示すように、分類器301、学習部302、学習状態判定部303、モデル構造設定部304として機能する。
(Functional configuration)
FIG. 3 is a functional block diagram of the information processing device 101 of this embodiment. When the CPU 203 executes the program, the information processing apparatus 101 functions as a classifier 301, a learning unit 302, a learning state determining unit 303, and a model structure setting unit 304, as shown in FIG.

分類器301は、画像403を入力し診断名の分類結果を出力する。具体的には、分類器301は、診断名の分類結果として、画像403が「原発」である尤度、「転移」である尤度、「良性」である尤度を出力する。 The classifier 301 inputs the image 403 and outputs the classification result of the diagnosis name. Specifically, the classifier 301 outputs the likelihood that the image 403 is "nuclear," "metastasis," and "benign" as the classification results of the diagnosis name.

ここで、分類器301のモデル構造について図5を参照して詳細に説明する。図5は、本実施形態の情報処理装置101の分類器301のモデル構造の概念図である。本実施形態の分類器301のモデル構造は、深層学習の一種である既知のCNN(ConvolutionalNeuralNetwork)である。 Here, the model structure of the classifier 301 will be explained in detail with reference to FIG. 5. FIG. 5 is a conceptual diagram of the model structure of the classifier 301 of the information processing apparatus 101 of this embodiment. The model structure of the classifier 301 of this embodiment is a known CNN (Convolutional Neural Network), which is a type of deep learning.

図5において、モデル構造は入力層501、中間層502-i(i=1、・・・、Nl、図5ではNl=2)、出力層503から構成される。入力層501、中間層502-i(i=1、・・・、Nl)、出力層503の各層は複数のノード510から構成され、隣接する層のノードの入出力は相互に接続される。入力層501のノードには画像403が入力される。中間層502-i(i=1、・・・、Nl)のノードは、前方(図中で左側)のノードの出力値に対して、各ノードのカーネル値で畳み込み演算を行い、重みを足した値を後方(図中で右側)のノードに出力する(以降、畳み込み層と呼ぶ)。出力層503は、本実施形態では「原発」、「転移」、「良性」に対応した3つのノードを備える。出力層503の各ノードは、前方のノードの出力値にカーネル値を乗じて総和をとった値に重みを加え(以降、全結合層と呼ぶ)、その出力に既知のSoftmaxと呼ばれる演算を加え各分類に対する尤度を算出する。 In FIG. 5, the model structure includes an input layer 501, an intermediate layer 502-i (i=1, . . . , Nl, Nl=2 in FIG. 5), and an output layer 503. Each of the input layer 501, intermediate layer 502-i (i=1, . . . , Nl), and output layer 503 is composed of a plurality of nodes 510, and inputs and outputs of nodes in adjacent layers are connected to each other. An image 403 is input to a node of the input layer 501 . The nodes of the intermediate layer 502-i (i=1, ..., Nl) perform a convolution operation on the output value of the node in front (on the left side in the figure) using the kernel value of each node, and add the weights. The resulting value is output to the subsequent node (on the right side in the figure) (hereinafter referred to as the convolution layer). In this embodiment, the output layer 503 includes three nodes corresponding to "nuclear," "metastasis," and "benign." Each node in the output layer 503 multiplies the output value of the previous node by a kernel value, adds weight to the summation value (hereinafter referred to as a fully connected layer), and adds a known operation called Softmax to the output. Calculate the likelihood for each classification.

尚、本実施形態ではモデル構造としてCNNの例を示したが、中間層を全結合層に置き換えたDNN(Deep NeuralNetwork)等でもよく、これに限られるも
のではない。
In this embodiment, a CNN is used as an example of the model structure, but it may be a DNN (Deep Neural Network) in which the intermediate layer is replaced with a fully connected layer, and is not limited to this.

学習部302は、医用画像DB 102から取得した学習用データセット410を用いて、分類器301の機械学習を行う。具体的には、分類器301に学習用データセット410の画像403を入力し、分類器の出力である診断名の分類結果(尤度)と正解の診断名から損失を求める。また、損失の勾配に予め指定された学習率を乗じた値で分類器の学習パラメータを更新する。この更新は所定回数繰り返す(1回の更新を「エポック」と呼ぶ)。ここで、本実施形態の損失は既知の多クラス交差エントロピー(Categori
cal Cross Entropy)であり、更新する学習パラメータはCNNを構成する各ノードのカーネル値と重みである。
The learning unit 302 performs machine learning on the classifier 301 using the learning data set 410 acquired from the medical image DB 102. Specifically, the image 403 of the learning data set 410 is input to the classifier 301, and the loss is calculated from the classification result (likelihood) of the diagnosis name that is the output of the classifier and the correct diagnosis name. Furthermore, the learning parameters of the classifier are updated with a value obtained by multiplying the loss gradient by a prespecified learning rate. This update is repeated a predetermined number of times (one update is called an "epoch"). Here, the loss in this embodiment is based on the known multi-class cross entropy (Category
cal Cross Entropy), and the learning parameters to be updated are the kernel values and weights of each node configuring the CNN.

学習状態判定部303は、分類器301の学習状態を判定する。学習状態とは分類器が過学習の状態であるか、学習不足の状態であるか、適正学習の状態であるかのいずれかである。ここで、過学習の状態とは、学習用のデータに適合し過ぎて検証用のデータなどの他のデータに対する適合が低下している状態である。学習不足の状態とは、学習パラメータの更新を繰り返しても学習用のデータへの適合が足りない状態である。適正な学習の状態とは、学習パラメータの更新を繰り返すことで学習用のデータと検証用のデータの両方への適合が進んでいる状態である。この学習状態は、検証用データセット420を用いて求めた検証用データセットに対する損失(以降、検証損失と呼ぶ)と学習部302から取得した学習用データセットに対する損失(以降、学習損失と呼ぶ)に基づいて判定する。判定の方法に関しては図7を用いて説明する。 The learning state determination unit 303 determines the learning state of the classifier 301. The learning state is one in which the classifier is over-trained, under-trained, or properly trained. Here, the overfitting state is a state in which the fit is too high for learning data and the fit for other data such as verification data is reduced. The state of insufficient learning is a state in which the learning parameters are not sufficiently adapted to the learning data even if the learning parameters are repeatedly updated. An appropriate learning state is a state in which adaptation to both learning data and verification data is progressing by repeatedly updating the learning parameters. This learning state includes a loss for the verification data set obtained using the verification data set 420 (hereinafter referred to as verification loss) and a loss for the learning data set obtained from the learning unit 302 (hereinafter referred to as learning loss). Judgment is made based on. The determination method will be explained using FIG. 7.

モデル構造設定部304は、学習状態判定部303が判定した学習状態に基づき分類器301の複雑さに関するモデル構造を設定する。ここで複雑さに関するモデル構造とは、分類器301が学習対象となる問題の分布を表現する能力に関するパラメータであり、CNNの場合は、畳み込み層の層数や畳み込みフィルタのフィルタ数である。尚、畳み込み層の数およびフィルタの数はモデル構造の複雑さの一例であり、これに限られるものではない。例えば、分類器301がDNNの場合は、中間層である全結合層の層数およびノード数である。 The model structure setting unit 304 sets a model structure regarding the complexity of the classifier 301 based on the learning state determined by the learning state determining unit 303. Here, the model structure related to complexity is a parameter related to the ability of the classifier 301 to express the distribution of a problem to be learned, and in the case of CNN, is the number of convolutional layers and the number of convolutional filters. Note that the number of convolutional layers and the number of filters are examples of the complexity of the model structure, and are not limited thereto. For example, if the classifier 301 is a DNN, this is the number of layers and the number of nodes of a fully connected layer that is an intermediate layer.

(学習状態判定)
図7は、学習状態判定部303が行う学習状態判定の概念図である。図7において、701-i(i=1,2,3)は、エポックと学習損失および検証損失との関係を表したグラフ(以降、学習曲線と呼ぶ)である。学習曲線701-i(i=1,2,3)において、702-i(i=1,2,3)は学習損失の曲線(以降、学習損失曲線と呼ぶ)、703-i(i=1,2,3)は検証損失の曲線(以降、検証損失曲線と呼ぶ)である。
(Learning status determination)
FIG. 7 is a conceptual diagram of learning state determination performed by the learning state determination unit 303. In FIG. 7, 701-i (i=1, 2, 3) is a graph (hereinafter referred to as a learning curve) representing the relationship between epochs, learning loss, and verification loss. In the learning curve 701-i (i = 1, 2, 3), 702-i (i = 1, 2, 3) is the learning loss curve (hereinafter referred to as the learning loss curve), 703-i (i = 1 , 2, 3) is a verification loss curve (hereinafter referred to as verification loss curve).

学習曲線701-1は適正な学習の状態、学習曲線701-2は過学習の状態、学習曲線701-3は学習不足の状態を示している。 A learning curve 701-1 shows a proper learning state, a learning curve 701-2 shows an overlearning state, and a learning curve 701-3 shows an insufficient learning state.

適正な学習の状態の学習曲線701-1は、エポックが増加するに従って、学習損失曲線702-1も検証損失曲線703-1も下降している。したがって、学習状態判定部303は、学習損失と検証損失のいずれもがエポックの増加とともに減少する場合に、適正学習の状態であると判定できる。 In the learning curve 701-1 in a proper learning state, as the number of epochs increases, both the learning loss curve 702-1 and the verification loss curve 703-1 decrease. Therefore, the learning state determination unit 303 can determine that the learning state is appropriate when both the learning loss and the verification loss decrease as the number of epochs increases.

過学習の状態の学習曲線701-2は、エポックが増加するに従って、学習損失曲線702-1は下降するが、検証損失曲線703-1は上昇している。したがって、学習状態判定部303は、学習損失がエポックの増加とともに減少し、かつ、検証損失がエポックの増加とともに増加する場合に、過学習の状態であると判定できる。 In the learning curve 701-2 in the overfitting state, as the number of epochs increases, the learning loss curve 702-1 decreases, but the verification loss curve 703-1 increases. Therefore, the learning state determination unit 303 can determine that the overlearning state is present when the learning loss decreases as the number of epochs increases, and the verification loss increases as the number of epochs increases.

学習不足の学習曲線701-3は、エポックが増加しても、学習損失曲線702-1と検証損失曲線703-1のいずれも下降が少ない。したがって、学習状態判定部303は、学習損失と検証損失のいずれもがエポックの増加とともに減少するが、その減少度合いが閾値以下である場合に、学習不足の状態であると判定できる。学習不足と判断するための減少度合いの閾値は、学習対象となる問題毎に予め指定する。 In the learning curve 701-3 due to insufficient learning, even if the number of epochs increases, both the learning loss curve 702-1 and the verification loss curve 703-1 decrease less. Therefore, the learning state determination unit 303 can determine that the learning state is insufficient when both the learning loss and the verification loss decrease as the number of epochs increases, but the degree of decrease is less than or equal to the threshold value. The threshold value of the degree of decrease for determining that learning is insufficient is specified in advance for each problem to be studied.

ここでは、学習損失と検証損失のエポック間での変化に基づいて学習状態を判定する例を説明したが、エポック間での変化に加えて、または代えて、学習損失と検証損失のそれ
ぞれの値またはこれらの値の差に基づいて学習状態を判定してもよい。例えば、学習状態判定部303は、学習損失と検証損失の差が大きい場合、すなわち第1閾値以上である場合に、過学習の状態であると判定してもよい。また、学習状態判定部303は、学習損失が大きい場合、すなわち第2閾値以上である場合に、未学習の状態であると判定してもよい。学習状態判定部303は、上記の第1閾値および第2閾値は、学習対象となる問題毎に予め指定する。上記以外の場合、すなわち、学習損失が小さく、かつ、学習損失と検証損失の差が小さい場合に、適正学習の状態であると判定してもよい。
Here, we have explained an example in which the learning state is determined based on the change in learning loss and validation loss between epochs. Alternatively, the learning state may be determined based on the difference between these values. For example, the learning state determination unit 303 may determine that the learning state is in an overlearning state when the difference between the learning loss and the verification loss is large, that is, when it is greater than or equal to the first threshold. Further, the learning state determining unit 303 may determine that the learning state is an unlearning state when the learning loss is large, that is, when it is equal to or greater than the second threshold value. The learning state determination unit 303 specifies the first threshold value and the second threshold value in advance for each problem to be studied. In cases other than the above, that is, when the learning loss is small and the difference between the learning loss and the verification loss is small, it may be determined that the learning is in an appropriate learning state.

本実施形態では損失の変化により学習状態の判定を行ったが、これに限られるものではなく、正確度(accuracy)の変化により判定を行ってもよい。具体的には、学習用データセット410に対する正確度(以降、学習正確度と呼ぶ)と検証用データセット420に対する正確度(以降、検証正確度と呼ぶ)が、エポックが増加するに従って、共に増加する場合は適正な学習状態と判定する。また、学習正確度が上昇しているにもかかわらず検証正確度が下降する場合は過学習、学習正確度も検証正確度も所定の水準まで上昇しない場合は学習不足の状態と判定する。また、正確度のエポック間の変化ではなく、学習正確度と検証正確度のそれぞれの値またはこれらの値の差に基づいて学習状態を判定してもよい。 In this embodiment, the learning state is determined based on a change in loss, but the present invention is not limited to this, and the determination may be made based on a change in accuracy. Specifically, the accuracy for the training dataset 410 (hereinafter referred to as learning accuracy) and the accuracy for the verification dataset 420 (hereinafter referred to as validation accuracy) both increase as the epochs increase. If so, it is determined that the learning state is appropriate. In addition, if the verification accuracy decreases despite the increase in learning accuracy, it is determined that there is overfitting, and if neither the learning accuracy nor the verification accuracy rises to a predetermined level, it is determined that learning is insufficient. Furthermore, the learning state may be determined based on the respective values of learning accuracy and verification accuracy, or the difference between these values, instead of the change in accuracy between epochs.

(学習処理)
図6は、本実施形態の分類器301の学習方法の流れを示すフロー図である。学習処理は、情報処理装置101の起動後に、ユーザからの指示に基づき実行される。ユーザは学習処理を指示する際に、学習に使用する学習用データセット410と検証用データセット420と分類器301の初期のモデル構造を指定する。具体的には、データセットはCSV(Comma-Separated Values)ファイルのURL(Uniform Resource Locator)により指定され、分類器301のモデル構造は畳み込み層の数、畳み込みフィルタの数により指定される。
(Learning process)
FIG. 6 is a flow diagram showing the flow of the learning method of the classifier 301 of this embodiment. The learning process is executed based on instructions from the user after the information processing apparatus 101 is started. When instructing the learning process, the user specifies the training data set 410, the verification data set 420, and the initial model structure of the classifier 301 to be used for learning. Specifically, the data set is specified by a URL (Uniform Resource Locator) of a CSV (Comma-Separated Values) file, and the model structure of the classifier 301 is specified by the number of convolution layers and the number of convolution filters.

ステップS601では、学習部302は、指定された畳み込み層の層数と畳み込みフィルタのフィルタ数に基づき、初期のモデルを作成する。初期のモデルとは、学習パラメータである畳み込みフィルタのカーネル値と重みに初期値が設定されたモデルである。初期値は固定値またはランダム値のいずれでもよい。 In step S601, the learning unit 302 creates an initial model based on the specified number of convolutional layers and the specified number of convolutional filters. The initial model is a model in which initial values are set for the kernel value and weight of the convolution filter, which are learning parameters. The initial value may be a fixed value or a random value.

ステップS602では、学習部302は、指定された学習用データセット410と検証用データセット420を医用画像DB 102から取得する。 In step S602, the learning unit 302 acquires the specified learning data set 410 and verification data set 420 from the medical image DB 102.

ステップS603では、学習部302は、学習損失を算出する。より詳細には、学習用医用データ411-i(i=1,・・・,Nt)毎に画像403を分類器に入力して分類毎の尤度を算出し、算出した尤度と正解となる診断名402から既知のCategorical Cross Entoropyを算出し平均をとる。 In step S603, the learning unit 302 calculates a learning loss. More specifically, the image 403 is input to the classifier for each learning medical data 411-i (i=1,...,Nt), the likelihood for each classification is calculated, and the calculated likelihood and the correct answer are The known categorical cross entropy is calculated from the diagnosis name 402 and the average is taken.

ステップS604では、学習部302は、ステップS603で算出した学習損失に基づき、モデルの学習パラメータを更新する。パラメータの更新は、既知の勾配法と呼ばれる手法を用いて行う。勾配法は、損失を求める関数の勾配を計算し、勾配に学習率と呼ばれる定数を乗じた値を学習パラメータから減ずる方法である。学習率は学習の期間に渡って固定でも可変でもよい。可変とする場合は、学習が進むに連れて減少させるが、これに限られるものではない。 In step S604, the learning unit 302 updates the learning parameters of the model based on the learning loss calculated in step S603. The parameters are updated using a known method called the gradient method. The gradient method is a method in which the gradient of the function for which the loss is determined is calculated, and the value obtained by multiplying the gradient by a constant called the learning rate is subtracted from the learning parameter. The learning rate may be fixed or variable over the period of learning. If it is variable, it is decreased as learning progresses, but is not limited to this.

ステップS605では、学習状態判定部303は、検証損失を算出する。より詳細には、検証用医用データ421-i(i=1,・・・,Nv)毎に画像403を分類器に入力して分類毎の尤度を算出し、算出した尤度と正解となる診断名402から既知のCate
gorical Cross Entoropyを算出し平均をとる。
In step S605, the learning state determination unit 303 calculates a verification loss. More specifically, the image 403 is input to the classifier for each verification medical data 421-i (i=1,...,Nv), the likelihood for each classification is calculated, and the calculated likelihood and the correct answer are Cate known from the diagnosis name 402
Calculate the gorical Cross Entropy and take the average.

ステップS606では、学習状態判定部303は、学習損失と検証損失に基づき学習状態を判定する。学習状態判定については図7を用いて説明したので、繰り返しの説明は省略する。得られる学習状態は、過学習、学習不足、適正学習のいずれかである。 In step S606, the learning state determining unit 303 determines the learning state based on the learning loss and the verification loss. Since the learning state determination has been explained using FIG. 7, repeated explanation will be omitted. The learning state obtained is one of overlearning, underlearning, and appropriate learning.

ステップS607では、モデル構造設定部304は、ステップS606で判定された学習状態の変化に応じて、ステップS621及びステップS631で用いる増減数δ(>0)を設定する。なお、本実施形態においては、モデル構造設定部304は、現在のモデル構造の複雑さを所定の増減数δだけ変更することにより、モデル構造を設定する。増減数δは、モデル構造の複雑さを変更する際の変更度合いを表すパラメータである。ステップS607では、モデル構造設定部304は、具体的には、学習不足または適正な状態から過学習状態へ、過学習状態から学習不足または適正な状態へ変化した場合は増減数δを減らす、あるいは増減数δを初期値に設定し直す。また、モデル構造設定部304は、過学習状態または学習不足状態が一定期間(一定のエポック数)継続した場合は増減数δを所定の値だけ増やす。過学習状態または学習不足状態が継続する期間が長いほど、増減数δの値を大きくしてもよい。このようにすることで、過学習の状態が継続した後に学習不足の状態に変化した場合、および学習不足の状態が継続した後に過学習の状態に変化した場合、増減数(変更度合い)δは直近の変更における値よりも小さくなる。 In step S607, the model structure setting unit 304 sets the increase/decrease number δ (>0) used in step S621 and step S631 according to the change in the learning state determined in step S606. Note that in this embodiment, the model structure setting unit 304 sets the model structure by changing the complexity of the current model structure by a predetermined increase/decrease number δ. The increase/decrease number δ is a parameter representing the degree of change when changing the complexity of the model structure. In step S607, the model structure setting unit 304 specifically decreases the increase/decrease number δ when there is a change from an under-learning or appropriate state to an over-fitting state, or from an over-fitting state to an under-learning or appropriate state, or Reset the increase/decrease number δ to the initial value. Further, the model structure setting unit 304 increases the increase/decrease number δ by a predetermined value when the overfitting state or the underlearning state continues for a certain period of time (a certain number of epochs). The longer the overlearning state or the underlearning state continues, the larger the value of the increase/decrease number δ may be. By doing this, when the state of overfitting continues and then changes to the state of underlearning, and when the state of underlearning continues and then changes to the state of overfitting, the number of increases and decreases (degree of change) δ is It will be smaller than the value in the most recent change.

後述するように、モデル構造を変化させる際には層数とフィルタ数のいずれかを変化させる。そこで、ステップS607では、モデル構造設定部304は、増減数δを層数とフィルタ数に対してそれぞれ決定してもよいし、ステップS607では1つの増減数δを決定し、後の工程で増減数δに基づいて増減させる層数またはフィルタ数を決定してもよい。 As will be described later, when changing the model structure, either the number of layers or the number of filters is changed. Therefore, in step S607, the model structure setting unit 304 may determine the increase/decrease number δ for the number of layers and the number of filters, or determine one increase/decrease number δ in step S607, and then determine the increase/decrease number δ in a later step. The number of layers or filters to be increased or decreased may be determined based on the number δ.

ステップS608では、モデル構造設定部304は、学習状態が学習不足の状態であるか否かを判定する。学習状態が学習不足の状態である場合(S608のYes)はステップS621に進み、学習不足の状態でない場合(S608のNo)はステップS609に進む。 In step S608, the model structure setting unit 304 determines whether the learning state is an insufficient learning state. If the learning state is a state of insufficient learning (Yes in S608), the process advances to step S621, and if the learning state is not a state of insufficient learning (No in S608), the process advances to step S609.

ステップS621では、モデル構造設定部304は、モデルの複雑さを増減数δだけ増やす。具体的には、CNNの畳み込み層の数と畳み込みフィルタの数とのいずれか一方をランダムに選択して所定数だけ増加させる。ここで、畳み込み層から出力されるデータのサイズが入力されたデータのサイズよりも小さくなるモデルの場合は、出力サイズがフィルタサイズより小さくならないように増加させる層数を制限する。増加させた畳み込みフィルタのカーネル値や重みは固定値またはランダム値で初期化し、学習中の他のカーネル値や重み等のパラメータはそれまでに学習したパラメータを引き継いで利用する。尚、増加させる対象は層数とフィルタ数の一方を固定的に選択しても、両者を選択しても、所定の順序に基づいて選択してもよい。また、追加する層やフィルタのモデル構造内での位置はランダムに選択しても、固定的に選択しても、所定の順序で選択してもよい。ステップS621の処理が終わるとステップS632に進む。 In step S621, the model structure setting unit 304 increases the complexity of the model by the increase/decrease number δ. Specifically, either the number of convolutional layers or the number of convolutional filters of the CNN is randomly selected and increased by a predetermined number. Here, in the case of a model in which the size of data output from the convolution layer is smaller than the size of input data, the number of layers to be increased is limited so that the output size does not become smaller than the filter size. The increased kernel values and weights of the convolution filter are initialized with fixed values or random values, and parameters such as other kernel values and weights that are being learned are inherited from the previously learned parameters. Note that the object to be increased may be fixedly selected from one of the number of layers and the number of filters, both may be selected, or may be selected based on a predetermined order. Furthermore, the positions of layers and filters to be added within the model structure may be selected randomly, fixedly, or in a predetermined order. Upon completion of the process in step S621, the process advances to step S632.

ステップS609では、モデル構造設定部304は、学習状態が過学習の状態であるか否かを判定する。学習状態が過学習の状態である場合(S609のYes)はステップS631に進み、過学習の状態でない場合(S609のNo)はステップS610に進む。学習状態が過学習でも学習不足でもない場合(S608のNoかつS609のNo)、すなわち適正な学習の状態では、モデル構造の変更は行われない。 In step S609, the model structure setting unit 304 determines whether the learning state is an overfitting state. If the learning state is an overlearning state (Yes in S609), the process advances to step S631, and if the learning state is not an overlearning state (No in S609), the process advances to step S610. If the learning state is neither overfitting nor underlearning (No in S608 and No in S609), that is, in a proper learning state, the model structure is not changed.

ステップS631では、モデル構造設定部304は、モデルの複雑さを増減数δだけ減
らす。具体的には、CNNの畳み込み層の数と畳み込みフィルタの数とのいずれか一方をランダムに選択して所定数だけ減少させる。ここで、中間層の層数が最低でも1となるように制限を設ける。学習中のカーネル値や重みはそれまでに学習した値を引き継いで利用する。尚、減少させる対象は層数とフィルタ数の一方を固定的に選択しても、両者を選択しても、所定の順序に基づいて選択してもよい。また、削減する層やフィルタのモデル構造内での位置はランダムに選択しても、固定的に選択しても、所定の順序で選択してもよい。ステップS631の処理が終わるとステップS632に進む。
In step S631, the model structure setting unit 304 reduces the complexity of the model by the increase/decrease number δ. Specifically, either the number of convolutional layers or the number of convolutional filters of the CNN is randomly selected and reduced by a predetermined number. Here, a limit is set so that the number of intermediate layers is at least one. The kernel values and weights during learning inherit and use the values learned so far. Note that the object to be reduced may be fixedly selected from one of the number of layers and the number of filters, both may be selected, or may be selected based on a predetermined order. Furthermore, the positions of layers and filters to be reduced within the model structure may be selected randomly, fixedly, or in a predetermined order. Upon completion of the process in step S631, the process advances to step S632.

ステップS632では、モデル構造設定部304は、エポック数を再設定する。具体的には、エポック数カウンタをゼロ或いは所定値にリセットする。本ステップは、モデル構造変更後に少なくとも所定のエポック数の学習を行うことを目的とした処理であるため、ステップS611で用いられる終了判定用のエポック数を所定数増やしてもよい。ステップS632の処理が終わるとステップS611に進む。 In step S632, the model structure setting unit 304 resets the number of epochs. Specifically, the epoch number counter is reset to zero or a predetermined value. Since this step is a process aimed at performing learning for at least a predetermined number of epochs after changing the model structure, the number of epochs for end determination used in step S611 may be increased by a predetermined number. When the process in step S632 is finished, the process advances to step S611.

ステップS610では、学習部302は、エポック数カウンタをインクリメントし、ステップS611に進む。ステップS611では、学習部302は、所定回数のエポックが終了したか否かを判定し、所定エポックを終了していない場合(S611のNo)は、ステップS603から処理を繰り返し、所定エポック終了の場合(S611のYes)は学習処理を終了する。 In step S610, the learning unit 302 increments the epoch number counter, and proceeds to step S611. In step S611, the learning unit 302 determines whether or not a predetermined number of epochs have ended, and if the predetermined epoch has not ended (No in S611), repeats the process from step S603, and if the predetermined epoch has ended, (Yes in S611) ends the learning process.

以上説明したように、本実施形態によれば、医用画像から診断名を分類する分類器の学習において学習の状態を判定し、学習の状態に基づいて分類器のモデル構造を設定する。これにより、解こうとしている問題に対して、適切なモデル構造を持つ分類器を構築することが可能となる。 As described above, according to the present embodiment, the learning state of a classifier that classifies diagnoses from medical images is determined, and the model structure of the classifier is set based on the learning state. This makes it possible to construct a classifier with an appropriate model structure for the problem being solved.

また、ステップS631のモデル構造を変更する際に、学習中のカーネル値や重みを、それまでに学習した値を引き継ぐことで、引き継いだモデル構造部分に対する初期の学習パラメータの更新が省け、学習処理の効率化も可能となる。 Furthermore, when changing the model structure in step S631, by inheriting the kernel values and weights that have been learned up to that point, it is possible to omit the initial update of learning parameters for the inherited model structure, and the learning process It also becomes possible to improve efficiency.

(実施形態1の変形例1)
実施形態1の分類器301のモデル構造は畳み込み層を中間層として備えるCNNであったが、畳み込み層と次の層との間にドロップアウトと呼ばれる処理を施したモデル構造であってもよい。ドロップアウトとは、学習時に一定の割合でノードの出力をゼロにする処理である。モデル構造設定部304は、過学習の状態を判定した場合にドロップアウトの割合を増加させ、学習不足を判定した場合に減少させてもよい。
(Modification 1 of Embodiment 1)
Although the model structure of the classifier 301 in the first embodiment is a CNN with a convolutional layer as an intermediate layer, it may also have a model structure in which a process called dropout is performed between the convolutional layer and the next layer. Dropout is a process that reduces the output of a node to zero at a fixed rate during learning. The model structure setting unit 304 may increase the dropout rate when determining overfitting, and may decrease the dropout rate when determining underlearning.

また、モデル構造は、既知の残差ネットワーク(Residual Network)のように複数の小さなネットワーク(以降、モジュールと呼ぶ)を組み合わせて大きなネットワークを構成するモデル構造であってもよい。モジュールには既知のResidualモジュールやInceptionモジュールがあるが、これに限られない。モデル構造設定部304は、学習の状態に基づきモジュールの数やモジュール自身の構造を変更してもよい。 Further, the model structure may be a model structure in which a plurality of small networks (hereinafter referred to as modules) are combined to form a large network, such as a known residual network. Modules include known residual modules and inception modules, but are not limited thereto. The model structure setting unit 304 may change the number of modules or the structure of the module itself based on the state of learning.

また、モデル構造は、RBF(Radial Basis Function Kernel)カーネルを用いたSVM(Support Vector Machine)でもよい。モデル構造設定部304は、学習の状態に基づき決定境界の複雑さに関するパラメータ(γと呼ばれる)を変更してもよい。 Further, the model structure may be an SVM (Support Vector Machine) using an RBF (Radial Basis Function Kernel) kernel. The model structure setting unit 304 may change a parameter (referred to as γ) regarding the complexity of the decision boundary based on the state of learning.

(実施形態1の変形例2)
実施形態1は半教師あり学習でもよく、その場合は、層数やフィルタ数の変更に加えて
、ラベルつきデータに対する損失(以降、教師あり損失と呼ぶ)とラベルなしデータに対する損失(以降、教師なし損失と呼ぶ)の学習への寄与割合を変更してもよい。ここで寄与割合とは、教師あり損失と教師なし損失を加算した損失に基づいて学習パラメータを更新する際の、教師あり損失に対する重みである。モデル構造設定部304は、ステップS607で層数やフィルタ数の増減数δが所定の基準より小さくなった場合に、前記寄与割合を設定する。すなわちステップS621では、ラベルつきデータに対する寄与割合を増やし、ステップS631では、寄与割合を減らす。
(Modification 2 of Embodiment 1)
Embodiment 1 may be semi-supervised learning, in which case, in addition to changing the number of layers and filters, loss for labeled data (hereinafter referred to as supervised loss) and loss for unlabeled data (hereinafter referred to as supervised loss) is required. The contribution ratio of the loss (referred to as "no loss") to learning may be changed. Here, the contribution ratio is a weight for the supervised loss when updating the learning parameters based on the loss that is the sum of the supervised loss and the unsupervised loss. The model structure setting unit 304 sets the contribution ratio when the increase/decrease number δ of the number of layers or the number of filters becomes smaller than a predetermined standard in step S607. That is, in step S621, the contribution ratio to the labeled data is increased, and in step S631, the contribution ratio is decreased.

<実施形態2>
実施形態2では、実施形態1と同様に、胸部X線CT画像上の肺結節影に関する診断推論を行うCADシステムである情報処理装置について説明する。
<Embodiment 2>
In Embodiment 2, similarly to Embodiment 1, an information processing apparatus that is a CAD system that performs diagnostic inference regarding pulmonary nodule shadows on chest X-ray CT images will be described.

実施形態1の情報処理装置は過学習や学習不足といった学習状態に基づきモデル構造を設定したが、本実施形態では、それらの学習状態に加えて勾配消失と呼ばれる状態を判定し、モデル構造の設定を行う。 The information processing device in Embodiment 1 sets the model structure based on learning states such as overfitting and underlearning, but in this embodiment, in addition to these learning states, a state called vanishing gradient is determined and the model structure is set. I do.

尚、本実施形態に係る情報処理装置のシステム構成、ハードウェア構成、機能ブロック、医用画像DB 102の構成、モデル構造、学習状態判定方法は実施形態1と同様であるため説明を省略する。 Note that the system configuration, hardware configuration, functional blocks, configuration of the medical image DB 102, model structure, and learning state determination method of the information processing apparatus according to this embodiment are the same as those in Embodiment 1, so explanations thereof will be omitted.

本実施形態で判定する勾配消失とは、学習パラメータを更新する際に算出する損失関数の勾配がゼロに近くなり、学習パラメータが更新されない状態を呼ぶ。勾配消失は層数が増えた場合に発生し易くなる。 The gradient disappearance determined in this embodiment refers to a state in which the gradient of the loss function calculated when updating the learning parameters becomes close to zero, and the learning parameters are not updated. Vanishing gradient becomes more likely to occur when the number of layers increases.

図3の機能ブロックにおいて、学習状態判定部303は、層数を増やすことにより損失関数の勾配がゼロに近い所定値以下になるか否かで勾配消失を判定する。モデル構造設定部304は、学習不足の状態で勾配消失が判定されると、層数以外の複雑さであるフィルタ数を増やすよう動作する。すなわち、勾配消失の評価結果に基づいて、層数に上限が設けられる。 In the functional block of FIG. 3, the learning state determination unit 303 determines gradient disappearance based on whether the gradient of the loss function becomes equal to or less than a predetermined value close to zero by increasing the number of layers. When gradient vanishing is determined in a state of insufficient learning , the model structure setting unit 304 operates to increase the number of filters, which is a complexity other than the number of layers. That is, an upper limit is set on the number of layers based on the evaluation result of gradient vanishing.

図8は、本実施形態の分類器301の学習方法のフロー図である。図8において、実施形態1と同様の処理には同一の番号を付し、説明を省略する。 FIG. 8 is a flow diagram of the learning method of the classifier 301 of this embodiment. In FIG. 8, processes similar to those in Embodiment 1 are given the same numbers, and description thereof will be omitted.

実施形態1で説明したステップS608の処理で学習状態が学習不足である場合(S608のYes)、ステップS801へ進む。 If the learning state is insufficient learning in the process of step S608 described in the first embodiment (Yes in S608), the process advances to step S801.

ステップS801では、学習状態判定部303は、勾配消失の発生有無を判定する。勾配消失が判定された場合は(S801のYes)、ステップS802へ進み、判定されない場合は(S801のNo)、実施形態1で説明したステップS621へ進む。 In step S801, the learning state determining unit 303 determines whether gradient vanishing has occurred. If it is determined that the gradient vanishes (Yes in S801), the process proceeds to step S802, and if it is not determined (No in S801), the process proceeds to step S621 described in the first embodiment.

ステップS802では、モデル構造設定部304は、層数を除くモデルの複雑さを増減数δだけ増やす。具体的には、モデル構造がCNNであれば、フィルタ数を増やす。ステップS802の処理が終わると実施形態1で説明したステップS632に進む。 In step S802, the model structure setting unit 304 increases the complexity of the model excluding the number of layers by the increase/decrease number δ. Specifically, if the model structure is CNN, the number of filters is increased. When the process of step S802 is finished, the process advances to step S632 described in the first embodiment.

以上説明したように、本実施形態によれば、医用画像から診断名を分類する分類器の学習において学習の状態を判定し、学習の状態に基づいて分類器のモデル構造を設定する。また、勾配消失の発生も判定しモデル構造を設定する。従って、解こうとしている問題に対して、適切なモデル構造を持つ分類器を構築することが可能となる。また、学習パラメータが更新されない層を作成しないことでモデル構造の無駄を低減できる。 As described above, according to the present embodiment, the learning state of a classifier that classifies diagnoses from medical images is determined, and the model structure of the classifier is set based on the learning state. It also determines the occurrence of gradient vanishing and sets the model structure. Therefore, it is possible to construct a classifier with an appropriate model structure for the problem to be solved. Furthermore, by not creating layers whose learning parameters are not updated, waste in the model structure can be reduced.

<その他の実施形態>
上記の実施形態では、分類器301は胸部X線CT画像から肺結節影の診断名を分類するものであったが、分類器301は、任意種類の医用画像から任意の疾患の診断名を分類するものであってよい。また、分類器301は、医用画像以外の画像を受け付けて、その分類結果を出力する分類器であっても構わない。また、分類器301への入力は、画像以外の任意のデータ形式の医用データであっても構わない。
<Other embodiments>
In the above embodiment, the classifier 301 classifies the diagnosis name of pulmonary nodule shadow from the chest X-ray CT image, but the classifier 301 classifies the diagnosis name of any disease from any type of medical image. It may be something that does. Further, the classifier 301 may be a classifier that receives images other than medical images and outputs the classification results. Furthermore, the input to the classifier 301 may be medical data in any data format other than images.

情報処理装置101によって学習された分類器301は、どのように用いられてもよい。例えば、情報処理装置101が、分類器301を用いて診断名の分類をおこなってもよい。また、分類器301あるいはその学習済みモデルデータを他の装置にコピーして、当該他の装置において分類をおこなってもよい。 The classifier 301 learned by the information processing device 101 may be used in any way. For example, the information processing apparatus 101 may classify diagnosis names using the classifier 301. Alternatively, the classifier 301 or its learned model data may be copied to another device and the classification may be performed in the other device.

本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。 The present invention provides a system or device with a program that implements one or more of the functions of the embodiments described above via a network or a storage medium, and one or more processors in the computer of the system or device reads and executes the program. This can also be achieved by processing. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101:情報処理装置 301:分類器 302:学習部
303:学習状態判定部 304:モデル構造設定部
101: Information processing device 301: Classifier 302: Learning unit 303: Learning state determination unit 304: Model structure setting unit

Claims (22)

医用データの分類を行う分類器の学習の状態を判定する判定手段と、
前記判定手段により判定した前記状態に基づき、前記分類器の構造を設定する設定手段と、
前記設定手段により設定された前記分類器の構造に基づき、前記分類器の学習を行う学習手段と、
を備え
前記設定手段は、過学習の状態が継続した期間、または、学習不足の状態が継続した期間に基づき、前記構造の設定における変更度合いを設定する、
情報処理装置。
A determining means for determining the learning state of a classifier that classifies medical data;
Setting means for setting the structure of the classifier based on the state determined by the determining means;
learning means for learning the classifier based on the structure of the classifier set by the setting means;
Equipped with
The setting means sets a degree of change in the structure settings based on a period in which the over-learning state continues or a period in which the under-learning state continues.
Information processing device.
医用データの分類を行う分類器の学習の状態を判定する判定手段と、A determining means for determining the learning state of a classifier that classifies medical data;
前記判定手段により判定した前記状態に基づき、前記分類器の構造を設定する設定手段と、Setting means for setting the structure of the classifier based on the state determined by the determining means;
前記設定手段により設定された前記分類器の構造に基づき、前記分類器の学習を行う学習手段と、learning means for learning the classifier based on the structure of the classifier set by the setting means;
を備え、Equipped with
前記設定手段は、過学習の状態から学習不足の状態に変化した場合、または、学習不足の状態から過学習の状態に変化した場合は、前記構造の設定における変更度合いを変更する、The setting means changes the degree of change in the structure setting when a state of overfitting changes to a state of underlearning, or when a state of underlearning changes to a state of overfitting.
情報処理装置。Information processing device.
前記判定手段が判定する前記状態は、過学習、学習不足、および適正学習、の少なくともいずれかを含む、
請求項1または2に記載の情報処理装置。
The state determined by the determination means includes at least one of overlearning, insufficient learning, and appropriate learning.
The information processing device according to claim 1 or 2 .
前記設定手段が設定する前記構造は、前記分類器の複雑さに関する構造である、
請求項1から3のいずれか1項に記載の情報処理装置。
The structure set by the setting means is a structure related to the complexity of the classifier,
The information processing device according to any one of claims 1 to 3 .
前記設定手段は、前記状態が過学習の場合は前記複雑さを減少するよう前記構造を設定
する、
請求項に記載の情報処理装置。
The setting means sets the structure to reduce the complexity when the state is overfitted.
The information processing device according to claim 4 .
前記設定手段は、前記状態が学習不足の場合は前記複雑さを増加するよう前記構造を設定する、
請求項またはに記載の情報処理装置。
The setting means sets the structure to increase the complexity when the state is insufficient learning.
The information processing device according to claim 4 or 5 .
前記分類器は深層学習に基づく分類器であり、
前記設定手段が設定する前記複雑さは、前記分類器の中間層の層数またはノード数である、
請求項からのいずれか1項に記載の情報処理装置。
The classifier is a classifier based on deep learning,
The complexity set by the setting means is the number of layers or nodes of the intermediate layer of the classifier,
The information processing device according to any one of claims 4 to 6 .
前記分類器は深層学習に基づく分類器であり、
前記設定手段が設定する前記複雑さは、前記分類器の畳み込み層の層数または畳み込みフィルタのフィルタ数である、
請求項からのいずれか1項に記載の情報処理装置。
The classifier is a classifier based on deep learning,
The complexity set by the setting means is the number of convolution layers or the number of filters of the convolution filter of the classifier;
The information processing device according to any one of claims 4 to 7 .
前記設定手段は、中間層または畳み込み層の層数と、ノード数またはフィルタ数とのいずれを設定するかをランダムに選択する、
請求項またはに記載の情報処理装置。
The setting means randomly selects which of the number of intermediate layers or convolutional layers, the number of nodes, or the number of filters to be set.
The information processing device according to claim 7 or 8 .
前記設定手段は、中間層または畳み込み層の層数と、フィルタ数とのいずれを設定するかを、所定の順序で選択する、
請求項またはに記載の情報処理装置。
The setting means selects in a predetermined order which of the number of intermediate layers or convolutional layers and the number of filters to set.
The information processing device according to claim 7 or 8 .
前記判定手段は、前記分類器の状態として、勾配消失の発生を判定し、
前記設定手段は、前記分類器において勾配消失が発生している場合は、学習不足であっても、前記層数を増加させない、
請求項から10のいずれか1項に記載の情報処理装置。
The determining means determines the occurrence of vanishing gradient as a state of the classifier,
The setting means does not increase the number of layers even if learning is insufficient if gradient vanishing occurs in the classifier.
The information processing device according to any one of claims 7 to 10 .
前記設定手段は、前記状態が適正学習の場合は前記構造を変更しない、
請求項から11のいずれか1項に記載の情報処理装置。
The setting means does not change the structure when the state is appropriate learning.
The information processing device according to any one of claims 4 to 11 .
前記設定手段は、過学習の状態が継続した期間、または、学習不足の状態が継続した期間が長いほど、前記構造の設定における変更度合いを大きくする、
請求項1から12のいずれか1項に記載の情報処理装置。
The setting means increases the degree of change in the structure settings the longer the overlearning state continues, or the longer the underlearning state continues.
The information processing device according to any one of claims 1 to 12 .
前記設定手段は、過学習の状態から学習不足の状態に変化した場合、または、学習不足の状態から過学習の状態に変化した場合は、前記構造の設定における変更度合いを、直近の設定における変更度合いよりも小さくする、
請求項1から13のいずれか1項に記載の情報処理装置。
When the state of overfitting changes to the state of underlearning, or when the state of underlearning changes to the state of overfitting, the setting means changes the degree of change in the structure settings to the change in the most recent settings. make it smaller than the degree,
The information processing device according to any one of claims 1 to 13 .
前記学習手段は、前記状態が過学習であればドロップアウトの割合を増加させ、前記状態が学習不足であればドロップアウトの割合を減少させて、前記分類器の学習を行う、
請求項1から14のいずれか1項に記載の情報処理装置。
The learning means performs learning of the classifier by increasing the dropout rate if the state is over-trained and decreasing the dropout rate if the state is under-trained.
The information processing device according to any one of claims 1 to 14 .
前記学習手段は、半教師あり学習により前記分類器の学習を行うものであり、
前記設定手段は、前記状態の変化に基づいて前記分類器の構造を設定する際の変更度合いを決定し、
前記学習手段は、前記変更度合いが所定の基準より小さい場合には、前記状態が過学習
であればラベルつきデータに対する損失の学習への寄与割合を減少させ、前記状態が学習不足であればラベルつきデータに対する損失の学習への寄与割合を増加させる、
請求項1から15のいずれか1項に記載の情報処理装置。
The learning means performs learning of the classifier by semi-supervised learning,
The setting means determines the degree of change when setting the structure of the classifier based on the change in the state,
If the degree of change is smaller than a predetermined standard, the learning means reduces the contribution ratio of loss to labeled data to learning if the state is overfitted, and reduces the contribution ratio of loss to learning if the state is undertrained. Increasing the contribution ratio of loss to learning for data with
The information processing device according to any one of claims 1 to 15 .
前記学習手段は、前記設定手段により前記分類器の構造を設定した後、それまでに学習した前記分類器のパラメータの値を引き継いで前記分類器の学習を行う、
請求項1から16のいずれか1項に記載の情報処理装置。
The learning means sets the structure of the classifier by the setting means, and then performs learning of the classifier by taking over the values of the parameters of the classifier that have been learned up to that point.
The information processing device according to any one of claims 1 to 16 .
前記学習手段は、前記設定手段による前記分類器の構造の設定した後、少なくとも所定のエポック数の学習を行う、
請求項1から17のいずれか1項に記載の情報処理装置。
The learning means performs learning for at least a predetermined number of epochs after the configuration of the classifier is set by the setting means.
The information processing device according to any one of claims 1 to 17 .
コンピュータが行う、医用データの分類を行う分類器を学習する学習方法であって、
前記分類器の学習の状態を判定する判定ステップと、
前記判定ステップにおいて判定した前記状態に基づき、前記分類器の構造を設定する設定ステップと、
前記設定ステップにおいて設定された前記構造に基づき、教師データを用いて前記分類器の学習を行う学習ステップと、
を含み、
前記設定ステップでは、過学習の状態が継続した期間、または、学習不足の状態が継続した期間に基づき、前記構造の設定における変更度合いを設定する、
学習方法。
A learning method performed by a computer to learn a classifier for classifying medical data, the method comprising:
a determination step of determining the learning state of the classifier;
a setting step of setting a structure of the classifier based on the state determined in the determining step;
a learning step of learning the classifier using teacher data based on the structure set in the setting step;
including;
In the setting step, a degree of change in the structure settings is set based on a period during which the over-learning state continued or a period during which the under-learning state continued.
How to learn.
コンピュータが行う、医用データの分類を行う分類器を学習する学習方法であって、A learning method performed by a computer to learn a classifier for classifying medical data, the method comprising:
前記分類器の学習の状態を判定する判定ステップと、a determination step of determining the learning state of the classifier;
前記判定ステップにおいて判定した前記状態に基づき、前記分類器の構造を設定する設定ステップと、a setting step of setting a structure of the classifier based on the state determined in the determining step;
前記設定ステップにおいて設定された前記構造に基づき、教師データを用いて前記分類器の学習を行う学習ステップと、a learning step of learning the classifier using teacher data based on the structure set in the setting step;
を含み、including;
前記設定ステップでは、過学習の状態から学習不足の状態に変化した場合、または、学習不足の状態から過学習の状態に変化した場合は、前記構造の設定における変更度合いを変更する、In the setting step, when the state of overfitting changes to the state of underlearning, or when the state of underlearning changes to the state of overfitting, the degree of change in the setting of the structure is changed,
学習方法。How to learn.
コンピュータを、請求項1から18のいずれか1項に記載の情報処理装置の各手段として機能させるためのプログラム。 A program for causing a computer to function as each means of the information processing apparatus according to claim 1. コンピュータに、請求項19または20に記載の学習方法の各ステップを実行させるためのプログラム。 A program for causing a computer to execute each step of the learning method according to claim 19 or 20 .
JP2019167149A 2019-09-13 2019-09-13 Information processing equipment, learning methods and programs Active JP7408325B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019167149A JP7408325B2 (en) 2019-09-13 2019-09-13 Information processing equipment, learning methods and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019167149A JP7408325B2 (en) 2019-09-13 2019-09-13 Information processing equipment, learning methods and programs

Publications (2)

Publication Number Publication Date
JP2021043862A JP2021043862A (en) 2021-03-18
JP7408325B2 true JP7408325B2 (en) 2024-01-05

Family

ID=74862367

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019167149A Active JP7408325B2 (en) 2019-09-13 2019-09-13 Information processing equipment, learning methods and programs

Country Status (1)

Country Link
JP (1) JP7408325B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175636A (en) 1999-12-15 2001-06-29 Kddi Corp Method and device for optimizing number of multi- layered neural network units
JP2018010626A (en) 2016-06-30 2018-01-18 キヤノン株式会社 Information processing equipment, information processing method
WO2018116851A1 (en) 2016-12-21 2018-06-28 株式会社ニコン Information processing device, image processing device, microscope, information processing method, and information processing program
WO2018140596A2 (en) 2017-01-27 2018-08-02 Arterys Inc. Automated segmentation utilizing fully convolutional networks
JP2019067078A (en) 2017-09-29 2019-04-25 国立大学法人 筑波大学 Image processing method and image processing program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018066237A1 (en) * 2016-10-07 2018-04-12 日本電気株式会社 Model estimation device, model estimation method, and model estimation program
JP6897266B2 (en) * 2017-04-17 2021-06-30 富士通株式会社 Learning programs, learning methods and learning devices
JP7107797B2 (en) * 2018-01-29 2022-07-27 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ Information processing method and information processing system

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001175636A (en) 1999-12-15 2001-06-29 Kddi Corp Method and device for optimizing number of multi- layered neural network units
JP2018010626A (en) 2016-06-30 2018-01-18 キヤノン株式会社 Information processing equipment, information processing method
WO2018116851A1 (en) 2016-12-21 2018-06-28 株式会社ニコン Information processing device, image processing device, microscope, information processing method, and information processing program
WO2018140596A2 (en) 2017-01-27 2018-08-02 Arterys Inc. Automated segmentation utilizing fully convolutional networks
JP2019067078A (en) 2017-09-29 2019-04-25 国立大学法人 筑波大学 Image processing method and image processing program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
佐々木 駿也 ほか1名,動的多層化ニューラルネットワーク,電子情報通信学会論文誌D [online],日本,電子情報通信学会,2019年03月01日,第J102-D巻, 第3号,第226頁-第234頁

Also Published As

Publication number Publication date
JP2021043862A (en) 2021-03-18

Similar Documents

Publication Publication Date Title
Nichols et al. Machine learning: applications of artificial intelligence to imaging and diagnosis
WO2020224403A1 (en) Classification task model training method, apparatus and device and storage medium
CN111126574B (en) Method, device and storage medium for training machine learning model based on endoscopic image
Ahmad et al. Intelligent medical disease diagnosis using improved hybrid genetic algorithm-multilayer perceptron network
Tan et al. Phased searching with NEAT in a time-scaled framework: experiments on a computer-aided detection system for lung nodules
Zemouri et al. A new growing pruning deep learning neural network algorithm (GP-DLNN)
US11468290B2 (en) Information processing apparatus, information processing method, and non-transitory computer-readable storage medium
Ishibuchi et al. Repeated double cross-validation for choosing a single solution in evolutionary multi-objective fuzzy classifier design
JP2021056995A (en) Medical information processing apparatus, medical information processing system, and medical information processing method
KR102460257B1 (en) Method or apparatus for providing diagnostic results
Zhao et al. Diagnose like a radiologist: Hybrid neuro-probabilistic reasoning for attribute-based medical image diagnosis
US11830187B2 (en) Automatic condition diagnosis using a segmentation-guided framework
Seo et al. Closing the gap between deep neural network modeling and biomedical decision-making metrics in segmentation via adaptive loss functions
JP7408325B2 (en) Information processing equipment, learning methods and programs
Oyen et al. Transfer learning for Bayesian discovery of multiple Bayesian networks
Sovatzidi et al. IF3: An Interpretable Feature Fusion Framework for Lesion Risk Assessment Based on Auto-constructed Fuzzy Cognitive Maps
Sovatzidi et al. Automatic fuzzy graph construction for interpretable image classification
Sharifnia et al. Instance-based cost-sensitive boosting
KR102554181B1 (en) Bone age assessment method for bone image
JP7301653B2 (en) Information processing device, information processing method and program
KR20230092371A (en) Apparatus and method for artificial intelligence neural network based on co-evolving neural ordinary differential equations
US20210248458A1 (en) Active learning for attribute graphs
Nemati et al. Solving initial and boundary value problems using learning automata particle swarm optimization
JP6690713B2 (en) Inference system, information processing system, inference method, and program
JP7325942B2 (en) Image processing device and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220816

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230630

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231121

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231220

R151 Written notification of patent or utility model registration

Ref document number: 7408325

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151