JP7252035B2 - disease estimation system - Google Patents

disease estimation system Download PDF

Info

Publication number
JP7252035B2
JP7252035B2 JP2019064275A JP2019064275A JP7252035B2 JP 7252035 B2 JP7252035 B2 JP 7252035B2 JP 2019064275 A JP2019064275 A JP 2019064275A JP 2019064275 A JP2019064275 A JP 2019064275A JP 7252035 B2 JP7252035 B2 JP 7252035B2
Authority
JP
Japan
Prior art keywords
data
disease
approximator
input
estimation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019064275A
Other languages
Japanese (ja)
Other versions
JP2020166378A (en
Inventor
弘章 吉川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2019064275A priority Critical patent/JP7252035B2/en
Publication of JP2020166378A publication Critical patent/JP2020166378A/en
Priority to JP2023047218A priority patent/JP7454724B2/en
Application granted granted Critical
Publication of JP7252035B2 publication Critical patent/JP7252035B2/en
Priority to JP2024037350A priority patent/JP2024053118A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本開示は、疾患推定システムに関する。 The present disclosure relates to disease estimation systems.

従来、ニューラルネットワークを含む診断支援装置が知られている(特許文献1)。 Conventionally, a diagnosis support device including a neural network is known (Patent Document 1).

特開2008-36068号公報JP-A-2008-36068

このような診断支援装置では、信頼性を向上させることが求められている。 Such diagnostic support devices are required to have improved reliability.

本発明の一実施形態に係る疾患推定システムは、画像から疾患を推定可能なシステムである。疾患推定システムは、入力部と近似器とを備えている。入力部は、入力データを入力可能なものである。近似器は、入力データと同種のデータを含む学習用データと、前記学習用データに関連した診断結果を含む教師用データとによって学習処理されているものである。そして、近似器は、前記入力部に入力された前記入力データから推定した前記疾患の推定結果と、前記推定結果に類似する参考データを検索するとともに、その検索結果を出力することができる。 A disease estimation system according to one embodiment of the present invention is a system capable of estimating a disease from an image. A disease estimation system comprises an input and an approximator. The input unit is capable of inputting input data. The approximator is subjected to learning processing using learning data including data of the same type as the input data and teacher data including diagnostic results related to the learning data. The approximator can retrieve the disease estimation result estimated from the input data input to the input unit and reference data similar to the estimation result, and output the retrieval result.

推定結果の信頼性を使用者が確認することができる。よって、推定結果の信頼性を向上させることができる。 The user can confirm the reliability of the estimation result. Therefore, it is possible to improve the reliability of the estimation result.

疾患予測システムの構成の一例を示す図である。It is a figure which shows an example of a structure of a disease prediction system. 疾患予測システムの一部の構成の一例を示す図である。It is a figure which shows an example of a structure of one part of a disease prediction system. 疾患予測システムの一部の構成の一例を示す図である。It is a figure which shows an example of a structure of one part of a disease prediction system. 疾患予測システムの一部の構成の一例を示す図である。It is a figure which shows an example of a structure of one part of a disease prediction system. 疾患予測システムの一部の構成の一例を示す図である。It is a figure which shows an example of a structure of one part of a disease prediction system. 疾患予測システムの一部の動作の一例を示す図である。FIG. 10 illustrates an example of the operation of part of the disease prediction system; 疾患予測システムの一部の動作の一例を示す図である。FIG. 10 illustrates an example of the operation of part of the disease prediction system;

本開示の疾患推定システム1は、入力データIからAI(Artificial Intelligence)
を用いて疾患を推定することができる。入力データIは、例えば画像データであればよい。本発明によって推定される疾患は、医師が画像データに基づいて診断可能な疾患であればよい。例えば、子宮頸がん、皮膚疾患、であればよい。
The disease estimation system 1 of the present disclosure uses input data I to AI (Artificial Intelligence)
can be used to estimate disease. The input data I may be image data, for example. A disease estimated by the present invention may be a disease that can be diagnosed by a doctor based on image data. For example, cervical cancer, skin disease, and so on.

図1に、本開示の疾患推定システム1の構成を概念的に示す。 FIG. 1 conceptually shows the configuration of a disease estimation system 1 of the present disclosure.

本開示の疾患推定システム1は、端末装置2と、推定装置3と、を有している。端末装置2は、疾患の診断に使用される患者の入力データIを取得するものである。推定装置3は、端末装置2で取得されたデータに基づき、疾患の種類や部位を推定することができる。 A disease estimation system 1 of the present disclosure has a terminal device 2 and an estimation device 3 . The terminal device 2 acquires patient input data I used for disease diagnosis. The estimating device 3 can estimate the type and site of disease based on the data acquired by the terminal device 2 .

端末装置2は、画像データを取得することができる。端末装置2で取得された入力データIは、推定装置3に入力される。端末装置2は、子宮頸がんの場合は、例えばコルポスコピー画像を撮影可能な装置であればよい。また皮膚疾患の場合は、ダーモスコピー画像を撮影可能な装置であればよい。入力データIは、例えば、子宮頸がんの場合は、コルポスコピー画像であり、皮膚疾患という疾患の場合は、ダーモスコピー画像であればよい。 The terminal device 2 can acquire image data. Input data I acquired by the terminal device 2 is input to the estimation device 3 . In the case of cervical cancer, the terminal device 2 may be a device capable of taking colposcopy images, for example. In the case of skin diseases, any device capable of taking a dermoscopy image may be used. The input data I may be, for example, a colposcopy image in the case of cervical cancer, and a dermoscopy image in the case of a skin disease.

端末装置2は、通信部21を有しており、入力データIを取得した後に、推定装置3に入力データIを転送してもよい。 The terminal device 2 has a communication unit 21 and may transfer the input data I to the estimation device 3 after acquiring the input data I.

なお、端末装置2は、入力データIを推定装置3に直接転送しなくてもよい。この場合、例えば端末装置2で取得された入力データIが、記憶媒体に記憶されて、記憶媒体を介して、推定装置3に入力データIが入力されてもよい。 Note that the terminal device 2 does not have to transfer the input data I directly to the estimation device 3 . In this case, for example, the input data I acquired by the terminal device 2 may be stored in a storage medium, and the input data I may be input to the estimation device 3 via the storage medium.

図2に、本実施形態に係る推定装置3の構成を概念的に示す。 FIG. 2 conceptually shows the configuration of the estimation device 3 according to this embodiment.

推定装置3は、推定装置3に入力される入力データIから、患者の疾患を推定することができる。例えば、疾患推定システム1が子宮頸がんを推定する場合、推定装置3は、端末装置2で取得した入力データIから患者の子宮頸がんの種類や病変部位を推定し、推定した推定結果Oを出力することができる。 The estimating device 3 can estimate the patient's disease from the input data I input to the estimating device 3 . For example, when the disease estimation system 1 estimates cervical cancer, the estimation device 3 estimates the patient's cervical cancer type and lesion site from the input data I acquired by the terminal device 2, and estimates the estimated result O can be output.

推定装置3は、入力部31と、近似器32と、出力部33と、を有している。入力部31は、端末装置2から入力データIが入力されるものである。近似器32は、入力データIから所定の演算を行い、疾患の分類や病変部位を推定することができる。出力部33は、近似器32の推定した推定結果Oを出力することができる。 The estimation device 3 has an input unit 31 , an approximator 32 and an output unit 33 . The input unit 31 receives input data I from the terminal device 2 . The approximator 32 can perform predetermined calculations from the input data I to classify the disease and estimate the lesion site. The output unit 33 can output the estimation result O estimated by the approximator 32 .

入力部31は、上記の通り、入力データIが入力される。本開示の入力部31は、ネットワークを介して端末装置2の通信21と接続可能な通信装置であればよい。また入力部31は、記憶媒体を介して入力データIを受信可能な、例えばUSBポートなどのポートであってもよい。また、入力部31は、入力データIの他の情報を入力可能な入力装置を備えていてもよい。入力装置は、例えば、キーボード、タッチパネル、マウスまたはUSBポートなどであればよい。 The input data I is input to the input unit 31 as described above. The input unit 31 of the present disclosure may be any communication device that can be connected to the communication 21 of the terminal device 2 via a network. Also, the input unit 31 may be a port such as a USB port capable of receiving the input data I via a storage medium. Also, the input unit 31 may include an input device capable of inputting information other than the input data I. FIG. The input device may be, for example, a keyboard, touch panel, mouse, USB port, or the like.

近似器32は、入力部31に入力された入力データIから患者の疾患を予測することができる。近似器32は、いわゆるAI(Artificial Intelligence)である。具体的には
、近似器32は、AIとして機能するための複数の電子部品、回路で構成されるハードウェアを有している。
The approximator 32 can predict the patient's disease from the input data I input to the input unit 31 . The approximator 32 is a so-called AI (Artificial Intelligence). Specifically, the approximator 32 has hardware composed of a plurality of electronic components and circuits for functioning as AI.

上記の通り、近似器32は、複数の電子部品および回路を有している。言い換えれば
近似器32の一部は、複数の電子部品および回路によって構成されている。複数の電子部品は、例えば、トランジスタまたはダイオードなどの能動素子、あるいはコンデンサなどの受動素子であればよく、従来周知の方法によって、形成されていればよい。
As noted above, approximator 32 includes a number of electronic components and circuits. In other words, part of the approximator 32 is composed of a plurality of electronic components and circuits. The plurality of electronic components may be, for example, active elements such as transistors or diodes, or passive elements such as capacitors, and may be formed by conventionally known methods.

また、学習処理された近似器32は、疾患の推定時に、既に学習処理された学習済みモデルに従って、演算を行なう。すなわち、疾患推定システム1は、近似器32を通じて、教師用データを用いて、近似器32の演算時に必要なパラメータ等を予め獲得している。その結果、近似器32は、入力データIから推定結果Oを算出することができる。なお、学習用データまたは教師用データは、推定装置3に入力する入力データIと、推定装置3から出力する推定結果Oに対応したデータであればよい。 In addition, the learned approximator 32 performs calculations according to the learned model that has already undergone learning processing when estimating a disease. That is, the disease estimating system 1 acquires in advance the parameters and the like necessary for the calculation of the approximator 32 through the approximator 32 using the teacher data. As a result, the approximator 32 can calculate the estimation result O from the input data I. The learning data or teacher data may be data corresponding to the input data I to be input to the estimating device 3 and the estimation result O to be output from the estimating device 3 .

図3は、本開示の近似器32で行う処理を概念的に示す。 FIG. 3 conceptually illustrates the processing performed by the approximator 32 of the present disclosure.

本実施形態に係る近似器32は、例えば、CNNである。近似器32は、機能部として、入力層3aと、隠れ層3bと、出力層3cとを備えている。隠れ層3bは、例えば、中間層とも呼ばれる。入力層3a、隠れ層3bおよび出力層3cのそれぞれは、複数のノード3dと複数のノード3d同士を結んだ複数のエッジ3eを有しており、全体として、いわゆるニューラルネットワークを形成している。それぞれの機能部は、上記の通り、近似器32が有する複数の電子部品、回路などによって実現することができる。 The approximator 32 according to this embodiment is, for example, a CNN. The approximator 32 includes an input layer 3a, a hidden layer 3b, and an output layer 3c as functional units. The hidden layer 3b is also called an intermediate layer, for example. Each of the input layer 3a, the hidden layer 3b, and the output layer 3c has a plurality of nodes 3d and a plurality of edges 3e connecting the nodes 3d, forming a so-called neural network as a whole. Each functional unit can be implemented by a plurality of electronic components, circuits, etc. included in the approximator 32, as described above.

なお、近似器32は、学習済みモデルを適用されることによって、複数のノード3dと複数のエッジ3eとの接続関係などが、疾患推定のために最適化されることになる。即ち、学習処理された近似器32は、疾患推定のために適したパラメータを用いて演算を実行することができる。 By applying the trained model to the approximator 32, the connection relationships between the plurality of nodes 3d and the plurality of edges 3e are optimized for disease estimation. That is, the trained approximator 32 can perform operations using parameters suitable for disease estimation.

入力層3aは、入力データIを入力する層である。入力層3aの各ノード3dには、入力データIを構成するデータが入力される。例えば、入力データIが画像データの場合、画像データのピクセル毎の色または濃淡を示す数値が、各ノード3dに入力される。 The input layer 3a is a layer to which input data I is input. Data constituting the input data I is input to each node 3d of the input layer 3a. For example, when the input data I is image data, a numerical value indicating the color or shade of each pixel of the image data is input to each node 3d.

図4、5に、本開示の隠れ層3bの一部の構成を概念的に示す。 4 and 5 conceptually illustrate the configuration of part of the hidden layer 3b of the present disclosure.

隠れ層3bは、入力層3aに入力された画像データの情報に基づいて、演算を行なうことができる。隠れ層3bは、畳み込み層3b1と、プーリング層3b2と、全結合層3b3とを有している。隠れ層3bは、畳み込み層3b1およびプーリング層3b2と、全結合層3b3によって、入力層3aに入力されたデータから特徴を抽出することができる。 The hidden layer 3b can perform operations based on the information of the image data input to the input layer 3a. The hidden layer 3b has a convolutional layer 3b1, a pooling layer 3b2, and a fully connected layer 3b3. The hidden layer 3b can extract features from the data input to the input layer 3a by the convolutional layer 3b1, the pooling layer 3b2, and the fully connected layer 3b3.

畳み込み層3b1は、直前の層の各ノード3dに入力されたデータをフィルタリングすることによって、いわゆるデータを畳み込むことができる。言い換えれば、入力データIの特徴を維持しつつデータを縮小化することができる。具体的には、直前の層の各ノード3dに入力されている数値に、学習処理で得られたフィルタ係数に基づいて演算を行ない、特徴量を維持しつつデータを縮小することができる。なお、複数の畳み込み層3b1のそれぞれは、それぞれのフィルタ係数に基づいて演算処理を行なう。 The convolution layer 3b1 can convolve so-called data by filtering the data input to each node 3d of the immediately preceding layer. In other words, the data can be reduced while maintaining the characteristics of the input data I. Specifically, the numerical value input to each node 3d of the previous layer can be calculated based on the filter coefficients obtained in the learning process, and the data can be reduced while maintaining the feature amount. Note that each of the plurality of convolution layers 3b1 performs arithmetic processing based on the respective filter coefficients.

プーリング層3b2は、畳み込み層3b1の後に位置している。プーリング層3b2は、直前の畳み込み層3b1で計算された各ノード3dの数値に基づいて、畳み込み層3b1のデータの特徴を維持しつつ、データを低次元化することができる。例えば、プーリング層3b2は、直前の畳み込み層3b1の各ノード3dの数値のうち、任意の範囲内で最も大きい値を抽出すればよい。 The pooling layer 3b2 is positioned after the convolutional layer 3b1. The pooling layer 3b2 can reduce the dimensionality of the data while maintaining the characteristics of the data of the convolutional layer 3b1 based on the numerical value of each node 3d calculated in the immediately preceding convolutional layer 3b1. For example, the pooling layer 3b2 may extract the largest value within an arbitrary range from the numerical values of the nodes 3d of the immediately preceding convolutional layer 3b1.

1つの畳み込み層3b1と1つのプーリング層3b2は1つのセットを構成している。また、隠れ層3bが、複数の畳み込み層3b1と複数のプーリング層3b2を有していてもよい。この場合、複数の畳み込み層3b1と複数のプーリング層3b2とは交互に配置されて、隠れ層3bの中に畳み込み層3b1とプーリング層3b2との複数のセットが構成されることになり、その結果、入力データIの特徴を徐々に絞り込んでいくことができる。なお、複数の畳み込み層3b1および複数のプーリング層3b2の数は、必要な精度で近似器32が機能するような数であればよい。 One convolutional layer 3b1 and one pooling layer 3b2 constitute one set. Also, the hidden layer 3b may have a plurality of convolution layers 3b1 and a plurality of pooling layers 3b2. In this case, the plurality of convolutional layers 3b1 and the plurality of pooling layers 3b2 are alternately arranged to form a plurality of sets of the convolutional layers 3b1 and the pooling layers 3b2 in the hidden layer 3b. , the features of the input data I can be narrowed down gradually. The number of the plurality of convolutional layers 3b1 and the plurality of pooling layers 3b2 may be any number that allows the approximator 32 to function with required accuracy.

全結合層3b3は、直前のプーリング層3b2の各ノード3dに入力されたデータから、入力データIの特徴を抽出することができる。具体的には、直前の層の各ノード3dに入力されている数値に、学習処理で得られた重み付け係数に基づいて演算を行ない、特徴量を抽出することができる。 The fully connected layer 3b3 can extract the features of the input data I from the data input to each node 3d of the immediately preceding pooling layer 3b2. Specifically, it is possible to perform calculations on the numerical values input to each node 3d of the previous layer based on the weighting coefficients obtained in the learning process, and to extract feature amounts.

出力層3cは、全結合層3b3で計算した各ノード3dの数値に基づいて、推定結果Oを出力することができる。具体的には、全結合層3b3の各ノード3dの数値パターンに基づいて、例えば、疾患の可能性がどの程度か、出力することができる。 The output layer 3c can output the estimation result O based on the numerical value of each node 3d calculated by the fully connected layer 3b3. Specifically, based on the numerical pattern of each node 3d of the fully connected layer 3b3, for example, the degree of possibility of disease can be output.

出力部33は、出力層3cで推定した推定結果Oを表示することができる。出力部33は、例えば、液晶表示ディスプレイあるいは有機ELディスプレイである。出力部33は、文字、記号、図形などの各種情報を表示することが可能である。出力部33は、例えば、数字または画像などを表示することができる。 The output unit 33 can display the estimation result O estimated in the output layer 3c. The output unit 33 is, for example, a liquid crystal display or an organic EL display. The output unit 33 can display various information such as characters, symbols, and graphics. The output unit 33 can display numbers or images, for example.

なお、推定結果Oは、例えば、文字列として出力される。 Note that the estimation result O is output as, for example, a character string.

推定装置3は、制御部34をさらに有している。制御部34は、推定装置3の他の構成要素を制御することによって、推定装置3の動作を統括的に管理することができる。すなわち、制御部34は、近似器32の演算などを制御することができる。制御部34は、複数の電子部品および回路を有しており、例えば、CPU(Central Processing Unit)な
どを構成している。複数の電子部品は、例えば、トランジスタまたはダイオードなどの能動素子、あるいはコンデンサなどの受動素子であればよく、従来周知の方法によって、形成されていればよい。
The estimation device 3 further has a control unit 34 . The control unit 34 can centrally manage the operation of the estimating device 3 by controlling other components of the estimating device 3 . That is, the control unit 34 can control the calculation of the approximator 32 and the like. The control unit 34 has a plurality of electronic components and circuits, and constitutes, for example, a CPU (Central Processing Unit). The plurality of electronic components may be, for example, active elements such as transistors or diodes, or passive elements such as capacitors, and may be formed by conventionally known methods.

また、推定装置3は、記憶部35をさらに有している。記憶部35は、推定装置3の制御のためのプログラムなどを記憶することができる。記憶部35は、例えば、ROM(Read-Only Memory)やHDD(Hard-Disc-Drive)などであればよい。なお、入力データI、学習用データに対する近似器の演算結果、教師用データおよび学習済みモデル(学習済みパラメータ)なども記憶部35に記憶されてもよい。 In addition, the estimation device 3 further has a storage unit 35 . The storage unit 35 can store programs and the like for controlling the estimation device 3 . The storage unit 35 may be, for example, ROM (Read-Only Memory) or HDD (Hard-Disc-Drive). Note that the storage unit 35 may also store the input data I, the calculation result of the approximator for the learning data, the teacher data, the learned model (learned parameters), and the like.

<入力データ、学習用データおよび教師用データの一例>
入力データIは、前記疾患の診断に使用される、例えば患者の画像データなどのデータであればよい。入力データIは、例えばコルポスコピー画像であればよい。コルポスコピー画像からは、例えば、子宮頸がんの分類が推定可能である。また、入力データIが、例えばダーモスコピー画像であれば、皮膚疾患を推定可能である。
<Examples of input data, learning data, and teacher data>
The input data I may be data such as patient image data used for diagnosis of the disease. The input data I may be colposcopy images, for example. From colposcopy images, for example, the classification of cervical cancer can be deduced. Also, if the input data I is, for example, a dermoscopy image, a skin disease can be estimated.

また、入力データIは、診断対象の部位が撮影されている。例えば、子宮頸がんの疾患を推定したい場合は、入力データIは子宮頸部が撮影されたものであればよい。また、皮膚疾患を推定した場合は、病変部位を含む皮膚が撮影されていればよい。 In the input data I, the part to be diagnosed is photographed. For example, when estimating cervical cancer disease, the input data I may be the image of the cervix. Moreover, when estimating a skin disease, it is sufficient that the skin including the lesion site is imaged.

学習用データは、第1入力データI1と同種のデータを有している。例えば、入力データI1がコルポスコピー画像であれば、学習用データもコルポスコピー画像を有していればよい。 The learning data has the same kind of data as the first input data I1. For example, if the input data I1 is a colposcopy image, the learning data may also have a colposcopy image.

教師用データは、学習用データに対応した疾患の診断結果を有している。例えば子宮頸がんを推定する場合には、教師用データは、複数の学習用画像データのそれぞれに対応した、診断結果である。診断結果は、学習用画像データが撮影された時期とほぼ同じ時期に評価されていればよい。 The teacher data has diagnosis results of diseases corresponding to the learning data. For example, when estimating cervical cancer, the teacher data are diagnosis results corresponding to each of a plurality of learning image data. It is sufficient that the diagnosis result is evaluated at approximately the same time as when the learning image data was captured.

教師用データは、例えば子宮頸がんの場合には、医師の診断結果であればよい。 For example, in the case of cervical cancer, the teacher data may be a doctor's diagnosis result.

<ニューラルネットワークの学習例>
近似器32は、入力データIから推定結果Oを算出可能なように、学習用データと教師用データを用いた機械学習によって最適化される。すなわち、学習処理前の近似器32は
、未学習の数学モデルに基づいて学習用データから疑似推定結果を算出し、疑似推定結果と教師用データとの差が小さくなるように、近似器32内のパラメータを調整することによって、機械学習される。その結果、近似器32は、入力データIに対して学習済みモデルに基づく演算を行なって推定結果Oを出力することができる。
<Neural network learning example>
The approximator 32 is optimized by machine learning using learning data and teacher data so that the estimation result O can be calculated from the input data I. That is, the approximator 32 before the learning process calculates a pseudo estimation result from the learning data based on the unlearned mathematical model, and adjusts the difference between the pseudo estimation result and the teacher data. is machine-learned by adjusting the parameters of As a result, the approximator 32 can perform calculations on the input data I based on the learned model and output the estimation result O. FIG.

パラメータの調整方法としては、例えば、誤差逆伝播法が採用される。パラメータには、例えば、複数の畳み込み層3b1で行なう演算に適用されるフィルタ係数や、全結合層3b3で行なう演算に適用される重み付け係数などであればよい。 As a parameter adjustment method, for example, an error backpropagation method is adopted. The parameters may be, for example, filter coefficients applied to calculations performed in a plurality of convolution layers 3b1, weighting coefficients applied to calculations performed in fully connected layer 3b3, and the like.

図6に、本実施形態に係る近似器32の演算順序を示す。 FIG. 6 shows the operation order of the approximator 32 according to this embodiment.

疾患推定システム1では、入力データIに基づいて近似器32で演算を行なうとこによって、疾患を推定することができる。また、本発明に係る疾患推定システム1では、近似器32が、推定した疾患の推定結果Oと推定結果Oに類似する参考データRを、推定結果Oの根拠として検索し、その検索結果を出力することができる。 In the disease estimating system 1, the disease can be estimated by performing calculations in the approximator 32 based on the input data I. FIG. Further, in the disease estimation system 1 according to the present invention, the approximator 32 searches for the estimation result O of the estimated disease and the reference data R similar to the estimation result O as the basis of the estimation result O, and outputs the search result. can do.

ここで、例えば、従来の診断支援装置では、ニューラルネットワークを用いて疾患の判定を支援しているが、単にニューラルネットワークでの推定結果を出力するだけであり、推定結果の信頼性を確認することができなかった。すなわち、ニューラルネットワークを用いた診断支援装置において、結果を導出する過程を人間が理解することは困難(いわゆるブラックボックス化)であるため、診断支援装置には結果を導出した根拠を使用者に示すことが求められている。また、診断対象外のデータが入力された際、それを使用者に検知・通知することも求められている。 Here, for example, a conventional diagnosis support device uses a neural network to support the determination of a disease. I couldn't do it. In other words, it is difficult for humans to understand the process of deriving results in a diagnostic support device using a neural network (so-called black box). is required. In addition, when data not subject to diagnosis is input, it is also required to detect and notify the user of it.

これに対して、本発明に係る疾患推定システム1では、上記の通り、近似器32が、推定した疾患の推定結果Oとそれに類似する参考データRを検索して、出力部Oが推定結果Oとともに検索結果を出力することができる。すなわち、本発明に係る疾患推定システム1は、例えば、類似する参考データRがある場合には参考データRを出力することができ、一方で、類似する参考データRがない場合には、参考データRが無いことを出力することが可能となる。したがって、疾患推定システム1の推定結果Oの信頼性を確認することができる。 On the other hand, in the disease estimation system 1 according to the present invention, as described above, the approximator 32 retrieves the estimated disease estimation result O and reference data R similar thereto, and the output unit O outputs the estimation result O The search results can be output together with That is, the disease estimation system 1 according to the present invention can output the reference data R, for example, when there is similar reference data R, and on the other hand, when there is no similar reference data R, the reference data It becomes possible to output that there is no R. Therefore, the reliability of the estimation result O of the disease estimation system 1 can be confirmed.

図7に、本実施形態に係る近似器32の推定結果Oを算出したのち演算順序をより具体的に示す。 FIG. 7 more specifically shows the calculation order after calculating the estimation result O of the approximator 32 according to the present embodiment.

本実施形態に係る疾患推定システム1では、近似器32が、参考データRを学習用データの中から検索してもよい。具体的には、近似器32が、入力データIの演算時の全結合層3b3の各ノード3dの数値と、学習時の学習用データの全結合層3b3の各ノード3dの数値とを比較することによって、推定結果Oに類似する学習用データを検索してもよい。 In the disease estimation system 1 according to this embodiment, the approximator 32 may search the reference data R from the learning data. Specifically, the approximator 32 compares the numerical value of each node 3d of the fully connected layer 3b3 at the time of calculation of the input data I with the numerical value of each node 3d of the fully connected layer 3b3 of the learning data at the time of learning. By doing so, learning data similar to the estimation result O may be retrieved.

すなわち、この場合、本実施形態に係る疾患推定システム1では、学習処理が完了後に、改めて学習用データを用いて近似器32で演算処理を行い、その過程で算出される数値及び教師用データの情報を記憶部35に記憶しておけばよい。その結果、入力部31に入力されたデータに対して近似器32が演算処理の過程で算出した数値と、記憶部35に記憶された数値の一致率の高い教師用データを推定結果Oと併せて使用者に示すことができる。使用者は、示された教師用データと入力データIとを視覚的に比較することで推定結果の信頼性を確認することができる。 That is, in this case, in the disease estimation system 1 according to the present embodiment, after the learning process is completed, the approximator 32 performs arithmetic processing again using the learning data, and the numerical value and teacher data calculated in the process are Information may be stored in the storage unit 35 . As a result, the teacher data having a high matching rate between the numerical value calculated by the approximator 32 in the process of arithmetic processing for the data input to the input unit 31 and the numerical value stored in the storage unit 35 is combined with the estimation result O. can be shown to the user. The user can visually compare the displayed teacher data and the input data I to confirm the reliability of the estimation result.

なお、類似か否かの判断は、各ノード3dの数値を比較して判断すればよい。例えば、
各ノード3dを比較した場合に、各ノード3dの各数値の一致率が±20%以下であるノード3dが、比較対象とする複数のノード3dのうち80%以上存在する場合は、一致すると判断してもよい。
It should be noted that whether the nodes are similar or not can be determined by comparing the numerical values of the respective nodes 3d. for example,
When each node 3d is compared, if there are 80% or more of the plurality of nodes 3d to be compared, the node 3d having a matching rate of ±20% or less for each numerical value of each node 3d is judged to be matched. You may

また近似器32は、入力データIの演算時の全結合層3b3および各プーリング層3b2の各ノード3dの数値と、学習時の学習用データの数値とを比較することによって、推定結果Oに類似する学習用データを検索してもよい。 Also, the approximator 32 compares the numerical values of the nodes 3d of the fully connected layer 3b3 and the pooling layers 3b2 at the time of calculation of the input data I with the numerical values of the learning data at the time of learning, thereby approximating the estimation result O. You may search for learning data that

近似器32は、参考データRとして学習用データを出力するとともに、出力する学習用データに関連する教師用データも併せて出力してもよい。 The approximator 32 may output learning data as the reference data R, and may also output teacher data related to the output learning data.

近似器32は、参考データRとして学習用データおよび教師用データを出力するとともに、その学習用データに付随する個人データを主力してもよい。なお個人データとは、年齢または性別などであればよい。 The approximator 32 may output learning data and teacher data as reference data R, and may mainly use personal data accompanying the learning data. The personal data may be age, sex, or the like.

また、近似器32は、参考データRとして学習用データおよび教師用データを出力するとともに、その教師用データの診断情報などを出力してもよい。なお診断情報とは、診断者、診断機器などの情報であればよい。 Also, the approximator 32 may output learning data and teacher data as reference data R, as well as diagnostic information of the teacher data. Note that the diagnostic information may be information such as diagnostic person and diagnostic equipment.

近似器32は、推定結果Oとして、入力データIと同種のデータとして出力されてもよい。すなわち、例えば、入力データIが画像データの場合、推定結果Oとして画像データを出力してもよい。なお、この場合、推定結果Oとして画像データを出力するために、近似器32を学習処理される必要がある。この場合、例えば、近似器32として、CNN(Convolutional Neural Network)およびLSTM(Long short-term memory)を組み合わせたConvLSTMネットワークが適用されればよい。 The approximator 32 may output the same type of data as the input data I as the estimation result O. That is, for example, when the input data I is image data, the image data may be output as the estimation result O. In this case, in order to output the image data as the estimation result O, the approximator 32 needs to be learned. In this case, for example, a ConvLSTM network that combines a CNN (Convolutional Neural Network) and an LSTM (Long short-term memory) may be applied as the approximator 32 .

近似器32は、検索結果O´として学習用データの画像データを出力してもよい。その結果、入力データIおよび学習用データを比較することが容易になる。 The approximator 32 may output the image data of the learning data as the search result O'. As a result, it becomes easier to compare the input data I and the learning data.

近似器32は、推定結果Oおよび検索結果O´が、画像データとして出力される場合、推定結果Oと検索結果O´との違いを強調してもよい。 The approximator 32 may emphasize the difference between the estimation result O and the search result O' when the estimation result O and the search result O' are output as image data.

なお、本発明は上述の実施形態の例に限定されるものではなく、その内容に矛盾をきたさない限り、種々の変形を含むものである。また、本発明に係る各実施形態は、適宜、組合せ可能である。 It should be noted that the present invention is not limited to the examples of the embodiments described above, and includes various modifications as long as there is no contradiction in the content thereof. Further, each embodiment according to the present invention can be appropriately combined.

例えば、上記の例では、近似器32としてニューラルネットワークを使用した場合、CNNを適用した例を説明したが、本発明はこれに限られない。例えば、近似器32は、CNN(Convolutional Neural Network)およびLSTM(Long short-term memory)を組み合わせたConvLSTMネットワーク、RNN(Recurrent Neural Network)またはGAN(Generative Adversarial Network)を用いてもよい。また、近似器32は、複数のニューラルネットワークを組み合わせてもよい。具体的には、ConvLSTMネットワークと畳み込みニューラルネットワークを組わせた複合的なニューラルネットワークでもよい。 For example, in the above example, when a neural network is used as the approximator 32, an example in which CNN is applied has been described, but the present invention is not limited to this. For example, the approximator 32 may use a ConvLSTM network combining CNN (Convolutional Neural Network) and LSTM (Long short-term memory), RNN (Recurrent Neural Network), or GAN (Generative Adversarial Network). The approximator 32 may also combine multiple neural networks. Specifically, it may be a composite neural network in which a ConvLSTM network and a convolutional neural network are combined.

1 疾患推定システム
2 端末装置
21 通信部
3 推定装置
31 入力部
32 近似器
33 出力部
34 制御部
35 記憶部
3a 入力層
3b 隠れ層
3b1 畳み込み層
3b2 プーリング層
3b3 全結合層
3c 出力層
I 入力データ
O 推定結果
O´ 検索結果O´
R 参考データ
1 disease estimation system 2 terminal device 21 communication unit 3 estimation device 31 input unit 32 approximator 33 output unit 34 control unit 35 storage unit 3a input layer 3b hidden layer 3b1 convolution layer 3b2 pooling layer 3b3 fully connected layer 3c output layer I input data O Estimation result O' Search result O'
R Reference data

Claims (6)

画像から疾患を推定可能な疾患推定システムであって、
入力データを入力可能な入力部と、
前記入力データと同種のデータを含む学習用データと、前記学習用データに関連した診断結果を含む教師用データとによって学習処理された近似器と、を備え、
前記近似器は、前記入力部に入力された前記入力データから推定した前記疾患の推定結果と、前記推定結果の根拠として検索した検索結果である、該推定結果に類似する参考データを出力する、疾患推定システム。
A disease estimation system capable of estimating a disease from an image,
an input unit capable of inputting input data;
an approximator that has undergone learning processing using learning data including data of the same type as the input data and teacher data including diagnostic results related to the learning data;
The approximator outputs an estimation result of the disease estimated from the input data input to the input unit, and reference data similar to the estimation result, which is a search result searched as a basis for the estimation result. , disease estimation system.
請求項1に記載の疾患推定システムであって、
前記近似器は、前記参考データを前記学習用データの中から検索する、疾患推定システム。
The disease estimation system according to claim 1,
The disease estimation system, wherein the approximator searches the learning data for the reference data.
請求項2に記載の疾患推定システムであって、
前記近似器は、前記学習用データを出力するとともに、出力する前記学習用データに関連する前記教師用データを出力する、疾患推定システム。
The disease estimation system according to claim 2,
The disease estimation system, wherein the approximator outputs the learning data and the teacher data related to the learning data to be output.
請求項2または3に記載の疾患推定システムであって、
前記近似器は、前記推定結果は、前記入力データと同種の画像データとして出力される、疾患推定システム。
The disease estimation system according to claim 2 or 3,
The disease estimation system, wherein the approximator outputs the estimation result as image data of the same type as the input data.
請求項4に記載の疾患推定システムであって、
前記近似器は、前記検索結果として前記学習用データの前記画像データを出力する、疾患推定システム。
The disease estimation system according to claim 4,
The disease estimation system, wherein the approximator outputs the image data of the learning data as the search result.
請求項5に記載の疾患推定システムであって、
前記近似器は、前記推定結果および前記検索結果が、前記画像データとして出力される場合、前記推定結果と前記検索結果との違いを強調する、疾患推定システム。
The disease estimation system according to claim 5,
The disease estimation system, wherein the approximator emphasizes a difference between the estimation result and the search result when the estimation result and the search result are output as the image data.
JP2019064275A 2019-03-28 2019-03-28 disease estimation system Active JP7252035B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019064275A JP7252035B2 (en) 2019-03-28 2019-03-28 disease estimation system
JP2023047218A JP7454724B2 (en) 2019-03-28 2023-03-23 Estimation device, estimation system, control program
JP2024037350A JP2024053118A (en) 2019-03-28 2024-03-11 Estimation system, estimation device, and control program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019064275A JP7252035B2 (en) 2019-03-28 2019-03-28 disease estimation system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023047218A Division JP7454724B2 (en) 2019-03-28 2023-03-23 Estimation device, estimation system, control program

Publications (2)

Publication Number Publication Date
JP2020166378A JP2020166378A (en) 2020-10-08
JP7252035B2 true JP7252035B2 (en) 2023-04-04

Family

ID=72714450

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2019064275A Active JP7252035B2 (en) 2019-03-28 2019-03-28 disease estimation system
JP2023047218A Active JP7454724B2 (en) 2019-03-28 2023-03-23 Estimation device, estimation system, control program
JP2024037350A Pending JP2024053118A (en) 2019-03-28 2024-03-11 Estimation system, estimation device, and control program

Family Applications After (2)

Application Number Title Priority Date Filing Date
JP2023047218A Active JP7454724B2 (en) 2019-03-28 2023-03-23 Estimation device, estimation system, control program
JP2024037350A Pending JP2024053118A (en) 2019-03-28 2024-03-11 Estimation system, estimation device, and control program

Country Status (1)

Country Link
JP (3) JP7252035B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325583A (en) 2000-03-08 2001-11-22 Fuji Photo Film Co Ltd Method and device for image processing
JP2007279942A (en) 2006-04-05 2007-10-25 Fujifilm Corp Similar case retrieval device, similar case retrieval method and program
JP2018161206A (en) 2017-03-24 2018-10-18 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
WO2019054045A1 (en) 2017-09-15 2019-03-21 富士フイルム株式会社 Medical image processing device, medical image processing method, and medical image processing program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5383431B2 (en) 2009-10-27 2014-01-08 キヤノン株式会社 Information processing apparatus, information processing method, and program
JP2012018450A (en) 2010-07-06 2012-01-26 Keio Gijuku Neural network system, construction method of neural network system and control program of neural network system

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001325583A (en) 2000-03-08 2001-11-22 Fuji Photo Film Co Ltd Method and device for image processing
JP2007279942A (en) 2006-04-05 2007-10-25 Fujifilm Corp Similar case retrieval device, similar case retrieval method and program
JP2018161206A (en) 2017-03-24 2018-10-18 カシオ計算機株式会社 Image processing apparatus, image processing method, and program
WO2019054045A1 (en) 2017-09-15 2019-03-21 富士フイルム株式会社 Medical image processing device, medical image processing method, and medical image processing program

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Hao Jing Yongyi Yang,Case-Adaptive Classification Based on Image Retrieval for Computer-Aided Diagnosis,Proceedings of 2010 IEEE 17th International Conference on Image Processing (ICIP2010),中国,IEEE,2010年09月26日,P.4333-4336
粟井 和夫,1.画像診断支援のためのAIの活用,INNERVISION 第33巻 第7号 ,日本,(株)インナービジョン,2018年06月25日,第33巻 第7号,P.50-54
高橋 正信,ニューラルネットワークを利用した病理診断支援システム,信号処理 Vol.3 No.6,日本,信号処理研究会,1999年11月,Vol.3 No.6,P.407-414

Also Published As

Publication number Publication date
JP2024053118A (en) 2024-04-12
JP2020166378A (en) 2020-10-08
JP7454724B2 (en) 2024-03-22
JP2023098890A (en) 2023-07-11

Similar Documents

Publication Publication Date Title
EP3757937A1 (en) Image recognition method, storage medium and computer device
US20210158543A1 (en) Motion tracking and strain determination
JP7094511B2 (en) Lesion detection method using artificial intelligence and its system
JP7019815B2 (en) Learning device
WO2017158575A1 (en) Method and system for processing a task with robustness to missing input information
CN110363768B (en) Early cancer focus range prediction auxiliary system based on deep learning
JP6865889B2 (en) Learning devices, methods and programs
CN113688912B (en) Method, device, equipment and medium for generating countermeasure sample based on artificial intelligence
JP7467595B2 (en) IMAGE PROCESSING SYSTEM, IMAGE PROCESSING APPARATUS, ENDOSCOPIC SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM
JP2020087103A (en) Learning method, computer program, classifier, and generator
Begum et al. Classification of physiological signals for wheel loader operators using multi-scale entropy analysis and case-based reasoning
CN114298234B (en) Brain medical image classification method and device, computer equipment and storage medium
Anand et al. K-fold cross validation and classification accuracy of pima Indian diabetes data set using higher order neural network and PCA
Rousseau et al. Post training uncertainty calibration of deep networks for medical image segmentation
WO2023226186A1 (en) Neural network training method, human activity recognition method, and device and storage medium
CN115239716B (en) Medical image segmentation method based on shape prior U-Net
US20210073595A1 (en) Classification device, classification method, program, and information recording medium
EP4260295A1 (en) Self-supervised machine learning for medical image analysis
CN115666404A (en) System and method for automated physiological parameter estimation from an ultrasound image sequence
CN113707322B (en) Training method and device for information prediction model, computer equipment and storage medium
KR102611121B1 (en) Method and apparatus for generating imaga classification model
JP7252035B2 (en) disease estimation system
WO2020038462A1 (en) Tongue segmentation device and method employing deep learning, and storage medium
JP2023505676A (en) Data augmentation for machine learning methods
EP4160488A1 (en) Adaptive aggregation for federated learning

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210830

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211210

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20221202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221213

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230323

R150 Certificate of patent or registration of utility model

Ref document number: 7252035

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150