JP7374201B2 - Machine learning systems and methods, integrated servers, programs, and methods for creating inference models - Google Patents

Machine learning systems and methods, integrated servers, programs, and methods for creating inference models Download PDF

Info

Publication number
JP7374201B2
JP7374201B2 JP2021548336A JP2021548336A JP7374201B2 JP 7374201 B2 JP7374201 B2 JP 7374201B2 JP 2021548336 A JP2021548336 A JP 2021548336A JP 2021548336 A JP2021548336 A JP 2021548336A JP 7374201 B2 JP7374201 B2 JP 7374201B2
Authority
JP
Japan
Prior art keywords
learning
client terminals
client
combination
master model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021548336A
Other languages
Japanese (ja)
Other versions
JPWO2021059604A1 (en
Inventor
大暉 上原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2021059604A1 publication Critical patent/JPWO2021059604A1/ja
Application granted granted Critical
Publication of JP7374201B2 publication Critical patent/JP7374201B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Public Health (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Medical Treatment And Welfare Office Work (AREA)

Description

本発明は機械学習システムおよび方法、統合サーバ、情報処理装置、プログラムならびに推論モデルの作成方法に係り、特にフェデレーテッドラーニング(Federated Learning)の仕組みを利用する機械学習技術に関する。 The present invention relates to a machine learning system and method, an integrated server, an information processing device, a program, and a method for creating an inference model, and particularly relates to a machine learning technique that uses a federated learning mechanism.

深層学習を用いた医療用AI(Artificial Intelligence)の開発時にはAIモデルを学習させる必要があるが、この学習のためには診断画像などの学習データを医療機関から外部の開発現場あるいは開発サーバなどに持ち出す必要がある。このため、学習データの提供に協力してもらえる医療機関が少ない現状がある。また、医療機関から学習データを提供してもらえたとしても、プライバシー関連のリスクが常に存在する。 When developing medical AI (Artificial Intelligence) using deep learning, it is necessary to train the AI model, but for this learning, training data such as diagnostic images must be transferred from the medical institution to an external development site or development server. I need to bring it out. For this reason, there are currently few medical institutions willing to cooperate in providing learning data. Additionally, even if medical institutions provide training data, there are always privacy risks.

一方、非特許文献1で提案されたフェデレーテッドラーニングの仕組みを用いると、学習させたいデータが存在する端末上で学習を行い、それら端末群からそれぞれの端末上での学習結果であるネットワークモデルの重みパラメータのみを統合サーバに送信する。つまり、フェデレーテッドラーニングでは、学習データを統合サーバ側に提供することなく、それぞれの端末上での学習結果のデータのみが端末側から統合サーバ側に提供される。 On the other hand, when using the federated learning mechanism proposed in Non-Patent Document 1, learning is performed on the terminal where the data to be learned exists, and a network model that is the learning result on each terminal from a group of these terminals is used. Sends only the weight parameters of the server to the integration server. In other words, in federated learning, only the data of learning results on each terminal is provided from the terminal to the integrated server, without providing learning data to the integrated server.

このことから、プライバシー上配慮が必要なデータそのものを外部に持ち出すことなく学習が可能であるとして、フェデレーテッドラーニングは近年注目を集めている技術である。 For this reason, federated learning is a technology that has been attracting attention in recent years because it allows learning without taking the data itself, which requires privacy considerations, outside the organization.

非特許文献2には、医療用AIの開発にフェデレーテッドラーニングを適用した例の成果が報告されている。 Non-Patent Document 2 reports the results of applying federated learning to the development of medical AI.

H.Brendan, McMahan Eider, Moore Daniel Ramage, Seth Hampson, and Blaise Ag¨ueray Arcas,“Communication-Efficient Learning of Deep Networks from Decentralized Data, arXiv:1602.05629v3 [cs.LG], 28 Feb 2017H.Brendan, McMahan Eider, Moore Daniel Ramage, Seth Hampson, and Blaise Ag¨ueray Arcas, “Communication-Efficient Learning of Deep Networks from Decentralized Data, arXiv:1602.05629v3 [cs.LG], 28 Feb 2017 Micah J Sheller, G Anthony Reina, Brandon Edwards, Jason Martin, and Spyridon Bakas,“Multi-Institutional Deep Learning Modeling Without Sharing Patient Data: A Feasibility Study on Brain Tumor Segmentation”, arXiv:1810.04304v2 [cs.LG], 22 Oct 2018Micah J Sheller, G Anthony Reina, Brandon Edwards, Jason Martin, and Spyridon Bakas, “Multi-Institutional Deep Learning Modeling Without Sharing Patient Data: A Feasibility Study on Brain Tumor Segmentation”, arXiv:1810.04304v2 [cs.LG], 22 Oct 2018

医療用AIの開発にフェデレーテッドラーニングを使用すると、診断画像などのデータの持ち出しは不要になる。その一方で、既存のフェデレーテッドラーニングの仕組み単体では、例えば、不特定多数の医療機関が学習に参加してくるような状況下において、学習の開始からできるだけ早期の段階で目標の推論精度を達成させるための具体的な手法は提案されていない。医療機関ごとに保有しているデータの内容やデータ数は様々であり、学習環境がクライアントごとに異なるため、各クライアントにて実施される学習の成果も多様である。 When federated learning is used to develop medical AI, there is no need to take out data such as diagnostic images. On the other hand, with the existing federated learning mechanism alone, for example, in situations where an unspecified number of medical institutions participate in learning, it is difficult to achieve the target inference accuracy as early as possible from the start of learning. No specific method has been proposed to achieve this. The content and amount of data held by each medical institution varies, and the learning environment differs from client to client, so the learning outcomes implemented at each client also vary.

既存のフェデレーテッドラーニングの仕組み単体では、不特定多数の医療機関が学習に参加した場合に、どのクライアントからの学習結果を用いて統合モデルであるマスターモデルを作成するのが最適であるのか、という指標が存在しない。 With the existing federated learning mechanism alone, when an unspecified number of medical institutions participate in learning, which client's learning results are optimally used to create a master model that is an integrated model? There is no such indicator.

このため、多数のクライアントの中から無作為にクライアントの組み合わせを選択すると、その選択されたクライアント群を構成するクライアントの学習環境に偏りがあった場合に、統合モデルの推論精度が目標に達しないか、または、目標精度の到達までに多大な学習時間を要する可能性がある。 Therefore, if a combination of clients is selected at random from among a large number of clients, the inference accuracy of the integrated model will not reach the target if the learning environments of the clients that make up the selected client group are biased. Alternatively, it may take a large amount of learning time to reach the target accuracy.

本発明はこのような事情に鑑みてなされ、診断画像などプライバシーに配慮が必要な個人情報を医療機関側から外部に持ち出さずにAIモデルの学習を行うためのフェデレーテッドラーニングの仕組みを実装した際に、モデルの推論精度を早期に向上させることができる機械学習システムおよび方法、統合サーバ、情報処理装置、プログラムならびに推論モデルの作成方法を提供することを目的とする。 The present invention was made in view of these circumstances, and implements a federated learning mechanism that allows AI models to learn without taking personal information such as diagnostic images that require privacy considerations from the medical institution side. The present invention aims to provide a machine learning system and method, an integrated server, an information processing device, a program, and a method for creating an inference model that can quickly improve the inference accuracy of a model.

本開示の一観点に係る機械学習システムは、複数のクライアント端末と、統合サーバと、を含む機械学習システムであって、複数のクライアント端末のそれぞれは、医療機関のデータ保存装置に保存されているデータを学習データに用いて学習モデルの機械学習を実行する学習処理部と、学習モデルの学習結果を統合サーバに送信する送信部と、を含み、統合サーバは、学習済みのマスターモデルと、複数のクライアント端末にそれぞれの学習モデルを学習させる前に、各クライアント端末側の学習モデルとマスターモデルとを同期させる同期処理部と、複数のクライアント端末からそれぞれの学習結果を受信する受信部と、複数のクライアント端末の一部であるクライアント端末の組み合わせの学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たすクライアント端末の組み合わせを探索する処理、およびマスターモデル候補の推論精度を最大化するクライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行うクライアント組み合わせ最適化処理部と、を備える機械学習システムである。 A machine learning system according to one aspect of the present disclosure is a machine learning system including a plurality of client terminals and an integrated server, each of the plurality of client terminals being stored in a data storage device of a medical institution. The integrated server includes a learning processing unit that executes machine learning of the learning model using data as learning data, and a transmitting unit that sends the learning results of the learning model to the integrated server. a synchronization processing unit that synchronizes the learning model of each client terminal with the master model before the client terminals of the client terminals learn the respective learning models; a receiving unit that receives the learning results from the plurality of client terminals; A process of searching for a combination of client terminals for which the inference accuracy of a master model candidate that is created by integrating the learning results of combinations of client terminals that are part of the client terminals of The present invention is a machine learning system including a client combination optimization processing unit that performs at least one of the processes of searching for a maximizing combination of client terminals.

本態様によれば、学習に参加する複数のクライアント端末の中からクライアント端末の組み合わせが抽出され、その組み合わせに属するクライアント端末の集団の学習結果を統合することによってマスターモデル候補が作成される。そして、作成されたマスターモデル候補の推論精度を検証して、精度の向上に効果的なクライアント端末の最適な組み合わせを探索する処理が行われる。ここでの「最適」という記載は、最も適した1つのものという意味に限定されず、最も適したものに近いものうちの1つと理解されるものを含む。つまり、最適な組み合わせは、組み合わせの最適解、ならびに、最適解に近い近似解の両方の概念を含む。 According to this aspect, a combination of client terminals is extracted from among a plurality of client terminals participating in learning, and a master model candidate is created by integrating the learning results of a group of client terminals belonging to the combination. Then, processing is performed to verify the inference accuracy of the created master model candidate and search for the optimal combination of client terminals that is effective in improving accuracy. The term "optimal" herein is not limited to the most suitable one, but includes what is understood as one of the most suitable. In other words, the optimal combination includes the concepts of both the optimal solution of the combination and an approximate solution close to the optimal solution.

マスターモデル候補の推論精度が目標の精度を満たすクライアント端末の組み合わせは、最適な組み合わせの1つと理解される。「目標の精度を満たす」という記載は、目標とする精度を達成することを含む。例えば、目標とする精度を示す精度目標値を上回る推論精度が達成されることは「目標の精度を満たす」ことの一態様である。推論精度の到達目標として定められている目標の精度を満たすマスターモデル候補が見つかった場合、そのマスターモデル候補の作成に用いたクライアント端末の組み合わせは最適な組み合わせの1つと見做してよい。 A combination of client terminals in which the inference accuracy of the master model candidate satisfies the target accuracy is understood to be one of the optimal combinations. The statement "meeting the target accuracy" includes achieving the target accuracy. For example, achieving an inference accuracy that exceeds an accuracy target value indicating a target accuracy is one aspect of "meeting the target accuracy." If a master model candidate is found that satisfies the target accuracy set as the goal of inference accuracy, the combination of client terminals used to create the master model candidate may be regarded as one of the optimal combinations.

また、マスターモデル候補の推論精度を最大化するクライアント端末の組み合わせは、最適な組み合わせの1つと理解される。「推論精度を最大化するクライアント端末の組み合わせ」という記載は、推論精度が最大となる組み合わせに限らず、最大に近い推論精度となる組み合わせの1つと理解されるものを含む。探索の過程で作成される複数のマスターモデル候補のうち推論精度が最も高いマスターモデル候補の作成に用いたクライアント端末の組み合わせは、「推論精度を最大化するクライアント端末の組み合わせ」の1つと理解してよく、最適な組み合わせの1つと見做してよい。 Further, the combination of client terminals that maximizes the inference accuracy of the master model candidate is understood to be one of the optimal combinations. The description "a combination of client terminals that maximizes inference accuracy" is not limited to a combination that maximizes inference accuracy, but includes a combination that is understood to be one of the combinations that provides inference accuracy that is close to the maximum. The combination of client terminals used to create the master model candidate with the highest inference accuracy among the multiple master model candidates created in the search process is understood to be one of the "combinations of client terminals that maximize inference accuracy." It can be considered as one of the optimal combinations.

本態様によれば、複数のクライアント端末の中から、より良好な学習精度が得られるクライアント端末の組み合わせを抽出することができる。これにより、学習開始後の比較的早い段階で、初期のマスターモデルよりも高い推論精度のモデルを作成することが可能になる。 According to this aspect, it is possible to extract a combination of client terminals that provides better learning accuracy from among a plurality of client terminals. This makes it possible to create a model with higher inference accuracy than the initial master model at a relatively early stage after the start of learning.

「複数のクライアント端末」は不特定多数のクライアント端末であってよい。クライアント端末は「医療機関のデータ保存装置」を含む構成であってもよいし、「医療機関のデータ保存装置」と「クライアント端末」とが別々の装置であってもよい。 The "multiple client terminals" may be an unspecified number of client terminals. The client terminal may include a "data storage device of a medical institution", or the "data storage device of a medical institution" and the "client terminal" may be separate devices.

クライアント組み合わせ最適化処理部は、マスターモデル候補の推論精度が目標の精度を満たすクライアント端末の組み合わせを探索する第1の探索処理と、マスターモデル候補の推論精度を最大化するクライアント端末の組み合わせを探索する第2の探索処理と、のうちどちらか一方の処理のみを実施する構成であってもよいし、両方の探索処理を実施する構成であってもよい。例えば、クライアント組み合わせ最適化処理部は、第1の探索処理を実施して目標の精度を満たすクライアント端末の組み合わせを見出せなかった場合に、第2の探索処理を実施するという構成であってもよい。 The client combination optimization processing unit performs a first search process to search for a combination of client terminals for which the inference accuracy of the master model candidate satisfies a target accuracy, and a search process for a combination of client terminals that maximizes the inference accuracy of the master model candidate. The configuration may be such that only one of the second search processes is executed, or the configuration may be configured to execute both of the search processes. For example, the client combination optimization processing unit may be configured to perform the second search process when the first search process fails to find a combination of client terminals that satisfies the target accuracy. .

本開示の他の態様に係る機械学習システムにおいて、クライアント組み合わせ最適化処理部は、複数のクライアント端末からクライアント端末の組み合わせであるクライアントクラスタを作成するクライアントクラスタ作成部と、クライアントクラスタの学習結果を統合してマスターモデル候補を作成するマスターモデル候補作成部と、マスターモデル候補の推論精度を評価することにより、推論精度が精度目標値を上回るマスターモデル候補を検出する精度評価部と、を含む構成とすることができる。 In the machine learning system according to another aspect of the present disclosure, the client combination optimization processing unit integrates learning results of the client clusters with a client cluster creation unit that creates a client cluster that is a combination of client terminals from a plurality of client terminals. a master model candidate creation unit that creates a master model candidate, and an accuracy evaluation unit that detects a master model candidate whose inference accuracy exceeds an accuracy target value by evaluating the inference accuracy of the master model candidate. can do.

本開示の更に他の態様に係る機械学習システムにおいて、精度評価部は、検証用データをマスターモデル候補に入力することによりマスターモデル候補から出力される推論結果と検証用データの正解データとを比較してマスターモデル候補の推論精度を算出する推論精度算出部と、マスターモデル候補の推論精度と精度目標値とを比較する精度目標値比較部と、を含む構成とすることができる。 In the machine learning system according to still another aspect of the present disclosure, the accuracy evaluation unit compares the inference result output from the master model candidate by inputting the verification data into the master model candidate and the correct data of the verification data. The configuration may include an inference accuracy calculation unit that calculates the inference accuracy of the master model candidate, and an accuracy target value comparison unit that compares the inference accuracy of the master model candidate with an accuracy target value.

本開示の更に他の態様に係る機械学習システムにおいて、精度評価部は、マスターモデル候補の推論精度の瞬時値と精度目標値との比較に基づいて、または、マスターモデル候補のそれぞれの学習イテレーションにおける推論精度の統計値と精度目標値との比較に基づいて、マスターモデル候補の推論精度が精度目標値を上回っているか否かを判定する構成とすることができる。 In the machine learning system according to still another aspect of the present disclosure, the accuracy evaluation unit is configured to perform evaluation based on a comparison between an instantaneous value of the inference accuracy of the master model candidate and an accuracy target value, or in each learning iteration of the master model candidate. It can be configured to determine whether the inference accuracy of the master model candidate exceeds the accuracy target value based on a comparison between the statistical value of the inference accuracy and the accuracy target value.

「統計値」は、統計学的なアルゴリズムを用いて算出される統計量であり、例えば、平均値または中央値などの代表値であってよい。 The "statistical value" is a statistical value calculated using a statistical algorithm, and may be a representative value such as an average value or a median value.

本開示の更に他の態様に係る機械学習システムにおいて、クライアント組み合わせ最適化処理部は、指定された数のクライアント端末を複数のクライアント端末の中から抽出して、クライアント端末の組み合わせを作成する処理と、クライアント端末の組み合わせごとの学習結果を統合してマスターモデル候補を組み合わせごとに作成する処理と、組み合わせごとに作成されたマスターモデル候補のそれぞれの推論精度と精度目標値との比較結果に基づいて、精度目標値を上回るクライアント端末の組み合わせを探索する処理と、を行う構成とすることができる。 In a machine learning system according to still another aspect of the present disclosure, the client combination optimization processing unit performs a process of extracting a specified number of client terminals from among the plurality of client terminals and creating a combination of client terminals. , based on the process of integrating the learning results for each combination of client terminals to create a master model candidate for each combination, and the comparison result of the inference accuracy of each master model candidate created for each combination with the accuracy target value. , and a process of searching for a combination of client terminals that exceeds the accuracy target value.

本開示の更に他の態様に係る機械学習システムにおいて、複数のクライアント端末のそれぞれは、異なる医療機関の医療機関ネットワーク内に設置される端末であってよい。 In a machine learning system according to still another aspect of the present disclosure, each of the plurality of client terminals may be a terminal installed within a medical institution network of a different medical institution.

本開示の更に他の態様に係る機械学習システムにおいて、統合サーバは、医療機関ネットワーク内または医療機関ネットワーク外に設置される構成とすることができる。 In a machine learning system according to still another aspect of the present disclosure, the integrated server may be configured to be installed within a medical institution network or outside a medical institution network.

本開示の更に他の態様に係る機械学習システムにおいて、クライアント端末から統合サーバに送信される学習結果は、学習後の学習モデルの重みパラメータを含む構成とすることができる。 In a machine learning system according to still another aspect of the present disclosure, the learning results sent from the client terminal to the integrated server may include weight parameters of the learning model after learning.

本開示の更に他の態様に係る機械学習システムにおいて、学習データとして使用されるデータは、2次元画像、3次元画像、動画像、時系列データおよび文書データのうち少なくとも1つの種類のデータを含む構成とすることができる。 In the machine learning system according to still another aspect of the present disclosure, the data used as learning data includes at least one type of data among two-dimensional images, three-dimensional images, moving images, time series data, and document data. It can be configured as follows.

本開示の更に他の態様に係る機械学習システムにおいて、学習モデル、マスターモデル、およびマスターモデル候補の各モデルは、ニューラルネットワークを用いて構成されてよい。 In a machine learning system according to still another aspect of the present disclosure, each of the learning model, master model, and master model candidate may be configured using a neural network.

学習データおよび推論の際に入力するデータの種類に応じて適切なネットワークモデルが適用される。 An appropriate network model is applied depending on the type of training data and data input during inference.

本開示の更に他の態様に係る機械学習システムにおいて、学習データとして使用されるデータは2次元画像、3次元画像または動画像を含み、学習モデル、マスターモデル、およびマスターモデル候補の各モデルは、畳み込みニューラルネットワークを用いて構成されてよい。 In a machine learning system according to still another aspect of the present disclosure, data used as learning data includes a two-dimensional image, a three-dimensional image, or a moving image, and each model of the learning model, master model, and master model candidate is It may be constructed using a convolutional neural network.

本開示の更に他の態様に係る機械学習システムにおいて、学習データとして使用されるデータは時系列データまたは文書データを含み、学習モデル、マスターモデル、およびマスターモデル候補の各モデルは、再帰型ニューラルネットワークを用いて構成されてよい。 In a machine learning system according to still another aspect of the present disclosure, data used as learning data includes time series data or document data, and each model of the learning model, master model, and master model candidate is a recurrent neural network. It may be configured using

本開示の更に他の態様に係る機械学習システムにおいて、統合サーバは、クライアント端末の組み合わせごとに作成されるマスターモデル候補の推論精度と、マスターモデル候補がどのようなクライアント端末の組み合わせを使用して作成されているかという対応関係を示す情報と、を保存する情報保存部をさらに備える構成とすることができる。 In the machine learning system according to still another aspect of the present disclosure, the integrated server determines the inference accuracy of the master model candidate created for each combination of client terminals and the combination of client terminals used by the master model candidate. The configuration may further include an information storage unit that stores information indicating a correspondence relationship, such as whether the information has been created or not.

本開示の更に他の態様に係る機械学習システムにおいて、統合サーバは、クライアント端末の組み合わせごとに作成されるマスターモデル候補のそれぞれの各学習イテレーションにおける推論精度が表示される表示装置をさらに備える構成とすることができる。 In a machine learning system according to still another aspect of the present disclosure, the integrated server further includes a display device that displays inference accuracy in each learning iteration of each master model candidate created for each combination of client terminals. can do.

本開示の更に他の態様に係る機械学習システムにおいて、マスターモデル候補の推論精度を評価する際に使用する検証用データが保存されている検証用データ保存部をさらに備える構成とすることができる。 A machine learning system according to still another aspect of the present disclosure may further include a verification data storage unit that stores verification data used when evaluating inference accuracy of a master model candidate.

検証用データ保存部は、統合サーバに含まれていてもよいし、統合サーバに接続される外部記憶装置などであってもよい。 The verification data storage unit may be included in the integrated server, or may be an external storage device connected to the integrated server.

本開示の他の態様に係る機械学習方法は、複数のクライアント端末と、統合サーバと、を用いる機械学習方法であって、複数のクライアント端末のそれぞれに学習モデルを学習させる前に、各クライアント端末側の学習モデルと、統合サーバに保存されている学習済みのマスターモデルとを同期させることと、複数のクライアント端末のそれぞれが、互いに異なる医療機関のそれぞれのデータ保存装置に保存されているデータを学習データに用いて学習モデルの機械学習を実行することと、複数のクライアント端末のそれぞれが、学習モデルの学習結果を統合サーバに送信することと、統合サーバが、複数のクライアント端末からそれぞれの学習結果を受信することと、複数のクライアント端末の一部であるクライアント端末の組み合わせの学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たすクライアント端末の組み合わせを探索する処理、およびマスターモデル候補の推論精度を最大化するクライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行うことと、を含む機械学習方法である。 A machine learning method according to another aspect of the present disclosure is a machine learning method using a plurality of client terminals and an integrated server. By synchronizing the side learning model with the trained master model stored in the integrated server, and by allowing each of the multiple client terminals to synchronize the data stored in the respective data storage devices of different medical institutions. Execute machine learning of the learning model using the training data, each of the multiple client terminals send the learning results of the learning model to the integrated server, and the integrated server performs the learning of each learning model from the multiple client terminals. a process of receiving the results and searching for a combination of client terminals in which the inference accuracy of a master model candidate created by integrating the learning results of combinations of client terminals that are part of the plurality of client terminals satisfies a target accuracy; and performing at least one of a process of searching for a combination of client terminals that maximizes the inference accuracy of the master model candidate.

本開示の他の態様に係る統合サーバは、通信回線を介して複数のクライアント端末と接続される統合サーバであって、学習済みのマスターモデルを保存しておくマスターモデル保存部と、複数のクライアント端末にそれぞれの学習モデルを学習させる前に、各クライアント端末側の学習モデルとマスターモデルとを同期させる同期処理部と、複数のクライアント端末からそれぞれの学習結果を受信する受信部と、複数のクライアント端末の一部であるクライアント端末の組み合わせの学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たすクライアント端末の組み合わせを探索する処理、およびマスターモデル候補の推論精度を最大化するクライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行うクライアント組み合わせ最適化処理部と、を備える統合サーバである。 An integrated server according to another aspect of the present disclosure is an integrated server that is connected to a plurality of client terminals via a communication line, and includes a master model storage unit that stores a learned master model, and a master model storage unit that stores a learned master model, and A synchronization processing unit that synchronizes the learning model of each client terminal with the master model before the terminal learns each learning model, a receiving unit that receives the learning results from multiple client terminals, and a synchronization processing unit that synchronizes the learning model of each client terminal with the master model, The process of searching for a combination of client terminals whose inference accuracy of a master model candidate created by integrating the learning results of combinations of client terminals that are part of the terminal satisfies the target accuracy, and maximizing the inference accuracy of the master model candidate. The integrated server includes a client combination optimization processing unit that performs at least one of the processes of searching for a combination of client terminals.

本開示の他の態様に係る統合サーバは、通信回線を介して複数のクライアント端末と接続される統合サーバであって、第1のプロセッサと、第1のプロセッサによって実行される第1のプログラムが記録された非一時的な有体物である第1のコンピュータ可読媒体と、を含み、第1のプロセッサは、第1のプログラムの命令に従い、学習済みのマスターモデルを第1のコンピュータ可読媒体に保存しておくことと、複数のクライアント端末にそれぞれの学習モデルを学習させる前に、各クライアント端末側の学習モデルとマスターモデルとを同期させることと、複数のクライアント端末からそれぞれの学習結果を受信することと、複数のクライアント端末の一部であるクライアント端末の組み合わせの学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たすクライアント端末の組み合わせを探索する処理、およびマスターモデル候補の推論精度を最大化するクライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行うことと、を含む処理を実行する、統合サーバである。 An integrated server according to another aspect of the present disclosure is an integrated server connected to a plurality of client terminals via a communication line, and includes a first processor and a first program executed by the first processor. a first computer-readable medium that is a recorded non-transitory tangible object; the first processor stores the trained master model on the first computer-readable medium according to instructions of the first program; Before having multiple client terminals learn each learning model, synchronize the learning model on each client terminal with the master model, and receive the learning results from multiple client terminals. A process of searching for a combination of client terminals whose inference accuracy of a master model candidate, which is created by integrating learning results of combinations of client terminals that are part of multiple client terminals, satisfies a target accuracy; This is an integrated server that executes processing including at least one of the processing of searching for a combination of client terminals that maximizes inference accuracy.

本開示の更に他の態様に係る統合サーバにおいて、第1のプロセッサは、第1のプログラムの命令に従い、複数のクライアント端末から一部のクライアント端末を抽出してクライアント端末の組み合わせであるクライアントクラスタを作成することと、クライアントクラスタの学習結果を統合してマスターモデル候補を作成することと、を含む処理を実行する構成とすることができる。 In the integrated server according to still another aspect of the present disclosure, the first processor extracts some of the client terminals from the plurality of client terminals and creates a client cluster, which is a combination of the client terminals, according to the instructions of the first program. The configuration can be configured to execute processing including creating a master model candidate, and creating a master model candidate by integrating learning results of client clusters.

本開示の他の態様に係る情報処理装置は、本開示の一態様に係る統合サーバと通信回線を介して接続される複数のクライアント端末の一つとして用いられる情報処理装置であって、統合サーバに保存されているマスターモデルと同期させた学習モデルを、学習開始前の初期状態の学習モデルとし、医療機関のデータ保存装置に保存されているデータを学習データに用いて学習モデルの機械学習を実行する学習処理部と、学習モデルの学習結果を統合サーバに送信する送信部と、を備える情報処理装置である。 An information processing apparatus according to another aspect of the present disclosure is an information processing apparatus used as one of a plurality of client terminals connected to the integrated server according to one aspect of the present disclosure via a communication line, The learning model synchronized with the master model stored in is used as the learning model in the initial state before learning starts, and the machine learning of the learning model is performed using the data stored in the data storage device of the medical institution as the learning data. The information processing apparatus includes a learning processing unit that executes the learning process, and a transmitting unit that transmits the learning results of the learning model to the integrated server.

本開示の他の態様に係る情報処理装置は、本開示の一態様に係る統合サーバと通信回線を介して接続される複数のクライアント端末の一つとして用いられる情報処理装置であって、第2のプロセッサと、第2のプロセッサによって実行される第2のプログラムが記録された非一時的な有体物である第2のコンピュータ可読媒体と、を含み、第2のプロセッサは、第2のプログラムの命令に従い、統合サーバに保存されているマスターモデルと同期させた学習モデルを、学習開始前の初期状態の学習モデルとし、医療機関のデータ保存装置に保存されているデータを学習データに用いて学習モデルの機械学習を実行することと、学習モデルの学習結果を統合サーバに送信することと、を含む処理を実行する、情報処理装置である。 An information processing apparatus according to another aspect of the present disclosure is an information processing apparatus used as one of a plurality of client terminals connected to the integrated server according to one aspect of the present disclosure via a communication line, a second computer-readable medium that is a non-transitory tangible object having recorded thereon a second program executed by the second processor, the second processor executing instructions of the second program; Accordingly, the learning model synchronized with the master model stored in the integrated server is used as the learning model in the initial state before learning starts, and the learning model is created using data stored in the data storage device of the medical institution as the learning data. An information processing device that executes processing including executing machine learning of a learning model and transmitting learning results of a learning model to an integrated server.

本開示の他の態様に係るプログラムは、本開示の一態様に係る統合サーバと通信回線を介して接続される複数のクライアント端末の一つとしてコンピュータを機能させるためのプログラムであって、統合サーバに保存されているマスターモデルと同期させた学習モデルを、学習開始前の初期状態の学習モデルとし、医療機関のデータ保存装置に保存されているデータを学習データに用いて学習モデルの機械学習を実行する機能と、学習モデルの学習結果を統合サーバに送信する機能と、をコンピュータに実現させるためのプログラムである。 A program according to another aspect of the present disclosure is a program for causing a computer to function as one of a plurality of client terminals connected to the integrated server according to one aspect of the present disclosure via a communication line, The learning model synchronized with the master model stored in is used as the learning model in the initial state before learning starts, and the machine learning of the learning model is performed using the data stored in the data storage device of the medical institution as the learning data. This is a program that allows a computer to implement the functions to execute and the function to send the learning results of the learning model to the integrated server.

本開示の他の態様に係るプログラムは、通信回線を介して複数のクライアント端末と接続される統合サーバとしてコンピュータを機能させるためのプログラムであって、コンピュータに、学習済みのマスターモデルを保存しておく機能と、複数のクライアント端末にそれぞれの学習モデルを学習させる前に、各クライアント端末側の学習モデルとマスターモデルとを同期させる機能と、複数のクライアント端末からそれぞれの学習結果を受信する機能と、複数のクライアント端末の一部であるクライアント端末の組み合わせの学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たすクライアント端末の組み合わせを探索する処理、およびマスターモデル候補の推論精度を最大化するクライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行う機能と、を実現させるためのプログラムである。 A program according to another aspect of the present disclosure is a program for causing a computer to function as an integrated server connected to a plurality of client terminals via a communication line, the program storing a learned master model in the computer. A function to synchronize the learning model on each client terminal with the master model before having multiple client terminals learn each learning model, and a function to receive each learning result from multiple client terminals. , a process of searching for a combination of client terminals for which the inference accuracy of a master model candidate created by integrating the learning results of combinations of client terminals that are part of multiple client terminals satisfies a target accuracy, and inference of the master model candidate. This is a program for realizing a function of performing at least one of the processes of searching for a combination of client terminals that maximizes accuracy.

本開示の他の態様に係る推論モデルの作成方法は、複数のクライアント端末と、統合サーバと、を用いて機械学習を行うことにより、推論モデルを作成する方法であって、複数のクライアント端末のそれぞれに学習モデルを学習させる前に、各クライアント端末側の学習モデルと、統合サーバに保存されている学習済みのマスターモデルとを同期させることと、複数のクライアント端末のそれぞれが、互いに異なる医療機関のそれぞれのデータ保存装置に保存されているデータを学習データに用いて学習モデルの機械学習を実行することと、複数のクライアント端末のそれぞれが、学習モデルの学習結果を統合サーバに送信することと、統合サーバが、複数のクライアント端末からそれぞれの学習結果を受信することと、複数のクライアント端末の一部であるクライアント端末の組み合わせの学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たすクライアント端末の組み合わせを探索する処理、およびマスターモデル候補の推論精度を最大化するクライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行うことと、目標の精度を満たす推論精度が達成されたマスターモデル候補、または、探索の処理によって作成された複数のマスターモデル候補の中で最も推論精度が高いモデルの作成に使用したクライアント端末の組み合わせを用いて作成されたマスターモデル候補を基に、マスターモデルよりも推論精度が高い推論モデルを作成することと、を含む推論モデルの作成方法である。 A method for creating an inference model according to another aspect of the present disclosure is a method for creating an inference model by performing machine learning using a plurality of client terminals and an integrated server. Before training a learning model on each client terminal, it is necessary to synchronize the learning model on each client terminal side with the trained master model stored on the integrated server, and to synchronize the learning model on each client terminal side with the trained master model stored on the integrated server. Executing machine learning of the learning model using data stored in each data storage device as learning data, and each of the multiple client terminals transmitting the learning results of the learning model to the integrated server. , the goal is for the integrated server to receive learning results from multiple client terminals, and for the inference accuracy of the master model candidate created by integrating the learning results of combinations of client terminals that are part of the multiple client terminals. and the process of searching for a combination of client terminals that maximizes the inference accuracy of the master model candidate, and the inference accuracy that satisfies the target accuracy. A master model candidate that has achieved this, or a master model candidate created using the combination of client terminals used to create the model with the highest inference accuracy among multiple master model candidates created through the search process. This is a method for creating an inference model, which includes the steps of: creating an inference model with higher inference accuracy than the master model based on the master model;

推論モデルの作成方法は、推論モデルを製造する方法の発明として理解される。「推論」という用語は、予測、推定、分類、および判別の概念を含む。推論モデルは「AIモデル」と言い換えてもよい。 The method for creating an inference model is understood as an invention of a method for manufacturing an inference model. The term "inference" includes the concepts of prediction, estimation, classification, and discrimination. The inference model may also be referred to as an "AI model."

本発明によれば、複数のクライアント端末の中から、学習結果の統合に使用するクライアント端末の最適な組み合わせを求めることができる。これにより、効率的に学習を行うことが可能であり、モデルの推論精度を早期に向上させることが可能になる。 According to the present invention, an optimal combination of client terminals to be used for integrating learning results can be found from among a plurality of client terminals. This makes it possible to perform learning efficiently and improve the inference accuracy of the model at an early stage.

図1は、本発明の実施形態に係る機械学習システムの概要を示す概念図である。FIG. 1 is a conceptual diagram showing an overview of a machine learning system according to an embodiment of the present invention. 図2は、本発明の実施形態に係る機械学習システムのシステム構成例を概略的に示す図である。FIG. 2 is a diagram schematically showing a system configuration example of a machine learning system according to an embodiment of the present invention. 図3は、統合サーバの構成例を示すブロック図である。FIG. 3 is a block diagram showing an example of the configuration of the integrated server. 図4は、クライアントの一例であるCAD(Computer Aided Detection/Diagnosis)サーバの構成例を示すブロック図である。FIG. 4 is a block diagram showing a configuration example of a CAD (Computer Aided Detection/Diagnosis) server, which is an example of a client. 図5は、ローカル学習管理プログラムに基づくクライアント端末の動作の例を示すフローチャートである。FIG. 5 is a flowchart showing an example of the operation of the client terminal based on the local learning management program. 図6は、学習用クライアント組み合わせ最適化プログラム33に基づく統合サーバ30の動作の例を示すフローチャートである。FIG. 6 is a flowchart showing an example of the operation of the integrated server 30 based on the learning client combination optimization program 33. 図7は、統合サーバにおいてマスターモデル候補の推論精度を評価する処理の例を示すフローチャートである。FIG. 7 is a flowchart illustrating an example of a process for evaluating the inference accuracy of a master model candidate in the integrated server. 図8は、コンピュータのハードウェア構成の例を示すブロック図である。FIG. 8 is a block diagram showing an example of the hardware configuration of a computer.

以下、添付図面に従って本発明の好ましい実施形態について説明する。 Preferred embodiments of the present invention will be described below with reference to the accompanying drawings.

《機械学習システムの概要》
図1は、本発明の実施形態に係る機械学習システムの概要を示す概念図である。機械学習システム10は、フェデレーテッドラーニングの仕組みを利用して機械学習を行うコンピュータシステムである。機械学習システム10は、複数のクライアント20と、統合サーバ30と、を含む。フェデレーテッドラーニングは「フェデレーションラーニング」、「連携学習」、あるいは「連合学習」などと呼ばれることがある。
《Overview of machine learning system》
FIG. 1 is a conceptual diagram showing an overview of a machine learning system according to an embodiment of the present invention. The machine learning system 10 is a computer system that performs machine learning using a federated learning mechanism. Machine learning system 10 includes multiple clients 20 and an integrated server 30. Federated learning is sometimes called "federated learning,""cooperativelearning," or "federated learning."

図1に示す複数のクライアント20のそれぞれは、病院などの医療機関内のネットワーク上に設置される医療機関内端末を示す。ここで「端末」とは、安全に医療機関内のデータにアクセスできるネットワーク内に存在する計算資源を指しており、その端末は物理的に医療機関内に存在しなくてもよい。クライアント20は本開示における「クライアント端末」の一例である。医療機関内のコンピュータネットワークを「医療機関ネットワーク」という。 Each of the plurality of clients 20 shown in FIG. 1 represents a medical institution terminal installed on a network within a medical institution such as a hospital. Here, a "terminal" refers to a computing resource that exists within a network that can safely access data within a medical institution, and the terminal does not need to be physically located within the medical institution. The client 20 is an example of a "client terminal" in the present disclosure. A computer network within a medical institution is called a "medical institution network."

各クライアント20は、AIモデルに学習させるデータ群ごとに存在していることを想定する。ここでいう「データ群ごと」とは、AIモデルの学習に使用するデータ群が保有される「医療機関ごと」と理解してよい。すなわち、おおよそ1つの医療機関に対して1つのクライアントが存在することを想定する。 It is assumed that each client 20 exists for each data group to be trained by the AI model. Here, "each data group" may be understood as "each medical institution" in which the data group used for learning the AI model is held. That is, it is assumed that approximately one client exists for one medical institution.

複数のクライアント20のそれぞれを区別して表示するために、図1および以降の図面において、「Client 1」,「Client 2」などの表記を用いる。「Client」の後に付す数字は、個々のクライアント20を識別する識別番号としてのインデックスである。本明細書では、インデックスがmであるクライアント20を「クライアントCLm」と表記する。例えば、クライアントCL1は、図1中の「Client 1」を表す。mはクライアントID番号(identification number)に相当する。統合サーバ30によって管理されるクライアント20の総数をMとすると、mは1以上M以下の整数を表す。図1においては、m=1からN+1までのクライアント20が図示されている。Nは2以上の整数を表す。学習に参加する総数Mのクライアント20の全体の集合を「学習クライアント群」あるいは「クライアント母集団」という。 In order to distinguish and display each of the plurality of clients 20, notations such as "Client 1" and "Client 2" are used in FIG. 1 and subsequent drawings. The number appended to “Client” is an index as an identification number that identifies each client 20. In this specification, the client 20 whose index is m is referred to as "client CLm." For example, client CL1 represents "Client 1" in FIG. m corresponds to a client ID number (identification number). When the total number of clients 20 managed by the integrated server 30 is M, m represents an integer from 1 to M, inclusive. In FIG. 1, clients 20 from m=1 to N+1 are illustrated. N represents an integer of 2 or more. The entire set of M clients 20 participating in learning is referred to as a "learning client group" or a "client population."

各クライアント20は、クライアントローカルの記憶装置にローカルデータLDを保有している。ローカルデータLDは、クライアント20が属する医療機関にて蓄積されたデータ群である。 Each client 20 has local data LD in a storage device local to the client. The local data LD is a data group accumulated at the medical institution to which the client 20 belongs.

各クライアント20は、分散学習のクライアントプログラムであるローカル学習管理プログラムを含む。各クライアント20は、ローカル学習管理プログラムにしたがい、クライアントローカルのローカルデータLDを用いてローカルモデルLMを学習させるイテレーションを回す。 Each client 20 includes a local learning management program that is a distributed learning client program. Each client 20 runs an iteration of learning the local model LM using local data LD local to the client according to the local learning management program.

ローカルモデルLMは、例えば、CADシステムに組み込まれる医用画像診断用のAIモデルである。「CAD」という用語は、コンピュータ支援検出(CADe:Computer Aided Detection)と、コンピュータ支援診断(CADx:Computer Aided Diagnosis)との両方の概念を含む。ローカルモデルLMは、例えば、階層型の多層のニューラルネットワークを用いて構成される。ローカルモデルLMは、ローカルデータLDを学習データに用いる深層学習によってネットワークの重みパラメータが更新される。重みパラメータには、各層の処理に用いるフィルタのフィルタ係数(ノード間の結合の重み)およびノードのバイアスが含まれる。ローカルモデルLMは本開示における「クライアント端末側の学習モデル」の一例である。 The local model LM is, for example, an AI model for medical image diagnosis that is incorporated into a CAD system. The term "CAD" includes the concepts of both Computer Aided Detection (CADe) and Computer Aided Diagnosis (CADx). The local model LM is configured using, for example, a hierarchical multilayer neural network. In the local model LM, the weight parameters of the network are updated by deep learning using the local data LD as learning data. The weight parameters include filter coefficients (weights of connections between nodes) of filters used for processing each layer and biases of nodes. The local model LM is an example of a "client terminal side learning model" in the present disclosure.

なお、「ニューラルネットワーク」とは、脳神経系の仕組みを模擬した情報処理の数理モデルである。ニューラルネットワークを用いた処理は、コンピュータを用いて実現することができる。ニューラルネットワークを含む処理部は、プログラムモジュールとして構成され得る。 Note that a "neural network" is a mathematical model for information processing that simulates the structure of the brain's nervous system. Processing using a neural network can be realized using a computer. A processing unit including a neural network may be configured as a program module.

学習に使用するニューラルネットワークのネットワーク構造は、入力に用いるデータの種類に応じた適切なネットワーク構造が採用される。医用画像診断用のAIモデルは、例えば、畳み込み層を有する各種の畳み込みニューラルネットワーク(CNN:Convolutional Neural Network)を用いて構成することができる。時系列データや文書データなどを扱うAIモデルは、例えば、各種の再帰型ニューラルネットワーク(RNN:Recurrent Neural Network)を用いて構成することができる。 As the network structure of the neural network used for learning, an appropriate network structure is adopted depending on the type of data used for input. AI models for medical image diagnosis can be configured using, for example, various convolutional neural networks (CNNs) having convolutional layers. AI models that handle time series data, document data, etc. can be configured using, for example, various types of recurrent neural networks (RNNs).

複数のクライアント20は、通信ネットワークを介して統合サーバ30と接続される。統合サーバ30は、複数のクライアント20からそれぞれの学習結果を取得する処理と、母集団から抽出されたクライアント20の組み合わせについて学習結果を統合してマスターモデル候補MMCを作成する処理と、マスターモデル候補MMCの推論精度を評価する処理と、推論精度の評価結果に基づきクライアント20の組み合わせを最適化する処理と、を行う。本明細書では、マスターモデル候補MMCの作成に用いるクライアント20の組み合わせであるクライアント群を「クライアントクラスタ」という。 The plurality of clients 20 are connected to the integrated server 30 via a communication network. The integration server 30 performs a process of acquiring learning results from a plurality of clients 20, a process of integrating learning results for combinations of clients 20 extracted from a population to create a master model candidate MMC, and a process of creating a master model candidate MMC. A process of evaluating the inference accuracy of the MMC and a process of optimizing the combination of clients 20 based on the evaluation result of the inference accuracy are performed. In this specification, a client group that is a combination of clients 20 used to create a master model candidate MMC is referred to as a "client cluster."

統合サーバ30の所在は、AIモデルを開発している主体団体がアクセス権を持っているコンピュータネットワーク上に存在すればよく、サーバの形態は物理サーバ、仮想サーバなどの形態を問わない。統合サーバ30は、医療機関ネットワーク内に設置されてもよいし、医療機関ネットワーク外に設置されてもよい。例えば、統合サーバ30は、医療機関から地理的に離れた場所にある医療用AIを開発する会社内もしくはクラウド上に設置されてよい。 The location of the integrated server 30 only needs to be on a computer network to which the entity developing the AI model has access rights, and the form of the server does not matter, such as a physical server or a virtual server. The integrated server 30 may be installed within the medical institution network or may be installed outside the medical institution network. For example, the integrated server 30 may be installed within a company that develops medical AI that is geographically remote from the medical institution or on the cloud.

図1においては、クライアントCL1,CL2およびCL3は同じクライアントクラスタに属する。 In FIG. 1, clients CL1, CL2 and CL3 belong to the same client cluster.

図1中の「Federated Avg」という表示を囲む円の左側から延びる矢印は、同じクライアントクラスタに属する各クライアント20から、学習したローカルモデルLMのデータが送信されてきていることを示している。各クライアント20から統合サーバ30に提供される学習結果としてのローカルモデルLMのデータは、学習後のローカルモデルLMの重みパラメータであってよい。 The arrow extending from the left side of the circle surrounding the display "Federated Avg" in FIG. 1 indicates that data of the learned local model LM is being transmitted from each client 20 belonging to the same client cluster. The data of the local model LM as a learning result provided from each client 20 to the integrated server 30 may be a weight parameter of the local model LM after learning.

「Federated Avg」という表示を囲む円は、学習結果を統合する処理を表す。この処理において、各クライアント20から送られてきた重みが平均化等により統合され、統合モデルであるマスターモデル候補MMCが作成される。統合の処理の方法は、単純な加算平均に限らず、クライアント20の属性、過去の統合成績、再学習に用いられた医療機関ごとのデータ数、人間が評価した医療機関のレベルなどの要素に基づいて、重みづけをして統合してもよい。 The circle surrounding the display "Federated Avg" represents the process of integrating learning results. In this process, the weights sent from each client 20 are integrated by averaging or the like, and a master model candidate MMC, which is an integrated model, is created. The integration processing method is not limited to simple arithmetic averaging, but also takes into account factors such as the attributes of the client 20, past integration results, the number of data for each medical institution used for relearning, and the level of medical institutions evaluated by humans. Based on this, it may be weighted and integrated.

図1において「Federated Avg」という表示を囲む円の右側へ延びる矢印の先に示す「Master model」は、クライアントクラスタから作成されたマスターモデル候補MMCを示す。 In FIG. 1, "Master model" shown at the tip of the arrow extending to the right of the circle surrounding the display "Federated Avg" indicates a master model candidate MMC created from the client cluster.

統合サーバ30は、予め用意された検証用データを用いてマスターモデル候補MMCの推論精度を評価する。検証用データは、統合サーバ30の内部の記憶装置に保存されていてもよいし、統合サーバ30と接続される外部記憶装置に保存されていてもよい。 The integrated server 30 evaluates the inference accuracy of the master model candidate MMC using verification data prepared in advance. The verification data may be stored in an internal storage device of the integrated server 30, or may be stored in an external storage device connected to the integrated server 30.

統合サーバ30は、学習用クライアント組み合わせ最適化プログラム33と、データベース36と、を含む。 The integrated server 30 includes a learning client combination optimization program 33 and a database 36.

学習用クライアント組み合わせ最適化プログラム33は、マスターモデル候補MMCの推論精度をデータベース36等のデータ保存部に保存する。データ保存部は、統合サーバ30内の記憶装置の記憶領域であってもよいし、統合サーバ30と接続される外部記憶装置の記憶領域であってもよい。また、学習用クライアント組み合わせ最適化プログラム33は、推論精度を算出したマスターモデル候補MMCがどのクライアント20の組み合わせ(クライアント群)を用いて作成されたかという情報も併せてデータベース36等のデータ保存部に保存する。 The learning client combination optimization program 33 stores the inference accuracy of the master model candidate MMC in a data storage unit such as the database 36 . The data storage unit may be a storage area of a storage device within the integrated server 30, or may be a storage area of an external storage device connected to the integrated server 30. The training client combination optimization program 33 also stores information on which combination of clients 20 (client group) was used to create the master model candidate MMC for which the inference accuracy has been calculated, in a data storage unit such as the database 36. save.

学習用クライアント組み合わせ最適化プログラム33は、マスターモデル候補MMCの推論精度と精度目標値とを比較し、精度目標値を上回る推論精度のマスターモデル候補MMCが見つかるか、または、イテレーションの回数が上限イテレーション数に達するまで、クライアント20の組み合わせを変えてマスターモデル候補MMCの作成とその推論精度の評価とを行うことを繰り返し、マスターモデル候補MMCの推論精度を向上させるようなクライアント20の学習結果の組み合わせ(つまり、クライアント組み合わせ)を探索する。なお、クライアント母集団のうち、マスターモデル候補MMCの作成に使用しないクライアント20が存在してもよい。 The learning client combination optimization program 33 compares the inference accuracy of the master model candidate MMC with the accuracy target value, and determines whether a master model candidate MMC with inference accuracy exceeding the accuracy target value is found or the number of iterations has reached the upper limit iteration. The creation of a master model candidate MMC and the evaluation of its inference accuracy are repeated by changing the combination of clients 20 until the number reaches the number, and the combination of learning results of the clients 20 that improves the inference accuracy of the master model candidate MMC is created. (i.e. client combinations). Note that among the client population, there may be clients 20 that are not used for creating the master model candidate MMC.

統合サーバ30は、マスターモデル候補MMCの推論精度が精度目標値を上回るクライアント組み合わせが制限時間内に見つからなかった場合、クライアント20の学習をさらに進める。 If the integration server 30 does not find a client combination for which the inference accuracy of the master model candidate MMC exceeds the accuracy target value within the time limit, the integrated server 30 further advances the learning of the client 20.

《機械学習方法の概要》
本発明の実施形態に係る機械学習システム10による機械学習方法の例を説明する。以下に示す手順1から手順11にしたがって機械学習システム10が動作する。
《Overview of machine learning methods》
An example of a machine learning method using the machine learning system 10 according to an embodiment of the present invention will be described. The machine learning system 10 operates according to steps 1 to 11 shown below.

[手順1]図1に示すように、AIモデルが学習すべきデータ群が存在している医療機関のコンピュータネットワーク内にある医療機関内端末(クライアント20)上にて、フェデレーテッドラーニングのための分散学習のクライアントプログラムが実行されている。 [Step 1] As shown in Figure 1, data for federated learning is created on the medical institution terminal (client 20) in the medical institution's computer network where the data group that the AI model should learn exists. The distributed learning client program is running.

[手順2]統合サーバ30は、複数のクライアント20のそれぞれが学習を開始する前に、学習に供するマスターモデルの最新版を各クライアント20上のローカルモデルLMと同期させる。マスターモデルは学習済みのAIモデルである。 [Step 2] Before each of the multiple clients 20 starts learning, the integrated server 30 synchronizes the latest version of the master model used for learning with the local model LM on each client 20. The master model is a trained AI model.

[手順3]各クライアント20は、最新版のマスターモデルとの同期後、医療機関内に存在するローカルデータLDを用いてそれぞれの端末上にて学習を行い、指定されたイテレーション数だけ学習処理を回す。学習データとして用いるローカルデータLDは、例えば、医用画像とこれに付随する情報であってよい。「付随する情報」には教師信号に相当する情報が含まれていてよい。イテレーション数は固定値としてもよいが、より好ましくは、推論精度が指定された割合以上に向上した段階まで学習イテレーションを回す。 [Step 3] After synchronizing with the latest version of the master model, each client 20 performs learning on its own terminal using the local data LD existing within the medical institution, and performs the learning process for the specified number of iterations. turn. The local data LD used as learning data may be, for example, a medical image and information accompanying this. The "accompanying information" may include information equivalent to the teacher signal. The number of iterations may be a fixed value, but more preferably, the learning iterations are repeated until the inference accuracy has improved by a specified percentage or more.

[手順4]各クライアント20は学習終了後、学習結果を統合サーバ30に向けて送信する。クライアント20から統合サーバ30に送信される学習結果は、学習後のローカルモデルLMの重みパラメータであってよい。なお、クライアント20から統合サーバ30に送信される学習後の重みパラメータのデータは、統合サーバ30と同期させたマスターモデルの最新版の重みパラメータとの差分であってもよい。 [Step 4] After each client 20 completes learning, it transmits the learning results to the integrated server 30. The learning results sent from the client 20 to the integrated server 30 may be weight parameters of the local model LM after learning. Note that the data of the weight parameters after learning transmitted from the client 20 to the integrated server 30 may be a difference from the weight parameters of the latest version of the master model synchronized with the integrated server 30.

本実施形態による機能を使用するクライアント20である医療機器等の添付文書には診療業務に支障の無い範囲のバックグラウンド処理として、学習が行われることが記載される。また、添付文書には、使用される学習データは医療機関内のデータであり、外部に送信されるデータは学習後の重みパラメータのみであり、個人が特定されるデータは送信されない旨が記載される。 A document attached to a medical device or the like that is a client 20 that uses the functions according to the present embodiment states that learning is performed as background processing within a range that does not interfere with medical work. Additionally, the attached document states that the learning data used is internal to the medical institution, and that the only data sent externally is the weight parameters after learning, and that no data that could identify individuals will be sent. Ru.

[手順5]統合サーバ30上で動作している学習用クライアント組み合わせ最適化プログラム33は、指定されたクライアント数Wのクライアント20をクライアント母集団から抽出し、それらのクライアント20から受信した学習結果を統合して、マスターモデル候補MMCを作成する。学習用クライアント組み合わせ最適化プログラム33は、作成されたマスターモデル候補MMCが、どのクライアント20の組み合わせから作成されているかを示すクライアント組み合わせ情報をデータベース36等のデータ保存部に保存する。 [Step 5] The learning client combination optimization program 33 running on the integrated server 30 extracts the specified number W of clients 20 from the client population, and uses the learning results received from these clients 20. They are integrated to create a master model candidate MMC. The learning client combination optimization program 33 stores client combination information indicating from which combination of clients 20 the created master model candidate MMC is created in a data storage unit such as the database 36 .

[手順6]学習用クライアント組み合わせ最適化プログラム33は、作成されたマスターモデル候補MMCの推論精度の検証を行う。精度検証は、検証用データに対して行われる。すなわち、学習用クライアント組み合わせ最適化プログラム33は、マスターモデル候補MMCに対して、統合サーバ30内に存在する検証用データを入力として用いて推論を行わせ、推論結果と正解データとを比較して推論精度を算出し、データベース36等のデータ保存部にマスターモデル候補MMCの推論精度を保存する。データベース36は本開示における「情報保存部」の一例である。 [Step 6] The learning client combination optimization program 33 verifies the inference accuracy of the created master model candidate MMC. Accuracy verification is performed on verification data. That is, the learning client combination optimization program 33 causes the master model candidate MMC to perform inference using the verification data existing in the integrated server 30 as input, and compares the inference result with the correct data. The inference accuracy is calculated, and the inference accuracy of the master model candidate MMC is stored in a data storage unit such as the database 36. The database 36 is an example of an "information storage unit" in the present disclosure.

[手順7]学習用クライアント組み合わせ最適化プログラム33は、マスターモデル候補の推論精度が精度目標値を上回るクライアント20の組み合わせが見つかるか、または上限イテレーション数に達するまで、クライアント20の組み合わせを変えてマスターモデル候補の作成とその推論精度の算出を行うことを繰り返す。 [Step 7] The training client combination optimization program 33 changes the combinations of clients 20 until the master model candidate's inference accuracy exceeds the accuracy target value or until the upper limit number of iterations is reached. The process of creating model candidates and calculating their inference accuracy is repeated.

この組み合わせ探索を行う際、クライアント母集団から総当たり法的に組み合わせを変えてマスターモデル候補の推論精度が最大になるクライアント20の組み合わせを探してもよいが、より好ましくはローカルモデルLMの重みパラメータの更新に使用しているのと同一の最適化手法など、対象としているモデルの重みパラメータの更新に適した最適化手法を組み合わせ探索に用いる。 When performing this combination search, the combination of clients 20 that maximizes the inference accuracy of the master model candidate may be searched for by brute force changing the combinations from the client population, but it is more preferable to use the weight parameters of the local model LM. An optimization method suitable for updating the weight parameters of the target model is used for the combinatorial search, such as the same optimization method used to update the weight parameters of the target model.

この探索問題は、マスターモデル候補MMCの作成に使用するクライアント20の組み合わせを探索する問題、すなわち対象としているマスターモデル候補MMCのネットワークの重みパラメータを変化させ、推論精度が最大化する方向を探索する問題であるといえる。これはすなわちモデル学習時の重みパラメータ更新の最適化問題と類似の問題であるため、より好ましくはローカルモデルLMを学習する際と同様の確率的勾配降下法やその他の対象としているモデルの重みパラメータの更新に適した最適化法を採用することが好ましい。 This search problem is a problem of searching for a combination of clients 20 used to create a master model candidate MMC, that is, changing the weight parameters of the network of the target master model candidate MMC and searching for a direction that maximizes inference accuracy. This can be said to be a problem. This is a problem similar to the optimization problem of updating weight parameters during model learning, so it is more preferable to use the same stochastic gradient descent method as when learning the local model LM, or use other weight parameters of the target model. It is preferable to adopt an optimization method suitable for updating.

[手順8]マスターモデル候補MMCの推論精度が精度目標値を上回るクライアント20の組み合わせが見つかった場合、その段階で学習処理を終了してよい。 [Step 8] If a combination of clients 20 for which the inference accuracy of the master model candidate MMC exceeds the accuracy target value is found, the learning process may be terminated at that stage.

[手順9]手順7において、上限イテレーション数以内にマスターモデル候補MMCの推論精度が精度目標値を上回るクライアント20の組み合わせが見つからなかった場合、それまでに作成された複数のマスターモデル候補MMCのうち最も推論精度が良かったマスターモデル候補MMCをクライアント群に同期させ、手順2~手順9を反復する。 [Step 9] In Step 7, if a combination of clients 20 for which the inference accuracy of the master model candidate MMC exceeds the accuracy target value within the upper limit number of iterations is not found, then The master model candidate MMC with the best inference accuracy is synchronized with the client group, and steps 2 to 9 are repeated.

これにより、マスターモデル候補の推論精度を早期に最大化するような最適なクライアント20の組み合わせを見出すことができ、精度目標値を上回る推論精度を持つ推論モデルを作成することが可能になる。本実施形態による機械学習システム10を用いた機械学習方法は、推論モデルの作成方法として理解される。 This makes it possible to find an optimal combination of clients 20 that maximizes the inference accuracy of the master model candidate at an early stage, and to create an inference model with inference accuracy that exceeds the target accuracy value. The machine learning method using the machine learning system 10 according to this embodiment is understood as a method for creating an inference model.

《システム構成例》
次に、機械学習システム10の具体的な構成の例について説明する。図2は、本発明の実施形態に係る機械学習システム10のシステム構成例を概略的に示す図である。まず、医療機関ネットワーク50の例を説明する。図2では、図示を簡単にするために、複数の医療機関のそれぞれに同じシステム構成の医療機関ネットワーク50が設置されている場合の例を示すが、医療機関ごとに異なるシステム構成の医療機関ネットワークが構築されてもよい。
《System configuration example》
Next, an example of a specific configuration of the machine learning system 10 will be described. FIG. 2 is a diagram schematically showing a system configuration example of the machine learning system 10 according to the embodiment of the present invention. First, an example of the medical institution network 50 will be explained. In order to simplify the illustration, FIG. 2 shows an example in which a medical institution network 50 with the same system configuration is installed in each of a plurality of medical institutions, but a medical institution network with a different system configuration for each medical institution is shown. may be constructed.

医療機関ネットワーク50は、CT(Computed Tomography)装置52と、MRI(Magnetic Resonance Imaging)装置54と、CR(Computed Radiography)装置56と、PACS(Picture Archiving and Communication Systems)サーバ58と、CADサーバ60と、端末62と、構内通信回線64と、を含むコンピュータネットワークである。 The medical institution network 50 includes a CT (Computed Tomography) device 52, an MRI (Magnetic Resonance Imaging) device 54, a CR (Computed Radiography) device 56, a PACS (Picture Archiving and Communication Systems) server 58, and a CAD server 60. , a terminal 62, and a local communication line 64.

なお、医療機関ネットワーク50は、図2に例示のCT装置52、MRI装置54、およびCR装置56に限らず、これらの一部または全部に代えて、もしくは追加して、不図示のデジタルX線撮影装置、血管造影X線診断装置、超音波診断装置、PET(Positron Emission Tomography)装置、内視鏡装置、マンモグラフィ装置、その他の各種検査装置(モダリティ)のうち少なとも1つまたは組み合わせを含んでもよい。医療機関ネットワーク50に接続される検査装置の種類は、医療機関ごとに様々な組み合わせがありうる。 Note that the medical institution network 50 is not limited to the CT device 52, MRI device 54, and CR device 56 illustrated in FIG. Even if it includes at least one or a combination of imaging devices, angiography X-ray diagnostic devices, ultrasound diagnostic devices, PET (Positron Emission Tomography) devices, endoscope devices, mammography devices, and various other examination devices (modalities). good. There may be various combinations of types of testing devices connected to the medical institution network 50 for each medical institution.

PACSサーバ58は、各種データを保存して管理するコンピュータであり、大容量外部記憶装置およびデータベース管理用ソフトウェアを備えている。PACSサーバ58は、構内通信回線64を介して他の装置と通信を行い、画像データを含む各種データを送受信する。PACSサーバ58は、CT装置52、MRI装置54、およびCR装置56などの各検査装置によって生成された画像データその他の含む各種データを構内通信回線64経由で受信し、大容量外部記憶装置等の記録媒体に保存して管理する。 The PACS server 58 is a computer that stores and manages various data, and includes a large-capacity external storage device and database management software. The PACS server 58 communicates with other devices via the local communication line 64 and sends and receives various data including image data. The PACS server 58 receives image data and other various data generated by each inspection device such as the CT device 52, MRI device 54, and CR device 56 via the in-house communication line 64, and stores it in a large-capacity external storage device or the like. Save and manage on a recording medium.

なお、画像データの格納形式および構内通信回線64経由での各装置間の通信は、DICOM(Digital Imaging and Communication in Medicine)等のプロトコルに基づいている。PACSサーバ58は、DICOMの仕様にて動作するDICOMサーバであってよい。PACSサーバ58に保存されたデータを学習データとして使用することができる。また、PACSサーバ58に保存されたデータを基に作成された学習データをCADサーバ60に保存することも可能である。PACSサーバ58は本開示における「医療機関のデータ保存装置」の一例である。また、CADサーバ60が本開示における「医療機関のデータ保存装置」として機能してもよい。 Note that the storage format of image data and the communication between each device via the local communication line 64 are based on a protocol such as DICOM (Digital Imaging and Communication in Medicine). PACS server 58 may be a DICOM server that operates according to DICOM specifications. Data stored in the PACS server 58 can be used as learning data. Further, learning data created based on data stored in the PACS server 58 can also be stored in the CAD server 60. The PACS server 58 is an example of a "data storage device of a medical institution" in the present disclosure. Further, the CAD server 60 may function as a "data storage device of a medical institution" in the present disclosure.

CADサーバ60は、図1で説明したクライアント20に相当する。CADサーバ60は、統合サーバ30と通信するための通信機能を有し、広域通信回線70を介して統合サーバ30と接続される。CADサーバ60は、構内通信回線64を介してPACSサーバ58等からデータを取得することができる。CADサーバ60は、PACSサーバ58に保存されたデータ群を用いてCADサーバ60上でローカルモデルLMの学習を実行するためのローカル学習管理プログラムを含む。CADサーバ60は本開示における「クライアント端末」の一例である。 The CAD server 60 corresponds to the client 20 described in FIG. The CAD server 60 has a communication function for communicating with the integrated server 30 and is connected to the integrated server 30 via a wide area communication line 70. The CAD server 60 can acquire data from the PACS server 58 and the like via the local communication line 64. The CAD server 60 includes a local learning management program for executing learning of the local model LM on the CAD server 60 using the data group stored in the PACS server 58. The CAD server 60 is an example of a "client terminal" in the present disclosure.

PACSサーバ58のデータベースに保存された各種データ、並びにCADサーバ60による推論結果を含む様々な情報は、構内通信回線64に接続された端末62に表示させることができる。 Various data stored in the database of the PACS server 58 and various information including the inference results by the CAD server 60 can be displayed on the terminal 62 connected to the local communication line 64.

端末62は、PACSビューワ、あるいはDICOMビューワと呼ばれる表示端末であってよい。医療機関ネットワーク50には複数の端末62が接続され得る。端末62の形態は特に限定されず、パーソナルコンピュータであってもよいし、ワークステーションであってもよく、また、タブレット端末などであってもよい。 The terminal 62 may be a display terminal called a PACS viewer or a DICOM viewer. A plurality of terminals 62 may be connected to the medical institution network 50. The form of the terminal 62 is not particularly limited, and may be a personal computer, a workstation, a tablet terminal, or the like.

図2に示すように、複数の医療機関のそれぞれに、同様のシステム構成を持つ医療機関ネットワークが構築されている。統合サーバ30は、広域通信回線70を介して複数のCADサーバ60と通信を行う。広域通信回線70は本開示における「通信回線」の一例である。 As shown in FIG. 2, a medical institution network having a similar system configuration is constructed for each of a plurality of medical institutions. The integrated server 30 communicates with a plurality of CAD servers 60 via a wide area communication line 70. The wide area communication line 70 is an example of a "communication line" in the present disclosure.

《統合サーバ30の構成例》
図3は、統合サーバ30の構成例を示すブロック図である。統合サーバ30は、1台または複数台のコンピュータを用いて構成されるコンピュータシステムによって実現することができる。統合サーバ30は、コンピュータにプログラムをインストールし、実行することにより実現される。
<<Configuration example of integrated server 30>>
FIG. 3 is a block diagram showing an example of the configuration of the integrated server 30. The integrated server 30 can be realized by a computer system configured using one or more computers. The integrated server 30 is realized by installing and executing a program on a computer.

統合サーバ30は、プロセッサ302、非一時的な有体物であるコンピュータ可読媒体304、通信インターフェース306、入出力インターフェース308、バス310、入力装置314および表示装置316を備える。プロセッサ302は本開示における「第1のプロセッサ」の一例である。コンピュータ可読媒体304は本開示における「第1のコンピュータ可読媒体」の一例である。 Integrated server 30 includes a processor 302 , a non-transitory tangible computer readable medium 304 , a communication interface 306 , an input/output interface 308 , a bus 310 , an input device 314 , and a display device 316 . Processor 302 is an example of a "first processor" in this disclosure. Computer-readable medium 304 is an example of a "first computer-readable medium" in this disclosure.

プロセッサ302はCPU(Central Processing Unit)を含む。プロセッサ302はGPU(Graphics Processing Unit)を含んでもよい。プロセッサ302は、バス310を介してコンピュータ可読媒体304、通信インターフェース306および入出力インターフェース308と接続される。入力装置314および表示装置316は入出力インターフェース308を介してバス310に接続される。 Processor 302 includes a CPU (Central Processing Unit). The processor 302 may include a GPU (Graphics Processing Unit). Processor 302 is connected to computer readable media 304, communication interface 306, and input/output interface 308 via bus 310. Input device 314 and display device 316 are connected to bus 310 via input/output interface 308 .

コンピュータ可読媒体304は、主記憶装置であるメモリおよび補助記憶装置であるストレージを含む。コンピュータ可読媒体304は、例えば、半導体メモリ、ハードディスク(HDD:Hard Disk Drive)装置、若しくはソリッドステートドライブ(SSD:Solid State Drive)装置またはこれらの複数の組み合わせであってよい。 Computer-readable medium 304 includes memory, which is a main storage device, and storage, which is an auxiliary storage device. Computer-readable medium 304 may be, for example, a semiconductor memory, a hard disk drive (HDD) device, a solid state drive (SSD) device, or a combination of these.

統合サーバ30は通信インターフェース306を介して広域通信回線70(図2参照)に接続される。 The integrated server 30 is connected to a wide area communication line 70 (see FIG. 2) via a communication interface 306.

コンピュータ可読媒体304は、マスターモデル保存部320と、検証用データ保存部322と、データベース36と、を含む。マスターモデル保存部320には、マスターモデルMMの最新版のデータが保存される。検証用データ保存部322には、マスターモデル候補作成部334にて作成される統合モデルの推論精度を検証する際に使用する複数の検証用データTDが保存される。検証用データTDは、入力用のデータと正解データとが組み合わされたデータであり、テストデータとも呼ばれる。検証用データTDは、例えば、大学等から提供されたデータであってよい。 Computer-readable medium 304 includes a master model storage section 320, a verification data storage section 322, and a database 36. The master model storage unit 320 stores data of the latest version of the master model MM. The verification data storage unit 322 stores a plurality of verification data TD used when verifying the inference accuracy of the integrated model created by the master model candidate creation unit 334. The verification data TD is a combination of input data and correct answer data, and is also called test data. The verification data TD may be, for example, data provided by a university or the like.

コンピュータ可読媒体304には、同期プログラム324、および学習用クライアント組み合わせ最適化プログラム33を含む各種プログラムおよびデータが記憶されている。同期プログラム324は、通信インターフェース306を介してマスターモデルMMのデータを各クライアント20に提供し、それぞれのローカルモデルLMをマスターモデルMMと同期させるためのプログラムである。プロセッサ302が同期プログラム324の命令を実行することにより、コンピュータは、同期処理部として機能する。なお、同期プログラム324は学習用クライアント組み合わせ最適化プログラム33のプログラムモジュールとして組み込まれていてもよい。 The computer readable medium 304 stores various programs and data including a synchronization program 324 and a learning client combination optimization program 33. The synchronization program 324 is a program for providing data of the master model MM to each client 20 via the communication interface 306 and synchronizing each local model LM with the master model MM. When the processor 302 executes the instructions of the synchronization program 324, the computer functions as a synchronization processing section. Note that the synchronization program 324 may be incorporated as a program module of the learning client combination optimization program 33.

プロセッサ302が学習用クライアント組み合わせ最適化プログラム33の命令を実行することにより、コンピュータはクライアント組み合わせ最適化処理部330として機能する。クライアント組み合わせ最適化処理部330は、クライアントクラスタ抽出部332、マスターモデル候補作成部334および推論精度評価部340を含む。推論精度評価部340は、推論部342、推論精度算出部344および精度目標値比較部346を含む。 When the processor 302 executes the instructions of the learning client combination optimization program 33, the computer functions as a client combination optimization processing section 330. The client combination optimization processing section 330 includes a client cluster extraction section 332, a master model candidate creation section 334, and an inference accuracy evaluation section 340. The inference accuracy evaluation unit 340 includes an inference unit 342, an inference accuracy calculation unit 344, and an accuracy target value comparison unit 346.

クライアントクラスタ抽出部332は、複数のクライアント20の中から、マスターモデル候補MMCの作成に使用するクライアント20の組み合わせを抽出し、クライアントクラスタを作成する。例えば、クライアントクラスタ抽出部332は、指定されたクライアント数のクライアント20をクライアント母集団からランダムに、または定められたアルゴリズムにしたがって抽出して、クライアントクラスタを作成する。クライアントクラスタにおけるクライアント数は、プログラムによって指定された固定の値であってもよいし、クライアント組み合わせを最適化する際の変数の1つとしてもよい。 The client cluster extraction unit 332 extracts a combination of clients 20 to be used for creating a master model candidate MMC from among a plurality of clients 20, and creates a client cluster. For example, the client cluster extraction unit 332 extracts a specified number of clients 20 from the client population randomly or according to a predetermined algorithm to create a client cluster. The number of clients in a client cluster may be a fixed value specified by a program, or may be one of the variables when optimizing the client combination.

クライアントクラスタ抽出部332は、クライアント母集団から、クライアント20の組み合わせが異なる複数のクライアントクラスタを作成し得る。クライアントクラスタ抽出部332によって作成される多様なクライアント20の組み合わせである複数のクライアントクラスタは、それぞれのクライアントクラスタを構成しているクライアント20の一部が重複してもよい。クライアントクラスタ抽出部332は、複数のクライアントクラスタを作成するにあたり、クライアント母集団の全クライアントをいずれかのクライアントクラスタに振り分ける必要はなく、一部のクライアント20の学習結果は統合の処理に利用されなくてもよい。 The client cluster extraction unit 332 can create a plurality of client clusters with different combinations of clients 20 from the client population. A plurality of client clusters that are a combination of various clients 20 created by the client cluster extraction unit 332 may include some of the clients 20 that make up each client cluster. When the client cluster extraction unit 332 creates multiple client clusters, it is not necessary to allocate all clients in the client population to any one of the client clusters, and the learning results of some clients 20 are not used in the integration process. You can.

クライアントクラスタ抽出部332によるクライアントクラスタの作成は、各クライアント20がそれぞれの学習を開始する前に行われてもよいし、学習開始後に行われてもよく、例えば、各クライアント20からそれぞれの学習結果を受信した後に行われてもよい。通信インターフェース306は本開示における「受信部」の一例である。クライアントクラスタ抽出部332は本開示における「クライアントクラスタ作成部」の一例である。 Creation of client clusters by the client cluster extraction unit 332 may be performed before each client 20 starts learning, or after the start of learning. This may be done after receiving the. Communication interface 306 is an example of a "receiving unit" in the present disclosure. The client cluster extraction unit 332 is an example of a “client cluster creation unit” in the present disclosure.

クライアントクラスタ抽出部332は、それぞれのクライアントクラスタに属するクライアント20の情報と、クライアントクラスタごとに作成されるマスターモデル候補MMCとの対応関係を示す情報をデータベース36に保存する。 The client cluster extraction unit 332 stores in the database 36 information indicating the correspondence between the information of the clients 20 belonging to each client cluster and the master model candidate MMC created for each client cluster.

マスターモデル候補作成部334は、クライアントクラスタごとに学習結果を統合してマスターモデル候補MMCを作成する。マスターモデル候補MMCがどのクライアントクラスタを基に作成されたかという対応関係を示す情報はデータベース36に保存される。 The master model candidate creation unit 334 integrates the learning results for each client cluster and creates a master model candidate MMC. Information indicating the correspondence relationship regarding which client cluster the master model candidate MMC was created based on is stored in the database 36.

推論精度評価部340は、クライアントクラスタごとに作成されたマスターモデル候補MMCの推論精度を検証し、評価する。 The inference accuracy evaluation unit 340 verifies and evaluates the inference accuracy of the master model candidate MMC created for each client cluster.

推論部342は、マスターモデル候補MMCに検証用データTDを入力して、マスターモデル候補MMCによって推論を実行する。推論精度算出部344は推論部342から得られるマスターモデル候補MMCの推論結果と正解データとを比較して、マスターモデル候補MMCの推論精度を算出する。例えば、正解データには、病変個数や正解臨床所見を画像データとともに付与したデータが用いられる。推論精度算出部344は、検証用データとの比較を通して精度検証を複数回行う。推論精度算出部344は、複数回の精度検証を行った結果から、マスターモデル候補の精度平均値を算出し、この精度平均値をマスターモデル候補の推論精度として評価してもよい。推論精度算出部344により算出された推論精度はデータベース36に保存される。 The inference unit 342 inputs the verification data TD to the master model candidate MMC and executes inference using the master model candidate MMC. The inference accuracy calculation unit 344 compares the inference result of the master model candidate MMC obtained from the inference unit 342 with the correct data, and calculates the inference accuracy of the master model candidate MMC. For example, the correct data includes data in which the number of lesions and correct clinical findings are added together with image data. The inference accuracy calculation unit 344 performs accuracy verification multiple times through comparison with verification data. The inference accuracy calculation unit 344 may calculate an accuracy average value of the master model candidate from the results of multiple accuracy verifications, and evaluate this accuracy average value as the inference accuracy of the master model candidate. The inference accuracy calculated by the inference accuracy calculation unit 344 is stored in the database 36.

精度目標値比較部346は、作成された複数のマスターモデル候補のうち最も推論精度が高いモデルの推論精度を選択し、その推論精度と、目標とする精度(精度目標値)とを比較し、精度目標値を上回る推論精度のマスターモデル候補が得られた否かを判定する。精度目標値は、例えば、マスターモデルMMの最新版の推論精度よりも高い精度に設定され、マスターモデルMMに代わって製品化できるレベルの精度に定められる。 The accuracy target value comparison unit 346 selects the inference accuracy of the model with the highest inference accuracy among the plurality of created master model candidates, compares the inference accuracy with the target accuracy (accuracy target value), It is determined whether a master model candidate with inference accuracy exceeding the accuracy target value has been obtained. The accuracy target value is set, for example, to a higher accuracy than the inference accuracy of the latest version of the master model MM, and is set to a level of accuracy that can be commercialized instead of the master model MM.

同期プログラム324、学習用クライアント組み合わせ最適化プログラム33は本開示における「第1のプログラム」の一例である。 The synchronization program 324 and the learning client combination optimization program 33 are examples of the "first program" in the present disclosure.

また、プロセッサ302が表示制御プログラムの命令を実行することにより、コンピュータは表示制御部350として機能する。表示制御部350は、表示装置316への表示出力に必要な表示用信号を生成し、表示装置316の表示制御を行う。 Furthermore, the computer functions as a display control unit 350 by the processor 302 executing instructions of the display control program. The display control unit 350 generates display signals necessary for display output to the display device 316 and controls the display of the display device 316.

表示装置316は、例えば、液晶ディスプレイ、有機EL(organic electro-luminescence:OEL)ディスプレイ、若しくは、プロジェクタ、またはこれらの適宜の組み合わせによって構成される。入力装置314は、例えば、キーボード、マウス、タッチパネル、若しくはその他のポインティングデバイス、若しくは、音声入力装置、またはこれらの適宜の組み合わせによって構成される。入力装置314は、オペレータによる種々の入力を受け付ける。なお、タッチパネルを用いることによって表示装置316と入力装置314とを一体に構成してもよい。 The display device 316 is configured by, for example, a liquid crystal display, an organic electro-luminescence (OEL) display, a projector, or an appropriate combination thereof. The input device 314 is configured by, for example, a keyboard, a mouse, a touch panel, or other pointing device, a voice input device, or an appropriate combination thereof. Input device 314 accepts various inputs from an operator. Note that the display device 316 and the input device 314 may be configured integrally by using a touch panel.

表示装置316には、複数のマスターモデル候補MMCのそれぞれの各学習イテレーションにおける推論精度を表示させることができる。 The display device 316 can display the inference accuracy in each learning iteration of each of the plurality of master model candidates MMC.

《CADサーバ60の構成例》
図4は、クライアント20の一例であるCADサーバ60の構成例を示すブロック図である。CADサーバ60は、1台または複数台のコンピュータを用いて構成されるコンピュータシステムによって実現することができる。CADサーバ60は、コンピュータにプログラムをインストールし、実行することにより実現される。
<<Configuration example of CAD server 60>>
FIG. 4 is a block diagram showing a configuration example of a CAD server 60, which is an example of the client 20. The CAD server 60 can be realized by a computer system configured using one or more computers. The CAD server 60 is realized by installing and executing a program on a computer.

CADサーバ60は、プロセッサ602、非一時的な有体物であるコンピュータ可読媒体604、通信インターフェース606、入出力インターフェース608、バス610、入力装置614および表示装置616を備える。CADサーバ60のハードウェア構成は、図3で説明した統合サーバ30のハードウェア構成と同様であってよい。すなわち、図4のプロセッサ602、コンピュータ可読媒体604、通信インターフェース606、入出力インターフェース608、バス610、入力装置614および表示装置616のそれぞれのハードウェア構成は、図3のプロセッサ302、コンピュータ可読媒体304、通信インターフェース306、入出力インターフェース308、バス310、入力装置314および表示装置316と同様であってよい。 CAD server 60 includes a processor 602, a non-transitory tangible computer readable medium 604, a communication interface 606, an input/output interface 608, a bus 610, an input device 614, and a display device 616. The hardware configuration of the CAD server 60 may be similar to the hardware configuration of the integrated server 30 described in FIG. 3. That is, the respective hardware configurations of processor 602, computer readable medium 604, communication interface 606, input/output interface 608, bus 610, input device 614, and display device 616 in FIG. , communication interface 306, input/output interface 308, bus 310, input device 314, and display device 316.

CADサーバ60は本開示における「情報処理装置」の一例である。プロセッサ602は本開示における「第2のプロセッサ」の一例である。コンピュータ可読媒体604は本開示における「第2のコンピュータ可読媒体」の一例である。 The CAD server 60 is an example of an "information processing device" in the present disclosure. Processor 602 is an example of a "second processor" in this disclosure. Computer-readable medium 604 is an example of a "second computer-readable medium" in this disclosure.

CADサーバ60は、通信インターフェース606または入出力インターフェース608を介して学習データ保存部80と接続される。学習データ保存部80は、CADサーバ60が機械学習を行うために使用する学習データを保存しておくストレージを含んで構成される。「学習データ」とは、機械学習に用いる訓練用のデータであり、「学習用データ」或いは「訓練データ」と同義である。学習データ保存部80に保存される学習データは図1で説明したローカルデータLDである。学習データ保存部80は、図2で説明したPACSサーバ58であってもよい。学習データ保存部80は本開示における「医療機関のデータ保存装置」の一例である。 The CAD server 60 is connected to the learning data storage section 80 via a communication interface 606 or an input/output interface 608. The learning data storage unit 80 is configured to include a storage that stores learning data used by the CAD server 60 to perform machine learning. "Learning data" is training data used for machine learning, and is synonymous with "learning data" or "training data." The learning data stored in the learning data storage unit 80 is the local data LD described in FIG. 1. The learning data storage unit 80 may be the PACS server 58 described in FIG. 2. The learning data storage unit 80 is an example of a "data storage device of a medical institution" in the present disclosure.

ここでは、学習データ保存部80と、学習処理を実行するCADサーバ60とがそれぞれ別々の装置として構成される例を説明するが、これらの機能は1台のコンピュータで実現してもよいし、2以上の複数台のコンピュータで処理の機能を分担して実現してもよい。
図4に示すCADサーバ60のコンピュータ可読媒体604には、ローカル学習管理プログラム630と診断支援プログラム640とを含む各種プログラムおよびデータが記憶されている。プロセッサ602がローカル学習管理プログラム630の命令を実行することにより、コンピュータは同期処理部631、学習データ取得部632、ローカルモデルLM、誤差演算部634、オプティマイザ635、学習結果保存部636、および送信処理部637として機能する。ローカル学習管理プログラム630は本開示における「第2のプログラム」の一例である。
Here, an example will be described in which the learning data storage unit 80 and the CAD server 60 that executes learning processing are configured as separate devices, but these functions may be realized by a single computer. The processing function may be shared between two or more computers.
The computer readable medium 604 of the CAD server 60 shown in FIG. 4 stores various programs and data including a local learning management program 630 and a diagnostic support program 640. When the processor 602 executes the instructions of the local learning management program 630, the computer executes the synchronization processing unit 631, learning data acquisition unit 632, local model LM, error calculation unit 634, optimizer 635, learning result storage unit 636, and transmission processing. 637. The local learning management program 630 is an example of a "second program" in the present disclosure.

同期処理部631は、通信インターフェース606を介して統合サーバ30と通信を行い、統合サーバ30内のマスターモデルMMとCADサーバ60内のローカルモデルLMとを同期させる。 The synchronization processing unit 631 communicates with the integrated server 30 via the communication interface 606 and synchronizes the master model MM in the integrated server 30 and the local model LM in the CAD server 60.

学習データ取得部632は、学習データ保存部80から学習データを取得する。学習データ取得部632は、外部または装置内の他の信号処理部からデータを取り込むデータ入力端子を含んで構成されてよい。また、学習データ取得部632は、通信インターフェース306、入出力インターフェース308、若しくは、不図示のメモリカードなどの可搬型の外部記憶媒体の読み書きを行うメディアインターフェース、またはこれら態様の適宜の組み合わせを含んで構成されてもよい。 The learning data acquisition unit 632 acquires learning data from the learning data storage unit 80. The learning data acquisition section 632 may be configured to include a data input terminal that takes in data from the outside or from another signal processing section within the device. The learning data acquisition unit 632 also includes a communication interface 306, an input/output interface 308, a media interface that reads and writes from a portable external storage medium such as a memory card (not shown), or an appropriate combination of these aspects. may be configured.

学習データ取得部632を介して取得された学習データは、学習モデルとしてのローカルモデルLMに入力される。 The learning data acquired via the learning data acquisition unit 632 is input to the local model LM as a learning model.

誤差演算部634は、ローカルモデルLMから出力されたスコアが示す予測値と、正解データとの誤差を算出する。誤差演算部634は、損失関数を用いて誤差を評価する。損失関数は、例えば、交差エントロピーまたは平均二乗誤差などであってよい。 The error calculation unit 634 calculates the error between the predicted value indicated by the score output from the local model LM and the correct data. The error calculation unit 634 evaluates the error using a loss function. The loss function may be, for example, cross entropy or mean squared error.

オプティマイザ635は、誤差演算部634の演算結果からローカルモデルLMの重みパラメータを更新する処理を行う。オプティマイザ635は、誤差演算部634から得られる誤差の演算結果を用いて、ローカルモデルLMの重みパラメータの更新量を求める演算処理と、算出された重みパラメータの更新量に従い、ローカルモデルLMの重みパラメータの更新処理と、を行う。オプティマイザ635は、誤差逆伝播法などのアルゴリズムに基づき重みパラメータの更新を行う。 The optimizer 635 performs a process of updating the weight parameters of the local model LM from the calculation results of the error calculation unit 634. The optimizer 635 uses the error calculation result obtained from the error calculation unit 634 to perform calculation processing to determine the update amount of the weight parameter of the local model LM, and according to the calculated update amount of the weight parameter, the weight parameter of the local model LM. Update processing and. The optimizer 635 updates weight parameters based on an algorithm such as error backpropagation.

ローカル学習管理プログラム630が組み込まれたCADサーバ60は、ローカルデータLDを学習データとして用いてCADサーバ60上で機械学習を実行するローカル学習装置として機能する。CADサーバ60は、学習データ保存部80からローカルデータLDである学習データを読み込み、機械学習を実行する。CADサーバ60は、複数の学習データをまとめたミニバッチの単位で学習データの読み込みと、重みパラメータの更新を行うことができる。学習データ取得部632、ローカルモデルLM、誤差演算部634およびオプティマイザ635を含む処理部は本開示における「学習処理部」の一例である。 The CAD server 60 incorporating the local learning management program 630 functions as a local learning device that executes machine learning on the CAD server 60 using the local data LD as learning data. The CAD server 60 reads learning data, which is local data LD, from the learning data storage unit 80 and executes machine learning. The CAD server 60 can read learning data and update weight parameters in units of mini-batches that are a collection of a plurality of learning data. A processing unit including the learning data acquisition unit 632, local model LM, error calculation unit 634, and optimizer 635 is an example of a “learning processing unit” in the present disclosure.

ローカル学習管理プログラム630は、学習の終了条件を満たすまで、学習処理のイテレーションを回す。学習の終了条件を満たした後、学習結果としてのローカルモデルLMの重みパラメータは学習結果保存部636に保存される。 The local learning management program 630 repeats the learning process until the learning end condition is met. After the learning termination condition is satisfied, the weight parameters of the local model LM as the learning results are stored in the learning result storage unit 636.

送信処理部637は、学習結果を統合サーバ30に送信する処理を行う。学習結果保存部636に保存された学習後のローカルモデルLMの重みパラメータは、通信インターフェース606を介して広域通信回線70経由で統合サーバ30に送られる(図2参照)。送信処理部637及び通信インターフェース606は本開示における「送信部」の一例である。 The transmission processing unit 637 performs a process of transmitting the learning results to the integrated server 30. The weight parameters of the local model LM after learning stored in the learning result storage unit 636 are sent to the integrated server 30 via the communication interface 606 and the wide area communication line 70 (see FIG. 2). The transmission processing unit 637 and the communication interface 606 are an example of a “transmission unit” in the present disclosure.

また、プロセッサ602が診断支援プログラム640の命令を実行することにより、コンピュータはAI-CAD部642として機能する。 Furthermore, the computer functions as an AI-CAD section 642 by the processor 602 executing the instructions of the diagnostic support program 640.

AI-CAD部642は、マスターモデルMMまたはローカルモデルLMを推論モデルとして用いて、入力データに対する推論結果を出力する。AI-CAD部642に対する入力データは、例えば、2次元画像、3次元画像または動画像の医用画像であり、AI-CAD部642からの出力は例えば、画像内における病変部位の位置を示す情報、もしくは病名などのクラス分類を示す情報、またはこれらの組み合わせであってよい。 The AI-CAD unit 642 uses the master model MM or the local model LM as an inference model and outputs an inference result for input data. The input data to the AI-CAD unit 642 is, for example, a medical image such as a two-dimensional image, a three-dimensional image, or a moving image, and the output from the AI-CAD unit 642 is, for example, information indicating the position of a lesion site within the image, Alternatively, it may be information indicating a class classification such as a disease name, or a combination thereof.

《ローカル学習管理プログラム630の説明》
既に説明したとおり、医療機関ネットワーク50に存在するクライアント端末(クライアント20)上に、ローカル学習管理プログラム630を構築する。ここでいうクライアント端末は、例えば図2におけるCADサーバ60であってよい。このローカル学習管理プログラム630は、学習前のマスターモデルMMとローカルモデルLMの同期、ローカル学習の起動、ローカル学習の終了条件の設定、並びに、ローカル学習終了時にローカル学習の結果を統合サーバ30に送信する機能を有する。
《Explanation of local learning management program 630》
As already explained, the local learning management program 630 is constructed on the client terminal (client 20) existing in the medical institution network 50. The client terminal here may be, for example, the CAD server 60 in FIG. 2. This local learning management program 630 synchronizes the master model MM and local model LM before learning, starts local learning, sets end conditions for local learning, and sends the results of local learning to the integrated server 30 when local learning ends. It has the function of

図5は、ローカル学習管理プログラム630に基づくクライアント端末の動作の例を示すフローチャートである。図5に示すフローチャートのステップは、プロセッサ602がローカル学習管理プログラム630の命令に従って実行する。 FIG. 5 is a flowchart illustrating an example of the operation of the client terminal based on the local learning management program 630. The steps of the flowchart shown in FIG. 5 are performed by processor 602 according to instructions from local learning management program 630.

ステップS21において、CADサーバ60のプロセッサ602は、ローカル学習管理プログラム630にて設定された時刻になると、ローカルモデルLMとマスターモデルMMを同期させる。ここで「設定された時刻」とは、例えば病院の検査営業時間外を固定値で指定してもよいし、CADサーバ60の稼働状況の記録を持っておいて、通常CADサーバ60が使用されていない時間を割り出すことでプログラム的に設定してもよい。 In step S21, the processor 602 of the CAD server 60 synchronizes the local model LM and the master model MM at the time set in the local learning management program 630. Here, the "set time" may be specified as a fixed value, for example, outside of the hospital's testing business hours, or a record of the operating status of the CAD server 60 may be kept and the CAD server 60 is normally used. It may also be set programmatically by determining the amount of time during which it is not being used.

ローカルモデルLMとマスターモデルMMの同期に際しては、例えば、モデルが使用するパラメータファイルを更新してそれをプログラムが読み込んで学習を進めるという形態でもよいし、仮想コンテナイメージ様のものを統合サーバ30側で集中管理し、その仮想コンテナイメージ様のものをクライアント20である端末側で展開するという形態でもよい。この同期の処理により、マスターモデルMMが学習開始前の初期状態の学習モデル(ローカルモデルLM)となる。 When synchronizing the local model LM and master model MM, for example, the parameter file used by the model may be updated and the program reads it to proceed with learning, or a virtual container image or the like may be updated on the integrated server 30 side. It may also be possible to centrally manage the data and deploy the virtual container image on the terminal side, which is the client 20. Through this synchronization process, the master model MM becomes a learning model (local model LM) in an initial state before the start of learning.

ステップS22において、プロセッサ602はローカルデータLDを用いてローカル学習を実行する。マスターモデルMMと同期されたローカルモデルLMは、ローカル学習管理プログラム630によってその学習処理を起動され、医療機関ネットワーク50内にあるローカルデータLDを参照して、ローカル学習が進められる。 In step S22, the processor 602 executes local learning using the local data LD. The local model LM synchronized with the master model MM has its learning process activated by the local learning management program 630, and local learning proceeds with reference to local data LD within the medical institution network 50.

ステップS23において、プロセッサ602は学習の終了条件を満たすか否かを判定する。ここで学習の終了条件は、例えば次のような条件の例を挙げることができる。 In step S23, the processor 602 determines whether the learning end condition is satisfied. Here, examples of the learning end conditions include the following conditions.

[例1]予めイテレーションの回数を指定しておき、指定された回数のイテレーション後に学習を終了する。 [Example 1] Specify the number of iterations in advance, and end learning after the specified number of iterations.

[例2]医療機関ネットワーク50内に検証用データを保持しておき、学習が進んだモデルに検証用データを入力して得られる推論結果の正解に対する精度比較をすることで推論精度を算出し、指定された割合の精度向上を達成するまで学習を行う。つまり、検証用データを用いて学習モデルの推論精度を算出し、指定された割合の精度向上を達成したら学習を終了する。 [Example 2] Inference accuracy is calculated by retaining verification data in the medical institution network 50 and comparing the accuracy of the inference results obtained by inputting the verification data to a well-trained model with respect to the correct answer. , performs learning until it achieves a specified percentage improvement in accuracy. That is, the inference accuracy of the learning model is calculated using the verification data, and the learning is terminated when a specified percentage of accuracy improvement is achieved.

[例3]制限時間を設定しておき、その制限時間内は学習を行い、制限時間が来たら学習を終了する。 [Example 3] A time limit is set, learning is performed within the time limit, and learning is terminated when the time limit is reached.

上記の[例1]~[例3]のいずれか1つの終了条件を定めておいてもよいし、複数の条件の論理積(AND)もしくは論理和(OR)を終了条件としてもよい。 Any one of the above-mentioned [Example 1] to [Example 3] may be defined as the termination condition, or the termination condition may be a logical product (AND) or a logical sum (OR) of a plurality of conditions.

ステップS23の判定結果がNo判定である場合、プロセッサ602はステップS22に戻り、ローカル学習の処理を続ける。一方、ステップS23の判定結果がYes判定である場合、プロセッサ602はステップS24に進み、学習を終了する。 If the determination result in step S23 is No, the processor 602 returns to step S22 and continues the local learning process. On the other hand, if the determination result in step S23 is Yes, the processor 602 proceeds to step S24 and ends the learning.

学習終了後、ステップS25において、プロセッサ602はその学習結果を統合サーバ30に送信する。例えば、プロセッサ602は、学習したモデルをファイルに保存するなどして、統合サーバ30に広域通信回線70経由で送信する。 After the learning is completed, the processor 602 transmits the learning results to the integrated server 30 in step S25. For example, the processor 602 saves the learned model in a file and transmits it to the integrated server 30 via the wide area communication line 70.

図2に示した複数のCADサーバ60のそれぞれが、互いに異なる医療機関ネットワーク内のPACSサーバ58に保存されているデータを学習データに用いて、それぞれのローカルモデルLMの機械学習を実行し、学習結果を広域通信回線70経由で統合サーバ30に送信する。 Each of the plurality of CAD servers 60 shown in FIG. 2 executes machine learning of each local model LM using data stored in PACS servers 58 in different medical institution networks as learning data. The results are sent to the integrated server 30 via the wide area communication line 70.

《学習用クライアント組み合わせ最適化プログラム33の説明》
図6は、学習用クライアント組み合わせ最適化プログラム33に基づく統合サーバ30の動作の例を示すフローチャートである。図6に示すフローチャートのステップは、プロセッサ302が学習用クライアント組み合わせ最適化プログラム33の命令に従って実行する。
《Explanation of learning client combination optimization program 33》
FIG. 6 is a flowchart showing an example of the operation of the integrated server 30 based on the learning client combination optimization program 33. The steps of the flowchart shown in FIG. 6 are executed by the processor 302 according to the instructions of the learning client combination optimization program 33.

ステップS31において、プロセッサ302は各クライアント20から学習結果を受信する。 In step S31, the processor 302 receives learning results from each client 20.

ステップS32において、プロセッサ302は指定された数のクライアント20をクライアント母集団から抽出し、抽出したクライアント20の組み合わせであるクライアントクラスタを作成する。ある1つのクライアントクラスタは、クライアント20の組み合わせの1パターンと理解される。そして、ステップS33において、プロセッサ302はクライアントクラスタに属するクライアント20の学習結果を統合してマスターモデル候補を作成する。 In step S32, the processor 302 extracts a specified number of clients 20 from the client population, and creates a client cluster that is a combination of the extracted clients 20. One client cluster is understood as one pattern of combinations of clients 20. Then, in step S33, the processor 302 integrates the learning results of the clients 20 belonging to the client cluster to create a master model candidate.

なお、ステップS32の際に、クライアントクラスタを構成するクライアント20の組み合わせ方はランダム抽出でもよいが、より好ましくは、前回までの組み合わせ探索状況が保存されているのであれば、その組み合わせから以降の探索を再開する。 Note that in step S32, the combination of the clients 20 constituting the client cluster may be randomly extracted, but more preferably, if the previous combination search status is saved, subsequent searches are performed from that combination. resume.

また、プロセッサ302は、ステップS33にて、あるクライアントクラスタクライアント20のマスターモデル候補MMCを作成した際に、そのマスターモデル候補MMCが、どのクライアント20の組み合わせを用いて作成されたかという対応関係を示す情報をデータベース36等のデータ保存部に保存する。 Further, in step S33, when creating a master model candidate MMC for a certain client cluster client 20, the processor 302 indicates a correspondence relationship indicating which combination of clients 20 was used to create the master model candidate MMC. The information is stored in a data storage unit such as database 36.

ステップS34において、プロセッサ302は作成したマスターモデル候補MMCについて推論精度の評価を行う。すなわち、プロセッサ302はマスターモデル候補MMCに対して、統合サーバ30内に存在する検証用データTDを入力として用いて推論を行わせ、その推論精度を算出して、推論精度と精度目標値とを比較する。また、プロセッサ302は、算出した推論精度、ならびに、推論精度と精度目標値との比較結果を、マスターモデル候補と関連付けて(紐付けて)データベース36に保存する。 In step S34, the processor 302 evaluates the inference accuracy of the created master model candidate MMC. That is, the processor 302 causes the master model candidate MMC to perform inference using the verification data TD existing in the integrated server 30 as input, calculates the inference accuracy, and calculates the inference accuracy and the accuracy target value. compare. Further, the processor 302 stores the calculated inference accuracy and the comparison result between the inference accuracy and the accuracy target value in the database 36 in association with (linking) the master model candidate.

ステップS34の処理の際に精度目標値と比較するマスターモデル候補の推論精度は、瞬時値、または平均値あるいは中央値などの統計値のうち適切な値を使用する。ステップS34に適用される推論精度の評価の処理内容の例については図7を用いて後述する。 For the inference accuracy of the master model candidate to be compared with the accuracy target value in the process of step S34, an appropriate value from an instantaneous value or a statistical value such as an average value or a median value is used. An example of the processing content of the inference accuracy evaluation applied to step S34 will be described later using FIG. 7.

ステップS35において、プロセッサ302は精度目標値を上回るマスターモデル候補MMCが得られたかどうかを判定する。 In step S35, the processor 302 determines whether a master model candidate MMC exceeding the accuracy target value has been obtained.

ステップS35の判定結果がNo判定である場合、つまり、推論精度が精度目標値を上回るマスターモデル候補MMCが得られていない場合、プロセッサ302はステップS36に進む。 If the determination result in step S35 is No, that is, if a master model candidate MMC whose inference accuracy exceeds the accuracy target value has not been obtained, the processor 302 proceeds to step S36.

ステップS36において、プロセッサ302は組み合わせ探索のイテレーションの回数が上限イテレーション数に到達したか否かを判定する。ステップS36の判定結果がNo判定である場合、プロセッサ302はステップS32に戻り、クライアント20の組み合わせを変更して、ステップS32~ステップS36を反復する。プロセッサ302は上限イテレーション数に達するか、マスターモデル候補の推論精度が精度目標値を上回る組み合わせが見つかるまで、ステップS32~ステップS36を反復する。なお、ステップS35とステップS36の判定順は入れ替えてもよい。 In step S36, the processor 302 determines whether the number of iterations of the combination search has reached the upper limit number of iterations. If the determination result in step S36 is No, the processor 302 returns to step S32, changes the combination of clients 20, and repeats steps S32 to S36. The processor 302 repeats steps S32 to S36 until the upper limit number of iterations is reached or a combination is found for which the inference accuracy of the master model candidate exceeds the accuracy target value. Note that the order of determination in step S35 and step S36 may be reversed.

一方、ステップS35の判定結果がYes判定である場合、すなわち、マスターモデル候補の推論精度が精度目標値を上回っていた場合、プロセッサ302は学習を終了させ(ステップS37)、ステップS38に進む。 On the other hand, if the determination result in step S35 is Yes, that is, if the inference accuracy of the master model candidate exceeds the accuracy target value, the processor 302 ends learning (step S37) and proceeds to step S38.

ステップS38において、プロセッサ302は精度目標値を上回る推論精度のマスターモデル候補を学習後の性能改善された最新のモデルとし、このモデルをファイル等適切な形式でデータベース36等のデータ保存部に保存し、学習が終了したことを通知する。ここで通知方法はメッセージキューあるいは一般的なプロセス間通信等を用いることができる。なお、学習が終了したことを知らせる通知は、表示装置316に表示させてもよいし、クライアント20に送信してもよい。 In step S38, the processor 302 sets the master model candidate whose inference accuracy exceeds the accuracy target value as the latest model with improved performance after learning, and stores this model in a data storage unit such as the database 36 in an appropriate format such as a file. , notifies you that learning has finished. Here, a message queue or general inter-process communication can be used as the notification method. Note that the notification that the learning has ended may be displayed on the display device 316 or may be sent to the client 20.

ステップS36の判定結果がYes判定である場合、つまり、マスターモデル候補MMCの推論精度が精度目標値を上回るクライアント20の組み合わせが上限イテレーション数内で見つからなかった場合、プロセッサ302はステップS39に進む。 If the determination result in step S36 is Yes, that is, if no combination of clients 20 for which the inference accuracy of the master model candidate MMC exceeds the accuracy target value is found within the upper limit number of iterations, the processor 302 proceeds to step S39.

ステップS39において、プロセッサ302はステップS32からステップS36の反復において見つかった最も推論精度が良かったマスターモデル候補MMCを暫定的なマスターモデルとし、このモデルをクライアントのローカルモデルLMに同期させ、図5のステップS21~S25と図6のステップS31~S39とを反復する。 In step S39, the processor 302 sets the master model candidate MMC with the best inference accuracy found in the repetition of steps S32 to S36 as a provisional master model, synchronizes this model with the local model LM of the client, and synchronizes this model with the local model LM of the client, as shown in FIG. Steps S21 to S25 and steps S31 to S39 in FIG. 6 are repeated.

《推論精度の評価処理の例》
図7は、統合サーバ30においてマスターモデル候補MMCの推論精度を評価する処理の例を示すフローチャートである。図7に示すフローチャートは、図6のステップS34に適用される。ここでは1つのマスターモデル候補MMCについて推論精度の評価処理を説明するが、クライアント20の組み合わせが異なる複数のクライアントクラスタのそれぞれから作成される各マスターモデル候補MMCについて同様の処理が行われる。
《Example of inference accuracy evaluation process》
FIG. 7 is a flowchart illustrating an example of a process for evaluating the inference accuracy of the master model candidate MMC in the integrated server 30. The flowchart shown in FIG. 7 is applied to step S34 in FIG. Although the inference accuracy evaluation process for one master model candidate MMC will be described here, the same process is performed for each master model candidate MMC created from each of a plurality of client clusters with different combinations of clients 20.

図7のステップS341において、プロセッサ302はマスターモデル候補MMCに対して検証用データTDを入力として推論を実行させる。 In step S341 of FIG. 7, the processor 302 causes the master model candidate MMC to perform inference using the verification data TD as input.

ステップS342において、プロセッサ302は推論の結果と正解データとに基づきマスターモデル候補MMCの推論精度を算出する。 In step S342, the processor 302 calculates the inference accuracy of the master model candidate MMC based on the inference result and the correct data.

ステップS343において、プロセッサ302はマスターモデル候補MMCの推論精度と精度目標値を比較する。ここで精度目標値と比較するのは、マスターモデル候補MMCの推論精度瞬時値と比較してもよいが、マスターモデル候補MMCの作成に用いるクライアントクラスタの構成を固定したまま、ステップS31~S343の手順を何イテレーションか実施し、その際の推論精度を毎回記録し、それらの推論精度の平均値や中央値などの統計値と精度目標値を比較してもよい。 In step S343, the processor 302 compares the inference accuracy of the master model candidate MMC with the accuracy target value. Although the accuracy target value may be compared with the instantaneous inference accuracy value of the master model candidate MMC, steps S31 to S343 may be performed while keeping the configuration of the client cluster used for creating the master model candidate MMC fixed. It is also possible to perform the procedure several times, record the inference accuracy each time, and compare statistical values such as the average value and median of the inference accuracy with the accuracy target value.

ステップS344において、プロセッサ302はマスターモデル候補MMCの推論精度、ならびに、推論精度と精度目標値の比較結果をデータベース36に保存する。 In step S344, the processor 302 stores the inference accuracy of the master model candidate MMC and the comparison result between the inference accuracy and the accuracy target value in the database 36.

ステップS344の後、プロセッサ302は図7のフローチャートを終了し、図6のフローチャートに復帰する。 After step S344, the processor 302 ends the flowchart of FIG. 7 and returns to the flowchart of FIG. 6.

《統合サーバ30と複数のクライアント20との連携による処理の具体例》
ここで統合サーバ30と複数のクライアント20とが行う処理のさらに具体的な例を説明する。ここでは、複数のクライアント20は図2に示した複数のCADサーバ60とする。統合サーバ30と複数のCADサーバ60によって以下に示す[手順301]~[手順307]の処理が実行される。
<<Specific example of processing by cooperation between the integrated server 30 and multiple clients 20>>
A more specific example of the processing performed by the integrated server 30 and the plurality of clients 20 will now be described. Here, the plurality of clients 20 are assumed to be the plurality of CAD servers 60 shown in FIG. The integrated server 30 and the plurality of CAD servers 60 execute the following processes [Procedure 301] to [Procedure 307].

[手順301]複数の医療機関のそれぞれの医療機関ネットワーク50内にあるCADサーバ60上にて、分散学習のクライアントプログラムが実行されている。 [Step 301] A client program for distributed learning is executed on the CAD server 60 in the medical institution network 50 of each of a plurality of medical institutions.

[手順302]統合サーバ30は、クライアント母集団である無数のクライアント20を含むクライアント群の中から、学習に使用する一部のクライアント群(クライアントクラスタ)をランダム抽出し、クライアント20の組み合わせが異なるクライアントクラスタを複数作成する。 [Step 302] The integrated server 30 randomly extracts some client groups (client clusters) to be used for learning from a client group including countless clients 20, which is a client population, and selects different combinations of clients 20. Create multiple client clusters.

[手順303]各クライアントクラスタ内の分散学習用のクライアント20は、それぞれが属する医療機関ネットワーク内のデータ(例えば、医用画像)およびそれに付随する情報を用いて学習のためのイテレーションを設定された回数行う。 [Step 303] The distributed learning clients 20 in each client cluster calculate the number of iterations set for learning using data (for example, medical images) and associated information in the medical institution network to which each client cluster belongs. conduct.

[手順304]各クライアント20は、学習した学習モデルの重みパラメータを広域通信回線70経由で統合サーバ30に向けて送信する。 [Step 304] Each client 20 transmits the learned weight parameters of the learning model to the integrated server 30 via the wide area communication line 70.

[手順305]統合サーバ30は、クライアント20から送られてきた学習結果の重みパラメータをクライアントクラスタごとに集約し、クライアントクラスタごとにマスターモデル候補MMCを作成する。 [Step 305] The integrated server 30 aggregates the weight parameters of the learning results sent from the clients 20 for each client cluster, and creates a master model candidate MMC for each client cluster.

[手順306]統合サーバ30は、クライアントクラスタごとに作成された各マスターモデル候補の精度検証を行う。統合サーバ30は、マスターモデル候補MMCに検証用データTDに関する推論を行わせ、その推論結果と正解データの比較を行う。 [Step 306] The integrated server 30 verifies the accuracy of each master model candidate created for each client cluster. The integrated server 30 causes the master model candidate MMC to perform inference regarding the verification data TD, and compares the inference result with the correct data.

[手順307]統合サーバ30は、クライアントクラスタごとに作成された各マスターモデル候補MMCのうち、最も推論精度が高いモデルの推論精度を確認する。その最も高い推論精度が目標の精度(精度目標値)を上回っていた場合、その最高精度の(推論精度が最大の)マスターモデル候補MMCを製品モデルとして採用する。 [Step 307] The integrated server 30 checks the inference accuracy of the model with the highest inference accuracy among the master model candidate MMCs created for each client cluster. If the highest inference accuracy exceeds the target accuracy (accuracy target value), the master model candidate MMC with the highest accuracy (the highest inference accuracy) is adopted as the product model.

一方、最高精度のマスターモデル候補MMCの推論精度が精度目標値を下回っていた場合、統合サーバ30は、モデル推論精度を目的関数とし、モデル推論精度を最大化するようなクライアント20の重み統合の組み合わせを、指定された時間内で探索する。 On the other hand, if the inference accuracy of the master model candidate MMC with the highest accuracy is lower than the accuracy target value, the integrated server 30 sets the model inference accuracy as an objective function and performs the weight integration of the client 20 that maximizes the model inference accuracy. Search for combinations within a specified time.

例えば、クライアントCL1、CL3およびCL5の学習結果を平均してマスターモデル候補MMCの重みパラメータとして使用していたのを、クライアントCL1、CL3およびCL6の組み合わせに変更して、これらの学習結果の平均を取ってみるなど、組み合わせ探索を行う。 For example, the average of the learning results of clients CL1, CL3, and CL5 was used as the weight parameter of the master model candidate MMC, but it was changed to a combination of clients CL1, CL3, and CL6, and the average of these learning results was used as the weight parameter of the master model candidate MMC. Exploring combinations, such as trying different things.

その結果、探索制限時間内で精度目標値を上回る推論精度のマスターモデル候補MMCが得られるクライアント20の重み組み合わせが見つかった場合、そのマスターモデル候補MMCを製品モデルとして採用する。 As a result, if a weight combination for the client 20 is found that yields a master model candidate MMC with an inference accuracy exceeding the accuracy target value within the search limit time, that master model candidate MMC is adopted as the product model.

一方、探索制限時間内で精度目標値を上回る推論精度のマスターモデル候補MMCが得られるクライアント20の重み組み合わせが見つからなかった場合、統合サーバ30は、探索の過程で試みた多様な組み合わせの中で精度が上位のクライアントクラスタを用いて手順303から手順307までの学習のイテレーションを再度行う。 On the other hand, if a weight combination for the client 20 that yields a master model candidate MMC with an inference accuracy exceeding the accuracy target value within the search time limit is not found, the integrated server 30 selects one of the various combinations tried during the search process. The learning iterations from step 303 to step 307 are performed again using the client cluster with higher accuracy.

統合サーバ30は、精度目標値を上回る推論精度のマスターモデル候補MMCが得られるまで、手順303から手順307までの学習のイテレーションを行う。あるいは、統合サーバ30は、指定されたイテレーション上限数まで、イテレーションを回しても精度目標値を上回る推論精度のマスターモデル候補MMCが得られない場合には、それまでの探索の過程において最大の推論精度が得られたマスターモデル候補MMCを、製品モデルとして採用してもよい。 The integrated server 30 repeats the learning from step 303 to step 307 until a master model candidate MMC with inference accuracy exceeding the accuracy target value is obtained. Alternatively, if a master model candidate MMC with an inference accuracy exceeding the accuracy target value is not obtained even after repeated iterations up to the specified upper limit number of iterations, the integrated server 30 performs the maximum inference in the search process up to that point. The master model candidate MMC for which accuracy has been obtained may be adopted as a product model.

こうして本実施形態に係る機械学習システム10を用いて機械学習方法を実施することによって作成された新たなマスターモデルは、学習前のマスターモデルよりも推論精度が向上する。 In this way, the new master model created by implementing the machine learning method using the machine learning system 10 according to the present embodiment has improved inference accuracy compared to the master model before learning.

本実施形態によれば、マスターモデルMMの推論性能をアップデートすることが可能である。本実施形態に係る機械学習方法を実施することによって作成された新たなマスターモデルを販売等によって提供する場合には、販売時等の添付文書に、学習に使用したクライアント数、および精度検証に使用した検証用データ数などが記載されることが好ましい。学習に使用したクライアント数に関しては、クライアント概要として、例えば、「病院_何件」、「有床診療所_何件」、および「無床診療所_何件」という具合に、クライアントの分類を示すことが好ましい。 According to this embodiment, it is possible to update the inference performance of the master model MM. When providing a new master model created by implementing the machine learning method according to this embodiment through sales, etc., the number of clients used for learning and the number of clients used for accuracy verification shall be included in the attached document at the time of sale. It is preferable that the number of verification data obtained is described. Regarding the number of clients used for learning, we categorized the clients as a client summary, for example, "how many hospitals," "how many clinics with beds," and "how many clinics without beds." It is preferable to indicate.

なお、現状の製品であるマスターモデルからバージョンアップを行う際の事前の手続として、前バージョンの推論精度と新バージョンの推論精度とを明示する情報、ならびに、追加の学習に使用したクライアント数と分類を示す情報を合わせて医療機関側に提示し、医療機関側のバージョンアップ前承認を受ける。そして、承認を得た後にバージョンアップを行う。 In addition, as a preliminary procedure when upgrading from the current product master model, information specifying the inference accuracy of the previous version and the new version, as well as the number and classification of clients used for additional learning. This information is also presented to the medical institution and the medical institution obtains approval before upgrading. After receiving approval, the version will be updated.

《コンピュータのハードウェア構成の例》
図8は、コンピュータのハードウェア構成の例を示すブロック図である。コンピュータ800は、パーソナルコンピュータであってもよいし、ワークステーションであってもよく、また、サーバコンピュータであってもよい。コンピュータ800は、既に説明したクライアント20、統合サーバ30、PACSサーバ58、CADサーバ60、及び端末62のいずれかの一部または全部、あるいはこれらの複数の機能を備えた装置として用いることができる。
《Example of computer hardware configuration》
FIG. 8 is a block diagram showing an example of the hardware configuration of a computer. Computer 800 may be a personal computer, a workstation, or a server computer. The computer 800 can be used as a device having some or all of the previously described client 20, integrated server 30, PACS server 58, CAD server 60, and terminal 62, or a plurality of these functions.

コンピュータ800は、CPU(Central Processing Unit)802、RAM(Random Access Memory)804、ROM(Read Only Memory)806、GPU(Graphics Processing Unit)808、ストレージ810、通信部812、入力装置814、表示装置816およびバス818を備える。なお、GPU808は、必要に応じて設ければよい。 The computer 800 includes a CPU (Central Processing Unit) 802, a RAM (Random Access Memory) 804, a ROM (Read Only Memory) 806, a GPU (Graphics Processing Unit) 808, a storage 810, a communication unit 812, an input device 814, and a display device 816. and a bus 818. Note that the GPU 808 may be provided as necessary.

CPU802は、ROM806またはストレージ810等に記憶された各種のプログラムを読み出し、各種の処理を実行する。RAM804は、CPU802の作業領域として使用される。また、RAM804は、読み出されたプログラムおよび各種のデータを一時的に記憶する記憶部として用いられる。 The CPU 802 reads various programs stored in the ROM 806, storage 810, etc., and executes various processes. RAM804 is used as a work area for CPU802. Further, the RAM 804 is used as a storage unit that temporarily stores read programs and various data.

ストレージ810は、例えば、ハードディスク装置、光ディスク、光磁気ディスク、若しくは半導体メモリ、またはこれらの適宜の組み合わせを用いて構成される記憶装置を含んで構成される。ストレージ810には、推論処理および/または学習処理等に必要な各種プログラムやデータ等が記憶される。ストレージ810に記憶されているプログラムがRAM804にロードされ、これをCPU802が実行することにより、コンピュータ800は、プログラムで規定される各種の処理を行う手段として機能する。 The storage 810 includes, for example, a hard disk device, an optical disk, a magneto-optical disk, a semiconductor memory, or a storage device configured using an appropriate combination thereof. The storage 810 stores various programs, data, etc. necessary for inference processing and/or learning processing. A program stored in storage 810 is loaded into RAM 804, and CPU 802 executes the program, thereby causing computer 800 to function as a means for performing various processes specified by the program.

通信部812は、有線または無線により外部装置との通信処理を行い、外部装置との間で情報のやり取りを行うインターフェースである。通信部812は、画像等の入力を受け付ける情報取得部の役割を担うことができる。 The communication unit 812 is an interface that performs communication processing with an external device by wire or wirelessly, and exchanges information with the external device. The communication unit 812 can play the role of an information acquisition unit that receives input such as images.

入力装置814は、コンピュータ800に対する各種の操作入力を受け付ける入力インターフェースである。入力装置814は、例えば、キーボード、マウス、タッチパネル、若しくはその他のポインティングデバイス、若しくは、音声入力装置、またはこれらの適宜の組み合わせであってよい。 The input device 814 is an input interface that accepts various operational inputs to the computer 800. Input device 814 may be, for example, a keyboard, a mouse, a touch panel, or other pointing device, a voice input device, or any suitable combination thereof.

表示装置816は、各種の情報が表示される出力インターフェースである。表示装置816は、例えば、液晶ディスプレイ、有機EL(organic electro-luminescence:OEL)ディスプレイ、若しくは、プロジェクタ、またはこれらの適宜の組み合わせであってよい。 The display device 816 is an output interface on which various information is displayed. The display device 816 may be, for example, a liquid crystal display, an organic electro-luminescence (OEL) display, a projector, or an appropriate combination thereof.

《コンピュータを動作させるプログラムについて》
上述の実施形態で説明した各クライアント20におけるローカル学習機能、ならびに統合サーバ30におけるマスターモデル候補作成機能および推論精度評価機能を含む学習用クライアント組み合わせ最適化機能などの各種の処理機能のうち少なくとも1つの処理機能の一部または全部をコンピュータに実現させるプログラムを、光ディスク、磁気ディスク、若しくは、半導体メモリその他の有体物たる非一時的な情報記憶媒体であるコンピュータ可読媒体に記録し、この情報記憶媒体を通じてプログラムを提供することが可能である。
《About the programs that run the computer》
At least one of various processing functions such as the local learning function in each client 20 described in the above embodiment, and the learning client combination optimization function including the master model candidate creation function and the inference accuracy evaluation function in the integrated server 30. A program that causes a computer to perform some or all of the processing functions is recorded on a computer-readable medium that is a non-transitory information storage medium such as an optical disk, a magnetic disk, or a semiconductor memory, and the program is executed through this information storage medium. It is possible to provide

またこのような有体物たる非一時的なコンピュータ可読媒体にプログラムを記憶させて提供する態様に代えて、インターネットなどの電気通信回線を利用してプログラム信号をダウンロードサービスとして提供することも可能である。 Furthermore, instead of providing the program by storing it in a tangible, non-transitory computer-readable medium, it is also possible to provide the program signal as a download service using a telecommunications line such as the Internet.

また、上述の各実施形態で説明したローカル学習機能、学習用クライアント組み合わせ最適化機能および推論精度評価機能を含む複数の処理機能のうち少なくとも1つの処理機能の一部または全部をアプリケーションサーバとして提供し、電気通信回線を通じて処理機能を提供するサービスを行うことも可能である。 In addition, part or all of at least one processing function among the plurality of processing functions including the local learning function, learning client combination optimization function, and inference accuracy evaluation function described in each of the above embodiments is provided as an application server. It is also possible to provide services that provide processing functions over telecommunications lines.

《各処理部のハードウェア構成について》
図3に示すマスターモデル保存部320、検証用データ保存部322、クライアント組み合わせ最適化処理部330、クライアントクラスタ抽出部332、マスターモデル候補作成部334、推論精度評価部340、推論部342、推論精度算出部344、精度目標値比較部346、表示制御部350、図4に示す同期処理部631、学習データ取得部632、ローカルモデルLM、誤差演算部634、オプティマイザ635、学習結果保存部636、送信処理部637、AI-CAD部642、および表示制御部650などの各種の処理を実行する処理部(processing unit)のハードウェア的な構造は、例えば、次に示すような各種のプロセッサ(processor)である。
《About the hardware configuration of each processing unit》
Master model storage unit 320, verification data storage unit 322, client combination optimization processing unit 330, client cluster extraction unit 332, master model candidate generation unit 334, inference accuracy evaluation unit 340, inference unit 342, inference accuracy shown in FIG. 3 Calculation unit 344, accuracy target value comparison unit 346, display control unit 350, synchronization processing unit 631 shown in FIG. 4, learning data acquisition unit 632, local model LM, error calculation unit 634, optimizer 635, learning result storage unit 636, transmission The hardware structure of processing units (processing units) such as the processing unit 637, the AI-CAD unit 642, and the display control unit 650 that execute various processes includes, for example, various processors as shown below. It is.

各種のプロセッサには、プログラムを実行して各種の処理部として機能する汎用的なプロセッサであるCPU、画像処理に特化したプロセッサであるGPU、FPGA(Field Programmable Gate Array)などの製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device:PLD)、ASIC(Application Specific Integrated Circuit)などの特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路などが含まれる。 Various types of processors include the CPU, which is a general-purpose processor that executes programs and functions as various processing units, the GPU, which is a processor specialized in image processing, and the FPGA (Field Programmable Gate Array), which have circuit configurations after manufacturing. A dedicated electrical circuit that is a processor with a circuit configuration specifically designed to execute a specific process, such as a programmable logic device (PLD), which is a processor that can change the process, and an ASIC (Application Specific Integrated Circuit). etc. are included.

1つの処理部は、これら各種のプロセッサのうちの1つで構成されていてもよいし、同種または異種の2つ以上のプロセッサで構成されてもよい。例えば、1つの処理部は、複数のFPGA、或いは、CPUとFPGAの組み合わせ、またはCPUとGPUの組み合わせによって構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。複数の処理部を1つのプロセッサで構成する例としては、第一に、クライアントやサーバなどのコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第二に、システムオンチップ(System On Chip:SoC)などに代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサを1つ以上用いて構成される。 One processing unit may be composed of one of these various types of processors, or may be composed of two or more processors of the same type or different types. For example, one processing unit may be configured by a plurality of FPGAs, a combination of a CPU and an FPGA, or a combination of a CPU and a GPU. Further, the plurality of processing units may be configured with one processor. As an example of configuring multiple processing units with one processor, first, one processor is configured with a combination of one or more CPUs and software, as typified by computers such as clients and servers. There is a form in which a processor functions as multiple processing units. Second, there are processors that use a single IC (Integrated Circuit) chip, as typified by System On Chip (SoC), which implements the functions of an entire system including multiple processing units. be. In this way, various processing units are configured using one or more of the various processors described above as a hardware structure.

さらに、これらの各種のプロセッサのハードウェア的な構造は、より具体的には、半導体素子などの回路素子を組み合わせた電気回路(circuitry)である。 Furthermore, the hardware structure of these various processors is more specifically an electric circuit (circuitry) that is a combination of circuit elements such as semiconductor elements.

《本実施形態による利点》
本発明の実施形態に係る機械学習システム10によれば、次のような利点がある。
《Advantages of this embodiment》
The machine learning system 10 according to the embodiment of the present invention has the following advantages.

[1]診断画像などプライバシーに配慮が必要な個人情報を医療機関側から外部に持ち出すことなく、学習を行うことができる。 [1] Learning can be performed without taking personal information such as diagnostic images, which requires privacy considerations, from the medical institution.

[2]複数のクライアント20の中から、モデルの推論精度を早期に向上させるための最適な組み合わせを求めることができる。このため、各クライアント20の学習環境に偏りがあった場合でも、比較的早期に目標の推論精度を達成することが可能になる。 [2] An optimal combination can be found from among the multiple clients 20 to quickly improve the inference accuracy of the model. Therefore, even if there is a bias in the learning environment of each client 20, it is possible to achieve the target inference accuracy relatively quickly.

[3]フェデレーテッドラーニングにおいて、学習結果を統合して新たなモデルを作成する際に用いるクライアント20の組み合わせを最適化する仕組みが提供される。これにより、すべてのクライアント20の学習結果を統合する方法あるいはクライアント母集団からランダムに組み合わせを抽出する方法などと比べて、高い推論精度を早期に実現すること可能になり、目標精度到達までの学習に要する時間を短くすることができる。 [3] In federated learning, a mechanism is provided for optimizing the combination of clients 20 used when creating a new model by integrating learning results. This makes it possible to quickly achieve high inference accuracy compared to methods that integrate the learning results of all clients 20 or randomly extract combinations from the client population, and allows learning to reach the target accuracy. The time required can be shortened.

[4]推論精度の高いAIモデルを作成することが可能になる。 [4] It becomes possible to create an AI model with high inference accuracy.

《変形例1》
上述の実施形態では、医用画像診断用のAIモデルを例に説明したが、本開示の技術の適用範囲はこの例に限らず、例えば、入力データとして時系列データを用いるAIモデルまたは入力データとして文書データを用いるAIモデルについて、学習を行う場合にも適用することができる。時系列データは、例えば心電図の波形データなどであってよい。文書データは、例えば診断レポートなどであってよく、レポートの作成支援を行うAIモデルの学習に適用することができる。
Modification 1》
In the above embodiment, an AI model for medical image diagnosis was used as an example, but the scope of application of the technology of the present disclosure is not limited to this example. For example, an AI model that uses time series data as input data or an AI model that uses time series data as input data It can also be applied when learning an AI model that uses document data. The time series data may be, for example, electrocardiogram waveform data. The document data may be, for example, a diagnostic report, and can be applied to learning an AI model that supports report creation.

《変形例2》
上述の実施形態では、学習による精度目標値を定めておき、マスターモデル候補の推論精度と精度目標値とを比較する例を説明したが、精度目標値は必要に応じて更新されてもよい。また、精度目標値を予め定めることなく、制限時間内もしくは指定のイテレーション数の範囲内においてモデルの推論精度を最大化するという条件のもとで、組み合わせ最適化を行ってもよい。
Modification 2》
In the above-described embodiment, an example has been described in which an accuracy target value by learning is determined and the inference accuracy of a master model candidate is compared with the accuracy target value, but the accuracy target value may be updated as necessary. Alternatively, combinatorial optimization may be performed without predetermining an accuracy target value, under the condition that the inference accuracy of the model is maximized within a time limit or within a specified number of iterations.

《その他》
上述の実施形態で説明した構成や変形例で説明した事項は、適宜組み合わせて用いることができ、また、一部の事項を置き換えることもできる。本発明は上述した実施形態に限定されず、本発明の精神を逸脱しない範囲で種々の変形が可能である。
"others"
The configurations described in the above-described embodiments and the items described in the modified examples can be used in appropriate combinations, and some items can also be replaced. The present invention is not limited to the embodiments described above, and various modifications can be made without departing from the spirit of the present invention.

10 機械学習システム
20 クライアント
30 統合サーバ
33 学習用クライアント組み合わせ最適化プログラム
36 データベース
50 医療機関ネットワーク
52 CT装置
54 MRI装置
56 CR装置
58 PACSサーバ
60 CADサーバ
62 端末
64 構内通信回線
70 広域通信回線
80 学習データ保存部
302 プロセッサ
304 コンピュータ可読媒体
306 通信インターフェース
307 手順
308 入出力インターフェース
310 バス
314 入力装置
316 表示装置
320 マスターモデル保存部
322 検証用データ保存部
324 同期プログラム
330 クライアント組み合わせ最適化処理部
332 クライアントクラスタ抽出部
334 マスターモデル候補作成部
340 推論精度評価部
342 推論部
344 推論精度算出部
346 精度目標値比較部
350 表示制御部
602 プロセッサ
604 コンピュータ可読媒体
606 通信インターフェース
608 入出力インターフェース
610 バス
614 入力装置
616 表示装置
630 ローカル学習管理プログラム
631 同期処理部
632 学習データ取得部
634 誤差演算部
635 オプティマイザ
636 学習結果保存部
637 送信処理部
640 診断支援プログラム
642 AI-CAD部
650 表示制御部
800 コンピュータ
802 CPU
804 RAM
806 ROM
808 GPU
810 ストレージ
812 通信部
814 入力装置
816 表示装置
818 バス
CL1~CL4、CLN、CLN+1 クライアント
LD ローカルデータ
LM ローカルモデル
MM マスターモデル
MMC マスターモデル候補
TD 検証用データ
S21~S25 ローカル学習管理処理のステップ
S31~S39 学習用クライアント組み合わせ最適化処理のステップ
S341~S344 推論精度の評価処理のステップ
10 Machine learning system 20 Client 30 Integrated server 33 Client combination optimization program for learning 36 Database 50 Medical institution network 52 CT device 54 MRI device 56 CR device 58 PACS server 60 CAD server 62 Terminal 64 Local communication line 70 Wide area communication line 80 Learning Data storage unit 302 Processor 304 Computer readable medium 306 Communication interface 307 Procedure 308 Input/output interface 310 Bus 314 Input device 316 Display device 320 Master model storage unit 322 Verification data storage unit 324 Synchronization program 330 Client combination optimization processing unit 332 Client cluster Extraction unit 334 Master model candidate creation unit 340 Inference accuracy evaluation unit 342 Inference unit 344 Inference accuracy calculation unit 346 Accuracy target value comparison unit 350 Display control unit 602 Processor 604 Computer readable medium 606 Communication interface 608 Input/output interface 610 Bus 614 Input device 616 Display device 630 Local learning management program 631 Synchronization processing section 632 Learning data acquisition section 634 Error calculation section 635 Optimizer 636 Learning result storage section 637 Transmission processing section 640 Diagnosis support program 642 AI-CAD section 650 Display control section 800 Computer 802 CPU
804 RAM
806 ROM
808 GPU
810 Storage 812 Communication unit 814 Input device 816 Display device 818 Buses CL1 to CL4, CLN, CLN+1 Client LD Local data LM Local model MM Master model MMC Master model candidate TD Verification data S21 to S25 Steps S31 to S39 of local learning management processing Steps S341 to S344 of learning client combination optimization processing Steps of inference accuracy evaluation processing

Claims (25)

複数のクライアント端末と、統合サーバと、を含む機械学習システムであって、
前記複数のクライアント端末のそれぞれは、
医療機関のデータ保存装置に保存されているデータを学習データに用いて学習モデルの機械学習を実行する学習処理部と、
前記学習モデルの学習結果を前記統合サーバに送信する送信部と、を含み、
前記統合サーバは、
学習済みのマスターモデルと、
前記複数のクライアント端末にそれぞれの前記学習モデルを学習させる前に、各クライアント端末側の前記学習モデルと前記マスターモデルとを同期させる同期処理部と、
前記複数のクライアント端末からそれぞれの前記学習結果を受信する受信部と、
前記複数のクライアント端末の一部である前記クライアント端末の組み合わせの前記学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たす前記クライアント端末の組み合わせを探索する処理、および前記マスターモデル候補の推論精度を最大化する前記クライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行うクライアント組み合わせ最適化処理部と、
を備え、
前記クライアント組み合わせ最適化処理部は、前記複数のクライアント端末からそれぞれの前記学習結果を受信した後に前記クライアント端末の組み合わせを作成し、
前記クライアント端末の組み合わせの前記学習結果を統合して前記マスターモデル候補を作成する、
機械学習システム。
A machine learning system including multiple client terminals and an integrated server,
Each of the plurality of client terminals is
a learning processing unit that executes machine learning of a learning model using data stored in a data storage device of a medical institution as learning data;
a transmitting unit that transmits learning results of the learning model to the integrated server,
The integrated server is
A trained master model and
a synchronization processing unit that synchronizes the learning model on each client terminal side and the master model before causing the plurality of client terminals to learn each of the learning models;
a receiving unit that receives each of the learning results from the plurality of client terminals;
a process of searching for a combination of the client terminals in which the inference accuracy of a master model candidate created by integrating the learning results of the combinations of the client terminals that are part of the plurality of client terminals satisfies a target accuracy; a client combination optimization processing unit that performs at least one of the processes of searching for a combination of client terminals that maximizes the inference accuracy of model candidates;
Equipped with
The client combination optimization processing unit creates a combination of the client terminals after receiving the learning results from each of the plurality of client terminals,
integrating the learning results of the combination of client terminals to create the master model candidate;
Machine learning system.
複数のクライアント端末と、統合サーバと、を含む機械学習システムであって、
前記複数のクライアント端末のそれぞれは、
医療機関のデータ保存装置に保存されているデータを学習データに用いて学習モデルの機械学習を実行する学習処理部と、
前記学習モデルの学習結果を前記統合サーバに送信する送信部と、を含み、
前記統合サーバは、
学習済みのマスターモデルと、
前記複数のクライアント端末にそれぞれの前記学習モデルを学習させる前に、各クライアント端末側の前記学習モデルと前記マスターモデルとを同期させる同期処理部と、
前記複数のクライアント端末からそれぞれの前記学習結果を受信する受信部と、
前記複数のクライアント端末の一部である前記クライアント端末の組み合わせの前記学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たす前記クライアント端末の組み合わせを探索する処理、および前記マスターモデル候補の推論精度を最大化する前記クライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行うクライアント組み合わせ最適化処理部と、
前記クライアント端末の組み合わせごとに作成される前記マスターモデル候補の推論精度と、前記マスターモデル候補がどのような前記クライアント端末の組み合わせを使用して作成されているかという対応関係を示す情報と、を保存する情報保存部と、
を備える機械学習システム。
A machine learning system including multiple client terminals and an integrated server,
Each of the plurality of client terminals includes:
a learning processing unit that executes machine learning of a learning model using data stored in a data storage device of a medical institution as learning data;
a transmitting unit that transmits learning results of the learning model to the integrated server,
The integrated server is
A trained master model and
a synchronization processing unit that synchronizes the learning model on each client terminal side and the master model before causing the plurality of client terminals to learn each of the learning models;
a receiving unit that receives each of the learning results from the plurality of client terminals;
a process of searching for a combination of the client terminals in which the inference accuracy of a master model candidate created by integrating the learning results of the combinations of the client terminals that are part of the plurality of client terminals satisfies a target accuracy; a client combination optimization processing unit that performs at least one of the processes of searching for a combination of client terminals that maximizes the inference accuracy of model candidates;
Storing information indicating a correspondence between the inference accuracy of the master model candidate created for each combination of the client terminals and the combination of the client terminals used to create the master model candidate. an information storage section to
A machine learning system equipped with
前記クライアント組み合わせ最適化処理部は、
前記複数のクライアント端末から前記クライアント端末の組み合わせであるクライアントクラスタを作成するクライアントクラスタ作成部と、
前記クライアントクラスタの前記学習結果を統合して前記マスターモデル候補を作成するマスターモデル候補作成部と、
前記マスターモデル候補の前記推論精度を評価することにより、前記推論精度が精度目標値を上回る前記マスターモデル候補を検出する精度評価部と、
を含む請求項1または2に記載の機械学習システム。
The client combination optimization processing unit includes:
a client cluster creation unit that creates a client cluster that is a combination of the client terminals from the plurality of client terminals;
a master model candidate creation unit that creates the master model candidate by integrating the learning results of the client cluster;
an accuracy evaluation unit that detects a master model candidate whose inference accuracy exceeds an accuracy target value by evaluating the inference accuracy of the master model candidate;
The machine learning system according to claim 1 or 2 , comprising:
前記精度評価部は、
検証用データを前記マスターモデル候補に入力することにより前記マスターモデル候補から出力される推論結果と前記検証用データの正解データとを比較して前記マスターモデル候補の推論精度を算出する推論精度算出部と、
前記マスターモデル候補の推論精度と前記精度目標値とを比較する精度目標値比較部と、
を含む請求項に記載の機械学習システム。
The accuracy evaluation section includes:
an inference accuracy calculation unit that calculates inference accuracy of the master model candidate by inputting verification data into the master model candidate and comparing an inference result output from the master model candidate with correct data of the verification data; and,
an accuracy target value comparison unit that compares the inference accuracy of the master model candidate and the accuracy target value;
The machine learning system according to claim 3 , comprising:
前記精度評価部は、
前記マスターモデル候補の推論精度の瞬時値と前記精度目標値との比較に基づいて、または、前記マスターモデル候補のそれぞれの学習イテレーションにおける推論精度の統計値と前記精度目標値との比較に基づいて、前記マスターモデル候補の推論精度が前記精度目標値を上回っているか否かを判定する、請求項またはに記載の機械学習システム。
The accuracy evaluation section includes:
Based on a comparison between an instantaneous value of inference accuracy of the master model candidate and the accuracy target value, or based on a comparison between a statistical value of inference accuracy in each learning iteration of the master model candidate and the accuracy target value. 5. The machine learning system according to claim 3 , wherein the machine learning system determines whether the inference accuracy of the master model candidate exceeds the accuracy target value.
前記クライアント組み合わせ最適化処理部は、
指定された数の前記クライアント端末を前記複数のクライアント端末の中から抽出して、前記クライアント端末の組み合わせを作成する処理と、
前記クライアント端末の組み合わせごとの前記学習結果を統合して前記マスターモデル候補を前記組み合わせごとに作成する処理と、
前記組み合わせごとに作成された前記マスターモデル候補のそれぞれの推論精度と精度目標値との比較結果に基づいて、前記精度目標値を上回る前記クライアント端末の組み合わせを探索する処理と、
を行う、請求項1からのいずれか一項に記載の機械学習システム。
The client combination optimization processing unit includes:
a process of extracting a specified number of the client terminals from the plurality of client terminals to create a combination of the client terminals;
a process of integrating the learning results for each combination of the client terminals to create the master model candidate for each combination;
A process of searching for a combination of the client terminals that exceeds the accuracy target value based on a comparison result between the inference accuracy of each of the master model candidates created for each combination and the accuracy target value;
The machine learning system according to any one of claims 1 to 5 , which performs the following.
前記複数のクライアント端末のそれぞれは、異なる医療機関の医療機関ネットワーク内に設置される端末である、請求項1からのいずれか一項に記載の機械学習システム。 The machine learning system according to any one of claims 1 to 6 , wherein each of the plurality of client terminals is a terminal installed in a medical institution network of a different medical institution. 前記統合サーバは、医療機関ネットワーク内または医療機関ネットワーク外に設置される、請求項1からのいずれか一項に記載の機械学習システム。 The machine learning system according to any one of claims 1 to 7 , wherein the integrated server is installed within a medical institution network or outside a medical institution network. 前記クライアント端末から前記統合サーバに送信される前記学習結果は、学習後の前記学習モデルの重みパラメータを含む、請求項1からのいずれか一項に記載の機械学習システム。 The machine learning system according to any one of claims 1 to 8 , wherein the learning result sent from the client terminal to the integrated server includes weight parameters of the learning model after learning. 前記学習データとして使用される前記データは、2次元画像、3次元画像、動画像、時系列データおよび文書データのうち少なくとも1つの種類のデータを含む、
請求項1からのいずれか一項に記載の機械学習システム。
The data used as the learning data includes at least one type of data among two-dimensional images, three-dimensional images, moving images, time series data, and document data.
A machine learning system according to any one of claims 1 to 9 .
前記学習モデル、前記マスターモデル、および前記マスターモデル候補の各モデルは、ニューラルネットワークを用いて構成される、請求項1から10のいずれか一項に記載の機械学習システム。 The machine learning system according to any one of claims 1 to 10 , wherein each of the learning model, the master model, and the master model candidate is configured using a neural network. 前記学習データとして使用される前記データは2次元画像、3次元画像または動画像を含み、
前記学習モデル、前記マスターモデル、および前記マスターモデル候補の各モデルは、
畳み込みニューラルネットワークを用いて構成される、請求項1から11のいずれか一項に記載の機械学習システム。
The data used as the learning data includes a two-dimensional image, a three-dimensional image, or a moving image,
Each model of the learning model, the master model, and the master model candidate is
Machine learning system according to any one of claims 1 to 11 , configured using a convolutional neural network.
前記学習データとして使用される前記データは時系列データまたは文書データを含み、
前記学習モデル、前記マスターモデル、および前記マスターモデル候補の各モデルは、再帰型ニューラルネットワークを用いて構成される、請求項1から11のいずれか一項に記載の機械学習システム。
The data used as the learning data includes time series data or document data,
The machine learning system according to any one of claims 1 to 11 , wherein each of the learning model, the master model, and the master model candidate is configured using a recurrent neural network.
前記統合サーバは、
前記クライアント端末の組み合わせごとに作成される前記マスターモデル候補のそれぞれの各学習イテレーションにおける推論精度が表示される表示装置をさらに備える、請求項1から13のいずれか一項に記載の機械学習システム。
The integrated server is
The machine learning system according to any one of claims 1 to 13, further comprising a display device that displays inference accuracy in each learning iteration of each of the master model candidates created for each combination of the client terminals.
前記マスターモデル候補の推論精度を評価する際に使用する検証用データが保存されている検証用データ保存部をさらに備える、
請求項1から14のいずれか一項に記載の機械学習システム。
further comprising a verification data storage unit storing verification data used when evaluating the inference accuracy of the master model candidate;
A machine learning system according to any one of claims 1 to 14.
複数のクライアント端末と、統合サーバと、を用いる機械学習方法であって、
前記複数のクライアント端末のそれぞれに学習モデルを学習させる前に、各クライアント端末側の前記学習モデルと、前記統合サーバに保存されている学習済みのマスターモデルとを同期させることと、
前記複数のクライアント端末のそれぞれが、互いに異なる医療機関のそれぞれのデータ保存装置に保存されているデータを学習データに用いて前記学習モデルの機械学習を実行することと、
前記複数のクライアント端末のそれぞれが、前記学習モデルの学習結果を前記統合サーバに送信することと、
前記統合サーバが、
前記複数のクライアント端末からそれぞれの前記学習結果を受信することと、
前記複数のクライアント端末の一部である前記クライアント端末の組み合わせの前記学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たす前記クライアント端末の組み合わせを探索する処理、および前記マスターモデル候補の推論精度を最大化する前記クライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行うことと、
を含み、
前記統合サーバが、
前記複数のクライアント端末からそれぞれの前記学習結果を受信した後に前記クライアント端末の組み合わせを作成し、
前記クライアント端末の組み合わせの前記学習結果を統合して前記マスターモデル候補を作成する、
機械学習方法。
A machine learning method using multiple client terminals and an integrated server,
Before causing each of the plurality of client terminals to learn the learning model, synchronizing the learning model on each client terminal side with a learned master model stored in the integrated server;
Each of the plurality of client terminals executes machine learning of the learning model using data stored in respective data storage devices of different medical institutions as learning data;
each of the plurality of client terminals transmitting learning results of the learning model to the integrated server;
The integrated server,
receiving each of the learning results from the plurality of client terminals;
a process of searching for a combination of the client terminals in which the inference accuracy of a master model candidate created by integrating the learning results of the combinations of the client terminals that are part of the plurality of client terminals satisfies a target accuracy; performing at least one of the processes of searching for a combination of client terminals that maximizes the inference accuracy of the model candidate;
including;
The integrated server,
creating a combination of the client terminals after receiving each of the learning results from the plurality of client terminals;
integrating the learning results of the combination of client terminals to create the master model candidate;
Machine learning methods.
通信回線を介して複数のクライアント端末と接続される統合サーバであって、
学習済みのマスターモデルを保存しておくマスターモデル保存部と、
前記複数のクライアント端末にそれぞれの学習モデルを学習させる前に、各クライアント端末側の前記学習モデルと前記マスターモデルとを同期させる同期処理部と、
前記複数のクライアント端末からそれぞれの学習結果を受信する受信部と、
前記複数のクライアント端末の一部である前記クライアント端末の組み合わせの前記学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たす前記クライアント端末の組み合わせを探索する処理、および前記マスターモデル候補の推論精度を最大化する前記クライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行うクライアント組み合わせ最適化処理部と、
を備え、
前記クライアント組み合わせ最適化処理部は、前記複数のクライアント端末からそれぞれの前記学習結果を受信した後に前記クライアント端末の組み合わせを作成し、
前記クライアント端末の組み合わせの前記学習結果を統合して前記マスターモデル候補を作成する、
統合サーバ。
An integrated server connected to multiple client terminals via a communication line,
a master model storage section that stores the trained master model;
a synchronization processing unit that synchronizes the learning model on each client terminal side and the master model before making the plurality of client terminals learn their respective learning models;
a receiving unit that receives learning results from the plurality of client terminals;
a process of searching for a combination of the client terminals in which the inference accuracy of a master model candidate created by integrating the learning results of the combinations of the client terminals that are part of the plurality of client terminals satisfies a target accuracy; a client combination optimization processing unit that performs at least one of the processes of searching for a combination of client terminals that maximizes the inference accuracy of model candidates;
Equipped with
The client combination optimization processing unit creates a combination of the client terminals after receiving the learning results from each of the plurality of client terminals,
integrating the learning results of the combination of client terminals to create the master model candidate;
Integrated server.
通信回線を介して複数のクライアント端末と接続される統合サーバであって、
第1のプロセッサと、
前記第1のプロセッサによって実行される第1のプログラムが記録された非一時的な有体物である第1のコンピュータ可読媒体と、を含み、
前記第1のプロセッサは、前記第1のプログラムの命令に従い、
学習済みのマスターモデルを前記第1のコンピュータ可読媒体に保存しておくことと、 前記複数のクライアント端末にそれぞれの学習モデルを学習させる前に、各クライアント端末側の前記学習モデルと前記マスターモデルとを同期させることと、
前記複数のクライアント端末からそれぞれの学習結果を受信することと、
前記複数のクライアント端末の一部である前記クライアント端末の組み合わせの前記学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たす前記クライアント端末の組み合わせを探索する処理、および前記マスターモデル候補の推論精度を最大化する前記クライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行うことと、
を含む処理を実行し、
前記第1のプロセッサは、前記複数のクライアント端末からそれぞれの前記学習結果を受信した後に前記クライアント端末の組み合わせを作成し、
前記クライアント端末の組み合わせの前記学習結果を統合して前記マスターモデル候補を作成する処理を実行する、
統合サーバ。
An integrated server connected to multiple client terminals via a communication line,
a first processor;
a first computer-readable medium, which is a non-transitory tangible object, on which a first program executed by the first processor is recorded;
The first processor follows instructions of the first program,
storing a trained master model in the first computer-readable medium; and before causing the plurality of client terminals to learn their respective learning models, the learning model on each client terminal side and the master model are to synchronize the
receiving learning results from the plurality of client terminals;
a process of searching for a combination of the client terminals in which the inference accuracy of a master model candidate created by integrating the learning results of the combinations of the client terminals that are part of the plurality of client terminals satisfies a target accuracy; performing at least one of the processes of searching for a combination of client terminals that maximizes the inference accuracy of the model candidate;
Execute processing including
the first processor creates a combination of the client terminals after receiving each of the learning results from the plurality of client terminals;
executing a process of integrating the learning results of the combination of client terminals to create the master model candidate;
Integrated server.
前記第1のプロセッサは、前記第1のプログラムの命令に従い、
前記複数のクライアント端末から一部の前記クライアント端末を抽出して前記クライアント端末の組み合わせであるクライアントクラスタを作成することと、
前記クライアントクラスタの前記学習結果を統合してマスターモデル候補を作成することと、
を含む処理を実行する、請求項18に記載の統合サーバ。
The first processor follows instructions of the first program,
extracting some of the client terminals from the plurality of client terminals and creating a client cluster that is a combination of the client terminals;
creating a master model candidate by integrating the learning results of the client cluster;
The integrated server according to claim 18, wherein the integrated server executes processing including:
複数のクライアント端末と、統合サーバと、を用いる機械学習方法であって、A machine learning method using multiple client terminals and an integrated server,
前記複数のクライアント端末のそれぞれに学習モデルを学習させる前に、各クライアント端末側の前記学習モデルと、前記統合サーバに保存されている学習済みのマスターモデルとを同期させることと、 Before causing each of the plurality of client terminals to learn the learning model, synchronizing the learning model on each client terminal side with a learned master model stored in the integrated server;
前記複数のクライアント端末のそれぞれが、互いに異なる医療機関のそれぞれのデータ保存装置に保存されているデータを学習データに用いて前記学習モデルの機械学習を実行することと、 Each of the plurality of client terminals executes machine learning of the learning model using data stored in respective data storage devices of different medical institutions as learning data;
前記複数のクライアント端末のそれぞれが、前記学習モデルの学習結果を前記統合サーバに送信することと、 each of the plurality of client terminals transmitting learning results of the learning model to the integrated server;
前記統合サーバが、 The integrated server,
前記複数のクライアント端末からそれぞれの前記学習結果を受信することと、 receiving each of the learning results from the plurality of client terminals;
前記複数のクライアント端末の一部である前記クライアント端末の組み合わせの前記学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たす前記クライアント端末の組み合わせを探索する処理、および前記マスターモデル候補の推論精度を最大化する前記クライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行うことと、 a process of searching for a combination of the client terminals in which the inference accuracy of a master model candidate created by integrating the learning results of the combinations of the client terminals that are part of the plurality of client terminals satisfies a target accuracy; performing at least one of the processes of searching for a combination of client terminals that maximizes the inference accuracy of the model candidate;
前記クライアント端末の組み合わせごとに作成される前記マスターモデル候補の推論精度と、前記マスターモデル候補がどのような前記クライアント端末の組み合わせを使用して作成されているかという対応関係を示す情報と、を保存することと、 Storing information indicating a correspondence between the inference accuracy of the master model candidate created for each combination of the client terminals and the combination of the client terminals used to create the master model candidate. to do and
を含む機械学習方法。machine learning methods, including;
通信回線を介して複数のクライアント端末と接続される統合サーバであって、
学習済みのマスターモデルを保存しておくマスターモデル保存部と、
前記複数のクライアント端末にそれぞれの学習モデルを学習させる前に、各クライアント端末側の前記学習モデルと前記マスターモデルとを同期させる同期処理部と、
前記複数のクライアント端末からそれぞれの学習結果を受信する受信部と、
前記複数のクライアント端末の一部である前記クライアント端末の組み合わせの前記学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たす前記クライアント端末の組み合わせを探索する処理、および前記マスターモデル候補の推論精度を最大化する前記クライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行うクライアント組み合わせ最適化処理部と、
前記クライアント端末の組み合わせごとに作成される前記マスターモデル候補の推論精度と、前記マスターモデル候補がどのような前記クライアント端末の組み合わせを使用して作成されているかという対応関係を示す情報と、を保存する情報保存部と、
を備える統合サーバ。
An integrated server connected to multiple client terminals via a communication line,
a master model storage section that stores the trained master model;
a synchronization processing unit that synchronizes the learning model on each client terminal side and the master model before making the plurality of client terminals learn their respective learning models;
a receiving unit that receives learning results from the plurality of client terminals;
a process of searching for a combination of the client terminals in which the inference accuracy of a master model candidate created by integrating the learning results of the combinations of the client terminals that are part of the plurality of client terminals satisfies a target accuracy; a client combination optimization processing unit that performs at least one of the processes of searching for a combination of client terminals that maximizes the inference accuracy of model candidates;
Storing information indicating a correspondence between the inference accuracy of the master model candidate created for each combination of the client terminals and the combination of the client terminals used to create the master model candidate. an information storage section to
An integrated server with
通信回線を介して複数のクライアント端末と接続される統合サーバとしてコンピュータを機能させるためのプログラムであって、
前記コンピュータに、
学習済みのマスターモデルを保存しておく機能と、
前記複数のクライアント端末にそれぞれの学習モデルを学習させる前に、各クライアント端末側の前記学習モデルと前記マスターモデルとを同期させる機能と、
前記複数のクライアント端末からそれぞれの学習結果を受信する機能と、
前記複数のクライアント端末の一部である前記クライアント端末の組み合わせの前記学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たす前記クライアント端末の組み合わせを探索する処理、および前記マスターモデル候補の推論精度を最大化する前記クライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行う機能と、
を実現させ、
前記コンピュータに、前記複数のクライアント端末からそれぞれの前記学習結果を受信した後に前記クライアント端末の組み合わせを作成する機能と、
前記クライアント端末の組み合わせの前記学習結果を統合して前記マスターモデル候補を作成する機能と、
を実現させるためのプログラム。
A program for making a computer function as an integrated server connected to multiple client terminals via a communication line,
to the computer;
A function to save the trained master model,
a function of synchronizing the learning model on each client terminal side and the master model before making the plurality of client terminals learn their respective learning models;
a function of receiving learning results from the plurality of client terminals;
a process of searching for a combination of the client terminals in which the inference accuracy of a master model candidate created by integrating the learning results of the combinations of the client terminals that are part of the plurality of client terminals satisfies a target accuracy; a function of performing at least one of the processes of searching for a combination of the client terminals that maximizes the inference accuracy of the model candidate;
Realize,
a function for the computer to create a combination of the client terminals after receiving the learning results from each of the plurality of client terminals;
a function of integrating the learning results of the combination of client terminals to create the master model candidate;
A program to make this happen .
通信回線を介して複数のクライアント端末と接続される統合サーバとしてコンピュータを機能させるためのプログラムであって、A program for making a computer function as an integrated server connected to multiple client terminals via a communication line,
前記コンピュータに、 to the computer;
学習済みのマスターモデルを保存しておく機能と、 A function to save the trained master model,
前記複数のクライアント端末にそれぞれの学習モデルを学習させる前に、各クライアント端末側の前記学習モデルと前記マスターモデルとを同期させる機能と、 a function of synchronizing the learning model on each client terminal side and the master model before making the plurality of client terminals learn their respective learning models;
前記複数のクライアント端末からそれぞれの学習結果を受信する機能と、 a function of receiving learning results from the plurality of client terminals;
前記複数のクライアント端末の一部である前記クライアント端末の組み合わせの前記学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たす前記クライアント端末の組み合わせを探索する処理、および前記マスターモデル候補の推論精度を最大化する前記クライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行う機能と、 a process of searching for a combination of the client terminals in which the inference accuracy of a master model candidate created by integrating the learning results of the combinations of the client terminals that are part of the plurality of client terminals satisfies a target accuracy; a function of performing at least one of the processes of searching for a combination of the client terminals that maximizes the inference accuracy of the model candidate;
前記クライアント端末の組み合わせごとに作成される前記マスターモデル候補の推論精度と、前記マスターモデル候補がどのような前記クライアント端末の組み合わせを使用して作成されているかという対応関係を示す情報と、を保存する機能と、 Storing information indicating a correspondence between the inference accuracy of the master model candidate created for each combination of the client terminals and the combination of the client terminals used to create the master model candidate. and the ability to
を実現させるためのプログラム。 A program to make this happen.
複数のクライアント端末と、統合サーバと、を用いて機械学習を行うことにより、推論モデルを作成する方法であって、
前記複数のクライアント端末のそれぞれに学習モデルを学習させる前に、各クライアント端末側の前記学習モデルと、前記統合サーバに保存されている学習済みのマスターモデルとを同期させることと、
前記複数のクライアント端末のそれぞれが、互いに異なる医療機関のそれぞれのデータ保存装置に保存されているデータを学習データに用いて前記学習モデルの機械学習を実行することと、
前記複数のクライアント端末のそれぞれが、前記学習モデルの学習結果を前記統合サーバに送信することと、
前記統合サーバが、
前記複数のクライアント端末からそれぞれの前記学習結果を受信することと、
前記複数のクライアント端末の一部である前記クライアント端末の組み合わせの前記学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たす前記クライアント端末の組み合わせを探索する処理、および前記マスターモデル候補の推論精度を最大化する前記クライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行うことと、
前記目標の精度を満たす前記推論精度が達成された前記マスターモデル候補、または、前記探索の処理によって作成された複数の前記マスターモデル候補の中で最も推論精度が高いモデルの作成に使用した前記クライアント端末の組み合わせを用いて作成された前記マスターモデル候補を基に、前記マスターモデルよりも推論精度が高い前記推論モデルを作成することと、
を含み、
前記統合サーバが、
前記複数のクライアント端末からそれぞれの前記学習結果を受信した後に前記クライアント端末の組み合わせを作成し、
前記クライアント端末の組み合わせの前記学習結果を統合して前記マスターモデル候補を作成する、
推論モデルの作成方法。
A method for creating an inference model by performing machine learning using multiple client terminals and an integrated server, the method comprising:
Before causing each of the plurality of client terminals to learn the learning model, synchronizing the learning model on each client terminal side with a learned master model stored in the integrated server;
Each of the plurality of client terminals executes machine learning of the learning model using data stored in respective data storage devices of different medical institutions as learning data;
each of the plurality of client terminals transmitting learning results of the learning model to the integrated server;
The integrated server,
receiving each of the learning results from the plurality of client terminals;
a process of searching for a combination of the client terminals in which the inference accuracy of a master model candidate created by integrating the learning results of the combinations of the client terminals that are part of the plurality of client terminals satisfies a target accuracy; performing at least one of the processes of searching for a combination of client terminals that maximizes the inference accuracy of the model candidate;
The master model candidate that achieved the inference accuracy that satisfies the target accuracy, or the client that was used to create the model with the highest inference accuracy among the plurality of master model candidates created by the search process. Creating the inference model having higher inference accuracy than the master model based on the master model candidate created using the combination of terminals;
including;
The integrated server,
creating a combination of the client terminals after receiving each of the learning results from the plurality of client terminals;
integrating the learning results of the combination of client terminals to create the master model candidate;
How to create an inference model.
複数のクライアント端末と、統合サーバと、を用いて機械学習を行うことにより、推論モデルを作成する方法であって、A method for creating an inference model by performing machine learning using multiple client terminals and an integrated server, the method comprising:
前記複数のクライアント端末のそれぞれに学習モデルを学習させる前に、各クライアント端末側の前記学習モデルと、前記統合サーバに保存されている学習済みのマスターモデルとを同期させることと、 Before causing each of the plurality of client terminals to learn the learning model, synchronizing the learning model on each client terminal side with a learned master model stored in the integrated server;
前記複数のクライアント端末のそれぞれが、互いに異なる医療機関のそれぞれのデータ保存装置に保存されているデータを学習データに用いて前記学習モデルの機械学習を実行することと、 Each of the plurality of client terminals executes machine learning of the learning model using data stored in respective data storage devices of different medical institutions as learning data;
前記複数のクライアント端末のそれぞれが、前記学習モデルの学習結果を前記統合サーバに送信することと、 each of the plurality of client terminals transmitting learning results of the learning model to the integrated server;
前記統合サーバが、 The integrated server,
前記複数のクライアント端末からそれぞれの前記学習結果を受信することと、 receiving each of the learning results from the plurality of client terminals;
前記複数のクライアント端末の一部である前記クライアント端末の組み合わせの前記学習結果を統合して作成するマスターモデル候補の推論精度が目標の精度を満たす前記クライアント端末の組み合わせを探索する処理、および前記マスターモデル候補の推論精度を最大化する前記クライアント端末の組み合わせを探索する処理のうち少なくとも一方の処理を行うことと、 a process of searching for a combination of the client terminals in which the inference accuracy of a master model candidate created by integrating the learning results of the combinations of the client terminals that are part of the plurality of client terminals satisfies a target accuracy; performing at least one of the processes of searching for a combination of client terminals that maximizes the inference accuracy of the model candidate;
前記クライアント端末の組み合わせごとに作成される前記マスターモデル候補の推論精度と、前記マスターモデル候補がどのような前記クライアント端末の組み合わせを使用して作成されているかという対応関係を示す情報と、を保存することと、 Storing information indicating a correspondence between the inference accuracy of the master model candidate created for each combination of the client terminals and the combination of the client terminals used to create the master model candidate. to do and
前記目標の精度を満たす前記推論精度が達成された前記マスターモデル候補、または、前記探索の処理によって作成された複数の前記マスターモデル候補の中で最も推論精度が高いモデルの作成に使用した前記クライアント端末の組み合わせを用いて作成された前記マスターモデル候補を基に、前記マスターモデルよりも推論精度が高い前記推論モデルを作成することと、 The master model candidate that achieved the inference accuracy that satisfies the target accuracy, or the client that was used to create the model with the highest inference accuracy among the plurality of master model candidates created by the search process. Creating the inference model having higher inference accuracy than the master model based on the master model candidate created using the combination of terminals;
を含む推論モデルの作成方法。 How to create an inference model that includes.
JP2021548336A 2019-09-26 2020-06-08 Machine learning systems and methods, integrated servers, programs, and methods for creating inference models Active JP7374201B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019175715 2019-09-26
JP2019175715 2019-09-26
PCT/JP2020/022464 WO2021059604A1 (en) 2019-09-26 2020-06-08 Machine learning system and method, integration server, information processing device, program, and inference model creation method

Publications (2)

Publication Number Publication Date
JPWO2021059604A1 JPWO2021059604A1 (en) 2021-04-01
JP7374201B2 true JP7374201B2 (en) 2023-11-06

Family

ID=75165947

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021548336A Active JP7374201B2 (en) 2019-09-26 2020-06-08 Machine learning systems and methods, integrated servers, programs, and methods for creating inference models

Country Status (4)

Country Link
US (1) US20220164661A1 (en)
JP (1) JP7374201B2 (en)
DE (1) DE112020004590T5 (en)
WO (1) WO2021059604A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113177645B (en) * 2021-06-29 2021-09-28 腾讯科技(深圳)有限公司 Federal learning method and device, computing equipment and storage medium
WO2023228317A1 (en) * 2022-05-25 2023-11-30 日本電信電話株式会社 Federated learning system, model training device, federated learning method, and model training program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019022052A1 (en) 2017-07-28 2019-01-31 プラスマン合同会社 Information processing device, system, and information processing method
US20190227980A1 (en) 2018-01-22 2019-07-25 Google Llc Training User-Level Differentially Private Machine-Learned Models
WO2019170785A1 (en) 2018-03-07 2019-09-12 Movidius Ltd. Determining weights of convolutional neural networks

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019022052A1 (en) 2017-07-28 2019-01-31 プラスマン合同会社 Information processing device, system, and information processing method
US20190227980A1 (en) 2018-01-22 2019-07-25 Google Llc Training User-Level Differentially Private Machine-Learned Models
WO2019170785A1 (en) 2018-03-07 2019-09-12 Movidius Ltd. Determining weights of convolutional neural networks

Also Published As

Publication number Publication date
DE112020004590T5 (en) 2022-06-09
US20220164661A1 (en) 2022-05-26
JPWO2021059604A1 (en) 2021-04-01
WO2021059604A1 (en) 2021-04-01

Similar Documents

Publication Publication Date Title
JP7374202B2 (en) Machine learning systems and methods, integrated servers, programs, and methods for creating inference models
CN108784655B (en) Rapid assessment and outcome analysis for medical patients
US11069056B2 (en) Multi-modal computer-aided diagnosis systems and methods for prostate cancer
US10825167B2 (en) Rapid assessment and outcome analysis for medical patients
Ueda et al. Technical and clinical overview of deep learning in radiology
CN107492090B (en) Image-based analysis of tumor phenotype from synthetic data using machine learning
Kouanou et al. An optimal big data workflow for biomedical image analysis
US20190139641A1 (en) Artificial intelligence for physiological quantification in medical imaging
US11037070B2 (en) Diagnostic test planning using machine learning techniques
US20180144244A1 (en) Distributed clinical workflow training of deep learning neural networks
CN110114834A (en) Deep learning medical system and method for medical procedure
JP7317136B2 (en) Machine learning system and method, integrated server, information processing device, program, and inference model creation method
Mazzanti et al. Imaging, health record, and artificial intelligence: hype or hope?
JP2021056995A (en) Medical information processing apparatus, medical information processing system, and medical information processing method
CN113168912B (en) Determining growth rate of objects in 3D dataset using deep learning
KR20230085125A (en) Training method for specializing artificial intelligence model in deployed institution, and apparatus for training the artificial intelligence model
US20220164661A1 (en) Machine learning system and method, integration server, information processing apparatus, program, and inference model creation method
KR20210036840A (en) Training method for specializing artificial intelligence model in deployed institution, and apparatus for training the artificial intelligence model
CN114051623A (en) Image processing and routing using AI orchestration
Kaur et al. A review on optimization techniques for medical image analysis
US20230004785A1 (en) Machine learning system and method, integration server, information processing apparatus, program, and inference model creation method
JPWO2019208130A1 (en) Medical document creation support devices, methods and programs, trained models, and learning devices, methods and programs
US11308615B1 (en) Systems and processes for improving medical diagnoses
WO2023032437A1 (en) Contrast state determination device, contrast state determination method, and program
Haidar et al. Exploring Federated Deep Learning for Standardising Naming Conventions in Radiotherapy Data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220406

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230711

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231024

R150 Certificate of patent or registration of utility model

Ref document number: 7374201

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150