JP2019061579A - 学習支援装置、学習支援装置の作動方法、学習支援プログラム、学習支援システム、および端末装置 - Google Patents

学習支援装置、学習支援装置の作動方法、学習支援プログラム、学習支援システム、および端末装置 Download PDF

Info

Publication number
JP2019061579A
JP2019061579A JP2017187096A JP2017187096A JP2019061579A JP 2019061579 A JP2019061579 A JP 2019061579A JP 2017187096 A JP2017187096 A JP 2017187096A JP 2017187096 A JP2017187096 A JP 2017187096A JP 2019061579 A JP2019061579 A JP 2019061579A
Authority
JP
Japan
Prior art keywords
discriminator
learning
learned
image
correct data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017187096A
Other languages
English (en)
Other versions
JP6768620B2 (ja
Inventor
昭治 金田
Shoji Kaneda
昭治 金田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2017187096A priority Critical patent/JP6768620B2/ja
Priority to US16/123,456 priority patent/US10902286B2/en
Publication of JP2019061579A publication Critical patent/JP2019061579A/ja
Application granted granted Critical
Publication of JP6768620B2 publication Critical patent/JP6768620B2/ja
Priority to US17/130,468 priority patent/US11797846B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • G06F18/2178Validation; Performance evaluation; Active pattern learning techniques based on feedback of a supervisor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/778Active pattern-learning, e.g. online learning of image or video features
    • G06V10/7784Active pattern-learning, e.g. online learning of image or video features based on feedback from supervisors
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/70ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for mining of medical data, e.g. analysing previous cases of other patients

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Databases & Information Systems (AREA)
  • Public Health (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Multimedia (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)

Abstract

【課題】医療分野においてディープラーニングに必要な大量かつ多様な学習データの学習を支援する学習支援装置、学習支援装置の作動方法、学習支援プログラム、学習支援システム、および端末装置を提供する。【解決手段】複数の端末装置10のそれぞれに設けられた学習用判別器に画像正解データを用いて学習させた複数の学習済判別器NNt−A,NNt−Xを、学習支援装置20で取得し、複数の学習済判別器NNt−A,NNt−Xに対して同一の入力画像Pを判別させた複数の判別結果a,b,c・・・gを取得し、複数の判別結果に基づいて入力画像Pの正解データを決定し、入力画像Pと正解データを判別器NNlに学習させて新たな学習用判別器NNtとして各端末装置10に出力する。【選択図】図5

Description

本発明は、機械学習による判別器の生成を支援する学習支援装置、学習支援装置の作動方法、学習支援プログラム、学習支援システム、および端末装置に関する。
データの特徴を学習して画像などの認識や分類を行うために機械学習が従来から利用されてきた。近年、様々な学習手法が開発され、かつ、コンピュータの処理能力が向上したことにより処理時間が短縮され、システムが画像データなどの特徴をより深いレベルで学習するディープラーニング(深層学習)を行うことが可能になってきた。ディープラーニングを行うことにより、非常に高い精度で画像などの特徴を認識できるようになり判別性能の向上が期待されている。
医療分野においても、ディープラーニングを利用して学習することで高い精度で画像の特徴を認識する人工知能(AI)が望まれている。ディープラーニングには、目的に沿った大量かつ良質のデータによる学習が不可欠である。そのためには、効率的に学習データを用意することが重要である。各医療機関には、PACS(Picture Archiving and Communication System)の普及に伴い多くの症例の画像データが蓄積されている。そこで、各医療機関に蓄積された様々な症例の画像データを利用して学習させることが検討されている。
また、近年、様々な分野で人工知能は技術水準が向上しつつあるのみならず、様々なサービスに組み込まれて利用および活用がはじまっている。特に、ネットワークを介して様々なエッジ端末に提供されるサービスが増えつつある。例えば、特許文献1では、動画像を話題の切り替わり点で自動的に分割する動画像話題分割装置に学習モデルを取り入れた装置が開示されている。この文献では、学習モデルはクライアント端末に配信済みであり、各クライアント端末では配信された学習モデルを用いて自動的に話題分割が実行され、自動的に話題分割された結果に対してユーザが訂正した内容をフィードバックして学習モデルを更新することが開示されている。ユーザが訂正したフィードバックはネットワークを介して、統合モジュールに蓄積された後に、蓄積されたフィードバックを用いて再構築された学習モデルがネットワーク経由で各クライアント端末へ再度配信される。
特開2008−046729号公報
しかしながら、医療分野において、学習させるデータは患者の医療データとなるため、秘匿性が非常に高く、学習データとして利用するためにはデータの取扱に注意を要する。また、画像データには正解データはつけられていない。あるいは、正解データがあったとしても元の画像データと関連付けされず管理されていることが多い。そのため、効率的に正解データが付加された学習データを集めることは難しくコストがかかる。
そこで、本発明では、上述のような問題を解決するために、医療分野においてディープラーニングに必要な大量かつ多様な学習データの学習を可能にする学習支援装置、学習支援装置の作動方法、学習支援プログラム、学習支援システム、および端末装置を提供することを目的とする。
本発明の学習支援装置は、複数の端末装置のそれぞれに設けられた学習用判別器に画像と画像の正解データを用いて学習させた複数の学習済判別器を取得する学習済判別器取得部と、複数の学習済判別器に対して同一の入力画像を判別させた複数の判別結果を取得し、複数の判別結果に基づいて入力画像の正解データを決定し、入力画像と決定した正解データを用いて学習用判別器を再度学習させた新たな学習用判別器を出力する判別器出力部を備え、学習済判別器取得部によって、複数の端末装置のそれぞれに設けられた判別器出力部から出力された学習用判別器に画像と画像の正解データを用いて学習させた学習済判別器を取得し、判別器出力部によって、学習済判別器取得部で取得した複数の学習済判別器に対して入力画像と異なる新たな同一の入力画像を判別させた判別結果に基づいて新たな入力画像の正解データを決定して、新たな入力画像と決定した正解データを用いて判別器出力部で出力した学習用判別器を再度学習させた新たな学習用判別器を出力する処理を繰り返す。
本発明の学習支援装置の作動方法は、学習済判別器取得部と判別器出力部を備えた学習支援装置の作動方法であって、学習済判別器取得部が、複数の端末装置のそれぞれに設けられた学習用判別器に画像と画像の正解データを用いて学習させた複数の学習済判別器を取得し、判別器出力部が、複数の学習済判別器に対して同一の入力画像を判別させた複数の判別結果を取得し、複数の判別結果に基づいて入力画像の正解データを決定し、入力画像と決定した正解データを用いて学習用判別器を再度学習させた新たな学習用判別器を出力し、学習済判別器取得部によって、複数の端末装置のそれぞれに設けられた判別器出力部から出力された学習用判別器に画像と画像の正解データを用いて学習させた学習済判別器を取得し、判別器出力部によって、学習済判別器取得部で取得した複数の学習済判別器に対して入力画像と異なる新たな同一の入力画像を判別させた判別結果に基づいて新たな入力画像の正解データを決定して、新たな入力画像と決定した正解データを用いて判別器出力部で出力した学習用判別器を再度学習させた新たな学習用判別器を出力する処理を繰り返す。
本発明の学習支援プログラムは、コンピュータを、複数の端末装置のそれぞれに設けられた学習用判別器に画像と画像の正解データを用いて学習させた複数の学習済判別器を取得する学習済判別器取得部と、複数の学習済判別器に対して同一の入力画像を判別させた複数の判別結果を取得し、複数の判別結果に基づいて入力画像の正解データを決定し、入力画像と決定した正解データを用いて学習用判別器を再度学習させた新たな学習用判別器を出力する判別器出力部として機能させる学習支援プログラムであって、学習済判別器取得部によって、複数の端末装置のそれぞれに設けられた判別器出力部から出力された学習用判別器に画像と画像の正解データを用いて学習させた学習済判別器を取得し、判別器出力部によって、学習済判別器取得部で取得した複数の学習済判別器に対して入力画像と異なる新たな同一の入力画像を判別させた判別結果に基づいて新たな入力画像の正解データを決定して、新たな入力画像と決定した正解データを用いて判別器出力部で出力した学習用判別器を再度学習させた新たな学習用判別器を出力する処理を繰り返させる。
「学習済判別器を取得する」とは、学習済判別器を取得してもよいし、判別器のパラメーターを受取って、予め用意した判別器にパラメーターを設定することで学習済判別器を取得するものであってもよい。例えば、判別器が多層ニューラルネットワークである場合には、学習済みの多層ニューラルネットワークが組み込まれたプログラムを取得してもよいし、多層ニューラルネットワークのユニットの階層間における結合の重みをパラメーターとして取得して、予め用意された多層ニューラルネットワークにパラメーターを設定することで、学習済みの多層ニューラルネットワークを取得するようにしてもよい。
また、判別器出力部が、さらに、新たな学習用判別器が学習に用いた画像とこの画像の正解データを学習した実運用判別器を出力する。
「実運用判別器」は、入力された画像データの判別結果が取得可能な判別器であって、追加学習を行うことができない判別器であり、「学習用判別器」は、画像とその画像の正解データを用いて追加学習が可能な判別器である。また、出力される実運用判別器は、出力される学習用判別器が学習した画像とその画像の正解データと全て同じ画像とその画像の正解データを用いて学習が行われた判別器である。
また、学習済判別器取得部が、複数の端末装置からネットワークを介して学習済判別器を取得し、判別器出力部が、新たな学習用判別器をネットワークを介して複数の端末装置に出力するようにしてもよい。
また、判別器出力部は、複数の判別結果のうち同じ結果となった数が最も多い判別結果を入力画像の正解データとして決定してもよい。
また、判別器出力部は、学習済判別器に学習させた端末装置に応じて複数の学習済判別器のそれぞれの重みを決定し、判別結果のうち同じ結果となった学習済判別器の重みを加算し、加算した重みが最も大きい判別結果を入力画像の正解データとしてもよい。
また、判別器出力部は、各端末装置で学習済判別器に学習させた正解データの数に応じて各端末装置で学習させた学習済判別器のそれぞれの重みを決定して、判別結果が同じ結果となった学習済判別器の重みを加算し、加算した重みが最も大きい判別結果を入力画像の正解データとしてもよい。
また、判別器出力部は、学習済判別器のそれぞれに対して各学習済判別器に学習させた画像の症例種別ごとに重みを決定し、判別結果が同じ結果となった学習済判別器における入力画像の症例種別に対応する重みを加算し、加算した重みが最も大きい判別結果を入力画像の正解データとしてもよい。
また、複数の学習済判別器に対して基準となる複数の画像からなる画像セットを用いて正解率を評価する評価部を有し、判別器出力部は、評価部によって得られた正解率に応じて複数の学習済判別器のそれぞれの重みを決定し、学習済判別器の判別結果が同じ結果となった学習済判別器のそれぞれの重みを加算し、加算した重みが最も大きい判別結果を入力画像の正解データとしてもよい。
本発明の学習支援システムは、学習支援装置と複数の端末装置とをネットワークを介して接続した学習支援システムであって、端末装置が、学習用判別器に画像と画像の正解データを用いて学習させた学習済判別器をネットワークを介して出力する学習済判別器出力部を備え、学習支援装置が、複数の端末装置から複数の学習済判別器をネットワークを介して取得する学習済判別器取得部と、複数の学習済判別器に対して同一の入力画像を判別させた複数の判別結果を取得し、複数の判別結果に基づいて入力画像の正解データを決定し、入力画像と決定した正解データを用いて学習用判別器を再度学習させた新たな学習用判別器をネットワークを介して複数の端末装置を出力する判別器出力部を備え、端末装置が、学習支援装置から出力された学習用判別器をネットワークを介して受信する判別器取得部を備える。
また、学習支援システムにおいて、判別器取得部が、学習支援装置から出力された学習用判別器と同じ画像と画像の正解データを学習済みの実運用判別器をさらにネットワークを介して取得し、端末装置が、実運用判別器を用いて判別対象の画像を判別した判別結果を取得する判別結果取得部をさらに備えてもよい。
本発明の端末装置は、学習用判別器と、学習用判別器と同じ画像と画像の正解データを用いて学習させた学習済みの実運用判別器とを取得する判別器取得部と、実運用判別器を用いて判別対象の画像を判別した判別結果を取得する判別結果取得部と、 学習用判別器に画像と画像の正解データを用いて学習させた学習済判別器を出力する学習済判別器出力部を備える。
また、端末装置において、判別器取得部が、学習支援装置からネットワークを介して学習用判別器と実運用判別器とを取得し、学習済判別器出力部が、ネットワークを介して学習済み判別器を送出力するようにしてもよい。
本発明の他の学習支援装置は、コンピュータに実行させるための命令を記憶するメモリと、記憶された命令を実行するよう構成されたプロセッサとを備え、プロセッサは、複数の端末装置のそれぞれに設けられた学習用判別器に画像と画像の正解データを用いて学習させた複数の学習済判別器を取得する取得処理と、複数の学習済判別器に対して同一の入力画像を判別させた複数の判別結果を取得し、複数の判別結果に基づいて入力画像の正解データを決定し、入力画像と決定した正解データを用いて学習用判別器を再度学習させた新たな学習用判別器を出力する出力処理を実行し、複数の端末装置のそれぞれに設けられた判別器出力部から出力された学習用判別器に画像と画像の正解データを用いて学習させた学習済判別器を取得し、学習済判別器取得部で取得した複数の学習済判別器に対して入力画像と異なる新たな同一の入力画像を判別させた判別結果に基づいて新たな入力画像の正解データを決定して、新たな入力画像と決定した正解データを用いて判別器出力部で出力した学習用判別器を再度学習させた新たな学習用判別器を出力する処理を繰り返す。
本発明によれば、複数の端末装置のそれぞれに設けられた学習用判別器に画像正解データを用いて学習させた複数の学習済判別器を学習支援装置で取得して、同一の入力画像を判別させた複数の判別結果を取得し、複数の判別結果に基づいて入力画像の正解データを決定し、入力画像と決定した正解データを用いて判別器を学習させるようにしたので、正解データがつけられていない画像から学習用のデータを自動的に生成して、大量の画像を用いてディープラーニングを行うことが可能になり、判別性能を向上させることが可能になる。
本発明の学習支援システムの概略構成を表す図 医療情報システムの概略構成を表す図 多層ニューラルネットワークの一例 第1の実施の形態の端末装置と学習支援装置の概略構成を示すブロック図 判別器の学習を説明するための図 判別器に学習させる処理の流れを表すフローチャート 第2の実施の形態の端末装置と学習支援装置の概略構成を示すブロック図 第3の実施の形態の端末装置と学習支援装置の概略構成を示すブロック図 第4の実施の形態の端末装置と学習支援装置の概略構成を示すブロック図
図1に、本発明の第1の実施の形態における学習支援システム1の概略構成を示す。学習支援システム1は、複数の医療機関A,B・・・Xに設置される複数の端末装置10とクラウド側に置かれる学習支援装置20がネットワーク30で接続されて構成される。
学習支援装置20は、CPU(Central Processing Unit)、メモリ、ストレージ、入出力インターフェース、通信インターフェース、入力装置、表示装置、および、データバス等の周知のハードウェア構成を備え、周知のオペレーションシステム等がインストールされ、さらに、サーバの機能を有した高性能なコンピュータである。また、必要に応じてGUP(Graphics Processing Unit)を設けるようにしてもよい。あるいは、1つまたは複数のコンピュータを用いて提供される仮想化された仮想サーバであってもよい。本発明の学習支援プログラムがサーバにインストールされ、コンピュータのCPUによってプログラムの命令が実行されることにより学習支援装置として機能する。
端末装置10は、各医療機関A,B・・・Xに設けられた画像処理用のコンピュータであり、CPU、メモリ、ストレージ、入出力インターフェース、通信インターフェース、入力装置、表示装置、および、データバス等の周知のハードウェア構成を備え、周知のオペレーションシステム等がインストールされ、表示装置としてディスプレイを有している。また、必要に応じてGUPを設けるようにしてもよい。
ネットワーク30は、公衆回線網または専用回線網を介して複数の医療機関A,B・・・Xに置かれた端末装置10と学習支援装置20を広域的に結ぶワイドエリアネットワーク (広域通信網 WAN:Wide Area Network) である。
また、端末装置10は、図2に示すように、ローカルエリアネットワーク(LAN:Local Area Network)51を介して、各医療機関A,B・・・Xのそれぞれの医療情報システム50に接続されている。医療情報システム50は、モダリティ(撮影装置)52、画像データベース53、読影医用ワークステーション54を備え、ネットワーク51を介して互いに画像データの送受信が行われるように構成される。なお、ネットワーク51は、画像データを高速転送が可能なように光ファイバーなどの通信ケーブルを用いるのが望ましい。
モダリティ52には、被写体の検査対象部位を撮影することにより、その部位を表す検査画像を生成し、その画像にDICOM規格で規定された付帯情報を付加して出力する装置が含まれる。具体例としては、CT装置(Computed Tomography:コンピュータ断層撮影装置)、MRI装置(magnetic resonance imaging:磁気共鳴画像撮影装置)、PET装置(Positron Emission Tomography:陽電子放射断層撮影装置)、超音波装置、または、平面X線検出器(FPD:flat panel detector)を用いたCR装置(Computed Radiography:コンピュータX線撮影装置)などが挙げられる。
画像データベース53は、汎用のコンピュータにデータベース管理システム(Data Base Management System:DBMS)の機能を提供するソフトウェアプログラムが組み込まれ、大容量ストレージを備えている。このストレージは、大容量のハードディスク装置であってもよいし、ネットワーク51に接続されているNAS(Network Attached Storage)やSAN(Storage Area Network)に接続されたディスク装置であってもよい。また、モダリティ52で撮影された画像データは、DICOM規格に準拠した格納フォーマットおよび通信規格に従って、ネットワーク51を介して画像データベース53に送信されて格納される。
読影医用ワークステーション54は、放射線科の読影医が画像の読影や読影レポートの作成に利用するコンピュータである。この読影医用ワークステーション54では、画像データベース53から受信した画像データの表示を行い、画像中の病変らしき部分の自動検出等をおこなう。
本実施の形態では、学習支援装置20から、各端末装置10に実運用判別器として機能する判別器が組み込まれた画像処理プログラムが提供され、画像処理プログラムとは別に学習用として機能する判別器が組み込まれた学習用プログラムが提供される場合について説明する。各端末装置10に配信された画像処理プログラムおよび学習用プログラムは、端末装置10にインストールされることにより、実運用判別器が組み込まれた画像処理装置および学習用判別器として機能する。
また、実運用判別器および学習用判別器は、複数種類の臓器領域および/または病変領域のいずれであるかを判別できるようにディープラーニングがなされた多層ニューラルネットワークである場合について説明する。多層ニューラルネットワークでは、入力されるデータに対する前段の階層により得られる異なる複数の演算結果データ、すなわち特徴量の抽出結果データに対して、各層において各種カーネルを用いて演算処理を行い、これにより得られる特徴量のデータを取得し、特徴量のデータに対して次段以降の処理層においてさらなる演算処理を行うことにより、特徴量の認識率を向上させて、入力された画像データを複数の種類の領域のいずれであるかを判別することができる。
図3は多層ニューラルネットワークの一例を示す図である。図3に示すように多層ニューラルネットワーク40は、入力層41および出力層42を含む複数の階層からなる。図3では、出力層42の手前の階層には参照番号43を付与している。
多層ニューラルネットワーク40は、入力層41に画像データを入力して、領域の判別結果を出力させる。学習を行う際には、出力された判別結果を正解データと比較し、正解か不正解かに応じて、出力側(出力層42)から入力側(入力層41)に向かって、多層ニューラルネットワーク40の各層に含まれるユニット(図3に丸印で示す)の各階層間における結合の重みを修正する。そして、結合の重みの修正を、多数の正解データ付の画像データを用いて、予め定められた回数、または出力される判別結果の正解率が100%、または予め定められたしきい値以上になるまで繰り返し行い、学習を終了する。
図4は、端末装置10と学習支援装置20の概略構成を示すブロック図である。図4を用いて、端末装置10と学習支援装置20の機能について詳細に説明する。まず、端末装置10について説明する。
端末装置10は、判別器取得部12と、判別結果取得部13と、学習部14と、学習済判別器出力部15と備える。
判別器取得部12は、学習用判別器と実運用判別器とを取得する。例えば、画像処理プログラムと学習用プログラムとをネットワーク30を介して学習支援装置20から受信して、受信した画像処理プログラムがインストールされることによって、端末装置10で、実運用判別器が組み込まれた画像処理が実行可能な状態になり、判別結果取得部13として機能する。同様に、学習用プログラムがインストールされることによって、学習用判別器が実行可能な状態となり、学習部14として機能する。なお、学習用判別器は、学習支援装置20から受信した実運用判別器と同じ画像正解データを学習済みの判別器である。実運用判別器が組み込まれた画像処理を単に実運用判別器として以下説明する。なお、画像正解データは、画像データとその正解データの組み合わせをいう。画像正解データの詳細は後述する。
判別結果取得部13は、実運用判別器に判別対象の画像データを入力して、判別結果を取得する。実運用判別器は、学習支援装置20において判別性能が保障された判別器であり、各医療機関A,B・・・Xでは、診断対象の画像データに対しては、実運用判別器を用いて判別が行われる。また、判別結果取得部13は、読影医用ワークステーション54からネットワーク51を介して端末装置10に送られてきた診断対象の画像データの判別を行ない、判別結果を端末装置10から読影医用ワークステーション54に送信するようにしてもよい。
学習部14は、画像データとその正解データを用いて学習用判別器に学習させる。正解データは、画像データの臓器または異常陰影など領域を示すマスク画像と、そのマスク画像の領域が何であるか(例えば、肝臓、腎臓または肺野などの臓器の領域であるか、あるいは、肝臓がん、腎臓がんまたは肺結節などの異常陰影の領域であるかなど)を表す情報を合わせて有している。
正解データは、各医療機関A,B・・・Xの読影医などが画像データを観察して作成してもよい。例えば、画像データベース53から画像データを取り出して、判別結果取得部13で画像データを実運用判別器に入力して判別結果を取得し、判別結果に対して読影医などユーザが正解もしくは不正解であるという判定を行ない、正解の場合は、判別結果を正解データとして、入力した画像データと正解データを一緒に画像正解データとして画像データベース53に記憶する。不正解の場合は、ユーザが正解データのマスク画像を生成し、その正解データを画像データに付与して画像正解データとして画像データベース53に格納する。
そこで、学習部14は、画像データベース53に記憶されている多数の画像正解データを用いて、学習用判別器の多層ニューラルネットワーク40に学習させる。まず、多層ニューラルネットワーク40に画像正解データの画像データを入力して、判別結果を出力させる。次に、出力された判別結果を正解データと比較し、正解か不正解かに応じて、出力側から入力側に向かって、多層ニューラルネットワーク40の各層に含まれるユニットの各階層間における結合の重みを修正する。結合の重みの修正を、多数の正解データを用いて、予め定められた回数、または出力される判別結果の正解率が100%になるまで繰り返し行い、学習を終了する。
学習済判別器出力部15は、学習部14で学習が終了した学習用判別器を学習済判別器として出力する。具体的には、学習済判別器を構成するニューラルネットワークを構成するユニットの階層間における結合の重み(以下、パラメーターという)をネットワーク30を介して定期的に学習支援装置20に送信する。
次に、学習支援装置20について説明する。図4に示すように、学習支援装置20は、学習済判別器取得部22、判別器記憶部23、正解データ取得部24、正解データ記憶部25、学習部26、および判別器出力部27を備える。
学習済判別器取得部22は、ネットワーク30を介して複数の端末装置10から送信された学習済判別器を構成する多層ニューラルネットワーク40のパラメーターを受信する。受信したパラメーターは判別器記憶部23に一旦記憶する。学習支援装置20には多層ニューラルネットワーク40が予め設けられており、各端末装置10から受信したパラメーターを、学習支援装置20に設けられている多層ニューラルネットワーク40のユニットの各階層間の結合の重みとして設定する。この重みに各端末装置から受取ったパラメーターを設定しなおすことにより、各端末装置10と同じ学習済判別器を取得することができる。
正解データ取得部24は、各端末装置10から集められた学習済判別器のそれぞれに対して同一の入力画像データを判別させて複数の判別結果を取得し、複数の判別結果の中から入力画像データの正解データを決定する。
多くの画像データは正解データがつけられていないでデータベースに保管されていることが多い。これらの画像データに対して正解データを付けるために、例えば、画像データを判別器に入力して判別結果を取得し、判別結果に対して読影医などユーザが正解もしくは不正解であるという判定を行なって、正解である場合には判別結果を正解データと入力画像データと対応付けて画像正解データとして登録する。不正解の場合には、ユーザが正解データのマスク画像を生成して入力画像データと対応付けて画像正解データとして登録する。このように正解データを作成する作業は労力を要し、手動で正解データを多数生成するのは難しい。
そこで、正解データ取得部24は、各端末装置10から集められた学習済判別器に対して同じ入力画像データを入力して得られた判別結果から、同じ結果となった数が最も多い判別結果を入力画像データの正解データとして決定する。このように、各端末装置10から集められた学習済判別器を用いて得られた複数の判別結果の中から正解データを決定するようにすれば、正確な正解データを自動で生成することができるので、多数の正解データを容易に得ることが可能になる。得られた正解データは、入力画像データと対応づけて画像正解データとしてストレージ(正解データ記憶部25)に蓄積していく。
学習部26には、多層ニューラルネットワーク40で構成されたディープラーニング用判別器が設けられ、このディープラーニング用判別器に正解データ記憶部25に蓄積されている画像正解データを順次入力して学習させる。
判別器出力部27は、ある程度学習が進みディープラーニング用判別器の判別精度が向上した段階で、学習部26で学習させたディープラーニング用判別器を組み込んだ画像処理プログラム(実運用判別器)と学習用プログラム(学習用判別器)を生成して、ネットワーク30を介して各端末装置10に配信する。医療用目的のソフトウェアに対しては、医薬品医療機器等法(改正薬事法)の対象となるため、医薬品医療機器等法で定められる基準をクリアしていることが求められる。そこで、医薬品医療機器等法で定められる基準が評価できる複数の画像の組み合わせで構成された評価用の画像セットを用いて、配信する前にディープラーニング用判別器が評価基準を超えていることを確認した上で、配信するのが好ましい。
学習部26は、判別器出力部27で画像処理プログラムと学習用プログラムを各端末装置10に配信した後も、そのまま引き続き正解データ記憶部25に蓄積されている画像正解データをディープラーニング用判別器に順次入力して学習させていく。つまり、判別器出力部27で出力した学習用判別器に追加学習させ、追加学習された学習用判別器を新たな学習用判別器として判別器出力部27で出力することになる。
次に、本実施の形態のディープラーニングの処理の流れについて、図5の遷移図と図6のフローチャートを用いて説明する。
最初に、学習支援装置20は、判別器出力部27で実運用判別器NNoと学習用判別器NNtを複数の端末装置10にネットワーク30を介して医療機関A・・・、医療機関Xに配信する(S1)。
端末装置10は、判別器取得部12で、実運用判別器NNoと学習用判別器NNtを取得する(S2)。実運用判別器NNoは読影医の診断に用いられ、判別結果取得部13によって診断対象の画像データ(Input)を判別して判別結果(output)を得る(図5参照)。さらに、医療機関Aでは、端末装置10の学習部14で画像データベース53に記憶されている画像正解データTを用いて、学習用判別器NNtに学習させて(S3)、学習済判別器NNt-Aを生成する(S4)。同様に、医療機関Xでは、端末装置10の学習部14で、画像正解データTを用いて学習用判別器NNtに学習させて、学習済判別器NNt-Xを生成する(S4)。
定期的に、各端末装置10から、学習済判別器出力部15で学習済判別器を学習支援装置20に送信する(S5)。医療機関Aの端末装置10からは学習済判別器NNt-Aのパラメーターを学習支援装置20に送信し、医療機関Xの端末装置10からは学習済判別器NNt-Xのパラメーターを学習支援装置20に送信する(図5の実践の矢印(1)を参照)。
学習支援装置20は、学習済判別器取得部22は複数の端末装置10から受け取った学習済判別器のパラメーターを一旦判別器記憶部23に記憶する。このパラメーターを学習支援装置20に設けられた多層ニューラルネットワーク40に設定することで、各端末装置10で学習させた学習済判別器を取得する(S6)。
正解データ取得部24で、入力画像データPを各端末装置10の学習済判別器に入力して判別結果を得る。図5の例では、結果a、結果b、結果c・・結果gが得られ、最も多数となった結果bを入力画像データPの正解データに決定する(S7)。入力画像データPと正解データを対応付けてストレージ25に蓄積していく。
学習部26は、入力画像データPと結果b(正解データ)を用いて、ディープラーニング用判別器NNlに学習させる(S8)。定期的に、ディープラーニング用判別器NNlを元にして新しいバージョンの実運用判別器NNoと学習用判別器NNtを生成する(S9)。判別器出力部27は、新たなバージョンの実運用判別器NNoと学習用判別器NNtを各端末装置10に配信する(S10、図5の破線の矢印(2)を参照)。
医療機関Aの端末装置10は、判別器取得部12で新しいバージョンの実運用判別器NNoと学習用判別器NNtを再度取得する(S2)。端末装置10の学習部14で画像データベース53に記憶されている画像正解データTを用いて、新しいバージョンの学習用判別器NNtに学習させて(S3)、再度、学習済判別器NNt-Aを生成する(S4)。
医療機関Xの端末装置10においても、判別器取得部12で新しいバージョンの実運用判別器NNoと学習用判別器NNtを再度取得する(S2)。端末装置10の学習部14で画像データベース53に記憶されている画像正解データTを用いて、新しいバージョンの学習用判別器NNtに学習させて(S3)、学習済判別器NNt-Xを生成する(S4)。続いて、S5〜S10の処理を上述と同様に行う。
以上のS2〜S10の処理を繰り返し、学習支援装置20で正解データを生成しながら判別器の性能を向上させた実運用判別器と学習用判別器を生成して、端末装置10に配信する。
上述のように、各医療機関に置かれている端末装置10でその医療機関に保管されている画像データを用いて学習を行うことにより、各医療機関で判別性能を向上させた判別器を生成することが可能になる。この各医療機関で性能を高めた判別器を用いて、学習支援装置20で正解データを生成することで、正確な正解データを大量に生成することが可能になり、この正解データを用いてディープラーニングを行うことが可能になる。
上述では、画像データに対する正解データのマスク画像は、画像上の領域が何であるかを表す情報を合わせて有している場合について説明したが、判別器が、(1)画像データの各画素位置がどの臓器か判定することで臓器領域とその臓器名を判定する、(2)画像データの画素単位に各画素の病変の種別を判定することで病変領域およびその病変種別を判定するように構成してもよい。あるいは、1つの画像に対する正解データを病名または画像診断名として、(3)画像データから病名が特定できるものであってもよい。
次に、第2の実施の形態について説明する。本実施の形態は、正解データの決定方法が第1の実施の形態と異なる。学習支援システム1の概略構成は第1の実施の形態と同じであるので詳細な説明は省略する。図7は、本実施の形態の端末装置10と学習支援装置20の概略構成を示すブロック図である。第1の実施の形態と同じ構成については、第1の実施の形態と同一符号を付して詳細な説明は省略し、相違する構成についてのみ説明する。
図7に示すように、端末装置10は、判別器取得部12と、判別結果取得部13と、学習部14と、学習済判別器出力部15と備え、学習支援装置20は、学習済判別器取得部22、判別器記憶部23、正解データ取得部24a、正解データ記憶部25、学習部26、および判別器出力部27を備える。端末装置10の構成は第1の実施の形態と同じであるが、学習支援装置20の正解データ取得部24aが評価部28と評価画像記憶部29を備える点で異なる。
第1の実施の形態のように、多数決で正解データを決定する場合、それぞれの端末装置10で十分学習がなされていればよいが、例えば、端末装置10で追加の学習がされていない判別器を学習済判別器として受け取った場合、または、追加学習の数が少ない学習済判別器を用いた場合には、同じ入力画像データPに対して判定結果は同一になる可能性が高く、このような学習が十分に行われていない判別器の判定結果が正解データとなる可能性が高い。
そこで、学習支援装置20は、各端末装置10から集められた学習済判別器を予め評価する。学習支援装置20は、代表的な症例パターンを網羅し画像データに対して正解データもある複数の症例を評価用の画像セットSETとし、評価部28は画像セットSETを用いて、各端末装置10から送られてきた学習済判別器を評価し、その正解率の高さに応じて判別器の重みを決定する。また、医療用目的のソフトウェアに対しては、医薬品医療機器等法(改正薬事法)の対象となるため、医薬品医療機器等法で定められる基準をクリアしていることが求められる。そこで、医薬品医療機器等法で定められる基準が評価できる複数の画像の組み合わせで構成された評価用の画像セットSETを予めストレージ(評価画像記憶部29)に記憶しておくのが好ましい。ただし、この評価用の画像セットSETは、ディープラーニングに用いるためには十分な数ではない。
この評価用の画像セットの正解率に応じて、端末装置10から集められた学習済判別器のそれぞれに対して重みを決定し、判別結果のうち同じ結果となった学習済判別器の重みを加算し、加算した重みが最も大きい判別結果を入力画像の正解データとする。
ディープラーニングの処理の流れは第1の実施の形態と同じであるので省略する。
次に、第3の実施の形態について説明する。本実施の形態は、正解データの決定方法が第1および第2の実施の形態と異なる。学習支援システム1の概略構成は第1の実施の形態と同じであるので詳細な説明は省略する。図8は、本実施の形態の端末装置10と学習支援装置20の概略構成を示すブロック図である。第1の実施の形態と同じ構成については、第1の実施の形態と同一符号を付して詳細な説明は省略し、相違する構成についてのみ説明する。
図8に示すように、端末装置10は、判別器取得部12、判別結果取得部13、学習部14、および学習済判別器出力部15aと備え、学習支援装置20は、学習済判別器取得部22a、判別器記憶部23、正解データ取得部24b、正解データ記憶部25、学習部26、および判別器出力部27を備える。端末装置10の学習済判別器出力部15aと学習支援装置20の学習済判別器取得部22aと正解データ取得部24bが第1の実施の形態と異なる。
第2の実施の形態のように、学習済判別器の性能を評価しても、学習支援装置20の評価用症例数や症例の網羅性に問題がある場合には、評価用の画像セットを用いた評価結果が不十分な場合もある。しかし、学習済判別がある程度の数の画像正解データを学習している場合には、それなりに性能は向上していると推定できる。
そこで、端末装置10の学習済判別器出力部15aは学習済判別器のパラメーターを送信する際に、学習済判別器に学習させた画像正解データの数を学習支援装置20に送信する。
学習支援装置20の学習済判別器取得部22aは、パラメーターを受信する際に、一緒に各端末装置10で学習済判別器に学習させた画像正解データの数を受信する。正解データ取得部24b、各端末装置10の学習済判別器で学習させた画像正解データの数が多くなるほど、重みが大きくなるように重みを決定する。判別結果が同じ結果となった学習済判別器の重みを加算し、加算した重みが最も大きい判別結果を入力画像の正解データとする。
ディープラーニングの処理の流れは第1の実施の形態と同じであるので省略する。
次に、第4の実施の形態について説明する。本実施の形態は、正解データの決定方法が第1、第2および第3の実施の形態と異なる。学習支援システム1の概略構成は第1の実施の形態と同じであるので詳細な説明は省略する。図9は、本実施の形態の端末装置10と学習支援装置20の概略構成を示すブロック図である。第1の実施の形態と同じ構成については、第1の実施の形態と同一符号を付して詳細な説明は省略し、相違する構成についてのみ説明する。
図9に示すように、端末装置10は、判別器取得部12と、判別結果取得部13と、学習部14と、学習済判別器出力部15bと備え、学習支援装置20は、学習済判別器取得部22b、判別器記憶部23、正解データ取得部24c、正解データ記憶部25、学習部26、および判別器出力部27を備える。端末装置10の学習済判別器出力部15bと学習支援装置20の学習済判別器取得部22bと正解データ取得部24cが第1の実施の形態と異なる。
医療施設の特性、または地域性などにより、症例種別ごとの画像正解データの数に偏りがあり、学習させた全ての数は多くても、ある種の疾患では画像正解データの数が少なく、その疾患では性能が向上していない可能性がある。そこで、各医療施設の学習済判別器に学習させた画像正解データの数を症例種別ごとに、各端末装置10から受信する。
そこで、端末装置10の学習済判別器出力部15bは学習済判別器のパラメーターを送信する際に、学習済判別器に学習させた症例種別ごとの画像正解データの数を学習支援装置20に送信する。具体的には、端末装置10の学習部14で学習させた画像正解データがどの症例に関するかを、例えば、画像正解データの画像に付されているDICOMタグに基づいて判定し、症例種別ごとに学習した画像正解データの数を数えておく。症例種別は、病名(画像検査の場合は画像診断名でもよい)、または、病名種別で分類する。また、複数の臓器をまとめて一つの判別器で処理する場合は臓器名を用いてもよい。
学習支援装置20の学習済判別器取得部22bは、パラメーターを受信する際に、一緒に各端末装置10で学習済判別器に学習させた症例種別ごとの画像正解データの数を受信する。
正解データ取得部24cでは、学習済みの画像正解データの数が多いほど学習済判別器の性能が高いと推定される。これを反映するように、各端末装置10の学習済判別器に対して症例種別ごとに各施設に学習させた画像正解データの数を数えて、その数が多くなるほど重みが大きくなるように症例種別ごとの重みを各学習済判別器に対して決定する。さらに、入力画像の症例種別に対応して、判別結果が同じ結果となった学習済判別器の重みを加算し、加算した重みが最も大きい判別結果を入力画像の正解データとする。
ディープラーニングの処理の流れは第1の実施の形態と同じであるので省略する。
本実施の形態の方式であれば、各医療施設の画像正解データの数や得意な症例種別などを考慮して学習済判別器を評価することが可能になる。
また、第2の実施の形態の評価用の画像セットを、疾患種別ごとに判別器を評価することが可能な評価用の画像セットにして、疾患種別ごとの正解率に応じて各端末装置の学習済判別器の重みを決定するようにしてもよい。入力画像の症例種別に応じて、判別結果が同じ結果となった学習済判別器の重みを加算し、加算した重みが最も大きい判別結果を入力画像の正解データとするようにしてもよい。
また、第4の実施の形態では、重みを自動決定する場合について説明したが、施設の重要性や、施設ごとの得意疾患などを考慮して、手作業で重みを決定して、予め学習支援装置20内に記憶しておくようにしてもよい。
上述では、学習支援装置20と端末装置10がネットワークで接続されている形態について説明したが、ネットワークを介すことなく実運用判別器として機能する判別器が組み込まれた画像処理プログラムと、学習用判別器として機能する判別器が組み込まれた学習用プログラムをDVD−ROMなどの記録媒体に記憶して、各医療機関に渡すようにしてもよい。
この形態では、端末装置10の判別器取得部12は、DVD−ROMから画像処理プログラムと学習用プログラムを端末装置10に読み込んでインストールし、学習用判別器の学習に用いられた画像正解データの識別情報IDも記録媒体から読み込む。また、端末装置10の学習済判別器出力部15は、DVD−ROMに学習済判別器のパラメーターを記録して、郵送等によって学習支援装置20のオペレータに渡される。
また、学習支援装置20の学習済判別器取得部22は、DVD−ROMに記録された学習済判別器のパラメーターを読み込む。さらに、学習支援装置20の判別器出力部27は、画像処理プログラムおよび学習用プログラムをDVD−ROMに記録して、郵送等によって端末装置10のオペレータに渡される。
以上、詳細に説明したように、本願発明では、各医療機関に保管されている医用画像を用いて性能を向上させた判別器を用いて、自動的に画像の正確な正解データを生成することで、大量の医用画像をディープラーニングに用いることが可能になる。
上述では、学習支援装置および端末装置が汎用コンピュータ上で機能する場合について説明したが、一部の機能を実行するためのプログラムを永久的に記憶するASIC(Application Specific Integrated Circuit :特定用途向け集積回路)やFPGA(field programmable gate arrays)などの専用回路を設けるようにしてもよい。あるいは、専用回路に記憶されたプログラム命令と、専用回路のプログラムを利用するようにプログラムされた汎用のCPUによって実行されるプログラム命令と組み合わせるようにしてもよい。以上のように、コンピュータのハードウェア構成をどのように組み合わせてプログラム命令を実行してもよい。
1 学習支援システム
10 端末装置
12 判別器取得部
13 判別結果取得部
14 学習部
15、15a、15b学習済判別器出力部
16 正解画像記憶部
20 学習支援装置
22、22a、22b 学習済判別器取得部
23 判別器記憶部24c
24、24a、24b、 正解データ取得部
25 正解データ記憶部
26 学習部
27 判別器出力部
28 評価部
29 評価画像記憶部
30 ネットワーク
40 多層ニューラルネットワーク
41 入力層
42 出力層
43 階層
50 医療情報システム
51 ネットワーク
52 モダリティ
53 画像データベース
54 読影医用ワークステーション

Claims (14)

  1. 複数の端末装置のそれぞれに設けられた学習用判別器に画像と該画像の正解データを用いて学習させた複数の学習済判別器を取得する学習済判別器取得部と、
    前記複数の学習済判別器に対して同一の入力画像を判別させた複数の判別結果を取得し、該複数の判別結果に基づいて前記入力画像の正解データを決定し、前記入力画像と決定した正解データを用いて前記学習用判別器を再度学習させた新たな学習用判別器を出力する判別器出力部を備え、
    前記学習済判別器取得部によって、前記複数の端末装置のそれぞれに設けられた前記判別器出力部から出力された学習用判別器に画像と該画像の正解データを用いて学習させた学習済判別器を取得し、前記判別器出力部によって、前記学習済判別器取得部で取得した複数の前記学習済判別器に対して前記入力画像と異なる新たな同一の入力画像を判別させた判別結果に基づいて該新たな入力画像の正解データを決定して、該新たな入力画像と決定した正解データを用いて該判別器出力部で出力した学習用判別器を再度学習させた新たな学習用判別器を出力する処理を繰り返す学習支援装置。
  2. 前記判別器出力部が、前記新たな学習用判別器が学習に用いた画像と該画像の正解データを学習した実運用判別器を出力する請求項1記載の学習支援装置。
  3. 前記学習済判別器取得部が、前記複数の端末装置からネットワークを介して前記学習済判別器を取得し、
    前記判別器出力部が、前記新たな学習用判別器を前記ネットワークを介して前記複数の端末装置に出力する請求項1または2記載の学習支援装置。
  4. 前記判別器出力部は、前記複数の判別結果のうち同じ結果となった数が最も多い判別結果を前記入力画像の正解データとして決定する請求項1から3のいずれか1項記載の学習支援装置。
  5. 前記判別器出力部は、前記学習済判別器に学習させた前記端末装置に応じて前記複数の学習済判別器のそれぞれの重みを決定し、前記判別結果のうち同じ結果となった前記学習済判別器の前記重みを加算し、前記加算した重みが最も大きい判別結果を前記入力画像の正解データとする請求項1〜4のいずれか1項記載の学習支援装置。
  6. 前記判別器出力部は、前記各端末装置で前記学習済判別器に学習させた正解データの数に応じて前記各端末装置で学習させた前記学習済判別器のそれぞれの重みを決定して、前記判別結果が同じ結果となった前記学習済判別器の前記重みを加算し、前記加算した重みが最も大きい判別結果を前記入力画像の正解データとする請求項5記載の学習支援装置。
  7. 前記判別器出力部は、前記学習済判別器のそれぞれに対して前記各学習済判別器に学習させた画像の症例種別ごとに重みを決定し、前記判別結果が同じ結果となった前記学習済判別器における前記入力画像の前記症例種別に対応する前記重みを加算し、前記加算した重みが最も大きい判別結果を前記入力画像の正解データとする請求項5記載の学習支援装置。
  8. 前記複数の前記学習済判別器に対して基準となる複数の画像からなる画像セットを用いて正解率を評価する評価部を有し、
    前記判別器出力部は、前記評価部によって得られた正解率に応じて前記複数の学習済判別器のそれぞれの重みを決定し、前記学習済判別器の判別結果が同じ結果となった前記学習済判別器のそれぞれの前記重みを加算し、前記加算した重みが最も大きい判別結果を前記入力画像の正解データとする請求項5記載の学習支援装置。
  9. 学習済判別器取得部と判別器出力部を備えた学習支援装置の作動方法であって、
    前記学習済判別器取得部が、複数の端末装置のそれぞれに設けられた学習用判別器に画像と該画像の正解データを用いて学習させた複数の学習済判別器を取得し、
    前記判別器出力部が、前記複数の学習済判別器に対して同一の入力画像を判別させた複数の判別結果を取得し、該複数の判別結果に基づいて前記入力画像の正解データを決定し、前記入力画像と決定した正解データを用いて前記学習用判別器を再度学習させた新たな学習用判別器を出力し、
    前記学習済判別器取得部によって、前記複数の端末装置のそれぞれに設けられた前記判別器出力部から出力された学習用判別器に画像と該画像の正解データを用いて学習させた学習済判別器を取得し、前記判別器出力部によって、前記学習済判別器取得部で取得した複数の前記学習済判別器に対して前記入力画像と異なる新たな同一の入力画像を判別させた判別結果に基づいて該新たな入力画像の正解データを決定して、該新たな入力画像と決定した正解データを用いて該判別器出力部で出力した学習用判別器を再度学習させた新たな学習用判別器を出力する処理を繰り返す学習支援装置の作動方法。
  10. コンピュータを、
    複数の端末装置のそれぞれに設けられた学習用判別器に画像と該画像の正解データを用いて学習させた複数の学習済判別器を取得する学習済判別器取得部と、
    前記複数の学習済判別器に対して同一の入力画像を判別させた複数の判別結果を取得し、該複数の判別結果に基づいて前記入力画像の正解データを決定し、前記入力画像と決定した正解データを用いて前記学習用判別器を再度学習させた新たな学習用判別器を出力する判別器出力部として機能させる学習支援プログラムであって、
    前記学習済判別器取得部によって、前記複数の端末装置のそれぞれに設けられた前記判別器出力部から出力された学習用判別器に画像と該画像の正解データを用いて学習させた学習済判別器を取得し、前記判別器出力部によって、前記学習済判別器取得部で取得した複数の前記学習済判別器に対して前記入力画像と異なる新たな同一の入力画像を判別させた判別結果に基づいて該新たな入力画像の正解データを決定して、該新たな入力画像と決定した正解データを用いて該判別器出力部で出力した学習用判別器を再度学習させた新たな学習用判別器を出力する処理を繰り返させる学習支援プログラム。
  11. 学習支援装置と複数の端末装置とをネットワークを介して接続した学習支援システムであって、
    前記端末装置が、
    学習用判別器に画像と該画像の正解データを用いて学習させた学習済判別器を前記ネットワークを介して出力する学習済判別器出力部を備え、
    前記学習支援装置が、
    前記複数の端末装置から複数の学習済判別器を前記ネットワークを介して取得する学習済判別器取得部と、
    前記複数の前記学習済判別器に対して同一の入力画像を判別させた複数の判別結果を取得し、該複数の判別結果に基づいて前記入力画像の正解データを決定し、前記入力画像と決定した正解データを用いて前記学習用判別器を再度学習させた新たな学習用判別器を前記ネットワークを介して前記複数の端末装置を出力する判別器出力部を備え、
    前記端末装置が、
    前記学習支援装置から出力された学習用判別器を前記ネットワークを介して受信する判別器取得部を備えた学習支援システム。
  12. 前記判別器取得部が、前記学習支援装置から出力された学習用判別器と同じ画像と該画像の正解データを学習済みの実運用判別器をさらにネットワークを介して取得し、
    前記端末装置が、
    前記実運用判別器を用いて判別対象の画像を判別した判別結果を取得する判別結果取得部をさらに備える請求項11記載の学習支援システム。
  13. 学習用判別器と、該学習用判別器と同じ画像と該画像の正解データを用いて学習させた学習済みの実運用判別器とを取得する判別器取得部と、
    前記実運用判別器を用いて判別対象の画像を判別した判別結果を取得する判別結果取得部と、
    前記学習用判別器に画像と該画像の正解データを用いて学習させた学習済判別器を出力する学習済判別器出力部を備えた端末装置。
  14. 前記判別器取得部が、学習支援装置からネットワークを介して前記学習用判別器と前記実運用判別器とを取得し、
    前記学習済判別器出力部が、前記ネットワークを介して前記学習済み判別器を送出力する請求項13記載の端末装置。
JP2017187096A 2017-09-27 2017-09-27 学習支援装置、学習支援装置の作動方法、学習支援プログラム、学習支援システム、端末装置及びプログラム Active JP6768620B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017187096A JP6768620B2 (ja) 2017-09-27 2017-09-27 学習支援装置、学習支援装置の作動方法、学習支援プログラム、学習支援システム、端末装置及びプログラム
US16/123,456 US10902286B2 (en) 2017-09-27 2018-09-06 Learning assistance device, method of operating learning assistance device, learning assistance program, learning assistance system, and terminal device
US17/130,468 US11797846B2 (en) 2017-09-27 2020-12-22 Learning assistance device, method of operating learning assistance device, learning assistance program, learning assistance system, and terminal device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017187096A JP6768620B2 (ja) 2017-09-27 2017-09-27 学習支援装置、学習支援装置の作動方法、学習支援プログラム、学習支援システム、端末装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2019061579A true JP2019061579A (ja) 2019-04-18
JP6768620B2 JP6768620B2 (ja) 2020-10-14

Family

ID=65807696

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017187096A Active JP6768620B2 (ja) 2017-09-27 2017-09-27 学習支援装置、学習支援装置の作動方法、学習支援プログラム、学習支援システム、端末装置及びプログラム

Country Status (2)

Country Link
US (2) US10902286B2 (ja)
JP (1) JP6768620B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020217426A1 (ja) * 2019-04-25 2020-10-29
JPWO2020217425A1 (ja) * 2019-04-25 2020-10-29
WO2021005776A1 (ja) * 2019-07-11 2021-01-14 日本電気株式会社 物体検知装置、学習方法、及び、記録媒体
JPWO2021005775A1 (ja) * 2019-07-11 2021-01-14
WO2022064610A1 (ja) * 2020-09-24 2022-03-31 日本電気株式会社 物体検知装置、学習済みモデル生成方法、および、記録媒体
JP7328466B1 (ja) 2023-03-15 2023-08-16 株式会社 日立産業制御ソリューションズ 診断システム並びに方法

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11918374B2 (en) * 2020-05-08 2024-03-05 Wisconsin Alumni Research Foundation Apparatus for monitoring treatment side effects

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319226A (ja) * 2000-05-09 2001-11-16 Toshiba Corp 道路監視装置
JP2008046729A (ja) * 2006-08-11 2008-02-28 Kddi Corp 動画像話題分割装置
JP2011514994A (ja) * 2008-02-28 2011-05-12 センサーマティック・エレクトロニクス・エルエルシー パターン分類システムと集団学習法
US20150242760A1 (en) * 2014-02-21 2015-08-27 Microsoft Corporation Personalized Machine Learning System
JP2017054331A (ja) * 2015-09-10 2017-03-16 株式会社Screenホールディングス 画像分類方法、分類器の構成方法および画像分類装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4556891B2 (ja) * 2006-03-17 2010-10-06 ソニー株式会社 情報処理装置および方法、記録媒体、並びにプログラム
JP5235691B2 (ja) * 2009-01-13 2013-07-10 キヤノン株式会社 情報処理装置及び情報処理方法
US10806334B2 (en) * 2017-02-28 2020-10-20 Verily Life Sciences Llc System and method for multiclass classification of images using a programmable light source
JP6727176B2 (ja) 2017-09-27 2020-07-22 富士フイルム株式会社 学習支援装置、学習支援装置の作動方法、学習支援プログラム、学習支援システム、および端末装置
JP6782675B2 (ja) 2017-09-29 2020-11-11 富士フイルム株式会社 判別結果提供装置、判別結果提供装置の作動方法、判別結果提供プログラム、および判別結果提供システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001319226A (ja) * 2000-05-09 2001-11-16 Toshiba Corp 道路監視装置
JP2008046729A (ja) * 2006-08-11 2008-02-28 Kddi Corp 動画像話題分割装置
JP2011514994A (ja) * 2008-02-28 2011-05-12 センサーマティック・エレクトロニクス・エルエルシー パターン分類システムと集団学習法
US20150242760A1 (en) * 2014-02-21 2015-08-27 Microsoft Corporation Personalized Machine Learning System
JP2017054331A (ja) * 2015-09-10 2017-03-16 株式会社Screenホールディングス 画像分類方法、分類器の構成方法および画像分類装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPWO2020217426A1 (ja) * 2019-04-25 2020-10-29
JPWO2020217425A1 (ja) * 2019-04-25 2020-10-29
US11954901B2 (en) 2019-04-25 2024-04-09 Nec Corporation Training data generation apparatus
US11900659B2 (en) 2019-04-25 2024-02-13 Nec Corporation Training data generation apparatus
JP7211495B2 (ja) 2019-04-25 2023-01-24 日本電気株式会社 教師データ生成装置
JP7211496B2 (ja) 2019-04-25 2023-01-24 日本電気株式会社 教師データ生成装置
JP7164048B2 (ja) 2019-07-11 2022-11-01 日本電気株式会社 物体検知装置、学習方法、及び、プログラム
JP7164049B2 (ja) 2019-07-11 2022-11-01 日本電気株式会社 物体検知装置、学習方法、及び、プログラム
JPWO2021005776A1 (ja) * 2019-07-11 2021-01-14
WO2021005775A1 (ja) * 2019-07-11 2021-01-14 日本電気株式会社 物体検知装置、学習方法、及び、記録媒体
JPWO2021005775A1 (ja) * 2019-07-11 2021-01-14
WO2021005776A1 (ja) * 2019-07-11 2021-01-14 日本電気株式会社 物体検知装置、学習方法、及び、記録媒体
JPWO2022064610A1 (ja) * 2020-09-24 2022-03-31
WO2022064610A1 (ja) * 2020-09-24 2022-03-31 日本電気株式会社 物体検知装置、学習済みモデル生成方法、および、記録媒体
JP7380902B2 (ja) 2020-09-24 2023-11-15 日本電気株式会社 物体検知装置、学習済みモデル生成方法、及び、プログラム
JP7328466B1 (ja) 2023-03-15 2023-08-16 株式会社 日立産業制御ソリューションズ 診断システム並びに方法

Also Published As

Publication number Publication date
US10902286B2 (en) 2021-01-26
US20190095759A1 (en) 2019-03-28
US11797846B2 (en) 2023-10-24
JP6768620B2 (ja) 2020-10-14
US20210110206A1 (en) 2021-04-15

Similar Documents

Publication Publication Date Title
JP6768620B2 (ja) 学習支援装置、学習支援装置の作動方法、学習支援プログラム、学習支援システム、端末装置及びプログラム
JP6727176B2 (ja) 学習支援装置、学習支援装置の作動方法、学習支援プログラム、学習支援システム、および端末装置
KR101898575B1 (ko) 진행성 병변에 대한 미래 상태를 예측하는 방법 및 이를 이용한 장치
US20190313963A1 (en) Dental Image Feature Detection
US7961921B2 (en) System and method for medical diagnosis and tracking using three-dimensional subtraction in a picture archiving communication system
US20080025583A1 (en) System and method for on-demand visual enhancement of clinical conitions in images
JP7021215B2 (ja) Cadシステム推薦に関する確信レベル指標を提供するためのcadシステムパーソナライゼーションの方法及び手段
JP2015529108A (ja) 効果的な表示及び報告のための画像資料に関連する以前の注釈の自動検出及び取り出し
CN111696083B (zh) 一种图像处理方法、装置、电子设备及存储介质
JP2007172604A (ja) 取得システムのプロトコル及び/又はパラメータに基づいてコンピュータ利用アルゴリズムを選択するための方法及び装置
JP7080304B2 (ja) 学習支援装置、学習支援方法、学習支援プログラム、関心領域判別装置、関心領域判別方法、関心領域判別プログラム及び学習済みモデル
KR20220038017A (ko) 임상 워크플로 결정을 자동화하고 우선 순위 판독 표시자를 생성하기 위한 시스템 및 방법
WO2020110774A1 (ja) 画像処理装置、画像処理方法、及びプログラム
US10726548B2 (en) Confidence determination in a medical imaging video clip measurement based upon video clip image quality
JP2018175864A (ja) 自動レイアウト装置および自動レイアウト方法並びに自動レイアウトプログラム
US20080120140A1 (en) Managing medical imaging data
US10176569B2 (en) Multiple algorithm lesion segmentation
US11075004B2 (en) Discrimination result providing apparatus, operating method of discrimination result providing apparatus, discrimination result providing program, and discrimination result providing system
US10839299B2 (en) Non-leading computer aided detection of features of interest in imagery
KR20190088371A (ko) 진행성 병변의 미래 영상을 생성하는 방법 및 이를 이용한 장치
JP2008217426A (ja) 症例登録システム
CN103548029A (zh) 用于图像采集工作流的方法和系统
CN111192679A (zh) 一种影像数据异常的处理方法、装置及存储介质
US20130253954A1 (en) System and method for managing case database
US20230154594A1 (en) Systems and methods for protocol recommendations in medical imaging

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190716

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200521

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200721

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200814

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200901

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200923

R150 Certificate of patent or registration of utility model

Ref document number: 6768620

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250