JP7313942B2 - 評価支援方法、評価支援システム、プログラム - Google Patents
評価支援方法、評価支援システム、プログラム Download PDFInfo
- Publication number
- JP7313942B2 JP7313942B2 JP2019131832A JP2019131832A JP7313942B2 JP 7313942 B2 JP7313942 B2 JP 7313942B2 JP 2019131832 A JP2019131832 A JP 2019131832A JP 2019131832 A JP2019131832 A JP 2019131832A JP 7313942 B2 JP7313942 B2 JP 7313942B2
- Authority
- JP
- Japan
- Prior art keywords
- images
- image
- evaluation
- trained
- model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/1916—Validation; Performance evaluation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/69—Microscopic objects, e.g. biological cells or cellular parts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/94—Hardware or software architectures specially adapted for image or video understanding
- G06V10/945—User interactive design; Environments; Toolboxes
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/20—ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H30/00—ICT specially adapted for the handling or processing of medical images
- G16H30/40—ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/20—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/10—Recognition assisted with metadata
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Biomedical Technology (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Pathology (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Molecular Biology (AREA)
- Medical Treatment And Welfare Office Work (AREA)
- Image Analysis (AREA)
Description
助記憶装置5c又は可搬記憶媒体5hに格納されているプログラムをメモリ5bに展開して実行することでプログラムされた処理を行う。プロセッサ5aは、GPU(Graphics Processing Unit)を含んでもよい。プロセッサ5aは、プログラムを実行してプログラムされた処理を行うことで、例えば、後述する評価支援処理を行う。
、LAN(LocalArea Network)カードなどであってもよい。サービス提供装置5は、N
Wインタフェース5fを経由してモデル提供装置から学習済みモデルを受信し、NWインタフェース5fを経由して利用装置6にサービス提供に必要な画面情報へ送信する。
。また、サービス提供装置5は、FPGA(Field-Programmable Gate Array)を用いて
構成されてもよい。
を出力する場合を例に説明する。例えば、学習済みモデルがiPS細胞の分化状態を識別するモデルの場合であれば、iPS細胞の分化領域が陽性領域に該当し、未分化領域が陰性領域に該当する。また、学習済みモデルは細胞の剥離判定を行うモデルであってもよく、細胞の生死判定を行うモデルであってもよい。
NBI内視鏡で得られる画像の光り方を模した情報であってもよい。
習済みモデル10とともに、教師データセットとメタデータ40を受け入れて、非一過性のコンピュータ読取可能記憶媒体に構築されたデータベースに登録する。
図7は、本実施形態に係る評価支援処理のフローチャートである。図8及び図9は、入力画面を例示した図である。図10は、結果画像70の生成手順を説明するための図である。図11は、学習済みモデル一覧画面の一例を示す図である。なお、図7に示す処理は、例えば、サービス提供装置5が所定のプログラムを実行することによって行われる。
ル10を選択する工程である。
でもよく、さらに、優先順位に従った並び順で複数の組み合わせを表示する工程を含んでもよい。ここで、複数の組み合わせの各々は、互いに対応する学習済みモデルと少なくとも1つの第2の画像とメタデータとの組み合わせである。なお、並び順は、画面200上に提供されているソートボタンが押下されることで、利用者が優先する条件に従って変更されてもよい。
図12は、本実施形態に係る評価支援処理のフローチャートである。図13は、学習済みモデル一覧画面の別の例を示す図である。なお、図12に示す処理は、例えば、サービス提供装置5が所定のプログラムを実行することによって行われる。
情報から算出された複数の第1の評価情報の値に加えて、複数の第1の評価情報の代表値を算出してもよい。代表値としては、例えば平均値であってもよく、中央値であってもよい。
ある場合には、サービス提供装置5は、複数の学習済みモデルの各々毎に、より高い第1の評価情報に対応する1つ以上の結果画像を選択してもよい。また、複数の検査画像が取得され、且つ、第1の評価情報が値が低いほど良い指標である場合には、サービス提供装置5は、複数の学習済みモデルの各々毎に、より低い第1の評価情報に対応する1つ以上の結果画像を選択してもよい。なお、結果画像の選択基準は、画面300上に提供されているソートボタンと連動していてもよい。
図14は、本実施形態に係る評価支援処理のフローチャートである。図15は、参照画像90の生成手順を説明するための図である。図16は、学習済みモデル一覧画面の更に別の例を示す図である。図17は、学習済みモデル詳細画面の一例を示す図である。なお、図14に示す処理は、例えば、サービス提供装置5が所定のプログラムを実行することによって行われる。
、学習済みモデルとともに予めデータベースに登録されている。なお、ステップS35では、学習済みモデル毎に、少なくとも1つのサンプル画像を取得すればよく、学習済みモデル毎に複数のサンプル画像を取得してもよい。以降では、学習済みモデル毎に1つのサンプル画像を取得した場合を例に説明する。
者は、モデル提供者がどのようなサンプルに対する学習済みモデルの構築を狙ったのかを把握することができる。さらに、第2の識別情報は、モデル提供者がモデル提供者の評価基準で正解とした領域の情報を用いて訓練した学習済みモデルの出力結果であるから、参照画像を確認することで、利用者は、モデル提供者がどのような判断基準で学習済みモデルを訓練したのかを把握することができる。このように、利用者は、参照画像を確認することでモデル提供者の狙いを把握することができるため、利用者の目的に対する学習済みモデルの適合具合を予想する材料として参照画像を利用することができる。従って、本実施形態によれば、偶然に利用者の認識に近い結果を示す結果画像を生成した学習済みモデルを選択してしまうことを避けることができるため、第1の実施形態よりも高い精度で、利用者の目的に適う学習済みモデルを特定することが可能である。
図18は、本実施形態に係る評価支援処理のフローチャートである。図19及び図20は、学習済みモデル一覧画面の更に別の例を示す図である。図21は、評価情報の生成方法について説明するための図である。なお、図18に示す処理は、例えば、サービス提供装置5が所定のプログラムを実行することによって行われる。
の評価情報を出力する(ステップS50)。ここでは、サービス提供装置5は、ステップS44で生成した複数の結果画像の各々を、ステップS42で選択した複数の学習済みモデル10のうちの対応する学習済みモデル10と、ステップS45で生成した複数の第1の評価情報のうちの対応する第1の評価情報と、ステップS48で生成した複数の参照画像のうちの対応する参照画像と、ステップS49で生成した複数の第2の評価情報のうちの対応する第2の評価情報と、に関連付けて出力する。具体的には、サービス提供装置5は、図19に示す画面600を利用装置6に送信し、利用装置6の表示装置6aに画面600を表示させる。画面600は、評価支援システムの学習済みモデル一覧画面であり、複数の学習済みモデル10を用いて生成された複数の結果画像と複数の参照画像を、複数の結果画像に関する複数の第1の評価情報と複数の参照画像に関する複数の第2の評価情報とともに、並べて表示する画面である。
される。このため、第1の評価情報と第2の評価情報を比較することで、第1の評価情報の信頼性を評価することができるため、より高い精度で、利用者の目的に適う学習済みモデルを特定することができる。
表示する例を示したが、評価情報は必ずしも表示されなくてもよく、例えば、優先順位の決定にのみ使用されてもよい。
比較することで、第1の評価情報を算出する例を示した。しかしながら、検査画像50に含まれる陽性領域又は陰性領域をもれなく指定する作業は、利用者に大きな負担を強いる可能性がある。このため、例えば、図21に示すような、検査画像50に含まれる陽性領域と陰性領域の少なくとも一方を部分的に識別した検査ラベル情報L2を第1の識別情報と比較することで、第1の評価情報を算出してもよい。このような検査ラベル情報L2を用いることで、利用者の作業負担を大幅に軽減することが可能となる。また、利用者は、学習済みモデルの評価に直結するような重要な部分(例えば、絶対に判断を誤って欲しくない部分、特に判断が難しい部分など)のみを指定することによって検査ラベル情報L2を生成してもよい。これにより、第1の評価情報が比較的重要度の低い情報によって希釈化されることないため、第1の評価情報に基づいてより適切な評価を行うことが可能となる。なお、図21では、検査ラベル情報について例示したが、サンプルラベル情報についても、サンプル画像に含まれる陽性領域と陰性領域の少なくとも一方を部分的に識別したサンプルラベル情報が用いられてもよい。この場合、モデル提供者の負担を大幅に軽減することができる。
る。
で、自身の学習済みモデルの性能を評価する。
図24は、本実施形態に係る評価支援処理のフローチャートである。図25は、テスト結果一覧画面の一例を示す図である。なお、図24に示す処理は、例えば、サービス提供装置5が所定のプログラムを実行することによって行われる。
ムのテスト結果一覧画面であり、複数のテスト画像170を用いて生成された複数のテスト結果画像710を並べて表示する画面である。
図27は、本実施形態に係る評価支援処理のフローチャートである。図28は、テスト結果一覧画面の別の例を示す図である。なお、図27に示す処理は、例えば、サービス提供装置5が所定のプログラムを実行することによって行われる。
。複数の第3の評価情報の各々は、ステップS73で生成された複数の第3の識別情報の各々と、ステップS72で取得した複数のテストラベル情報のうちの対応するテストラベル情報と、に基づいて生成される。つまり、サービス提供装置5は、テスト結果画像710毎に第3の評価情報を算出する。
、信頼度は、学習済みモデルが生成したテスト結果画像の信頼度であり、より詳細には、学習済みモデルがテスト結果画像を生成するにあたり出力した第3の識別情報の信頼度のことである。
[付記1]
訓練済みの学習モデルの評価支援方法であって、
検査対象として入力された検査画像を取得する工程と、
複数の第1の識別情報を生成する工程であって、前記複数の第1の識別情報の各々は、複数の訓練済みの学習モデルの各々に前記検査画像を適用することによって生成され、前記複数の訓練済みの学習モデルの各々は、画像に含まれる陽性領域又は陰性領域であると推定した推定領域を識別する識別情報を出力するためのモデルである、という工程と、
複数の結果画像を生成する工程であって、前記複数の結果画像の各々は、前記複数の第1の識別情報の各々を前記検査画像に重畳することによって生成される、という工程と、
前記複数の結果画像の各々を前記複数の訓練済みの学習モデルのうちの対応する学習モデルに関連付けて出力する工程と、を含む
ことを特徴とする評価支援方法。
[付記2]
付記1に記載の評価支援方法において、さらに、
複数のサンプル画像を取得する工程であって、前記複数のサンプル画像の各々は、前記複数の訓練済みの学習モデルのうちの対応する学習モデルの訓練過程で使用された画像である、という工程と、
複数の第2の識別情報を生成する工程であって、前記複数の第2の識別情報の各々は、前記複数の訓練済みの学習モデルの各々に前記複数のサンプル画像のうちの対応するサンプル画像を適用することによって生成される、という工程と、
複数の参照画像を生成する工程であって、前記複数の参照画像の各々は、前記複数の第2の識別情報の各々を前記複数のサンプル画像のうちの対応するサンプル画像に重畳することによって生成される、という工程と、を含み、
前記複数の結果画像の各々を出力する工程は、前記複数の結果画像の各々を、前記対応する学習モデルと前記複数の参照画像のうちの対応する参照画像とに関連付けて出力する工程を含む
ことを特徴とする評価支援方法。
[付記3]
付記1に記載の評価支援方法において、さらに、
前記検査画像に含まれる前記陽性領域又は前記陰性領域である正解領域を識別する検査ラベル情報を取得する工程と、
複数の第1の評価情報を生成する工程であって、前記複数の第1の評価情報の各々は、前記複数の第1の識別情報の各々と前記検査ラベル情報とに基づいて生成される、という工程と、を含み、
前記複数の結果画像の各々を出力する工程は、前記複数の結果画像の各々を、前記対応する学習モデルと前記複数の第1の評価情報のうちの対応する第1の評価情報とに関連付けて出力する工程を含む
ことを特徴とする評価支援方法。
[付記4]
付記2に記載の評価支援方法において、さらに、
前記検査画像に含まれる前記陽性領域又は前記陰性領域である正解領域を識別する検査ラベル情報を取得する工程と、
複数のサンプルラベル情報を取得する工程であって、前記複数のサンプルラベル情報の各々は、前記複数のサンプル画像の各々に含まれる前記陽性領域又は前記陰性領域である正解領域を識別する情報である、という工程と、
複数の第1の評価情報を生成する工程であって、前記複数の第1の評価情報の各々は、前記複数の第1の識別情報の各々と前記検査ラベル情報とに基づいて生成される、という工程と、
複数の第2の評価情報を生成する工程であって、前記複数の第2の評価情報の各々は、前記複数の第2の識別情報の各々と前記複数のサンプルラベル情報の各々とに基づいて生成される、という工程と、を含み、
前記複数の結果画像の各々を出力する工程は、前記複数の結果画像の各々を、前記対応する学習モデルと、前記複数の参照画像のうちの対応する参照画像と、前記複数の第1の評価情報のうちの対応する第1の評価情報と、前記複数の第2の評価情報のうちの対応する第2の評価情報とに関連付けて出力する工程を含む
ことを特徴とする評価支援方法。
[付記5]
付記3に記載の評価支援方法において、さらに、
前記複数の第1の評価情報に基づいて複数の組み合わせに対して優先順位を割り当てる工程であって、前記複数の組み合わせの各々は、互いに対応する結果画像と第1の評価情報と学習モデルとの組み合わせである、という工程を含み、
前記複数の結果画像の各々を出力する工程は、前記優先順位に従って、前記複数の結果画像の各々を、前記対応する学習モデルと前記対応する第1の評価情報とに関連付けて出力する工程を含む
ことを特徴とする評価支援方法。
[付記6]
付記4に記載の評価支援方法において、さらに、
前記複数の第1の評価情報と前記複数の第2の評価情報に基づいて複数の組み合わせに対して優先順位を割り当てる工程であって、前記複数の組み合わせの各々は、互いに対応する結果画像と参照画像と第1の評価情報と第2の評価情報と学習モデルとの組み合わせである、という工程を含み、
前記複数の結果画像の各々を出力する工程は、前記優先順位に従って、前記複数の結果画像の各々を、前記対応する学習モデルと前記対応する参照画像と前記対応する第1の評価情報と前記対応する第2の評価情報とに関連付けて出力する工程を含む
ことを特徴とする評価支援方法。
[付記7]
付記3に記載の評価支援方法において、
入力された検査画像が複数であった場合に、複数の検査画像ごとに生成された第1の評価情報の高低に基づき、出力する結果画像を選別する
ことを特徴とする評価支援方法。
[付記8]
付記4に記載の評価支援方法において、
検証画像およびサンプル画像の入力が複数であった場合に、複数の検証画像およびサンプル画像ごとに生成された第1の評価情報および第2の評価情報の高低に基づき、出力す
る結果画像および参照画像を選別する
ことを特徴とする評価支援方法。
[付記9]
付記1乃至付記8のいずれか1つに記載の評価支援方法において、さらに、
予め登録された訓練済みの学習モデルに付随するメタデータに基づいて、前記予め登録された訓練済みの学習モデルから前記複数の訓練済みの学習モデルを選択する工程を含むことを特徴とする評価支援方法。
[付記10]
訓練済みの学習モデルの評価支援システムであって、
複数の訓練済みの学習モデルが格納された非一過性のコンピュータ読取可能記憶媒体と、
少なくとも1つのプロセッサと、を備え、
前記プロセッサは、
検査対象として入力された検査画像を取得する工程と、
複数の第1の識別情報を生成する工程であって、前記複数の第1の識別情報の各々は、複数の訓練済みの学習モデルの各々に前記検査画像を適用することによって生成され、前記複数の訓練済みの学習モデルの各々は、画像に含まれる陽性領域又は陰性領域であると推定した推定領域を識別する識別情報を出力するためのモデルである、という工程と、
複数の結果画像を生成する工程であって、前記複数の結果画像の各々は、前記複数の第1の識別情報の各々を前記検査画像に重畳することによって生成される、という工程と、
前記複数の結果画像の各々を前記複数の訓練済みの学習モデルのうちの対応する学習モデルに関連付けて出力する工程と、を行う
ことを特徴とする評価支援システム。
[付記11]
訓練済みの学習モデルの評価支援システムであって、
複数の訓練済みの学習モデルが格納された非一過性のコンピュータ読取可能記憶媒体と、
少なくとも1つのプロセッサと、を備え、
前記プロセッサは、
検査対象として入力された検査画像を取得する工程と、
複数のサンプル画像を取得する工程であって、前記複数のサンプル画像の各々は、前記複数の訓練済みの学習モデルのうちの対応する学習モデルの訓練過程で使用された画像である、という工程と、
複数の第1の識別情報を生成する工程であって、前記複数の第1の識別情報の各々は、複数の訓練済みの学習モデルの各々に前記検査画像を適用することによって生成され、前記複数の訓練済みの学習モデルの各々は、画像に含まれる陽性領域又は陰性領域であると推定した推定領域を識別する識別情報を出力するためのモデルである、という工程と、複数の第2の識別情報を生成する工程であって、前記複数の第2の識別情報の各々は、前記複数の訓練済みの学習モデルの各々に前記複数のサンプル画像のうちの対応するサンプル画像を適用することによって生成される、という工程と、
複数の結果画像を生成する工程であって、前記複数の結果画像の各々は、前記複数の第1の識別情報の各々を前記検査画像に重畳することによって生成される、という工程と、
複数の参照画像を生成する工程であって、前記複数の参照画像の各々は、前記複数の
第2の識別情報の各々を前記複数のサンプル画像のうちの対応するサンプル画像に重畳することによって生成される、という工程と、
前記複数の結果画像の各々を出力する工程は、前記複数の結果画像の各々を、前記対応する学習モデルと、前記複数の参照画像のうちの対応する参照画像とに関連付けて出力する工程と、を行う
ことを特徴とする評価支援システム。
[付記12]
付記10に記載の評価支援システムにおいて、さらに、
表示装置を備え、
前記表示装置は、前記プロセッサが関連付けて出力した互いに対応する結果画像と学習モデルとを表示する
ことを特徴とする評価支援システム。
[付記13]
付記12に記載の評価支援システムにおいて、さらに、
表示装置を備え、
前記表示装置は、前期プロセッサが関連付けて出力した互いに対応する結果画像および参照画像と学習モデルとを表示する
ことを特徴とする評価支援システム。
[付記14]
検査対象として入力された検査画像を取得する手順と、
複数の第1の識別情報を生成する手順であって、前記複数の第1の識別情報の各々は、複数の訓練済みの学習モデルの各々に前記検査画像を適用することによって生成され、前記複数の訓練済みの学習モデルの各々は、画像に含まれる陽性領域又は陰性領域であると推定した推定領域を識別する識別情報を出力するためのモデルである、という手順と、
複数の結果画像を生成する手順であって、前記複数の結果画像の各々は、前記複数の第1の識別情報の各々を前記検査画像に重畳することによって生成される、という手順と、
前記複数の結果画像の各々を前記複数の訓練済みの学習モデルのうちの対応する学習モデルに関連付けて出力する手順と、を
コンピュータに実行させることを特徴とするプログラム。
[付記15]
訓練済みの学習モデルの評価支援方法であって、
検査対象として入力された検査画像を取得する工程と、
訓練済みの学習モデルとサンプル画像を取得する工程であって、前記訓練済みの学習モデルは、画像に含まれる陽性領域又は陰性領域であると推定した推定領域を識別する識別情報を出力するためのモデルであり、前記サンプル画像は、前記訓練済みの学習モデルの訓練過程で使用された画像である、という工程と、
前記訓練済みの学習モデルに前記検査画像を適用することによって第1の識別情報を生成する工程と、
前記訓練済みの学習モデルに前記サンプル画像を適用することによって第2の識別情報を生成する工程と、
前記第1識別情報を前記検査画像に重畳することによって結果画像を生成する工程と、
前記第2識別情報を前記サンプル画像に重畳することによって参照画像を生成する工程と、
前記結果画像と前記参照画像を関連付けて出力する工程と、を備える
ことを特徴とする評価支援方法。
2~4 モデル提供装置
5 サービス提供装置
5a プロセッサ
5b メモリ
5c 補助記憶装置
5d I/Oインタフェース
5e 媒体駆動装置
5f NWインタフェース
5g バス
5h 可搬記憶媒体
6 利用装置
10~13 学習済みモデル
20~25 サンプル画像
30 サンプルラベル情報
40、190 メタデータ
50 検査画像
61~63 第1の識別情報
71~73 結果画像
81~85 第2の識別情報
91~96 参照画像
170~173、270 テスト画像
180 テストラベル情報
280、290、710~713、730 テスト結果画像
720 第3の識別情報
L1、L2 検査ラベル情報
C 正解領域
Claims (18)
- 学習済みモデルの性能評価に用いられる第1の画像を取得する工程であって、前記第1の画像を含む複数の第1の画像を取得する工程を含む、という工程と、
複数の第2の画像を生成する工程であって、前記複数の第2の画像の各々は、複数の学習済みモデルの各々による前記第1の画像の処理結果である、という工程と、
複数の第1のラベル情報を取得する工程であって、前記複数の第1のラベル情報の各々は、前記複数の第1の画像の各々に対して期待する処理結果を示す、という工程と、
前記複数の第2の画像に対応する複数の第1の評価情報を生成する工程であって、前記複数の第1の評価情報は、前記複数の第2の画像と前記複数の第1のラベル情報とに基づいて生成される、という工程と、
前記複数の第2の画像を生成する工程と前記複数の第1の評価情報を生成する工程の両工程後に、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する第2の画像に関連付けて表示する工程と、を含み、
前記複数の第2の画像を生成する工程は、前記複数の第1の画像の各々に対して複数の第2の画像を生成する工程を含み、
前記複数の学習済みモデルの各々を表示する工程は、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する少なくとも1つの第2の画像と、前記複数の第1の評価情報のうちの前記少なくとも1つの第2の画像に対応する少なくとも1つの第1の評価情報と、に関連付けて表示する工程を含む
ことを特徴とする評価支援方法。 - 請求項1に記載の評価支援方法において、
前記複数の学習済みモデルの各々を表示する工程は、前記複数の学習済みモデルの各々を、前記少なくとも1つの第2の画像と、前記少なくとも1つの第2の画像に対応する少なくとも1つの第1の画像と、に関連付けて表示する工程と、を含み、
前記少なくとも1つの第1の画像は、前記複数の第1の画像に含まれる
ことを特徴とする評価支援方法。 - 請求項1に記載の評価支援方法において、
前記複数の学習済みモデルの各々を表示する工程は、前記複数の学習済みモデルの各々を、前記少なくとも1つの第2の画像と、前記複数の学習済みモデルのうちの対応する学習済みモデルに付随するメタデータと、に関連付けて表示する工程を含む
ことを特徴とする評価支援方法。 - 請求項1に記載の評価支援方法において、さらに、
前記複数の学習済みモデルに付随する複数のメタデータに基づいて、複数の組み合わせに対して優先順位を割り当てる工程であって、前記複数の組み合わせの各々は、互いに対応する学習済みモデルと少なくとも1つの第2の画像とメタデータとの組み合わせである、という工程を含み、
前記複数の学習済みモデルの各々を表示する工程は、前記優先順位に従った並び順で前記複数の組み合わせを表示する工程を含む
ことを特徴とする評価支援方法。 - 請求項1に記載の評価支援方法において、
前記複数の学習済みモデルの各々を表示する工程は、前記複数の学習済みモデルの各々を、前記少なくとも1つの第2の画像と、前記少なくとも1つの第2の画像の各々の信頼度と、に関連付けて表示する工程を含む
ことを特徴とする評価支援方法。 - 請求項1に記載の評価支援方法において、さらに、
前記複数の第2の画像に対応する複数の信頼度に基づいて、複数の組み合わせに対して優先順位を割り当てる工程であって、前記複数の組み合わせの各々は、互いに対応する学習済みモデルと少なくとも1つの第2の画像と前記少なくとも1つの第2の画像の各々の信頼度との組み合わせである、という工程を含み、
前記複数の学習済みモデルの各々を表示する工程は、前記優先順位に従った並び順で前記複数の組み合わせを表示する工程を含む
ことを特徴とする評価支援方法。 - 請求項6に記載の評価支援方法において、
前記優先順位を割り当てる工程は、組み合わせを構成する信頼度が低いほど前記組み合わせに高い優先順位を割り当てる工程を含む
ことを特徴とする評価支援方法。 - 請求項1に記載の評価支援方法において、さらに、
前記複数の第1の評価情報に基づいて、複数の組み合わせに対して優先順位を割り当てる工程であって、前記複数の組み合わせの各々は、互いに対応する学習済みモデルと少なくとも1つの第2の画像と少なくとも1つの第1の評価情報との組み合わせである、という工程を含み、
前記複数の学習済みモデルの各々を表示する工程は、前記優先順位に従った並び順で前記複数の組み合わせを表示する工程を含む
ことを特徴とする評価支援方法。 - 請求項1に記載の評価支援方法において、さらに、
前記複数の学習済みモデルの利用頻度に基づいて、複数の組み合わせに対して優先順位を割り当てる工程であって、前記複数の組み合わせの各々は、互いに対応する学習済みモデルと少なくとも1つの第2の画像と少なくとも1つの第1の評価情報との組み合わせである、という工程を含み、
前記複数の学習済みモデルの各々を表示する工程は、前記優先順位に従った並び順で前記複数の組み合わせを表示する工程を含む
ことを特徴とする評価支援方法。 - 請求項1に記載の評価支援方法において、さらに、
前記複数の第1の画像の各々に対して、前記複数の第2の画像から前記少なくとも1つの第2の画像を選別する工程を含む
ことを特徴とする評価支援方法。 - 請求項1に記載の評価支援方法において、さらに、
複数の第3の画像を取得する工程であって、前記複数の第3の画像の各々は、前記複数の学習済みモデルのうちの対応する学習済みモデルの訓練過程で使用された画像である、という工程と、
複数の第4の画像を生成する工程であって、前記複数の第4の画像の各々は、前記複数の学習済みモデルのうちの対応する学習済みモデルによる前記複数の第3の画像のうちの対応する第3の画像の処理結果である、という工程と、
前記複数の学習済みモデルの各々を表示する工程は、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する第2の画像と、前記複数の第4の画像のうちの対応する第4の画像に関連付けて表示する工程と、を含む
ことを特徴とする評価支援方法。 - 請求項1乃至請求項11のいずれか1項に記載の評価支援方法において、
前記複数の第2の画像の各々は、ヒートマップである
ことを特徴とする評価支援方法。 - 請求項1乃至請求項12のいずれか1項に記載の評価支援方法において、さらに、
学習済みモデルに付随するメタデータに基づいて、前記複数の学習済みモデルを選択する工程を含む
ことを特徴とする評価支援方法。 - 請求項1に記載の評価支援方法において、
前記学習済みモデルが、セグメンテーションタイプ、ディテクションタイプ、クラシフィケーションタイプのいずれかである
ことを特徴とする評価支援方法。 - 学習済みモデルの評価支援システムであって、
複数の学習済みモデルが格納された非一過性のコンピュータ読取可能記憶媒体と、
少なくとも1つのプロセッサと、を備え、
前記プロセッサは、
学習済みモデルの性能評価に用いられる第1の画像を取得する工程であって、前記第1の画像を含む複数の第1の画像を取得する工程を含む、という工程と、
複数の第2の画像を生成する工程であって、前記複数の第2の画像の各々は、前記複数の学習済みモデルの各々による前記第1の画像の処理結果である、という工程と、
複数の第1のラベル情報を取得する工程であって、前記複数の第1のラベル情報の各々は、前記複数の第1の画像の各々に対して期待する処理結果を示す、という工程と、
前記複数の第2の画像に対応する複数の第1の評価情報を生成する工程であって、前記複数の第1の評価情報は、前記複数の第2の画像と前記複数の第1のラベル情報とに基づいて生成される、という工程と、
前記複数の第2の画像を生成する工程と前記複数の第1の評価情報を生成する工程の両工程後に、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する第2の画像に関連付けて表示する工程と、を行い、
前記複数の第2の画像を生成する工程は、前記複数の第1の画像の各々に対して複数の第2の画像を生成する工程を含み、
前記複数の学習済みモデルの各々を表示する工程は、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する少なくとも1つの第2の画像と、前記複数の第1の評価情報のうちの前記少なくとも1つの第2の画像に対応する少なくとも1つの第1の評価情報と、に関連付けて表示する工程を含む
ことを特徴とする評価支援システム。 - 請求項15に記載の評価支援システムにおいて、さらに、
表示装置を備え、
前記表示装置は、前記学習済みモデルの各々を、前記複数の第2の画像の内の対応する第2の画像と共に関連付けて表示する
ことを特徴とする評価支援システム。 - 請求項15に記載の評価支援システムにおいて、さらに、
データベースを備え、
前記プロセッサは、前記データベースから前記データベースに登録された前記複数の学習済みモデルの抽出を行う
ことを特徴とする評価支援システム。 - 学習済みモデルの性能評価に用いられる第1の画像を取得する手順であって、前記第1の画像を含む複数の第1の画像を取得する手順を含む、という手順と、
複数の第2の画像を生成する手順であって、前記複数の第2の画像の各々は、複数の学習済みモデルの各々による前記第1の画像の処理結果である、という手順と、
複数の第1のラベル情報を取得する手順であって、前記複数の第1のラベル情報の各々は、前記複数の第1の画像の各々に対して期待する処理結果を示す、という手順と、
前記複数の第2の画像に対応する複数の第1の評価情報を生成する手順であって、前記複数の第1の評価情報は、前記複数の第2の画像と前記複数の第1のラベル情報とに基づいて生成される、という手順と、
前記複数の第2の画像を生成する手順と前記複数の第1の評価情報を生成する手順の両手順後に、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する第2の画像に関連付けて表示する手順と、
をコンピュータに実行させ、
前記複数の第2の画像を生成する手順は、前記複数の第1の画像の各々に対して複数の第2の画像を生成する手順を含み、
前記複数の学習済みモデルの各々を表示する手順は、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する少なくとも1つの第2の画像と、前記複数の第1の評価情報のうちの前記少なくとも1つの第2の画像に対応する少なくとも1つの第1の評価情報と、に関連付けて表示する手順を含む
ることを特徴とするプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019131832A JP7313942B2 (ja) | 2019-07-17 | 2019-07-17 | 評価支援方法、評価支援システム、プログラム |
US16/930,793 US11373422B2 (en) | 2019-07-17 | 2020-07-16 | Evaluation assistance method, evaluation assistance system, and computer-readable medium |
CN202010690873.5A CN112241678B (en) | 2019-07-17 | 2020-07-17 | Evaluation support method, evaluation support system, and computer-readable medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019131832A JP7313942B2 (ja) | 2019-07-17 | 2019-07-17 | 評価支援方法、評価支援システム、プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021018459A JP2021018459A (ja) | 2021-02-15 |
JP2021018459A5 JP2021018459A5 (ja) | 2022-02-04 |
JP7313942B2 true JP7313942B2 (ja) | 2023-07-25 |
Family
ID=74170956
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019131832A Active JP7313942B2 (ja) | 2019-07-17 | 2019-07-17 | 評価支援方法、評価支援システム、プログラム |
Country Status (2)
Country | Link |
---|---|
US (1) | US11373422B2 (ja) |
JP (1) | JP7313942B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020126598A1 (de) * | 2020-10-09 | 2022-04-14 | Carl Zeiss Microscopy Gmbh | Mikroskopiesystem und verfahren zur verifizierung eines trainierten bildverarbeitungsmodells |
JPWO2022209501A1 (ja) * | 2021-03-31 | 2022-10-06 | ||
US20230004872A1 (en) * | 2021-07-01 | 2023-01-05 | GE Precision Healthcare LLC | System and method for deep learning techniques utilizing continuous federated learning with a distributed data generative model |
JPWO2023008428A1 (ja) * | 2021-07-29 | 2023-02-02 | ||
DE112022003716T5 (de) * | 2021-09-27 | 2024-05-29 | Fujifilm Corporation | Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019087229A (ja) | 2017-11-02 | 2019-06-06 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
JP2020204979A (ja) | 2019-06-18 | 2020-12-24 | ヤフー株式会社 | 推定装置、推定方法及び推定プログラム |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5816416B2 (ja) | 2010-04-23 | 2015-11-18 | 国立大学法人名古屋大学 | 細胞評価装置、インキュベータ、プログラム、および、培養方法 |
US8542912B2 (en) * | 2010-12-29 | 2013-09-24 | Cognex Corporation | Determining the uniqueness of a model for machine vision |
FR2985830B1 (fr) | 2012-01-12 | 2015-03-06 | Univ Nice Sophia Antipolis | Procede de classification supervisee de cellules comprises dans des images de microscopie. |
US10074038B2 (en) * | 2016-11-23 | 2018-09-11 | General Electric Company | Deep learning medical systems and methods for image reconstruction and quality evaluation |
JP6817625B2 (ja) | 2016-12-14 | 2021-01-20 | 株式会社グルーヴノーツ | サービス構築装置、サービス構築方法及びサービス構築プログラム |
JP6850684B2 (ja) | 2017-06-01 | 2021-03-31 | 株式会社日立製作所 | 光計測装置 |
EP3416103A1 (en) * | 2017-06-16 | 2018-12-19 | Dassault Systèmes | Dataset for learning a function taking images as inputs |
KR101977645B1 (ko) * | 2017-08-25 | 2019-06-12 | 주식회사 메디웨일 | 안구영상 분석방법 |
US11144786B2 (en) * | 2017-11-02 | 2021-10-12 | Canon Kabushiki Kaisha | Information processing apparatus, method for controlling information processing apparatus, and storage medium |
CN108875821A (zh) * | 2018-06-08 | 2018-11-23 | Oppo广东移动通信有限公司 | 分类模型的训练方法和装置、移动终端、可读存储介质 |
US11507822B2 (en) * | 2018-10-31 | 2022-11-22 | General Electric Company | Scalable artificial intelligence model generation systems and methods for healthcare |
US20200349466A1 (en) * | 2019-05-03 | 2020-11-05 | Microsoft Technology Licensing, Llc | Providing performance views associated with performance of a machine learning system |
-
2019
- 2019-07-17 JP JP2019131832A patent/JP7313942B2/ja active Active
-
2020
- 2020-07-16 US US16/930,793 patent/US11373422B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019087229A (ja) | 2017-11-02 | 2019-06-06 | キヤノン株式会社 | 情報処理装置、情報処理装置の制御方法及びプログラム |
JP2020204979A (ja) | 2019-06-18 | 2020-12-24 | ヤフー株式会社 | 推定装置、推定方法及び推定プログラム |
Also Published As
Publication number | Publication date |
---|---|
JP2021018459A (ja) | 2021-02-15 |
US11373422B2 (en) | 2022-06-28 |
CN112241678A (zh) | 2021-01-19 |
US20210019580A1 (en) | 2021-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7313942B2 (ja) | 評価支援方法、評価支援システム、プログラム | |
Maier-Hein et al. | Metrics reloaded: recommendations for image analysis validation | |
KR102289277B1 (ko) | 복수의 의료 영상 판독 알고리듬들에 대한 평가 스코어를 생성하는 의료 영상 판독 지원 장치 및 방법 | |
WO2020182078A1 (zh) | 影像分析方法、显微镜视频流处理方法和相关装置 | |
CN105612554B (zh) | 用于表征通过视频医疗设备获取的图像的方法 | |
US8831327B2 (en) | Systems and methods for tissue classification using attributes of a biomarker enhanced tissue network (BETN) | |
WO2014103664A1 (ja) | 情報処理装置、情報処理方法、およびプログラム | |
JP2019091454A (ja) | データ解析処理装置及びデータ解析処理プログラム | |
JP2014029644A (ja) | 類似症例検索装置および類似症例検索方法 | |
CN106068509A (zh) | 患者发现的以发现为中心的纵视图的自动创建 | |
JPWO2013175683A1 (ja) | 病理診断結果判定システム、病理診断結果判定方法および病理診断結果判定装置 | |
CN116259407B (zh) | 基于多模态数据的疾病诊断方法、装置、设备及介质 | |
CN113743463B (zh) | 一种基于影像数据和深度学习的肿瘤良恶性识别方法和系统 | |
WO2021230000A1 (ja) | 情報処理装置、情報処理方法及び情報処理システム | |
US11742072B2 (en) | Medical image diagnosis assistance apparatus and method using plurality of medical image diagnosis algorithms for endoscopic images | |
WO2022201729A1 (ja) | 画像診断システム及び画像診断方法 | |
JP5655327B2 (ja) | プログラムおよび情報処理装置 | |
CN112241678B (en) | Evaluation support method, evaluation support system, and computer-readable medium | |
Liu et al. | Computer-aided detection and quantification of endolymphatic hydrops within the mouse cochlea in vivo using optical coherence tomography | |
WO2021157405A1 (ja) | 解析装置、解析方法、解析プログラム及び診断支援システム | |
JP2021018460A (ja) | 評価支援方法、評価支援システム、プログラム | |
JP4966843B2 (ja) | 細胞検査教育支援システム、中央装置、端末装置及びコンピュータプログラム | |
Jabbar et al. | Liver fibrosis processing, multiclassification, and diagnosis based on hybrid machine learning approaches | |
Joly et al. | LifeCLEF 2020 teaser: biodiversity identification and prediction challenges | |
De Silva et al. | Semi-supervised learning approach for automatic detection of hyperreflective foci in SD-OCT imaging |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220127 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220127 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20220622 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20230123 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230329 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20230530 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20230622 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20230627 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20230712 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 7313942 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |