JP7313942B2 - 評価支援方法、評価支援システム、プログラム - Google Patents

評価支援方法、評価支援システム、プログラム Download PDF

Info

Publication number
JP7313942B2
JP7313942B2 JP2019131832A JP2019131832A JP7313942B2 JP 7313942 B2 JP7313942 B2 JP 7313942B2 JP 2019131832 A JP2019131832 A JP 2019131832A JP 2019131832 A JP2019131832 A JP 2019131832A JP 7313942 B2 JP7313942 B2 JP 7313942B2
Authority
JP
Japan
Prior art keywords
images
image
evaluation
trained
model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019131832A
Other languages
English (en)
Other versions
JP2021018459A (ja
JP2021018459A5 (ja
Inventor
勲 坂根
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Evident Corp
Original Assignee
Evident Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Evident Corp filed Critical Evident Corp
Priority to JP2019131832A priority Critical patent/JP7313942B2/ja
Priority to US16/930,793 priority patent/US11373422B2/en
Priority to CN202010690873.5A priority patent/CN112241678B/xx
Publication of JP2021018459A publication Critical patent/JP2021018459A/ja
Publication of JP2021018459A5 publication Critical patent/JP2021018459A5/ja
Application granted granted Critical
Publication of JP7313942B2 publication Critical patent/JP7313942B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/1916Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/945User interactive design; Environments; Toolboxes
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/10Recognition assisted with metadata

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Pathology (AREA)
  • Artificial Intelligence (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Medical Treatment And Welfare Office Work (AREA)
  • Image Analysis (AREA)

Description

本明細書の開示は、評価支援方法、評価支援システム、プログラムに関する。
近年、様々な分野で機械学習が注目されている。病理診断の分野では、病変部分を認識するように訓練された訓練済みの学習モデル(以降、学習済みモデルと記す。)を用いることで、病理医の負担を軽減することができると期待されている。また、細胞培養の分野では、細胞の状態を認識するように訓練された学習済みモデルを用いることで、培養中の細胞を非破壊的に検査することができると期待されている。例えば、iPS細胞の分化・未分化の状態を非破壊的に検査して成長状態を把握することができるとすれば、iPS細胞を用いた手術のスケジュールをより適切に決定することが可能となる。
このような機械学習に関連する技術は、例えば、特許文献1に記載されている。特許文献1には、学習済みモデルの構築を支援する技術が記載されている。特許文献1に記載の技術を用いることで、機械学習について高度な知識を有しないものであっても、比較的容易に学習済みモデルを構築することが可能である。
特開2018-205069号公報
学習済みモデルの構築を支援するサービスが存在する一方で、学習済みモデルそのものを提供するサービスも存在している。他者が提供する学習済みモデルを利用することで、学習済みモデルの構築の手間を省くことができる。
しかしながら、学習済みモデルの良し悪しを判断することは必ずしも容易ではない。例えば、細胞の生死の判断基準は必ずしも一律ではない。このため、細胞の生死を識別するように訓練された学習済みモデルは、ある利用者にとっては良いモデルであるが、別のある利用者にとっては十分に良いモデルではないといったことが起こり得る。
以上のような実情を踏まえ、本発明の一側面に係る目的は、学習済みモデルの評価を支援する技術を提供することである。
本発明の一態様に係る評価支援方法は、学習済みモデルの性能評価に用いられる第1の画像を取得する工程であって、前記第1の画像を含む複数の第1の画像を取得する工程を含む、という工程と、複数の第2の画像を生成する工程であって、前記複数の第2の画像の各々は、複数の学習済みモデルの各々による前記第1の画像の処理結果である、という工程と、複数の第1のラベル情報を取得する工程であって、前記複数の第1のラベル情報の各々は、前記複数の第1の画像の各々に対して期待する処理結果を示す、という工程と、前記複数の第2の画像に対応する複数の第1の評価情報を生成する工程であって、前記複数の第1の評価情報は、前記複数の第2の画像と前記複数の第1のラベル情報とに基づいて生成される、という工程と、前記複数の第2の画像を生成する工程と前記複数の第1の評価情報を生成する工程の両工程後に、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する第2の画像に関連付けて表示する工程と、を含む。前記複数の第2の画像を生成する工程は、前記複数の第1の画像の各々に対して複数の第2の画像を生成する工程を含み、前記複数の学習済みモデルの各々を表示する工程は、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する少なくとも1つの第2の画像と、前記複数の第1の評価情報のうちの前記少なくとも1つの第2の画像に対応する少なくとも1つの第1の評価情報と、に関連付けて表示する工程を含む。
本発明の一態様に係る学習済みモデルの評価支援システムは、複数の学習済みモデルが格納された非一過性のコンピュータ読取可能記憶媒体と、少なくとも1つのプロセッサと、を備え、前記プロセッサは、学習済みモデルの性能評価に用いられる第1の画像を取得する工程であって、前記第1の画像を含む複数の第1の画像を取得する工程を含む、という工程と、複数の第2の画像を生成する工程であって、前記複数の第2の画像の各々は、前記複数の学習済みモデルの各々による前記第1の画像の処理結果である、という工程と、複数の第1のラベル情報を取得する工程であって、前記複数の第1のラベル情報の各々は、前記複数の第1の画像の各々に対して期待する処理結果を示す、という工程と、前記複数の第2の画像に対応する複数の第1の評価情報を生成する工程であって、前記複数の第1の評価情報は、前記複数の第2の画像と前記複数の第1のラベル情報とに基づいて生成される、という工程と、前記複数の第2の画像を生成する工程と前記複数の第1の評価情報を生成する工程の両工程後に、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する第2の画像に関連付けて表示する工程と、を行う。前記複数の第2の画像を生成する工程は、前記複数の第1の画像の各々に対して複数の第2の画像を生成する工程を含み、前記複数の学習済みモデルの各々を表示する工程は、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する少なくとも1つの第2の画像と、前記複数の第1の評価情報のうちの前記少なくとも1つの第2の画像に対応する少なくとも1つの第1の評価情報と、に関連付けて表示する工程を含む。
本発明の一態様に係るプログラムは、学習済みモデルの性能評価に用いられる第1の画像を取得する手順であって、前記第1の画像を含む複数の第1の画像を取得する手順を含む、という手順と、複数の第2の画像を生成する手順であって、前記複数の第2の画像の各々は、複数の学習済みモデルの各々による前記第1の画像の処理結果である、という手順と、複数の第1のラベル情報を取得する手順であって、前記複数の第1のラベル情報の各々は、前記複数の第1の画像の各々に対して期待する処理結果を示す、という手順と、前記複数の第2の画像に対応する複数の第1の評価情報を生成する手順であって、前記複数の第1の評価情報は、前記複数の第2の画像と前記複数の第1のラベル情報とに基づいて生成される、という手順と、前記複数の第2の画像を生成する手順と前記複数の第1の評価情報を生成する手順の両手順後に、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する第2の画像に関連付けて表示する手順と、をコンピュータに実行させる。前記複数の第2の画像を生成する手順は、前記複数の第1の画像の各々に対して複数の第2の画像を生成する手順を含み、前記複数の学習済みモデルの各々を表示する手順は、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する少なくとも1つの第2の画像と、前記複数の第1の評価情報のうちの前記少なくとも1つの第2の画像に対応する少なくとも1つの第1の評価情報と、に関連付けて表示する手順を含む。

上記の態様によれば、学習済みモデルの評価を支援することができる。
システム1の構成の一例を示した図である。 サービス提供装置5のハードウェア構成の一例を示した図である。 システム1が提供するサービスを説明するためのシーケンス図の一例である。 モデル提供装置が提供するデータを説明するための図である。 サンプルラベル情報30を説明するための図である。 メタデータ40を説明するための図である。 第1の実施形態に係る評価支援処理のフローチャートである。 入力画面の一例を示す図である。 入力画面の別の例を示す図である。 結果画像70の生成手順を説明するための図である。 学習済みモデル一覧画面の一例を示す図である。 第2の実施形態に係る評価支援処理のフローチャートである。 学習済みモデル一覧画面の別の例を示す図である。 第3の実施形態に係る評価支援処理のフローチャートである。 参照画像90の生成手順を説明するための図である。 学習済みモデル一覧画面の更に別の例を示す図である。 学習済みモデル詳細画面の一例を示す図である。 第4の実施形態に係る評価支援処理のフローチャートである。 学習済みモデル一覧画面の更に別の例を示す図である。 学習済みモデル一覧画面の更に別の例を示す図である。 評価情報の生成方法について説明するための図である。 システム1が提供するサービスを説明するためのシーケンス図の別の例である。 利用装置が提供するデータを説明するための図である。 第5の実施形態に係る評価支援処理のフローチャートである。 テスト結果一覧画面の一例を示す図である。 テスト結果一覧画面の別の例を示す図である。 第6の実施形態に係る評価支援処理のフローチャートである。 テスト結果一覧画面の更に別の例を示す図である。 テスト結果一覧画面の更に別の例を示す図である。 テスト結果一覧画面の更に別の例を示す図である。 テスト結果画像のバリエーションを説明するための図である。 ディテクションタイプの学習済みモデルによって生成されるテスト結果画像を説明するための図である。 クラシフィケーションタイプの学習済みモデルによって生成されるテスト結果画像を説明するための図である。
図1は、システム1の構成の一例を示した図である。図1に示すシステム1は、学習済みモデルの評価を支援する評価支援システムである。システム1は、モデル提供装置(モデル提供装置2、モデル提供装置3、モデル提供装置4、・・・)と、サービス提供装置5と、利用装置6を含んでいる。
モデル提供装置は、学習済みモデルを提供する装置である。モデル提供装置は、例えば、通信ネットワークに接続されたコンピュータである。モデル提供装置は、サービス提供装置5に1つ以上の学習済みモデルを提供する。
サービス提供装置5は、モデル提供装置によって提供された学習済みモデルの評価を支援するサービスを提供する装置である。サービス提供装置5は、例えば、通信ネットワークに接続されたコンピュータである。サービス提供装置5は、複数の学習済みモデルが格納された非一過性のコンピュータ読取可能記憶媒体と、少なくとも1つのプロセッサを含んでいればよい。
利用装置6は、サービス提供装置5によって提供される評価支援サービスを利用する利用装置であり、また、モデル提供装置からサービス提供装置5に提供された学習済みモデルを利用する利用装置でもある。利用装置6は、表示装置6aを備えている。利用装置6は、サービス提供装置5から提供された学習済みモデルの評価を支援するための画面情報を表示装置6aに表示することで、利用装置6の利用者に利用者自身の基準で学習済みモデルを評価させる。
図2は、サービス提供装置5のハードウェア構成の一例を示した図である。プロセッサ5aは、例えば、CPU(Central Processing Unit)を含む任意の処理回路であり、補
助記憶装置5c又は可搬記憶媒体5hに格納されているプログラムをメモリ5bに展開して実行することでプログラムされた処理を行う。プロセッサ5aは、GPU(Graphics Processing Unit)を含んでもよい。プロセッサ5aは、プログラムを実行してプログラムされた処理を行うことで、例えば、後述する評価支援処理を行う。
メモリ5bは、例えば、RAM(Random Access Memory)である。メモリ5bは、プログラムの実行の際に、補助記憶装置5c又は可搬記憶媒体5hに格納されているプログラムまたはデータを記憶するワークメモリとして機能する。補助記憶装置5cは、例えば、ハードディスク、フラッシュメモリなどであり、主に各種データ及びプログラムの格納に用いられる。媒体駆動装置5eは、光ディスク、コンパクトフラッシュ(登録商標)等の可搬記憶媒体5hを収容するものである。補助記憶装置5cと可搬記憶媒体5hは、それぞれプログラムを記憶した非一過性のコンピュータ読取可能記憶媒体の一例である。
I/O(Input/Output)インタフェース5dは、例えば、USB(UniversalSerial Bus)インタフェース回路、HDMI(High-Definition MultimediaInterface)回路などである。I/Oインタフェース5dには、例えば、図示しない入力装置、表示装置等が接続されていてもよい。
NW(Network)インタフェース5fは、例えば、無線通信モジュールであってもよく
、LAN(LocalArea Network)カードなどであってもよい。サービス提供装置5は、N
Wインタフェース5fを経由してモデル提供装置から学習済みモデルを受信し、NWインタフェース5fを経由して利用装置6にサービス提供に必要な画面情報へ送信する。
なお、図2に示す構成は、サービス提供装置5のハードウェア構成の一例であり、サービス提供装置5はこの構成に限定されるものではない。サービス提供装置5は、汎用装置ではなく専用装置であってもよい。サービス提供装置5は、例えば、専用設計の電気回路、例えば、ASIC(Application Specific Integrated Circuit)などを備えてもよい
。また、サービス提供装置5は、FPGA(Field-Programmable Gate Array)を用いて
構成されてもよい。
図3は、システム1が提供するサービスを説明するためのシーケンス図の一例である。図4は、モデル提供装置が提供するデータを説明するための図である。図5は、サンプルラベル情報30を説明するための図である。図6は、メタデータ40を説明するための図である。以下、図3から図6を参照しながら、システム1が行う学習済みモデルの評価支援方法について説明する。
システム1では、まず、モデル提供装置が学習済みモデルをサービス提供装置5に提供する(ステップS1)。サービス提供装置5は、受け入れ条件として、学習済みモデルとともに教師データセットとメタデータを提供することをモデル提供装置に予め要求している。このため、ステップS1では、モデル提供装置は、受け入れ条件に従って、図4に示すように、学習済みモデル10に加えて、教師データセットとメタデータ40を、サービス提供装置5に提供する。教師データセットには、サンプル画像20とサンプルラベル情報30が含まれている。
なお、学習済みモデルとは、訓練画像と訓練画像に対応する正解情報とを用いて訓練された学習モデルのことである。つまり、学習済みモデルは、訓練画像の入力に対する出力が訓練画像に対応する正解情報に近くなるように訓練され、さらに、検証画像の入力に対する出力が検証画像に対応する正解情報に近いことが検証されている学習モデルである。
ステップS1でサービス提供装置5によって提供される学習済みモデル10は、画像認識用の学習済みモデルであり、特に限定しないが、例えば、ディープラーニングを用いた学習済みモデルである。以降では、学習済みモデル10が画像に含まれる特定の領域を推定して識別するモデルである場合を例に説明する。より具体的には、学習済みモデル10が、画像に含まれる陽性領域又は陰性領域であると推定した推定領域を識別する識別情報
を出力する場合を例に説明する。例えば、学習済みモデルがiPS細胞の分化状態を識別するモデルの場合であれば、iPS細胞の分化領域が陽性領域に該当し、未分化領域が陰性領域に該当する。また、学習済みモデルは細胞の剥離判定を行うモデルであってもよく、細胞の生死判定を行うモデルであってもよい。
サービス提供装置5によって提供されるサンプル画像20は、学習済みモデル10の訓練過程で使用された1つ以上の画像であり、望ましくは複数の画像である。サンプル画像20は、学習済みモデル10の訓練過程で使用された複数の画像の一部(例えば、10枚)でよい。なお、サンプル画像20は、訓練過程で使用された訓練画像であってもよく、訓練過程で使用された検証画像であってもよい。また、サンプル画像20は、訓練画像と検証画像の両方を含んでもよい。
サービス提供装置5によって提供されるサンプルラベル情報30は、学習済みモデル10の訓練過程で使用された正解情報であり、サンプル画像20の入力に対する出力としての正解を示す情報である。つまり、サンプルラベル情報30は、図5に示すように、サンプル画像20に含まれる陽性領域又は陰性領域である正解領域Cを識別する識別情報である。なお、サンプルラベル情報30は、訓練画像に対応する正解情報であってもよく、検証画像に対応する正解情報であってもよい。また、サンプルラベル情報30は、訓練画像と検証画像に対応する正解情報の両方を含んでもよい。サンプルラベル情報30は、例えば、モデル提供者が自ら手動で領域指定を行うことで作成された情報である。サンプル画像20が顕微鏡画像であれば、サンプルラベル情報30は、蛍光染色したサンプルを撮像することで作成された画像であってもよい。また、サンプル画像20が軟性内視鏡、硬性内視鏡で取得した画像であれば、サンプルラベル情報30は、ヨード染色、メチレンブルー(MB)染色を行ったサンプルを撮像することで作成された画像であってもよい。また、サンプル画像20がNBI(Narrow Band Imaging)内視鏡で取得した画像であれば、
NBI内視鏡で得られる画像の光り方を模した情報であってもよい。
サービス提供装置5によって提供されるメタデータ40は、図6に示すように、学習済みモデル10由来のメタデータであってもよく、サンプル画像20由来のメタデータであってもよい。また、メタデータ40は、サンプルラベル情報30由来のメタデータであってもよい。学習済みモデル10由来のメタデータとしては、例えば、学習済みモデル10がディープラーニングを利用している場合であれば、ネットワーク構造、最適化アルゴリズム、エポック数などが挙げられる。サンプル画像20由来のメタデータとしては、例えば、細胞種、細胞の入手経路、遺伝子導入の有無、培養条件などが挙げられる。また、サンプル画像20を取得した装置の情報、例えば、撮像条件、装置の種類、検鏡法などもサンプル画像20由来のメタデータの一例である。医療画像の場合は、対象臓器の名称や被験体の名称または識別番号、適用ガイドラインの情報などがメタデータとして用いられても良い。さらに、画像サイズや画像枚数などもメタデータとして提供されてもよい。サンプルラベル情報30由来のメタデータとしては、試薬・染色の使用の有無、試薬・染色条件の情報、陽性又は陰性領域を判断する基準、作業者名などが挙げられる。さらに、メタデータ40は、モデル提供装置由来のメタデータであってもよく、例えば、学習済みモデル10を構築した企業、研究所、大学などを特定する作成者情報などを含んでもよい。
なお、メタデータ40は、上述した例に限らない。メタデータ40は、後述するように、サービス提供装置5が利用装置6に提供する学習済みモデル10を選択する際に利用される。このため、サービス提供装置5は、学習済みモデル10の選択に資する任意の情報をメタデータ40に含めることをモデル提供装置に受け入れ条件として要求してもよい。
モデル提供装置から学習済みモデルが提供されると、サービス提供装置5は、提供された学習済みモデルを受け入れる(ステップS2)。ここでは、サービス提供装置5は、学
習済みモデル10とともに、教師データセットとメタデータ40を受け入れて、非一過性のコンピュータ読取可能記憶媒体に構築されたデータベースに登録する。
なお、学習済みモデル10は、データベース登録前に共通フォーマットに変換することが望ましい。これにより、様々なモデル提供装置の下で様々なフレームワークを用いて構築された学習済みモデル10を、サービス提供装置5及び利用装置6が使用するフレームワーク上で動作させることが可能となる。サービス提供装置5は、複数のモデル提供装置からモデルの提供を受けて、それらのモデルの受け入れを繰り返すことが望ましい。これにより、サービス提供装置5のデータベースには、複数の学習済みモデル10が登録されることになる。
その後、利用装置6は、サービス提供装置5に登録されている学習済みモデル10の中から利用装置6の利用者の目的に適う学習済みモデルを探すために、学習済みモデルに求める条件と、学習済みモデルによって検査されるべき対象である検査画像とを、サービス提供装置5に提供する(ステップS3)。検査画像は1つ以上の画像であればよく1つの画像であっても複数の画像であってもよい。検査画像は学習済みモデル10の性能評価に用いられる第1の画像の一例である。また、ステップS3は、学習済みモデルの性能評価に用いられる第1の画像を取得する工程の一例である。なお、以降では、検査画像が顕微鏡で取得した細胞の画像である場合を例に説明するが、検査画像は、顕微鏡で取得した細胞の画像に限らない。例えば、内視鏡で取得した体腔内の器官の画像であってもよい。内視鏡は、軟性内視鏡、硬性内視鏡、NBI内視鏡であってもよい。また、顕微鏡で取得した細胞の画像は、培養細胞の画像であってもよく、病理診断で使用される被検者から採取された細胞の画像であってもよい。また、顕微鏡で取得した画像は、任意の検鏡法で取得され得る。例えば、蛍光検鏡法、明視野検鏡法、暗視野検鏡法、位相差検鏡法、微分干渉検鏡法、偏光検鏡法などで画像を取得してもよい。
学習済みモデルに求める条件と検査画像とが利用装置6から提供されると、サービス提供装置5は、モデル評価支援情報を生成する(ステップS4)。ここでは、サービス提供装置5は、学習済みモデルに求める条件に基づいて、データベースに登録されているメタデータを検索し、利用装置6が学習済みモデルに求める条件に合う複数の学習済みモデルを抽出する。さらに、サービス提供装置5は、抽出した複数の学習済みモデルに検査画像を適用することで、検査画像に対する複数の検査結果を含むモデル評価支援情報を生成する。なお、モデル評価支援情報は、利用装置6による学習済みモデルの評価を支援するための情報である。
モデル評価支援情報を生成したサービス提供装置5は、モデル評価支援情報を利用装置6に提供する(ステップS5)。その後、利用装置6の利用者は、利用装置6の表示装置6aに表示されたモデル評価支援情報を参照することで、サービス提供装置5が提示した学習済みモデルの中から利用者の目的に適う学習済みモデルを選択する。そして、利用装置6は、利用者が選択した学習済みモデルの提供をサービス提供装置5に要求する(ステップS6)。最後に、サービス提供装置5が、利用装置6から要求された学習済みモデルを利用装置6に引き渡す(ステップS7)。
以上のように、システム1では、サービス提供装置5は、利用装置6から検査対象として指定された検査画像を複数の学習済みモデルに適用することで複数の検査結果を生成し、それらの検査結果を利用装置6に提供する。これにより、利用装置6の利用者は、複数の検査結果を比較することで、サービス提供装置5に登録されている複数の学習済みモデルを利用者の基準で評価することができる。以下、各実施形態において、図3のステップS3からステップS5の工程の具体例について詳細に説明する。
[第1の実施形態]
図7は、本実施形態に係る評価支援処理のフローチャートである。図8及び図9は、入力画面を例示した図である。図10は、結果画像70の生成手順を説明するための図である。図11は、学習済みモデル一覧画面の一例を示す図である。なお、図7に示す処理は、例えば、サービス提供装置5が所定のプログラムを実行することによって行われる。
なお、結果画像とは、検査画像に対しての学習済みモデルの適用結果である。また、結果画像は、学習済みモデルによる第1の画像の処理結果である第2の画像の一例である。結果画像は、検査画像に対してモデル作成者がどの領域を陽性領域と判断するかの学習結果、つまりモデル作成者の判断基準を表す。例えば、特定のモデル作成者による細胞の剥離判定の基準を学習させた学習済みモデルを用いる場合であれば、結果画像における陽性領域は、容器底面等から剥離した細胞の領域を示す。病理診断用途の学習済みモデルであれば、陽性領域は、モデル作成者によって病変部位と判断された領域を示す。
サービス提供装置5は、図7に示す処理を開始すると、利用装置6から提供された、学習済みモデルに求める条件と検査画像50とを取得する(ステップS11)。ここでは、例えばサービス提供装置5が提供するWebサイトに利用装置6がアクセスすることによって、サービス提供装置5は、図8に示す画面100の情報を利用装置6に送信し、利用装置6の表示装置6aに画面100を表示させる。画面100は、評価支援システムの入力画面であり、学習済みモデルに求める条件と検査画像とを入力する画面である。
なお、画面100に設けられたタブ110は、病理診断用途の学習済みモデルに求める条件を入力する場合に選択される。領域111では癌腫を、領域112では染色法を、領域113では腫瘍マーカーを指定することができる。また、タブ120は、細胞培養用途の学習済みモデルに求める条件を入力する場合に選択される。また、タブ130は、制約なしに学習済みモデルに求める条件を入力する場合に選択される。その他、準拠する診断ガイドラインを選択するタブが設けられてもよい。
図9には、タブ130が選択された状態における画面100が示されている。以降では、ヒトの乳がん検査に適した学習済みモデルを評価するために、図9に示すように、“ヒト、乳がん、○○領域”がテキストボックス131に入力され、ボタン140を押下することで検査画像50が選択され、その後、ボタン160が押下された場合を例に説明する。ボタン160が押下されると、学習済みモデルに求める条件(“ヒト、乳がん、○○領域”)と検査画像50がサービス提供装置5にアップロードされる。これにより、サービス提供装置5は、学習済みモデルに求める条件と検査画像50を取得する。サービス提供装置5は、複数の検査画像50を取得してもよい。即ち、ステップS11は、複数の第1の画像を取得する工程の一例であってもよい。
なお、検査画像50は、学習済みモデル検索の度にアップロードするのではなく、従前のモデル検索処理において提供した画像を再利用してもよい。例えば、以前に提供した検査画像50をサービス提供装置5に登録しておき、その登録された画像への参照(検査画像ID)を指定することで、サービス提供装置5に登録された画像を検査画像50として読み込ませて取得させてもよい。
次に、サービス提供装置5は、複数の学習済みモデル10を選択し、取得する(ステップS12)。ここでは、サービス提供装置5は、ステップS11で取得した条件に基づいて、学習済みモデル10に付随してデータベースに予め登録されているメタデータ40を検索する。そして、利用者が学習済みモデルに求める条件に合う複数の学習済みモデル10を抽出する。即ち、ステップS12は、予め登録された学習済みモデル10に付随するメタデータ40に基づいて、予め登録された学習済みモデル10から複数の学習済みモデ
ル10を選択する工程である。
複数の学習済みモデル10を取得すると、サービス提供装置5は、複数の第1の識別情報を生成する(ステップS13)。ここでは、サービス提供装置5は、図10に示すように、ステップS11で取得した検査画像50をステップS12で取得した複数の学習済みモデル10(学習済みモデル11、学習済みモデル12、学習済みモデル13)の各々に適用することによって、複数の第1の識別情報(第1の識別情報61、第1の識別情報62、第1の識別情報63)を生成する。なお、この例では、複数の第1の識別情報の各々は、対応する学習済みモデル10によって陽性領域として推定された領域を識別する情報である。
第1の識別情報は、ステップS12で取得した学習済みモデル毎に検査画像50と同数だけ生成される。このため、図10では学習済みモデル毎に1つの第1の識別情報が生成される例を示したが、ステップS11で複数の検査画像50が取得されている場合には、学習済みモデル毎に複数の第1の識別情報が生成される。
その後、サービス提供装置5は、複数の結果画像を生成する(ステップS14)。ここでは、サービス提供装置5は、図10に示すように、ステップS13で生成した複数の第1の識別情報の各々をステップS11で取得した検査画像50に重畳することによって、複数の結果画像(結果画像71、結果画像72、結果画像73)を生成する。即ち、ステップS14は、複数の第2の画像を生成する工程の一例である。また、ステップS11で複数の第1の画像が取得されている場合には、ステップS14は、複数の第1の画像の各々に対して複数の第2の画像を生成する工程の一例である。
最後に、サービス提供装置5は、複数の結果画像を出力する(ステップS15)。ここでは、サービス提供装置5は、ステップS14で生成した複数の結果画像の各々をステップS12で選択した複数の学習済みモデル10のうちの対応する学習済みモデル10に関連付けて出力する。具体的には、サービス提供装置5は、図11に示す画面200を利用装置6に送信し、利用装置6の表示装置6aに画面200を表示させる。画面200は、評価支援システムの学習済みモデル一覧画面であり、複数の学習済みモデル10を用いて生成された複数の結果画像を並べて表示する画面である。
図11に示す画面200には、モデル条件欄201の下側に、学習済みモデルの識別情報(モデルID)とメタデータ(作成者、細胞種、方法)と結果画像の組み合わせが、ステップS12で選択された学習済みモデルの数だけ並べて表示されている。即ち、ステップS15は、複数の学習済みモデルの各々を、複数の第2の画像のうちの対応する第2の画像に関連付けて表示する工程の一例である。また、ステップS11で複数の第1の画像が取得されている場合には、ステップS15は、複数の学習済みモデルの各々を、複数の第2の画像のうちの対応する少なくとも1つの第2の画像に関連付けて表示する工程の一例であり、複数の第1の画像の各々に対して、複数の第2の画像から少なくとも1つの第2の画像を選別する工程を含んでいる。また、組み合わせにはメタデータも含まれていることから、ステップS15は、複数の学習済みモデルの各々を、複数の第2の画像のうちの対応する少なくとも1つの第2の画像と、複数の学習済みモデルのうちの対応する学習モデルに付随するメタデータとに関連付けて表示する工程の一例でもある。
組み合わせの並び順は、学習済みモデルの利用者が求める条件への合致度に基づいて決定されてもよい。例えば、ある培養条件が指定されている場合であれば、指定された培養条件に近い培養条件で培養された細胞の画像によって訓練された学習済みモデルである程、優先して並べてもよい。即ち、ステップS15は、複数の学習済みモデルに付随する複数のメタデータに基づいて、複数の組み合わせに対して優先順位を割り当てる工程を含ん
でもよく、さらに、優先順位に従った並び順で複数の組み合わせを表示する工程を含んでもよい。ここで、複数の組み合わせの各々は、互いに対応する学習済みモデルと少なくとも1つの第2の画像とメタデータとの組み合わせである。なお、並び順は、画面200上に提供されているソートボタンが押下されることで、利用者が優先する条件に従って変更されてもよい。
以上のように、システム1が本実施形態に係る評価支援処理を行うことで、検査画像に対する複数の学習済みモデルの画像認識結果が複数の結果画像として出力されるため、利用者は、複数の結果画像を容易に比較することができる。検査画像は、利用者によって指定された画像であり、検査画像を入力することで得られる結果画像が示す良好な認識結果は、利用者が自身の目的下で学習済みモデルを使用した場合における高い性能を強く示唆するものである。このため、検査画像に基づいて生成された複数の結果画像を比較しながら、各結果画像が示す認識結果と利用者自身の評価基準に従った認識結果との差異を確認することで、利用者は、利用者の目的に対する各学習済みモデルの適合具合を把握することができる。従って、利用者の目的に適う学習済みモデルを容易に特定することが可能である。このように、本実施形態に係る評価支援方法によれば、他者が構築した学習済みモデルを利用者自身の基準で評価することを支援することができる。
なお、図11では、複数の学習モデルの各々を、その学習済みモデルに対応する少なくとも1つの第2の画像と関連付けて表示する例を示したが、さらに、第1の画像を表示してもよい。即ち、ステップS15は、複数の学習モデルの各々を、その学習済みモデルに対応する少なくとも1つの第2の画像と、少なくとも1つの第2の画像に対応する少なくとも1つの第1の画像に関連付けて表示してもよい。第2の画像とともに第1の画像を表示することで、第2の画像をより適切に評価することが可能となり、その結果、学習済みモデルより適切に評価することができる。
また、図11では、複数の学習モデルの各々を、その学習済みモデルに対応する少なくとも1つの第2の画像と関連付けて表示する例を示したが、さらに、第2の画像の信頼度を表示してもよい。即ち、ステップS15は、複数の学習モデルの各々を、その学習済みモデルに対応する少なくとも1つの第2の画像と、少なくとも1つの第2の画像の各々の信頼度とに、関連付けて表示してもよい。信頼度とは、学習済みモデルが生成した結果画像の信頼度であり、より詳細には、学習済みモデルが結果画像を生成するにあたり出力した第1の識別情報の信頼度のことである。即ち、信頼度は、どの程度の確証をもって学習済みモデルが第1の識別情報を生成したかを示している。第2の画像とともに信頼度を表示することで、学習済みモデルをより適切に評価することが可能となる。
サービス提供装置5は、信頼度を表示する場合、複数の第2の画像の信頼度に基づいて、複数の組み合わせに対して優先順位を割り当てもよく、さらに、優先順位に従った並び順で複数の組み合わせを表示してもよい。ここで、複数の組み合わせの各々は、互いに対応する学習済みモデルと少なくとも1つの第2の画像と少なくとも1つの第2の画像の各々の信頼度との組み合わせである。信頼度が高いほど高い優先順位を割り当ててもよく、反対に、信頼度を低いほど高い優先順位を割り当ててもよい。信頼度が低いほど高い優先順位を割り当てることで学習済みモデルの性能を過大評価する可能性を抑制することができる。また、信頼度を表示せずに、信頼度を優先順位の割り当てにのみ使用してもよい。
[第2の実施形態]
図12は、本実施形態に係る評価支援処理のフローチャートである。図13は、学習済みモデル一覧画面の別の例を示す図である。なお、図12に示す処理は、例えば、サービス提供装置5が所定のプログラムを実行することによって行われる。
サービス提供装置5は、図12に示す処理を開始すると、利用装置6から提供された、学習済みモデルに求める条件と検査画像50と検査ラベル情報を取得する(ステップS21)。ステップS21の処理は、検査ラベル情報を取得する点が図7のステップS11の処理とは異なるが、学習済みモデルに求める条件と検査画像50とを取得する点はステップS11の処理と同様である。
検査ラベル情報は、第1の画像に対して期待する処理結果を示す第1のラベル情報の一例である。検査ラベル情報は、例えば、検査画像50に含まれる陽性領域又は陰性領域である正解領域を識別する情報である。検査ラベル情報は、図9に示す画面100のボタン150を押下することで指定可能であり、例えば、学習済みモデルに求める条件(“ヒト、乳がん、○○領域”)と検査画像50とともに、サービス提供装置5にアップロードされる。これにより、サービス提供装置5は、学習済みモデルに求める条件と検査画像50と検査ラベル情報を取得する。なお、ステップS21では、複数の第1の画像が取得される場合には、複数の第1の画像に対応する複数の第1のラベル情報を取得する。
なお、検査ラベル情報は、学習済みモデル検索の度にアップロードするのではなく、従前のモデル検索処理において提供した検査ラベル情報を再利用してもよい。例えば、以前に提供した検査ラベル情報をサービス提供装置5に登録しておき、その登録された情報への参照(検査ラベル情報ID)を指定することで、サービス提供装置5に登録された検査ラベル情報を読み込ませて取得させてもよい。
その後、サービス提供装置5は、複数の学習済みモデル10を取得し(ステップS22)、複数の第1の識別情報を生成し(ステップS23)、複数の結果画像を生成する(ステップS24)。つまり、学習済みモデル毎に、第1の識別情報と結果画像を生成する。なお、ステップS22からステップS24の処理は、図7のステップS12からステップS14の処理と同様である。
さらに、サービス提供装置5は、複数の第1の評価情報を生成する(ステップS25)。複数の第1の評価情報の各々は、ステップS23で生成された複数の第1の識別情報の各々と、ステップS21で取得した検査ラベル情報と、に基づいて生成される。つまり、サービス提供装置5は、学習済みモデル毎に第1の評価情報を算出する。ステップS25は、複数の第2の画像に対応する複数の第1の評価情報を生成する工程の一例である。なお、ステップS21において、複数の第1の画像と複数の第1のラベル情報が取得される場合には、複数の第1の評価情報は、複数の第2の画像と複数の第1のラベル情報とに基づいて生成される。
なお、第1の評価情報は、検査ラベル情報に基づいて学習済みモデル10を定量的に評価した情報であり、例えば、適合率、再現率、適合率と再現率との調和平均であるF値である。その他、特異度、正確度などであってもよい。なお、第1の評価情報は、値が高いほど良いものに限らない。例えば、偽陰性率、偽陽性率などであってもよい。また、第1の評価情報は、単一の指標に限らず、上述した複数の指標の任意の組み合わせであってもよい。
ステップS25では、サービス提供装置5は、まず、ともに画像上の領域を特定する情報である検査ラベル情報と第1の識別情報とを比較することで、真陽性、偽陽性、偽陰性、真陰性のそれぞれに対応する領域を特定する。これらの領域が特定されると、サービス提供装置5は、これらの領域の面積を用いて第1の評価情報を算出する。
なお、検査画像は1つ以上の画像であればよく1つの画像であっても複数の画像であってもよい。検査画像が複数である場合、それぞれの検査画像に対応する複数の検査ラベル
情報から算出された複数の第1の評価情報の値に加えて、複数の第1の評価情報の代表値を算出してもよい。代表値としては、例えば平均値であってもよく、中央値であってもよい。
最後に、サービス提供装置5は、複数の結果画像と複数の第1の評価情報を出力する(ステップS26)。ここでは、サービス提供装置5は、ステップS24で生成した複数の結果画像の各々を、ステップS22で選択した複数の学習済みモデル10のうちの対応する学習済みモデル10と、ステップS25で生成した複数の第1の評価情報のうちの対応する第1の評価情報とに関連付けて出力する。具体的には、サービス提供装置5は、図13に示す画面300を利用装置6に送信し、利用装置6の表示装置6aに画面300を表示させる。画面300は、評価支援システムの学習済みモデル一覧画面であり、複数の学習済みモデル10を用いて生成された複数の結果画像を、複数の結果画像に関する複数の第1の評価情報とともに、並べて表示する画面である。
ステップS21において複数の検査画像が取得された場合、複数の学習済みモデル10の各々について、複数の結果画像が生成される。その場合、学習済みモデル10毎に、1つ以上の結果画像を表示してもよい。また、複数の学習済みモデルの各々について、複数の検査画像から算出された複数の第1の評価情報と、それら複数の第1の評価情報の代表値とをもとに、表示すべき1つ以上の結果画像を選択してもよい。例えば、検査画像毎に算出されるF値の高いほうから1つ以上選択し、選択した1つ以上のF値に対応する1つ以上の結果画像を選択してもよい。また、例えば、複数の第1の評価情報の代表値に最も近い第1の評価情報に対応した1つ以上の結果画像を選択し、選択した1つ以上の結果画像を表示してもよい。学習済みモデル毎に複数の結果画像を表示する場合、例えば図13の結果画像が表示されている場所に複数の結果画像を並べて表示してもよい。また、画像の下にスライダーバーを表示することで複数の結果画像からユーザーが指定した画像のみを選択的に表示させてもよい。
図13に示す画面300には、モデル条件欄301の下側に、学習済みモデルの識別情報(モデルID)とメタデータ(作成者、細胞種、方法)と結果画像と第1の評価情報(スコア)の組み合わせが、ステップS22で選択された学習済みモデルの数だけ並べて表示されている。即ち、ステップS26は、複数の学習済みモデルの各々を、少なくとも1つの第2の画像と、複数の第1の評価情報のうちの少なくとも1つの第2の画像に対応する少なくとも1つの第1の評価情報と、に関連付けて表示する工程の一例である。
なお、ステップS26には、複数の第1の評価情報に基づいて複数の組み合わせに対して優先順位を割り当てる工程が含まれてもよく、優先順位に従って複数の結果画像の各々を、対応する学習済みモデルと、対応する第1の評価情報と、の両方に関連付けて出力してもよい。即ち、画面300における組み合わせの並び順は、割り当てられた優先順位に従って決定されてもよく、優先順位に従った並び順で複数の組み合わせを表示してもよい。なお、並び順は、画面300上に提供されているソートボタンが押下されることで、利用者が優先する条件に従って変更されてもよい。
例えば、第1の評価情報が値が高いほど良い指標、例えば、F値など、である場合には、サービス提供装置5は、より高い第1の評価情報を含む組み合わせほど、より高い優先順位を割り当てても良い。また、第1の評価情報が値が低いほど良い指標である場合には、サービス提供装置5は、より低い第1の評価情報を含む組み合わせほど、より高い優先順位を割り当てても良い。なお、図13には、第1の評価情報が高い学習済みモデルを優先的に表示した例が示されている。
さらに、複数の検査画像が取得され、且つ、第1の評価情報が値が高いほど良い指標で
ある場合には、サービス提供装置5は、複数の学習済みモデルの各々毎に、より高い第1の評価情報に対応する1つ以上の結果画像を選択してもよい。また、複数の検査画像が取得され、且つ、第1の評価情報が値が低いほど良い指標である場合には、サービス提供装置5は、複数の学習済みモデルの各々毎に、より低い第1の評価情報に対応する1つ以上の結果画像を選択してもよい。なお、結果画像の選択基準は、画面300上に提供されているソートボタンと連動していてもよい。
また、サービス提供装置5は、複数の学習済みモデルの利用頻度に基づいて、複数の組み合わせに対して優先順位を割り当てもよく、さらに、優先順位に従った並び順で複数の組み合わせを表示してもよい。ここで、複数の組み合わせの各々は、互いに対応する学習済みモデルと少なくとも1つの第2の画像と少なくとも1つの第1の評価情報との組み合わせである。なお、利用頻度は、例えば、図3のステップS6のモデル提供要求の回数で代用されてもよい。
システム1が本実施形態に係る評価支援処理を行うことによっても、第1の実施形態と同様に、複数の結果画像が出力される。このため、利用者は、各結果画像が示す認識結果と利用者自身の評価基準に従った認識結果との差異を確認することで、利用者の目的に対する各学習済みモデルの適合具合を把握することができる。
さらに、本実施形態では、複数の結果画像とともに複数の第1の評価情報が出力される。このため、複数の第1の評価情報によって複数の学習済みモデルを定量的に比較して評価することができる。検査ラベル情報は、利用者が利用者の評価基準で正解とした領域の情報であるから、検査ラベル情報に基づいて学習済みモデルを評価した第1の評価情報は、利用者が自身の目的下で学習済みモデルを使用した場合におけるその学習済みモデルの性能と強い相関があると考えられる。従って、本実施形態によれば、第1の実施形態よりも容易に利用者の目的に適う学習済みモデルを特定することが可能である。さらに、第1の評価情報に基づく優先順位に従って複数の結果画像が出力されることで、利用者の目的に適う学習済みモデルの特定に要する時間を短縮することができる。このように、本実施形態に係る評価支援方法によっても、他者が構築した学習済みモデルを利用者自身の基準で評価することを支援することができる。
[第3の実施形態]
図14は、本実施形態に係る評価支援処理のフローチャートである。図15は、参照画像90の生成手順を説明するための図である。図16は、学習済みモデル一覧画面の更に別の例を示す図である。図17は、学習済みモデル詳細画面の一例を示す図である。なお、図14に示す処理は、例えば、サービス提供装置5が所定のプログラムを実行することによって行われる。
サービス提供装置5は、図14に示す処理を開始すると、利用装置6から提供された、学習済みモデルに求める条件と検査画像50を取得する(ステップS31)。その後、サービス提供装置5は、複数の学習済みモデル10を取得し(ステップS32)、複数の第1の識別情報を生成し(ステップS33)、複数の結果画像を生成する(ステップS34)。つまり、学習済みモデル毎に、第1の識別情報と結果画像を生成する。なお、ステップS31からステップS34の処理は、図7のステップS11からステップS14の処理と同様である。
さらに、サービス提供装置5は、複数のサンプル画像を取得する(ステップS35)。複数のサンプル画像の各々は、ステップS32で取得した複数の学習済みモデルのうちの対応する学習済みモデルの訓練過程で使用された画像である第3の画像の一例である。即ち、ステップS35は、複数の第3の画像を取得する工程の一例である。サンプル画像は
、学習済みモデルとともに予めデータベースに登録されている。なお、ステップS35では、学習済みモデル毎に、少なくとも1つのサンプル画像を取得すればよく、学習済みモデル毎に複数のサンプル画像を取得してもよい。以降では、学習済みモデル毎に1つのサンプル画像を取得した場合を例に説明する。
複数のサンプル画像を取得すると、サービス提供装置5は、複数の第2の識別情報を生成する(ステップS36)。ここでは、サービス提供装置5は、図15に示すように、ステップS32で取得した複数の学習済みモデル10(学習済みモデル11、学習済みモデル12、学習済みモデル13)の各々に、ステップS35で取得した複数のサンプル画像(サンプル画像21、サンプル画像22、サンプル画像23)のうちの対応するサンプル画像を適用することによって、複数の第2の識別情報(第2の識別情報81、第2の識別情報82、第2の識別情報83)を生成する。なお、この例では、複数の第2の識別情報の各々は、対応する学習済みモデル10によって陽性領域として推定された領域を識別する情報である。第2の識別情報は、サンプル画像と同数だけ生成される。
その後、サービス提供装置5は、複数の参照画像を生成する(ステップS37)。複数の参照画像の各々は、複数の学習済みモデルのうちの対応する学習済みモデルによる複数の第3の画像のうちの対応する第3の画像の処理結果である第4の画像の一例である。即ち、ステップS37は、複数の第4の画像を生成する工程の一例である。ここでは、サービス提供装置5は、図15に示すように、ステップS36で生成した複数の第2の識別情報の各々をステップS35で取得したサンプル画像のうちの対応するサンプル画像に重畳することによって、複数の参照画像(参照画像91、参照画像92、参照画像93)を生成する。
最後に、サービス提供装置5は、複数の結果画像と複数の参照画像を出力する(ステップS38)。ここでは、サービス提供装置5は、ステップS34で生成した複数の結果画像の各々を、ステップS32で選択した複数の学習済みモデル10のうちの対応する学習済みモデル10と、ステップS37で生成した複数の参照画像のうちの対応する参照画像に関連付けて出力する。具体的には、サービス提供装置5は、図16に示す画面400を利用装置6に送信し、利用装置6の表示装置6aに画面400を表示させる。画面400は、評価支援システムの学習済みモデル一覧画面であり、複数の学習済みモデル10を用いて生成された複数の結果画像と複数の参照画像を並べて表示する画面である。
図16に示す画面400には、モデル条件欄401の下側に、学習済みモデルの識別情報(モデルID)とメタデータ(作成者、細胞種、方法)と結果画像と参照画像の組み合わせが、ステップS32で選択された学習済みモデルの数だけ並べて表示されている。即ち、ステップS38は、複数の学習済みモデルの各々を、複数の第2の画像のうちの対応する第2の画像と、複数の第4の画像のうちの対応する第4の画像に関連付けて表示する工程の一例である。組み合わせの並び順は、学習済みモデルの利用者が求める条件への合致度に基づいて決定されてもよい。なお、並び順は、画面400上に提供されているソートボタンが押下されることで、利用者が優先する条件に従って変更されてもよい。
システム1が本実施形態に係る評価支援処理を行うことによっても、第1の実施形態と同様に、複数の結果画像が出力される。このため、利用者は、各結果画像が示す認識結果と利用者自身の評価基準に従った認識結果との差異を確認することで、利用者の目的に対する各学習済みモデルの適合具合を把握することができる。
さらに、本実施形態では、複数の結果画像とともに複数の参照画像が出力される。複数の参照画像は、サンプル画像に第2の識別情報を重畳した画像である。サンプル画像は、モデル提供者自身が選択したサンプル画像であるから、参照画像を確認することで、利用
者は、モデル提供者がどのようなサンプルに対する学習済みモデルの構築を狙ったのかを把握することができる。さらに、第2の識別情報は、モデル提供者がモデル提供者の評価基準で正解とした領域の情報を用いて訓練した学習済みモデルの出力結果であるから、参照画像を確認することで、利用者は、モデル提供者がどのような判断基準で学習済みモデルを訓練したのかを把握することができる。このように、利用者は、参照画像を確認することでモデル提供者の狙いを把握することができるため、利用者の目的に対する学習済みモデルの適合具合を予想する材料として参照画像を利用することができる。従って、本実施形態によれば、偶然に利用者の認識に近い結果を示す結果画像を生成した学習済みモデルを選択してしまうことを避けることができるため、第1の実施形態よりも高い精度で、利用者の目的に適う学習済みモデルを特定することが可能である。
なお、本実施形態では、ステップS35で取得するサンプル画像は、検証画像であることが望ましい。サンプル画像として検証画像を取得することで、訓練画像を取得した場合に比べて、学習済みモデルの性能をより公平に評価することが可能となるからである。
また、本実施形態では、ステップS36で第2の識別情報を生成する例を示したが、ステップS36では、予め生成された第2の識別情報を取得してもよい。第2の識別情報は、データベースに登録されている学習済みモデルとサンプル画像から生成可能であり、利用者からの要求がサービス提供装置5に入力される前に生成することができるからである。なお、第2の識別情報は、サービス提供装置5がモデルの受け入れ時に生成してもよく、モデル受け入れ後の任意のタイミングで生成されてもよい。また、第2の識別情報は、サービス提供装置5ではなくモデル提供装置で生成されてもよく、モデル提供時に、学習済みモデルなどとともにサービス提供装置5にアップロードされてもよい。予め生成された第2の識別情報を利用することで、利用者の要求に対してより高速に応答することが可能となる。
また、本実施形態では、画面400上に提供されている詳細ボタンが押下されることで、例えば、図17に示す画面500がサービス提供装置5から出力されてもよい。画面500は、評価支援システムの学習済みモデル詳細画面であり、選択された学習済みモデル10についてのより詳しい情報を表示する画面である。
図17に示す画面500には、モデル条件欄501及びモデル情報欄502の下側に、複数のタブ(タブ510、タブ520、タブ530、タブ540、タブ550)が設けられている。図17には、タブ510が選択された状態が示されていて、学習済みモデルの構築に使用された複数のサンプル画像(サンプル画像21、サンプル画像24、サンプル画像25)と対応する複数の第2の識別情報(第2の識別情報81、第2の識別情報84、第2の識別情報85)が表示されている。さらに、第2の評価情報として、再現率、適合率、F値などの主要な評価指標も表示されている。これらを参照することで、利用者は、モデル提供者の狙いをよりよく把握することができる。
なお、タブ520が選択されることで、学習済みモデルに検査画像を適用することで得られる種々の情報が表示される。タブ530が選択されることで、細胞情報及び撮影情報の詳細が表示される。タブ540が選択されることで、染色情報及び判定条件の詳細が表示される。タブ550が選択されることで、学習条件の詳細が表示される。
[第4の実施形態]
図18は、本実施形態に係る評価支援処理のフローチャートである。図19及び図20は、学習済みモデル一覧画面の更に別の例を示す図である。図21は、評価情報の生成方法について説明するための図である。なお、図18に示す処理は、例えば、サービス提供装置5が所定のプログラムを実行することによって行われる。
サービス提供装置5は、図18に示す処理を開始すると、利用装置6から提供された、学習済みモデルに求める条件と検査画像50と検査ラベル情報を取得する(ステップS41)。その後、サービス提供装置5は、複数の学習済みモデル10を取得し(ステップS42)、複数の第1の識別情報を生成し(ステップS43)、複数の結果画像を生成し(ステップS44)、複数の第1の評価情報を生成する(ステップS45)。つまり、学習済みモデル毎に、第1の識別情報と結果画像と第1の評価情報を生成する。なお、ステップS41からステップS45の処理は、図12のステップS21からステップS25の処理と同様である。
さらに、サービス提供装置5は、複数のサンプル画像と複数のサンプルラベル情報を取得する(ステップS46)。複数のサンプル画像の各々は、ステップS42で取得した複数の学習済みモデルのうちの対応する学習済みモデルの訓練過程で使用された画像である。また、複数のサンプルラベル情報の各々は、複数のサンプル画像の各々に含まれる陽性領域又は陰性領域である正解領域を識別する情報である。サンプルラベル情報は、学習済みモデルとサンプル画像とともに予めデータベースに登録されている。なお、ステップS46では、学習済みモデル毎に、少なくとも1つのサンプル画像とサンプルラベル情報の組み合わせを取得すればよく、学習済みモデル毎に複数のサンプル画像とサンプルラベル情報の組み合わせを取得してもよい。以降では、学習済みモデル毎に1つのサンプル画像とサンプルラベル情報の組み合わせを取得した場合を例に説明する。
複数のサンプル画像と複数のサンプルラベル情報とを取得すると、サービス提供装置5は、複数の第2の識別情報を生成し(ステップS47)、複数の参照画像を生成する(ステップS48)。なお、ステップS47及びステップS48の処理は、図14のステップS36及びステップS37の処理と同様である。
その後、サービス提供装置5は、複数の第2の評価情報を生成する(ステップS49)。複数の第2の評価情報の各々は、ステップS47で生成された複数の第2の識別情報の各々と、ステップS46で取得した複数のサンプルラベル情報の各々と、に基づいて生成される。
なお、第2の評価情報は、サンプルラベル情報に基づいて学習済みモデル10を定量的に評価した情報である点を除き、第1の評価情報と同様である。即ち、第2の評価情報は、例えば、適合率、再現率、F値、特異度、正確度などであってもよく、偽陰性率、偽陽性率などであってもよい。また、第2の評価情報は、単一の指標に限らず、上述した複数の指標の任意の組み合わせであってもよい。
ステップS49では、サービス提供装置5は、まず、ともに画像上の領域を特定する情報であるサンプルラベル情報と第2の識別情報とを比較することで、真陽性、偽陽性、偽陰性、真陰性のそれぞれに対応する領域を特定する。これらの領域が特定されると、サービス提供装置5は、これらの領域の面積を用いて第2の評価情報を算出する。
なお、学習済みモデル毎に、少なくとも1つのサンプル画像を取得すればよく、学習済みモデル毎に複数のサンプル画像を取得してもよい。学習済みモデル毎に複数のサンプル画像を取得した場合、学習済みモデル毎に、複数のサンプル画像に対応する複数のサンプルラベル情報から算出された複数の第2の評価情報の値に加えて、複数の第2の評価情報の代表値を算出してもよい。代表値としては、例えば平均値であってもよく、中央値であってもよい。
最後に、サービス提供装置5は、複数の結果画像と複数の第1の評価情報と複数の第2
の評価情報を出力する(ステップS50)。ここでは、サービス提供装置5は、ステップS44で生成した複数の結果画像の各々を、ステップS42で選択した複数の学習済みモデル10のうちの対応する学習済みモデル10と、ステップS45で生成した複数の第1の評価情報のうちの対応する第1の評価情報と、ステップS48で生成した複数の参照画像のうちの対応する参照画像と、ステップS49で生成した複数の第2の評価情報のうちの対応する第2の評価情報と、に関連付けて出力する。具体的には、サービス提供装置5は、図19に示す画面600を利用装置6に送信し、利用装置6の表示装置6aに画面600を表示させる。画面600は、評価支援システムの学習済みモデル一覧画面であり、複数の学習済みモデル10を用いて生成された複数の結果画像と複数の参照画像を、複数の結果画像に関する複数の第1の評価情報と複数の参照画像に関する複数の第2の評価情報とともに、並べて表示する画面である。
複数の検査画像が取得された場合、複数の学習済みモデル10の各々について、複数の結果画像が生成される。その場合、学習済みモデル10毎に、1つ以上の結果画像を表示してもよい。また、複数の学習済みモデルの各々について、複数の検査画像から算出された複数の第1の評価情報と、それら複数の第1の評価情報の代表値とをもとに、表示する結果画像を1つ以上選択してもよい。例えば、検査画像毎に算出されるF値の高いほうから1つ以上選択し、選択した1つ以上のF値に対応する1つ以上の結果画像を表示してもよい。また、例えば、複数の第1の評価情報の代表値に最も近い第1の評価情報に対応した1つ以上の結果画像を選択し、選択した1つ以上の結果画像を表示してもよい。
複数の学習済みモデル10の各々について、複数のサンプル画像と複数のサンプルラベル情報が存在する場合、サンプル画像とサンプルラベル情報の組合わせ毎に参照画像が生成される。その結果、学習済みモデル10毎に、複数の参照画像が生成される。その場合、学習済みモデル10毎に、1つ以上の参照画像を表示してもよい。また、複数の学習済みモデル10の各々について、複数のサンプル画像から算出された複数の第2の評価情報と、それら複数の第2の評価情報の代表値とをもとに、表示する参照画像を1つ以上選択してもよい。例えば、サンプル画像毎に算出されたF値の高いほうから1つ以上選択し、選択した1つ以上のF値に対応する参照画像を表示してもよい。また、例えば、複数の第2の評価情報の代表値に最も近い第2の評価情報に対応した1つ以上の参照画像を選択し、選択した1つ以上の参照画像を表示してもよい。
図19に示す画面600には、モデル条件欄601の下側に、学習済みモデルの識別情報(モデルID)とメタデータ(作成者、細胞種、方法)と結果画像と第1の評価情報(スコア)と参照画像と第2の評価情報(スコア)の組み合わせが、ステップS42で選択された学習済みモデルの数だけ並べて表示されている。なお、ステップS50には、複数の第1の評価情報と複数の第2の評価情報に基づいて複数の組み合わせに対して優先順位を割り当てる工程が含まれてもよく、優先順位に従って複数の結果画像の各々を、対応する学習済みモデルと対応する第1の評価情報と対応する参照画像と対応する第2の評価情報に関連付けて出力してもよい。即ち、画面600における組み合わせの並び順は、割り当てられた優先順位に従って決定されてもよい。なお、並び順は、画面600上に提供されているソートボタンが押下されることで、利用者が優先する条件に従って変更されてもよい。
例えば、第1の評価情報と第2の評価情報がF値などの値が高いほど良い指標である場合には、サービス提供装置5は、より高い第1の評価情報と第2の評価情報を含む組み合わせほど、より高い優先順位を割り当てても良い。また、第1の評価情報と第2の評価情報が値が低いほど良い指標である場合には、サービス提供装置5は、より低い第1の評価情報と第2の評価情報を含む組み合わせほど、より高い優先順位を割り当てても良い。
なお、学習済みモデル毎に複数の第2の評価情報が生成されている場合には、学習済みモデル毎に最も高い値を示す第2の評価情報に基づいて優先順位を決定してもよく、その場合、図19に示すように、学習済みモデル毎に最も高い値を示す第2の評価情報に対応する参照画像を画面600に表示してもよい。
また、学習済みモデル毎に複数の第2の評価情報が生成されている場合には、学習済みモデル毎に最も低い値を示す第2の評価情報に基づいて優先順位を決定してもよく、その場合、図20に示すように、学習済みモデル毎に最も低い値を示す第2の評価情報に対応する参照画像を画面600に表示してもよい。これにより、利用者は、学習済みモデル毎に最も出来の悪い結果に基づいて学習済みモデルを評価することが可能となるため、偶然に得られた良い結果に基づいて誤った評価を行うことを回避することができる。
なお、学習済みモデル毎に最もよい結果と最も悪い結果のどちらを表示するかについては、例えば、参照画像の近く設けられたラジオボタンによって利用者の選択によって切り替えられてもよい。また、学習済みモデル毎に複数の第1の評価情報が生成されている場合、つまり、複数の検証画像が提供されている場合には、結果画像についても参照画像と同様に、最も良い結果と最も悪い結果を切り替えて表示してもよい。また、最も良い結果と最も悪い結果に加えて、これらの間の中間的な結果を表示するように選択可能であってもよい。中間的な結果で評価を行うことで偶然に左右されずに公平な評価を行うことができる。
システム1が本実施形態に係る評価支援処理を行うことによっても、第1の実施形態と同様に、複数の結果画像が出力される。このため、利用者は、各結果画像が示す認識結果と利用者自身の評価基準に従った認識結果との差異を確認することで、利用者の目的に対する各学習済みモデルの適合具合を把握することができる。
また、本実施形態では、第2の実施形態と同様に、複数の結果画像とともに複数の第1の評価情報が出力される。このため、利用者は、複数の第1の評価情報によって複数の学習済みモデルを定量的に比較して評価することが可能であり、より容易に利用者の目的に適う学習済みモデルを特定することが可能である。
また、本実施形態では、第3の実施形態と同様に、複数の結果画像とともに複数の参照画像が出力される。このため、利用者は、参照画像を確認することでモデル提供者の狙いを把握することができるため、より高い精度で、利用者の目的に適う学習済みモデルを特定することができる。
さらに、本実施形態では、複数の第1の評価情報とともに複数の第2の評価情報が出力
される。このため、第1の評価情報と第2の評価情報を比較することで、第1の評価情報の信頼性を評価することができるため、より高い精度で、利用者の目的に適う学習済みモデルを特定することができる。
第4の実施形態では、第1の評価情報と第2の評価情報の両方を生成する例を示したが、第2の評価情報のみを生成し、出力してもよい。その場合、第2の評価情報に基づいて割り当てた優先順位に従って結果画像を含む学習済みモデルに関連する情報を出力してもよい。また、第2の実施形態と第4の実施形態では、生成した評価情報を表示装置6aに
表示する例を示したが、評価情報は必ずしも表示されなくてもよく、例えば、優先順位の決定にのみ使用されてもよい。
また、第2の実施形態と第4の実施形態では、図21に示すように、検査画像50に含まれる陽性領域又は陰性領域をもれなく識別した検査ラベル情報L1を第1の識別情報と
比較することで、第1の評価情報を算出する例を示した。しかしながら、検査画像50に含まれる陽性領域又は陰性領域をもれなく指定する作業は、利用者に大きな負担を強いる可能性がある。このため、例えば、図21に示すような、検査画像50に含まれる陽性領域と陰性領域の少なくとも一方を部分的に識別した検査ラベル情報L2を第1の識別情報と比較することで、第1の評価情報を算出してもよい。このような検査ラベル情報L2を用いることで、利用者の作業負担を大幅に軽減することが可能となる。また、利用者は、学習済みモデルの評価に直結するような重要な部分(例えば、絶対に判断を誤って欲しくない部分、特に判断が難しい部分など)のみを指定することによって検査ラベル情報L2を生成してもよい。これにより、第1の評価情報が比較的重要度の低い情報によって希釈化されることないため、第1の評価情報に基づいてより適切な評価を行うことが可能となる。なお、図21では、検査ラベル情報について例示したが、サンプルラベル情報についても、サンプル画像に含まれる陽性領域と陰性領域の少なくとも一方を部分的に識別したサンプルラベル情報が用いられてもよい。この場合、モデル提供者の負担を大幅に軽減することができる。
また、以上の実施形態では、複数の学習済みモデルを比較して評価する例を示したが、サービス提供装置5は、1つの学習済みモデルに対する評価を支援してもよい。即ち、サービス提供装置5は、1つの学習済みモデルに対応する結果画像と参照画像を出力してもよい。結果画像と参照画像を関連付けて出力することで、利用者は、モデル提供者の狙いと、各結果画像が示す認識結果と利用者自身の評価基準に従った認識結果との差異と、を確認することで、利用者の目的に対する各学習済みモデルの適合具合を把握することができる。
以上では、利用装置6が学習済みモデルを評価することを支援するサービスをサービス提供装置5が提供する例を示したが、サービス提供装置5が提供するサービスは、この例に限らない。サービス提供装置5は、モデル提供装置が学習済みモデルを評価することを支援するサービスを提供してもよい。以降では、モデル提供装置が学習済みモデルをサービス提供装置5に仮登録し、サービス提供装置5が提供するサービスを利用して仮登録した自身の学習済みモデルを評価する例について説明する。なお、仮登録とは、一般に公開しない形で学習済みモデルをサービス提供装置5のデータベースに登録することをいう。これにより、モデル提供装置は、一般に公開する前に、自身の学習済みモデルを評価することができる。
図22は、システム1が提供するサービスを説明するためのシーケンス図の別の例である。図23は、利用装置が提供するデータを説明するための図である。以下、図22及び図23を参照しながら、システム1が行う学習済みモデルの評価支援方法について説明する。
システム1では、まず、利用装置6がテスト画像170をサービス提供装置5に提供する(ステップS51)。サービス提供装置5は、受け入れ条件として、テスト画像170とともにテストラベル情報180とメタデータ190を提供することを利用装置6に予め要求している。このため、ステップS51では、利用装置6は、受け入れ条件に従って、図23に示すように、テスト画像170とテストラベル情報180とメタデータ190を、サービス提供装置5に提供する。テスト画像170とテストラベル情報180は、テストデータセットを構成する。
なお、テスト画像170は、学習済みモデルの性能評価のために用意された第1の画像の一例である。利用装置6の利用者は、未知の学習済みモデルの性能評価のためにテスト画像170をサービス提供装置5に提供することで、自身の提供したデータ(テスト画像)に適した学習済みモデルがサービス提供装置5に供給される可能性を高めることができ
る。
利用装置6によって提供されるテストラベル情報180は、テスト画像170の入力に対する出力としての正解を示す情報である。つまり、テストラベル情報180は、例えば、テスト画像170に含まれる陽性領域又は陰性領域である正解領域を識別する識別情報である。
利用装置6によって提供されるメタデータ190は、サービス提供装置5が学習済みモデルの評価のために使用するテストデータを選択する際に利用される。メタデータ190としては、テスト画像170が細胞の画像の場合であれば、例えば、細胞種、細胞の入手経路、遺伝子導入の有無、培養条件などが含まれ得る。また、テスト画像170を取得した装置の情報である撮像条件、画像サイズ、画像枚数なども含まれ得る。さらに、試薬・染色の使用の有無、試薬・染色条件の情報、陽性又は陰性領域を判断する基準、画像の作成者情報などを含んでもよい。
モデル提供装置からテスト画像170が提供されると、サービス提供装置5は、提供されたテスト画像170を受け入れる(ステップS52)。ここでは、サービス提供装置5は、テスト画像170とともに、テストラベル情報180とメタデータ190を受け入れて、非一過性のコンピュータ読取可能記憶媒体に構築されたデータベースに登録する。
ステップS51の画像提供処理が複数の利用装置によって行われることで、サービス提供装置5には、多数のテスト画像170が登録される。
その後、モデル提供装置は、学習済みモデルを評価するために、学習済みモデルをサービス提供装置5に提供する(ステップS53)。なお、ステップS53の処理は、図3のステップS1の処理と同様である。
モデル提供装置から学習済みモデルが提供されると、サービス提供装置5は、提供された学習済みモデルを受け入れる(ステップS54)。ここでは、サービス提供装置5は、学習済みモデル10とともに、教師データセットとメタデータ40を受け入れて、非一過性のコンピュータ読取可能記憶媒体に構築されたデータベースに、一般には公開されない形で登録する。なお、ステップS54の処理は、学習済みモデル10が一般には公開されない形で登録される、つまり、仮登録される点を除き、図3のステップS2の処理と同様である。
その後、モデル提供装置は、サービス提供装置5に提供した学習済みモデルを評価するために、画像条件をサービス提供装置5に提供する(ステップS55)。画像条件は、学習済みモデルの評価に使用するテスト画像170に求める条件である。
画像条件がモデル提供装置から提供されると、サービス提供装置5は、モデル評価支援情報を生成する(ステップS56)。ここでは、サービス提供装置5は、画像条件に基づいてデータベースに登録されているメタデータを検索し、モデル提供装置が求める条件に合う複数のテスト画像170を抽出する。さらに、サービス提供装置5は、モデル提供装置から提供された学習済みモデルにテスト画像を適用することで、テスト画像に対する複数のテスト結果を含むモデル評価支援情報を生成する。なお、モデル評価支援情報は、モデル提供装置による学習済みモデルの評価を支援するための情報である。
モデル評価支援情報を生成したサービス提供装置5は、モデル評価支援情報をモデル提供装置に提供する(ステップS57)。その後、モデル提供装置の利用者、つまり、モデル提供者は、モデル提供装置の表示装置に表示されたモデル評価支援情報を参照すること
で、自身の学習済みモデルの性能を評価する。
以上のように、システム1では、サービス提供装置5は、学習済みモデルに複数のテスト画像を適用することで複数のテスト結果を生成し、それらのテスト結果をモデル提供装置に提供する。これにより、モデル提供者は、複数のテスト結果を参照することで、自身の学習済みモデルの性能を評価することができる。以下、各実施形態において、図22のステップS55からステップS57の工程の具体例について詳細に説明する。
[第5の実施形態]
図24は、本実施形態に係る評価支援処理のフローチャートである。図25は、テスト結果一覧画面の一例を示す図である。なお、図24に示す処理は、例えば、サービス提供装置5が所定のプログラムを実行することによって行われる。
サービス提供装置5は、図24に示す処理を開始するとモデル提供装置から提供された画像条件を取得する(ステップS61)。ここでは、例えばサービス提供装置5が提供するWebサイトにモデル提供装置がアクセスすることによって、サービス提供装置5は、画像データ入力画面をモデル提供装置に送信し、モデル提供装置の表示装置に画像データ入力画面を表示させる。そして、入力画面にモデル提供者によって入力された画像条件をモデル提供装置がサービス提供装置5に送信することで、サービス提供装置5が画像条件を取得する。なお、以降では、サービス提供装置5が画像条件として“ヒト、乳がん、○○領域”を取得した場合を例に説明する。
次に、サービス提供装置5は、複数のテスト画像170を選択し、取得する(ステップS62)。ここでは、サービス提供装置5は、ステップS51で取得した画像条件に基づいて、テスト画像170に付随してデータベースに予め登録されているメタデータ190を検索する。そして、利用者が求める条件に合う複数のテスト画像170を抽出する。即ち、ステップS62は、学習済みモデルの性能評価に用いられる複数の第1の画像を取得する工程である。
複数のテスト画像170を取得すると、サービス提供装置5は、複数の第3の識別情報を生成する(ステップS63)。ここでは、サービス提供装置5は、ステップS62で取得した複数のテスト画像170の各々をステップS54で受け入れた学習済みモデル10に適用することによって、複数のテスト画像170に対応する複数の第3の識別情報を生成する。第3の識別情報は、ステップS62で取得したテスト画像170と同数だけ生成される。なお、この例では、複数の第3の識別情報の各々は、学習済みモデル10によって陽性領域として推定された領域を識別する情報である。
その後、サービス提供装置5は、複数のテスト結果画像710を生成する(ステップS64)。なお、テスト結果画像710は、学習済みモデルによるテスト画像170の処理結果である第2の画像の一例である。ここでは、サービス提供装置5は、ステップS63で生成した複数の第3の識別情報の各々をステップS62で取得したテスト画像170に重畳することによって、複数のテスト結果画像710(テスト結果画像711、テスト結果画像712、テスト結果画像713)を生成する。
最後に、サービス提供装置5は、複数のテスト結果画像を出力する(ステップS65)。ここでは、サービス提供装置5は、ステップS64で生成した複数のテスト結果画像の各々をステップS54で受け入れた学習済みモデル10に関連付けて出力する。具体的には、サービス提供装置5は、図25に示す画面700をモデル提供装置に送信し、モデル提供装置の表示装置に画面700を表示させる。即ち、ステップS65は、学習済みモデルを複数の第2の画像に関連付けて表示する工程である。画面700は、評価支援システ
ムのテスト結果一覧画面であり、複数のテスト画像170を用いて生成された複数のテスト結果画像710を並べて表示する画面である。
図25に示す画面700には、学習済みモデルの情報を表示するモデル欄701と、画像条件の情報を表示する画像条件欄702の下側に、テスト画像の識別情報(データID)とメタデータ(作成者、細胞種、方法)とテスト結果画像の組み合わせが、ステップS62で選択されたテスト画像の数だけ並べて表示されている。組み合わせの並び順は、学習済みモデルの提供者が求める条件への合致度に基づいて決定されてもよい。また、並び順は、画面700上に提供されているソートボタンが押下されることで、モデル提供者が優先する条件に従って変更されてもよい。
以上のように、システム1が本実施形態に係る評価支援処理を行うことで、第3者によって提供された複数のテスト画像に対するテスト結果が複数のテスト結果画像として出力される。このため、モデル提供者は、複数のテスト結果画像を参照することで、自身の学習済みモデルを客観的に評価することができる。従って、本実施形態に係る評価支援方法によれば、自身が構築した学習済みモデルの性能を第3者のデータを用いて検証して客観的に評価することができる。
システム1は、ステップS65において、図25に示す画面700の代わりに、図26に示す画面800を出力してもよい。画面800は、テスト結果画像710(テスト結果画像711、テスト結果画像712、テスト結果画像713)の隣に、テスト画像170(テスト画像171、テスト画像172、テスト画像173)が表示されている点が、画面700とは異なる。即ち、ステップS65は、複数の第2の画像の各々を対応する第1の画像に関連付けて表示する工程である。
図26に示す画面800が表示されることで、モデル提供者は、各テスト画像に対するテスト結果をよりはっきり認識することが可能となるため、学習済みモデルのより適切な評価が可能となる。
[第6の実施形態]
図27は、本実施形態に係る評価支援処理のフローチャートである。図28は、テスト結果一覧画面の別の例を示す図である。なお、図27に示す処理は、例えば、サービス提供装置5が所定のプログラムを実行することによって行われる。
サービス提供装置5は、図27に示す処理を開始すると、モデル提供装置から提供された画像条件を取得する(ステップS71)。ステップS71の処理は、図24のステップS61の処理と同様である。
次に、サービス提供装置5は、複数のテスト画像170と複数のテストラベル情報180を選択し、取得する(ステップS72)。ここでは、サービス提供装置5は、テスト画像170とともにテスト画像170に関連付けて登録されているテストラベル情報180を取得する。ステップS72の処理は、テストラベル情報180を取得する点を除き、図24のステップS62の処理と同様である。
複数のテスト画像170を取得すると、サービス提供装置5は、複数の第3の識別情報を生成し(ステップS73)、複数のテスト結果画像710を生成する(ステップS74)。ステップS73及びステップS74の処理は、図24のステップS63及びステップS64の処理と同様である。
その後、サービス提供装置5は、複数の第3の評価情報を生成する(ステップS75)
。複数の第3の評価情報の各々は、ステップS73で生成された複数の第3の識別情報の各々と、ステップS72で取得した複数のテストラベル情報のうちの対応するテストラベル情報と、に基づいて生成される。つまり、サービス提供装置5は、テスト結果画像710毎に第3の評価情報を算出する。
なお、第3の評価情報は、第1の評価情報と同様に、例えば、適合率、再現率、適合率と再現率との調和平均であるF値である。その他、特異度、正確度などであってもよい。なお、第3の評価情報は、値が高いほど良いものに限らない点も、第1の評価情報と同様である。第3の評価情報は、例えば、偽陰性率、偽陽性率などであってもよい。また、第3の評価情報は、単一の指標に限らず、上述した複数の指標の任意の組み合わせであってもよい。
また、ステップS75では、サービス提供装置5は、複数の第3の評価情報に基づいて、複数の第3の評価情報の代表値を算出してもよい。代表値としては、例えば平均値であってもよく、中央値であってもよい。
最後に、サービス提供装置5は、複数のテスト結果画像と複数の第3の評価情報を出力する(ステップS76)。ここでは、サービス提供装置5は、ステップS74で生成した複数のテスト結果画像の各々をステップS54で受け入れた学習済みモデル10と、ステップS75生成した複数の第3の評価情報のうちの対応する第3の評価情報とに関連付けて出力する。具体的には、サービス提供装置5は、図28に示す画面900をモデル提供装置に送信し、モデル提供装置の表示装置に画面900を表示させる。
画面900は、テスト結果画像710(テスト結果画像711、テスト結果画像712、テスト結果画像713)の隣に、第3の評価情報であるスコアが表示されている点が、画面700とは異なる。
以上のように、システム1が本実施形態に係る評価支援処理を行うことで、第3者によって提供された複数のテスト画像に対するテスト結果が複数のテスト結果画像と複数のスコアとして出力される。このため、モデル提供者は、複数のテスト結果画像と複数のスコアを参照することで、自身の学習済みモデルを客観的に評価することができる。従って、本実施形態に係る評価支援方法によっても、自身が構築した学習済みモデルの性能を第3者のデータを用いて検証して客観的に評価することができる。特に、テスト結果画像ともにスコアが表示されることで、テスト結果画像を定量的に評価することができる。
システム1は、ステップS76において、図28に示す画面900の代わりに、図29に示す画面1000を出力してもよい。画面1000は、テスト結果画像710(テスト結果画像711、テスト結果画像712、テスト結果画像713)の隣に、テスト画像170(テスト画像171、テスト画像172、テスト画像173)と合成画像(合成画像1001、合成画像1002、合成画像1003)が表示されている点が、画面900とは異なる。なお、合成画像は、テスト画像上にテストラベル情報を重畳した画像である。
図29に示す画面1000が表示されることで、モデル提供者は、スコアの根拠となる情報が各テスト画像に対するテスト結果(テスト結果画像及びスコア)とともに表示されることで、学習済みモデルのより適切な評価が可能となる。
また、システム1は、ステップS76において、図28に示す画面900の代わりに、図30に示す画面1100を出力してもよい。画面1100は、テスト結果画像710(テスト結果画像711、テスト結果画像712、テスト結果画像713)の隣に、スコア(第3の評価情報)に加えて信頼度が表示されている点が、画面900とは異なる。なお
、信頼度は、学習済みモデルが生成したテスト結果画像の信頼度であり、より詳細には、学習済みモデルがテスト結果画像を生成するにあたり出力した第3の識別情報の信頼度のことである。
図30に示す画面1000が表示されることで、モデル提供者は、各テスト画像に対するテスト結果(テスト結果画像、スコア及び信頼度)をよりはっきり認識することが可能となるため、学習済みモデルのより適切な評価が可能となる。特に、スコアと信頼度を表示することで学習済みモデルをより詳細に評価することができる。例えば、同じ低いスコアを有するテスト結果画像を出力した場合であっても、高い信頼度で出力している場合と低い信頼度で出力している場合では、モデル提供者は、学習済みモデルの性能評価を異ならせることができる。
第5の実施形態と第6の実施形態では、学習済みモデル10が正解領域を識別する第3の識別情報720を出力し、第3の識別情報720をテスト画像170に重畳することでテスト結果画像710を生成する例を示したが、テスト結果画像の生成方法は、この例に限らない。例えば、図31に示すように、第3の識別情報720そのものをテスト結果画像として出力してもよい。また、図31に示すように、学習済みモデル10は、ヒートマップであるテスト結果画像730を生成してもよい。テスト結果画像730は、画像の各領域が正解領域である確率を信頼度として出力し、その信頼度を可視化することで生成されてもよい。なお、第1の実施形態から第4の実施形態に示す結果画像及び参照画像についても、識別情報を検査画像及びサンプル画像に重畳することにより生成された画像に限らず、識別情報そのものであってもよく、ヒートマップであってもよい。
また、上述した実施形態では、画像をピクセル単位でラベル付けするセグメンテーションタイプの学習済みモデルを例示したが、学習済みモデルは、セグメンテーションタイプに限らない。学習済みモデルは、図32に示すように、画像中のどこに何があるのかを特定するディテクションタイプの学習済みモデルであってもよい。図32には、内視鏡で取得した体腔内の画像であるテスト画像270を学習済みモデル10に入力して、画像中から腫瘍を検出する例が示されている。学習済みモデル10から出力されたテスト結果画像280には、腫瘍の位置を特定する枠281が表示されている。
また、学習済みモデルは、図33に示すように、画像を分類するクラシフィケーションタイプの学習済みモデルであってもよい。図33には、テスト画像270を学習済みモデル10に入力して、画像を確率付きで分類する例が示されている。学習済みモデル10は、分類情報291そのものをテスト結果画像として出力してもよく、分類情報291を画像に変換したテスト結果画像290を出力してもよい。また、各確率をグラフで表現したものをテスト結果画像として出力してもよい。具体的には、円グラフであてもよく、横軸に各種分類名称、縦軸に各分類の確率を記載したヒストグラムとしてもよい。
上述した実施形態では、静止画を扱う例を示したが、学習済みモデルは動画を扱ってもよい。画面に表示される各画像は動画であってもよい。例えば、動画中の特に重要な数秒程度の部分を繰り返し表示してもよい、また、動画は、画像表示領域をクリックすることによって開始されてもよく、例えば、クリック後、数秒など一定時間だけ動画が再生されてもよい。動画が表示されることで、臓器の蠕動運動、細胞の移動などある特定時間の前後の情報を反映しながら識別情報を参照することが可能となる。また、動画中の一部の画像を表示することとしても良く、具体的には、動画中の特定のフレームだけを抜き出して、静止画として表示してもよい。なお、動画を利用する場合は、あらかじめ動画を学習させた学習済みモデルを使用する。識別情報が移動するケースが想定される場合、ディテクションタイプの学習済みモデルを使用することが望ましい。
上述した実施形態は、発明の理解を容易にするための具体例を示したものであり、本発明の実施形態はこれらに限定されるものではない。上述した実施形態の一部を他の実施形態に適用しても良い。学習済みモデルの評価支援方法、評価支援システム、及び、プログラムは、特許請求の範囲の記載を逸脱しない範囲において、さまざまな変形、変更が可能である。
第5の実施形態及び第6の実施形態によれば、学習済みモデル提供者は、不特定多数の利用者に対して不必要に自らが作成した学習済みモデルの詳細を開示することなく、自身の学習済みモデルの評価が可能になる。また、第1の実施形態から第4の実施形態によれば、学習済みモデル利用者は、自身の取得した画像を不特定多数の利用者に対して不必要に公開することなく、所望の学習済みモデルの評価が可能になる。つまり、提供者と利用者ともに秘匿したい核心情報を公開することなく学習済みモデルの評価が可能となる。これにより、医療画像などのプライバシーを保護する必要がある画像に適した学習済みモデルの検索が可能になる。
上述した実施形態に関して、さらに以下の付記を開示する。
[付記1]
訓練済みの学習モデルの評価支援方法であって、
検査対象として入力された検査画像を取得する工程と、
複数の第1の識別情報を生成する工程であって、前記複数の第1の識別情報の各々は、複数の訓練済みの学習モデルの各々に前記検査画像を適用することによって生成され、前記複数の訓練済みの学習モデルの各々は、画像に含まれる陽性領域又は陰性領域であると推定した推定領域を識別する識別情報を出力するためのモデルである、という工程と、
複数の結果画像を生成する工程であって、前記複数の結果画像の各々は、前記複数の第1の識別情報の各々を前記検査画像に重畳することによって生成される、という工程と、
前記複数の結果画像の各々を前記複数の訓練済みの学習モデルのうちの対応する学習モデルに関連付けて出力する工程と、を含む
ことを特徴とする評価支援方法。
[付記2]
付記1に記載の評価支援方法において、さらに、
複数のサンプル画像を取得する工程であって、前記複数のサンプル画像の各々は、前記複数の訓練済みの学習モデルのうちの対応する学習モデルの訓練過程で使用された画像である、という工程と、
複数の第2の識別情報を生成する工程であって、前記複数の第2の識別情報の各々は、前記複数の訓練済みの学習モデルの各々に前記複数のサンプル画像のうちの対応するサンプル画像を適用することによって生成される、という工程と、
複数の参照画像を生成する工程であって、前記複数の参照画像の各々は、前記複数の第2の識別情報の各々を前記複数のサンプル画像のうちの対応するサンプル画像に重畳することによって生成される、という工程と、を含み、
前記複数の結果画像の各々を出力する工程は、前記複数の結果画像の各々を、前記対応する学習モデルと前記複数の参照画像のうちの対応する参照画像とに関連付けて出力する工程を含む
ことを特徴とする評価支援方法。
[付記3]
付記1に記載の評価支援方法において、さらに、
前記検査画像に含まれる前記陽性領域又は前記陰性領域である正解領域を識別する検査ラベル情報を取得する工程と、
複数の第1の評価情報を生成する工程であって、前記複数の第1の評価情報の各々は、前記複数の第1の識別情報の各々と前記検査ラベル情報とに基づいて生成される、という工程と、を含み、
前記複数の結果画像の各々を出力する工程は、前記複数の結果画像の各々を、前記対応する学習モデルと前記複数の第1の評価情報のうちの対応する第1の評価情報とに関連付けて出力する工程を含む
ことを特徴とする評価支援方法。
[付記4]
付記2に記載の評価支援方法において、さらに、
前記検査画像に含まれる前記陽性領域又は前記陰性領域である正解領域を識別する検査ラベル情報を取得する工程と、
複数のサンプルラベル情報を取得する工程であって、前記複数のサンプルラベル情報の各々は、前記複数のサンプル画像の各々に含まれる前記陽性領域又は前記陰性領域である正解領域を識別する情報である、という工程と、
複数の第1の評価情報を生成する工程であって、前記複数の第1の評価情報の各々は、前記複数の第1の識別情報の各々と前記検査ラベル情報とに基づいて生成される、という工程と、
複数の第2の評価情報を生成する工程であって、前記複数の第2の評価情報の各々は、前記複数の第2の識別情報の各々と前記複数のサンプルラベル情報の各々とに基づいて生成される、という工程と、を含み、
前記複数の結果画像の各々を出力する工程は、前記複数の結果画像の各々を、前記対応する学習モデルと、前記複数の参照画像のうちの対応する参照画像と、前記複数の第1の評価情報のうちの対応する第1の評価情報と、前記複数の第2の評価情報のうちの対応する第2の評価情報とに関連付けて出力する工程を含む
ことを特徴とする評価支援方法。
[付記5]
付記3に記載の評価支援方法において、さらに、
前記複数の第1の評価情報に基づいて複数の組み合わせに対して優先順位を割り当てる工程であって、前記複数の組み合わせの各々は、互いに対応する結果画像と第1の評価情報と学習モデルとの組み合わせである、という工程を含み、
前記複数の結果画像の各々を出力する工程は、前記優先順位に従って、前記複数の結果画像の各々を、前記対応する学習モデルと前記対応する第1の評価情報とに関連付けて出力する工程を含む
ことを特徴とする評価支援方法。
[付記6]
付記4に記載の評価支援方法において、さらに、
前記複数の第1の評価情報と前記複数の第2の評価情報に基づいて複数の組み合わせに対して優先順位を割り当てる工程であって、前記複数の組み合わせの各々は、互いに対応する結果画像と参照画像と第1の評価情報と第2の評価情報と学習モデルとの組み合わせである、という工程を含み、
前記複数の結果画像の各々を出力する工程は、前記優先順位に従って、前記複数の結果画像の各々を、前記対応する学習モデルと前記対応する参照画像と前記対応する第1の評価情報と前記対応する第2の評価情報とに関連付けて出力する工程を含む
ことを特徴とする評価支援方法。
[付記7]
付記3に記載の評価支援方法において、
入力された検査画像が複数であった場合に、複数の検査画像ごとに生成された第1の評価情報の高低に基づき、出力する結果画像を選別する
ことを特徴とする評価支援方法。
[付記8]
付記4に記載の評価支援方法において、
検証画像およびサンプル画像の入力が複数であった場合に、複数の検証画像およびサンプル画像ごとに生成された第1の評価情報および第2の評価情報の高低に基づき、出力す
る結果画像および参照画像を選別する
ことを特徴とする評価支援方法。
[付記9]
付記1乃至付記8のいずれか1つに記載の評価支援方法において、さらに、
予め登録された訓練済みの学習モデルに付随するメタデータに基づいて、前記予め登録された訓練済みの学習モデルから前記複数の訓練済みの学習モデルを選択する工程を含むことを特徴とする評価支援方法。
[付記10]
訓練済みの学習モデルの評価支援システムであって、
複数の訓練済みの学習モデルが格納された非一過性のコンピュータ読取可能記憶媒体と、
少なくとも1つのプロセッサと、を備え、
前記プロセッサは、
検査対象として入力された検査画像を取得する工程と、
複数の第1の識別情報を生成する工程であって、前記複数の第1の識別情報の各々は、複数の訓練済みの学習モデルの各々に前記検査画像を適用することによって生成され、前記複数の訓練済みの学習モデルの各々は、画像に含まれる陽性領域又は陰性領域であると推定した推定領域を識別する識別情報を出力するためのモデルである、という工程と、
複数の結果画像を生成する工程であって、前記複数の結果画像の各々は、前記複数の第1の識別情報の各々を前記検査画像に重畳することによって生成される、という工程と、
前記複数の結果画像の各々を前記複数の訓練済みの学習モデルのうちの対応する学習モデルに関連付けて出力する工程と、を行う
ことを特徴とする評価支援システム。
[付記11]
訓練済みの学習モデルの評価支援システムであって、
複数の訓練済みの学習モデルが格納された非一過性のコンピュータ読取可能記憶媒体と、
少なくとも1つのプロセッサと、を備え、
前記プロセッサは、
検査対象として入力された検査画像を取得する工程と、
複数のサンプル画像を取得する工程であって、前記複数のサンプル画像の各々は、前記複数の訓練済みの学習モデルのうちの対応する学習モデルの訓練過程で使用された画像である、という工程と、
複数の第1の識別情報を生成する工程であって、前記複数の第1の識別情報の各々は、複数の訓練済みの学習モデルの各々に前記検査画像を適用することによって生成され、前記複数の訓練済みの学習モデルの各々は、画像に含まれる陽性領域又は陰性領域であると推定した推定領域を識別する識別情報を出力するためのモデルである、という工程と、複数の第2の識別情報を生成する工程であって、前記複数の第2の識別情報の各々は、前記複数の訓練済みの学習モデルの各々に前記複数のサンプル画像のうちの対応するサンプル画像を適用することによって生成される、という工程と、
複数の結果画像を生成する工程であって、前記複数の結果画像の各々は、前記複数の第1の識別情報の各々を前記検査画像に重畳することによって生成される、という工程と、
複数の参照画像を生成する工程であって、前記複数の参照画像の各々は、前記複数の
第2の識別情報の各々を前記複数のサンプル画像のうちの対応するサンプル画像に重畳することによって生成される、という工程と、
前記複数の結果画像の各々を出力する工程は、前記複数の結果画像の各々を、前記対応する学習モデルと、前記複数の参照画像のうちの対応する参照画像とに関連付けて出力する工程と、を行う
ことを特徴とする評価支援システム。
[付記12]
付記10に記載の評価支援システムにおいて、さらに、
表示装置を備え、
前記表示装置は、前記プロセッサが関連付けて出力した互いに対応する結果画像と学習モデルとを表示する
ことを特徴とする評価支援システム。
[付記13]
付記12に記載の評価支援システムにおいて、さらに、
表示装置を備え、
前記表示装置は、前期プロセッサが関連付けて出力した互いに対応する結果画像および参照画像と学習モデルとを表示する
ことを特徴とする評価支援システム。
[付記14]
検査対象として入力された検査画像を取得する手順と、
複数の第1の識別情報を生成する手順であって、前記複数の第1の識別情報の各々は、複数の訓練済みの学習モデルの各々に前記検査画像を適用することによって生成され、前記複数の訓練済みの学習モデルの各々は、画像に含まれる陽性領域又は陰性領域であると推定した推定領域を識別する識別情報を出力するためのモデルである、という手順と、
複数の結果画像を生成する手順であって、前記複数の結果画像の各々は、前記複数の第1の識別情報の各々を前記検査画像に重畳することによって生成される、という手順と、
前記複数の結果画像の各々を前記複数の訓練済みの学習モデルのうちの対応する学習モデルに関連付けて出力する手順と、を
コンピュータに実行させることを特徴とするプログラム。
[付記15]
訓練済みの学習モデルの評価支援方法であって、
検査対象として入力された検査画像を取得する工程と、
訓練済みの学習モデルとサンプル画像を取得する工程であって、前記訓練済みの学習モデルは、画像に含まれる陽性領域又は陰性領域であると推定した推定領域を識別する識別情報を出力するためのモデルであり、前記サンプル画像は、前記訓練済みの学習モデルの訓練過程で使用された画像である、という工程と、
前記訓練済みの学習モデルに前記検査画像を適用することによって第1の識別情報を生成する工程と、
前記訓練済みの学習モデルに前記サンプル画像を適用することによって第2の識別情報を生成する工程と、
前記第1識別情報を前記検査画像に重畳することによって結果画像を生成する工程と、
前記第2識別情報を前記サンプル画像に重畳することによって参照画像を生成する工程と、
前記結果画像と前記参照画像を関連付けて出力する工程と、を備える
ことを特徴とする評価支援方法。
1 システム
2~4 モデル提供装置
5 サービス提供装置
5a プロセッサ
5b メモリ
5c 補助記憶装置
5d I/Oインタフェース
5e 媒体駆動装置
5f NWインタフェース
5g バス
5h 可搬記憶媒体
6 利用装置
10~13 学習済みモデル
20~25 サンプル画像
30 サンプルラベル情報
40、190 メタデータ
50 検査画像
61~63 第1の識別情報
71~73 結果画像
81~85 第2の識別情報
91~96 参照画像
170~173、270 テスト画像
180 テストラベル情報
280、290、710~713、730 テスト結果画像
720 第3の識別情報
L1、L2 検査ラベル情報
C 正解領域

Claims (18)

  1. 学習済みモデルの性能評価に用いられる第1の画像を取得する工程であって、前記第1の画像を含む複数の第1の画像を取得する工程を含む、という工程と、
    複数の第2の画像を生成する工程であって、前記複数の第2の画像の各々は、複数の学習済みモデルの各々による前記第1の画像の処理結果である、という工程と、
    複数の第1のラベル情報を取得する工程であって、前記複数の第1のラベル情報の各々は、前記複数の第1の画像の各々に対して期待する処理結果を示す、という工程と、
    前記複数の第2の画像に対応する複数の第1の評価情報を生成する工程であって、前記複数の第1の評価情報は、前記複数の第2の画像と前記複数の第1のラベル情報とに基づいて生成される、という工程と、
    前記複数の第2の画像を生成する工程と前記複数の第1の評価情報を生成する工程の両工程後に、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する第2の画像に関連付けて表示する工程と、を含み、
    記複数の第2の画像を生成する工程は、前記複数の第1の画像の各々に対して複数の第2の画像を生成する工程を含み、
    前記複数の学習済みモデルの各々を表示する工程は、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する少なくとも1つの第2の画像と、前記複数の第1の評価情報のうちの前記少なくとも1つの第2の画像に対応する少なくとも1つの第1の評価情報と、に関連付けて表示する工程を含む
    ことを特徴とする評価支援方法。
  2. 請求項1に記載の評価支援方法において、
    前記複数の学習済みモデルの各々を表示する工程は、前記複数の学習済みモデルの各々を、前記少なくとも1つの第2の画像と、前記少なくとも1つの第2の画像に対応する少なくとも1つの第1の画像と、に関連付けて表示する工程と、を含み、
    前記少なくとも1つの第1の画像は、前記複数の第1の画像に含まれる
    ことを特徴とする評価支援方法。
  3. 請求項1に記載の評価支援方法において、
    前記複数の学習済みモデルの各々を表示する工程は、前記複数の学習済みモデルの各々を、前記少なくとも1つの第2の画像と、前記複数の学習済みモデルのうちの対応する学習済みモデルに付随するメタデータと、に関連付けて表示する工程を含む
    ことを特徴とする評価支援方法。
  4. 請求項1に記載の評価支援方法において、さらに、
    前記複数の学習済みモデルに付随する複数のメタデータに基づいて、複数の組み合わせに対して優先順位を割り当てる工程であって、前記複数の組み合わせの各々は、互いに対応する学習済みモデルと少なくとも1つの第2の画像とメタデータとの組み合わせである、という工程を含み、
    前記複数の学習済みモデルの各々を表示する工程は、前記優先順位に従った並び順で前記複数の組み合わせを表示する工程を含む
    ことを特徴とする評価支援方法。
  5. 請求項1に記載の評価支援方法において、
    前記複数の学習済みモデルの各々を表示する工程は、前記複数の学習済みモデルの各々を、前記少なくとも1つの第2の画像と、前記少なくとも1つの第2の画像の各々の信頼度と、に関連付けて表示する工程を含む
    ことを特徴とする評価支援方法。
  6. 請求項1に記載の評価支援方法において、さらに、
    前記複数の第2の画像に対応する複数の信頼度に基づいて、複数の組み合わせに対して優先順位を割り当てる工程であって、前記複数の組み合わせの各々は、互いに対応する学習済みモデルと少なくとも1つの第2の画像と前記少なくとも1つの第2の画像の各々の信頼度との組み合わせである、という工程を含み、
    前記複数の学習済みモデルの各々を表示する工程は、前記優先順位に従った並び順で前記複数の組み合わせを表示する工程を含む
    ことを特徴とする評価支援方法。
  7. 請求項6に記載の評価支援方法において、
    前記優先順位を割り当てる工程は、組み合わせを構成する信頼度が低いほど前記組み合わせに高い優先順位を割り当てる工程を含む
    ことを特徴とする評価支援方法。
  8. 請求項1に記載の評価支援方法において、さらに、
    前記複数の第1の評価情報に基づいて、複数の組み合わせに対して優先順位を割り当てる工程であって、前記複数の組み合わせの各々は、互いに対応する学習済みモデルと少なくとも1つの第2の画像と少なくとも1つの第1の評価情報との組み合わせである、という工程を含み、
    前記複数の学習済みモデルの各々を表示する工程は、前記優先順位に従った並び順で前記複数の組み合わせを表示する工程を含む
    ことを特徴とする評価支援方法。
  9. 請求項1に記載の評価支援方法において、さらに、
    前記複数の学習済みモデルの利用頻度に基づいて、複数の組み合わせに対して優先順位を割り当てる工程であって、前記複数の組み合わせの各々は、互いに対応する学習済みモデルと少なくとも1つの第2の画像と少なくとも1つの第1の評価情報との組み合わせである、という工程を含み、
    前記複数の学習済みモデルの各々を表示する工程は、前記優先順位に従った並び順で前記複数の組み合わせを表示する工程を含む
    ことを特徴とする評価支援方法。
  10. 請求項1に記載の評価支援方法において、さらに、
    前記複数の第1の画像の各々に対して、前記複数の第2の画像から前記少なくとも1つの第2の画像を選別する工程を含む
    ことを特徴とする評価支援方法。
  11. 請求項1に記載の評価支援方法において、さらに、
    複数の第3の画像を取得する工程であって、前記複数の第3の画像の各々は、前記複数の学習済みモデルのうちの対応する学習済みモデルの訓練過程で使用された画像である、という工程と、
    複数の第4の画像を生成する工程であって、前記複数の第4の画像の各々は、前記複数の学習済みモデルのうちの対応する学習済みモデルによる前記複数の第3の画像のうちの対応する第3の画像の処理結果である、という工程と、
    前記複数の学習済みモデルの各々を表示する工程は、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する第2の画像と、前記複数の第4の画像のうちの対応する第4の画像に関連付けて表示する工程と、を含む
    ことを特徴とする評価支援方法。
  12. 請求項1乃至請求項11のいずれか1項に記載の評価支援方法において、
    前記複数の第2の画像の各々は、ヒートマップである
    ことを特徴とする評価支援方法。
  13. 請求項1乃至請求項12のいずれか1項に記載の評価支援方法において、さらに、
    学習済みモデルに付随するメタデータに基づいて、前記複数の学習済みモデルを選択する工程を含む
    ことを特徴とする評価支援方法。
  14. 請求項1に記載の評価支援方法において、
    前記学習済みモデルが、セグメンテーションタイプ、ディテクションタイプ、クラシフィケーションタイプのいずれかである
    ことを特徴とする評価支援方法。
  15. 学習済みモデルの評価支援システムであって、
    複数の学習済みモデルが格納された非一過性のコンピュータ読取可能記憶媒体と、
    少なくとも1つのプロセッサと、を備え、
    前記プロセッサは、
    学習済みモデルの性能評価に用いられる第1の画像を取得する工程であって、前記第1の画像を含む複数の第1の画像を取得する工程を含む、という工程と、
    複数の第2の画像を生成する工程であって、前記複数の第2の画像の各々は、前記複数の学習済みモデルの各々による前記第1の画像の処理結果である、という工程と、
    複数の第1のラベル情報を取得する工程であって、前記複数の第1のラベル情報の各々は、前記複数の第1の画像の各々に対して期待する処理結果を示す、という工程と、
    前記複数の第2の画像に対応する複数の第1の評価情報を生成する工程であって、前記複数の第1の評価情報は、前記複数の第2の画像と前記複数の第1のラベル情報とに基づいて生成される、という工程と、
    前記複数の第2の画像を生成する工程と前記複数の第1の評価情報を生成する工程の両工程後に、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する第2の画像に関連付けて表示する工程と、を行い、
    記複数の第2の画像を生成する工程は、前記複数の第1の画像の各々に対して複数の第2の画像を生成する工程を含み、
    前記複数の学習済みモデルの各々を表示する工程は、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する少なくとも1つの第2の画像と、前記複数の第1の評価情報のうちの前記少なくとも1つの第2の画像に対応する少なくとも1つの第1の評価情報と、に関連付けて表示する工程を含む
    ことを特徴とする評価支援システム。
  16. 請求項15に記載の評価支援システムにおいて、さらに、
    表示装置を備え、
    前記表示装置は、前記学習済みモデルの各々を、前記複数の第2の画像の内の対応する第2の画像と共に関連付けて表示する
    ことを特徴とする評価支援システム。
  17. 請求項15に記載の評価支援システムにおいて、さらに、
    データベースを備え、
    前記プロセッサは、前記データベースから前記データベースに登録された前記複数の学習済みモデルの抽出を行う
    ことを特徴とする評価支援システム。
  18. 学習済みモデルの性能評価に用いられる第1の画像を取得する手順であって、前記第1の画像を含む複数の第1の画像を取得する手順を含む、という手順と、
    複数の第2の画像を生成する手順であって、前記複数の第2の画像の各々は、複数の学習済みモデルの各々による前記第1の画像の処理結果である、という手順と、
    複数の第1のラベル情報を取得する手順であって、前記複数の第1のラベル情報の各々は、前記複数の第1の画像の各々に対して期待する処理結果を示す、という手順と、
    前記複数の第2の画像に対応する複数の第1の評価情報を生成する手順であって、前記複数の第1の評価情報は、前記複数の第2の画像と前記複数の第1のラベル情報とに基づいて生成される、という手順と、
    前記複数の第2の画像を生成する手順と前記複数の第1の評価情報を生成する手順の両手順後に、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する第2の画像に関連付けて表示する手順と、
    コンピュータに実行させ、
    記複数の第2の画像を生成する手順は、前記複数の第1の画像の各々に対して複数の第2の画像を生成する手順を含み、
    前記複数の学習済みモデルの各々を表示する手順は、前記複数の学習済みモデルの各々を、前記複数の第2の画像のうちの対応する少なくとも1つの第2の画像と、前記複数の第1の評価情報のうちの前記少なくとも1つの第2の画像に対応する少なくとも1つの第1の評価情報と、に関連付けて表示する手順を含む
    ることを特徴とするプログラム。
JP2019131832A 2019-07-17 2019-07-17 評価支援方法、評価支援システム、プログラム Active JP7313942B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019131832A JP7313942B2 (ja) 2019-07-17 2019-07-17 評価支援方法、評価支援システム、プログラム
US16/930,793 US11373422B2 (en) 2019-07-17 2020-07-16 Evaluation assistance method, evaluation assistance system, and computer-readable medium
CN202010690873.5A CN112241678B (en) 2019-07-17 2020-07-17 Evaluation support method, evaluation support system, and computer-readable medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019131832A JP7313942B2 (ja) 2019-07-17 2019-07-17 評価支援方法、評価支援システム、プログラム

Publications (3)

Publication Number Publication Date
JP2021018459A JP2021018459A (ja) 2021-02-15
JP2021018459A5 JP2021018459A5 (ja) 2022-02-04
JP7313942B2 true JP7313942B2 (ja) 2023-07-25

Family

ID=74170956

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019131832A Active JP7313942B2 (ja) 2019-07-17 2019-07-17 評価支援方法、評価支援システム、プログラム

Country Status (2)

Country Link
US (1) US11373422B2 (ja)
JP (1) JP7313942B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020126598A1 (de) * 2020-10-09 2022-04-14 Carl Zeiss Microscopy Gmbh Mikroskopiesystem und verfahren zur verifizierung eines trainierten bildverarbeitungsmodells
JPWO2022209501A1 (ja) * 2021-03-31 2022-10-06
US20230004872A1 (en) * 2021-07-01 2023-01-05 GE Precision Healthcare LLC System and method for deep learning techniques utilizing continuous federated learning with a distributed data generative model
JPWO2023008428A1 (ja) * 2021-07-29 2023-02-02
DE112022003716T5 (de) * 2021-09-27 2024-05-29 Fujifilm Corporation Informationsverarbeitungsvorrichtung, informationsverarbeitungsverfahren und informationsverarbeitungsprogramm

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019087229A (ja) 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP2020204979A (ja) 2019-06-18 2020-12-24 ヤフー株式会社 推定装置、推定方法及び推定プログラム

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5816416B2 (ja) 2010-04-23 2015-11-18 国立大学法人名古屋大学 細胞評価装置、インキュベータ、プログラム、および、培養方法
US8542912B2 (en) * 2010-12-29 2013-09-24 Cognex Corporation Determining the uniqueness of a model for machine vision
FR2985830B1 (fr) 2012-01-12 2015-03-06 Univ Nice Sophia Antipolis Procede de classification supervisee de cellules comprises dans des images de microscopie.
US10074038B2 (en) * 2016-11-23 2018-09-11 General Electric Company Deep learning medical systems and methods for image reconstruction and quality evaluation
JP6817625B2 (ja) 2016-12-14 2021-01-20 株式会社グルーヴノーツ サービス構築装置、サービス構築方法及びサービス構築プログラム
JP6850684B2 (ja) 2017-06-01 2021-03-31 株式会社日立製作所 光計測装置
EP3416103A1 (en) * 2017-06-16 2018-12-19 Dassault Systèmes Dataset for learning a function taking images as inputs
KR101977645B1 (ko) * 2017-08-25 2019-06-12 주식회사 메디웨일 안구영상 분석방법
US11144786B2 (en) * 2017-11-02 2021-10-12 Canon Kabushiki Kaisha Information processing apparatus, method for controlling information processing apparatus, and storage medium
CN108875821A (zh) * 2018-06-08 2018-11-23 Oppo广东移动通信有限公司 分类模型的训练方法和装置、移动终端、可读存储介质
US11507822B2 (en) * 2018-10-31 2022-11-22 General Electric Company Scalable artificial intelligence model generation systems and methods for healthcare
US20200349466A1 (en) * 2019-05-03 2020-11-05 Microsoft Technology Licensing, Llc Providing performance views associated with performance of a machine learning system

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019087229A (ja) 2017-11-02 2019-06-06 キヤノン株式会社 情報処理装置、情報処理装置の制御方法及びプログラム
JP2020204979A (ja) 2019-06-18 2020-12-24 ヤフー株式会社 推定装置、推定方法及び推定プログラム

Also Published As

Publication number Publication date
JP2021018459A (ja) 2021-02-15
US11373422B2 (en) 2022-06-28
CN112241678A (zh) 2021-01-19
US20210019580A1 (en) 2021-01-21

Similar Documents

Publication Publication Date Title
JP7313942B2 (ja) 評価支援方法、評価支援システム、プログラム
Maier-Hein et al. Metrics reloaded: recommendations for image analysis validation
KR102289277B1 (ko) 복수의 의료 영상 판독 알고리듬들에 대한 평가 스코어를 생성하는 의료 영상 판독 지원 장치 및 방법
WO2020182078A1 (zh) 影像分析方法、显微镜视频流处理方法和相关装置
CN105612554B (zh) 用于表征通过视频医疗设备获取的图像的方法
US8831327B2 (en) Systems and methods for tissue classification using attributes of a biomarker enhanced tissue network (BETN)
WO2014103664A1 (ja) 情報処理装置、情報処理方法、およびプログラム
JP2019091454A (ja) データ解析処理装置及びデータ解析処理プログラム
JP2014029644A (ja) 類似症例検索装置および類似症例検索方法
CN106068509A (zh) 患者发现的以发现为中心的纵视图的自动创建
JPWO2013175683A1 (ja) 病理診断結果判定システム、病理診断結果判定方法および病理診断結果判定装置
CN116259407B (zh) 基于多模态数据的疾病诊断方法、装置、设备及介质
CN113743463B (zh) 一种基于影像数据和深度学习的肿瘤良恶性识别方法和系统
WO2021230000A1 (ja) 情報処理装置、情報処理方法及び情報処理システム
US11742072B2 (en) Medical image diagnosis assistance apparatus and method using plurality of medical image diagnosis algorithms for endoscopic images
WO2022201729A1 (ja) 画像診断システム及び画像診断方法
JP5655327B2 (ja) プログラムおよび情報処理装置
CN112241678B (en) Evaluation support method, evaluation support system, and computer-readable medium
Liu et al. Computer-aided detection and quantification of endolymphatic hydrops within the mouse cochlea in vivo using optical coherence tomography
WO2021157405A1 (ja) 解析装置、解析方法、解析プログラム及び診断支援システム
JP2021018460A (ja) 評価支援方法、評価支援システム、プログラム
JP4966843B2 (ja) 細胞検査教育支援システム、中央装置、端末装置及びコンピュータプログラム
Jabbar et al. Liver fibrosis processing, multiclassification, and diagnosis based on hybrid machine learning approaches
Joly et al. LifeCLEF 2020 teaser: biodiversity identification and prediction challenges
De Silva et al. Semi-supervised learning approach for automatic detection of hyperreflective foci in SD-OCT imaging

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220127

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220127

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20220622

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230530

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230622

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230627

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230712

R151 Written notification of patent or utility model registration

Ref document number: 7313942

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151