JP2023123987A - モデル選定方法および画像処理方法 - Google Patents

モデル選定方法および画像処理方法 Download PDF

Info

Publication number
JP2023123987A
JP2023123987A JP2022027505A JP2022027505A JP2023123987A JP 2023123987 A JP2023123987 A JP 2023123987A JP 2022027505 A JP2022027505 A JP 2022027505A JP 2022027505 A JP2022027505 A JP 2022027505A JP 2023123987 A JP2023123987 A JP 2023123987A
Authority
JP
Japan
Prior art keywords
model
image
machine learning
group
confirmation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022027505A
Other languages
English (en)
Inventor
真紀 平井
Maki Hirai
尚悟 時末
Shogo Tokisue
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Screen Holdings Co Ltd
Original Assignee
Screen Holdings Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Screen Holdings Co Ltd filed Critical Screen Holdings Co Ltd
Priority to JP2022027505A priority Critical patent/JP2023123987A/ja
Priority to PCT/JP2022/044930 priority patent/WO2023162394A1/ja
Priority to TW111147891A priority patent/TWI834429B/zh
Publication of JP2023123987A publication Critical patent/JP2023123987A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N33/00Investigating or analysing materials by specific methods not covered by groups G01N1/00 - G01N31/00
    • G01N33/48Biological material, e.g. blood, urine; Haemocytometers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Urology & Nephrology (AREA)
  • Biochemistry (AREA)
  • Hematology (AREA)
  • Biomedical Technology (AREA)
  • Food Science & Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Analytical Chemistry (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

【課題】Ground Truthを用いることなく、多数の機械学習モデルの中から高精度かつ効率的に機械学習モデルを選定するモデル選定方法及び選定された機械学習モデルを用いた画像処理方法を提供する。【解決手段】方法は、第1モデル選定工程S33と、第2モデル選定工程S35を有する。第1モデル選定工程S33では、少なくとも1つの確認用画像を含む第1画像群を用いて、全ての機械学習モデルから複数の機械学習モデルを選定して第1モデル群とする。第2モデル選定工程S35では、第2画像群を用いて第1モデル群に含まれる機械学習モデルから少なくとも1つの機械学習モデルを選定する。第2画像群に含まれる確認用画像の数は、第1画像群よりも多い。段階的に確認用画像を増やすとともに選定対象モデル数を絞り込むことにより、Ground Truthを用いることなく、精度よく適切な機械学習モデルを選定することができる。【選択図】図5

Description

本発明は、画像処理を行う複数の機械学習モデルから適切なモデルを選定するモデル選定方法、および、選定された機械学習モデルを用いた画像処理方法に関する。
従来、病理組織標本や培養細胞等に対して染色を施して観察する方法が知られている。このとき、病理組織標本等の画像から細胞領域を抽出することが重要となる。特に、染色を施された病理組織標本に対してデジタル画像上でタンパク質等の生体物質の発現量のシングルセル解析を行うためには、個々の細胞領域の同定をより正確に行う必要がある。細胞領域を抽出するための従来の画像処理方法については、例えば、特許文献1に記載されている。
特表2021-506022号公報
しかしながら、このような標本観察において、観察方法、細胞の種類、標本の採取部位、染色物質の種類の違いに加えて、これらが同じであっても、組織状態や染色状況が異なる場合がある。したがって、ルールベースの画像処理で細胞領域を同定することは困難である。また、機械学習モデルを用いた場合であっても、1つの標本に対して正確に細胞領域を抽出できるモデルが、他の標本についても正確に細胞領域を抽出できるとは限らない。
深層学習を用いて細胞領域を同定する場合には、一例として、セグメンテーションタスクを応用して細胞領域をアノテーションした画像をモデルで学習させ、未知の画像に対して細胞領域をセグメント化して出力させる方法がとられる。
作成した多数の機械学習モデルから優れたモデルを選別するための手法として、正解ラベル画像(Ground Truth)がある場合には、F値や再現率等の数値精度の情報が用いられることが多い。しかし、正確なGround Truthの作成は手作業となり時間を要するため、解析対象毎にモデル評価用のGround Truthを作成することは非効率的である。また、完成されたGround Truthが存在する場合には、機械学習モデルを用いて細胞領域を同定する必要がないため、解析実施時において通常はGround Truthは存在しない。
本発明は、このような事情に鑑みなされたものであり、Ground Truthを用いることなく、多数の機械学習モデルの中から高精度かつ効率的に機械学習モデルを選定する技術を提供することを目的とする。
上記課題を解決するため、本願の第1発明は、画像処理を行う複数の機械学習モデルの中から、複数の確認用画像を用いて少なくとも1つの機械学習モデルを選定するモデル選定方法であって、a)少なくとも1つの前記確認用画像を含む第1画像群を用いて、全ての機械学習モデルを含む全モデル群に含まれる前記機械学習モデルから複数の前記機械学習モデルを選定して第1モデル群とする、第1モデル選定工程と、b)前記工程a)の後に、複数の前記確認用画像を含む第2画像群を用いて、前記第1モデル群に含まれる前記機械学習モデルから少なくとも1つの前記機械学習モデルを選定して第2モデル群とする、第2モデル選定工程と、を有し、前記第2画像群に含まれる前記確認用画像の数は、前記第1画像群に含まれる前記確認用画像の数よりも多い。
本願の第2発明は、第1発明のモデル選定方法であって、前記工程a)は、a1)前記第1画像群に含まれる全ての前記確認用画像を、前記全モデル群に含まれる全ての前記機械学習モデルに入力した出力結果を得る工程と、a2)前記工程a1)で得られた前記出力結果を表示する工程と、a3)前記全モデル群に含まれる前記機械学習モデルの一部を選定する選定結果が外部から入力される工程と、を含む。
本願の第3発明は、第1発明または第2発明のモデル選定方法であって、前記工程b)は、b1)前記第2画像群に含まれる全ての前記確認用画像を、前記第1モデル群に含まれる全ての前記機械学習モデルに入力した出力結果を得る工程と、b2)前記工程b1)で得られた前記出力結果を表示する工程と、b3)前記第1モデル群に含まれる前記機械学習モデルの一部を選定する選定結果が外部から入力される工程と、を含む。
本願の第4発明は、第1発明ないし第3発明のいずれかのモデル選定方法であって、前記第2モデル群は、複数の前記機械学習モデルを含み、c)前記工程b)の後に、複数の前記確認用画像を含む第3画像群を用いて、前記第2モデル群に含まれる前記機械学習モデルから1つの前記機械学習モデルを選定する、第3モデル選定工程をさらに有し、前記第3画像群に含まれる前記確認用画像の数は、前記第2画像群に含まれる前記確認用画像の数よりも多い。
本願の第5発明は、第1発明ないし第4発明のいずれかのモデル選定方法であって、d)前記工程a)の前に、全ての前記確認用画像の中から1つまたは複数の画像を選択して前記第1画像群とする、第1画像選択工程と、e)前記工程a)の後、かつ、前記工程b)の前に、全ての前記確認用画像の中から複数の画像を選択して前記第2画像群とする、第2画像選択工程と、をさらに有する。
本願の第6発明は、第5発明のモデル選定方法であって、前記工程d)は、d1)全ての前記確認用画像を、前記全モデル群に含まれる全ての前記機械学習モデルに入力した出力結果を得る工程と、d2)前記確認用画像ごとに、前記工程d1)で得られた前記出力結果のばらつきを算出する工程と、d3)前記工程d2)において算出された前記ばらつきが大きい前記確認用画像を全ての前記確認用画像の中から選択して前記第1画像群とする工程と、を含む。
本願の第7発明は、第1発明ないし第6発明のいずれかのモデル選定方法であって、前記機械学習モデルは、細胞を含む画像中の細胞領域を認識してセグメント化する画像処理を行う。
本願の第8発明は、複数の解析用画像に対して、機械学習モデルを用いて画像処理を行う画像処理方法であって、s)第1発明ないし第7発明のいずれかのモデル選定方法によって1つの前記機械学習モデルを選定する工程と、t)前記工程s)において選定された前記機械学習モデルを用いて、複数の前記解析用画像に対して画像処理を行う工程と、を有し、前記工程s)における前記確認用画像は、前記工程t)における処理対象である前記解析用画像である。
本願の第1発明~第8発明によれば、第1モデル選定工程において少ない数の確認用画像を用いて、多数の機械学習モデルを大まかに選定した後に、第2モデル選定工程においてより多くの数の確認用画像を用いて、さらに機械学習モデルを選定する。段階的に確認用画像を増やすと共に選定対象となる機械学習モデルの数を絞り込むことにより、モデル選定の際に確認すべきモデルの出力結果の数をできる限り抑制しつつ、精度よく適切な機械学習モデルを選定することができる。したがって、Ground Truthを用いることなく、多数の機械学習モデルの中から高精度かつ効率的に機械学習モデルを選定することができる。
特に、本願の第2発明によれば、第1モデル選定工程を、機械学習モデルの出力結果を確認したユーザの判断で行うことができる。これにより、第1モデル群を適切に選定することができる。
特に、本願の第3発明によれば、第2モデル選定工程を、機械学習モデルの出力結果を確認したユーザの判断で行うことができる。これにより、第2モデル群を適切に選定することができる。
特に、本願の第4発明によれば、第1モデル選定工程、第2モデル選定工程および第3モデル選定工程の3段階で機械学習モデルを選定する。これにより、選定対象となる機械学習モデルの数が多い場合に、2段階で機械学習モデルを選定する場合に比べて、より精度よく適切な機械学習モデルを選定することができる。
特に、本願の第5発明によれば、第1モデル選定工程で使用する確認用画像と、第2モデル選定工程で使用する確認用画像とを、多数の確認用画像から選択する。これにより、より精度よく機械学習モデルを選定することができる。
特に、本願の第6発明によれば、選定対象となる機械学習モデルの出力結果にばらつきが生じやすい確認用画像を第1モデル選定工程で用いることにより、少ない数の確認用画像によって選定を行っても精度よく機械学習モデルを選定することができる。
特に、本願の第7発明によれば、機械学習モデルの入力画像が、細胞や試薬の種類や観察環境によって大きく異なる。このため、適切な機械学習モデルの選定が重要となる。
特に、本願の第7発明によれば、解析対象である解析用画像を用いて機械学習モデルの選定を行う。これにより、解析用画像にとって最適な機械学習モデルを選定することができる。
第1実施形態に係る情報処理装置のハードウェア構成を示した図である。 第1実施形態に係る画像解析装置の機能的な構成を示した図である。 第1実施形態の機械学習モデル選定装置の機能的な構成を示した図である。 画像解析工程の流れを示すフローチャートである。 機械学習モデル選定工程の流れを示すフローチャートである。 機械学習モデル選定工程の各段階で使用する画像群と選定対象となるモデル群の下図のイメージ図である。 1つの確認用画像を複数の機械学習モデルに入力して得られる出力結果を模式的に示した図である。 第1画像選択工程および第2画像選択工程を手動で行う場合の流れを示したフローチャートである。 第1画像選択工程を自動で行う場合の流れを示したフローチャートである。 第1モデル選定工程、第2モデル選定工程および第3モデル選定工程の流れを示したフローチャートである。
以下、本発明の実施形態について、図面を参照しつつ説明する。
<1.第1実施形態>
<1-1.画像解析装置の構成>
図1は、第1実施形態に係る機械学習モデル選定装置1を含む画像解析装置20を実現する情報処理装置100のハードウェア構成を示した図である。
図1に示すように、情報処理装置100は、コンピュータとしての構成を備える。具体的には、情報処理装置100は、プロセッサ101と、RAM102と、機器I/F103と、通信I/F104と、記憶部105と、入力部106と、表示部107と、を備える。プロセッサ101、RAM102、機器I/F103、通信I/F104、記憶部105、入力部106および表示部107は、バス108を介して互いに電気的に接続されている。
プロセッサ101は、具体的には、CPUまたはGPUを含む。RAM102は、情報の読み出しおよび書き込みが可能な記憶媒体であって、具体的には、SDRAMである。
機器I/F103は、後述する撮像装置9等の外部機器を情報処理装置100に電気的に接続するためのインターフェースである。通信I/F104は、情報処理装置100をインターネットなどのネットワークと接続するためのインターフェースである。撮像装置9等の外部機器は、通信I/F104を介して情報処理装置100と接続されてもよい。
記憶部105は、情報の読み出しおよび書き込みが可能な記録媒体であって、具体的には、HDD(ハードディスクドライブ)またはSSD(ソリッドステートドライブ)を含む。なお、記憶部105は、可搬性を有する光ディスク、磁気ディスクまたは半導体メモリ等を含んでもよい。記憶部105は、プログラムPを記憶している。プロセッサ101は、RAM102を作業領域として、プログラムPを実行することにより、画像解析装置20および機械学習モデル選定装置1としての各種の機能を実現する。なお、プログラムPは、ネットワークを介して、情報処理装置100に提供または配布されるようにしてもよい。
入力部106は、ユーザの操作入力を受け付ける入力デバイスであり、具体的には、マウスまたはキーボードなどである。表示部107は、各種情報を表す画像を表示する表示デバイスであり、具体的には、液晶ディスプレイである。なお、入力部106および表示部107は、タッチパネル式ディスプレイなどの単一のデバイスであってもよい。
図2は、第1実施形態の情報処理装置100により実現される画像解析装置20の機能的な構成を示した図である。画像解析装置20は、外部から入力された画像を解析する装置である。本実施形態の画像解析装置20は、顕微鏡に備えられた撮像装置9から入力された細胞の画像を解析するための装置である。画像解析装置20は、画像切り出し部21と、機械学習モデル選定部22と、画像解析部23とを有する。画像切り出し部21、機械学習モデル選定部22、および画像解析部23は、プロセッサ101がプログラムPに従って動作することにより実現される機能である。
画像切り出し部21は、撮像装置から入力された入力画像Geから、解析用の複数の画像を得る。本実施形態では、撮像装置9は、顕微鏡に備えられたカメラであり、入力画像Geは、蛍光染色された組織標本を顕微鏡に備えられた撮像装置9で撮影したものである。なお、本実施形態の解析対象は、蛍光染色された組織標本であるが、本発明はこれに限られない。解析対象は、セグメンテーションの必要のある試料を撮影した画像であれば、組織標本に限られず、培養細胞や血球細胞等のその他の生体試料であってもよい。また、解析対象は、蛍光染色された試料に限られず、未染色の試料や、非蛍光の染色剤で染色された試料であってもよい。
画像切り出し部21は、広視野で撮影された入力画像Geから、複数の狭視野の画像を切り出して、複数の解析用画像を取得する。そして、切り出した複数の解析用画像を全画像群G0として、記憶部105に記憶させる。
本実施形態の画像切り出し部21は、広視野の入力画像Geを表示部107に表示させる。そして、ユーザが入力部106を操作することにより、入力画像Geの中から複数の部位を指定する。画像切り出し部21は、指定された部位を切り出して、狭視野の解析用画像とする。なお、画像切り出し部21は、このような手順を経ること無く、自動で解析用画像を切り出してもよい。その場合、例えば、入力画像Geを、自動的に所定の大きさでタイル状に切り出すようにしてもよい。
機械学習モデル選定部22は、画像処理を行う複数の機械学習モデルの中から、複数の確認用画像を用いて1つの機械学習モデルを選定する。具体的には、記憶部105に記憶された全画像群G0と、複数の機械学習モデルを含む全モデル群M0を読み出して、全画像群G0を用いて全モデル群M0の中から1つの機械学習モデルを選定モデルMfとして選定し、出力する。本実施形態において、各機械学習モデルは、蛍光染色された細胞の観察画像が入力されると、当該観察画像における各細胞の細胞領域を同定して、当該領域を出力するものである。
本実施形態では機械学習モデルを選定するための確認用画像として、実際に画像解析の対象となる解析用画像が使用される。すなわち、確認用画像として、画像切り出し部21が取得した全画像群G0に含まれる複数の解析用画像が用いられる。機械学習モデル選定部22の詳細な構成については、後述する。
画像解析部23は、解析用画像を画像処理を用いて解析する。本実施形態の画像解析部23は、画像切り出し部21の切り出した複数の解析用画像のそれぞれについて、機械学習モデル選定部22が選定した選定モデルMfを用いて細胞領域を同定する。その後、同定された細胞領域における染色領域の面積や分布などを、染色の種類毎に算出する。
<1-2.機械学習モデル選定装置の構成>
続いて、機械学習モデル選定装置1について、図3を参照しつつ説明する。図3は、第1実施形態の情報処理装置100において実現される機械学習モデル選定装置1の機能的な構成を示した図である。この機械学習モデル選定装置1は、画像処理を行う複数の機械学習モデルの中から、複数の確認用画像を用いて1つの機械学習モデルを選定する。
前述の通り、この機械学習モデル選定装置1では、細胞を含む画像中の細胞領域を認識してセグメント化する画像処理を行う機械学習モデルを選定する。細胞を含む画像は、その撮影条件の違いや、染色の有無、染色薬剤の違いなどによって、見え方が異なる。このため、画像毎に、細胞領域を同定するために最適な機械学習モデルが異なる。このため、解析対象が変わる毎に、この機械学習モデル選定装置1を用いて最適な機械学習モデルを選定することが好ましい。
以下では、理解容易のため、80個の確認用画像を用いて、100個の機械学習モデルの中から、画像選択工程およびモデル選定工程を3回繰り返して1つの機械学習モデルを選定する具体例について、確認用画像や機械学習モデルの具体的な数を言及しつつ説明する。しかしながら、確認用画像の数と、選定対象となる機械学習モデルの数とは、これに限られた物ではなく、複数であれば、その数は問わない。
機械学習モデル選定装置1は、上述した機械学習モデル選定部22を有する。図3に示すように、機械学習モデル選定部22は、画像処理部31、第1画像選択部32、第1モデル選定部33、第2画像選択部34、第2モデル選定部35、第3画像選択部36、および、第3モデル選定部37を有する。画像処理部31、第1画像選択部32、第1モデル選定部33、第2画像選択部34、第2モデル選定部35、第3画像選択部36および第3モデル選定部37は、プロセッサ101がプログラムPに従って動作することにより実現される機能である。また、機械学習モデル選定装置1は、前述の記憶部105、入力部106および表示部107を含む。
記憶部105には、全画像群G0と、全モデル群M0とが記憶されている。全画像群G0は、複数の確認用画像g1~g80を含む。本実施形態では、全画像群G0に含まれる確認用画像g1~g80には、実際に解析に用いる解析用画像が用いられる。全モデル群M0には、複数の機械学習モデルが含まれる。これらの機械学習モデルは、同一のアルゴリズムにより作成されたモデルのパラメータ違いを含んでいてもよいし、様々な種類のアルゴリズムにより作成された機械学習モデルを含んでいてもよい。
画像処理部31は、全画像群G0に含まれる全ての確認用画像を、全モデル群M0に含まれる全ての機械学習モデルに入力し、全出力結果群D0を得る。画像処理部31は、第1画像選択部32、第2画像選択部34および第3画像選択部のそれぞれに、全画像群G0および全出力結果群D0を引き渡す。例えば、全出力結果群D0には、80個の確認用画像の全てを100個の機械学習モデルに入力した、合計8000個の出力結果が含まれる。
第1画像選択部32は、全画像群G0に含まれる全ての確認用画像の中から、1つまたは複数の画像を選択して、第1画像群G1とする。そして、第1画像選択部32は、第1画像群G1と、第1画像群G1を全モデル群M0に含まれる各機械学習モデルに入力した出力結果である第1出力結果群D1とを、第1モデル選定部33へと引き渡す。第1出力結果群D1は、全出力結果群D0のうち、第1画像群G1に含まれる確認用画像を、全モデル群M0に含まれる全ての機械学習モデルに入力して得られた出力結果を全て含む。例えば、第1画像群G1に2つの確認用画像が含まれ、全モデル群M0に100個の機械学習モデルが含まれている場合には、第1出力結果群D1には200個の出力結果が含まれる。
第1モデル選定部33は、第1画像群G1と、第1画像群G1/全モデル群M0の出力結果である第1出力結果群D1とを用いて、全モデル群M0に含まれる機械学習モデルの中から、複数の機械学習モデルを選定して第1モデル群M1とする。第1モデル群M1に含まれる機械学習モデルの数は、全モデル群M0に含まれる機械学習モデルの数よりも少ない。第1モデル選定部33は、選定した第1モデル群M1を、第2画像選択部34へと引き渡す。
第2画像選択部34は、全画像群G0に含まれる全ての確認用画像の中から、複数の画像を選択して、第2画像群G2とする。本実施形態では、第2画像選択部34は、全画像群G0/第1モデル群M1の出力結果である第2出力結果群D2を用いて確認用画像を選択し、選択した複数の確認用画像を第2画像群G2とする。例えば、全画像群G0に80個の確認用画像が含まれ、第1モデル群M1に30個の機械学習モデルが含まれている場合には、第2出力結果群D2には2400個の出力結果が含まれる。
そして、第2画像選択部34は、第2画像群G2と、第1モデル群M1と、第2画像群G2/第1モデル群M1の出力結果である第3出力結果群D3とを、第2モデル選定部35へと引き渡す。第2画像群G2に含まれる確認用画像の数は、第1画像群G1に含まれる確認用画像の数よりも多い。なお、第2画像群G2は、第1画像群G1に含まれる確認用画像を全て含んでいてもよく、一部のみ含んでいてもよく、あるいは、全て含んでいなくてもよい。例えば、第2画像群G2に5つの確認用画像が含まれ、第1モデル群M1に30個の機械学習モデルが含まれている場合には、第3出力結果群D3には150個の出力結果が含まれる。
第2モデル選定部35は、第2画像群G2と、第2画像群G2/第1モデル群M1の出力結果である第3出力結果群D3とを用いて、第1モデル群M1に含まれる機械学習モデルの中から、複数の機械学習モデルを選定して第2モデル群M2とする。第2モデル群M2に含まれる機械学習モデルの数は、第1モデル群M1に含まれる機械学習モデルの数よりも少ない。第2モデル選定部35は、選定した第2モデル群M2を、第3画像選択部36へと引き渡す。
第3画像選択部36は、全画像群G0に含まれる全ての確認用画像の中から、複数の画像を選択して、第3画像群G3とする。本実施形態では、第3画像選択部36は、全画像群G0/第2モデル群M2の出力結果である第4出力結果群D4を用いて確認用画像を選択し、選択した複数の確認用画像を第3画像群G3とする。例えば、全画像群G0に80個の確認用画像が含まれ、第2モデル群M2に5個の機械学習モデルが含まれている場合には、第4出力結果群D4には400個の出力結果が含まれる。
そして、第3画像選択部36は、第3画像群G3と、第2モデル群M2と、第3画像群G3/第2モデル群M2の出力結果である第5出力結果群D5とを、第3モデル選定部37へと引き渡す。第3画像群G3に含まれる確認用画像の数は、第2画像群G2に含まれる確認用画像の数よりも多い。なお、第3画像群G3は、第1画像群G1および第2画像群G2に含まれる確認用画像を全て含んでいてもよく、一部のみ含んでいてもよく、あるいは、全て含んでいなくてもよい。例えば、第3画像群G3に40個の確認用画像が含まれ、第2モデル群M2に5個の機械学習モデルが含まれている場合には、第5出力結果群D5には200個の出力結果が含まれる。
また、第3画像選択部36は、全画像群G0に含まれる全ての確認用画像を第3画像群G3としてもよい。例えば、全画像群G0に含まれる全ての確認用画像の個数が所定の閾値以下である場合には、全画像群G0に含まれる全ての確認用画像を第3画像群G3とするようにしてもよい。また、第3画像選択部36は、全画像群G0に含まれる確認用画像の中から、ランダムで確認用画像を選択して第3画像群G3としてもよい。
第3モデル選定部37は、第3画像群G3と、第3画像群G3/第2モデル群M2の出力結果である第5出力結果群D5とを用いて、第2モデル群M2に含まれる複数の機械学習モデルから1つを選定して選定モデルMfとする。
<1-3.画像処理の流れ>
次に、モデル選定工程を含む画像解析工程の流れを、図4を参照しつつ説明する。図4は、画像解析工程の流れを示したフローチャートである。
画像解析装置20は、まず、選定対象となる機械学習モデルを取得する(ステップS1:機械学習モデル取得工程)。本実施形態では、100個の機械学習モデルを取得する。具体的には、候補となる100個の機械学習モデルが、記憶部105に記憶される。これらの機械学習モデルは、同じ目的の画像処理を行うモデルであれば、同種のアルゴリズムにより作成されたパラメータ違いの複数のモデルを含んでいてもよいし、複数種類のアルゴリズムにより作成された機械学習モデルを含んでいてもよい。
次に、確認用画像となる複数の画像を取得する(ステップS2:画像取得工程)。本実施形態では、前述の通り、画像切り出し部21において、撮像装置9から入力された入力画像Geを切り出すことにより、複数の解析用画像を確認用画像として取得する。すなわち、確認用画像として、後述する画像解析工程S4において画像解析の対象となる組織標本の観察画像を用いる。本実施形態では、80個の確認用画像を取得する。取得された複数の確認用画像は、記憶部105に記憶される。
続いて、機械学習モデル選定部22において、ステップS2の画像取得工程において取得した確認用画像を用いて、100個すべての機械学習モデルから、機械学習モデルを1つ選定する(ステップS3:機械学習モデル選定工程)。本実施形態では、画像解析用画像が確認用画像として用いられるため、後続の画像解析工程S4において解析対象となる画像にとって最適な機械学習モデルが選定される。このステップS3で行われる機械学習モデル選定工程の詳細は後述する。
最後に、画像解析部23において、画像解析用の観察画像の画像解析が行われる(ステップS4:画像解析工程)。具体的には、まず、ステップS3の機械学習モデル選定工程において選定された機械学習モデルを用いて、各画像解析用画像中の細胞領域を同定する。そして、同定された細胞領域の中において、染色された色毎の輝度や領域面積を算出する。これにより、染色によって可視化された生体物質の発現量や分布面積を推測することができる。
<1-4.機械学習モデル選定工程の流れ>
続いて、ステップS3の機械学習モデル選定工程について、図5~図10を参照しつつ説明する。
図5は、機械学習モデル選定工程S3の流れを示したフローチャートである。図5に示すように、本実施形態の機械学習モデル選定工程では、多数の機械学習モデルの中から、段階的に機械学習モデルを選定する。本実施形態では、後述する第1モデル選定工程S33、第2モデル選定工程S35および第3モデル選定工程S37の3段階によって1つの機械学習モデルが選定される。なお、本発明はこの限りではなく、複数のモデル選定工程を有していれば、2段階の選定工程によって機械学習モデルが選定されてもよく、4段階以上の選定工程によって機械学習モデルが選定されてもよい。
図6は、本実施形態において、機械学習モデル選定工程S3の各段階で使用する画像群と、選定対象となるモデル群の数のイメージ図である。図6において、画像群およびモデル群の名称の後に記載された括弧内の数字は、各画像群に含まれる画像数および各モデル軍に含まれる機械学習モデルの数である。
図7は、1つの確認用画像g1を、全画像群G0に含まれる全ての機械学習モデルm1~m100に入力して得られる出力結果を模式的に示した図である。図7に示すように、確認用画像g1には、細胞の画像が含まれている。そして、各機械学習モデルm1~m100は、確認用画像g1中の細胞領域を同定する。図7において、その同定領域が黒く示されている。
確認用画像g1に適した機械学習モデルにおいては、ほとんどの細胞が認識されるとともに、細胞でない領域が誤認識されにくい。一方で、確認用画像g1の種類に適していない機械学習モデルにおいては、認識されない細胞があったり、細胞でない領域を細胞であると誤認識する。図7の例では、モデルm3においては全ての細胞が認識されているが、モデルm1,m2,m99では認識漏れがある。一方で、モデルm100においては細胞でない領域が細胞として認識されている。
このような出力結果から、全ての確認用画像g1~g80に対して最も適切な画像処理を行っている機械学習モデルを選定するためには、例えば、ユーザが全ての確認用画像g1~g80について、全ての機械学習モデルm1~m100の出力結果を確認し、分析することが考えられる。しかしながら、このような出力結果を、全ての確認用画像g1~g80、全ての機械学習モデルm1~m100について確認して、最適な同定結果を用いるには、時間も手間もかかる。
そこで、この機械学習モデル選定工程S3では、図6に示すように、選定対象となる機械学習モデルが多い段階では、少ない個数の確認用画像を用いてモデルの選定を行い、段階的に選定対象となる機械学習モデルを少なくするとともに、段階的に確認用画像の個数を増やして機械学習モデルの出力を確認していく。これにより、選定の手間を減らしつつ、より適切な機械学習モデルを選定することができる。
機械学習モデル選定工程S3では、はじめに、画像処理部31が、全画像群G0に含まれるすべての確認用画像を、全モデル群M0に含まれる全ての機械学習モデルに入力し、全出力結果群D0を得る(全画像処理工程:ステップS31)。本実施形態では、全出力結果群D0には、80個の確認用画像の全てを100個の機械学習モデルに入力した、合計8000個の出力結果が含まれる。
続いて、第1画像選択部32は、全画像群G0に含まれる全ての確認用画像の中から、1つまたは複数の画像を選択して、第1画像群G1とする(第1画像選択工程:ステップS32)。この第1画像選択工程は、手動で行ってもよいし、自動で行ってもよいし、あるいは、手動と自動とを組み合わせて行ってもよい。
図8は、第1画像選択工程S32および第2画像選択工程S34を手動で行う場合の流れを示したフローチャートである。図8に示すように、第1画像選択工程S32を手動で行う場合には、第1画像選択部32は、まず、画像処理部31から全画像群G0および全出力結果群D0を取得する(ステップS51)。
次に、第1画像選択部32は、全画像群G0に含まれる確認用画像それぞれと、当該確認用画像についての全モデル群M0の出力結果とを、表示部107に確認可能に表示する(ステップS52)。すなわち、全画像群G0の80個の確認画像それぞれに対して、各100個の出力結果が表示される。
そして、ユーザが、ステップS52における表示を視認する(ステップS53)。その後、ユーザが第1モデル選定工程S33に使用したい確認用画像を選択し、入力部106を介して第1画像選択部32に入力する(ステップS54)。
第1画像選択部32は、入力された確認用画像を第1画像群G1として認識し、第1画像群G1と、第1画像群G1/全モデル群M0の出力結果である第1出力結果群D1とを、第1モデル選定部33へと引き渡す(ステップS55)。本実施形態では、2つの確認用画像を含む第1画像群G1と、第1画像群G1/全モデル群M0の出力結果200個を含む第1出力結果群D1とが第1モデル選定部33へと引き渡される。
図9は、第1画像選択工程S32を自動で行う場合の流れを示したフローチャートである。図9に示すように、第1画像選択工程S32を自動で行う場合には、第1画像選択部32は、まず、画像処理部31から全画像群G0および全出力結果群D0を取得する(ステップS61)。
次に、第1画像選択部32は、全画像群G0に含まれる確認画像毎に、当該確認画像についての各出力結果におけるセグメントを検出する。すなわち、各確認画像についての全モデル群M0の出力結果における細胞領域として同定された部位を検出する(ステップS62)。
次に、第1画像選択部32は、各確認画像について、全ての出力結果におけるセグメントのばらつきを算出する(ステップS63)。本実施形態では、ばらつきを示す値として、出力結果におけるセグメントの個数の分散が用いられる。なお、ばらつきを示す値はこれに限られず、セグメントの個数、平均面積、合計面積、重心位置等の様々なパラメータについて、分散や標準偏差等のばらつきを示す指数が用いられてもよい。また、ばらつきを示す値は、必ずしも1種類に限られず、2種類以上の値が用いられてもよい。
続いて、第1画像選択部32は、全画像群G0に含まれる80個全ての確認画像の中から、モデル間においてばらつきの大きな確認画像を選択し、第1画像群G1とする(ステップS64)。そして、第1画像群G1と、第1画像群G1/全モデル群M0の出力結果である第1出力結果群D1とを、第1モデル選定部33へと引き渡す(ステップS64)。
ステップS32の第1画像選択工程が終了すると、続いて、第1モデル選定部33が全モデル群M0から機械学習モデルを選定する(ステップS33:第1モデル選定工程)。第1モデル選定部33は、第1画像群G1と、第1画像群G1/全モデル群M0の出力結果である第1出力結果群D1とを用いて、全モデル群M0に含まれる機械学習モデルの中から、複数の機械学習モデルを選定して第1モデル群M1とする。そして、第1モデル選定部33は、第1モデル群M1を第2画像選択部34へと引き渡す。
図10は、第1モデル選定工程S33、第2モデル選定工程S35および第3モデル選定工程S37の流れを示したフローチャートである。
、第1モデル選定工程S33を行う場合には、図10に示すように第1モデル選定部33は、まず、選定に用いる第1画像群G1と、第1画像群G1/全モデル群M0の出力結果である第1出力結果群D1とを取得する(ステップS71)。
次に、第1モデル選定部33は、第1画像群G1に含まれる確認用画像それぞれと、当該確認用画像についての全モデル群M0の出力結果とを、表示部107に確認可能に表示する(ステップS72)。すなわち、第1画像群G1の2個の確認画像それぞれに対して、各100個の出力結果が表示される。
そして、ユーザが、ステップS72における表示を視認により確認する(ステップS73)。その後、ユーザが適切だと判断した機械学習モデルを選択し、入力部106を介して第1モデル選定部33に入力する(ステップS74)。本実施形態では、このとき、30個の機械学習モデルが選択される。第1モデル選定部33は、その入力内容に基づいて、全モデル群M0の中から選定された機械学習モデルを第1モデル群M1とし、第2画像選択部34へと引き渡す(ステップS75)。
なお、第1モデル選定工程S33は、プロセッサ101がユーザの判断によって自動で行うようにしてもよい。例えば、全モデル群M0に含まれる機械学習モデルの数が一定以上である場合に、自動選定を行うようにしてもよい。また、例えば、第1モデル選定部33が出力結果におけるセグメントの個数のヒストグラムを表示部107に表示し、ユーザがその表示によって自動選定を希望する場合には、自動選定を行うようにしてもよい。
第1モデル選定工程S33を自動で行う場合、ユーザが入力部106に自動選定の指令を入力すると、第1モデル選定部33が、例えば、セグメントの個数が全モデル群M0の平均値や最頻値に近い機械学習モデルを決められた数(本実施形態では30個)選択して、第1モデル群M1とする。
第1モデル選定工程S33に続いて、第2画像選択部34は、第2モデル選定工程S35に用いられる第2画像群G2を選択する(第2画像選択工程:ステップS34)。第2画像群G2に含まれる確認用画像の数は、第1画像群G1に含まれる確認用画像の数よりも多い。
この第2画像選択工程S34では、全画像群G0に含まれる全ての確認用画像から、全画像群G0/第1モデル群M1の出力結果である第2出力結果群D2を用いて、複数の画像を選択して、第2画像群G2とする。この第2画像選択工程は、手動で行ってもよいし、自動で行ってもよいし、あるいは、手動と自動とを組み合わせて行ってもよい。
第2画像選択工程S34を手動で行う場合には、図8に示すように、第2画像選択部34は、まず、画像処理部31から全画像群G0および全出力結果群D0を取得する(ステップS51)。
次に、第2画像選択部34は、全画像群G0に含まれる確認用画像と、全画像群G0/第1モデル群M1の出力結果である第2出力結果群D2とを、表示部107に確認可能に表示する(ステップS52)。すなわち、80個の確認画像それぞれに対して、各30個の出力結果が表示される。
そして、ユーザが、ステップS52における表示を視認する(ステップS53)。その後、ユーザが第2モデル選定工程S35に使用したい確認用画像を選択し、入力部106を介して第2画像選択部34に入力する(ステップS54)。
第2画像選択部34は、入力された確認用画像を第2画像群G2として認識し、第2画像群G2と、第2画像群G2/第1モデル群M1の出力結果である第3出力結果群D3とを、第2モデル選定部35へと引き渡す(ステップS55)。本実施形態では、5つの確認用画像を含む第2画像群G2と、第2画像群G2/第1モデル群M1の出力結果150個を含む第3出力結果群D3とが、第2モデル選定部35へと引き渡される。
ステップS34の第2画像選択工程が終了すると、続いて、第2モデル選定部35が第1モデル群M1から機械学習モデルを選定する(ステップS35:第2モデル選定工程)。第2モデル選定部35は、第2画像群G2と、第2画像群G2/第1モデル群M1の出力結果である第3出力結果群D3とを用いて、第1モデル群M1に含まれる機械学習モデルの中から、複数の機械学習モデルを選定して第2モデル群M2とする。そして、第2モデル選定部35は、第2モデル群M2を第3画像選択部36へと引き渡す。
第2モデル選定工程S35を行う場合には、図10に示すように、第2モデル選定部35は、まず、選定に用いる第2画像群G2と、第2画像群G2/第1モデル群M1の出力結果である第3出力結果群D3とを取得する(ステップS71)。
次に、第2モデル選定部35は、第2画像群G2に含まれる確認用画像それぞれと、当該確認用画像についての第1モデル群M1の出力結果とを、表示部107に確認可能に表示する(ステップS72)。すなわち、第2画像群G2の5個の確認画像それぞれに対して、各30個の出力結果が表示される。
そして、ユーザが、ステップS72における表示を視認により確認する(ステップS73)。その後、ユーザが適切だと判断した機械学習モデルを選択し、入力部106を介して第2モデル選定部35に入力する(ステップS74)。本実施形態では、このとき、5個の機械学習モデルが選択される。第2モデル選定部35は、その入力内容に基づいて、第1モデル群M1の中から選定された機械学習モデルを第2モデル群M2とし、第3画像選択部36へと引き渡す(ステップS75)。
なお、第1モデル選定工程S33については、前述の通り、自動でも手動でもよいが、自動選定を繰り返したとしても、あまり精度の向上は見込めない。一定の品質を担保するために、第2モデル選定工程S35以降のモデル選定工程は手動で行うことが好ましい。
第2モデル選定工程S35に続いて、第3画像選定部36は、第3モデル選択工程S37に用いられる第3画像群G3を選択する(第3画像選択工程:ステップS36)。そして、第3画像選択部36は、第3モデル選定部37に、第3画像群G3を引き渡す。第3画像群G3に含まれる確認用画像の数は、第2画像群G2に含まれる確認用画像の数よりも多い。
第3画像選択工程S36において、第3画像選択部36は、第1画像選択工程S32および第2画像選択工程S34と同様に、全画像群G0に含まれる全ての確認用画像と、全画像群G0/第2モデル群M2の出力結果である第4出力結果群D4とを用いて、複数の画像を選択して、第3画像群G3としてもよい。
また、第3画像選択部36は、第1画像選択工程S32および第2画像選択工程S34とは異なる方法で第3画像選択工程S36を行ってもよい。例えば、第3画像選択部36は、全画像群G0に含まれる確認用画像の全てを第3画像群G3としてもよい。また、第3画像選択部36は、全画像群G0に含まれる確認用画像からランダムで画像を選択してもよい。その場合、第1画像群G1に含まれる確認用画像および第2画像群G2に含まれる確認用画像を含めるようにしてもよい。
第3画像選択部36は、第3画像群G3と、第2モデル群M2と、第3画像群G3/第2モデル群M2の出力結果である第5出力結果群D5とを、第3モデル選定部37へと引き渡す。本実施形態では、40個の確認用画像を含む第3画像群G3と、第3画像群G3/第2モデル群M2の出力結果200個を含む第5出力結果群D5を第3モデル選定部37へと引き渡す。
ステップS36の第3画像選択工程が終了すると、続いて、第3モデル選定部37が第2モデル群M2から機械学習モデルを選定する(ステップS37:第3モデル選定工程)。第3モデル選定部37は、第3画像群G3と、第3画像群G3/第2モデル群M2の出力結果である第5出力結果群D5とを用いて、第2モデル群M2に含まれる機械学習モデルの中から、1つの機械学習モデルを選定して選定モデルMfとする。そして、第3モデル選定部37は、選定モデルMfを出力する。
第3モデル選定工程S37を行う場合には、図10に示すように、第3モデル選定部37は、まず、選定に用いる第3画像群G3と、第3画像群G3/第2モデル群M2の出力結果である第5出力結果群D5とを取得する(ステップS71)。
次に、第3モデル選定部37は、第3画像群G3に含まれる確認用画像の全てについて、確認用画像の1つと、当該確認用画像についての第2モデル群M2の全ての出力結果とを比較可能に表示する。そして、ユーザが当該表示を視認により確認する(ステップS72)。これを、第3画像群G3に含まれる全ての確認用画像に対して行う。
ユーザは、確認用画像と出力結果とを比較し、適切な出力結果であると思われる機械学習モデルを選択し、入力部106に入力する(ステップS73)。本実施形態では、このとき、1個の機械学習モデルが選択される。第3モデル選定部37は、その入力内容に基づいて、第2モデル群M2の中から選定された機械学習モデルを選定モデルMfとし、出力する(ステップS74)。
上記手順により、機械学習モデル選定工程S3において、第1モデル選定工程S33、第2モデル選定工程S35、第3モデル選定工程S37の3段階に分けて機械学習モデルが選定されている。各選定工程では、確認対象となる確認用画像の数を少数から次第に増やすとともに、選定対象となるモデルを徐々に減らしていく。
すなわち、少ない数の確認用画像を用いて、多数の機械学習モデルを大まかに選定した後に、後のモデル選定工程においてより多くの数の確認用画像を用いて、さらに機械学習モデルを選定する。このように段階的に確認用画像を増やすと共に選定対象となる機械学習モデルの数を絞り込むことにより、モデル選定の際に確認すべきモデルの出力結果の数をできる限り抑制しつつ、精度よく適切な機械学習モデルを選定することができる。したがって、Ground Truthを用いることなく、多数の機械学習モデルの中から高精度かつ効率的に機械学習モデルを選定することができる。
特に、3段階以上のモデル選定工程を経ることにより、選定対象となる機械学習モデルの数が多い場合に、2段階で機械学習モデルを選定する場合に比べて、より精度よく適切な機械学習モデルを選定することができる。
また、本実施形態では、第1モデル選定工程S33および第2モデル選定工程S35を、機械学習モデルの出力結果を確認したユーザの判断で行うことができる。これにより、第1モデル群M1および第2モデル群M2を適切に選定することができる。
また、本実施形態では、各モデル選定工程で使用する確認用画像を、多数の確認用画像から選択する。これにより、より精度よく機械学習モデルを選定することができる。
また、本実施形態では、第1画像選択工程S32を自動で行う場合には、選定対象となる機械学習モデルの出力結果にばらつきが生じやすい確認用画像を選択する。これにより、少ない数の確認用画像によって選定を行っても精度よく機械学習モデルを選定することができる。
また、本実施形態において選定対象となる機械学習モデルは、細胞を含む画像中の細胞領域を認識してセグメント化する画像処理を行うものである。この種の機械学習モデルにおいて、入力画像が、細胞や試薬の種類や観察環境によって大きく異なる。このため、適切な機械学習モデルの選定が重要となる。
また、本実施形態では、解析対象である解析用画像を用いて機械学習モデルの選定を行う。これにより、解析用画像にとって最適な機械学習モデルを選定することができる。
<2.変形例>
以上、本発明の一実施形態について説明したが、本発明は、上記の実施形態に限定されるものではない。
上記の実施形態では、機械学習モデルを選定するために、第1モデル選定工程、第2モデル選定工程および第3モデル選定工程の3段階のモデル選定工程が行われたが、本発明はこの限りではない。機械学習モデルの選定には、2段階、または、4段階以上のモデル選定工程が行われてもよい。モデル選定工程の段階数は、確認用画像の数や、選定対象となる機械学習モデルの数によって自由に設定しうる。
また、上記の実施形態では、第2画像選択工程が、第1モデル選定工程の後に、第1モデル選定工程において選定された第1モデル群を用いて行われた。また、第3画像選択工程が、第2モデル選定工程の後に、第2モデル選定工程において選定された第2モデル群を用いて行われた。しかしながら、本発明はこれに限られない。第2画像選択工程および第3画像選択工程は、第1モデル選定工程の前に、第1画像選択工程と併せて行われてもよい。この場合、第2画像選択工程および第3画像選択工程は、全モデル群を用いて行われる。
また、上記の実施形態では、第1モデル選定工程、第2モデル選定工程および第3モデル選定工程のそれぞれに用いられる確認用画像を、第1画像選択工程、第2画像選択工程および第3画像選択工程によって選択した。しかしながら、これらの画像選択工程が行われずにランダムで確認用画像が選択されてもよい。また、第1画像選択工程のみ、または、第1画像選択工程および第2画像選択工程のみが行われてもよい。
また、上記の実施形態では、選定対象となる機械学習モデルが、細胞を含む画像中の細胞領域を認定してセグメント化する画像処理を行うものであった。しかしながら、本発明において、選定対象となる機械学習モデルはこれに限られない。本発明において選定対象となる機械学習モデルは、画像処理を行う機械学習モデルであればよい。例えば、複数の細胞をセグメント化し、マルチラベル分類する機械学習モデルであってもよいし、する画像中に写った物体を判別する機械学習モデルであってもよいし、画像を観察しやすい態様に画像処理を行う機械学習モデルであってもよい。
また、上記の実施形態や変形例に登場した各要素を、矛盾が生じない範囲で、適宜に組み合わせてもよい。
1 機械学習モデル選定装置
22 機械学習モデル選定部
32 第1画像選択部
33 第1モデル選定部
34 第2画像選択部
35 第2モデル選定部
36 第3画像選択部
37 第3モデル選定部
G0 全画像群
G1 第1画像群
G2 第2画像群
G3 第3画像群
M0 全モデル群
M1 第1モデル群
M2 第2モデル群
Mf 選定モデル
S3 機械学習モデル選定工程
S32 第1画像選択工程
S33 第1モデル選定工程
S34 第2画像選択工程
S35 第2モデル選定工程
S36 第3画像選択工程
S37 第3モデル選定工程

Claims (8)

  1. 画像処理を行う複数の機械学習モデルの中から、複数の確認用画像を用いて少なくとも1つの機械学習モデルを選定するモデル選定方法であって、
    a)少なくとも1つの前記確認用画像を含む第1画像群を用いて、全ての機械学習モデルを含む全モデル群に含まれる前記機械学習モデルから複数の前記機械学習モデルを選定して第1モデル群とする、第1モデル選定工程と、
    b)前記工程a)の後に、複数の前記確認用画像を含む第2画像群を用いて、前記第1モデル群に含まれる前記機械学習モデルから少なくとも1つの前記機械学習モデルを選定して第2モデル群とする、第2モデル選定工程と、
    を有し、
    前記第2画像群に含まれる前記確認用画像の数は、前記第1画像群に含まれる前記確認用画像の数よりも多い、モデル選定方法。
  2. 請求項1に記載のモデル選定方法であって、
    前記工程a)は、
    a1)前記第1画像群に含まれる全ての前記確認用画像を、前記全モデル群に含まれる全ての前記機械学習モデルに入力した出力結果を得る工程と、
    a2)前記工程a1)で得られた前記出力結果を表示する工程と、
    a3)前記全モデル群に含まれる前記機械学習モデルの一部を選定する選定結果が外部から入力される工程と、
    を含む、モデル選定方法。
  3. 請求項1または請求項2に記載のモデル選定方法であって、
    前記工程b)は、
    b1)前記第2画像群に含まれる全ての前記確認用画像を、前記第1モデル群に含まれる全ての前記機械学習モデルに入力した出力結果を得る工程と、
    b2)前記工程b1)で得られた前記出力結果を表示する工程と、
    b3)前記第1モデル群に含まれる前記機械学習モデルの一部を選定する選定結果が外部から入力される工程と、
    を含む、モデル選定方法。
  4. 請求項1ないし請求項3のいずれか1項に記載のモデル選定方法であって、
    前記第2モデル群は、複数の前記機械学習モデルを含み、
    c)前記工程b)の後に、複数の前記確認用画像を含む第3画像群を用いて、前記第2モデル群に含まれる前記機械学習モデルから1つの前記機械学習モデルを選定する、第3モデル選定工程
    をさらに有し、
    前記第3画像群に含まれる前記確認用画像の数は、前記第2画像群に含まれる前記確認用画像の数よりも多い、モデル選定方法。
  5. 請求項1ないし請求項4のいずれか1項に記載のモデル選定方法であって、
    d)前記工程a)の前に、全ての前記確認用画像の中から1つまたは複数の画像を選択して前記第1画像群とする、第1画像選択工程と、
    e)前記工程a)の後、かつ、前記工程b)の前に、全ての前記確認用画像の中から複数の画像を選択して前記第2画像群とする、第2画像選択工程と、
    をさらに有する、モデル選定方法。
  6. 請求項5に記載のモデル選定方法であって、
    前記工程d)は、
    d1)全ての前記確認用画像を、前記全モデル群に含まれる全ての前記機械学習モデルに入力した出力結果を得る工程と、
    d2)前記確認用画像ごとに、前記工程d1)で得られた前記出力結果のばらつきを算出する工程と、
    d3)前記工程d2)において算出された前記ばらつきが大きい前記確認用画像を全ての前記確認用画像の中から選択して前記第1画像群とする工程と、
    を含む、モデル選定方法。
  7. 請求項1ないし請求項6のいずれか1項に記載のモデル選定方法であって、
    前記機械学習モデルは、細胞を含む画像中の細胞領域を認識してセグメント化する画像処理を行う、モデル選定方法。
  8. 複数の解析用画像に対して、機械学習モデルを用いて画像処理を行う画像処理方法であって、
    s)請求項1ないし請求項7のいずれか1項に記載のモデル選定方法によって1つの前記機械学習モデルを選定する工程と、
    t)前記工程s)において選定された前記機械学習モデルを用いて、複数の前記解析用画像に対して画像処理を行う工程と、
    を有し、
    前記工程s)における前記確認用画像は、前記工程t)における処理対象である前記解析用画像である、画像処理方法。
JP2022027505A 2022-02-25 2022-02-25 モデル選定方法および画像処理方法 Pending JP2023123987A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2022027505A JP2023123987A (ja) 2022-02-25 2022-02-25 モデル選定方法および画像処理方法
PCT/JP2022/044930 WO2023162394A1 (ja) 2022-02-25 2022-12-06 モデル選定方法および画像処理方法
TW111147891A TWI834429B (zh) 2022-02-25 2022-12-14 模型選定方法以及圖像處理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022027505A JP2023123987A (ja) 2022-02-25 2022-02-25 モデル選定方法および画像処理方法

Publications (1)

Publication Number Publication Date
JP2023123987A true JP2023123987A (ja) 2023-09-06

Family

ID=87765524

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022027505A Pending JP2023123987A (ja) 2022-02-25 2022-02-25 モデル選定方法および画像処理方法

Country Status (3)

Country Link
JP (1) JP2023123987A (ja)
TW (1) TWI834429B (ja)
WO (1) WO2023162394A1 (ja)

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3146463B1 (en) * 2014-05-23 2020-05-13 Ventana Medical Systems, Inc. Systems and methods for detection of biological structures and/or patterns in images
GB2543429B (en) * 2015-02-19 2017-09-27 Magic Pony Tech Ltd Machine learning for visual processing
CN107169955B (zh) * 2017-04-26 2021-11-12 中国人民解放军总医院 一种智能化的医学图像处理装置与方法
KR20200066732A (ko) * 2017-11-30 2020-06-10 난토믹스, 엘엘씨 딥 러닝을 사용한 병리 슬라이드 이미지에서의 분자 아형의 종양내 이질성 검출
JP7250793B2 (ja) * 2017-12-07 2023-04-03 ベンタナ メディカル システムズ, インコーポレイテッド 生体画像における連帯的細胞および領域分類のための深層学習システムならびに方法
JP7229881B2 (ja) * 2018-08-14 2023-02-28 キヤノン株式会社 医用画像処理装置、学習済モデル、医用画像処理方法及びプログラム
JP7046786B2 (ja) * 2018-12-11 2022-04-04 株式会社日立製作所 機械学習システム、ドメイン変換装置、及び機械学習方法
JPWO2021095256A1 (ja) * 2019-11-15 2021-05-20

Also Published As

Publication number Publication date
WO2023162394A1 (ja) 2023-08-31
TWI834429B (zh) 2024-03-01
TW202334867A (zh) 2023-09-01

Similar Documents

Publication Publication Date Title
AU2020200835B2 (en) System and method for reviewing and analyzing cytological specimens
Jeckel et al. Advances and opportunities in image analysis of bacterial cells and communities
CN111524137B (zh) 基于图像识别的细胞识别计数方法、装置和计算机设备
JP2022527145A (ja) 予測的組織パターン特定のためのマルチプルインスタンスラーナ
JP7378597B2 (ja) 機械学習アルゴリズムを使用したトレーニングデータセットの準備
US11176412B2 (en) Systems and methods for encoding image features of high-resolution digital images of biological specimens
CN114445356A (zh) 基于多分辨率的全视野病理切片图像肿瘤快速定位方法
RU2732895C1 (ru) Метод для выделения и классификации типов клеток крови с помощью глубоких сверточных нейронных сетей
WO2024104510A1 (zh) 一种分析组织细胞成分的方法、装置及存储介质
CN112703531A (zh) 生成组织图像的注释数据
WO2023162394A1 (ja) モデル選定方法および画像処理方法
CN113705595A (zh) 异常细胞转移程度的预测方法、装置和存储介质
CN113591791B (zh) 基于自学习人工智能的肺癌自动化识别系统
Rifkin Identifying fluorescently labeled single molecules in image stacks using machine learning
Mao et al. W-net: A two-stage convolutional network for nucleus detection in histopathology image
Villareal et al. Patch-based convolutional neural networks for TCGA-BRCA breast cancer classification
Prabhakaran et al. Addressing persistent challenges in digital image analysis of cancerous tissues
US20240086460A1 (en) Whole slide image search
Banerjee Image processing of biofilms and its applications
CN114119506A (zh) 基于背景信息的图像显著性检测方法
Anandababu et al. Structural similarity measurement with metaheuristic algorithm for content based image retrieval
Zineddin et al. A multi-view approach to cDNA micro-array analysis
CN114724046A (zh) 一种光学遥感图像检测方法、装置以及存储介质
Srinivas et al. AN EFFICIENT TECHNIQUE FOR ANALYSIS OF MICRO ARRAY IMAGES USING GENEPIX SOFTWARE