JP7463512B2 - 情報処理装置、情報処理方法、及びプログラム - Google Patents

情報処理装置、情報処理方法、及びプログラム Download PDF

Info

Publication number
JP7463512B2
JP7463512B2 JP2022533791A JP2022533791A JP7463512B2 JP 7463512 B2 JP7463512 B2 JP 7463512B2 JP 2022533791 A JP2022533791 A JP 2022533791A JP 2022533791 A JP2022533791 A JP 2022533791A JP 7463512 B2 JP7463512 B2 JP 7463512B2
Authority
JP
Japan
Prior art keywords
cell
image
cells
classification
sample image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022533791A
Other languages
English (en)
Other versions
JPWO2022004318A1 (ja
Inventor
雅也 長瀬
努 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JPWO2022004318A1 publication Critical patent/JPWO2022004318A1/ja
Application granted granted Critical
Publication of JP7463512B2 publication Critical patent/JP7463512B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/698Matching; Classification
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M41/00Means for regulation, monitoring, measurement or control, e.g. flow regulation
    • C12M41/30Means for regulation, monitoring, measurement or control, e.g. flow regulation of concentration
    • C12M41/36Means for regulation, monitoring, measurement or control, e.g. flow regulation of concentration of biomass, e.g. colony counters or by turbidity measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/693Acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/69Microscopic objects, e.g. biological cells or cellular parts
    • G06V20/695Preprocessing, e.g. image segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Chemical & Material Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Organic Chemistry (AREA)
  • Zoology (AREA)
  • Wood Science & Technology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Analytical Chemistry (AREA)
  • Biotechnology (AREA)
  • Microbiology (AREA)
  • Sustainable Development (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biochemistry (AREA)
  • General Engineering & Computer Science (AREA)
  • Genetics & Genomics (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)

Description

本開示の技術は、情報処理装置、情報処理方法、及びプログラムに関する。
近年、抗体医薬品が注目されている。抗体医薬品は、従来の低分子医薬品と違って複雑なタンパク質等によるものであるので、人工的に合成することは難しい。そのため、抗体医薬品は、CHO(Chinese Hamster Ovary)細胞等の細胞に所望のタンパク質に対応する遺伝子を挿入し、細胞の機能によって所望のタンパク質を産生させた後、タンパク質を抽出及び精製することにより製造される。
また、ウェルプレートの各ウェル(培養容器)に、遺伝子が挿入された細胞を1つずつ播種して培養することにより、単一細胞に由来する細胞集団を生成するシングルセルクローニング技術が知られている。シングルセルクローニング技術によれば、抗体を生産する細胞の均一性が向上し、これにより生産される抗体医薬品の品質が向上する。
しかし、ウェルに細胞を播種する際に、誤って複数の細胞が播種される場合がある。このような場合には、ウェル内で培養された細胞集団(コロニー)は、複数の細胞に由来することとなり、細胞の単一性(いわゆるモノクローナリティ)が得られない。ウェル内で培養された細胞集団について、細胞の単一性を保証するためには、ウェルに播種された直後の細胞が単一細胞であったことを確認する必要がある。
単一細胞の播種は、遺伝子が挿入された細胞及び培地を含む液体を、ウェルに分注することにより行われる。特開2019-201666号公報には、複数のウェルに分注を行った後、各ウェルに存在する細胞の数を、細胞標識を用いて決定することが提案されている。
しかしながら、特開2019-201666号公報に記載の技術では、播種時点での細胞の単一性を保証することは難しいことから、画像による細胞の単一性の判定が併用して行われているのが実情である。
細胞が播種されたウェルには、真の細胞のほかに、ゴミ等の非細胞が存在する可能性がある。非細胞には、形状が細胞に類似するものがあるため、画像処理により細胞を検出するには、真の細胞のみを検出するように検出精度を高めることが考えられる。一方で、検出精度を高めると、細胞を非細胞と判定してしまい、感度が低下する恐れがある。このように、細胞の検出精度が高い場合には、ウェルに複数の細胞が播種された場合であっても、播種された複数のうちのいくつかの細胞を非細胞と判定してしまうことがある。この結果、細胞の単一性の保証精度が低下する。
本開示の技術は、細胞の単一性の保証精度を高めること、すなわち、第一に感度の高い細胞検出、第二にその上で精度とできる限り両立させる細胞検出を可能とする情報処理装置、情報処理方法、及びプログラムを提供する。
上記目的を達成するために、本開示の情報処理装置は、細胞が播種された容器を撮像した容器画像から細胞の単一性を判定するための細胞候補領域を検出する情報処理装置であって、少なくとも1つのプロセッサを備え、プロセッサは、容器画像を取得する取得処理を行い、取得した容器画像から、細胞を含む細胞領域と、細胞に類似する物体を含む細胞類似領域とを、細胞候補領域として検出する検出処理を行い、検出した細胞候補領域を表す情報を出力する出力処理を行う。
プロセッサは、検出処理において、教師データを用いて学習モデルを学習させることにより作成された検出用学習済みモデルを用いて細胞候補領域を検出することが好ましい。
教師データは、細胞であることを表すラベルが付与された細胞サンプル画像と、非細胞であることを表すラベルが付与された非細胞サンプル画像とをそれぞれ複数含むデータセットであり、プロセッサは、非細胞サンプル画像のうち細胞サンプル画像に類似するものを細胞類似サンプル画像として分類する分類処理を行い、細胞サンプル画像及び細胞類似サンプル画像を細胞候補領域として検出する検出用学習済みモデルを作成する学習処理を行うことが好ましい。
非細胞サンプル画像にはサブラベルが付与されており、プロセッサは、分類処理において、サブラベルに基づき、外観上の特徴が細胞と類似する非細胞サンプル画像を、細胞類似サンプル画像として分類することが好ましい。
プロセッサは、分類処理において、細胞サンプル画像と非細胞サンプル画像とを特徴量に基づいて特徴量空間にマッピングし、特徴量空間において非細胞サンプル画像のうち細胞サンプル画像に類似するものを、細胞類似サンプル画像として分類することが好ましい。
プロセッサは、分類処理において、細胞サンプル画像と非細胞サンプル画像とのうち、細胞サンプル画像のみを細胞候補領域として分類する分類用学習済みモデルを用いて、細胞候補領域として誤分類された非細胞サンプル画像を細胞類似サンプル画像として分類することが好ましい。
プロセッサは、分類処理を行った後、検出用学習済みモデルを作成するための学習処理を行い、学習途中の学習モデルを分類用学習済みモデルに置き換える置換処理を行うことが好ましい。
プロセッサは、複数の非細胞サンプル画像に対して、規定回数、又は、細胞候補領域として誤分類される非細胞サンプル画像がなくなるまで分類処理、学習処理、及び置換処理を繰り返すことが好ましい。
プロセッサは、学習処理において、深層学習により学習モデルを学習させることが好ましい。
プロセッサは、出力処理において、細胞候補領域を、容器画像とは区別してディスプレイに表示させる表示処理を行うことが好ましい。
プロセッサは、表示処理において、ディスプレイに表示された細胞候補領域に対して、細胞である確度を表示することが好ましい。
プロセッサは、ディスプレイに表示された細胞候補領域に対して、細胞であるか否かの判定結果をユーザが付与する操作を受け付ける受付処理を行うことが好ましい。
プロセッサは、受付処理により受け付けた判定結果を、細胞候補領域に対して付与する付与処理を行うことが好ましい。
プロセッサは、取得処理により取得した容器画像が複数存在する場合に、検出処理による細胞候補領域の検出結果、又は、付与処理により付与した判定結果を、容器画像ごとに集計し、集計結果を出力することが好ましい。
集計結果には、容器画像ごとの細胞の単一性、又は、細胞の個数が含まれることが好ましい。
本開示の情報処理方法は、細胞が播種された容器を撮像した容器画像から細胞の単一性を判定するための細胞候補領域を検出する処理を行う情報処理方法であって、容器画像を取得する取得処理と、取得した容器画像から、細胞を含む細胞領域と、細胞に類似する物体を含む細胞類似領域とを、細胞候補領域として検出する検出処理と、検出した細胞候補領域を表す情報を出力する出力処理とを行う。
細胞が播種された容器を撮像した容器画像から細胞の単一性を判定するための細胞候補領域を検出する処理をコンピュータに実行させるプログラムであって、容器画像を取得する取得処理と、取得した容器画像から、細胞を含む細胞領域と、細胞に類似する物体を含む細胞類似領域とを、細胞候補領域として検出する検出処理と、検出した細胞候補領域を表す情報を出力する出力処理と、をコンピュータに実行させる。
本開示の技術によれば、細胞の単一性の保証精度を高めること、すなわち、第一に感度の高い細胞検出、第二にその上で精度とできる限り両立させる細胞検出を可能とする情報処理装置、情報処理方法、及びプログラムを提供することができる。
判定支援システムの概略図である。 容器画像の一例を示す模式図である。 情報処理装置のハードウェア構成を示すブロック図である。 情報処理装置の運用フェーズにおける機能構成を示すブロック図である。 検出処理を説明する図である。 細胞候補領域の表示例を示す図である。 判定結果を入力するための入力インタフェースの一例を示す図である。 集計結果の表示例を示す図である。 判定支援システムの一連の処理の流れを示すフローチャートである。 情報処理装置の学習フェーズにおける機能構成を示すブロック図である。 分類処理の一例を示す図である。 学習処理の一例を示す図である。 第1変形例に係る分類処理を説明する図である。 第2変形例に係る分類処理を説明する図である。 第3変形例に係る分類処理を説明する図である。 第3変形例に係る学習処理を説明する図である。 第3変形例に係る置換処理を説明する図である。 置換処理後に行われる分類処理の例を示す図である。 繰り返し処理の一例を示すフローチャートである。 細胞候補領域の表示形態の変形例を示す図である。 細胞候補領域の表示形態の他の変形例を示す図である。 細胞候補領域に細胞である確度を表示する例を示す図である。 本開示の検出用学習済みモデルによる真の細胞の分類結果を示す図である。 従来の学習済みモデルによる真の細胞の分類結果を示す図である。
図1は、判定支援システム2を概略的に示す。判定支援システム2は、培養容器としてのウェルに細胞が播種された時点において、ウェルに1つの細胞のみが播種されたか否か、すなわち細胞の単一性の判定を支援するシステムである。最終的な細胞の単一性の判定は、細胞が播種された時点におけるウェルの画像に基づいて、ユーザにより行われる。判定支援システム2は、ウェルの画像において、ユーザが判定すべき領域である細胞候補領域を提示することにより細胞の単一性の判定を支援する。
判定支援システム2は、撮像装置3と、情報処理装置4とを含む。情報処理装置4は、コンピュータにより構成される。情報処理装置4には、ディスプレイ5、キーボード6、及びマウス7などが接続されている。キーボード6及びマウス7は、ユーザが情報を入力するための入力操作部8を構成する。入力操作部8には、タッチパネル等も含まれる。
撮像装置3は、例えば位相差顕微鏡であり、細胞が播種されて培養されるウェルプレート10を撮像対象として光学的に撮像する。図1では、撮像対象を照明するための光源等は、図示を省略している。ウェルプレート10には、複数のウェル11が形成されている。ウェルプレート10として、例えば、96個のウェル11が形成された「96ウェルプレート」が用いられる。各ウェル11は、1つの細胞が播種される培養容器である。本実施形態では、図示の簡略化のため、ウェルプレート10として、24個のウェル11が形成された「24ウェルプレート」を示している。
細胞の播種は、細胞を含む培地溶液が入ったリザーバから、ピペット12等を用いて各ウェル11に液滴13を分注することにより行われる。液滴13には、細胞20が含まれている。細胞20は、例えば、抗体の生産を行うCHO細胞である。細胞20には、例えば、所望のヒトタンパク質に対応する遺伝子が挿入されている。
撮像装置3は、ウェルプレート10の各ウェル11を撮像対象として撮像を行う。撮像装置3は、各ウェル11に液滴13が分注された直後に撮像を行う。撮像装置3が撮像したウェル11の画像(以下、容器画像という。)WPは、それぞれ情報処理装置4に送信される。容器画像WPには、播種された細胞20が撮像されている。詳しくは、後述するが、情報処理装置4は、容器画像WP内から、細胞20を含む細胞領域と、細胞20に類似する物体を含む細胞類似領域とを、細胞候補領域として検出する。
図2は、容器画像WPの一例を模式的に示す。図2に示すように、容器画像WPには、細胞20のほか、細胞ではない非細胞構造物21が撮像される可能性がある。非細胞構造物21には、ゴミ、デブリ、細胞又は非細胞構造物の影、ウェルのキズ等が含まれる。また、非細胞構造物21は、外観上の形状に基づいて、細胞に類似する構造物である細胞類似構造物22と、細胞に類似しない構造物である細胞非類似構造物23とに分けられる。
細胞20は、例えば形状に注目して、その形状を端的に単純化して表現することにより、「円形の構造物」であると定義する。細胞類似構造物22は、外観の形状が細胞20に近く(すなわち、形状が円形に近く)、細胞である可能性がある構造物である。細胞非類似構造物23は、外観の形状が細胞20とは大きく異なり、細胞である可能性がない構造物である。ここで、「細胞の可能性がある」とは、「可能性が一定値以上である」ことを意味する。これに対して、「細胞である可能性がない」とは、「可能性が一定値未満である」ことを意味する。なお、細胞20は、形状以外の特徴に基づいて定義されてもよい。
情報処理装置4は、容器画像WPに基づき、細胞20を含む細胞領域、及び細胞類似構造物22を含む細胞類似領域を、細胞候補領域として検出する。情報処理装置4は、細胞20を含む領域に加えて、細胞類似構造物22を検出対象とする。これにより、真の細胞を含む領域を細胞候補領域と検出する割合である感度が向上する。上述の一定値は、感度の目標設定値(例えば90%、95%、99%等)に対応する。
図3は、情報処理装置4のハードウェア構成を示す。図3に示すように、情報処理装置4は、CPU(Central Processing Unit)30、記憶装置31、及び通信部32を備え、これらはバスライン33を介して相互接続されている。また、バスライン33には、前述のディスプレイ5及び入力操作部8が接続されている。
CPU30は、記憶装置31に格納されたプログラム31A及び各種データ(図示せず)を読み出して処理を実行することにより、各種機能を実現する演算装置である。CPU30は、本開示の技術に係るプロセッサの一例である。
記憶装置31は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、又はストレージ装置等を含む。RAMは、例えば、ワークエリア等として用いられる揮発性メモリである。ROMは、例えば、プログラム31A及び各種データを保持するフラッシュメモリ等の不揮発性メモリである。ストレージ装置は、例えば、HDD(Hard Disk Drive)又はSSD(Solid State Drive)である。ストレージは、OS(Operating System)、アプリケーションプログラム、画像データ、及び各種データ等を記憶する。
通信部32は、LAN(Local Area Network)又はWAN(Wide Area Network)等のネットワークを介した各種情報の伝送制御を行うネットワークインターフェースである。ディスプレイ5は、各種画面を表示する。情報処理装置4は、各種画面を通じて、入力操作部8からの操作指示の入力を受け付ける。
図4は、情報処理装置4の運用フェーズにおける機能構成を示す。情報処理装置4の機能は、プログラム31Aに基づいてCPU30が処理を実行することにより実現される。情報処理装置4は、上述の細胞候補領域の検出処理を、機械学習により生成された学習済みモデルを用いて行う。図4に示す機能構成は、学習済みモデルが運用される「運用フェーズ」において実現される構成である。
運用フェーズでは、CPU30には、リードライト制御部(以下、RW制御部という。)40、取得部41、検出部42、表示制御部43、受付部44、付与部45、及び集計部46が構成される。
RW制御部40は、記憶装置31からの各種データの読み出し、及び記憶装置31への各種データの書き込みを制御する。RW制御部40は、撮像装置3から受信した容器画像WPを記憶装置31に書き込む。
取得部41は、RW制御部40を介して記憶装置31から容器画像WPを取得する取得処理を行う。取得部41は、取得した容器画像WPを検出部42に入力する。また、取得部41は、取得した容器画像WPを表示制御部43に入力する。
検出部42は、学習モデルM(図12参照)を、教師データを用いて学習させた検出用学習済みモデルLMDを用いて、細胞候補領域の検出処理を行う。検出用学習済みモデルLMDは、例えば、深層学習により学習が行われた畳み込みニューラルネットワークによって構成されている。検出用学習済みモデルLMDは、記憶装置31に記憶されている。検出部42は、CPU30が検出用学習済みモデルLMDを用いて処理を行うことにより実現される機能部である。
図5は、検出部42による検出処理を説明する。図5に示すように、検出部42には、取得部41から入力された容器画像WPが、入力画像として入力される。検出部42は、検出用学習済みモデルLMDを用いて、入力された容器画像WPに基づいて物体検出を行うことにより、何らかの構造物である物体を含む物体領域Rを検出する。そして、検出部42は、検出した各物体領域Rを、物体領域R内の構造物の特徴量に基づいて複数のクラスに分類する。なお、物体領域は、バウンディングボックスとも称される。
検出部42は、例えば、物体領域Rを、細胞クラスC1、細胞類似クラスC2A、及び細胞非類似クラスC2Bの3つのクラスに分類する。細胞クラスC1は、細胞20を含む物体領域R(以下、細胞領域R1という。)が分類されるクラスである。細胞類似クラスC2Aは、細胞類似構造物22を含む物体領域R(以下、細胞類似領域R2Aという。)が分類されるクラスである。細胞非類似クラスC2Bは、細胞非類似構造物23を含む物体領域R(以下、細胞非類似領域R2Bという。)が分類されるクラスである。
検出部42は、物体領域Rのうち、細胞領域R1又は細胞類似領域R2Aに分類される領域を、それぞれ細胞候補領域PRとして検出する。
なお、検出部42は、物体領域Rを3クラスに分類するものには限られない。例えば、検出部42は、物体領域Rを細胞候補クラスと非細胞候補クラスとの2クラスに分類するものであってもよい。
図4に戻り、検出部42は、細胞候補領域PRの検出結果を表示制御部43に供給する。また、検出部42は、細胞候補領域PRの検出結果を、RW制御部40を介して記憶装置31に書き込む。
表示制御部43は、取得部41から供給された容器画像WPと、検出部42から供給された細胞候補領域PRの検出結果とに基づき、細胞候補領域PRを容器画像WPとは区別してディスプレイ5に表示させる表示処理を行う。具体的には、表示制御部43は、ディスプレイ5に容器画像WPを表示させ、かつ容器画像WP内に細胞候補領域PRを表す情報を表示させる。表示制御部43は、本開示の技術に係る出力処理を行う出力部の一例である。
受付部44は、ディスプレイ5に表示された細胞候補領域PRに対して、細胞であるか否かの判定結果CRをユーザが付与する操作を受け付ける受付処理を行う。ユーザは、ディスプレイ5に表示された細胞候補領域PR内の構造物が細胞であるか否かを判定し、入力操作部8を用いて、ユーザの目視による判定結果CRを入力することができる。受付部44は、入力操作部8を用いて入力される判定結果CRを受け付け、受け付けた判定結果CRを付与部45に供給する。
付与部45は、受付部44が受け付けた判定結果CRを、細胞候補領域PRに対して付与する付与処理を行う。具体的には、付与部45は、受付部44から判定結果CRが供給されると、RW制御部40を介して記憶装置31に書き込む。判定結果CRは、対応する細胞候補領域PRと対応付けられて、記憶装置31に記憶される。なお、記憶装置31には、容器画像WPごとに検出される複数の細胞候補領域PRの各々に対して判定結果CRが付与されて記憶される。
なお、記憶装置31に記憶された複数の細胞候補領域PRに対する判定結果CRを、後述する学習モデルMの教師データとして用いてもよい。
集計部46は、例えば、1つの容器画像WPから検出された複数の細胞候補領域PRのすべてに対して判定結果CRの付与が行われたことを条件として、集計処理を開始する。集計部46は、検出部42による細胞候補領域PRの検出結果、又は、付与部45により付与した判定結果CRを、容器画像WPごとに集計し、集計結果ARを出力する集計処理を行う。本実施形態では、集計部46は、細胞候補領域PRの各々に対して付与された判定結果CRを容器画像WPごとに集計して、集計結果ARを出力する。
集計部46が出力した集計結果ARは、表示制御部43に供給される。表示制御部43は、集計結果AR(図8参照)をディスプレイ5に表示させる。ユーザは、ディスプレイ5に表示された集計結果ARに基づいて、各ウェル11に播種された細胞が単一であったか否かを視覚的に容易に判定することができる。
図6は、表示制御部43による細胞候補領域PRの表示例を示す。図6に示すように、例えば、表示制御部43は、容器画像WP内に細胞候補領域PRを表示させるとともに、容器画像WP外に、細胞候補領域PRの各々の拡大画像を表示させる。ユーザは、拡大画像を観察することにより、細胞であるか否かの判定をより正確に行うことができる。なお、複数の拡大画像は、一部が重なるように表示されてもよい。また、細胞候補領域PRの形状は、矩形に限られず、円形等の他の形状であってもよい。さらに、表示制御部43は、細胞候補領域PRを、着色等により強調表示してもよい。
図7は、細胞であるか否かの判定結果CRを入力するための入力インタフェースの一例を示す。図7に示すように、例えば、表示制御部43は、ユーザにより選択された細胞候補領域PRの拡大画像に加えて、GUI(Graphical User Interface)としての選択ボックス47をディスプレイ5に表示させる。ユーザは、選択ボックス47に基づき、入力操作部8を用いて、細胞と非細胞とのいずれであるかを選択し、選択を確定することができる。入力操作部8を用いて選択が確定されると、細胞であるか否かの判定結果CRが前述の受付部44に入力される。
また、入力操作部8を用いて入力された判定結果CRを、図6に示す細胞候補領域PRの表示に反映させることも好ましい。例えば、表示制御部43は、ユーザによって細胞であると判定された細胞候補領域PRと、細胞でないと判定された細胞候補領域PRとを異なる色で表示させる。
また、記憶装置31に記憶された判定結果CR及び細胞候補領域PRを、入力操作部8の操作に応じて、ディスプレイ5に表示させることも好ましい。これにより、ユーザは、過去に入力した判定結果CRを確認することができる。また、複数のユーザが判定を行う場合に、他のユーザにより入力された判定結果CRを確認することができる。
図8は、表示制御部43による集計結果ARの表示例を示す。図8に示すように、集計結果ARに基づき、ウェルプレート10の各ウェル11が、「単一細胞」、「2細胞以上」、又は「細胞なし」のいずれであるかが表示される。図8に示す表示態様は、いわゆるヒートマップと呼ばれるものであり、ユーザは、単一細胞が播種されたウェル11の数及び位置を視覚的に把握することができる。なお、集計結果ARは、ヒートマップに限定されず、ウェル11ごとに、細胞の単一性、又は、細胞の個数が表形式でリスト化されたものであってもよい。
次に、判定支援システム2の一連の処理の流れを、図9に示すフローチャートを用いて説明する。まず、取得部41は、撮像装置3により撮像されて記憶装置31に記憶された容器画像WPを取得する(ステップS10)。ステップS10において、取得部41は、取得した容器画像WPを、検出部42及び表示制御部43に供給する。
検出部42は、取得部41から入力された容器画像WPから、細胞領域R1及び細胞類似領域R2A(図5参照)を細胞候補領域PRとして検出する(ステップS11)。ステップS11において、検出部42は、細胞候補領域PRの検出結果を表示制御部43に供給するとともに、記憶装置31に書き込む。
表示制御部43は、検出部42から供給された細胞候補領域PRを、例えば図6に示すようにディスプレイ5に表示させる(ステップS12)。ユーザは、ディスプレイ5に表示された細胞候補領域PR内の構造物が細胞であるか否かを判定し、例えば図7に示すように、入力操作部8を用いて判定結果CRを入力する(ステップS13)。
受付部44は、入力操作部8を用いて判定結果CRが入力されると(ステップS13:YES)、判定結果CRを受け付け、受け付けた判定結果CRを付与部45に供給する(ステップS14)。付与部45は、受付部44から供給された判定結果CRを、細胞候補領域PRに対して付与する(ステップS15)。
次に、ユーザが1つの容器画像WPから検出された複数の細胞候補領域PRのすべてに対して判定結果CRが入力されることにより、入力操作が終了したか否かが判定される(ステップS16)。入力操作が終了していない場合には(ステップS16:NO)、処理がステップS13に戻される。一方、入力操作が終了した場合には(ステップS16:YES)、集計部46が集計処理を行う(ステップS17)。ステップS17において、集計部46は、集計結果ARを出力し、表示制御部43に供給する。
表示制御部43は、例えば図8に示すように、集計結果ARをディスプレイ5に表示させる(ステップS17)。以上により、判定支援システム2の一連の処理が終了する。
なお、ステップS16では、ユーザが1つの容器画像WPから検出された複数の細胞候補領域PRのすべてに対して判定結果CRが入力したことを、入力操作の終了条件としている。これに代えて、1つの容器画像WPに対して、2つの細胞候補領域PRが真の細胞と判定された(すなわち、細胞が単一でないと判定された)時点で、当該容器画像WPに対する入力操作を終了させてもよい。
本実施形態の判定支援システム2によれば、容器画像WPから、細胞を含む細胞領域R1に加えて、細胞に類似する物体を含む細胞類似領域R2Aを、細胞候補領域として検出してユーザに提示するので、真の細胞を含む領域を細胞候補領域PRと検出する割合である感度が向上する。これにより、細胞の単一性の保証精度を高めること、すなわち、第一に感度の高い細胞検出、第二にその上で精度とできる限り両立させる細胞検出が可能となる。ここで精度とは、細胞候補領域PRとして検出する検出数(細胞を含む細胞領域R1の検出数と、細胞に類似する物体を含む細胞類似領域R2Aの検出数とを合わせた数)に対して、真の細胞を含む領域を細胞候補領域PRとして検出する検出数の割合である。従来のように純粋な真分類に従って細胞及び非細胞の特徴量を捉えることにより感度を調整する方法に対して、できる限りの高感度を維持するという前提のもとで、精度を調整することが可能となる。さらに、未知のサンプルで、既知の非細胞サンプルに類似する特徴をもつ細胞が出現した場合に、後述の各実施形態により、その感度を維持することができる。
次に、図10は、情報処理装置4の学習フェーズにおける機能構成を示す。図10に示す機能構成は、教師データを用いて学習モデルMを学習させることにより検出用学習済みモデルLMDを作成するための「学習フェーズ」において実現される構成である。
学習フェーズでは、CPU30には、RW制御部50、取得部51、分類部52、及び学習部53が構成される。RW制御部50及び取得部51は、運用フェーズにおけるRW制御部40及び取得部41と同様の機能部である。
学習フェーズでは、RW制御部50は、サンプル画像SPを記憶装置31に書き込む。サンプル画像SPは、細胞サンプル画像SP1と非細胞サンプル画像SP2とをそれぞれ複数含むデータセットであり、学習モデルMを学習させるための教師データとして用いられる。細胞サンプル画像SP1は、細胞であることを表すラベルが付与されている。非細胞サンプル画像SP2は、非細胞であることを表すラベルが付与されている。
取得部51は、RW制御部50を介して記憶装置31からサンプル画像SPを取得し、ラベルに基づいて細胞サンプル画像SP1と非細胞サンプル画像SP2とを識別する。また、取得部51は、取得したサンプル画像SPに含まれる細胞サンプル画像SP1と非細胞サンプル画像SP2とのうち、非細胞サンプル画像SP2を分類部52に入力する。また、取得部51は、細胞サンプル画像SP1と非細胞サンプル画像SP2とのうち、細胞サンプル画像SP1を、学習部53に入力する。
分類部52は、後述するサブラベルに基づいて、取得部51から入力された非細胞サンプル画像SP2のうち、細胞サンプル画像SP1に類似するものを細胞類似サンプル画像SP2Aとして分類し、細胞サンプル画像SP1に類似しないものを細胞非類似サンプル画像SP2Bとして分類する。分類部52は、分類した細胞類似サンプル画像SP2A及び細胞非類似サンプル画像SP2Bを、分類結果とともに学習部53に入力する。
なお、取得部51がサンプル画像SPをすべて分類部52に入力し、分類部52が、サンプル画像SPを、細胞サンプル画像SP1、細胞類似サンプル画像SP2A、及び細胞非類似サンプル画像SP2Bに分類してもよい。この場合、分類部52から学習部53に、細胞サンプル画像SP1、細胞類似サンプル画像SP2A、及び細胞非類似サンプル画像SP2Bが入力される。
記憶装置31には、学習モデルMが記憶されている。詳しくは後述するが、学習部53は、細胞サンプル画像SP1及び細胞類似サンプル画像SP2Aを、前述の細胞候補領域PRとして検出するように学習モデルMを学習させることにより、検出用学習済みモデルLMDを作成する。
図11は、分類部52による分類処理の一例を示す。図11に示すように、例えば、サンプル画像SPには、細胞であるか否かを表すラベルが付与されている。さらに、非細胞サンプル画像SP2は、ラベルが細分化されており、細胞であるか否かを表すラベルに加えて、サブラベルが付与されている。サブラベルは、非細胞サンプル画像SP2の構造物の特徴を表す。例えば、非細胞サンプル画像SP2には、「円形の埃」、「細胞の影」、「捻じれた死細胞」、「気泡」、「ウェルの傷」といったサブラベルが付与されている。
分類部52は、非細胞サンプル画像SP2に付与されたサブラベルに基づき、外観上の特徴が細胞と類似するものを、細胞類似サンプル画像SP2Aとして分類する。例えば、分類部52は、「円形の埃」又は「細胞の影」といったサブラベルが付与された非細胞サンプル画像SP2を細胞類似サンプル画像SP2Aとして分類する。一方、分類部52は、細胞とは明らかに異なる「捻じれた死細胞」、「気泡」、又は「ウェルの傷」といったサブラベルが付与された非細胞サンプル画像SP2を、細胞非類似サンプル画像SP2Bとして分類する。
なお、細胞類似サンプル画像SP2Aとして分類する分類対象のサブラベルは、予め設定される。例えば、各種のサブラベルを視覚的類似性に基づいて並べ、目的とする細胞の感度又は検出数に基づいて、細胞類似サンプル画像SP2Aとして分類する分類対象のサブラベルを設定すればよい。
図12は、学習部53による学習処理の一例を示す。図12に示すように、学習部53には、学習モデルMの重み及びバイアスを調整する調整部53Aが設けられている。学習モデルMは、入力層L1、中間層L2、及び出力層L3を有するニューラルネットワークである。学習モデルMは、例えば、深層学習ネットワークの一種である畳み込みニューラルネットワークにより構成されている。
学習モデルMは、入力層L1に入力された入力画像に対するクラスを求め、出力層L3からクラスを出力する。以下、出力層L3から出力されるクラスを出力クラスCOという。学習モデルMは、細胞クラスC1、細胞類似クラスC2A、及び細胞非類似クラスC2Bのうち、いずれかのクラスを出力クラスCOとして出力する。
学習部53は、細胞サンプル画像SP1、細胞類似サンプル画像SP2A、及び細胞非類似サンプル画像SP2Bを、入力画像として学習モデルMに入力する。調整部53Aには、各サンプル画像に対応する正解クラスCAが入力される。学習モデルMに細胞サンプル画像SP1が入力される場合には、正解クラスCAは細胞クラスC1である。学習モデルMに細胞類似サンプル画像SP2Aが入力される場合には、正解クラスCAは細胞類似クラスC2Aである。学習モデルMに細胞非類似サンプル画像SP2Bが入力される場合には、正解クラスCAは細胞非類似クラスC2Bである。
調整部53Aは、例えば、二乗和誤差を求める損失関数を用いる。調整部53Aは、出力クラスCOと正解クラスCAとの二乗和誤差を求め、二乗和誤差の総和が最小になるように、学習モデルMの重み及びバイアスとを調整する。
学習部53は、調整後の最終的な重み及びバイアスが設定された学習モデルMを、検出用学習済みモデルLMDとして生成する。検出用学習済みモデルLMDは、細胞クラスC1及び細胞類似クラスC2Aに分類された物体領域Rを細胞候補領域PRとして検出する(図5参照)。
なお、検出用学習済みモデルLMDは、上記構成に限られず、容器画像WPから、細胞サンプル画像SP1を含む領域、及び細胞類似サンプル画像SP2Aを含む領域をそれぞれ細胞候補領域PRとして検出するように構成されたものであればよい。
また、検出用学習済みモデルLMDは、深層学習に限られず、サンプル画像SPに含まれる構造物の特徴量を定量化した上で、サポートベクターマシンを用いることにより構築された分類器を有するものであってもよい。この場合、特徴量として、構造物の外周長、又は円形度等が用いられる。また、特徴量として、局所的なコントラスト、明度、彩度、又はこれらの微分値を用いることができる。さらに、特徴量として、種々の周波数スペクトル成分を用いることができる。
また、検出用学習済みモデルLMDは、サポートベクターマシンに限られず、ランダムフォレスト、又はロジスティック回帰等の機械学習により構築された分類器を有するものであってもよい。
以下に、分類部52による分類処理について各種の変形例を示す。
[第1変形例]
上記実施形態では、分類部52は、非細胞サンプル画像SP2に付与されたサブラベルに基づいて細胞類似サンプル画像SP2Aと細胞非類似サンプル画像SP2Bとに分類しているが、本変形例では、分類部52は、非細胞サンプル画像SP2を、特徴量に基づいて細胞類似サンプル画像SP2Aと細胞非類似サンプル画像SP2Bとに分類する。
図13は、第1変形例に係る分類処理を説明する。本変形例では、分類部52は、細胞サンプル画像SP1と非細胞サンプル画像SP2とを共通の特徴量に基づいて、クラスタリング、PCA(Principal Component Analysis)、又はそれらに類する方法で特徴量空間にマッピングする。
そして、分類部52は、特徴量空間において、非細胞サンプル画像SP2のうち細胞サンプル画像SP1に類似するものを、細胞類似サンプル画像SP2Aとして分類する。具体的には、分類部52は、特徴量空間において、細胞サンプル画像SP1の全部又は大多数を含む領域を細胞クラスC1と定義し、細胞クラスに含まれる非細胞サンプル画像SP2を細胞類似サンプル画像SP2Aとして分類する。また、分類部52は、特徴量空間において、非細胞サンプル画像SP2の大部分を含む領域を非細胞クラスC2と定義し、非細胞クラスC2に含まれる非細胞サンプル画像SP2を細胞非類似サンプル画像SP2Bと分類する。
なお、分類部52は、特徴量空間におけるサンプル画像間の距離を「類似度」として定量化し、この類似度に基づき、細胞サンプル画像SP1との類似度が高い非細胞サンプル画像SP2を、細胞類似サンプル画像SP2Aとして分類してもよい。
なお、特徴量には、上述した構造物の外周長、又は円形度等が用いられる。細胞類似サンプル画像SP2Aの分類のために、より単純化した、又は複雑化した特徴量を用いてもよい。また、図13では、第1特徴量及び第2特徴量の2つの特徴量で表される特徴量空間を用いているが、3以上の特徴量で表される特徴量空間を用いてもよい。
[第2変形例]
第2変形例では、分類部52は、細胞サンプル画像SP1と非細胞サンプル画像SP2のうち、細胞サンプル画像SP1のみを細胞候補領域PRとして分類する分類用学習済みモデルLMCを用いて、細胞類似サンプル画像SP2Aと細胞非類似サンプル画像SP2Bとの分類を行う。
第2変形例に係る分類部52の構成を説明する。分類用学習済みモデルLMCは、上述の検出用学習済みモデルLMDとは異なり、細胞サンプル画像SP1と非細胞サンプル画像SP2とを、それぞれ細胞クラスC1と非細胞クラスC2とに分類するように学習させている。すなわち、分類用学習済みモデルLMCは、細胞クラスC1に分類される細胞サンプル画像SP1のみを細胞候補領域PRとして分類するように構成されている。分類用学習済みモデルLMCは、例えば、検出用学習済みモデルLMDと同様に、畳み込みニューラルネットワーク等により構成される。
図14は、第2変形例に係る分類処理を説明する。本変形例では、分類部52は、種々の非細胞サンプル画像SP2を入力画像として分類用学習済みモデルLMCに入力する。分類用学習済みモデルLMCは、基本的に、非細胞サンプル画像SP2を非細胞クラスC2に分類する。分類用学習済みモデルLMCにより、誤って細胞クラスC1に分類された非細胞サンプル画像SP2は、細胞サンプル画像SP1との類似度が高いと考えることができる。このように、分類用学習済みモデルLMCが、細胞サンプル画像SP1との類似度が高い非細胞サンプル画像SP2を細胞クラスC1に分類してしまう場合、本来は細胞である細胞サンプル画像SP1のうち、非細胞サンプル画像SP2と類似したものについても、非細胞クラスC2として誤分類してしまう可能性がある。これは、分類部52が、細胞クラスC1に属する非細胞サンプル画像SP2を非細胞として分類したしたままでは、細胞サンプル画像SP1のうち、細胞クラスC1に属する非細胞サンプル画像SP2に類似するものを、誤って非細胞と誤分類してしまうこと、つまり、細胞クラスC1に属する非細胞サンプル画像SP2に類似してはいるが、本来は細胞である細胞サンプル画像SP1を誤って非細胞と誤分類してしまうこと、すなわち、感度が低下することに対応する。
分類部52は、分類用学習済みモデルLMCに入力した非細胞サンプル画像SP2のうち、細胞クラスC1に分類されたもの(細胞候補領域PRとして誤分類されたもの)を細胞類似サンプル画像SP2Aとして分類する。また、分類部52は、分類用学習済みモデルLMCに入力した非細胞サンプル画像SP2のうち、非細胞クラスC2に分類されたものを細胞非類似サンプル画像SP2Bとして分類する。このように、分類部52は、細胞クラスC1に分類された画像サンプルの全体を、細胞サンプル画像SP1及び細胞類似サンプル画像SP2Aとして学習する。
仮に、分類部52が多数の非細胞サンプル画像SP2を細胞類似サンプル画像SP2Aとして分類すれば、感度が向上する一方で、細胞を検出する精度が低下する。本変形例では、分類部52は、細胞クラスC1に誤分類した非細胞サンプル画像SP2のみを細胞類似サンプル画像SP2Aとして分類することで、感度と精度とを両立させている。
[第3変形例]
第3変形例では、第2変形例の分類用学習済みモデルLMC(図14参照)を検出用学習済みモデルLMD(図5参照)と同様の構成とする。本変形例では、分類部52により分類した細胞類似サンプル画像SP2A及び細胞非類似サンプル画像SP2Bを用いて学習モデルMを学習させ、学習途中の学習モデルMで分類用学習済みモデルLMCを置き換える置換処理を行う。
第3変形例に係る分類部52の構成を説明する。本変形例では、分類用学習済みモデルLMCは、検出用学習済みモデルLMDと同様に、サンプル画像を、細胞クラスC1、細胞類似クラスC2A、及び細胞非類似クラスC2Bの3つのクラスに分類する。分類用学習済みモデルLMCは、初期の設計上、細胞サンプル画像SP1と非細胞サンプル画像SP2とを、それぞれ細胞クラスC1と細胞非類似クラスC2Bとに分類するように構成されている。すなわち、分類用学習済みモデルLMCは、細胞クラスC1に分類される細胞サンプル画像SP1のみを細胞候補領域PRとして分類するように構成されている。
図15は、第3変形例に係る分類処理を説明する。本変形例では、分類用学習済みモデルLMCは、基本的に、非細胞サンプル画像SP2を、細胞類似クラスC2A又は細胞非類似クラスC2Bに分類する。分類用学習済みモデルLMCにより、誤って細胞クラスC1に分類された非細胞サンプル画像SP2は、細胞サンプル画像SP1との類似度が高いと考えることができる。このように、分類用学習済みモデルLMCが、細胞サンプル画像SP1との類似度が高い非細胞サンプル画像SP2を細胞クラスC1に分類してしまう場合、分類用学習済みモデルLMCは、本来は細胞である細胞サンプル画像SP1のうち、非細胞サンプル画像SP2と類似したものについても、非細胞クラスC2として誤分類してしまう可能性がある。これは、分類部52が、細胞クラスC1に属する非細胞サンプル画像SP2を非細胞として学習したままでは、細胞サンプル画像SP1のうち、細胞クラスC1に属する非細胞サンプル画像SP2に類似するものを、誤って非細胞と誤分類してしまうこと、つまり、細胞クラスC1に属する非細胞サンプル画像SP2に類似してはいるが、本来は細胞である細胞サンプル画像SP1を誤って非細胞と誤分類してしまうこと、すなわち、感度が低下することに対応する。
分類部52は、分類用学習済みモデルLMCに入力した非細胞サンプル画像SP2のうち、誤って細胞クラスC1に分類されたもの(細胞候補領域PRとして誤分類されたもの)を細胞類似サンプル画像SP2Aとして分類する。また、分類用学習済みモデルLMCに入力した非細胞サンプル画像SP2のうち、細胞非類似クラスC2Bに分類されたものを細胞非類似サンプル画像SP2Bとして分類する。このように、分類部52は、細胞クラスC1に分類された画像サンプルの全体を、細胞サンプル画像SP1及び細胞類似サンプル画像SP2Aとして学習する。
仮に、分類部52が多数の非細胞サンプル画像SP2を細胞類似サンプル画像SP2Aとして分類すれば、感度が向上する一方で、細胞を検出する精度が低下する。本変形例では、分類部52は、細胞クラスC1に誤分類した非細胞サンプル画像SP2のみを細胞類似サンプル画像SP2Aとして分類することで、感度と精度とを両立させている。
図16は、第3変形例に係る学習処理を説明する。本変形例では、学習部53は、分類部52が分類した細胞類似サンプル画像SP2Aと細胞非類似サンプル画像SP2Bとを用いて学習モデルMを学習させる。具体的には、分類部52により分類された細胞類似サンプル画像SP2Aと細胞非類似サンプル画像SP2Bとを、それぞれ細胞類似クラスC2Aと細胞非類似クラスC2Bとに分類するように学習モデルMを学習させる。なお、学習部53は、さらに細胞サンプル画像SP1を用いて学習モデルMを学習させてもよい。
例えば、学習部53は、一定数の非細胞サンプル画像SP2が分類用学習済みモデルLMCに入力されて分類処理が行われるたびに、学習処理を行う。
図17は、第3変形例に係る学習処理を説明する。学習部53は、上述のように学習モデルMを学習させた後、学習モデルMで分類用学習済みモデルLMCを置き換える置換処理を行う。例えば、学習部53は、一定数の細胞類似サンプル画像SP2A及び細胞非類似サンプル画像SP2Bで学習モデルMを学習させるたびに、置換処理を行う。分類部52は、置換処理が行われた後、再度、分類用学習済みモデルLMCを用いて分類処理を行う。
図18は、置換処理後に行われる分類処理の例を示す。分類部52は、以前の分類処理において細胞クラスC1に分類した非細胞サンプル画像SP2(例えば、サブラベルが「細胞の影」の非細胞サンプル画像SP2)が入力されると、当該非細胞サンプル画像SP2を細胞類似クラスC2Aに分類する。また、分類部52は、新たに細胞サンプル画像SP1に類似する非細胞サンプル画像SP2(例えば、サブラベルが「円形の埃」の非細胞サンプル画像SP2)が入力されると、当該非細胞サンプル画像SP2を細胞クラスC1に分類する。
このように、分類部52は、置換処理が行われ、新たに細胞サンプル画像SP1に類似する非細胞サンプル画像SP2が入力されると、当該非細胞サンプル画像SP2を細胞類似サンプル画像SP2Aに分類して、学習部53に供給する。したがって、分類処理、学習処理、及び置換処理を繰り返し実行する繰り返し処理が行われることにより、学習モデルMの感度が次第に向上する。学習部53は、繰り返し処理が終了した時点における学習モデルMを、検出用学習済みモデルLMDとする。
なお、運用フェーズでは、検出用学習済みモデルLMDは、上記実施形態と同様に、細胞クラスC1に分類される細胞領域R1と、細胞非類似クラスC2Bに分類される細胞類似領域R2Aとを、それぞれ細胞候補領域PRとして検出する(図5参照)。
図19は、繰り返し処理の一例を示すフローチャートである。まず、複数の非細胞サンプル画像SP2のうち、一定数の非細胞サンプル画像SP2が分類部52に入力される(ステップS20)。分類部52により分類用学習済みモデルLMCを用いた分類処理が行われることにより、図15に示すように、非細胞サンプル画像SP2が、細胞類似サンプル画像SP2Aと細胞非類似サンプル画像SP2Bとに分類される(ステップS21)。図16に示すように、分類部52による分類結果に基づき、学習部53により学習モデルMを学習させる学習処理が行われる(ステップS22)。
次に、分類処理及び学習処理が規定回数終了したか否かが判定される(ステップS23)。分類処理及び学習処理が規定回数終了していない場合には(ステップS23:NO)、図17に示すように、学習処理で学習された学習モデルMで分類用学習済みモデルLMCを置換する置換処理が行われる(ステップS24)。この後、処理がステップS20に戻される。一方、分類処理及び学習処理が規定回数終了した場合には(ステップS23:YES)、処理が終了する。処理が終了した時点における学習モデルMが、運用フェーズで用いられる検出用学習済みモデルLMDとなる。
なお、図19に示すフローチャートでは、繰り返し処理の終了条件を、分類処理及び学習処理が規定回数終了したことを繰り返し処理の終了条件としている。これに代えて、分類処理において、細胞クラスC1に分類される非細胞サンプル画像SP2がなくなること、すなわち、細胞候補領域PRとして誤分類される非細胞サンプル画像SP2がなくなることを繰り返し処理の終了条件としてもよい。例えば、分類処理において、非細胞サンプル画像SP2が細胞類似クラスC2A又は細胞非類似クラスC2Bに分類される回数が一定回数続いた場合に、繰り返し処理を終了させる。
[その他の変形例]
次に、細胞候補領域PRの表示形態の変形例を示す。上記実施形態では、図6に示すように、表示制御部43は、細胞候補領域PRを拡大表示している。図20に示すように、本変形例では、表示制御部43は、容器画像WPから検出された複数の細胞候補領域PRのサムネイル画像を列挙して表示させる。これにより、ユーザは、複数の細胞候補領域PRを一目で確認することができる。
図21は、細胞候補領域PRの表示形態の他の変形例を示す。図21に示すように、本変形例では、表示制御部43は、容器画像WPから検出された複数の細胞候補領域PRのサムネイル画像を表示させ、さらに一部のサムネイル画像をさらに拡大して表示させる。さらに拡大表示させるサムネイル画像は、ユーザが入力操作部8を用いて操作することにより選択可能とすることが好ましい。これにより、ユーザは、細胞であるか否かの判定をより正確に行うことができる。
また、表示制御部43は、細胞候補領域PRに対して、細胞である確度を表示してもよい。細胞である確度は、検出用学習済みモデルLMDに判別器を設け、細胞候補領域PRを検出した後、検出した細胞候補領域PR内の構造物が細胞であることの確度を、判別器で求めればよい。例えば、図22に示すように、表示制御部43は、細胞候補領域PRの各々の拡大画像に、細胞である確度をパーセント表示する。ユーザは、細胞候補領域PRに対して表示される確度を参考にして、細胞であるか否かの判定を行うことができる。
なお、2値化されていない確度を2値化する2値化処理を行うことにより、単一細胞であるか否かのみの情報を表示してもよい。なお、確度は、数値に限られず、色又は濃度等により表してもよい。
上記実施形態では、検出用学習済みモデルLMDは、物体領域Rを、細胞クラスC1、細胞類似クラスC2A、及び細胞非類似クラスC2Bの3つのクラスに分類している。これに代えて、検出用学習済みモデルLMDを、細胞クラスC1と細胞類似クラスC2Aとを統合したクラスと、細胞非類似クラスC2Bとの2つのクラスに物体領域Rを分類するように構成してもよい。この場合、表示制御部43は、2値化処理を行うことなく、検出用学習済みモデルLMDによる2クラスの分類の結果を確度に対応させることで、確度を2値表示することができる。
[実施例]
次に、本開示の方法により細胞の単一性の判定を行った例を示す。本実施例では、140個のウェル11にCHO細胞を播種した直後に各ウェル11を撮像装置3で撮像することにより、140枚の容器画像WPを取得した。そして、すべての容器画像WPを対象として、容器画像WP内のすべての構造物を、人が目視で、細胞クラスC1、細胞類似クラスC2A、及び細胞非類似クラスC2Bに分類することにより、各構造物の正解クラスCAを作成した。
次に、学習フェーズにおいて、140枚の容器画像WPのうち、70枚の容器画像WPを教師データとして学習モデルMを学習させることにより、検出用学習済みモデルLMDを作成した。そして、運用フェーズにおいて、残りの70枚の容器画像WPをテスト用画像として検出用学習済みモデルLMDに入力することにより、検出用学習済みモデルLMDによる細胞候補領域PRの検出結果を確認した。
なお、テスト用画像としての70枚の容器画像WPからは、人が目視で判定することにより、230個の構造物が確認され、このうち、90個の構造物が真の細胞である(すなわち、細胞クラスC1に分類される)ことが確認されている。
また、従来の方法に従って細胞のみを検出するように作成した学習済みモデル、すなわち、細胞と非細胞に分類する学習済みモデルに、上記のテスト用画像を入力することにより、従来の学習済みモデルによる細胞候補領域PRの検出結果を確認した。
図23は、本開示の検出用学習済みモデルLMDによる真の細胞の分類結果を示す。図23に示すように、本開示の検出用学習済みモデルLMDによれば、真の細胞のうちの95%が、細胞クラスC1又は細胞類似クラスC2Aに分類された結果、細胞候補領域PRとして検出された。すなわち、本開示の検出用学習済みモデルLMDの感度は、95%であった。
図24は、従来の学習済みモデルによる真の細胞の分類結果を示す。図24に示すように、従来の学習済みモデルによれば、真の細胞のうちの76%が、細胞クラスC1に分類された結果、細胞候補領域PRとして検出された。すなわち、従来の学習済みモデルの感度は、76%であった。
このように、従来の技術では、感度が76%であるのに対して、本開示の技術では、感度が95%に向上した。すなわち、本開示の技術によれば、細胞の単一性の保証精度が向上することが確認された。
また、本開示の検出用学習済みモデルLMDに、細胞類似クラスC2Aに分類された3022個の非細胞サンプル画像SP2を入力した結果、1335個の非細胞サンプル画像SP2が細胞類似クラスC2Aに再分類され、1687個の非細胞サンプル画像SP2が細胞非類似クラスC2Aに再分類された。これは、非細胞を細胞として検出する過剰検出が約55%削減される可能性を示唆している。すなわち、感度と精度の両立を示唆している。
また、感度に目標値を設定した上で、サンプル画像を用いた学習を多段階に実施することで、目標値に向けて漸進的に検出用学習済みモデルLMDの性能を向上させることも好ましい。
以上のように、本開示の技術によれば、高い感度を前提としながら、必要に応じて過剰な検出を抑止できる。すなわち、本開示の技術によれば、未知のサンプルで、既知の非細胞サンプルに類似する特徴をもつ細胞が出現した場合に、その感度を維持することができる。
情報処理装置4を構成するコンピュータのハードウェア構成は種々の変形が可能である。例えば、情報処理装置4を、処理能力および信頼性の向上を目的として、ハードウェアとして分離された複数台のコンピュータで構成することも可能である。
上記実施形態において、例えば、RW制御部40、取得部41、検出部42、表示制御部43、受付部44、付与部45、集計部46、RW制御部50、取得部51、分類部52、及び学習部53といった各種の処理を実行する処理部(Processing Unit)のハードウェア的な構造としては、次に示す各種のプロセッサ(Processor)を用いることができる。各種のプロセッサには、上述したように、ソフトウェア(プログラム31A)を実行して各種の処理部として機能する汎用的なプロセッサであるCPU30に加えて、FPGA(Field Programmable Gate Array)等の製造後に回路構成を変更可能なプロセッサであるプログラマブルロジックデバイス(Programmable Logic Device: PLD)、ASIC(Application Specific Integrated Circuit)等の特定の処理を実行させるために専用に設計された回路構成を有するプロセッサである専用電気回路等が含まれる。
1つの処理部は、これらの各種のプロセッサのうちの1つで構成されてもよいし、同種または異種の2つ以上のプロセッサの組み合わせ(例えば、複数のFPGAの組み合わせ、及び/又は、CPUとFPGAとの組み合わせ)で構成されてもよい。また、複数の処理部を1つのプロセッサで構成してもよい。
複数の処理部を1つのプロセッサで構成する例としては、第1に、クライアントおよびサーバ等のコンピュータに代表されるように、1つ以上のCPUとソフトウェアの組み合わせで1つのプロセッサを構成し、このプロセッサが複数の処理部として機能する形態がある。第2に、システムオンチップ(System On Chip: SoC)等に代表されるように、複数の処理部を含むシステム全体の機能を1つのIC(Integrated Circuit)チップで実現するプロセッサを使用する形態がある。このように、各種の処理部は、ハードウェア的な構造として、上記各種のプロセッサの1つ以上を用いて構成される。
さらに、これらの各種のプロセッサのハードウェア的な構造としては、より具体的には、半導体素子等の回路素子を組み合わせた電気回路(circuitry)を用いることができる。
本明細書に記載された全ての文献、特許出願および技術規格は、個々の文献、特許出願および技術規格が参照により取り込まれることが具体的かつ個々に記された場合と同程度に、本明細書中に参照により取り込まれる。

Claims (12)

  1. 細胞が播種された容器を撮像した容器画像から細胞の単一性を判定するための細胞候補領域を検出する情報処理装置であって、
    少なくとも1つのプロセッサを備え、
    前記プロセッサは、
    前記容器画像を取得する取得処理を行い、
    細胞であることを表すラベルが付与された細胞サンプル画像と、非細胞であることを表すラベルが付与された非細胞サンプル画像とをそれぞれ複数含むデータセットである教師データを用いて学習モデルを学習させることにより作成された検出用学習済みモデルを用いて、前記取得処理で取得した前記容器画像から、細胞を含む細胞領域と、細胞に類似する物体を含む細胞類似領域とを、前記細胞候補領域として検出する検出処理を行い、
    検出した前記細胞候補領域を表す情報を出力する出力処理を行い、
    前記非細胞サンプル画像のうち前記細胞サンプル画像に類似するものを細胞類似サンプル画像として分類する分類処理を行い、
    前記細胞サンプル画像及び前記細胞類似サンプル画像を前記細胞候補領域として検出する前記検出用学習済みモデルを作成する学習処理を行い、
    前記分類処理において、前記細胞サンプル画像と前記非細胞サンプル画像とのうち、前記細胞サンプル画像のみを前記細胞候補領域として分類する分類用学習済みモデルを用いて、前記細胞候補領域として誤分類された前記非細胞サンプル画像を前記細胞類似サンプル画像として分類する、
    情報処理装置。
  2. 前記プロセッサは、
    前記分類処理を行った後、前記検出用学習済みモデルを作成するための前記学習処理を行い、学習途中の前記学習モデルを前記分類用学習済みモデルに置き換える置換処理を行う、
    請求項に記載の情報処理装置。
  3. 前記プロセッサは、
    複数の前記非細胞サンプル画像に対して、規定回数、又は、前記細胞候補領域として誤分類される前記非細胞サンプル画像がなくなるまで前記分類処理、前記学習処理、及び前記置換処理を繰り返す、
    請求項に記載の情報処理装置。
  4. 前記プロセッサは、
    前記学習処理において、深層学習により前記学習モデルを学習させる、
    請求項から請求項のうちいずれか1項に記載の情報処理装置。
  5. 前記プロセッサは、
    前記出力処理において、前記細胞候補領域を、前記容器画像とは区別してディスプレイに表示させる表示処理を行う、
    請求項1から請求項のうちいずれか1項に記載の情報処理装置。
  6. 前記プロセッサは、
    前記表示処理において、前記ディスプレイに表示された前記細胞候補領域に対して、細胞である確度を表示する、
    請求項に記載の情報処理装置。
  7. 前記プロセッサは、
    前記ディスプレイに表示された前記細胞候補領域に対して、細胞であるか否かの判定結果をユーザが付与する操作を受け付ける受付処理を行う、
    請求項又は請求項に記載の情報処理装置。
  8. 前記プロセッサは、
    前記受付処理により受け付けた前記判定結果を、前記細胞候補領域に対して付与する付与処理を行う、
    請求項に記載の情報処理装置。
  9. 前記プロセッサは、
    前記取得処理により取得した前記容器画像が複数存在する場合に、
    前記検出処理による前記細胞候補領域の検出結果、又は、前記付与処理により付与した前記判定結果を、前記容器画像ごとに集計し、集計結果を出力する、
    請求項に記載の情報処理装置。
  10. 前記集計結果には、前記容器画像ごとの細胞の単一性、又は、細胞の個数が含まれる、
    請求項に記載の情報処理装置。
  11. 細胞が播種された容器を撮像した容器画像から細胞の単一性を判定するための細胞候補領域を検出する処理を行う情報処理方法であって、
    前記容器画像を取得する取得処理と、
    細胞であることを表すラベルが付与された細胞サンプル画像と、非細胞であることを表すラベルが付与された非細胞サンプル画像とをそれぞれ複数含むデータセットである教師データを用いて学習モデルを学習させることにより作成された検出用学習済みモデルを用いて、前記取得処理で取得した前記容器画像から、細胞を含む細胞領域と、細胞に類似する物体を含む細胞類似領域とを、前記細胞候補領域として検出する検出処理と、
    検出した前記細胞候補領域を表す情報を出力する出力処理と、
    前記非細胞サンプル画像のうち前記細胞サンプル画像に類似するものを細胞類似サンプル画像として分類する分類処理と、
    前記細胞サンプル画像及び前記細胞類似サンプル画像を前記細胞候補領域として検出する前記検出用学習済みモデルを作成する学習処理と、
    前記分類処理において、前記細胞サンプル画像と前記非細胞サンプル画像とのうち、前記細胞サンプル画像のみを前記細胞候補領域として分類する分類用学習済みモデルを用いて、前記細胞候補領域として誤分類された前記非細胞サンプル画像を前記細胞類似サンプル画像として分類することと、
    を含む情報処理方法。
  12. 細胞が播種された容器を撮像した容器画像から細胞の単一性を判定するための細胞候補領域を検出する処理をコンピュータに実行させるプログラムであって、
    前記容器画像を取得する取得処理と、
    細胞であることを表すラベルが付与された細胞サンプル画像と、非細胞であることを表すラベルが付与された非細胞サンプル画像とをそれぞれ複数含むデータセットである教師データを用いて学習モデルを学習させることにより作成された検出用学習済みモデルを用いて、前記取得処理で取得した前記容器画像から、細胞を含む細胞領域と、細胞に類似する物体を含む細胞類似領域とを、前記細胞候補領域として検出する検出処理と、
    検出した前記細胞候補領域を表す情報を出力する出力処理と、
    前記非細胞サンプル画像のうち前記細胞サンプル画像に類似するものを細胞類似サンプル画像として分類する分類処理と、
    前記細胞サンプル画像及び前記細胞類似サンプル画像を前記細胞候補領域として検出する前記検出用学習済みモデルを作成する学習処理と、
    前記分類処理において、前記細胞サンプル画像と前記非細胞サンプル画像とのうち、前記細胞サンプル画像のみを前記細胞候補領域として分類する分類用学習済みモデルを用いて、前記細胞候補領域として誤分類された前記非細胞サンプル画像を前記細胞類似サンプル画像として分類することと、
    をコンピュータに実行させるプログラム。
JP2022533791A 2020-07-02 2021-06-09 情報処理装置、情報処理方法、及びプログラム Active JP7463512B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2020115066 2020-07-02
JP2020115066 2020-07-02
PCT/JP2021/021997 WO2022004318A1 (ja) 2020-07-02 2021-06-09 情報処理装置、情報処理方法、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2022004318A1 JPWO2022004318A1 (ja) 2022-01-06
JP7463512B2 true JP7463512B2 (ja) 2024-04-08

Family

ID=79315294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022533791A Active JP7463512B2 (ja) 2020-07-02 2021-06-09 情報処理装置、情報処理方法、及びプログラム

Country Status (4)

Country Link
US (1) US20230127415A1 (ja)
EP (1) EP4177332A1 (ja)
JP (1) JP7463512B2 (ja)
WO (1) WO2022004318A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7532754B2 (ja) * 2019-09-04 2024-08-14 株式会社ニコン 画像解析装置、細胞培養観察装置、画像解析方法、及びプログラム

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014041084A (ja) 2012-08-23 2014-03-06 Fuji Xerox Co Ltd 画像処理装置、プログラム及び画像処理システム
JP2015091220A (ja) 2013-11-08 2015-05-14 東洋製罐グループホールディングス株式会社 細胞計数装置、細胞計数システム、細胞計数方法及び細胞計数プログラム
WO2017082048A1 (ja) 2015-11-10 2017-05-18 株式会社Screenホールディングス 分類器構成方法およびこれを用いた細胞の生死判定方法
JP2019195304A (ja) 2018-05-10 2019-11-14 学校法人順天堂 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1586897B1 (en) * 2002-11-07 2010-08-04 Fujitsu Limited Image analysis supporting method, image analysis supporting program, and image analysis supporting device
WO2016134342A1 (en) 2015-02-20 2016-08-25 Wafergen, Inc. Method for rapid accurate dispensing, visualization and analysis of single cells
WO2019034328A1 (en) * 2017-08-15 2019-02-21 Siemens Healthcare Gmbh IDENTIFYING THE QUALITY OF CELLULAR IMAGES ACQUIRED USING DIGITAL HOLOGRAPHIC MICROSCOPY USING CONVOLUTIONAL NEURAL NETWORKS

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014041084A (ja) 2012-08-23 2014-03-06 Fuji Xerox Co Ltd 画像処理装置、プログラム及び画像処理システム
JP2015091220A (ja) 2013-11-08 2015-05-14 東洋製罐グループホールディングス株式会社 細胞計数装置、細胞計数システム、細胞計数方法及び細胞計数プログラム
WO2017082048A1 (ja) 2015-11-10 2017-05-18 株式会社Screenホールディングス 分類器構成方法およびこれを用いた細胞の生死判定方法
JP2019195304A (ja) 2018-05-10 2019-11-14 学校法人順天堂 画像解析方法、装置、コンピュータプログラム、及び深層学習アルゴリズムの生成方法

Also Published As

Publication number Publication date
WO2022004318A1 (ja) 2022-01-06
US20230127415A1 (en) 2023-04-27
EP4177332A1 (en) 2023-05-10
JPWO2022004318A1 (ja) 2022-01-06

Similar Documents

Publication Publication Date Title
US11901077B2 (en) Multiple instance learner for prognostic tissue pattern identification
US11288795B2 (en) Assessing risk of breast cancer recurrence
US20220237788A1 (en) Multiple instance learner for tissue image classification
Saeys et al. Computational flow cytometry: helping to make sense of high-dimensional immunology data
US12067720B2 (en) Quality control of automated whole-slide analyses
US8831327B2 (en) Systems and methods for tissue classification using attributes of a biomarker enhanced tissue network (BETN)
US11756677B2 (en) System and method for interactively and iteratively developing algorithms for detection of biological structures in biological samples
JP2017509903A (ja) 貨物の検査方法およびそのシステム
Marée The need for careful data collection for pattern recognition in digital pathology
Dürr et al. Know when you don't know: a robust deep learning approach in the presence of unknown phenotypes
CN115210779A (zh) 生物样品中对象的系统性表征
JP6531036B2 (ja) 教師データ作成支援方法、画像分類方法、教師データ作成支援装置および画像分類装置
JP7463512B2 (ja) 情報処理装置、情報処理方法、及びプログラム
Panes et al. Identification of point sources in gamma rays using U-shaped convolutional neural networks and a data challenge
JP6763673B2 (ja) 教師データ作成支援装置、画像分類装置、教師データ作成支援方法および画像分類方法
WO2022150554A1 (en) Quantification of conditions on biomedical images across staining modalities using a multi-task deep learning framework
Salami et al. Building confidence in deep learning-based image analytics for characterization of pharmaceutical samples
Cosatto et al. A multi-scale conditional deep model for tumor cell ratio counting
Vanea et al. Mapping cell-to-tissue graphs across human placenta histology whole slide images using deep learning with HAPPY
US20230024468A1 (en) Systems and methods to process electronic images to determine histopathology quality
US20240232242A1 (en) Data quality control and integration for digital pathology
US20240004540A1 (en) Methods, apparatuses, and computer-readable media for enhancing digital pathology platform
Pantanowitz Digital pathology & artificial intelligence: feasibility for clinical practice

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240327

R150 Certificate of patent or registration of utility model

Ref document number: 7463512

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150