JPWO2020152953A1 - 判別装置、細胞塊の判別方法、及びコンピュータプログラム - Google Patents

判別装置、細胞塊の判別方法、及びコンピュータプログラム Download PDF

Info

Publication number
JPWO2020152953A1
JPWO2020152953A1 JP2020567379A JP2020567379A JPWO2020152953A1 JP WO2020152953 A1 JPWO2020152953 A1 JP WO2020152953A1 JP 2020567379 A JP2020567379 A JP 2020567379A JP 2020567379 A JP2020567379 A JP 2020567379A JP WO2020152953 A1 JPWO2020152953 A1 JP WO2020152953A1
Authority
JP
Japan
Prior art keywords
cell mass
state
index
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020567379A
Other languages
English (en)
Other versions
JP7359163B2 (ja
Inventor
大地 末政
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
JSR Corp
Original Assignee
JSR Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by JSR Corp filed Critical JSR Corp
Publication of JPWO2020152953A1 publication Critical patent/JPWO2020152953A1/ja
Application granted granted Critical
Publication of JP7359163B2 publication Critical patent/JP7359163B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M41/00Means for regulation, monitoring, measurement or control, e.g. flow regulation
    • C12M41/48Automatic or computerized control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M23/00Constructional details, e.g. recesses, hinges
    • C12M23/02Form or structure of the vessel
    • C12M23/12Well or multiwell plates
    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M41/00Means for regulation, monitoring, measurement or control, e.g. flow regulation
    • C12M41/30Means for regulation, monitoring, measurement or control, e.g. flow regulation of concentration
    • C12M41/36Means for regulation, monitoring, measurement or control, e.g. flow regulation of concentration of biomass, e.g. colony counters or by turbidity measurements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Landscapes

  • Engineering & Computer Science (AREA)
  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Wood Science & Technology (AREA)
  • Organic Chemistry (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Zoology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Microbiology (AREA)
  • Biotechnology (AREA)
  • Biochemistry (AREA)
  • Biomedical Technology (AREA)
  • Sustainable Development (AREA)
  • Genetics & Genomics (AREA)
  • Analytical Chemistry (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Clinical Laboratory Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Image Analysis (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Micro-Organisms Or Cultivation Processes Thereof (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Abstract

細胞塊を判別する判別装置は、細胞塊の特徴を示す少なくとも1つの指標からなる所定の指標についての第1の細胞塊に係る指標と、前記第1の細胞塊の状態が第1の状態であるか又は前記第1の状態とは異なる第2の状態であるかを示す情報と、が対応付けられた学習用データに基づいて機械学習がなされた学習済みモデルを記憶する記憶部と、前記所定の指標についての第2の細胞塊に係る指標を取得する画像解析部と、前記第2の細胞塊に係る指標を前記学習済みモデルに基づいて、前記第2の細胞塊の状態が前記第1の状態であるか又は前記第2の状態であるかを判別する判別処理部と、を備える。

Description

本発明は、判別装置、細胞塊の判別方法、及びコンピュータプログラムに関する。
本願は、2019年1月23日に、日本に出願された特願2019−009384号に基づき優先権を主張し、その内容をここに援用する。
昨今、生体内の組織あるいは臓器に極めて似た立体構造体であるオルガノイドの培養に関する研究が進んでいる。例えば非特許文献1には、培養されたオルガノイドの画像から特徴量を抽出して解析を行うことにより、フェノタイプを分類する技術が記載されている。培養されたオルガノイドを解析することによって、例えば、組織再生、幹細胞、幹細胞ニッチの機能、薬剤に対する組織反応、及び突然変異や組織損傷等の様々な生理病理学的な状態についての検討をより正確に行うことが可能になる。
ところで、オルガノイドの解析においては、正常に成長したオルガノイドのみを用いなければならない。正常なオルガノイドを効率よく培養するためには、成育する段階において、細胞塊がオルガノイドになる前駆体であるか否かについての判別を精度よく行い、オルガノイドになると見込まれる前駆体のみを予め選別することが望ましい。
M. A. Borten, at el., "Automated brightfield morphometry of 3D organoid populations by OrganoSeg," Scientific Reports, s41598-017-18815-8, Nature, 28 March 2018.
しかしながら、従来、例えば腸管オルガノイドの培養においては、細胞塊がオルガノイドになる前駆体であるか否かについての判別は、専門家による目視での判断に基づく場合が多かった。そのため、専門家がいなければこの判別を行うことができないという課題があった。さらには、専門家による定性的な判断に基づく判別であることによって、判別結果にバラつきが生じる場合があるという課題があった。ところで、オルガノイドを用いたドラッグスクリーニングを実施する場合には、オルガノイドが大量に使用されることが考えられる。また、ドラッグスクリーニングに使用する場合には、特定の薬剤への結果の再現性や感度の安定性が求められることから、均質なオルガノイドが必要となる。このため、ドラッグスクリーニングに用いるオルガノイドには安定した品質のオルガノイドが必要であり、そのためには専門家等の手技による差なくオルガノイド前駆体であるか否かについての判別を定量的に行うことができる技術が必要とされている。
本発明は、上記のような技術的背景に鑑みてなされたものであり、細胞塊がオルガノイドになる前駆体であるか否かについての判別を定量的に行うことができる技術を提供することを目的とする。
本発明の一態様は、上記の判別装置であって、前記第1の状態はバディングの状態であり、前記第2の状態はシストの状態である。
本発明の一態様は、上記の判別装置であって、前記所定の指標は、前記細胞塊の色の濃さを表す指標を含む。
本発明の一態様は、上記の判別装置であって、前記所定の指標は、前記細胞塊の形状の複雑さを表す指標を含む。
本発明の一態様は、上記の判別装置であって、前記機械学習は、前記所定の指標を説明変数としたロジスティック関数の偏回帰係数を決定するための学習である。
本発明の一態様は、上記の判別装置であって、前記画像解析部に、前記第2の細胞塊が撮像された画像を送達する画像取得部
をさらに備える。
本発明の一態様は、上記の判別装置であって、前記画像解析部は、前記画像に対してCanny法により前記第2の細胞塊のエッジを検出し、検出された前記エッジの数に基づいて前記細胞塊の形状の複雑さを表す指標を計測する。
本発明の一態様は、コンピュータにより実行させる細胞塊の判別方法であって、細胞塊の特徴を示す少なくとも1つの指標からなる所定の指標についての第1の細胞塊に係る指標と、前記第1の細胞塊の状態が第1の状態であるか又は前記第1の状態とは異なる第2の状態であるかを示す情報と、が対応付けられた学習用データに基づいて機械学習がなされた学習済みモデルを取得するステップと、前記所定の指標についての第2の細胞塊に係る指標値を取得するステップと、取得した前記第2の細胞塊に係る指標を前記学習済みモデルに基づいて、前記第2の細胞塊の状態が前記第1の状態であるか又は前記第2の状態であるかを判別するステップと、を有する細胞塊の判別方法である。
本発明の一態様は、コンピュータによる実行時、請求項8の細胞塊の判別方法をコンピュータに実行させる指示を備えるコンピュータプログラムである。
本発明の一態様である判別装置は、細胞塊がオルガノイドになる前駆体であるか否かについての判別を定量的に行うことができる。
図1は、オルガノイドの培養の流れを示す模式図である。 図2は、本発明の実施形態に係る判別装置によって用いられる5つの指標を説明するための図である。 図3は、本発明の実施形態に係る判別装置の機能構成を示すブロック図である。 図4は、本発明の実施形態に係る判別装置によって出力される指標の一例を示す図である。 図5は、本発明の実施形態に係る判別装置によって出力される指標のその他の例を示す図である。 図6は、図3に係る判別装置1の学習部10の動作を示すフローチャートである。 図7は、図3に係る判別装置1の判別部20の動作を示すフローチャートである。
以下、本発明の実施形態(以下、「本実施形態」ともいう)について、図面を参照しながら説明するが、本発明は以下の実施形態に何ら限定されるものではない。
以下に説明する本実施形態に係る判別装置は、オルガノイドを培養するための細胞塊の成育状態に基づいて、当該細胞塊がオルガノイドになる前駆体であるか否かを判別するための装置である。まず、本実施形態におけるオルガノイドの培養、及び上記判別の流れについて説明する。
図1は、オルガノイドの培養の流れを示す模式図である。まず、ウェルプレートwpが有する複数の(図1に示す例においては12個の)ウェルw内には、ニッチ因子を含む培地が予め用意される。次に、細胞塊(例えば、腸管上皮幹細胞を含む細胞塊)が、ウェルw内に格納される。これにより、各ウェルw内において細胞塊がそれぞれ成育され、オルガノイドの培養が行われる。1つのウェルwにはオルガノイドになりうる細胞塊を複数存在することができる。
各ウェルw内は、撮像装置(図示せず)によって撮像することができる。撮像された画像は、細胞塊の単位で分割され、分割された画像はそれぞれ解析対象の画像(以下、「解析対象画像」という。)になる。具体的な画像の分割方法の一例としては、例えば次のとおりである。まず、撮像された各ウェルw内の画像において、オルガノイドになりうる細胞塊に相当する複数の範囲が複数のROI(Region of Interest;関心領域)として認識される。これは、例えば、OpenCV−Pythonライブラリを用い、適切な閾値が設定されることによって行われる。そして、認識されたROIごとに画像を分割することにより、複数の解析対象画像が生成される。
判別装置は、解析対象画像を取得し、当該解析対象画像に対して画像解析部にて画像解析を行う。画像解析としては、解析対象画像に対して、例えば、図2に示す5つの指標の測定を行う。
図2は、画像解析に用いられる指標の一例を示す。図2では、画像解析は、取得した解析対象画像に写っている細胞塊に対して、サイズ(Size)、円形度(Circularity)、色の濃さ(Darkness)、アスペクト(Aspect)、及び凹凸度(Roughness)の5つの指標を測定して解析する。そして、画像解析部は、測定された指標に基づいて、解析対象画像に写る細胞塊が、オルガノイドになる前駆体であるか否かを判別する。
一般的に、オルガノイドは、バディング(Budding;出芽)が発生していること(以下、「バディングの状態」という。)に基づいて、細胞塊がオルガノイドになる前駆体であると判別することが可能であることが知られている。細胞塊がオルガノイドになる前駆体である場合には、ひだ状の構造の組織が成長して形状が複雑化していくという特徴があるため、これにより判別を行うことができる。上記の5つの指標は、例えば、このような腸管オルガノイドの特徴に基づいて選定された指標である。
画像解析部は、測定された5つの指標に基づいて、バディングの状態であるか、あるいは、バディングの状態とは逆の状態に相当するシスト(Cyst;嚢胞)の状態であるか(すなわち、解析対象画像に写る細胞塊がオルガノイドになる前駆体であるか否か)についての画像解析を行う。
具体的には、画像解析部は、予め機械学習によって生成した学習済みモデルに対して上記の5つの指標を入力することにより、バディングの状態である確率を示すバディングレート(Budding Rate)の値を算出する。判別処理部は、バディングレートの値に基づいてバディングの状態であるか、あるいはシストの状態であるかを判別する。なお、判別処理部は、例えば、バディングレートの値が所定の閾値を超えている否かに基づいて、バディングの状態であるか、あるいはシストの状態であるかを判別する。
上記5つの指標の具体的な測定方法として、例えば、以下のような測定方法が用いられる。
サイズ(Size)の測定は、例えば、解析対象画像のROIにあたる領域の画素数を計測することによって行われる。すなわち、サイズ(Size)は、細胞塊の大きさを表す指標である。一般に、オルガノイドになる前駆体は大きさが大きくなっていくことから、サイズ(Size)の値が大きいほど、よりバディングの状態であると判別されやすくなる。
円形度(Circularity)の測定は、例えば、以下に示す(1)式を計算することによって行われる。
円形度=4πS/(Per)2 ・・・(1)
ここで、Sは、解析対象画像のROIの直径(又は半径)を表す。また、Perは、解析対象画像のROIの円周長を表す。すなわち、円形度(Circularity)は、細胞塊の形状がどの程度、円形に近似しているかを表すパラメータである。(1)式によって、円形度(Circularity)は、0から1までの間の値によって表される。例えば、細胞塊の外周の形状が真円であるならば、円形度(Circularity)の値は1になる。一方、オルガノイドの外周の形状が複雑であるほど、円形度(Circularity)の値はより0に近くなる。一般に、オルガノイドになる前駆体は外周の形状が複雑に成長していくことから、円形度(Circularity)の値が小さいほど、よりバディングの状態であると判別されやすくなる。
色の濃さ(Darkness)の測定は、例えば、以下に示す(2)式を計算することによって行われる。
色の濃さ=Bo−Bi ・・・(2)
ここで、Boは、ROIの周辺の(例えば256階調の)輝度の平均値を表す。また、Biは、ROIの内部(すなわち、細胞塊の内部)の(例えば256階調の)輝度の平均値を表す。すなわち、色の濃さ(Darkness)は、ROIの内部の輝度とROIの周辺の輝度との差によって表される。一般に、オルガノイドになる前駆体は3次元に厚みが増すように成長する。これにより、ROIの内部において光の透過率が減少することから、色の濃さ(Darkness)の値が大きいほど、よりバディングの状態であると判別されやすくなる。
アスペクト(Aspect)の測定は、例えば、解析対象画像に含まれるROIにおいて、最も長い軸(最長軸)と最も短い軸(最短軸)とを計測し、最長軸の長さを最短軸の長さで除算することによって行われる。すなわち、アスペクト(Aspect)の値は、例えば、アスペクト=最長軸長/最短軸長、の式によって算出される。一般に、オルガノイドの前駆体は形状が複雑に成長していくことから、腸管オルガノイドの場合、アスペクト(Aspect)の値が大きいほど、よりバディングの状態であると判別されやすくなる。
凹凸度(Roughness)の測定は、例えば、ROIのエッジ(Edge)を検出し、検出されたエッジの数を計測することによって行われる。エッジの検出には、例えばCanny法等の手法を用いることができる。一般に、オルガノイドになる前駆体は形状が複雑に成長していくことから、凹凸度(Roughness)の値が大きいほど、よりバディングの状態であると判別されやすくなる。
なお、図2においては、上記5つの指標を用いるものとしたが、これに限られるものではなく、用いられる指標の数は任意である。用いられる指標の数が多いほど、より正確に、解析対象画像に写る前駆体が、正常なオルガノイドに成長する前駆体であるか否かを判別することが可能になることが予想されるが、その一方で、指標の測定等に係るコストがより増大することが予想される。
なお、図2に示す指標は、細胞塊が腸管オルガノイドになる前駆体であるか否かを判別するために有効な指標として選定されたものである。そのため、オルガノイドの培養の対象となる臓器が腸管ではなく他の臓器等である場合には、培養の対象となる臓器等に対して適切なパ指標を選定すればよい。なお、細胞塊が腸管オルガノイドになる前駆体であるか否かを判別する場合においては、特に、色の濃さ(Darkness)及び凹凸度(Roughness)の指標を重視することが好ましい。
[判別装置の機能構成]
以下、本実施形態の判別装置の機能構成について説明する。
図3は、本実施形態の判別装置1の機能構成を示すブロック図である。
図3に示すように、判別装置1は、学習部10と、判別部20と、を含んで構成される。なお、本実施形態においては、学習部10と判別部20とがともに判別装置1が備える機能部であるものとしたが、この構成に限られるものではなく、学習部10と判別部20とは別々の装置にそれぞれ含まれる機能部であっても構わない。
図3に示すように、学習部10は、教師データ取得部101と、画像解析部102と、学習処理部103と、学習済みモデル出力部104と、を含んで構成される。
教師データ取得部101は、機械学習を行うために予め用意された複数の(例えば、数百から数千程度の)教師データを外部の装置から取得する。本実施形態における教師データとは、細胞塊の画像(以下、「教師画像」という。)と、当該細胞塊がオルガノイドになる前駆体であるか否かについての判別結果と、が対応付けられたデータである。すなわち、教師画像とは、オルガノイドになる前駆体であるか否かについて既知である細胞塊の画像である。
各教師データは、例えば、専門家が、画像に写っている細胞塊を見て、オルガノイドになる前駆体であるか否かを目視で判別し、画像に対して判別結果を対応付けることによって生成される。教師データ取得部101は、取得した教師データを画像解析部102へ出力する。
画像解析部102は、教師データ取得部101から出力された教師データを取得する。
画像解析部102は、教師データに含まれる教師画像に対して画像解析を行う。本実施形態においては、画像解析部102が行う画像解析とは、上述した5つのパラメータ(サイズ(Size)、円形度(Circularity)、色の濃さ(Darkness)、アスペクト(Aspect)、及び凹凸度(Roughness))等のパラメータ値をそれぞれ測定することである。画像解析部102は、教師画像に対して測定された5つのパラメータ値と、当該教師画像に対応付けられた判別結果と、を対応付けたデータ(以下、「解析済み教師データ」という。)を学習処理部103へ入力する。
画像解析部102は、取得した教師画像を、予め機械学習がなされたCNN(Convolution Neural Network;畳み込みニューラルネットワーク)に入力し、当該CNNによって出力されたデータ(例えば、特徴マップ、特徴量等)に対して解析を行うことで、上記のパラメータ値を得ることができる。
学習処理部103は、画像解析部102から出力された、解析済み教師データを取得する。学習処理部103は、解析済み教師データを用いて機械学習を行うことにより、学習済みモデルを生成する。学習処理部103は、学習済みモデル出力部104を介して、生成した学習済みモデルを判別部20の後述する記憶部201に記憶させる。
学習処理部103によって行われる機械学習とは、具体的には、ロジスティック回帰において、例えば上記の5つの指標を説明変数としたロジスティック関数の偏回帰係数を決定するための学習である。ロジスティック関数σ(t)は、以下の(3)式によって表される。
σ(t)=1/(1+e−t) ・・・(3)
ここで、tは、以下の(4)式によって表される。
t=w1x1+w2x2+w3x3+w4x4+w5x5+b ・・・(4)
ここで、x1、x2、x3、x4、x5は、説明変数であり、測定された上記の5つのパラメータ値が代入される。また、w1、w2、w3、w4、w5、及びbは、機械学習の対象となる偏回帰係数を表す。
次に、判別部20について説明する。図3に示すように、判別部20は、記憶部201と、解析対象画像取得部202と、画像解析部203と、判別処理部204と、を含んで構成される。
記憶部201は、学習済みモデル出力部104によって生成された学習済みモデルを記憶する。当該学習済みモデルは、上述したように、解析対象画像のROIの特徴(すなわち、細胞塊の特徴)を表す少なくとも1つの指標からなる所定のパラメータ(例えば、サイズ(Size)、円形度(Circularity)、色の濃さ(Darkness)、アスペクト(Aspect)、及び凹凸度(Roughness)の5つのパラメータ)についての、教師画像に写った細胞塊(第1の細胞塊)に係る指標と、教師画像に写った細胞塊の状態が、バディングの状態(第1の状態)であるか又はシストの状態(第2の状態)であるかを示す情報と、が対応付けられた解析済み教師データ(学習用データ)に基づいて機械学習がなされている。
記憶部201は、例えば、RAM(Random Access Memory;読み書き可能なメモリ)、フラッシュメモリ、EEPROM(Electrically Erasable Programmable Read Only Memory)、及びHDD(Hard Disk Drive)等の記憶媒体、又はこれらの記憶媒体の任意の組み合わせによって構成される。
なお、図3では、判別部20が記憶部201を備える構成であるものとしたが、これに限られるものではなく、学習部10が記憶部201を備える構成であってもよい。あるいは、判別装置1とは異なる外部の装置が記憶部201を備え、外部の装置に学習済みモデルが記憶される構成であってもよい。
解析対象画像取得部202は、少なくとも1つの解析対象画像を外部の装置から取得する。解析対象画像取得部202は、例えば、図1に示したウェルプレートwpの各ウェルw内が撮像されたそれぞれの画像がROIごとにそれぞれ分割されることによって生成された、全ての解析対象画像を取得する。解析対象画像取得部202は、取得した解析対象画像を画像解析部203へ出力する。
図3では、解析対象画像取得部202は解析対象画像を外部の装置から取得する構成であるものとしたが、これに限られるものではなく、例えば、ウェルw内が撮像された画像を複数の解析対象画像に分割することができる機能部(図示せず)を備える構成であってもよい。さらには、判別装置1が、ウェルw内を撮像することができる例えばカメラ等の撮像装置(図示せず)、及び顕微鏡(図示せず)等を備える構成であってもよい。
画像解析部203は、解析対象画像取得部202から出力された解析対象画像を取得する。画像解析部203は、取得した解析対象画像に対して画像解析を行う。本実施形態においては、画像解析部203が行う画像解析とは、上述した画像解析部102が行う画像解析と同様に、上述した5つの指標を測定することである。画像解析部203は、それぞれの解析対象画像に対して測定された5つの指標を、判別処理部204へ入力する。
なお、画像解析部203は、取得した教師画像を、予め機械学習がなされたCNNに入力し、当該CNNによって出力されたデータ(例えば、特徴マップ、特徴量等)に対して解析を行うことで、上記の指標を得るようにしてもよい。
なお、本実施形態においては、画像解析部102と画像解析部203とは、学習部10と判別部20とにそれぞれ備えられる別々の機能部であるものとしたが、これに限られるものではない。画像解析部102と画像解析部203とは、例えば、判別装置1が備える共通の機能部として構成されてもよい。
判別処理部204は、画像解析部203から出力された指標を取得する。
判別処理部204は、当該指標を取得すると、記憶部201に記憶された学習済みモデルを読み出す。そして、判別処理部204は、上記取得した、解析対象画像に写る細胞塊(第2の細胞塊)に係る指標を、上記読み出した学習済みモデルに入力する。判別処理部204は、この入力に応じて当該学習済みモデルから出力されるバディングレートを取得する。判別処理部204は、取得したバディングレートに基づいて、解析対象画像に写る細胞塊の状態が、バディングの状態(第1の状態)であるか、又はシストの状態(第2の状態)であるかを判別する。判別処理部204は、判別結果を示す情報を外部の装置へ出力する。
判別処理部204は、判別結果を示す情報として、バディングの状態であるか又はシストの状態であるかを判別した結果を示す情報に代えて、例えば上記5つの指標、及びバディングレートの値を出力するようにしてもよい。あるいは、判別処理部204は、バディングの状態であるか又はシストの状態であるかを判別した結果を示す情報、例えば上記5つの指標、及びバディングレートの値を併せて出力するようにしてもよい。なお、判別処理部204は、判別装置1が備える、例えばディスプレイ等の表示部(図示せず)に、判別結果を示す情報を出力するようにしてもよい。
[判別結果の出力例]
以下、判別処理部204による判別結果の出力例について説明する。
図4は、本実施形態の判別装置によって出力される情報の一例を示す図である。判別処理部204は、例えば、図4に示す出力テーブルT1のようなデータ形式で判別結果を示す情報を出力することができる。
図4に示すように、出力テーブルT1は、解析対象画像の画像ファイル名(File Name)と、当該解析対象画像が含まれるウェルwの画像(親画像)の画像ファイル名(Parent File Name)と、当該解析対象画像に写っている細胞塊に関する5つの指標と、これら5つの指標を学習済みモデルに入力することによって得られるバディングレート(Budding Rate)の値と、が対応付けられたテーブルである。
図4に示す出力テーブルT1は、解析対象画像に含まれるROIごとの(すなわち、細胞塊ごとの)判別結果を表すテーブルである。また、判別処理部204は、例えば、ウェルwの画像の単位(すなわち、ウェルwの単位)での判別結果を示す情報を出力することができる。
図5は、本発明の一実施形態に係る判別装置1によって出力される情報のその他の例を示す図である。判別処理部204は、例えば、図5に示す出力テーブルT2のようなデータ形式で判別結果を示す情報を出力することができる。
図5に示す出力テーブルT2は、ウェルwの画像の画像ファイル名(File Name)と、当該ウェルwの画像に含まれる複数のROIの領域それぞれの大きさ(画素数)の平均値(Size)及び標準偏差(Sigma)と、当該ウェルwの画像に含まれる複数の細胞塊の個数(Number)と、当該ウェルwの画像に含まれる複数の細胞塊についてそれぞれ得られたバディングレートの平均値(Budding Rate)の値と、が対応付けられたテーブルである。
図5に示す出力テーブルT1は、ウェルwの画像(親画像)の単位(すなわち、ウェルwの単位)での判別結果を表すテーブルである。なお、判別処理部204は、例えば、図1に示したウェルプレートwpの単位で、判別結果を示す情報を出力することができる。
[学習部の動作]
以下、学習部10の動作について説明する。
図6は、図3に係る判別装置1の学習部10の動作を示すフローチャートである。本フローチャートが示す学習部10の動作は、機械学習を行うために予め用意された教師データが、教師データ取得部101へ入力された際に開始する。
教師データ取得部101は、入力された、教師画像と、細胞塊がオルガノイドになる前駆体であるか否かについての判別結果と、が対応付けられたデータである教師データを入力する(ステップS101)。教師データ取得部101は、入力した教師データを画像解析部102へ出力する。
画像解析部102は、教師データ取得部101から出力された教師データを入力する。画像解析部102は、教師データに含まれる教師画像に対して画像解析を行い、上述した5つの指標を測定する(ステップS102)。画像解析部102は、教師画像に写る細胞塊に対して測定された5つの指標と、当該教師画像に対応付けられた判別結果と、を対応付けたデータである解析済み教師データを、学習処理部103へ出力する。
学習処理部103は、画像解析部102から出力された解析済み教師データを入力する。学習処理部103は、解析済み教師データを用いて機械学習を実行する(ステップS103)。これにより、学習済みモデルが生成される。学習処理部103は、生成された学習済みモデルを、判別部20の記憶部201に出力する(ステップS104)。以上で図6のフローチャートが示す学習部10の動作が終了する。
[判別部の動作]
以下、判別部20の動作について説明する。
図7は、図3に係る判別装置1の判別部20の動作を示すフローチャートである。本フローチャートが示す判別部20の動作は、少なくとも1つの解析対象画像が、判別部20の解析対象画像取得部202へ入力された際に開始する。
解析対象画像取得部202は、解析対象画像を入力する(ステップS201)。解析対象画像取得部202は、解析対象画像を画像解析部203へ出力する。
画像解析部203は、解析対象画像取得部202から出力された解析対象画像を入力する。画像解析部203は、取得した解析対象画像を解析し、上述した5つの指標を測定する(ステップS202)。画像解析部203は、解析対象画像に写る細胞塊に対して測定された指標を、判別処理部204へ出力する。
判別処理部204は、画像解析部203から出力された指標を入力する。判別処理部204は、当該指標を入力すると、記憶部201に記憶された学習済みモデルを読み出す。そして、判別処理部204は、上記取得した、解析対象画像に写る細胞塊に係る指標を、上記読み出した学習済みモデルに入力する。判別処理部204は、当該パラメータ値の入力に応じて当該学習済みモデルから出力されるバディングレートの値を取得する。判別処理部204は、取得したバディングレートの値に基づいて、解析対象画像に写る細胞塊の状態がバディングの状態であるか又はシストの状態であるか(すなわち、解析対象画像に写る細胞塊がオルガノイドになる前駆体であるか否か)についての判別を実行する(ステップS203)。
判別処理部204は、判別結果を示す情報を、外部の装置へ出力する(ステップS204)。以上で図7のフローチャートが示す判別部20の動作が終了する。
<実施例>
[実施例1]
以下に実施例を示す。但し、本発明は以下の実施例に何ら限定されるものではない。
1)48Wellプレートで腸管オルガノイドを培養した(培養方法については任意であるため、具体的な記載を省略する)。
2)KEYENCE社製の倒立顕微鏡(BZ−X710)を用いて、48Wellプレート中で培養されたオルガノイドの明視野透過像を1wellずつ撮影した。対物レンズはCFI Plan Apoλ2xを使用し、クイックフルフォーカス機能を使用して解像度1980×1440の画像を取得した。
3)OpenCV−Pythonライブラリを使用し、適切な閾値を設定することで、オルガノイドを一つずつ認識し、撮影したWell内の画像からオルガノイド範囲を関心領域(ROI)として一つずつ取り出した。
4)(特徴量抽出)取り出したROIに対して、5つの特徴量(サイズ、真円度、色の濃さ、アスペクト、凸凹度)を下記の通り計算した。
・サイズ(Size):OpenCV−Pythonライブラリを使用し、ROIに含まれる画素の数をカウントした。
・円形度(Circularity):ROIの直径(又は半径)S、及び円周長Perから、上記の(1)式に従って計算した。
・色の濃さ(Darkness):ROIの周辺の輝度の平均値Bo(256諧調)、及びROI内部の輝度の平均値Bi(256諧調)から、上記の(2)式に従って計算した。
・アスペクト(Aspect):ROIの長軸及び短軸の中から、最長軸及び最短軸を選択し、(長軸長/短軸長)によって計算した。
・凹凸度(Roughness):ROIのエッジをCanny法により検出し、検出されたエッジの数を計算した。
[学習]
5)細胞塊から抽出した5つの特徴量と、当該細胞塊についてのオルガノイドの培養の成否(成を”1”とし、否を”0”とした。)を示す情報とが対応付けられた、細胞塊1000個分のデータを作成した。そして、当該データに基づいて、上記の(3)式及び(4)式に基づくロジスティック回帰分析を行った。これにより、ロジスティック関数の各偏回帰係数に対して以下のように適切な重みが付与された回帰式を得た。
w1=0.00198
w2=−5.03
w3=0.260
w4=0.124
w5=−0.00723
b=−42.5
[予測]
6)新たな細胞塊の画像から上記5つの特徴量を抽出し、抽出された特徴量を上記(5)で得た回帰式に代入することで、当該細胞塊についてのオルガノイドの培養の成否の成功確率を算出した。
7)1つのWellに含まれるオルガノイドを集め、オルガノイドの培養の成否の成功確率の算術平均を計算することにより、1つのWellの成功確率として算出した。
[判別精度]
8)上記7)で算出された成功確率と、実際のオルガノイドの培養の成否とに基づいて、正解率を算出した。これにより、81.1%の正解率を得た。
[実施例2]
9)上記4)に示した実施条件との比較を行うため、上記5つの変数のうち1〜4つの変数のみを用いて、細胞塊1000個分のデータを用いて上記の(3)式及び(4)に基づくロジスティック回帰分析を行った。この結果、上記4)に示した5つの変数を使用した場合が最も判別精度が高いという結果を得た。
以上説明したように、図3に示しした実施形態に係る判別装置1の判別部20は、記憶部201と、判別処理部204と、を含んで構成される。記憶部201は、細胞塊の特徴を示す少なくとも1つの指標からなる所定の指標についての、教師画像に写った細胞塊(第1の細胞塊)に係る指標値と、教師画像に写った細胞塊の状態が、バディングの状態(第1の状態)であるか又はシストの状態(第2の状態)であるかを示す情報と、が対応付けられた解析済み教師データ(学習用データ)に基づいて機械学習がなされた学習済みモデルを記憶する。
また、判別処理部204は、所定の指標についての、解析対象画像に写った細胞塊(第2の細胞塊)に係る指標を取得し、入力した解析対象画像に写った細胞塊に係るパラメータ値を記憶部201に記憶された学習済みモデルに入力することに応じて出力されるバディングレートに基づいて、解析対象画像に写った細胞塊の状態が、バディングの状態(第1の状態)であるか、又はシストの状態(第2の状態)であるかを判別する。
上記のような構成を備えることによって、上述した実施形態に係る判別装置1は、細胞塊がオルガノイドになる前駆体であるか否かについての判別を、定量的に行うことができる。
また、図3に示した実施形態に係る判別装置1は、専門家の目視による判別とは異なり、細胞塊がオルガノイドになると見込まれる前駆体であるか否かを、学習済みモデルを用いて自動的に判別することができる。これにより、本実施形態に係る判別装置によれば、上記の判別を行うことができる専門家がその場にいない状況であったとしても、細胞塊がオルガノイドになる前駆体であるか否かについての判別を容易に行わせることができる。また、本実施形態に係る判別装置は、上記の判別を学習済みモデルにより自動的に行うことができるため、より高速に、かつ、より低コストに判別を行うことができる。
また、図3に示した実施形態に係る判別装置1は、学習済みモデルを用いて自動的に判別を行うことができるため、例えば、ウェルw内に大量に含まれるオルガノイドに対して判別を行う場合であっても、より短時間に判別を行うことができる。
また、図3に示した実施形態に係る判別装置1は、細胞塊がオルガノイドになる前駆体であるか否かについての判別を定量的に行うことができるため、例えばバディングレートの値の平均値を算出することによって、ウェルwの単位、あるいは、ウェルプレートwpの単位での判別を行うこともできる。
また、図3に示した実施形態に係る判別装置1は、細胞塊がオルガノイドになる前駆体であるか否かを学習済みモデルにて判別するため、例えば非特許文献1に記載の技術のように多種類の指標の測定を必要とする従来技術と比較して、より少ない指標を用いて判別を行うことができる。これにより、指標の測定に係るコスト及び時間を削減することができる。
なお、図3に示した実施形態においては、判別装置1は、細胞塊がオルガノイドになる前駆体であるか否かを判別する装置であるものとしたが、これに限られるものではない。図3に示した判別装置1は、例えば、培養されたオルガノイドを収穫するタイミングを判断するために行われる細胞塊の状態の判別、あるいは、収穫されたオルガノイドが正常に成長したオルガノイドであるか否かについての判別等に適用することもできる。
なお、図3に示した実施形態における判別装置1の一部又は全部をコンピュータで実現するようにしてもよい。その場合、この制御機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、判別装置1に内蔵されたコンピュータシステムであって、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信回線のように、短時間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含んでもよい。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであってもよい。
また、図3に示した実施形態における判別装置1を、LSI(Large Scale Integration)等の集積回路として実現してもよい。判別装置1の各機能ブロックは個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。
以上、図面を参照して本発明の実施形態を説明してきたが、上記実施形態は本発明の例示に過ぎず、本発明が上記実施形態に限定されるものではないことは明らかである。したがって、本発明の技術思想及び要旨を逸脱しない範囲で構成要素の追加、省略、置換、及びその他の変更を行ってもよい。
1…判別装置、10…学習部、20…判別部、101…教師データ取得部、102…画像解析部、103…学習処理部、104…学習済みモデル出力部、201…記憶部、202…解析対象画像取得部、203…画像解析部、204…判別処理部

Claims (9)

  1. 細胞塊を判別する判別装置であって、
    細胞塊の特徴を示す少なくとも1つの指標からなる所定の指標についての第1の細胞塊に係る指標と、前記第1の細胞塊の状態が第1の状態であるか又は前記第1の状態とは異なる第2の状態であるかを示す情報と、が対応付けられた学習用データに基づいて機械学習がなされた学習済みモデルを記憶する記憶部と、
    前記所定の指標についての第2の細胞塊に係る指標を取得する画像解析部と、
    前記第2の細胞塊に係る指標を前記学習済みモデルに基づいて、前記第2の細胞塊の状態が前記第1の状態であるか又は前記第2の状態であるかを判別する判別処理部と、
    を備える判別装置。
  2. 前記第1の状態はバディングの状態であり、前記第2の状態はシストの状態である
    請求項1に記載の判別装置。
  3. 前記所定の指標は、前記細胞塊の色の濃さを表す指標を含む
    請求項1又は請求項2に記載の判別装置。
  4. 前記所定の指標は、前記細胞塊の形状の複雑さを表す指標を含む
    請求項1から請求項3のうちいずれか一項に記載の判別装置。
  5. 前記機械学習は、前記所定の指標を説明変数としたロジスティック関数の偏回帰係数を決定するための学習である
    請求項1から請求項4のうちいずれか一項に記載の判別装置。
  6. 前記画像解析部に、前記第2の細胞塊が撮像された画像を送達する画像取得部
    をさらに備える請求項1から請求項5のうちいずれか一項に記載の判別装置。
  7. 前記画像解析部は、前記画像に対してCanny法により前記第2の細胞塊のエッジを検出し、検出された前記エッジの数に基づいて前記細胞塊の形状の複雑さを表す指標を計測する
    請求項6に記載の判別装置。
  8. コンピュータにより実行させる細胞塊の判別方法であって、細胞塊の特徴を示す少なくとも1つの指標からなる所定の指標についての第1の細胞塊に係る指標と、前記第1の細胞塊の状態が第1の状態であるか又は前記第1の状態とは異なる第2の状態であるかを示す情報と、が対応付けられた学習用データに基づいて機械学習がなされた学習済みモデルを取得するステップと、
    前記所定の指標についての第2の細胞塊に係る指標値を取得するステップと、
    取得した前記第2の細胞塊に係る指標を前記学習済みモデルに基づいて、前記第2の細胞塊の状態が前記第1の状態であるか又は前記第2の状態であるかを判別するステップと、
    を有する細胞塊の判別方法。
  9. コンピュータによる実行時、請求項8の細胞塊の判別方法をコンピュータに実行させる指示を備えるコンピュータプログラム。
JP2020567379A 2019-01-23 2019-11-13 判別装置、細胞塊の判別方法、及びコンピュータプログラム Active JP7359163B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019009384 2019-01-23
JP2019009384 2019-01-23
PCT/JP2019/044456 WO2020152953A1 (ja) 2019-01-23 2019-11-13 判別装置、細胞塊の判別方法、及びコンピュータプログラム

Publications (2)

Publication Number Publication Date
JPWO2020152953A1 true JPWO2020152953A1 (ja) 2021-12-02
JP7359163B2 JP7359163B2 (ja) 2023-10-11

Family

ID=71735450

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020567379A Active JP7359163B2 (ja) 2019-01-23 2019-11-13 判別装置、細胞塊の判別方法、及びコンピュータプログラム

Country Status (3)

Country Link
US (1) US11961230B2 (ja)
JP (1) JP7359163B2 (ja)
WO (1) WO2020152953A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7359163B2 (ja) * 2019-01-23 2023-10-11 Jsr株式会社 判別装置、細胞塊の判別方法、及びコンピュータプログラム
WO2024075274A1 (ja) * 2022-10-07 2024-04-11 日本電気株式会社 細胞分類装置、細胞分類方法及びプログラム

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014516562A (ja) * 2011-06-10 2014-07-17 コーニンクレッカ ネザーランド アカデミー ヴァン ウェテンシャッペン 幹細胞のための培養培地
WO2018083984A1 (ja) * 2016-11-02 2018-05-11 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2015261380B2 (en) * 2014-05-16 2021-04-15 Koninklijke Nederlandse Akademie Van Wetenschappen Improved culture method for organoids
JP7008294B2 (ja) 2017-06-13 2022-02-10 大日本印刷株式会社 腸オルガノイド及びその作製方法
EP3649933A4 (en) 2017-07-07 2021-07-14 Osaka University PAIN DETERMINATION USING TREND ANALYSIS, MEDICAL DEVICE WITH MACHINE LEARNING, ECONOMIC DISCRIMINATION MODEL AND IOT, TAILORED MACHINE LEARNING AND NOVEL BRAIN WAVE CHARACTERISTICS DETERMINATION OF PAIN
JP7359163B2 (ja) * 2019-01-23 2023-10-11 Jsr株式会社 判別装置、細胞塊の判別方法、及びコンピュータプログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014516562A (ja) * 2011-06-10 2014-07-17 コーニンクレッカ ネザーランド アカデミー ヴァン ウェテンシャッペン 幹細胞のための培養培地
WO2018083984A1 (ja) * 2016-11-02 2018-05-11 ソニー株式会社 情報処理装置、情報処理方法及び情報処理システム

Also Published As

Publication number Publication date
JP7359163B2 (ja) 2023-10-11
US20210327060A1 (en) 2021-10-21
US11961230B2 (en) 2024-04-16
WO2020152953A1 (ja) 2020-07-30

Similar Documents

Publication Publication Date Title
US11657487B2 (en) Focus-weighted, machine learning disease classifier error prediction for microscope slide images
CA2899714C (en) Tissue object-based machine learning system for automated scoring of digital whole slides
AU2014237346B2 (en) System and method for reviewing and analyzing cytological specimens
Ma et al. Automated estimation of parasitaemia of Plasmodium yoelii-infected mice by digital image analysis of Giemsa-stained thin blood smears
JP5469070B2 (ja) 生物検体を処理するための複数の波長を用いる方法およびシステム
JP2015087903A (ja) 情報処理装置及び情報処理方法
Patil et al. Deep learning techniques for automatic classification and analysis of human in vitro fertilized (IVF) embryos
US20230066976A1 (en) Systematic characterization of objects in a biological sample
JP7359163B2 (ja) 判別装置、細胞塊の判別方法、及びコンピュータプログラム
JP2013108926A (ja) 病理診断支援装置、病理診断支援方法、及び病理診断支援プログラム
Adorno III et al. Advancing eosinophilic esophagitis diagnosis and phenotype assessment with deep learning computer vision
Ashour et al. Comparative study of multiclass classification methods on light microscopic images for hepatic schistosomiasis fibrosis diagnosis
RU2732895C1 (ru) Метод для выделения и классификации типов клеток крови с помощью глубоких сверточных нейронных сетей
Foucart et al. Artifact identification in digital pathology from weak and noisy supervision with deep residual networks
WO2015045012A1 (ja) コロニー検査プログラム、コロニー検査装置およびコロニー検査方法
Socia et al. Detection of trachoma using machine learning approaches
CN108764183A (zh) 一种植物病害诊断方法、装置及存储介质
Zeng et al. Recognition of rare antinuclear antibody patterns based on a novel attention-based enhancement framework
US20230024468A1 (en) Systems and methods to process electronic images to determine histopathology quality
JP2019180264A (ja) 細菌検査装置および細菌検査方法
CN114757906A (zh) 基于detr模型的显微图像中白细胞检测方法
Queimadelas Automated Segmentation, Tracking and Evaluation f Bacteria in Microscopy Images

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220614

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230523

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230627

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230721

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230829

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230911

R150 Certificate of patent or registration of utility model

Ref document number: 7359163

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150