JP7248139B2 - 細胞画像解析方法及び細胞解析装置 - Google Patents

細胞画像解析方法及び細胞解析装置 Download PDF

Info

Publication number
JP7248139B2
JP7248139B2 JP2021551081A JP2021551081A JP7248139B2 JP 7248139 B2 JP7248139 B2 JP 7248139B2 JP 2021551081 A JP2021551081 A JP 2021551081A JP 2021551081 A JP2021551081 A JP 2021551081A JP 7248139 B2 JP7248139 B2 JP 7248139B2
Authority
JP
Japan
Prior art keywords
image
cell
region
learning model
nucleus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021551081A
Other languages
English (en)
Other versions
JPWO2021070371A1 (ja
Inventor
秋絵 外口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shimadzu Corp
Original Assignee
Shimadzu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shimadzu Corp filed Critical Shimadzu Corp
Publication of JPWO2021070371A1 publication Critical patent/JPWO2021070371A1/ja
Application granted granted Critical
Publication of JP7248139B2 publication Critical patent/JP7248139B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • CCHEMISTRY; METALLURGY
    • C12BIOCHEMISTRY; BEER; SPIRITS; WINE; VINEGAR; MICROBIOLOGY; ENZYMOLOGY; MUTATION OR GENETIC ENGINEERING
    • C12MAPPARATUS FOR ENZYMOLOGY OR MICROBIOLOGY; APPARATUS FOR CULTURING MICROORGANISMS FOR PRODUCING BIOMASS, FOR GROWING CELLS OR FOR OBTAINING FERMENTATION OR METABOLIC PRODUCTS, i.e. BIOREACTORS OR FERMENTERS
    • C12M1/00Apparatus for enzymology or microbiology
    • C12M1/34Measuring or testing with condition measuring or sensing means, e.g. colony counters

Landscapes

  • Chemical & Material Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Organic Chemistry (AREA)
  • Biotechnology (AREA)
  • Zoology (AREA)
  • Wood Science & Technology (AREA)
  • Sustainable Development (AREA)
  • Microbiology (AREA)
  • Biomedical Technology (AREA)
  • Medicinal Chemistry (AREA)
  • Biochemistry (AREA)
  • General Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Genetics & Genomics (AREA)
  • Analytical Chemistry (AREA)
  • Image Analysis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Description

本発明は、細胞について得られた観察画像を解析処理する細胞画像解析方法、及び該方法を用いた細胞解析装置に関する。
細胞核(以下、慣用に従い単に「核」ということがある)は細胞の遺伝情報を司るDNAを含んでおり、細胞分裂や遺伝子発現制御などを担う、細胞で最も重要な器官の一つである。そのため、細胞の顕微鏡画像における核の観察は、細胞に関連した各種の研究や製品開発のうえで非常に重要である。
一般的に生細胞のままでの核の観察は難しいとされており、例えば特許文献1には、核を簡単な操作で以て染色したうえで形態観察を行うための技術が開示されている。また、病理画像解析の分野においても細胞核の観察は重要であり、例えば非特許文献1には、細胞核を染色した細胞について得られた画像(病理画像)において細胞核を抽出し細胞当たりのタンパク質を定量化する技術が開示されている。また、特許文献2、3には、細胞や細胞核を染色して顕微鏡で得られた画像を対象とした機械学習の学習モデルを利用して、細胞核の領域を検出する技術が開示されている。さらにまた、特許文献4には、細胞核を染色した細胞画像(病理画像)を用いて細胞核数を計測する技術が開示されている。
しかしながら、上述したように細胞や細胞核を染色する方法は侵襲的な手法であり、観察に使用した細胞の培養を継続したり、観察に使用した細胞をそのまま別の目的に使用したりする、例えば再生医療等製品として患者に投与する、といったことはできない。iPS細胞やES細胞等の多能性幹細胞を利用した再生医療の研究・開発においては、多能性を維持した状態の未分化の細胞を大量に培養する必要がある。そのためには、培養中の細胞の状態を頻繁に確認する必要があるが、こうした分野では上述したような侵襲的な観察手法を用いることができない。そのため、非侵襲的で且つ非破壊的に細胞核の観察が行える手法の確立が強く要望されている。
一方、特許文献5には、ラマン散乱光を利用した顕微鏡を用い、非染色で、つまりは非侵襲的に細胞の生死判定を行う技術が開示されている。しかしながら、ラマンイメージングでは画像内の対応画素におけるスペクトル情報を得ることができるものの、生細胞において実施する判定に寄与するスペクトルを特定する必要があるなど、複雑な処理を要する。また、ラマン散乱光を利用した顕微鏡では染色を行わずに細胞核を観察することはできるものの、スペクトルの特定など煩雑な事前検討が必要であるだけでなく、短時間で以て撮影可能である観察領域が小さいという制約がある。そのため、細胞を培養しているウェル内全体に存在する生細胞の核を観察するには不向きである。また、細胞を培養しているウェル内全体の細胞核の数を計測することも不可能である。
国際特許公開第2012/095935号 特開2019-95853号公報 特開2019-91307号公報 特許第5924406号公報 国際特許公開第2014/162744号 国際特許公開第2016/162945号
三村勇介、ほか3名、「医用画像における細胞認識技術」、KONICA MINOLTA TECHNOLOGY REPORT、VOL. 13、2016年、[online]、[2019年9月10日検索]、インターネット<URL: https://www.konicaminolta.jp/about/research/technology_report/2016/pdf/13_mimura.pdf>
本発明は上記課題を解決するためになされたものであり、その主たる目的は、例えばウェル等の容器内の広い範囲に存在する細胞の核を、非侵襲的に良好に観察したり解析したりすることができる細胞画像解析方法及び細胞解析装置を提供することである。
上記課題を解決するためになされた本発明に係る細胞画像解析方法の一態様は、
ホログラフィック顕微鏡で取得されたホログラムデータに基づいて作成される細胞の位相画像を入力画像とし、これに対応する、細胞核を染色して得られた染色画像に基づく擬似的な核領域画像を正解画像とした学習データを用い、機械学習を行うことで核領域学習モデルを作成する第1の学習モデル作成ステップと、
前記細胞の位相画像を入力画像とし、これに対応する、細胞骨格を染色して得られた染色画像に基づく擬似的な細胞領域画像を正解画像とした学習データを用い、機械学習を行うことで細胞領域学習モデルを作成する第2の学習モデル作成ステップと、
前記核領域学習モデルを用い、解析対象の細胞についての位相画像を入力画像とし、細胞核の領域を示す核領域推定画像を出力画像として取得する核領域推定ステップと、
前記細胞領域学習モデルを用い、前記解析対象の細胞についての位相画像を入力画像とし、細胞領域を示す細胞領域推定画像を出力画像として取得する細胞領域推定ステップと、
前記核領域推定画像と前記細胞領域推定画像とを用い、細胞領域であると推定される範囲に存在する細胞核を抽出する核領域抽出ステップと、
を有するものである。
また上記課題を解決するためになされた本発明に係る細胞解析装置の一態様は、
ホログラフィック顕微鏡と、
前記ホログラフィック顕微鏡で細胞を観察することで取得されたホログラムデータに基づいて、前記細胞の位相画像を作成する画像作成部と、
ホログラムデータに基づいて作成される細胞の位相画像を入力画像とし、これに対応する、細胞核を染色して得られた染色画像に基づく擬似的な核領域画像を正解画像とした学習データを用い、機械学習を行うことで作成された核領域学習モデルが記憶される第1学習モデル記憶部と、
前記細胞の位相画像を入力画像とし、これに対応する細胞骨格を染色して得られた染色画像に基づく擬似的な細胞領域画像を正解画像とした学習データを用い、機械学習を行うことで作成された細胞領域学習モデルが記憶される第2学習モデル記憶部と、
前記第1学習モデル記憶部に記憶されている核領域学習モデルを用い、解析対象の細胞について前記画像作成部で作成された位相画像を入力画像とし、細胞核の領域を示す核領域推定画像を出力画像として取得する核領域推定部と、
前記第2学習モデル記憶部に記憶されている細胞領域学習モデルを用い、前記解析対象の細胞についての位相画像を入力画像とし、細胞領域を示す細胞領域推定画像を出力画像として取得する細胞領域推定部と、
前記核領域推定画像と前記細胞領域推定画像とを用い、細胞領域であると推定される範囲に存在する細胞核を抽出する核領域抽出部と、
を備えるものである。
上記ホログラフィック顕微鏡は典型的にはデジタルホログラフィック顕微鏡であり、上記位相画像は例えば、デジタルホログラフィック顕微鏡により得られるホログラムデータに基づく計算処理により求められた位相情報に基づいて再構成される画像である。
本発明の上記態様による細胞画像解析方法及び細胞解析装置では、適宜の細胞についての位相画像と、同じ細胞の細胞核を染色して蛍光顕微鏡等で観察することで得られた核染色画像とを用いて、細胞核の領域を特定するための核領域学習モデルをディープラーニング等の機械学習により作成する。しかしながら、測定の原理上、ホログラムデータに基づいて再構成された位相画像には干渉縞が現れる場合があり、上記核領域学習モデルを用いて核領域の検出を行うと、位相画像上の干渉縞の影響によって本来は細胞核でない部分を細胞核であると誤って検出してしまうことがある。また、培養容器内の培地上にゴミなどの異物が存在した場合にも、それを細胞核であると誤検出することがある。
これに対し本発明の上記態様による細胞画像解析方法及び細胞解析装置では、核領域学習モデルとは別に、アクチンフィラメント等の細胞骨格を染色した染色画像を用い、細胞骨格が分布する領域を特定するための細胞領域学習モデルを機械学習により作成する。細胞骨格は細胞質内全体に繊維状又は網状に存在する構造要素であり、細胞の形状・形態を決定するものである。したがって、細胞骨格の分布領域は概ね細胞形状を示しているものとみなせる。即ち、細胞領域推定ステップにおいて細胞領域学習モデルを用いて得られた細胞領域推定画像は、細胞領域と細胞外の領域(背景領域)との区分を示す。当然、細胞核は細胞領域に存在するから、同じ撮影範囲に対する核領域推定画像と細胞領域推定画像とを比較し、細胞以外の背景領域に存在している細胞核があれば、それは核の誤検出であると判断できる。核領域抽出ステップでは、こうした判断を行うことによって、誤検出された細胞核を排除し、より確度の高い細胞核のみを抽出することができる。
このようにして、本発明の上記態様による細胞画像解析方法及び細胞解析装置によれば、解析対象である細胞に対する染色等の侵襲的な処理を行うことなく、位相画像から細胞核を正確に抽出することができる。特に、位相画像に干渉縞が現れていたり異物による像等が現れていたりした場合でも、それらの影響を排除して又は軽減して、細胞核を正確に観察することができる。そして、例えば、その細胞核の数を計数することで、細胞数の情報を得ることができる。また、真の細胞核の形状や形態、或いは、細胞核内部の状態を観察することができる。また、解析対象である細胞の撮影(測定)は非侵襲的に行えるので、撮影後の細胞を引き続き培養したり、別の目的の分析や観察に供したりすることができる。
本発明に係る細胞画像解析方法を用いた細胞解析装置の一実施形態の概略構成図。 本実施形態の細胞解析装置で使用されている全層畳み込みニューラルネットワークの構造の概念図。 本実施形態の細胞解析装置における学習モデル作成時の処理の流れを示すフローチャート。 本実施形態の細胞解析装置における解析対象である細胞の撮影から細胞計数結果出力までの処理の流れを示すフローチャート。 本実施形態の細胞解析装置における学習モデル作成時に使用する正解画像の処理過程を示す図であり、核染色蛍光画像の元画像(a)、背景除去処理後の画像(b)、及び二値化処理後の画像(c)。 本実施形態の細胞解析装置で得られるIHM位相像の一例を示す図。 図6に示したIHM位相像を入力画像とし学習モデルを用いた推定により出力される核領域推定画像の一例を示す図。 図7に示した核領域推定画像の正解画像を示す図。 図6に示したIHM位相像に核位置候補点を重ね合わせた画像を示す図。 図6に示したIHM位相像に核領域の正解点を重ね合わせた画像を示す図。 アクチンフィラメント染色画像と明視野画像の一例を示す図。 図6に示したIHM位相像を入力画像とし学習モデルを用いた推定により出力される細胞領域推定画像(二値画像)を示す図。 図12に示した細胞領域推定画像を用いたマスク処理を行った後の核領域推定画像を示す図。 図6に示したIHM位相像にマスク処理後の核位置候補点を重ね合わせた画像を示す図。
以下、本発明に係る細胞画像解析方法及び細胞解析装置の一実施形態について、添付図面を参照して説明する。
図1は、本発明に係る細胞画像解析方法を実施するための一実施形態である細胞解析装置の要部のブロック構成図である。
本実施形態の細胞解析装置1は、顕微観察部10、制御・処理部20、ユーザインターフェイスである入力部30及び表示部40、を備える。また、細胞解析装置1には、FCNモデル作成部50、が付設されている。
顕微観察部10はインライン型ホログラフィック顕微鏡(In-line Holographic Microscopy:IHM)であり、レーザダイオードなどを含む光源部11とイメージセンサ12とを備え、光源部11とイメージセンサ12との間に、細胞14を含む培養プレート13が配置される。
制御・処理部20は、顕微観察部10の動作を制御するとともに顕微観察部10で取得されたデータを処理するものであって、撮影制御部21と、ホログラムデータ記憶部22と、位相情報算出部23と、画像作成部24と、核領域推定部25と、細胞領域推定部26と、マスク処理部27と、細胞計数部28と、表示処理部29と、を機能ブロックとして備える。核領域推定部25は核領域学習モデル記憶部251を含み、細胞領域推定部26は細胞領域学習モデル記憶部261を含む。
FCNモデル作成部50は、学習画像データ入力部51と、画像位置合わせ処理部52と、染色画像前処理部53と、染色画像二値化部54と、学習実行部55と、モデル構築部56と、を機能ブロックとして含む。このFCNモデル作成部50において作成される学習済みの学習モデルが、制御・処理部20における記憶部に格納され、核領域学習モデル記憶部251及び細胞領域学習モデル記憶部261として機能する。
通常、制御・処理部20の実体は、所定のソフトウェアがインストールされたパーソナルコンピュータやより性能の高いワークステーション、或いは、そうしたコンピュータと通信回線を介して接続された高性能なコンピュータを含むコンピュータシステムである。即ち、制御・処理部20に含まれる各ブロックの機能は、コンピュータ単体又は複数のコンピュータを含むコンピュータシステムに搭載されているソフトウェアを実行することで実施される、該コンピュータ又はコンピュータシステムに記憶されている各種データを用いた処理によって具現化されるものとすることができる。
また、FCNモデル作成部50の実体も、所定のソフトウェアがインストールされたパーソナルコンピュータやより性能の高いワークステーションである。通常、このコンピュータは制御・処理部20と異なるコンピュータであるが、同じコンピュータであってもよい。つまり、FCNモデル作成部50の機能を制御・処理部20に持たせることもできる。
本実施形態の細胞解析装置1において、細胞の観察画像であるIHM位相像を作成するまでの作業及び処理について説明する。
オペレータが細胞14を含む培養プレート13を所定位置にセットして入力部30で所定の操作を行うと、撮影制御部21は顕微観察部10を制御し、以下のような手順でホログラムデータを取得する。
即ち、光源部11は10°程度の角度の広がりを持つコヒーレント光を培養プレート13の所定の領域に照射する。培養プレート13及び細胞14を透過したコヒーレント光(物体光16)は、培養プレート13上で細胞14に近接する領域を透過した光(参照光15)と干渉しつつイメージセンサ12に到達する。物体光16は細胞14を透過する際に位相が変化した光であり、他方、参照光15は細胞14を透過しないので細胞14に起因する位相変化を受けない光である。したがって、イメージセンサ12の検出面(像面)上には、細胞14により位相が変化した物体光16と位相が変化していない参照光15との干渉縞による像つまりホログラムが形成される。
光源部11及びイメージセンサ12は、図示しない移動機構によって、連動してX軸方向及びY軸方向に順次移動される。これにより、光源部11から発せられたコヒーレント光の照射領域(観察領域)を培養プレート13上で移動させ、広い2次元領域に亘るホログラムデータ(イメージセンサ12の検出面で形成されたホログラムの2次元的な光強度分布データ)を取得することができる。
上述したように顕微観察部10で得られたホログラムデータは逐次、制御・処理部20に送られ、ホログラムデータ記憶部22に格納される。制御・処理部20において、位相情報算出部23は、ホログラムデータ記憶部22からホログラムデータを読み出し、位相回復のための所定の演算処理を実行することで観察領域(撮影領域)全体の位相情報を算出する。画像作成部24は、算出された位相情報に基づいてIHM位相像を作成する。こうした位相情報の算出やIHM位相像の作成の際には、特許文献6等に開示されている周知のアルゴリズムを用いることができる。
図6はIHM位相像の一例である。透明である細胞は一般的な光学顕微鏡では視認しにくいが、IHM位相像では個々の細胞をかなり明瞭に観察できることが分かる。但し、このIHM位相像から各細胞の核を視認することは困難である。そこで、本実施形態の細胞解析装置1では、機械学習法の一つである全層畳み込みニューラルネットワーク(FCN:Fully Convolutional Neural network)を利用して、各細胞において核が存在すると推定される領域を示す核領域推定画像を得る。
図2はFCNの構造の概念図である。FCNの構造や処理の詳細は多くの文献に詳しく説明されている。また、米国マスワークス(MathWorks)社が提供している「MATLAB」などの市販の或いはフリーのソフトウェアを利用した実装も可能である。そのため、ここでは概略的に説明する。
図2に示すように、FCNは、例えば畳み込み層とプーリング層との繰り返しが多層化された多層ネットワーク60と、畳み込みニューラルネットワークにおける全結合層に相当する畳み込み層61と、を含む。この場合、多層ネットワーク60では、所定のサイズのフィルタ(カーネル)を用いた畳み込み処理と、畳み込み結果を2次元的に縮小して有効値を抽出するプーリング処理とを繰り返す。但し、多層ネットワーク60は、プーリング層がなく畳み込み層のみで構成されていてもよい。また、最終段の畳み込み層61では、所定のサイズのフィルタを入力画像内でスライドさせつつ局所的な畳み込み及び逆畳み込みを行う。このFCNでは、IHM位相像などの入力画像63に対してセマンティックセグメンテーションを行うことで、細胞核の領域を画素単位でラベル付けしたセグメンテーション画像64を出力することができる。
ここでは、入力されるIHM位相像における画素単位でのラベル化を行うように多層ネットワーク60及び畳み込み層61を設計する。即ち、出力画像であるセグメンテーション画像64においてラベル付けされる一つの領域の最小単位はIHM位相像上の一つの画素である。そのため、仮にIHM位相像上で細胞核のサイズが1画素程度であったとしても、セグメンテーション画像64において細胞核は一つの領域として検出される。
FCNにより上記のようなセマンティックセグメンテーションを行うには、予め多数の学習用の画像データを用いて、多層ネットワーク60に含まれる複数の畳み込み層や最終段の畳み込み層61それぞれにおけるフィルタの係数(重み)を学習させ、学習モデルを構築しておく必要がある。
次に、図3に示すフローチャートに従って、FCNモデル作成部50における学習処理の動作を説明する。なお、学習を行う際には例えば、一般的に機械学習(特にディープラーニング)でしばしば用いられている確率的勾配降下法を利用した学習を行うことができる。
FCNモデル作成部50において学習画像データ入力部51は、画像作成部24で作成されたIHM位相像とそれに対応する正解画像とを一組とする学習データ(教師データ、訓練データとも呼ばれるが、ここでは学習データという)を予め多数組読み込む(ステップS11)。IHM位相像は、上述したように細胞解析装置1で実際に細胞を撮影したデータに基づいて作成されるものであるが、必ずしも特定の細胞解析装置に限らず、同様の構成の他の細胞解析装置で得られたものでよい。一方、正解画像は、IHM位相像を作成したときの細胞の核のみを染色し、それを適宜の顕微鏡で撮影した蛍光画像(核染色蛍光画像)である。染色の手法は細胞核を染色可能であれば特に問わないが、例えば、DAPI(4',6-diamidino-2-phenylindole)、ヨウ化プロピジウム、SYTOX(登録商標)、TO-PRO(登録商標)-3などを用いることができる。
一組であるIHM位相像と核染色蛍光画像とでは細胞の位置や方向、大きさなどが全く同じであることが望ましいが、一般には、デジタルホログラフィック顕微鏡での撮影と並行して染色蛍光画像を取得することはできないため、得られるIHM位相像と核染色蛍光画像とで細胞の位置や方向、大きさなどが異なることは避けられない。そこで、画像位置合わせ処理部52は、いずれか一方の画像に対して平行移動、回転、拡大・縮小などの画像処理を行うことで、両画像の位置合わせを実施する(ステップS12)。一般的には、細胞がより明瞭に視認可能であるIHM位相像を基準として、核染色蛍光画像の位置を合わせるように画像処理を行うとよい。この位置合わせの作業は、例えばウェルの縁部や培養プレートに付加したマークなどを参照してオペレータが手作業で行ってもよいが、所定のアルゴリズムで自動的に実施するようにしてもよい。
次に、染色画像前処理部53は核染色蛍光画像において細胞核の領域がより鮮明になるように、ノイズ除去処理、及び背景除去処理を実施する(ステップS13、S14)。ノイズ除去処理は各種のノイズを除去することを目的としており、例えば、線形フィルタ、メディアンフィルタなどの各種のフィルタを用いることができる。また、背景除去処理は、細胞核以外の背景部分にある強度ムラを除去することを主な目的としたものであり、背景減算処理として、平均値フィルタを利用した方法などが知られている。ノイズ除去処理、及び背景除去処理の手法自体は、従来の画像処理で利用されている様々な手法を利用することができる。また、ノイズの状況は顕微鏡の特性や対象サンプルの特性にも依存するので、場合によってはノイズ除去処理を省略することができる。
染色画像二値化部54は上記のように前処理がなされた画像を二値化処理して、核の領域とそれ以外の領域とを明確化した二値画像を作成する(ステップS15)。さらに染色画像二値化部54は、二値化後の画像に対し、モルフォロジー変換処理として膨張処理と縮小処理とを組み合わせたクロージング処理を実施する(ステップS16)。
図5(a)は核染色蛍光画像の元画像、図5(b)は図5(a)に示した画像に対し背景除去処理を行った後の画像、図5(c)は図5(a)に示した画像に対し二値化を行った後の二値画像の一例である。以下で説明する画像も同様であるが、ここでは、間葉系幹細胞(MSC:Mesenchymal Stem Cells)を対象とし、核染色にはDAPIを用いた。
一般的に核染色蛍光画像では、核領域以外の背景部分における強度ムラが大きいので、背景除去処理を実施しないと核領域を抽出することが可能な二値化が行えない。それに対し、背景除去処理を事前に行うことで、図5(c)に示したように、核領域が的確に抽出されている二値画像を得ることができる。この二値画像は、対応するIHM位相像上の各画素について、細胞核領域とそれ以外の領域とをセマンティックセグメンテーションした画像である。また、上述したように二値化後にクロージング処理を行うことで、主として輝点ノイズ等の蛍光画像上の小さなノイズを除去することができる。但し、ノイズの状況やステップS13でのノイズ除去処理の性能によっては、クロージング処理は省略することもできる。
全ての学習データについてステップS12~S15の処理を行うことで、IHM位相像と核染色蛍光画像の二値画像とを組とする多数の学習データが揃ったならば、学習実行部55は、その多数の学習データを用いて、FCNの学習を実行する(ステップS17)。即ち、FCNによるセマンティックセグメンテーションの結果が正解画像にできるだけ近くなるように、FCNのネットワークにおける複数の畳み込み層でのフィルタ係数を学習する。モデル構築部56は、その学習の繰り返しの過程でモデルを構築し、所定の学習が終了すると、モデル構築部56はその学習結果に基づく学習モデルを保存する(ステップS18)。
このようにして作成された、核領域を示す学習モデルを構成するデータが核領域学習モデル記憶部251に格納される。
但し、ホログラフィック顕微鏡による測定の原理上、顕微観察部10で得られるホログラムデータには少なからず干渉縞が現れ、これがIHM位相像にも現れることがある。図6に示したIHM位相像では、干渉縞に由来する略同心円状の像がかなり明瞭に現れている。IHM位相像上で干渉縞が明瞭になると、核領域学習モデルを用いて核領域を推定する際に、干渉縞の一部を誤って細胞核であると誤検出することがある。
図7は、図6に示したIHM位相像を入力画像とし核領域学習モデルを用いた推定により得られる核領域推定画像の一例を示す図である。図8は、図7に示した核領域推定画像の正解画像、つまりは正確な核の領域を示す図である。図9は、図6に示したIHM位相像に核領域推定結果である点(核位置候補点)を重ね合わせた画像を示す図である。図10は、図6に示したIHM位相像に核領域の正解な点を重ね合わせた画像を示す図である。なお、図9、図10において核位置を示す点は矩形状であり、それらは、グレイスケールで表された核領域に対し、後述する極大値領域抽出処理及び二値化処理を行うことによって得られたものである。
図9と図10とを比較すると、図9では細胞核が存在しない筈である干渉縞上において偽の核領域が多数検出されていることが分かる。これは、単に核位置学習モデルを用いて核領域を推定しただけでは、多数の誤検出が生じることを意味している。
そこで、本実施形態の細胞解析装置では、誤検出された偽の核領域を除外する処理を行うために、核領域を認識するための学習モデルとは別に、細胞領域を認識する学習モデルを作成する。
ここでは、細胞領域を示す正解画像を得るために、細胞の内部全体に繊維形状又は網目状に存在する細胞骨格を利用する。図11(a)及び(b)は、同じ観察領域におけるアクチンフィラメントの蛍光染色画像及び通常の顕微鏡による明視野画像である。アクチンフィラメントは細胞骨格の一種であり、細胞の内部全体に繊維形状に存在する。図11(b)に示すように、明視野画像では細胞領域を視認することが難しいが、図11(a)に示すように、アクチンフィラメントは概ね細胞全体に存在しているため、アクチンフィラメントが分布している範囲は細胞領域であるとみなすことができる。そこで、本実施形態の細胞解析装置では、細胞骨格(ここではアクチンフィラメント)を染色した蛍光画像を正確画像として、細胞領域を抽出するための細胞領域学習モデルを作成する。
細胞領域学習モデルは上記核領域学習モデルと同様の手順、即ち図3に示した手順で作成することができる。
細胞骨格は細胞の内部に繊維状に張り巡らされているが、必ずしも均等に存在しているわけではなく、細胞内であっても細胞骨格が存在しない又はその密度が低いために二値化すると部分的に黒色になる画素が生じる。これに対し、二値化後にクロージング処理を行うことで、周囲が白色である画素については黒色であっても白色に変換される。これにより、細胞骨格が実際に存在している部分だけではなく、細胞骨格が分布している範囲つまりは細胞領域全体を示す画像を得ることができる。即ち、クロージング処理後の画像は、対応するIHM位相像上の各画素について、細胞領域とそれ以外の領域とを区分けした画像となる。
IHM位相像とクロージング処理後の細胞骨格染色蛍光画像とを組とする多数の学習データが揃ったならば、学習実行部55は、その多数の学習データを用いて、FCNの学習を実行する。モデル構築部56は、その学習の繰り返しの過程でモデルを構築し、所定の学習が終了すると、モデル構築部56はその学習結果に基づく細胞領域学習モデルを保存する。このようにして作成された細胞領域学習モデルを構成するデータが、細胞解析装置1における細胞領域学習モデル記憶部261に格納される。
次に、細胞解析装置1で行われる、解析対象である細胞についての核領域推定画像の作成処理及びそれに基づく細胞計数処理について、図4に示すフローチャートを参照して説明する。
オペレータは解析対象の細胞14を含む培養プレート13を顕微観察部10の所定位置にセットし、入力部30で所定の操作を行う。これにより、撮影制御部21の制御の下で顕微観察部10は、試料(培養プレート13中の細胞14)の撮影を実施する(ステップS21)。位相情報算出部23及び画像作成部24は、その撮影により得られたホログラムデータに基づいて位相計算を実行し、IHM位相像を形成する(ステップS22)。
核領域推定部25は、ステップS22で得られたIHM位相像を入力画像として読み込み、核領域学習モデル記憶部251に格納されている核領域学習モデルを用いたFCNによる処理を実施し、入力画像に対応したセグメンテーション画像を出力画像として取得する(ステップS23)。このときのセグメンテーション画像は、入力画像であるIHM位相像と同じ観察範囲について、細胞核の領域と細胞核以外の領域とを区別して示す核領域推定画像である。
よく知られているように、上述したような機械学習を行うことで構築した学習モデルを利用したFCN処理では、画素毎にセマンティックセグメンテーションの確からしさの確率を示す数値が得られる。つまり、ここでは、核の領域であるとの推定の確からしさの確率が画素毎に得られる。そこで核領域推定部25は、画素毎のその確率値に応じて白から黒までの階調を変えたグレイスケールの画像を出力する。即ち、核領域推定画像では、核領域であると高い確度で推定される部分は白又はそれに近い階調で表示され、核領域であるとの推定の確度が低い部分は相対的に黒に近い階調で表示される。
すでに説明したように、図6に示したIHM位相像に対しては図7に示した核領域推定画像が得られる。上述したように、入力されたIHM位相像上で干渉縞が或る程度明瞭に現れている場合や異物の像が現れている場合、実際には細胞核が存在しない部位に偽の核領域が現れる。
次に、細胞領域推定部26は、ステップS22で得られたIHM位相像を入力画像として読み込み、細胞領域学習モデル記憶部261に格納されている細胞領域学習モデルを用いたFCNによる処理を実施し、入力画像に対応したセグメンテーション画像を出力画像として取得する(ステップS24)。このときのセグメンテーション画像は、入力画像であるIHM位相像と同じ観察範囲について、細胞領域とそれ以外の領域とを区別して示す細胞領域推定画像である。図12は、図6に示したIHM位相像を入力画像として得られる細胞領域推定画像の一例である。
核領域推定画像と同様に、このときにも、FCN処理によって画素毎に得られるセグメンテーションの確からしさの確率を示す数値が得られる。そこで、細胞領域推定部26は、各画素の確率値をそれぞれ所定の閾値と比較し、閾値以上の確率値を有する画素を白、それ以外を黒とした二値のセグメンテーション画像を出力する。
次いでマスク処理部27は、ステップS23で得られた核領域推定画像に対し、ステップS24で得られた二値化された細胞領域推定画像を用いたマスク処理を行う(ステップS25)。即ち、図12に示した二値画像の白色の部分つまり細胞領域に存在する核領域のみを抽出し、それ以外の核領域を排除する。このときに排除された核領域は、干渉縞や異物の像などの影響によって誤って検出された核領域である。図13は、マスク処理後の核領域推定画像であり、図7と比較すれば分かるように、核領域の数が大幅に減少している。
このマスク処理後の核領域推定画像はグレイスケール画像であり、核によって信号のピーク値が異なる。そのため、仮に単一の閾値を用いた判定処理を行っても、全ての核を検出できるとは限らない。また、隣接する複数の核が一つの領域として見える場合もあるため、隣接している複数の核を切り分ける処理を行うことが好ましい。そこで、マスク処理部27は、マスク処理後の核領域推定画像に対して極大値領域抽出処理を行う。
具体的には、グレイスケール画像である核領域推定画像において、黒である領域(背景領域)以外の領域を空間的に膨張させる。次に、その膨張画像において、ノイズ許容値を予め考慮して定めたオフセット値を各画素の信号値(輝度値)から減算することで、輝度を全般的に低下させる。そして、膨張処理前の画像と輝度低下後の画像との間で、画素毎の輝度値の引き算処理を行う。このような引き算処理を行うと、元画像において輝度値がピークである付近の狭い範囲において、そのピークの値とは無関係に、輝度値が非ゼロとなり、それ以外の領域では輝度値がゼロになる。即ち、この処理によって、元画像の中でその周囲よりも輝度値が高い極大値の領域を抽出することができる。
なお、この極大値領域抽出処理のアルゴリズムは画像処理において一般的なものであるが、このアルゴリズムに限らず、極大値領域抽出処理には適宜の既知の手法を用いることができる。例えば、核領域推定画像を二値化したあとに、細胞核毎に重心位置を求めることで核位置候補点を得るようにしてもよい。
マスク処理部27は、マスク処理後の核領域推定画像から極大値領域を抽出した画像を作成したあと、該画像を二値化することで核領域の候補点を示す核位置候補点画像を得る(ステップS26)。図14は、図6に示したIHM画像に、核位置候補点を重ね合わせた図である。この図14と図10とを比較すると、核位置候補点は正解である核位置にほぼ一致していることが分かる。即ち、細胞領域推定画像を利用したマスク処理を行うことで、偽の核領域を的確に排除し、真に細胞核である領域を抽出することができる。
細胞計数部28は、ステップS26で得られた核位置候補点画像上で核位置候補点を計数する(ステップS27)。特殊な場合を除けば、一つの細胞は一つの細胞核を有する。したがって、細胞核の数は細胞数を表しているとみることができ、表示処理部29は計数結果を細胞数として表示部40に表示する(ステップS28)。もちろん、IHM位相像、核領域推定画像、核位置候補点画像、細胞領域推定画像などの一つ又は複数を併せて表示してもよい。
以上のようにして、本実施形態の細胞解析装置では、観察範囲内に存在する細胞の数を正確に算出してユーザに提供することができる。
また、本実施形態の細胞解析装置において、図14に示したようなIHM位相像に核位置候補点を重ねた画像を表示部40に表示すれば、ユーザは細胞内での細胞核の位置を容易に把握することができる。また、図13に示したような核領域推定画像を表示部40に表示すれば、ユーザは細胞核の形状や形態を容易に把握することができる。
上述したような生細胞の計数や細胞核の観察は非侵襲的に行われるので、その解析や観察に使用された細胞を引き続き培養したり別の目的に使用したりすることが可能である。
上記実施形態の細胞解析装置では、グレイスケールの核領域推定画像に対しマスク処理を行い、マスク処理後に極大値領域抽出処理及び二値化処理を行って各核領域に対する核位置候補点を求めていたが、グレイスケールの核領域推定画像から核位置候補点画像を求めた後に細胞領域推定画像を用いたマスク処理を行ってもよい。また、マスク処理として、グレイスケールである核領域推定画像を二値化したあとそれぞれの核領域について、一つの核領域と細胞領域推定画像上の細胞領域との一部又は全部が重複しない場合に、その核領域は誤検出であるとみなして排除するという処理を行ってもよい。このように、マスク処理の方法についても様々な方法を採用することができる。
また、上記実施形態では、細胞核のセマンティックセグメンテーションのための機械学習法としてFCNを用いていたが、通常の畳み込みニューラルネットワーク(CNN)でもよいことは明らかである。また、ニューラルネットワークを用いた機械学習法に限らず、画像についてのセマンティックセグメンテーションが可能な機械学習法であれば本発明を適用することが有効である。こうした機械学習法としては、例えばサポートベクターマシン(SVM)、ランダムフォレスト、アダブーストなどがある。上述したように、FCNでは、入力された画像に対してセグメンテーション画像を出力する際にセグメンテーションの推定確率を出力できるが、CNNやSVM等の他の手法でも、パッチ画像(全体画像を細かく区切った小領域の画像)を走査させ、各パッチ画像の中心点における細胞核らしさの確率を出力することができる。
また、上記実施形態の細胞解析装置では、顕微観察部10としてインライン型ホログラフィック顕微鏡を用いていたが、ホログラムが得られる顕微鏡であれば、オフアクシス(軸外し)型、位相シフト型などの他の方式のホログラフィック顕微鏡に置換え可能であることは当然である。
また、上記実施形態や各種の変形例はあくまでも本発明の一例であり、本発明の趣旨の範囲でさらに適宜変形、修正、追加を行っても本願特許請求の範囲に包含されることは明らかである。
[種々の態様]
上述した例示的な実施形態が以下の態様の具体例であることは、当業者には明らかである。
(第1項)本発明に係る細胞画像解析方法の一態様は、
ホログラフィック顕微鏡で取得されたホログラムデータに基づいて作成される細胞の位相画像を入力画像とし、これに対応する、細胞核を染色して得られた染色画像に基づく擬似的な核領域画像を正解画像とした学習データを用い、機械学習を行うことで核領域学習モデルを作成する第1の学習モデル作成ステップと、
前記細胞の位相画像を入力画像とし、これに対応する、細胞骨格を染色して得られた染色画像に基づく擬似的な細胞領域画像を正解画像とした学習データを用い、機械学習を行うことで細胞領域学習モデルを作成する第2の学習モデル作成ステップと、
前記核領域学習モデルを用い、解析対象の細胞についての位相画像を入力画像とし、細胞核の領域を示す核領域推定画像を出力画像として取得する核領域推定ステップと、
前記細胞領域学習モデルを用い、前記解析対象の細胞についての位相画像を入力画像とし、細胞領域を示す細胞領域推定画像を出力画像として取得する細胞領域推定ステップと、
前記核領域推定画像と前記細胞領域推定画像とを用い、細胞領域であると推定される範囲に存在する細胞核を抽出する核領域抽出ステップと、
を有するものである。
(第7項)また本発明に係る細胞解析装置の一態様は、
ホログラフィック顕微鏡と、
前記ホログラフィック顕微鏡で細胞を観察することで取得されたホログラムデータに基づいて、前記細胞の位相画像を作成する画像作成部と、
ホログラムデータに基づいて作成される細胞の位相画像を入力画像とし、これに対応する、細胞核を染色して得られた染色画像に基づく擬似的な核領域画像を正解画像とした学習データを用い、機械学習を行うことで作成された核領域学習モデルが記憶される第1学習モデル記憶部と、
前記細胞の位相画像を入力画像とし、これに対応する細胞骨格を染色して得られた染色画像に基づく擬似的な細胞領域画像を正解画像とした学習データを用い、機械学習を行うことで作成された細胞領域学習モデルが記憶される第2学習モデル記憶部と、
前記第1学習モデル記憶部に記憶されている核領域学習モデルを用い、解析対象の細胞について前記画像作成部で作成された位相画像を入力画像とし、細胞核の領域を示す核領域推定画像を出力画像として取得する核領域推定部と、
前記第2学習モデル記憶部に記憶されている細胞領域学習モデルを用い、前記解析対象の細胞についての位相画像を入力画像とし、細胞領域を示す細胞領域推定画像を出力画像として取得する細胞領域推定部と、
前記核領域推定画像と前記細胞領域推定画像とを用い、細胞領域であると推定される範囲に存在する細胞核を抽出する核領域抽出部と、
を備えるものである。
第1項に記載の細胞画像解析方法、及び第7項に記載の細胞解析装置によれば、解析対象である細胞に対する染色等の侵襲的な処理を行うことなく、ホログラムデータに基づいて作成された細胞の位相画像から細胞核を正確に抽出することができる。特に、位相画像に干渉縞が現れていたり異物による像等が現れていたりした場合でも、それらの影響を排除して又は軽減して、細胞核を正確に観察することができる。そして、例えば、その細胞核の数を計数することで、細胞数の情報を得ることができる。また、真の細胞核の形状や形態、或いは、細胞核内部の状態を観察することができる。また、解析対象である細胞の撮影(測定)は非侵襲的に行えるので、撮影後の細胞を引き続き培養したり、別の目的の分析や観察に供したりすることができる。
(第2項)第1項に記載の細胞画像解析方法では、前記核領域抽出ステップで抽出された細胞核の数を計数する細胞計数ステップ、をさらに有するものとすることができる。
(第8項)また第7項に記載の細胞解析装置では、前記核領域抽出部で抽出された細胞核の数を計数する細胞計数部、をさらに備えることができる。
特殊な場合を除けば、一つの細胞は一つの細胞核を有するから、細胞核の数は細胞数を表しているとみることができる。第2項に記載の細胞画像解析方法、及び第8項に記載の細胞解析装置によれば、的確に抽出された細胞核の数を計数することができるので、観察範囲に存在する細胞の数を正確に求めることができる。
(第3項)第1項又は第2項に記載の細胞画像解析方法では、前記核領域抽出ステップで抽出された細胞核が表示された核領域推定画像を表示する表示ステップ、をさらに有するものとすることができる。
(第9項)また第7項又は第8項に記載の細胞解析装置では、前記核領域抽出部で抽出された細胞核が表示された核領域推定画像を表示する表示処理部、をさらに備えるものとすることができる。
第3項に記載の細胞画像解析方法、及び第9項に記載の細胞解析装置によれば、ユーザは表示された画像に基づいて、的確に抽出された細胞核の形状や形態を観察することができる。
(第4項)第1項~第3項のいずれか1項に記載の細胞画像解析方法において、前記細胞領域推定画像は、細胞領域とそれ以外の領域とを区分けした二値画像であるものとすることができる。
(第10項)第7項~第9項のいずれか1項に記載の細胞解析装置において、前記細胞領域推定画像は、細胞領域とそれ以外の領域とを区分けした二値画像であるものとすることができる。
第4項に記載の細胞画像解析方法、及び第10項に記載の細胞解析装置によれば、細胞領域とそれ以外の領域とが明確化されているので、細胞核である可能性が高いものを的確に且つ簡単な処理によって抽出することができる。
(第5項)第1項~第4項のいずれか1項に記載の細胞画像解析方法において、前記機械学習は畳み込みニューラルネットワークを用いたものとすることができる。
(第6項)第5項に記載の細胞画像解析方法において、前記畳み込みニューラルネットワークは全畳み込みニューラルネットワークとすることができる。
(第11項)第7項~第10項のいずれか1項に記載の細胞解析装置において、前記機械学習は畳み込みニューラルネットワークを用いたものとすることができる。
(第12項)また第11項に記載の細胞解析装置において、前記畳み込みニューラルネットワークは全畳み込みニューラルネットワークとすることができる。
第5項及び第6項に記載の細胞画像解析方法、並びに、第10項及び第11項に記載の細胞解析装置によれば、細胞核である可能性が高い領域や細胞である可能性が高い領域をそれぞれ的確に推定することができる。
(第13項)また第7項~第12項のいずれか1項に記載の細胞解析装置において、
細胞の位相画像を入力画像とし、これに対応する染色画像に基づく擬似的な領域画像を正解画像とした学習データを用い、機械学習を行うことで学習モデルを作成する学習モデル作成部、をさらに備え、
該学習モデル作成部を用いて前記核領域学習モデル及び前記細胞領域学習モデルを作成するものとすることができる。
第7項に記載の細胞解析装置は、細胞の位相画像から細胞領域推定画像を求めるために利用される学習モデルを作成する機能を有することは必須ではないが、第13項に記載の細胞解析装置はその機能を有する。したがって、第13項に記載の細胞解析装置によれば、例えば、核領域推定部において解析対象の細胞の位相画像に対して得られた核領域推定画像を、学習データに加えて学習モデルを再構築する、といった学習モデルの改良を容易に行うことができる。
1…細胞解析装置
10…顕微観察部
11…光源部
12…イメージセンサ
13…培養プレート
14…細胞
15…参照光
16…物体光
20…制御・処理部
21…撮影制御部
22…ホログラムデータ記憶部
23…位相情報算出部
24…画像作成部
25…核領域推定部
251…核領域学習モデル記憶部
26…細胞領域推定部
261…細胞領域学習モデル記憶部
27…マスク処理部
28…細胞計数部
29…表示処理部
30…入力部
40…表示部
50…FCNモデル作成部
51…学習画像データ入力部
52…画像位置合わせ処理部
53…染色画像前処理部
54…染色画像二値化部
55…学習実行部
56…モデル構築部

Claims (13)

  1. ホログラフィック顕微鏡で取得されたホログラムデータに基づいて作成される細胞の位相画像を入力画像とし、これに対応する、細胞核を染色して得られた染色画像に基づく擬似的な核領域画像を正解画像とした学習データを用い、機械学習を行うことで核領域学習モデルを作成する第1の学習モデル作成ステップと、
    前記細胞の位相画像を入力画像とし、これに対応する、細胞骨格を染色して得られた染色画像に基づく擬似的な細胞領域画像を正解画像とした学習データを用い、機械学習を行うことで細胞領域学習モデルを作成する第2の学習モデル作成ステップと、
    前記核領域学習モデルを用い、解析対象の細胞についての位相画像を入力画像とし、細胞核の領域を示す核領域推定画像を出力画像として取得する核領域推定ステップと、
    前記細胞領域学習モデルを用い、前記解析対象の細胞についての位相画像を入力画像とし、細胞領域を示す細胞領域推定画像を出力画像として取得する細胞領域推定ステップと、
    前記核領域推定画像と前記細胞領域推定画像とを用い、細胞領域であると推定される範囲に存在する細胞核を抽出する核領域抽出ステップと、
    を有する、細胞画像解析方法。
  2. 前記核領域抽出ステップで抽出された細胞核の数を計数する細胞計数ステップ、をさらに有する請求項1に記載の細胞画像解析方法。
  3. 前記核領域抽出ステップで抽出された細胞核が表示された核領域推定画像を表示する表示ステップ、をさらに有する請求項1に記載の細胞画像解析方法。
  4. 前記細胞領域推定画像は、細胞領域とそれ以外の領域とを区分けした二値画像である、請求項1に記載の細胞画像解析方法。
  5. 前記機械学習は畳み込みニューラルネットワークを用いたものである、請求項1に記載の細胞画像解析方法。
  6. 前記畳み込みニューラルネットワークは全畳み込みニューラルネットワークである、請求項5に記載の細胞画像解析方法。
  7. ホログラフィック顕微鏡と、
    前記ホログラフィック顕微鏡で細胞を観察することで取得されたホログラムデータに基づいて、前記細胞の位相画像を作成する画像作成部と、
    ホログラムデータに基づいて作成される細胞の位相画像を入力画像とし、これに対応する、細胞核を染色して得られた染色画像に基づく擬似的な核領域画像を正解画像とした学習データを用い、機械学習を行うことで作成された核領域学習モデルが記憶される第1学習モデル記憶部と、
    前記細胞の位相画像を入力画像とし、これに対応する細胞骨格を染色して得られた染色画像に基づく擬似的な細胞領域画像を正解画像とした学習データを用い、機械学習を行うことで作成された細胞領域学習モデルが記憶される第2学習モデル記憶部と、
    前記第1学習モデル記憶部に記憶されている核領域学習モデルを用い、解析対象の細胞について前記画像作成部で作成された位相画像を入力画像とし、細胞核の領域を示す核領域推定画像を出力画像として取得する核領域推定部と、
    前記第2学習モデル記憶部に記憶されている細胞領域学習モデルを用い、前記解析対象の細胞についての位相画像を入力画像とし、細胞領域を示す細胞領域推定画像を出力画像として取得する細胞領域推定部と、
    前記核領域推定画像と前記細胞領域推定画像とを用い、細胞領域であると推定される範囲に存在する細胞核を抽出する核領域抽出部と、
    を備える細胞解析装置。
  8. 前記核領域抽出部で抽出された細胞核の数を計数する細胞計数部、をさらに備える、請求項7に記載の細胞解析装置。
  9. 前記核領域抽出部で抽出された細胞核が表示された核領域推定画像を表示する表示処理部、をさらに備える請求項7に記載の細胞解析装置。
  10. 前記細胞領域推定画像は、細胞領域とそれ以外の領域とを区分けした二値画像である、請求項7に記載の細胞解析装置。
  11. 前記機械学習は畳み込みニューラルネットワークを用いたものである、請求項7に記載の細胞解析装置。
  12. 前記畳み込みニューラルネットワークは全畳み込みニューラルネットワークである、請求項11に記載の細胞解析装置。
  13. 細胞の位相画像を入力画像とし、これに対応する染色画像に基づく擬似的な領域画像を正解画像とした学習データを用い、機械学習を行うことで学習モデルを作成する学習モデル作成部、をさらに備え、該学習モデル作成部を用いて前記核領域学習モデル及び前記細胞領域学習モデルを作成する、請求項7に記載の細胞解析装置。
JP2021551081A 2019-10-11 2019-10-11 細胞画像解析方法及び細胞解析装置 Active JP7248139B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/040275 WO2021070371A1 (ja) 2019-10-11 2019-10-11 細胞画像解析方法及び細胞解析装置

Publications (2)

Publication Number Publication Date
JPWO2021070371A1 JPWO2021070371A1 (ja) 2021-04-15
JP7248139B2 true JP7248139B2 (ja) 2023-03-29

Family

ID=75438159

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021551081A Active JP7248139B2 (ja) 2019-10-11 2019-10-11 細胞画像解析方法及び細胞解析装置

Country Status (2)

Country Link
JP (1) JP7248139B2 (ja)
WO (1) WO2021070371A1 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019171453A1 (ja) 2018-03-06 2019-09-12 株式会社島津製作所 細胞画像解析方法、細胞画像解析装置、及び学習モデル作成方法
WO2019180833A1 (ja) 2018-03-20 2019-09-26 株式会社島津製作所 細胞観察装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6763305B2 (ja) * 2014-12-09 2020-09-30 コニカミノルタ株式会社 画像処理装置及び画像処理プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019171453A1 (ja) 2018-03-06 2019-09-12 株式会社島津製作所 細胞画像解析方法、細胞画像解析装置、及び学習モデル作成方法
WO2019180833A1 (ja) 2018-03-20 2019-09-26 株式会社島津製作所 細胞観察装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BIANCO, Vittorio et al.,Strategies for reducing speckle noise in digital holography,Science & Applications,2018年,Vol.7,48 (p.1-16)
CHRISTIANSEN, Eric M. et al,In Silico Labeling: Predicting Fluorescent Labels in Unlabeled Images,Cell,2018年04月19日,Vol.173,p.792-803
LEE, Jimin et al.,Deep-Learning-Based Label-Free Segmentation of Cell Nuclei in Time-Lapse Refractive Index Tomograms,IEEE Access,2019年06月21日,Vol.7,p.83449-83460
OUNKOMOL, Chawin et al.,Label-free prediction of three-dimensional fluorescence images from transmitted light microscopy,Nat. Methods,2018年11月,Vol.15, No.11,p.917-920 (p.1-13)

Also Published As

Publication number Publication date
JPWO2021070371A1 (ja) 2021-04-15
WO2021070371A1 (ja) 2021-04-15

Similar Documents

Publication Publication Date Title
JP7459336B2 (ja) 予測タグ付けを有する画像を生成するための画像処理のためのシステム、デバイス、および方法
Ounkomol et al. Label-free prediction of three-dimensional fluorescence images from transmitted-light microscopy
Weng et al. Combining deep learning and coherent anti-Stokes Raman scattering imaging for automated differential diagnosis of lung cancer
US20200388033A1 (en) System and method for automatic labeling of pathology images
US11978211B2 (en) Cellular image analysis method, cellular image analysis device, and learning model creation method
Abbasniya et al. Classification of breast tumors based on histopathology images using deep features and ensemble of gradient boosting methods
JP2022180419A (ja) 画像解析方法、装置、プログラムおよび学習済み深層学習アルゴリズムの製造方法
US20210110536A1 (en) Cell image analysis method and cell image analysis device
Landini et al. Automatic thresholding from the gradients of region boundaries
Li et al. DLBI: deep learning guided Bayesian inference for structure reconstruction of super-resolution fluorescence microscopy
CN111051955A (zh) 通过使用卷积神经网络来标识利用数字全息显微镜所获取的细胞图像的品质
US11538261B2 (en) Systems and methods for automated cell segmentation and labeling in immunofluorescence microscopy
Wang et al. Detection of dendritic spines using wavelet‐based conditional symmetric analysis and regularized morphological shared‐weight neural networks
Goceri et al. Quantitative validation of anti‐PTBP1 antibody for diagnostic neuropathology use: Image analysis approach
Son et al. Morphological change tracking of dendritic spines based on structural features
Kaakinen et al. Automatic detection and analysis of cell motility in phase‐contrast time‐lapse images using a combination of maximally stable extremal regions and Kalman filter approaches
Gao et al. An effective retinal blood vessel segmentation by using automatic random walks based on centerline extraction
Delpiano et al. Automated detection of fluorescent cells in in‐resin fluorescence sections for integrated light and electron microscopy
Riasatian et al. A comparative study of U-net topologies for background removal in histopathology images
Marcuzzo et al. Automated Arabidopsis plant root cell segmentation based on SVM classification and region merging
JP7248139B2 (ja) 細胞画像解析方法及び細胞解析装置
Hodneland et al. Automated detection of tunneling nanotubes in 3D images
JP2021078356A (ja) 細胞解析装置
Zhang et al. FFT pattern recognition of crystal HRTEM image with deep learning
Meruvia-Pastor et al. Estimating cell count and distribution in labeled histological samples using incremental cell search

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230214

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230227

R151 Written notification of patent or utility model registration

Ref document number: 7248139

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151